Está en la página 1de 196

Apuntes de Álgebra Lineal.

Francisco Javier Fernández Fernández


Ramón González Rodríguez

9 de enero de 2018
No se permite la reproducción total o parcial de este libro, ni su incorporación
a un sistema informático, ni su transmisión en cualquier forma o por cualquier
medio, sea este electrónico, mecánico, reprográfico, gramofónico u otro, sin el
permiso previo y por escrito de los titulares del copyright.

© Francisco Javier Fernández Fernández.

© De la presente edición, Centro Universitario de la Defensa.


1ª edición, 2016

Edita: Centro Universitario de la Defensa


Plaza de España, s/n, 36920 Marín (Pontevedra)

Impresión: Edelvives Talleres Gráficos

Impreso en España
Printed in Spain

Depósito Legal: P XXX-2015


ISBN: XXX-XX-XXXXXX-X-X
Índice general

1. Matrices. Sistemas de ecuaciones lineales 1

1.1. Matrices. Operaciones con matrices . . . . . . . . . . . . . . . . . 1

1.2. Matrices elementales y aplicaciones. . . . . . . . . . . . . . . . . 18

1.3. Matrices inversibles. Cálculo de la matriz inversa . . . . . . . . . 34

1.4. Determinante de una matriz cuadrada. Propiedades y cálculo . . 38

1.5. Sistemas homogéneos y no homogéneos. . . . . . . . . . . . . . . 48

1.6. Eliminación Gaussiana. Factorización LU . . . . . . . . . . . . . 57

2. Espacios vectoriales y aplicaciones lineales 71

2.1. Espacios y subespacios vectoriales. . . . . . . . . . . . . . . . . . 71

2.2. Independencia lineal. Bases y dimensión . . . . . . . . . . . . . . 83

2.3. Sistemas de coordenadas. Cambio de base . . . . . . . . . . . . . 92

2.4. Aplicaciones lineales. Matriz asociada. Núcleo y rango . . . . . . 97

3
4 ÍNDICE GENERAL

3. Autovalores y autovectores 115

3.1. Autovalores y autovectores. Polinomio característico . . . . . . . 115

3.2. Matrices diagonalizables . . . . . . . . . . . . . . . . . . . . . . . 127

3.3. Polinomios anuladores. Teorema de Cayley-Hamilton . . . . . . . 137

3.4. Funciones de matrices. . . . . . . . . . . . . . . . . . . . . . . . . 142

4. Espacios euclídeos. Formas cuadráticas 149

4.1. Espacios vectoriales con producto escalar . . . . . . . . . . . . . 149

4.2. Bases ortonormales. . . . . . . . . . . . . . . . . . . . . . . . . . 157

4.3. Diagonalización ortogonal de matrices simétricas . . . . . . . . . 173

4.4. Formas cuadráticas reales. Clasificación. . . . . . . . . . . . . . . 177


Capítulo 1

Matrices. Sistemas de
ecuaciones lineales

1.1. Matrices. Operaciones con matrices

A lo largo de estas notas K denotará el cuerpo de los números reales R o el


cuerpo de los números complejos C.

Definición 1.1.1 Se define una matriz de orden m por n, o de m filas y n columnas,


con coeficientes en el cuerpo K como una tabla rectangular
¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ a21 a22 ¨ ¨ ¨ a2n ‹
A“˚ . .. .. .. ‹
˚ ‹
˝ .. . . . ‚
am1 am2 ¨¨¨ amn
donde aij (el elemento colocado en la fila i y la columna j) pertenece a K para
todo i P t1, . . . , mu y j P t1, . . . , nu.

El conjunto de todas las matrices de m filas y n columnas con coeficientes en K

1
2CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

será denotado por Mmˆn pKq y para los elementos de este conjunto utilizaremos la
notación abreviada A “ paij q. Dos matrices A “ paij q y B “ pbij q pertenecientes
a Mmˆn pKq son iguales, si aij “ bij para todos i P t1, . . . , mu y j P t1, . . . , nu.
En el caso de que m “ n, la matriz se llamará cuadrada de orden n.

Para una matriz A llamaremos submatriz de A a toda matriz obtenida de ella


suprimiendo alguna de sus filas o columnas. Un bloque es una submatriz de A
donde los índices de filas y columnas son consecutivos.

Ejemplo 1.1.2 La matriz


¨ ˛
1 2´i ´1 ` 2i
A“˝ 1 2 ´2 ` i ‚
´1 ´2 ` i 2 ´ 2i

es cuadrada de tres filas y tres columnas con coeficientes en C. Por lo tanto,


pertenece al conjunto M3ˆ3 pCq. Si suprimimos la primera fila, obtenemos la
submatriz ˆ ˙
1 2 ´2 ` i
B“
´1 ´2 ` i 2 ´ 2i
que no es cuadrada, pertenece al conjunto M2ˆ3 pCq y es un bloque de A.

La matriz ¨ ˛
0 1 1
˚ 1 0 1 ‹
C“˚
˝ 1

1 1 ‚
3 1 1
pertenece al conjunto M4ˆ3 pRq. Si eliminamos las dos últimas columnas y la
tercera fila obtenemos la submatriz de C dada por
¨ ˛
0
C“˝ 1 ‚
3

que pertenece a M3ˆ1 pRq y no es un bloque de A.

Definición 1.1.3 Dada una matriz cuadrada A “ paij q P Mnˆn pKq, los coeficientes
de la forma aii constituyen la diagonal principal de la matriz. A este conjunto
1.1. MATRICES. OPERACIONES CON MATRICES 3

de elementos lo denotaremos como diagpAq. Se dice que una matriz cuadrada A


es diagonal si todos los coeficientes fuera de la diagonal principal son nulos, esto
es, aij “ 0 para todo i ‰ j. Por lo tanto, este tipo de matrices son de la forma:
¨ ˛
a11 0 ¨¨¨ 0
˚ 0 a22 ¨¨¨ 0 ‹
A“˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ ann

Cuando una matriz A diagonal cumple que aii “ a para todo i P t1, . . . nu
se llamará escalar. Dentro de las matrices escalares debemos resaltar el caso
particular de a “ 1. Esta matriz será llamada matriz identidad de orden n y se
representará como In . Así pues,
¨ ˛
1 0 ¨¨¨ 0
˚ 0 1 ¨¨¨ 0 ‹
In “ ˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ 1

Definición 1.1.4 Una matriz A “ paij q P Mmˆn pKq es triangular superior si aij “ 0
para todo i ą j. En el caso de que aij “ 0 para todo i ă j la matriz es triangular
inferior.

Ejemplo 1.1.5 La matriz


¨ ˛
3 1 1
˚ 0 0 1 ‹
A“˚
˝ 0

0 1 ‚
0 0 0

es triangular superior y la matriz


¨ ˛
3 0 0 0 0
B“˝ 3 5 0 0 0 ‚
3´i 9 9 0 0

es triangular inferior.
4CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Definición 1.1.6 Una matriz A P M1ˆn pKq se llama matriz fila y una matriz en
B P Mmˆ1 pKq se llama matriz columna. Así pues, estas matrices son de la forma
¨ ˛
a11
` ˘ ˚ a21 ‹
A “ a11 a12 ¨ ¨ ¨ a1n B“˚ . ‹
˚ ‹
.
˝ . ‚
am1

respectivamente.

Después de estas definiciones preliminares, pasemos a continuación a estudiar


las principales operaciones que podemos realizar con matrices. La primera de
ellas es la suma.

Definición 1.1.7 Dadas dos matrices A “ paij q P Mmˆn pKq y B “ pbij q P Mmˆn pKq,
se define su suma A ` B como la matriz perteneciente a Mmˆn pKq dada por

A ` B “ paij ` bij q.

Por lo tanto,
¨ ˛
a11 ` b11 a12 ` b12 ¨¨¨ a1n ` b1n
˚ a21 ` b21 a22 ` b22 ¨¨¨ a2n ` b2n ‹
A`B “˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
am1 ` bm1 am2 ` bm2 ¨¨¨ amn ` bmn

Obsérvese que la suma de matrices sólo está definida para matrices de igual
orden. Es relativamente sencillo comprobar que el conjunto Mmˆn pKq junto con
la operación suma de matrices es un grupo conmutativo. Esto es, la suma de
matrices verifica las siguientes propiedades

Asociativa: A ` pB ` Cq “ pA ` Bq ` C @ A, B, C P Mmˆn pKq.

Conmutativa: A ` B “ B ` A @ A, B P Mmˆn pKq.

Elemento neutro: D Θm,n P Mmˆn pKq { A ` Θm,n “ A @ A P


Mmˆn pKq.
1.1. MATRICES. OPERACIONES CON MATRICES 5

Elemento opuesto: @ A P Mmˆn pKq D ´ A P Mmˆn pKq { A ` p´Aq “


Θm,n .

Obviamente la matriz Θm,n que juega el papel del elemento neutro es la matriz
¨ ˛
0 0 ¨¨¨ 0
˚ 0 0 ¨¨¨ 0 ‹
Θm,n “ ˚ . . .
. . ...
˚ ‹
˝ .. ..


0 0 ¨¨¨ 0
y si A “ paij q P Mmˆn pKq
¨ ˛
´a11 ´a12 ¨¨¨ ´a1n
˚ ´a21 ´a22 ¨¨¨ ´a2n ‹
.. .. .. ..
˚ ‹
´A “ ˚
.

˝ . . . ‚
´am1 ´am2 ¨¨¨ ´amn

Ejemplo 1.1.8 Dadas las matrices pertenecientes a M3ˆ5 pCq


¨ ˛ ¨ ˛
3 0 0 0 0 3 1 1 1 i
A“˝ 3 5 0 0 0 ‚, B “ ˝ 3 ´5 i 2´i 0 ‚
3´i 9 9 0 0 ´i 0 5 ` 4i 1 1
su suma es
¨ ˛
3`3 0`1 0`1 0`1 0`i
A`B “˝ 3`3 5 ` p´5q 0`i 0 ` 2 ´ i 0 ` 0 ‚“
p3 ´ iq ` p´iq 9`0 9 ` p5 ` 4iq 0`1 0`1
¨ ˛
6 1 1 1 i
˝ 6 0 i 2´i 0 ‚
3 ´ 2i 9 14 ` 4i 1 1

La siguiente operación interesante que podemos hacer con las matrices es el


producto por escalares.

Definición 1.1.9 Dada una matriz A “ paij q P Mmˆn pKq y un escalar α P K, se


define el producto de α por A como la matriz αA P Mmˆn pKq dada por
αA “ pαaij q.
6CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Por lo tanto, ¨ ˛
αa11 αa12 ¨¨¨ αa1n
˚ αa21 αa22 ¨¨¨ αa2n ‹
αA “ ˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
αam1 αam2 ¨¨¨ αamn
De la misma forma que con la suma de matrices, no es difícil comprobar que el
conjunto Mmˆn pKq junto con la operación producto por escalares verifica las
siguientes propiedades:

Distributiva respecto a la suma de escalares:

pα ` βqA “ αA ` βA @ A P Mmˆn pKq; @ α, β P K.

Distributiva respecto a la suma de matrices:

αpA ` Bq “ αA ` αB @ A, B P Mmˆn pKq; @ α P K.

Asociativa del producto de escalares con el producto de escalares


con matrices:

pαβqA “ αpβAq @ A P Mmˆn pKq; @ α, β P K.

Ley de la identidad: 1A “ A @ A P Mmˆn pKq.

Ejemplo 1.1.10 Dada la matriz


ˆ ˙
3´i 1 5 ` i 1 ?0
A“
3 5 3 3 2

su producto por el escalar 1 ` 2i es


ˆ ˙
p1 ` 2iqp3 ´ iq 1p1 ` 2iq p1 ` 2iqp5 ` iq 1p1 ` 2iq ?0p1 ` 2iq
p1`2iqA “ “
3p1 ` 2iq 5p1 ` 2iq 3p1 ` 2iq 3p1 ` 2iq 2p1 ` 2iq
ˆ ˙
5 ` 5i 1 ` 2i 3 ` 11i 1 ` 2i ? 0 ?
3 ` 6i 5 ` 10i 3 ` 6i 3 ` 6i 2 ` 2 2i
1.1. MATRICES. OPERACIONES CON MATRICES 7

Finalmente, en este apartado introducimos la operación producto de matrices,


que, como veremos, es la que presenta mayor número de dificultades.

Definición 1.1.11 Dadas dos matrices A “ paij q P Mmˆn pKq y B “ pbjl q P


Mnˆp pKq, se define su producto AB como la matriz perteneciente a Mmˆp pKq
dada por
n
ÿ
AB “ pcil q, cil “ aij bjl “ ai1 b1l ` ai2 b2l ` ¨ ¨ ¨ ` ain bnl .
j“1

Por lo tanto, el producto de matrices sólo está definido si el número de columnas


de A es coincidente con el número de filas de B. Esto implica que, si A y B son
matrices cuadradas de orden n, siempre se pueden multiplicar en cualquier orden
y la operación producto es interna en Mnˆn pKq, esto es, si A, B P Mnˆn pKq,
las matrices AB y BA pertenecen a Mnˆn pKq. Esto último no implica que sean
iguales ya que, por ejemplo, si
¨ ˛ ¨ ˛
6 1 1 0 0 1
A “ ˝ 6 0 0 ‚, B “ ˝ 0 1 0 ‚
3 1 1 1 0 0
tenemos que
¨ ˛ ¨ ˛
6¨0`1¨0`1¨1 6¨0`1¨1`1¨0 6¨1`1¨0`1¨0 1 1 6
AB “ ˝ 6 ¨ 0 ` 0 ¨ 0 ` 1 ¨ 1 6 ¨ 0 ` 0 ¨ 1 ` 0 ¨ 0 6 ¨ 1 ` 0 ¨ 0 ` 0 ¨ 0 ‚ “ ˝ 0 0 6 ‚
3¨0`1¨0`1¨1 3¨0`1¨1`1¨0 3¨1`1¨0`1¨0 1 1 3
y, por otro lado,
¨ ˛ ¨ ˛
0¨6`0¨6`1¨3 0¨1`0¨0`1¨1 0¨1`0¨0`1¨1 3 1 1
BA “ ˝ 0 ¨ 6 ` 1 ¨ 6 ` 0 ¨ 3 0 ¨ 1 ` 1 ¨ 0 ` 0 ¨ 1 0 ¨ 1 ` 1 ¨ 0 ` 0 ¨ 1 ‚ “ ˝ 6 0 0 ‚
1¨6`0¨6`0¨3 1¨1`0¨0`0¨1 1¨1`0¨0`0¨1 6 1 1
Así pues, el producto de matrices no es conmutativo.

A pesar de la falta de conmutatividad el producto de matrices sí verifica algunas


propiedades interesantes como, por ejemplo:

Asociativa: ApBCq “ pABqC @ A P Mmˆn pKq, B P Mnˆp pKq, C P


Mpˆq pKq.
8CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Elemento neutro: AIn “ A “ In A @ A P Mnˆn pKq.


Distributiva respecto a la suma de matrices:
ApB ` Cq “ AB ` AC @ A P Mmˆn pKq; @ B, C P Mnˆp pKq.
Asociatividad respecto al producto de escalares:
αpABq “ pαAqB @ A P Mmˆn pKq, @ B P Mnˆp pKq, @ α P K.

Nota 1.1.12 Se debe resaltar también que, cuando se tiene que dos productos de
matrices AB y AC coinciden, esto no implica que B “ C. Por ejemplo, si
ˆ ˙ ˆ ˙ ˆ ˙
1 1 2 2 1 1
A“ , B“ , C“
1 1 2 2 3 3
se tiene que ˆ ˙
4 4
AB “ “ AC.
4 4

Nota 1.1.13 Es interesante ver que en caso particular de multipicar una matriz
A “ paij q P Mmˆn pKq por una matriz columna b “ pbj1 q P Mnˆ1 pKq tenemos
que Ab P Mmˆ1 pKq y además es combinación lineal de las columnas de A ya
que:
¨ ˛¨ ˛
a11 a12 ¨ ¨ ¨ a1n b11
˚ a21 a22 ¨ ¨ ¨ a2n ‹ ˚ b21 ‹
Ab “ ˚ . .. .. .. ‹ ˚ .. ‹
˚ ‹˚ ‹
˝ .. . . . ‚˝ . ‚
am1 am2 ¨¨¨ amn bn1
¨ ˛ ¨ ˛ ¨ ˛
a11 a12 a1n
˚ a21 ‹ ˚ a22 ‹ ˚ a2n ‹
b11 ˚ .. ‹ ` b21 ˚ .. ‹ ` ¨ ¨ ¨ ` bn1 ˚ ..
˚ ‹ ˚ ‹ ˚ ‹
“ ‹
˝ . ‚ ˝ . ‚ ˝ . ‚
am1 am2 amn
Por otro lado, si A “ paij q P Mmˆn pKq y B “ pbjl q P Mnˆp pKq, entonces
denotando la columna l-ésima de B por
¨ ˛
b1l
˚ b2l ‹
bl “ ˚ . ‹
˚ ‹
˝ .. ‚
bnl
1.1. MATRICES. OPERACIONES CON MATRICES 9

se tiene que la columna l-ésima de AB es Abl y entonces podemos pensar el


producto de las matrices A y B como
AB “ pAb1 |Ab2 | ¨ ¨ ¨ |Abp q.
Por lo tanto, cada columna de AB es combinación lineal de las columnas de A.

Definición 1.1.14 Dada una matriz A “ paij q P Mmˆn pKq, una descomposición por
bloques de A está dada por dos conjuntos de números naturales
tm1 , ¨ ¨ ¨ mM u, tn1 , ¨ ¨ ¨ nN u,
cumpliendo las igualdades
M
ÿ N
ÿ
mI “ m, nJ “ n,
I“1 J“1

de forma que determinan M N bloques AIJ de A donde los coeficientes de A que


pertenecen al bloque AIJ se toman de la siguiente manera.

Filas:
I “ 1: Desde la fila 1 hasta la fila m1 .
I ą 1: Desde la fila m1 ` ¨ ¨ ¨ ` mI´1 ` 1 hasta la fila m1 ` ¨ ¨ ¨ ` mI´1 ` mI .

Columnas:
J “ 1: Desde la columna 1 hasta la columna n1 .
J ą 1: Desde la columna n1 ` ¨ ¨ ¨ ` nJ´1 ` 1 hasta la columna n1 ` ¨ ¨ ¨ `
nJ´1 ` nJ .

Así pues, podemos escribir A como


¨ ˛
A11 | A12 | ¨¨¨ | A1N
˚ ´´ | ´´ | ¨¨¨ | ‹ ´´
˚ ‹
˚ A21 | A22 | ¨¨¨ | ‹ A2N
˚ ‹
A “ ˚ ´´ | ´´ | ¨¨¨ | ´´
˚ ‹
˚ .. .. . ..

| ..

˚ . | . | ‹ .
˚ ‹
˝ ´´ | ´´ | ¨ ¨ ¨ | ´´ ‚
AM 1 | AM 2 | ¨ ¨ ¨ | AM N
10CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

donde AIJ P MmI ˆnJ pKq.

Ejemplo 1.1.15 Sea la matriz


¨ ˛
3 0 0 0
˚ 3 5 0 0 ‹
A“˚
˝ 3´i

9 9 0 ‚
1 1 9 0

y tomemos los naturales

m1 “ 2, m2 “ 1, ; m3 “ 1, n1 “ 2, n2 “ 1, n3 “ 1.

Entonces, estos números determinan la siguiente descomposición por bloques de


A: ¨ ˛
3 0 | 0 | 0
˚ 3 5 | 0 | 0 ‹
˚ ‹
˚ ´ ´ | ´ | ´ ‹
A“˚ ˚ 3´i
‹.
˚ 9 | 9 | 0 ‹ ‹
˝ ´ ´ | ´ | ´ ‚
1 1 | 9 | 0
Si tomásemos
m1 “ 4, n1 “ 1, n2 “ 1, n3 “ 1, n4 “ 1,
obtendríamos una descomposición en bloques para A donde cada bloque coincide
con las columnas de la matriz.

Finalmente, si tomamos

m1 “ 2, m2 “ 2, n1 “ 2, n2 “ 2

la descomposición por bloques sería


¨ ˛
3 0 | 0 0
˚ 3 5 | 0 0 ‹
˚ ‹
A“˚ ˚ ´ ´ | ´ ´ ‹.

˝ 3´i 9 | 9 0 ‚
1 1 | 9 0

El producto de matrices también admite una formulación por bloques.


1.1. MATRICES. OPERACIONES CON MATRICES 11

1.1.16 Dadas dos matrices A “ paij q P Mmˆn pKq y B “ pbjl q P Mnˆp pKq,
con descomposiciones por bloques
M
ÿ N
ÿ
tm1 , ¨ ¨ ¨ mM u, tn1 , ¨ ¨ ¨ nN u, mI “ m, nJ “ n
I“1 J“1

y
N
ÿ P
ÿ
tn1 , ¨ ¨ ¨ nN u, tp1 , ¨ ¨ ¨ pP u, nJ “ n, pL “ p
J“1 L“1

respectivamente, tenemos que el producto AB también admite una descomposi-


ción por bloques determinada por los números naturales
M
ÿ P
ÿ
tm1 , ¨ ¨ ¨ mM u, tp1 , ¨ ¨ ¨ pP u, mI “ m, pL “ p
I“1 L“1

donde
N
ÿ
AB “ pCIL q, CIL “ AIJ BJL “ AI1 B1L ` AI2 B2L ` ¨ ¨ ¨ ` AIN BN L .
J“1

Ejemplo 1.1.17 Sea la matriz


¨ ˛
2 3 4
A“˝ 1 2 3 ‚
1 1 1

y descomposición dada por

m1 “ 2, m2 “ 1, n1 “ 2, n2 “ 1.

Sea la matriz ¨ ˛
1 2
B“˝ 2 3 ‚
1 0
y descomposición dada por

n1 “ 2, n2 “ 1, p1 “ 1, p2 “ 1.
12CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Entonces, podemos hacer el producto de A por bloques obteniendo una descom-


posición dada por
m1 “ 2, m2 “ 1, p1 “ 1, p2 “ 1
donde
¨ ˛¨ ˛
¨ ˛ 2 3 | 4 1 | 2
C11 | C12 ˚ 1 2 | 3 ‹ ˚ 2 | 3 ‹
AB “ ˝ ´ | ´ ‚“ ˚
˝ ´ ´
‹˚ ‹
| ´ ‚˝ ´ | ´ ‚
C21 | C22
1 1 | 1 1 | 0
¨ ˆ ˙ˆ ˙ ˆ ˙ ˆ ˙ˆ ˙ ˆ ˙ ˛
2 3 1 4 2 3 2 4
` ,1 | ` ,0
˚
˚ 1 2 2 3 1 2 3 3 ‹

˚
˚ ´ ´ ´ ´ ´ ´ ´ ´ˆ´ ´˙´ ´ ´ | ´ ´ ´ ´ ´ ´ ´ ´ˆ´ ´˙´ ´ ´ ‹

˝ ` ˘ 1 ` ˘ 2 ‚
1 1 ` 1,1 | 1 1 ` 1,0
2 3
¨ ˛
12 | 13
˚ 8 | 8 ‹
“˝ ˚ ‹.
´ | ´ ‚
4 | 5

Definición 1.1.18 Dada una matriz cuadrada A se define para cada k P N como
Ak “ AAk´1 siendo A1 “ A.

De forma directa se deducen las siguientes propiedades para toda matriz cuadrada
A:

Ap Aq “ Ap`q ; @ p, q P N.

pAp qq “ Apq ; @ p, q P N.

Si A es una matriz diagonal con diagonal principal a11 , . . . , ann , entonces


@ p P N, Ap es una matriz diagonal con diagonal principal ap11 , . . . , apnn .

Si A es una matriz cuadrada de orden n, se dice que es nilpotente si existe k P N


tal que Ak “ Θn,n . Al menor k P N tal que Ak “ Θn,n se le llama índice de
nilpotencia de A.
1.1. MATRICES. OPERACIONES CON MATRICES 13

Por ejemplo, la matriz ˆ ˙


0 1
A“
0 0
es nilpotente de índice dos ya que A2 “ Θ2,2 .

Definición 1.1.19 Dada una matriz cuadrada A, se dice que es idempotente si


A2 “ A.

Por ejemplo la matriz ˆ ˙


1 0
A“
0 0
es idempotente ya que A2 “ A.

Por lo tanto, si una matriz es idempotente Ak “ A para todo número natural k.

Definición 1.1.20 Dada una matriz A “ paij q P Mmˆn pKq, se define su matriz
traspuesta, denotada como At , como la que se obtiene intercambiando en A filas
y columnas. Así pues, At P Mnˆm pKq y

At “ pbji q; bji “ aij .

Por ejemplo, la traspuesta de la matriz


ˆ ˙
3 ´ i 1 5 ` i 1 ?0
A“ P M2ˆ5 pCq
3 5 3 3 2

es la matriz ¨ ˛
3´i 3
˚
˚ 1 5 ‹

t ‹ P M5ˆ2 pCq
A “˚
˚ 5`i 3 ‹
˝ 1 ?3 ‚
0 2
De forma inmediata (salvo la relativa al producto) se pueden probar las siguientes
propiedades:

pAt qt “ A @ A P Mmˆn pKq.


14CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

pA ` Bqt “ At ` B t @ A, B P Mmˆn pKq.


pαAqt “ αAt @ A P Mmˆn pKq; ; @ α P K.
pABqt “ B t At @ A P Mmˆn pKq; @ B P Mnˆm pKq.

Definición 1.1.21 Una matriz cuadrada A “ paij q P Mnˆn pKq se dice que es simé-
trica si A “ At . Por lo tanto, A es simétrica, si, y sólo si, aij “ aji para todo
i ‰ j.

Una matriz cuadrada A “ paij q P Mnˆn pKq se dice que es antisimétrica si


´A “ At . Por lo tanto, A es antisimétrica, si, y sólo si, aij “ ´aji para todo
i ‰ j y, además, aii “ 0 para todo i P t1, . . . , nu.

Ejemplo 1.1.22 Por ejemplo la matriz


¨ ˛
6 1 1
A“˝ 1 1 0 ‚
1 0 1
es simétrica y la matriz ¨ ˛
0 1 1
B “ ˝ ´1 0 ´i ‚
´1 i 0
es antisimétrica.

Nota 1.1.23 La importancia de las matrices simétricas y antisimétricas radica, entre


otras cosas, en que toda matriz cuadrada se puede poner de forma única como
suma de una matriz simétrica y otra antisimétrica. Si la matriz de partida es A,
tenemos que
1 1
A “ pA ` At q ` pA ´ At q
2 2
donde 2 pA ` A q es la matriz simétrica y 2 pA ´ At q la antisimétrica.
1 t 1

Definición 1.1.24 Sea A “ paij q P Mmˆn pCq. Se llama matriz conjugada de A y se


denota por A a la matriz resultante de conjugar todos los coeficientes de A. Así
pues,
A “ pbij q; bij “ aij .
1.1. MATRICES. OPERACIONES CON MATRICES 15

t
Con A˚ denotaremos a la matriz A P Mnˆm pCq. Para el operador ˚ tenemos
las siguientes propiedades:

pA˚ q˚ “ A @ A P Mmˆn pCq.

pA ` Bq˚ “ A˚ ` B ˚ @ A, B P Mmˆn pCq.

pαAq˚ “ αA˚ @ A P Mmˆn pCq; @ α P C.

pABq˚ “ B ˚ A˚ @ A P Mmˆn pCq; @ B P Mnˆm pCq.

Ejemplo 1.1.25 Si, por ejemplo, tomamos la matriz


¨ ˛
1´i 1 1
A “ ˝ ´1 0 ´i ‚
´1 i 0

tenemos que
¨ ˛
1`i 1 1
A “ ˝ ´1 0 i ‚
´1 ´i 0
y que
¨ ˛
1`i ´1 ´1
A˚ “ ˝ 1 0 ´i ‚
1 i 0

Definición 1.1.26 Una matriz cuadrada A “ paij q P Mnˆn pCq se dice que es her-
mitiana si A “ A˚ . Por lo tanto, A es hermitiana, si, y sólo si, aij “ aji . En
particular esto implica que aii “ aii o, lo que es lo mismo, todos los elementos
de la diagonal principal son números reales.

Una matriz cuadrada A “ paij q P Mnˆn pCq se dice que es antihermitiana,


si ´A “ A˚ . Por lo tanto, A es antihermitiana, si, y sólo si, ´aij “ aji . En
particular esto implica que ´aii “ aii o, lo que es lo mismo, todos los elementos
de la diagonal principal tienen la parte real nula.
16CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.1.27 Si, por ejemplo, tomamos la matriz


¨ ˛
1 1 1
A“˝ 1 0 i ‚
1 ´i 0

tenemos que A es hermitiana y, si B es la matriz


¨ ˛
i 1 1
B “ ˝ ´1 0 i ‚,
´1 i 0

obtenemos un ejemplo de matriz antihermitiana.

Definición 1.1.28 Sea A una matriz cuadrada de orden n. Diremos que A es una
matriz inversible, o que tiene inversa, si existe otra matriz B del mismo orden,
tal que
AB “ BA “ In .
Generalmente, la matriz B se conoce con el nombre de inversa de A y se
denota como A´1 . Las matrices inversible también se llaman matrices regulares
o matrices no singulares.

Cuando una matriz cuadrada tiene inversa su inversa única. En efecto, sea A
una matriz inversible y supongamos que existen B y C tales que

AB “ BA “ AC “ CA “ In .

Entonces,
B “ BIn “ BpACq “ pBAqC “ In C “ C.
Utilizando unicidad de la inversa se pueden probar de forma inmediata las
siguientes propiedades:

Si A y B son matrices cuadradas inversibles, también lo es su producto y


se cumple que
pABq´1 “ B ´1 A´1 .

Si una matriz A es inversible, también lo es A´1 y se cumple que

pA´1 q´1 “ A.
1.1. MATRICES. OPERACIONES CON MATRICES 17

Si α es un escalar no nulo y A es una matriz inversible, se cumple que αA


es inversible y
1
pαAq´1 “ A´1 .
α
Si A es inversible, se tiene que Ak es inversible para todo k P N. Además
pAk q´1 “ pA´1 qk .

Si A es inversible, entonces At también lo es y


pAt q´1 “ pA´1 qt .

Si A P Mnˆn pCq es inversible, entonces A˚ también lo es y


pA˚ q´1 “ pA´1 q˚ .

Ejemplo 1.1.29 Sea A una matriz cuadrada de orden dos dada por
ˆ ˙
a11 a12
A“
a21 a22
y tal que a11 a22 ´ a12 a21 ‰ 0. Entonces, A es inversible y su inversa está dada
por
a22
¨ ˛
´a12
A´1 “ ˝ a11 a22´a ´ a12 a21 a11 a22 ´ a12 a21
˚ ‹
21 a11 ‚
a11 a22 ´ a12 a21 a11 a22 ´ a12 a21

Esta fórmula es un caso particular de las que podemos obtener de forma más
general siguiendo el método de Cramer. Tiene el grave defecto de que, cuando
la matriz A es grande, el número de operaciones necesarias para el cálculo de
la inversa lo convierten en inviable, incluso disponiendo de grandes recursos
computacionales.

Nota 1.1.30 Es importante resaltar que toda matriz que tenga una columna o una
fila de ceros no puede ser inversible. En efecto, si A P Mnˆn pKq tiene una
columna de ceros, entonces @ B P Mnˆn pKq se tiene que BA tiene una columna
de ceros y no puede ser la identidad. Si A tiene una fila de ceros, su traspuesta
tiene una columna de ceros y, por lo tanto, no tiene inversa. Si la traspuesta no
es inversible, A tampoco lo es.
18CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Entre las matrices inversibles debemos resaltar dos tipos.

Definición 1.1.31 Diremos que una matriz cuadrada A es ortogonal si es inversible


y su inversa es At .

Una matriz cuadrada A P Mnˆn pCq se dice que es unitaria si es inversible y su


inversa coincide con A˚ .

Ejemplo 1.1.32 La matriz ¨ ? ? ˛


2 2
˚ ?2 ´
A“˝ ?2 ‹
2 2

2 2
es ortogonal ya que At A “ AAt “ I2 .

La matriz ˆ ˙
1 0
A“
0 i
es unitaria ya que AA˚ “ A˚ A “ I2 .

1.2. Matrices elementales y aplicaciones.

Existen unos tipos especiales de matrices que serán de gran utilidad a la hora de
calcular inversas y rangos. Estas matrices permitirán interpretar desde un punto
de vista matricial las operaciones elementales sobre las filas o las columnas de
una matriz A cualquiera.

Definición 1.2.1 Sea A P Mmˆn pKq. Se denominan operaciones elementales sobre


las filas de la matriz A a cualquiera de las siguientes transformaciones:

Permutar dos filas de A.

Multiplicar una fila por un escalar.


1.2. MATRICES ELEMENTALES Y APLICACIONES. 19

Sumar a una fila un múltiplo de otra fila.

De la misma forma se llaman operaciones elementales sobre las columnas de A a


las transformaciones:

Permutar dos columnas de A.


Multiplicar una columnas por un escalar.
Sumar a una columna un múltiplo de otra columna.

Definición 1.2.2 Toda matriz obtenida después de hacer una operación elemental
en una matriz identidad se llamará matriz elemental.

A continuación enumeraremos todas las matrices elementales que podemos


construir así como el significado de las operaciones elementales desde un punto
de vista matricial.

Las matrices elementales son las siguientes:

1) Con Fij denotamos la matriz resultante de permutar en una matriz identi-


dad la fila i y la fila j.
Por ejemplo, para n “ 3
¨ ˛
0 0 1
F13 “˝ 0 1 0 ‚
1 0 0
es el resultado de intercambiar en I3 las filas primera y tercera.
2) Con Fi pαq denotamos la matriz obtenida al multiplicar la fila i de una
matriz identidad por un escalar α no nulo.
Por ejemplo, para n “ 4
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
F4 p4q “ ˚
˝ 0

0 1 0 ‚
0 0 0 4
20CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

es el resultado de multiplicar en I4 la fila cuarta por cuatro.


3) Con Fij pαq denotamos la matriz obtenida al sumar a la fila i de una matriz
identidad su fila j multiplicada por un escalar α.
Por ejemplo, para n “ 4
¨ ˛
1 0 0 0
˚ 0 1 π 0 ‹
F23 pπq “ ˚
˝ 0

0 1 0 ‚
0 0 0 1
es el resultado de multiplicar en I4 la fila tercera por π y sumar el resultado
a la segunda.
Obsérvese que en el ejemplo anterior la matriz F23 pπq es triangular superior
ya que estamos sumando a una fila, la segunda, un múltiplo de otra que
está por debajo, esto es, un múltiplo de la tercera fila. Si por ejemplo,
sumamos a la fila tercera la segunda multiplicada por π, obtenemos la
matriz ¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
F32 pπq “ ˚
˝ 0 π 1 0 ‚

0 0 0 1
que resulta ser triangular inferior.
4) Con Cij denotamos la matriz resultante de permutar en una matriz identi-
dad la columna i y la columna j.
Por ejemplo, para n “ 3
¨ ˛
0 1 0
C12 “˝ 1 0 0 ‚
0 0 1
es el resultado de intercambiar en I3 las columnas primera y segunda.
5) Con Ci pαq denotamos la matriz obtenida al multiplicar la columna i de
una matriz identidad por un escalar α no nulo.
Por ejemplo, para n “ 4
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
C3 p4q “ ˚
˝ 0

0 4 0 ‚
0 0 0 1
1.2. MATRICES ELEMENTALES Y APLICACIONES. 21

es el resultado de multiplicar en I4 la columna tercera por cuatro.

6) Con Cij pαq denotamos la matriz obtenida al sumar a la columna i de una


matriz identidad su columna j multiplicada por un escalar α.
Por ejemplo, para n “ 4
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
C23 pπq “ ˝
˚ ‹
0 π 1 0 ‚
0 0 0 1

es el resultado de multiplicar en I4 la columna tercera por π y sumar el


resultado a la segunda.
Obsérvese que en el ejemplo anterior la matriz C23 pπq es triangular inferior
ya que estamos sumando a una columna, la segunda, un múltiplo de otra
que está después, esto es, un múltiplo de la tercera columna. Si por ejemplo,
sumamos a la columna tercera la segunda multiplicada por π, obtenemos
la matriz ¨ ˛
1 0 0 0
˚ 0 1 π 0 ‹
C32 pπq “ ˚
˝ 0 0 1 0 ‚

0 0 0 1
que resulta ser triangular superior.

Con estas matrices elementales, dada A P Mmˆn pKq, tenemos lo siguiente:

Fij A es la matriz que se obtiene al permutar en A las filas i y j.

Fi pαqA es la matriz que se obtiene al multiplicar la fila i de A por el escalar


α.

Fij pαqA es la matriz que se obtiene al sumar a la fila i de A la fila j de A


multiplicada por el escalar α.

ACij es la matriz que se obtiene al permutar en A las columnas i y j.

ACi pαq es la matriz que se obtiene al multiplicar la columna i de A por el


escalar α.
22CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

ACij pαq es la matriz que se obtiene al sumar a la columna i de A la


columna j de A multiplicada por el escalar α.

Por lo tanto, todas las operaciones elementales se pueden realizar multiplicando


la matriz A, bien por la derecha o bien por la izquierda, por la matriz ele-
mental conveniente. Es importante resaltar que, si A P Mmˆn pKq, entonces
Fij , Fi pαq, Fij pαq son matrices pertenecientes al conjunto Mmˆm pKq y, por
otro lado, Cij , Ci pαq, Cij pαq son matrices pertenecientes al conjunto Mnˆn pKq.

Ejemplo 1.2.3 Supongamos que tenemos la matriz


¨ ˛
6 2 2
A“˝ 6 1 3 ‚
3 1 1

entonces
¨ ˛ ¨ ˛ ¨ ˛
3 1 1 6 2 2 6 2 2
F13 A “ ˝ 6 1 3 ‚, F2 p3qA “ ˝ 18 3 9 ‚, F32 p´1qA “ ˝ 6 1 3 ‚
6 2 2 3 1 1 ´3 0 ´2
y
¨ ˛ ¨ ˛ ¨ ˛
2 6 1 ´6 2 2 6 0 2
AC12 “˝ 1 6 3 ‚, AC1 p´1q “ ˝ ´6 1 3 ‚, AC23 p´1q “ ˝ 6 ´2 3 ‚
1 3 2 ´3 1 1 3 0 1

De la propia definición obtenemos el siguiente resultado.

Proposición 1.2.4 Las matrices elementales son todas inversibles y se cumple que

Fij´1 “ Fij , Fi pαq´1 “ Fi pα´1 q, Fij pαq´1 “ Fij p´αq,


´1
Cij “ Cij , Ci pαq´1 “ Ci pα´1 q, Cij pαq´1 “ Cij p´αq.

Definición 1.2.5 Sea A P Mmˆn pKq. Supongamos que la fila i de la matriz A no


tiene todos sus elementos iguales a cero. Se llama entrada principal (o pivote)
1.2. MATRICES ELEMENTALES Y APLICACIONES. 23

de la fila i al primer elemento de dicha fila distinto de cero. Si ese elemento es el


aij diremos, además, que la fila i tiene j ´ 1 ceros principales.

Se dice que la matriz A está en forma escalonada por filas (o abreviadamente en


forma escalonada) si se cumplen las siguientes condiciones:

1) Si existe alguna fila de ceros está al final.


2) Si hay varias filas distintas de cero, entonces cada fila tiene más ceros
principales que la anterior.

Ejemplo 1.2.6 Si tomamos las matrices


¨ ˛
¨ ˛ ¨ ˛ 1 0 0 3
2 0 0 5 1 0 0 5 ˚ 0 0 0 0 ‹
A “ ˝ 0 1 0 ´2 ‚; B “ ˝ 0 1 0 ´2 ‚, C “ ˚
˝ 0

0 1 2 ‚
0 0 1 4 0 1 1 4
0 0 0 1

tenemos que en negrita están resaltadas las entradas principales o pivotes. La


matriz A está en forma escalonada, la matriz B no lo está, ya que la fila tres
tiene tantos ceros principales como la dos. Finalmente, C tampoco está en forma
escalonada ya que tiene una fila de ceros entre dos que no son nulas.

Definición 1.2.7 Sea A P Mmˆn pKq. Se dice que la matriz A está en forma escalo-
nada reducida por filas si se cumplen las siguientes condiciones:

1) A está en forma escalonada por filas.


2) Todas las entradas principales son iguales a 1.
3) Todos los elementos que están por encima de las entradas principales son
ceros.

Ejemplo 1.2.8 Dada la matriz


¨ ˛
1 0 0 5
A “ ˝ 0 1 0 ´2 ‚
0 0 1 4
24CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

tenemos que en negrita están resaltadas las entradas principales y la matriz A


está en forma escalonada reducida.

Definición 1.2.9 Diremos que dos matrices A, B P Mmˆn pKq son equivalentes por
filas, y lo denotaremos como A „f B, si se puede pasar de una a la otra mediante
una sucesión de operaciones elementales por filas. Esto es, existen matrices
M1 , ¨ ¨ ¨ , Mr P Mmˆm pKq de operaciones elementales tales que

B “ Mr ¨ ¨ ¨ M1 A.

Para pasar de A a B seguiremos el siguiente esquema

` ˘ O.E.F ` ˘
A | Im ùñ B | P

donde P representa el producto de todas las operaciones elementales por filas


P “ Mr ¨ ¨ ¨ M1 empleadas para pasar de A a B y, por lo tanto, B “ P A. Las
siglas O.E.F. significan operaciones elementales por filas.

Nótese que si P A “ B se tiene que

A “ P ´1 B “ pMr ¨ ¨ ¨ M1 q´1 B “ M1´1 ¨ ¨ ¨ Mr´1 B

y entonces B „f A. Obviamente, A „f A y además, si A „f B y B „f C, esto


implica que A „f C.

Ejemplo 1.2.10 Dadas la matrices

¨ ˛ ¨ ˛
4 4 2 2 3 2
A“˝ 6 1 ´2 ‚; B “ ˝ 0 ´2 ´2 ‚
2 3 2 0 0 0
1.2. MATRICES ELEMENTALES Y APLICACIONES. 25

tenemos que
¨ ˛
F13
2 3 2 | 0 0 1 F p´2q, F p´3q
` ˘ 31 21
A | I3 ùñ ˝ 6 1 ´2 | 0 1 0 ‚ ùñ
4 4 2 | 1 0 0
¨ ˛
2 3 2 | 0 0 1 F23
˝ 0 ´8 ´8 | 0 1 ´3 ‚ ùñ
0 ´2 ´2 | 1 0 ´2
¨ ˛ ¨ ˛
2 3 2 | 0 0 1 F p´4q 2 3 2 | 0 0 1
32
˝ 0 ´2 ´2 | 1 0 ´2 ‚ ùñ ˝ 0 ´2 ´2 | 1 0 ´2 ‚
0 ´8 ´8 | 0 1 ´3 0 0 0 | ´4 1 5

Por lo tanto, P “ F32 p´4qF23 F31 p´2qF21 p´3qF13 es tal que P A “ B. Nótese
que
´1 ´1
P ´1 “ pF32 p´4qF23 F31 p´2qF21 p´3qF13 q´1 “ F13 F21 p´3q´1 F31 p´2q´1 F23 F32 p´4q´1

“ F13 F21 p3qF31 p2qF23 F32 p4q.

Proposición 1.2.11 Cada matriz A “ paij q P Mmˆn pKq es equivalente por filas a
una matriz escalonada reducida por filas. Esto es, existe una matriz P cuadrada
de orden n que es inversible y producto de matrices de operaciones elementales
por filas, tal que P A es escalonada reducida por filas.

Demostración. El método para obtener la matriz escalonada reducida por filas


equivalente por filas a la matriz A se puede resumir en los siguientes pasos:

1) Se pone como primera fila una que tenga el primer coeficiente no nulo. Si
todos fuesen ceros, pasamos al segundo coeficiente y seguiríamos así de
forma sucesiva.
2) Si la entrada principal de la primera fila es a, la multiplicamos por a´1
para obener una entrada principal igual a 1.
3) Convertimos en cero los coeficientes que están por debajo del uno del
paso anterior sumándole a cada fila la primera multiplicada por el escalar
adecuado.
26CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

4) Repetimos los pasos anteriores con las restantes filas hasta conseguir una
matriz escalonada.

5) Finalmente, usando las operaciones elementales convenientes hacemos cero


todos los coeficientes situados encima de cada entrada principal.

La matriz P es el producto de todas las matrices de operaciones elementales


usadas en el proceso.

\
[

Ejemplo 1.2.12 Dada la matriz


¨ ˛
1 1 1 1
A“˝ 1 3 4 2 ‚
3 1 1 3

calculamos una matriz escalonada reducida por filas equivalente por filas a A
siguiendo el método propuesto en la proposición anterior.
¨ ˛
˘ F31 p´3q, F21 p´1q 1 1 1 1 1 0 0 F p1{2q
` 2
A | I3 ùñ ˝ 0 2 3 1 ´1 1 0 ‚ ùñ
0 ´2 ´2 0 ´3 0 1
¨ ˛ ¨ ˛
1 1 1 1 1 0 0 F p2q 1 1 1 1 1 0 0
32
˝ 0 1 3{2 1{2 ´1{2 1{2 0 ‚ ùñ ˝ 0 1 3{2 1{2 ´1{2 1{2 0 ‚
0 ´2 ´2 0 ´3 0 1 0 0 1 1 ´4 1 1
¨ ˛
F13 p´1q, F23 p´3{2q
1 1 0 0 5 ´1 ´1 F p´1q
12
ùñ ˝ 0 1 0 ´1 11{2 ´1 ´3{2 ‚ ùñ
0 0 1 1 ´4 1 1
¨ ˛
1 0 0 1 ´1{2 0 1{2
˝ 0 1 0 ´1 11{2 ´1 ´3{2 ‚
0 0 1 1 ´4 1 1
1.2. MATRICES ELEMENTALES Y APLICACIONES. 27

Así pues temos que


¨ ˛
1 0 0 1
˝ 0 1 0 ´1 ‚ “ F12 p´1qF13 p´1qF23 p´3{2qF32 p2qF2 p1{2qF31 p´3qF21 p´1qA
0 0 1 1
y
¨ ˛
´1{2 0 1{2
P “ F12 p´1qF13 p´1qF23 p´3{2qF32 p2qF2 p1{2qF31 p´3qF21 p´1q “ ˝ 11{2 ´1 ´3{2 ‚.
´4 1 1

Proposición 1.2.13 Sea A una matriz cuadrada de orden n con coeficientes en K.


Entonces:

1) La matriz A es equivalente por filas a In , si, y sólo si, A es inversible.


2) Si existe una matriz X tal que AX “ In o XA “ In , la matriz A es
inversible.

Demostración. La equivalencia dada en 1) es consecuencia de lo siguiente: en


primer lugar, si A es equivalente por filas a In , tenemos que existe una matriz
inversible P , producto de matrices de operaciones elementales por filas, tal que
P A “ In . Entonces, A “ P ´1 y, por lo tanto, A es inversible. Inversamente, si A
es inversible, existe una matriz A´1 , tal que AA´1 “ In . Si A fuese equivalente
por filas a una matriz escalonada reducida B distinta de la matriz identidad, esta
matriz B tendría una fila de ceros y, entonces, existe una matriz inversible P ,
producto de matrices de operaciones elementales por filas, tal que P A “ B. Así
pues, P “ P AA´1 “ BA´1 . Como B tiene al menos una fila de ceros, P “ BA´1
tiene una columna de ceros y esto es un absurdo, ya que P es inversible. Por lo
tanto, A „f In .

Para probar 2) tengamos en cuenta que 1) garantiza que, si A no es inversible,


A es equivalente por filas a una matriz escalonada reducida B distinta de la
identidad y, por lo tanto, B tiene una fila de ceros. Si P es la matriz inversible,
producto de matrices de operaciones elementales, tal que P A “ B, obtenemos
que P “ P AX “ BX. Como B tiene al menos una fila de ceros, P “ BX tiene
una columna de ceros y esto es un absurdo, ya que P es inversible. Finalmente,
28CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

la propiedad para el producto XA “ In se obtiene trabajando con la traspuesta. \


[

Ejemplo 1.2.14 Supongamos que tenemos una matriz cuadrada A de orden n con
la siguiente descomposición por bloques
¨ ˛
H | Θr,n´r
A “ ˝ ´´ | ´ ´ ´ ‚.
C | D
Entonces, A es inversible, si, y sólo si, lo son H y D. Además se cumple que, en
caso de tener inversa, esta es
¨ ˛
H ´1 | Θr,n´r
´1
A “ ˝ ´ ´ ´ ´ ´´ | ´ ´ ´ ‚.
´D´1 CH ´1 | D´1
En efecto, si H y D tienen inversa, multiplicando por bloques tenemos que
¨ ˛¨ ˛
H | Θr,n´r H ´1 | Θr,n´r
˝ ´´ | ´ ´ ´ ‚˝ ´ ´ ´ ´ ´´ | ´ ´ ´ ‚
C | D ´D´1 CH ´1 | D´1
¨ ˛ ¨ ˛
HH ´1 | Θr,n´r Ir | Θr,n´r
“ ˝ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ | ´ ´ ´ ‚ “ ˝ ´ ´ ´ | ´ ´ ´ ‚ “ In
CH ´1 ´ DD´1 CH ´1 | DD´1 Θn´r,r | In´r
Así pues, hemos encontrado una matriz que multiplicada por A da la identi-
dad. Aplicando ahora la propiedad 2) del anterior resultado tenemos que A es
inversible.

Inversamente, si A tiene inversa existe una matriz A´1 tal que AA´1 “ In .
Supongamos que descomponemos ambas por bloques y hacemos su producto.
Tenemos que
¨ ˛¨ ˛ ¨ ˛
H | Θr,n´r X11 | X12 Ir | Θr,n´r
˝ ´´ | ´ ´ ´ ‚˝ ´´ | ´ ´ ´ ‚ “ ˝ ´ ´ ´ | ´ ´ ´ ‚ “ In .
C | D X21 | X22 Θn´r,r | In´r
Por lo tanto,

HX11 “ Ir , HX12 “ Θr,n´r , CX11 ` DX21 “ Θn´r,r , CX12 ` DX22 “ In´r .


1.2. MATRICES ELEMENTALES Y APLICACIONES. 29

De esto deducimos, otra vez por el segundo apartado del anterior resultado, que
H es inversible, lo que implica que X12 “ Θr,n´r y que X11 “ H ´1 . De esto se
sigue que DX22 “ In´r , lo que implica también que D es inversible. Finalmente,
obsérvese que

CX11 ` DX21 “ Θn´r,r ô CH ´1 “ ´DX21 ô X21 “ ´D´1 CH ´1 .

Proposición 1.2.15 Sea A “ paij q P Mmˆn pKq tal que tiene una forma escalonada
reducida por filas B con r entradas principales. Entonces, existen matrices
P P Mmˆm pKq y Q P Mnˆn pKq tales que

1) P y Q son producto de matrices de operaciones elementales por filas y por


columnas respectivamente.

2) Se verifica que
¨ ˛
Ir | Θr,n´r
P AQ “ ˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚.
Θm´r,r | Θm´r,n´r

Demostración. Mediante el proceso dado en la Proposición 1.2.11 obtenemos


una matriz inversible P P Mmˆm pKq, producto de matrices de operaciones
elementales por filas, tal que P A “ B siendo B una matriz escalonada reducida
por filas con r entradas principales. En cada fila con entrada principal, haciendo
operaciones elementales con las columnas, podemos convertir en ceros todos los
elementos no nulos distintos de la entrada principal o pivote. Una vez hecho
esto reordenamos las columnas para obtener la matriz Ir . La matriz Q será el
producto de todas las matrices de operaciones elementales por columnas que
usamos en el proceso. Así pues, Q es inversible y
¨ ˛
Ir | Θr,n´r
P AQ “ ˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚.
Θm´r,r | Θm´r,n´r

\
[
30CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Ejemplo 1.2.16 Dada la matriz


¨ ˛
1 1 1 1
A“˝ 1 1 4 2 ‚
1 1 1 3

tenemos que
` ˘
A | I3
¨ ˛
F31 p´1q, F21 p´1q
1 1 1 1 | 1 0 0
ùñ ˝ 0 0 3 1 | ´1 1 0 ‚
0 0 0 2 | ´1 0 1
¨ ˛
F3 p1{2q, F2 p1{3q
1 1 1 1 | 1 0 0
ùñ ˝ 0 0 1 1{3 | ´1{3 1{3 0 ‚
0 0 0 1 | ´1{2 0 1{2
¨ ˛
F13 p´1q, F23 p´1{3q
1 1 1 0 | 3{2 0 ´1{2
ùñ ˝ 0 0 1 0 | ´1{6 1{3 ´1{6 ‚
0 0 0 1 | ´1{2 0 1{2
¨ ˛
1 1 0 0
F12 p´1q
| 5{3 ´1{3 ´1{3
ùñ ˝ 0 0 1 0 | ´1{6 1{3 ´1{6 ‚
0 0 0 1 | ´1{2 0 1{2
Así pues, tomando

P “ F12 p´1qF13 p´1qF23 p´1{3qF3 p1{2qF2 p1{3qF31 p´1qF21 p´1q

tenemos que P A es escalonada reducida por filas y P A “ B donde


¨ ˛
1 1 0 0
B“ ˝ 0 0 1 0 ‚.
0 0 0 1

Hagamos a continuación las operaciones por columnas. En este caso partimos de


¨ ˛
B
˝ ´ ‚
I4
1.2. MATRICES ELEMENTALES Y APLICACIONES. 31
¨ ˛ ¨ ˛
1 0 0 0 1 0 0 0
˚
˚ 0 0 1 0 ‹

˚
˚ 0 1 0 0 ‹

˚
˚ 0 0 0 1 ‹

˚
˚ 0 0 1 0 ‹

C21 p´1q ˚ ´ ´ ´ ´ ‹ C , C34 ´ ´ ´ ´
‹ 23
˚ ‹
ùñ ˚ ùñ ˚ ‹
˚
˚ 1 ´1 0 0 ‹
‹ ˚
˚ 1 0 0 ´1 ‹

˚
˚ 0 1 0 0 ‹

˚
˚ 0 0 0 1 ‹

˝ 0 0 1 0 ‚ ˝ 0 1 0 0 ‚
0 0 0 1 0 0 1 0
Por lo tanto, ¨ ˛
˚ 1 0 0 ´1 ‹
˚ ‹
˚ 0
Q “ C21 p´1qC23 C34 “ ˚ 0 0 1 ‹

˝ 0 1 0 0 ‚
0 0 1 0
y tenemos que
¨ ˛
1 0 0 0 ` ˘
P AQ “ ˝ 0 1 0 0 ‚ “ I3 | Θ3,1 .
0 0 1 0

Notación 1.2.17 A partir de ahora denotaremos las matrices


¨ ˛
Ir | Θr,n´r
˝ ´´´ | ´´´´´ ‚
Θm´r,r | Θm´r,n´r
como Irmˆn .

Definición 1.2.18 Sean A, B P Mmˆn pKq. Diremos que A y B son matrices equi-
valentes si existen matrices P P Mmˆm pKq y Q P Mnˆn pKq tales que

1) P y Q son producto de matrices de operaciones elementales por filas y por


columnas respectivamente.
2) Se verifica que P AQ “ B.

Cuando dos matrices A y B sean equivalentes lo denotaremos por A „ B.


Obviamente si dos matrices son equivalentes por filas son también equivalentes
32CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

sin más que tomar Q “ In . Por otro lado, A „ A y, si además A „ B, entonces


B „ A. Finalmente, si A „ B y B „ C esto implica que A „ C.

Proposición 1.2.19 Toda matriz A “ paij q P Mmˆn pKq es equivalente a una única
matriz de la forma Irmˆn .

Demostración. Gracias a la Proposición 1.2.15 sabemos que existen matrices


P P Mmˆm pKq y Q P Mnˆn pKq tales que

P y Q son producto de matrices de operaciones elementales por filas y por


columnas respectivamente.

Se verifica que P AQ “ Irmˆn .

Entonces,
A „ Irmˆn .
Si existiese un natural s ą r tal que A „ Ismˆn , obtendríamos que Irmˆn „ Ismˆn .
Por lo tanto, existen matrices T P Mmˆm pKq y H P Mnˆn pKq tales que

T y H son producto de matrices de operaciones elementales por filas y por


columnas respectivamente.

Se verifica que T Irmˆn H “ Ismˆn y, lo que es lo mismo, T Irmˆn “ Ismˆn R,


siendo R “ H ´1 .

Descomponiendo convenientemente por bloques tenemos que

Ismˆn R “
¨ ˛¨ ˛
Ir | Θr,s´r | Θr,n´s R11 | R12 | R13
˚
˚ ´´´ | ´´´ | ´´´´´ ‹˚
‹˚ ´´´ | ´´´ | ´´´ ‹

˚
˚ Θs´r,r | Is´r | Θs´r,n´s ‹˚
‹˚ R21 | R22 | R23 ‹

˝ ´´´ | ´´´´´ | ´´´´´ ‚˝ ´´´ | ´´´ | ´´´ ‚
Θn´s,r | Θn´s,s´r | Θn´s,n´s R31 | R32 | R33
1.2. MATRICES ELEMENTALES Y APLICACIONES. 33
¨ ˛
R11 | R12 | R13
˚
˚ ´´´ | ´´´ | ´´´ ‹

“˚
˚ R21 | R22 | R23 ‹

˝ ´´´ | ´´´´´ | ´´´´´ ‚
Θn´s,r | Θn´s,s´r | Θn´s,n´s
y que

T Irmˆn “
¨ ˛¨ ˛ ¨ ˛
T11 | T12 Ir | Θr,n´r T11 | Θr,n´r
˝ ´´´ | ´ ´ ´ ‚˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚“ ˝ ´ ´ ´ | ´ ´ ´ ´ ´ ‚.
T21 | T22 Θn´r,r | Θn´r,n´r T12 | Θn´r,n´r

Así pues, ¨ ˛
R11 | Θr,s´r | Θr,n´s
˚
˚ ´´´ | ´´´´´ | ´´´´´ ‹

R“˚
˚ R12 | Θs´r,s´r | Θs´r,n´s ‹

˝ ´´´ | ´´´´´ | ´´´´´ ‚
R31 | R32 | R33
y entonces, aplicando lo visto en el ejercicio 1.2.14, tenemos que R no es inversible.
Esto es un absurdo y, por lo tanto, la matriz Ismˆn es única. \
[

Definición 1.2.20 Dada una matriz A “ paij q P Mmˆn pKq llamaremos forma redu-
cida completa (forma normal) de A a la única matriz Irmˆn que es equivalente
con A.

Se llama rango de A y se representa como

rangpAq

al número r asociado a Irmˆn . Este número es un invariante de la matriz A ya


que Irmˆn es única para cada A.

Obsérvese que ese número r coincide con el número de filas no nulas de la forma
escalonada reducida de A a partir de la cual se calcula Irmˆn , y equivalentemente,
con el número de entradas principales de esa forma. Así pues, si existiesen
dos formas escalonadas reducidas de A distintas tendrían el mismo número de
entradas principales. De hecho, se puede probar, mediante una demostración
34CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

que omitiremos, que la forma escalonada reducida de A es única y utilizar esta


propiedad para definir el rango.

Finalmente, es evidente que


rangpAq ď mintm, nu.

Teorema 1.2.21 Dos matrices A, B P Mmˆn pKq son equivalentes, si, y sólo si,
tienen el mismo rango.

Demostración. Si A y B son equivalentes, sus formas reducidas completas


también lo son y por lo tanto son iguales. Esto implica que el rango de A coincide
con el de B. Al revés, si tienen el mismo rango, tienen la misma forma reducida
completa y esto implica que son equivalentes.

\
[

Como consecuencia inmediata de este teorema obtenemos el corolario siguiente:

Corolario 1.2.22 Dada una matriz A P Mmˆn pKq se cumple que:

1) Si P P Mmˆm pKq es una matriz inversible, rangpP Aq “ rangpAq.


2) Si Q P Mnˆn pKq es una matriz inversible, rangpAQq “ rangpAq.
3) rangpAq “ rangpAt q.

1.3. Matrices inversibles. Cálculo de la matriz in-


versa

Gracias a los resultados probados en la sección anterior podemos obtener un


teorema que caracteriza totalmente a las matrices inversibles. La demostración
de las equivalencias se deja como ejercicio.
1.3. MATRICES INVERSIBLES. CÁLCULO DE LA MATRIZ INVERSA 35

Proposición 1.3.1 Sea A una matriz cuadrada de orden n. Son equivalentes:

1) A es inversible.

2) A „f In .

3) A „ In .

4) La forma escalonada reducida de A tiene n entradas principales.

5) El rango A es n.

6) La matriz A es producto de matrices de operaciones elementales por filas.

7) La matriz A es producto de matrices de operaciones elementales por co-


lumnas.

8) La matriz A es producto de matrices de operaciones elementales por filas y


columnas.

9) Existe una matriz inversible P tal que P A “ In .

10) Existe una matriz inversible Q tal que AQ “ In .

Teniendo en cuenta que toda matriz cuadrada A inversible es equivalente por


filas a la matriz identidad, para calcular la inversa de A, calcularemos la matriz
P , tal que P A “ In y, por lo tanto, A´1 “ P . En este proceso sólo utilizamos
operaciones por filas.

Veamos un ejemplo.

Ejemplo 1.3.2 Sea la matriz ¨ ˛


1 1 1 1
˚ 1 2 2 2 ‹
˚ ‹.
˝ 1 2 3 3 ‚
1 2 3 4
Entonces: ` ˘
A | I4
36CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
¨ ˛
1 1 1 1 | 1 0 0 0
F41 p´1q, F31 p´1q, F21 p´1q ˚ 0 1 1 1 | ´1 1 0 0 ‹
ùñ ˚
˝ 0 1 2 2

| ´1 0 1 0 ‚
0 1 2 3 | ´1 0 0 1
¨ ˛
1 1 1 1 | 1 0 0 0
F42 p´1q, F32 p´1q ˚ 0 1 1 1 | ´1 1 0 0 ‹
ùñ ˚
˝ 0 0 1 1

| 0 ´1 1 0 ‚
0 0 1 2 | 0 ´1 0 1
¨ ˛
1 1 1 1 | 1 0 0 0
F43 p´1q ˚ 0 1 1 1 | ´1 1 0 0 ‹
ùñ ˚ ˝ 0 0 1 1

| 0 ´1 1 0 ‚
0 0 0 1 | 0 0 ´1 1
¨ ˛
1 1 1 0 | 1 0 1 ´1
F14 p´1q, F24 p´1q, F34 p´1q ˚ 0 1 1 0 | ´1 1 1 ´1 ‹
ùñ ˚
˝ 0

0 1 0 | 0 ´1 2 ´1 ‚
0 0 0 1 | 0 0 ´1 1
¨ ˛
1 1 0 0 | 1 1 ´1 0
F13 p´1q, F23 p´1q ˚ 0 1 0 0 | ´1 2 ´1 0 ‹
ùñ ˚
˝ 0 0 1 0

| 0 ´1 2 ´1 ‚
0 0 0 1 | 0 0 ´1 1
¨ ˛
1 0 0 0 | 2 ´1 0 0
F12 p´1q ˚ 0 1 0 0 | ´1 2 ´1 0 ‹
ùñ ˚ ˝ 0 0 1 0 |

0 ´1 2 ´1 ‚
0 0 0 1 | 0 0 ´1 1
Así pues,
¨ ˛
2 ´1 0 0
˚ ´1 2 ´1 0 ‹
A´1 “˚
˝ 0

´1 2 ´1 ‚
0 0 ´1 1

“ F12 p´1qF13 p´1qF23 p´1qF14 p´1qF24 p´1qF34 p´1qF43 p´1q

F42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1q.


1.3. MATRICES INVERSIBLES. CÁLCULO DE LA MATRIZ INVERSA 37

Obsérvese que también podemos combinar operaciones con filas con operaciones
con columnas. En los cálculos anteriores hemos visto que existe una matriz
P “ F43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1q,
tal que ¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
PA “ ˚
˝ 0
‹.
0 1 1 ‚
0 0 0 1
Hagamos a continuación operaciones por columnas para convertir la matriz P A
en la matriz identidad. ¨ ˛
PA
˝ ´ ‚
I4
¨ ˛ ¨ ˛
1 0 0 0 1 0 0 0
˚ 0 1 1 1 ‹ ˚ 0 1 0 0 ‹
˚ ‹ ˚ ‹
˚ 0 0 1 1 ‹ ˚ 0 0 1 1 ‹
‹ ˚
˚ ‹
˚ 0 0 0 1 ‹
‹ C32 p´1q, C42 p´1q ˚ 0 0 0 1 ‹
˚
C21 p´1q, C31 p´1q, C41 p´1q ˚ ‹
ùñ ˚ ´ ´ ´ ´ ‹ ùñ ˚ ´ ´ ´ ´ ‹
˚ ‹ ˚ ‹
˚ 1 ´1 ´1 ´1 ‹ ˚ 1 ´1 0 0 ‹
˚ ‹ ˚ ‹
˚ 0 1 0 0 ‹ ˚ 0 1 ´1 ´1 ‹
˚ ‹ ˚ ‹
˝ 0 0 1 0 ‚ ˝ 0 0 1 0 ‚
0 0 0 1 0 0 0 1
¨ ˛
1 0 0 0
˚ 0 1 0 0 ‹
˚ ‹
˚ 0 0 1 0 ‹
˚ ‹
˚ 0 0 0 1 ‹
C43 p´1q ˚ ‹
ùñ ˚ ˚ ´ ´ ´ ´ ‹ ‹.
˚ 1 ´1 0 0 ‹
˚ ‹
˚ 0 1 ´1 0 ‹
˚ ‹
˝ 0 0 1 ´1 ‚
0 0 0 1
Por lo tanto, P AQ “ In , donde
¨ ˛
1 ´1 0 0
˚ 0 1 ´1 0 ‹
Q “ C21 p´1qC31 p´1qC41 p´1qC32 p´1qC42 p´1qC43 p´1q “ ˚
˝ 0

0 1 ´1 ‚
0 0 0 1
38CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

y, además, A´1 “ pP ´1 Q´1 q´1 “ QP.

Nota 1.3.3 Es muy importante que, en el caso de usar operaciones por filas y opera-
ciones por columnas, no las mezclemos. Para las primeras utilizaremos la matriz
P y para las segundas, la matriz Q.

1.4. Determinante de una matriz cuadrada. Pro-


piedades y cálculo

Los determinantes los introduciremos mediante un proceso inductivo de la forma


siguiente:

Definición 1.4.1 Para una matriz cuadrada A “ pa11 q de orden 1 se define el


determinante de A, denotado por detpAq o |A|, como

detpAq “ a11 .

Conocido el valor del determinante de cualquier matriz cuadrada de orden pn´1q,


para una matriz cuadrada de orden n
¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ a21 a22 ¨ ¨ ¨ a2n ‹
A“˚ . .. .. .. ‹
˚ ‹
˝ .. . . . ‚
an1 an2 ¨ ¨ ¨ ann

se llama cofactor del coeficiente aij , denotado por Aij , a

Aij “ p´1qi`j detpMij q

siendo Mij la matriz matriz cuadrada de orden n ´ 1 que resulta al suprimir en


A la fila i-ésima y la columna j-ésima.

El determinante de A se define como

detpAq “ a11 A11 ` ¨ ¨ ¨ ` an1 A1n .


1.4. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES Y CÁLCULO39

Esta definición que acabamos de dar de determinante se conoce como desarrollo


de Laplace del determinante por la primera columna de la matriz A. Como
consecuencia inmediata de esta definición se tiene que
detpIn q “ 1.

Ejemplo 1.4.2 Para una matriz A “ paij q cuadrada de orden dos tenemos que
ˇ ˇ
ˇ a a12 ˇˇ
detpAq “ det ˇˇ 11 “ a11 A11 ` a21 A21 “ a11 a22 ´ a12 a21 .
a21 a22 ˇ
De esta forma, como sabemos calcular determinantes de matrices cuadradas de
orden dos, podemos calcular determinantes de matrices cuadradas de orden tres
de la siguiente forma:
ˇ ˇ
ˇ a11 a12 a13 ˇ
ˇ ˇ
detpAq “ ˇˇ a21 a22 a23 ˇˇ “ a11 A11 ` a21 A21 ` a31 A31 “
ˇ a31 a32 a33 ˇ
ˇ ˇ ˇ ˇ ˇ ˇ
ˇ a22 a23 ˇ ˇ a12 a13 ˇ ˇ a12 a13 ˇ
a11 ˇ
ˇ ˇ ´ a21 ˇ
ˇ ˇ ` a31 ˇ
ˇ ˇ“
a32 a33 ˇ a32 a33 ˇ a22 a23 ˇ
a11 pa22 a33 ´ a23 a32 q ´ a21 pa12 a33 ´ a32 a13 q ` a31 pa12 a23 ´ a22 a13 q “
a11 a22 a33 ` a12 a23 a31 ` a13 a21 a32 ´ a13 a22 a31 ´ a11 a23 a32 ´ a12 a21 a33
obteniendo la regla de Sarrus. A continuación calcularíamos determinantes de
orden cuatro y así, sucesivamente.

Sea, por ejemplo, ¨ ˛


0 1 1 1
˚ 1 2 2 2 ‹
A“˝
˚ ‹.
1 2 3 3 ‚
0 2 3 4
Entonces,
detpAq “ 0.A11 `1.A21 `1.A31 `0.A41 “ p´1q1`2 detpM21 q`p´1q1`3 detpM31 q “
ˇ ˇ ˇ ˇ
ˇ 1 1 1 ˇ ˇ 1 1 1 ˇ
ˇ ˇ ˇ ˇ
´ ˇˇ 2 3 3 ˇˇ ` ˇˇ 2 2 2 ˇˇ “
ˇ 2 3 4 ˇ ˇ 2 3 4 ˇ
´p12 ` 6 ` 6 ´ 6 ´ 9 ´ 8q ` p8 ` 6 ` 4 ´ 4 ´ 6 ´ 8q “ ´1.
40CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

La fórmula del desarrollo de Laplace descrita en la definición se puede optimizar


si probamos algunas propiedades interesantes de los determinantes. Las enuncia-
remos y probaremos en las proposiciones siguientes en las cuales la fila i de una
matriz cuadrada A se denotará como

Ai “ pai1 ai2 ¨ ¨ ¨ ain q.

Proposición 1.4.3 Sean tres matrices cuadradas del mismo orden, A, A1 y A2 , tales
que tienen todas las filas iguales, salvo la fila i. Si la fila i de A es la suma de la
filas i de A1 y A2 , entonces

detpAq “ detpA1 q ` detpA2 q.

Demostración. La propiedad la probaremos por inducción. Para n “ 1 es


evidente. Supongámosla cierta para n ´ 1 y probémosla para n. Tenemos que

detpAq “ detpAq “ a11 A11 ` ¨ ¨ ¨ ` ai1 Ai1 ` ¨ ¨ ¨ ` an1 An1 “

a11 p´1q1`1 detpM11 q ` ¨ ¨ ¨ ` ai1 p´1q1`i detpMi1 q ` ¨ ¨ ¨ ` a1n p´1q1`n detpM1n q.


Para k ‰ i tenemos que Mk1 , Mk1 1
y Mk1
2
son tales que tienen todas las filas
iguales salvo una fila. Esa fila distinta de Mk1 es la suma de la respectivas filas
de Mk11
y Mk1
2
, entonces
1 2
detpMk1 q “ detpMk1 q ` detpMk1 q

por hipótesis de inducción. De esta forma,

detpAq “ a11 p´1q1`1 detpM11 q`¨ ¨ ¨`ai1 p´1q1`i detpMi1 q`¨ ¨ ¨`a1n p´1q1`n detpM1n q “

a11 p´1q1`1 pdetpM11


1 2
q ` detpM11 qq ` ¨ ¨ ¨ ` pa1i1 ` a2i1 qp´1q1`i detpMi1 q ` ¨ ¨ ¨
¨ ¨ ¨ ` an1 p´1q1`n pdetpMn1
1 2
q ` detpMn1 qq “
pa11 p´1q1`1 detpM11
1
q ` ¨ ¨ ¨ ` a1i1 p´1q1`i detpMi1 q ` ¨ ¨ ¨ ` an1 p´1q1`n detpMn1
1
qq
`pa11 p´1q1`1 detpM11
2
q`¨ ¨ ¨`a2i1 p´1q1`i detpMi1 q`¨ ¨ ¨`a1n p´1q1`n detpM1n
2
qq “
detpA1 q ` detpA2 q.
\
[
1.4. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES Y CÁLCULO41

Proposición 1.4.4 Si una matriz cuadrada tiene dos filas consecutivas iguales, su
determinante vale cero. Como consecuencia de esto, si se intercambian dos filas
de una matriz cuadrada A, su determinante cambia de signo.

Demostración. Veamos en primer lugar que, si una matriz cuadrada tiene dos
filas consecutivas iguales, su determinante vale cero. Lo haremos otra vez por
inducción sobre el número de filas n. Para n “ 2 es evidente. Supongamos que
es cierto para n ´ 1 y probémoslo para n. Si las filas consecutivas son la fila i y
la fila i ` 1, tenemos que:

detpAq “ a11 A11 ` ¨ ¨ ¨ ` ai1 Ai1 ` ai1 Ai`1 1 ` ¨ ¨ ¨ ` an1 An1 .

Ahora bien, para k ‰ i, i ` 1 se verifica la igualdad Ak1 “ p´1q1`k detpMk1 q “ 0


ya que Mk1 tiene dos filas iguales y es cuadrada de orden n ´ 1. Por otro lado,

Ai1 “ p´1q1`i detpMi1 q, Ai`1,1 “ p´1q2`i detpMi`1,1 q

y, como Mi1 “ Mi`1,1 , se obtiene que Ai1 “ ´Ai`1,1 y esto implica que detpAq “
0.

Utilizando esta propiedad que acabamos de probar junto con la Proposición


1.4.3, tenemos que
ˇ¨ ˛ ˇ ˇ¨ ˛ˇ ˇ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ ˇ ˇ˚
‹ ˇ ˇ˚ ... ‹ˇ ˇ˚
‹ˇ ˇ˚ ... ‹ˇ
‹ˇ
ˇ˚ Ai ` Ai`1 ‹ ˇ ˇ˚ Ai ‹ˇ ˇ˚ Ai`1 ‹ˇ
0 “ ˇ˚
ˇ ˚ ‹ ˇ “ ˇ˚ ‹ˇ ` ˇ˚ ‹ˇ “
ˇ˚ Ai ` Ai`1
‹ˇ ˇ˚ Ai ` Ai`1 ‹ˇ ˇ˚ Ai ` Ai`1 ‹ˇ
‹ ˇ ˇ˚ ‹ˇ ˇ˚ ‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ ˇ An ˇ

ˇ¨ ˛ˇ ˇ ¨ ˛ˇ ˇ¨ ˛ˇ ˇ ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚
‹ˇ ˇ ˚ ... ‹ˇ ˇ˚
‹ˇ ˇ˚ ... ‹ˇ ˇ ˚ . . .
‹ˇ ˇ ˚
‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ` ˇ ˚ Ai ‹ˇ ˇ˚
‹ˇ ` ˇ˚ Ai`1 ‹ˇ ˇ˚ Ai`1
‹ˇ ` ˇ ˚
‹ˇ
‹ˇ “
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ˇ ˚ Ai`1 ‹ˇ ˇ˚
‹ˇ ˇ˚ Ai ‹ˇ ˇ˚ Ai`1
‹ˇ ˇ ˚
‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ ˇ˝ . . .
ˇ ˇ
‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ ˇ An ˇ ˇ An ˇ
42CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
ˇ¨ ˛ˇ ˇ ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ
ˇ ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚
‹ˇ ˇ ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ ˚
‹ˇ ` ˇ ˚ Ai`1 ‹ˇ
‹ˇ .
ˇ˚
ˇ˚ Ai`1 ‹ˇ ˇ ˚
‹ˇ ˇ ˚ Ai ‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝
ˇ ˇ ... ‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ
Por lo tanto, ˇ¨ ˛ˇ ˇ¨ ˛ˇ
ˇ
ˇ A1 ˇ
ˇ
ˇ
ˇ A1 ˇ
ˇ
ˇ˚
ˇ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ ... ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ ˇ˚
‹ˇ “ ´ ˇ ˚ Ai`1 ‹ˇ
‹ˇ .
ˇ˚
ˇ˚ Ai`1 ‹ˇ
‹ˇ
ˇ˚
ˇ˚ Ai ‹ˇ
‹ˇ
ˇ˝
ˇ ... ‚ˇ
ˇ
ˇ˝
ˇ ... ‚ˇ
ˇ
ˇ An ˇ ˇ An ˇ
\
[

Proposición 1.4.5 Si una matriz cuadrada tiene dos filas iguales, su determinante
vale cero.

Demostración. Este resultado es consecuencia trivial del anterior.

\
[

Proposición 1.4.6 Si una matriz cuadrada tiene una fila de ceros su determinante
es nulo.

Demostración. Como en casos anteriores, el resultado se prueba por inducción.


Para n “ 1 es evidente. Supongamos que es cierto para n ´ 1 y probémoslo para
n. Si la fila nula es la fila i tenemos que:

detpAq “ a11 A11 ` ¨ ¨ ¨ ` 0.Ai1 ` ¨ ¨ ¨ ` an1 An1 .

Ahora bien, para k ‰ i se verifica la igualdad Ak1 “ p´1q1`k detpMk1 q “ 0, ya


que Mk1 tiene una fila de ceros y es cuadrada de orden n ´ 1. Esto implica que
1.4. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES Y CÁLCULO43

detpAq “ 0. \
[

Proposición 1.4.7 Si se multiplica una fila de una matriz cuadrada A por un escalar,
el determinante queda multiplicado por ese escalar.

Demostración. Otra vez utilizamos el método de inducción. Para n “ 1 es


evidente. Supongamos que es cierto para n ´ 1 y probémoslo para n. Si la fila
multiplicada por el escalar α es la fila i y A1 es la matriz resultante tras esa
operación, tenemos que:

detpA1 q “ a11 A111 ` ¨ ¨ ¨ ` αai1 A1i1 ` ¨ ¨ ¨ ` an1 A1n1 .

Ahora bien, para k ‰ i se verifica la igualdad A1k1 “ αAk1 por hipótesis de


inducción y, además, A1i1 “ Ai1 . Por lo tanto,

detpA1 q “ αa11 A11 ` ¨ ¨ ¨ ` αai1 Ai1 ` ¨ ¨ ¨ ` αan1 An1 “ αdetpAq.

\
[

Proposición 1.4.8 Si a una fila de una matriz cuadrada le sumamos un múltiplo de


otra fila, el valor del determinante no varía.

Demostración. Aplicando que una matriz con dos filas iguales tiene determi-
nante nulo y las Proposiciones 1.4.3 y 1.4.7, se tiene que
ˇ¨ ˛ˇ ˇ ¨ ˛ˇ ˇ¨ ˛ˇ
ˇ
ˇ A1 ˇ ˇ A1 ˇ
ˇ ˇ ˇ
ˇ A1 ˇ
ˇ ˇ
ˇ˚
ˇ˚ ... ‹ˇ ˇ ˚ . . . ‹ ˇ
‹ˇ ˇ ˚ ‹ˇ
ˇ ˚ . . . ‹ˇ
ˇ˚ ‹ˇ
ˇ˚
ˇ˚ Ai ‹ ˇ ˇ ˚ Ai ‹ ˇ
‹ˇ ˇ ˚ ‹ˇ
ˇ ˚ Ai ‹ ˇ
ˇ˚ ‹ˇ
ˇ˚
ˇ˚ ... ‹ˇ “ ˇ˚ . . . ‹ˇ ` α ˇ˚ . . . ‹ˇ “ detpAq.
‹ ˇ ˇ ˚ ‹ ˇ ˇ˚ ‹ˇ
ˇ˚ Aj ` αAi ‹ˇ ˇ˚ Aj ‹ˇ ˇ ˚ Ai ‹ ˇ
ˇ˚ ‹ˇ ˇ ˚ ‹ˇ ˇ˚ ‹ˇ
ˇ˝
ˇ ... ‚ˇ ˇ˝ . . . ‚ˇ
ˇ ˇ ˇ
ˇ˝ . . . ‚ˇ
ˇ ˇ
ˇ An ˇ ˇ An ˇ ˇ An ˇ

\
[
44CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Nota 1.4.9 De los resultados anteriores se sigue de forma trivial que

detpFij q “ detpFijt q “ ´1, detpFi pαqq “ detpFi pαqt q “ α,

detpFij pαqq “ detpFij pαqt q “ 1.


Además, para toda matriz cuadrada B de orden n se tiene que

detpFij Bq “ ´detpBq “ detpFij qdetpBq,

detpFi pαqBq “ αdetpBq “ detpFi pαqqdetpBq,


y
detpFij pαqBq “ detpBq “ detpFij pαqqdetpBq.

Proposición 1.4.10 Una matriz A es inversible, si, y sólo si, detpAq ‰ 0.

Demostración. Toda matriz A inversible es producto de matrices de operaciones


elementales por filas
Fr Fr´1 ¨ ¨ ¨ F1 “ A.
Por lo visto en la nota anterior, tenemos que, si B es una matriz cuadrada de
orden n, entonces detpF Bq “ detpF qdetpBq para toda matriz de operaciones
elementales por filas. Como consecuencia,

detpAq “ detpFr qdetpFr´1 ¨ ¨ ¨ F1 q “ detpFr qdetpFr´1 qdetpFr´2 ¨ ¨ ¨ F1 q “ ¨ ¨ ¨ “

detpFr qdetpFr´1 qdetpFr´2 q ¨ ¨ ¨ detpF1 q ‰ 0.


Supongamos que A no es inversible. Entonces es equivalente por filas a una
matriz cuadrada de orden n escalonada reducida por filas con alguna de ellas
nula, ya que el rango de A tiene que ser menor que n. Sea HA la forma escalonada
reducida con al menos una fila nula. Tenemos que A „f HA y esto implica que
existen matrices de operaciones elementales por filas, tales que

Fs Fs´1 ¨ ¨ ¨ F1 A “ HA

Esto implica que

detpFs qdetpFs´1 q ¨ ¨ ¨ detpF1 qdetpAq “ detpHA q “ 0

y, por lo tanto, el determinante de A es nulo. \


[
1.4. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES Y CÁLCULO45

Proposición 1.4.11 Si A y B son dos matrices cuadradas, se tiene que


detpABq “ detpAqdetpBq.
Como consecuencia, si A es inversible
1
detpA´1 q “ .
detpAq

Demostración. Si detpAq o detpBq son nulos, entonces detpABq también lo es.


Esto es así ya que, si existe pABq´1 , se tiene que
ABpABq´1 “ In , pABq´1 AB “ In
lo que implica que A y B son inversibles„ lo cual es un absurdo. Si A es inversible,
es producto de matrices de operaciones elementales por filas
Fr Fr´1 ¨ ¨ ¨ F1 “ A.
Así pues,
detpFr qdetpFr´1 qdetpFr´2 q ¨ ¨ ¨ detpF1 q “ detpAq
y
detpABq “ detpFr qdetpFr´1 ¨ ¨ ¨ F1 Bq “ detpFr qdetpFr´1 qdetpFr´2 ¨ ¨ ¨ F1 Bq “ ¨ ¨ ¨ “
detpFr qdetpFr´1 qdetpFr´2 q ¨ ¨ ¨ detpF1 qdetpBq “ detpAqdetpBq.
La igualdad
1
detpA´1 q “
detpAq
es consecuencia de que A´1 A “ In . \
[

Proposición 1.4.12 El determinante de una matriz cuadrada coincide con el de su


traspuesta.

Demostración. Si A no es inversible, entonces tampoco lo es At y, entonces, el


resultado es cierto ya que detpAq “ detpAt q “ 0. Si A es inversible, es producto
de matrices de operaciones elementales por filas
Fr Fr´1 ¨ ¨ ¨ F1 “ A.
46CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Así pues,
detpAt q “ detpF1t q ¨ ¨ ¨ detpFr´2
t t
qdetpFr´1 qdetpFrt q “
detpF1 q ¨ ¨ ¨ detpFr´2 qdetpFr´1 qdetpFr q “
detpFr qdetpFr´1 qdetpFr´2 q ¨ ¨ ¨ detpF1 q “ detpAq.
\
[

Utilizando la propiedad de que detpAq “ detpAt q, podemos demostrar de forma


fácil que todos los resultados anteriores que involucran filas también se tienen
para columnas.

Corolario 1.4.13 1) Sean tres matrices cuadradas del mismo orden, A, A1 y A2 ,


tales que tienen todas las columnas iguales, salvo la columna j. Si la
columna j de A es la suma de las columnas j de A1 y A2 , entonces

detpAq “ detpA1 q ` detpA2 q.

2) Si una matriz cuadrada A tiene dos columnas iguales, su determinante


vale cero.
3) Si se intercambian dos columnas de una matriz cuadrada A, su determi-
nante cambia de signo.
4) Si una matriz cuadrada A tiene una columna de ceros, su determinante es
nulo.
5) Si se multiplica una columna de una matriz cuadrada A por un escalar, el
determinante queda multiplicado por ese escalar.
6) Si a una columna de una matriz cuadrada A le sumamos un múltiplo de
otra columna, el valor del determinante no varía.

Proposición 1.4.14 El determinante de una matriz cuadrada se puede desarrollar


por cualquiera de sus filas o columnas.

Demostración. La demostración es una consecuencia de las Proposiciones 1.4.4


y 1.4.12.
1.4. DETERMINANTE DE UNA MATRIZ CUADRADA. PROPIEDADES Y CÁLCULO47

\
[

Con estas propiedades en la mano podemos realizar los cálculos de determinantes


utilizando las operaciones elementales. Veamos un ejemplo:

Ejemplo 1.4.15 Sea


¨ ˛
0 1 1 1
˚ 1 2 2 2 ‹
A“˚
˝ 1
‹.
2 3 3 ‚
0 2 3 4

Entonces, restando la última columna a la tercera y a la segunda


ˇ ˇ
ˇ
ˇ 0 0 0 1 ˇˇ
ˇ 1 0 0 2 ˇˇ
detpAq “ ˇˇ .
ˇ 1 ´1 0 3 ˇˇ
ˇ 0 ´2 ´1 4 ˇ

Desarrollando el determinante por la primera fila, tenemos que:


ˇ ˇ
ˇ 0 0 0 1 ˇˇ ˇ
ˇ 1
ˇ ˇ ˇ
ˇ 0 0 ˇ ˇ 1 0 0 ˇ
ˇ 1 0 0 2 ˇˇ ˇ
1`4 ˇ
ˇ ˇ ˇ
ˇ 1 0
ˇ “ p´1q ´1 ˇ “ ´ˇ 1 ´1 0 ˇ
ˇ 1 ´1 0 3 ˇˇ
ˇ 0
ˇ ˇ
ˇ 0
ˇ
ˇ ´2 ´1 ˇ ´2 ´1 ˇ
ˇ 0 ´2 ´1 4 ˇ

Volviendo a desarrollar por la primera fila, se obtienen las igualdades


ˇ ˇ
ˇ 1 0 0 ˇ ˇ ˇ
ˇ
ˇ “ ´p´1q1`1 ˇ ´1
ˇ ˇ 0 ˇˇ
´ ˇˇ 1 ´1 0 ˇ ´2 “ ´1.
ˇ 0
ˇ ´1 ˇ
´2 ´1 ˇ

Como el determinante de A es distinto de cero la matriz es inversible y

1
detpA´1 q “ “ ´1.
´1
48CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

1.5. Sistemas homogéneos y no homogéneos.

Definición 1.5.1 Una ecuación lineal con coeficientes en K es una expresión de la


forma:
a1 x1 ` ¨ ¨ ¨ ` an xn “ b

donde los ai son elementos conocidos del cuerpo que llamaremos coeficientes,
las xi son símbolos que llamaremos incógnitas y b es otro escalar conocido que
llamaremos término independiente. Es importante resaltar que en una ecuación
lineal no pueden aparecer las incógnitas elevadas al cuadrado, ni productos de
incógnitas, ni funciones de tipo trigonométrico o logarítmico.

Una solución de la ecuación es una asignación de escalares vi para las incognitas xi


de forma que se cumpla la igualdad. Normalmente una solución la representaremos
como una matriz columna ¨ ˛
v1
˚ .. ‹
˝ . ‚
vn
cumpliéndose que
¨ ˛
v1
˘˚ . ‹
˝ .. ‚ “ a1 v1 ` ¨ ¨ ¨ ` an vn “ b.
`
a1 ¨¨¨ an
vn

Cuando tenemos pocas incógnitas se suelen representar por las letras x, y, z, t,


....

Ejemplo 1.5.2 Las siguientes ecuaciones

x ` 20y ´ 3t “ 23, ix ´ p4 ` iqz ´ 6t “ 0

son lineales, mientras que

x2 ` 3y ` 4z “ 6, xyz ` 3t “ 9, senpxq ` 4t ` 5r “ ex

no lo son.
1.5. SISTEMAS HOMOGÉNEOS Y NO HOMOGÉNEOS. 49

Por ejemplo, x “ 6, y “ 1, z “ 0, t “ 1 es una solución de la ecuación


x ` 20y ´ 3t “ 23. En este caso,
¨ ˛
6
` ˘˚ 1 ‹
1 20 0 ´3 ˚ ˝ 0
‹ “ 1,6 ` 20,1 ` 0,0. ` p´3q,1 “ 23.

1

Definición 1.5.3 A un conjunto de m ecuaciones lineales con las mismas incógnitas


$

’ a11 x1 ` ¨ ¨ ¨ ` a1n xn “ b1
& ....................................


ai1 x1 ` ¨ ¨ ¨ ` ain xn “ bi
....................................




am1 x1 ` ¨ ¨ ¨ ` amn xn “ bm
%

se le llama sistema de m ecuaciones lineales con n incógnitas.

Nótese que el anterior sistema admite la siguiente formulación matricial:


¨ ˛¨ ˛ ¨ ˛
a11 ¨ ¨ ¨ ¨ ¨ ¨ a1n x1 b1
˚ .. .. . .. ‹ ˚ .. ‹ ˚ .. ‹
˚ .
˚ . .. . ‹‹˚ . ‹ ˚ . ‹
˚ ‹ ˚ ‹
˚ ai1 ¨ ¨ ¨ ¨ ¨ ¨ ain ‹ ˚ xi ‹ “ ˚ bi ‹ .
˚ . .. . . .. ‹ ˚ .. ‹ ˚ .. ‹
˚ ‹˚ ‹ ˚ ‹
˝ .. . . . ‚ ˝ . ‚ ˝ . ‚
am1 ¨ ¨ ¨ ¨ ¨ ¨ amn xn bm
Si llamamos A a la matriz
¨ ˛
a11 ¨ ¨ ¨ ¨ ¨ ¨ a1n
˚ .. .. . ..
˚ . . .. .


˚ ‹
˚ ai1 ¨ ¨ ¨ ¨ ¨ ¨ ain ‹
˚ . .. . . ..
˚ ‹
˝ .. .

. . ‚
am1 ¨ ¨ ¨ ¨ ¨ ¨ amn
y x, b a ¨ ˛ ¨ ˛
x1 b1
˚ .. ‹ ˚ .. ‹
˚ . ‹ ˚ . ‹
˚ ‹ ˚ ‹
˚ xi ‹ , ˚ bi ‹ ,
˚ . ‹ ˚ . ‹
˚ ‹ ˚ ‹
˝ .. ‚ ˝ .. ‚
xn bm
50CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

respectivamente, el sistema está dado por el producto matricial


Ax “ b.
Este es el formato más simple para representar de forma abstracta un sistema.
La matriz A P Mmˆn pKq se llamará matriz del sistema, x será conocido como
vector de incógnitas (al darle valores escalares a cada incógnita tenemos un
elemento de Mnˆ1 pKq) y b P Mmˆ1 pKq se denominará término independiente.

Definición 1.5.4 Dado un sistema de m ecuaciones lineales con n incógnitas Ax “ b,


se llama matriz ampliada del sistema a la que resulta cuando se añade a A el
término independiente como columna final. La representaremos como
` ˘
A | b .

Definición 1.5.5 Dado un sistema de m ecuaciones lineales con n incógnitas Ax “ b,


se llamará homogéneo si b “ Θm,1 . Dado un sistema no homogéneo Ax “ b, se
llamará sistema homogéneo asociado al sistema Ax “ Θm,1 .

Definición 1.5.6 Dado un sistema de m ecuaciones lineales con n incógnitas Ax “ b,


se llamará solución del sistema a todo v P Mnˆ1 pKq tal que Av “ b. Nótese que
si las columnas de A son A1 , ¨ ¨ ¨ , An , entonces v P Mnˆ1 pKq es solución, si, y
sólo si,
¨ ˛
a11 ¨ ¨ ¨ ¨ ¨ ¨ a1n ¨ ˛
˚ .. . . v1
..
˚ . . .. .. ‹ ˚ . ‹

‹˚ . ‹
˚ ai1 ¨ ¨ ¨ ¨ ¨ ¨ ain ‹ ˚ . ‹ “ v1 A1 ` ¨ ¨ ¨ ` vn An “ b.
˚
‹˚ . ‹
˚ . .. . . .. ‹ ˝ .. ‚
˚
˝ .. . . . ‚
vn
am1 ¨ ¨ ¨ ¨ ¨ ¨ amn
Cuando esto ocurre, se dice que b es combinación lineal de las columnas de A.
Más adelante veremos el sentido que tiene este nombre al interpretarlo en el
contexto de la teoría de espacios vectoriales.

Un sistema de ecuaciones lineales se llamará compatible si admite solución.


Cuando es única, se llamará compatible determinado. Si tenemos más de una
solución, el sistema se denominará compatible indeterminado. Los sistemas
incompatibles son aquellos que no tienen solución.
1.5. SISTEMAS HOMOGÉNEOS Y NO HOMOGÉNEOS. 51

Ejemplos 1.5.7 Si tenemos un sistema de ecuaciones lineales Ax “ b donde A es


una matriz inversible, se verifica que Ax “ b es compatible determinado con
solución v “ A´1 b.

Todo sistema homogéneo de n incógnitas, es compatible ya que Θn,1 es una


solución.

Veamos ahora ejemplos concretos.

Tomemos en primer lugar el sistema:


$ ¨ ˛ ¨ ˛
x`y`z “6 1 1 1 ¨ ˛ 6
x


x`y´z “0 ˚ 1 1 ˚ 0
&
´1 ‹
‹ ˝ y ‚“ ˚

ô ˚ ‹
x`z “4 ˝ 1 0 1 ‚ ˝ 4 ‚
z


x`y “3 1 1 0 3
%

donde de la última ecuación obtenemos que x “ 3 ´ y. Además


"
x`y´z “0
ñ 2x`y “ 4 ñ 2p3´yq`y “ 4 ñ 6´y “ 4 ñ y “ 2.
x`z “4

Entonces, x “ 1 y z “ 3. Así pues, el sistema resulta compatible determinado.

Sea a continuación el sistema


¨ ˛
" ˆ ˙ x ˆ ˙
x`y`z “6 1 1 1 ˝ y ‚“ 6
ô .
x`y´z “0 1 1 ´1 0
z

En este caso, sumando las dos ecuaciones, obtenemos que 2x ` 2y “ 6, equiva-


lentemente, x ` y “ 3. Por lo tanto, y “ 3 ´ x y z “ x ` y “ 3. Esto implica que
cualquier vector v tal que
¨ ˛
α
v “ ˝ 3 ´ α ‚, α P R
3

es solución del sistema. Como tenemos infinitas soluciones el sistema es compatible


indeterminado.
52CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Finalmente, tomemos el sistema


$ ¨ ˛¨ ˛ ¨ ˛
& x`y`z “6 1 1 1 x 6
x`y´z “0 ô˝ 1 1 ´1 ‚˝ y ‚ “ ˝ 0 ‚.
´2x ´ 2y “ 1 0 z 1
%
´2 ´2
Sumando las dos primeras ecuaciones obtenemos que 2x ` 2y “ 6, equivalen-
temente, x ` y “ 3. Esto es imposible que se cumpla al mismo tiempo que
´2x ´ 2y “ 1 ô x ` y “ ´1{2. Por lo tanto, no existe solución y el sistema
resulta incompatible.

Definición 1.5.8 Diremos que dos sistemas de ecuaciones lineales con el mismo
número de incógnitas son equivalentes, si tienen el mismo conjunto de soluciones.

Proposición 1.5.9 Sea P P Mmˆm pRq una matriz inversible. Se tiene que todo
sistema de m ecuaciones lineales con n incógnitas Ax “ b es equivalente a
P Ax “ P b.

Demostración. Supongamos que v es solución de Ax “ b. Entonces es solución


de P Ax “ P b ya que P Av “ P b por ser Av “ b. Inversamente, si v es solución
de P Ax “ P b, tenemos que P Av “ P b y multiplicando por P ´1 obtenemos que

Av “ P ´1 P Av “ P ´1 P b “ b.

Así pues, v es solución de Ax “ b. \


[

Como consecuencia de este resultado obtenemos unas importantes propiedades


que nos serán útiles a la hora de resolver sistemas.

Proposición 1.5.10 Si en un sistema de ecuaciones lineales Ax “ b se intercambian


dos ecuaciones, se multiplica una ecuación por un escalar no nulo o se suma a
una ecuación un múltiplo de otra ecuación, se obtiene un sistema de ecuaciones
equivalente.

Demostración. Intercambiar dos ecuaciones, por ejemplo la ecuación i y la


ecuación j, se hace sin más que multiplicar el sistema por la matriz de operaciones
1.5. SISTEMAS HOMOGÉNEOS Y NO HOMOGÉNEOS. 53

elementales Fij . Como es inversible, el nuevo sistema es equivalente a Ax “ b.


Si queremos multiplicar una ecuación por un escalar α no nulo, tenemos que
multiplicar el sistema por la matriz de operaciones elmentales Fi pαq que también
es inversible. De esta forma, en este caso, tenemos un nuevo sistema equivalente al
de partida. Finalmente, la última operación con ecuaciones se hace multiplicando
por una matriz de operaciones elementales del tipo Fij pαq que, como es inversible,
proporciona un sistema equivalente a Ax “ b.

\
[

Corolario 1.5.11 Sea Ax “ b un sistema de m ecuaciones lineales con n incógnitas.


Sea pA|bq su matriz ampliada. Si C “ pA1 |b1 q es la forma escalonada reducida de
pA|bq, se tiene que el sistema A1 x “ b1 es equivalente a Ax “ b.

Demostración. Es consecuencia directa de la proposición anterior. \


[

Corolario 1.5.12 Sea Ax “ b un sistema de m ecuaciones lineales con n incógnitas.


Sea pA|bq su matriz ampliada. Entonces:

1) Si rangpAq “ rangpA|bq, el sistema es compatible. En este caso, cuando


rangpAq “ n, el sistema es determinado y, si rangpAq ă n, es indetermi-
nado.
2) Si rangpAq ă rangpA|bq, el sistema es incompatible.

Demostración. Calculemos la forma escalonada reducida C “ pA1 |b1 q de la


matriz ampliada del sistema pA|bq. Si eliminamos la última columna de C,
tenemos una forma escalonada reducida para la matriz A. Como podemos
deducir de forma fácil, el sistema es compatible cuando en el sistema A1 x “ b1 no
aparece la ecuación 0 “ α con α un escalar no nulo, es decir, si A1 y pA1 |b1 q tienen
el mismo número de filas no nulas, equivalentemente, rangpAq “ rangpA|bq.

Si rangpAq “ rangpA|bq “ r, el sistema se resuelve despejando las r incógnitas


correspondientes a las r entradas principales en función de las n ´ r restantes.
54CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

El sistema será determinado si n “ r. \


[

Estos últimos Corolarios proporcionan un método, conocido como método de


Gauss-Jordan, basado en la utilización de las operaciones elementales para
simplificar los procesos de caracterización del sistema y obtención de su conjunto
de soluciones en el caso de que las tenga. Veamos unos ejemplos:

Ejemplos 1.5.13 Tomemos el sistema


$ ¨ ˛¨ ˛ ¨ ˛
& 3x ` 6y ´ 5z “ 0 3 6 ´5 x 0
x ` y ` 2z “ 0 ô˝ 1 1 2 ‚˝ y ‚ “ ˝ 0 ‚.
2x ` 4y ´ 3z “ 1 2 4 ´3 z 1
%

Sea la matriz ampliada del sistema


¨ ˛
3 6 ´5 | 0
˝ 1 1 2 | 0 ‚
2 4 ´3 | 1

y calculemos la forma escalonada reducida (en este caso, la matriz donde se


acumulan las operaciones elementales no nos interesa por lo que no la escribimos).
¨ ˛ ¨ ˛
F12
1 1 2 | 0 F p´2q,F p´3q 1 1 2 | 0 F23
31 21
pA|bq ùñ ˝ 3 6 ´5 | 0 ‚ ùñ ˝ 0 3 ´11 | 0 ‚ ùñ
2 4 ´3 | 1 0 2 ´7 | 1
¨ ˛ ¨ ˛
1 1 2 | 0 F p1{2q 1 1 2 | 0 F p´3q
2 32
˝ 0 2 ´7 | 1 ‚ ùñ ˝ 0 1 ´7{2 | 1{2 ‚ ùñ
0 3 ´11 | 0 0 3 ´11 | 0
¨ ˛ ¨ ˛
1 1 2 | 0 F p´2q 1 1 2 | 0 F p´1q
3 12
˝ 0 1 ´7{2 | 1{2 ‚ ùñ ˝ 0 1 ´7{2 | 1{2 ‚ ùñ
0 0 ´1{2 | ´3{2 0 0 1 | 3
¨ ˛ ¨ ˛
1 0 11{2 | ´1{2 F p´11{2q,F p7{2q 1 0 0 | ´17
13 23
˝ 0 1 ´7{2 | 1{2 ‚ ùñ ˝ 0 1 0 | 11 ‚
0 0 1 | 3 0 0 1 | 3
1.5. SISTEMAS HOMOGÉNEOS Y NO HOMOGÉNEOS. 55

Por lo tanto, rangpAq “ rangpA|bq “ 3 y el sistema original es compatible


determinado y equivalente al sistema
$
& x “ ´17
y “ 11
z“3
%

Tomenos ahora el sistema


$ ¨ ˛¨ ˛ ¨ ˛
& x`y`z “1 1 1 1 x 1
x ` 2y “ 1 ô˝ 1 2 0 ‚˝ y ‚ “ ˝ 1 ‚
x ` 2z “ 1 1 0 2 z 1
%

y calculemos la forma escalonada reducida de la matriz ampliada


¨ ˛ ¨ ˛
F31 p´1q,F21 p´1q
1 1 1 | 1 F p1q 1 1 1 | 1
32
pA|bq ùñ ˝ 0 1 ´1 | 0 ‚ ùñ ˝ 0 1 ´1 | 0 ‚
0 ´1 1 | 0 0 0 0 | 0
¨ ˛
F12 p´1q
1 0 2 | 1
ùñ ˝ 0 1 ´1 | 0 ‚.
0 0 0 | 0
Entonces, rangpAq “ rangpA|bq “ 2 ă 3 y el sistema original es compatible
indeterminado y equivalente al sistema
"
x ` 2z “ 1
y´z “0
que tiene como soluciones a los
¨ ˛
1 ´ 2α
v“˝ α ‚, α P R.
α
Finalmente, sea el sistema
$ ¨ ˛¨ ˛ ¨ ˛
& 2x ` 2y ` 2z “ 0 2 2 2 x 0
4x ` 7y ` 7z “ 24 ô˝ 4 7 7 ‚˝ y ‚ “ ˝ 24 ‚
6x ` 18y ` 18z “ 70 6 18 18 z 70
%

y, como en los casos anteriores, empezemos el calculo de la forma escalonada


reducida de la matriz ampliada.
¨ ˛ ¨ ˛
F31 p´3q,F21 p´2q
2 2 2 | 0 F p´4q 2 2 2 | 0
32
pA|bq ùñ ˝ 0 3 3 | 24 ‚ ùñ ˝ 0 3 3 | 24 ‚.
0 12 12 | 70 0 0 0 | ´26
56CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Llegados a este punto no tenemos que hacer nada más, ya que se ve claramente
que tenemos una ecuación 0 “ ´26. El sistema es incompatible y rangpAq “
2 ă 3 “ rangpA|bq.

Proposición 1.5.14 Sea Ax “ b un sistema de ecuaciones lineales de m ecuaciones


con n incógnitas tal que sea compatible. El conjunto de soluciones del sistema
se obtiene como la suma de una solución particular y las soluciones del sistema
homogéneo asociado Ax “ Θm,1 .

Demostración. Supongamos que v es una solución de Ax “ b y que w lo es de


Ax “ Θm,1 . Entonces,
Apv ` wq “ Av ` Aw “ b ` Θm,1 “ b
y esto implica que v ` w es una solución de Ax “ b. Inversamente, si tenemos dos
soluciones de Ax “ b, v y u, sea w “ u ´ v. Es claro que v “ v ` w y, además, w
es solución del sistema homogéneo asociado, ya que Aw “ Apu ´ vq “ Au ´ Av “
b ´ b “ Θm,1 . \
[

Ejemplo 1.5.15 Por ejemplo, en un caso del ejemplo anterior estudiamos el sistema
$ ¨ ˛¨ ˛ ¨ ˛
& x`y`z “1 1 1 1 x 1
x ` 2y “ 1 ô˝ 1 2 0 ‚˝ y ‚ “ ˝ 1 ‚
x ` 2z “ 1 1 0 2 z 1
%

que resultó ser compatible indeterminado. Tiene como soluciones a los u, tales
que ¨ ˛
1 ´ 2α
u“˝ α ‚, α P R.
α
Si tomamos ¨ ˛
1
v“˝ 0 ‚
0
tenemos que v es una solución del sistema Ax “ b (es una solución particular) y
que $ ¨ ˛ ,
& ´2α .
v ` ˝ α ‚, α P R
α
% -
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 57

es el conjunto total de soluciones, donde


$¨ ˛ ,
& ´2α .
˝ α ‚, α P R
α
% -

son las soluciones del sistema homogéneo asociado.

Nota 1.5.16 Obviamente, si Ax “ b es compatible y su sistema homogéneo asociado


sólo tiene la solución trivial, obtenemos que el sistema es determinado.

1.6. Eliminación Gaussiana. Factorización LU

Sea A P Mmˆn pRq y sean A1 , A2 dos matrices tales que A “ A1 A2 . Resolver


un sistema de ecuaciones lineales Ax “ b con matriz asociada A es equivalente a
resolver dos sistemas A1 z “ b, A2 x “ z, ya que
Ax “ A1 A2 x “ A1 z “ b.
Este procedimiento es especialmente útil cuando los dos sistemas A1 z “ b
y A2 x “ z son mucho más fáciles de resolver que el original. Existen varios
métodos basados en esta idea. En la parte final del tema veremos uno de los más
importantes.

Definición 1.6.1 Sea A P Mnˆn pRq. Diremos que A admite una factorización LU
si A se puede factorizar como producto de dos matrices L y U donde L es una
matriz triangular inferior con unos en la diagonal principal y U es una matriz
triangular superior.
A “ LU
¨ ˛¨ ˛
1 0 ¨¨¨ 0 0 u11 u12 ¨ ¨ ¨ u1 n´1 unn
˚ l21 1 0 0 ‹
¨¨¨ ‹ ˚ 0 u22 ¨ ¨ ¨ u2 n´1 u2n ‹
˚
. . . . . . . . . ..
˚ ‹
“˚
˚ .. .. .. .. .. ‹ ˚ ..
‹ ˚ .. .. .. .


˚ ‹˚ ‹
˝ ln´1 1 ln´1 2 ¨ ¨ ¨ 1 0 ‚˝ 0 0 ¨ ¨ ¨ un´1 n´1 un´1 n ‚
ln1 ln2 ¨ ¨ ¨ ln n´1 1 0 0 ¨¨¨ 0 unn
Si existe tal descomposición, tenemos que
detpAq “ detpLU q “ detpLqdetpU q “ detpU q “ u11 u22 ¨ ¨ ¨ un´1 n´1 unn .
58CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

El cálculo de la factorización LU de una matriz A está basado en el procedimiento


de eliminación Gaussiana que consiste en convertir la matriz de partida A en una
matriz triangular superior mediante la utilización de operaciones elementales
con filas. El método de Gauss se realizará en n ´ 1 etapas, si la matriz A tiene n
filas.

Etapa 1 del método de Gauss.

En la primera etapa del método se harán ceros por debajo del primer elemento
de la diagonal principal de A. Para ello distinguimos dos pasos:

Paso I: Se comprueba si el elemento a11 es no nulo. Si es distinto de cero, se


pasa al paso II; si es nulo, se debe intercambiar la primera fila con otra fila,
por ejemplo, la fila i-ésima (i ą 1), tal que ai1 ‰ 0, y se pasa al paso II. Si no
existiese una fila en tales condiciones, se pasa a la etapa II.

Paso II: Se anulan todos los elementos colocados en la primera columna debajo
del que ocupa la primera posición de la diagonal principal.

La interpretación matricial de estos pasos es la siguiente:

Paso I: Multiplicamos A por la izquierda por la matriz:


$
& In si a11 ‰ 0
P1 “ F1i si a11 “ 0 y D i ą 1 ai1 ‰ 0
In si ai1 “ 0 @ i ą 1
%

Paso II: Sea P1 A “ B1 “ pb1ij q. Si debajo del elemento b111 todos los b1i1 son nulos
tomamos E1 “ In . En caso contrario, multiplicamos B1 por la izquierda por las
matrices:
b1j1
Fj1 p´ 1 q j P t2, ¨ ¨ ¨ , nu
b11
para anularlos y tomamos

b1n1 b1 1 b1
E1 “ Fn1 p´ 1 qFn´1 1 p´ n´1
1 q ¨ ¨ ¨ F21 p´ 21 q
b11 b11 b111
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 59

En cualquiera de los dos posibilidades, obtenemos que E1 es una matriz triangular


inferior con unos en la diagonal principal, ya que E1 “ In o
¨ ˛
1 0 ¨¨¨ 0 0
b1
1 ¨¨¨ 0 0 ‹
˚ ‹
˚ ´ b121
11
.. .. . . .. .. ‹
˚ ‹
.
˚
E1 “ ˚˚ . . . . ‹

˚ b1n´1 1 ‹
˚ ´ b1 0 ¨¨¨ 1 0 ‹
˝ 11 ‚
b1
´ bn1 1 0 ¨¨¨ 0 1
11

Además, si A1 “ pa1ij q “ E1 B1 , tenemos que


¨ ˛
a111 a112 ¨¨¨ a11 n´1 a11n
˚ 0 a122 ¨¨¨ a12 n´1 a12n ‹
.. .. .. .. ..
˚ ‹
A 1 “ E 1 P1 A “ ˚ .
˚ ‹
˚ . . . . ‹

˝ 0 a1n´1 2 ¨¨¨ a1n´1 n´1 a1n´1 n ‚
0 a1n1 ¨¨¨ a1n n´1 a1nn

Etapa r del método de Gauss.

En esta etapa, nos encontramos con una matriz


¨ r´1
ar´1 a1r´1 a1r´1 r´1 ˛
a11 12 ¨¨¨ r ¨¨¨ n´1 a1n
r´1
˚ 0 0 ¨¨¨ a2r ¨¨¨ a2r´1
n´1
r´1
a2n ‹
˚ .. .. .. .. .. .. ..
˚ ‹
˚ . . . . . . .


˚ ‹
Ar´1 “ par´1
ij q “ ˚ 0 0 ¨¨¨ r´1
arr ¨¨¨ ar´1
r n´1
r´1
arn ‹
˚ . .. .. .. .. .. ..
˚ ‹
˚ .. . .

˚ . . . . ‹

˝ 0 r´1 r´1 r´1
0 ¨¨¨ an´1 r ¨¨¨ an´1 n´1 an´1 n

0 0 ¨¨¨ r´1
anr ¨¨¨ anr´1
n´1
r´1
ann

y tenemos que hacer ceros por debajo del coeficiente ar´1


r r . Al igual que en las
otras etapas debemos dar dos pasos:

Paso I: Se comprueba si el elemento ar´1 rr es no nulo. Si es distinto de cero, se


pasa al paso II; si es nulo, se debe intercambiar la fila r con otra fila, por ejemplo,
60CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

la fila i-ésima (i ą r) tal que ar´1


ir ‰ 0, y se pasa al paso II. Si no existiese una
fila en tales condiciones, se pasa a la etapa r ` 1.

Paso II: Se anulan todos los elementos colocados en la columna r-ésima debajo
del que ocupa la posición r de la diagonal principal.

La interpretación matricial de estos pasos es la siguiente:

Paso I: Multiplicamos Ar´1 por la izquierda por la matriz:


$
& In si ar´1
rr ‰ 0
r´1
Pr “ Fir si ar´1
rr “ 0 y D i ą r air ‰0
r´1
In si air “ 0 @ i ą r
%

Paso II: Sea Pr Ar´1 “ Br “ pbrij q. Si debajo del elemento brrr todos los brir son
nulos tomamos Er “ In . En caso contrario, multiplicamos Br por la izquierda
por las matrices:
brjr
Fjr p´ q j P tr ` 1, ¨ ¨ ¨ , nu
brrr

para anularlos y tomamos

brnr br r br 1
Er “ Fnr p´ r
qFn´1 r p´ n´1
r
q ¨ ¨ ¨ Fr`1 r p´ r`1 q
brr brr brrr

En cualquiera de los dos posibilidades, obtenemos que Er es una matriz triangular


inferior con unos en la diagonal principal, ya que Er “ In o
¨ ˛
1 0 ¨¨¨ 0 ¨¨¨ 0 0
˚ 0 1 ¨¨¨ 0 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. ..
˚ ‹
. . . . . . .
˚ ‹
˚ ‹
˚ ‹
˚ 0 0 ¨¨¨ 1 ¨¨¨ 0 0 ‹
br
˚ ‹
Er “ ˚ 0 0 ¨¨¨ ´ r`1 1
¨¨¨ 0 0 ‹
˚ brrr ‹
.. .. .. .. .. .. ..
˚ ‹
. . . . . . .
˚ ‹
˚ ‹
brn´1 r
˚ ‹
˚
˝ 0 0 ¨¨¨ ´ brrr ¨¨¨ 1 0 ‹

brnr
0 0 ¨¨¨ ´ brrr ¨¨¨ 0 1
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 61

Además, si Ar “ parij q “ Er Br , tenemos que


¨ r
a11 ar12 ar1r ar1r`1 ar1 n´1 ar1n
˛
¨¨¨ ¨¨¨
˚ 0 ar22 ¨¨¨ ar2r ar2 r`1 ¨¨¨ ar2 n´1 ar2n ‹
˚ .. .. .. .. .. .. .. ..
˚ ‹
˚ . . . . . . . .


˚ ‹
˚ 0 0 ¨¨¨ arrr arr r`1 ¨¨¨ arr n´1 arrn ‹
Ar “ Er Pr Ar´1 “ ˚ ‹
˚ 0 0 ¨¨¨ 0 arr`1 r`1 ¨¨¨ arr`1 n´1 r
ar`1 n ‹
˚ . .. .. .. .. .. .. ..
˚ ‹
˚ .. .

˚ . . . . . . ‹

˝ 0 0 ¨¨¨ 0 arn´1 r`1 ¨¨¨ arn´1 n´1 arn´1 n ‚
0 0 ¨¨¨ 0 arn r`1 ¨¨¨ arn n´1 arnn
De esta manera, tras n ´ 1 etapas se obtiene que
En´1 Pn´1 ¨ ¨ ¨ E1 P1 A “ An´1 “ pan´1
ij q “

n´1
an´1 an´1 an´1 an´1 an´1
¨ ˛
a11 12 ¨¨¨ 1r 1 r`1 ¨¨¨ 1 n´1 1n
˚ 0 an´1
22 ¨¨¨ an´1
2r an´1
2 r`1 ¨¨¨ an´1
2 n´1 an´1
2n

.. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . .
˚ ‹
˚ ‹
˚ ‹
˚ 0 0 ¨¨¨ an´1
rr an´1
r r`1 ¨¨¨ an´1
r n´1 an´1
rn

.. .. .. .. .. .. ..
˚ ‹
˚ ‹
˚ . . . . an´1
r`1 r`1 . . . ‹
.. .. .. .. .. .. ..
˚ ‹
˚ .. ‹
˚
˚ . . . . . . . . ‹

˝ 0 0 ¨¨¨ 0 0 ¨¨¨ an´1
n´1 n´1 an´1
n´1 n

0 0 ¨¨¨ 0 0 ¨¨¨ 0 an´1
nn
es triangular superior. Por lo tanto, si llamamos P “ En´1 Pn´1 ¨ ¨ ¨ E1 P1 , tenemos
que
P A “ U, U “ An´1 .

Ejemplo 1.6.2 Tomemos la matriz


¨ ˛
2 1 1
A “ ˝ 2 1 3 ‚.
´1 3 1
Veamos como sería cada etapa del método de Gauss.

Etapa 1 del método de Gauss.


62CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

Paso I: Como a11 “ 2 ‰ 0, tomamos P1 “ I3 .

Paso II: B1 “ P1 A “ A.

Hagamos los ceros a continuación. Tomamos E1 “ F31 p1{2qF21 p´1q y de esta


forma ¨ ˛
2 1 1
A1 “ E1 B1 “ E1 A “ ˝ 0 0 2 ‚
0 7{2 3{2

Etapa 2 del método de Gauss.

Paso I: Como a122 “ 0 y a132 “ 7{2 ‰ 0, tomamos P2 “ F23 .

Paso II: B2 “ P2 A1 .

Hagamos los ceros a continuación. Tomamos E2 “ I3 ya que debajo del coeficiente


b222 todos los elementos son nulos. De esta forma
¨ ˛
2 1 1
A2 “ E2 B2 “ P2 A1 “ ˝ 0 7{2 3{2 ‚
0 0 2

Entonces U “ A2 , y, además, la matriz P , tal que P A “ U , está dada por


¨ ˛
1 0 0
P “ E2 P2 E1 P1 “ I3 F23 F31 p1{2qF21 p´1qI3 “ F23 F31 p1{2qF21 p´1q “ ˝ 1{2 0 1 ‚.
´1 1 0

Esta matriz no es triangular inferior, ya que en el producto que la define figura


la matriz F23 que no lo es.

Nota 1.6.3 De los tres tipos de matrices de operaciones elementales sólo las matrices
Fij pαq con i ą j son triangulares inferiores con unos en la diagonal principal. Las
matrices Fij no son triangulares inferiores ni superiores y las matrices Fi pαq son
diagonales, pero el elemento colocado en la posición i de la diagonal principal es
α. Por lo tanto, si en el proceso de Gauss no tenemos necesidad de intercambiar
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 63

filas o de multiplicar una fila por un escalar no nulo (obviamente también distinto
de uno), la matriz P es igual a

P “ En´1 En´2 ¨ ¨ ¨ E1

y esto implica que P es triangular inferior con unos en la diagonal principal.


Como toda inversa de una matriz triangular inferior con unos en la diagonal
principal es triangular inferior con unos en la diagonal principal, tenemos lo
siguiente:
A “ LU, L “ P ´1
donde L es una matriz triangular inferior con unos en la diagonal principal y U
es una matriz triangular superior. Ahora bien, en estas condiciones generales no
podemos garantizar la unicidad de L y de U .

Ejemplo 1.6.4 Sea la matriz


¨ ˛
1 1 1 1
˚ 1 2 2 2 ‹
A“˝
˚ ‹
1 2 3 3 ‚
1 2 3 4

y apliquemos el proceso de eliminación de Gauss. En este ejemplo iremos directos


al grano sin especificar con tanto detalle lo que se hace en cada etapa. Entonces:
¨ ˛ ¨ ˛
1 1 1 1 1 1 1 1
F41 p´1q, F31 p´1q, F21 p´1q ˚ 0 1 1 1 ‹ F p´1q, F p´1q ˚ 0 1 1 1 ‹
ùñ ˚ ‹ 42 ùñ32 ˚ ‹
˝ 0 1 2 2 ‚ ˝ 0 0 1 1 ‚
0 1 2 3 0 0 1 2
¨ ˛
1 1 1 1
F43 p´1q ˚ 0 1 1 1 ‹
ùñ ˚ ˝ 0 0 1 1 ‚

0 0 0 1
De esta forma, tenemos que
¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
U “˚
˝ 0

0 1 1 ‚
0 0 0 1
64CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

y
P “ F43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1q
que es un producto de matrices triangulares inferiores con unos en la diagonal
principal. Nótese que en ningún momento del proceso tuvimos necesidad de
intercambiar dos filas o de multiplicar una fila por un escalar no nulo distinto de
uno.

Entonces
L “ P ´1
“ pF43 p´1qF42 p´1qF32 p´1qF41 p´1qF31 p´1qF21 p´1qq´1 “
F21 p´1q´1 F31 p´1q´1 F41 p´1q´1 F32 p´1q´1 F42 p´1q´1 F43 p´1q´1 “
¨ ˛
1 0 0 0
˚ 1 1 0 0 ‹
F21 p1qF31 p1qF41 p1qF32 p1qF42 p1qF43 p1q “ ˚
˝ 1 1 1 0 ‚

1 1 1 1
si sale una matriz triangular inferior con unos en la diagonal principal tal que

A “ LU.

El teorema que garantiza la existencia de una única factorización LU es el


siguiente:

Teorema 1.6.5 Sea A “ paij q P Mnˆn pRq y supongamos que sus submatrices diago-
nales ¨ ˛
a11 ¨ ¨ ¨ a1r
Apr, rq “ ˝
˚ .. . . .. ‹
. . . ‚
ar1 ¨¨¨ arr
son inversibles para todo r P t1, ¨ ¨ ¨ , nu. Entonces A admite una única factoriza-
ción LU con L una matriz triangular inferior con unos en la diagonal principal
y U una matriz triangular superior inversible.

Demostración. Por lo visto anteriormente, para garantizar la existencia de


la factorización LU , debemos demostrar que en cada etapa del método no es
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 65

necesario intercambiar filas. La demostración de este hecho la haremos por


inducción. Ya que a11 ‰ 0 entonces en la primera etapa de la eliminación
gaussiana no tenemos necesidad de intercanmbiar filas. Supongamos que esto es
así hasta la etapa r y comprobemos que también es cierto para la etapa r ` 1.
En esa etapa tenemos que

ar11 ar12 ar1r ar1r`1 ar1 n´1 ar1n


¨ ˛
¨¨¨ ¨¨¨
˚ 0 ar22 ¨¨¨ ar2r ar2 r`1 ¨¨¨ ar2 n´1 ar2n ‹
.. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . .
˚ ‹
˚ ‹
˚ ‹
˚ 0 0 ¨¨¨ arrr arr r`1 ¨¨¨ arr n´1 arrn ‹
Ar “ ˚ ‹
˚ 0 0 ¨¨¨ 0 arr`1 r`1 ¨¨¨ arr`1 n´1 r
ar`1 n ‹
˚ . .. .. .. .. .. .. ..
˚ ‹
˚ .. .

˚ . . . . . . ‹

˝ 0 0 ¨¨¨ 0 arn´1 r`1 ¨¨¨ arn´1 n´1 arn´1 n ‚
0 0 ¨¨¨ 0 arn r`1 ¨¨¨ arn n´1 arnn

y además Ar “ Er Pr Er´1 Pr´1 ¨ ¨ ¨ E1 P1 A, donde por hipótesis de inducción no


hemos hecho intercambios de filas o, lo que es lo mismo, Pr “ Pr´1 “ ¨ ¨ ¨ P1 “ In ,
lo que implica
Ar “ Er Er´1 ¨ ¨ ¨ E1 A

con Er Er´1 ¨ ¨ ¨ E1 “ pcij q matriz triangular inferior con unos en la diagonal


principal. Así pues:
¨ ˛
1 0 ¨¨¨ 0 0 ¨¨¨ 0 0
˚ c21 1 ¨¨¨ 0 0 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . .
˚ ‹
˚ ‹
˚ ‹
˚ cr1 cr2 ¨¨¨ 1 0 ¨¨¨ 0 0 ‹
Er Er´1 ¨ ¨ ¨ E1 “ ˚
˚ cr`1 1

cr`1 1 ¨¨¨ cr`1 r 1 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. ..
˚ ‹
. .
˚ ‹
˚
˚ . . . . . . ‹

˝ cn`1 1 cn`1 2 ¨¨¨ cn´1 r cn´1 r`1 ¨¨¨ 1 0 ‚
cn 1 cn 2 ¨¨¨ cn r cn r`1 ¨¨¨ cn n´1 1

Descomponiendo por bloques tenemos que la igualdad

Ar “ Er Er´1 ¨ ¨ ¨ E1 A
66CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

la podemos expresar como

ar1 ;1 ar1 2 ar1 r ar1 r`1 ar1 r`2 ar1 n´1 ar1n
¨ ˛
¨¨¨ | ¨¨¨
˚ 0 ar2 2 ¨¨¨ ar2 r ar2 r`1 | ar2 r`2 ¨¨¨ ar2 n´1 ar2 n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹

˚ 0
˚ 0 ¨¨¨ arr r arr r`1 | arr r`2 ¨¨¨ arr n´1 arr n ‹

˚ 0
˚ 0 ¨¨¨ 0 arr`1 r`1 | arr`1 r`2 ¨¨¨ arr`1 n´1 arr`1 n ‹
‹“
˚ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ‹
˚ ‹
˚ 0 0 ¨¨¨ 0 arr`2 r`1 | arr`2 r`2 ¨¨¨ arr`2 n´1 arr`2 n ‹
˚ .. .. .. .. .. .. .. .. ..
˚ ‹
. .

˚ . . . . | . . . ‹
˚ ‹
˝ 0 0 ¨¨¨ 0 arn´1 r`1 | arn´1,r`2 ¨¨¨ arn´1 n´1 arn´1 n ‚
0 0 ¨¨¨ 0 arn r`1 | arn,r`2 ¨¨¨ arn n´1 arn n

¨ ˛
1 0 ¨¨¨ 0 0 | 0 ¨¨¨ 0 0
˚ c2 1 1 ¨¨¨ 0 0 | 0 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹

˚ cr 1 cr 2 ¨¨¨ 1 0 | 0 ¨¨¨ 0 0 ‹
˚ ‹
˚ cr`1 1 cr`1 2 ¨¨¨ cr`1 r 1 | 0 ¨¨¨ 0 0 ‹
˚ ‹ˆ
˚ ´ ´ ´ ´ ´ | ´ ´ ´ ´ ‹
˚ ‹
˚ cr`2 1 cr`2 2 ¨¨¨ cr`2 r cr`2;r`1 | 1 ¨¨¨ 0 0 ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. .
˚ ‹
˚
˚ . . . . | . . . ‹

˝ cn`1 1 cn`1 2 ¨¨¨ cn´1 r cn´1 r`1 | cn´1 r`2 ¨¨¨ 1 0 ‚
cn 1 cn 2 ¨¨¨ cnr cn r`1 | cn r`2 ¨¨¨ cn n´1 1
¨ ˛
a1 1 a1 2 ¨¨¨ a1 r a1 r`1 | a1 r`2 ¨¨¨ a1 n´1 a1 n
˚
˚ a2 1 a2 2 ¨¨¨ a2 r a2 r`1 | a2 r`2 ¨¨¨ a2 n´1 a2 n ‹

˚ ar 1 ar 2 ¨¨¨ ar r ar r`1 | ar r`2 ¨¨¨ ar n´1 ar n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. . . . . . . . .
˚ ‹
˚
˚ | ‹

˚ ar 1 ar 2 ¨¨¨ ar r ar r`1 | ar r`2 ¨¨¨ ar n´1 ar n ‹
˚ ‹
˚ ´ ´ ´ ´ ´ ´ ´ ´ ´ ´ ‹
˚ ‹
˚ ar`1 1 ar`1 2 ¨¨¨ ar`1 r ar`1 r`1 | ar`1 r`2 ¨¨¨ ar`1 n´1 ar`1 n ‹
.. .. .. .. .. .. .. .. ..
˚ ‹
. .
˚ ‹
˚
˚ . . . . | . . . ‹

˝ an´1 1 an´1 2 ¨¨¨ an´1 r an´1 r`1 | an´1 r`2 ¨¨¨ an´1 n´1 an´1 n ‚
an 1 an 2 ¨¨¨ an r an r`1 | an r`2 ¨¨¨ an n´1 an n
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 67

y, por lo tanto, ¨ ˛
ar1 1 ar1 2 ¨¨¨ ar1 r a1 r`1
˚ 0 ar2 2 ¨¨¨ ar2 r ar2 r`1 ‹
.. .. .. .. ..
˚ ‹
.
˚ ‹
˚
˚ . . . . ‹“

˝ 0 0 ¨ ¨ ¨ arr r arr r`1 ‚
0 0 ¨¨¨ 0 ar`1 r`1
¨ ˛¨ ˛
1 0 ¨¨¨ 0 0 a1 1 a1 2 ¨¨¨ a1 r a1 r`1
˚ c2 1 1 ¨¨¨ 0 0 ‹˚ a 2 1 a 22 ¨¨¨ a2 r a2 r`1 ‹
.. .. .. .. .. .. .. .. .. ..
˚ ‹˚ ‹
. .
˚ ‹˚ ‹
˚
˚ . . . . ‹˚
‹˚ . . . . ‹

˝ cr 1 cr 2 ¨¨¨ 1 0 ‚˝ ar 1 ar 2 ¨¨¨ ar r ar r`1 ‚
cr`1 1 cr`1 2 ¨¨¨ cr`1 r 1 ar`1 1 ar`1 2 ¨¨¨ ar`1 r ar`1 r`1
Aplicando determinantes a la anterior igualdad, obtenemos que
ˇ r ˇ
ˇ a1 1 ar1 2 ¨ ¨ ¨ ar1 r a1 r`1 ˇˇ
ˇ
ˇ 0 ar2 2 ¨ ¨ ¨ ar2 r ar2 r`1 ˇˇ
.. .. . . .. .. ˇ “
ˇ
.
ˇ
ˇ
ˇ . . . . ˇˇ
r r
ˇ
ˇ 0 0 ¨ ¨ ¨ a rr a r r`1 ˇ
ˇ
ˇ 0 0 ¨¨¨ 0 ar`1 r`1 ˇ
ˇ ˇˇ ˇ
ˇ
ˇ 1 0 ¨¨¨ 0 0 ˇˇ ˇˇ a1 1 a1 2 ¨ ¨ ¨ a1 r a1 r`1 ˇ
ˇ
ˇ c21 1 ¨ ¨ ¨ 0 0 ˇ ˇ a 21 a 22 ¨ ¨ ¨ a2r a2 r`1
ˇ
.. .. . . .. .. ˇ ˇ .. .. . . .. ..
ˇ ˇˇ ˇ
. .
ˇ ˇ
ˇ
ˇ . . . . ˇˇ ˇ ˇ . . . . ˇ
ˇ
ˇ
ˇ c r 1 cr 2 ¨ ¨ ¨ 1 0 ˇˇ
ˇˇ a r 1 a r 2 ¨ ¨ ¨ a r r a r r`1
ˇ
ˇ
ˇ cr`1 1 cr`1 2 ¨ ¨ ¨ cr`1 r 1 ˇ ˇ ar`1 1 ar`1 2 ¨ ¨ ¨ ar`1 r ar`1 r`1 ˇ
y, entonces,
ar1 1 ar2 2 ¨ ¨ ¨ arr r arr`1 r`1 ‰ 0
ya que por hipótesis la submatriz diagonal Apr, rq es inversible. Lo verdadera-
mente importante de que el producto anterior sea no nulo es que esto implica
que
arr`1 r`1 ‰ 0
y, entonces, no tenemos necesidad de intercambiar filas en la etapa r ` 1 del
método de Gauss.

Probemos ahora la unicidad de la descomposición. Supongamos que A admite


dos factorizaciones
A “ L1 U1 “ L2 U2
68CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES

donde L1 y L2 son triangulares inferiores con unos en la diagonal principal y U1 ,


U2 son triangulares superiores inversibles. Entonces,

L´1 ´1
2 L1 “ U2 U1 .

Ahora bien, como L´12 L1 es triangular inferior con unos en la diagonal principal
y U2 U1´1 es triangular superior inversible, tenemos que

L´1 ´1
2 L1 “ U2 U1 “ In

o, lo que es lo mismo,
L1 “ L2 , U1 “ U2 .
\
[

Ejemplo 1.6.6 Sea la matriz


¨ ˛
2 ´1 0 1
˚ 4 ´4 1 5 ‹
A“˚ ‹
˝ ´2 1 ´1 0 ‚
´2 5 ´4 ´1

y apliquemos el proceso de eliminación de Gauss.Entonces:


¨ ˛ ¨ ˛
2 ´1 0 1 2 ´1 0 1
F41 p1q, F31 p1q, F21 p´2q ˚ 0 ´2 1 3 ‹ F42 p2q ˚ 0 ´2 1 3 ‹
ùñ ˚
˝ 0
‹ ùñ ˚ ‹
0 ´1 1 ‚ ˝ 0 0 ´1 1 ‚
0 4 ´4 0 0 0 ´2 6
¨ ˛
2 ´1 0 1
F43 p´2q ˚ 0 ´2 1 3 ‹
ùñ ˚ ˝ 0

0 ´1 1 ‚
0 0 0 4
De esta forma tenemos que
¨ ˛
2 ´1 0 1
˚ 0 ´2 1 3 ‹
U “˚
˝ 0

0 ´1 1 ‚
0 0 0 4
1.6. ELIMINACIÓN GAUSSIANA. FACTORIZACIÓN LU 69

y
P “ F43 p´2qF42 p2qF41 p1qF31 p1qF21 p´2q
es un producto de matrices triangulares inferiores con unos en la diagonal
principal. Nótese que en ningún momento del proceso tuvimos necesidad de
intercambiar dos filas o de multiplicar una fila por un escalar no nulo distinto de
uno, lo que garantiza la existencia y unicidad de una factorización LU como la
citada en el teorema anterior.

Entonces,
L “ P ´1 “
pF43 p´2qF42 p2qF41 p1qF31 p1qF21 p´2qq´1 “
F21 p´2q´1 F31 p1q´1 F41 p1q´1 F42 p2q´1 F43 p´2q´1 “
¨ ˛
1 0 0 0
˚ 2 1 0 0 ‹
F21 p2qF31 p´1qF41 p´1qF42 p´2qF43 p2q “ ˚ ‹.
˝ ´1 0 1 0 ‚
´1 ´2 2 1
70CAPÍTULO 1. MATRICES. SISTEMAS DE ECUACIONES LINEALES
Capítulo 2

Espacios vectoriales y
aplicaciones lineales

En este tema introduciremos la noción de espacio vectorial la cual dará lugar


a un espacio ambiente en el que vivirán de forma natural la totalidad de los
conceptos vistos en el tema anterior.

2.1. Espacios y subespacios vectoriales.

Definición 2.1.1 Un espacio vectorial sobre el cuerpo K (o un K-espacio vectorial)


es un conjunto no vacío V en el cual se tienen definidas dos operaciones llamadas
suma (denotada por `) y producto por escalares (denotado por .)

V ˆV Ñ V , KˆV Ñ V ,
pu, vq ÞÑ u ` v pα, vq ÞÑ α.v

satisfaciendo las siguientes propiedades:

1) Asociativa. u ` pv ` wq “ pu ` vq ` w para todos u, v, w P V .

71
72CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

2) Conmutativa. u ` v “ v ` u para todos u, v P V .


3) Elemento neutro. Existe θV P V tal que θV ` u “ u para todo u P V .
4) Elemento opuesto. Para todo v P V existe ´v P V tal que v ` p´vq “ θV .
5) α.pu ` vq “ α.u ` α.v para todos u, v P V y α P K.
6) pα ` βq.u “ α.u ` β.u para todos α, β P K y u P V .
7) 1.u “ u para todo u P V .
8) pαβq.u “ α.pβ.uq para todos α, β P K y u P V .

Los elementos de V se suelen llamar vectores y los elementos de K, escalares.


Al vector θV se le llama vector nulo o vector cero de V . Dada la amplitud de
ejemplos existentes de espacio vectorial, veremos que la palabra vector acabará
designando objetos distintos de los que usualmente estamos acostumbrados a
llamar por ese nombre. Finalmente, por comodidad, el producto por escalares lo
denotaremos a partir de ahora sin el punto, esto es, α.v “ αv.

Veamos ahora los ejemplos de espacios vectoriales que manejaremos a lo largo


del curso.

Ejemplo 2.1.2 1) Un cuerpo K es un K-espacio vectorial con la suma y el producto


de escalares. En este caso θK “ 0. Por lo tanto, R es un R-espacio vectorial
y C es un C-espacio vectorial.
2) El cuerpo C es un R-espacio vectorial con la suma de números complejos y
el producto por escalares dado por
αpa ` biq “ αa ` αbi
para todo α número real y a ` bi número complejo. Obviamente, en este
caso, θC “ 0 “ 0 ` 0i.
3) El conjunto
¨ ˛
x1
Kn “ t˝ ... ‚ { xi P K @ i P t1, ¨ ¨ ¨ , nuu
˚ ‹

xn
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 73

es un K espacio vectorial con las operaciones de suma de vectores


¨ ˛ ¨ ˛ ¨ ˛
x1 y1 x1 ` y1
˚ .. ‹ ˚ .. ‹ ˚ .. ‹
˝ . ‚` ˝ . ‚ “ ˝ . ‚
xn yn xn ` yn

y producto por escalares


¨ ˛ ¨ ˛
x1 αx1
α ˝ ... ‚ “ ˝ ... ‚.
˚ ‹ ˚ ‹

xn αxn

En este espacio vectorial θKn es el vector que tiene todas sus componentes
nulas. Así pues, Rn es un R-espacio vectorial y Cn es un C-espacio vectorial.
También se cumple que Cn es un R-espacio vectorial.

4) El conjunto Mmˆn pKq de las matrices de m filas y n columnas con co-


eficientes en K también es un ejemplo de K-espacio vectorial, con las
operaciones de suma de matrices y producto de escalares por matrices
definidas en el tema anterior. En este caso, θMmˆn pKq “ Θm,n .

5) Si denotamos por Πn pKq el conjunto de polinomios de grado menor o igual


que n con coeficientes en K, obtenemos un nuevo ejemplo de K-espacio
vectorial donde, si cada elemento de Πn pKq se escribe como

ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an xn ,

se define la suma

ppxq ` qpxq “ pa0 ` a1 x ` ¨ ¨ ¨ ` an xn q ` pb0 ` b1 x ` ¨ ¨ ¨ ` bn xn q “

pa0 ` b0 q ` pa1 ` b1 qx ` ¨ ¨ ¨ ` pan ` bn qxn ,

y el producto por escalares

αppxq “ αa0 ` αa1 x ` ¨ ¨ ¨ ` αan xn .

En este espacio el vector cero θΠn pKq es el polinomio con todos los coefi-
cientes nulos.
74CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

6) En este ejemplo veremos una estructura rara de espacio vectorial. Sea


V “ tx P R : x ą 0u. Entonces, V es un R-espacio vectorial con las
operaciones de suma
x ‘ y “ xy
y producto por escalares
α d x “ xα .
En este caso, θV “ 1.

Proposición 2.1.3 Supongamos que V es un K-espacio vectorial. Se verifica lo si-


guiente:

1) El vector θV es único.

2) Para todo v P V el vector ´v es único.

3) Para todo α P K, αθV “ θV .

4) Para todo v P V , 0v “ θV .

5) Si αv “ θV , entonces α “ 0 o v “ θV .

6) Para todo α P K y v P V , p´αqv “ ´αv “ αp´vq.

7) Si αv “ αu y α ‰ 0, entonces v “ u.

8) Si αu “ βu y u ‰ θV , entonces α “ β.

Demostración. La demostración de estas propiedades se deja como ejercicio. \


[

Definición 2.1.4 Sea V un K-espacio vectorial y U un subconjunto no vacío de V .


Diremos que U es un subespacio vectorial de V , si se verifica:

1) Para todos u, v P U se tiene que u ´ v P U .

2) Para todo α P K y u P U se tiene que αu P U .


2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 75

En esta definición podemos cambiar la primera condición por

3) Para todos u, v P U se tiene que u ` v P U .

ya que, como se puede comprobar de forma fácil, 1q y 2q son equivalentes a 1q y


3q.

Las dos condiciones que aparecen en la definición también son equivalentes a

4) Para todo α, β P K y u, v P U se tiene que αu ` βv P U .

Nota 2.1.5 La anterior definición implica que U es un subespacio vectorial de V si


al restringir la suma de vectores y el producto por escalares a U , este conjunto
es un K-espacio vectorial. Esto implica que θV P U . Así pues, todo subconjunto
de V que no contenga a θV jamás podrá ser un subespacio de V .

Ejemplos 2.1.6 1) Tomemos V “ R2 y K “ R.


ˆ ˙
x
El subconjunto U “ t P V { x ` y “ 3u no es un subespacio de V ,
y
ya que ˆ ˙
0
θV “ R U.
0
2) Tomemos V “ R2 y K “ R.
ˆ ˙
x
El subconjunto U “ t P V { x ď 0u no es un subespacio de V , ya
y
que ˆ ˙ ˆ ˙
´3 3
´ “ R U.
2 ´2
3) Tomemos V “ R3 y K “ R.
¨ ˛
x
El subconjunto U “ t˝ y ‚ P V { xy “ 0u no es un subespacio de V , ya
z
que ¨ ˛ ¨ ˛
0 1
˝ 1 ‚ ˝ 0 ‚
0 0
76CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

son vectores de U y
¨ ˛ ¨ ˛ ¨ ˛
0 1 1
˝ 1 ‚` ˝ 0 ‚ “ ˝ 1 ‚ R U.
0 0 0

4) Tomemos V “ C2 y K “ R.
ˆ ˙
z
El conjunto U “ t P V { Impzq “ Impz 1 qu es un subespacio de V .
z1

5) Tomemos V “ C2 y K “ C.
ˆ ˙
z
El conjunto U “ t P V { Impzq “ Impz 1 qu no es un subespacio de
z1
V , ya que ˆ ˙
1`i
PU
3`i
y ˆ ˙ ˆ ˙
1`i ´1 ` i
i “ R U.
3`i ´1 ` 3i

6) Tomemos V “ R4 y K “ R.
¨ ˛
x
˚ y ‹
El conjunto U “ t˚
˝ z ‚ P V { x ` 3y ` z ` t “ 0u es un subespacio de V .

7) Tomemos V “ M2ˆ2 pRq y K “ R.


El conjunto U “ tA P V { detpAq “ 0u no es un subespacio de V , ya que
ˆ ˙ ˆ ˙
1 0 0 0
A“ , B“
0 0 0 1

son elementos de V y A ` B “ I2 R V .
De la misma forma, H “ tA P V { rangpAq “ 1u no es un subespacio
de V , ya que para las matrices anteriores tenemos que rangpA ` Bq “
rangpI2 q “ 2 y rangpAq “ rangpBq “ 1.
El conjunto D “ tA P V { detpAq ‰ 0u tampoco es un subespacio de V ,
ya que θV “ Θ2,2 R D.
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 77

8) Tomemos V “ Mnˆn pKq y K.


Los conjuntos de las matrices simétricas y antisimétricas son dos ejemplos
de subespacios.
9) Tomemos V “ Kn y K.
Sea A P Mmˆn pKq. Consideremos el sistema homogéneo de m ecuacio-
nes lineales y n incógnitas, Ax “ Θm,1 “ θV . Entonces su conjunto de
soluciones siempre es un subespacio de V .
10) Tomemos V “ Πn pRq y K “ R.
El conjunto U “ tppxq P V { p1 pxq “ 0u es un subespacio de V .
11) Todo K-espacio vectorial V siempre tiene dos subespacios triviales que son
el propio V y U “ tθV u.

Notación 2.1.7 A partir de este momento, dado un K-espacio vectorial V , con


SpV q
denotaremos al conjunto de todos los subespacios de V .

Proposición 2.1.8 Sea V un K-espacio vectorial y sean U1 , U2 P SpV q. Se cumple


que U1 X U2 P SpV q.

Demostración. Sean α, β P K y u, v P U1 X U2 . Entonces, αu ` βv P U1 , ya


que u, v P U1 y U1 es un subespacio de V . De la misma forma, αu ` βv P U2 , ya
que u, v P U2 y U2 es un subespacio de V . Así pues, αu ` βv P U1 X U2 y, por lo
tanto, U1 X U2 P SpV q. \
[

Nota 2.1.9 Aplicando el razonamiento anterior, obtenemos que la intersección de


cualquier familia de subespacios de V es siempre un subespacio de V que es
siempre distinto del vacío (recuérdese que el vector nulo siempre está en todo
subespacio). Con la unión no tenemos tanta suerte ya que la unión de subespacios
no siempre es un subespacio. Por ejemplo, sean los subespacios
ˆ ˙ ˆ ˙
x x
U1 “ t P V { x “ 0u U2 “ t P V { y “ 0u
y y
78CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

del R-espacio vectorial V “ R2 . Entonces,


ˆ ˙ ˆ ˙
0 1
v1 “ P U1 Ă U1 Y U2 , v2 “ P U2 Ă U1 Y U2
1 0
y ˆ ˙ ˆ ˙ ˆ ˙
0 1 1
v “ v1 ` v2 “ ` “ R U1 Y U2
1 0 1
ya que v R U1 y v R U2 .

Definición 2.1.10 Sea V un K-espacio vectorial. Un sistema de vectores de V es


cualquier subconjunto T de V .

Definición 2.1.11 Sea V un K-espacio vectorial y sea T Ă V . Una combinación


lineal de vectores de T es una expresión de la forma

α1 v1 ` ¨ ¨ ¨ ` αs vs

donde αi P K y vi P T para todo i P t1, ¨ ¨ ¨ , su.

Nótese que el vector cero de V es siempre combinación lineal de cualquier sistema


no vacío de vectores T (sólo tenemos que tomar todos los escalares nulos).

Ejemplo 2.1.12 Tomemos V “ R3 y K “ R.

Sea el sistema de vectores de V dado por


¨ ˛ ¨ ˛
1 6
T “ t˝ 6 ‚, ˝ 4 ‚u.
´1 2

Entonces, ¨ ˛ ¨ ˛ ¨ ˛
1 6 ´3
v “ 3 ˝ 6 ‚` p´1q ˝ 4 ‚ “ ˝ 14 ‚
´1 2 ´5
es una combinación lineal vectores de T .
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 79

Si por ejemplo, nos dan el vector


¨
˛
4
u “ ˝ ´1 ‚
8

podremos garantizar que es combinación lineal de los vectores de T , si existen


escalares x e y, tales que
¨ ˛ ¨ ˛
1 6
u “ x ˝ 6 ‚` y ˝ 4 ‚
´1 2

y, equivalentemente, el sistema
¨ ˛ ¨ ˛
1 6 ˆ ˙ 4
˝ 6 4 ‚ x “ ˝ ´1 ‚
y
´1 2 8

tiene solución.

Tomemos la matriz ampliada del sistema


¨ ˛
1 6 4
pA|uq “ ˝ 6 4 ´1 ‚
´1 2 8

y hagamos operaciones elementales para determinar su rango junto con el rango


de la matriz del sistema.
¨ ˛ ¨ ˛
F31 p1q, F21 p´6q
1 6 4 F23
1 6 4
pA|uq ùñ ˝ 0 ´32 ´25 ‚ ùñ ˝ 0 8 12 ‚
0 8 12 0 ´32 ´25
¨ ˛
1
F32 p4q
6 4
ùñ ˝ 0 8 12 ‚
0 0 23

Así pues, como rangpA|uq “ 3 ą rangpAq “ 2, tenemos un sistema incompatible


y u no es combinación lineal de los vectores de T .
80CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Definición 2.1.13 Sea V un K-espacio vectorial y sea T Ă V . Se llama clausura


lineal de T al subespacio más pequeño de V que contiene a T . La denotaremos
como
ăT ą.

Nota 2.1.14 En primer lugar, debemos aclarar que por subespacio más pequeño de
V que contiene a T entendemos lo siguiente:

Si U es un subespacio de V tal que T Ă U , entonces ă T ąĂ U .

Es importante resaltar que la clausura lineal siempre existe ya que T Ă V y V


es un subespacio de si mismo.

Por otro lado, si T “ H, entonces ă T ą“ tθV u. Además, si U es un subespacio


U “ă U ą, es más, U es un subespacio, si, y sólo si, U “ă U ą. Finalmente, es
obvio que, si S Ă T , entonces ă S ąĂă T ą.

La forma de calcular la clausura lineal de un conjunto de vectores se deduce del


siguiente resultado.

Proposición 2.1.15 Sea V un K-espacio vectorial y sea T Ă V no vacío. La clausura


lineal de T coincide con el conjunto de todas las combinaciones lineales de vectores
de T .

Demostración. Es evidente que, si restamos dos combinaciones lineales de


vectores de T , obtenemos una nueva combinación lineal de vectores de T . Tam-
bién, si multiplicamos una combinación lineal de vectores de T por un escalar,
obtenemos una nueva combinación lineal de vectores de T . Entonces, el conjunto
de todas las combinaciones lineales de vectores de T es un subespacio. Ahora
bien, si U es un subespacio que contiene a T , por ser subespacio, contiene a
todas las combinaciones lineales de vectores de T . Esto último implica que el
conjunto de todas las combinaciones lineales de vectores de T es el subespacio
más pequeño de V que contiene a T o, lo que es lo mismo, coincide con ă T ą.
\
[
2.1. ESPACIOS Y SUBESPACIOS VECTORIALES. 81

Ejemplos 2.1.16 1) Tomemos V “ R3 y K “ R.


Sea T el sistema de vectores
¨ ˛ ¨ ˛ ¨ ˛
1 0 0
T “ te1 “ ˝ 0 ‚, e2 “ ˝ 1 ‚, e3 “ ˝ 0 ‚u.
0 0 1

Como todo vector v P R3 cumple que


¨ ˛
v1
v “ ˝ v2 ‚ “ v1 e1 ` v2 e2 ` v3 e3 ,
v3

se tiene que ă T ą“ R3 .
En este mismo espacio, si tomamos
¨ ˛ ¨ ˛
1 0
S “ te1 “ ˝ 0 ‚, e3 “ ˝ 0 ‚u,
0 1

tenemos que
¨ ˛ ¨ ˛
x x
ă S ą“ t˝ y ‚ P V { ˝ y ‚ “ αe1 ` βe3 , α, β P Ru “
z z
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x x α x
t˝ y ‚ P V { ˝ y ‚ “ ˝ 0 ‚, α, β P Ru “ t˝ y ‚ P V { y “ 0u.
z z β z

2) Tomemos V “ M2ˆ2 pRq y K “ R.


Sea U el subespacio de V dado por las matrices de traza nula. Una matriz
ˆ ˙
a11 a12
A“
a21 a22

pertenece a U , si trazpAq “ a11 ` a22 “ 0. Entonces,


ˆ ˙
a11 a12
APU ôA“ ô
a21 ´a11
82CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
A “ a11 ` a12 ` a21 .
0 ´1 0 0 1 0
Así pues,
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
U “ă , , ą.
0 ´1 0 0 1 0

3) Tomemos V “ Π3 pRq y K “ R.
Sea el subespacio
U “ tppxq P V { pp1q “ p2 p´1q “ 0u.
Si tomamos un polinomio genérico ppxq de grado menor o igual que tres,
será de la forma
ppxq “ a0 ` a1 x ` a2 x2 ` a3 x3 .
Entonces,
pp1q “ 0 ô a0 ` a1 ` a2 ` a3 “ 0
y
p2 p´1q “ 0 ô 2a2 ´ 6a3 “ 0 ô a2 “ 3a3 .
Esta última igualdad, si la aplicamos en a0 ` a1 ` a2 ` a3 “ 0, implica que
a0 “ ´a1 ´ 4a3 .
Por lo tanto,
ppxq P U ô ppxq “ ´a1 ´4a3 `a1 x`3a3 x2 `a3 x3 “ a1 p´1`xq`a3 p´4`3x2 `x3 q
y esto garantiza que
U “ă ´1 ` x, ´4 ` 3x2 ` x3 ą .

Definición 2.1.17 Sea V un K-espacio vectorial y sea U un subespacio de V . Diremos


que T Ă V es un sistema de generadores para U si ă T ą“ U .

Como se puede deducir de la definición de clausura lineal, ă T ą“ U , si, y sólo


si, todo vector de U es combinación lineal de vectores de T .

Dos sistemas de vectores S y T de V se llaman equivalentes si ă S ą“ă T ą.


Esto significa que todo vector de T es combinación lineal de los vectores de S y
todo vector de S es combinación lineal de los vectores de T .
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 83

Ejemplos 2.1.18 Si tomamos V “ M2ˆ2 pRq, K “ R y U el subespacio de V dado


por las matrices de traza nula, hemos probado en los ejemplos anteriores que
ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
U “ă , , ą.
0 ´1 0 0 1 0

Por lo tanto, el conjunto


ˆ ˙ ˆ ˙ ˆ ˙
1 0 0 1 0 0
T “t , , u
0 ´1 0 0 1 0

es un sistema de generadores para U .

Como se puede comprobar facilmente


ˆ ˙ ˆ ˙ ˆ ˙
´1 0 0 1 1 0
S“t , , u,
0 1 1 0 1 ´1

se tiene que S y T son equivalentes.

2.2. Independencia lineal. Bases y dimensión

Definición 2.2.1 Sean V un K-espacio vectorial y S “ tv1 , ¨ ¨ ¨ , vs u un sistema de


vectores de V . Diremos que S es libre o linealmente independiente, si, dados
α1 , ¨ ¨ ¨ , αs P K tales que

α1 v1 ` ¨ ¨ ¨ ` αs vs “ θV ,

se cumple que α1 “ ¨ ¨ ¨ “ αs “ 0.

En caso contrario, se dirá que el sistema es ligado o linealmente dependiente.


Por lo tanto, cuando el sistema es ligado, existen escalares no todos nulos
α1 , ¨ ¨ ¨ , αs P K para los cuales

α1 v1 ` ¨ ¨ ¨ ` αs vs “ θV .

Esto último implica que al menos uno de los vectores de S es combinación lineal
de los restantes.
84CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Ejemplos 2.2.2 1) Tomemos V “ R3 y K “ R.


Sea S el sistema de vectores
¨ ˛ ¨ ˛ ¨ ˛
1 1 5
S “ tv1 “ ˝ 2 ‚, v2 “ ˝ 0 ‚, v3 “ ˝ 6 ‚u.
1 2 7

Se tiene que
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 5 0
α1 v1 `α2 v2 `α3 v3 “ θV ô α1 ˝ 2 ‚`α2 ˝ 0 ‚`α3 ˝ 6 ‚ “ ˝ 0 ‚ ô
1 2 7 0
$ ¨ ˛¨ ˛ ¨ ˛
& α1 ` α2 ` 5α3 “ 0 1 1 5 α1 0
2α1 ` 6α3 “ 0 ô ˝ 2 0 6 ‚˝ α2 ‚ “ ˝ 0 ‚
α1 ` 2α2 ` 7α3 “ 0 1 2 7 α3 0
%

y, por lo tanto, si el anterior sistema homogéneo es compatible determinado,


el sistema de vectores S será libre.
Haciendo operaciones elementales en la matriz del sistema tenemos que
¨ ˛ ¨ ˛
1 1 5 F31 p´1q, F21 p´2q
1 1 5
A“˝ 2 0 6 ‚ ùñ ˝ 0 ´2 ´4 ‚
1 2 7 0 1 2
¨ ˛
1
F32 p1{2q
1 5
ùñ ˝ 0 ´2 ´4 ‚
0 0 0
y esto implica que rangpAq “ 2. Así pues, el sistema admite infinitas
soluciones (es compatible indeterminado) y el sistema es ligado.

2) Tomemos V “ M2ˆ2 pRq y K “ R.


Sea S el sistema dado por
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 0 1 1 1 1 1 1
T “ tA1 “ , A2 “ , A3 “ , A4 “ u.
0 0 0 0 1 0 1 1

En este caso se verifica que

α1 A1 ` α2 A2 ` α3 A3 ` α4 A4 “ θV ô
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 85
ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙
1 0 1 1 1 1 1 1 0 0
α1 `α2 `α3 `α4 “ ô
0 0 0 0 1 0 1 1 0 0
$ ¨ ˛¨ ˛ ¨ ˛

’ α1 ` α2 ` α3 ` α4 “ 0 1 1 1 1 α1 0
α2 ` α3 ` α4 “ 0 ˚ 0 1 1 1 ‹ ˚ α2 ‹ ˚ 0 ‹
&
ô˚ ‹˚ ‹“˚ ‹.

’ α3 ` α4 “ 0 ˝ 0 0 1 1 ‚˝ α3 ‚ ˝ 0 ‚
α4 “ 0 0 0 0 1 α4 0
%

Como la matriz ¨ ˛
1 1 1 1
˚ 0 1 1 1 ‹
A“˚
˝ 0

0 1 1 ‚
0 0 0 1
del sistema anterior tiene rango máximo, este resulta compatible determi-
nado y, como consecuencia, S es libre.

Algunas propiedades interesantes de los sistemas libres y ligados se enuncian en


el siguiente resultado:

Proposición 2.2.3 Sea V un K espacio vectorial. Se verifica lo siguiente:

1) Todo sistema que contenga al vector nulo es ligado.

2) Si v P V es un vector no nulo, el sistema T “ tvu es libre.

3) Si T es libre y v Ră T ą, el sistema S “ T Y tvu es libre.

4) Si T1 es ligado y T1 Ă T2 , el sistema T2 también es ligado.

5) Todo sistema de vectores contenido en un sistema libre es libre.

Demostración. La demostración es trivial (se deja como ejercicio al lector). \


[

Nota 2.2.4 La propiedad 3) de la Proposición anterior es interesante, ya que nos


indica el procedimiento a seguir para introducir vectores en un sistema libre T
de forma que el sistema resultante también sea libre.
86CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Definición 2.2.5 Sea V un K espacio vectorial y sea T “ tv1 , ¨ ¨ ¨ , vr u un sistema de


vectores de V . Se llama rango de T , denotado por rangpT q, al máximo número
de vectores independientes contenidos en T .

Así pues, el sistema T “ tv1 , ¨ ¨ ¨ , vr u es libre, si, y sólo si, rangpT q “ r.

Proposición 2.2.6 Sea V un K espacio vectorial y sea T “ tv1 , ¨ ¨ ¨ , vr u un sistema


libre de vectores de V . Se verifican las siguientes afirmaciones:

1) El sistema resultante al intercambiar dos vectores en T es libre.


2) Si multiplicamos un vector de T por un escalar no nulo, el nuevo sistema
sigue siendo libre.
3) Si a un vector de T le sumamos un múltiplo de otro vector de T , el sistema
resultante es libre.

Demostración. Las dos primeras propiedades son evidentes. Para probar la


tercera, supongamos que al vector vj de T le sumamos αvi con i ‰ j. Entonces,
α1 v1 ` ¨ ¨ ¨ ` αi vi ` ¨ ¨ ¨ ` αj pvj ` αvi q ` ¨ ¨ ¨ ` αr vr “ θV ô
α1 v1 ` ¨ ¨ ¨ ` pαi ` αj αqvi ` ¨ ¨ ¨ ` αj vj ` ¨ ¨ ¨ ` αr vr “ θV .
Como el sistema T es libre, se tiene que
α1 “ ¨ ¨ ¨ “ αi ` αj α “ ¨ ¨ ¨ “ αj “ ¨ ¨ ¨ “ αr “ 0
y, como consecuencia,
α1 “ ¨ ¨ ¨ “ αi “ ¨ ¨ ¨ “ αj “ ¨ ¨ ¨ “ αr “ 0.
Así pues, T 1 “ tv1 , ¨ ¨ ¨ , vi , ¨ ¨ ¨ , vj ` αvi , ¨ ¨ ¨ , vr u es libre. \
[

La proposición anterior implica que en V “ Kn podemos utilizar las operaciones


elementales para calcular el rango de un sistema de vectores. Esto es:

Corolario 2.2.7 Sea V “ Kn y sea T “ tv1 , ¨ ¨ ¨ , vr u un sistema de vectores de V .


El rango de T es el rango de la matriz que resulta al escribir los vectores de T
bien en fila, bien en columna.
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 87

Demostración. Consecuencia evidente de la Proposición 2.2.6. \


[

Ejemplo 2.2.8 Tomemos V “ R4 y K “ R.

Sea T el sistema de vectores


¨ ˛ ¨ ˛ ¨ ˛
1 0 1
˚ 2
‹ , v3 “ ˚ 3 ‹u.
˚ ´1 ‹ ‹ ˚ ‹
S “ tv1 “ ˚
˝ 0 ‚, v2 “ ˝ 1
‹ ˚
‚ ˝ 2 ‚
1 1 3

Tomemos la matriz ¨ ˛
1 0 1
˚ ´1
˚ 2 3 ‹

˝ 0 1 2 ‚
1 1 3
y hagamos operaciones elementales para calcular su rango. Se tiene que
¨ ˛ ¨ ˛ ¨ ˛
1 0 1 1 0 1 1 0 1
˚ ´1 2 3 ‹ F41 p´1q, F21 p1q ˚ 0 2 4 ‹ F23 ˚ 0 1 2 ‹
A“˚ ˝ 0 1 2 ‚
‹ ùñ ˚
˝ 0 1
‹ ùñ ˚ ‹
2 ‚ ˝ 0 2 4 ‚
1 1 3 0 1 2 0 1 2
¨ ˛
1 0 1
F42 p´1q, F32 p´2q ˚ 0 1 2 ‹
ùñ ˚
˝ 0 0

0 ‚
0 0 0
y esto implica que rangpAq “ 2. Así pues, el sistema de vectores T tiene rango
dos.

Definición 2.2.9 Sea V un K espacio vectorial. Diremos que V es de tipo finito si


existe un sistema finito de vectores T “ tv1 , ¨ ¨ ¨ , vr u, tal que ă T ą“ V .

Nota 2.2.10 A partir de este momento todos los espacios vectoriales serán de tipo
finito. Así pues, cuando escribamos sea V un K espacio vectorial estaremos
entendiendo que V es un K-espacio vectorial de tipo finito.
88CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Definición 2.2.11 Sea V un K espacio vectorial. Diremos que un sistema de vectores


B es una base de V , si es libre, y un sistema de generadores de V .

Teorema 2.2.12 Todo K-espacio vectorial V admite una base.

Demostración. Sea T “ tv1 , ¨ ¨ ¨ , vr u, tal que ă T ą“ V . Si T es libre, entonces


T es una base y acabamos la prueba. Si no lo es, existe vi1 P T tal que es
combinación lineal de los restantes vectores de T . Tomemos T1 “ T ´ tvi1 u.
Se cumple que ă T1 ą“ V y esto implica que, si T1 es libre, T1 es una base,
y la demostración está hecha. En caso contrario, repetimos con T1 el mismo
razonamiento que hicimos con T . En el peor de los casos llegaremos a Tr´1 “ tvir u,
con vir no nulo, y tal que ă Tr´1 ą“ V . Obviamente, en este caso la base de V
sería Tr´1 ya que, como vir ‰ θV , el sistema es libre.

\
[

Ejemplos 2.2.13 1) Si V “ R y K “ R, una base de V es Ba “ tau siendo a un


escalar real no nulo.
2) Si V “ C y K “ C, una base de V es Bz “ tzu siendo z un escalar complejo
no nulo.
3) Si V “ C y K “ R, una base de V es B “ t1, iu.
4) Si V “ Kn , una base de V es Cn “ te1 , ¨ ¨ ¨ , en u, siendo ei el vector que
tiene todas sus componentes nulas salvo la componente i-ésima que vale 1.
Esta base se llama base canónica de Kn .
5) Si V “ Mmˆn pKq, una base de V es

B “ tEij { i P t1, ¨ ¨ ¨ , mu, j P t1, ¨ ¨ ¨ , nuu


siendo Eij la matriz que tiene todos sus coeficientes nulos salvo el que
ocupa el lugar de subíndices ij que vale 1.
6) Si V “ Πn pKq, una base de V es

B “ t1, x, ¨ ¨ ¨ , xn u.
2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 89

7) Si V “ R3 y K “ R, una base del subespacio


¨ ˛
x
U “ t˝ y ‚ P V { y “ 0u
z

está dada por ¨ ˛ ¨ ˛


1 0
B “ t˝ 0 ‚, ˝ 0 ‚u.
0 1

Proposición 2.2.14 Sea V un K espacio vectorial. Si L “ tu1 , ¨ ¨ ¨ , up u es un sistema


libre y B “ te1 , ¨ ¨ ¨ , en u una base de V , se verifica que p ď n.

Demostración. Supongamos que p ą n y consideremos la igualdad.

x1 u1 ` ¨ ¨ ¨ ` xp up “ θV .

Como B es un sistema generador de V , tenemos que para todo j P t1, ¨ ¨ ¨ , pu


n
ÿ
uj “ α1j e1 ` ¨ ¨ ¨ ` αnj en “ αij ei .
i“1

Por lo tanto,
n
ÿ n
ÿ
x1 αi1 ei ` ¨ ¨ ¨ ` xp αip ei “ θV ,
i“1 i“1

y, equivalentemente,
p
ÿ p
ÿ
p α1j xj qe1 ` ¨ ¨ ¨ ` p αnj xj qen “ θV .
i“1 i“1

Por otro lado, como B es libre, todos los coeficientes de la igualdad anterior
deben ser nulos. Esto implica que
p
ÿ p
ÿ
α1j xj “ ¨ ¨ ¨ “ αnj xj “ 0
i“1 i“1
90CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

y también $
& α11 x1 ` ¨ ¨ ¨ ` α1p xp “ 0

.. .. .. ..
’ . . . .
αn1 x1 ` ¨ ¨ ¨ ` αnp xp “ 0
%

El anterior sistema es homogéneo con un número de incógnitas p mayor que el


número de ecuaciones n. Por lo tanto es compatible indeterminado y esto implica
que existen escalares no todos nulos x1 , ¨ ¨ ¨ , xn , tales que

x1 u1 ` ¨ ¨ ¨ ` xp up “ θV .

Así pues, llegamos a que L es ligado, lo que es un absurdo que proviene de


suponer que p ą n. \
[

Corolario 2.2.15 Todas las bases de un K-espacio vectorial V tienen el mismo


número de elementos.

Demostración. Sean B y B 1 dos bases de V con n y n1 elementos respecti-


vamente. Como B es libre y B 1 una base, aplicando la proposición anterior,
obtenemos que n ď n1 . Intercambiando los papeles de B y B 1 y aplicando el
mismo razonamiento llegamos a que n1 ď n. Por lo tanto, n “ n1 . \
[

Definición 2.2.16 Dado un K-espacio vectorial V no nulo, llamaremos dimensión de


V , denotado por dimK pV q, al número de elementos de una de sus bases.

Como por el corolario anterior sabemos que todas las bases de V tienen el mismo
número de elementos, la dimensión de V está bien definida y resulta ser un
invariante de V . Si V “ tθV u se define su dimensión como dimK pV q “ 0.

Como primera consecuencia de la definición de dimensión se tiene que, si


dimK pV q “ n, todo sistema generador con n elementos resulta ser una base de
V y todo sistema libre con n elementos también es una base.

Ejemplos 2.2.17 Para los ejemplos considerados en 2.2.13 tenemos que:


2.2. INDEPENDENCIA LINEAL. BASES Y DIMENSIÓN 91

1) Si V “ R y K “ R, dimK pV q “ 1.
2) Si V “ C y K “ C, dimK pV q “ 1.
3) Si V “ C y K “ R, dimK pV q “ 2.
4) Si V “ Kn , dimK pV q “ n.
5) Si V “ Mmˆn pKq, dimK pV q “ mn.
6) Si V “ Πn pKq, dimK pV q “ n ` 1.
7) Si V “ R3 , K “ R, y
¨ ˛
x
U “ t˝ y ‚ P V { y “ 0u,
z
dimK pU q “ 2.
8) Sea A P Mmˆn pKq y U es subespacio de Kn dado por las soluciones del
sistema homogéneo Ax “ θKn , esto es
¨ ˛ ¨ ˛ ¨ ˛
x1 x1 0
U “ t˝ ... ‚ P Kn { A ˝ .. ‹ “ ˚ .. ‹u
˚ ‹ ˚
. ‚ ˝ . ‚
xn xn 0
Entonces,
dimK pU q “ n ´ rangpAq.
Por ejemplo, si U es el subespacio de R3 dado por
¨ ˛ ¨ ˛
x ˆ ˙ x ˆ ˙
3 1 1 1 ˝ 0
U “t y PR {
˝ ‚ y “‚ u,
1 1 2 0
z z
como rangpAq “ 2, se tiene que
dimR pU q “ 3 ´ rangpAq “ 3 ´ 2 “ 1.

Teorema 2.2.18 Supongamos que V es K-espacio vectorial de dimensión n. Si L “


tu1 , ¨ ¨ ¨ , up u es un sistema libre con p ă n, existen up`1 , ¨ ¨ ¨ un vectores de V
tal que
B “ tu1 , ¨ ¨ ¨ , up , up`1 , ¨ ¨ ¨ , un u
es una base de V .
92CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Demostración. Como p ă n, se tiene que ă L ąŁ V . Por lo tanto, existe


up`1 P V tal que up`1 Ră L ą. Sea L1 “ L Y tup`1 u. Como L1 es libre, si
p ` 1 “ n, ya encontramos la base. Si p ` 1 ă n, se repite el mismo proceso con
L1 . Después de varios pasos finalizaremos cuando se llegue a la dimensión de V .
En ese momento habremos añadido a L n ´ p vectores de forma que el sistema
Ln´p “ tu1 , ¨ ¨ ¨ , up , up`1 , ¨ ¨ ¨ , un u
es libre y, por lo tanto, la base buscada. \
[

2.3. Sistemas de coordenadas. Cambio de base

Proposición 2.3.1 Sea B “ te1 , ¨ ¨ ¨ , en u una base de un K-espacio vectorial V . Para


todo v P V existe un único vector
¨ ˛
x1
vB “ ˝ ... ‚ P Kn
˚ ‹

xn
tal que v “ x1 e1 ` ¨ ¨ ¨ ` xn en .

Demostración. Como B es un conjunto generador de V es evidente que para


todo v P V existen escalares x1 , ¨ ¨ ¨ , xn tales que v “ x1 e1 ` ¨ ¨ ¨ ` xn en . Si
existiesen otros escalares y1 , ¨ ¨ ¨ , yn para los que v “ y1 e1 `¨ ¨ ¨`yn en tendríamos
lo siguiente:
θV “ v´v “ px1 e1 `¨ ¨ ¨`xn en q´py1 e1 `¨ ¨ ¨`yn en q “ px1 ´y1 qe1 `¨ ¨ ¨`pxn ´yn qen .
Ahora bien, como B es libre se obtiene que xi ´ yi “ 0 para todo i P t1, ¨ ¨ ¨ , nu
y, equivalentemente, xi “ yi para todo i P t1, ¨ ¨ ¨ , nu. \
[

Definición 2.3.2 Tomemos un K-espacio vectorial V y v P V . Se llama vector de


coordenadas de v en la base B “ te1 , ¨ ¨ ¨ , en u al único vector
¨ ˛
x1
vB “ ˝ ... ‚ P Kn
˚ ‹

xn
2.3. SISTEMAS DE COORDENADAS. CAMBIO DE BASE 93

tal que v “ x1 e1 ` ¨ ¨ ¨ ` xn en .

Es claro que, si conocemos el vector v y la base B, podemos calcular el vector


de coordenadas vB resolviendo la ecuación v “ x1 e1 ` ¨ ¨ ¨ ` xn en . Inversamente,
si conocemos la base B y el vector de coordenadas vB , recuperamos v como

v “ x1 e1 ` ¨ ¨ ¨ ` xn en .

Obsérvese también que, si cambiamos la base, el vector de coordenadas también


puede cambiar. En el ejemplo siguiente aclaramos este comentario.

Ejemplos 2.3.3 1) Sea V “ Π2 pRq y B “ tp1 pxq “ 1 ` x ` x2 , p2 pxq “ 1 `


x, p3 pxq “ 1u una base de V . Tomemos qpxq “ 1 ` 2x ` 3x2 y calculemos
su vector de coordenadas respecto a la base B. En primer lugar, se tiene
que

qpxq “ y1 p1 pxq`y2 p2 pxq`y3 p3 pxq ô 1`2x`3x2 “ py1 `y2 `y3 q`py1 `y2 qx`y1 x2

y, equivalentemente, $
& y1 ` y2 ` y3 “ 1
y1 ` y2 “ 2
y1 “ 3
%

Si solucionamos el sistema anterior, obtenemos que y1 “ 3, y2 “ ´1 e


y3 “ ´1. Por lo tanto, el vector de coordenadas de qpxq en la base B es
¨ ˛
3
qpxqB “ ˝ ´1 ‚ P R3 .
´1

Si en este mismo ejemplo se cambia la base B por la base

C “ tt1 pxq “ 1, t2 pxq “ x, t3 pxq “ x2 u

obtenemos que ¨ ˛
1
qpxqC “ ˝ 2 ‚ P R3 .
3
Así pues si se varía la base, las coordenadas pueden cambiar.
94CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

2) Sea V “ Rn y
Cn “ te1 , ¨ ¨ ¨ , en u

la base canónica de Rn introducida en el cuarto ejemplo de 2.2.13. Es


muy fácil ver que para todo v P Rn se tiene que vCn “ v. En este caso las
coordenadas de v coinciden con sus componentes.

Para finalizar esta parte hablaremos del cambio de base. Supongamos que

B “ te1 , ¨ ¨ ¨ , en u, D “ tu1 , ¨ ¨ ¨ , un u

son dos bases de un K-espacio vectorial V . Sean v P V y


¨ ˛ ¨ ˛
x1 z1
vB “ ˝ ... ‚, vD “ ˝ ... ‚
˚ ‹ ˚ ‹

xn zn

los vectores de coordenadas de v en las bases B y D respectivamente. Probaremos


que es posible relacionar ambos vectores mediante una matriz que será llamada
la matriz de cambio de base de B a D.

En primer lugar calculamos los vectores de coordenadas de los vectores de la


base B en la base D. Entonces,
¨ ˛
a1j n
“ ˝ ... ‚, j P t1, ¨ ¨ ¨ , nu ô ej “ a1j u1 ` ¨ ¨ ¨ ` anj un “
ÿ
ejD aij ui .
˚ ‹
i“1
anj

Por otro lado,


n
ÿ n
ÿ
v “ z1 u1 ` ¨ ¨ ¨ ` zn un “ x1 e1 ` ¨ ¨ ¨ ` xn en “ x1 p ai1 ui q ` ¨ ¨ ¨ ` xn p ai1 ui q “
i“1 i“1

n
ÿ n
ÿ
p a1j xj qu1 ` ¨ ¨ ¨ ` p anj xj qun .
j“1 j“1
2.3. SISTEMAS DE COORDENADAS. CAMBIO DE BASE 95

Por lo tanto,
$ n
’ ÿ



’ z1 “ a1j xj “ a11 x1 ` ¨ ¨ ¨ ` a1n xn

’ j“1
.. .. .. ..
&
’ . . . .

’ n
ÿ

% zn “ anj xj “ an1 x1 ` ¨ ¨ ¨ ` ann xn



j“1

y, equivalentemente,
¨ ˛ ¨ ˛¨ ˛
z1 a11 ¨ ¨ ¨ a1n x1
˚ .. ‹ ˚ .. . . .. ‹ ˚ .. ‹ .
˝ . ‚“ ˝ . . . ‚˝ . ‚
zn an1 ¨ ¨ ¨ ann xn
Así pues, vD “ PB,D vB siendo
¨ ˛
a11 ¨¨¨ a1n
.. .. .. ‹
PB,D .
˚
“˝ . . ‚
an1 ¨¨¨ ann
la matriz de cambio de base de B a D. Nótese que las columnas de esta matriz
son los vectores de coordenadas en la base D de los vectores de la base B, esto
es: ` ˘
PB,D “ e1D | ¨ ¨ ¨ | enD .
Esta matriz es inversible y su inversa es la matriz PD,B de cambio de base
de D a B. Finalmente, nótese que, si V “ Kn y D “ Cn , para toda base
B “ te1 , ¨ ¨ ¨ , en u, se tiene que
` ˘
PB,Cn “ e1 | ¨ ¨ ¨ | en .
Así pues, en este caso, las columnas de la matriz de cambio de base son los
propios vectores de B, ya que ejCn “ ej .

Ejemplo 2.3.4 Sea V “ R4 . Tomemos las bases


¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 1 1
˚ 1 ‹ ˚ 1 ‹ ˚ 1
‹ , e4 “ ˚ 0 ‹u,
‹ ˚ ‹
B “ te1 “ ˚
˝ 1 ‚, e2 “ ˝ 1 ‚, e3 “ ˝ 0
‹ ˚ ‹ ˚
‚ ˝ 0 ‚
1 0 0 0
96CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES
¨˛ ¨ ˛ ¨ ˛ ¨ ˛
0 0 0 1
˚ 0 ‹ ˚ 0
‹ , u3 “ ˚ 1 ‹ , u4 “ ˚ 1
‹ ˚ ‹ ˚ ‹
D “ tu1 “ ˝ ‚, u2 “ ˝
˚ ‹ ˚ ‹u
0 1 ‚ ˝ 1 ‚ ˝ 1 ‚
1 1 1 1
y calculemos PB,D .

En primer lugar debemos obtener los vectores de coordenadas e1D , e2D , e3D y
e4D . Para ello, resolvemos las ecuaciones
ej “ x1 u1 ` x2 u2 ` x3 u3 ` x4 u4 , j P t1, 2, 3, 4u
Equivalentemente, debemos resolver los cuatro sistemas:
$ $

’ x4 “ 1 ’
’ x4 “ 1
x3 ` x4 “ 1 x3 ` x4 “ 1
& &

’ x 2 ` x 3 ` x 4 “ 1 ’
’ x 2 ` x3 ` x4 “ 1
x1 ` x2 ` x3 ` x4 “ 1 x1 ` x2 ` x3 ` x4 “ 0
% %
$ $
’ x4 “ 1
’ ’
’ x4 “ 1
x3 ` x4 “ 1 x3 ` x4 “ 0
& &

’ x 2 ` x 3 ` x 4 “ 0 ’
’ x 2 ` x3 ` x4 “ 0
x1 ` x2 ` x3 ` x4 “ 0 x1 ` x2 ` x3 ` x4 “ 0
% %

La solución del primero es


x1 “ 0, x2 “ 0, x3 “ 0, x4 “ 1
y la del segundo viene dada por
x1 “ ´1, x2 “ 0, x3 “ 0, x4 “ 1.
Para el tercero tenemos que
x1 “ 0, x2 “ ´1, x3 “ 0, x4 “ 1
y el cuarto tiene como solución
x1 “ 0, x2 “ 0, x3 “ ´1, x4 “ 1.
Por lo tanto:
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
0 ´1 0 0
˚ 0 ‹ ˚ 0 ‹ ˚ ´1 ‹ ˚ 0 ‹
e1D ˝ 0 ‚, e2D “ ˝ 0 ‚, e3D “ ˝ 0 ‚, e4D “ ˝ ´1
“˚ ‹ ˚ ‹ ˚ ‹ ˚ ‹

1 1 1 1
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO97

y, entonces, la matriz de cambio de base es


¨ ˛
0 ´1 0 0
˚ 0 0 ´1 0 ‹
PBD “ ˝
˚ ‹.
0 0 0 ´1 ‚
1 1 1 1
Si, por ejemplo, tomamos el vector
¨˛
1
˚ 0 ‹
v“˚ ‹
˝ 1 ‚
0
su vector de coordenadas en la base B es
¨ ˛
0
˚ 1 ‹
vB “ ˚ ‹
˝ ´1 ‚
1
ya que v “ e2 ´ e3 ` e4 . Si queremos calcular el vector de coordenadas de de v
en D, como tenemos la matriz de cambio de base, sólo realizaremos el producto:
¨ ˛¨ ˛ ¨ ˛
0 ´1 0 0 0 ´1
˚ 0 0 ´1 0 ‹
‹˚ 1 ‹ “ ˚ 1 ‹.
˚ ‹ ˚ ‹
PBD vB “ ˚ ˝ 0 0 0 ´1 ‚ ˝ ´1 ‚ ˝ ´1 ‚
1 1 1 1 1 1
Por lo tanto, ¨ ˛
´1
˚ 1 ‹
vD ˝ ´1 ‚.
“˚ ‹

2.4. Aplicaciones lineales. Matriz asociada. Nú-


cleo y rango

Definición 2.4.1 Sean V y W dos K-espacios vectoriales. Una aplicación f : V Ñ W


se llamará lineal si
98CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

1. f pu ` vq “ f puq ` f pvq para todos u, v P V .

2. f pαvq “ αf pvq para todo escalar α y v P V .

Ejemplos 2.4.2 1. El primer ejemplo de aplicación lineal es el que más utilizare-


mos durante el curso. Sea A P Mmˆn pKq y tomemos la aplicación

f A : Kn Ñ Km

definida por ¨ ˛ ¨ ˛
x1 x1
fA ˝ ... ‚ “ A ˝ .. ‹ .
˚ ‹ ˚
. ‚
xn xn
Entonces fA es una aplicación lineal ya que
¨¨ ˛ ¨ ˛˛ ¨¨ ˛ ¨ ˛˛ ¨ ˛ ¨ ˛
x1 y1 x1 y1 x1 y1
fA ˝˝ ... ‚` ˝ ... ‚‚ “ A ˝˝ ... ‚` ˝ .. ‹‹ “ A ˚ .. ‹`A ˚ .. ‹ “
˚˚ ‹ ˚ ‹‹ ˚˚ ‹ ˚
. ‚‚ ˝ . ‚ ˝ . ‚
xn yn xn yn xn yn
¨ ˛ ¨ ˛
x1 y1
fA ˝ ... ‚` fA ˝ .. ‹
˚ ‹ ˚
. ‚
xn yn
y
¨ ¨ ˛˛ ¨ ¨ ˛˛ ¨ ˛ ¨ ˛
x1 x1 x1 x1
fA ˝α ˝ ... ‚‚ “ A ˝α ˝ .. ‹‹ “ αA ˚ .. ‹ “ αf ˚ .. ‹ .
˚ ˚ ‹‹ ˚ ˚
. ‚‚ ˝ . ‚ A˝ . ‚
xn xn xn xn

2. La aplicación f : R4 Ñ R3 definida por


¨ ˛
x ¨ ˛
˚ y ‹ x

˝ z ‚“
‹ ˝ x`y ‚
x`y`z`t
t

es lineal.
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO99

3. La aplicación f : Mmˆn pKq Ñ Mnˆm pKq dada por f pAq “ At también


es lineal.

4. La aplicación f : Mmˆn pCq Ñ Mnˆm pCq dada por f pAq “ A˚ no es es


lineal ya que f pαAq “ αA˚ .

5. La aplicación f : Πn pRq Ñ Πn´1 pRq dada por f pppxqq “ p1 pxq es lineal.


ş1
6. La aplicación f : Πn pRq Ñ R dada por f pppxqq “ 0
ppxqdpxq es lineal.

7. La aplicación tr : Mnˆn pKq Ñ K definida en el ejercicio 14 del tema


anterior es lineal.

8. La aplicación identidad idV : V Ñ V es lineal.

9. Tomemos un K-espacio vectorial V y sea B “ te1 , ¨ ¨ ¨ , en u una base de V .


La aplicación
coordB : V Ñ Kn
dada por
coordB pvq “ vB
es una aplicación lineal. En efecto, si u y v tienen como vectores de
coordenadas a ¨ ˛ ¨ ˛
x1 y1
uB “ ˝ ... ‚, vB “ ˝ .. ‹
˚ ‹ ˚
. ‚
xn yn
respectivamente, entonces
n
ÿ n
ÿ n
ÿ
u`v “ xi ei ` yi ei “ pxi ` yi qei
i“1 i“1 i“1

y esto implica que


¨ ˛
x1 ` y1
pu ` vqB “ ˝ ..
‚ “ uB ` vB .
˚ ‹
.
xn ` yn

Así pues, coordB pu ` vq “ coordB puq ` coordB pvq.


100CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Por otro lado, coordB pαuq “ αcoordB puq, ya que


n
ÿ
αv “ αxi ei
i“1

y, por lo tanto, pαuqB “ αuB .

Nota 2.4.3 Como se puede comprobar de forma fácil, las dos condiciones dadas en
la definición de aplicación lineal equivalen a
f pαu ` βvq “ αf puq ` βf pvq, @ α, β P K, u, v P V.
Obsérvese que como consecuencia se tiene que
r
ÿ r
ÿ
fp αi vi q “ αi f pvi q
i“1 i“1
r
ÿ
para toda combinación lineal αi vi de vectores de V .
i“1

Proposición 2.4.4 Supongamos que f : V Ñ W es una aplicación lineal entre dos


K-espacios vectoriales V y W . Se verifica lo siguiente:

1. f pθV q “ θW .
2. f p´vq “ ´f pvq.
3. Si U es un subespacio de V , se tiene que
f pU q “ tf puq { u P U u
es un subespacio de W .
4. Si f : V Ñ W y g : W Ñ X son aplicaciones lineales, su composición
g ˝ f : V Ñ X también es lineal.

Demostración. La demostración es muy sencilla y se deja como ejercicio.

En el siguiente resultado veremos que toda aplicación lineal f : V Ñ W queda


determinada, si conocemos las imágenes de los vectores de una base de V .
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO101

Proposición 2.4.5 Supongamos V y W son dos K-espacios vectoriales. Tomemos


una base B “ te1 , ¨ ¨ ¨ , en u de V y n vectores w1 , ¨ ¨ ¨ , wn de W. Se verifica que
existe una única aplicación lineal f : V Ñ W , tal que f pei q “ wi , i P t1, ¨ ¨ ¨ , nu.

Demostración. Dado v P V , como B es una base de V , se tiene que existen


n
ÿ
unos escalares únicos x1 , ¨ ¨ ¨ , xn , tales que u “ xi ei . Teniendo en cuenta este
i“1
hecho definimos f : V Ñ W como
n
ÿ
f puq “ xi w i .
i“1

La aplicación definida de esta forma es lineal ya que


n
ÿ n
ÿ n
ÿ n
ÿ
f pu ` vq “ f p xi ei ` yi ei q “ f p pxi ` yi qei q “ pxi ` yi qwi “
i“1 i“1 i“1 i“1
n
ÿ n
ÿ
xi wi ` yi wi “ f puq ` f pvq
i“1 i“1
y
n
ÿ n
ÿ n
ÿ n
ÿ
f pαuq “ f pα xi ei q “ f p αxi ei q “ αxi wi “ α xi wi “ αf puq.
i“1 i“1 i“1 i“1

Por otro lado, si existiese una aplicación lineal g : V Ñ W tal que gpei q “ wi ,
r
ÿ
i P t1, ¨ ¨ ¨ , nu, para todo vector u “ xi ei P V se verifica que
i“1
n
ÿ n
ÿ n
ÿ
f puq “ xi wi “ xi gpei q “ gp xi ei q “ gpuq
i“1 i“1 i“1

y, por lo tanto, f “ g. \
[

Ejemplo 2.4.6 Sean V “ R4 y W “ R3 . Tomemos la base


¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 0 0 0
˚ 0 ‹ ˚ 1 ‹ ˚ 0 ‹ ˚ 0 ‹
˝ 0 ‚, e2 “ ˝ 0 ‚, e3 “ ˝ 1 ‚, e4 “ ˝ 0
C4 “ te1 “ ˚ ‹ ˚ ‹ ˚ ‹ ˚ ‹u

0 0 0 1
102CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

canónica de V y cuatro vectores de W


¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 0 0
w1 “ ˝ 1 ‚, w2 “ ˝ 1 ‚, w3 “ ˝ 0 ‚, w4 “ ˝ 1 ‚.
1 1 1 0

Entonces, la única aplicación lineal tal que f pei q “ wi para i P t1, 2, 3, 4u está
dada por:
¨ ˛
x
˚ y ‹
f˚˝ z ‚ “ f pxe1 ` ye2 ` ze3 ` te4 q “ xw1 ` yw2 ` zw3 ` tw4 “

t
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x y 0 0 x`y
˝ x ‚` ˝ y ‚` ˝ 0 ‚` ˝ t ‚ “ ˝ x ` y ` t ‚.
x y z 0 x`y`z

2.4.7 Anteriormente vimos que toda matriz A “ paij q P Mmˆn pKq determina
una aplicación lineal fA : Kn Ñ Km definida por
¨ ˛ ¨ ˛
x1 x1
fA ˝ ... ‚ “ A ˝ ... ‚.
˚ ‹ ˚ ‹

xn xn

Por lo tanto, si Cn “ te1 , ¨ ¨ ¨ , en u es la base canónica de Kn , se tiene que


¨ ˛
a1j
fA pej q “ Aej “ ˝ ... ‚
˚ ‹

amj

y, lo que es lo mismo, fA pej q es la columna j-ésima de A.

En el siguiente resultado veremos que la relación entre aplicaciones lineales y


matrices es más profunda.

Proposición 2.4.8 Sean V , W dos K-espacios vectoriales y sean B “ te1 , ¨ ¨ ¨ , en u,


D “ tw1 , ¨ ¨ ¨ , wm u bases de V y W respectivamente. Sean f : V Ñ W una
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO103

aplicación lineal y v P V . Si el vector de coordenadas de v respecto a la base B


es vB , el vector de coordenadas de f pvq respecto a la base D se obtiene como

f pvqD “ M pf qB,D vB

donde M pf qB,D P Mmˆn pKq es la matriz cuyas columnas son

M pf qB,D “ pf pe1 qD | ¨ ¨ ¨ | f pen qD q .

Demostración. Tomemos v P V . Para cada j P t1, ¨ ¨ ¨ , nu se tiene que

f pej q “ a1j w1 ` ¨ ¨ ¨ ` amj wm

y, entonces, ¨ ˛
a1j
f pej qD “ ˝ ... ‚.
˚ ‹

amj
Por otro lado, como B es una base de V , podemos escribir el vector v como
v “ x1 e1 ` ¨ ¨ ¨ ` xn en y aplicando f se obtiene la siguiente igualdad:

f pvq “ x1 f pe1 q ` ¨ ¨ ¨ ` xn f pen q.

Entonces, aplicando que el cálculo de coordenadas es una aplicación lineal,


tenemos que
f pvqD “ x1 f pe1 qD ` ¨ ¨ ¨ ` xn f pen qD “
¨ ˛ ¨ ˛ ¨ ˛
a11 a1n a11 x1 ` ¨ ¨ ¨ ` a1n xn
x1 ˝ ... ‚` ¨ ¨ ¨ ` xn ˝ ... ‚ “ ˝ .. .. ..
˚ ‹ ˚ ‹ ˚ ‹
. . . ‚“
am1 amn am1 x1 ` ¨ ¨ ¨ ` amn xn
¨ ˛¨ ˛
a11 ¨¨¨ a1n x1
.. .. .. ‹ ˚ .. ‹ “ ` f pe q ˘
. f pen qD vB
˚
˝ . . ‚˝ . ‚ 1 D | ¨¨¨ |
am1 ¨¨¨ amn xn
Por lo tanto, si M pf qB,D P Mmˆn pKq es la matriz cuyas columnas son f pe1 qD , ¨ ¨ ¨ , f pen qD ,
acabamos de demostrar que

f pvqD “ M pf qB,D vB .

\
[
104CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Definición 2.4.9 Sean V , W dos K-espacios vectoriales y sean B, D bases de V y


W respectivamente. Sea f : V Ñ W una aplicación lineal. La matriz M pf qB,D
calculada en el apartado anterior se llama matriz asociada a f respecto a las
bases B y D.

Nota 2.4.10 Un caso conocido de matriz asociada a una aplicación lineal es la


matriz de cambio de base. Sean V un K-espacio vectorial y B “ te1 , ¨ ¨ ¨ , en u,
D “ tu1 , ¨ ¨ ¨ , un u dos bases de V . Si f “ idV , repitiendo la demostración del
teorema anterior, obtenemos que
M pidV qB,D “ PB,D
y, si B “ D, se tiene que
M pidV qB,B “ PB,B “ In .
Otro caso en el cual es fácil el cálculo de la matriz asociada es el siguiente: sea
A P Mmˆn pKq y tomemos la aplicación lineal
f A : Kn Ñ Km .
Entonces, si Cn , Cm son las bases canónicas de Kn y Km , se tiene que
M pfA qCn ,Cm “ A.

Ejemplo 2.4.11 Tomemos la aplicación lineal f : R4 Ñ R3 dada por


¨ ˛
x ¨ ˛
˚ y ‹ x`y
f˚ ‹ ˝ x ` y ` t ‚.
˝ z ‚“
x`y`z
t
En este ejemplo calcularemos M pf qB,D siendo B “ C4 y
¨ ˛ ¨ ˛ ¨ ˛
1 1 1
D “ tw1 “ ˝ 1 ‚, w2 “ ˝ 1 ‚, w3 “ ˝ 0 ‚u.
1 0 0
En primer lugar, debemos obtener las imágenes de los vectores de la base C4 :
¨ ˛ ¨ ˛
1 ¨ ˛ 0 ¨ ˛
˚ 0 ‹ 1 ˚ 1 ‹ 1
f pe1 q “ f ˚ ‹ ˝ 1 ‚, f pe2 q “ f ˚ ‹ “ ˝ 1 ‚,
˝ 0 ‚“ ˝ 0 ‚
1 1
0 0
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO105
¨ ˛ ¨ ˛
0 ¨ ˛ 0 ¨ ˛
˚ 0 ‹ 0 0
˚
‹ ˝ 0 ‚, f pe4 q “ f ˚ 0 ‹ ˝ ‚

f pe3 q “ f ˚
˝ 1 ‚“ “ 1 .
˝ 0 ‚
1 0
0 1
A continuación se calculan los vectores de coordenadas de las imágenes anteriores
en la base D. Para ello debemos resolver los siguientes sistemas
$ $
& a11 ` a21 ` a31 “ 1 & a12 ` a22 ` a32 “ 1
a11 ` a21 “ 1 , a12 ` a22 “ 1 ,
a11 “ 1 a12 “ 1
% %
$ $
& a13 ` a23 ` a33 “ 0 & a14 ` a24 ` a34 “ 0
a13 ` a23 “ 0 , a14 ` a24 “ 1 ,
a13 “ 1 a14 “ 0
% %

inducidos por las igualdades


f pej q “ a1j w1 ` a2j w2 ` a3j w3 , j P t1, 2, 3, 4u.
Así pues,
a11 “ 1, a21 “ 0, a31 “ 0,
a12 “ 1, a22 “ 0, a32 “ 0,
a13 “ 1, a23 “ ´1, a33 “ 0,
a14 “ 0, a24 “ 1, a34 “ ´1,
y esto implica que:
¨ ˛
1 1 1 0
M pf qB,D “˝ 0 0 ´1 1 ‚.
0 0 0 ´1
Si ¨˛
1
˚ 1 ‹
v“˚
˝ 1 ‚ “ vC4

1
el vector de coordenadas de f pvq en la base D es
¨ ˛
¨ ˛ 1 ¨ ˛
1 1 1 0 ˚ 3
1 ‹
f pvqD “ ˝ 0 0 ´1 1 ‚˚˝ 1
‹“˝
‚ 0 ‚.
0 0 0 ´1 ´1
1
106CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

Entonces, ¨ ˛
1 ¨ ˛
˚ 1 ‹ 2
f˚ ‹ “ 3w1 ´ w3 “ ˝ 3 ‚.
˝ 1 ‚
3
1

2.4.12 A continuación enunciamos las principales propiedades que cumple la


matriz asociada a una aplicación lineal. Las pruebas se obtienen tras cálculos
rutinarios.

1. Sean f, g : V Ñ W dos aplicaciones lineales y sean B “ te1 , ¨ ¨ ¨ , en u,


D “ tw1 , ¨ ¨ ¨ , wm u bases de V y W respectivamente. Entonces

M pf ` gqB,D “ M pf qB,D ` M pgqB,D , M pαf qB,D “ αM pf qB,D , @α P K.

2. Sean f : V Ñ W , f : W Ñ X dos aplicaciones lineales y sean B “


te1 , ¨ ¨ ¨ , en u, D “ tw1 , ¨ ¨ ¨ , wm u, E “ tu1 , ¨ ¨ ¨ , up u bases de V , W y X
respectivamente. Entonces

M pg ˝ f qB,E “ M pgqD,E M pf qB,D .

2.4.13 A continuación estudiaremos cómo varía la matriz asociada a una


aplicación lineal cuando cambiamos la base.

Sean f : V Ñ W una aplicación lineal y B1 , B2 dos bases de V y D1 , D2 dos


bases de W . Se tiene el siguiente diagrama conmutativo:

donde el subíndice indica respecto a qué base estamos trabajando.

Aplicando las propiedades de las matrices asociadas respecto de la composición


tenemos que

M pf qB2 ,D2 “ M pidW ˝ f ˝ idV qB2 ,D2 “ M pidW ˝ f qB1 D2 M pidV qB2 B1 “

M pidW qD1 D2 M pf qB1 ,D1 M pidV qB2 B1 .


Por lo tanto,
M pf qB2 ,D2 “ PD1 D2 M pf qB1 ,D1 PB2 B1 .
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO107

Figura 2.1: Cambio de base en la matriz asociada a una aplicación lineal.

Así pues, dos matrices asociadas a la misma aplicación lineal son equivalentes y
de esto se deduce, aplicando el Teorema 1.2.21, que tienen el mismo rango:
rangpM pf qB1 ,D1 q “ rangpM pf qB2 ,D2 q.
Inversamente, si dos matrices A, B P Mmˆn pKq son equivalentes, existen matrices
P P Mmˆm pKq y Q P Mnˆn pKq inversibles tales que P AQ “ B. Como Q es
inversible, sus columnas forman una base B2 de Kn y, análogamente, las columnas
de P ´1 forman una base D2 de Km . Sea la aplicación lineal
fA : Kn Ñ Km .
Se tiene que:

Figura 2.2: Cambio de base en la matriz asociada a una aplicación lineal.

es conmutativo y, entonces,
M pfA qB2 ,D2 “ PCm D2 M pfA qCn ,Cm PB2 Cn “
108CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

´1
PD2 Cm
M pfA qCn ,Cm PB2 Cn “ pP ´1 q´1 AQ “ P AQ “ B.
Como consecuencia de estos hechos podemos enunciar el siguiente teorema.

Teorema 2.4.14 Dos matrices son equivalentes, si, y sólo si, son matrices asociadas
a una misma aplicación lineal.

Definición 2.4.15 Dada una aplicación lineal f : V Ñ W entre dos K-espacios


vectoriales V y W se definen el núcleo y la imagen de f de la siguiente manera:

Kerpf q “ tv P V { f pvq “ θW u,

Impf q “ f pV q.
Con esta definición ya obtenemos que Impf q es un subespacio de W sin más que
aplicar el apartado tercero de la Proposición 2.4.4. De hecho la imagen de f está
dada por
Impf q “ tf pvq { v P V u.
Por otro lado, el núcleo también es un subespacio, ya que, si u, v P Kerpf q, se
tiene que
f pαu ` βvq “ αf puq ` βf pvq “ αθW ` βθW “ θW
y, lo que es lo mismo, αu ` βv P Kerpf q.

Ejemplo 2.4.16 Sea f : R4 Ñ R4 la aplicación lineal definida por

¨ ˛ ¨ ˛
x x
˚ y ‹ ˚ x ` y ‹

˝ z ‚“ ˝
‹ ˚ ‹.
x`y ‚
t x`y`z`t
Tenemos que
¨ ˛ ¨ ˛ $
x 0 x“0 $
& x“0


˚ y ‹ ˚ 0 ‹ &
x`y “0

˝ z ‚“ ˝ 0
‹ ˚ ‹ô
‚ ’ x`y “0 ô y“0
t “ ´z
’ %
t 0 x`y`z`t“0
%
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO109

y, equivalentemente,
¨ ˛
x $
˚ y ‹ & x“0
˚ ‹ P Kerpf q ô
˝ z ‚ y“0 .
t “ ´z
%
t

Así pues,
¨ ˛ ¨ ˛ ¨ ˛
0 0 0
˚ 0 ‹
˚ 0 ‹ P R4 { z P Ru “ă ˚ 0 ‹ ą .
4
˚ ‹ ˚ ‹
Kerpf q “ t˚
˝ z ‚ P R { z P Ru “ tz ˝ 1

‚ ˝ 1 ‚
´z ´1 ´1

y esto implica que dimR pKerpf qq “ 1.

La imagen de f está dada por


¨ ˛ ¨ ˛ ¨ ˛
x x x
˚ y ‹ ˚ y ‹ 4
˚ x`y ‹
tf ˚ ‹ { x, y, z, t P Ru “
˝ z ‚ { ˝ z ‚ P R u “ t˝
‹ ˚ ‹ ˚
x`y ‚
t t x`y`z`t
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 0 0 1 0 0
˚ 1 ‹ ˚ 1 ‹ ˚ 0 ‹ ˚ 1 ‹ ˚ 1 ‹ ˚ 0 ‹
˝ 1 ‚`y ˝ 1 ‚`pz`tq ˝ 0 ‚ { x, y, z, t P Ru “ă ˝ 1 ‚, ˝ 1 ‚, ˝
tx ˚ ‹ ˚ ‹ ˚ ‹ ˚ ‹ ˚ ‹ ˚ ‹ą
0 ‚
1 1 1 1 1 1
y, como los vectores que generan la imagen forman un sistema libre, se tiene que

dimR pImpf qq “ 3.

Proposición 2.4.17 Dada una aplicación lineal f : V Ñ W entre dos K-espacios


vectoriales V y W se tiene que

dimK pV q “ dimK pKerpf qq ` dimK pImpf qq.

Demostración. Supongamos que dimK pV q “ n y que dimK pKerpf qq “ p ă n.


Si
dimK pKerpf qq “ n
110CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

se tiene que Impf q “ tθW u y la fórmula se cumple trivialmente. Sea C “


te1 , ¨ ¨ ¨ , ep u una base de Kerpf q y ampliémosla hasta obtener una base de V
dada por
B “ te1 , ¨ ¨ ¨ , ep , ep`1 , ¨ ¨ ¨ , en u.
Se tiene que I “ tf pep`1 q, ¨ ¨ ¨ , f pen qu es una base de Impf q. En efecto, el sistema
es libre ya que, si

αp`1 f pep`1 q ` ¨ ¨ ¨ ` αn f pen q “ θW ,

por la linealidad de f , se verifica que

f pαp`1 ep`1 ` ¨ ¨ ¨ ` αn en q “ θV ô αp`1 ep`1 ` ¨ ¨ ¨ ` αn en P Kerpf q ô

D α1 , ¨ ¨ ¨ , αp P K { α1 e1 ` ¨ ¨ ¨ ` αp ep “ αp`1 ep`1 ` ¨ ¨ ¨ ` αn en ô
α1 e1 ` ¨ ¨ ¨ ` αp ep ´ αp`1 ep`1 ´ ¨ ¨ ¨ ´ αn en “ θV .
Como B es base, α1 “ ¨ ¨ ¨ “ αp “ αp`1 “ ¨ ¨ ¨ “ αn “ 0. Así pues, I es libre.

Finalmente, el sistema de vectores I es generador. Si w P Impf q, existe un vector


v P V tal que f pvq “ w y, como B es una base de V , el vector v es combinación
lineal de los vectores de B

v “ α1 e1 ` ¨ ¨ ¨ ` αp ep ` αp`1 ep`1 ` ¨ ¨ ¨ ` αn en .

Entonces,

w “ f pvq “ f pα1 e1 ` ¨ ¨ ¨ ` αp ep ` αp`1 ep`1 ` ¨ ¨ ¨ ` αn en q “

α1 f pe1 q ` ¨ ¨ ¨ ` αp f pep q ` αp`1 f pep`1 q ` ¨ ¨ ¨ ` αn f pen q “


α1 θW `¨ ¨ ¨`αp θW `αp`1 f pep`1 q`¨ ¨ ¨`αn f pen q “ αp`1 f pep`1 q`¨ ¨ ¨`αn f pen q ô
w Pă f pep`1 q, ¨ ¨ ¨ , f pen q ą .
\
[

Definición 2.4.18 Dada una aplicación lineal f : V Ñ W entre dos K-espacios


vectoriales V y W diremos que es un monomorfismo si es inyectiva. Cuando
sea sobreyectiva, se llamará epimorfismo y, si es inyectiva y sobreyectiva, se
denominará isomorfismo.
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO111

Estos tipos de aplicacionnes lineales se caracterizan totalmente utilizando el


núcleo y la imagen.

Proposición 2.4.19 Dada una aplicación lineal f : V Ñ W entre dos K-espacios


vectoriales V y W se verifica lo siguiente:

1) La aplicación lineal f es un monomorfismo, si, y sólo si, Kerpf q “ θV .

2) La aplicación lineal f es un epimorfismo, si, y sólo si, Impf q “ W .

3) La aplicación lineal f es un isomorfismo, si, y sólo si, Kerpf q “ θV e


Impf q “ W .

Demostración. La demostración de la segunda afirmación es trivial. La tercera


es consecuencia de la segunda y de la primera. Por tanto, sólo probaremos la
primera.

Si f es un monomorfismo y f pvq “ θW , se tiene que v “ θV y esto implica


que Kerpf q “ tθV u. Inversamente, supongamos que f pvq “ f puq. Entonces,
f pv ´ uq “ θW y, equivalentemente, v ´ u P Kerpf q. Si Kerpf q “ θV , obtenemos
v ´ u “ θV y esto implica que ambos vectores son iguales. Así pues, f es un
monomorfismo. \
[

Nota 2.4.20 Si una aplicación lineal f : V Ñ W , entre dos K-espacios vectoriales V


y W , es un isomorfismo, se puede construir su inversa f ´1 : W Ñ V como

f ´1 pwq “ v ô w “ f pvq.

Esta aplicación también es lineal (la comprobación se deja como ejercicio) y


cumple que
f ´1 ˝ f “ idV , f ˝ f ´1 “ idW .
Por lo tanto, si B “ te1 , ¨ ¨ ¨ , en u es una base de V y D “ tw1 , ¨ ¨ ¨ , wn u es una
base de W , se tiene que

In “ M pidV qB,B “ M pf ´1 ˝ f qB,B “ M pf ´1 qD,B M pf qB,D


112CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

e
In “ M pidW qD,D “ M pf ˝ f ´1 qD,D “ M pf qB,D M pf ´1 qD,B .
Así pues, M pf qB,D es inversible y

M pf q´1
B,D “ M pf
´1
qD,B .

Ejemplo 2.4.21 Tomemos un K-espacio vectorial V y sea B “ te1 , ¨ ¨ ¨ , en u una base


de V . Sea la aplicación lineal considerada el ejemplo noveno de 2.4.2

coordB : V Ñ Kn

dada por
coordB pvq “ vB .
Esta aplicación es monomorfismo y epimorfismo. Por lo tanto, es un isomorfismo
cuya inversa es
n
coord´1
B :K ÑV
¨ ˛
x1
´1 ˚ .. ‹
coordB ˝ . ‚ “ x1 e1 ` ¨ ¨ ¨ ` xn en .
xn

Proposición 2.4.22 Dada una aplicación lineal f : V Ñ W entre dos K-espacios


vectoriales V y W se verifica lo siguiente:

1) La aplicación lineal f es un monomorfismo, si, y sólo si, transforma


sistemas libres de V en sistemas libres de W .
2) La aplicación lineal f es un epimorfismo, si, y sólo si, transforma sistemas
generadores de V en sistemas generadores de W .
3) La aplicación lineal f es un isomorfismo, si, y sólo si, transforma bases de
V en bases de W .

Demostración. La tercera afirmación es consecuencia de las dos primeras.


Probaremos en primer lugar 1q. Supongamos que v es un vector no nulo de V . El
sistema T “ tvu es libre y, si f transforma sistemas libres de V en sistemas libres
2.4. APLICACIONES LINEALES. MATRIZ ASOCIADA. NÚCLEO Y RANGO113

de W , tenemos que f pT q “ tf pvqu es libre y, equivalentemente, f pvq ‰ θW . Por


lo tanto, Kerpf q “ θV y f es un monomorfismo. Inversamente, supongamos
que f es un monomorfismo y que T “ te1 , ¨ ¨ ¨ , ep u es un sistema libre de V . El
sistema f pT q también es libre, ya que
α1 f pe1 q ` ¨ ¨ ¨ ` αp f pep q “ θW ô f pα1 e1 ` ¨ ¨ ¨ ` αp ep q “ f pθV q ô
α1 e1 ` ¨ ¨ ¨ ` αp ep “ θV
y esto implica que α1 “ ¨ ¨ ¨ “ αp “ 0 ya que T es libre.

Supongamos ahora que T “ te1 , ¨ ¨ ¨ , ep u es un sistema generador de V . Sabemos


que Impf q “ă f pT q ą y, por lo tanto, si f pT q es un sistema generador de W , se
tiene que W “ă f pT q ą“ Impf q. Así pues, f resulta ser un epimorfismo. Por
otro lado, es evidente que, si la aplicación lineal es sobreyectiva, entonces los
sistemas generadores de V se transforman en sistemas generadores de W . \
[

Nota 2.4.23 Volvamos al ejemplo de la aplicación lineal de coordenadas coordB


respecto a una base B “ te1 , ¨ ¨ ¨ , en u de un K-espacio vectorial V . Esta aplicación
es un isomorfismo y como consecuencia, lleva bases de V en bases de Kn . En
particular transforma sistemas libres de V en sistemas libres de Kn . Por lo tanto,
se tiene que, si T “ tv1 , ¨ ¨ ¨ , vr u es un sistema de vectores de V , se verifica la
igualdad
rangpT q “ s ô rangptv1B , ¨ ¨ ¨ , vrB uq “ s.
Supongamos que f : V Ñ W es una aplicación lineal entre dos K-espacios
vectoriales y que dimK pImpf qq “ r. Esto implica que dimK pKerpf qq “ n ´ r,
si n es la dimensión de V . Sea C “ te1 , ¨ ¨ ¨ , en´r u una base de Kerpf q y
ampliémosla hasta obtener una base de V dada por
B “ te1 , ¨ ¨ ¨ , en´r , en´r`1 , ¨ ¨ ¨ , en u.
Supongamos que dimK pW q “ m y tomemos ahora una base de W dada por
D “ tw1 , ¨ ¨ ¨ , wm u. Como C “ te1 , ¨ ¨ ¨ , en´r u una base de Kerpf q se tiene que
` ˘
M pf qB,D “ θKm | ¨ ¨ ¨ | θKm | f pen´r`1 qD | ¨ ¨ ¨ | f pen qD
y, entonces, rangpM pf qB,D q “ r, ya que tf pen´r`1 q, ¨ ¨ ¨ , f pen qu es una base de
la imagen de f y, en particular, un sistema libre cuyo rango coincide con el rango
del sistema
tf pen´r`1 qD , ¨ ¨ ¨ , f pen qD u
114CAPÍTULO 2. ESPACIOS VECTORIALES Y APLICACIONES LINEALES

formado por sus vectores de coordenadas en la base D.

Como todas las matrices asociadas a una misma aplicación lineal tienen el
mismo rango por ser equivalentes, podemos enunciar el siguiente resultado cuya
demostración se encuentra en las lineas que preceden a este párrafo.

Teorema 2.4.24 Sea f : V Ñ W una aplicación lineal entre dos K-espacios vectoria-
les. Se tiene que la dimensión de la imagen de f es igual al rango de cualquiera
de sus matrices asociadas.

Nota 2.4.25 En ejemplo octavo de 2.2.17 vimos que si A P Mmˆn pKq y U es el


subespacio de Kn dado por las soluciones del sistema homogéneo Ax “ θKn , esto
es ¨ ˛ ¨ ˛ ¨ ˛
x1 x1 0
˚ .. ‹ n ˚ .. ‹ ˚ .. ‹
U “ t˝ . ‚ P K { A ˝ . ‚ “ ˝ . ‚u,
xn xn 0
Entonces,
dimK pU q “ n ´ rangpAq.
Utilizando lo visto anteriormente podemos justificar la fórmula anterior de la
siguiente manera: tomemos la aplicación lineal fA : Kn Ñ Km . Entonces, como

U “ KerpfA q

y A “ M pfA qCn ,Cm , el afirmar que

n “ dimK pKn q “ dimK pKerpfA qq ` dimK pImpfA qq

es equivalente a
dimK pU q “ n ´ rangpAq.
Capítulo 3

Autovalores y autovectores

3.1. Autovalores y autovectores. Polinomio carac-


terístico

Definición 3.1.1 Sea A P Mnˆn pKq. Un escalar λ P K se llama autovalor o valor


propio de A, si existe un vector v P Kn no nulo tal que

Av “ λv.

El vector v ‰ θKn cumpliendo la anterior igualdad se llama autovector, o vector


propio, de A asociado al autovalor λ.

De estas definiciones se sigue fácilmente que un mismo autovector v no puede


estar asociado a dos autovalores distintos ya que, si existien λ1 , λ2 P K tales que

λ1 v “ Av “ λ2 v,

obtendríamos la igualdad pλ1 ´ λ2 qv “ θKn , y como v es no nulo, se tiene que


λ1 ´ λ2 “ 0, o equivalentemente, λ1 “ λ2 .

Por otro lado es claro que, si λ es autovector de A y v un autovector asociado

115
116 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

a λ, el vector αv es también un autovector asociado a λ para todo α P K. Así


pues, un autovalor tiene asociados infinitos autovectores distintos.

El conjunto de todos los autovalores de la matriz A se llama espectro de A y se


representa por
SppAq.

Definición 3.1.2 Sea A P Mnˆn pKq. El polinomio de grado n dado por

pA pxq “ detpA ´ xIn q

se llama polinomio característico de A.

Teorema 3.1.3 Para toda matriz A P Mnˆn pKq el conjunto SppAq coincide con las
raíces de pA pxq. Dicho de otra forma, los autovalores de A coinciden con las
raíces de su polinomio característico.

Demostración. Si λ P SppAq, existe un v ‰ θKn tal que Av “ λv, o bien, tal que
pA´λIn qv “ θKn . Por lo tanto, v P KerpfA´λIn q, con lo cual, dimK pImpfA´λIn qq “
rangpA ´ λIn q ă n. Entonces se tiene que A ´ λIn no es inversible, o equivalen-
temente, detpA ´ λIn q “ 0. Así pues, λ es una raíz del polinomio característico.

Recíprocamente, si λ P K es tal que detpA ´ λIn q “ 0, obtenemos que rangpA ´


λIn q ă n y, por lo tanto, dimK pKerpfA´λIn qq ą 1. Esto implica que existe
v ‰ θKn perteneciente al subespacio KerpfA´λIn q y entonces v es un autovector
asociado a λ ya que

fA´λIn pvq “ pA ´ λIn qv “ θKn ô Av “ λv.

\
[

Nota 3.1.4 Como acabamos de comprobar en el anterior resultado el cálculo de


los autovalores de una matriz está ligado al cálculo de las raíces del polinomio
característico. Si la matriz tiene sus coeficientes reales, su polinomio característico
también; ahora bien, puede no tener ninguna raíz real y, por lo tanto, si queremos
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO117

calcular su espectro, la tenemos que pensar como una matriz de coeficientes


complejos. Por ejemplo, esto ocurre, si
ˆ ˙
0 ´1
A“
1 0
ya que ˇ ˇ
ˇ ´x ´1 ˇˇ
pA pxq “ ˇˇ “ x2 ` 1.
1 ´x ˇ
Recuérdese que, si ppxq es un polinomio de grado n con coeficientes reales o
complejos, entonces λ P K es una raíz de ppxq, si ppλq “ 0. Esto es equivalente a
que ppxq sea divisible por x ´ λ, o bien, ppxq “ px ´ λqqpxq, donde qpxq es un
polinomio de grado n ´ 1.

Si los coeficientes de ppxq son complejos cualesquiera, el Teorema Fundamental


de Álgebra afirma que
ppxq “ apx ´ λ1 qα1 ¨ ¨ ¨ px ´ λr qαr
donde λi P C, i P t1, ¨ ¨ ¨ , ru son las raíces de ppxq y αi P N, i P t1, ¨ ¨ ¨ , ru son
tales que α1 ` ¨ ¨ ¨ ` αr “ n.

Para cada raíz λi el número natural αi denota su multiplicidad algebraica, esto


es, el mayor número natural tal que
ppxq “ px ´ λi qαi tpxq.
Por lo tanto, un polinomio de grado n con coeficientes reales o complejos tiene
a lo sumo n raíces distintas. Esto implica que toda matriz cuadrada de orden
n, con coeficientes reales o complejos, tiene a lo sumo n autovalores distintos.
En el caso de coeficientes complejos, si contamos cada autovalor tantas veces
como su multiplicidad algebraica, obtenemos que A tiene n autovalores, no
necesariamente distintos.

Finalmente, se debe resaltar la siguiente propiedad de las raíces de los polinomios.


Si ppxq tiene todos sus coeficientes reales (por lo tanto también se puede pensar
como una matriz de coeficientes complejos), se cumple que
λ “ a ` bi P SppAq ô λ “ a ´ bi P SppAq.
Por lo tanto, si una matriz A, cuyos coeficientes son todos reales, tiene una
autovalor complejo no real, su conjugado tambien es autovalor de A.
118 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Ejemplos 3.1.5 1. Dada la matriz


¨ ˛
0 ´1 ´2
A“˝ 0 0 2 ‚
1 1 1
se tiene que
ˇ ˇ
ˇ ´x ´1 ´2 ˇ
ˇ ˇ
pA pxq “ detpA ´ xI3 q “ ˇˇ 0 ´x 2 ˇ “ ´x3 ` x2 ´ 2.
ˇ
ˇ 1 1 1´x ˇ

Entonces, como pA p´1q “ 0, se tiene que


pA pxq “ px ` 1qp´x2 ` 2x ´ 2q.
Las raíces de ´x2 ` 2x ´ 2, que son complejas y conjugadas, vienen dadas
por ?
´2 ˘ 4 ´ 8 ´2 ˘ 2i
x“ “ “ 1 ˘ i.
´2 ´2
Así pues, pA pxq “ px ` 1qpx ´ p1 ´ iqqpx ´ p1 ` iqq y esto implica que, si
pensamos A como matriz de coeficientes complejos, el espectro de A viene
dado por
SppAq “ t´1, 1 ´ i, 1 ` iu
y, además,
map´1q “ map1 ´ iq “ map1 ` iq “ 1.
2. Si la matriz A es triangular, bien superior, bien inferior, se tiene que los
elementos que forman su diagonal principal son su espectro. Por ejemplo,
si ¨ ˛
´1 2 1 3 4
˚ 0 ´1 1 1 1 ‹
˚ ‹
A“˚ 0˚ 0 3 ´ i ´2 ´3 ‹ ‹,
˝ 0 0 0 0 ´3 ‚
0 0 0 0 ´3
se tiene que
ˇ ˇ
ˇ ´1 ´ x 2 1 3 4 ˇ
ˇ ˇ
ˇ
ˇ 0 ´1 ´ x 1 1 1 ˇ
ˇ
pA pxq “ detpA´xI3 q “ ˇˇ 0 0 p3 ´ iq ´ x ´2 ´3 ˇ“
ˇ
ˇ
ˇ 0 0 0 ´x ´3 ˇ
ˇ
ˇ 0 0 0 0 ´3 ´ x ˇ
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO119

xp3 ` xqp1 ` xq2 pp3 ´ iq ´ xq.


Así pues, SppAq “ t0, ´3, ´1, 3 ´ iu y la multiplicidad algebraica de cada
autovalor es

map0q “ map´3q “ map3 ´ iq “ 1, map´1q “ 2.

Proposición 3.1.6 Si A P Mnˆn pKq, entonces A es inversible, si, y sólo si, 0 no


pertenece al espectro de A. Además se verifica que λ P SppAq, si, y sólo si,
λ´1 P SppA´1 q.

Demostración. Si 0 P SppAq, tenemos que existe un vector no nulo en Kn tal


que Av “ 0v “ θKn . Esto implica que el sistema Ax “ θKn tiene soluciones
distintas de la trivial y, por lo tanto, rangpAq ă n o, equivalentemente, A no es
inversible. Si A no es inversible, se tiene que rangpAq ă n. Entonces el sistema
Ax “ θKn es compatible indeterminado y esto implica que existe un vector no
nulo en Kn tal que Av “ θKn “ 0v. Por lo tanto, el 0 es autovalor de A.

La segunda equivalencia se sigue de los siguientes hechos:

λ P SppAq ô D v ‰ θKn { Av “ λv ô D v ‰ θKn { v “ A´1 λv ô

1
D v ‰ θKn { A´1 v “ v ô λ´1 P SppA´1 q.
λ
\
[

Definición 3.1.7 Sea A P Mnˆn pKq y λ P K un autovalor de A. Se llama subespacio


propio asociado a λ al subespacio de Kn dado por

V pλq “ KerpfA´λIn q.

Entonces
¨ ˛ ¨ ˛ ¨ ˛
x1 x1 0
V pλq “ t˝ ... ‚ P Kn { pA ´ λIn q ˝ .. ‹ “ ˚ .. ‹u
˚ ‹ ˚
. ‚ ˝ . ‚
xn xn 0
120 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

y
dimK pV pλqq “ n ´ rangpA ´ λIn q.
Cuando los coeficientes de A son todos reales y λ P R, se tiene que V pλq es un
subespacio del R-espacio vectorial Rn .

Se llama multiplicidad geométrica de un autovalor λ, denotada por mgpλq, a la


dimensión del subespacio propio V pλq.

Ejemplos 3.1.8 1. Tomemos la matriz


¨ ˛
1 3 3
A “ ˝ ´3 ´5 ´3 ‚.
3 3 1

Se tiene que
ˇ ˇ
ˇ 1´x 3 3 ˇ
ˇ ˇ
pA pxq “ detpA ´ xI3 q “ ˇˇ ´3 ´5 ´ x ´3 ˇ
ˇ
ˇ 3 3 1´x ˇ
ˇ ˇ ˇ ˇ
ˇ 1´x 3 3 ˇ ˇ 1´x 3 0 ˇ
ˇ ˇ ˇ ˇ
“ ˇˇ 0 ´2 ´ x ´2 ´ x ˇˇ ““ ˇˇ 0 ´2 ´ x 0 ˇ
ˇ
ˇ 3 3 1´x ˇ ˇ 3 3 ´2 ´ x ˇ
ˇ ˇ
ˇ 1´x 3 ˇ
“ ´p2 ` xq ˇ
ˇ ˇ “ p2 ` xq2 p1 ´ xq.
0 ´2 ´ x ˇ
Así pues, pA pxq “ p2 ` xq2 p1 ´ xq y esto implica que

SppAq “ t´2, 1u

y
map´2q “ 2, map1q “ 1.
Los subespacios propios se calculan como:
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p´2q “ t˝ y ‚ P R3 { pA ` 2I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO121
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 3 3 3 x 0
t˝ y ‚ P R3 { ˝ ´3 ´3 ´3 ‚˝ y ‚ “ ˝ 0 ‚u “
z 3 3 3 z 0
¨ ˛
x
t˝ y ‚ P R3 { x ` y ` z “ 0u “
z
¨ ˛ ¨ ˛ ¨ ˛
x 1 0
t˝ y ‚ P R3 { x, y P Ru “ă ˝ 0 ‚, ˝ 1 ‚ ą .
´x ´ y ´1 ´1
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p1q “ t˝ y ‚ P R3 { pA ´ I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 0 3 3 x 0
t˝ y ‚ P R3 { ˝ ´3 ´6 ´3 ‚˝ y ‚ “ ˝ 0 ‚u “
z 3 3 0 z 0
¨ ˛ ¨ ˛ ¨ ˛
x ´y ´1
t˝ y ‚ P R3 { y`z “ 0 “ x`yu “ t˝ y ‚ P R3 { y P Ru “ă ˝ 1 ‚ ą .
z ´y ´1
Así pues, mgp´2q “ 2 y mgp1q “ 1.

2. Dada la matriz ¨ ˛
0 ´1 ´2
A“˝ 0 0 2 ‚,
1 1 1
en el primer ejemplo de 3.1.5 demostramos que SppAq “ t´1, 1 ´ i, 1 ` iu
ya que pA pxq “ px ` 1qpx ´ p1 ´ iqqpx ´ p1 ` iqq. Si pretendemos calcular
los subespacios propios asociados a todos los autovalores, y no sólo a los
reales, debemos pensar la matriz como matriz compleja.
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p´1q “ t˝ y ‚ P C3 { pA ` I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 1 ´1 ´2 x 0
t ˝ y ‚ P C3 { ˝ 0 1 2 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 2 z 0
122 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
¨ ˛ $ ¨ ˛
x & x ´ y ´ 2z “ 0 x "
3 3 x“0
t y
˝ ‚ PC { y ` 2z “ 0 u“t y˝ ‚ PC { u“
y “ ´2z
z x`y`z “0 z
%
¨ ˛ ¨ ˛
0 0
t˝ ´2z ‚ P C3 { z P Cu “ă ˝ ´2 ‚ ą .
z 1
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p1 ´ iq “ t˝ y ‚ P C3 { pA ´ p1 ´ iqI3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x ´1 ` i ´1 ´2 x 0
t˝ y ‚ P C 3 { ˝ 0 ´1 ` i 2 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 i z 0
¨ ˛ $
x & p´1 ` iqx ´ y ´ 2z “ 0
t ˝ y ‚ P C3 { p´1 ` iqy ` 2z “ 0 u“
z x ` y ` iz “ 0
%
¨ ˛ ¨ ˛
p´1 ´ 2iqz ´1 ´ 2i
t˝ p1 ` iqz ‚ P C3 { z P Cu “ă ˝ 1 ` i ‚ ą .
z 1
De la misma forma
¨ ˛
´1 ` 2i
V p1 ` iq “ă ˝ 1 ´ i ‚ ą .
1

En este ejemplo mgp´1q “ mgp1 ´ iq “ mgp1 ` iq “ 1.

Definición 3.1.9 Sean A, B P Mnˆn pKq. Se dirá que A y B son matrices semejantes,
si existe una matriz inversible P P Mnˆn pKq tal que

P ´1 AP “ B.

Evidentemente, si dos matrices son semejantes, son equivalentes y de esto se


sigue que tienen el mismo rango.

Proposición 3.1.10 Si dos matrices son semejantes, tienen el mismo polinomio


característico. Por lo tanto tienen el mismo espectro.
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO123

Demostración. Sean A, B P Mnˆn pKq matrices semejantes y sea P P Mnˆn pKq


inversible tal que P ´1 AP “ B. Entonces:

pB pxq “ detpB ´ xIn q “ detpP ´1 AP ´ xP ´1 P q “ detpP ´1 pA ´ xIn qP q “

detpP ´1 qdetpA ´ xIn qdetpP q “ detpP q´1 detpA ´ xIn qdetpP q


“ detpP q´1 detpP qdetpA ´ xIn q “ detpA ´ xIn q “ pA pxq.
\
[

Nota 3.1.11 En la anterior proposición hemos demostrado que, si dos matrices son
semejantes, tienen el mismo polinomio característico, lo que implica que tienen
el mismo espectro. El recíproco no es cierto. Las matrices A “ I2 y
ˆ ˙
1 1
B“
0 1

tienen el mismo polinomio característico y no son semejantes. Nótese que si lo


fuesen, existiría P P M2ˆ2 pRq inversible tal que P ´1 I2 P “ B. Esto implica que
B “ I2 lo que es un absurdo.

Nota 3.1.12 Existe una interesante relación entre los autovalores de A y los de
P ´1 AP . Si v es un autovector de A asociado al autovalor λ, se tiene que

Av “ λv ô P ´1 Av “ λP ´1 v ô P ´1 AP P ´1 v “ λP ´1 v.

Así pues, λ es un autovalor de P ´1 AP y P ´1 v es un autovector de la misma


matriz asociado a λ.

Proposición 3.1.13 Sea λ P SppAq siendo A P Mnˆn pKq. Entonces mgpλq ď


mapλq.

Demostración. Sea V pλq es subespacio propio asociado a λ y supongamos


que mgpλq “ dimK pV pλqq “ r. Tomemos una base te1 , ¨ ¨ ¨ , er u de V pλq y
ampliémosla a una base

B “ te1 , ¨ ¨ ¨ , er , er`1 , ¨ ¨ ¨ , en u
124 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

de Kn . Entonces, como para i P t1, ¨ ¨ ¨ , ru, fA pei q “ Aei “ λei , se tiene que
¨ ˛
λIr | U
M pfA qB,B “ ˝ ´ ´ ´ ´ ´ ‚
Θn´r,r | Q

con U P Mrˆpn´rq pKq y Q P Mpn´rqˆpn´rq pKq.

Entonces, como A y M pfA qB,B son semejantes, obtenemos las igualdades

pA pxq “ pM pfA qB,B pxq “ pλ ´ xqr PQ pxq

y, por lo tanto, mgpλq “ r ă mapλq. Donde la /’ultima desigualdad viene moti-


vada por la posibilidad de λ sea ra/’iz del polinomio PQ pxq. \
[

Teorema 3.1.14 Para toda matriz A P Mnˆn pKq las condiciones siguientes son
equivalentes:

1) El polinomio característico de A se descompone como

pA pxq “ pλ1 ´ xq ¨ ¨ ¨ pλn ´ xq

donde los λi P K, i P t1, ¨ ¨ ¨ , nu son escalares no necesariamente distintos.


2) La matriz A es semejante a una matriz triangular superior.

Si alguna de las anteriores condiciones se cumple, los autovalores de A son los


elementos de la diagonal principal de la matriz triangular superior semejante a
A.

Demostración. Supongamos que la matriz A es semejante a una matriz trian-


gular superior ¨ ˛
a11 a12 ¨ ¨ ¨ a1n
˚ 0 a22 ¨ ¨ ¨ a2n ‹
T “˚ . .. .. .. ‹ .
˚ ‹
˝ .. . . . ‚
0 0 ¨ ¨ ¨ ann
3.1. AUTOVALORES Y AUTOVECTORES. POLINOMIO CARACTERÍSTICO125

Entonces, usando que dos matrices semejantes tienen el mismo polinomio caracte-
rístico, obtenemos las igualdades pA pxq “ pT pxq “ pa11 ´xqpa22 ´xq ¨ ¨ ¨ pann ´xq.

Para demostrar la otra implicación usaremos un razonamiento inductivo. Si


n “ 1, podemos tomar P “ I1 , ya que toda matriz cuadrada de orden uno es
triangular superior. Supongamos que el enunciado es cierto para toda matriz
cuadrada de orden n ´ 1 y probémoslo para matrices cuadradas de orden n. Sea
A P Mnˆn pKq tal que
pA pxq “ pλ1 ´ xq ¨ ¨ ¨ pλn ´ xq.
con los λi no necesariamente distintos. Como pA pxq se descompone de la forma
anterior, admite todas sus raíces en K. Tomemos la primera, λ1 , y un autovector
v1 asociado a este autovalor. Como v1 es no nulo, se tiene que tv1 u es un sistema
libre de Kn y, por lo tanto, podemos completarlo a una base
B1 “ tv1 , u2 , ¨ ¨ ¨ , un u
de Kn . Sea P1 la matriz cuadrada inversible de orden n cuyas columnas son los
vectores de la base B1 :
` ˘
P1 “ v1 | u2 | ¨ ¨ ¨ | un .
Entonces,
` ˘
P1´1 AP “ P1´1 Av1 | P1´1 Au2 | ¨ ¨ ¨ | P1´1 Aun “
` ´1 ˘
P1 λ1 v1 | P1´1 Au2 | ¨ ¨ ¨ | P1´1 Aun .
Como v1 es la primera columna de P1 , se tiene que
¨ ˛ ¨ ˛
1 λ1
˚ 0 ‹ ˚ 0 ‹
P1´1 λ1 v1 “ λ1 P1´1 v1 “ λ1 ˚ . ‹ “ ˚ .. ‹,
˚ ‹ ˚ ‹
˝ .. ‚ ˝ . ‚
0 0
y de esto deducimos que
¨ ˛
λ1 | u
˚
˚ ´ | ´´´ ‹

P1´1 AP1
˚
“˚ 0 | ‹
..

˚ ‹
˝ . | A1 ‚
0 |
126 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

donde A1 es una matriz cuadrada de orden n ´ 1. Como consecuencia,

pA pxq “ pλ1 ´ xqpA1 pxq

y entonces
pA1 pxq “ pλ2 ´ xq ¨ ¨ ¨ pλn ´ xq.

Así pues podemos aplicar la hipótesis de inducción para la matriz A1 obteniendo


que es semejante a una matriz diagonal, esto es:
¨ ˛
a11 a12 ¨¨¨ a1 n´1
˚ 0 a22 ¨¨¨ a2 n´1 ‹
D P2 P Mpn´1qˆpn´1q pKq, inversible, {P2´1 A1 P2 “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ an´1 n´1

Tomemos ahora
¨ ˛
1 | 0 ¨¨¨ 0
˚
˚ ´ | ´´´ ‹

P “˚
˚ 0 | ‹.

˚ .. ‹
˝ . | P2 ‚
0 |

Entonces, P es inversible, ya que


¨ ˛¨ ˛ ¨ ˛
1 | 0 ¨¨¨ 0 1 | 0 ¨¨¨ 0 1 | 0 ¨¨¨ 0
˚
˚ ´ | ´´´ ‹˚
‹˚ ´ | ´´´ ‹ ˚
‹ ˚ ´ | ´´´ ‹ ‹
˚ 0 | ‹˚ 0 | ‹ ˚
‹“˚ 0 | ‹ “ In ,

.. .. ..
˚ ‹˚
˚ ‹˚ ‹ ˚ ‹
˝ . | P2 ‚˝ . | P2´1 ‚ ˝ . | P2 P ´1 ‚
2
0 | 0 | 0 |

y además
¨ ˛¨ ˛¨ ˛
1 | 0 ¨¨¨ 0 λ1 | u 1 | 0 ¨¨¨ 0
˚
˚ ´ | ´´´ ‹ ˚
‹˚ ´ | ´´´ ‹˚
‹˚ ´ | ´´´ ‹ ‹
P ´1
P1´1 AP1 P
˚
“˚ 0 | ‹˚ 0 | ‹˚ 0 | ‹
‹“
.. .. ..
‹˚ ‹˚
˚ ‹˚ ‹˚ ‹
˝ . | P2´1 ‚˝ . | A1 ‚˝ . | P2 ‚
0 | 0 | 0 |
3.2. MATRICES DIAGONALIZABLES 127
¨ ˛
λ1 | uP2
˚
˚ ´ | ´´´ ‹

˚ 0 | ‹.

..
˚
˚ ‹
˝ . ´1
| P 2 A1 P 2 ‚
0 |

Por lo tanto, como P2´1 A1 P2 es triangular superior, la matriz P ´1 P1´1 AP1 P


también lo es y obtenemos que A es semejante a una matriz triangular superior.

\
[

Corolario 3.1.15 Toda matriz A P Mnˆn pCq es semejante a una matriz triangular
superior.

Demostración. El resultado es consecuencia del teorema anterior y del Teorema


Fundamental del Álgebra. \
[

3.2. Matrices diagonalizables

Definición 3.2.1 Una matriz A P Mnˆn pKq se dirá que es diagonalizable si es


semejante a una matriz diagonal, es decir, si existen dos matrices P , D P
Mnˆn pKq tales que P es inversible, D es diagonal y

P ´1 AP “ D

y, equivalentemente,
AP “ P D.

Si P se escribe en columnas como


` ˘
P “ u1 | u2 | ¨¨¨ | un
128 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

y ¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ λn
se tiene que la igualdad AP “ P D es equivalente a
` ˘ ` ˘
Au1 | Au2 | ¨ ¨ ¨ | Aun “ λ1 u1 | λ2 u2 | ¨¨¨ | λn un .

Así pues, SppAq “ tλ1 , λ2 , ¨ ¨ ¨ , λn u y B “ tu1 , u2 , ¨ ¨ ¨ un u es una base de Kn


formada por autovectores de A.

Inversamente, si existe una base B “ tu1 , u2 , ¨ ¨ ¨ un u de Kn formada por autovec-


tores de A, se tiene que, tomando P la matriz cuyas columnas son los vectores
de la base B, obtenemos una matriz inversible tal que
` ˘ ` ˘
AP “ Au1 | Au2 | ¨ ¨ ¨ | Aun “ λ1 u1 | λ2 u2 | ¨ ¨ ¨ | λn un “
¨ ˛
λ1 0 ¨ ¨ ¨ 0
˚ 0 λ2 ¨ ¨ ¨ 0 ‹
P˚ . .. . . . ‹
˚ ‹
˝ .. . . .. ‚
0 0 ¨¨¨ λn
y, equivalentemente,
¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
P ´1 AP “ D “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λn

Por lo tanto, tenemos el siguiente resultado.

Teorema 3.2.2 Una matriz A P Mnˆn pKq es diagonalizable, si, y sólo si, el K-
espacio vectorial Kn admite una base formada por autovectores.

Para obtener una condición que nos permita verificar de forma fácil cuándo una
matriz es diagonalizable, en primer lugar, probaremos unos resultados técnicos:
3.2. MATRICES DIAGONALIZABLES 129

Proposición 3.2.3 Para toda matriz A P Mnˆn pKq se verifica que autovectores
asociados a autovalores distintos son independientes.

Demostración. La demostración se hará por inducción. Sean λ1 , ¨ ¨ ¨ , λr auto-


valores distintos de A y sean v1 , ¨ ¨ ¨ , vr vectores no nulos de Kn tales que

Av1 “ λ1 v1 , ¨ ¨ ¨ , Avr “ λr vr .

Si r “ 2, el resultado es cierto ya que, si

α1 v1 ` α2 v2 “ θKn ,

multiplicando por A ´ λ1 In , obtenemos

θKn “ pA´λ1 In qθKn “ pA´λ1 In qpα1 v1 `α2 v2 q “ α1 pA´λ1 In qv1 `α2 pA´λ1 In qv2 “

α1 pλ1 ´ λ1 qv1 ` α2 pλ2 ´ λ1 qv2 ô


α2 pλ2 ´ λ1 qv2 “ θKn ô α2 “ 0,
ya que λ2 ‰ λ1 y v2 ‰ θKn . Como consecuencia, α1 “ 0 y el sistema es libre.
Supongamos que el resultado es cierto para r ´ 1 y probémoslo para r.

Pongamos
α1 v1 ` α2 v2 ` ¨ ¨ ¨ ` αr vr “ θKn
y multipliquemos por A ´ λr In . Entonces,

θKn “ pA ´ λr In qθKn “ pA ´ λr In qpα1 v1 ` α2 v2 ` ¨ ¨ ¨ ` αr vr q “

α1 pA ´ λr In qv1 ` α2 pA ´ λr In qv2 ` ¨ ¨ ¨ ` αr pA ´ λr In qvr “


α1 pλ1 ´ λr qv1 ` α2 pλ2 ´ λr qv2 ` ¨ ¨ ¨ ` αr pλr ´ λr qvr “
α1 pλ1 ´ λr qv1 ` α2 pλ2 ´ λr qv2 ` ¨ ¨ ¨ ` αr pλr´1 ´ λr qvr´1 .
Como, por hipótesis de inducción, tv1 , ¨ ¨ ¨ , vr´1 u es un sistema libre, se tiene que
αi pλi ´ λr q “ 0, i P t1, ¨ ¨ ¨ , r ´ 1u. Ahora bien, como λi ‰ λr , i P t1, ¨ ¨ ¨ , r ´ 1u,
se tiene que αi “ 0, i P t1, ¨ ¨ ¨ , r ´ 1u. Por lo tanto, como vr es no nulo, el escalar
αr “ 0 y la demostración queda finalizada. \
[
130 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
č
Proposición 3.2.4 Para toda matriz A P Mnˆn pKq se verifica que V pλq “
λPSppAq
tθKn u.

Demostración. La demostración es consecuencia directa de la propiedad que


afirma que un mismo autovector no puede estar asociado a dos autovalores
distintos. \
[

Proposición 3.2.5 Para toda matriz A P Mnˆn pKq, si tλ1 , ¨ ¨ ¨ , λr u son sus autova-
lores distintos y Bi es una base de V pλi q, se tiene que el sistema B “ B1 Y¨ ¨ ¨YBr
es libre.

Demostración. En esta demostración también procederemos por inducción.


Sea
Bi “ tv1i , v2i , ¨ ¨ ¨ , vsi i u
una base de V pλi q, i P t1, ¨ ¨ ¨ , ru. Obsérvese que estamos tomando si “ mgpλi q..

Si r “ 1, el resultado es cierto ya que B1 es una base de V pλ1 q. Supongamos


que el resultado es cierto para r ´ 1 y probémoslo para r. Pongamos

α11 v11 `α21 v21 ` ¨ ¨ ¨ `αs11 vs11 ` ¨ ¨ ¨ ¨ ¨ ¨ `α1r´1 v1r´1 `α2r´1 v2r´1 ` ¨ ¨ ¨ `αsrr´1 vsr´1
r´1
`

α1r v1r ` α2r v2r ` ¨ ¨ ¨ ` αsrr vsrr “ θKn


s1
ÿ sÿ
r´1 sr
ÿ
ô αi1 vi1 ` ¨ ¨ ¨ ` αir´1 vir´1 ` αir vir “ θKn
i“1 i“1 i“1
y multipliquemos por A ´ λr In . Entonces,
s1
ÿ sÿ
r´1 sr
ÿ
θKn “ pA ´ λr In qθKn “ pA ´ λr In qp αi1 vi1 ` ¨ ¨ ¨ ` αir´1 vir´1 ` αir vir q “
i“1 i“1 i“1

s1
ÿ sÿ
r´1 sr
ÿ
αi1 pA ´ λr In qvi1 ` ¨ ¨ ¨ ` αir´1 pA ´ λr In qvir´1 ` αir pA ´ λr In qvir “
i“1 i“1 i“1
s1
ÿ sÿ
r´1 sr
ÿ
αi1 pλ1 ´ λr qvi1 ` ¨ ¨ ¨ ` αir´1 pλr´1 ´ λr qvir´1 ` αir pλr ´ λr qvir “
i“1 i“1 i“1
3.2. MATRICES DIAGONALIZABLES 131

s1
ÿ sÿ
r´1

αi1 pλ1 ´ λr qvi1 ` ¨¨¨ ` αir´1 pλr´1 ´ λr qvir´1 .


i“1 i“1
Como, por hipótesis de inducción, B1 Y ¨ ¨ ¨ Y Br´1 es libre, se tiene que
$ 1
’ αi2 pλ1 ´ λr q “ 0, i P t1, ¨ ¨ ¨ s1 u

αi pλ1 ´ λr q “ 0, i P t1, ¨ ¨ ¨ s2 u
&

’ ¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨
% r´1
αi pλ1 ´ λr q “ 0, i P t1, ¨ ¨ ¨ sr´1 u
y, además, ya que los autovalores son distintos, obtenemos las igualdades
$ 1
α “ 0, i P t1, ¨ ¨ ¨ s1 u
& i2


αi “ 0, i P t1, ¨ ¨ ¨ s2 u
.

’ ¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨¨
% r´1
αi “ 0, i P t1, ¨ ¨ ¨ sr´1 u
Así pues, α1r v1r ` α2r v2r ` ¨ ¨ ¨ ` αsrr vsrr “ θKn y, como Br es un sistema libre,
podemos asegurar que
αir´1 “ 0, i P t1, ¨ ¨ ¨ sr´1 u.
Por lo tanto, B “ B1 Y ¨ ¨ ¨ Y Br es un sistema libre. \
[

Teniendo en cuenta los resultados anteriores podemos enunciar un teorema que


da un criterio de diagonalización en función de las mutiplicidades algebraicas y
geométricas de los autovalores.

Teorema 3.2.6 Para toda matriz A P Mnˆn pKq las condiciones siguientes son equi-
valentes:

1) El polinomio característico de A se descompone como


pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr
y mgpλi q “ αi “ mapλi q.
2) La matriz A es diagonalizable, esto es, existen dos matrices P , D P
Mnˆn pKq tales que P es inversible, D es diagonal y
P ´1 AP “ D.
132 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Demostración. Supongamos que A es diagonalizable y


¨ ˛
λ1 0 ¨ ¨ ¨ 0
˚ 0 λ2 ¨ ¨ ¨ 0 ‹
D“˚ . .. . . .. ‹
˚ ‹
˝ .. . . . ‚
0 0 ¨ ¨ ¨ λn

la matriz diagonal a la que es semejante. Entonces

pA pxq “ pD pxq “ pλ1 ´ xq ¨ ¨ ¨ pλn ´ xq.

Si en el anterior polinomio agrupamos los factores que se repiten, obtenemos que

pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr

con α1 ` ¨ ¨ ¨ ` αr “ n. Además, si P es la matriz tal que P ´1 AP “ D, para


un autovalor λi existen αi columnas de P , tPi1 , ¨ ¨ ¨ , Piαi u tales que APi1 “
λi Pi1 , ¨ ¨ ¨ , APiαi “ λi Piαi , en particular, Pik P V pλi q, para cualquier k “
1, . . . , αi , con i “ 1, . . . , r. Como está formado por columnas de una matriz
inversible, el sistema tPi1 , ¨ ¨ ¨ , Piαi u es libre, por lo tanto, mgpλi q ě αi y, al ser
la multiplicidad geométrica inferior a la algebraica, se tiene que αi ě mgpλi q ě αi .
Por lo tanto, mgpλi q “ mapλi q.

Por otro lado, supongamos que el polinomio característico de A se descompone


como
pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr
y mgpλi q “ αi “ mapλi q. Si tenemos que Bi es una base de V pλi q, el sistema
B “ B1 Y ¨ ¨ ¨ Y Br es libre y tiene

mgpλ1 q ` ¨ ¨ ¨ ` mgpλr q “ mapλ1 q ` ¨ ¨ ¨ ` mapλr q “ n

vectores. Así pues, es una base de Kn . Por lo tanto, tenemos una base de Kn
formada por autovectores y, por lo visto al principio de la sección, A es diagona-
lizable. \
[

Corolario 3.2.7 Toda matriz A P Mnˆn pKq con n autovalores distintos es diagona-
lizable.
3.2. MATRICES DIAGONALIZABLES 133

Demostración. Si A tiene n autovalores distintos λ1 , ¨ ¨ ¨ , λn , el polinomio


característico es pA pxq “ pλ1 ´ xq ¨ ¨ ¨ pλn ´ xq y αi “ 1 para todo i. Entonces
mgpλi q “ 1 “ mapλi q y, aplicando el resultado anterior, podemos afirmar que la
matriz A es diagonalizable. \
[

Ejemplos 3.2.8 1. Dada la matriz


¨ ˛
0 ´1 ´2
A“˝ 0 0 2 ‚,
1 1 1
considerada en el primer ejemplo de 3.1.5, se tiene que no es diagonalizable
como matriz real ya que pA pxq “ px ` 1qpx ´ p1 ´ iqqpx ´ p1 ` iqq. Como
matriz compleja el espectro de A viene dado por
SppAq “ t´1, 1 ´ i, 1 ` iu
y, además,
map´1q “ map1 ´ iq “ map1 ` iq “ 1.
Por lo tanto, A es diagonalizable como matriz de coeficientes complejos.
La matriz P tal que
¨ ˛
´1 0 0
P ´1 AP “ ˝ 0 1 ´ i 0 ‚
0 0 1`i
está dada por ¨ ˛
0 ´1 ´ 2i ´1 ` 2i
P “ ˝ ´2 1`i 1´i ‚
1 1 1
donde
¨ ˛ ¨ ˛ ¨ ˛
0 ´1 ´ 2i ´1 ` 2i
V p´1q “ă ˝ ´2 ‚ ą, V p1´iq “ă ˝ 1 ` i ‚ ą, V p1`iq “ă ˝ 1 ´ i ‚ ą .
1 1 1

2. Sea la matriz ¨ ˛
2 0 0 0
˚ 0 1 1 ´1 ‹
A“˚
˝ 0
‹.
´1 2 ´1 ‚
0 0 ´1 2
134 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Su polinomio característico es

pA pxq “ detpA ´ xI4 q “


ˇ ˇ
ˇ 2´x 0 0 0 ˇˇ ˇ ˇ
ˇ ˇ 1´x 1 ´1 ˇˇ
ˇ 0 1´x 1 ´1 ˇ ˇ ˇ
ˇ
ˇ 0 “ p2 ´ xq ˇˇ ´1 2´x ´1 ˇˇ “
´1 2 ´ x ´1 ˇˇ ˇ 0
ˇ
ˇ 0 ´1 2´x ˇ
0 ´1 2´x ˇ
ˇ ˇ ˇ ˇ
ˇ 2´x 1 ´1 ˇˇ ˇ 2´x 1 ´1 ˇˇ
ˇ ˇ
p2 ´ xq ˇˇ 0 2´x ´1 ˇˇ “ p2 ´ xq ˇˇ 0 2´x ´1 ˇˇ
ˇ x´2 ´1 2´x ˇ ˇ 0 0 1´x ˇ
“ p2 ´ xq3 p1 ´ xq.

Así, SppAq “ t1, 2u y map1q “ 1, map2q “ 3.

En este caso se tiene que


¨ ˛
0 0 0 0
˚ 0 ´1 1 ´1 ‹
mgp2q “ dimR pV p2qq “ 4´rangpA´2I4 q “ 4´rang ˚
˝ 0
‹“
´1 0 ´1 ‚
0 0 ´1 0

4 ´ 2 “ 2 ă 3 “ map2q
y A no es diagonalizable (ni como matriz real, ni como matriz compleja).

3. Tomemos la matriz ¨ ˛
1 1 1 1
˚ 1 1 1 1 ‹
A“˚
˝ 1
‹.
1 1 1 ‚
1 1 1 1
Su polinomio característico es

pA pxq “ detpA ´ xI4 q “


ˇ ˇ ˇ ˇ
ˇ 1´x 1 1 1 ˇˇ ˇˇ 4 ´ x 1 1 1 ˇ
ˇ ˇ
ˇ 1 1´x 1 1 ˇˇ ˇˇ 4 ´ x 1 ´ x 1 1 ˇ
ˇ
ˇ 1 “ ˇ“
ˇ 1 1´x 1 ˇˇ ˇˇ 4 ´ x 1 1´x 1 ˇ
ˇ
ˇ 1 1 1 1´x ˇ ˇ 4´x 1 1 1´x ˇ
3.2. MATRICES DIAGONALIZABLES 135
ˇ ˇ
ˇ 4´x 1 1 1 ˇ
ˇ ˇ
ˇ 0 ´x 0 0 ˇ
ˇ ˇ “ ´p4 ´ xqx3 .
ˇ 0 0 ´x 0 ˇ
ˇ ˇ
ˇ 0 0 0 ´x ˇ

Así, SppAq “ t0, 4u y map4q “ 1, map0q “ 3.


En este caso se tiene que

mgp0q “ dimR pV p0qq “ 4´rangpA´0I4 q “ 4´rangpAq “ 4´1 “ 3 “ map0q

y, como mgp4q “ map4q “ 1, A es diagonalizable como matriz real. Esto


quiere decir que existe una matriz inversible P P M4ˆ4 pRq tal que
¨ ˛
0 0 0 0
˚ 0 0 0 0 ‹
P ´1 AP “ ˚
˝ 0 0 0 0 ‚.

0 0 0 4

La matriz P se obtiene buscando una base de R4 formada por autovectores


de A.
¨ ˛ ¨ ˛ ¨ ˛
x x 0
˚ y ‹ 4
˚ y ‹ ˚ 0 ‹
V p0q “ t˚
˝ z ‚ P R { pA ´ 0I4 q ˝ z
‹ ˚ ‹ “ ˚ ‹u “
‚ ˝ 0 ‚
t t 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 1 1 1 1 x 0
˚ y ‹ 1 1 1 1 y ‹ ˚ 0
4
˚ ‹ ˚ ‹ ˚ ‹
t˚˝ z ‚ P R { ˝ 1 1 1 1 ‚˝ z ‚ “ ˝ 0
‹ ˚ ‹˚ ‹u “

t 1 1 1 1 t 0
¨ ˛
x
˚ y ‹ 3
˝ z ‚ P R { x ` y ` z ` t “ 0u “
t˚ ‹

t
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
x 1 0 0
˚ y ‹ 4
˚ 0 ‹ ˚ 1
‹ P R { x, y, z P Ru “ă ˚
‹ ˚ 0 ‹
˝ 0 ‚, ˝ 0
‹, ˚
t˚ ‚ ˝ 1 ‚ą .
‹ ˚ ‹
˝ z ‚
´x ´ y ´ z ´1 ´1 ´1
136 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
¨ ˛ ¨ ˛ ¨ ˛
x x 0
˚ y ‹ y ‹
‹“˚ 0
4
˚ ˚ ‹
V p4q “ t˚
˝ z ‚ P R { pA ´ 4I4 q ˝
‹ ˚ ‹u “
z ‚ ˝ 0 ‚
t t 0
¨ ˛ ¨ ˛¨ ˛ ¨
˛
x ´3 1 1 1 x 0
˚ y ‹ 4
˚ 1 ´3 1 1 ‹ ˚ y ‹ ˚ 0 ‹

˝ z ‚P R { ˝ 1
‹ ˚ ‹˚ ‹“˚
‚ ˝ 0 ‚u “

1 ´3 1 ‚˝ z
t 1 1 1 ´3 t 0
¨ ˛
x
˚ y ‹ 4
˝ z ‚ P R { x “ y “ z “ tu “
t˚ ‹

t
¨ ˛ ¨ ˛
x 1
˚ x ‹ 4
˚ 1 ‹
˝ x ‚ P R { x P Ru “ă ˝
t˚ ‹ ˚ ‹ą.
1 ‚
x 1

Así pues,
¨ ˛
1 0 0 1
˚ 0 1 0 1 ‹
P “˚
˝ 0
‹.
0 1 1 ‚
´1 ´1 ´1 1

Nota 3.2.9 Supongamos que A P Mnˆn pKq es diagonalizable y que


¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ λn

es la matriz diagonal a la que es semejante. Entonces, si P es la matriz inversible


tal que P ´1 AP “ D, se tiene que A “ P DP ´1 y

n´2q
An “ P DP ´1 P DP ´1 ¨ ¨ ¨ P DP ´1 P DP ´1 “ P Dn P ´1
3.3. POLINOMIOS ANULADORES. TEOREMA DE CAYLEY-HAMILTON137

donde ¨ ˛
λn1 0 ¨¨¨ 0
˚ 0 λn2 ¨¨¨ 0 ‹
Dn “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λnn
Así pues, SppAn q “ tλn1 , ¨ ¨ ¨ , λnr u y V pλi q “ V pλni q.

Por otro lado, es importante resaltar que, si A es diagonalizable e inversible, su


inversa también es diagonalizable ya que
A´1 “ P D´1 P ´1
donde ¨ ˛
λ´1
1 0 ¨¨¨ 0
˚ 0 λ´1
2 ¨¨¨ 0 ‹
D´1 “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λ´1
n

3.3. Polinomios anuladores. Teorema de Cayley-


Hamilton

Definición 3.3.1 Sea ppxq “ a0 `a1 x`¨ ¨ ¨`an´1 xn´1 `an xn un polinomio de grado
n con coeficientes en K. Dada A P Mnˆn pKq se define la matriz ppAq como:
ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An .

Nota 3.3.2 Supongamos que λ P SppAq y que v P Kn es un autovector asociado a λ.


Se tiene que
Ar v “ Ar´1 λv “ λAr´1 v “ ¨ ¨ ¨ “ λr v
y, como consecuencia,
ppAqv “ pa0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An qv
“ a0 In v ` a1 Av ` ¨ ¨ ¨ ` an´1 An´1 v ` an An v
“ a0 v ` a1 λv ` ¨ ¨ ¨ ` an´1 λn´1 v ` an λn v
“ pa0 v ` `a1 λ ` ¨ ¨ ¨ ` an´1 λn´1 ` an λn qv
“ ppλqv.
138 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Por lo tanto, si λ P SppAq, obtenemos que ppλq P SppppAqq.

Nota 3.3.3 Supongamos que A P Mnˆn pKq es diagonalizable y


¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ λn

la matriz diagonal a la que es semejante. Sea P la matriz inversible tal que


P ´1 AP “ D y, equivalentemente, que A “ P DP ´1 . Por lo visto en el apartado
de diagonalización sabemos que

Ar “ P Dr P ´1

donde ¨ ˛
λr1 0 ¨¨¨ 0
˚ 0 λr2 ¨¨¨ 0 ‹
Dr “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ λrn

Sea ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn un polinomio de grado n con


coeficientes en K. Entonces,

ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An


“ a0 In ` a1 P DP ´1 ` ¨ ¨ ¨ ` an´1 P Dn´1 P ´1 ` an P Dn P ´1
“ a0 P P ´1 ` a1 P DP ´1 ` ¨ ¨ ¨ ` an´1 P Dn´1 P ´1 ` an P Dn P ´1
“ P pa0 In ` a1 D ` ¨ ¨ ¨ ` an´1 Dn´1 ` an Dn qP ´1
“ P ppDqP ´1 ,

de donde: ¨ ˛
ppλ1 q 0 ¨¨¨ 0
˚ 0 ppλ2 q ¨¨¨ 0 ‹
‹ ´1
ppAq “ P ˚ .. .. .. .. ‹P .
˚
˝ . . . . ‚
0 0 ¨¨¨ ppλn q

Por lo tanto, ppAq también es diagonalizable y V pλi q “ V pppλi qq.


3.3. POLINOMIOS ANULADORES. TEOREMA DE CAYLEY-HAMILTON139

Definición 3.3.4 Dada A P Mnˆn pKq, se dice que un polinomio

ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn ,

con coeficientes en K, es un polinomio anulador de A, si

ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An “ Θn,n .

Nota 3.3.5 Hemos visto que, si λ P SppAq, se tiene que ppλq P SppppAqq para todo
polinomio ppxq con coeficientes en K. Por lo tanto, si ppxq es un polinomio
anulador, se tiene que ppλq “ 0 y, lo que es lo mismo, λ es raíz de cualquier
polinomio anulador de A.

Nota 3.3.6 Supongamos que A P Mnˆn pKq y que

ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn

es un polinomio anulador de A. Entonces,

ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An “ Θn,n ô

a0 In ` pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 qA “ Θn,n .


Si a0 ‰ 0, la última igualdad se puede escribir como:

´a0 In “ pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 qA ô

1
pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 qA “ In .
´a0
Esto es equivalente a decir que, si a0 ‰ 0, la matriz A es inversible y su inversa
está dada por
1
A´1 “ pa1 In ` ¨ ¨ ¨ ` an´1 An´2 ` an An´1 q.
´a0

Nota 3.3.7 Debemos hacer notar que si A es una matriz singular, entonces 0 P SppAq,
por lo tanto, pp0q “ a0 “ 0, de donde deducimos que todos los polinomios
anuladores asociados a matrices singulares tienen el coeficiente a0 “ 0.
140 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Nota 3.3.8 Supongamos que A y B P Mnˆn pKq son matrices semejantes y que
P P Mnˆn pKq es la matriz inversible tal que B “ P ´1 AP . Entonces, para todo
polinomio
ppxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 ` an xn
de grado n con coeficientes en K se tiene que
ppAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 ` an An
“ a0 In ` a1 P BP ´1 ` ¨ ¨ ¨ ` an´1 P B n´1 P ´1 ` an P B n P ´1
“ a0 P P ´1 ` a1 P BP ´1 ` ¨ ¨ ¨ ` an´1 P B n´1 P ´1 ` an P Dn P ´1
“ P pa0 In ` a1 B ` ¨ ¨ ¨ ` an´1 B n´1 ` an B n qP ´1
“ P ppBqP ´1 .
Por lo tanto, ppxq es un polinomio anulador para A, si, y sólo si, lo es para B.

El siguiente teorema nos indica como obtener polinomios anuladores.

Teorema 3.3.9 (Teorema de Cayley-Hamilton) Sea A P Mnˆn pKq y suponga-


mos que el polinomio característico de A se descompone como
pA pxq “ pλ1 ´ xq ¨ ¨ ¨ pλn ´ xq
donde los λi P K, i P t1, ¨ ¨ ¨ , nu son escalares no necesariamente distintos.
Bajo estas condiciones se tiene que el polinomio característico es un polinomio
anulador para A.

Demostración. Gracias al Teorema 3.1.14 y a la nota 3.3.8 es suficiente probar


el resultado para matrices triangulares superiores.

La demostración la haremos por inducción en el orden de A. Para n “ 1 la


propiedad es evidente. Supongámosla cierta para n ´ 1 y probemósla para n.

Sea A una matriz cuadrada triangular superior de orden n que escribiremos


como ¨ ˛
λ1 | u
˚ ´ | ´´´ ‹
˚ ‹
A“˚ 0 |
˚ ‹
˚ ..


˝ . | A 1

0 |
3.3. POLINOMIOS ANULADORES. TEOREMA DE CAYLEY-HAMILTON141

donde A1 una matriz cuadrada triangular superior de orden n ´ 1. Para la matriz


A se tiene que
pA pxq “ pλ1 ´ xqpA1 pxq.
Entonces,
pA pAq “ pλ1 In ´ AqpA1 pAq “
¨ ˛¨ ˛
0 | ´u pA1 pλ1 q | u1
˚
˚ ´ | ´´´ ‹
‹˚
˚ ´ | ´´´ ‹

˚ 0 | ‹˚ 0 | ‹.

.. ..
˚ ‹˚
˚ ‹˚ ‹
˝ . | λ1 In´1 ´ A1 ‚˝ . | pA1 pA1 q ‚
0 | 0 |
Como por hipótesis de inducción pA1 pA1 q “ Θn´1,n´1 obtenemos
¨ ˛¨ ˛
0 | ´u pA1 pλ1 q | u1
˚ ´ | ´´´ ‹˚ ´ | ´´´ ‹
˚ ‹˚ ‹
pA pAq “ ˚ 0 | 0 | ‹ “ Θn,n
˚ ‹ ˚ ‹
˚ .. ..
‹˚
‹˚ ‹
˝ . | λ1 In´1 ´ A1 ‚˝ . | Θn´1,n´1 ‚
0 | 0 |
la prueba queda finalizada. \
[

Como consecuencia del Teorema Fundamental del Álgebra se tiene el siguiente


corolario.

Corolario 3.3.10 Para toda matriz A P Mnˆn pCq su polinomio característico es un


polinomio anulador.

Ejemplo 3.3.11 Dada la matriz


¨ ˛
1 ´2 1
A“˝ 0 ´1 2 ‚,
2 0 3

se tiene que
ˇ ˇ
ˇ 1´x ´2 1 ˇ
ˇ ˇ
pA pxq “ ˇˇ 0 ´1 ´ x 2 ˇ “ ´x3 ´ 3x2 ` 9x ´ 3.
ˇ
ˇ 2 0 3´x ˇ
142 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

Como el coeficiente de grado cero de pA pxq es no nulo, obtenemos que la matriz


es inversible. Su inversa se puede calcular, utilizando que pA pxq es un polinomio
anulador para A, de la siguiente forma:

Θ3,3 “ pA pAq “ ´A3 ´ 3A2 ` 9A ´ 3I3 ô

´A3 ´ 3A2 ` 9A “ 3I3 ô


1 1 1
´ pA2 ´ 3A ` 9I3 qA “ I3 ô A´1 “ ´ pA2 ´ 3A ` 9I3 q “ ´ A2 ` A ´ 3I3 .
3 3 3

3.4. Funciones de matrices.

Aunque la teoría de funciones de matrices se debe plantear para funciones de


variable compleja, dado que el alumno no tiene estos conocimientos, en este
apartado trataremos solamente el caso de funciones reales de variable real.

Definición 3.4.1 Sean A P Mnˆn pRq y f : I Ă R Ñ R una función. Supongamos


que
pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr
con λi P R, i P t1, ¨ ¨ ¨ , ru, y mapλi q “ αi . Diremos que f está definida sobre el
espectro de A, si para cada λi existen

f pλi q, f 1 pλi q, ¨ ¨ ¨ , f pαi ´1q pλi q.

Si f está definida sobre el espectro de A, con

Vf,A “ tf k pλi q, { i P t1, ¨ ¨ ¨ , ru, k P t1, ¨ ¨ ¨ , αi ´ 1uu

denotaremos el conjunto de los valores de f sobre el espectro de A.

Nota 3.4.2 Supongamos que nos encontramos en las condiciones de la definición


anterior. Siempre es posible encontrar un único polinomio

rpxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1

de grado menor que n tal que

Vf,A “ Vr,A .
3.4. FUNCIONES DE MATRICES. 143

Para encontrar rpxq no tenemos más que resolver el sistema de ecuaciones lineales

f k pλi q “ rk pλi q, { i P t1, ¨ ¨ ¨ , ru, k P t1, ¨ ¨ ¨ , αi ´ 1u

cuyas incógnitas serán los coeficientes ak del polinomio rpxq.

Definición 3.4.3 Sean A P Mnˆn pRq y f : I Ă R Ñ R una función. Supongamos


que
pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr
con λi P R, i P t1, ¨ ¨ ¨ , ru, y mapλi q “ αi .

Si f está definida sobre el espectro de A y rpxq “ a0 ` a1 x ` ¨ ¨ ¨ ` an´1 xn´1 es


el polinomio tal que Vf,A “ Vr,A , se define f pAq como

f pAq “ a0 In ` a1 A ` ¨ ¨ ¨ ` an´1 An´1 .

Nota 3.4.4 De todas las funciones posibles que podemos definir sobre una matriz A,
es particularmente importante la exponencial de A debido a que en la teoría de
ecuaciones diferenciales lineales es necesario calcular etA , siendo t un parámetro
real. Si definimos la función f : R Ñ R como f pxq “ etx , observamos que f
y todas sus derivadas sucesivas están definidas para cualquier número real y
gracias a esto podemos definir f pAq “ etA para toda A P Mnˆn pRq tal que

pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr

con λi P R, i P t1, ¨ ¨ ¨ , ru, y mapλi q “ αi .

Es interesante resaltar que eΘn,n “ In y que la matriz etA es siempre inversible


siendo su inversa petA q´1 “ e´tA .

Lo dicho anteriormente para la función exponencial también se tiene para otras


funciones como f pxq “ senpxq o f pxq “ cospxq ya que ellas y todas sus derivadas
sucesivas están definidas para cualquier número real. Por lo tanto, siempre
podremos calcular f pAq “ senpAq o f pAq “ cospAq para toda A P Mnˆn pRq tal
que
pA pxq “ pλ1 ´ xqα1 ¨ ¨ ¨ pλr ´ xqαr
con λi P R, i P t1, ¨ ¨ ¨ , ru, y mapλi q “ αi .
144 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

La exponencial de una matriz A P Mnˆn pRq también se puede calcular en el caso


de que aparezcan autovalores complejos sin más que aplicar el mismo método
dado para los autovalores reales, teniendo en cuenta que
ea`ib “ ea eib “ ea pcospbq ` isenpbqq.

Ejemplos 3.4.5 1. Sea la matriz


¨ ˛
0 1 0
A“˝ 0 0 1 ‚.
1 ´3 3
El polinomio característico de la matriz A esta dado por
ˇ ˇ ˇ ˇ
ˇ ´x 1 0 ˇˇ ˇˇ 1 ´ x 1 0 ˇˇ
ˇ
pA pxq “ detpA ´ xI3 q “ ˇˇ 0 ´x 1 ˇˇ “ ˇˇ 1 ´ x ´x 1 ˇˇ “
ˇ 1 ´3 3 ´ x ˇ ˇ 1 ´ x ´3 3 ´ x ˇ
ˇ ˇ
ˇ 1´x 1 0 ˇˇ ˇ ˇ
ˇ “ p1 ´ xq ˇ ´x ´ 1 1 ˇˇ
ˇ ˇ
ˇ 0 ´x ´ 1 1
ˇ
ˇ 0
ˇ ˇ ´4 3´x ˇ
´4 3´x ˇ
ˇ ˇ
ˇ ´x ´ 1 1 ˇˇ
“ p1 ´ xq ˇ
ˇ “ p1 ´ xqppx ´ 3qp1 ` xq ` 4q “ p1 ´ xq3 .
´4 3´x ˇ
Entonces, SppAq “ t1u y map1q “ 3. Si tomamos la función f pxq “ etx ,
sabemos que existe la matriz f pAq “ etA . Para calcularla veamos primero
qué valores contiene Vf,A . En este caso se tiene que
Vf,A “ tf p1q “ et , f 1 p1q “ tet , f 2 p1q “ t2 et u
y, si el polinomio interpolador es rpxq “ a0 ` a1 x ` a2 x2 , resolvemos el
sistema $
& f p1q “ et “ rp1q “ a0 ` a1 ` a2
f 1 p1q “ tet “ r1 p1q “ a1 ` 2a2
f p1q “ t2 et “ r2 p1q “ 2a2
% 2

y obtenemos que
t2 t t2
a0 “ p1 ´ t ´ qe , a1 “ pt ´ t2 qet , a2 “ et .
2 2
Por lo tanto,
t2 t t2
etA “ p1 ´ t ´ qe I3 ` pt ´ t2 qet A ` et A2 .
2 2
3.4. FUNCIONES DE MATRICES. 145

2. Tomemos la matriz
¨ ˛
1 2 1 1
˚ 0 0 1 0 ‹
A“˚
˝ 1

2 3 5 ‚
´1 ´2 ´3 ´4

y la función f pxq “ lnpxq. Veamos si existe lnpAq.


El polinomio característico de la matriz A esta dado por
ˇ ˇ
ˇ 1´x 2 1 1 ˇ
ˇ ˇ
ˇ 0 ´x 1 0 ˇ
pA pxq “ detpA ´ xI3 q “ ˇ
ˇ ˇ
ˇ 1 2 3 ´ x 5 ˇ
ˇ
ˇ ´1 ´2 ´3 ´4 ´ x ˇ
ˇ ˇ ˇ ˇ
ˇ 1´x 2 1 1 ˇˇ ˇˇ 1 ´ x 2x 1 1 ˇˇ
ˇ
ˇ 0 ´x 1 0 ˇˇ ˇˇ 0 ´x 1 0 ˇˇ
“ ˇˇ “ˇ
ˇ 1 2 3´x 5 ˇ ˇ 1 0 3´x 5 ˇˇ
ˇ
ˇ 0 0 ´x 1 ´ x ˇ ˇ 0 0 ´x 1 ´ x ˇ
ˇ ˇ
ˇ 1´x 0 3 1 ˇˇ ˇ ˇ
ˇ ˇ 1´x 3 1 ˇˇ
ˇ 0 ´x 1 0 ˇ ˇ
“ ˇˇ ˇ “ ´x ˇ 1 3´x 5 ˇˇ “
ˇ 1 0 3´x 5 ˇˇ ˇ
ˇ 0 ´x 1 ´ x ˇ
ˇ 0 0 ´x 1 ´ x ˇ
´xpp1´xq2 p3´xq´x`5xp1´xq´3p1´xqq “ ´xp1´xqpp1´xqp3´xq`5x´3q´x “
´xpp1 ´ xqpx2 ` xq ´ xq “ x4
y, por lo tanto, SppAq “ t0u siendo map0q “ 4. Como f p0q “ lnp0q no existe,
la función no está definida sobre el espectro de A y como consecuencia no
podemos calcular lnpAq.
Para la función f pxq “ etx tenemos que

Vf,A “ tf p0q “ 1, f 1 p0q “ t, f 2 p0q “ t2 , f 3 p0q “ t3 u

y, si el polinomio interpolador es rpxq “ a0 ` a1 x ` a2 x2 ` a3 x3 , resolvemos


el sistema $

’ f p0q “ 1 “ rp0q “ a0
& 1
f p0q “ t “ r1 p0q “ a1

’ f 2 p0q “ t2 “ r2 p0q “ 2a2
f p0q “ t3 “ r3 p0q “ 6a3
% 3
146 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES

y obtenemos que
t2 t3
a0 “ 1, a1 “ t, a2 “ , a3 “ .
2 6
t2 2 t3 3
Por lo tanto, rpxq “ 1 ` tx ` x ` x y, entonces
2 6
t2 2 t3 3
etA “ I4 ` tA ` A ` A .
2 6
3. Sea ˆ ˙
1 2
A“
´2 1
y la función f pxq “ etx . Veamos si existe etA .
El polinomio característico de la matriz A está dado por
ˇ ˇ
ˇ 1´x 2 ˇˇ
pA pxq “ detpA ´ xI3 q “ ˇ
ˇ “ p1 ´ xq2 ` 4 “ x2 ´ 2x ` 5
´2 1´x ˇ

y, por lo tanto, SppAq “ t1 ` 2i, 1 ´ 2iu siendo map1 ` 2iq “ map1 ´ 2iq “ 1.
En este caso tenemos raíces complejas por lo que, si

rpxq “ a0 ` a1 x

debemos considerar el sistema


"
f p1 ` 2iq “ etp1`2iq “ et ppcosp2tq ` isenp2tqq “ rp1 ` 2iq “ a0 ` a1 p1 ` 2iq
ô
f p1 ´ 2iq “ etp1´2iq “ et ppcosp2tq ´ isenp2tqq “ rp1 ´ 2iq “ a0 ` a1 p1 ´ 2iq
" "
a0 ` a1 p1 ` 2iq “ et ppcosp2tq ` isenp2tqq a0 ` a1 “ et cosp2tq
t ô ô
a0 ` a1 p1 ´ 2iq “ e ppcosp2tq ´ isenp2tqq 2a1 “ et senp2tq
1 1
a0 “ et cosp2tq ´ et senp2tq, a1 “ et senp2tq.
2 2
Por lo tanto,
1 1
rpxq “ et cosp2tq ´ et senp2tq ` et senp2tqx
2 2
y
ˆ ˙
1 1 et cosp2tq et senp2tq
etA “ pet cosp2tq´ et senp2tqqI2 ` et senp2tqA “ .
2 2 ´et senp2tq et cosp2tq
3.4. FUNCIONES DE MATRICES. 147

Nota 3.4.6 Si ¨ ˛
λ1 0 ¨¨¨ 0
˚ 0 λ2 ¨¨¨ 0 ‹
D“˚ .. .. .. ..
˚ ‹
.

˝ . . . ‚
0 0 ¨¨¨ λn
es una matriz diagonal y f es una función definida sobre el espectro de A, se
tiene que ¨ ˛
f pλ1 q 0 ¨¨¨ 0
˚ 0 f pλ 2 q ¨¨¨ 0 ‹
f pDq “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ f pλn q
Por lo tanto, si A es diagonalizable y P es la matriz inversible tal que P ´1 AP “ D
y, equivalentemente, que A “ P DP ´1 , obtenemos la igualdad
¨ ˛
f pλ1 q 0 ¨¨¨ 0
˚ 0 f pλ2 q ¨ ¨ ¨ 0 ‹
f pAq “ P f pDqP ´1 “ P ˚
‹ ´1
.. .. .. . ‹P .
˚
˝ . . . .. ‚
0 0 ¨¨¨ f pλn q

Esto implica que, cuando la matriz es diagonalizable, el cálculo de funciones de


matrices es particularmente sencillo.
148 CAPÍTULO 3. AUTOVALORES Y AUTOVECTORES
Capítulo 4

Espacios euclídeos. Formas


cuadráticas

En ciertos espacios vectoriales, tales como Rn , es posible calcular la longitud


de un vector, el ángulo formado por dos vectores e introducir una noción de
producto escalar. Esta noción es la base de este capítulo. La principal aplicación
se verá en la solución de problemas de aproximación.

4.1. Espacios vectoriales con producto escalar

Definición 4.1.1 Sea V un R-espacio vectorial. Una forma bilineal es una aplicación

f :V ˆV ÑR

verificando:

1) f pαu ` βv, wq “ αf pu, wq ` βf pv, wq @ α, β P R, u, v P V.

2) f pw, αu ` βvq “ αf pw, uq ` βf pw, vq @ α, β P R, u, v P V.

149
150CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

En otras palabras, f es bilineal, si es lineal en ambas componentes. Es por esto


que se deducen de forma trivial las siguientes propiedades:

3) f pθV , uq “ f pu, θV q “ 0 @ u P V.
n
ÿ n
ÿ n ÿ
ÿ n
4) f p αi ui , βj vj q “ αi βj f pui , vj q @ αi , βj P R, ui , vj P V, i, j P
i“1 j“1 i“1 j“1
t1, ¨ ¨ ¨ nu.

Definición 4.1.2 Sea V un R-espacio vectorial. Una forma bilineal f : V ˆ V Ñ R


se dirá simétrica si f pu, vq “ f pv, uq @ u, v P V.

Definición 4.1.3 Sea V un R-espacio vectorial. Una forma bilineal simétrica f :


V ˆ V Ñ R se dirá definida positiva, si f pu, uq ą 0 @ u P V, u ‰ θV .

Definición 4.1.4 Sea V un R-espacio vectorial. Diremos quef : V ˆ V Ñ R es un


producto escalar en V , si es una forma bilineal simétrica definida positiva.

Notación 4.1.5 La notación clásica que se utiliza para el producto escalar es la


siguiente.
f pu, vq “ă u, v ą .

A partir de ahora es la que utilizaremos. Con pV, ă ąq denotaremos al par dado


por el R-espacio vectorial V junto con el producto escalar definido sobre V y lo
llamaremos espacio vectorial euclídeo.

Nota 4.1.6 Nótese que, si en un mismo R-espacio vectorial V tenemos definidos


varios productos escalares, obtendremos diferentes ejemplos de espacios vectoriales
euclídeos.

Ejemplos 4.1.7 Consideremos los siguientes ejemplos:


4.1. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR 151

1. Sea V “ Rn . Para dos vectores u, v P V se define el producto


¨ ˛
v1 n
ă u, v ą“ ut v “ pu1 , ¨ ¨ ¨ , un q ˝ ... ‚ “
‹ ÿ
ui vi .
˚
i“1
vn

Este producto resulta ser un producto escalar llamado el producto escalar


usual del R-espacio vectorial Rn .

2. Si V “ Πn pRq y para dos polinomios en V definimos


ż1
ă ppxq, qpxq ą“ ppxqqpxqdpxq
0

tenemos un nuevo ejemplo de producto escalar.

3. En el espacio vectorial V “ Mnˆn pRq se define un producto escalar por:

ă A, B ą“ trpAB t q.

Definición 4.1.8 Sea pV, ă ąq un espacio vectorial euclídeo y sea B “ te1 , ¨ ¨ ¨ , en u


una base de V . Se llama matriz de Gram del producto escalar ă ą respecto a
la base B a la matriz GB dada por
¨ ˛
g11 g12 ¨ ¨ ¨ g1n
˚ g21 g22 ¨ ¨ ¨ g2n ‹
GB “ ˚ . .. .. .. ‹
˚ ‹
˝ .. . . . ‚
gn1 gn2 ¨ ¨ ¨ gnn

donde gi,j “ă ei , ej ą, i, j P t1, ¨ ¨ ¨ , nu.

Nota 4.1.9 La matriz definida en la definición anterior es simétrica ya que

gi,j “ă ei , ej ą“ă ej , ei ą“ gji .

Además, si
n
ÿ n
ÿ
u“ xi ei , v “ yj ej ,
i“1 i“1
152CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

se tiene que
n
ÿ n
ÿ n ÿ
ÿ n n ÿ
ÿ n
ă u, v ą“ă xi ei , yj ej ą“ xi yj ă ei , ej ą“ xi yj gij “ utB GB vB ,
i“1 i“1 i“1 j“1 i“1 j“1

siendo uB y vB los vectores de coordenadas de u y v respecto a la base B.

Ejemplo 4.1.10 Por ejemplo, si V “ Rn y ă ą es el producto escalar usual, la


matriz de Gram de ă ą respecto a la base canónica Cn “ te1 , ¨ ¨ ¨ , en u de Rn
tiene como coeficientes a
"
1 i“j
gij “ δij “
0 i‰j
y como consecuencia GCn “ In .

Ejemplo 4.1.11 Si en R4 tomásemos la base


¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 1 1
˚ 1 ‹ ˚ 1 ‹ ˚ 1
‹ , e4 “ ˚ 0 ‹u,
‹ ˚ ‹
B “ te1 “ ˚˝ 1 ‚, e2 “ ˝ 1 ‚, e3 “ ˝ 0
‹ ˚ ‹ ˚
‚ ˝ 0 ‚
1 0 0 0
y el producto escaler usual, tendríamos que
ă e1 , e1 ą“ 4 ă e1 , e2 ą“ 3 ă e1 , e3 ą“ 2 ă e1 , e4 ą“ 1
ă e2 , e1 ą“ 3 ă e2 , e2 ą“ 3 ă e2 , e3 ą“ 2 ă e2 , e4 ą“ 1
ă e3 , e1 ą“ 2 ă e3 , e2 ą“ 2 ă e3 , e3 ą“ 2 ă e3 , e4 ą“ 1
ă e4 , e1 ą“ 1 ă e4 , e2 ą“ 1 ă e4 , e3 ą“ 1 ă e1 , e4 ą“ 1
y por lo tanto ¨ ˛
4 3 2 1
˚ 3 3 2 1 ‹
GB “ ˚
˝ 2
‹.
2 2 1 ‚
1 1 1 1
Así pues, si ˛
¨ ¨ ˛
2 2
˚ 2 ‹ ˚ 1 ‹
u“˚
˝ 2 ‚, v “ ˝ 0
‹ ˚ ‹

1 0
4.1. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR 153

obtenemos que ¨ ˛
2
˚ 1 ‹
ă u, v ą“ p2, 2, 2, 1q ˚
˝ 0 ‚“ 6

0
y que
¨ ˛¨ ˛
4 3 2 1 0
t
˚ 3 3 2 1 ‹ ˚ 0 ‹
ă u, v ą“ uB GB vB “ p1, 1, 0, 0q ˚
˝ 2
‹˚ ‹ “ 6.
2 2 1 ‚˝ 1 ‚
1 1 1 1 1

Nota 4.1.12 Tal y como hemos visto en los ejemplos anteriores,


¨ ˛
4 3 2 1
˚ 3 3 2 1 ‹
GC4 “ I4 , GB “ ˚ ˝ 2 2
‹.
2 1 ‚
1 1 1 1

Así pues, si cambiamos la base, la matriz de Gram también se modifica. En


general existe una relación entre las diferentes matrices de Gram asociadas a un
mismo producto escalar. Esta relación es la siguiente: sean B “ te1 , ¨ ¨ ¨ , en u y
D “ tu1 , ¨ ¨ ¨ , un u dos bases de V y PB,D la matriz de cambio de base de B a D.
Entonces, si ă ą es el producto escalar definido en V , tenemos que @ u, v P V

uD “ PB,D uB , vD “ PB,D vB ,

utB GB vB “ă u, v ą“ utD GD vD .
Por lo tanto:
utB GB vB “ pPB,D
´1
uD qt GB PB,D
´1
vD
“ utD pPB,D
´1 t ´1
q GB PB,D vD “ utD PD,B
t
GB PD,B vD “ utD GD vD
y esto implica que
t
GD “ PD,B GB PD,B .
Si dos matrices cuadradas A y B verifican que existe una matriz P inversible
tal que P t AP “ B, se dice que son congruentes. Así pues, acabamos de probar
que las matrices de Gram de un mismo espacio vectorial euclídeo respecto a
diferentes bases son congruentes.
154CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

Ejemplo 4.1.13 Por ejemplo, si tomamos las bases de R4 dadas por


¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
1 1 1 1
˚ 0 ‹ ˚ 1 ‹ ˚ 1 ‹ ˚ 1 ‹
B “ C4 , D “ te1 “ ˚
˝ 0 ‚, e2 “ ˝ 0 ‚, e3 “ ˝ 1 ‚, e4 “ ˝
‹ ˚ ‹ ˚ ‹ ˚ ‹u,
1 ‚
0 0 0 1

se tiene que
t
GD “ PD,C4
GC4 PD,C4
¨ ˛ ¨ ˛ ¨ ˛
1 0 0 0 1 1 1 1 1 1 1 1
˚ 1 1 0 0 ‹ ˚ 0 1 1 1 ‹ ˚ 1 2 2 2 ‹
“˚ ‹ I4 ˚ ‹.
‚ ˝ 0 0 1 1 ‚“ ˝
‹ ˚
˝ 1 1 1 0 1 2 3 3 ‚
1 1 1 1 0 0 0 1 1 2 3 4

Definición 4.1.14 Sea V un R-espacio vectorial. Una norma sobre V es una aplicación

} }:V ÑR

tal que

1) @ u P V }u} ě 0. }u} “ 0 ô u “ θV .
2) }αu} “ |α|}u} @ u P V α P R.
3) }u ` v} ď }u} ` }v} @ u, v P V.

Proposición 4.1.15 Sea pV, ă ąq un espacio vectorial euclídeo. La aplicación

} }:V ÑR

dada por ?
}u} “ ` ă u, u ą
es una norma.

Demostración. Por la propia definición de } }, las pruebas de las dos primeras


condiciones de norma son triviales. Veamos como se obtiene la tercera (conocida
como desigualdad triangular o de Minkowski).
4.1. ESPACIOS VECTORIALES CON PRODUCTO ESCALAR 155

Sean u, v P V . En primer lugar probaremos la desigualdad

| ă u, v ą | ď }u}}v},

conocida como desigualdad de Schwartz. En efecto, si alguno de los dos vectores


u, v son nulos, la desigualdad anterior es trivial. Por ello podemos suponer que
los dos son no nulos. En este caso, para todo α P R, se tiene que

ă u ´ αv, u ´ αv ą ě 0.

Equivalentemente,

ă u, u ą ´2α ă u, v ą `α2 ă v, v ą ě 0.
ă u, v ą
Tomando α “ , la anterior desigualdad se convierte en
ă v, v ą

ă u, v ą2 ă u, v ą2
ă u, u ą ´2 ` ě 0.
ă v, v ą ă v, v ą
Así pues
ă u, v ą2
}u}2 ´ ě 0.
}v}2
Multiplicando la anterior desigualdad por }v}2 se tiene que

}u}2 }v}2 ´ ă u, v ą2 ě 0 ô }u}2 }v}2 ěă u, v ą2

y, lo que es lo mismo,
| ă u, v ą | ď }u}}v}.
Entonces, aplicando la desigualdad de Schwartz, para los vectores u y v obtenemos
que

}u ` v}2 “ă u ` v, u ` v ą“ă u, u ą `2 ă u, v ą ` ă v, v ą“

}u}2 ` 2 ă u, v ą `}v}2 ď }u}2 ` 2}u}}v} ` }v}2 “ p}u} ` }v}q2


y, como los dos términos de la desigualdad son positivos, se consigue la tercera
condición de norma
}u ` v} ď }u} ` }v}.
\
[
156CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

Ejemplos 4.1.16 Veamos cuáles son las normas asociadas a los productos escalares
de los ejemplos 4.1.7.

1. En el caso del producto escalar usual de Rn la norma inducida será


b
}v} “ ` v12 ` ¨ ¨ ¨ ` vn2 .

2. Si V “ Πn pRq, se tiene que


d
ż1
}ppxq} “ ` ppxq2 dpxq.
0

3. Finalmente, si V “ Mnˆn pRq


a
}A} “ ` trpAAt q.

Nota 4.1.17 La desigualdad de Schwartz indica que, si u, v son dos vectores no nulos
del espacio euclideo V , se verifica que

| ă u, v ą |
ď1
}u}}v}

y como consecuencia
ă u, v ą
´1 ď ď 1.
}u}}v}

Definición 4.1.18 Se llamarán ángulo entre los vectores u y v al unico número real
α P r0, πs de forma que
ă u, v ą
cospαq “ .
}u}}v}

Definición 4.1.19 Dado un espacio vectorial normado, definidmos la distancia entre


dos vectores u y v como
?
dpu, vq “ }u ´ v} “ ` ă u ´ v, u ´ v ą.
4.2. BASES ORTONORMALES. 157

4.2. Bases ortonormales.

Definición 4.2.1 Sea pV, ă ąq un espacio vectorial euclídeo. Se dirá que T “


tv1 , ¨ ¨ ¨ , vr u es un sistema ortogonal de vectores respecto del producto escalar
ă ą, si ă vi , vj ą“ 0 para todo i ‰ j. Si además se tiene que }vi } “ 1, para
todo i P t1, ¨ ¨ ¨ , ru, el sistema se llamará ortonormal.

Ejemplo 4.2.2 En Rn la base canónica es un ejemplo de base ortonormal para el


producto escalar usual.

Proposición 4.2.3 Sea pV, ă ąq un espacio vectorial euclídeo y sea T “ tv1 , ¨ ¨ ¨ , vr u


un sistema de vectores no nulos y ortogonal respecto del producto escalar ă ą.
Se verifica que T es libre.

Demostración. Tomemos la combinación lineal

α1 v1 ` ¨ ¨ ¨ ` αj vj ` ¨ ¨ ¨ ` αr vr “ θV .

Entonces,

0 “ ă vj , α1 v1 ` ¨ ¨ ¨ ` αj vj ` ¨ ¨ ¨ ` αr vr ą
“ α1 ă vj , v1 ą ` ¨ ¨ ¨ ` αj ă vj , vj ą ` ¨ ¨ ¨ ` αr ă vj , vr ą
“ αj ă vj , vj ą

y, como ă vj , vj ą‰ 0, se tiene que αj “ 0. Por lo tanto, el sistema es libre.

\
[

Como consecuencia de las definiciones de sistema ortogonal y de sistema orto-


normal de vectores, podemos obtener el resultado siguiente.

Proposición 4.2.4 Sea pV, ă ąq un espacio vectorial euclídeo y sea B “ te1 , ¨ ¨ ¨ , en u


una base de V . Sea GB la matriz de Gram del producto escalar ă ą respecto
de la base B. Se verifica lo siguiente.
158CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

1) La base B es un sistema ortogonal de vectores si y sólo si GB es diagonal.


2) La base B es un sistema ortonormal de vectores si y sólo si GB “ In .

Nota 4.2.5 La ventaja que tiene trabajar con bases ortonormales es que, como
GB “ In , se obtiene que

ă u, v ą“ utB vB , @u, v P V

o, dicho de otra forma, tomando coordenadas respecto a la base B el producto


escalar se obtiene como el producto escalar usual de Rn .

Es evidente que, si B “ tv1 , ¨ ¨ ¨ , vn u es una base ortogonal entonces


v1 vn
C“t ,¨¨¨ , u
}v1 } }vn }
es una base ortonormal.

Proposición 4.2.6 Sea pV, ă ąq un espacio vectorial euclídeo. La matriz de cambio


de base entre dos bases ortonormales de V es una matriz ortogonal.

Demostración. Por lo visto en 4.1.12, sebemos que, si B y D son dos bases de


V,
t
GD “ PD,B GB PD,B .
Ahora bien, si B y D son ortonormales, GB “ GD “ In y, por lo tanto,
t
PD,B PD,B “ In .

Así pues, la matriz de cambio de base PD,B es ortogonal. \


[

Nota 4.2.7 Teniendo en cuenta que las columnas o las filas de una matriz inversible Q,
cuadrada de orden n, forman una base se Rn , es trivial probar que las siguientes
afirmaciones son equivalentes:

1) La matriz Q es ortogonal.
4.2. BASES ORTONORMALES. 159

2) La matriz Qt es ortogonal.
3) Las columnas de Q forman una base ortonormal de Rn respecto al producto
escalar usual.
4) Las columnas de Qt forman una base ortonormal de Rn respecto al producto
escalar usual.

Proposición 4.2.8 Sea pV, ă ąq un espacio vectorial euclídeo y sea B “ tv1 , ¨ ¨ ¨ , vn u


una base ortogonal de V . Entonces
¨ ă v ,v ą ˛
1
˚ }v1 }2 ‹
˚
vB “ ˚ .. ‹
‹.
˚ . ‹
˝ ă vn , v ą ‚
}vn }2

Demostración. Si vB “ px1 , ¨ ¨ ¨ , xn qt , se tiene que


v “ x 1 v1 ` ¨ ¨ ¨ ` x j vj ` ¨ ¨ ¨ ` x n vn
y, por lo tanto,
ă vj , v ą “ ă vj , x1 v1 ` ¨ ¨ ¨ ` xj vj ` ¨ ¨ ¨ ` xn vn ą
“ x1 ă vj , v1 ą ` ¨ ¨ ¨ ` xj ă vj , vj ą ` ¨ ¨ ¨ ` xn ă vj , vn ą
“ xj ă vj , vj ą
“ xj }vj }2 .
ă vj , v ą
Así pues, xj “ , para todo j P t1, ¨ ¨ ¨ , nu.
}vj }2

\
[

ă vj , v ą
Nota 4.2.9 Los coeficientes xj “ dados en la anterior proposición se llaman
}vj }2
coeficientes de Fourier de v en la base ortogonal B. Si B fuese ortonormal, los
coeficientes de Fourier de v quedan como
xj “ă vj , v ą .
160CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

A continuación estudiaremos el proceso de ortonormalización de Gram-Schmidt


que permite obtener una base ortonormal a partir de una base cualquiera de un
espacio vectorial euclídeo V .

Teorema 4.2.10 (Procedimiento de ortonormalización de Gram-Schmidt)


Sea pV, ă ąq un espacio vectorial euclídeo de dimensión n y sea B “
tv1 , ¨ ¨ ¨ , vn u una base de V . Existe una base ortonormal C “ tu1 , ¨ ¨ ¨ , un u
tal que
@ i P t1, ¨ ¨ ¨ , nu ă u1 , ¨ ¨ ¨ , ui ą“ă v1 , ¨ ¨ ¨ , vi ą .

Demostración. El sistema de vectores C se calcula de la siguiente manera:


$ e1

’ e1 “ v1 , u1 “

’ }e1 }

’ e2

’ e 2 “ v 2 ´ ă v 2 , u 1 ą u1 , u2 “



’ }e 2}


’ ¨¨¨
i´1
&
ÿ ei
e i “ v i ´ ă vi , uj ą uj , ui “



’ j“1
}ei }




’ ¨ ¨ ¨
’ n´1

’ ÿ en
e v ă vi , uj ą uj , un “


’ n “ n ´
%
j“1
}e n}

Probaremos que @ i P t1, ¨ ¨ ¨ , nu ă u1 , ¨ ¨ ¨ , ui ą“ă v1 , ¨ ¨ ¨ , vi ą y que


tu1 , ¨ ¨ ¨ , ui u es un sistema ortonormal. La prueba la haremos por inducción.
Para k “ 1 es evidente. Supongamos que ă u1 , ¨ ¨ ¨ , ui´1 ą“ă v1 , ¨ ¨ ¨ , vi´1 ą
y que tu1 , ¨ ¨ ¨ , ui´1 u es un sistema ortonormal. Se tiene que probar que ă
u1 , ¨ ¨ ¨ , ui´1 , ui ą“ă v1 , ¨ ¨ ¨ , vi´1 , vi ą y que tu1 , ¨ ¨ ¨ , ui´1 , ui u es un sistema
ortonormal.

Por construcción de ei y por la hipótesis de inducción se tiene que

ui Pă u1 , ¨ ¨ ¨ , ui´1 , vi ą“ă v1 , ¨ ¨ ¨ , vi´1 , vi ą .

Por lo tanto,
ă u1 , ¨ ¨ ¨ , ui´1 , ui ą“ă v1 , ¨ ¨ ¨ , vi´1 , vi ą .
4.2. BASES ORTONORMALES. 161

Por hipótesis de inducción sabemos que tu1 , ¨ ¨ ¨ , ui´1 u es un sistema ortonormal


y, por construcción, tenemos que
i´1
vi ÿ ă vi , uj ą
ui “ ´ uj .
}ei } j“1 }ei }

Entonces, @ k ă i,
i´1
vi ÿ ă vi , uj ą
ă ui , uk ą“ă ´ uj , uk ą“
}ei } j“1 }ei }

i´1
ă vi , uk ą ÿ ă vi , uj ą
´ ă uj , uk ą “
}ei } j“1
}ei }
ă vi , uk ą ă vi , uk ą
´ ă uk , uk ą “ 0
}ei } }ei }
ya que ă uk , uk ą“ 1. \
[

Ejemplo 4.2.11 Sea U el subespacio de R4 generado por los vectores


¨ ˛ ¨ ˛ ¨ ˛
1 1 3
˚ 0 ‹ ˚ 2 ‹ ˚ 1 ‹
˝ 0 ‚, v2 “ ˝ 0 ‚, v3 “ ˝ 1 ‚.
v1 “ ˚ ‹ ˚ ‹ ˚ ‹

´1 ´1 ´1

Supongamos que en R4 consideramos el producto escalar usual y la norma


inducida por este. Si aplicamos el procedimiento de ortonormalización de Gram-
Schmidt a v1 , v2 , v3 obtendremos una base ortonormal de U . En efecto:
?1
¨ ˛ ¨ ˛
1 2
e1 1 ˚ 0 ‹ ˚ 0 ‹
e1 “ v1 , u1 “ “? ˚ ‹“˚ ‹.
}e1 } 2 ˝ 0 ‚ ˝ 0 ‚
´1 ´ ?12

?1 ?1
¨ ˛ ¨ ˛¨ ˛
1 2 2
˚ 2 ‹ ˚ 0 ‹˚ 0 ‹
e2 “ v2 ´ ă v2 , u1 ą u1 “ ˝
˚ ‹ ´ p1, 2, 0, ´1q ˝
˚ ‹˚ ‹“
0 ‚ 0 ‚˝ 0 ‚
´1 ´ ?12 ´ ?12
162CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

?1
¨ ˛ ¨ ˛ ¨ ˛
1 2 0
‹ ´ ?2 ˚
˚ 2 ‹ ˚ 0 ‹ ˚ 2 ‹
˚ ‹“˚ ‹
˝ 0 ‚ 2˝ 0 ‚ ˝ 0 ‚
´1 ´ ?12 0
¨
˛ ¨ ˛
0 0
e2 1˚ 2 ‹ ˚ 1 ‹
u2 “ “ ˚ ‹“˚ ‹.
}e2 } 2˝ 0 ‚ ˝ 0 ‚
0 0

e3 “ v3 ´ ă v3 , u1 ą u1 ´ ă v3 , u2 ą u2 “

?1 ?1
¨ ˛ ¨ ˛¨ ˛ ¨
˛¨ ˛
3 2 2 0 0
˚ 1 ‹ ˚ 0 ‹˚ 0 ‹ ˚ 1 ‹˚ 1 ‹
˝ 1 ‚´ p3, 1, 1, ´1q ˝
˚ ‹ ˚ ‹˚ ‹ ´ p3, 1, 1, ´1q ˚ ‹˚ ‹“
0 ‚˝ 0 ‚ ˝ 0 ‚˝ 0 ‚
´1 ´ ?12 ´ ?12 0 0

?1
¨ ˛ ¨ ˛ ¨
˛ ¨ ˛
3 2 0 1
‹ ´ ?4 ˚
˚ 1 ‹ ˚ 0 ‹ ˚ 1 ‹ ˚ 0 ‹
‹´˚
‚ ˝ 0 ‚“ ˝ 1
˚ ‹ ˚ ‹
˝ 1 ‚ 2 ˝ 0 ‚
´1 ´ ?12 0 1

˛ ¨
¨ ?1
˛
1 3
e3 1 ˚ 0 ‹ ˚ 0 ‹
u3 “ ‹“˚ ‹.

“? ˚ ?1
3˝ 1 ‚ ˝
˚
}e3 } 3 ‚
1 ?1
3

Así pues, la base ortonormal de U es


¨ ˛
?1 ?1
¨ ˛ ˛ ¨
2 0 3
˚ 0 ‹
‹ , u2 “ ˚ 1 ‹ , u3 “ ˚
˚ ‹ ˚ 0 ‹
C “ tu1 “ ˚

?1 ‹
u.
0 ‚ ˝ 0 ‚
˝ ˚
˝ 3 ‚
´ ?12 0 ?1
3

Nota 4.2.12 Sea pV, ă ąq un espacio vectorial euclídeo y sea T “ tv1 , ¨ ¨ ¨ , vr´1 u un
sistema libre de vectores de V . Si aplicamos el procedimiento de ortonormalización
de Gram-Schmidt al sistema de vectores T , obtenemos un sistema ortonormal
4.2. BASES ORTONORMALES. 163

C “ tu1 , ¨ ¨ ¨ , ur´1 u de vectores de V tal que ă T ą“ă C ą y, además, se tienen


las igualdades:
$

’ v1 “ }e1 }u1



’ v2 “ă v2 , u1 ą u1 ` }e1 }u2



’ ¨¨¨

’ i´1
ÿ
&
vi “ ă vi , uj ą uj ` }ei }ui

’ j“1



’ ¨¨¨


’ r´2
ÿ
% vr´1 “ ă vi , uj ą uj ` }er´1 }ur´1



j“1

Supongamos que tomamos vr Pă T ą“ă C ą. Al aplicar el procedimiento de


ortonormalización de Gram-Schmidt al sistema de vectores T Ytvr u obtendríamos
el sistema C y
r´1
ÿ
e r “ vr ´ ă vi , uj ą uj “ θV
j“1

ya que, si vr Pă C ą, vr “ α1 u1 ` ¨ ¨ ¨ ` αr´1 ur´1 con

αj “ă vi , uj ą, j P t1, ¨ ¨ ¨ , r ´ 1u.

Así pues, cuando aplicamos el procedimiento de ortonormalización de Gram-


Schmidt a un sistema donde existen vectores que son combinación lineal de otros
vectores del sistema, para cada uno de estos vectores, obtenemos el vector θV .

Sea A P Mmˆn pRq. Supongamos que sus columnas son


` ˘
v1 | v2 | ¨ ¨ ¨ | vn

y que rangpAq “ r ď n. Tomemos el espacio euclídeo pRn , ă ąq con el


producto escalar usual. Si aplicamos el procedimiento de ortonormalización de
Gram-Schmidt al sistema de vectores T “ tv1 , ¨ ¨ ¨ , vn u formado por las columnas
de A, obtenemos los mismos vectores no nulos que forman el sistema ortonormal
C “ tuk1 , ¨ ¨ ¨ , ukr u que resultaría al aplicar el mismo procedimiento de ortonor-
malización al sistema T “ tvk1 , ¨ ¨ ¨ , vkr u formado unicamente por las r primeras
columnas independientes de A.
164CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

Así tenemos que, cuando vki P T ,


i´1
ÿ
vki “ ă vki , ukj ą ukj ` }eki }uki , eki ‰ 0
j“1

y, si vki R T , eki “ 0, siendo además cierta la igualdad


ÿ
vki “ ă vki , ukj ą ukj .
kjăki

Por lo tanto, dada la matriz Q P Mmˆr pRq cuyas columnas son


` ˘
uk1 | uk2 | ¨ ¨ ¨ | ukr ,

gracias a que el sistema C “ tuk1 , ¨ ¨ ¨ , ukr u es ortonormal, tenemos que Qt Q “ Ir


y, además,
A “ QR
siendo R “ Qt A “ prlj q P Mrˆn pRq una matriz tal que rlj “ 0, si l ą j.

Finalmente, es evidente que rangpAq “ rangpQq “ rangpRq “ r.

Como consecuencia de la observación anterior tenemos el siguiente resultado:

Teorema 4.2.13 ( Factorización QR) Sea A P Mmˆn pRq con rango r. Existen dos
matrices Q P Mmˆr pRq, R “ prlj q P Mrˆn pRq, tales que A “ QR, Qt Q “ Ir y
rlj “ 0 si l ą j.

Nota 4.2.14 Para realizar el cálculo efectivo de la factorización QR de una matriz A P


Mmˆn pRq con rango r y columnas tv1 , ¨ ¨ ¨ , vn u, podemos seguir los siguientes
pasos:

1. Aplicamos el procedimiento de ortonormalización de Gram-Schmidt al


sistema de vectores T “ tv1 , ¨ ¨ ¨ , vn u formado por las columnas de A en
el espacio vectorial euclídeo n-dimensional pRn , ă ąq con el producto
escalar usual. Si alguno de los vectores ei que resultan en los calculos es
nulo, se elimina y no se tiene en cuenta en el proceso.
4.2. BASES ORTONORMALES. 165

2. Tomamos Q P Mmˆr pRq cuyas columnas son los vectores del sistema
ortonormal obtenido en el punto anterior.

3. Se calcula R como R “ Qt A.

También podemos proceder partiendo del sistema de vectores dado por las
primeras r columnas linealmente independientes de la matriz A. La matriz
Q P Mmˆr pRq es aquella cuyas columnas son los vectores del sistema ortonormal
obtenido al aplicar el procedimiento de ortonormalización de Gram-Schmidt a
este sistema. Finalmente, R “ Qt A.

Ejemplos 4.2.15 Consideremos los siguientes ejemplos:

1. Sea la matriz A cuyas columnas son los vectores del sistema considerado
en el ejemplo 4.2.11. Entonces
¨ ˛
1 1 3
˚ 0 2 1 ‹
A“˚ ‹ P M4ˆ3 pRq.
˝ 0 0 1 ‚
´1 ´1 ´1

Supongamos que en R4 consideramos el producto escalar usual. Si aplicamos


el procedimiento de ortonormalización de Gram-Schmidt a las columnas
de A, obtenemos una sistema ortonormal
¨ 1 ˛
?1
¨ ˛ ¨ ˛ ?
2 0 3
0 ‹ ˚ 1 ‹ ˚ 0 ‹
˚ ˚ ‹
C “ tu1 “ ˝
˚ ‹ , u 2 “ ˚ ‹ , u 3 “ 1 ‹u
0 ‚ ˝ 0 ‚ ˝ ?3 ‚
˚
1
´ ?2 0 ?1
3

y, por lo tanto, A “ QR donde


¨ 1 ˛
? 0 ?1
2 3
˚ 0 1 0 ‹
Q“˚ P M4ˆ3 pRq
˚ ‹
0 0 ?1 ‹
˝ 3 ‚
´ ?12 0 ?1
3
166CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

y ¨ ˛
¨
?1 0 0 ´ ?12
˛ 1 1 3
2 ˚ 0 2 1 ‹
R “ Qt A “ ˝ 0 1 0 0 ‚˚ ‹“
?1 1 1
˝ 0 0 1 ‚
3
0 ?
3
?
3 ´1 ´1 ´1
?2 ?2 ?4
¨ ˛
2 2 2
˝ 0 2 1 ‚ P M3ˆ3 pRq.
0 0 ?3
3
Por lo tanto, rangpAq “ rangpQq “ rangpRq “ 3.
2. Si, por ejemplo, ¨ ˛
1 1 2
A“˝ 1 0 1 ‚ P M4ˆ3 pRq,
0 1 1
considerando en R4 el producto escalar usual, al aplicar el procedimiento
de ortonormalización de Gram-Schmidt a las columnas de A, obtenemos lo
siguiente:
˛ ¨ ?2 ˛¨
1 ?
e1 2 ˝ ‚ ˚ ?22 ‹
e1 “ v1 , u1 “ “ 1 “˝ ‚.
}e1 } 2 2
0 0
¨ ˛ ¨ ? ˛¨ ? ˛
2 2
1
˚ ?22 ‹ ˚ ?22 ‹
e2 “ v2 ´ ă v2 , u1 ą u1 “ ˝ 0 ´ p1, 0, 1q ˝
‚ ‚˝ 2 ‚ “
2
1 0 0
¨ ˛ ¨ ˛ ¨ 1 ˛
1 1
˝ 0 ‚´ 1 ˝ 1 ‚ “ ˝ ´ 1 ‚
2

2 2
1 0 1
¨ ˛ ¨ ?6 ˛
? 1
e2 6˝ ˚ ?6 ‹
u2 “ “ ´1 ‚ “ ˝ ´ 66 ‚.
}e2 } 6 ?
2 6
3
e3 “ v3 ´ ă v3 , u1 ą u1 ´ ă v3 , u2 ą u2 “
¨ ? ˛¨ ? ˛
¨ ˛ ˜ ? ¸˜ ? ¸ 6 6
2 2 2 ?6 ‹ ˚ ?6 ‹
˝ 1 ‚´ p2, 1, 1q ?2 ?2 ´ p2, 1, 1q ˝ ´ 6 ‚˝ ´ 66 ‚ “
6
˚
2 2 ? ?
1 2 2 6 6
3 3
4.2. BASES ORTONORMALES. 167
¨ ˛ ¨ ˛ ¨ ˛ ¨ ˛
2 1 1 0
3 1
˝ 1 ‚´ ? ˝ 1 ‚´ ? ˝ ´1 ‚ “ ˝ 0 ‚
1 2 0 2 2 0
Así pues, A “ QR, donde
¨ ? ? ˛
2 6
?2 ?6
2
Q“˝ ´ ?66 ‚ P M3ˆ2 pRq
˚ ‹
2
6
0 3

y
? ? ¸¨ ˛
1 1 2
˜
2 2
0
R “ Qt A “ ?2
6
2? ? ˝ 1 0 1 ‚
6 ´ 66 3
6
0 0 1
˜ ? ? ? ¸
2 3 2
2 ?2 ?2
“ 6 6
P M2ˆ3 pRq.
0 2 2

Por lo tanto, rangpAq “ rangpQq “ rangpRq “ 2.

Nota 4.2.16 Aplicando la factorización QR tenemos que, si A P Mmˆn pRq con rango
n, Q P Mmˆn pRq y R “ Qt A P Mnˆn pRq. Como el rangpRq “ n, obtenemos
que R es inversible. Por totro lado, si A P Mnˆn pRq con rango n (A es inversible),
Q P Mnˆn pRq es tal que Qt Q “ QQt “ In y, por lo tanto, Q resulta una matriz
ortogonal. Además R “ Qt A P Mnˆn pRq. Como el rangpRq “ n, obtenemos
que R es inversible.

En la parte final de este apartado veremos que la factorización QR aporta un


método que permitirá resolver problemas de aproximación en el sentido de los
mínimos cuadrados.

Sea A P Mmˆn pRq y b P Rm . Supongamos que tenemos el sistema Ax “ b. Como


sabemos el anterior sistema es incompatible, si b no pertenece al subespacio de
Rn dado por
ImpfA q “ tAz { z P Rm u.
A continuación veremos que, a pesar de ser un sistema incompatible, podemos
encontrar una solución aproximada óptima o, lo que es lo mismo, un vector
z P Rm tal que la distancia entre Az y b sea mínima.
168CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

Definición 4.2.17 Sea U un subespacio del espacio vectorial euclídeo pRm , ă ąq


con el producto escalar usual. Diremos que v P U es la mejor aproximación de
un vector b P Rm por vectores de U en el sentido de los mínimos cuadrados, si

}v ´ b} “ mint}u ´ b}, u P U u.

Definición 4.2.18 Sea A P Mmˆn pRq y b P Rm . Supongamos que tenemos el sistema


de ecuaciones lineales Ax “ b. Diremos que el vector z P Rm es una solución
mínimo-cuadrática del sistema Ax “ b, si Az es la mejor aproximación de b P Rm
en el sentido de los mínimos cuadrados por vectores de U “ ImpfA q.

Nota 4.2.19 El nombre de mínimos cuadrados se debe a que minimizar }v ´ b} es


equivalente a minimizar
m
ÿ
}v ´ b}2 “ pvi ´ bi q2
i“1

siendo vi y bi las componentes de los vectores de coordenadas de v y b respecto


de la base canónica de Rm .

Teorema 4.2.20 Sea U un subespacio del espacio vectorial euclídeo pRn , ă ąq con
el producto escalar usual. Un vector v P U es la mejor aproximación de b P Rn
por vectores de U , si ă v ´ b, u ą“ 0, @u P U (v ´ b es ortogonal a todos los
vectores de U ).

Demostración. Sea v P U tal que ă v ´ b, u ą“ 0, @u P U . Entonces, dado


u P U,

}u ´ b}2 “ }pu ´ vq ` pv ´ bq}2 “ă pu ´ vq ` pv ´ bq, pu ´ vq ` pv ´ bq ą“

}u ´ v}2 ` }v ´ b}2 ` 2 ă u ´ v, v ´ b ą“
}u ´ v}2 ` }v ´ b}2
ya que, como u ´ v P U , se tiene que ă u ´ v, pv ´ bq ą“ 0.

Como }u ´ v}2 ě 0, deducimos que }u ´ b}2 ě }v ´ b}2 para todo u P U y, por


lo tanto, }v ´ b} “ mint}u ´ b}, u P U u.
4.2. BASES ORTONORMALES. 169

\
[

Definición 4.2.21 Al vector v utilizado en el teorema anterior se le llama proyección


ortogonal de b sobre el subespacio U .

Teorema 4.2.22 Sea U un subespacio del espacio vectorial euclídeo pRn , ă ąq con
el producto escalar usual. La proyección ortogonal de b sobre el subespacio U
existe siempre y es única.

Demostración. Veamos en primer lugar que siempre es posible calcular una


proyección ortogonal de b sobre el subespacio U . Supongamos que dimR pU q “
r y que B 1 “ tv1 , ¨ ¨ ¨ , vr u es una base de U . Si ampliamos B 1 a una base
B “ tv1 , ¨ ¨ ¨ , vr , vr`1 , ¨ ¨ ¨ , vn u del espacio Rn y aplicamos el procedimiento
de ortonormalización de Gram-Schmidt a B, obtenemos una base ortonormal
C “ tu1 , ¨ ¨ ¨ , ur , ur`1 , ¨ ¨ ¨ , un u de Rn tal que C 1 “ tu1 , ¨ ¨ ¨ , ur u es una base
ortonormal de U . Así,
b “ α1 u1 ` ¨ ¨ ¨ ` αr ur ` αr`1 ur`1 ` ¨ ¨ ¨ ` αn un
y, si tomamos v “ α1 u1 `¨ ¨ ¨`αr ur , tenemos que v P U y ă v´b, u ą“ 0, @u P U .
Por lo tanto, v es una proyección ortogonal de b sobre el subespacio U .

Comprobemos a continuación la unicidad de dicha proyección. Si existiese w P U


tal que
ă w ´ b, u ą“ 0, @u P U,
tendríamos que
v ´ w “ pv ´ bq ´ pw ´ bq
es un vector que pertenece a U y que además es ortogonal a todos los vectores
de U ya que
@u P U ă v ´ w, u ą“ă pv ´ bq ´ pw ´ bq, u ą“ă v ´ b, u ą ´ ă w ´ b, u ą“ 0.
Por lo tanto, v ´ w es ortogonal a si mismo. Esto implica que
0 “ă v ´ w, v ´ w ą“ }v ´ w}2
170CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

y, entonces, v “ w.

\
[

Definición 4.2.23 Sea A P Mmˆn pRq, b P Rm y supongamos que tenemos el sistema


de ecuaciones lineales Ax “ b. El sistema At Ax “ At b se conoce con el nombre
de sistema de ecuaciones normales del sistema Ax “ b.

Teorema 4.2.24 Sea el espacio vectorial euclídeo pRn , ă ąq con el producto escalar
usual. Sea A P Mmˆn pRq, b P Rm y supongamos que tenemos el sistema de
ecuaciones lineales Ax “ b. El conjunto de soluciones mínimo-cuadráticas del
sistema Ax “ b coincide con el conjunto de soluciones del sistema de ecuaciones
normales At Ax “ At b.

Demostración.

Sea z P Rn una solución mínimo-cuadrática del sistema Ax “ b. Entonces, Az


es la proyección ortogonal de b sobre U “ ImpfA q y, por lo tanto, Az ´ b es
ortogonal a todos los vectores del subespacio U . Utilizando este hecho, se tiene
que

0 “ă Az ´ b, Ay ą“ pAyqt pAz ´ bq “ y t At Az ´ y t At b “ y t pAt Az ´ At bq “

ă At Az ´ At b, y ą, @y P Rm .
Esto implica que At Az ´ At b “ θRn o, lo que es lo mismo, At Az “ At b. Así pues
z es una solución del sistema At Ax “ At b.

Inversamente, si z es una solución del sistema At Ax “ At b, tenemos que At Az ´


At b “ θRn y z es la solución mínimo-cuadrática del sistema Ax “ b, ya que

@y P Rm ă At Az ´ At b, y ą“

y t pAt Az ´ At bq “ y t At Az ´ uy t At b “ pAyqt pAz ´ bq “ă Az ´ b, Ay ą“ 0.


\
[
4.2. BASES ORTONORMALES. 171

Nota 4.2.25 Del teorema anterior deducimos que, si z, z 1 P Rn son soluciones mínimo-
cuadráticas del sistema Ax “ b, se tiene la igualdad Az “ Az 1 . Por lo tanto,
Apz ´z 1 q “ θRn , equivalentemente, z ´z 1 P KerpfA q. Entonces, si z es una solución
mínimo-cuadrática de Ax “ b, el conjunto global de soluciones del problema de
mínimos cuadrados también viene dado por

S “ z ` KerpfA q “ tz ` y, { y P KerpfA qu.

Evidentemente, si At A es inversible, S sólo tiene un elemento y es

z “ pAt Aq´1 At b.

Ejemplo 4.2.26 Sea A la matriz dada por


¨ ˛
1 2 1
˚ 1 2 2 ‹
A“˚ ‹ P M4ˆ3 pRq.
˝ 1 2 ´2 ‚
1 2 ´1

Consideremos el sistema Ax “ b siendo


¨ ˛
4
˚ 6 ‹
b“˚
˝ 1 ‚.

Como rangpAq “ 2 ‰ 3 “ rangpA|bq, se tiene que el sistema es incompatible.


Las soluciones mínimo-cuadráticas las encontraremos resolviendo el sistema
At Ax “ At b que en este caso está dado por:
¨ ˛¨ ˛ ¨ ˛
4 8 0 x 13 "
z “ 65
A “ ˝ 8 16 0 ‚˝ y ‚ “ ˝ 26 ‚ ô
4x ` 8y “ 13
0 0 10 z 12

Entonces,
¨ 13
˛ ¨ 13 ˛ ¨ ˛
4 ´ 2y 4 ´2
S “ t˝ y ‚, { y P Ru “ t˝ 0 ‚` y ˝ 1 ‚, { y P Ru “
6 6
5 5 0
172CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
¨ 13
˛
˛ ¨
4 ´2
˝ 0 ‚` ă ˝ 1 ‚ ą
6
5 0
siendo ˛ ¨
´2
KerpfA q “ă ˝ 1 ‚ ą .
0

Teorema 4.2.27 Sea A P Mmˆn pRq con rango r y supongamos que su factorización
QR es A “ QR. Se verifica que z es solución mínimo-cuadrática para Ax “ b,
si, y sólo si, z es solución del sistema Rx “ Qt b.

Demostración. El vector z es solución mínimo-cuadrática para Ax “ b, si, y


sólo si, z es solución del sistema At Ax “ At b. Si A “ QR, tenemos que
At Az “ At b ô Rt Qt QRz “ Rt Qt b ô Rt Rz “ Rt Qt b ô
RRt Rz “ RRt Qt b
y, como RRt PP Mrˆr pRq, es inversible, obtenemos que Rz “ Qt b.

Inversamente, si Rz “ Qt b, se tiene que


Rt Rz “ Rt Qt b ô Rt Qt QRz “ Rt Qt b ô At Az “ At b.
\
[

Ejemplo 4.2.28 Tomemos el sistema dado en el ejemplo 4.2.26. Entonces, como


¨ 1 1
˛
?
2 10
1 ?2 ‹ˆ ˙
‹ 2 4 ?0
˚
2 10
A “ QR “ ˚
˚
1 ´2
‚ 0 0 10
?

˝ 2 10
1 ´1
?
2 10
y ˆ 13 ˙
t 2
Qb“ ?12
,
10
obtenemos
ˆ ˙ ˆ 13 ˙ " "
x 2 z “ 12
10 z “ 56
R “ ?12
ô 13 ô
y 10
2x ` 4y “ 2 4x ` 8y “ 13
4.3. DIAGONALIZACIÓN ORTOGONAL DE MATRICES SIMÉTRICAS173

4.3. Diagonalización ortogonal de matrices simé-


tricas

En este apartado veremos que toda matriz simétrica es diagonalizable de una


forma especial.

Teorema 4.3.1 Sea A P Mnˆn R una matriz simétrica. Se verifica que todos los
autovalores de A son reales.

Demostración. Supongamos que λ “ a ` bi es un autovalor de A y que


w “ u ` iv es un autovector asociado con u, v P Rn . Tenemos que

Aw “ Au ` iAv “ λpu ` ivq “ pa ` biqpu ` ivq “ pau ´ bvq ` ipbu ` avq ô

Au “ au ´ bv, Av “ bu ` av.
Como A es simétrica, los productos escalares usuales ă Au, v ą y ă u, Av ą son
iguales y se tiene que

ă Au, v ą“ă au ´ bv, v ą“ a ă u, v ą ´b ă v, v ą,

ă u, Av ą“ă u, bu ` av ą“ b ă u, u ą `a ă u, v ą .
Si restamos las expresiones anteriores, obtenemos

bpă u, u ą ` ă v, v ąq “ 0.

Como ă u, u ą ` ă v, v ą“ }u}2 ` }v}2 ‰ 0, se tiene que b “ 0 y, por lo tanto,


λ es real. \
[

Teorema 4.3.2 Sea A P Mnˆn pRq. Se verifica que A es simétrica, si, y sólo si, existe
una matriz ortogonal Q tal que Qt AQ es diagonal.

Demostración. Si existe una matriz ortogonal Q tal que Qt AQ “ D es diagonal,


entonces
D “ Qt At Q “ Qt AQ
174CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

y, por lo tanto, A “ At .

Si A es simétrica, por el teorema anterior, sabemos que todos sus autovalores


λ1 , ¨ ¨ ¨ , λr son reales. Sea Bλi una base de V pλi q, i P t1, ¨ ¨ ¨ , ru. Si el sistema libre
B “ Bλ1 Y ¨ ¨ ¨ Y Bλr no es una base de V (i.e. A no es diagonalizable), tenemos
que U “ă Bλ1 Y ¨ ¨ ¨ Y Bλr ą‰ Rn . Tomando U K “ tv P Rn , { ă v, u ą“
0, @ u P U u tenemos que U es un subespacio de Rn (llamado complemento
ortogonal de U ) y que U X U K “ tθRn u. Además, todo w P Rn se escribe de forma
única como
w “ u ` v, u P U, v P U K .
Si restringimos la aplicación lineal fA : Rn Ñ Rn a U K , se tiene que fA|U K :
U K Ñ U K cumple que es no nula y además fA pU K q Ď U K . Por lo tanto, debe
tener al menos un autovector v ‰ θRn . Así pues, Av “ λv, para un cierto λ real,
y esto implica que v P U X U K . Entonces, v “ θRn , lo que es un absurdo que
proviene de suponer que B “ Bλ1 Y ¨ ¨ ¨ Y Bλr no es una base de V . Por lo tanto,
A es diagonalizable.

Supongamos θRn ‰ v P Vλi y que θRn ‰ u P Vλj con i ‰ j. Como A es una


matriz simétrica

λi ă u, v ą“ă Au, v ą“ă u, Av ą“ λj ă u, v ą

ô pλi ´ λj q ă u, v ą“ 0 ôă u, v ą“ 0.
Así pues, autovectores asociados a autovalores distintos son ortogonales. Teniendo
en cuenta este hecho, si aplicamos el procedimiento de ortonormalización de
Gram-Schmidt a la base Bλi de cada subespacio propio y unimos los sistemas
resultantes, obtenemos una base ortonormal de Rn formada por vectores propios.
Si P es la matriz cuyas columnas son los vectores de esta base ortonormal, P
resulta ortogonal y P t AP diagonal. \
[

Nota 4.3.3 La demostración del anterior teorema nos indica cómo debemos realizar
el cálculo de la diagonalización ortogonal de una matriz simétrica real. Se siguen
los siguientes pasos:

1. Se calcula el espectro de A, SppAq “ tλ1 , ¨ ¨ ¨ , λr u.


4.3. DIAGONALIZACIÓN ORTOGONAL DE MATRICES SIMÉTRICAS175

2. Se calcula una base Bλi de V pλi q, i P t1, ¨ ¨ ¨ , ru.

3. Se aplica el procedimiento de ortonormalización de Gram-Schmidt a cada


base Bλi , obteniendose una base ortonormal Cλi de V pλi q, i P t1, ¨ ¨ ¨ , ru.

4. Se unen las bases Cλi . Esta unión da lugar a una base ortonormal de Rn
formada por autovectores.

5. Se define la matriz P como aquella cuyas columnas son los vectores de la


base ortonormal calculada en el apartado anterior.

6. La matriz diagonal D resulta de hacer el producto P t AP.

Ejemplo 4.3.4 Sea la matriz ¨ ˛


0 1 1
A“˝ 1 0 1 ‚.
1 1 0
Como la matriz es simétrica se puede diagonalizar de forma ortogonal. Calculemos
en primer lugar los autovalores y una base de cada subespacio propio de A.
ˇ ˇ ˇ ˇ
ˇ ´x 1 0 ˇˇ ˇˇ ´x 1 0 ˇˇ
ˇ
pA pxq “ detpA ´ xI3 q “ ˇˇ 1 ´x 1 ˇˇ “ ˇˇ 0 ´px ` 1q 1 ` x ˇˇ
ˇ 1 1 ´x ˇ ˇ 1 1 ´x ˇ
ˇ ˇ
ˇ ´x 1 2 ˇ ˇ ˇ
ˇ
ˇ “ ´px ` 1q ˇ ´x
ˇ ˇ 2 ˇˇ
“ ˇˇ 0 ´px ` 1q 0 ˇ 1
ˇ 1
ˇ 1´x ˇ
1 1´x ˇ

“ ´px ` 1qpx2 ´ x ´ 2q “ ´px ` 1q2 px ´ 2q.


Por tanto, los autovalores de A son λ1 “ ´1 y λ2 “ 2, con map´1q “ 2,
map2q “ 1. Además,
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p´1q “ t˝ y ‚ P R3 { pA ` I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 1 1 1 x 0
t ˝ y ‚ P R3 { ˝ 1 1 1 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 1 z 0
176CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS
¨ ˛ ¨ ˛ ¨ ˛
x 1 1
t˝ y ‚ P R3 { x ` y ` z “ 0u “ă ˝ ´1 ‚, ˝ 0 ‚ ą
z 0 ´1
¨ ˛ ¨ ˛ ¨ ˛
x x 0
V p2q “ t˝ y ‚ P R3 { pA ´ 2I3 q ˝ y ‚ “ ˝ 0 ‚u “
z z 0
¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x ´2 1 1 x 0
t˝ y ‚ P R3 { ˝ 1 ´2 1 ‚˝ y ‚ “ ˝ 0 ‚u “
z 1 1 ´2 z 0
¨ ˛ ¨ ˛
x 1
t˝ y ‚ P R3 { ´ 2x ` y ` z “ 0 “ x ´ 2y ` zu “ă ˝ 1 ‚ ą .
z 1
Así pues, las bases de V p´1q y de V p2q son, respectivamente,
¨ ˛ ¨ ˛ ¨ ˛
1 1 1
B´1 “ t˝ ´1 ‚, ˝ 0 ‚u, B2 “ t˝ 1 ‚u.
0 ´1 1
Aplicando el procedimiento de ortonormalización de Gram-Schmidt a las bases
B´1 y B2 , obtenemos una base ortonormal para V p´1q y otra para V p2q:
¨ 1 ˛ ¨ ?1 ˛ ¨ 1 ˛
?
?
2 6 3
C´1 “ t˝ ´ ?2 ‚, ˝ ?6 ‚u, C2 “ t˝ ?13 ‚u.
1 1
˚ ‹ ˚ ‹
2 1
0 ´ ?6 ?
3

Por lo tanto, la base ortonormal de R3 es


¨ 1 ˛ ¨ ?1 ˛ ¨ ?1
˛
?
2 6 3
C “ t˝ ´ ?12 ‚, ˝ ?16 ‚, ˝ ?1
˚ ‹ ˚ ‹
3 ‚u
2 ?1
0 ´ ?6 3

y la matriz P , dada por


¨ ˛
?1 ?1 ?1
2 6 3
P “˝
˚ ´ ?12 ?1
6
?1
3 ‚,

0 ´ ?26 ?1
3

es ortogonal y ¨ ˛
´1 0 0
P t AP “ ˝ 0 ´1 0 ‚ “ D.
0 0 2
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 177

4.4. Formas cuadráticas reales. Clasificación.

Definición 4.4.1 Se llama forma cuadrática sobre Rn a cualquier aplicación ω :


Rn Ñ R definida por
ωpvq “ v t Av, @ v P Rn
donde A P Mnˆn pRq.

Ejemplo 4.4.2 La aplicación ω : R2 Ñ R definida por


ˆ ˙ ˆ ˙
x x
ω “ 2xy, @ P R2
y y

es una forma cuadrática ya que


ˆ ˙ ˆ ˙ˆ ˙
x 0 1 x
ω “ 2xy “ px, yq .
y 1 0 y

Ejemplo 4.4.3 Si tomamos las matrices


ˆ ˙ ˆ ˙
1 0 1 3
B“ , C“
2 ´1 ´1 ´1

se tiene que
ˆ ˙ˆ ˙
1 0 x
px, yq “ x2 ` 2xy ´ y 2 ,
2 ´1 y
ˆ ˙ˆ ˙
1 3 x
px, yq “ x2 ` 2xy ´ y 2 .
´1 ´1 y

Por tanto, es posible que dos matrices distintas den lugar a la misma forma
cuadrática.

Nota 4.4.4 Se tendrá que:

1. Si ω : Rn Ñ R es una forma cuadrática, se tiene que ωpθRn q “ 0.


178CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

2. En general, si A “ paij q P Mnˆn pRq, se tiene que


¨ ˛
v1 n
t ˚ .. ÿ
ωpvq “ v Av “ pv1 , ¨ ¨ ¨ , vn qA ˝ . aij vi vj .

‚“
i,j“1
vn

3. Si ω : Rn Ñ R es una forma cuadrática, se tiene que

ωpαvq “ α2 ωpvq

para todo escalar α y todo vector v.

Definición 4.4.5 Sea una forma bilineal f : Rn ˆ Rn Ñ R. Se llama forma cuadrática


asociada a f a la aplicación ω : Rn Ñ R definida por

ωf pvq “ v t GCn v, @ v P Rn

donde GCn es la matriz de Gram de f respecto a la base canónica de Rn .

Proposición 4.4.6 Dada ω : Rn Ñ R una forma cuadrática en Rn , existe una única


forma bilineal simétrica fω : Rn ˆ Rn Ñ R tal que ωfω “ ω.

Demostración. Definamos fω : Rn ˆ Rn Ñ R como


1
fω pu, vq “ pωpu ` vq ´ wpuq ´ wpvqq.
2
Entonces, si wpuq “ ut Au@ u P Rn , se tiene que
1 1
fω pu, vq “ ppu ` vqt Apu ` vq ´ ut Au ´ v t Avq “ put Av ` v t Auq
2 2
1 t 1
“ pu Av ` ut At vq “ ut p pA ` At qqv.
2 2
Por lo tanto, fω : R ˆ R Ñ R es una forma bilineal simétrica, ya que la matriz
n n

2 pA ` A q es simétrica.
1 t

La forma cuadrática asociada a fω es

ωfω pvq “ v t GCn v, @ v P Rn .


4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 179

Como GCn “ 12 pA ` At q, tenemos que ωfω “ ω.

Por otro lado, si existiese una forma bilineal simétrica g : Rn ˆ Rn Ñ R tal que
ωg “ ω, tenemos que fω “ g, ya que, si GCn es la matriz de Gram de g respecto
a la base canónica de Rn , usando el hecho de que GCn es simétrica, obtenemos
las igualdades
1 1
fω pu, vq “ pωpu ` vq ´ wpuq ´ wpvqq “ pωg pu ` vq ´ wg puq ´ wg pvqq “
2 2
1 t
pu GCn v ` v t GCn uq “ ut GCn v “ gpu, vq.
2
\
[

Definición 4.4.7 La forma bilineal simétrica introducida en la proposición anterior


se llama forma polar de la forma cuadrática ω : Rn Ñ R.

Ejemplo 4.4.8 Para la forma cuadrática ω : R2 Ñ R definida por


ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙ˆ ˙ ˆ ˙
x x x 0 1 x x
ω “ 2xy, @ P R2 ô ω “ px, yq @ P R2 ,
y y y 1 0 y y

se tiene que fω : R2 ˆ R2 Ñ R está dada por


ˆ ˙ ˆ ˙ ˆ ˙ ˆ ˙t ˆ ˙
x1 y1 1 0 1 0 1 y1
fω p , q “ px1 , x2 qp p ` qq “
x2 y2 2 1 0 1 0 y2
ˆ ˙ˆ ˙
0 1 y1
px1 , x2 qp .
1 0 y2

Proposición 4.4.9 Sea ω : Rn Ñ R una forma cuadrática. Existe una única matriz
simétrica M pωq tal que

ωpvq “ v t M pωqv, @ v P Rn

Demostración. Si A es una matriz cuadrada de orden n tal que

ωpvq “ v t Av, @ v P Rn
180CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

es suficiente tomar
1
M pωq “ pA ` At q.
2
Entonces, como v t Av “ v t At v @ v P Rn ,
1 1
v t M pωqv “ v t p pA ` At qqv “ pv t Av ` v t At vq “ v t Av “ ωpvq.
2 2
La forma polar asociada a ω será

fω pu, vq “ ut M pωqv.

Por lo tanto, si existiese otra matriz B simétrica tal que ωpvq “ v t Bv, @ v P Rn ,
obtendríamos la igualdad

fω pu, vq “ ut M pωqv “ ut Bv, @ u, v P Rn .

Así pues, M pωq “ B.

\
[

Definición 4.4.10 Dada una forma cuadrática ω : Rn Ñ R llamaremos matriz


asociada a ω, respecto a la base canónica, a la única matriz simétrica M pωq tal
que ωpuq “ ut M pωqu, @ v P Rn .

Ejemplo 4.4.11 Sea la forma cuadrática ω : R4 Ñ R dada por


¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 0 1 1 1 x x
˚ y ‹ ˚ 0 1 1 1 ‹˚ y ‹ ˚ y ‹ 4
ω˚˝ z ‚ “ px, y, z, tq ˝ 0 1 1 1 ‚˝
‹ ˚ ‹˚ ‹, @
˝ z ‚P R .
˚ ‹
z ‚
t 1 1 1 1 t t

Si ¨ ˛
0 1 1 1
˚ 0 1 1 1 ‹
A“˚
˝ 0

1 1 1 ‚
1 1 1 1
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 181

la matriz asociada a ω es
¨ 1 1
˛
0 2 2 1
1 1
˚ 1 1 1 ‹
M pωq “ pA ` At q “ ˚ 2
1
‹.
2 ˝
2 1 1 1 ‚
1 1 1 1

Nota 4.4.12 En todas las definiciones anteriores hemos tomado coordenadas respecto
a la base canónica de Rn . Si cambiamos la base, la expresión de la forma
cuadrática también lo hace. Sea B otra base de Rn y llamemos PB,Cn la matriz
de cambio de base de B a la base canónica de Rn . Como sabemos, @ v P Rn ,

v “ PB,Cn vB

siendo vB el vector de coordenadas de v en la base B. Entonces:

ωpvq “ v t M pωqv “ vB
t t
PB,Cn
M pωqPB,Cn vB .

A la matriz PB,C
t
n
M pωqPB,Cn se le llama matriz asociada a ω respecto a la base
B y se denota como M pωqB . Evidentemente es simétrica y M pωqCn “ M pωq.
Así pues, la expresión de la forma cuadrática en la base B es
t
ωpvq “ vB M pωqB vB .

Definición 4.4.13 Sea ω : Rn Ñ R una forma cuadrática con matriz asociada M pωq
y sea B una base de Rn . Si la matriz M pωqB es diagonal se dirá que la base B
es ortogonal respecto a ω. En este caso se tiene que si, vB
t
“ px1 , ¨ ¨ ¨ , xn q,
t
ωpvq “ vB M pωqB vB “
¨ ˛¨ ˛
a1 0 ¨¨¨ 0 x1
˚ 0 a2 ¨¨¨ 0 ‹ ‹ ˚ x2 ‹
˚ ‹
2 2 2
px1 , x2 , ¨ ¨ ¨ , xn q ˚ .. .. .. .. ‹ ˚ .. ‹ “ a1 x1 ` a2 x2 ` ¨ ¨ ¨ ` an xn .
˚
˝ . . . . ‚˝ . ‚
0 0 ¨ ¨ ¨ an xn

Nota 4.4.14 Si la base B tiene como vectores a

B “ te1 , ¨ ¨ ¨ , en u
182CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

se tiene que
¨ ˛
0
˚ .. ‹
˚ . ‹
˚ ‹
eiB ˚ 1 ‹
“˚ ‹
˚ . ‹
˝ .. ‚
0

donde el 1 se encuentra en la componente i-ésima. Entonces,


¨ ˛
¨ ˛ 0
a1 0 ¨¨¨ 0 ˚ .. ‹
˚ 0 a2 ¨¨¨ 0 ‹˚ . ‹
‹˚ ‹
wpei q “ p0, ¨ ¨ ¨ , 1, ¨ ¨ ¨ , 0q ˚ .. .. .. .. ‹˚ 1 ‹ “ ai .
˚ ˚
. . . . ‚˚ . ‹
.
˝ ‹
˝ . ‚
0 0 ¨¨¨ an
0

Por lo tanto, si M pωqB es diagonal, se tiene que


¨ ˛
wpe1 q 0 ¨¨¨ 0
˚ 0 wpe2 q ¨ ¨ ¨ 0 ‹
M pωqB “ ˚ .. .. .. .. ‹.
˚ ‹
˝ . . . . ‚
0 0 ¨¨¨ wpen q

El siguiente resultado nos ayudará a clasificar las formas cuadráticas.

Teorema 4.4.15 Toda matriz simétrica A P Mnˆn pRq es congruente con una matriz
diagonal. Como consecuencia, toda forma cuadrática ω : Rn Ñ R admite una
base ortogonal.

Demostración. La demostración consiste en darse cuenta que siempre pode-


mos transformar A en una matriz diagonal D realizando ciertas operaciones
elementales por filas y las mismas operaciones elementales por columnas. Si
P “ C1 ¨ ¨ ¨ Cr es el producto de todas la operaciones elementales por columnas
usadas en el proceso, se tiene que P t “ Crt ¨ ¨ ¨ C1t es el producto de todas las
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 183

operaciones elementales realizadas por filas y, entonces:


¨ ˛
a1 0 ¨ ¨ ¨ 0
˚ 0 a2 ¨ ¨ ¨ 0 ‹
P t AP “ ˚ . .. . . .. ‹ “ D.
˚ ‹
˝ .. . . . ‚
0 0 ¨ ¨ ¨ an

Como la matriz P es inversible, sus columnas forman una base B de Rn y se


tiene que PB,Cn “ P . Por lo tanto, si A fuese la matriz asociada a la forma
cuadrática ω : Rn Ñ R, B sería una base ortogonal para ω.

\
[

Ejemplo 4.4.16 Sea la forma cuadrática ω : R4 Ñ R dada por


¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 0 0 0 ´1 x x
˚ y
‹ “ px, y, z, tq ˚ 0 0 1 0 ‹
‹˚ y ‹, @
‹ ˚ ˚ ‹ ˚ y ‹ 4
ω˚˝ z ˝ 0 1 0 ˝ z ‚P R .
˚ ‹
‚ 0 ‚ ˝ z ‚
t ´1 0 0 0 t t

Para calcular una base ortogonal respecto de ω procederemos de la siguiente


manera:

1. Hallamos la matriz asociada a ω:


1
M pωq “ pA ` At q.
2

2. Construimos la matriz por bloques pM pωq|In q.


3. Realizamos operaciones elementales por filas en pM pωq|In q y las mismas
operaciones elementales por columnas en A, hasta obtener la matriz dia-
gonal D. Al final del proceso la matriz por bloques pM pωq|In q se habrá
convertido en pD|Qq con D diagonal.
4. Ponemos P t “ Q y P “ Qt . Entonces P t M pωqP “ D y las columnas de
P forman la base ortogonal respecto a ω.
184CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

En nuestro caso
¨ ˛
0 0 0 ´1
1 t
˚ 0 0 1 0 ‹
M pωq “ pA ` A q “ ˝
˚ ‹
2 0 1 0 0 ‚
´1 0 0 0
ya que ¨ ˛
0 0 0 ´1
˚ 0 0 1 0 ‹
A“˚
˝ 0

1 0 0 ‚
´1 0 0 0
es simétrica.

Realizemos ahora las operaciones elementales que nos conduzcan a la matriz


diagonal D: ` ˘
A | I4
¨ ˛
1 0 0 ´1 | 1 0 0 ´1
F14 p´1q ˚ 0 0 1 0 | 0 1 0 0 ‹
ùñ ˝ ˚ ‹
0 1 0 0 | 0 0 1 0 ‚
´1 0 0 0 | 0 0 0 1
¨ ˛
2 0 0 ´1 | 1 0 0 ´1
C14 p´1q ˚ 0 0 1 0 | 0 1 0 0 ‹
ùñ ˚ ˝ 0 1 0

0 | 0 0 1 0 ‚
´1 0 0 0 | 0 0 0 1
¨ ˛
2 0 0 ´1 | 1 0 0 ´1
F41 p 1 q ˚
2 0 0 1 0 | 0 1 0 0 ‹
ùñ ˚ ˝ 0 1 0

0 | 0 0 1 0 ‚
0 0 0 ´ 21 | 12 0 0 1
2
¨ ˛
2 0 0 0 | 1 0 0 ´1
C41 p 1 q ˚
2 0 0 1 0 | 0 1 0 0 ‹
ùñ ˚ ˝ 0 1 0

0 | 0 0 1 0 ‚
0 0 0 ´ 21 | 21 0 0 1
2
¨ ˛
2 0 0 0 | 1 0 0 ´1
F23 p1q ˚ 0 1 1 0 | 0 1 1 0 ‹
ùñ ˚ ˝ 0 1 0

0 | 0 0 1 0 ‚
0 0 0 ´ 12 | 21 0 0 1
2
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 185
¨ ˛
2 0 0 0 | 1 0 0 ´1
C23 p1q ˚ 0 2 1 0 | 0 1 1 0 ‹
ùñ ˝ ˚ ‹
0 1 0 0 | 0 0 1 0 ‚
0 0 0 ´ 21 | 1
2 0 0 1
2
¨ ˛
2 0 0 0 | 1 0
0 ´1
1
F32 p´ q ˚
2 0 2 1 0 | 0 1
1 0 ‹
ùñ ˚ ˝ 0 0 ´1 1 1

2 0 | 0 ´2 2 0 ‚
0 0 0 ´ 12 | 1
2 0 0 1
2
¨ ˛
2 0 0 0 | 1 0 0 ´1
C32 p´ 1 q ˚
2 0 2 0 0 | 0 1 1 0 ‹‹.
ùñ ˚ ˝ 0 0 ´1 1 1
2 0 | 0 ´2 2 0 ‚
0 0 0 ´ 21 | 1
2 0 0 1
2

Así pues ¨ ˛
2 0 0 0
˚ 0 2 0 0 ‹
D“˚ ‹
˝ 0 0 ´ 12 0 ‚
0 0 0 ´ 12
y
P t AP “ D
siendo ¨ ˛
1 0 0 ´1
˚ 0 1 1 0 ‹
Pt “ ˚ ‹.
˝ 0 ´ 21 1
2 0 ‚
1 1
2 0 0 2

Definición 4.4.17 Sea la forma cuadrática ω : Rn Ñ R. Diremos que

1. ω es definida positiva si ωpvq ą 0, @ v P Rn , v ‰ θRn .

2. ω es definida negativa si ωpvq ă 0, @ v P Rn , v ‰ θRn .

3. ω es semidefinida positiva si ωpvq ě 0, @ v P Rn .

4. ω es semidefinida negativa si ωpvq ď 0, @ v P Rn .


186CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

5. ω es indefinida si existen dos vectores no nulos u, v de Rn tales que ωpuq ă 0


y ωpvq ą 0.

Ejemplo 4.4.18 1. Supongamos que pRn , ă ąq es un espacio vectorial euclídeo.


Entonces el producto escalar definido en Rn es una forma bilineal simétrica
y su forma cuadrática asociada ωă ą está dada por

ωă ą pvq “ }v}2 .

Como para el producto escalar se cumple que ă v, v ą ą 0, si v es no nulo,


tenemos que la forma cuadrática ωă ą es definida positiva.

2. La forma cuadrática
¨ ˛
x
˚ y ‹ 2 2 2 2
ω˚
˝ z ‚“ x ` y ` z ` t

es definida positiva y
¨ ˛
x
˚ y ‹ 2 2 2 2
˝ z ‚ “ ´x ´ y ´ z ´ t
ω˚ ‹

es definida negativa.

3. La forma cuadrática
¨ ˛
x
˚ y ‹ 2 2 2 2
ω˚
˝ z ‚ “ ´x ´ y ` z ` t

es no definida ya que
¨ ˛ ¨ ˛
1 0
˚ 0 ‹ ˚ 0 ‹
ω˚
˝ 0 ‚ “ ´1, ω ˝ 0
‹ ˚ ‹ “ 1.

0 ´1
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 187

Definición 4.4.19 Sea ω : Rn Ñ R una forma cuadrática y fω su forma polar


asociada. Como sabemos, si M pωq es la matriz asociada a ω, entonces

fω pu, vq “ ut M pωqv.

Se llama radical de la forma cuadrática ω al subespacio

N pωq “ tv P Rn , { fω pv, uq “ 0, @ u P Rn u.

Se llama rango de ω al rango de M pωq.

Se dice que ω es no degenerada si N pωq “ tθRn u. En caso contrario se dirá que


es degenerada.

Nótese que es muy fácil probar que ω es no degenerada, si, y sólo si, rangpM pωqq “
n, esto es, si, y sólo si, M pωq es inversible.

Teorema 4.4.20 ( Ley de inercia de Sylvester) Sea ω : Rn Ñ R una forma


cuadrática. Si D1 , D2 son matrices diagonales asociadas a ω respecto a distintas
bases, entonces el número de elementos positivos y negativos de sus diagonales
principales es el mismo.

Demostración. Es evidente que el número de elementos positivos, más el de


negativos, de la diagonal principal de D1 coincide con el el número de elementos
positivos, más el de negativos, de la diagonal principal de D2 y con el rangpωq.
Por lo tanto, sólo tenemos que demostrar que el número de positivos es coinci-
dente. Sean B1 y B2 dos bases de Rn , para las cuales las matrices asociadas a ω
son diagonales.

Supongamos que tienen en la diagonal r y s elementos positivos, respectivamente.


Probaremos que s “ r. Esto es, si B1 y B2 son dos bases ortogonales para ω

B1 “ te1 , ¨ ¨ ¨ , er , er`1 , ¨ ¨ ¨ , en u

B2 “ tu1 , ¨ ¨ ¨ , us , us`1 , ¨ ¨ ¨ , un u
tales que las matrices asociadas a las bases B1 y B2 son de la forma (en caso
188CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

contrario, sólo tenemos que reordenar los vectores de las bases)


¨ ˛ ¨ ˛
ωpe1 q 0 ¨¨¨ 0 ωpu1 q 0 ¨¨¨ 0
˚ 0 ωpe 2q ¨¨¨ 0 ‹ ˚ 0 ωpu 2 q ¨¨¨ 0 ‹
D1 “ ˚ .. .. .. .. ‹ , D2 “ ˚ .. .. .. ..
˚ ‹ ˚ ‹
. .

˝ . . . ‚ ˝ . . . ‚
0 0 ¨ ¨ ¨ ωpen q 0 0 ¨¨¨ ωpun q

donde
ωpe1 q ą 0, ¨ ¨ ¨ , ωper q ą 0, ωper`1 q ď 0, ¨ ¨ ¨ , ωpen q ď 0
y
ωpu1 q ą 0, ¨ ¨ ¨ , ωpus q ą 0, ωpus`1 q ď 0, ¨ ¨ ¨ , ωpun q ď 0.
Consideremos los subespacios

U “ă e1 , ¨ ¨ ¨ , er ą, W “ă us`1 , ¨ ¨ ¨ , un ą .

Se verifica que U X W “ tθRn u y, por lo tanto, el sistema

L “ te1 , ¨ ¨ ¨ , er , us`1 , ¨ ¨ ¨ , un ą

es libre. El sistema L tiene r ` n ´ s vectores y además r ` n ´ s ď n. Así pues


r ď s. Razonando de una forma simétrica, obtendríamos que s ď r y esto implica
que s “ r.

\
[

El teorema anterior permite introducir un invariante de las formas cuadráticas


conocido con el nombre de signatura.

Definición 4.4.21 Sea ω : Rn Ñ R una forma cuadrática. Sea B una base ortogonal
respecto de ω. Se llama signatura de ω al par:

sgpωq “ pp, qq,

donde p, q denotan, respectivamente, el número de elementos positivos y negativos


de la matriz diagonal asociada a ω en la base B.
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 189

Nota 4.4.22 Según lo visto en la demostración del teorema anterior, se cumple que

rangpωq “ p ` q.

Así pues, ω es degenerada, si, y sólo si, p ` q ă n y no degenerada, si, y sólo si,
p ` q “ n.

Ejemplo 4.4.23 Dada la forma cuadrática del ejemplo 4.4.16


¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 0 0 0 ´1 x x
˚ y
‹ “ px, y, z, tq ˚ 0 0 1 0 ‹ y ‹
‹ ˚ ˚ ˚ y ‹
ω˚ ‹˚ ‹, @ ˚ ‹ P R4 ,
˝ z ‚ ˝ 0 1 0 0 ˝
‚ z ‚ ˝ z ‚
t ´1 0 0 0 t t

demostramos que existe una base ortogonal para ω dada por


¨ ˛ ¨ ˛ ¨ ˛ ¨ 1 ˛
1 0 0 2
˚ 0 ‹ ˚ 1 ‹
‹ , e2 “ ˚ 1 ‹ , e3 “ ˚ ´ 21 ‹ , e4 “ ˚ 0 ‹u
˚ ‹ ˚ ‹
B “ te1 “ ˚
˝ 0 ‚ ˝ 1 ‚ ˝ ‚ ˝ 0 ‚
2
1
´1 0 0 2

para la cual ¨ ˛
2 0 0 0
˚ 0 2 0 0 ‹
M pωqB “ ˚ ‹.
˝ 0 0 ´ 12 0 ‚
0 0 0 ´ 12
Por tanto, sgpωq “ p2, 2q y la forma cuadrática es no degenerada, ya que 2`2 “ 4.

Como consecuencia inmediata de la ley de inercia de Sylvester, se tiene que:

Corolario 4.4.24 Sea ω : Rn Ñ R una forma cuadrática. Se verifica lo siguiente:

1. La forma cuadrática ω es definida positiva, si, y sólo si, sgpωq “ pn, 0q.
2. La forma cuadrática ω es definida negativa, si, y sólo si, sgpωq “ p0, nq.
3. La forma cuadrática ω es semidefinida positiva, si, y sólo si, sgpωq “ pr, 0q
con r ă n.
190CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

4. La forma cuadrática ω es semidefinida negativa, si, y sólo si, sgpωq “ p0, sq


con s ă n.

5. La forma cuadrática ω es indefinida, si, y sólo si, sgpωq “ pr, sq con r, s


no nulos.

Ejemplo 4.4.25 Sea la forma cuadrática ω : R4 Ñ R dada por


¨ ˛ ¨ ˛¨ ˛ ¨ ˛
x 1 1 2 0 x x
˚ y ‹ ˚ 1 3 2 0 ‹˚ y ‹ ˚ y ‹ 4
ω˚˝ z ‚ “ px, y, z, tq ˝ 2 2 7 0 ‚˝
‹ ˚ ‹˚ ‹, @
˝ z ‚P R .
˚ ‹
z ‚
t 0 0 0 1 t t

En nuestro caso
¨ ˛
1 1 2 0
1 ˚ 1 3 2 0 ‹
M pωq “ pA ` At q “ ˚
˝ 2

2 2 7 0 ‚
0 0 0 1
ya que ¨ ˛
1 1 2 0
˚ 1 3 2 0 ‹
A“˚
˝ 2

2 7 0 ‚
0 0 0 1
es simétrica.

Realizemos ahora las operaciones elementales que nos conduzcan a la matriz


diagonal D: ` ˘
A | I4
¨ ˛
1 1 2 0 | 1 0 0 0
F13 p´2q, F12 p´1q ˚ 0 2 0 0 | ´1 1 0 0 ‹
ùñ ˚
˝ 0 0 3 0 |

´2 0 1 0 ‚
0 0 0 1 | 0 0 0 1
¨ ˛
1 0 0 0 | 1 0 0 0
C13 p´2q, C12 p´1q ˚ 0 2 0 0 | ´1 1 0 0 ‹
ùñ ˚
˝ 0 0 3 0 |

´2 0 1 0 ‚
0 0 0 1 | 0 0 0 1
4.4. FORMAS CUADRÁTICAS REALES. CLASIFICACIÓN. 191

Así pues, ¨ ˛
1 0 0 0
˚ 0 2 0 0 ‹
D“˚
˝ 0

0 3 0 ‚
0 0 0 1
y
P t AP “ D
siendo ¨ ˛
1 0 0 0
t
˚ ´1 1 0 0 ‹
P “˚
˝ ´2 0 1
‹.
0 ‚
0 0 0 1
Por lo tanto, ω es definida positiva, ya que sgpωq “ p4, 0q.

Nota 4.4.26 Sea ω : Rn Ñ R una forma cuadrática. Sea M pωq su matriz asociada.
Como esta matriz es simétrica, por el Teorema 4.3.2, sabemos que existe una
matriz ortogonal Q tal que Qt M pωqQ es diagonal. Las columnas de Q dan
lugar a una base ortonormal del espacio Rn , respecto al producto escalar usual,
formada por autovectores y, dado que Qt M pωqQ es diagonal, también dan lugar
a una base ortogonal respecto de ω. Los elementos de la diagonal principal de
D “ Qt M pωqQ son los autovalores de M pωq.

Así pues tenemos el siguiente resultado:

Corolario 4.4.27 Sea ω : Rn Ñ R una forma cuadrática. Sea M pωq su matriz


asociada. Se verifica lo siguiente:

1. La forma cuadrática ω es definida positiva, si, y sólo si, los autovalores de


M pωq son todos positivos.

2. La forma cuadrática ω es definida negativa, si, y sólo si, los autovalores


de M pωq son todos negativos.

3. La forma cuadrática ω es semidefinida positiva, si, y sólo si, los autovalores


de M pωq son todos no negativos.
192CAPÍTULO 4. ESPACIOS EUCLÍDEOS. FORMAS CUADRÁTICAS

4. La forma cuadrática ω es semidefinida negativa, si, y sólo si, los autovalores


de M pωq son todos no positivos.

5. La forma cuadrática ω es indefinida, si, y sólo si, existen autovalores de


M pωq positivos y negativos.

Finalmente, mostraremos un criterio que también puede ser útil a la hora de


caracterizar las formas cuadráticas definidas positivas y negativas.

Teorema 4.4.28 ( Criterio de Sylvester) Sea ω : Rn Ñ R una forma cuadrática


dada por ωpvq “ v t Av siendo A “ paij q P Mnˆn pRq una matriz simétrica.
Denotemos por Ar,r sus submatrices diagonales
¨ ˛
a11 ¨ ¨ ¨ a1r
Apr, rq “ ˝ ... .. .. ‹ .
˚
. . ‚
ar1 ¨¨¨ arr

Se verifica lo siguiente:

1. La forma cuadrática ω es definida positiva, si, y sólo si, detpAr,r q ą 0 para


todo r P t1, ¨ ¨ ¨ , nu.
2. La forma cuadrática ω es definida negativa, si, y sólo si, p´1qr detpAr,r q ą 0
para todo r P t1, ¨ ¨ ¨ , nu.

También podría gustarte