Está en la página 1de 112

E. T. S.

de Ingenieros Industriales
Universidad Politecnica de Madrid
Apuntes de

Algebra
(Grado en Ingeniera en Tecnologas Industriales)
Curso 2011/12
Departamento de Matematica Aplicada a la Ingeniera
Industrial

Indice general
1. Los espacios vectoriales R
n
y C
n
1
1.1. Denicion, propiedades y ejemplos . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Combinaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.2. Dependencia e independencia lineal . . . . . . . . . . . . . . . . . . 3
1.1.3. Subespacios vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.4. Intersecci on y suma de subespacios . . . . . . . . . . . . . . . . . . 6
1.2. Bases . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.1. Base y dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.2.2. Coordenadas respecto a una base . . . . . . . . . . . . . . . . . . . 12
1.2.3. La relacion de Grassmann . . . . . . . . . . . . . . . . . . . . . . . 13
1.3. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.3.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
2. Matrices y sistemas lineales 20
2.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.1.1. Producto matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.1.2. La inversa de una matriz . . . . . . . . . . . . . . . . . . . . . . . . 23
2.1.3. Producto matricial y combinaciones lineales . . . . . . . . . . . . . 23
2.1.4. Imagen y n ucleo de una matriz . . . . . . . . . . . . . . . . . . . . 24
2.2. Rango de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.2.1. Calculo del rango mediante operaciones elementales . . . . . . . . . 27
2.2.2. Algoritmo de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . 28
2.2.3. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . 28
2.3. Sistemas de ecuaciones lineales . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.3.1. Estructura de las soluciones . . . . . . . . . . . . . . . . . . . . . . 30
2.3.2. El teorema de Rouche-Frobenius . . . . . . . . . . . . . . . . . . . . 31
2.3.3. Resolucion de sistemas lineales por reduccion gaussiana . . . . . . . 32
2.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.4.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
i
3. Espacios vectoriales eucldeos 39
3.1. Producto escalar y norma . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.1. Familias ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.2.2. Ortonormalizacion de Gram-Schmidt y factorizacion QR . . . . . . 46
3.3. Producto hermtico y matrices unitarias . . . . . . . . . . . . . . . . . . . 48
3.3.1. Matrices unitarias . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.4.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
4. Proyecciones ortogonales y sus aplicaciones 53
4.1. Matriz de proyeccion ortogonal sobre un subespacio . . . . . . . . . . . . . 53
4.2. El problema de mnimos cuadrados . . . . . . . . . . . . . . . . . . . . . . 55
4.2.1. Soluciones de mnimos cuadrados de un sistema . . . . . . . . . . . 55
4.2.2. Solucion de mnima norma de un sistema compatible indeterminado 56
4.2.3. Solucion de mnimos cuadrados y mnima norma de un sistema . . . 58
4.3. Matriz de simetra ortogonal respecto a un subespacio . . . . . . . . . . . . 58
4.4. El producto vectorial en R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.5. Giros en R
2
y R
3
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
4.6. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.6.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
5. Reduccion por semejanza de una matriz 66
5.1. Introduccion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
5.2. Matrices semejantes y matrices diagonalizables . . . . . . . . . . . . . . . . 67
5.3. Valores y vectores propios . . . . . . . . . . . . . . . . . . . . . . . . . . . 67
5.3.1. Polinomio caracterstico . . . . . . . . . . . . . . . . . . . . . . . . 69
5.4. Diagonalizacion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
5.4.1. Teorema de CayleyHamilton . . . . . . . . . . . . . . . . . . . . . 75
5.4.2. Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76
5.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
5.5.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
6. Matrices normales 81
6.1. Semejanza unitaria y diagonalizacion unitaria . . . . . . . . . . . . . . . . 81
6.2. Matrices normales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 82
6.3. Teorema espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
6.3.1. Aplicacion a matrices hermticas, antihermticas y unitarias . . . . . 84
6.3.2. Descomposicion espectral . . . . . . . . . . . . . . . . . . . . . . . . 86
6.4. Matrices reales simetricas . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4.1. Formas cuadraticas . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
6.4.2. Clasicacion de matrices reales simetricas . . . . . . . . . . . . . . 88
6.4.3. Cociente de Rayleigh . . . . . . . . . . . . . . . . . . . . . . . . . . 90
ii
6.5. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
6.5.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
7. Descomposicion de valores singulares 95
7.1. Descomposicion de valores singulares (DVS) de una matriz. . . . . . . . . . 95
7.1.1. Existencia y determinacion de DVS de una matriz . . . . . . . . . . 95
7.1.2. Propiedades de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . 97
7.1.3. Matriz pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . 99
7.2. Normas vectoriales y matriciales . . . . . . . . . . . . . . . . . . . . . . . . 99
7.2.1. Normas en C
mn
(R
mn
) o C
n
(R
n
) . . . . . . . . . . . . . . . . . . 100
7.2.2. Normas matriciales inducidas por normas vectoriales . . . . . . . . 101
7.3. N umero de condicion de una matriz . . . . . . . . . . . . . . . . . . . . . . 103
7.4. Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
7.4.1. Cuestiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106
Bibliografa 108
iii
Captulo 1
Los espacios vectoriales R
n
y C
n
1.1 Denicion. Combinaciones lineales. Clausura lineal. Dependencia e independencia
lineal. Subespacios vectoriales. Intersecci on y suma de subespacios. Suma directa.
Subespacios suplementarios.
1.2 Bases. Dimension. La relacion de Grassmann.
1.3 Ejercicios. Cuestiones.
1.1. Denicion, propiedades y ejemplos
En el presente captulo nos proponemos estudiar los espacios vectoriales R
n
y C
n
, que
son generalizaciones del plano y el espacio eucldeo ordinarios as como de las magnitudes
vectoriales de la fsica. Se trata de conjuntos cuyos elementos, denominados vectores,
pueden sumarse entre s y asimismo multiplicarse por n umeros, que denominaremos es-
calares, obteniendose como resultado en ambos casos un nuevo vector.
Nota: En lo que sigue, la letra K denotara indistintamente el cuerpo R de los n umeros
reales o el cuerpo C de los n umeros complejos. Un cuerpo es, hablando de manera aproxi-
mada, un conjunto dotado de suma y producto a cuyos elementos pueden aplicarseles las
cuatro reglas de la aritmetica (suma, resta, multiplicacion y division) con la unica salvedad
de que el cero carece de inverso y, por tanto, no se puede dividir por cero. El concepto de
cuerpo se explica con mayor precision en el documento sobre n umeros complejos publicado
aparte.
Utilizamos el mismo smbolo + para denotar la suma en el espacio K
n
(suma de
vectores) y la suma del cuerpo K. El smbolo denota la ley externa en K
n
(producto
de escalar por vector)
1
.
1
En la practica, tanto para producto de escalares como escalar por vector, se yuxtaponen omitiendo
el punto .
1
2

Algebra
Denicion 1 Si n es cualquier entero positivo, denimos el espacio K
n
como el conjunto
de las n-uplas ordenadas de elementos de K, es decir:
K
n
:= (x
1
, x
2
, . . . , x
n
) : x
j
K, j = 1, 2, . . . , n. (1.1)
Los elementos de K
n
se denominan vectores. Los elementos x
j
K se denominan com-
ponentes del vector.
Denicion 2 (suma de vectores) En K
n
denimos la operacion suma mediante
(x
1
, x
2
, . . . , x
n
) + (y
1
, y
2
, . . . , y
n
) := (x
1
+y
1
, x
2
+y
2
, . . . , x
n
+y
n
). (1.2)
Denicion 3 (vector nulo) Llamamos vector nulo de K
n
, y lo denotamos por 0, al
vector (0, 0, . . . , 0).
Observacion: x K
n
, x +0 = 0 +x = x.
Denicion 4 (producto de escalar por vector) Si K y (x
1
, x
2
, . . . , x
n
) K
n
,
denimos su producto mediante
(x
1
, x
2
, . . . , x
n
) = (x
1
, x
2
, . . . , x
n
). (1.3)
Esta operaci on tambien se denomina ley externa de K
n
.
Propiedades:
De las deniciones anteriores y de las propiedades de la suma y el producto de n umeros
reales y complejos, se deducen las siguientes propiedades:
u K
n
, , K, ( +) u = u + u.
u, v K
n
, K, (u +v) = u + v.
u K
n
, , K, () u = ( u).
u K
n
, 1 u = u.
u K
n
, 0 u = 0.
Sean K y u K
n
; u = 0 = 0 u = 0.
K, u K
n
, () u = (u) = (u).
1.1.1. Combinaciones lineales
Denicion 5 (combinaci on lineal) Una combinacion lineal de los vectores u
1
, u
2
, . . . , u
k
de K
n
es cualquier vector de la forma
u =
1
u
1
+
2
u
2
+. . . +
k
u
k
, (1.4)
siendo
1
,
2
, . . . ,
k
K.
Captulo 1 3
Ejemplo: En R
3
, el vector
_
1
3
, 3,
4
3
_
es combinaci on lineal de los vectores (1, 0, 1) y
(1, 3, 2), ya que
_
1
3
, 3,
4
3
_
=
2
3
(1, 0, 1) + (1, 3, 2).
Observacion: El vector nulo es combinaci on lineal de cualesquiera vectores. Todo vector
es combinaci on lineal de s mismo.
Denicion 6 (clausura lineal) Dado un conjunto M K
n
, se dene la clausura lineal
de M, y se denota por L[M], como el conjunto de todas las combinaciones lineales de
vectores de M.
Ejemplo: En R
3
, sea M = (1, 0, 1), (1, 3, 2). L[M] es el conjunto de vectores de la
forma (1, 0, 1) +(1, 3, 2) con , escalares reales, es decir:
L[M] = ( +, 3, 2) : , R.
El vector
_
1
3
, 3,
4
3
_
del ejemplo anterior pertenece a L[M], pues se obtiene para =
2
3
y = 1.
1.1.2. Dependencia e independencia lineal
Denicion 7 (independencia lineal) Los vectores u
1
, u
2
, . . . , u
k
de K
n
son linealmente
independientes si la unica combinacion lineal de ellos que da el vector nulo es la que tiene
todos los coecientes nulos, es decir,

j
K,
1
u
1
+
2
u
2
+. . . +
k
u
k
= 0
1
=
2
= . . . =
k
= 0. (1.5)
En caso contrario, se dice que los vectores anteriores son linealmente dependientes.
Observacion: u
1
, u
2
, . . . , u
k
son linealmente dependientes si y solo si

1
,
2
, . . . ,
k
K, con alg un
i
,= 0, tales que
k

j=1

j
u
j
= 0. (1.6)
Lo anterior equivale a que se pueda despejar alguno de los vectores como combinaci on
lineal de los restantes, es decir,
u
i
=

j=i

j
u
j
,
j
K. (1.7)
(Basta considerar un u
i
cuyo
i
,= 0 en la combinaci on lineal que da el vector nulo).
Denicion 8 (sistema libre y ligado) Sea S = u
1
, u
2
, . . . , u
k
K
n
; se dice que S
es un sistema libre si u
1
, u
2
, . . . , u
k
son linealmente independientes; en caso contrario, se
dice que S es un sistema ligado.
4

Algebra
Ejemplos:
En R
3
, (1, 1, 1), (1, 1, 0), (1, 0, 0) es un sistema libre, ya que
(1, 1, 1)+(1, 1, 0)+(1, 0, 0) = (0, 0, 0) ++ = + = = 0 = = = 0.
Los tres vectores son linealmente independientes.
En el mismo espacio,
_
(1, 0, 1), (1, 3, 2),
_
1
3
, 3,
4
3
__
es ligado, ya que, como se
vio anteriormente,
_
1
3
, 3,
4
3
_
=
2
3
(1, 0, 1) + (1, 3, 2), lo que equivale a que

2
3
(1, 0, 1) + (1, 3, 2)
_
1
3
, 3,
4
3
_
= (0, 0, 0).
Los tres vectores son linealmente dependientes.
Nota: Por razones que se ver an mas adelante en este mismo tema, adoptamos el convenio
de considerar el conjunto vaco, , como un sistema libre.
Observacion: Recapitulando:
Cualquier subconjunto de un sistema libre es libre.
Cualquier conjunto que contenga el vector nulo es un sistema ligado.
Cualquier conjunto que contenga dos vectores proporcionales es ligado.
La union de un sistema ligado con cualquier otro siempre da un sistema ligado.
Un sistema S es ligado si y solo si alg un vector de S es combinacion lineal de los
restantes vectores de S.
S es libre si y solo si ning un vector de S es combinaci on lineal de los restantes
vectores de S.
Ejemplo: En K
n
, consideramos los n vectores e
1
= (1, 0, . . . , 0), e
2
= (0, 1, 0, . . . , 0), . . . ,
e
n
= (0, . . . , 0, 1) (para cada j = 1, 2, . . . , n, e
j
es el vector que tiene nulas todas sus
componentes excepto la j-esima que vale 1). Estos vectores se conocen como vectores
canonicos de K
n
.
El sistema formado por los vectores canonicos es libre. En efecto, si
j
K,

1
e
1
+
2
e
2
+. . . +
n
e
n
= 0 (
1
,
2
, . . . ,
n
) = (0, 0, . . . , 0)
j
= 0 j = 1, 2, . . . , n.
Captulo 1 5
1.1.3. Subespacios vectoriales
El concepto de subespacio vectorial se reere a todo subconjunto H de K
n
que, por
s mismo, mantenga la estructura de espacio vectorial de aquel, como por ejemplo sucede en
R
3
con los planos coordenados. Esta idea se traduce en que, si se efect uan las operaciones
propias de K
n
con los vectores de H, se tienen que obtener en todos los casos vectores
pertenecientes a H.
Denicion 9 (subespacio vectorial) Un subespacio vectorial de K
n
es cualquier sub-
conjunto de dicho espacio que sea cerrado para la suma y para el producto por escalares,
es decir:
H K
n
; se dice que H es un subespacio vectorial de E si:
1. 0 H.
2. u, v H, u +v H.
3. K, u H, u H.
Notese que los apartados 2. y 3. pueden escribirse conjuntamente en la forma:
u, v H, , K, u +v H. (1.8)
As pues, un subespacio vectorial es un conjunto no vaco cerrado para las combina-
ciones lineales.
Observacion: El propio espacio K
n
es subespacio vectorial de s mismo; ademas, el
conjunto 0 formado unicamente por el vector nulo, constituye un subespacio que lla-
maremos subespacio nulo. Estos dos subespacios son los llamados subespacios triviales
de K
n
.
Ejemplos:
1. En R
4
consideramos el subconjunto H = x R
4
: x
1
= 2x
3
.
H, que obviamente contiene el (0, 0, 0, 0), es un subespacio vectorial; en efecto,
sean x, y H, es decir, que satisfacen que x
1
= 2x
3
y x
1
= 2x
3
. Para cualesquiera
, R, consideramos el vector x+y, cuya primera componente vale x
1
+x
1
=
2(x
3
+x
3
); como x
3
+x
3
es precisamente el valor de la tercera componente de
x +y, concluimos que este vector pertenece a H y por tanto este es subespacio.
2. En R
3
, el plano de ecuacion x + y 2z = 5 no es subespacio vectorial, ya que el
vector nulo (origen de coordenadas) no pertenece a dicho plano.
3. En R
3
, el paraboloide P de ecuacion z = x
2
+ y
2
, pese a contener al (0, 0, 0), no es
subespacio vectorial. En efecto, si tomamos los puntos (1, 1, 2) y (1, 1, 2), ambos
pertenecen a P, pero su suma (0, 0, 4) no satisface la ecuacion.
6

Algebra
Observacion: La clausura lineal de cualquier conjunto M es un subespacio vectorial,
ya que las combinaciones lineales de vectores de L[M] pueden reducirse a su vez a combi-
naciones lineales de vectores de M, y pertenecen por tanto a L[M], el cual se denomina
tambien subespacio generado por M. Cualquier subespacio que contenga a M necesaria-
mente contiene a L[M].
Observacion: Como consecuencia de la observaci on anterior, en R
2
los unicos subespa-
cios no triviales son las rectas que pasan por el origen, y en R
3
las rectas que pasan por
el origen y los planos que contienen a dicho punto.
1.1.4. Interseccion y suma de subespacios
Recuerdese que la interseccion de dos conjuntos es el conjunto formado por aquellos
elementos que pertenecen simultaneamente a ambos, es decir:
A, B conjuntos; x A B x A x B. (1.9)
Proposicion 1 La interseccion de dos subespacios vectoriales de K
n
es subespacio vecto-
rial de dicho espacio.
Demostracion: Sean los subespacios M y N de K
n
. M N contiene obviamente al
vector nulo. Sean los vectores u, v M N; as pues, u, v M y u, v N; por ser estos
conjuntos subespacios, para cualesquiera , K, u+v M y u+v N, es decir,
u +v N M. 2
Observacion: La union de subespacios vectoriales no es, en general, subespacio vec-
torial. Considerense, por ejemplo, los dos ejes coordenados de R
2
, que son subespacios.
Tanto el vector e
1
como el e
2
pertenecen a la union de dichos subespacios, pero su vector
suma (1, 1) no pertenece a dicha union.
De hecho, dados dos subespacios L, M de un mismo espacio vectorial E, se tiene que
L M es subespacio (L M M L). (1.10)
Denicion 10 (suma de subespacios) Dados dos subespacios L y M de K
n
, denimos
su suma como
L +M := u +v : u L , v M. (1.11)
En general, la denicion anterior puede extenderse recursivamente a un n umero nito
de subespacios de un mismo espacio.
Captulo 1 7
Ejemplo: En R
3
, se consideran los dos ejes coordenados OX = (x, 0, 0) : x R y
OY = (0, y, 0) : y R. La suma de dichos subespacios es el plano XOY , es decir,
OX +OY = XOY = (x, y, 0) : x, y R.
Observese que como resultado de la suma hemos obtenido un nuevo subespacio vectorial
de R
3
.
Proposicion 2 La suma de subespacios vectoriales de K
n
es un subespacio vectorial de
K
n
.
Demostracion: M +N es no vaco ya que contiene a M y a N. Sean x, y M +N, es
decir, x = u
1
+v
1
e y = u
2
+v
2
, con u
j
M y v
j
N. Entonces, , K,
x +y = (u
1
+v
1
) +(u
2
+v
2
) = u
1
+v
1
+u
2
+v
2
= (1.12)
(u
1
+u
2
) + (v
1
+v
2
) M +N, (1.13)
ya que u
1
+u
2
pertenece a M por ser combinaci on lineal de vectores de M, e igualmente
le sucede al segundo sumando respecto a N. 2
Denicion 11 (suma directa) Dados dos subespacios vectoriales de K
n
, diremos que
su suma es directa, y escribiremos L M, si L M = 0.
Nota: Para mas de dos subespacios, se dice que su suma es directa si lo es la de cada
subespacio con la suma de todos los demas.
Proposicion 3 (Caracterizacion de suma directa.) Sean L, M subespacios vectoria-
les de K
n
; la suma L+M es directa si y solo si u L+M, existen unicos v L, w M,
tales que u = v +w.
Demostracion: (no exigible)
) Supongamos que se tiene LM, es decir, LM = 0, y sea un vector u = v
1
+w
1
=
v
2
+w
2
con v
j
L y w
j
M. Entonces v
1
v
2
= w
2
w
1
es un vector de L seg un la expresion
del primer miembro y de M como consecuencia de la del segundo, es decir, que pertenece a
L M y es por tanto el vector nulo. Por consiguiente, v
1
= v
2
y w
1
= w
2
y la descomposicion
de u es unica.
) Supongamos que todo vector de L+M se descompone de manera unica. Dado cualquier
vector u L M podemos escribirlo como u = u + 0 pero tambien como u = 0 + u, siendo
en ambos casos el primer sumando perteneciente a L y el segundo a M. La unicidad de la
descomposicion obliga a que sea u = 0 y, consecuentemente, L M = 0. 2
Denicion 12 (subespacios suplementarios) Dos subespacios L y M de K
n
se dicen
suplementarios si L M = K
n
.
8

Algebra
Observacion: Dados dos subespacios suplementarios L, M, todo vector de K
n
se des-
compone de forma unica como suma de un vector de L y otro de M.
Ejemplo: En R
2
cualesquiera dos rectas distintas que pasen por el origen son suplemen-
tarias. En R
3
, cualquier plano que contenga al origen es suplementario a cualquier recta
que lo corte unicamente en dicho punto.
1.2. Bases
1.2.1. Base y dimension
Denicion 13 (sistema generador) Dados H subespacio vectorial de K
n
y / H,
se dice que / es un sistema generador (o sistema de generadores) de H si H = L[/],
es decir, si todo vector de K
n
puede ponerse como combinacion lineal de los de /.
Ejemplo: Los vectores canonicos de K
n
constituyen un sistema generador de dicho
espacio, ya que x = (x
1
, x
2
, . . . , x
n
) K
n
,
x = x
1
e
1
+x
2
e
2
+. . . +x
n
e
n
.
Denicion 14 (base) Dado H subespacio vectorial de K
n
, una base de H es un sistema
generador, libre y ordenado.
Denicion 15 (base canonica) En K
n
, el conjunto formado por los vectores canonicos
(e
1
, e
2
, . . . , e
n
), que ya se ha visto que constituye un sistema libre y generador de K
n
, es
por tanto una base que denominaremos base canonica de K
n
.
Ejemplo: Encontrar una base del subespacio de R
4
determinado por la ecuacion
x
1
x
2
+ 3x
3
+x
4
= 0.
Solucion: puesto que tenemos una unica ecuacion y cuatro incognitas, podemos dar
valores arbitrarios a tres de ellas y escribir la cuarta en funcion de esas tres, por ejemplo:
x
2
= , x
3
= , x
4
= , x
1
= 3 , es decir:
_
_
_
_
_
x
1
x
2
x
3
x
4
_
_
_
_
_
=
_
_
_
_
_
3

_
_
_
_
_
=
_
_
_
_
_
1
1
0
0
_
_
_
_
_
+
_
_
_
_
_
3
0
1
0
_
_
_
_
_
+
_
_
_
_
_
1
0
0
1
_
_
_
_
_
.
Captulo 1 9
Los tres vectores anteriores engendran de manera evidente el subespacio y son linealmente
independientes (veanse las tres ultimas componentes), constituyendo por lo tanto una base
del mismo.
Teorema 1 (existencia de bases) Todo subespacio vectorial admite una base.
Teorema 2 (equicardinalidad de bases) Todas las bases de un mismo subespacio vec-
torial tienen el mismo n umero de vectores.
Denicion 16 (dimension) Llamamos dimension de un subespacio vectorial H, y la
denotamos por dimH, al n umero de elementos de cualquiera de sus bases.
Ejemplo: dimK
n
= n ya que la base canonica esta formada por n vectores.
Nota: Adoptamos el convenio de considerar al conjunto vaco, , como la base del sub-
espacio nulo 0. As pues, dim(0) = 0. Con esta convenci on, la relacion de Grassmann
que se vera mas adelante as como otros resultados de este curso siguen siendo validos
cuando alguno de los subespacios involucrados es el nulo.
Recuerdese en todo caso que 0 as como cualquier conjunto que lo contenga siempre
es un sistema ligado.
Proposicion 4 De todo sistema generador de un subespacio vectorial H puede extraerse
una base.
Apunte constructivo: Sea ( un generador nito de H. Si es libre el resultado esta proba-
do. Si es ligado, existe un vector v ( que depende linealmente de los restantes vectores
de (; por tanto, al suprimir ese vector, el conjunto resultante ( v sigue engendrando
el mismo subespacio H. Se repite el argumento y, dado que ( es nito, en un n umero
nito de pasos habremos extrado de ( un generador libre.
Observacion: La construccion anterior muestra que una base es un sistema generador
minimal, es decir, con el menor n umero posible de vectores. As pues, la dimension
de un subespacio equivale al mnimo n umero de vectores para un sistema
generador de dicho subespacio.
Del mismo modo, en un subespacio de dimension m no puede existir un sistema libre
con un n umero de vectores superior a m, pues en tal caso se tratara de una base y
la dimension sera mayor que m. As, una base se caracteriza por ser un sistema libre
maximal, es decir, con el maximo n umero posible de vectores. La dimension es el
mayor n umero posible de vectores linealmente independientes.
Algunas ideas anes a lo anterior se recapitulan en la siguiente proposicion:
10

Algebra
Proposicion 5 Sea H un subespacio de K
n
cuya dimension es m:
Si u
1
, . . . , u
m
es un sistema libre de H, entonces es generador (y por tanto base)
de H.
Si u
1
, . . . , u
m
es un sistema generador de H, entonces es libre (y por tanto base
de H).
Si H es un subespacio de K
n
cuya dimension tambien es n, entonces H = K
n
.
Observacion: Si un subespacio H tiene dimension k, el vector generico de dicho espacio
puede escribirse como
x =
1
u
1
+. . . +
k
u
k
,
j
K, (1.14)
en donde (u
1
, . . . , u
k
) es una base de H. La expresion anterior coincide con la de la solu-
cion general de un sistema de n k ecuaciones lineales homogeneas, que denominaremos
ecuaciones implcitas de H, que caracterizan a los vectores de dicho subespacio. Para
encontrar dichas ecuaciones basta con eliminar los parametros de la ecuacion vectorial
anterior o, equivalentemente, forzar a que el vector generico x = (x
1
, . . . , x
n
) sea combi-
nacion lineal de los de la base de H.
Para un subespacio H de K
n
, el n umero de ecuaciones implcitas independientes
que lo determinan es n dimH. Esto quedara demostrado en la proposicion 14 del tema
2.
Ejemplo: En R
3
, encontrar la ecuacion implcita que determina el subespacio H =
L[(1, 0, 1), (1, 3, 2)].
Solucion: El vector generico (x, y, z) de H se expresa mediante las ecuaciones parametri-
cas
x = +
y = 3
z = + 2
siendo , parametros reales. Procedemos a eliminar dichos parametros (formalmente,
esto equivale a forzar, en terminos de x, y, z, a que el sistema lineal cuyas incognitas son
, sea compatible): = z x y = 3(z x), de donde se concluye que la ecuacion
implcita de H es
3x +y 3z = 0.
Otra forma: La pertenencia a H del vector (x, y, z) equivale a que la ultima columna
de la matriz
_
_
_
1 1 x
0 3 y
1 2 z
_
_
_
Captulo 1 11
sea combinaci on de las dos primeras; si conocemos el concepto de rango, sabemos que
lo anterior sucede si y solo si dicha matriz tiene rango 2. Triangularizamos la matriz
mediante operaciones de reduccion de gaussiana e imponemos que el rango sea 2:
_
_
_
1 1 x
0 3 y
1 2 z
_
_
_
_
_
_
1 1 x
0 3 y
0 1 z x
_
_
_
_
_
_
1 1 x
0 3 y
0 0 3(z x) y
_
_
_
cuyo rango sera 2 si y solo si 3x +y 3z = 0.
Observese que, puesto que la matriz es cuadrada, tambien podramos haber procedido
forzando a que su determinante se anulase.
Teorema 3 (complecion de la base) Sea H un subespacio vectorial de dimension m, y
sea ( = u
1
, u
2
, . . . , u
k
un sistema libre de H, con k < m. Entonces existen u
k+1
, . . . , u
m
H, tales que (u
1
, . . . , u
k
, u
k+1
, . . . , u
m
) es una base de H.
Demostracion constructiva:
Puesto que todo sistema generador de H tiene al menos m elementos, el conjunto (
no puede ser generador, luego existe alg un vector u
k+1
que no es combinacion lineal de
los de (, es decir, u
k+1
H L[u
1
, u
2
, . . . , u
k
].
El conjunto obtenido u
1
, u
2
, . . . , u
k
, u
k+1
es un sistema libre de H, ya que u
k+1
no
depende linealmente de los k primeros vectores que, a su vez, son linealmente indepen-
dientes entre s.
Si k +1 = m, ya tenemos una base de H, pues el conjunto u
1
, u
2
, . . . , u
k
, u
k+1
es un
sistema libre de m vectores; en caso contrario, volvemos a aplicar el mismo razonamiento
a dicho conjunto (sea u
k+2
H L[u
1
, u
2
, . . . , u
k
, u
k+1
], etc.); en mk pasos, habremos
obtenido un sistema libre de n vectores, es decir, una base de E. 2
Ejemplo: Encontrar una base de R
4
cuyos dos primeros vectores sean (1, 2, 3, 4),
(1, 0, 1, 0).
Solucion: En lugar de proceder paso a paso como en la construccion teorica anterior,
vamos a intentar encontrar los dos vectores directamente. Probamos con aquellos que
nos pueden facilitar los calculos, es decir, los canonicos, por ejemplo (0, 0, 1, 0), (0, 0, 1, 0)
y simplemente comprobamos si estos vectores completan la base. En efecto, el sistema
obtenido es libre ya que, con una simple operacion de reduccion gaussiana por las,
_
_
_
_
_
1 2 3 4
1 0 1 0
0 0 1 0
0 0 0 1
_
_
_
_
_

_
_
_
_
_
1 2 3 4
0 2 4 4
0 0 1 0
0 0 0 1
_
_
_
_
_
de donde concluimos que las cuatro las de la matriz son linealmente independientes.
As pues, una base que satisface las condiciones pedidas es
((1, 2, 3, 4), (1, 0, 1, 0), (0, 0, 1, 0), (0, 0, 0, 1)) .
12

Algebra
Si los dos vectores escogidos nos hubiesen proporcionado una matriz de rango inferior a
4, escogeramos otros distintos y repetiramos la comprobacion.
1.2.2. Coordenadas respecto a una base
Denicion 17 (coordenadas respecto a una base) Sea B = (u
1
, . . . , u
n
) una base
de K
n
. Si v K
n
, v = x
1
u
1
+ . . . + x
n
u
n
con x
j
K, los escalares x
1
, . . . , x
n
se
denominan coordenadas del vector v respecto a la base B.
El vector x = (x
1
, . . . , x
n
) K
n
se denomina vector de coordenadas de v respecto
a B, y se suele denotar por [v]
B
.
Nota: De igual modo pueden denirse las coordenadas respecto a una base de un sub-
espacio de K
n
de cualquier vector perteneciente a dicho subespacio.
Proposicion 6 Las coordenadas de un vector respecto a una base son unicas.
Demostracion: Supongamos que un vector u puede expresarse como u = x
1
u
1
+. . . +
x
n
u
n
= x

1
u
1
+. . . +x

n
u
n
. Entonces,
0 = x
1
u
1
+. . . +x
n
u
n
(x

1
u
1
+. . . +x

n
u
n
) = (x
1
x

1
)u
1
+. . . + (x
n
x

n
)u
n
, (1.15)
lo que implica, por la independencia lineal de los u
j
, que todos los escalares x
j
x

j
valen
0, es decir, que x

j
= x
j
j = 1, 2, . . . , n. 2
Observacion: Las coordenadas de un vector respecto a la base canonica de K
n
coinciden
con las componentes del vector.
Ejemplo: Calcular las coordenadas del vector u = (1, 2, 3) respecto a la base B =
((1, 0, 1), (1, 1, 1), (1, 2, 0)) de R
3
.
Solucion: Buscamos x, y, z tales que x(1, 0, 1) + y(1, 1, 2) + z(1, 2, 0) = (1, 2, 3), es
decir, tenemos que resolver el sistema de tres ecuaciones lineales cuya matriz ampliada es
_
_
_
1 1 1
0 1 2
1 1 0

1
2
3
_
_
_.
Realizamos operaciones de reduccion gaussiana por las (es decir, ecuaciones), obteniendo:
_
_
_
1 1 1
0 1 2
0 2 1

1
2
2
_
_
_
_
_
_
1 1 1
0 1 2
0 0 3

1
2
6
_
_
_,
que, despejando las incognitas de abajo a arriba, nos da la solucion z = 2, y = 2, x = 1.
El vector de coordenadas es, por tanto,
[u]
B
= (1, 2, 2).
Captulo 1 13
1.2.3. La relacion de Grassmann
Observacion: Dados dos subespacios M
1
y M
2
, de sistemas generadores respectivos
/
1
y /
2
, se tiene que /
1
/
2
es un sistema generador de M
1
+ M
2
; es decir, que
la union de los sistemas generadores es un sistema generador de la suma; en
particular, la union de las bases es un sistema generador (pero no necesariamente base)
de la suma.
Proposicion 7 (Relacion de Grassmann) Dados dos subespacios vectoriales L, M de
K
n
, se tiene que
dim(L +M) = dimL + dimM dim(L M). (1.16)
Demostracion: (no exigible)
Llamamos l = dimL, m = dimM, k = dim(LM); queremos demostrar que dim(L+
M) = l +mk.
Sea (u
1
, . . . , u
k
) una base de L M. Puesto que L M L, aplicando el teorema
de complecion de la base en este subespacio, sabemos que existen v
1
, . . . , v
lk
L tales
que (u
1
, . . . , u
k
, v
1
, . . . , v
lk
) es una base de L; pero tambien, como L M M, pode-
mos aplicar igualmente el teorema de complecion de la base en el espacio M: existen
w
1
, . . . , w
mk
M tales que (u
1
, . . . , u
k
, w
1
, . . . , w
mk
) es una base de M.
A continuaci on construimos el sistema
(u
1
, . . . , u
k
, v
1
, . . . , v
lk
, w
1
, . . . , w
mk
) (1.17)
y probaremos que es una base de L +M:
Es sistema generador de L +M, pues es la union de sendas bases de L y de M.
Es sistema libre: supongamos que, para
j
,
j
,
j
K,
k

j=1

j
u
j
+
lk

j=1

j
v
j
+
mk

j=1

j
w
j
= 0, (1.18)
es decir,
k

j=1

j
u
j
+
lk

j=1

j
v
j
=
mk

j=1

j
w
j
. (1.19)
El primer miembro de la anterior igualdad es combinaci on lineal de los elementos
de la base de L; el segundo miembro lo es de algunos elementos de la base de M;
por lo tanto, pertenece a L M, es decir:
mk

j=1

j
w
j
L M. (1.20)
14

Algebra
Consecuentemente, el sumatorio anterior es combinacion lineal de los vectores de la
base (u
1
, . . . , u
k
) de L M, esto es,
mk

j=1

j
w
j
=
k

j=1

j
u
j
(1.21)
para algunos escalares
j
K; pero como los vectores u
j
, w
j
son linealmente in-
dependientes por constituir todos juntos una base de M, tenemos que todos los
coecientes en la anterior igualdad son nulos; en particular,

j
= 0, j = 1, 2, . . . , mk. (1.22)
Pero esto, sustituyendo en (1.18), nos lleva a que
k

j=1

j
u
j
+
lk

j=1

j
v
j
= 0, (1.23)
que, por la independencia lineal de los u
j
, v
j
(pues todos juntos constituyen una
base de L), nos permite concluir que todos los coecientes
j
,
j
son nulos. Con lo
que concluimos que todos los coecientes
j
,
j
,
j
de la combinaci on lineal (1.18)
de partida son nulos.
Recapitulando: hemos construido una base de L+M que tiene k +(l k) +(mk) =
l +mk elementos, luego dim(L +M) = l +mk, como queramos demostrar. 2
Ejemplo: En R
4
, se consideran los subespacios M denido mediante las ecuaciones
M :
_
x
1
+x
2
x
3
= 0
x
2
x
4
= 0
y N = L[(1, 2, 1, 0), (1, 1, 0, 1)]. Encuentrense sendas bases de los subespacios M N y
M +N, as como unas ecuaciones implcitas de los mismos.
Solucion: Calcularemos primero una base de M N. El vector generico de M es
(1, 2, 1, 0) +(1, 1, 0, 1) = ( +, 2 +, , )
al cual, para que pertenezca simultaneamente a N, le imponemos las ecuaciones de este
subespacio:
+ + 2 + = 2 + 2 = 0 = ;
2 + + = 2 + 2 = 0 = .
As pues, los vectores de MN dependen de un unico parametro (es decir, dim(MN) =
1), siendo estos vectores de la forma [(1, 2, 1, 0)(1, 1, 0, 1)] = (0, 1, 1, 1) y, por tanto,
una base de N M es ((0, 1, 1, 1)).
Captulo 1 15
Ahora, por la relacion de Grassman, sabemos que dim(M +N) = 2 + 2 1 = 3; para
construir una base de M + N, partimos de la base de la intersecci on y la completamos
con sendos vectores de M N = M (M N) y de N M = N (M N). Como ning un
vector no proporcional a (0, 1, 1, 1) puede pertenecer a N M, tomamos por ejemplo
(1, 0, 1, 0) M N (pues satisface las ecuaciones de M) y (1, 1, 0, 1) N M. Hemos
construido, pues, una base de M +N,
((0, 1, 1, 1), (1, 0, 1, 0), (1, 1, 0, 1))
en la que el primer vector constituye una base MN, el primero junto al segundo forman
una base de M, y el primero mas el tercero son base de N.
En cuanto a las ecuaciones implcitas, dado que dim(M N) = 1, sabemos que este
subespacio estara caracterizado por 4 1 = 3 ecuaciones independientes. Los vectores
proporcionales a (0, 1, 1, 1) se caracterizan por ser x
1
= 0, x
2
= x
3
= x
4
, as que
_

_
x
1
= 0
x
2
x
3
= 0
x
3
x
4
= 0
son unas ecuaciones implcitas de M N (resolucion sistematica: se elimina el parametro
de las ecuaciones parametricas (x
1
, x
2
, x
3
, x
4
) = (0, , , )).
Respecto a M + N, como su dimension vale 3, estara caracterizado por 4 3 = 1
ecuacion. Para calcularla, obligamos a que el vector (x
1
, x
2
, x
3
, x
4
) sea combinacion lineal
de los de la base del subespacio, por ejemplo escribiendo
_
_
_
_
_
1 1 0
1 0 1
0 1 1
1 0 1

x
1
x
2
x
3
x
4
_
_
_
_
_
(se ha alterado el orden de los vectores de la base por comodidad en los calculos) y
obligando a que el sistema lineal cuya matriz ampliada es la antescrita sea compatible.
Realizando operaciones de reduccion gaussiana por las,
_
_
_
_
_
1 1 0
0 1 1
0 1 1
0 1 1

x
1
x
2
x
1
x
3
x
4
+x
1
_
_
_
_
_

_
_
_
_
_
1 1 0
0 1 1
0 1 1
0 0 0

x
1
x
2
x
1
x
3
x
4
+x
1
x
3
_
_
_
_
_
,
de modo que el sistema sera compatible siempre que x
1
x
3
+x
4
= 0 y esta es la ecuacion
implcita de M +N.
Notese que, puesto que la matriz es cuadrada, se obtiene el mismo resultado imponien-
do que el determinante sea igual a 0.
Observacion: Para cualesquiera subespacios L, M de intersecci on nula, dim(LM) =
dimL + dimM.
En particular, si L, M son dos subespacios suplementarios en K
n
, entonces n = dimL+
dimM.
16

Algebra
1.3. Ejercicios
1.1. Se considera el subespacio de R
4
H = L[(1, 2, 0, 1), (1, 0, 1, 1), (1, 2, 2, 3)]. Se
pide:
1. Hallar unas ecuaciones implcitas de H.
2. Hallar una base y unas ecuaciones implcitas de un suplementario de H cuyos vec-
tores tengan sus dos ultimas componentes iguales pero no todas nulas.
1.2. Determinar justicadamente cuales de los siguientes subconjuntos son subespacios
vectoriales. Para aquellos que lo sean, encontrar una base.
1. H = (x, y, z) R
3
: (x +y z)(x y +z) = 0.
2. M = (x, y, z) R
3
: x + 2y z = 1.
3. P = (x
1
, x
2
, x
3
, x
4
) R
4
: x
1
+x
2
= x
3
+x
4
x
1
x
2
= x
3
x
4
.
4. N = (x, y, z) R
3
: (x, y, z) (1, 2, 1) = (0, 0, 0).
5. S = L[(1, 2, 1), (1, 1, 0)] L[(1, 3, 2)].
1.3. En R
4
se considera el subespacio L generado por los vectores (1, 1, 1, 1) , (1, 2, 3, 4) ,
(5, 3, 1, 1) , (0, 1, 0, 1) . Se pide:
1. Comprobar que esos cuatro vectores son linealmente dependientes.
2. Hallar una base de L.
3. Construir una base de R
4
extendiendo la base anterior con vectores cuyas tres
primeras componentes sean iguales a 2.
1.4. Se consideran los vectores (1, 1, 2) , (2, 0, 1) , (a, 1, 0) de R
3
.
1. Determinar los valores del parametro a para que sean linealmente independientes.
2. Para a = 3, estudiar si el vector (1, 1, 1) es combinaci on lineal de ellos.
1.5. Determinar los valores de los parametros y que hacen que los tres vectores
(1, 2, 1, 3) , (1, 1, , 3) y (3, 2, 5, ) sean linealmente independientes.
1.6. Sea V el subespacio de R
4
denido por las ecuaciones implcitas
x
1
+x
2
x
3
= 0, x
1
+x
4
= 0, x
2
x
3
x
4
= 0.
Escribir las ecuaciones de un subespacio suplementario de V . Es unico este suplemen-
tario?
Captulo 1 17
1.7. Calcular las coordenadas del vector (a, b, c) de R
3
respecto a la base ((1, 1, 0), (1, 0, 1),
(0, 1, 1)).
1.8. Comprobar la dependencia o independencia lineal de los vectores de C
3
(1 +i, 1, 0), (1 +i, 1 3i, 1 i), (1, 1 i, 1).
1.9. En R
5
se considera el subespacio M que tiene por base ((1, 0, 1, 0, 1), (0, 1, 1, 1, 0),
(1, 1, 0, 1, 1)). Se pide:
1. Hallar unas ecuaciones implcitas de M.
2. Determinar los valores de a, b para que el vector (1, 1, a, b, 1) pertenezca a M.
3. Para esos valores, hallar las coordenadas de dicho vector respecto a la base del
enunciado.
1.10. Determinar una base escalonada del subespacio de R
6
engendrado por las las
de la matriz
_
_
_
_
_
1 1 1 1 8 14
1 1 0 3 15 18
1 1 2 2 1 7
1 1 2 2 2 8
_
_
_
_
_
.
Completar la base obtenida hasta obtener una base del espacio R
6
. Hallar las coordenadas
del vector (1, 1, 1, 1, 1, 1) en la base obtenida.
1.11. Hallar una base de cada uno de los subespacios U +V y U V , siendo:
1. U = L[(1, 0, 2, 2), (1, 1, 0, 1)], V = L[(1, 2, 2, 0), (0, 1, 1, 2)].
2. U = L[(1, 2, 1, 0), (0, 1, 0, 1)], V = L[(0, 0, 1, 1), (1, 1, 2, 2)].
1.12. Sean F y G dos subespacios de R
n
cuyas dimensiones son p y q. Determinar
todos los posibles valores de las dimensiones de los subespacios F +G y F G.
1.13. En R
3
se consideran dos bases:
B = (u
1
, u
2
, u
3
) 1 = (u
1
+u
3
, u
2
2u
1
, u
3
u
2
) .
Determinar las coordenadas del vector u
1
+u
2
+u
3
respecto a la base 1.
18

Algebra
1.3.1. Cuestiones
1.14. Se consideran los subespacios M, N de R
4
denidos por:
M = L(0, 1, 1, 0), (1, 1, 3, 1), (1, 1, 1, 1) ; N =
_

_
x
1
x
2
+x
3
x
4
= 0
x
1
+x
3
+x
4
= 0
2x
1
x
2
+ 2x
3
= 0
Determnese la veracidad o falsedad de las siguientes armaciones:
1. dimM = 3
2. dimN = 2
3. M +N = R
4
4. (0, 1, 1, 0) M N
5. (1, 2, 0, 1) M
1.15. Sean u, v, w tres vectores linealmente independientes de R
n
. Si , , denotan
n umeros reales, determnese la veracidad o falsedad de las siguientes armaciones:
1. Si u +v = 0, entonces = = 0.
2. No existen , R tales que w = u +v.
3. Se cumple que u +v +v = 0 = = = 0.
4. ( + +)(u +v +w) = 0 = = = 0.
5. u +v +w ,= 0.
1.16. Se considera el sistema / = (1, 1, a), (1, a, a), (a, a, a), donde a es un n umero
real. Determnese la veracidad o falsedad de las siguientes armaciones:
1. / no puede ser base de R
3
.
2. a ,= 0, / es base de R
3
.
3. Si a =

3
, / es un sistema libre.
4. a R, / es un sistema generador de R
3
.
5. Si a = 0, / es un sistema libre.
1.17. En el espacio R
4
, se considera el subespacio H denido mediante la ecuacion
x
1
+2x
2
+3x
3
+4x
4
= 0. Determnese la veracidad o falsedad de las siguientes armaciones:
Captulo 1 19
1. dimH = 3.
2. L[(1, 1, 1, 1)] es un subespacio suplementario de H en R
4
.
3. L[(1, 0, 0, 0), (1, 1, 1, 1)] +H = R
4
.
4. Si M es un subespacio suplementario de H en R
4
, dimM = 1.
5. L[(1, 0, 0, 0), (1, 1, 1, 1)] H = 0.
1.18. Se considera la base B = ((1, 1, 0), (1, 0, 1), (0, 1, 1)) de R
3
. Determnese la ve-
racidad o falsedad de las siguientes armaciones:
1. El vector de coordenadas de (2, 0, 0) respecto a B es (1, 1, 1).
2. El vector de coordenadas de (1, 1, 0) respecto a B es (1, 1, 0).
3. El vector de coordenadas de (0, 0, 1) B respecto a B es
1
2
(1, 1, 1).
4. (0, 1, 0) es combinaci on lineal de los dos primeros vectores de B.
5. Todo vector de R
3
es combinaci on lineal de los vectores de B.
Captulo 2
Matrices y sistemas lineales
2.1 Matrices. Producto matricial. Imagen y n ucleo de una matriz.
2.2 Rango. Operaciones de reduccion gaussiana. Matriz de cambio de base.
2.3 Sistemas lineales. Estructura de las soluciones. Teorema de Rouche-Frobenius. Re-
solucion de sistemas por reduccion gaussiana.
2.4 Ejercicios.
2.1. Matrices
Denicion 18 Sean m, n enteros positivos. Una matriz de tama no mn es una tabla
rectangular formada por mn escalares de K que se disponen como se indica:
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
m1
a
m2
a
mn
_
_
_
_
_
_
. (2.1)
Cada a
ij
se llama elemento, coeciente o entrada de la matriz. Se dice que esta situado
en la la i y en la columna j de la matriz.
La matriz esta formada por m las que son vectores de K
n
y por n columnas que lo
son de K
m
. Solemos utilizar letras may usculas para indicar una matriz A, B, M, etc. y
la correspondiente min uscula para sus entradas: a
ij
, b
ij
, m
ij
. A veces expresaremos a
ij
=
(A)
ij
. En general se intentar a que la notacion se explique a s misma. El vector F
i
(A) =
(a
i1
, a
i2
, . . . , a
in
) constituye la la i-esima de la matriz y el vector
C
j
(A) =
_
_
_
_
_
_
a
1j
a
2j
.
.
.
a
mj
_
_
_
_
_
_
(2.2)
20
Captulo 2 21
es la columna j-esima de la matriz.
El conjunto de las matrices con m las y n columnas y coecientes en K se denota
K
mn
. Dicho conjunto esta dotado de las operaciones suma y producto por un escalar:
A, B K
mn
(A+B)
ij
:= a
ij
+b
ij
,
K, A K
mn
(A)
ij
:= a
ij
.
A los elementos a
ii
de igual ndice de la que de columna se les llama elementos
diagonales de la matriz y constituyen la diagonal principal de la matriz.
En particular, si m = n se dice que la matriz es cuadrada de orden n. La matriz
cuadrada cuyos elementos diagonales son iguales a 1 y el resto nulos se llama matriz
identidad (o matriz unidad) y se denota con la letra I:
I =
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
. (2.3)
Denicion 19 (matrices triangulares)
Se dice que A es triangular superior si sus elementos por debajo de la diagonal
principal son nulos, es decir, si a
ij
= 0 para todo i > j.
Se dice que A es triangular inferior si sus elementos por encima de la diagonal
principal son nulos, es decir, si a
ij
= 0 para todo i < j.
Se dice que A es diagonal si es triangular superior e inferior simultaneamente.
Ejemplo: La matriz identidad I es un ejemplo de matriz diagonal: obviamente, es tanto
triangular superior como triangular inferior.
2.1.1. Producto matricial
Denicion 20 Dadas dos matrices A K
mn
, B K
nr
, se dene su producto AB
como aquella matriz C K
mr
tal que c
ij
=
n

k=1
a
ik
b
kj
, i = 1, 2, . . . , m , j = 1, 2, . . . , r.
El elemento (i, j) del producto se obtiene multiplicando la la i de la primera matriz
por la columna j de la segunda. Es preciso que el n umero de columnas de la primera
matriz iguale al n umero de las de la segunda.
El producto matricial NO es conmutativo: en general AB ,= BA.
22

Algebra
El producto de matrices es distributivo respecto de la suma a izquierda y derecha,
es decir:
A(B+C) = AB+AC
(B+C) A = BA+CA
siempre y cuando las matrices tengan las dimensiones adecuadas para que dichos
productos puedan realizarse.
Observacion: En particular, toda matriz de A K
mn
puede multiplicarse por cualquier
vector columna x de n componentes, convirtiendolo en Ax que es un vector columna de
m componentes. Mas a un, para dos vectores cualesquiera x, y K
n
(entendidos como
vectores columna) y dos escalares cualesquiera , K se tiene
A(x+y) = Ax+Ay. (2.4)
A esta importante igualdad se le denomina propiedad de linealidad, pues signica que
A transforma combinaciones lineales de x e y en combinaciones lineales de Ax, Ay.
Denicion 21 Dada una matriz A K
mn
, se dene su traspuesta A
t
K
nm
como
(A
t
)
ij
= a
ji
, i = 1, 2, . . . , m, j = 1, 2, . . . , n. (2.5)
Es decir, la que se obtiene a partir de A cambiando las por columnas.
Proposicion 8 Sean A, B dos matrices para las que el producto AB tenga sentido; en-
tonces
(AB)
t
= B
t
A
t
. (2.6)
Demostracion: Cada elemento (i, j) de la matriz M =(AB)
t
puede escribirse como
m
ij
=
n

k=1
a
jk
b
ki
=
n

k=1
b
ki
a
jk
=
n

k=1ki
_
B
t
_
ik
_
A
t
_
kj
=
_
B
t
A
t
_
ij
. (2.7)
As pues, las matrices M =(AB)
t
y B
t
A
t
coinciden elemento a elemento, por tanto son
iguales: (AB)
t
= B
t
A
t
.
Denicion 22 (matrices simetricas y antisimetricas)
Una matriz cuadrada A se dice que es simetrica si A
t
= A, es decir, si a
ji
= a
ij
para todo i, j.
Una matriz cuadrada A se dice que es antisimetrica si A
t
= A, es decir, si
a
ji
= a
ij
para todo i, j.
Observese que los elementos diagonales de una matriz real antisimetrica deben ser
nulos.
Captulo 2 23
2.1.2. La inversa de una matriz
Denicion 23 Una matriz cuadrada A K
nn
, se dice que es invertible (o regular)
si A
1
K
nn
tal que AA
1
= A
1
A = I. La matriz A
1
se denomina inversa de A
y es unica.
Denicion 24 Una matriz cuadrada que no es invertible se dice que es singular.
Proposicion 9 Sean A y B dos matrices cuadradas del mismo orden n, ambas inver-
tibles. Entonces AB tambien es invertible y
(AB)
1
= B
1
A
1
. (2.8)
Demostracion: Basta comprobar que el producto de AB por la matriz B
1
A
1
da
como resultado la identidad: en efecto, (AB) (B
1
A
1
) = A
_
BB
1
_
A
1
= AA
1
= I
y tambien (B
1
A
1
) (AB) = B
1
(A
1
A) B = B
1
B = I.
2.1.3. Producto matricial y combinaciones lineales
Sean A K
mn
, B K
nr
, denotemos C
k
la columna k-esima y F
k
la la, entonces:
Las columnas de AB son combinaciones lineales de las de A: C
k
(AB) = AC
k
(B).
Las las de AB son combinaciones lineales de las de B : F
k
(AB) = F
k
(A)B.
La matriz AB puede expresarse como suma de matrices producto columna-la:
AB =
n

k=1
C
k
(A)F
k
(B). (2.9)
La demostracion de esta ultima igualdad es inmediata, teniendo en cuenta que el
elemento (i, j) de la matriz del segundo miembro es
n

k=1
(C
k
(A)F
k
(B))
ij
=
n

k=1
a
ik
b
kj
= (AB)
ij
(2.10)
de donde se deduce que ambas matrices coinciden elemento a elemento, luego son iguales.
24

Algebra
2.1.4. Imagen y n ucleo de una matriz
Recordemos que cualquier matriz A K
mn
transforma vectores columna de K
n
en
vectores columna de K
m
; es decir, para cada x K
n
se obtiene un vector
y = Ax K
m
(2.11)
Ademas se dice que y es la imagen de x por A. Si consideramos el conjunto de todos
los vectores imagen, dicho conjunto se denomina imagen de A. As pues, toda matriz
A K
mn
lleva asociados dos conjuntos: su imagen en K
m
, y su n ucleo en K
n
. Veamos
estas deniciones:
Denicion 25 (imagen y n ucleo) Dada una matriz A K
mn
se dene la imagen
de A como el conjunto
ImA := Ax : x K
n
. (2.12)
Se dene el n ucleo de A como el conjunto
ker A := u K
n
: Au = 0. (2.13)
Tanto el n ucleo como la imagen de una matriz son subespacios vectoriales (la
demostracion es sencilla y se deja al lector).
Observacion: El vector Ax puede escribirse como
Ax = A
_
_
_
_
_
_
x
1
x
2
.
.
.
x
n
_
_
_
_
_
_
= x
1
C
1
(A) +... +x
n
C
n
(A) (2.14)
donde C
j
(A) indica la columna j-esima de A. De ello se deduce facilmente que un vector
es de la forma Ax si y solo si es combinaci on lineal de las columnas de A. Por ello ImA
es el subespacio generado por las columnas de A :
ImA = L[C
1
(A) , .., C
n
(A)] (2.15)
Denicion 26 El subespacio columna de una matriz A K
mn
es el subespacio
de K
m
engendrado por las columnas de A. De igual forma, su subespacio la es el
subespacio de K
n
engendrado por las las de A.
Captulo 2 25
Observacion: Como acabamos de ver, el subespacio columna de una matriz coincide
con ImA; analogamente, el subespacio la se denota ImA
t
.
Proposicion 10 Todo subespacio es tanto el subespacio imagen de alguna matriz, como
el n ucleo de otra matriz.
Demostracion: Dado un subespacio M, si extraemos un sistema de generadores de M,
y construimos la matriz A que los contiene como columnas, se tiene que
Im A =L[C
1
(A) , .., C
n
(A)] =M. (2.16)
De esta forma M es el subespacio imagen de alguna matriz.
Por otro lado, M es tambien el n ucleo de alguna matriz: basta con observar las ecua-
ciones implcitas de M, que se escriben matricialmente como Bx = 0; en otras palabras,
un vector x pertenece a M si y solo si x ker B. Por tanto, M = ker B.
2.2. Rango de una matriz
Denicion 27 Dada una matriz A K
mn
, su rango por columnas es la dimension
del subespacio columna de A, a saber,
dim(ImA) = dim(L[C
1
(A) , .., C
n
(A)]) . (2.17)
Es decir, el rango por columnas es el n umero maximo de columnas de A linealmente
independientes. Por otro lado, el rango por las de A es la dimension del subespacio
la de A; es decir, el n umero maximo de las de A linealmente independientes.
Proposicion 11 Para cualquier matriz A K
mn
, el rango por las y el rango por
columnas de A coinciden.
Se hablara pues del rango de una matriz, sin especicacion adicional, y se denota por
r (A).
Proposicion 12
Si A, B K
mn
entonces r (A+B) r(A) +r(B).
Dadas dos matrices A, B para las que el producto AB tenga sentido, se tiene que
r(AB) mn(r(A), r(B)). (2.18)
26

Algebra
Demostracion: Para la primera desigualdad, observese que la columna j-esima de (A+B)
es C
j
(A) +C
j
(B) . Por ello, el subespacio columna de (A+B) es
Im(A+B) = Im[C
1
(A+B) , , C
n
(A+B)] ImA+ ImB. (2.19)
As pues, r (A+B) , que es la dimension del subespacio de la izquierda, no puede superar
la dimension del subespacio ImA+ ImB, que como mucho es r(A) +r(B).
Para la segunda desigualdad, basta recordar que la columnas de AB son combinaci on
lineal de las columnas de B, luego Im(AB) Im(B) , de donde r (AB) r (B) . Por otro
lado, las las de AB son combinaci on lineal de las las de A, de donde r (AB) r (A) ,
concluyendo la demostracion.
Para las matrices cuadradas, el rango maximo caracteriza su invertibilidad:
Teorema 4 Sea A una matriz cuadrada de orden n. Entonces las siguientes armaciones
son equivalentes:
A es invertible r(A) = n ker A = 0. (2.20)
Proposicion 13 Si A, B, C son matrices cualesquiera para las que los productos siguien-
tes tengan sentido, entonces:
Si A tiene rango maximo por columnas, entonces r(AB) = r(B).
Si A tiene rango maximo por las, entonces r(CA) = r(C).
Proposicion 14 Si A es una matriz de n columnas, entonces
r(A) = n dim(ker A) . (2.21)
Demostracion: Como A posee n columnas, ker A es un subespacio de K
n
. Tomemos una
base de ker A, (u
1
, ..., u
k
) , y completemosla hasta obtener una base (u
1
, ..., u
k
, u
k+1
, ..., u
n
)
de K
n
.
Por la propiedad de linealidad, es facil ver que Im A = L[Au
1
, ..., Au
k
, Au
k+1
, ..., Au
n
]
= L[Au
k+1
, ..., Au
n
] ya que Au
1
= ... = Au
k
= 0 por denicion. As, Au
k+1
, ..., Au
n

es un sistema de generadores de Im A constituido por nk vectores. Si demostramos que


son linealmente independientes, entonces formaran base de Im A, y podremos garantizar
el resultado buscado:
r (A) = dim(Im A) = n k = n dim(ker A) . (2.22)
Basta, pues, demostrar que Au
k+1
, ..., Au
n
son linealmente independientes. Apliquemos la
denicion de independencia lineal: se considera la igualdad
1
Au
k+1
+... +
nk
Au
n
= 0,
y el objetivo es demostrar que
1
= ... =
nk
= 0. Escribimos esta igualdad como
A(
1
u
k+1
+... +
nk
u
n
) = 0 (2.23)
Captulo 2 27
lo cual signica que el vector
1
u
k+1
+... +
nk
u
n
ker A. Es decir
1
u
k+1
+... +
nk
u
n
es combinacion lineal de u
1
, ..., u
k
:
1
u
k+1
+... +
nk
u
n
=
1
u
1
+... +
k
u
k
. O, equiva-
lentemente
1
u
1
+... +
k
u
k

1
u
k+1
+...
nk
u
n
= 0 pero como (u
1
, ..., u
k
, u
k+1
, ..., u
n
)
son independientes, todos los coecientes deben ser 0, en particular se tiene que
1
= ... =

nk
= 0.
2.2.1. Calculo del rango mediante operaciones elementales
Operaciones elementales de reduccion gaussiana
Denicion 28 Dada una matriz A K
mn
, se denen las siguientes operaciones ele-
mentales por las (columnas) sobre la matriz A:
1) Suma de una la (columna) de la matriz, multiplicada por un escalar, a otra la
(columna) distinta.
2) Multiplicacion de una la (columna) de la matriz por un escalar no nulo.
3) Intercambio de dos las (columnas).
Denicion 29 Se llama matriz elemental por las (columnas) a una matriz cuadrada,
resultado de efectuarle una operacion elemental por las (columnas) a la matriz identidad.
Ejemplos: La matriz
E
1
=
_
_
_
_
_
1 0 0 0
0 1 0 0
2 0 1 0
0 0 0 1
_
_
_
_
_
es una matriz elemental por las, resultante de restarle a la tercera la de la identidad el
doble de la primera.
Asimismo, es una matriz elemental por columnas, resultante de restarle a la primera
columna de la identidad el doble de la tercera.
La matriz
E
2
=
_
_
_
_
_
1 0 0 0
0 0 0 1
0 0 1 0
0 1 0 0
_
_
_
_
_
es una matriz elemental por las, resultante de intercambiar las las 2 y 4 de la identidad.
Tambien es matriz elemental por columnas, resultante de intercambiar las columnas
2 y 4 de la identidad.
Observacion: Toda matriz de elemental por las lo es por columnas y viceversa (aunque
no necesariamente asociadas a la misma operacion por las que por columnas).
28

Algebra
Observacion: Toda matriz elemental es invertible, y su inversa es la matriz elemental
asociada a la operacion inversa. Las inversas de las matrices de los ejemplos son:
E
1
1
=
_
_
_
_
_
1 0 0 0
0 1 0 0
2 0 1 0
0 0 0 1
_
_
_
_
_
, E
2
= E
1
2
.
Algoritmo de calculo del rango mediante operaciones de reduccion gaussiana
Dada una matriz A K
mn
, realizar operaciones elementales sobre sus las equivale
a premultiplicar por sucesivas matrices elementales:
E
k
E
2
E
1
A. (2.24)
Cada una de estas operaciones deja invariante el rango. Si mediante este proceso llegamos
a una matriz triangular (cuyo rango se deduce inmediatamente) habremos conseguido
calcular r(A).
Igualmente puede procederse efectuando operaciones elementales sobre las columnas
(posmultiplicaci on por matrices elementales), e incluso combinando ambos metodos.
2.2.2. Algoritmo de Gauss-Jordan
Permite calcular la inversa de una matriz usando operaciones elementales. Sea A
una matriz cuadrada e invertible. Si, de igual modo que antes, mediante operaciones
elementales sobre sus las, conseguimos llegar a la matriz identidad, tendremos:
E
k
E
2
E
1
A = I (2.25)
Es decir, que A
1
= E
k
E
2
E
1
I, que es el resultado de efectuar, sobre la matriz
identidad, las mismas operaciones efectuadas sobre A, lo cual nos permite calcular A
1
facilmente.
Tambien se puede proceder de igual modo por columnas, pero sin mezclar en ning un
caso ambos metodos.
2.2.3. Matriz de cambio de base
Si B = (b
1
, . . . , b
n
) y 1 = (v
1
, . . . , v
n
) son dos bases de K
n
, entonces los vectores de
cada una de ellas se pueden poner como combinaciones lineales de los de la otra, de la
Captulo 2 29
siguiente forma:
v
1
= p
11
b
1
+p
21
b
2
+. . . +p
n1
b
n
(2.26)
v
2
= p
12
b
1
+p
22
b
2
+. . . +p
n2
b
n
.
.
.
v
n
= p
1n
b
1
+p
2n
b
2
+. . . +p
nn
b
n
.
Estas expresiones dan lugar a la siguiente denicion:
Denicion 30 (matriz de cambio de base) Se llama matriz de cambio de base (o
matriz de paso) de B a 1 a la matriz
P =
_
_
_
_
_
_
p
11
p
12
p
1n
p
21
p
22
p
2n
.
.
.
.
.
.
.
.
.
.
.
.
p
n1
p
n2
p
nn
_
_
_
_
_
_
. (2.27)
Es decir, es la matriz cuya columna j-esima contiene las coordenadas del vector v
j
en la
base B.
Observacion: La matriz de paso de B a 1 es invertible y su inversa es la que hace el
cambio inverso, es decir, la matriz de paso de 1 a B.
Observacion: Cada vector u K
n
lleva asociado un vector de coordenadas respecto a
B (denotado [u]
B
) y un vector de coordenadas respecto a 1 (denotado [u]
V
). Pues bien, la
matriz P de paso de B a 1 transforma [u]
V
en [u]
B
(cuidado con el orden de los vectores! ).
Matricialmente,
[u]
B
= P[u]
V
. (2.28)
Para demostrar esta ultima igualdad, simplemente reescribimos la ecuacion (2.26)
matricialmente como V = BP, donde V es la matriz cuyas n columnas son los vectores
v
1
, v
2
, . . . , v
n
y B es la matriz de columnas b
1
, b
2
, . . . , b
n
. A partir de ello, todo vector
u K
n
puede escribirse como
B[u]
B
= u = V[u]
V
= BP[u]
V
. (2.29)
Igualamos el primer y el ultimo termino, y multiplicamos por B
1
(que existe pues B es
cuadrada de columnas independientes); de esta forma se llega a la identidad (2.28).
30

Algebra
2.3. Sistemas de ecuaciones lineales
Se trata de encontrar, si existen, todas las n-uplas de valores x
1
, x
2
, . . . , x
n
, en el cuerpo
K, que satisfagan simultaneamente las m ecuaciones
a
11
x
1
+a
12
x
2
+. . . +a
1n
x
n
= b
1
a
21
x
1
+a
22
x
2
+. . . +a
2n
x
n
= b
2
.
.
.
a
m1
x
1
+a
m2
x
2
+. . . +a
mn
x
n
= b
m
_

_
(2.30)
en donde a
ij
y b
i
son elementos de K prejados. Las ecuaciones anteriores (ecuaciones
lineales) constituyen un sistema lineal de m ecuaciones y n incognitas x
1
, . . . , x
n
.
Llamando
A =
_
_
_
_
a
11
a
1n
.
.
.
.
.
.
.
.
.
a
m1
a
mn
_
_
_
_
x =
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
b =
_
_
_
_
b
1
.
.
.
b
m
_
_
_
_
(2.31)
el sistema anterior puede expresarse matricialmente como
Ax = b. (2.32)
Un vector u K
n
que satisfaga que Au = b se denomina vector solucion del
sistema.
La matriz A se denomina matriz de coecientes; el vector b, vector de terminos
independientes; la yuxtaposicion de ambos,
(A[b) K
m(n+1)
(2.33)
se llama matriz ampliada, y contiene todos los datos que determinan el sistema lineal
y, por tanto, sus soluciones.
Denicion 31 Un sistema lineal se dice compatible si admite alguna solucion; si, ade-
mas, es unica, se llama compatible determinado; si admite mas de una solucion, com-
patible indeterminado; si no admite ninguna solucion, incompatible.
2.3.1. Estructura de las soluciones
Un sistema lineal se dice homogeneo si sus terminos independientes son todos
nulos. En otras palabras, si el sistema es de la forma Ax = 0.
Observacion: Todo sistema homogeneo admite como solucion el vector nulo de K
n
, que
constituye la llamada solucion trivial. Pero el conjunto de todas las soluciones del sistema
homogeneo Ax = 0 es precisamente el n ucleo de A (que se denota ker A, ya denido en
la expresion (2.13) ).
Captulo 2 31
Para cada sistema lineal Ax = b, que llamaremos sistema completo, su sistema
homogeneo asociado es Ax = 0.
Se tiene que cualesquiera dos soluciones del sistema completo dieren en una solucion
del sistema homogeneo; en efecto: sean u
1
, u
2
soluciones de Ax = b; entonces
A(u
1
u
2
) = Au
1
Au
2
= b b = 0, (2.34)
luego u
1
u
2
es solucion del sistema homogeneo. Por otro lado, la suma de una solucion
particular del sistema completo y una solucion del sistema homogeneo da como resultado
una solucion del sistema completo (en efecto, si Au = b y Ax = 0, entonces A(u +x) =
0 +b = b). En resumen: jada una solucion particular de Ax = b, toda solucion de ese
sistema puede escribirse como suma de esa solucion particular mas cualquier solucion del
sistema homogeneo asociado.
Proposicion 15 Si el sistema Ax = b es compatible y r (A) = r, entonces todas sus
soluciones vienen dadas en funcion de n r parametros independientes (es decir, tantos
como el n umero de incognitas menos el rango de la matriz de coecientes). Mas a un,
dichas soluciones se escriben como
x = x
0
+
1
u
1
+ +
nr
u
nr
(2.35)
donde x
0
es una solucion particular del sistema, (u
1
, , u
nr
) es base de ker A, y
1
,
,
nr
son los parametros mencionados.
Demostracion: Seg un la observacion anterior, jada una solucion particular x
0
del
sistema Ax = b, cualquier vector x es solucion del sistema si y solo si x x
0
ker A.
Por otro lado, la igualdad (2.21) arma que dim(ker A) = nr , luego cualquier base de
ker A debe poseer n r vectores independientes. Sea (u
1
, , u
nr
) una base de ker A;
el vector x x
0
ker A si y solo si existen escalares
1
, ,
nr
tales que
x x
0
=
1
u
1
+ +
nr
u
nr
(2.36)
y esta igualdad es equivalente a la expresion (2.35).
2.3.2. El teorema de Rouche-Frobenius
Recordando la igualdad (2.14), se tiene que todo sistema lineal Ax = b puede re-
escribirse como
x
1
C
1
(A) +x
2
C
2
(A) +. . . +x
n
C
n
(A) = b. (2.37)
En otras palabras, el vector de terminos independientes debe ser combinaci on lineal de
las n columnas de la matriz A, cuyos coecientes son precisamente las incognitas.
As pues, el sistema admitira solucion cuando, y solo cuando, b sea combinacion lineal
de las columnas de A, lo cual se expresa en el siguiente
32

Algebra
Teorema 5 (Rouche-Frobenius) El sistema lineal Ax = b es compatible si y solo si
r(A[b) = r(A).
Ademas, si el sistema lineal Ax = b es de n incognitas, y llamamos r al rango de A,
caben las siguientes posibilidades:
r(A[b) = r + 1 sistema incompatible.
r(A[b) = r sistema compatible. Y en ese caso,
r = n compatible determinado: solucion unica.
r < n compatible indeterminado; la solucion general depende de n r
parametros.
Demostracion: La primera parte del teorema (condicion de compatibilidad) equivale a
la observaci on previa a dicho teorema: b es combinacion lineal de las columnas de A si y
solo si r(A[b) = r(A) = r. En ese caso el sistema es compatible; en cualquier otro caso
(r(A[b) > r) es incompatible. En los casos compatibles, las soluciones vienen dadas en
funcion de n r parametros (es lo que arma la Proposicion 14). En particular, el caso
r = n indica que la solucion viene dada por n r = 0 parametros; ello quiere decir que
la solucion es unica. (Observese que esto se verica cuando r (A) = n, es decir, cuando y
solo cuando todas las columnas de A son independientes).
2.3.3. Resolucion de sistemas lineales por reduccion gaussiana
Observacion: Dado un sistema lineal Ax = b, de matriz de coecientes A K
mn
y
una matriz Q K
mm
invertible, el conjunto de soluciones del sistema anterior coincide
con el de
QAx = Qb (2.38)
y se dice que este ultimo sistema es equivalente al Ax = b.
Esta observacion permite pasar de un sistema inicial a otro que posee las mismas
soluciones pero que quiza es mas facilmente resoluble; el objetivo es que la nueva matriz
de coecientes QA sea matriz triangular o escalonada. Como conseguir que QA tenga
forma escalonada? Recuerdese el concepto de operacion elemental por las, equivalente
a premultiplicacion por la correspondiente matriz elemental, que siempre es invertible.
Pues bien, aplicando operaciones elementales de reduccion gaussiana convertimos A en
una matriz escalonada E
k
E
2
E
1
A; esta nueva matriz es QA, donde Q = E
k
E
2
E
1
.
Observese que la matriz ampliada del sistema inicial es (A[b) y la del nuevo sistema
es (QA[Qb). Ello signica que, aplicando dichas operaciones elementales sobre las
las completas de la matriz ampliada, obtenemos un sistema equivalente y facilmente
resoluble. En esto consiste el metodo de reduccion gaussiana.
Veamos este procedimiento con mas detalle: a la hora de resolver un sistema lineal,
realizamos operaciones elementales por las sobre la matriz ampliada (A[b), lo que
Captulo 2 33
equivale a premultiplicar A y b por una misma matriz invertible, obteniendo un sistema
equivalente.
Nuestro proposito sera llegar a una conguracion de la forma (ejemplo de tama no
4 6)
_
_
_
_
_

0
0 0
0 0 0

_
_
_
_
_
(2.39)
en donde el smbolo denota elementos no nulos, y el smbolo elementos cualesquiera.
En este ejemplo, el sistema sera compatible indeterminado, dependiendo la solucion
general de 6 4 = 2 parametros; podemos dejar libres dos incognitas, por ejemplo x
5
=
, x
6
= , K, despejando de abajo a arriba las cuatro restantes en funcion de
estas.
Si se llega a una situacion de la forma
_
_
_
_
_

0
0 0
0 0 0 0 0 0

_
_
_
_
_
, (2.40)
entonces el sistema sera incompatible (r(A) = 3 y r(A[b) = 4).
Para llegar a estas conguraciones de matrices escalonadas, se sigue el siguiente
algoritmo:
Si es a
11
,= 0, se efect ua para cada la 2, 3, . . . , m la operacion
F

i
= F
i

a
i1
a
11
F
1
, (2.41)
es decir, a cada la le restamos el adecuado m ultiplo de la primera para hacer ceros
en la primera columna, obteniendo
_
_
_
_
_
_

0
.
.
.
.
.
.
.
.
.
.
.
.
0

.
.
.

_
_
_
_
_
_
. (2.42)
Si es a
11
= 0, se escoge una la k tal que sea a
k1
,= 0, y se intercambian las las
1 y k; a continuaci on, se procede como se explico antes. Si todos los elementos de
la primera columna son nulos, el valor x
1
de la primera incognita es arbitrario y se
pasa al siguiente paso.
El siguiente paso es proceder del mismo modo con la columna 2, para las ecuaciones
3, . . . , n. Si fuesen nulos todos los a

2k
, k = 2, . . . , n, se tendra ya hecho el trabajo sobre
la columna 2 y se pasara a operar con la 3. En caso contrario:
34

Algebra
Si es a

22
,= 0, se hacen las operaciones
F

i
= F

i2
a

22
F

2
, i = 3, 4, . . . , m, (2.43)
y si es a

22
= 0, se intercambia la la 2 con alguna posterior cuyo elemento a

k2
sea no nulo,
haciendose a continuacion las operaciones dichas.
Reiterando el proceso, se llega a la matriz escalonada.
En cada paso no trivial hay que dividir por un elemento diagonal a
(i1)
ii
que se deno-
minara pivote o, eventualmente, intercambiar dos ecuaciones para obtener un pivote no
nulo. As pues, en muchos casos es imprescindible efectuar operaciones de intercambio de
las. Por ejemplo, si tuvieramos
_
_
_
_
_

0 0
0
0 0

_
_
_
_
_
(2.44)
sera imposible anular el elemento a
32
, por lo que se procedera a intercambiar las las 2
y 3.
En ocasiones puede llegarse a conguraciones como
_
_
_
_
_

0
0 0 0
0 0 0 0 0

_
_
_
_
_
(2.45)
que nos obligan a tomar como variables libres algunas de las incognitas intermedias (en
el ejemplo mostrado, la 3
a
y la 5
a
).
Captulo 2 35
2.4. Ejercicios
2.1. Una matriz A de R
32
verica
A
_
3
5
_
=
_
_
_
2
4
1
_
_
_ A
_
1
2
_
=
_
_
_
5
3
4
_
_
_.
Calcular la imagen por A del vector
_
2
1
_
. Hallar asimismo A.
2.2. Si A la matriz cuadrada que cumple
A
_
3
2
_
=
_
9
11
_
A
_
2
1
_
=
_
5
3
_
hallese la matriz A.
2.3. Para cada n umero real a se considera la matriz
A =
_
_
_
1 a 1 2
2 1 3 5
1 10 6 1
_
_
_.
Hallar unas ecuaciones parametricas del n ucleo de A y una base del subespacio ImA.
2.4. Sea A una matriz que verica
A
_
_
_
1
1
1
_
_
_ =
_
_
_
1
2
3
_
_
_, A
_
_
_
1
1
0
_
_
_ =
_
_
_
2
0
2
_
_
_, A
_
_
_
1
0
0
_
_
_ =
_
_
_
3
2
1
_
_
_.
Se pide:
1. Escribir la matriz A.
2. Determinar unas bases de ker A e ImA, as como unas ecuaciones cartesianas de
los mismos.
3. Dado el subespacio M = L[(1, 2, 0), (2, 1, 1)] de R
3
, determinar una base del subes-
pacio de los transformados de los vectores de M por la matriz A, es decir, de Ax,
x M.
2.5. Calcular, empleando el metodo de Gauss-Jordan, las inversas de las matrices
_
_
_
1 4 1
2 9 2
5 2 6
_
_
_;
_
_
_
_
_
1 1 1 1
1 i 1 i
1 1 1 1
1 i 1 i
_
_
_
_
_
.
36

Algebra
2.6. Hallar, usando el metodo de Gauss-Jordan, la inversa de la matriz
_
_
_
_
_
_
_
_
1 a a
2
a
3
a
4
0 1 a a
2
a
3
0 0 1 a a
2
0 0 0 1 a
0 0 0 0 1
_
_
_
_
_
_
_
_
.
Probar que una matriz triangular es invertible si y solo si todos los elementos de su
diagonal principal son distintos de cero y que, en ese caso, su inversa es una matriz
triangular del mismo tipo.
2.7. Calcular, mediante el metodo de Gauss-Jordan, la inversa de la matriz
_
_
_
_
_
_
_
_
_
_
1 1 0 0 0 0
1 2 1 0 0 0
0 1 2 1 0 0
0 0 1 2 1 0
0 0 0 1 2 1
0 0 0 0 1 2
_
_
_
_
_
_
_
_
_
_
.
Generalizar el resultado obtenido a una matriz de orden n que tenga la misma estructura.
Este ejemplo pone de maniesto que la inversa de una matriz dispersa no tiene por que ser
ella misma dispersa.
2.8. Resolver por el metodo de Gauss los siguientes sistemas de ecuaciones lineales:
_

_
2x y + 3z +u + 4v = 2
4x +y + 8z +u + 12v = 13
6x + 15y + 4z 5u +v = 27
_

_
2x + 4y + 8z = 6
4x +y + 9z = 12
x + 2y + 4z = 3
5x 4y + 6z = 15
3x + 5y + 11z = 9
2.9. Discutir seg un los valores de los parametros a y b los siguientes sistemas de
ecuaciones
_

_
ax +y +z = 1
x +ay +z = b
x +y +az = b
2
_

_
ax +y +bz = 1
x +ay +bz = 1
x +y +abz = b
2.10. Encontrar los vertices de un triangulo cuyos lados tienen por puntos medios los
puntos de coordenadas
(4, 1), (2, 3), (6, 2).
Quedan determinados los vertices de un cuadrilatero si se conocen los puntos medios de
sus lados? Generalizar estos resultados al caso de un polgono con un n umero cualquiera
de lados.
Captulo 2 37
2.11. De una matriz A C
44
se sabe que
A
_
_
_
_
_
1
2
3
4
_
_
_
_
_
=
_
_
_
_
_
4
3
2
1
_
_
_
_
_
y que ImA ker A.
1. Calc ulese el rango de A.
2. Calc ulese el vector suma de las columnas de A
2.12. Sea A C
mn
. Demostrar que ker A
h
A = ker Ay deducir la igualdad r
_
A
h
A
_
=
r (A). Probar tambien que A
h
A = O si y solo si A = O.
2.13. Responder la siguientes cuestiones:
1. Calcular el rango de la matriz
M =
_
_
_
_
_
_
_
_
_
_
_
a b b b b
b a b b b
b b a b b
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
b b b a b
b b b b a
_
_
_
_
_
_
_
_
_
_
_
y deducir para que valores de a y b es M invertible.
2. Comprobar la formula
(I
m
+UV
t
)
1
= I
m
U(I
n
+V
t
U)
1
V
t
; U, V R
mn
y utilizarla para hallar la inversa de M cuando exista.
2.4.1. Cuestiones
2.14. La matriz de cambio de la base B a la base V es
_
_
_
1 0 0
1 1 0
1 2 1
_
_
_. Si un vector
tiene coordenadas (1, 2, 0) respecto a B, que coordenadas tiene respecto a V ?:
_ (A) (3, 2, 0)
_ (B) (1, 3, 5)
_ (C) (1, 1, 3)
38

Algebra
_ (D) (1, 2, 0)
2.15. Indicar si las siguientes armaciones son verdaderas (V) o falsas (F).
V F
El producto de dos matrices invertibles es una matriz invertible
El producto de dos matrices simetricas es una matriz simetrica
Si A transforma vectores independientes en vectores independientes,
entonces su rango por columnas es maximo.
Si ker (A) = 0 entonces A transforma vectores independientes
en vectores independientes
Si A es cuadrada, entonces el rango de A
2
es mayor o igual que el rango de A.
2.16. Indicar si las siguientes armaciones son verdaderas (V) o falsas (F).
V F
Si Ax = 0 tiene solucion unica, entonces ker (A) = 0
Si el sistema Ax = b tiene solucion unica, entonces
el sistema Ax = 0 tiene como unica solucion la trivial.
Si el sistema Ax = 0 tiene solucion unica, entonces
el sistema Ax = b tiene solucion unica.
Si Ax = b tiene solucion unica, entonces Ax = v tiene solucion unica.
Si b, v Im(A) entonces los sistemas
Ax = b y Ax = v poseen el mismo n umero de soluciones.
Captulo 3
Espacios vectoriales eucldeos
3.1 Producto escalar y norma asociada. Desigualdades de Cauchy-Schwarz y triangular.
3.2 Ortogonalidad. El suplementario ortogonal. El teorema de la proyeccion ortogo-
nal. Familias ortogonales. Bases ortonormales. Matrices ortogonales. El metodo de
ortonormalizacion de GramSchmidt. Factorizaci on QR.
3.3 Producto hermtico y matrices unitarias.
3.4 Ejercicios. Cuestiones.
Introduccion
En los temas anteriores hemos atendido a propiedades cualitativas de los vectores:
pueden sumarse o multplicarse por un n umero, etc. Ahora vamos a ver otras propiedades
de tipo cuantitativo: que entendemos por longitud de un vector, como medir el angulo que
forman dos vectores, como proyectar un vector (sobre un subespacio), etc. En el plano
muchas de estas cuestiones pueden resolverse de forma bastante elemental, con regla
y compas. Queremos extender de manera natural las ideas intuitivas de la geometra
elemental tanto a R
n
como a C
n
.
Nota: Por razones de notacion identicamos los vectores de R
n
y C
n
con vectores columna.
3.1. Producto escalar y norma
Denicion 32 (producto escalar natural en R
n
) Dados dos vectores x, y de R
n
su
producto escalar es el n umero real
x, y) := x
t
y =
n

j=1
x
j
y
j
. (3.1)
De la denicion se desprenden las siguientes propiedades:
39
40

Algebra
1. Distributividad, es decir: u, v, w R
n
, , R
u +v, w) = u, w) +v, w); u, v +w) = u, v) +u, w) (3.2)
Se dice tambien que el producto escalar es lineal en cada componente.
2. Simetra:
u, v R
n
u, v) = v, u). (3.3)
3. Positividad:
u R
n
, u ,= 0 u, u) = u
t
u =
n

j=1
u
2
j
> 0. (3.4)
Esta ultima propiedad es muy importante y motiva la siguiente
Denicion 33 (norma eucldea) Para cada vector u de R
n
el n umero
|u| :=
_
u, u) (3.5)
recibe el nombre de norma o longitud del vector.
Proposicion 16 La aplicacion que a cada vector u le asocia su norma |u| se denomina
norma asociada al producto escalar y cumple:
1. u R
n
, |u| 0, |u| = 0 u = 0.
2. R, u R
n
|u| = [[ |u|.
3. u, v R
n
, |u +v|
2
= |u|
2
+ 2u, v) +|v|
2
.
Denicion 34 Dados dos vectores u, v R
n
se dene la distancia entre ellos:
d(u, v) := |u v|. (3.6)
Proposicion 17 (desigualdades de Cauchy-Schwarz y triangular) Sean u, v dos
vectores cualesquiera de R
n
. Entonces
1. La desigualdad de Cauchy-Schwarz nos da la relacion entre el producto escalar
de los dos vectores y sus longitudes:
u, v R
n
[u, v)[ |u| |v|. (3.7)
La igualdad se da solamente si los vectores son proporcionales.
Captulo 3 41
2. La desigualdad triangular relaciona la suma de las longitudes con la longitud de
la suma:
u, v R
n
, |u +v| |u| +|v|. (3.8)
La igualdad se da unicamente si los vectores son proporcionales con constante de
proporcionalidad no negativa.
Demostracion: En virtud de la distributividad y de la simetra:
|u +v|
2
= u +v, u +v) = |u|
2
+ 2u, v) +
2
|v|
2
(3.9)
cualquiera que sea R. Podemos suponer v ,= 0 (si v = 0 ambos miembros de (3.7)
son nulos). La expresion (3.9) es un polinomio de segundo grado en mayor o igual que
cero para todo . Su discriminante tiene que ser menor o igual que cero:
u, v)
2
|u|
2
|v|
2
0 u, v)
2
|u|
2
|v|
2
Tomando races cuadradas positivas en ambos miembros queda demostrada la desigualdad.
Ademas, la igualdad en (3.7) equivale |u+v|
2
= 0, es decir, u = v: los vectores son
proporcionales.
Para probar la desigualdad triangular elevamos al cuadrado el primer miembro de la
desigualdad, desarrollamos y aplicamos la desigualdad de Cauchy-Schwarz:
|u +v|
2
= |u|
2
+ 2u, v) +|v|
2
|u|
2
+ 2|u| |v| +|v|
2
= (|u| +|v|)
2
Al extraer races cuadradas positivas se llega al resultado deseado.
La igualdad se da si u, v) = |u| |v|, entonces u y v son proporcionales, u = v
y ademas
0 |u| |v| = u, v) = v, v) = |v|
2
por lo que la constante de proporcionalidad () es no negativa.
Observacion: La desigualdad triangular dice que la longitud de una suma de vectores
no puede exceder la suma de las longitudes de ambos vectores. Intuitivamente es muy
natural; si pensamos geometricamente, los dos vectores denen un paraleleppedo de lados
de longitudes |u| y |v|, mientras que las longitudes de las diagonales son |u v|.
La desigualdad de Cauchy-Schwarz permite denir el angulo entre dos vectores,
Denicion 35 Sean u, v dos vectores no nulos de R
n
, se dene al angulo que forman
como aquel cuyo coseno es
cos =
u, v)
|u| |v|
, [0, ]. (3.10)
42

Algebra
3.2. Ortogonalidad
Denicion 36 Dos vectores u, v R
n
son ortogonales (o perpendiculares) si su pro-
ducto escalar es nulo: u, v) = 0. En ese caso es frecuente escribir u v.
Observacion: Si un vector es ortogonal a s mismo es nulo. Es consecuencia de la
propiedad de positividad. A veces esta propiedad se enuncia diciendo que el unico vector
ortogonal a todos los del espacio es el nulo:
v R
n
u, v) = 0 u = 0. (3.11)
Teorema 6 (Pitagoras) Dos vectores u, v R
n
son ortogonales si, y solamente si
|u +v|
2
= |u|
2
+|v|
2
. (3.12)
Demostracion: Es consecuencia inmediata del apartado 3. de la proposicion 16.
Proposicion 18 (suplementario ortogonal) Sea M un subespacio de R
n
, el conjunto
M

:= v R
n
, u M, u, v) = 0 (3.13)
es un subespacio vectorial de R
n
que es suplementario de M. Es decir, R
n
= M M

.
Demostracion: Sea m la dimension de M. Identiquemos M = ImA siendo A R
nm
una matriz cuyas columnas son una base de M. Un vector x es de M

si, y solamente si,


es ortogonal a los vectores de una base de M, es decir si A
t
x = 0, as pues M

= ker A
t
.
Como el rango de A es m, la dimension del n ucleo de A
t
es n m, luego para que M
y M

sean suplementarios basta que su intersecci on sea nula pero ello es evidente dado
que el unico vector ortogonal a s mismo es el nulo, por lo que podemos concluir que
R
n
= M M

.
Observacion: Notemos que este razonamiento puede hacerse tambien considerando una
matriz A cuyas columnas sean un generador de M, no necesariamente libre, en este caso
pueden variar sus dimensiones (habra tantas columnas como vectores posea el generador)
pero no su rango, que coincide con la dimension.
Corolario: Dada una matriz real cualquiera A se verica:
(ImA)

= ker A
t
, (ImA
t
)

= ker A. (3.14)
Teorema 7 (de la proyeccion ortogonal) Sea M un subespacio de R
n
. Entonces para
cada vector u R
n
existen unicos v M, w M

de forma que u = v + w, ademas


para cualquier z M se cumple d(u, z) = |u z| |u v| = d(u, v).
Captulo 3 43
Demostracion: De R
n
= M M

se desprende la descomposicion u = v +w, v M,


w M

. En cuanto a la distancia, sea z M cualquiera,


|u z|
2
= |(u v) + (v z)|
2
()
= |u v|
2
+|v z|
2
|u v|
2
.
La igualdad en () se da en virtud del teorema de Pitagoras ya que (uv) y (v z) son
ortogonales (el primero es un vector de M

y el segundo es de M).
Los resultados de este teorema motivan las dos deniciones siguientes:
Denicion 37 El vector v recibe el nombre de proyecci on ortogonal de u sobre M.
Denicion 38 Dado un subespacio M de R
n
, para cada vector u R
n
su distancia a M
se dene como
d(u, M) := mnd(u, v), v M. (3.15)
Observacion: El teorema de la proyecci on ortogonal no solo garantiza la existencia del
mnimo sino que establece que se alcanza precisamente en la proyeccion de u sobre M.
3.2.1. Familias ortogonales
Denicion 39 Un conjunto de vectores T = u
1
, . . . , u
m
de R
n
es ortogonal si u
i
, u
j
) =
0 para i ,= j. Se dice que los vectores de T son ortogonales dos a dos.
Denicion 40 Un conjunto de vectores de R
n
es ortonormal si sus vectores son orto-
gonales dos a dos y unitarios (es decir de norma 1).
Proposicion 19 Una familia ortogonal que no contiene el vector nulo es libre. En parti-
cular, toda familia ortonormal es libre.
Demostracion: Sea u
1
, u
2
, . . . , u
s
un conjunto de vectores tales que u
t
j
u
k
= 0, j ,= k.
Igualemos a cero una combinaci on lineal:

1
u
1
+
2
u
2
+ +
s
u
s
= 0 (3.16)
y multipliquemos escalarmente por u
k
para un ndice k cualquiera,

1
u
t
k
u
1
+
2
u
t
k
u
2
+ +
s
u
t
k
u
s
= 0 (3.17)
la expresion queda reducida a

k
u
t
k
u
k
=
k
|u
k
|
2
= 0 (3.18)
como el vector u
k
es no nulo, tiene que ser
k
= 0, haciendo variar k desde 1 hasta s
queda probada la propiedad.
44

Algebra
Corolario: (generalizacion del teorema de Pitagoras) Si los vectores u
1
, . . . , u
m
son ortogonales dos a dos, entonces
|u
1
+ +u
m
|
2
= |u
1
|
2
+ +|u
m
|
2
. (3.19)
Observacion: El recproco no es cierto para m > 2 como muestran los vectores
e
1
=
_
1
0
_
, e
2
=
_
0
1
_
, u =
_
1
1
_
para los que se cumple |e
1
+e
2
+u|
2
= |e
1
|
2
+|e
2
|
2
+|u|
2
= 4 pero no son ortogonales
dos a dos ya que por ejemplo e
1
, u) = 1.
Denicion 41 Una base ortogonal de R
n
es aquella cuyos vectores son ortogonales dos
a dos; si ademas son unitarios la base se llama ortonormal.
Ejemplo:
B
1
=
__
2
1
_
,
_
1
2
__
B
o
=
_
1

2
_
1
1
_
,
1

2
_
1
1
__
B
1
es una base ortogonal de R
2
mientras que B
o
es ortonormal.
Observacion: Sea B = (u
1
, . . . , u
n
) una base ortogonal de R
n
y sea v R
n
, entonces
v =
n

j=1
v, u
j
)
|u
j
|
2
u
j
. (3.20)
Si en la base B normalizamos cada vector q
j
:= u
j
/|u
j
| la nueva base B
o
= (q
1
, . . . , q
n
)
es ortonormal y la expresion anterior se simplica:
v =
n

j=1
v, q
j
)q
j
. (3.21)
Denicion 42 Una matriz Q R
nn
es ortogonal si Q
t
Q = I, es decir Q
t
= Q
1
.
Proposicion 20 Sea Q R
nn
. Entonces son equivalentes:
1. Q es ortogonal.
Captulo 3 45
2. Q conserva el producto escalar, es decir:
x, y R
n
Qx, Qy) = x, y).
3. Q conserva la norma, es decir:
x R
n
|Qx| = |x|.
Demostracion: Comprobaremos la triple equivalencia mediante un razonamiento circu-
lar: (1) (2) (3) (1).
(1) (2) Sean x, y dos vectores cualesquiera, entonces:
Qx, Qy) = (Qx)
t
Qy = x
t
Q
t
Qy = x
t
Iy = x
t
y = x, y).
(2) (3) Basta tomar x = y.
(3) (1) Sean e
i
, e
j
dos vectores canonicos,
|Q(e
i
+e
j
)|
2
= |Qe
i
|
2
+ 2Qe
i
, Qe
j
) +|Qe
j
|
2
|e
i
+e
j
|
2
= |e
i
|
2
+ 2e
i
, e
j
) +|e
j
|
2
Por hipotesis los primeros miembros son iguales |Q(e
i
+e
j
)|
2
= |e
i
+e
j
|
2
, igualemos los
segundos:
|Qe
i
|
2
+ 2Qe
i
, Qe
j
) +|Qe
j
|
2
= |e
i
|
2
+ 2e
i
, e
j
) +|e
j
|
2
Qe
i
, Qe
j
) = e
i
, e
j
) e
t
i
Q
t
Qe
j
= e
t
i
e
j
(Q
t
Q)
ij
=
_
1 si i = j
0 si i ,= j
Con lo que queda probado que Q
t
Q = I.
Observacion: Las columnas (y las) de una matriz ortogonal Q constituyen una base
ortonormal de R
n
con el producto escalar natural. Ademas, el hecho de conservar el
producto escalar y la norma se traduce en que tambien se conservan los angulos.
46

Algebra
3.2.2. Ortonormalizacion de Gram-Schmidt y factorizacion QR
La base canonica en R
n
es ortonormal, pero pueden encontrarse otras bases ortonor-
males construidas con direcciones predeterminadas. En este apartado se demuestra este
resultado y se estudian algunas consecuencias importantes de este hecho.
Teorema 8 (Gram-Schmidt) Sea u
1
, u
2
, . . . , u
m
una familia libre en R
n
, entonces
existe una familia ortonormal q
1
, q
2
, . . . , q
m
tal que
L[u
1
, u
2
, . . . , u
k
] = L[q
1
, q
2
, . . . , q
k
], k = 1, 2, . . . , m. (3.22)
Construccion:
q
1
=
u
1
|u
1
|
,
q
2
= u
2
u
2
, q
1
)q
1
, q
2
=
q
2
| q
2
|
.
.
.
q
k
= u
k
u
k
, q
1
)q
1
u
k
, q
k1
)q
k1
, q
k
=
q
k
| q
k
|
k = 3, . . . , m.
(3.23)

Consecuencia importante
Sea M un subespacio de R
n
de dimension m y B = (u
1
, . . . , u
m
, u
m+1
, . . . , u
n
) una
base de R
n
obtenida completando una base de M; al ortonormalizar por Gram-Schmidt
Captulo 3 47
obtenemos una base ortonormal B
o
= (q
1
, . . . , q
m
, q
m+1
, . . . , q
n
) de R
n
. Los vectores de
esta base pueden agruparse de modo que los m primeros (q
1
, . . . , q
m
) constituyen una
base ortonormal de M y el resto (q
m+1
, . . . , q
n
) una base ortonormal de M

.
Teorema 9 (factorizacion QR) Sea A R
nm
de rango m, entonces existen matrices
Q R
nm
y R R
mm
tales que Q
t
Q = I, R es triangular superior con elementos
positivos en su diagonal y tales que A = QR. Ademas la factorizacion es unica.
Demostracion: (no exigible) Para demostrar la existencia basta con aplicar el metodo
de Gram-Schmidt a las columnas de A que son linealmente independientes (por hipotesis
el rango de A es m), llamemos u
k
a las columnas de A y denotemos por q
k
los vectores
obtenidos por Gram-Schmidt, despejemos en (3.23) los vectores u
k
:
u
1
= |u
1
|q
1
,
u
2
= (u
t
2
q
1
) q
1
+|u
2
(u
t
2
q
1
) q
1
| q
2
.
.
.
u
k
= (u
t
k
q
1
) q
1
+ (u
t
k
q
2
) q
2
+|u
k
u
t
k
q
k1
q
k1
u
t
k
q
1
q
1
| q
k
.
.
.
y escribamos matricialmente el resultado:
(u
1
u
2
u
m
) = (q
1
q
2
q
m
)
_
_
_
_
_
_

0
.
.
.
.
.
.
.
.
.
.
.
.
0 0
_
_
_
_
_
_
= QR.
Observemos que la matriz R puede contemplarse como la matriz de paso de la base de
ImA formada por las columnas de Q a la base formada por las columnas de A. Es evidente
que R es triangular superior con elementos positivos en la diagonal.
En cuanto a la unicidad, supongamos dos factorizaciones A = QR = PU que cumplan
los requisitos, es decir Q
t
Q = I, P
t
P = I, R y U triangulares superiores con elementos
diagonales positivos, y concluyamos que son iguales. Sgase atentamente la siguiente ca-
dena:
I = Q
t
Q = (PUR
1
)
t
PUR
1
= (UR
1
)
t
P
t
PUR
1
= (UR
1
)
t
UR
1
La matriz UR
1
es triangular superior y su inversa es su traspuesta, pero la inversa de
una matriz triangular superior es triangular superior y su traspuesta es triangular inferior,
ambas cosas simult aneamente solo son posibles si UR
1
es diagonal e igual a su inversa.
Si llamamos r
i
> 0 a los elementos diagonales de R y u
i
> 0 a los de U tenemos:
UR
1
= diag
_
u
1
r
1
, . . . ,
u
n
r
n
_
, RU
1
= diag
_
r
1
u
1
, . . . ,
r
n
u
n
_
UR
1
= RU
1

u
i
r
i
=
r
i
u
i
u
2
i
= r
2
i
u
i
= r
i
.
Se concluye que UR
1
= I y por tanto U = R: la factorizacion es unica.
48

Algebra
Observacion: Dada la matriz A una vez obtenida Q por el procedimiento que sea (en
particular por Gram-Schmidt), R puede despejarse sin mas: R = Q
t
A.
3.3. Producto hermtico y matrices unitarias
Todo lo visto anteriormente puede extenderse al espacio C
n
; el producto escalar (tam-
bien llamado producto hermtico) se dene del siguiente modo:
Denicion 43 (producto hermtico usual) Dados u, v C
n
, su producto escalar o
hermtico usual es u, v) = u
t
v = v
t
u, en donde v representa el conjugado complejo del
vector v.
Observacion: Para representar conjuntamente conjugacion y trasposicion utilizaremos
el superndice
h
, tanto para vectores como para matrices. Es decir v
h
:= v
t
De forma analoga a como ocurra en el caso real, se tienen las siguientes propiedades:
1. Linealidad en la primera componente, es decir:
u, v, w C
n
, , C u +v, w) = u, w) +v, w). (3.24)
2. Simetra hermtica:
u, v C
n
u, v) = v, u). (3.25)
3. Positividad:
u C
n
, u ,= 0 u, u) R, u, u) > 0. (3.26)
Observacion: Las propiedades 1 y 2 conjuntamente implican una propiedad llamada
antilinealidad en la segunda componente:
u, v, w C
n
, , C u, v +w) = u, v) +u, w). (3.27)
Cuando una aplicacion de C
n
C
n
es lineal en la primera componente y antilineal en la
segunda se dice que es sesquilineal.
Ejemplo: El producto escalar de u =
_
1 +i
2 i
_
por v =
_
1 2i
2 + 3i
_
es:
u, v) = v
h
u = (1 + 2i 2 3i)
_
1 +i
2 i
_
= (1 + 2i)(1 +i) + (2 3i)(2 i) = 5i.
Observemos que el orden de los vectores es importante ya que, en virtud de la simetra
hermtica, v, u) = u, v) = 5i.
Captulo 3 49
Norma y propiedades relacionadas
La denicion de norma es identica a la dada en (3.5),
u C
n
|u| =

u
h
u =

_
n

j=1
[u
j
[
2
. (3.28)
Ejemplo: La norma de u =
_
_
_
1 +i
2 i
1
_
_
_ es |u| =
_
[1 +i[
2
+[2 i[
2
+ 1 = 2

2.
Observacion: Las propiedades enunciadas para el espacio eucldeo R
n
generalmente
son validas en el espacio hermtico C
n
; por ejemplo, las desigualdades de Cauchy-Schwarz
y triangular se cumplen en el caso complejo si bien las demostraciones que hemos dado
solo son validas en el caso real. El teorema de Pitagoras solo se cumple en su version
generalizada, es decir, la igualdad |u + v|
2
= |u|
2
+ |v|
2
para vectores u, v C
n
no
implica la ortogonalidad (vease el ejercicio 3.11).
3.3.1. Matrices unitarias
Denicion 44 (matriz unitaria) Una matriz U C
nn
es unitaria si U
h
U = I.
Enunciamos (sin demostracion) el equivalente de la proposicion 20 para matrices unitarias.
Proposicion 21 Sea U C
nn
. Entonces son equivalentes:
1. U es unitaria.
2. U conserva el producto escalar, es decir:
x, y C
n
Ux, Uy) = x, y).
3. U conserva la norma, es decir:
x C
n
|Ux| = |x|.
Observacion: Como en el caso real, las columnas (y las) de una matriz unitaria cons-
tituyen una base ortonormal de C
n
con el producto hermtico natural.
Ejemplo: La matriz
1

2
_
1 1
i i
_
es unitaria. Sus columnas forman una base ortonormal de C
2
.
50

Algebra
3.4. Ejercicios
3.1. Dados los vectores (2, 1, 1) y (1, 0, 1) , hallar su producto escalar, sus normas y
el angulo que forman.
3.2. Hallar los valores de a, b y c para que sea ortogonal la familia
(1, 2, 1, 0) , (1, a, 3, 7) , (b, 4, 1, c) .
3.3. Hallar una base ortonormal del plano x +y = 5z, de forma que su primer vector
sea proporcional a (1, 1, 0) .
3.4. Si (u
1
, , u
n
) es una base ortonormal de un espacio eucldeo, calcular las coor-
denadas del vector u =2u
1
u
2
+ 2u
n
respecto a dicha base, y su norma.
3.5. Demostrar que dos vectores v y w tienen la misma norma si y solo si su suma
v +w y su diferencia v w son ortogonales.
3.6. Sean v y w dos vectores distintos de R
n
, (n 3). Utilizar la desigualdad triangular
para demostrar que la igualdad
|x v| +|x w| = |v w|
solo es posible si x pertenece al subespacio generado por v y w.
3.7. Sean F y G subespacios vectoriales de R
n
. Demostrar las siguientes igualdades:
1. (F +G)

= F

.
2. (F G)

= F

+G

.
3.8. Sea a el menor entero positivo para el cual
_
_
_
_
_
_
1
0
1
_
_
_,
_
_
_
0
a
1
_
_
_,
_
_
_
1
1
0
_
_
_
_
_
_
es una base de R
3
. Se pide ortonormalizarla por Gram-Schmidt.
3.9. Determinar la factorizacion QR de la matriz:
_
_
_
_
_
_
_
_
3 0 8
2 1 2
2 2 7
2 2 2
2 2 2
_
_
_
_
_
_
_
_
.
Captulo 3 51
3.10. Calcular todos los posibles valores reales de a, b y c para que la siguiente matriz
sea ortogonal:
_
_
_
0 2b c
a b c
a b c
_
_
_.
3.11. Dados los vectores complejos u =
_
1
i
_
y v =
_
i
1
_
, est udiese si son orto-
gonales y compr uebese que se cumple |u +v|
2
= |u|
2
+|v|
2
.
3.12. Sean u, v C
n
tales que
|u +v|
2
= |u|
2
+|v|
2
|u +iv|
2
= |u|
2
+|v|
2
Puede concluirse que son ortogonales?
3.13. Calcular todos los posibles valores reales de a y b para que la siguiente matriz
sea unitaria:
_
a bi
a bi
_
.
3.14. Sea U = A + iB, con A y B reales, una matriz compleja unitaria. Comprobar
que la matriz
M =
_
A B
B A
_
es ortogonal.
3.15. Probar que los siguientes subespacios son suplementarios ortogonales en R
n
:
L : x
1
+ +x
n
= 0 M : x
1
= = x
n
.
Calcular la proyecci on ortogonal del vector (1, 0, 0, , 0) sobre L.
3.16. Determinar la proyecci on ortogonal del vector (1, 1, 0, 2) sobre el subespacio
generado por los dos vectores (1, 1, 0, 1) y (0, 2, 1, 1).
3.17. Escribir la distancia del vector (1, 3, 2, 0) al subespacio de R
4
de ecuaciones
x
1
= x
2
, x
3
= x
4
.
3.18. En el espacio eucldeo R
4
se considera el subespacio /generado por los vectores
(1, 0, 1, 1), (1, 1, 0, 1) y (1, 1, 1, 0). Se pide:
1. Calcular una base ortonormal del subespacio /

.
2. Descomponer el vector b = (7, 7, 7, 7) como suma de sendos vectores de / y de
/

.
52

Algebra
3.19. Dados dos vectores u y v ,= 0 de R
n
, se pide:
1. Expresar la proyecci on ortogonal de u sobre la recta generada por v en funcion de
u, v) y |v|.
2. Expresar la proyecci on anterior como el producto de una matriz por el vector u.
3. Sea n = 3, u = (1, 2, 3)
t
y v = (1, 1, 1)
t
. Escribir la matriz P del apartado anterior
para estos vectores. Cual es su rango? Determinar bases ortogonales de ker P e
ImP.
4. Determinar una base ortonormal de R
3
cuyo primer vector sea proporcional a v.
3.4.1. Cuestiones
3.20. Sean F y G dos subespacios de R
n
. Decidir sobre la veracidad o falsedad de las
siguientes proposiciones.
1. F G F

2. F G G

3. R
n
= F G R
n
= F

4. R
n
= F G

F = G
3.21. Sea A R
nn
tal que u, Au) = 0 cualquiera que sea u R
n
. Decidir sobre la
veracidad o falsedad de las siguientes armaciones.
1. A es nula.
2. Los elementos diagonales de A son nulos.
3. det A = 0.
4. i, j a
ij
= a
ji
5. A es antisimetrica.
6. R
n
= ImAker A
3.22. Sea A R
nn
. Decidir sobre la veracidad o falsedad de las siguientes proposi-
ciones.
1. A simetrica R
n
= ImAker A
2. R
n
= ImAker A A simetrica.
3. A antisimetrica R
n
= ImAker A
4. ImA = (ker A)

A simetrica.
Captulo 4
Proyecciones ortogonales y sus
aplicaciones
4.1 Matriz de proyecci on ortogonal sobre un subespacio.
4.2 El problema de mnimos cuadrados. Soluciones de mnimos cuadrados de un sistema.
Solucion de mnima norma de un sistema compatible indeterminado. Solucion de
mnimos cuadrados y mnima norma de un sistema.
4.3 Matriz de simetra ortogonal respecto a un subespacio.
4.4 El producto vectorial en R
3
.
4.5 Giros en R
2
y R
3
.
4.6 Ejercicios.
4.1. Matriz de proyeccion ortogonal sobre un subes-
pacio
Denicion 45 (proyecci on ortogonal sobre un subespacio) Sea M un subespacio
de R
n
; se dice que P
M
R
nn
es la matriz de proyeccion ortogonal sobre M si,
para cada u R
n
, P
M
u es la proyeccion ortogonal de u sobre M.
Deduccion de la matriz P
M
Sea A R
nm
cuyas m columnas forman una base de M; es decir, M = ImA. En virtud
de las formulas (3.14), se tiene que M

= ker A
t
.
Para cada u R
n
, u = v +w, donde v M y w M

; por tanto, existe x R


m
tal
que u = Ax +w, y, por la denicion anterior, P
M
u = Ax.
53
54

Algebra
Se tiene A
t
u = A
t
Ax + A
t
w = A
t
Ax (ya que w M

= ker A
t
). Como el rango
de A es igual a m, igual al de A
t
A, A
t
A es invertible. De x = (A
t
A)
1
A
t
u se obtiene
P
M
u = Ax = A(A
t
A)
1
A
t
u. Finalmente:
P
M
= A
_
A
t
A
_
1
A
t
(4.1)
Figura 4.1: Matriz de proyecci on ortogonal
En particular, la matriz de proyeccion ortogonal sobre el subespacio generado por un
vector no nulo v es
P
L[v]
=
1
v
t
v
vv
t
(4.2)
Si la base de M es ortonormal, entonces A
t
A es la matriz unidad, resultando P
M
=
AA
t
. De acuerdo con este resultado, si (e
1
, e
2
, . . . , e
m
) es una base ortonormal de M,
entonces P
M
=

m
j=1
e
j
e
t
j
; es decir, la proyecci on ortogonal de un vector sobre un subes-
pacio se obtiene sumando las proyecciones ortogonales de dicho vector sobre las rectas
vectoriales generadas por los vectores de una base ortonormal de dicho subespacio.
Se cumplen las siguientes propiedades:
P
M
es simetrica (P
t
M
= P
M
) e idempotente (P
2
M
= P
M
), como se deduce de la
anterior expresion (4.1) de P
M
.
ImP
M
= M y ker P
M
= M

, por lo que ImP


M
y ker P
M
son subespacios suple-
mentarios ortogonales.
Captulo 4 55
Si P
M
es la matriz matriz de proyecci on ortogonal sobre M, la de proyecci on orto-
gonal sobre M

es P
M
= I P
m
.
Proposicion 22 Si una matriz P R
nn
es simetrica e idempotente, entonces es la
matriz de proyeccion ortogonal sobre su imagen.
Demostracion: En efecto, para cada u R
n
se tiene que u = Pu+uPu. Se cumplen
Pu ImP y, por las propiedades de P, u Pu ker P = (ImP)

. Por tanto, Pu es la
proyeccion ortogonal de u sobre ImP.
Notese que ImP = ker (I P).
Todo lo anterior es similar en el caso de C
n
sustituyendo la trasposicion por trasposicion y
conjugacion, resultando la matriz de proyecci on ortogonal sobre un subespacio hermtica
e idempotente.
4.2. El problema de mnimos cuadrados
Un modelo matematico es un esquema ideal que responde a un problema real. La
b usqueda de solucion de dicho problema conlleva la realizacion de observaciones, muchas
veces con errores de medida. El planteamiento matematico de tal problema puede con-
ducir, por ejemplo, a un sistema lineal incompatible. En esos casos se corrige el termino
independiente (que hace incompatible el sistema) y se sustituye por un termino indepen-
diente para el cual el sistema tenga solucion. A esta solucion del sistema con termino
independiente modicado se le llama pseudosolucion del sistema de partida.
4.2.1. Soluciones de mnimos cuadrados de un sistema
Se consideran A R
mn
y b R
m
en todo este apartado.
El mnimo de la norma de b Ax, cuando x R
n
, existe, ya que, como se vio en el
captulo 3, basta tomar Ax igual a la proyecci on ortogonal de b sobre ImA. Por lo tanto,
queda motivada la siguiente denicion.
Denicion 46 (solucion de mnimos cuadrados) Dado un sistema lineal Ax = b,
se dene solucion de mnimos cuadrados o pseudosolucion del mismo a cualquier
vector x R
n
tal que la norma de b Ax sea mnima.
Observacion: La denicion anterior justica la expresion solucion de mnimos cuadra-
dos, ya que dicha norma al cuadrado es la suma de los cuadrados de las coordenadas del
vector b Ax, respecto de una base ortonormal de R
m
, y se desean obtener vectores x
que hagan que dicha suma sea mnima.
Por tanto, las soluciones de mnimos cuadrados de un sistema lineal Ax = b son las
soluciones del sistema Ax = P
ImA
b, siendo P
ImA
la matriz de proyecci on ortogonal sobre
ImA.
56

Algebra
Observacion: Si el sistema Ax = b es compatible, entonces sus soluciones coinciden
con sus soluciones de mnimos cuadrados.
Denicion 47 (vector residuo) Se dene el vector residuo del sistema Ax = b como
r = b P
ImA
b.
Denicion 48 (ecuaciones normales) Dado el sistema Ax = b, sus ecuaciones
normales vienen dadas por el sistema
A
t
Ax = A
t
b. (4.3)
Proposicion 23 x
0
es solucion de mnimos cuadrados del sistema Ax = b x
0
es
solucion de las ecuaciones normales de dicho sistema.
Demostracion: Ya que sera de utilidad en la demostracion, observese que el sistema
de ecuaciones normales A
t
Ax = A
t
b es siempre compatible, ya que ImA
t
= Im(A
t
A).
) Sea x
0
solucion de mnimos cuadrados del sistema Ax = b; es decir, Ax
0
= P
ImA
b.
Como b = P
ImA
b+w, donde w (ImA)

= ker A
t
, se tiene A
t
b = A
t
P
ImA
b = A
t
Ax
0
.
Por tanto, x
0
es solucion del sistema A
t
Ax = A
t
b.
) Sea x
0
una solucion de las ecuaciones normales del sistema Ax = b; es decir,
A
t
Ax
0
= A
t
b, que juntamente con b = P
ImA
b + w, donde w ker A
t
, conduce a
A
t
Ax
0
= A
t
P
ImA
b.
De esta ultima igualdad se deducen las siguientes implicaciones: A
t
(Ax
0
P
ImA
b) =
0 Ax
0
P
ImA
b ker A
t
Ax
0
P
ImA
b ker A
t
ImA =0 Ax
0
= P
ImA
b.
x
0
es, por tanto, solucion de mnimos cuadrados del sistema Ax = b.
Observacion: La solucion x
0
de mnimos cuadrados es unica si y solo si el rango de A
es igual a n. Y, en este caso, x
0
= (A
t
A)
1
A
t
b.
4.2.2. Solucion de mnima norma de un sistema compatible in-
determinado
Sean A R
mn
y Ax = b sistema compatible indeterminado. Se trata de encontrar,
entre todas sus soluciones, aquella cuya norma sea mnima.
Cualquier vector solucion x del sistema anterior se descompone de manera unica en la
forma x = x
0
+ u, donde x
0
(ker A)

= ImA
t
y u ker A. Como dos soluciones cua-
lesquiera dieren en un vector de ker A, se tiene que x
0
tambien es solucion del sistema.Por
el teorema de Pitagoras, |x|
2
= |x
0
|
2
+ |u|
2
, de donde se deduce que |x| |x
0
|. Es
decir, x
0
(ker A)

es una solucion que tiene norma mnima.


Por otra parte, si existiese otra solucion del sistema y
0
de norma igual que |x
0
|, se
tendra y
0
= x
0
+ w, con w ker A, de modo que |x
0
|
2
= |y
0
|
2
= |x
0
+w|
2
=
|x
0
|
2
+|w|
2
|w|
2
= 0 w = 0 y
0
= x
0
.
Captulo 4 57
La solucion de mnima norma esta, por consiguiente, univocamente determinada, y
esta caracterizada por su pertenencia a (ker A)

= ImA
t
.
La solucion de mnima norma puede obtenerse por uno cualquiera de los siguientes
metodos:
1. Proyectando ortogonalmente cualquiera de las soluciones del sistema sobre ImA
t
.
2. Determinando aquella solucion que pertenezca a ImA
t
.
3. Eligiendo, entre todas las soluciones del sistema, aquella que sea ortogonal al ker A.
Figura 4.2: Solucion x
0
de mnima norma de un sistema compatible indeterminado
Observacion: Si r(A) = m < n, la solucion de mnima norma puede expresarse como
x
0
= A
t
(AA
t
)
1
b. Para llegar al resultado anterior, basta tener en cuenta que x
0
ImA
t
conduce a que existe v R
m
tal que A
t
v = x
0
; por otra parte, Ax
0
= b, de modo que
AA
t
v = b, resultando v =
_
AA
t
_
1
b, ya que AA
t
tiene rango igual a m. Finalmente,
x
0
= A
t
(AA
t
)
1
b. Hay que tener en cuenta que este resultado solo es valido si el rango de
A es igual a m. En caso contrario, la matriz A
t
A, cuadrada de orden m, no es invertible,
ya que su rango, igual al de A, es menor que m.
58

Algebra
4.2.3. Solucion de mnimos cuadrados y mnima norma de un
sistema
En el caso general, las soluciones de mnimos cuadrados del sistema Ax = b son las
soluciones de sus ecuaciones normales A
t
Ax = A
t
b, sistema, como se ha visto, compa-
tible. Para determinar, entre ellas, la de mnima norma, que esta univocamente determi-
nada, basta tener en cuenta, ademas, el resultado ya visto en el apartado anterior. Por
tanto, la solucion de mnimos cuadrados y mnima norma del sistema Ax = b es x
0
R
n
tal que A
t
Ax
0
= A
t
b y x
0
(ker A
t
A)

= (ker A)

= ImA
t
.
Todo lo visto en este apartado es similar en el caso de A C
mn
, sustituyendo la
trasposicion por trasposicion y conjugacion.
4.3. Matriz de simetra ortogonal respecto a un su-
bespacio
Denicion 49 (simetra ortogonal respecto a un subespacio) Sea M un subespa-
cio de R
n
, se dice que S
M
R
nn
es matriz de simetra ortogonal respecto a M
si, para cada u R
n
, S
M
u = P
M
u P
M
u (es decir, es igual al vector proyeccion de u
sobre M mas el opuesto de su proyeccion sobre M

).
Se tiene: S
M
u = P
M
uP
M
u = P
M
u(u P
M
u) = 2P
M
u, de donde se deduce
que
S
M
= 2P
M
I (4.4)
Se cumplen las siguientes propiedades:
S
M
es simetrica (S
M
= S
t
M
) y ortogonal (S
M
S
t
M
= I). Es decir, S
1
M
= S
M
= S
t
M
.
Im(S
M
+I) = M = ker (S
M
I) y ker (S
M
+I) = M

.
Si S
M
es la matriz de simetra ortogonal respecto a M, la de simetra ortogonal
respecto a M

es S
M
.
En efecto, S
M
= I 2P
M
= 2(I P
M
) I = 2P
M
I.
En particular, la matriz de simetra ortogonal respecto al subespacio generado por un
vector no nulo v, como se deduce de (4.2), es
S
L[v]
=
2
v
t
v
vv
t
I
Captulo 4 59
Figura 4.3: Matriz de simetra ortogonal
Proposicion 24 Si una matriz S es simetrica y ortogonal, entonces es la matriz de
simetra ortogonal respecto a Im(S +I).
Demostracion: S es simetra ortogonal equivale, por la formula (4.4), a que
1
2
(S +I)
es una proyecci on ortogonal.
Va a demostrase que
1
2
(S +I) es, en efecto, la matriz de proyecci on ortogonal sobre
Im(S +I). Por una parte,
1
2
(S +I) es simetrica; y, por otra, es idempotente, ya que
1
4
(S +I)
2
=
1
4
(S
2
+ 2S +I)
2
=
1
2
(S +I).
El subespacio Im(S +I) tambien puede determinarse a partir de Sx = x; es decir,
calculando ker (S I).
Matriz de Householder
Sea H un hiperplano de R
n
(es decir, un subespacio de dimension n 1), de ecuacion
v
t
x = 0. La matriz de simetra ortogonal respecto a dicho hiperplano es, por lo visto
anteriormente, S
H
= S
L[v]
. Dicha matriz de simetra se llama matriz de Householder,
y esta denida por el vector v, no nulo, ortogonal a H. Su expresion es
H = I
2
v
t
v
vv
t
(4.5)
Las matrices de Householder tienen numerosas aplicaciones en

Algebra Numerica.
60

Algebra
Todo lo visto en este apartado es similar en el caso de C
n
, sustituyendo la trasposicion
por trasposicion y conjugacion, resultando las matrices de simetra ortogonal hermticas
y unitarias.
4.4. El producto vectorial en R
3
Denicion 50 (producto vectorial de dos vectores en R
3
) Dados dos vectores u =
(u
1
, u
2
, u
3
) y v = (v
1
, v
2
, v
3
) de R
3
, su producto vectorial u v es
u v = (u
2
v
3
u
3
v
2
, u
3
v
1
u
1
v
3
, u
1
v
2
u
2
v
1
).
Esta expresion quiza no sea facil de recordar de memoria, por lo que suele calcularse
desarrollando por la primera la (formada por los vectores canonicos) el determinante
simbolico

e
1
e
2
e
3
u
1
u
2
u
3
v
1
v
2
v
3

= (u
2
v
3
u
3
v
2
)e
1
+ (u
3
v
1
u
1
v
3
)e
2
+ (u
1
v
2
u
2
v
1
)e
3
Propiedades del producto vectorial
Sean u, v, w vectores cualesquiera de R
3
.
1. u v = 0 u y v son proporcionales
2. u v = v u
3. uv |u v| = |u||v|
4. Producto mixto: u v, w) = w
t
(u v) = det (u[v[w)
El producto vectorial en forma matricial
Sea u R
3
. Se cumple que, para cada vector v R
3
u v =
_
_
_
0 u
3
u
2
u
3
0 u
1
u
2
u
1
0
_
_
_v (4.6)
La matriz anterior se denotara

u.
4.5. Giros en R
2
y R
3
Denicion 51 (Matriz de giro) G R
nn
(n = 2, 3) es un giro si es ortogonal y su
determinante es igual a la unidad.
Captulo 4 61
Matriz de giro en R
2
Sea G R
22
, ortogonal y de determinante igual a 1. A partir de dichas propiedades
puede deducirse que la matriz sera de la forma G =
_
cos sen
sen cos
_
, donde
[0, 2). Se tendra, por tanto, que G
_
1
0
_
=
_
cos
sen
_
y G
_
0
1
_
=
_
sen
cos
_
. Estos
resultados tienen la siguiente interpretacion geometrica: se trata de un giro alrededor del
origen de R
2
de angulo de giro igual a , tal como se indica en la gura 4.3.
Figura 4.4: Giro en el plano
Matriz de giro en R
3
Si ahora se considera la matriz G =
_
_
_
1 0 0
0 cos sen
0 sen cos
_
_
_ que es ortogonal y de
determinante igual a 1 (es decir, es un giro en R
3
), se tiene:
G
_
_
_
x
y
z
_
_
_ =
_
_
_
x
cos y sen z
sen y + cos z
_
_
_
La interpretaci on geometrica del resultado anterior tambien resulta evidente: la proyeccion
ortogonal del vector sobre el eje de giro L[(1, 0, 0)] permanece invariante y su proyecci on
62

Algebra
ortogonal sobre L[(1, 0, 0)]

= L[(0, 1, 0) , (0, 0, 1)] se gira, en este plano, un angulo


alrededor del origen de R
3
, tal como se indica en la gura 4.4. El vector transformado Gu
es la suma del vector proyectado y del vector girado.
Figura 4.5: Giro en el espacio
Puede demostrarse (utilizando resultados de los captulos 5 y 6) que G R
33
, orto-
gonal de determinante igual a la unidad, es un giro de eje L[u] y angulo (, ], de
modo que Gu resulta igual a la suma de la proyeccion ortogonal de u sobre L[u] mas el
vector que resulta de girar un angulo la proyecci on ortogonal de u en el plano L[u]

.
Dada G R
33
, ortogonal de determinante igual a la unidad, para determinar el eje
y el angulo de giro pueden seguirse los siguientes pasos:
1. Gu = u u ker (GI) proporciona el eje de giro L[u].
2. Se elige v L[u]

, unitario, y si u es unitario, w = u v.
3. Gv = cos v + sen w; es decir, se calculan las coordenadas cos y sen de
Gv L[u]

, respecto de la base ortonormal (v, w) de L[u]

, las cuales permiten


determinar [0, 2) de modo unvoco.
Captulo 4 63
Observacion: Se verica que cos =
1
2
traza(G) 1 (su demostracion precisa de resul-
tados de los dos siguientes captulos). Sin embargo, a partir de este resultado, no quedara
determinado el valor de [0, 2), aunque s cos . Por ello, solo sera necesario deter-
minar sen , utilizando la igualdad indicada en el anterior punto 3.
El siguiente apartado proporciona un metodo para calcular la matriz de un giro de eje
L[u] y angulo [0, 2).
Calculo de la matriz de giro en terminos de la proyeccion sobre el eje de giro
Si se considera P = uu
t
, matriz de proyeccion ortogonal sobre la recta L[u], donde u es
unitario, todo vector r puede descomponerse como r = Pr+(IP)r, en donde la primera
componente permanece invariante mediante el giro de angulo y eje de giro L[u] y la
segunda, perteneciente al plano ortogonal al eje de giro, al girar se transforma en cos
(I P)r + sen (u (I P)r).
Vease la gura 4.6 para interpretaci on geometrica de lo anterior.
Figura 4.6: Giro en el espacio en terminos de la proyecci on sobre el eje de giro
As pues, la matriz del giro puede escribirse en la forma
G = P+ cos (I P) + sen u(I P).
64

Algebra
4.6. Ejercicios
4.1. Hallese la matriz de proyecci on ortogonal sobre la recta x = y = 2z. Calc ulese
asimismo la matriz de simetra ortogonal respecto a esa misma recta.
4.2. Escribanse la matriz de proyecci on ortogonal sobre el plano 2x +2y +z = 0, y la
matriz de simetra ortogonal respecto a dicho plano.
4.3. Hallese la matriz de proyeccion ortogonal sobre el subespacio de R
4
determinado
por las ecuaciones
_
x
1
+x
2
= 0,
x
3
+x
4
= 0.
4.4. Determnense las matrices de Householder tales que
1) H
v
(2, 2, 1) = (3, 0, 0)
2) H
w
(2, 2, 1) = (3, 0, 0).
Est udiese la relacion que existe entre los vectores v y w.
4.5. Calc ulese la solucion de mnimos cuadrados del sistema
_
_
_
1 0
1 1
2 1
_
_
_
_
_
_
x
y
z
_
_
_ =
_
_
_
1
2
1
_
_
_
4.6. Dados los puntos del plano de coordenadas (x
k
, y
k
) con k = 1, 2, . . . , n, la rec-
ta de regresion de y sobre x es la recta de ecuacion y = mx + p, cuyas pendiente m
y ordenada en el origen p minimizan la expresion

n
k=1
(y
k
mx
k
p)
2
. Ded uzcase la
expresion explcita de los coecientes m y p. Hallese la recta de regresion de los puntos
(2, 1), (4, 2), (6, 3), (8, 1), (10, 2).
4.7. Determnese la solucion de mnimos cuadrados del sistema
_
_
_
1 1
2 1
2 1
_
_
_
_
x
y
_
=
_
_
_
0
1
2
_
_
_.
4.8. Determnese la solucion de mnima norma del sistema de ecuaciones
_
x
1
+x
2
x
3
+x
4
= 2
x
1
x
2
+x
3
x
4
= 2
.
4.9. Calc ulese la solucion de mnimos cuadrados y mnima norma del sistema
_
_
_
_
_
1 1 1
2 1 1
2 1 1
1 1 1
_
_
_
_
_
_
_
_
x
y
z
_
_
_ =
_
_
_
_
_
0
3
2
0
_
_
_
_
_
.
Captulo 4 65
4.10. a) Calc ulese la proyecci on ortogonal del vector (1, 1, 1) sobre el subespacio
F = L[(1, 1, 0), (1, 2, 1), (0, 1, 1)]
b) Calc ulese la solucion de mnimos cuadrados y mnima norma del sistema
_
_
_
1 1 0
1 2 1
0 1 1
_
_
_
_
_
_
x
y
z
_
_
_ =
_
_
_
1
1
1
_
_
_
4.11. Calc ulese la matriz de giro de angulo
2
3
en torno al vector (1, 1, 1).
4.12. Determnense el angulo y el eje del giro
1
3
_
_
_
2 2 1
1 2 2
2 1 2
_
_
_.
4.6.1. Cuestiones
4.13. Marquese la unica proposicion falsa.
Si P R
nn
es una matriz de proyecci on ortogonal, entonces
_ (A) R
n
= ker PImP
_ (B) P
t
= P
2
_ (C) (ker P)

= Im(I P)
_ (D) u Im(I P), Pu = 0
4.14. Indquense las armaciones que son verdaderas y las que son falsas.
Si M es un subespacio vectorial de R
n
, entonces
1) S
M
= I 2P
M
2) P
M
+P
M
= I
3) S
M
P
M
= P
M
4) P
M
P
M
= O
5) S
M
S
M
= I
4.15. Demuestrese la siguiente proposicion si es verdadera o dese un contraejemplo si
es falsa:
Si P R
nn
es una matriz de proyeccion ortogonal y b R
n
, entonces Pb es la
solucion de mnimos cuadrados y mnima norma del sistema Px = b.
4.16. Est udiese si la siguiente proposicion es verdadera:
Sea v R
n
, no nulo, y M =
2
v
t
v
vv
t
I, entonces M es una matriz de Householder.
Captulo 5
Reduccion por semejanza de una
matriz
5.1 Introduccion.
5.2 Matrices semejantes y matrices diagonalizables.
5.3 Valores y vectores propios. Polinomio caracterstico.
5.4 Diagonalizacion. Teorema de Cayley-Hamilton. Aplicaciones.
5.5 Ejercicios. Cuestiones.
5.1. Introduccion
En este captulo estudiaremos condiciones necesarias y sucientes para que una matriz
sea semejante a una matriz diagonal (o dicho de otra forma, que pueda representarse por
una matriz diagonal), lo que equivale a encontrar una base de vectores que se transforman
en proporcionales a s mismos. Un vector no nulo x es vector propio de A si se transforma
en su propia direccion, es decir si se cumple que Ax = x. El escalar es el valor propio
asociado a x.
En gran n umero de aplicaciones los valores y vectores propios tienen un claro signica-
do geometrico. Consideremos por ejemplo la matriz de simetra respecto a un plano en
R
3
. Todos los vectores de ese plano coinciden con sus transformados, luego son vectores
propios asociados con el valor propio 1 (Ax = x). Sin embargo, un vector perpendicular
al plano de simetra mantiene su direccion y cambia de sentido (Ax = x), luego es un
vector propio asociado con el valor propio 1.
Consideremos ahora la matriz de giro que represente por ejemplo la apertura de una
puerta en R
3
. Hay alg un vector asociado a la puerta que no cambie de direccion al girar
la puerta 60
o
? S, los del eje de la puerta, que seran vectores propios asociados con el valor
propio 1. Es facil ver que no hay ning un otro vector asociado a la puerta que no cambie
de direccion con ese giro.
66
Captulo 5 67
El calculo de valores y vectores propios tiene una gran importancia en muchas areas
de la Ingeniera, como por ejemplo al analisis ssmico de estructuras. Otro ejemplo in-
teresante es el algoritmo original de Google para ordenar los resultados de las b usquedas.
Este algoritmo, denominado PageRank, esta basado en el calculo del vector propio aso-
ciado con el maximo valor propio de una matriz con tantas las y columnas como paginas
web hay en Internet, y formada a partir de los enlaces de llegada y de salida que ralacionan
cada pagina con las restantes.
5.2. Matrices semejantes y matrices diagonalizables
Denicion 52 Dos matrices cuadradas A y B se dicen semejantes si existe una matriz
invertible P tal que P
1
AP = B.
Denicion 53 Una matriz cuadrada A es diagonalizable cuando es semejante a una
matriz diagonal, es decir cuando existe una matriz P invertible tal que P
1
AP es diago-
nal.
Las matrices semejantes comparten muchas propiedades, como se vera en detalle a lo
largo de este tema. Por ejemplo, a partir de la denicion es facil observar que tienen el
mismo determinante.
5.3. Valores y vectores propios
Denicion 54 (valor y vector propio) Sea A una matriz cuadrada de orden n y coe-
cientes en el cuerpo K.
Se dice que un escalar de K es un valor propio o autovalor de la matriz A si
existe un vector v, perteneciente a K
n
, no nulo y tal que Av = v.
Se dice que un vector v de K
n
es un vector propio o autovector de la matriz A si
v es no nulo y ademas existe un escalar en K tal que Av = v.
Observaciones:
A todo valor propio corresponde al menos un vector propio y viceversa. Los m ultiplos
no nulos de un vector propio son vectores propios asociados al mismo valor propio.
De hecho, el conjunto de todos los vectores propios asociados a un determinado valor
propio constituye, junto con el vector nulo, un subespacio vectorial al que se deno-
minara subespacio caracterstico o propio de la matriz asociado al susodicho
valor.
En efecto, basta observar que si es un valor propio, entonces los vectores propios
v asociados a el verican Av v = 0. Es decir, son las soluciones no nulas del
sistema lineal homogeneo (AI)x = 0 donde I representa la matriz identidad de
68

Algebra
orden n. Por consiguiente, el subespacio caracterstico asociado a es el n ucleo de
la matriz AI que denotamos por ker(AI).
El vector nulo x = 0 nunca se considera vector propio de una matriz. Sin embargo,
= 0 s es un valor propio aceptable, en concreto, asociado con todos los vectores
de ker(A) cuando dimker(A) 1.
Si la matriz A es una matriz diagonal, entonces los elementos diagonales son valores
propios, mientras que los vectores de la base canonica son vectores propios.
Si la matriz A es triangular, entonces los elementos diagonales son sus valores
propios, pero los vectores canonicos ya no son sus autovectores.
Proposicion 25 Si v
1
, v
2
, . . . , v
r
son r vectores propios de una matriz A, asociados res-
pectivamente a r valores propios
1
,
2
, . . . ,
r
, distintos dos a dos, entonces dichos vec-
tores son linealmente independientes.
Demostracion: Se demostrara por induccion sobre el n umero r de valores propios
distintos. Esta claro que el conjunto cuyo unico vector propio es v
1
es libre, porque es
vector propio y no nulo. Supongase ahora r > 1. Como hipotesis de induccion se establece
que los vectores v
2
, v
3
, . . . , v
r
son linealmente independientes. Considerese la siguiente
combinacion lineal nula de los r vectores:

1
v
1
+
2
v
2
+. . . +
r
v
r
= 0 (5.1)
Se ha de probar que los escalares
j
, j = 1, . . . , r son nulos. Premultiplicando la expresion
(7.30) por A y teniendo en cuenta que Av
i
=
i
v
i
se obtiene:

1
v
1
+
2

2
v
2
+. . . +
r

r
v
r
= 0 (5.2)
Si a la expresion (5.2) se le resta la expresion (7.30) multiplicada por
1
se obtiene:

2
(
2

1
)v
2
+
3
(
3

1
)v
3
+. . . +
r
(
r

1
)v
r
= 0 (5.3)
Por la hipotesis de induccion en esta combinacion lineal los vectores son linealmente
independientes, luego los coecientes deben ser nulos. Como (
i

1
) ,= 0, se sigue que

k
= 0, k = 2, . . . , r. Llevando este resultado a la expresion (7.30) y teniendo en cuenta
que v
1
es no nulo, se sigue que tambien
1
= 0 y por tanto los r vectores v
1
, v
2
, . . . , v
r
son independientes.
Observacion: En particular, si una matriz A tiene tantos valores propios distintos como
indica su orden, entonces los vectores propios asociados constituyen una base de K
n
. Si
se construye una matriz P de forma que sus columnas sean los vectores propios de esa
base, entonces la matriz P
1
AP es una matriz diagonal semejante a A y por tanto A es
diagonalizable.
Captulo 5 69
En efecto, las ecuaciones Av
i
=
i
v
i
, i = 1, 2, . . . , n se pueden escribir conjuntamente
en la forma:
A(v
1
, v
2
, ..., v
n
) = (v
1
, v
2
, ..., v
n
)
_
_
_
_
_
_

2
.
.
.

n
_
_
_
_
_
_
(5.4)
Si D = diag (
1
,
2
, ...,
n
) y P = (v
1
, v
2
, ..., v
n
) la ecuacion (5.4) se puede escribir
abreviadamente en las formas:
AP = PD (5.5)
P
1
AP = D (5.6)
Sin embargo, la existencia de n valores propios distintos es condicion suciente pero
no necesaria para que exista tal base; por ejemplo, si se considera la matriz identidad,
con 1 como unico autovalor, toda base de K
n
es de vectores propios de esta matriz.
Se pueden encontrar otros ejemplos no tan triviales: matrices diagonales con elementos
repetidos, etc.
Denicion 55 (espectro y radio espectral) Sea A una matriz cuadrada compleja.
Se llama espectro de la matriz A al conjunto de todos sus valores propios.
Se llama radio espectral de una matriz A al maximo de los modulos de los valores
propios. Se suele denotar como (A).
5.3.1. Polinomio caracterstico
Ya se ha visto que si es un valor propio de una matriz A, el subespacio caracterstico
asociado es precisamente ker(A I). Para que el sistema homogeneo admita solucion
no trivial es necesario que la matriz A I tenga rango inferior a su orden o, equiva-
lentemente, que su determinante sea nulo. He aqu entonces, un procedimiento para
calcular los valores y vectores propios de una matriz: una vez calculadas las races de
la ecuacion det(I A) = 0, se resuelven los sistemas lineales homogeneos (I A)x = 0
para cada una de dichas races y las soluciones no nulas seran vectores propios.
Si consideramos
[I A[ =

a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nn

, (5.7)
observamos que el desarrollo de tal determinante nos da un polinomio en la indeterminada
, cuyo termino de mayor grado, que se obtiene a partir del producto de los elementos de
la diagonal, es
n
; se trata, pues, de un polinomio monico de grado igual al orden de la
matriz.
70

Algebra
Denicion 56 Dada A K
nn
, se llama polinomio caracterstico de A, y se denota
por
A
, al polinomio con coecientes en K, monico de grado n, denido por

A
() := [I A[, (5.8)
cuyas races son los autovalores de A.
Denicion 57 Dada A K
nn
, un autovalor de A se dice que tiene multiplici-
dad algebraica igual a m si tiene multiplicidad m como raz de
A
. La dimension del
subespacio ker(AI) se llama multiplicidad geometrica de .
Proposicion 26 Dos matrices semejantes tienen el mismo polinomio caracterstico.
Demostracion: Sean A, B dos matrices semejantes, relacionadas por B = P
1
AP,
entonces:

B
() = det (I B) = det (I P
1
AP)
= det [P
1
(I A)P] = det (I A) =
A
()
Como corolario se deduce que dos matrices semejantes tienen la misma traza (opuesto
del coeciente de
n1
en el polinomio caracterstico) as como el mismo determinante
((1)
n
por el termino independiente).
Observaciones: Sea A C
nn
El termino independiente de
A
es
A
(0) = det(A) = (1)
n
det A. Por otro lado,
el termino independiente de un polinomio es (1)
n
multiplicado por el producto de
sus races, concluimos que
det A =
1

2
. . .
n
, (5.9)
en donde los
j
anteriores representan todos los autovalores de A, multiplicados
tantas veces como indiquen sus multiplicidades.
El termino de grado n 1 de
A
se obtiene tambien a partir de la suma de todos
los elementos de la diagonal principal:

A
() = ( a
11
)( a
22
) . . . ( a
nn
)
=
n
(a
11
+a
22
+. . . +a
nn
)
n1
+ (terminos de grado menor que n 1) (5.10)
Se observa, pues, que el coeciente de grado n 1 de
A
es el opuesto de la traza
de A. Ademas dicho coeciente coincide con el opuesto de la suma de las races y,
en conclusion,
trA =
1
+
2
+. . . +
n
, (5.11)
siendo los
j
todos los autovalores de A, sumados tantas veces como indiquen sus
multiplicidades algebraicas.
Captulo 5 71
Si la matriz A es invertible, los valores propios de la inversa son los inversos de
los valores propios de A. Para comprobar la relacion entre valores propios basta
observar las equivalencias:
Av = v v = A
1
v A
1
v =
1

v (5.12)
Esta claro que todos los valores propios de esta matriz han de ser distintos de
cero, puesto que si la matriz es invertible, el sistema homogeneo asociado Ax = 0
solo admite solucion trivial.
Las matrices reales de orden impar tienen, al menos, un valor propio real.
La matriz
A =
_
0 1
1 0
_
(5.13)
tiene como polinomio caracterstico
2
+ 1. Como matriz real no admite valores
propios, mientras que como matriz compleja admite dos distintos i y i: existe una
base de C
2
(no real) formada por vectores propios de A.
Si una matriz real (contemplada como matriz compleja) tiene un valor propio com-
plejo , entonces es tambien valor propio con la misma multiplicidad algebraica.
Ademas, los vectores propios correspondientes pueden tomarse conjugados:
Av = v Av = v (5.14)
Como consecuencia, v, v es libre.
La igualdad de los polinomios caractersticos es una condicion necesaria, no suciente
de semejanza. Por ejemplo, la matriz
A =
_
0 1
0 0
_
(5.15)
tiene por polinomio caracterstico
2
, al igual que la matriz nula, sin embargo A no
es semejante a la nula ya que no tienen el mismo rango; ademas, la unica matriz
semejante a la matriz nula es ella misma.
Ejemplo: Calcular los valores y vectores propios de la matriz
A =
_
_
_
1 0 0
1 4 1
1 0 2
_
_
_ (5.16)
72

Algebra
Calculemos en primer lugar su polinomio caracterstico

A
() =

1 0 0
1 4 1
1 0 2

= ( 1)( 4)( 2) (5.17)


Para calcular los vectores propios asociados con = 1 resolvamos:
(AI)x =
_
_
_
0 0 0
1 3 1
1 0 1
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.18)
Las soluciones son los m ultiplos de v
t
1
= (1, 0, 1). Analogamente, los vectores propios
asociados a = 4:
(A4I)x =
_
_
_
3 0 0
1 0 1
1 0 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.19)
Las soluciones son los m ultiplos de v
t
2
= (0, 1, 0). Por ultimo, para el valor propio = 2
se tiene
(A2I)x =
_
_
_
1 0 0
1 2 1
1 0 0
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.20)
Las soluciones son los m ultiplos de v
t
3
= (0, 1, 2).
Los vectores v
1
, v
2
, v
3
son linealmente independientes. Si P es la matriz cuyas colum-
nas son dichos vectores,
P = (v
1
[v
2
[v
3
) =
_
_
_
1 0 0
0 1 1
1 0 2
_
_
_ (5.21)
el producto AP tiene como primera columna v
1
, como segunda 4v
2
y como tercera 2v
3
.
Dicho de otra forma, se verica AP = Pdiag (1, 4, 2). Equivalentemente, P
1
AP =
diag (1, 4, 2).
Ejemplo: Calcular los valores y vectores propios de la matriz
A =
_
_
_
2 1 1
1 2 1
1 1 2
_
_
_ (5.22)
Captulo 5 73
Calculemos en primer lugar su polinomio caracterstico

A
() =

2 1 1
1 2 1
1 1 2

=
3
6
2
+ 9 4 = ( 4)( 1)
2
(5.23)
Para calcular ahora los vectores propios asociados con = 4 resolvamos:
(A4I)x =
_
_
_
2 1 1
1 2 1
1 1 2
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.24)
Las soluciones son los m ultiplos de v
t
1
= (1, 1, 1). Los vectores propios asociados al valor
propio doble = 1:
(AI)x =
_
_
_
1 1 1
1 1 1
1 1 1
_
_
_
_
_
_
x
1
x
2
x
3
_
_
_ =
_
_
_
0
0
0
_
_
_ (5.25)
La matriz anterior tiene rango 1 y por tanto hay un subespacio propio de dimension 2
asociado con = 1. Tomando x
2
y x
3
como variables libres a las que se da alternativamente
valor 1 o 0 se obtienen las soluciones v
t
2
= (1, 1, 0) y v
t
3
= (1, 0, 1). Los vectores propios
correspondientes son todas las combinaciones lineales no nulas de estos dos vectores.
5.4. Diagonalizacion
En el primer ejemplo se ha encontrado una matriz diagonal semejante a la matriz
original A. Los elementos de la diagonal son los valores propios de A, mientras que las
columnas de la matriz P son vectores propios. En el segundo ejemplo tambien se han
encontrado tres vectores propios linealmente independientes, a pesar de que uno de los
valores propios es doble.
De una forma mas general, si una matriz cuadrada A es semejante a una diagonal D,
entonces la relacion AP = PD signica que la columna j-esima de P es proporcional a
la j-esima de AP. Dicho con otras palabras, el elemento j de la diagonal D es un valor
propio de A y tiene como vector propio asociado precisamente la columna j de P. Se
tiene que las columnas de P son una base de K
n
formada por vectores propios de A.
Proposicion 27 Sea A una matriz cuadrada de orden n. Supongase que el polinomio
caracterstico de A admite la factorizacion:

A
() = (
1
)

1
. . . (
r
)

r
(5.26)
donde
j
, j = 1, . . . , r son los valores propios distintos (dos a dos) de A y
j
sus multi-
plicidades respectivas. Entonces, para cada j = 1, . . . , r se tiene
1 dim ker(A
j
I)
j
(5.27)
Es decir, la multiplicidad geometrica es menor o igual que la algebraica.
74

Algebra
Demostracion: La demostracion se hara construyendo una matriz semejante a A y
tal que admita
j
como valor propio de multiplicidad al menos igual a la dimension del
subespacio caracterstico asociado. Para ello, se considera una base B de K
n
tal que los
m primeros vectores formen una base del subespacio ker(A
j
I), supuesto de dimension
igual a m. Es obvio que m es mayor o igual que 1 puesto que
j
se calcula de modo que
la matriz (A
j
I) tenga determinante nulo y, en consecuencia, rango menor que n.
Si P representa la matriz cuyas columnas son los vectores de la base B entonces P es
invertible y se verica la igualdad
P
1
AP =
_

j
I
m
B
0 C
_
(5.28)
en la cual I
m
representa la matriz identidad de orden m, B es una matriz m (n m)
y C es cuadrada de orden n m. Es claro que el polinomio caracterstico de esta matriz
coincide con el de A por semejanza y es igual a (
j
)
m

C
(). Se tiene entonces que
j
es valor propio de A de multiplicidad por lo menos m.
Proposicion 28 (caracterizacion de matriz diagonalizable) Sea A una matriz cua-
drada de orden n y coecientes en un cuerpo K. Entonces A es diagonalizable en K si y
solamente si:
1. Su polinomio caracterstico admite, contando sus multiplicidades, n races en el
cuerpo K
2. Para cada valor propio de A las multiplicidades algebraica y geometrica coinciden.
Observese que una matriz real puede ser no diagonalizable en R, pero diagonalizable
en C, por ejemplo
_
0 1
1 0
_
. (5.29)
Observaciones: Todas las propiedades siguientes se enuncian para una matriz cuadrada
de orden n:
1. Si A es diagonalizable, entonces A
t
tambien lo es (y la matriz de paso que la
diagonaliza es la inversa de la transpuesta de la de A).
En efecto, si P
1
AP = D diagonal, entonces
D = D
t
= (P
1
AP)
t
= P
t
A
t
(P
1
)
t
= P
t
A
t
(P
t
)
1
. (5.30)
Lo mismo sucede con

A y

A
k
.
Captulo 5 75
2. Si A es diagonalizable e invertible, entonces A
1
tambien es diagonalizable
(y la matriz de paso que la diagonaliza es la misma que la de A).
En efecto, si P
1
AP = D = diag(
1
, . . . ,
n
) con todos los
j
no nulos, entonces
diag(
1
1
, . . . ,
1
n
) = D
1
= (P
1
AP)
1
= P
1
A
1
P. (5.31)
3. Si A es diagonalizable, entonces cualquier potencia de A tambien lo es (y
la matriz que la diagonaliza es la misma).
En efecto, P
1
AP = D = diag(
1
, . . . ,
n
) implica que
diag
_

k
1
, ...,
k
n
_
= D
k
=
_
P
1
AP
_
k
=
=
_
P
1
AP
_ _
P
1
AP
_

_
P
1
AP
_
= P
1
A
k
P (5.32)
El recproco no es cierto. Una potencia diagonalizable no implica que A lo sea. Por
ejemplo la matriz
_
0 1
0 0
_
no es diagonalizable, aunque su cuadrado es la matriz
nula que es un caso particular de matriz diagonal.
5.4.1. Teorema de CayleyHamilton
Sea A una matriz con coecientes en un cuerpo K y sea
P() =
m

j=0
a
j

j
(5.33)
un polinomio cualquiera con coecientes en el mismo cuerpo. Se dene la matriz P(A)
como la que se obtiene sustituyendo en la expresion del polinomio las potencias de por
potencias de A, es decir:
P(A) :=
m

j=0
a
j
A
j
= a
0
I +a
1
A+a
2
A
2
+ +a
m
A
m
(5.34)
donde se ha tenido en cuenta que, por denicion, A
0
I.
Observaciones:
1. Si
0
es valor propio de una matriz A, entonces para cualquier polinomio P, P(
0
)
es valor propio de P(A).
2. Los vectores propios de A lo son de P(A) para cualquier polinomio P.
Atenci on! el recproco no es, necesariamente, cierto. Considerese por ejemplo la
matriz A =
_
1 0
0 1
_
, cuyos valores propios son obviamente
1
= 1 y
2
= 1.
76

Algebra
Los correspondientes vectores propios son v
1
=
_
1
0
_
y v
2
=
_
0
1
_
. Considerese
el caso particular P(A) = A
2
y observese que A
2
= I. As como todos los vectores
propios de A son vectores propios de I, el recproco no es cierto porque cualquier
vector no nulo en R
2
, por ejemplo el
_
1
1
_
, es vector propio de I, pero no tiene por
que serlo de A.
Denicion 58 Se dice que una matriz A es raz de un polinomio P si la matriz P(A)
es la matriz nula.
Teorema 10 (de Cayley-Hamilton) Toda matriz es raz de su polinomio caractersti-
co.
5.4.2. Aplicaciones
Sea A una matriz cuadrada, sea su polinomio caracterstico y P un polinomio
cualquiera.
1. En virtud del teorema de division eucldea de polinomios, P(A) = R(A) siendo R
el resto de dividir P entre .
2. En particular, el resultado anterior puede utilizarse para calcular potencias de A ya
que A
m
= P(A) para P() =
m
.
3. Si A es diagonalizable, entonces P(A) tambien lo es, cualquiera que sea el polinomio
P. Ademas, si Q es una matriz de vectores propios de A y D es diagonal, se tiene:
Q
1
AQ = D Q
1
P(A)Q = P(D) (5.35)
4. Si A es diagonalizable, entonces tambien lo es cualquier polinomio en A.
En efecto, todas las potencias de A son diagonalizadas por la misma matriz P y
como consecuencia tambien P(A) es diagonalizado por P.
Si P
1
AP = D = diag(
1
, . . . ,
n
), entonces
P
1
P(A)P = a
0
I +a
1
D+a
2
D
2
+ +a
m
D
m
= P(D) (5.36)
Captulo 5 77
5.5. Ejercicios
5.1. Calcular los valores y vectores propios de cada una de las siguientes matrices
_
3 2
2 2
_
,
_
3 1
4 1
_
,
_
_
_
3 2 1
6 4 2
2 1 1
_
_
_,
_
_
_
0 1 1
1 2 1
1 1 0
_
_
_,
_
_
_
1 1 1
4 3 2
2 1 1
_
_
_,
_
_
_
3 1 3
0 1 2
2 1 1
_
_
_.
analizando si son o no diagonalizables.
5.2. Calcular los valores de a y b que hacen que (1, 1, 1)
t
sea un autovector de la
matriz
_
_
_
b 2 0
a b 1
0 0 a
_
_
_.
5.3. Indicar los valores de a R para que
_
_
_
1 a + 1 1
0 2 3
0 2 1
_
_
_ sea semejante a
diag (1, 4, 1).
5.4. Hallar el valor del parametro a que hace que la matriz
_
_
_
1 1 0
2 1 a
0 1 1
_
_
_ no sea
diagonalizable.
5.5. Dada la matriz A =
_
_
_
1 2 1
0 3 0
2 4 a
_
_
_ R
33
, determinar cuales de las siguientes
armaciones son ciertas:
1. = 3 es siempre un autovalor de A.
2. Si a = 2 entonces = 0 no es un autovalor de A.
3. Para a = 0 la matriz A no es diagonalizable.
4. Para a = 0, A es semejante a diag(1, 3, 2).
5.6. Sea A una matriz cuadrada invertible de orden n. Probar que la matriz inversa
de A se puede expresar como un polinomio en A. Obtener este polinomio (es unico?) en
el caso particular de la matriz
_
_
_
1 2 2
1 3 1
2 4 5
_
_
_.
78

Algebra
5.7. Se considera el polinomio p(z) = c
0
+c
1
z+c
2
z
2
+c
3
z
3
y la matriz S =
_
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 1
1 0 0 0
_
_
_
_
_
.
1. Determinar los valores y vectores propios de S.
2. Obtener explcitamente la matriz que resulta al evaluar el polinomio p(z) en la
matriz S.
3. Determinar los valores y vectores propios de la matriz resultante, comprobando que
siempre es diagonalizable.
4. Determinar los coecientes de p(z) para que la matriz
_
_
_
_
_
1 2 3 4
4 1 2 3
3 4 1 2
2 3 4 1
_
_
_
_
_
sea p(S). Deducir sus valores y vectores propios.
5.8. Comprobar que una matriz y su traspuesta tienen el mismo polinomio carac-
terstico y, por tanto, los mismos valores propios. Analizar lo que sucede con los vectores
propios.
5.9. Sea A una matriz cuyo polinomio caracterstico es
A
(z) = (z 3)
13
(z + 4)
7
.
Hallar el polinomio caracterstico de A2I.
5.10. Hallar los valores propios de la matriz
w =
_
_
_
0 c b
c 0 a
b a 0
_
_
_
Interpretar el resultado geometricamente considerando el operador L(r) := wr siendo
w = (a, b, c)
t
.
5.11. Dados dos vectores a y b en R
n
, determnense los valores y vectores propios de
la matriz de rango unidad ab
t
. Como aplicacion, hallense los valores y vectores propios
de la matriz
_
_
_
_
_
_
1 1 1
2 2 2
.
.
.
.
.
.
.
.
.
.
.
.
n n n
_
_
_
_
_
_
Captulo 5 79
5.12. Establecer la relacion que existe entre los valores y vectores propios de una
matriz compleja M y los de la matriz aI + bM siendo a, b n umeros complejos no nulos
arbitrarios. Como aplicacion, deducir los valores y vectores propios de la matriz
_
_
_
_
_
_
c d d
d c d
.
.
.
.
.
.
.
.
.
.
.
.
d d c
_
_
_
_
_
_
.
5.13. Sea A C
nn
con r(A) = tr(A) = 1. Hallar los valores propios de A, as como
sus multiplicidades algebraicas y geometricas. Deducir si A es o no diagonalizable.
5.14. Se dice que una matriz A es nilpotente si existe k N tal que A
k
= 0. Sea A
nilpotente.
1. Calcular los valores propios de A y de AI
2. Deducir del apartado anterior la traza y el determinante de AI .
5.5.1. Cuestiones
5.15. Dada la matriz
_
_
_
0 2 2
0 3 0
3 1
_
_
_ se nalar cuales de las siguientes armaciones son
verdaderas y cuales son falsas:
1. A es diagonalizable para todo valor de
2. Si = 0, entonces A tiene un subespacio propio de dimension 2
3. Si A es diagonalizable, entonces = 2
4. Para alg un valor de , A tiene tres valores propios distintos
5. Si = 2, existen tres vectores propios de A linealmente independientes
5.16. Dada la matriz
_
_
_
1 3
0 3 0
2 2 0
_
_
_ se nalar cuales de las siguientes armaciones son
verdaderas y cuales son falsas:
1. Si A es diagonalizable, entonces = 2
2. A es diagonalizable para todo valor de
3. Para alg un valor de , A tiene tres valores propios distintos
4. Si = 2, existen tres vectores propios de A linealmente independientes
80

Algebra
5. Si = 0, entonces A tiene un subespacio propio de dimension 2
5.17. Sean A y B dos matrices cuadradas reales de orden n y k un n umero real. Indicar
cuales de las siguientes armaciones son verdaderas y cuales son falsas:
1. Si A
2
= 0, entonces A = 0
2. Si A
2
= 0 y es un valor propio de A, entonces = 0
3. Si A
2
= A, entonces A = 0 o A = I
4. Si A
t
A = 0, entonces A = 0
5. Si AB = 0, entonces A = 0 o B = 0
6. Si es un valor propio de A, entonces k es un valor propio de k A
7. Si det(AB) = 0, entonces det(A) = 0 o det(B) = 0
8. det(A+B) = det(A) + det(B)
9. det(kA) = k det(A)
Captulo 6
Matrices normales
6.1 Semejanza unitaria y diagonalizacion unitaria.
6.2 Matrices normales.
6.3 Teorema espectral. Aplicacion a matrices hermticas, antihermticas y unitarias.
Descomposicion espectral.
6.4 Matrices reales simetricas. Cociente de Rayleigh.
6.5 Ejercicios. Cuestiones.
6.1. Semejanza unitaria y diagonalizacion unitaria
Denicion 59 (matrices semejantes unitariamente) Se dice que dos matrices cuadradas
complejas A y B son semejantes unitariamente si existe una matriz unitaria U tal
que B = U
1
AU.
Observacion: Puesto que U
1
= U
h
, podemos expresar tambien la relacion de seme-
janza unitaria como
B = U
h
AU. (6.1)
Denicion 60 (matriz diagonalizable unitariamente y ortogonalmente)
Dada A C
nn
, se dice que es diagonalizable unitariamente si es semejante
unitariamente a una matriz diagonal, es decir, si existe una matriz unitaria U tal
que D = U
1
AU es diagonal.
Como caso particular, dada A R
nn
, se dice que es diagonalizable ortogonal-
mente si existe una matriz ortogonal Q R
nn
tal que D = Q
1
AQ es diagonal.
81
82

Algebra
Observacion: Los elementos diagonales de D son los autovalores de A, mientras que
las columnas de U constituyen una base ortonormal de C
n
formada por autovectores de
A.
La anterior observaci on nos permite concluir una primera caracterizacion de las ma-
trices diagonalizables unitariamente:
Proposicion 29 A C
nn
; A es diagonalizable unitariamente A es diagonalizable y
sus subespacios propios son ortogonales dos a dos.
6.2. Matrices normales
Denicion 61 (matriz normal) A C
nn
se dice que es normal si AA
h
= A
h
A.
Ejemplos: Algunos ejemplos de matrices normales son:
Las matrices hermticas complejas (y en particular las reales simetricas).
Las matrices antihermticas complejas (y en particular las reales antisimetricas).
Las matrices unitarias (y en particular las ortogonales).
Las matrices diagonales.
Observacion: Existen muchas otras matrices normales que no pertenecen a ninguno de
los tipos anteriores; por ejemplo, la matriz
_
_
_
1 1 0
0 1 1
1 0 1
_
_
_ es normal (compruebese).
Observacion: Una matriz compleja no real y simetrica no es, en general, nor-
mal. Por ejemplo, si A =
_
1 i
i 1
_
, A
h
A =
_
2 2i
2i 2
_
, mientras que AA
h
=
_
2 2i
2i 2
_
.
Observacion: Si una matriz A es normal, entonces toda matriz de la forma A + I,
con C, tambien lo es.
Observacion: Si dos matrices A, Bson semejantes unitariamente, entonces Aes normal
si y solo si B es normal.
Captulo 6 83
6.3. Teorema espectral
El teorema espectral caracteriza de manera sencilla las matrices diagonalizables uni-
tariamente.

Estas resultan ser, precisamente, las matrices normales.
Teorema 11 (Teorema espectral para matrices normales) Una matriz A C
nn
es diagonalizable unitariamente si y solo si es normal.
Demostracion:
) Si A = UDU
h
, con D = diag(
1
, . . . ,
n
), para una cierta U unitaria, entonces:
A
h
A = UD
h
U
h
UDU
h
= UDD
h
U
h
= Udiag
_
[
1
[
2
, . . . , [
n
[
2
_
U
h
; (6.2)
AA
h
= UDU
h
UD
h
U
h
= UDD
h
U
h
= Udiag
_
[
1
[
2
, . . . , [
n
[
2
_
U
h
, (6.3)
luego A es normal. 2
) (no exigible)
Procederemos por induccion en n, el orden de la matriz. Para n = 1 el resultado es
trivialmente cierto. Supongamos que lo es para matrices de orden n1, es decir, que toda
matriz normal de orden n 1 es diagonalizable unitariamente.
Sea A C
nn
una matriz normal. A tiene alg un autovalor
1
C; sea u
1
un vector
propio unitario asociado a
1
, ampliamos hasta una base (u
1
, . . . , u
n
) ortonormal de C
n
y consideramos la matriz unitaria

U = (u
1
[ . . . [u
n
). Se tiene que

U
h
A

U =
_

1
v
t
0 A
n1
_
=

A (6.4)
para unos ciertos v C
n1
y A
n1
C
(n1)(n1)
.
La matriz

A es normal por ser semejante unitariamente a A. Ahora bien,

A
h
=
_

1
0
t
v A
h
n1
_
(6.5)
y, por consiguiente,
(

A
h

A)
11
= [
1
[
2
(6.6)
mientras que
(

A
h
)
11
= [
1
[
2
+v
t
v. (6.7)
Como ambos resultados han de ser iguales, concluimos que 0 = v
t
v = v
h
v = |v|
2
, es
decir, v = 0. As pues,

A =
_

1
0
t
0 A
n1
_
. (6.8)
84

Algebra
Ahora resulta evidente que la normalidad de esta matriz implica la de A
n1
, ya que

A
h

A =
_
[
1
[
2
0
t
0 A
h
n1
A
n1
_
(6.9)
mientras que

A
h
=
_
[
1
[
2
0
t
0 A
n1
A
h
n1
_
, (6.10)
de donde deducimos que A
h
n1
A
n1
= A
n1
A
h
n1
.
Al ser A
n1
una matriz normal de orden n 1, podemos aplicarle la hipotesis de
induccion: existe U
n1
C
(n1)(n1)
unitaria tal que
U
h
n1
A
n1
U
n1
= diag(
2
, . . . ,
n
) = D
n1
. (6.11)
Consideramos nalmente la matriz
U =

U
_
1 0
t
0 U
n1
_
C
nn
, (6.12)
que es unitaria por ser producto de unitarias. Vamos a ver que esta matriz diagonaliza
unitariamente a A. En efecto,
U
h
AU =
_
1 0
t
0 U
h
n1
_

U
h
A

U
_
1 0
t
0 U
n1
_
= (6.13)
=
_
1 0
t
0 U
h
n1
__

1
0
t
0 A
n1
__
1 0
t
0 U
n1
_
= (6.14)
=
_

1
0
t
0 U
h
n1
A
n1
U
n1
_
=
_

1
0
t
0 D
n1
_
= diag(
1
, . . . ,
n
). (6.15)
Lo cual prueba que A es diagonalizable unitariamente. 2
A continuaci on particularizaremos este resultado en algunas clases de matrices nor-
males de especial relevancia.
6.3.1. Aplicacion a matrices hermticas, antihermticas y uni-
tarias
Toda matriz A normal (A
h
A = AA
h
) es diagonalizable unitariamente, es decir: para
una cierta matriz unitaria U,
U
h
AU = diag(
1
, . . . ,
n
) = D o, equivalentemente, A = UDU
h
,
en donde
1
, . . . ,
n
C son los autovalores de A. En los casos particulares anteriormente
destacados (A hermtica, antihermtica o unitaria) la matriz D es del mismo tipo que A.
Captulo 6 85
Matrices hermticas
En este caso, puesto que D es hermtica,
diag(
1
, . . . ,
n
) = D
h
= D = diag(
1
, . . . ,
n
). (6.16)
Por tanto, los autovalores de una matriz hermtica son reales.
Recprocamente, si una matriz A es diagonalizable unitariamente y sus autovalores
son reales,
A = Udiag(
1
, . . . ,
n
)U
h
con U unitaria y
1
, . . . ,
n
R, (6.17)
entonces A
h
= Udiag(
1
, . . . ,
n
)U
h
= A, es decir, A es hermtica.
Todo ello se sintetiza en el resultado siguiente:
Teorema 12 (Teorema espectral para matrices hermticas) Sea A C
nn
; A es
diagonalizable unitariamente con autovalores reales A es hermtica.
Como caso particular, se deduce:
Corolario: (Teorema espectral para matrices reales simetricas) Una matriz real
es diagonalizable ortogonalmente si y solo si es simetrica.
Matrices antihermticas
Como en este caso D es antihermtica, tenemos que
diag(
1
, . . . ,
n
) = D
h
= D = diag(
1
, . . . ,
n
), (6.18)
de donde deducimos que los autovalores de una matriz antihermtica son imaginarios
puros.
Recprocamente, si una matriz A es diagonalizable unitariamente siendo todos sus
autovalores imaginarios puros, entonces
A
h
= (UDU
h
)
h
= UD
h
U
h
= UDU
h
= A, (6.19)
es decir, A es antihermtica.
Como caso particular, toda matriz real y antisimetrica es diagonalizable unitariamente
(no ortogonalmente!) con autovalores imaginarios puros.
86

Algebra
Matrices unitarias
Puesto que Des unitaria cuando Alo es, tenemos que I = D
h
D = diag([
1
[
2
, . . . , [
n
[
2
),
lo que garantiza que todos los autovalores de cualquier matriz unitaria tienen modulo
unidad.
Recprocamente, si A es una matriz normal cuyos autovalores tienen modulo unidad,
entonces
A
h
A = (UDU
h
)
h
UDU
h
= UD
h
U
h
UDU
h
= UD
h
DU
h
= (6.20)
= Udiag([
1
[
2
, . . . , [
n
[
2
)U
h
= U
h
IU = I, (6.21)
luego A es unitaria.
En particular, toda matriz real ortogonal es diagonalizable unitariamente con auto-
valores de modulo unidad, pero estos pueden ser no reales (recuerdense las matrices de
giro), luego no podemos hablar en general de diagonalizacion ortogonal.
6.3.2. Descomposicion espectral
Toda A C
nn
normal, diagonalizable unitariamente a traves de U = (U
1
[ . . . [U
n
),
puede expresarse de la siguiente manera:
A = Udiag(
1
, . . . ,
n
)U
h
=
n

j=1

j
U
j
U
h
j
, (6.22)
es decir, como combinacion lineal de matrices de rango 1, cada una de las cuales representa
la matriz de proyeccion ortogonal sobre su correspondiente subespacio columna, siendo
estos subespacios ortogonales entre s y los autovalores de A los coecientes de dicha
combinacion lineal. Notese que el n umero de sumandos no nulos es igual al rango de A.
Si ahora ordenamos los autovalores no nulos de A agrupando aquellos que sean iguales,
es decir, consideramos
1
,
2
, . . . ,
p
autovalores de multiplicidades respectivas m
1
, m
2
, . . . , m
p
,
con m
1
+. . . +m
p
= r(A), los sumandos correspondientes al autovalor
k
en la expresion
6.22 se agrupan como sigue:

k
(U
k
1
U
h
k
1
+. . . +U
k
m
k
U
h
k
m
k
) =
k
P
ker(A
k
I)
(6.23)
en donde el subespacio propio asociado al autovalor
k
se supone engendrado por las
columnas U
k
1
, . . . , U
k
m
k
de U.
En conclusion, se verica la siguiente proposicion:
Proposicion 30 (Descomposicion espectral de una matriz normal) Toda matriz
normal A puede expresarse como
A =
p

k=1

k
P
k
, (6.24)
en donde
k
son los autovalores (distintos dos a dos) no nulos de A y P
k
representa la
matriz de proyeccion ortogonal sobre el subespacio propio ker(A
k
I) (estos subespacios
son ortogonales dos a dos).
Captulo 6 87
6.4. Matrices reales simetricas
6.4.1. Formas cuadraticas
Denicion 62 (forma cuadratica) Dada una matriz simetrica A R
nn
, se llama
forma cuadratica asociada a A a la funcion de R
n
a R denida mediante
x x
t
Ax. (6.25)
Por el Teorema Espectral, toda matriz real simetrica A es diagonalizable ortogonal-
mente, y sus autovalores son reales. Observese que, si es un autovalor de A y u un
autovector asociado a ,
u
t
Au = |u|
2
. (6.26)
Teorema 13 Sea A R
nn
simetrica, y sean
mn
y
max
sus autovalores mnimo y
maximo, respectivamente. Entonces, para todo x R
n
, se verica que

mn
|x|
2
x
t
Ax
max
|x|
2
, (6.27)
alcanzandose cada una de las igualdades en todos los vectores propios asociados, respecti-
vamente, a
mn
y
max
.
Demostracion: Por el teorema espectral para matrices reales simetricas, existe una
matriz ortogonal Q tal que
Q
t
AQ = D = diag (
mn
, ,
max
) . (6.28)
Denotando x = Qy se tiene que
x
t
Ax = y
t
Q
t
AQy = y
t
diag (
mn
, ,
max
) y =
mn
y
2
1
+ +
max
y
2
n
(6.29)
pero dicha cantidad puede acotarse superiormente por

max
_
y
2
1
+ +y
2
n
_
=
max
|y|
2
=
max
|x|
2
(6.30)
(donde se ha usado que |y| = |Qy| = |x| pues Q es ortogonal). As pues, x
t
Ax

max
|x|
2
.
Por la ecuacion 6.26, sabemos que la igualdad se alcanza si x es un vector propio
asociado a
max
.
Analogamente, para la acotacion inferior, se observa que la expresion (6.29) es mayor
o igual que

mn
_
y
2
1
+ +y
2
n
_
=
mn
|y|
2
=
mn
|x|
2
(6.31)
luego
mn
|x|
2
x
t
Ax, concluyendo la demostracion.
88

Algebra
6.4.2. Clasicacion de matrices reales simetricas
Como hemos visto, los signos que puede tomar una forma cuadratica estan determina-
dos por los de los autovalores de la matriz simetrica que la dene. Ello motiva la siguiente
clasicacion de las matrices reales simetricas:
Sea A una matriz real y simetrica; se dice que:
A es semidenida positiva si x
t
Ax 0 x, lo que equivale a que sus autovalores
sean positivos o nulos (
k
0).
En particular, A es denida positiva si x
t
Ax > 0 x ,= 0, es decir, si sus
autovalores son positivos (
k
> 0).
A es semidenida negativa si x
t
Ax 0 x; equivalentemente, si sus autovalores
son negativos o nulos (
k
0).
En particular, A es denida negativa si x
t
Ax < 0 x ,= 0 o, lo que es lo
mismo, si sus autovalores son negativos (
k
< 0).
A es indenida si existen vectores x, y tales que x
t
Ax > 0 e y
t
Ay < 0; ello
equivale a que A posea alg un autovalor positivo y alguno negativo.
Denicion 63 (signatura) Se dene la signatura de una matriz real y simetrica A, y
se denota por (A), como el n umero de sus autovalores positivos menos el n umero de sus
autovalores negativos.
Observacion: Observese que la signatura, en conjuncion con el rango de la matriz (que
coincide con el n umero de sus autovalores no nulos) nos permite clasicar la matriz.
La siguiente proposicion cobrara importancia cuando estudiemos, en el ultimo tema,
la descomposicion en valores singulares. Observese que cualquier matriz de la forma A
h
A
es hermtica y, por tanto, diagonalizable unitariamante con autovalores reales.
Proposicion 31 Para cualquier matriz A C
mn
, los autovalores de A
h
A son no neg-
ativos. En particular, si r(A) = n (columnas linealmente independientes), los autovalores
de A
h
A son todos positivos.
Demostracion: Sea C un autovalor de A
h
A de vector propio unitario u. Entonces
0 |Au|
2
= (Au)
h
Au = u
h
A
h
Au = u
h
u = |u|
2
= . (6.32)
En particular, si r(A) = n, u ,= 0 Au ,= 0, luego = |Au|
2
es positivo.
Corolario: Si A R
mn
, A
t
A es semidenida positiva (denida positiva en caso de
ser r(A) = n).
Captulo 6 89
Congruencia de matrices
Existe un procedimiento mas sencillo para clasicar una matriz real y simetrica sin
necesidad de calcular sus autovalores. Notese que, a estos efectos, no nos interesan las
magnitudes de los autovalores, sino tan solo sus signos.
Denicion 64 (Congruencia de matrices) Dadas dos matrices A, B R
nn
, se di-
cen congruentes entre s si existe P R
nn
regular tal que B = P
t
AP.
Nota: En esta asignatura consideraremos unicamente la congruencia de matrices simetri-
cas.
Observacion: Observese que la semejanza ortogonal es un caso particular (muy restric-
tivo) de congruencia: dos matrices reales simetricas son semejantes ortogonalmente si son
congruentes y, ademas, la matriz de paso P es ortogonal (P
t
= P
1
).
Teorema 14 (Ley de inercia de Sylvester) Cualesquiera matrices simetricas congruen-
tes entre s tienen el mismo n umero de autovalores positivos, el mismo n umero de nega-
tivos y el mismo n umero de nulos.
En virtud de este teorema, cuya demostracion omitimos, podemos establecer el si-
guiente procedimiento, denominado diagonalizacion por congruencia, para encontrar
los signos de los autovalores de A real y simetrica, que consistira simplemente en hallar
una matriz congruente con A que sea diagonal. Sus elementos diagonales no seran, en
general, los autovalores de A, pero tendran los mismos signos que estos.
Observamos primero que si realizamos una operacion elemental sobre las las de A
y a continuaci on la misma operacion sobre sus columnas, se conserva la simetra de la
matriz.
Ello equivale a la post- y premultiplicacion por una matriz elemental y su transpuesta:
E
t
1
AE
1
, obteniendose una matriz congruente con la primera.
Reiteramos este proceso hasta obtener una matriz diagonal (lo cual siempre es posible
porque equivale a triangularizar A mediante operaciones elementales de las), y llegamos
a:
E
t
k
E
t
2
E
t
1
AE
1
E
2
E
k
= D, es decir, (E
1
E
2
E
k
)
t
AE
1
E
2
E
k
= D. (6.33)
As pues, tomando P = E
1
E
2
E
k
, esto es, la matriz resultante de realizar sobre la
identidad las mismas operaciones de columnas efectuadas sobre A, tenemos que P
t
AP =
D.
90

Algebra
Ejemplo: Clasifquese la matriz real y simetrica
_
_
_
1 2 1
2 2 0
1 0 1
_
_
_.
Solucion: Diagonalizamos por congruencia realizando operaciones gaussianas:
_
F

2
= F
2
+ 2F
1
F

3
= F
3
F
1
_
_
_
_
1 2 1
0 2 2
0 2 2
_
_
_
_
C

2
= C
2
+ 2C
1
C

3
= C
3
C
1
_
_
_
_
1 0 0
0 2 2
0 2 2
_
_
_
_
F

3
= C
3
+F
2
C

3
= C
3
+C
2
_
_
_
_
1 0 0
0 2 0
0 0 0
_
_
_
As pues, la matriz es indenida, siendo su rango igual a 2 y su signatura igual a 0.
Nota: Si ademas deseamos conocer la matriz P tal que P
t
AP = D, en donde A es
la matriz de partida y D la diagonal congruente con ella, debemos realizar las mismas
operaciones solo por columnas sobre la matriz identidad, obteniendose en este caso:
P =
_
_
_
1 2 1
0 1 1
0 0 1
_
_
_.
6.4.3. Cociente de Rayleigh
Denicion 65 (cociente de Rayleigh) Dada A R
nn
simetrica, el cociente de Rayleigh
es la funcion de R
n
0 a R denida por el cociente
R(x) =
x
t
Ax
|x|
2
x ,= 0. (6.34)
Observese que si u es autovector de A asociado al autovalor , en virtud de la ecuacion
(6.26) se tiene que
R(u) =
u
t
Au
|u|
2
= . (6.35)
Por otro lado, la ecuacion (6.27) garantiza que

mn

x
t
Ax
|x|
2

max
x ,= 0, (6.36)
y la continuidad de la funcion R en R
n
0 garantiza que se alcanzan todos los valores
del intervalo [
mn
,
max
].
As pues, concluimos lo siguiente:
Captulo 6 91
Observacion: Sea A real y simetrica, sean
mn
,
max
los autovalores mnimo y maximo,
respectivamente, de A; entonces
mn
x=0
x
t
Ax
|x|
2
=
mn
; max
x=0
x
t
Ax
|x|
2
=
max
, (6.37)
alcanzandose dichos valores en los correspondientes autovectores de A asociados a
mn
y

max
.
92

Algebra
6.5. Ejercicios
6.1. Determnese una base ortonormal de vectores propios de la matriz
_
_
_
3 2 4
2 0 2
4 2 3
_
_
_.
6.2. Compruebese que las dos matrices
_
1 1
0 0
_
,
_
1 0
0 0
_
son semejantes pero no son unitariamente semejantes.
6.3. Diagonalcese unitariamente la matriz
_
_
_
0 1 2
1 0 2
2 2 0
_
_
_.
6.4. Diagonalcese unitariamente la matriz
_
_
_
3 1 2
1 3 2
2 2 3
_
_
_.
Indicacion: Utilcense los resultados del ejercicio anterior.
6.5. Diagonalcese ortogonalmente la matriz
_
_
_
_
_
1 1 1 1
1 1 1 1
1 1 1 1
1 1 1 1
_
_
_
_
_
.
6.6. Diagonalcese unitariamente la matriz
_
_
_
_
_
1 0 0 1
0 1 1 0
0 1 1 0
1 0 0 1
_
_
_
_
_
.
6.7. (Ejercicio avanzado) Demuestrese que una matriz compleja A es normal si y solo
si cumple que
x C
n
, |A
h
x| = |Ax|.
Captulo 6 93
6.8. Pruebese que toda matriz ortogonal del espacio tridimensional eucldeo ordinario
se reduce a una de las tres posibilidades:
a) Un giro respecto de un eje.
b) Una simetra respecto de un plano.
c) La composicion de dos transformaciones de los tipos anteriores.
6.9. Determnense los valores del parametro a que hacen denida positiva la matriz
_
_
_
a 1 1
1 a 1
1 1 a
_
_
_.
6.10. Clasifquese la siguiente matriz real y simetrica
_
_
_
a +b a b
a a +c c
b c b +c
_
_
_, a, b, c > 0.
6.5.1. Cuestiones
6.11. Sean a, b, c n umeros reales no nulos. Se considera la matriz A =
_
_
_
13 a b
a 13 c
b c 13
_
_
_.
Determnese la veracidad o falsedad de las siguientes armaciones:
1. A no es diagonalizable unitariamente.
2. A es diagonalizable unitariamente y todos sus autovalores son reales.
3. A es diagonalizable unitariamente y todos sus autovalores son imaginarios puros.
4. A es diagonalizable unitariamente y todos sus autovalores tienen parte real igual a
13.
5. A es normal.
6. Ning un autovalor de A es real.
7. Los subespacios propios de A son ortogonales dos a dos.
6.12. Sea A C
nn
. Determnese la veracidad o falsedad de las siguientes armaciones:
1. Si todos los autovalores de A son reales, entonces A es hermtica.
2. Si A
h
A = AA
h
y todos sus autovalores tienen modulo unidad, entonces A es
unitaria.
94

Algebra
3. A es diagonalizable unitariamente A
h
A = AA
h
.
4. Si A es normal y todos sus autovalores son reales, entonces A es real y simetrica.
5. A es simetrica A es diagonalizable unitariamente.
6. A es normal sus subespacios propios son ortogonales dos a dos.
Captulo 7
Descomposicion de valores singulares
7.1 Descomposicion de valores singulares (DVS) de una matriz. Existencia y determi-
nacion de DVS de una matriz. Propiedades de la DVS. Matriz pseudoinversa.
7.2 Normas vectoriales y matriciales. Normas en C
mn
(R
mn
) o C
n
(R
n
). Normas
matriciales inducidas por normas vectoriales.
7.3 N umero de condicion de una matriz.
7.4 Ejercicios.
7.1. Descomposicion de valores singulares (DVS) de
una matriz.
7.1.1. Existencia y determinacion de DVS de una matriz
Teorema 15 (Existencia de la DVS). Para cualquier matriz A C
mn
, existen U
C
mm
, unitaria, V C
nn
, unitaria, y = diag(
1
,
2
, . . . ,
p
) R
mn
, tales que,
A = UV
h
=
r

j=1

j
U
j
V
h
j
(7.1)
donde
1

2

r
>
r+1
= =
p
= 0, p = mnm, n y r = rg(A).

1
,
2
, . . . ,
p
son los valores singulares de A. La formula (7.1) se denomina descom-
posicion de valores singulares de A.
Demostracion: Por la importancia del tema se ofrece a continuacion una demostracion
de tipo constructivo. Es importante porque es el metodo que se sigue en la practica para
calcular una DVS de una matriz.
Se va a demostrar la existencia de la DVS detallando un procedimiento bien denido
para calcular las matrices U, y V, tales que la ec. (7.1) se cumple para cualquier matriz
95
96

Algebra
compleja A. Sin perdida de generalidad se supondra m n. Si m < n el procedimiento
que sigue se puede aplicar a A
h
.
La matriz A
h
A es hermtica, con valores propios no negativos. Suponiendo que la
factorizacion (7.1) existe, esta matriz resulta ser:
A
h
A = V
t
U
h
UV
h
= V
t
V
h
= VD
n
V
h
(7.2)
de donde se deduce que V es la matriz unitaria que diagonaliza a A
h
A, y D
n
es la
correspondiente matriz diagonal de valores propios, reales y no negativos, que se suponen
ordenados de mayor a menor,
D
n
= diag(
1
, . . . ,
n
),
1

r
>
r+1
= =
n
= 0 (7.3)
Teniendo en cuenta que seg un la ec. (7.2), D
n
=
t
, la matriz rectangular y diagonal
, con elementos diagonales no negativos, queda determinada en la forma,
= diag(
1
, . . . ,
n
) R
mn
,
1

r
>
r+1
= =
n
= 0 (7.4)
con los valores singulares denidos como

i
=
_

i
(A
h
A), i = 1, 2, . . . , n (7.5)
Las expresiones (7.2) y (7.4) permiten calcular V y . Queda por determinar la matriz
U de modo que sea unitaria y satisfaga la ec. (7.1). A partir de dicha ecuacion se tendra,
AV = U (7.6)
que en forma desarrollada se puede escribir,
A(V
1
[V
2
[ [V
n
) = (
1
U
1
[
2
U
2
[ [
n
U
n
) (7.7)
y de donde se deduce que
U
j
=
AV
j

j
, j = 1, 2, . . . , r (7.8)
La ecuacion (7.8) solo permite calcular las r columnas de U asociadas con valores sin-
gulares no nulos. Como esta matriz debe ser unitaria, hay que demostrar que las columnas
obtenidas mediante la ec. (7.8) constituyen un sistema ortonormal. En efecto,
U
h
i
U
j
=
1

j
V
h
i
A
h
AV
j
=
1

ij
=
ij
, j = 1, 2, . . . , r (7.9)
Las restantes columnas de U se pueden calcular ampliando el sistema ortonormal
U
1
, U
2
, . . . , U
r
a una base ortonormal (U
1
, . . . , U
r
, U
r+1
, . . . , U
m
) de C
m
de modo que
U = (U
1
[ [U
m
) resulta unitaria.
Para j = r +1, . . . , n, se cumple A
h
AV
j
= 0, y, al ser kerA = ker
_
A
h
A
_
, se tiene que
AV
j
= 0; con lo cual queda totalmente demostrada la formula (7.1).
Captulo 7 97
Observacion: La DVS no es unica, ya que V no es unica y U, en general, tampoco
lo es. Seg un el metodo de calculo que se acaba de describir, la indeterminacion esta en
el calculo de los vectores propios de A
h
A, que constituyen las columnas de la matriz
unitaria V (para valores propios simples de A
h
A podra tomarse un vector unitario o
su opuesto; para valores propios m ultiples podran elegirse diferentes bases ortonormales
del correspondiente subespacio propio). Tampoco el calculo de las columnas de U cor-
respondientes a los valores singulares nulos esta determinado (la ampliacion del sistema
ortonormal.U
1
, U
2
, . . . , U
r
, cuando r < m, a un sistema ortonormal de C
m
no es unica;
solo queda univocamente determinada la matriz U cuando todos los valores singulares
son no nulos).
Observacion: Las columnas de U son vectores propios de la matriz AA
h
. En efecto,
sustituyendo A por su DVS, dada por (7.1),
AA
h
= UV
h
V
t
U
h
= U
t
U
h
= UD
m
U
h
(7.10)
Sin embargo, no es correcto calcular de modo independiente la matriz U seg un la
expresion (7.10) y la matriz V seg un la expresion (7.2). Una vez calculada una de ellas,
la segunda debe ser calculada seg un la expresion (7.1), tal como se ha hecho para U a
partir de la expresion (7.8).
Observacion: Las matrices A
h
A y AA
h
tienen los mismos valores propios no nulos y
con las mismas multiplicidades. Si m > n o n > m, el valor propio nulo tendra multipli-
cidad algebraica aumentada en mn en AA
h
o en n m en A
h
A, respectivamente. De
hecho, se sabe que

A
h
A
() =
n

AA
h() (7.11)
7.1.2. Propiedades de la DVS
Se cumplen las siguientes propiedades:
1. Por lo visto anteriormente
ImA = Im
_
AA
h
_
= L[U
1
, . . . , U
r
] (7.12)
kerA = ker
_
A
h
A
_
= L[V
r+1
, . . . , V
n
]. (7.13)
2. Como kerA
h
= (ImA)

se tiene
kerA
h
= L[U
r+1
, . . . , U
m
] (7.14)
Como ImA
h
= (kerA)

se tiene
ImA
h
= L[V
1
, . . . , V
r
] (7.15)
98

Algebra
3. Si A C
nn
es normal W C
nn
unitaria tal que W
h
AW = D = diag(
1
, . . . ,
n
),
con 0 [
1
[ . . . [
n
[. Ademas, W
h
A
h
AW = W
h
A
h
WW
h
AU = D
h
D =
diag([
1
[
2
, . . . , [
n
[
2
).
Por tanto, los valores singulares de una matriz normal coinciden con los modulos de
sus valores propios (
j
= [
j
[, j = 1, . . . , n).
4. Cualquier matriz A de rango r se puede expresar como suma de r matrices de rango
1 por medio de la DVS en la forma,
A = UV
h
=
r

j=1

j
U
j
V
h
j
,
1

2

r
> 0 (7.16)
Figura 7.1: Representaci on graca de la DVS de una matriz de rango r.
Representacion graca de la DVS
La Figura 7.1 representa la DVS de una matriz rectangular con r < n < m. Las matrices
U
R
y V
R
corresponden con las r primeras columnas de U y V, respectivamente. La DVS
se puede escribir en las formas,
A = UV
h
= U
R

r
V
h
R
=
r

j=1

j
U
j
V
h
j
(7.17)
Observense, en primer lugar, los tama nos de las distintas matrices: Uy V son cuadradas
(unitarias), mientras que tiene el mismo tama no que A. Observese, tambien, que las
submatrices U
N
y V
N
no intervienen en el resultado de la DVS, al estar multiplicadas
por submatrices nulas de la matriz . Recuerdese que las columnas de U
R
son una base
ortonormal de ImA y que las columnas de V
R
lo son de ImA
h
. Asmismo las columnas
de V
N
y de U
N
son respectivamente bases ortonormales de kerA y de kerA
h
.
Captulo 7 99
7.1.3. Matriz pseudoinversa
Denicion 66 (matriz pseudoinversa) La matriz pseudoinversa de A C
mn
, sien-
do UV
h
=

r
j=1

j
U
j
V
h
j
, una de sus DVS, se dene
1
como
A
+
=
r

j=1

1
j
V
j
U
h
j
(7.18)
A partir de la denicion anterior, si = diag(
1
,
2
, . . . ,
r
, 0, . . . , 0) R
mn
, con

1
,
2
, . . . ,
r
no nulos, es facil comprobar que

+
=
_
_
_
_
_
_
_
_
_

1
1
0 [
.
.
.
.
.
.
.
.
. [ O
0
1
r
[
+
O [ O
_
_
_
_
_
_
_
_
_
R
nm
Por tanto, la expresion anterior de la pseudoinversa de A puede escribirse, tambien, como
A
+
= V
+
U
h
Proposicion 32 Dado el sistema Ax = b, donde A C
mn
y b C
m
, la solucion de
mnimos cuadrados y mnima norma de dicho sistema es x
0
= A
+
b.
Demostracion: Por una parte, x
0
= A
+
b es solucion de mnimos cuadrados:
Ax
0
= AA
+
b = A
_

r
j=1

1
j
V
j
U
h
j
_
b =
_

r
j=1

1
j
AV
j
U
h
j
_
b =
_

r
j=1

1
j

j
U
j
U
h
j
_
b =
_

r
j=1
U
j
U
h
j
_
b = P
ImA
b.
Por otra parte, es solucion de mnima norma:
x
0
= A
+
b =
_

r
j=1

1
j
V
j
U
h
j
_
b =

r
j=1

1
j
U
h
j
bV
j
; es decir, x
0
L[V
1
, . . . , V
r
] =
ImA
h
= (kerA)

.
Proposicion 33 La pseudoinversa de A C
mn
esta univocamente determinada.
Demostracion: Se cumple, por la proposicion anterior, que b C
m
, el sistema
Ax = b tiene una unica solucion de mnimos cuadrados y mnima norma, dada por
A
+
b. Supongase que existiese otra matriz B C
nm
, tal que b C
m
dicha solucion
fuese Bb. Se tendra, pues, b C
m
, Bb = A
+
b, lo cual implica que B = A
+
.
7.2. Normas vectoriales y matriciales
Las normas de vectores o de matrices son n umeros reales no negativos que se utilizan
como medida de su tama no. Gracias a las normas se puede, por ejemplo, establecer que la
magnitud de un vector (denida mediante una norma) es mayor o menor que la de otro.
Asimismo, se podra decir que dos matrices son numericamente iguales cuando la norma
de su diferencia sea sucientemente peque na.
1
La unicidad de la matriz pseudoinversa sera justicada mas adelante.
100

Algebra
7.2.1. Normas en C
mn
(R
mn
) o C
n
(R
n
)
En todo lo que sigue E = C
mn
(o E = R
mn
), tomando m = 1 cuando se trate de
C
n
(o de R
n
), y K denotara C o R, seg un el caso.
Denicion 67 Una norma en E es una aplicacion
| | : E R (7.19)
que verique las siguientes propiedades:
1)
z E, |z| 0, y |z| = 0 z = 0. (7.20)
2)
z E, K, |z| = [[|z| (7.21)
3)
z, w E, |z +w| |z| +|w| (Desigualdad triangular). (7.22)
Ejemplo 1. Tres ejemplos clasicos de norma en E = C
n
son:
norma 1:
|z|
1
= [z
1
[ + +[z
n
[ (7.23)
norma 2 o norma eucldea:
|z|
2
=
_
[z
1
[
2
+ +[z
n
[
2
(7.24)
norma o norma del supremo:
|z|

= max [z
1
[, . . . , [z
n
[ (7.25)
Se puede comprobar con relativa facilidad que cada una de las expresiones anteriores
satisface las tres condiciones de la denicion de norma.
Observacion: Toda norma | | en E induce una distancia d(z, w) := |z w| en E.
En particular, la norma eucldea en R
n
induce la distancia habitual.
Denicion 68 (normas equivalentes) Se dice que dos normas | |
i
, | |
j
en E son
equivalentes si existen unas constantes reales , > 0 tales que
z E, |z|
i
|z|
j
|z|
i
(7.26)
Proposicion 34 En los espacios vectoriales de dimension nita, considerados en este
curso, todas las normas son equivalentes.
Captulo 7 101
Observacion: Todo producto escalar , ) en E induce una norma en E, denida como
|z| :=
_
z, z) (7.27)
Observacion: En particular, la norma 2 anteriormente mencionada coincide con la
norma inducida por el producto escalar estandar en C
n
, es decir:
|z|
2
=

z
h
z (7.28)
Ejemplo 2. La norma de Frobenius viene denida por
|A|
F
=
_
tr(A
h
A) =

i,j
[a
ij
[
2
=

_
r

j=1

2
j
(7.29)
donde los
j
son los valores singulares no nulos de A.
7.2.2. Normas matriciales inducidas por normas vectoriales
Denicion 69 Sean A C
mn
y | |
p
, p = 1, 2, , una norma vectorial denida
tanto en C
m
como en C
n
. Se denomina norma matricial | |
p
en C
mn
inducida por
dicha norma vectorial a
|A|
p
:= max
x=0
|Ax|
p
|x|
p
(7.30)
Se puede demostrar de un modo sencillo que la denicion anterior verica las propiedades
de norma. En lo sucesivo con frecuencia se omitira el subndice p y se entender a que la nor-
ma es una de las normas vectoriales p = 1, 2, , y la correspondiente norma matricial
inducida.
Observacion: Como consecuencia de la denicion,
x C
n
, |Ax| |A||x| (7.31)
Observacion: Se verica
max
x=0
|Ax|
|x|
= max
x=0
_
_
_
_
_
A
x
|x|
_
_
_
_
_
= max
x=1
|Ax| (7.32)
102

Algebra
Proposicion 35 Si | | es una norma matricial, inducida por una norma vectorial,
A C
mn
, B C
np
, |AB| |A||B| (7.33)
Demostracion: Si y es un vector unitario tal que |AB| = |(AB) y|, se tiene:
|AB| = |(AB) y| = |A(By)| |A| |By| |A| |B| (7.34)
Ejemplos de normas matriciales inducidas
Ejemplos relevantes de normas matriciales inducidas por normas vectoriales son los
siguientes:
Norma 1: Utilizando la norma | |
1
en C
m
y C
n
,
|A|
1
= max
u
1
=1
|Au|
1
= max
1kn
_
_
_
m

j=1
[a
jk
[
_
_
_
= max
k
|A
k
|
1
(7.35)
es decir, coincide con el maximo de las normas 1 de los vectores columna de A.
Norma 2 o norma espectral: Utilizando la norma | |
2
en C
m
y C
n
,
|A|
2
= max
u
2
=1
|Au|
2
=
_
(A
h
A) =
max
(7.36)
donde (A
h
A) es el radio espectral de dicha matriz y
max
es el valor singular
maximo de A..
Norma : Utilizando la norma | |

en C
m
y C
n
,
|A|

= max
u

=1
|Au|

= max
1jm
_
n

k=1
[a
jk
[
_
= max
j
|A
j
|
1
(7.37)
es decir, coincide con el maximo de las normas 1 de los vectores la de A.
Observacion: Se satisfacen las relaciones,
|A|

= |A
t
|
1
, |A|
2
= |A
t
|
2
= |A
h
|
2
(7.38)
y, para cualquiera de las normas 1,2,, se cumple
|A| =
_
_
_A
_
_
_ (7.39)
Captulo 7 103
Observacion: La norma de Frobenius no esta inducida por ninguna norma vectorial,
como se comprueba considerando la matriz identidad de orden n, ya que |I
n
|
F
=

n.
Proposicion 36 Cualquier norma matricial | | en C
nn
inducida por una norma vec-
torial verica
(A) |A| (7.40)
Demostracion: Si x es un vector propio de A y Ax = x, se tiene |x| = [[ |x| =
|Ax| |A| |x|, de donde [[ |A|, lo cual implica que el radio espectral de A
esta acotado superiormente por la norma de A
7.3. N umero de condicion de una matriz
En primer lugar se motivar a el concepto de n umero de condicion de una matriz.
Perturbacion del termino independiente de un sistema lineal
Se considera el sistema compatible y determinado Ax = b ,= 0, con A C
nn
invertible. Se desea estudiar la variaci on del vector solucion x ante variaciones del vector
b. De este modo, se tendra el sistema A(x +x) = b+b y se pretende estimar |x|.
Observese que,
b = Ax (7.41)
x = A
1
b (7.42)
de donde se deduce
|b| = |Ax| |A| |x| (7.43)
|x| =
_
_
_A
1
b
_
_
_
_
_
_A
1
_
_
_ |b| (7.44)
Y, a partir de lo anterior, de
|x|
_
_
_A
1
_
_
_ |b|
1
|x|
|A|
1
|b|
multiplicando miembro a miembro se llega a,
|x|
|x|
|A||A
1
|
|b|
|b|
(7.45)
El hecho de que |A| = max
u=1
|Au| y |A
1
| =
_
mn
u=1
|Au|
_
1
motiva la siguiente
denicion general del n umero de condicion.
104

Algebra
Denicion del n umero de condicion
Denicion 70 (n umero de condicion de una matriz) Sea A C
mn
, no nula. Se
dene el n umero de condicion de A asociado a una norma | | como
c(A) =
max
u=1
|Au|
mn
u=1
|Au|
si el rango de A es igual a n (7.46)
c(A) = si el rango de A es menor que n (7.47)
Observacion: El cociente anterior esta bien denido, en el caso de que el rango de A
sea igual a n, porque
mn
u=1
|Au| = 0 u ,= 0, Au = 0 rg(A) < n (7.48)
Si A C
nn
es regular y || es una norma matricial inducida por una norma vectorial,
entonces la expresion anterior se convierte en
c(A) = |A||A
1
| (7.49)
Observacion: El resultado (7.45) queda, por tanto, como
|x|
|x|
c(A)
|b|
|b|
Por tanto, el n umero de condicion proporciona una cota superior para la amplicacion del
error relativo, cuando se modica el termino independiente del sistema. Esta cota superior
es optima (es decir, alcanzable).
N umero de condicion espectral
Con la norma espectral, para matrices de rango igual a su n umero de columnas, el
n umero de condicion c
2
(A), llamado n umero de condicion espectral, viene dado por
la expresion,
c
2
(A) =

max
(A
h
A)

mn
(A
h
A)
=

max

mn
(7.50)
donde
max
y
mn
son, respectivamente, los valores singulares maximo y mnimo de A.
Si A C
nn
es normal e invertible, teniendo en cuenta que los valores singulares de
A coinciden con los modulos de los valores propios de A, se obtiene
c
2
(A) =

max

mn
=
[
n
[
[
1
[
(7.51)
en el supuesto de que los valores propios de A cumplen 0 < [
1
[ . . . [
n
[.
Captulo 7 105
7.4. Ejercicios
7.1. Hallense las normas 1, 2 y de los siguientes vectores:
(1, 2, 0, 2) (1, i, 3 + 4i, 2 +i)
7.2. Representese los conjuntos del plano R
2
y del espacio R
3
determinados por las
siguientes condiciones:
|x|
1
1, |x|
2
1, |x|

1
7.3. 1) En el espacio R
n
, compruebese la validez de las siguientes desigualdades:
|x|

|x|
2
|x|
1
n|x|

2) En R
mn
determnense las relaciones existentes entre las normas matriiciales 1, 2 e
.
7.4. Hallese la norma 2 de cada una de las siguientes matrices:
_
1 1 3
2 2 0
_
,
_
1 3
2 1
_
,
_
1 2
2 6
_
,
_
_
_
1
2
5
_
_
_.
7.5. Estudiar la relacion entre el radio y la norma espectrales de la matriz
_
2 6
6 3
_
.
Compruebese que el resultado se extiende a cualquier matriz normal.
7.6. Determnese el n umero de condicion de la matriz
_
1 2
3 7
_
para cada una de las
normas matriciales 1, 2 e .
7.7. Hallar los valores singulares de las siguientes matrices:
_
8 4 8
6 3 6
_
,
_
_
_
7 4
4 8
4 1
_
_
_,
_
5 10
11 2
_
.
7.8. Hallar la descomposicion de valores singulares (DVS) de la matriz
M =
_
_
_
5 3 5 3
4 0 4 0
2 6 2 6
_
_
_.
(se recomienda, en este caso, calcular M
t
M, dada la estructura por cajas de la matriz
que resulta). A partir de la DVS anterior, calcular la matriz pseudoinversa de A.
106

Algebra
7.9. Demuestrense las siguientes propiedades:
1. Toda matriz compleja y su transpuesta conjugada poseen los mismos valores singu-
lares.
2. Si las las (o columnas) de una matriz son ortonormales, entonces los valores sin-
gulares de dicha matriz son todos iguales a la unidad. En particular, los valores
singulares de una matriz ortogonal (o unitaria) son 1.
3. El producto de los valores singulares de una matriz cuadrada coincide con el modulo
del determinante de la matriz.
7.10. Demuestrse que la matriz pseudoinversa de A C
mn
comprende como casos
particulares otras matrices vistas a lo largo del curso:
1) Si m = n y A es invertible, entonces A
+
= A
1
.
2) Si el rango de A es igual a n, entonces A
+
=
_
A
h
A
_
1
A
h
.
3) Si el rango de A es igual a m, entonces A
+
= A
h
_
AA
h
_
1
.
7.4.1. Cuestiones
7.11. Se considera la matriz A =
_
_
_
_
_
1 1 0
2 1 3
0 5 1
3 1 2
_
_
_
_
_
. Indquese la unica proposicion
falsa:
_ A solo tiene dos valores singulares distintos
_ La norma espectral de A vale 28
_ mn
x=0
Ax
2
x
2
=

14
_ El n umero de condicion espectral de A vale

2
7.12. Se considera la matriz A =
_
_
_
_
_
0 2 1
1 1 1
0 2 0
1 1 1
_
_
_
_
_
. Indquese la unica proposicion
falsa:
_ |A|
1
= 6
_ El n umero de condicion espectral de A vale

5
_ x R
3
0,
Ax
2
x
2

5
_ |A|

= 3
7.13. Se considera la matriz A =
_
_
_
_
_
1 1 1
2 1 0
2 0 0
1 1 1
_
_
_
_
_
. Indquense las proposiciones ver-
daderas y las falsas:
Captulo 7 107
1. Para todo vector u unitario de R
3
, |Au|
2

2
2. |A
t
|
2
= |A|
2
3. Todos los autovalores de AA
t
son reales y no negativos
4. El n umero de condicion espectral de A vale 5
5. |A|
2
=

10
7.14. Si M
+
es la matriz pseudoinversa de M, indquense las proposiciones verdaderas
y las falsas:
1. Si P es una matriz de proyeccion ortogonal, entonces P
+
= P
2. Si S es una matriz de proyecci on ortogonal, entonces S
+
= S
3. Si A C
mn
de rango igual a n, entonces A
+
=
_
A
h
A
_
1
A
h
4. Si A C
mn
de rango igual a m, entonces A
+
= A
h
_
AA
h
_
1
5. Si A C
nn
tal que A
+
= A, entonces A es invertible.
Bibliografa incompleta
512-BUR A J. de Burgos

Algebra Lineal y geometra cartesiana. McGrawHill. Madrid,
2006.
512-BUR B J. de Burgos

Algebra Lineal: deniciones, teoremas y resultados. Garca-Maroto.
Madrid, 2007.
512-GRO S. I. Grossmann,

Algebra Lineal. McGrawHill. Mexico, 2007.
512-NOB Noble B., Daniel J.W.

Algebra lineal aplicada. Prentice-Hall Hispanoamericana.
Mexico, 1989.
512-ROJ J. Rojo

Algebra Lineal. McGrawHill. Madrid, 2001.
512-VILP De la Villa A. Problemas de

Algebra. Clagsa. Madrid, 1994.
Nota: El n umero 512 y las siglas que anteceden a cada libro se reeren a la signatura de
registro de los libros en la biblioteca de la E.T.S.I. Industriales.