Está en la página 1de 32

ALGEBRA LINEAL I

Juan A. Navarro Gonzalez


17 de diciembre de 2009
2

Indice General
1 Preliminares 1
1.1 Conjuntos y Aplicaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2 N umeros Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.3 Matrices y Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
2 Espacios Vectoriales 7
2.1 Espacios Vectoriales y Subespacios vectoriales . . . . . . . . . . . . . . . . . . 7
2.2 Dimension . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 9
2.3 Suplementarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
3 Aplicaciones Lineales 13
3.1 Aplicaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
3.2 Matriz de una Aplicacion Lineal . . . . . . . . . . . . . . . . . . . . . . . . . 15
3.3 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
4 Espacios Vectoriales Eucldeos 19
4.1 Productos Escalares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
4.2 Espacios Vectoriales Eucldeos . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
4.3 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
5 Endomorsmos 23
5.1 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
5.2 Valores y Vectores Propios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
5.3 Diagonalizacion de Endomorsmos . . . . . . . . . . . . . . . . . . . . . . . . 26
3
4

INDICE GENERAL
Captulo 1
Preliminares
1.1 Conjuntos y Aplicaciones
Denicion: Sean X y X

dos conjuntos. Dar una aplicacion f : X X

es asignar
a cada elemento x X un unico elemento de X

, que denotaremos f(x) y diremos que


es la imagen del elemento x por la aplicacion f. Si g : X

es otra aplicacion, la
composicion g f : X X

es la aplicacion (g f)(x) = g
_
f(x)
_
.
La identidad de un conjunto X es la aplicacion Id
X
: X X, Id
X
(x) = x.
Diremos que una aplicacion f : X X

es inyectiva si elementos distintos tienen


imagenes distintas:
x, y X, f(x) = f(y) x = y ,
y diremos que es epiyectiva si todo elemento de x

es imagen de alg un elemento de X:


x

x X: x

= f(x) .
Diremos que una aplicacion es biyectiva cuando es inyectiva y epiyectiva.
Es decir, una aplicacion f : X Y es epiyectiva cuando cada elemento de Y es imagen,
al menos, de un elemento de X, y es inyectiva cuando ning un elemento de Y es imagen de
dos elementos de X; luego es biyectiva cuando cada elemento y Y es imagen de un unico
elemento de X, que se denota f
1
(y); y esta aplicacion f
1
: Y X se llama inversa de f
porque f
1
f = Id
X
y f f
1
= Id
Y
.
Relaciones de Equivalencia
Denicion: El producto directo o de n conjuntos X
1
, . . . , X
n
es el conjunto formado por
las sucesiones (x
1
, . . . , x
n
) donde x
i
X
i
para todo ndice 1 i n, y se denota
X
1
. . . X
n
= (x
1
, . . . , x
n
): x
1
X
1
, . . . , x
n
X
n
.
Denicion: Dar una relacion en un conjunto X es dar una familia de parejas ordenadas
de X (i.e., un subconjunto de XX), y pondremos x y cuando la pareja (x, y) este en tal
familia. Diremos que es una relacion de equivalencia si tiene las siguientes propiedades:
1. Reexiva: x x, x X.
2. Simetrica: x, y X, x y y x.
3. Transitiva: x, y, z X, x y, y z x z.
Denicion: Dada una relacion de equivalencia en un conjunto X, llamaremos clase de
equivalencia de un elemento x X al subconjunto de X formado por todos los elementos
1
2 CAP

ITULO 1. PRELIMINARES
relacionados con x. Se denota x = [x] = y X: x y y diremos que es la clase de x
respecto de la relacion de equivalencia .
Diremos que un subconjunto C X es una clase de equivalencia de la relacion si es
la clase de equivalencia de alg un elemento x X; i.e., C = x para alg un x X.
Lema 1.1.1 Si es una relaci on de equivalencia en un conjunto X, entonces cada elemento
x X esta en una unica clase de equivalencia de .
Demostracion: Cada elemento x X esta en su clase x, porque x x, al ser reexiva la
relacion . Veamos que x no esta en ninguna otra clase de equivalencia de :
Si C es una clase de equivalencia de (es decir, C = [z] para alg un z X) y x C = [z],
entonces z x, y por tanto x z. Ahora,
([x] C) Si y [x], entonces x y. Como z x, se sigue que z y; luego y [z] = C.
(C [x]) Si y C = [z], entonces z y. Como x z, se sigue que x y; luego y [x].
Denicion: Si es una relacion de equivalencia en un conjunto X, llamaremos conjunto
cociente de X por al conjunto formado por las clases de equivalencia de , y se denota
X/ . Llamaremos proyeccion canonica a la aplicacion : X X/ , (x) = x, que
asigna a cada elemento x X su clase de equivalencia [x] respecto de .
Teorema 1.1.2 Si es una relacion de equivalencia en un conjunto X, la proyeccion
canonica : X X/ es epiyectiva y solo identica elementos equivalentes:
x, y X , (x) = (y) x y .
Demostracion: La proyeccion canonica es epiyectiva porque, por denicion, todo elemento
del conjunto cociente X/ es la clase de equivalencia (x) de alg un elemento x X. Por
otra parte,
Si (x) = (y); es decir, x = y, entonces x [x] = [y], de modo que x y.
Recprocamente, si x y, entonces x [y], de modo que [x] = [y] de acuerdo con1.1.1.
Luego (x) = x = y = (y).
Ejemplo: Sea n un n umero natural, n 2. Diremos que dos n umeros enteros a, b Z son
congruentes modulo n cuando b a es m ultiplo de n:
a b (mod. n) cuando b a = cn para alg un c Z .
La relacion de congruencia modulo n es una relacion de equivalencia en el conjunto Z:
Reexiva: Si a Z, entonces a a (mod. n) porque a a = 0 n.
Simetrica: Si a b (mod. n), entonces b a = cn, donde c Z; luego a b = (c)n, y
por tanto b a (mod. n).
Transitiva: Si a b y b c (mod. n), entonces b a = xn y c b = yn, donde x, y Z;
luego c a = (c b) + (b a) = yn +xn = (y +x)n, y por tanto a c (modulo n).
Respecto de esta relacion de equivalencia, la clase de equivalencia de a Z es
[a] = a +nZ = a +cn: c Z ,
as que coincide con la clase [r] del resto de la division de a por n, pues a = cn + r. Por
tanto, el conjunto cociente de Z por la relacion de congruencia modulo n, que se denota,
Z/nZ, tiene exactamente n elementos:
Z/nZ = [1], [2], . . . , [n] = [0] .
1.2. N

UMEROS COMPLEJOS 3
1.2 N umeros Complejos
Denicion: Los n umeros complejos son las parejas de n umeros reales z = x + yi (donde
x R se llama parte real de z e y R se llama parte imaginaria de z) que se suman y
multiplican con las siguientes reglas (i
2
= 1):
(x
1
+y
1
i)+(x
2
+y
2
i) = (x
1
+x
2
) + (y
1
+y
2
)i
(x
1
+y
1
i)(x
2
+y
2
i) = (x
1
x
2
y
1
y
2
) + (x
1
y
2
+x
2
y
1
)i
El conjunto de todos los n umeros complejos se denota C. El conjugado de un n umero
complejo z = x +yi es el n umero complejo z = x yi, y el modulo de z es el n umero real
[z[ =

z z =
_
x
2
+y
2
0. Las siguientes propiedades son de comprobacion sencilla:
z +u = z + u zu = z u

z = z [z[ = [ z[
[z[ = 0 z = 0 [zu[ = [z[ [u[ z + z 2[z[ [z +u[ [z[ +[u[
excepto la ultima. Para demostrarla bastara ver que [z +u[
2
([z[ +[u[)
2
:
[z +u[
2
= (z +u)(z +u) = (z +u)( z + u) = [z[
2
+[u[
2
+z u + zu
= [z[
2
+[u[
2
+z u +z u [z[
2
+[u[
2
+ 2[z u[
= [z[
2
+[u[
2
+ 2[z[ [ u[ = [z[
2
+[u[
2
+ 2[z[ [u[ = ([z[ +[u[)
2
.
Si un n umero complejo z = x +yi no es nulo, tenemos que z z = [z[
2
= x
2
+y
2
> 0, as
que el inverso de z es
z
1
=
z
[z[
2
=
x
x
2
+y
2

y
x
2
+y
2
i .
Denicion: Para cada n umero real t pondremos e
it
= cos t + i sent, donde las funciones
seno y coseno se consideraran siempre en radianes, de modo que
e
2i
= 1
y en general e
2ni
= 1 para todo n umero entero n. Ademas estos n umeros complejos son
de modulo [e
it
[ = cos
2
t + i sen
2
t = 1, y todo n umero complejo de modulo 1 es de la forma
e
it
para alg un n umero real t, bien denido salvo la adicion de un m ultiplo entero de 2.
Por otra parte, las formulas del seno y coseno de una suma expresan que e
i(t+t

)
= e
it
e
it

:
e
i(t+t

)
= cos(t +t

) +i sen(t +t

)
=
_
(cos t)(cos t

) (sent)(sent

)
_
+i
_
(cos t)(sent

) + (sen t)(cos t

)
_
= (cos t +i sent)(cos t

+i sent

) = e
it
e
it

.
En general, para cada n umero complejo z = x +yi pondremos
e
z
= e
x
e
yi
= e
x
(cos y +i seny) ,
de modo que e
z+u
= e
z
e
u
.
Denicion: Sea z un n umero complejo de modulo ,= 0. El modulo de z/ es 1, as que
z = e
i
para alg un n umero real , bien denido salvo la adicion de un m ultiplo entero de 2. Diremos
que es el argumento de z, y la igualdad
(e
i
)(

e
i

) =

e
i(+

)
muestra que el argumento de un producto es la suma de los argumentos.
Para cada n umero natural n 2 hay n races n-esimas de la unidad complejas, que son
e
2i
n
, e
2
2i
n
, . . . , e
(n1)
2i
n
, e
n
2i
n
= 1 .
4 CAP

ITULO 1. PRELIMINARES
1.3 Matrices y Determinantes
Dada una matriz A = (a
ij
), su matriz traspuesta es A
t
= (a
ji
).
Dada una matriz A = (a
ij
) de m las y n columnas, y otra matriz B = (b
jk
) de n las
y r columnas, su producto AB es una matriz m r cuyo coeciente de la la i y columna
k es
c
ik
=
n

j=1
a
ij
b
jk
.
El, producto de matrices es asociativo, aunque no conmutativo, y de las deniciones se
sigue que (AB)
t
= B
t
A
t
.
La matriz unidad I
n
es la matriz n n que tiene todos los coecientes nulos, salvo los
de la diagonal, que son todos la unidad. Es decir I
n
= (
ij
), donde
ij
= 0 cuando i ,= j y

ij
= 1 cuando i = j. Si A es una matriz mn, entonces I
n
A = A y AI
m
= A.
Una matriz cuadrada A de n las y columnas se dice que es invertible si existe otra
matriz cuadrada B tal que AB = I
n
= BA, en cuyo caso tal matriz B es unica y se pone
B = A
1
. Si A y B son matrices invertibles con igual n umero de columnas, entonces
(AB)
1
= B
1
A
1
.
Permutaciones
Denicion: Llamaremos permutaciones de n elementos a las aplicaciones biyectivas
: 1, . . . , n 1, . . . , n .
El conjunto de todas las permutaciones de n elementos se denota S
n
, y su cardinal es n!.
El producto de permutaciones es la composicion de aplicaciones, y como son aplicaciones
biyectivas, toda permutacion tienen una permutacion inversa
1
. Ademas, ()
1
=

1
.
Denicion: Dados elementos distintos a
1
, . . . , a
d
1, . . . , n, d 2, denotaremos =
(a
1
. . . a
d
) la permutacion tal que (a
i
) = a
i+1
, entendiendo que (a
d
) = a
1
. Diremos
que tal permutacion S
n
es un ciclo de longitud d. Los ciclos (a
1
a
2
) de longitud 2
se llaman trasposiciones. Diremos que dos ciclos (a
1
. . . a
d
) y (b
1
. . . b
k
) son disjuntos
cuando a
i
,= b
j
para todo par de ndices i, j.
El inverso de un ciclo = (a
1
. . . a
d
) es
1
= (a
d
. . . a
1
).
Toda permutacion descompone en producto de ciclos disjuntos, y tambien en producto
de trasposiciones, porque todo ciclo es producto de trasposiciones:
(a
1
. . . a
d
) = (a
1
a
2
)(a
2
a
3
) (a
d1
a
d
) . (1.1)
Denicion: Consideremos el siguiente polinomio con coecientes enteros:
(x
1
, . . . , x
n
) =

i<j
(x
j
x
i
)
Dada una permutacion S
n
, los factores de (x
(1)
, . . . , x
(n)
) =

i<j
(x
(j)
x
(i)
)
coinciden, eventualmente salvo el signo, con los de (x
1
, . . . , x
n
). Luego
(x
(1)
, . . . , x
(n)
) = (x
1
, . . . , x
n
)
y llamaremos signo de al n umero entero sgn() tal que (x
(1)
, . . . , x
(n)
) = sgn()
(x
1
, . . . , x
n
).
Por denicion el signo de una permutacion es 1 o 1.
1.3. MATRICES Y DETERMINANTES 5
Proposicion 1.3.1 El signo de cualquier producto de permutaciones es el producto de los
signos de los factores.
El signo de cualquier trasposicion es 1.
Demostracion: Sean , S
n
. Por denicion
(x
(1)
, . . . , x
(n)
) = sgn() (x
1
, . . . , x
n
)
y aplicando a los ndices de las indeterminadas x
1
, . . . , x
n
de este polinomio obtenemos
que
(x
(1)
, . . . , x
(n)
) = sgn() (x
(1)
, . . . , x
(n)
)
= sgn()sgn() (x
1
, . . . , x
n
)
Luego sgn() = sgn() sgn().
Por otra parte, un calculo directo demuestra que el signo de la trasposicion (12) es 1.
Si = (ij) es otra trasposicion, consideramos una permutacion tal que (1) = i, (2) = j,
de modo que = (12)
1
, y concluimos que
sgn() = sgn() sgn(12) sgn()
1
= sgn(12) = 1 .
Corolario 1.3.2 El signo de cualquier ciclo de longitud d es (1)
d1
.
Demostracion: Se sigue directamente de 1.1, porque las trasposiciones tienen signo 1.
Determinantes
Denicion: El determinante de una matriz cuadrada A = (a
ij
) de n las y columnas es
[A[ =

Sn
(sgn)a
1(1)
. . . a
n(n)
.
El determinante tiene las siguientes propiedades:
1. [A[ = [A
t
[.
2. Es lineal en cada columna:
[A
1
, . . . , A
i
+B
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ +[A
1
, . . . , B
i
, . . . , A
n
[ ,
[A
1
, . . . , A
i
, . . . , A
n
[ = [A
1
, . . . , A
i
, . . . , A
n
[ .
3. [A
(1)
, . . . , A
(n)
[ = (sgn )[A
1
, . . . , A
n
[.
En particular el determinante es 0 cuando dos columnas (o las) son iguales.
4. [AB[ = [A[ [B[ , [A
1
[ = [A[
1
.
5.

a
1
0 . . . 0
0 a
2
. . . 0
. . . . . . . . . . . .
0 0 . . . a
n

= a
1
. . . a
n
, [I[ = 1.
Denicion: El adjunto A
ij
de una matriz A es (1)
i+j
por el determinante de la matriz
que se obtiene eliminando la la i y la columna j de la matriz A.
El determinante de A puede calcularse desarrollando por cualquier la:
[A[ = a
i1
A
i1
+. . . +a
in
A
in
,
6 CAP

ITULO 1. PRELIMINARES
o por cualquier columna:
[A[ = a
1j
A
1j
+. . . +a
nj
A
nj
.
Si el determinante de una matriz A no es nulo, entonces A es invertible, y su inversa es
A
1
=
1
[A[
_
_
A
11
. . . A
n1
. . . . . . . . .
A
1n
. . . A
nn
_
_
(Notese que el coeciente de la la i y columna j es el adjunto A
ji
, no A
ij
). Por tanto, una
matriz cuadrada A es invertible si y solo si su determinante no es nulo.
Denicion: Se llama rango por columnas (resp. por las) de una matriz A al maximo
n umero de columnas (resp. las) de A linealmente independientes. El rango por las de A
es el rango por columnas de su traspuesta A
t
.
Los menores de orden r de una matriz A son los determinantes de las matrices formadas
con los coecientes de r las y r columnas de A (obviamente r no ha de superar el n umero
de columnas ni de las de A).
Teorema del Rango: El rango de una matriz es el orden del mayor menor no nulo.
En particular el rango por las de cualquier matriz A coincide con su rango por columnas,
y se denota rg A.
Sistemas de Ecuaciones Lineales
Regla de Cramer: Si A es una matriz cuadrada invertible, el sistema de ecuaciones lineales
AX = B tiene una unica solucion, que es
x
i
=
[A
1
, . . . , B, . . . , A
n
[
[A
1
, . . . , A
i
, . . . , A
n
[
donde A
1
, . . . , A
n
denotan las columnas de A.
Demostracion: Si [A[ ,= 0, una solucion de AX = B obviamente es X = A
1
B. Solo hay una
solucion, porque si x
1
, . . . , x
n
es una solucion del sistema, entonces x
1
A
1
+. . . +x
n
A
n
= B
y por tanto:
[A
1
, . . . , B, . . . , A
n
[ =

j
x
j
[A
1
, . . . , A
j
, . . . , A
n
[ = x
i
[A
1
, . . . , A
i
, . . . , A
n
[
porque la matriz (A
1
, . . . , A
j
, . . . , A
n
) tiene dos columnas iguales (las columnas i y j) salvo
cuando i = j.
Teorema de Rouche-Frobenius: La condicion necesaria y suciente para que un sistema
de ecuaciones lineales AX = B sea compatible es que rgA = rg(A[B) .
Captulo 2
Espacios Vectoriales
2.1 Espacios Vectoriales y Subespacios vectoriales
En adelante pondremos K = Q, R o C, y llamemos escalares a los elementos de K.
Denicion: Dar una estructura de K-espacio vectorial en un conjunto E (cuyos elementos
llamaremos vectores) es dar dos aplicaciones E E
+
E y K E

E (llamadas suma
de vectores y producto por escalares) tales que:
Axioma 1: e
1
+ (e
2
+e
3
) = (e
1
+e
2
) +e
3
para todo e
1
, e
2
, e
3
E.
Axioma 2: e
1
+e
2
= e
2
+e
1
para todo e
1
, e
2
E.
Axioma 3: Existe un elemento 0 E tal que e + 0 = e para todo e E.
Axioma 4: Para cada vector e E existe un vector e tal que e + (e) = 0.
Axioma 5: (e
1
+e
2
) = e
1
+e
2
para todo K, e
1
, e
2
E.
Axioma 6: (
1
+
2
)e =
1
e +
2
e para todo
1
,
2
K, e E.
Axioma 7: ()e = (e) para todo , K, e E.
Axioma 8: 1 e = e para todo vector e E.
Diremos que un subconjunto V de un espacio vectorial E es un subespacio vectorial
de E cuando la suma de vectores y el producto por escalares de E denan tambien en V
una estructura de espacio vectorial; es decir, cuando V satisfaga las siguientes condiciones:
(1) Si v
1
, v
2
V , entonces v
1
+v
2
V .
(2) Si K y v V , entonces v V .
(3) 0 V .
Nota: El vector 0 al que se reere el axioma 3 es unico (y diremos que es el vector nulo de
E): si v E es otro vector tal que e +v = e para todo e E, entonces 0 = 0 +v = v.
El vector e al que se reere el axioma 4 es unico (y diremos que es el opuesto de e): si
v E es otro vector tal que e +v = 0, entonces v = v + 0 = v +e + (e) = 0 + (e) = e.
Dados vectores e, v E, pondremos v e := v + (e).
En los espacios vectoriales son validas todas las reglas usuales del calculo con vectores:
0 e = 0, 0 = 0, (1) e = e, e = 0 = 0 o e = 0, (e) = ()e = (e), etc.
Ejemplos:
1. En la Geometra eucldea, los segmentos orientados con origen en un punto prejado O
forman un espacio vectorial real.

Este es el ejemplo paradigmatico de espacio vectorial,
el que motiva los nombre de los diferentes conceptos que iremos introduciendo.
7
8 CAP

ITULO 2. ESPACIOS VECTORIALES


2. K
n
= K
n
. . . K es un K-espacio vectorial. Dada una matriz A de m las y
n columnas con coecientes en K, las soluciones del sistema de ecuaciones lineales
homogeneo AX = 0 forman un subespacio vectorial de K
n
.
3. Fijados dos n umeros naturales positivos m y n, la suma de matrices y el producto de
matrices por escalares denen una estructura de K-espacio vectorial en el conjunto
M
mn
(K) de todas las matrices de m las y n columnas con coecientes en K.
4. C es un espacio vectorial complejo, y tambien es un espacio vectorial real y un espacio
vectorial sobre Q. Estas tres estructuras de espacio vectorial sobre C son bien distintas,
porque en cada caso los escalares son diferentes.
5. Un espacio vectorial E nunca puede ser el conjunto vaco, porque el axioma 3 impone
la existencia del vector nulo. El espacio vectorial que tiene un unico vector (que
necesariamente ha de ser el vector nulo) se denota 0.
6. Todo espacio vectorial E admite los subespacios vectoriales triviales 0 y E.
7. Si e
1
, . . . , e
n
son vectores de un espacio vectorial E, entonces
Ke
1
+. . . +Ke
n
:=
1
e
1
+. . . +
n
e
n
:
1
, . . . ,
n
K
es un subespacio vectorial de E que contiene a los vectores e
1
, . . . , e
n
, que tambien de-
notaremos < e
1
, . . . , e
n
>, y es el subespacio vectorial de E mas peque no que contiene
a tales vectores; es decir, si un subespacio vectorial V de E contiene a los vectores
e
1
, . . . , e
n
, entonces Ke
1
+. . . +Ke
n
V .
8. Si V y W son dos subespacios vectoriales de un espacio vectorial E, entonces V W
y V +W := v +w: v V y w W tambien son subespacios vectoriales de E.
9. Diremos que un subconjunto X de un espacio vectorial E es una subvariedad lineal
si existe un subespacio vectorial V de E y alg un vector e E tales que
X = e +V := e +v : v V .
En tal caso diremos que V es la direccion de X, y que X es la subvariedad lineal que
pasa por e con direccion V . Diremos que dos subvariedades lineales e + V y e

+ V

son paralelas si sus direcciones V y V

son incidentes (i.e., V V

o V

V ).
10. Espacio Vectorial Cociente: Cada subespacio vectorial V de un espacio vectorial
E dene una relacion de equivalencia en E (llamada congruencia modulo V ):
e e

(modulo V ) cuando e

e V ; es decir e

e +V .
i) e e para todo vector e E, porque e e = 0 V .
ii) Si e e

, entonces e

e V ; luego e e

= (e

e) V y e

e.
iii) e e

, e

e, e

V ; e

e = (e

) + (e

e) V y e e

.
La clase de equivalencia [e] = e + V de un vector e E es la subvariedad lineal de
direccion V que pasa por e, de modo que el conjunto cociente (que denotaremos E/V )
es el conjunto de todas las subvariedades lineales de E de direccion V . Las siguientes
operaciones denen en el conjunto cociente E/V una estructura de espacio vectorial
(compruebense los 8 axiomas):
[e
1
] + [e
2
] := [e
1
+e
2
]
[e ] := [e ]
2.2. DIMENSI

ON 9
Veamos que estas deniciones no dependen de los representantes elegidos en las clases:
Si [e
1
] = [e

1
] y [e
2
] = [e

2
], entonces e

1
e
1
, e

2
e
2
V ; luego e

1
+e

2
(e
1
+e
2
) V
y por tanto [e
1
+e
2
] = [e

1
+e

2
].
Si [e] = [e

], entonces e

e V ; luego e

e = (e

e) V y por tanto [e] = [e

].
Con esta estructura de espacio vectorial que hemos de denido en E/V , el opuesto de
un vector e E/V es [e], y el vector nulo de E/V es precisamente la clase de 0 E,
de modo que e = 0 precisamente cuando e 0 (modulo V ):
e = 0 e V (2.1)
Nota: Si e Ke
1
+. . . +Ke
n
, entonces e K e
1
+. . . +K e
n
.
En efecto, si e =
1
e
1
+. . . +
n
e
n
, entonces e = [
1
e
1
+. . . +
n
e
n
] =
1
e
1
+. . . +
n
e
n
.
2.2 Dimension
Denicion: Diremos que unos vectores e
1
, . . . , e
n
de un espacio vectorial E lo generan, o
que forman un sistema de generadores de E, cuando Ke
1
+ . . . + Ke
n
= E; es decir,
cuando todo vector de E es una combinacion lineal de e
1
, . . . , e
n
con coecientes en K.
Diremos que e
1
, . . . , e
n
son linealmente independientes cuando la unica combinacion
lineal nula de e
1
, . . . , e
n
es la que tiene todos los coecientes nulos:

1
, . . . ,
n
K y
1
e
1
+. . . +
n
e
n
= 0
1
= . . . =
n
= 0 .
Es decir, unos vectores e
1
, . . . , e
n
son linealmente dependientes cuando existen es-
calares
1
, . . . ,
n
K, alguno no nulo, tales que
1
e
1
+. . . +
n
e
n
= 0.
Diremos que una sucesion de vectores e
1
, . . . , e
n
de un espacio vectorial E es una base
de E cuando tales vectores sean linealmente independientes y generen E.
Ejemplo 2.2.1 Los vectores (1, 0, . . . , 0), (0, 1, . . . , 0), . . . , (0, . . . , 0, 1) forman una base de
K
n
, llamada base usual.
Las matrices mn que tienen todos sus coecientes nulos, excepto uno que es la unidad,
denen una base de M
mn
(K), que esta formada por mn matrices.
Denicion: Si e
1
, . . . , e
n
es una base de un espacio vectorial E, cada vector e E se
escribe de modo unico como combinacion lineal e = x
1
e
1
+ . . . + x
n
e
n
, y diremos que los
escalares (x
1
, . . . , x
n
) K
n
son las coordenadas del vector e en la base e
1
, . . . , e
n
.
En efecto, si

n
i=1
x
i
e
i
= e =

n
i=1
y
i
e
i
, entonces

n
i=1
(y
i
x
i
)e
i
= e e = 0; luego
y
i
x
i
= 0 para todo ndice i, porque los vectores e
1
, . . . , e
n
son linealmente independientes.
Lema Fundamental: Sean e
1
, . . . , e
n
vectores de un K-espacio vectorial E. Si v
1
, . . . , v
r

Ke
1
+. . . +Ke
n
y r > n, entonces los vectores v
1
, . . . , v
r
son linealmente dependientes.
Demostracion: Si v
1
= 0 es obvio: 1 v
1
+ 0 v
2
+. . . + 0 v
r
= 0.
Si v
1
,= 0, por induccion sobre n. Si n = 1, entonces v
1
, v
2
Ke
1
, as que v
1
=
1
e
1
,
v
2
=
2
e
1
y
1
,= 0 porque v
1
,= 0. Luego
2
v
1

1
v
2
=
2

1
e
1

2
e
1
= 0.
Si n > 1, reordenando los vectores e
1
, . . . e
n
si fuera preciso, tendremos v
1
=

n
i=1

i
e
i
con
1
,= 0. Despejando, obtenemos que e
1
Kv
1
+Ke
2
+. . . +Ke
n
, y por tanto
v
2
, . . . , v
r
Ke
1
+. . . +Ke
n
Kv
1
+Ke
2
+. . . +Ke
n
.
10 CAP

ITULO 2. ESPACIOS VECTORIALES


En E/Kv
1
tenemos que v
2
, . . . , v
r
K e
2
+ . . . + K e
n
, y por hipotesis de induccion
existen escalares
2
, . . . ,
r
, alguno no nulo, tales que 0 =

r
i=2

i
v
i
=
_
r
i=2

i
v
i

. Luego

r
i=2

i
v
i
Kv
1
seg un 2.1, y concluimos que

r
i=2

i
v
i
=
1
v
1
para alg un
1
K; es decir,
los vectores v
1
, . . . , v
r
son linealmente dependientes.
Teorema 2.2.2 Todo sistema nito de generadores e
1
, . . . , e
n
de un espacio vectorial
E ,= 0 contiene una base de E, y todas las bases de E tienen igual n umero de vectores.
Demostracion: Por hipotesis E = Ke
1
+. . . +Ke
n
. Para ver que e
1
, . . . , e
n
contiene una
base de E procedemos por induccion sobre n.
Si n = 1, e
1
,= 0 porque Ke
1
= E ,= 0; luego e
1
es ya una base de E = Ke
1
.
Si n > 1, y los vectores e
1
, . . . , e
n
son linealmente independientes, forman ya una base
de E. Si son linealmente dependientes, tendremos alguna relacion

n
i=1

i
e
i
= 0 con alg un
coeciente
i
no nulo. Reordenando los vectores e
1
, . . . , e
n
podemos suponer que
n
,= 0.
Despejando e
n
tenemos que e
n
Ke
1
+. . . +Ke
n1
. Luego E = Ke
1
+. . . +Ke
n1
, y por
hipotesis de induccion e
1
, . . . , e
n1
contiene una base de E.
Por ultimo, si e
1
, . . . , e
r
y v
1
, . . . , v
s
son dos bases de E, por el lema fundamental
tenemos que r s, y tambien que s r; luego r = s.
Denicion: Si un espacio vectorial E ,= 0 admite un sistema nito de generadores, lla-
maremos dimension de E al n umero de vectores de cualquier base de E, y lo denotaremos
dim
K
E; o sencillamente dimE cuando no induzca a confusion. Tambien diremos que el
espacio vectorial E = 0 tiene dimension 0 y que su base es el vaco. Diremos que un espacio
vectorial tiene dimension innita cuando no admita sistemas nitos de generadores.
La dimension de una subvariedad lineal X = e+V es, por denicion, la de su direccion V .
Las subvariedades lineales de dimension 1 y 2 se llaman rectas y planos respectivamente.
Ejemplo 2.2.3 De acuerdo con 2.2.1, dim
K
K
n
= n y dim
K
M
mn
(K) = mn. En particular
dim
C
C = 1, aunque dim
R
C = 2, porque 1, i es una base de C como espacio vectorial real,
y dim
Q
C = porque C no es un conjunto numerable.
Corolario 2.2.4 Todo sistema de generadores e
1
, . . . , e
r
de un espacio vectorial E con-
tiene una base de E, y por tanto r dimE.
Corolario 2.2.5 Sea E un espacio vectorial de dimension nita. Toda familia e
1
, . . . , e
r

de vectores de E linealmente independiente se puede ampliar hasta obtener una base de E,


y por tanto r dimE.
Demostracion: Vamos a nadiendo vectores hasta obtener una familia linealmente independi-
ente e
1
, . . . , e
r
, v
1
, . . . , v
s
que ya no pueda ampliarse mas de modo que siga siendo lineal-
mente independiente (el proceso termina en virtud el lema fundamental). Si e E, entonces
e
1
, . . . , e
r
, v
1
, . . . , v
s
, e es linealmente dependiente; es decir,

r
i=1

i
e
i
+

s
j=1

j
v
j
+e = 0
y alg un coeciente no es nulo. Si = 0, entonces e
1
, . . . , e
r
, v
1
, . . . , v
s
es linealmente de-
pendiente, en contra de la construccion de tal familia. Luego ,= 0 y despejando concluimos
que e < e
1
, . . . , e
r
, v
1
, . . . , v
s
>. Luego e
1
, . . . , e
r
, v
1
, . . . , v
s
es una base de E. q.e.d.
Si A es la matriz que tiene por columnas las coordenadas de v
1
, . . . , v
r
E en cierta
base dada de E, entonces tenemos que
v
1
, . . . , v
r
son lin. indep. rg A = r
v
1
, . . . , v
r
generan E rg A = dimE
dim < v
1
, . . . , v
r
>= rg A
(2.2)
2.3. SUPLEMENTARIOS 11
Teorema 2.2.6 Sea V subespacio vectorial de un espacio vectorial de dimension nita E.
1. dimV dimE y solo se da la igualdad cuando V = E.
2. dim(E/V ) = dimE dimV .
Demostracion: Si tomamos en V una familia v
1
, . . . , v
r
linealmente independiente que
ya no pueda ampliarse con un vector de V de modo que lo siga siendo, el argumento del
corolario anterior prueba que v
1
, . . . , v
r
es una base de V , de modo que r = dimV .
Ahora 2.2.5 permite ampliarla hasta obtener una base v
1
, . . . , v
r
, e
1
, . . . , e
s
de E. Luego
r r + s = dimE; y si se da la igualdad, entonces s = 0 y v
1
, . . . , v
r
es base de E, de
modo que E = Kv
1
+. . . +Kv
r
= V .
En cuanto a la segunda armacion, basta probar que e
1
, . . . , e
s
es una base de E/V .
Como v
1
, . . . , v
r
, e
1
, . . . , e
s
generan E, y en E/V tenemos que v
1
= . . . = v
r
= 0, se sigue que
E/V =< e
1
, . . . , e
s
>. Veamos por ultimo que e
1
, . . . , e
s
son linealmente independientes:
Si 0 =

s
i=1

i
e
i
= [

s
i=1

i
e
i
], entonces

s
i=1

i
e
i
V de acuerdo con 2.1, as que

s
i=1

i
e
i
=

r
j=1

j
v
j
para ciertos escalares
1
, . . . ,
r
. Luego

s
i=1

i
e
i

r
j=1

j
v
j
= 0, y como los vectores
v
1
, . . . , v
r
, e
1
, . . . , e
s
son linealmente independientes, concluimos que
1
= . . . =
s
= 0.
Corolario 2.2.7 Un sistema de ecuaciones lineales AX = B es compatible si y solo si el
rango de la matriz de coecientes A coincide con el rango de la matriz ampliada (A[B).
Demostracion: Sean A
1
, . . . , A
n
las columnas de A, de modo que el sistema AX = B tambien
puede escribirse x
1
A
1
+. . . +x
n
A
n
= B, y la condicion de que sea compatible signica que
B < A
1
, . . . , A
n
>; es decir, que < A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B >. Ahora bien, el
teorema 2.2.6 arma que
< A
1
, . . . , A
n
>=< A
1
, . . . , A
n
, B > dim < A
1
, . . . , A
n
>= dim < A
1
, . . . , A
n
, B >
y, de acuerdo con 2.2, esta ultima condicion signica que rg A = rg (A[B) .
2.3 Suplementarios
Denicion: Sean V
1
, . . . , V
r
subespacios vectoriales de un espacio vectorial E. Diremos que
la suma V
1
+. . . +V
r
es directa si cada vector e V
1
+. . . +V
r
descompone de modo unico
en la forma e = v
1
+. . . +v
r
, donde v
i
V
i
; es decir, si la aplicacion epiyectiva
V
1
. . . V
r
V
1
+. . . +V
r
, (v
1
, . . . , v
r
) v
1
+. . . +v
r
tambien es inyectiva. En tal caso, el subespacio vectorial V
1
+. . . +V
r
se denota V
1
. . . V
r
.
Teorema 2.3.1 La condicion necesaria y suciente para que la suma de dos subespacios
vectoriales V y W de un espacio vectorial E sea directa es que V W = 0.
Demostracion: Si la suma de V y W es directa y e V W, entonces 0 = 0 +0 = e +(e),
donde 0, e V y 0, e W. La unicidad de la descomposicion del vector 0 en suma de un
vector de V y otro de W implica que e = 0. Luego V W = 0.
Recprocamente, si V W = 0 y un vector e V + W admite dos descomposiciones
e = v + w = v

+ w

, donde v, v

V y w, w

W, entonces v

v = w w

W. Como
v

v V , se sigue que v

v V W = 0. Luego 0 = v

v = w w

, y concluimos que
v = v

y w = w

. Tal descomposicion es unica, as que la suma de V y W es directa.


12 CAP

ITULO 2. ESPACIOS VECTORIALES


Corolario 2.3.2 Sea v
1
, . . . , v
r
una base de V y w
1
, . . . , w
s
una base de W. Si la suma
de V y W es directa, entonces v
1
, . . . , v
r
, w
1
, . . . , w
s
es una base de V W. Por tanto
dim(V W) = dimV + dimW
Demostracion: Por hipotesis V = Kv
1
+ . . . + Kv
r
y W = Kw
1
+ . . . + Kw
s
, as que
V +W = Kv
1
+. . . +Kv
r
+Kw
1
+. . . +Kw
s
y v
1
, . . . , v
r
, w
1
, . . . , w
s
generan V W.
Veamos que son linealmente independientes. Si tomamos una combinacion lineal nula

r
i=1

i
v
i
+

s
j=1

j
w
j
= 0 , (2.3)
entonces

r
i=1

i
v
i
=

s
j=1

j
w
j
W. Como

r
i=1

i
v
i
V , se sigue que

r
i=1

i
v
i

V W = 0. Como los vectores v
1
, . . . , v
r
son linealmente independientes por hipotesis,
los coecientes
i
son nulos. Ahora 2.3 implica que

s
j=1

j
w
j
= 0 y, como por hipotesis
w
1
, . . . , w
s
son linealmente independientes, tambien los coecientes
j
son nulos.
Denicion: Diremos que dos subespacios vectoriales V y W de un espacio vectorial E son
suplementarios (o que W es un suplementario de V en E, o que V es un suplementario
de W en E) cuando E = V W; es decir, cuando V +W = E y V W = 0.
Teorema 2.3.3 Todo subespacio vectorial V de un espacio vectorial de dimension nita E
admite alg un suplementario en E.
Demostracion: Sea v
1
, . . . , v
r
una base de V . Como v
1
, . . . , v
r
es una familia de vectores
de E linealmente independiente, de acuerdo con 2.2.5 puede ampliarse hasta obtener una
base v
1
, . . . , v
r
, e
1
, . . . , e
s
de E. Un suplementario de V en E es W = Ke
1
+. . . +Ke
s
:
V +W = Kv
1
+. . . +Kv
r
+Ke
1
+. . . +Ke
s
= E.
Si e V W, existen escalares
1
, . . . ,
r
tales que e =

r
i=1

i
v
i
, porque e V , y
existen escalares
1
, . . . ,
s
tales que e =

s
j=1

j
w
j
, porque e W. Luego
0 = e e =
r

i=1

i
v
i

j=1

j
w
j
.
Como los vectores v
1
, . . . , v
r
, e
1
, . . . , e
s
son linealmente independientes, concluimos que

1
= . . . =
r
= 0, y por tanto e =

r
i=1

i
v
i
= 0. Luego V W = 0.
Teorema 2.3.4 Si V y W son dos subespacios vectoriales de un espacio vectorial de di-
mension nita E, entonces
dim(V +W) = dimV + dimW dim(V W)
Demostracion: Sea V

un suplementario de V W en V , que existe por 2.3.4. Por denicion


V = V

+ (V W) , V

V W = 0 .
Veamos que V +W = V

W:
V +W = V

+ (V W) +W = V

+W , porque V W W
V

W V

V W = 0 ;
Concluimos al aplicar 2.3.2 a V +W = V

W y a V = V

(V W):
dim(V +W) = dimV

+ dimW = dimV dim(V W) + dimW .


Captulo 3
Aplicaciones Lineales
3.1 Aplicaciones Lineales
Denicion: Diremos que una aplicacion f : E E

entre dos K-espacios vectoriales es


K-lineal, (o lineal si K se sobrentiende) cuando
f(e +v) = f(e) +f(v) para todo e, v E
f( e) = f(e) para todo K, e E
Toda aplicacion lineal verica que f(0) = 0 y f(e) = f(e).
En efecto, f(0) = f(0 + 0) = f(0) + f(0) y restando f(0) obtenemos que 0 = f(0); y la
igualdad f(e) = f(e) se obtiene de la denicion de aplicacion lineal poniendo = 1.
Ejemplos:
1. La identidad Id : E E, la aplicacion nula 0: E E

, la proyeccion p
1
: EE

E,
p
1
(e, e

) = e, y la inyeccion j
1
: E E E

, j
1
(e) = (e, 0) son aplicaciones lineales.
2. Si V es un subespacio vectorial de un espacio vectorial E, la inclusion i : V E,
i(v) = v, y la proyeccion canonica : E E/V , (e) = e, son aplicaciones lineales.
3. Si V y W son dos subespacios vectoriales de un espacio vectorial E, la aplicacion
s: V W V +W, s(v, w) = v +w, es lineal y epiyectiva.
4. Cada familia e
1
, . . . , e
n
de vectores de un espacio vectorial E dene una aplicacion
lineal f : K
n
E, f(
1
, . . . ,
n
) =
1
e
1
+ . . . +
n
e
n
, que es epiyectiva cuando
e
1
, . . . , e
n
generan E, e inyectiva cuando son linealmente independientes.
Proposicion 3.1.1 Si dos aplicaciones f : E E

y h: E

son lineales, entonces su


composicion h f : E E

tambien es lineal.
Demostracion: Para todo K y todo e, v E tenemos que
(hf)(e +v) = h
_
f(e +v)
_
= h
_
f(e) +f(v)
_
= h(f(e)) +h(f(v)) = (hf)(e) + (hf)(v)
(hf)(e) = h
_
f(e)
_
= h
_
f(e)
_
= h(f(e)) = (hf)(e)
Proposicion 3.1.2 Sea f : E E

una aplicacion lineal.


1. Si V es un subespacio vectorial de E, entonces f(V ) := f(v): v V es un subespa-
cio vectorial de E

. En particular Imf := f(E) = f(e): e E es un subespacio vectorial


de E

, llamado imagen de f.
2. Si W es un subespacio vectorial de E

, entonces f
1
(W) := e E: f(e) W es
un subespacio vectorial de E. En particular Ker f := f
1
(0) = e E: f(e) = 0 es un
subespacio vectorial de E, llamado n ucleo de f.
13
14 CAP

ITULO 3. APLICACIONES LINEALES


Demostracion: 0 f(V ) porque 0 = f(0) y 0 V . Ahora, si f(v
1
), f(v
2
) f(V ), donde
v
1
, v
2
V , entonces tenemos que
f(v
1
) +f(v
2
) = f(v
1
+v
2
) f(V ) , porque v
1
+v
2
V
f(v
1
) = f(v
1
) f(V ) , porque v
1
V
y concluimos que f(V ) es un subespacio vectorial de E

.
En cuanto a f
1
(W), tenemos que 0 f
1
(W) porque f(0) = 0 W. Ahora, si
e
1
, e
2
f
1
(W), por denicion f(e
1
) W y f(e
2
) W, as que
f(e
1
+e
2
) = f(e
1
) +f(e
2
) W
f(e
1
) = f(e
1
) W
Luego e
1
+e
2
f
1
(W) y e
1
f
1
(W), y f
1
(W) es un subespacio vectorial de E.
Proposicion 3.1.3 Una aplicaci on lineal f : E E

es inyectiva si y solo si Ker f = 0.


Demostracion: Si f es inyectiva y e Ker f, entonces f(e) = 0 = f(0); luego e = 0.
Recprocamente, supongamos que Ker f = 0. Si f(e) = f(v), donde e, v E, entonces
f(v e) = f(v) f(e) = 0 ,
as que v e Ker f = 0 y concluimos que e = v. Es decir, f es inyectiva.
Ejemplo 3.1.4 Cada matriz A M
mn
(K) dene una aplicacion lineal f : K
n
K
m
,
f(X) = AX, cuyo n ucleo Ker f esta formado por todas las soluciones de la ecuacion ho-
mogenea AX = 0. Vemos as de nuevo que las soluciones de un sistema de ecuaciones
lineales homogeneo forman un subespacio vectorial. La condicion B Imf signica que el
sistema de m ecuaciones lineales con n incognitas AX = B es compatible.
Denicion: Diremos que una aplicacion lineal f : E E

es un isomorsmo cuando es
biyectiva, y en tal caso la aplicacion inversa f
1
: E

E tambien es lineal.
En efecto, si e

, v

, al ser f epiyectiva existen vectores e, v E tales que e

= f(e),
v

= f(v). Luego f(e +v) = f(e) +f(v) = e

+v

y f(e) = f(e) = e

, de modo que
f
1
(e

+v

) = e +v = f
1
(e

) +f
1
(v

)
f
1
(e

) = e = f
1
(e

) .
Diremos que dos K-espacios vectoriales E y E

son isomorfos si existe alg un isomorsmo


f : E E

, en cuyo caso pondremos E E

.
Los isomorsmos transforman vectores linealmente independientes en vectores lineal-
mente independientes, y sistemas de generadores en sistemas de generadores (compruebese);
luego bases en bases. Por tanto, si E E

, entonces dimE = dimE

.
Ejemplo 3.1.5 Cada base e
1
, . . . , e
n
de un espacio vectorial E dene un isomorsmo
f : K
n

E, f(x
1
, . . . , x
n
) = x
1
e
1
+ . . . + x
n
e
n
, y el isomorsmo inverso f
1
: E K
n
asigna a cada vector de E sus coordenadas en la base e
1
, . . . , e
n
. Por tanto, el teorema
2.2.2 muestra que todo espacio vectorial de dimension n es isomorfo a K
n
, de modo que
todos los K-espacios vectoriales de dimension dada n N son isomorfos.
3.2. MATRIZ DE UNA APLICACI

ON LINEAL 15
3.2 Matriz de una Aplicacion Lineal
Denicion: Sea f : E E

una aplicacion lineal entre dos espacios vectoriales de dimension


nita. Si jamos una base e
1
, . . . , e
n
de E y una base v
1
, . . . , v
m
de E

, tendremos que
f(e
j
) =
m

i=1
a
ij
v
i
, 1 j n (3.1)
para ciertos escalares a
ij
K, y diremos que A = (a
ij
) es la matriz de la aplicacion lineal
f en las bases e
1
, . . . , e
n
de E. Por denicion, la columna j-esima de la matriz A esta
formada por las coordenadas del vector f(e
j
) en la base v
1
, . . . , v
m
de E

.
Ahora, para cada vector e =

n
j=1
x
j
e
j
E tendremos que su imagen f(e) es
f(e) =
n

j=1
x
j
f(e
j
) =
n

j=1
m

i=1
x
j
a
ij
v
i
=
m

i=1
_
n

j=1
a
ij
x
j
_
v
i
.
Es decir, si X denota las coordenadas del vector e en la base e
1
, . . . , e
n
, puestas en
columna, entonces las coordenadas Y de f(e) en la base v
1
, . . . , v
m
se obtienen multipli-
cando X por la matriz A de f en las bases consideradas: Y = AX .
Proposicion 3.2.1 Si A es la matriz de una aplicacion lineal f : E E

en ciertas bases
de E y E

, entonces
dim(Imf) = rg A
Demostracion: Como f(

i
e
i
) =

i
f(e
i
), la imagen de f es
Imf = f(E) = f(Ke
1
+. . . +Ke
n
) =< f(e
1
), . . . , f(e
n
) > ,
y tenemos que dim < f(e
1
), . . . , f(e
n
) >= rg A de acuerdo con 2.2 y 3.1.
Denicion: Sean E y E

dos K-espacios vectoriales. Si f, h: E E

son dos aplicaciones


lineales, entonces la aplicacion
f +h: E E

, (f +h)(e) = f(e) +h(e) ,


es lineal, al igual que, para todo escalar K, lo es la aplicacion
f : E E

, (f)(e) = f(e) .
Esta suma de aplicaciones lineales y este producto por escalares denen una estructura
de K-espacio vectorial en el conjunto Hom
K
(E, E

) de todas las aplicaciones lineales de E


en E

. (Compruebense todas estas armaciones).


Teorema 3.2.2 Fijadas sendas bases en dos K-espacios vectoriales E y E

de dimensiones
n y m respectivamente, la aplicacion Hom
K
(E, E

) M
mn
(K) que asigna a cada
aplicacion lineal f : E E

su matriz en las bases dadas, es un isomorsmo.


Demostracion: Esta aplicacion Hom
K
(E, E

) M
mn
(K) es lineal porque si (a
ij
) es la
matriz de una aplicacion lineal f : E E

y (b
ij
) es la matriz de otra aplicacion lineal
h: E E

, entonces la matriz de f + h es (a
ij
) + (b
ij
), y la matriz de f es (a
ij
).
(Compruebese).
Veamos que esta aplicacion Hom
K
(E, E

) M
mn
(K) es inyectiva: De acuerdo con
3.1.3, basta ver que su n ucleo es 0. Ahora bien, si la matriz (a
ij
) de una aplicacion lineal
16 CAP

ITULO 3. APLICACIONES LINEALES


f : E E

es nula, (a
ij
) = 0, de acuerdo con 3.1 tendremos que f(e
j
) =

m
i=1
a
ij
v
i
= 0
para todo ndice j = 1, . . . , n. Luego
f
_
n

j=1
x
j
e
j
_
=
n

j=1
x
j
f(e
j
) = 0 ,
para cualesquiera escalares x
1
, . . . , x
n
, y concluimos que f = 0.
Esta aplicacion Hom
K
(E, E

) M
mn
(K) ademas es epiyectiva: Dada una matriz
(a
ij
) M
mn
(K), la aplicacion f : E E

, f(

n
j=1
x
j
e
j
) =

ij
a
ij
x
j
v
i
, es lineal:
f
_
n

j=1
x
j
e
j
+
n

j=1
y
j
e
j
_
= f
_
n

j=1
(x
j
+y
j
)e
j
_
=

ij
a
ij
(x
j
+y
j
)v
i
=

ij
a
ij
x
j
v
i
+

ij
a
ij
y
j
v
i
= f
_
n

j=1
x
j
e
j
_
+f
_
n

j=1
y
j
e
j
_
f
_

j=1
x
j
e
j
_
= f
_
n

j=1
x
j
e
j
_
=

ij
a
ij
x
j
v
i
=
_

ij
a
ij
x
j
v
i
_
= f
_
n

j=1
x
j
e
j
_
,
y es claro que la matriz de f en las bases consideradas es precisamente (a
ij
).
Corolario 3.2.3 dim
_
Hom
K
(E, E

)
_
= (dimE)(dimE

)
Demostracion: Como Hom
K
(E, E

) es isomorfo a M
mn
(K), tenemos que
dimHom
K
(E, E

) = dimM
mn
(K)
2.2.3
= m n = (dimE)(dimE

) .
Teorema de Isomorfa: Si f : E E

es una aplicacion lineal, entonces la aplicacion


lineal : E/Ker f Imf, ( e) = f(e), es un isomorsmo:
E/Ker f Imf
Demostracion: Veamos primero que es una aplicacion bien denida, que ( e) no depende
del representante elegido, que si e = v, entonces f(e) = f(v). Ahora bien, si e = v, entonces
e v (modulo Ker f); luego v e Ker f, 0 = f(v e) = f(v) f(e) y f(e) = f(v).
Veamos ahora que tal aplicacion es lineal:
( e + v) = ([e +v]) = f(e +v) = f(e) +f(v) = ( e) +( v)
( e) = ([e]) = f(e) = f(e) = ( e) ,
que Ker = 0: si 0 = ( e) = f(e), entonces e Ker f, luego e = 0 por 2.1,
y que es epiyectiva: si e

Imf, entonces e E: e

= f(e) = ( e), luego e

Im.
Corolario 3.2.4 Para toda aplicaci on lineal f : E E

tenemos que
dim(Ker f) + dim(Imf) = dimE
Corolario 3.2.5 Si A es la matriz de una aplicacion lineal f : E E

en ciertas bases de
E y E

, entonces dim(Ker f) = (n
o
de columnas) rg A.
Demostracion: dim(Ker f)
3.2.4
= dimE dim(Imf)
3.2.1
= dimE rg A.
3.3. CAMBIO DE BASE 17
Corolario 3.2.6 Las soluciones de un sistema homogeneo de m ecuaciones lineales con n
incognitas AX = 0 con coecientes en K forman un subespacio vectorial de K
n
de dimension
n rg A, as que las soluciones de un sistema no homogeneo compatible AX = B forman
una subvariedad lineal de K
n
de dimension n rg A.
Demostracion: La matriz A de ne una aplicacion lineal f : K
n
K
m
, f(X) = AX, y la
matriz de f en las bases usuales de K
n
y K
m
(ver 2.2.1) es precisamente A (compruebese).
El n ucleo de f esta formado por las soluciones del sistema AX = 0, as que 3.2.5 arma
que tales soluciones forman un subespacio vectorial de dimension n rg A. Por ultimo,
si un sistema AX = B es compatible, las soluciones se obtienen sumando a una solucion
particular las soluciones de la ecuacion homogenea AX = 0, as que forman una subvariedad
lineal de direccion Ker f y, por tanto, su dimension tambien es n rg A.
Denicion: Fijada una base de un espacio vectorial de dimension nita E, dar ecuaciones
parametricas de un subespacio vectorial V de E es dar las coordenadas de un sistema de
generadores (o mejor una base) de V , y dar ecuaciones implcitas de V es dar un sistema
homogeneo de ecuaciones lineales (mejor si son independientes) cuyas soluciones sean las
coordenadas de los vectores de V .
Dar ecuaciones parametricas de una subvariedad lineal X de E es dar las coordenadas
de un punto de X y de un sistema de generadores (o mejor una base) de la direccion de
X, y dar ecuaciones implcitas de X es dar un sistema de ecuaciones lineales (mejor si son
independientes) cuyas soluciones sean las coordenadas de los puntos de X.
3.3 Cambio de Base
Teorema 3.3.1 Sean f : E E

y h: E

dos aplicaciones lineales, y consideremos


sendas bases e
1
, . . . , e
n
, e

1
, . . . , e

r
y e

1
, . . . , e

m
de E, E

y E

respectivamente. Si en
estas bases la matriz de f es A = (a
kj
) y la matriz de h es B = (b
ik
), entonces la matriz de
h f en tales bases es el producto BA =
_
r
k=1
b
ik
a
kj
_
.
Demostracion: Por denicion de matriz de una aplicacion lineal tenemos que
f(e
j
) =
r

k=1
a
kj
e

k
, h(e

k
) =
m

i=1
b
ik
e

i
(h f)(e
j
) = h
_
f(e
j
)
_
= h
_
k
a
kj
e

k
_
=

k
a
kj
h(e

k
) =

k
a
kj
_
i
b
ik
e

i
_
=

i
a
kj
b
ik
e

i
=

k
b
ik
a
kj
e

i
=

i
_
k
b
ik
a
kj
_
e

i
,
as que la matriz de h f en las bases e
1
, . . . , e
n
y e

1
, . . . , e

m
es
_
k
b
ik
a
kj
_
.
Corolario 3.3.2 La matriz de un isomorsmo f : E

E

en cualesquiera bases e
1
, . . . , e
n

y e

1
, . . . , e

n
de E y E

siempre es invertible, y su inversa es la matriz de f


1
: E

E
en las bases consideradas.
Demostracion: Sean A y B las matrices de f y f
1
en las bases consideradas. De acuerdo con
el teorema anterior tenemos que AB = I y BA = I, porque f f
1
= Id
E
y f
1
f = Id
E
,
as que A es invertible y B = A
1
.
Cambio de Coordenadas de un Vector
Denicion: Sea e
1
, . . . , e
n
una base de un espacio vectorial E. Si consideramos una nueva
base e
1
, . . . , e
n
de E, tendremos
e
j
=
n

i=1
b
ij
e
i
(3.2)
18 CAP

ITULO 3. APLICACIONES LINEALES


para ciertos escalares b
ij
K, y diremos que B = (b
ij
) es la matriz de cambio de base.
Sus columnas estan formadas por las coordenadas de los vectores de la nueva base en la
antigua. Es decir, B es la matriz de la identidad Id: E E cuando en el espacio de salida
se considera la nueva base e
1
, . . . , e
n
y en el de llegada la base antigua e
1
, . . . , e
n
, as
que es invertible de acuerdo con 3.3.2.
Por tanto, si

X son las coordenadas de un vector e E en la nueva base, y X son las
coordenadas de Id(e) = e en la base antigua, tenemos que
X = B

X ,

X = B
1
X (3.3)
Cambio de Matriz de una Aplicacion Lineal
Sea A la matriz de una aplicacion lineal f : E E

en unas bases e
1
, . . . , e
n
y e

1
, . . . , e

de E y E

. Consideremos nuevas bases e


1
, . . . , e
n
y e

1
, . . . , e

m
de E y E

, y las corres-
pondientes matrices de cambio de base B y C. Si

A es la matriz de f en las nuevas bases
de E y E

, el siguiente diagrama de aplicaciones lineales (donde en cada espacio vectorial se


considera la base adyacente)
e
1
, . . . , e
n
E
f

A
E

1
, . . . , e

Id B Id C
e
1
, . . . , e
n
E
f

A
E

1
, . . . , e

muestra, de acuerdo con el teorema 3.3.1, que


A = C

AB
1
,

A = C
1
AB (3.4)
Captulo 4
Espacios Vectoriales Eucldeos
4.1 Productos Escalares
Denicion: Sea E un espacio vectorial real. Llamaremos producto escalar a toda apli-
cacion g : E E R que verique las siguientes condiciones:
1. g es bilineal: g(e +e

, v) = g(e, v) +g(e

, v), g(e, v +v

) = g(e, v) +g(e, v

),
g(e, v) = g(e, v), g(e, v) = g(e, v).
2. g simetrica: g(e, v) = g(v, e).
3. g es denido-positiva: g(e, e) 0 , y solo se da la igualdad cuando e = 0.
El producto escalar g(e, v) de dos vectores e, v E suele denotarse e v, < e [ v >, (e, v),
etc., y se llama modulo de un vector e E al n umero real [e[ :=

e e, que es siempre
positivo, salvo cuando e = 0. La distancia entre dos puntos p, q E es el modulo de la
diferencia: d(p, q) := [q p[.
Ejemplos:
1. En la Geometra eucldea, los vectores con origen en un punto prejado O forman un
espacio vectorial real de dimension 3. Fijada una unidad de longitud, el modulo de un
vector es la longitud del segmento, y el producto escalar de dos vectores no nulos es
como el producto de los modulos por el coseno del angulo que forman.

Este es el ejemplo paradigmatico de producto escalar, el que motiva los nombres que
iremos introduciendo.
2. El producto escalar usual en R
n
es
(x
1
, . . . , x
n
) (y
1
, . . . , y
n
) =
n

i=1
x
i
y
i
= x
1
y
1
+. . . +x
n
y
n
.
3. Un producto escalar en C es < z
1
[ z
2
> = z
1
z
2
+ z
1
z
2
R .
4. Un producto escalar en M
nn
(R) es < A[ B > = tr (A
t
B) .
5. En el espacio vectorial de las funciones reales continuas sobre el segmento [0, 1], un
producto escalar es
< f [ g > =
_
1
0
f(t)g(t) dt
19
20 CAP

ITULO 4. ESPACIOS VECTORIALES EUCL

IDEOS
Lema 4.1.1 Para todo par de vectores e, v E se tiene que [e v[ [e[ [v[ , y por tanto
la desigualdad triangular:
[e +v[ [e[ +[v[
Demostracion: El polinomio p(t) = (te + v) (te + v) = (e e)t
2
+ 2(e v)t + v v es de
grado 2 y no toma valores negativos, porque el producto escalar es denido-positivo; luego
su discriminante no es positivo:
4(e v)
2
4(e e)(v v) 0 ,
as que (e v)
2
(e e)(v v), y tomando raz cuadrada se concluye que [e v[ [e[ [v[.
En cuanto a la desigualdad triangular, como [e v[ [e[ [v[, tenemos que
[e +v[
2
= (e +v) (e +v) = e e +v v + 2(e v) [e[
2
+[v[
2
+ 2[e[ [v[ = ([e[ +[v[)
2
,
y tomando raz cuadrada se concluye que [e +v[ [e[ +[v[.
Denicion: Si e, v ,= 0, de acuerdo con el lema anterior, tenemos que 1
ev
|e||v|
1, y
diremos que el coseno del angulo que forman dos vectores no nulos e y v es
cos :=
e v
[e[ [v[
(de modo que el angulo que forman dos vectores esta bien denido salvo un signo).
Diremos que dos vectores e, v E son ortogonales cuando e v = 0.
Ejemplo: La igualdad [e +v[
2
= (e +v) (e +v) = [e[
2
+[v[
2
+ 2(e v) arma el Teorema
de Pitagoras y su recproco: e v = 0 [e +v[
2
= [e[
2
+[v[
2
.
4.2 Espacios Vectoriales Eucldeos
Denicion: Llamaremos espacio vectorial eucldeo a todo espacio vectorial real E de
dimension nita dotado de un producto escalar g, y diremos que el ortogonal de un sube-
spacio vectorial V de E es el subespacio vectorial (compruebese)
V

:= e E: e v = 0 para todo vector v V .


Teorema 4.2.1 Si V es un subespacio vectorial de un espacio vectorial eucldeo E:
dimV

= dimE dimV
Demostracion: Si v V

V , entonces v v = 0. Como el producto escalar es denido-


positivo, se sigue que v = 0; luego V

V = 0 y por tanto
dimV

+ dimV
2.3.4
= dim(V

+V ) dimE (4.1)
Por otra parte, como el producto escalar es bilineal, cada vector e E dene una
aplicacion lineal
e
: V R,
e
(v) = e v, y tenemos que
e+e
=
e
+
e
,
e
=
e
. Es
decir, la aplicacion
: E Hom
K
(V, R) , (e) =
e
,
es lineal. Ademas la condicion e V

signica que
e
(v) = 0, v V , de modo que el
n ucleo de es precisamente el ortogonal de V ; Ker = V

. Por tanto
dimE
3.2.4
= dimV

+ dim(Im) dimV

+ dimHom
K
(V, R)
3.2.3
= dimV

+ dimV
y comparando con 4.1 concluimos que dimV

+ dimV = dimE.
4.2. ESPACIOS VECTORIALES EUCL

IDEOS 21
Corolario 4.2.2 Si V es un subespacio vectorial de un espacio vectorial eucldeo E, tenemos
que E = V

V y (V

= V .
Demostracion: Como V

V = 0, la suma de V y V

es directa por 2.3.1 y, de acuerdo con


2.3.2, su dimension es dim(V

V ) = dimV

+ dimV = dimE, as que 2.2.6.1 permite


concluir que V

V = E.
Por otra parte, V (V

por denicion de V

, y de acuerdo con 4.2.2


dim(V

= dimE dim(V

) = dimE (dimE dimV ) = dimV ,


as que de nuevo 2.2.6.1 permite concluir que (V

= V .
Corolario 4.2.3 Si V y W son subespacios vectoriales de un espacio vectorial eucldeo E:
1. V W W

2. V = W V

= W

3. (V +W)

= V

4. (V W)

= V

+W

Demostracion: La implicacion V W W

es evidente a partir de la denicion


del subespacio ortogonal. Recprocamente, si W

, entonces (V

(W

seg un
acabamos de probar; luego V W seg un 4.2.2.
2. Ahora, si V

= W

, entonces V

y W

; luego W V y V W por
el apartado anterior, de modo que V = W.
3. Como V V +W y W V +W, tenemos que (V +W)

y (V +W)

;
luego (V +W)

. Ademas, si e V

, para todo vector v +w V +W


tendremos que e (v + w) = e v + e w = 0. Luego V

(V + W)

y concluimos
que (V +W)

= V

.
4. De acuerdo con el segundo apartado, para demostrar que (V W)

= V

+ W

basta ver que sus ortogonales coinciden:


_
V

+W

_
3
= (V

(W

4.2.2
= V W
4.2.2
=
_
(V W)

.
Ejemplos:
1. Se llama distancia de un punto p a una subvariedad lineal X al nmo de las distancias
de p a los puntos de X:
d(p, X) := inf
qX
d(p, q) .
Veamos que existe un unico punto q X tal que p q es ortogonal a la direcci on de
X. Adem as, la distancia de p a X se alcanza en tal punto: d(p, q) = d(p, X).
En efecto, si X = e +V , seg un 4.2.2 tendremos p e = v +w donde v V y w V

.
Es decir, q = e +v es el unico punto de X tal que pq V

. Ademas, para cualquier


otro punto x X, por el teorema de Pitagoras tendremos d(p, x)
2
= d(p, q)
2
+d(q, x)
2
,
as que d(p, q) < d(p, x), y la distancia mnima se alcanza en q y solo en q.
2. Si V es un subespacio vectorial de un espacio vectorial eucldeo E, de acuerdo con
4.2.2 tenemos que E = V

V , as que existe una unica aplicacion lineal s


V
: E E,
llamada simetra respecto de V , que es la identidad en V y transforma cada vector de
V

en su opuesto. Es decir, cada vector e E descompone de modo unico en suma,


e = v +w, de un vector v V y otro w V

, y por denicion s
V
(e) = v w.
Igualmente existe una unica aplicacion lineal p
V
: E E, llamada proyeccion or-
togonal sobre V , que es la identidad en V y se anula en los vectores de V

(i.e.,
p
V
(v +w) = v cuando v V y w V

).
22 CAP

ITULO 4. ESPACIOS VECTORIALES EUCL

IDEOS
4.3 Bases Ortonormales
Denicion: Diremos que una base e
1
, . . . , e
n
de un espacio vectorial eucldeo E es ortonor-
mal cuando todos los vectores de la base son de modulo 1 y mutuamente ortogonales:
e
i
e
j
=
ij
:=
_
1 cuando i = j
0 cuando i ,= j
Por denicion, en una base ortonormal el producto escalar de dos vectores e, v E es
e v = (x
1
e
1
+. . . +x
n
e
n
) (y
1
e
1
+. . . +y
n
e
n
) = x
1
y
1
+. . . +x
n
y
n
=
n

i=1
x
i
y
i
,
de modo que los calculos se realizan igual que con el producto escalar usual de R
n
.
Teorema 4.3.1 Todo espacio vectorial eucldeo E ,= 0 admite bases ortonormales.
Demostracion: Procedemos por induccion sobre n = dimE. Cuando n = 1, tenemos que
E = Rv. Si tomamos e := v/[v[, entonces e e = 1 y e es ya una base ortonormal de E.
Si n > 1, tomamos un vector no nulo v E y ponemos e
n
:= v/[v[, de modo que
e
n
e
n
= 1. De acuerdo con 4.2.1, dim(Re
n
)

= n 1, as que por hipotesis de induccion


existe alguna base ortonormal e
1
, . . . , e
n1
de (Re
n
)

. Veamos que e
1
, . . . , e
n1
, e
n
es
una base ortonormal de E:
Por construccion los vectores e
1
, . . . , e
n
son de modulo 1 y mutuamente ortogonales, as
que solo hemos de ver que e
1
, . . . , e
n
es una base de E. Como el n umero de vectores
coincide con la dimension de E, de acuerdo con 2.2.2 basta ver que generan E. Ahora bien,
Re
1
+. . . +Re
n1
+Re
n
= (Re
n
)

+Re
n
4.2.2
= E .
Captulo 5
Endomorsmos
Denicion: Llamaremos endomorsmos de un espacio vectorial E a las aplicaciones
lineales T : E E, de modo que los endomorsmos de E forman un espacio vectorial
End
K
(E) := Hom
K
(E, E). Los isomorsmos T : E

E, que son los endomorsmos biyec-
tivos, se llaman automorsmos, y tienen un automorsmo inverso T
1
: E E.
Diremos que un endomorsmo T : E E deja invariante un subespacio vectorial V de
E cuando T(V ) V ; es decir, cuando T(v) V para todo vector v V .
De acuerdo con 3.1.1, la composicion ST de dos endomorsmos S y T de E tambien es un
endomorsmo de E. Luego todas las potencias T
n
:= T
n
. . . T, n N, de un endomorsmo
tambien son endomorsmos, y se adopta el convenio de que T
0
= Id.
Dado un endomorsmo T : E E, para cada polinomio p(x) = a
d
x
d
+a
d1
x
d1
+. . . +
a
1
x +a
0
con coecientes en K tenemos un endomorsmo
p(T) := a
d
T
d
+a
d1
T
d1
+. . . +a
1
T +a
0
Id .
aunque a menudo, por abuso de notacion, pondremos T a en lugar de T aId.
En general el producto de endomorsmos no es conmutativo; pero si p(x) y q(x) son dos
polinomios con coecientes en K, entonces p(T)q(T) = q(T)p(T), porque el producto de
polinomios s es conmutativo.
5.1 Polinomios
Si p(x) =

i
a
i
x
i
es un polinomio no nulo con coecientes en K = Q, R o C, llamaremos
grado de p(x) al mayor n umero natural i tal que a
i
,= 0. El grado del polinomio nulo no
esta denido, aunque a veces es comodo convenir en que su grado es , de modo que la
f ormula gr p(x)q(x) = gr p(x) + gr q(x) siga siendo valida.
Dados polinomios p(x) y q(x) ,= 0 con coecientes en K, existen polinomios c(x) y r(x)
con coecientes en K, llamados cociente y resto de la division de p(x) por q(x), tales que
p(x) = q(x)c(x) +r(x) , gr r(x) < gr q(x) .
Denicion: Si p(x) =

i
a
i
x
i
es un polinomio con coecientes en K, diremos que K
es una raz de p(x) cuando p() =

i
a
i

i
= 0.
Para hallar las races racionales de un polinomio de grado d con coecientes racionales,
p(x) = a
d
x
d
+. . . +a
1
+a
0
, se usa el siguiente resultado:
Si b/c Q, m.c.d.(b, c) = 1, es raz de p(x), entonces b[a
0
y c[a
d
.
En efecto, de la igualdad a
d
b
d
+a
d1
b
d1
c+. . . +a
1
bc
d1
+a
0
c
d
= 0 se sigue que b divide
a a
0
c
d
= a
d
b
d
a
d1
b
d1
c . . . a
1
bc
d1
, y como b no tiene factores primos comunes con
c, ha de dividir a a
0
. Analogamente se prueba que c divide a a
0
.
23
24 CAP

ITULO 5. ENDOMORFISMOS
Regla de Runi: Si p(x) es un polinomio con coecientes en K y K, entonces el
resto de la division p(x) = (x )q(x) +r es r = p().
Por tanto, si es raz de p(x), entonces p(x) es m ultiplo de x :
p(x) = (x )q(x) .
Demostracion: Sustituyendo x = en la igualdad p(x) = (x )q(x) +r obtenemos que
p() = ( )q() +r = 0 +r = r .
Por tanto, si p() = 0, entonces r = 0 y p(x) = (x )q(x).
Denicion: Si K es una raz de un polinomio no nulo p(x) con coecientes en K,
llamaremos multiplicidad de tal raz al mayor n umero natural m tal que (x )
m
divida
a p(x); es decir, p(x) = (x )
m
q(x) donde q(x) ya no admite la raz de acuerdo con la
Regla de Runi. Las races de multiplicidad 1 se denominan simples.
Consideremos un polinomio p(x) ,= 0 con coecientes en K. Si admite una raz
1
K,
tendremos p(x) = (x
1
)
m
1
q
1
(x), donde el polinomio q
1
(x) tambien tiene coecientes en
K y ya no admite la raz
1
. Ahora, si p(x) admite otra raz
2
K, ha de ser una raz de
q
1
(x), de modo que p(x) = (x
1
)
m
1
(x
2
)
m
2
q
2
(x). Procediendo de este modo obtenemos
una descomposicion
p(x) = (x
1
)
m
1
(x
2
)
m
2
. . . (x
r
)
m
r
q(x) , (5.1)
donde
1
, . . . ,
r
son todas las races de p(x) en K, los exponentes m
1
, . . . , m
r
son sus
respectivas multiplicidades, y el polinomio q(x) carece de races en K. Esta descomposicion
muestra que el n umero de races en K de un polinomio no nulo p(x), cada una contada con
su multiplicidad, esta acotado por el grado del polinomio, y diremos que p(x) tiene todas sus
races en K cuando se de la igualdad; es decir cuando en la descomposicion 5.1 el polinomio
q(x) sea constante.
Teorema de DAlembert: Todo polinomio no constante con coecientes complejos admite
alguna raz compleja.
Demostracion: La demostracion se dara en cursos posteriores.
De acuerdo con este teorema, en el caso de polinomios con coecientes complejos, en la
descomposicion 5.1 el factor q(x) ha de ser constante, as que todo polinomio no nulo con
coecientes complejos ha de tener todas sus races complejas:
El n umero de races complejas, contadas con su multiplicidad, siempre es igual al grado.
5.2 Valores y Vectores Propios
Cuando el espacio vectorial E es de dimension nita n, de acuerdo con 3.2.2, tenemos que
End
K
(E) M
nn
(K) es un espacio vectorial de dimension n
2
. Fijada una base e
1
, . . . , e
n

de E, cada endomorsmo T : E E esta determinado por su matriz A = (a


ij
) en tal base:
T(e
j
) =
n

i=1
a
ij
e
i
.
Si se considera una nueva base en E, y B es la matriz del cambio de base, seg un 3.4 la
matriz

A de T en la nueva base es

A = B
1
AB . (5.2)
5.2. VALORES Y VECTORES PROPIOS 25
Denicion: Dado un endomorsmo T : E E, diremos que un escalar K es un valor
propio de T si existe alg un vector no nulo e E tal que T(e) = e, en cuyo caso diremos
que e es un vector propio de T y pondremos
V

:= Ker (T ) ,
de modo que V

es un subespacio vectorial de E, formado por todos los vectores propios de


T de valor propio y el vector nulo.
Denicion: Sea T un endomorsmo de un espacio vectorial E de dimension nita n. Si A
es la matriz de T en alguna base de E, diremos que el polinomio
c
T
(x) = det(xI A) = x
n

_
n
i=1
a
ii
_
x
n1
. . . + (1)
n
[A[
es el polinomio caracterstico de T, pues no depende de la base elegida, solo de T.
En efecto, si

A es la matriz de T en otra base de E, entonces

A = B
1
AB y
[xI

A[ = [xI B
1
AB[ = [B
1
(xI A)B[ = [B[
1
[xI A[ [B[ = [xI A[ .
Teorema 5.2.1 Sea T un endomorsmo de un K-espacio vectorial de dimension nita.
Los valores propios de T son las races en K de su polinomio caracterstico c
T
(x).
Demostracion: Por denicion, un escalar K es un valor propio de T cuando
0 ,= dim
_
Ker (T )
_
3.2.5
= n rg (AI) ;
es decir, cuando rg (AI) < n, lo cual ocurre precisamente cuando c
T
() = [I A[ = 0.
Corolario 5.2.2 El n umero de valores propios de un endomorsmo de un espacio vectorial
de dimension n siempre es menor o igual que n.
Corolario 5.2.3 Todo endomorsmo de un espacio vectorial complejo de dimension nita
tiene alg un valor propio.
Demostracion: Es consecuencia directa de 5.2.1 y del Teorema de DAlembert.
Lema 5.2.4 Sea T un endomorsmo de un K-espacio vectorial. Si
1
, . . . ,
r
K son
escalares distintos entre s, entonces
Ker (T
1
) . . . (T
r
) = Ker (T
1
) . . . Ker (T
r
) .
Demostracion: Procedemos por induccion sobre r.
Si r = 1, el enunciado arma que Ker (T
1
) = Ker (T
1
), lo que es evidente.
Si r > 1, consideramos el polinomio p(x) = (x
2
) . . . (x
r
).
Como Ker (T
1
) Ker p(T)(T
1
) y Ker p(T) Ker (T
1
)p(T), tenemos que
Ker (T
1
) + Ker p(T) Ker (T
1
)p(T) .
Por otra parte, dividiendo p(x) por x
1
, tendremos p(x) = (x
1
)q(x) + c, para
alguna constante c K no nula, porque
1
no es raz de p(x).
Luego p(T) = (T
1
)q(T) +cId, y para todo vector e Ker (T
1
)p(T) tenemos que
ce = p(T)e q(T)(T
1
)e , (5.3)
26 CAP

ITULO 5. ENDOMORFISMOS
donde p(T)e Ker (T
1
) y q(T)(T
1
)e Ker p(T), porque (T
1
)p(T)e = 0. Se
sigue que Ker (T
1
) +Ker p(T) = Ker (T
1
)p(T), y esta suma es directa. En efecto, si
e Ker (T
1
) Ker p(T), la igualdad 5.3 muestra que ce = 0, y por tanto e = 0. Luego
Ker (T
1
)p(T) = Ker (T
1
) Ker p(T)
y la hipotesis de induccion permite concluir:
Ker (T
1
) . . . (T
r
) = Ker (T
1
) Ker (T
2
) . . . (T
r
) =
hip. ind.
= Ker (T
1
) Ker (T
2
) . . . Ker (T
r
) .
Corolario 5.2.5 Si
1
, . . . ,
r
son valores propios de un endomorsmo T, distintos entre
s, entonces la suma de los subespacios vectoriales V
1
, . . . , V
r
es directa, y por tanto
dim(V
1
. . . V
r
) = dimV
1
+. . . + dimV
r
.
Demostracion: Por denicion V

i
= Ker (T
i
), as que el lema anterior arma que la
suma de los subespacios vectoriales V

1
, . . . , V

r
es directa.
Por ultimo, de acuerdo con 2.3.2 tenemos que dim
_
i
V
i
_
=

i
dimV
i
.
5.3 Diagonalizacion de Endomorsmos
Denicion: Diremos que un endomorsmo T de un K-espacio vectorial E es diagona-
lizable si existe alguna base e
1
, . . . , e
n
de E formada por vectores propios de T; i.e.,
T(e
j
) =
j
e
j
para ciertos escalares
j
K, lo que signica que la matriz de T en tal base
es diagonal (todos sus coecientes son nulos, salvo quizas los de la diagonal):
D =
_
_
_
_

1
0 . . . 0
0
2
. . . 0
. . . . . . . . . . . .
0 0 . . .
n
_
_
_
_
De acuerdo con 5.2, un endomorsmo T de matriz A es diagonalizable si existe alguna
matriz invertible B tal que D = B
1
AB es una matriz diagonal.
En tal caso A = BDB
1
, y es sencillo calcular las potencias de A (y por tanto, la solucion
general X
n
= A
n
X
0
del sistema de ecuaciones en diferencias nitas X
n+1
= AX
n
), porque
A
n
= BD
n
B
1
.
Igualmente, la solucion general del sistema de ecuaciones diferenciales X

= AX es X = B

X,
donde

X es la solucion general del sistema

X

= D

X, que es sencillo de resolver. En efecto:
X

= B

X

= BD

X = BDB
1
X = AX .
Teorema 5.3.1 Sean
1
, . . . ,
r
K los valores propios de un endomorsmo T de un K-
espacio vectorial E de dimension nita. La condici on necesaria y suciente para que T sea
diagonalizable es que
dimE =
r

i=1
dimV

i
.
Demostracion: Si T es diagonalizable, por denicion V

1
. . . V

r
contiene una base de
E; luego E = V

1
. . . V

r
y concluimos que
dimE = dim(V

1
. . . V

r
) = dimV

1
+. . . + dimV

r
.
Recprocamente, si dimE =

r
i=1
dimV
i
5.2.5
= dim(
i
V
i
), entonces E = V
1
. . .V
r
.
Si tomamos una base B
i
de cada subespacio vectorial V
i
(que estara formada por vectores
propios de T de valor propio
i
), de acuerdo con 2.3.2, B = B
1
. . . B
r
es una base de
V

1
. . . V

r
= E, que esta formada por vectores propios de T; luego T es diagonalizable.
5.3. DIAGONALIZACI

ON DE ENDOMORFISMOS 27
Corolario 5.3.2 Sea A la matriz de un endomorsmo de un espacio vectorial de dimension
n y sean
1
, . . . ,
r
sus valores propios. Tal endomorsmo es diagonalizable si y solo si
n =
r

i=1
_
n rg (
i
I A)
_
.
Demostracion: dimV

i
= dim
_
Ker (T
i
)
_
3.2.5
= n rg (
i
I A) .
Corolario 5.3.3 Sea T un endomorsmo de un K-espacio vectorial de dimension n. Si T
tiene n valores propios distintos (i. e., si su polinomio caracterstico tiene todas sus races
en K y son simples), entonces T es diagonalizable, y dimV

= 1 para todo valor propio


de T.
Demostracion: Si
1
, . . . ,
r
son los valores propios de un endomorsmo T, siempre se tiene
que
r dimV

1
+. . . + dimV

r
5.2.5
= dim(V

1
. . . V

r
) n ;
as que, cuando r = n, es claro que n =

i
dimV
i
; luego T es diagonalizable de acuerdo
con 5.3.1, y dimV
i
= 1 para todo ndice i = 1, . . . , n. q.e.d.
Polinomio Anulador
Si T es un endomorsmo de un espacio vectorial E de dimension nita, sus potencias T
i

iN
no pueden ser linealmente independientes porque el espacio vectorial End
K
(E) es de dimen-
si on nita, as que existen polinomios no nulos

i
a
i
x
i
con coecientes en K que anulan al
endomorsmo:

i
a
i
T
i
= 0, y tiene sentido la siguiente denicion:
Denicion: El polinomio anulador de un endomorsmo T de un K-espacio vectorial E
de dimension nita es el polinomio monico (x) = x
d
+. . . con coecientes en K de menor
grado que lo anula: (T) = 0.
Este polinomio (x) es unico, porque la diferencia con otro polinomio monico de igual
grado que anule a T es un polinomio de menor grado que tambien anula a T; luego es nula.
Ademas, el polinomio anulador de T divide a cualquier otro polinomio con coecientes en
K que anule a T.
En efecto, si p(x) es un polinomio con coecientes en K y p(T) = 0, dividiendo p(x)
por (x) tendremos que p(x) = (x)q(x) + r(x), donde gr r(x) < gr (x). Luego r(T) =
p(T) (T)q(T) = 0. Si r(x) ,= 0, dividiendo por su primer coeciente tendramos que T
estara anulado por un polinomio monico de grado menor que (x). Luego r(x) = 0 y p(x)
es m ultiplo de (x).
Teorema 5.3.4 Los valores propios de un endomorsmo T de un K-espacio vectorial de
dimension nita E son las races en K de su polinomio anulador (x).
Demostracion: Si K es un valor propio de T, entonces existe alg un vector no nulo e E
tal que T(e) = e. Como (T) = 0, se sigue que 0 = (T)e = ()e; luego () = 0 porque
e ,= 0, y es una raz de (x) en K.
Recprocamente, si K es una raz de (x), entonces (x) = (x )p(x) para alg un
polinomio p(x) con coecientes en K. Como p(x) es monico y gr p(x) < gr (x), tenemos
que p(T) ,= 0, y por tanto p(T)v ,= 0 para alg un vector v E. Sea e := p(T)v. Como
(T )e = (T )p(T)v = (T)v = 0 ,
y e = p(T)v ,= 0 , concluimos que es un valor propio de T.
28 CAP

ITULO 5. ENDOMORFISMOS
Teorema 5.3.5 La condicion necesaria y suciente para que un endomorsmo T de un
K-espacio vectorial E de dimension nita sea diagonalizable es que su polinomio anulador
(x) tenga todas sus races en K y sean simples.
Demostracion: Sean
1
, . . . ,
r
K los valores propios de T. Si T es diagonalizable, entonces
el endomorsmo (T
1
) . . . (T
r
), que se anula en todos los vectores propios de T, se anula
en una base de E. Luego es nulo, y (x) ha de dividir al polinomio (x
1
) . . . (x
r
). Como

1
, . . . ,
r
son races de (x) de acuerdo con 5.3.4, concluimos que (x) = (x
1
) . . . (x
r
),
as que (x) tiene todas sus races en K y son simples.
Recprocamente, si el anulador (x) tiene todas sus races en K y son simples, entonces
(x) = (x
1
) . . . (x
r
) seg un 5.3.4. Luego 0 = (T) = (T
1
) . . . (T
r
) y por tanto
E = Ker (T
1
) . . . (T
r
)
5.2.4
= Ker (T
1
) . . . Ker (T
r
) = V
1
. . . V
r
.
Se sigue que dimE = dim(V
1
. . . V
r
)
5.2.5
=

i
dimV
i
, y concluimos que T es
diagonalizable en virtud de 5.3.1.
Teorema de Hamilton-Cayley: El polinomio caracterstico c
T
(x) de cualquier endomor-
smo T : E E es m ultiplo del polinomio anulador: c
T
(T) = 0 .
Demostracion: Si A es la matriz de T en alguna base de E, el teorema arma que c
T
(A) = 0,
donde c
T
(x) = [xI A[; luego basta probarlo en el caso K = C.
En el caso complejo procedemos por induccion sobre n := dimE. Si n = 1, entonces
T = Id para alg un escalar K. Luego c
T
(x) = x y c
T
(T) = T Id = 0.
Si n > 1, de acuerdo con 5.2.3, el endomorsmo T tiene alg un valor propio C.
Consideremos un vector propio e E de valor propio , y el espacio vectorial cociente

E = E/Ce, pues T induce un endomorsmo



T :

E

E,

T( e) = [T(e)].
Si e = e
1
, e
2
, . . . , e
n
es una base de E y T(e
j
) =

i
a
ij
e
i
, entonces

T( e
j
) =

i
a
ij
e
i
,
de modo que la matriz de

T en la base e
2
, . . . , e
n
de

E se obtiene eliminando la primera
la y la primera columna de la matriz (a
ij
). Como la primera columna de la matriz (a
ij
)
tiene todos los coecientes nulos, excepto a
11
= , tenemos que
c
T
(x) = (x )c
T
(x) .
Por hipotesis de induccion c
T
(

T) = 0, lo que signica que c


T
(T)v Ce para todo v E.
Por tanto (T )c
T
(T)v = 0, y concluimos que c
T
(T) = (T )c
T
(T) = 0.