Está en la página 1de 153

Algebra Lineal

(APUNTE EN
CONSTRUCCI

ON)
por Jes us Juyumaya
Agosto, 2006

Indice general
Introduccion 5
Captulo 1. PRELIMINARES 7
1.1. Grupos 7
1.2. Anillos y Cuerpos 11
1.3. Ejercicios 13
Captulo 2. MATRICES 17
2.1. Estructura algebraica de las Matrices 17
2.2. Determinante y Adjunta 21
2.3. Sistemas de Ecuaciones y Forma Normal de Hermite 28
2.4. Nociones Complementarias 40
2.5. Ejercicios 41
Captulo 3. ESPACIOS VECTORIALES 47
3.1. Espacios y subespacios vectoriales 47
3.2. Combinacion lineal y espacio generado 51
3.3. Dependencia e Independencia lineal 54
3.4. Base y dimension 56
3.5. Coordenadas y matriz cambio de base 61
3.6. Suma de subespacios y espacios vectoriales 64
3.7. Espacio cociente 69
3.8. Ejercicios 71
Captulo 4. TRANSFORMACIONES LINEALES 77
4.1. Transformaciones lineales 77
4.2. El espacio Hom(V, W) 85
4.3. El espacio dual 92
3
4

INDICE GENERAL
4.4. Ejercicios 95
Captulo 5. DIAGONALIZACI

ON Y FORMA DE JORDAN 103


5.1. Diagonalizacion 103
5.2. Forma de Jordan 126
5.3. Ejercicios 138
Apendice A: Lema de Zorn 143
Apendice B: Polinomios 145

Indice alfabetico 151


Bibliografa 153
Introduccion
Los temas tratados en el presente apunte corresponden al curso de
Algebra Lineal I, de la Carrera de Matematicas de la Universidad de
Valparaso.
La Carrera de Matematicas tiene cuatro semestres de formacion
basica, una vez terminada esta primera etapa, el alumno puede optar
al Plan de Pedagoga o de Licenciatura en Matematicas. El curso de

Algebra Lineal I esta en el tercer semestre. As, las materias tratadas


en este apunte, intentan cubrir por una parte los requerimientos que
debe tanto un Pedagogo, como un Licenciado en Matematicas en un
primer curso de

Algebra Lineal.
A lo largo del apunte utilizaremos, como es usual, las notaciones
N, Z, Q, R y C
para los n umeros naturales (incluyendo el 0), enteros, reales y complejos
respectivamente.
La escritura a := b quiere decir que el termino a es denido como
la expresion b. Analogamente con la escritura b =: a.
Cualquier tipo de observacion del presente apunte, por fa-
vor enviarlas a: juyumaya@uv.cl
5
CAPTULO 1
PRELIMINARES
1.1. Grupos
Denicion 1.1. Un grupo es un conjunto no vaco G, provisto de
una funcion de G G en G, (a, b) ab, tal que para todo a, b y c
en G se cumplen los siguientes axiomas:
1. a(bc) = (ab)c (asociatividad).
2. Existe un elemento e G que satisface ea = ae = a.
3. Todo elemento a G tiene asociado un elemento a
1
G tal
que aa
1
= a
1
a = e.
La funcion que dene el grupo es llamada operacion binaria, ley de
composicion interna, o simplemente, producto.
El elemento e del axioma 2 es unico, y se llama el neutro del grupo.
El elemento a
1
en el axioma 3 esta unicamente determinado por a.
El grupo es conmutativo (abeliano) si ademas satisface la propiedad
de conmutatividad, es decir: ab = ba, para todo a, b G.
Denicion 1.2. El orden de un elemento g en G es el menor na-
tural n tal que g
n
= e. El orden del grupo es la cantidad de elementos
del grupo.
Ejemplo 1.1. Los conjuntos Z, R, Q y C con la suma usual de
n umeros, son grupos conmutativos. Con la multiplicacion usual los con-
juntos R

, Q

y C

, son tambien grupos conmutativos.


7
8 1. PRELIMINARES
Ejemplo 1.2. El conjunto Z
n
= {0, 1, 2, . . . , n1} es un grupo con
la suma de enteros modulo n. Tabla de operaciones de Z
4
:
0 1 2 3
0 0 1 2 3
1 1 2 3 0
2 2 3 0 1
3 3 0 1 2
Ejemplo 1.3. Z

n
:= Z
n
{0} es un grupo con la multiplicacion
de enteros modulo n si, y solo si, n es un n umero primo. Tabla de
operaciones de Z

5
:
1 2 3 4
1 1 2 3 4
2 2 4 1 3
3 3 1 4 2
4 4 3 2 1
Ejemplo 1.4. Sea S
n
el conjunto formado por las funciones biyec-
tivas del conjunto {1, 2, . . . , n}. El conjunto S
n
con la operacion com-
puesta de funciones es un grupo. Este grupo no es conmutativo para
n 3.
Ejemplo 1.5. Sean G un grupo y X un conjunto no vaco. Sea
F(X, G) el conjunto de todas las funciones de X en G. En F(X, G)
denimos el producto , de las funciones y , como
: X G
x ( )(x) := (x)(x).
F(X, G) con la operacion tiene estructura de grupo.
Ejemplo 1.6. A partir de un grupo G se puede denir el grupo
G G, donde la operacion es denida por coordenadas a partir de la
operacion de G, esto es,
(a, b)(c, d) := (ac, bd).
1.1. GRUPOS 9
Mas generalmente, sean G
1
, . . . , G
n
grupos arbitrarios, uno puede
denir como antes el grupo producto G
1
G
2
G
n
con operacion
dada por:
(a
1
, . . . , a
n
)(b
1
, . . . , b
n
) := (a
1
b
1
, . . . , a
n
b
n
).
Proposicion 1.3. Para todo a, b G se tiene:
1. (a
1
)
1
= a.
2. (ab)
1
= b
1
a
1
.
Denicion 1.4. Un subconjunto no vaco H de un grupo G se dice
que es un subgrupo de G, si se cumple:
1. Para todo x, y H se tiene que xy H.
2. Si x H, entonces x
1
H.
Notese que todo grupo G tiene como subgrupos a G y {e}.
Ejemplo 1.7. Las siguientes inclusiones de conjuntos son inclusio-
nes de subgrupos.
Z Q R C,
{1, 1} Q

.
Ejemplo 1.8. El subconjunto del grupo G = F(X, G) constituido
de las funciones constantes es un subgrupo de G.
Ejemplo 1.9. El subconjunto H del grupo S
n
formado por las
funciones que jan a n, es un subgrupo de S
n
.
Proposicion 1.5. Sea H un conjunto no vaco de un grupo G,
entonces H es un subgrupo de G si, y solo si, xy
1
H, para todo
x, y H.
A partir de un subgrupo H de un grupo G se dene una relacion

H
sobre G por:
x
H
y si, y solo si, xy
1
H.
Esta relacion recien denida es una relacion de equivalencia, esto
es, para todo x, y y z en G se cumple:
10 1. PRELIMINARES
1. Reeja: x
H
x.
2. Simetrica: Si x
H
y, entonces y
H
x.
3. Transitiva: Si x
H
y y y
H
z, entonces x
H
z.
Denotemos por cl(g) la clase de equivalencia del elemento g, y por
H\G el conjunto de las clases de equivalencia seg un
H
. Notese que:
cl(g) = {x G; x
H
g}
= {x G; xg
1
H}
= Hg.
Luego,
H\G = {Hg ; g G} .
Analogamente, uno puede denir la relacion (de equivalencia)
H
por:
x
H
y si y solo si x
1
y H.
Es facil ver que la clase de equivalencia de g es el conjunto gH. De-
notaremos por G/H el conjunto de clases de equivalencia seg un
H
.
Luego,
G/H = {gH; g G} .
El producto de G induce un producto en G/H (respectivamente en
H\G) mediante:
(1.1) (xH)(yH) = xyH (respectivamente (Hx)(Hy) = Hxy).
El siguiente teorema nos dice cuando el producto de (1.1) dene
una estructura de grupo en el conjunto cociente G/H.
Teorema 1.6. El conjunto G/H con el producto denido en (1.1)
tiene una estructura de grupo (grupo cociente) si, y solo si, gH = Hg,
para todo g G. Notese que el elemento neutro del grupo G/H es H y
el inverso de gH es g
1
H.
Corolario 1.7. Para todo subgrupo H de un grupo conmutativo G,
el conjunto G/H tiene estructura de grupo.
1.2. ANILLOS Y CUERPOS 11
Ejemplo 1.10. Sea nZ el subgrupo de Z constituido por los enteros
m ultiplos de n. Tenemos que el grupo cociente Z/nZ esta constituido
por los elementos:
nZ, 1 +nZ, 2 +nZ, . . . , (n 1) +nZ.
Ejemplo 1.11. R/Z = {cl(x) ; 0 x < 1}.
Ejemplo 1.12. Tomemos el subgrupo H de S
n
denido en el Ejem-
plo 1.9 y denotemos (i, j) la funcion de S
n
que enva k en k, para todo
k = i, j y i j, j i. Tenemos,
S
n
/H = {H, (1, n)H, (2, n)H, . . . , (n 1, n)H}.
En general, S
n
/H no es un grupo.
1.2. Anillos y Cuerpos
Denicion 1.8. Un anillo (con unidad) es un conjunto no vaco
A provisto de dos operaciones, + (suma) y (producto), tales que:
1. A con la operacion + es un grupo conmutativo.
2. A con la operacion es un monoide, es decir:
a) Para todo a, b y c se tiene (a b) c = a (b c).
b) En A existe un elemento unidad 1, tal que 1a = a1 = a,
para todo a A.
3. Para todo a, b y c se tiene las distributividades:
a (b +c) = a b + a c, (b + c) a = b a + c a.
El anillo se dice conmutativo si la operacion es conmutativa.
Ejemplo 1.13. Los conjuntos de n umeros Z, Q, R y C con las
operaciones usuales de suma y producto son anillos conmutativos.
Ejemplo 1.14. Z
n
es un anillo conmutativo con la suma y producto
modulo n.
12 1. PRELIMINARES
Ejemplo 1.15. (Polinomios sobre un anillo conmutativo) Sea A
un anillo conmutativo. Denotaremos por A[x] al conjunto de las expre-
siones (polinomios) de la forma:
a
0
+a
1
x + + a
n
x
n
,
donde a
i
A, y n N.
Dos polinomios en A[x] son iguales si, y solo si, sus respectivos
coecientes lo son. En A[x] introducimos la suma y producto como
sigue. Sean
p(x) = a
0
+ a
1
x + a
2
x
2
+a
3
x
3
+
y
q(x) = b
0
+ b
1
x +b
2
x
2
+b
3
x
3
+
denimos:
p(x) + q(x) := (a
0
+b
0
) + (a
1
+b
1
)x + (a
2
+b
2
)x
2
+
y
p(x)q(x) := c
0
+ c
1
x +c
2
x
2
+ c
3
x
3
+ ,
donde c
i
=

r+s=i
a
r
b
s
.
Con estas operaciones A[x] tiene una estructura de anillo conmu-
tativo con unidad. Ver Apendice B para detalles.
Ejemplo 1.16. Sea A un anillo, y X un conjunto no vaco. El
conjunto F(X, A) hereda la estructura de anilllo de A:
[ +](a) := (a) +(a), [ ](a) := (a) (a),
donde , F(X, A), y a A.
Ejemplo 1.17. Sea A un grupo conmutativo, con operacion deno-
tada por +. El conjunto End(A) formado por todas las funciones de A
en A tiene una estructura de anillo con las siguientes operaciones:
[+](a) := (a) + (a), [ ](a) := [ ](a),
donde , End(A), y a A.
1.3. EJERCICIOS 13
Proposicion 1.9. El elemento unidad 1 A es unico. Ademas
para todo a, b A tenemos:
1. a 0 = 0.
2. (1) a = a.
3. (a) = a.
4. (a) (b) = a b.
Denicion 1.10. La caracterstica del anillo A, denotada car(A),
es el menor entero positivo n tal que n 1 = 0. Si tal entero no existe
se dice que la caracterstica del anillo es 0.
Ejemplo 1.18. car(Z) = 0 y car(Z
n
) = n.
Denicion 1.11. Un anillo K se dice que es un cuerpo si 0 = 1
y el conjunto K

, de los elementos diferentes de 0, forman un grupo


conmutativo respecto al producto.
Ejemplo 1.19. Los anillos Q, R y C son cuerpos.
Ejemplo 1.20. El anillo Z
n
es un cuerpo si, y solo si, n = p es un
n umero primo. En este caso denotamos el cuerpo nito con p elementos
por F
p
.
Observacion 1.12. La caracterstica de un cuerpo es 0, o bien un
n umero primo. Notese que:
car(Q) = car(R) = car(C) = 0 y car(F
p
) = p.
1.3. Ejercicios
Ejercicio 1.1. Demuestre que en un grupo G el neutro es unico, y
que el inverso de un elemento g G esta unicamente determinado por
g.
Ejercicio 1.2. Hacer la tabla de operaciones del grupo S
3
Z
3
.
Ejercicio 1.3. Demuestre la Proposicion 1.3.
14 1. PRELIMINARES
Ejercicio 1.4. Demuestre que el conjunto nZ de los m ultiplos de
n es un subgrupo de Z.
Ejercicio 1.5. Demuestre que si H es un subgrupo de G, entonces
el neutro de G pertenece a H.
Ejercicio 1.6. Demuestre la Proposicion 1.5.
Ejercicio 1.7. Sean a, a
1
, , a
n
n umeros reales. Encuentre las
condiciones necesarias y sucientes sobre a, para que Hsea un subgrupo
de R
n
, donde:
H =

(x
1
, . . . , x
n
) R
n
;
n

i=1
a
i
x
i
= a

.
Ejercicio 1.8. Sea X un conjunto nito. Demuestre que el subcon-
junto de F(X, R) constituido por las funciones de suma nula constitu-
yen un subgrupo del grupo F(X, R). Una funcion f se dice de suma
nula si

xX
f(x) = 0.
Ejercicio 1.9. Explicite la tabla de operacion de los elementos del
grupo cociente Z
8
/H, donde
H = {0, 4}.
Ejercicio 1.10. Describir un sistema de representantes de: R/Z,
Q/Z y R/Q.
Ejercicio 1.11. Determine un sistema de representantes del grupo
cociente G/H, donde G = Q

y H es el subgrupo {1, 1}.


Ejercicio 1.12. Determine un sistema de representantes del grupo
cociente G/H, donde G es el grupo (R
2
, +) y
H = {(x, y) R
2
; y = x}.
Ejercicio 1.13. Describir el conjunto G\H en el Ejemplo 1.9.
1.3. EJERCICIOS 15
Ejercicio 1.14. Demuestre la Proposicion 1.9.
Ejercicio 1.15. Un elemento a en un anillo A se dice invertible
si existe un elemento b A, tal que ab = ba = 1. Demuestre que b
esta unicamente determinado por a. As, uno denota a
1
al elemento
b.
Sea U(A) el conjunto constituido por los elementos invertibles de
A. Demuestre que U(A) es un grupo con la operacion producto.
Ejercicio 1.16. Determine U(A), para A = Z, Z
n
y A = K un
cuerpo cualquiera.
Ejercicio 1.17. Determine U(A[x]).
Ejercicio 1.18. Denotemos por A
n
[x] el subconjunto de A[x] cons-
tituido por el polinomio nulo y los polinomios de grado a lo m as n. Es
decir,
A
n
[x] = {a
0
+ a
1
x + + a
n
x
n
; a
0
, a
1
. . . , a
n
A}.
Demuestre que con la suma inducida de A[x] el conjunto A
n
[x] es un
grupo conmutativo.
Ejercicio 1.19. Demuestre que el conjunto de los polinomios con
termino constante nulo son un subgrupo de A
n
[x].
Ejercicio 1.20. Demuestre que si a, b son elementos en un cuerpo
K tales que ab = 0, entonces se debe tener a = 0 o b = 0.
Ejercicio 1.21. Explicite las tablas de suma y producto del cuerpo
F
5
.
CAPTULO 2
MATRICES
2.1. Estructura algebraica de las Matrices
En todo el presente captulo, A denota un anillo conmutativo.
Denicion 2.1. Una matriz de tama no nm con entradas en A,
es un arreglo rectangular M de n las y m columnas de elementos de
A,
M =
_
_
_
_
_
_
a
11
a
12
a
1n
a
21
a
22
a
2n
.
.
.
.
.
.
.
.
.
.
.
.
a
n1
a
n2
a
nm
_
_
_
_
_
_
, (a
ij
A).
En el caso n = m diremos que la matriz es cuadrada de tama no n.
Para simplicar denotaremos por (a
ij
) la matriz M. As, el elemento
a
ij
esta en la posicion (i, j), es decir, en la iesima la y j-esima columna
del arreglo M.
Dos matrices (a
ij
) y (b
ij
) son iguales si, y solo si, para todo i, j se
tiene a
ij
= b
ij
.
Denotaremos por M
nm
(A) al conjunto formado por todas las ma-
trices de n m con entradas en A, y por M
m
(A) al conjunto de las
matrices cuadradas de tama no n.
Denicion 2.2. Sean M = (a
ij
) y N = (b
ij
) dos matrices en
M
nm
(A), denimos la suma M + N de las matrices M y N como la
matriz que tiene en la posicion (i, j) el elemento a
ij
+b
ij
. As,
M+ N = (a
ij
+ b
ij
) .
La suma de matrices es claramente asociativa.
17
18 2. MATRICES
La matriz nula es aquella que tiene todas sus entradas igual a 0 A.
Denotaremos otra vez por 0 a la matriz nula. Notese que para toda
matriz M = (a
ij
), se tiene:
1. M +0 = 0 +M = M.
2. M M = M+ M = 0,
donde M denota la matriz (a
ij
); y como es usual, MN denota la
suma M + (N).
Proposicion 2.3. El conjunto M
nm
(A) con la suma de matrices
es un grupo conmutativo.
Denicion 2.4. Sean M = (a
ij
) M
nk
(A) y N = (b
ij
)
M
km
(A). El producto MN de las matrices M con N, en ese orden,
es la matriz P = (c
ij
) M
nm
(A), cuyas entradas son:
c
ij
:=
k

r=1
a
ir
b
rj
.
Notese que el producto MN esta denido solamente cuando el
n umero de columnas de M es igual al n umero de las de N. Luego,
dos matrices de M
nm
(A) se pueden multiplicar si, y solo si, n = m.
Proposicion 2.5. El producto de matrices en M
n
(A) es asociativo.
Demostraci on. Sean M = (a
ij
), N = (b
ij
), R = (c
ij
) M
n
(A).
El elemento en la (i, j)posicion del producto M(NS) es
n

r=1
a
ir
_
n

s=1
b
rs
c
sj
_
=
n

r=1
n

s=1
a
ir
(b
rs
c
sj
)
=
n

r=1
n

s=1
(a
ir
b
rs
) c
sj
=
n

r=1
_
n

s=1
a
ir
b
rs
_
c
sj
De donde se sigue que M(NS) = (MN) S.
2.1. ESTRUCTURA ALGEBRAICA DE LAS MATRICES 19
El neutro multiplicativo de M
n
(A) es la matriz I
n
(matriz identi-
dad),
I
n
:=
_
_
_
_
_
_
1 0 0
0 1 0
.
.
.
.
.
.
.
.
.
.
.
.
0 0 1
_
_
_
_
_
_
.
Ademas, tenemos distributividad del producto de matrices respecto a
la suma de matrices, es decir, para todo M, R y S M
n
(A) tenemos:
M(R +S) = MR + MS, (R +S)M = RM+ MS.
Resumiendo tenemos el siguiente teorema.
Teorema 2.6. M
n
(A) es un anillo. Ademas, es un anillo conmu-
tativo si, y solo si n = 1.
Ahora, dado un elemento a A, y una matriz M = (a
ij
)
M
nm
(A), denimos el producto aM como la matriz aM := (aa
ij
)
M
nm
(A). Dado que A es un anillo conmutativo, la denicion del pro-
ducto Ma corresponde a aM.
Proposicion 2.7. Para todo M, N M
nm
(A) y a, b A, se
tiene:
1. (a + b)M = aM+bM.
2. a(M+ N) = aM+aN.
3. a(MN) = (aM)N = M(aN).
De acuerdo al Ejercicio 1.15, el conjunto de elementos invertibles
de M
n
(A) constituyen un grupo. Este grupo se denota por GL
n
(A), y
se llama Grupo General Lineal sobre A. Es decir,
GL
n
(A) := {P M
n
(A) ; P es invertible} .
Interesante es poder caracterizar los elementos de GL
n
(A), o mas
a un, dada una matriz invertible P, poder calcular P
1
. Para esto es
necesario introducir el concepto de determinante de una matriz. Con
este objetivo, estudiemos brevemente el grupo GL
2
(A).
20 2. MATRICES
Sea M =
_
a b
c d
_
GL
2
(A). Pongamos M
1
=
_
x y
z w
_
,
luego la relacion M
1
M = I
2
implica el siguiente sistema de ecuaciones:
ax + bz = 1
cx +dz = 0
ay +bw = 0
cy +dw = 1
De las ecuaciones primera y segunda obtenemos (ad bc)x = d, y de
las ecuaciones tercera y cuarta (adbc)y = b. Luego, si adbc es
un elemento invertible de A, obtenemos:
x = (ad bc)
1
d y y = (ad bc)
1
b.
Luego,
w = (ad bc)
1
a y z = (ad bc)
1
c.
Por lo tanto, el elemento M GL
2
(A) queda caracterizado por el
elemento ad bc A, este elemento se llama el determinante de la
matriz M, y lo denotaremos por det(M),
(2.1) det(M) := ad bc.
Resumiendo tenemos:
Proposicion 2.8. El grupo GL
2
(A) puede ser descrito como,
GL
2
(A) = {M M
2
(A) ; det(M) es invertible en A} .
Ademas, para M =
_
a b
c d
_
GL
2
(A), tenemos
(2.2) M
1
= det(M)
1
_
d b
c a
_
.
Ejemplo 2.1. Los elementos invertibles en el anillo Z son 1 y 1.
Luego
GL
2
(Z) =
_
a b
c d
_
M
2
(Z) ; ad bc es igual a 1 o 1

.
2.2. DETERMINANTE Y ADJUNTA 21
Ejemplo 2.2. En R todo elemento diferente de 0 es invertible,
luego
GL
2
(R) =
_
a b
c d
_
M
2
(R) ; ad bc = 0

.
En orden a generalizar la Proposicion 2.8 y la formula (2.2), in-
troduciremos en la siguiente seccion los conceptos de determinante y
adjunta de una matriz.
2.2. Determinante y Adjunta
Para M = (a
ij
) M
n
(A), denotaremos por M
ij
la matriz en
M
n1
(A) que se obtiene al omitir la i-esima la y j-esima columna
de la matriz M.
Denicion 2.9. El determinante det(M) de una matriz de tama no
n se dene del siguiente modo: Para M = (a) de tama no 1, ponemos
det(M) := a. Para M = (a
ij
) de tama no mayor que 1 denimos,
inductivamente, el determinante de M por:
det(M) :=
n

j=1
a
1j
(1)
1+j
det(M
1,j
).
Ejemplo 2.3. Sea M =
_
a b
c d
_
.
Tenemos M
11
= (d) y M
12
= (c). Luego
det(M) = adet(M
11
) bdet(M
12
) = ad bc.
Cf. 2.1.
Ejemplo 2.4. Sea M = (a
ij
) tal que a
ij
= 0, si i < j (una tal
matriz se llama triangular inferior, ver Seccion 4). Tenemos
det(M) = a
11
a
22
a
nn
.
El siguiente teorema dice que el desarrollo del determinante puede
ser realizado desde cualquier la o columna.
22 2. MATRICES
Teorema 2.10. Para toda matriz M = (a
ij
) y todo i, j tenemos
det(M) =
n

r=1
a
ir
(1)
i+r
det(M
i,r
) =
n

s=1
a
sj
(1)
j+s
det(M
s,j
).
Demostraci on. PENDIENTE
Proposicion 2.11. Si la matriz M

es obtenida a partir de mul-


tiplicar una la (o columna) de la matriz M por a A, entonces
det(M

) = adet(M).
Demostraci on. Sea M

la matriz obtenida a partir de multiplicar,


por a A, la i-esima la de la matriz M = (a
ij
). Entonces, desarro-
llando el determinante a partir de la i-esima la de M

, se obtiene:
det(M

) =
n

r=1
aa
ir
(1)
i+r
det(M

i,r
)
= a
n

r=1
a
ir
(1)
i+r
det(M

i,r
)
= adet(M).
La ultima igualdad resulta del hecho que M

i,r
= M
i,r
.
Proposicion 2.12. Si la matriz M

es obtenida a partir de permu-


tar un par de las (o columnas) de la matriz M, entonces det(M

) =
det(M).
Demostraci on. La demostracion resulta por induccion sobre el
tama no de la matriz. Sea M M
2
(A) y M

es la matriz que resulta


de permutar la la 1 con la la 2, entonces es claro que det(M

) =
det(M). Sea M = (a
ij
) una matriz de tama no n, con n > 2 y sea M

la matriz que resulta de permutar las las i con j en M. Desarrollemos


el determinante de M

por una la k, con k = i, j. Luego,


det(M

) =
n

r=1
a
kr
(1)
k+r
det(M

k,r
).
2.2. DETERMINANTE Y ADJUNTA 23
Notese ahora que M

k,r
es la matriz de tama no n 1 que se obtiene
permutando las las i con j en la matriz M
k,r
. Luego, de la hipotesis
de induccion det(M

k,r
) = det(M
k,r
). Por lo tanto
det(M

) =
n

r=1
a
kr
(1)
k+r
det(M
k,r
) = det(M).

Proposicion 2.13. Si la matriz M tiene dos las (o columnas)


proporcionales, entonces det(M) = 0.
Demostraci on. Usamos otra vez induccion sobre el tama no de la
matriz. Si M M
2
(A) tiene dos las proporcionales, entonces un calcu-
lo directo muestra que det(M) = 0. Sea n > 2 y M = (a
ij
) M
m
(A)
cuya la i es proporcional con la la j. Desarrollando el determi-
nante de M por la la k, con k = i, j, tenemos que en la suma

n
r=1
a
kr
(1)
k+r
det(M
k,r
) las matrices M
k,r
son de tama no n 1 y
tienen la la i proporcional con la la j. Luego, usando la hipotesis
de induccion, se sigue que det(M
k,r
) = 0, para todo r. Por lo tanto
det(M) = 0.
Proposicion 2.14. Si M

es una matriz obtenida de sumar los


elementos de una la (o columna) con los respectivos elementos de una
la (o columna) de M ponderados por un elemento de A, entonces
det(M

) = det(M).
Demostraci on. Sea M

la matriz que se obtiene de sumar a las


entradas de la la i, las respectivas entradas de la la j de M = (a
ij
)
24 2. MATRICES
ponderadas por a A. Desarrollando det(M

) por la i-esima la, te-


nemos:
det(M

) =
n

r=1
(a
ir
+ aa
jr
)(1)
i+r
det(M

i,r
)
=
n

r=1
(a
ir
+ aa
jr
)(1)
i+r
det(M
i,r
), (M

i,r
= M
i,r
)
=
n

r=1
a
ir
(1)
i+r
det(M
i,r
) +
n

r=1
aa
jr
(1)
i+r
det(M
i,r
).
La primera sumatoria, corresponde al determinante de M, y la se-
gunda corresponde al determinante de una matriz que tiene la la i
proporcional con la la j. Luego, de la proposicion anterior se sigue
que det(M

) = det(M).
Ejemplo 2.5. Calculemos el determinante de la siguiente matriz
M,
M =
_
_
_
_
_
_
2 0 1 4
1 1 2 2
1 1 2 1
1 1 2 0
_
_
_
_
_
_
Desarrollando det(M) por la primera la, tenemos:
det(M) = 2 det
_
_
_
1 2 2
1 2 1
1 2 0
_
_
_
+ det
_
_
_
1 1 2
1 1 1
1 1 0
_
_
_
4 det
_
_
_
1 1 2
1 1 2
1 1 2
_
_
_
Usando la Proposicion 2.13, se sigue que:
det(M) = 2 0 + det
_
_
_
1 1 2
1 1 1
1 1 0
_
_
_
4 0 = det
_
_
_
1 1 2
1 1 1
1 1 0
_
_
_
2.2. DETERMINANTE Y ADJUNTA 25
Ahora, usando la Proposicion 2.14, se tiene:
det(M) = det
_
_
_
1 1 2
1 1 1
1 1 0
_
_
_
= det
_
_
_
1 0 2
1 0 1
1 2 0
_
_
_
.
Luego, desarrollando este ultimo determinate por la segunda columna,
obtenemos:
det(M) = 2
_
1 2
1 1
_
= 2(1 2) = 2.
Teorema 2.15. Para todo M, N M
m
(A), se tiene:
det(MN) = det(M)det(N).
Demostraci on. PENDIENTE
Corolario 2.16. Si M GL
n
(A), entonces det(M) es un elemen-
to invertible de A. Ademas, det(M
1
) = (det(M))
1
.
Demostraci on. Sea M una matriz invertible, entonces existe la
matriz inversa M
1
de M; ademas MM
1
= I
n
, Luego, usando el
teorema anterior, se obtiene:
1 = det(I
n
) = det(MM
1
) = det(M)det(M
1
).
As, det(M) es invertible en A y det(M
1
) = (det(M))
1

Notemos ahora que en cada uno de los n terminos del desarrollo


del determinante aparece solamente una vez el factor a
ij
. Es decir:
det(M)) = a
ij
_
(1)
i+j
det(M
ij
)

+ (factores que no contienen a


ij
).
Denicion 2.17. El elemento M
ij
:= (1)
i+j
det(M
ij
) de A se
llama el cofactor de a
ij
.
Ahora, podemos escribir el determinante de M en termino de los
cofactores como:
det(M) =
n

s=1
a
sj
M
sj
=
n

r=1
a
ir
M
ir
.
26 2. MATRICES
En orden a denir la adjunta de una matriz usaremos el concepto
de traspuesta de una matriz.
Denicion 2.18. La traspuesta M
t
de una matriz M = (a
ij
)
M
nm
(A) es la matriz de M
mn
(A), que posee en la posicion (i, j), el
elemento a
ji
.
Es facil ver que:
1. (M+ N)
t
= M
t
+ N
t
.
2. (aM)
t
= aM
t
, para todo a A.
Proposicion 2.19. Para todo M y N tales que el producto MN
esta denido, se tiene
(MN)
t
= N
t
M
t
.
En particular se deduce que (M
1
)
t
= (M
t
)
1
, para toda matriz inver-
tible M.
Demostraci on. PENDIENTE
Teorema 2.20. Para toda matriz M de tama no n, se tiene:
det(M) = det(M
t
).
Denicion 2.21. La adjunta adj(M) de la matriz M es la matriz
traspuesta de la matriz
_
M
ij
_
. Es decir,
adj (M) :=
_
M
ij
_
t
.
Usando los lemas ?? y ?? (PENDIENTES) se obtiene el siguiente
teorema.
Teorema 2.22. Para toda matriz M M
m
(A), se tiene
M adj(M) = adj(M) M = det(M)I
n
.
Corolario 2.23. Si det(M) es un elemento invertible en A, enton-
ces M es invertible. Ademas,
M
1
= det(M)
1
adj(M).
2.2. DETERMINANTE Y ADJUNTA 27
Demostraci on. Multiplicando por det(M)
1
la segunda igualdad
del teorema anterior, obtenemos:
det(M)
1
adj(M) M = det(M)
1
det(M)I
n
.
Luego det(M)
1
adj(M) M = I
n
. Por lo tanto M es invertible y su
inversa esta dada por la expresion del corolario.
Ejemplo 2.6. Calculemos la inversa de la siguiente matriz M de
M
3
(Q),
M =
_
_
_
1 1 1
2 1 0
0 1 2
_
_
_
.
Tenemos que det(M) = 8, y
adj(M) =
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
det
_
1 0
1 2
_
det
_
2 0
0 2
_
det
_
2 1
0 1
_
det
_
1 1
1 2
_
det
_
1 1
0 2
_
det
_
1 1
0 1
_
det
_
1 1
1 0
_
det
_
1 1
0 2
_
det
_
1 1
2 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
_
t
=
_
_
_
2 3 1
4 2 2
2 1 3
_
_
_
.
Luego,
M
1
= det(M)
1
adj(M) =
_
_
_
1/4 3/8 1/8
1/2 1/4 1/4
1/4 1/8 3/8
_
_
_
.
Los Corolarios 2.23 y 2.16 demuestran el siguiente teorema.
Teorema 2.24. Para todo n 1, se tiene
GL
n
(A) = {M M
n
(A) ; det(M) es invertible en A} .
28 2. MATRICES
Ejemplo 2.7. Las matrices invertibles de M
2
(Z) son aquellas de
determinate igual a 1 o 1. As por ejemplo, la matriz M =
_
1 0
0 3
_
no es invertible en M
2
(Z); sin embargo, M es una matriz invertible en
M
2
(Q).
2.3. Sistemas de Ecuaciones y Forma Normal de Hermite
Todo sistema de ecuaciones lineales puede ser escrito mediante ma-
trices. De modo preciso, si M = (a
ij
) M
nm
(K), X = (x
i
)
M
m1
(K) y B = (b
i
) M
n1
(K), la ecuacion matricial MX = B
corresponde al sistema con m incognitas x
1
, . . . , x
m
y las siguientes n
ecuaciones:
a
11
x
1
+ +a
1m
x
m
= b
1
a
21
x
1
+ +a
2m
x
m
= b
2
.
.
.
.
.
.
.
.
.
a
n1
x
1
+ +a
nm
x
m
= b
n
En consecuencia, nos referiremos a la ecuacion matricial MX = B,
como un sistema de ecuaciones lineales. Cuando B = 0, diremos que
el sistema de ecuaciones es homogeneo. Notese que todo sistema de
ecuaciones homogeneo tiene al menos como solucion X = 0.
Proposicion 2.25. Si X
0
es una solucion del sistema MX = B,
entonces toda solucion del sistema MX = B es de la forma X
0
+ Y,
donde Y es una solucion del sistema homogeneo MX = 0.
Demostraci on. Sea X
0
una solucion del sistema MX = B. Si Y
es una solucion del sistema homogeneo MX = 0, entonces M(X+Y) =
MX + MY = B + 0 = B, es decir, X
0
+ Y es una solucion del sistema
MX = B. Sea Z cualquier solucion del sistema MX = B. Escribamos
Z = X
0
+(ZX
0
), dado que ZX
0
es solucion del sistema homogeneo
MX = 0, la demostracion de la proposicion concluye.
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 29
En el caso que la matriz M es invertible podemos despejar X de
MX = B, luego X = M
1
B. En otros terminos:
X = det(M)
1
adj(M)B,
de donde obtenemos:
x
i
= det(M)
1
_
b
1
M
1i
+b
2
M
2i
+ b
n
M
ni
_
.
Esta ultima expresion puede ser reescrita como:
x
i
= det(M)
1
det(
i
),
donde
i
es la matriz obtenida de reemplazar la iesima columna de la
matriz M por la columna de la matriz B. Es decir, en el caso que la ma-
triz M es invertible, las incognitas x
i
pueden ser determinadas usando
el determinante de la matriz M y el determinante de las matrices
i
.
Este metodo de resolucion del sistema MX = B, se llama metodo de
Cramer.
Ejemplo 2.8. Resolvamos, por el metodo de Cramer, el siguiente
sistema de ecuaciones lineales:
x
1
+ x
2
+ x
3
= 1
x
2
+ x
3
= 0
x
1
+ 2x
2
x
3
= 1
El sistema corresponde a la ecuacion matricial MX = B, con:
M =
_
_
_
1 1 1
0 1 1
1 2 1
_
_
_
, X =
_
_
_
x
1
x
2
x
3
_
_
_
y B =
_
_
_
1
0
1
_
_
_
.
Tenemos:
det(M) = 3,
1
=
_
_
_
1 1 1
0 1 1
1 2 1
_
_
_
,

2
=
_
_
_
1 1 1
0 0 1
1 1 1
_
_
_
y
3
=
_
_
_
1 1 1
0 1 0
1 2 1
_
_
_
.
30 2. MATRICES
Luego como det(
1
) = 3 y det(
2
) = det(
3
) = 0, obtenemos:
x
1
= det(M)
1
det(
1
) = 1,
x
2
= det(M)
1
det(
2
) = 0,
x
3
= det(M)
1
det(
3
) = 0.
Estamos intresados ahora en resolver el sistema MX = B, donde la
matriz M no es invertible, o mas a un, es una matriz que no es cuadrada.
En orden a estudiar la resolubilidad de este sistema de ecuaciones,
notese primero que:
(2.3) MX = B es equivalente al sistema PMX = PB,
para toda matriz invertible P. Luego, multiplicando por matrices P
convenientes (matrices elementales) el sistema MX = B, este sistema
se reduce equivalentemente al estudio del sistema M

X = B

, donde
ahora la matriz de coecientes M

es cercana a la matriz identidad.


Esto es, M

tiene la forma normal de Hermite:


(2.4)
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 1 0 0
0 0 0 0 0 1 0
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 1


0 0 0 0 0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
Denicion 2.26. La matriz elemental la F
i
(b) es la matriz que
resulta de multiplicar la iesima la de la matriz identidad I
n
por un
elemento invertible b A.
La matriz elemental la F
ij
es la matriz que resulta de intercambiar
la iesima la con la j-esima la en la matriz I
n
.
La matriz elemental la F
ij
(a) es la matriz que resulta de multi-
plicar los elementos de la la j de I
n
por a A y sumarlos con los
correspondientes elementos de la la i de I
n
.
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 31
Tenemos los conceptos analogos de matrices elementales columnas:
C
i
(a), C
ij
y C
ij
(a). Es claro que C
i
(b) = F
i
(b), C
ij
= F
ij
y C
ij
(a) =
F
ji
(a).
Ejemplo 2.9.
F
13
= C
13
=
_
_
_
0 0 1
0 1 0
1 0 0
_
_
_
, F
2
(1) = C
2
(1) =
_
_
_
1 0 0
0 1 0
0 0 1
_
_
_
,
F
13
(2) =
_
_
_
1 0 2
0 1 0
0 0 1
_
_
_
, C
13
(2) =
_
_
_
1 0 0
0 0 0
2 0 1
_
_
_
.
Las matrices elementales son invertibles, y sus inversas son tambien
matrices elementales.
Proposicion 2.27. Para todo a, b A con b invertible, se tiene:
1. F
1
ij
= F
ij
.
2. F
i
(b)
1
= F
i
(b
1
).
3. F
ij
(a)
1
= F
ij
(a).
Demostraci on. Queda de ejercicio.
El efecto de multiplicar una matriz M por la izquierda, por una
matriz elemental la, se llama operacion la sobre la matriz M. Mas
precisamente, los tres tipos de operaciones las se comportan del si-
guiente modo:
1. La matriz F
ij
M es la matriz que resulta de intercambiar las
las i y j en la matriz M.
2. La matriz F
i
(b)M es la matriz que resulta de multiplicar la
la i de la matriz M por b.
3. La matriz F
ij
(a)M es la matriz que resulta de sumar a los
elementos de la la i, los elementos de la la j multiplicados
por a.
32 2. MATRICES
Analogamente, el efecto de multiplicar una matriz Mpor la derecha,
por una matriz elemental columna, se llama operacion columna sobre
la matriz M.
La notacion M
E
N signica que la matriz N fue obtenida desde
la matriz M, despues de haber realizado la operacion elemental (la o
columna) correspondiente a la matriz elemental E.
Ejemplo 2.10.
M =
_
_
_
1 1 1
2 2 3
1 2 1
_
_
_
F
21
(1)

_
_
_
1 1 2
3 3 4
1 2 1
_
_
_
C
23

_
_
_
1 2 1
3 4 3
1 1 2
_
_
_
.
Teorema 2.28. Sea K es un cuerpo. Tenemos que M GL
n
(K)
si, y solo si M es un producto de matrices elementales la (o columna).
Demostraci on. Si M es un producto de matrices elementales,
entonces M es invertible dado que las matrices elementales son inverti-
bles. Recprocamente, si M = (a
ij
) es invertible, se debe tener que una
entrada de la primera columna de M es invertible. Luego, podemos
intercambiar las las de modo que en la posicion (1, 1) aparezca un
elemento invertible b. Enseguida podemos multiplicar la primera la
por b
1
, y dejamos as en la posicion (1, 1) el elemento 1. Sobre esta
matriz realizamos las operaciones las determinadas por las matrices
elementales F
i1
(a
i1
), para todo i 2. Obtenemos luego una matriz
invertible cuya primera columna es la primera columna de la matriz
identidad. En la segunda columna de esta matriz (invertible) se tiene
que alguna entrada en la posicion (i, 2) con i 2 es diferente de 0.
Repitiendo el proceso anterior, vemos que podemos obtener, median-
te operaciones elementales las, una matriz invertible cuya segunda
columna es la segunda columna de la matriz identidad. Procediendo
sucesivamente de este modo, obtemos despues de una sucesi on nita
de operaciones elementales las la matriz identidad I
n
:
M
E
1
E
1
M
E
2

Em
I
n
.
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 33
Es decir,
(2.5) E
m
E
m1
E
1
M = I
n
.
Luego M = E
1
1
E
1
2
E
1
m
. Es decir, M es un producto de matrices
elementales.
Notese que la demostracion del teorema anterior provee un meto-
do para calcular la inversa de una matriz. En efecto, conservando las
notaciones del teorema la relacion (2.5) nos dice:
M
1
= E
m
E
m1
E
1
.
Ejemplo 2.11. Sea M GL
n
(Q) la matriz del Ejemplo 2.10,
tenemos:
M
F
21
(2)

_
_
_
1 1 1
0 0 1
1 2 1
_
_
_
F
31
(1)

_
_
_
1 1 1
0 0 1
0 1 0
_
_
_
F
23

_
_
_
1 1 1
0 1 0
0 0 1
_
_
_
F
12
(1)

_
_
_
1 0 1
0 1 0
0 0 1
_
_
_
F
13
(1)

_
_
_
1 0 0
0 1 0
0 0 1
_
_
_
.
Por lo tanto:
M
1
= F
13
(1)F
12
(1)F
23
F
31
(1)F
21
(2) =
_
_
_
4 1 1
1 0 1
2 1 0
_
_
_
.
A veces, por razones practicas, es conveniente ir realizando inme-
diatamente el producto de las matrices elementales de (2.5). Para esto
procedemos como sigue: primero formamos la matriz (M|I
n
) y realiza-
mos operaciones las sobre esta matriz, de modo de alcanzar la matriz
identidad en el primer bloque. Luego, la matriz obtenida en el segundo
bloque es justamente la inversa de M. As, para la matriz del ejemplo
34 2. MATRICES
anterior tenemos:
(M|I
3
)
F
21
(2)

_
_
_
1 1 1
0 0 1
1 2 1

1 0 0
2 1 0
0 0 1
_
_
_
F
31
(1)

_
_
_
1 1 1
0 0 1
0 1 0

1 0 0
2 1 0
1 0 1
_
_
_
F
23

_
_
_
1 1 1
0 1 0
0 0 1

1 0 0
1 0 1
2 1 0
_
_
_
F
12
(1)

_
_
_
1 0 1
0 1 0
0 0 1

2 0 1
1 0 1
2 1 0
_
_
_
F
13
(1)

_
_
_
1 0 0
0 1 0
0 0 1

4 1 1
1 0 1
2 1 0
_
_
_
Por lo tanto:
M
1
=
_
_
_
4 1 1
1 0 1
2 1 0
_
_
_
.
La siguiente denicion formaliza la nocion anunciada en (2.4), de
forma normal de Hermite de una matriz.
Denicion 2.29. Sean M M
nm
(K) y r un entero tal que 0
r n. Diremos que M tiene la rforma normal de Hermite (o tiene la
forma escalonada reducida por la) si se cumple:
1. Existe un elemento no nulo en cada una de las primeras r las
de M. Los elementos en las las restantes son todos 0.
2. El primer elemento no nulo que aparece en la la i (i r) y
columna c
i
es igual a 1. Ademas, debe tenerse c
1
< < c
r
.
3. Las columnas c
i
son columnas de la matriz identidad I
m
.
Teorema 2.30. Para toda matriz M M
nm
(K), existe una ma-
triz invertible P de tama no n, tal que PM tiene la rforma normal de
Hermite. Ademas, la forma de Hermite esta unicamente determinada
por la matriz M, es decir, si existe otra matriz invertible P

tal que
tambien P

M tiene la forma normal de Hermite, entonces PM = P

M.
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 35
Demostraci on. Si la matriz M es nula, ella tiene la 0forma nor-
mal de Hermite. Supongamos que M no es nula, y que la primera
columna no nula de M es la jesima columna. Sea (i, j) la posicion de
la pimera entrada de M que no es nula. Entonces, procediendo como
en la demostracion del Teorema 2.28 sobre la posicion (i, j), podemos
obtener una matriz EM que tiene como jesima columna la primera
columna de la matriz identidad I
n
(en efecto, E es el producto de las
matrices elementales usadas para obtener EM). Procedemos de este
modo con la siguiente columna no nula de EM, y as sucesivamente,
hasta obtener una matriz PM que tiene la forma normal de Hermi-
te.
La unicidad de la forma normal de Hermite permite denir el con-
cepto de rango de una matriz.
Denicion 2.31. Sea M una matriz tal que PM tiene la r-forma
de Hermite. El n umero r se llama el rango de M, y sera denotado por
rg(M).
Ejemplo 2.12. Para M :=
_
_
_
0 1 1 1
0 2 0 0
0 0 3 3
_
_
_
determinemos
su forma de normal de Hermite, y la matriz P anunciada en el teorema
anterior. Tenemos:
_
_
_
0 1 1 1
0 2 0 0
0 0 3 3

1 0 0
0 1 0
0 0 1
_
_
_
F
2
(1/2)

_
_
_
0 1 1 1
0 1 0 0
0 0 3 3

1 0 0
0 1/2 0
0 0 1
_
_
_
F
12

_
_
_
0 1 0 0
0 1 1 1
0 0 3 3

0 1/2 0
1 0 0
0 0 1
_
_
_
F
21
(1)

36 2. MATRICES
_
_
_
0 1 0 0
0 0 1 1
0 0 3 3

0 1/2 0
1 1/2 0
0 0 1
_
_
_
F
32
(3)

_
_
_
0 1 0 0
0 0 1 1
0 0 0 0

0 1/2 0
1 1/2 0
3 3/2 1
_
_
_
F
2
(1)

_
_
_
0 1 0 0
0 0 1 1
0 0 0 0

0 1/2 0
1 1/2 0
3 3/2 1
_
_
_
.
Tenemos entonces que P =
_
_
_
0 1/2 0
1 1/2 0
3 3/2 1
_
_
_
, y
(2.6) PM =
_
_
_
0 1 0 0
0 0 1 1
0 0 0 0
_
_
_
.
Notese que rg(M) = 2.
Corolario 2.32. Para toda matriz M M
nm
(K) de rango r, exis-
ten matrices invertibles P y Q de tama no es n y m, respectivamente,
tales que PMQ tiene la forma:
_
I
r
0
0 0
_
.
Demostraci on. Queda de ejercicio.
Ejemplo 2.13. Ejempliquemos el Corolario 2.32 para la matriz
M del ejemplo anterior. De acuerdo a (2.6) solo resta determinar la
matriz Q. Tenemos:
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 1 0 0
0 0 1 1
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
C
43
(1)

_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 0
1 0 0 0
0 1 0 0
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
C
12

_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 0 1 0
0 0 0 0
0 1 0 0
1 0 0 0
0 0 1 1
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 37
C
23

_
_
_
_
_
_
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 0 0
0 0 1 0
1 0 0 0
0 1 0 1
0 0 0 1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Luego tomando Q =
_
_
_
_
_
_
0 0 1 0
1 0 0 0
0 1 0 1
0 0 0 1
_
_
_
_
_
_
, tenemos:
PMQ =
_
I
2
0
0 0
_
.
Volvamos a la resolucion del sistema MX = B. Usando el Teorema
2.30 existe una matriz invertible P tal que M

:= PM tiene la for-
ma normal de Hermite. De acuerdo a lo se nalado en (2.3) el sistema
MX = B es equivalente al sistema M

X = PB. Ahora, el estudio de este


ultimo sistema es sencillo, y toda la informacion de resoluvilidad viene
dada por los rangos de las matrices M

y (M

|PB). Mas precisamente,


tenemos el siguiente teorema.
Teorema 2.33. Sean M una matriz de n m, y B una matriz
de tama no m 1. Para el sistema de ecuaciones lineales MX = B
tenemos:
1. El sistema no tiene solucion si, y solo si, rg(M|B) > rg(M).
2. El sistema tiene solucion unica si, y solo si, rg(M|B) = rg(M) =
m.
3. El sistema tiene innitas soluciones si, y solo si, rg(M|B) =
rg(M) < m. En este caso el sistema tiene mrg(M) variables
independientes.
38 2. MATRICES
Ejemplo 2.14. Analicemos el sistema MX = B, donde:
M =
_
_
_
_
_
_
1 1 0
2 3
1 1
1 1 0
_
_
_
_
_
_
, B =
_
_
_
_
_
_
0

(1 )
_
_
_
_
_
_
.
Formemos la matriz ampliada (M|B), y luego llevemosla a la forma
normal de Hermite. Tenemos:
(M|B)
F
31
(1)

_
_
_
_
_
_
1 1 0
2 3
0 0
1 1 0

(1 )
_
_
_
_
_
_
F
41
(1)

_
_
_
_
_
_
1 1 0
2 3
0 0
0 0 0

(1 )
_
_
_
_
_
_
F
21
(2)

_
_
_
_
_
_
1 1 0
0 1
0 0
0 0 0

(1 )
_
_
_
_
_
_
F
12
(1)

_
_
_
_
_
_
1 0
0 1
0 0
0 0 0

(1 )
_
_
_
_
_
_
F
13
(1)

_
_
_
_
_
_
1 0 0
0 1
0 0
0 0 0

(1 )
_
_
_
_
_
_
F
23
(1)

_
_
_
_
_
_
1 0 0
0 1 0
0 0
0 0 0

0
0

(1 )
_
_
_
_
_
_
:= (M

|B

).
Luego, la forma normal de Hermite de la matriz M es la matriz M

.
Por lo tanto, el rango de M depende del valor que tome . Tenemos
dos casos: (i) Si = 0, entonces rg(M) = 2, (ii) Si = 0, entonces
rg(M) = 3. Mas precisamente,
2.3. SISTEMAS DE ECUACIONES Y FORMA NORMAL DE HERMITE 39
(i) En el caso que = 0, es decir rg(M) = 2, tenemos:
(M

|B

) =
_
_
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0

0
0

0
_
_
_
_
_
_
.
En el caso de = 0 tenemos rg(M|B) = 3. Por lo tanto, de acuerdo
al teorema, se sigue que el sistema MX = B no tiene solucion.
En el caso = 0 se tiene rg(M|B) = rg(M) = 2 < 3. Por lo
tanto, el sistema tiene innitas soluciones. Ahora, el sistema MX = B
es equivalente al sistema:
_
_
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
_
_
_
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
_
_
_
0
0
0
0
_
_
_
_
_
_
.
Luego, las soluciones del sistema son los elementos del siguiente con-
junto.
{(x, y, z) ; x = 0, y = 0, z R}.
(ii) Supongamos que = 0. Luego rg(M) = 3. Tenemos,
(M|B)
F
3
(
1
)

_
_
_
_
_
_
1 0 0
0 1 0
0 0 1
0 0 0

0
0

1
(1 )
_
_
_
_
_
_
.
En el caso = 1 tenemos rg(M|B) = 4 > rg(M) = 3. Luego, en
este caso, el sistema no tiene solucion.
En el caso = 1, tenemos:
(M|B)
F
3
(
1
)

_
_
_
_
_
_
1 0 0
0 1 0
0 0 1
0 0 0

0
0

1
0
_
_
_
_
_
_
.
40 2. MATRICES
De donde rg(M|B) = rg(M) = 3; luego, el sistema tiene solucion unica:
(0, 0,
1
).
2.4. Nociones Complementarias
Los conceptos de traza de una matriz y similaridad de matrices,
tomaran importancia en los captulos posteriores.
Denicion 2.34. Denimos la traza, tr(M), de la matriz M =
(a
ij
) M
n
(A), como
tr(M) := a
11
+a
22
+ +a
nn
A.
Denicion 2.35. Sean M y N M
n
(A), se dice que M es similar
con N si existe una matriz invertible P M
n
(A) tal que
N = P
1
MP.
Proposicion 2.36. Para matrices M, N M
n
(K) y A, se
tiene:
1. tr(M+ N) = tr(M) + tr(N)
2. tr(M) = tr(M)
3. tr(MN) = tr(NM).
Demostraci on. La demostracion de las primeras dos armaciones
quedan de ejercicio.
Para demostrar la tercera armacion, pongamos M = (a
ij
) y N =
(b
ij
), entonces:
tr(MN) =
n

i=1
_
n

j=1
a
ij
b
ji
_
=
n

j=1
_
n

i=1
b
ji
a
ij
_
= tr(NM).

Proposicion 2.37. Si M y N son matrices similares, entonces:


1. tr(N) = tr(M)
2. det(N) = det(M).
2.5. EJERCICIOS 41
Demostraci on. Como M y N son matrices similares, existe una
matriz invertible P tal que N = P
1
MP. Luego, usando la arma-
cion 3 de la Proposicion 2.36, se sigue que tr(N) = tr(P
1
MP) =
tr(PP
1
M) = tr(M).
La demostracion de segunda armacion sigue de modo analogo,
pero considerando ahora el Teorema 2.15.
Para nalizar el captulo, deniremos algunas matrices especiales.
Sea M = (a
ij
) M
n
(A), entonces:
M se dice que es una matriz triangular superior (respectiva-
mente inferior) si
a
ij
= 0, para todo i > j (respectivamente i < j)
M se dice matriz diagonal si a
ij
= 0, si i = j
M se dice matriz simetrica si M = M
t
M se dice matriz antisimetrica si M = M
t
. Notese que si
car(A) = 2, entonces el concepto de matriz antisimetrica coin-
cide con el concepto de matriz simetrica.
M se dice matriz ortogonal si MM
t
= M
t
M = I
n
M se dice matriz idempotente si M
k
= M, para alg un k > 1
M se dice matriz nilpotente si M
k
= 0, para alg un k > 1
M M
n
(C) se dice matriz hermitiana si M = M
t
, donde M
denota la matriz conjugada de M, es decir,
M = (a
ij
),
donde a
ij
denota el conjugado del complejo a
ij
.
2.5. Ejercicios
Ejercicio 2.1. Sea A el anillo Z
4
= {0, 1, 2, 3}, y considere las si-
guientes matrices M y N en M
2
(A):
M =
_
1 1
0 3
_
, y N =
_
1 1
1 2
_
.
42 2. MATRICES
Resuelva, en M
2
(A), la siguiente ecuacion:
M
t
XN+ M = 0.
Ejercicio 2.2. Resuelva, en M
2
(Z), la siguiente ecuacion:
MX +Xdet(M)M+MNX = NMX + I
2
,
donde N = M
t
, y M =
_
0 1
1 0
_
.
Ejercicio 2.3. Sea A un anillo tal que car(A) = 2. Demuestre:
1. La unica matriz que es simetrica y antisimetrica a la vez, es la
matriz nula.
2. Toda matriz se puede escribir como una suma de una matriz
simetrica con una matriz antisimetrica.
Ejercicio 2.4. Escriba la inversa de M como un producto de ma-
trices elementales,
M =
_
_
_
_
_
_
0 1 0 0
1 0 0 0
1 0 1 0
1 0 1 1
_
_
_
_
_
_
.
Ejercicio 2.5. Para M, N matrices cuadradas se dene el conmu-
tador [M, N] de M con N, por:
[M, N] := MN NM.
1. Demuestre que si M es simetrica y N es antisimetrica, entonces
[M, N] es simetrica.
2. Resuelva en M
2
(C) la ecuacion:
[M, N] X + X[M, N]
t
= [M, N],
donde M =
_
0 1
1 0
_
, N =
_
1 1
0 1
_
.
Ejercicio 2.6. Determine todos los elementos de M
2
(F
2
) y GL
2
(F
2
).
2.5. EJERCICIOS 43
Ejercicio 2.7. Demuestre que SL
n
(A) es un subgrupo de GL
n
(A),
SL
n
(A) := {M GL
n
(A) ; det(M) = 1} .
Ejercicio 2.8. Demuestre que la matriz M M
3
(R[x]) es inverti-
ble. Calcular M
1
.
M =
_
_
_
1 x 1
0 x
2
+1 x
2
1 x +1 2
_
_
_
.
Ejercicio 2.9. Demuestre por induccion que det(M) = 2
n1
, donde
M es la siguiente matriz de M
m
(K),
_
_
_
_
_
_
_
_
_
1 1 1 . . . 1 1
1 1 1 . . . 1 1
0 1 1 . . . 1 1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 1
_
_
_
_
_
_
_
_
_
.
Ejercicio 2.10. Calcular el determinante de la siguinete matriz:
M =
_
_
_
_
_
_
_
_
1 a
1
a
2
1
a
n1
1
1 a
2
a
2
2
a
n1
2


1 a
n
a
2
n
a
n1
n
_
_
_
_
_
_
_
_
.
El determinante det(M), se llama determinante de Vandermonde.
Ejercicio 2.11. Demuestre que det(adj(M)) = det(M)
n1
, para
toda matriz M de tama no n.
Ejercicio 2.12. Demuestre que rg(M) = rg(M
t
), para toda matriz
M.
44 2. MATRICES
Ejercicio 2.13. Sea M =
_
_
_
1 1 1 1
0 1 0 1
2 3 2 3
_
_
_
. Hallar matrices in-
vertibles P y Q tales que PMQ tenga la forma:
_
I
r
0
0 0
_
,
donde r = rg(M).
Ejercicio 2.14. Determine matrices invertibles P y Q de modo
que:
P
_
_
_
0 1 0 1
1 1 1 1
1 2 1 3
_
_
_
Q =
_
_
_
1 0 0 0
0 1 0 0
0 0 1 0
_
_
_
.
Ejercicio 2.15. Determine todas las soluciones del sistema MX =
B si se sabe que (1, 0, 1) es una solucion, y
M =
_
_
_
1 0 1
0 1 1
1 1 2
_
_
_
.
Ejercicio 2.16. Hallar las condiciones sobre a, b y c para que el
sistema:
_
_
_
1 a a
2
1 b b
2
1 c c
2
_
_
_
_
_
_
x
y
z
_
_
_
=
_
_
_
1
0
0
_
_
_
,
tenga una unica solucion. Determine en este caso la solucion. Cf. Ejer-
cicio 2.10.
Ejercicio 2.17. Estudie la solubilidad del sistema MX = B, donde
M =
_
_
_
_
_
_
0 0
0 1 0
1 1
1 0 0
_
_
_
_
_
_
, X =
_
_
_
x
y
z
_
_
_
y B =
_
_
_
_
_
_
+
0

0
_
_
_
_
_
_
.
Cuando corresponda determine la(s) solucion (es).
2.5. EJERCICIOS 45
Ejercicio 2.18. Analizar la resolucion del sistema:
x + y +z + ( + )w = 2
y +z + w =
x + z + w = 2
Ejercicio 2.19. Decida si son verdaderas o falsas las siguientes
armaciones:
1. M
2
N
2
= (M N)(M+ N), para todo M, N M
m
(A)
2. Si M y N matrices cuadradas de igual tama no, entonces
(M+ N)
2
= M
2
+2MN+ N
2
.
3. SI M y N son matrices en GL
n
(K), entonces:
det(M+ N) = det(M) + det(N).
4. Si M y N son matrices invertibles de igual tama no, entonces
(MN)
1
= M
1
N
1
.
5. Si M y N son matrices invertibles, entonces M + N es inver-
tible.
6. Si M y N son matrices equivalentes por la, entonces los sis-
temas MX = R, NX = S tienen el mismo conjunto solucion.
7. Si M y N son matrices equivalentes por columna, entonces los
sistemas MX = R, NX = S tienen el mismo conjunto solucion.
CAPTULO 3
ESPACIOS VECTORIALES
En todo lo que sigue K denota un cuerpo. Tpicamente tomaremos
como K el cuerpo de n umero complejos C, el cuerpo de n umeros reales
R, el cuerpo de n umeros racionales Q, o el cuerpo nito con p elementos
F
p
.
3.1. Espacios y subespacios vectoriales
Denicion 3.1. Sea (V, +) un grupo conmutativo y K un cuerpo.
Diremos que V es un Kespacio vectorial si existe una funcion de KV
en V, (, v) v, tal que para todo u, v V y para todo , K se
cumplen los siguientes axiomas:
1. (u + v) = u + v.
2. ( + )u = u +u.
3. ()u = (u).
4. 1v = v.
Los elementos de V son llamados vectores, y los de K escalares.
Ejemplo 3.1. Con las operaciones usuales, K
n
:= K K (n
veces) es un Kespacio vectorial:
(x
1
, . . . , x
n
) + (y
1
, . . . , y
n
) := (x
1
+y
1
, . . . , x
n
+y
n
)
(x
1
, . . . , x
n
) := (x
1
, . . . , x
n
), ( K).
En particular K es un Kespacio vectorial.
Ejemplo 3.2. Sean K y K

dos cuerpos tales que K

este contenido
en K. Con las operaciones usuales, K es un K

espacio vectorial. Sin


embargo, si K

esta contenido propiamente en K, entonces K

no es un
Kespacio vectorial.
47
48 3. ESPACIOS VECTORIALES
Ejemplo 3.3. Con las operaciones usuales el anillo de matrices
M
nm
(K) es un Kespacio vectorial.
(a
ij
) + (b
ij
) := (a
ij
+b
ij
)
(a
ij
) := (a
ij
), ( K).
Ejemplo 3.4. K
n
[x] es un Kespacio vectorial, donde la suma es
la suma usual de polinomios (ver Ejercicio 1.18) y la ponderacion por
escalares esta por:
(a
n
x
n
+ +a
1
x + a
0
) := a
n
x
n
+ +a
1
x + a
0
a,
donde a
i
, K.
Ejemplo 3.5. El grupo conmutativo F(X, K) es un Kespacio vec-
torial. Recordemos que para f, g F(X, K), la funcion f + g esta de-
nida por:
(f +g)(x) := f(x) + g(x),
y para K, la funcion f esta denida por:
(f)(x) := f(x).
En adelante V denota un Kespacio vectorial.
Proposicion 3.2. Para todo v V y K, se tiene:
v = 0 si, y solo si = 0 o v = 0.
Demostraci on. Si = 0, entonces v = 0v = (0+0)v = 0v+0v.
Es decir, 0v = 0v + 0v. Sumando el inverso aditivo del vector 0v, se
concluye que 0v = 0. De igual modo, en el caso v = 0 V, tenemos
v = 0 = (0 + 0), luego se obtiene 0 = 0 + 0. Sumando ahora
el inverso aditivo del escalar 0, se concluye que 0 = 0.
Recprocamente, supongamos que K

; debemos demostrar que


v = 0. En efeceto, tenemos, v = 1v = (
1
)v =
1
(v) =
1
0 = 0.

3.1. ESPACIOS Y SUBESPACIOS VECTORIALES 49


Denicion 3.3. Sea U un subconjunto no vaco de V, diremos que
U es un Ksubespacio (o simplemente subespacio) vectorial de V si se
cumple:
1. u +v U, para todo u, v U.
2. u U, para todo u V y K.
Ejemplo 3.6. Evidentemente V y {0} son subespacios vectoriales
de V.
Ejemplo 3.7. En V = K
2
consideremos la recta L que pasa por el
origen,
L := {(x, y) V ; ax + by = 0} , (a, b K).
La recta L es un Ksubespacio vectorial de V. Notese que el subespacio
L se puede escribir tambien como,
L =

(x, y) V ;
_
a b
_
_
x
y
_
=
_
0
0
_
.
Mas generalmente, sea M una matriz de M
mn
(K). El subconjunto U,
denido a continuacion, es un Kespacio vectorial.
U :=

(x
1
, . . . , x
n
) K
n
; M
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
=
_
_
_
_
0
.
.
.
0
_
_
_
_

.
Es decir, el conjunto solucion de un sistema de ecuaciones lineales
homogeneo es un subespacio vectorial.
Ejemplo 3.8. Sea V = M
n
(K). Tenemos:
1. El subconjunto de V constituido por las matrices simetricas es
un subespacio vectorial.
2. El subconjunto de V constituido por las matrices antisimetri-
cas de V es un subespacio vectorial.
Ejemplo 3.9. Sea V := F(X, K), donde X es un conjunto nito no
vaco. El subconjunto U de V formado por las funciones de suma nula,
50 3. ESPACIOS VECTORIALES
es un subespacio de V.
U =

f V ;

xX
f(x) = 0

.
La siguiente proposicion otorga una condicion necesaria que debe
cumplir un subespacio vectorial. Esta condicion es util para demos-
trar que un subconjunto de un espacio vectorial no es un subespacio
vectorial.
Proposicion 3.4. Si U es un subespacio vectorial, entonces el vec-
tor 0 pertenece a U.
Demostraci on. Como U es un subconjunto no vaco, existe u
U. Luego, tambien 1 u U. Por lo tanto, 1 u + u U, es decir
0 U.
Ejemplo 3.10. Sea U =

(x
1
, . . . , x
n
) K
n
;

n
i=1
x
2
i
= 1

. El sub-
conjunto U no es un subespacio de K
n
, pues (0, . . . , 0) U.
Proposicion 3.5. Sea U un subconjunto no vaco de V. Entonces,
U es un subespacio de V si, y solo si u+w U, para todo u, w U
y K.
Demostraci on. Queda de ejercicio.
Ejemplo 3.11. Sean U y W dos subespacios vectoriales de V. En-
tonces el conjunto U+W es un subespacio vectorial de V, donde
U+ W := {u +w; u U, w W} .
En efecto, sean x = u +w, y = u

+ w

U+W, K. Tenemos:
x + y = (u +w) + (u

+w

) = (u + u

) + (w +w

).
Por lo tanto x +y U+W, para todo x, y U+W, K. Luego,
seg un Proposicion 3.5, U+ W es un subespacio de V.
Proposicion 3.6. Sea {U
i
} una coleccion de subespacios de un es-
pacio vectorial V. Entonces la interseccion

U
i
es un subespacio de
V.
3.2. COMBINACI

ON LINEAL Y ESPACIO GENERADO 51


Demostraci on. Como cada U
i
es un subespacio, entonces el vec-
tor 0 pertenece a todos los U
i
. Luego,

U
i
es no vaco. Sean K,
y u, w

U
i
. Tenemos que u, w U
i
, para todo i; luego, como U
i
es un subespacio se sigue de la Proposicion 3.5 que u+w U
i
, para
todo i. Por lo tanto u + w

U
i
. As,

U
i
es un subespacio de
V.
0

U
1
U
2
U
1
U
2
Contrariamente a la interseccion, la union de subespacios no es (en
general) un subespacio. As, uno se interesa en estudiar el siguiente
problema: dada una familia de subespacios {U
i
}, determinar (denir,
caracterizar) el menor Ksubespacio vect(

U
i
) que contiene a la union

U
i
.
{0}

U
i
U
i

_
U
i
vect(U
i
) V.
Mas generalmente, dado un subconjunto S de V, deniremos el mas
peque no subespacio de V que contiene al subconjunto S. Para esto,
necesitamos introducir los conceptos de combinacion lineal y de espacio
generado.
3.2. Combinacion lineal y espacio generado
Denicion 3.7. Sean v, v
1
, . . . , v
m
vectores de un Kespacio vec-
torial V. Diremos que v es una Kcombinacion lineal de los vectores
v
1
, . . . , v
n
si existen escalares
1
, . . . ,
m
en K, tales que:
v = v
1
+ +
m
v
m
.
52 3. ESPACIOS VECTORIALES
Si es claro el cuerpo de escalares K considerado, diremos simple-
mente combinacion lineal, en vez de Kcombinacion lineal.
Ejemplo 3.12. Tomemos V = K
3
, y sea v = (1, 2, 3), entonces v
es combinacion lineal de e
1
= (1, 0, 0), e
2
= (0, 1, 0) y e
3
= (0, 0, 1):
v = 1e
1
+ 2e
2
+3e
3
.
Sea S un subconjunto, no vaco, de V. Denimos vect(S) como el
subconjunto de V formado por todas las combinaciones lineales de ele-
mentos de S. Es decir,
(3.1) vect(S) :=

i=1

i
s
i
; s
i
S,
i
K, n N

.
En el caso que S es el conjunto vaco, se dene vect(S) como {0}.
Proposicion 3.8. vect(S) es un subespacio vectorial de V.
Demostraci on. Si S es vaco, la armacion es obvia. Supongamos
que S es distinto del conjunto vaco. Sean u, w vect(S), K. Ahora
escribamos u =

m
i=1

i
s
i
, y w =

m
i=1

i
s
i
. Luego,
u +w =
m

i=1

i
s
i
+
m

i=1

i
s
i
=
m

i=1
(
i
+
i
)s
i
.
Por lo tanto u + w vect(S). De la Proposicion 3.5 se sigue que
vect(S) es un subespacio de V.
Denicion 3.9. El subespacio vectorial vect(S) de V se llama el
espacio vectorial generado por S. Si W es un subespacio de V tal que
vect(S) = W, diremos que S genera a W.
Veremos, en la siguiente proposicion, que el subespacio vect(S) es
el mas peque no subespacio vectorial de V que contiene a S.
Proposicion 3.10. Si S es la interseccion de todos los subespacios
de V que contienen a S, entonces S = vect(S). En particular, vect(S)
es el menor subespacio vectorial de V que contiene a S.
3.2. COMBINACI

ON LINEAL Y ESPACIO GENERADO 53


Demostraci on. Como vect(S) es uno de los subespacios de V
que contiene a S, se sigue que vect(S) contiene a S. Recprocamente,
si v vect(S), entonces v se escribe:
v =
n

i=1

i
s
i
(
i
K),
donde s
i
S. Luego, v es una combinacion lineal de vectores en cual-
quier subespacio U que contiene a S, es decir v U. Luego, v S.
Por ultimo veamos que vect(S) es el menor subespacio de V que
contiene a S. Si W es un subespacio de V tal que S W vect(S),
entonces, S = vect(S) W. Es decir, W = vect(S).
Ejemplo 3.13. Sea S = {v} V, entonces vect(S) = {v ; K}.

v
vect({v})
Ejemplo 3.14. El subespacio de las matrices simetricas en M
2
(K)
esta generado por las matrices:
_
1 0
0 0
_
,
_
0 0
0 1
_
,
_
0 1
1 0
_
.
En efecto, toda matriz M simetrica de tama no 2 se escribe,
M =
_
a b
b d
_
= a
_
1 0
0 0
_
+b
_
0 1
1 0
_
+ d
_
0 0
0 1
_
.
Proposicion 3.11. U+W = vect(U W).
Demostraci on. Como U+W es un subespacio de V que contiene
a U y W, sigue de la proposicion anterior que vect(U W) U +
W. Ahora, por denicion de espacio generado se sigue que U + W
vect(U W).
54 3. ESPACIOS VECTORIALES
3.3. Dependencia e Independencia lineal
Denicion 3.12. Un subconjunto S de V se dice Klinealmente
dependiente si existen vectores v
1
, . . . , v
m
en S y escalares
1
, . . . ,
m
en K, no todos nulos, tales que:

1
v
1
+ +
m
v
m
= 0.
Un conjunto que no es Klinealmente dependiente, se dice Kli-
nealmente independiente. Es decir, S es Klinealmente independiente
si para todo subconjunto {v
1
, v
2
, . . . , v
m
} de S se tiene:
Si
1
v
1
+ +
m
v
m
= 0 y
i
K, entonces
1
=
2
=
m
= 0.
Cuando es evidente el cuerpo de escalares que se esta conside-
rando, diremos simplemente, linealmente dependiente, en vez de, K
linealmente dependiente. Idem con linealmente independiente.
Observacion 3.13. En el caso que S = {v
1
, . . . , v
m
} es nito, la
denicion de independencia lineal se traduce como sigue: S es lineal-
mente independiente si la combinacion lineal
1
v
1
+ +
m
v
m
= 0
ocurre solo cuando
1
=
2
=
m
= 0.
Notese que si el vector nulo pertenece a S, entonces S es linealmente
dependiente, pues podemos tomar la combinacion lineal: 0 = 1 0.
En el caso que S conste de un solo vector v diferente de cero, en-
tonces S es linealmente independiente, pues 0 = v, implica = 0.
Ver Proposicion 3.2.
Ejemplo 3.15. Analicemos la dependencia lineal del subconjunto
S = {(1, 1, 1), (1, 1, , a), (1, a, a)} del R-espacio vectorial R
3
. Estudie-
mos la ecuacion:
(1, 1, 1) + (1, 1, , a) + (1, a, a) = (0, 0, 0) (, , R).
3.3. DEPENDENCIA E INDEPENDENCIA LINEAL 55
En orden a determinar los valores de , y . Formamos el sistema de
ecuaciones homogeno:
+ + = 0
+ + a = 0
+ a +a = 0
Este sistema tendra solucion = = = 0 si, y solo si = 0, donde:
:= det
_
_
_
1 1 1
1 1 a
1 a a
_
_
_
= det
_
_
_
1 0 1
1 0 a
1 a 1 a
_
_
_
= (a 1)
2
.
Por lo tanto, S es linealmente independiente si, y solo si a = 1.
Ejemplo 3.16. El subconjunto {sen x, cos x} del Respacio vecto-
rial F(R, R), es linealmente independiente. En efecto, una combinacion
lineal de las funciones seno y coseno, (sen x) + (cos x) = 0, impli-
ca las ecuaciones: (sen 0) + (cos 0) = 0 y (sen

2
) + (cos

2
) = 0.
Luego, = = 0.
Ejemplo 3.17. Sea S =

(
n
,
n+1
) ; n N

. En V = R
2
, mirado
como Respacio vectorial, el conjunto S es linealmente dependiente. En
efecto, tenemos:
(,
2
) + (1)(
2
,
3
) = (0, 0).
Esta ultima ecuacion no es valida en V, mirado como Qespacio vec-
torial, pues Q. Veamos que S es Qlinealmente independiente:
Cualquier subconjunto nito S

de S es de la forma:
S

=
_

n
1
,
n
1
+1
_
,
_

n
2
,
n
2
+1
_
, . . . ,
_

nr
,
nr+1
_
,
donde n
1
< n
2
< < n
r
. Ahora, la combinacion lineal:

1
_

n
1
,
n
1
+1
_
+
2
_

n
2
,
n
2
+1
_
+ +
r
_

nr
,
nr+1
_
= (0, 0) ,
donde
i
Q, implica la ecuacion:

1
+
2

(n
2
n
1
)
+ +
r

(nrn
1
)
= 0 (
i
Q).
De donde se deduce que
i
= 0, para todo i.
56 3. ESPACIOS VECTORIALES
Proposicion 3.14. S es linealmente dependiente si, y solo si, existe
un vector v S que es combinacion lineal de elementos de S \ {v}.
Demostraci on. Si S es linealmente dependiente, entonces tene-
mos una combinacion lineal de elementos de S igual a 0:

1
v
1
+ +
m
v
m
= 0 (v
i
S),
donde los escalares
i
no son todos 0. Sin perdida de generalidad po-
demos suponer que
1
= 0. Ahora, despejando v
1
, tenemos:
v
1
=
1
1

2
v
2

1
1

3
v
3

1
1

m
v
m
.
Es decir, existe un vector v := v
1
S que es combinacion lineal de
elementos de S \ {v}.
El recproco es inmediato.
Ejemplo 3.18. Sea S := {(0, 0, 1), (1, 1, 2), (1, 1, 3), (1, 2, 3)}. El
subconjunto S del Kespacio vectorial K
3
, es linealmente dependien-
te. En efecto, tenemos:
(0, 0, 1) = 1(1, 1, 2) + 1(1, 1, 3) +0(1, 2, 3).
La Proposicion 3.14 puede tambien ser enunciada como la que sigue.
Proposicion 3.15. S es linealmente independiente si, y solo si,
para todo elemento v S, se tiene que v vect(S \ {v}).
3.4. Base y dimension
Denicion 3.16. Un subconjunto ordenado B de V se dice una
base de V si B es un conjunto linealmente independiente, y ademas B
genera a V.
En los ejemplos que daremos a continuacion mostramos, respecti-
vamente, la base canonica de los espacios Kvectoriales: K
n
, M
nm
(K),
K
n
[x] y F(X, K).
3.4. BASE Y DIMENSI

ON 57
Ejemplo 3.19. La base canonica del Kespacio vectorial K
n
es:
{e
1
, . . . , e
n
},
donde e
i
es el vector que tiene a 1 en la posicion i, y el resto de las
coordenadas son 0.
Ejemplo 3.20. La base canonica de M
nm
(K) es:
{E
ij
; 1 i n, 1 j m} ,
donde E
ij
es la matriz que tiene en la posicion (i, j) a 1, y en el resto
de las posiciones a 0.
Ejemplo 3.21. La base canonica de K
n
[x] es:
{1, x, x
2
, . . . , x
n
}.
Ejemplo 3.22. La base canonica de F(X, K) es {
x
; x X}, donde

x
esta denida por:

x
(y) =

1, si y = x
0, si y = x.
Ejemplo 3.23. Sea W el subespacio formado por las matrices
simetricas de M
2
(R). La dimension de W es 3. En efecto, una base
para W es el conjunto B = {v
1
, v
2
, v
3
}, donde:
v
1
=
_
1 0
0 0
_
, v
2
=
_
0 0
0 1
_
, v
3
=
_
0 1
1 0
_
El Ejercicio 3.14, muestra que vect(B) = W, y es facil ver que B lineal-
mente independiente.
El siguiente teorema asegura la existencia de bases.
Teorema 3.17. Sea V un Kespacio vectorial no nulo. Sean S
subconjuntos de V tales que es linealmente independiente y S genera
a V. Entonces existe una base B de V, tal que:
B S.
58 3. ESPACIOS VECTORIALES
Demostraci on. La demostracion usa el lema de Zorn, ver Apendi-
ce A. Sea
A := {A V ; A es linealmente independiente, y A S}.
Notese que A. La relacion A B induce un orden parcial en
A. Toda cadena totalmente ordenada A
1
A
2
A
n
tiene
como elemento maximal a A
i
. Luego, por el lema de Zorn, existe un
elemento maximal B en A. Como B es linealmente independiente, solo
resta ver que genera a V para tener que B es una base de V, y por
consiguiente, la demostracion del teorema.
Supongamos que B no genera a V. Luego, existe un vector v en V
que no pertenece a vect(B). Consideremos el conjunto B

= B{v}. De-
mostraremos que B

es linealmente independiente, y luego, un elemento


de A que contiene propiamente a B. Esto contradice la maximilidad de
B, por lo tanto B genera a V, y el teorema queda demostrado.
Veamos que B

es linealmente independiente. Sea v +


1
v
1
+ +

n
v
n
= 0. Si = 0, podemos luego, escribir v en combinacion lineal
de elementos de B, lo cual no puede ser pues v vect(B). As, = 0
y luego, se sigue que
1
= =
n
= 0. Es decir, B

es linealmente
independiente.
Corolario 3.18. Todo conjunto linealmente independiente esta con-
tenido en una base.
Demostraci on. Sea un subconjunto linealmente independiente
de V. El corolario sigue al aplicar el teorema al caso S = V.
Corolario 3.19. Todo conjunto de generadores contiene una base.
Demostraci on. Si S es un subconjunto de generadores de V, en-
tonces existe un vector no nulo v en S. El corolario sigue al aplicar el
teorema al caso = {v}.
Teorema 3.20. Si B = {v
1
, v
2
, . . . , v
n
} y B

= {w
1
, w
2
, . . . , w
m
}
son dos bases de V, entonces n = m.
3.4. BASE Y DIMENSI

ON 59
Demostraci on. El vector w
1
se puede escribir como w
1
=
1
v
1
+
+
n
v
n
, donde podemos suponer
1
= 0. Ahora veamos que el con-
junto B
1
= {w
1
, v
2
, . . . , v
n
} es una base de V. Como v
1
=
1
w
1

2
v
2

1

n
v
n
, se sigue que B
1
genera a V. Por otra parte
la igualdad
1
w
1
+
2
v
2
+ +
n
v
n
= 0, es equivalente a
1

1
v
1
+
(
1

2
+
2
)v
2
+ + (
1

n
+
n
)v
n
= 0; como B es linealmente inde-
pendiente se deduce que
1
= =
n
= 0, es decir, B
1
es linealmente
independiente. Por lo tanto B
1
es una base de V.
Repitiendo este procedimiento para las bases B
1
y B

, es decir, reem-
plazamos el vector v
2
de B
2
por el vector w
2
de B

; obtenemos as una
base B
2
= {w
1
, w
2
, v
3
, . . . , v
n
}. Repetimos este argumento para las ba-
ses B
2
y B de V, y as sucesivamente. Luego, obtenemos nalmente
una base de V de la forma {w
1
, w
2
, . . . , w
m
, v
m+1
, . . . , v
n
}. Por lo tanto
n m.
Con igual argumento uno demuestra que m n. Por lo tanto n =
m.
El Teorema 3.20 permite denir el concepto de dimension de un
espacio vectorial.
Denicion 3.21. Sea V un Kespacio vectorial. Si V tiene una
base nita B, entonces se dene la dimension dim
K
(V) de B como el
cardinal de B. Si no hay peligro de confusion, escribiremos simplemente
dim(V) en vez de dim
K
(V).
En el caso que V no admite una base nita, se dice que la dimension
dim
K
(V) es innita.
Ejemplo 3.24. De los Ejemplos 3.193.22 obtenemos:
dim
K
(K
n
) = n
dim
K
(M
nm
(K)) = nm
dim
K
(K
n
[x]) = n + 1
dim
K
(F(X, K)) = |X|.
60 3. ESPACIOS VECTORIALES
Proposicion 3.22. En un espacio vectorial de dimension n, todo
conjunto con mas de n elementos es linealmente dependiente.
Demostraci on. Supongamos que existe un subconjunto de V que
es linealmente independiente y de cardinal m, con m > n. Ocupando el
Corolario 3.18, se sigue que V tiene una base con mas de n elementos,
lo cual es una contradiccion.
Corolario 3.23. Un subconjunto B de n vectores, en un espacio
vectorial de dimension n, es una base si, y solo si, B es linealmente
independiente.
Demostraci on. Sea B un conjunto de n vectores que es lineal-
mente independiente. Seg un el Corolario 3.18 el conjunto B esta con-
tenido en una base B

, pero de acuerdo a la Proposicion 3.22 todo


conjunto con mas de n elementos es linealmente independiente. Luego
B = B

, es decir B es una base.


El recproco es inmediato, pues toda base es, en particular, lineal-
mente independiente.

Proposicion 3.24. En un espacio vectorial de dimension n, todo


conjunto de generadores tiene a lo menos n elementos.
Demostraci on. Supongamos que existe un subconjunto de gene-
radores de V con m elementos, y donde m < n. De acuerdo al Corolario
3.19 se deduce que V tiene una base con menos de n elementos, lo cual
es una contradiccion.
Corolario 3.25. Un subconjunto B de n vectores, en un espacio
vectorial de dimension n, es una base si, y solo si, B genera a V.
Demostraci on. Queda de ejercicio. Cf. con la demostracion del
Corolario 3.23.
Sea W un subespacio vectorial de V. Una base B
W
de W es, en
particular, un conjunto linealmente independiente contenido en V. Por
3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 61
lo tanto B
W
esta contenido en una base B de V. Luego, obtenemos el
siguiente teorema:
Teorema 3.26. Sea V un Kespacio vectorial de dimension n. Si
W es un subespacio vectorial de V, entonces dim
K
(W) n.
Proposicion 3.27. Sea V un espacio vectorial de dimension n. Si
W es un subespacio de V tal que dim
K
(W) = n, entonces V = W.
Demostraci on. Si B
W
es una base de W, entonces B
W
es lineal-
mente independiente. Ahora, seg un Corolario 3.23, B
W
es tambien una
base de V. Luego V = W.
3.5. Coordenadas y matriz cambio de base
Sea V un Kespacio vectorial de dimension nita n. Un punto clave
en el algebra lineal es poder representar los vectores de V (de modo
unico) mediante matrices, respecto a una base de V. Esto es posible
gracias al siguiente lema:
Lema 3.28. Sea B = {v
1
, . . . , v
n
} una base de V, entonces existen
unicos escalares
1
, . . . ,
n
en K tales que:
v =
1
v
1
+ +
n
v
n
.
Demostraci on. Si tenemos dos escrituras de v,
v =
1
v
1
+ +
n
v
n
=
1
v
1
+ +
n
v
n
,
entonces se tiene:
(
1

1
)v
1
+ + (
n

n
)v
n
= 0.
Ahora como los v
i
s son linealmente independiente se debe tener que

1
=
1
, . . . ,
n
=
n
.
Denicion 3.29. Conservemos las notaciones del lema anterior.
Las coordenadas de v V, respecto a la base B, es la matriz [v]
B
de
62 3. ESPACIOS VECTORIALES
M
n1
(K), denida por:
[v]
B
=
_
_
_
_

1
.
.
.

n
_
_
_
_
.
Ejemplo 3.25. Consideremos la base B = {1, x, x
2
+x} del espacio
vectorial K
2
[x], y sea v = x
2
+ x 1 V. Entonces,
[v]
B
=
_
_
_
1
0
1
_
_
_
,
ya que v = 1(1) + 0(x) +1(x
2
+ x).
Ejemplo 3.26. Sea B = {v
1
, . . . , v
n
} una base de V. Las coordena-
das de v
i
B, en la base B, es la matriz con todas sus entradas iguales
a 0, salvo en la posicion i, en donde va 1. Es decir,
[v
i
]
B
=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0
.
.
.
0
1
0
.
.
.
0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
.
Lema 3.30. Sean u, v dos vectores en un espacio vectorial V de
dimension nita, y sea B una base de V. Entonces,
1. [u + v]
B
= [u]
B
+ [v]
B
2. [u]
B
= [u]
B
( K) .
Demostraci on. Pongamos B = {v
1
, . . . , v
n
}. Seg un el lema ante-
rior tenemos que u y v se escriben de modo unico como:
u =
1
v
1
+ +
n
v
n
, v =
1
v
1
+ +
n
v
n
(
i
,
i
K).
3.5. COORDENADAS Y MATRIZ CAMBIO DE BASE 63
Luego, el vector u +v se ecribe de modo unico como
u +v = (
1
+
1
)v
1
+ + (
n
+
n
)v
n
.
Por lo tanto se deduce la primera armacion del lema.
La otra armacion se demuestra de modo analogo.
Denicion 3.31. Sean B = {v
1
, . . . , v
n
} y D dos bases de un K
espacio vectorial V de dimension n. La matriz cambio de base C
D
B
es
la matriz de M
n
(K) cuya iesima columna es [v
i
]
D
.
El nombre de matriz cambio de base de la matriz C
D
B
queda plena-
mente justicado por el siguiente teorema.
Teorema 3.32. Sean B y D dos bases de V, y sea v V. Entonces:
1. C
D
B
[v]
B
= [v]
D
2. C
D
B
es una matriz invertible, y su inversa es C
B
D
.
Demostraci on. Pongamos B = {v
1
, v
2
, . . . , v
n
} y sea v V. Te-
nemos v =
1
v
1
+ +
n
v
n
. Luego,
C
D
B
[v]
B
= C
D
B
[
1
v
1
+ +
n
v
n
]
B
= C
D
B
([
1
v
1
]
B
+ + [
n
v
n
]
B
)
= C
D
B
(
1
[v
1
]
B
+ +
n
[v
n
]
B
)
=
1
C
D
B
[v
1
]
B
+ +
n
C
D
B
[v
n
]
B
.
Ahora, el producto C
D
B
[v
i
]
B
es la iesima columna de la matriz C
D
B
, es
decir, C
D
B
[v
i
]
B
= [v
i
]
D
. Luego,
C
D
B
[v]
B
=
1
[v
1
]
D
+ +
n
[v
n
]
D
= [
1
v
1
]
D
+ + [
n
v
n
]
D
= [
1
v
1
+ +
n
v
n
]
D
= [v]
D
.
Demostremos la segunda armacion. Pongamos D = {w
1
, . . . , w
n
}. De
la primera parte tenemos C
D
B
[w
i
]
B
= [w
i
]
D
, para todo i. Pero [w
i
]
D
64 3. ESPACIOS VECTORIALES
es la iesima columna de la matriz identidad I
n
de orden n. Luego, se
deduce que:
C
D
B
C
B
D
= I
n
.
Es decir, obtenemos la segunda armacion del teorema.
Ejemplo 3.27. Sea V el Cespacio vectorial C
2
[x]. Sea B la base
de V denida en el Ejemplo 3.25, y D la base {x
2
+ x 1, 1, x + 1}.
Seg un Ejercicio 3.25,
[x
2
+x 1]
B
=
_
_
_
1
0
1
_
_
_
.
Ademas, 1 = 1(1) +0(x) +0(x
2
+x), y x+1 = 1(1) +1(x) +0(x
2
+x).
Luego,
[1]
B
=
_
_
_
1
0
0
_
_
_
y [x +1]
B
=
_
_
_
1
1
0
_
_
_
.
Por lo tanto,
C
D
B
=
_
_
_
1 1 1
0 0 1
1 0 0
_
_
_
.
3.6. Suma de subespacios y espacios vectoriales
3.6.1. Suma de subespacios vectoriales. Sean U y W dos K
subespacios de V. Recordemos (ver Ejemplo 3.11) que la suma U+W
de los subespacios U y W es el subespacio vectorial de V denido por:
U+ W = {u + w; u U, v W}.
Denicion 3.33. Sean U y W dos subespacios de V, tales que
V = U + W y U W = {0}. En esta situacion diremos que V es la
suma directa (interna) de U con W. Escribiremos V = UW.
3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 65
Ejemplo 3.28. Sea V = M
n
(K), con car(K) = 2, y consideremos
los subespacios U y W de V constituidos por las matrices simetricas y
antisimetricas, respectivamente.
Toda matriz M M
n
(K) se escribe como sigue,
M =
1
2
(M+ M
t
) +
1
2
(MM
t
).
Como
1
2
(M+M
t
) es una matriz simetrica y
1
2
(MM
t
) es una matriz
antisimetrica, se concluye que V = U + W. Ahora, la unica matriz
que es simetrica y antisimetrica a la vez es la matriz nula, es decir,
U W = {0}. Por lo tanto V = UW.
Lema 3.34. Si B
U
y B
W
son bases de los subespacios U y W,
respectivamente, entonces U+ W = vect(B
U
B
W
).
Demostraci on. Es claro que vect(B
U
B
W
) U + W, ver Pro-
posicion 3.11. Veamos la otra contencion: Sea v U + W, entonces
v = u + w, donde u U y w W. Ahora u es combinacion lineal de
elementos de la base B
U
de U. Analogamente, w es combinacion lineal
de elementos de la base B
W
de W. Luego, v es una combinacion lineal de
elementos del conjunto B
U
B
W
, de donde U+W vect(B
U
B
W
).
Teorema 3.35 (H. Grassmann). Sean U y W subespacios de un
espacio vectorial. Si la dimension de U+ W es nita, entonces:
dim(U+W) = dim(U) + dim(W) dim(U W).
En particular, dim(UW) = dim(U) + dim(W).
Demostraci on. Sea B
UW
= {v
1
, . . . , v
r
} una base de U W.
Ocupando el Corolario 3.18 podemos construir bases B
U
y B
W
de U
y W, respectivamente, tales que contienen a B
UW
. Pongamos B
U
=
{v
1
, . . . , v
r
, u
1
, . . . , u
n
} y B
W
= {v
1
, . . . , v
r
, w
1
, . . . , w
m
}. Veremos que:
B = {v
1
, . . . , v
r
, u
1
, . . . , u
n
, w
1
, . . . , w
m
}
es una base de U+W. De donde se obtiene dim(U+W) = r+n+m =
(r+n)+(r+m)r, o sea dim(U+W) = dim(U)+dim(W)dim(UW).
66 3. ESPACIOS VECTORIALES
Del Lema 3.34 se obtiene que B genera a U+W, pues B = B
U
B
W
.
Veamos que B es un conjunto linealmente independiente. Conside-
remos la siguiente combinacion lineal:

i
v
i
+

i
u
i
+

i
w
i
= 0.
Esta ecuacion es equivalente a:
()

i
v
i
+

i
u
i
=

i
w
i
.
Claramente, el lado izquierdo de () es un vector de U, y el lado
derecho un vector de W. Por lo tanto, el lado izquierdo () es un vector
de UW. Luego el lado izquierdo de () es una combinacion lineal de
los vectores de B
UW
, de donde se deduce que
i
= 0, para todo i. El
mismo razonamiento nos dice que
i
= 0, para todo i. Luego, la ecua-
cion () se reduce a

i
v
i
= 0. Pero dado que B
UW
es linealmente
independiente, se sigue que
i
= 0, para todo i. Por lo tanto B, es
linealmente independiente. As B es una base de U+W.
Mas generalmente, podemos denir la suma U
1
+ + U
m
de los
subespacios U
1
, . . . , U
m
de V, como:
U
1
+ + U
m
:= {u
1
+ +u
m
; u
i
U
i
}.
Un argumento inductivo muestra que U
1
+ +U
m
es tambien un
subespacio de V.
Denicion 3.36. Sean U
1
, U
2
, . . . , U
m
subespacios vectoriales de
V. Diremos que V es la suma directa de U
1
, U
2
, . . . , U
m
, si se tiene:
1. V = U
1
+ U
2
+ +U
m
.
2. U
i

(U
1
+ +

U
i
+ +U
m
) = {0}, para todo i.
(el sobre un factor dice que ese factor es omitido).
Esta situacion sera denotada por V = U
1
U
2
U
m
.
3.6. SUMA DE SUBESPACIOS Y ESPACIOS VECTORIALES 67
Ejemplo 3.29. Para el Kespacio vectorial V = K
4
tenemos,
V = U
1
U
2
U
3
,
donde U
1
:= vect(e
1
, e
2
), U
2
:= vect(e
2
+ e
3
) y U
3
:= vect(e
4
). En
efecto, tenemos:
U
1
= {(x, y, 0, 0) ; x, y K},
U
2
= {(0, z, z, 0) ; z K},
U
3
= {(0, 0, 0, w) ; w K}.
Ahora, todo vector v = (a, b, c, d) V, se escribe:
v = (a, b c, 0, 0) + (0, c, c, 0) + (0, 0, 0, d).
Es decir, V = U
1
+U
2
+U
3
.
Por otra parte, tenemos:
U
1
(U
2
+ U
3
) = U
2
(U
1
+U
3
) = U
3
(U
1
+U
2
) = {0}.
Notese que:
U
2
+U
3
= {(0, x, x, y) ; x, y K},
U
1
+U
3
= {(x, y, 0, z) ; x, y, z K},
U
1
+U
2
= {(x, y, z, 0) ; x, y, z K}.
Proposicion 3.37. V = U
1
U
n
si, y solo si, todo v V se
puede escribir de manera unica en la forma v = u
1
+ + u
n
, donde
u
i
U
i
.
3.6.2. Suma de espacios vectoriales. Sea V
1
, . . . , V
m
una colec-
cion de Kespacios vectoriales. Consideremos el conjunto producto V
1

V
m
. En este conjunto introduzcamos las operaciones suma y pon-
deracion por escalar, cf. Ejemplo 3.1, del siguiente modo:
(v
1
, . . . , v
m
) + (v

1
, . . . , v

m
) := (v
1
+v

1
, . . . , v
m
+ v

m
),
(v
1
, . . . , v
m
) := (v
1
, . . . , v
m
), ( K).
68 3. ESPACIOS VECTORIALES
Teorema 3.38. Con las operaciones recien descritas el conjunto
V
1
V
m
tiene una estructura de Kespacio vectorial.
Demostraci on. Queda de ejercicio.
Denicion 3.39. El espacio vectorial del Teorema se llama la suma
directa externa de los espacios vectoriales V
1
, . . . , V
m
. Y se denota por
V
1
V
m
.
Sean V
1
y V
2
dos Kespacios vectoriales con bases {u
1
, . . . , u
n
} y
{w
1
, . . . , w
m
}, respectivamente. Consideremos el subconjunto B :=
{(u
i
, 0), (0, w
j
) ; 1 i n, 1 j m} de V
1
V
2
. Veremos que B
es una base de V
1
V
2
.
Sea (u, w) V
1
V
2
. Podemos escribir u =

n
i=1

i
u
i
, y w =

m
j=1

j
w
j
, donde
i
,
j
K. Luego, el vector (u, w) es una combina-
cion lineal de los elementos de la base B:
(u, w) =
n

i=1

i
(u
i
, 0) +
m

j=i

j
(0, w
j
).
Es decir, el conjunto B genera a V
1
V
2
.
Por otra parte, la igualdad:
n

i=1

i
(u
i
, 0) +
m

j=i

j
(0, w
j
) = (0, 0)
implica

n
i=1

i
u
i
= 0, y

m
j=i

j
w
j
= 0. Por lo tanto,
i
= 0, para
todo i, y
j
= 0, para todo j. Es decir, B es linealmente independiente.
Por lo tanto, B es una base de V
1
V
2
, luego,
dim
K
(V
1
V
2
) = dim
K
(V
1
) + dim
K
(V
2
).
Generalizando el procedimiento recien realizado, obtenemos:
Teorema 3.40. Sea V
1
, . . . , V
m
una coleccion de Kespacios vec-
toriales, tales que dim
K
(V
i
) = n
i
, entonces
dim
K
(V
1
V
m
) = n
1
+ +n
m
.
3.7. ESPACIO COCIENTE 69
Para nalizar notemos que V
i
no es un subespacio de V
1
V
m
.
Mas adelante veremos que el espacio vectorial V
i
puede ser identicado
con el siguiente subespacio vectorial U
i
de V
1
V
m
,
U
i
= {(v
1
, . . . , v
m
) ; v
j
= 0, si j = i}.
Tenemos, la siguiente proposicion.
Proposicion 3.41. El espacio vectorial V
1
V
m
es la suma
directa (interna) de los subespacios U
1
, . . . , U
m
.
Demostraci on. Queda de ejercicio.
3.7. Espacio cociente
Sea W un subespacio de V. Mirando la estructura de grupo con-
mutativo de V, y como en particular W es un subgrupo de V, se sigue
(ver Corolario 1.7) que el cociente V/W tiene una estructura de grupo
conmutativo con la operacion:
(u + W) + (v +W) := (u + v) +W.
Teorema 3.42. El cociente V/W tiene una estructura natural de
Kespacio vectorial, donde la ponderacion por escalares se dene como:
(v + W) = v +W.
Demostraci on. A modo de ejemplo veamos que el primer axioma
de la denicion de espacio vectorial se cumple. Sean u + W, v + W
V/W, y K. Tenemos,
[(u + W) + (v + W)] = [(u + v + W)]
= (u +v) +W
= u + v +W
= (u +W) + (v + W)
= (u +W) +(v + W).
De igual modo se verican los otros axiomas.

70 3. ESPACIOS VECTORIALES
Proposicion 3.43. Sea B
U
= {u
1
, . . . , u
m
} una base de U y sea
B
V
= B
U
{v
1
, . . . , v
n
} una base de V, entonces B
V/U
= {v
1
+U, . . . , v
n
+
U} es una base para V/U.
En particular,
dim(V/U) = dim(V) dim(U).
Demostraci on. Veamos que B
V/U
genera a V/U. Sea v+U V/U.
Como B
V
genera a V, existen escalares
1
,
2
, . . . ,
m
,
1
,
2
, . . . ,
n

K tales que v =
1
u
1
+ +
m
u
m
+
1
v
1
+ +
n
v
n
. Luego,
v + U = (
1
u
1
+ +
m
u
m
+
1
v
1
+. . . +
n
v
n
) +U
= (
1
v
1
+ U) + + (
n
v
n
+ U) (u
i
U)
=
1
(v
1
+ U) + +
n
(v
n
+ U).
Por lo tanto B
V/U
genera a V/U.
Veamos que B
V/U
es un conjunto linealmente independiente. La
ecuacion
1
(v
1
+U) + +
n
(v
n
+U) = U, es equivalente a:
(
1
v
1
+ +
n
v
n
) +U = U, (
i
K).
Entonces u :=
1
v
1
+ +
n
v
n
U. Ahora u es tambien una
combinacion lineal de los vectores de B
U
. De donde se deduce que

1
v
1
+ +
n
v
n
= 0. Luego,
1
=
2
= =
n
= 0. Es decir, B
V/U
es linealmente independiente.
Ademas dim(V/U) = |B
V/U
| = (n+m)m = dim(V)dim(U).
Ejemplo 3.30. Sea v un vector, no nulo, en el Respacio vectorial
R
2
. Entonces, el espacio vectorial cociente R
2
/vect(v) esta constituido
de las rectas vectoriales de direccion v que son paralelas a la recta:
:= vect(v).
3.8. EJERCICIOS 71

!
u
v
u +
3.8. Ejercicios
Ejercicio 3.1. Sea V el grupo abeliano C
2
con la suma usual, es
decir:
(z, w) + (z

, w

) = (z + z

, w+ w

)
_
(z, w), (z

, w

) C
2
_
Se dene la multiplicacion,
(z, w) := (z, w)
_
C, (z, w) C
2
_
,
donde denota el conjugado de .
Con esta multiplicacion, demuestre que V es un Cespacio vectorial.
Ejercicio 3.2. Decida si W es un subespacio vectorial del K
espacio vectorial V, donde:
1. W = {(x
1
, . . . , x
n
) V ; x
1
Q}, V = R
n
y K = R.
2. W = {(x
1
, . . . , x
n
) V ; x
1
Q}, V = R
n
y K = Q.
3. W = {f V ; f(x) Q} y V = F(X, R).
4. W = {f V ; f() = 0}, X y V = F(X, K).
5. W = {M V ; M+ tr(M)I
n
= 0} y V = M
n
(C).
6. W = {M V ; tr(M) Z} y V = M
n
(K).
7. W = {p(x) V ; p(1) = 0} y V = K
2
[x].
8. W = {M V ; M
_
0 1
1 0
_
=
_
0 1
1 0
_
M} y V = M
2
(C).
9. W =
_
a b
c d
_
V ; a Q

y V = M
2
(R).
72 3. ESPACIOS VECTORIALES
Ejercicio 3.3. Decida si los siguientes subconjuntos W son subes-
pacios de V. Justique como corresponde.
1. W = R Q, y V es el Qespacio vectorial R R.
2. W es el conjunto de matrices de rango 2, y V es el Kespacio
vectorial M
34
(K).
Ejercicio 3.4. Sea W el subconjunto de V = M
n
(R) denido por:
W = {M V ; tr(M) = 0}
1. Demuestre que W es un Rsubespacio de V.
2. Calcular la dimension de W.
Ejercicio 3.5. Sea V el Respacio vectorial M
2
(R). Considere el
subconjunto W de V constituido por las matrices M V que satisfacen,
tr(M+M
t
) = 0.
1. Demuestre que W es un subespacio de V.
2. Determine la dimension de W.
Ejercicio 3.6. Sea V el Cespacio vectorial M
n
(C). Denamos U
N
como sigue,
U
N
:= {M V ; [M, N] = 0} (N V),
donde [M, N] es el conmutador de N con M denido en Ejercicio 2.5.
1. Demuestre que U
N
es un subespacio de V.
2. Calcular la dimension del subespacio U
w
U
w
de M
2
(C),
donde:
w =
_
0 1
1 0
_
, w

=
_
0 1
1 0
_
.
Ejercicio 3.7. Sea {v
1
, v
2
, v
3
, v
4
} una base de un Kespacio vectorial
V. Demuestre que si i = 2 y K, entonces {v
1
, v
2
+ v
i
, v
3
, v
4
} es
tambien una base de V.
3.8. EJERCICIOS 73
Ejercicio 3.8. Sean U y W dos subespacios vectoriales de un K
espacio vectorial V de dimension nita, tales que U W y dimU =
dimW 1. Demuestre que todo conjunto de la forma B {v} es una
base de W, para toda base B de U y v W \ U.
Ejercicio 3.9. Calcular la dimension, cuando corresponda, de los
subespacios W de V del Ejercicio 3.2. Ademas, determine el subespacio
W

de V, tal que V = WW

.
Ejercicio 3.10. Sea {v
1
, . . . , v
n
} un subconjunto linealmente indepen-
diente de un Kespacio vectorial V. Sean
1
, . . . ,
n
escalares en K, y
denamos w
i
:= v
1
+ v
2
+
i
v
i
, 1 i n. Determine condiciones
necesarias y sucientes para que {w
1
, . . . , w
n
} sea un conjunto lineal-
mente independiente.
Ejercicio 3.11. Sea V un Kespacio vectorial de dimension 3 y
sea B = {v
1
, v
2
, v
3
} una base de V. Sea D = {v
1
+v
2
+v
3
, v
1
v
2
+
v
3
, v
1
+v
2
v
3
} V
1. Demuestre que D es una base de V
2. Calcular la matriz cambio de base de B a D
3. Sea v = v
1
+2v
2
+3v
3
. Calcular [v]
D
.
Ejercicio 3.12. Sea B = {v
1
, v
1
+ v
2
, v
1
+ v
2
+ v
3
} una base de un
Kespacio vectorial V.
1. Demuestre que D = {v
1
+v
2
+v
3
, v
2
+v
3
, v
3
} es una base de V
2. Calcular la matriz cambio de base de B a D
3. Calcular [v]
B
, para v = 3v
3
+2v
2
+v
1
.
Ejercicio 3.13. Sea V el Respacio vectorial formado por las ma-
trices M en M
2
(R) tal que tr(A) = 0, y sea U denido por:
U :=
_
a b
c d
_
V ; b +c = 0

.
1. Demuestre que U es un subespacio de V.
2. Determine W tal que WU = V.
74 3. ESPACIOS VECTORIALES
Ejercicio 3.14. Sean A, B y C tres subespacios vectoriales de V
tal que A C. Demuestre que si V = AB, entonces:
C = (A C) (B C).
Ejercicio 3.15. Demuestre que V = V
1
V
2
V
3
, donde V = R
5
y
V
1
= vect{(1, 1, 1, 1, 1)}
V
2
= {(p, q, r, s, t) ; p = q = r, t = 0}
V
3
= {(p, q, r, s, t) ; r = s = t = 0}.
Ejercicio 3.16. Sea V el Respacio vectorial M
2
(R). Demuestre
que V = U
1
U
2
U
3
, donde:
U
1
= {M V ; M = M
t
},
U
2
= {M V ; M = M
t
, tr(M) = 0},
U
3
= vect
_
1 0
0 1
_
.
Ejercicio 3.17. Sea B = {v
1
, v
2
, v
3
} una base del Cespacio vecto-
rial V. Encontrar [v]
B
, si se sabe que:
C
D
B
=
_
_
_
1 1 1
0 1 1
0 0 1
_
_
_
, y [v]
D
=
_
_
_
1
2
3
_
_
_
.
Ejercicio 3.18. Decida si son verdaderas o falsas las siguientes
armaciones:
1. Si es un conjunto linealmente independiente en el Qespacio
vectorial R
2
, entonces || 2.
2. Si V es el Kespacio vectorial K
2n
y U es un subespacio V
de dimension par, entonces todo subespacio W de V tal que
V = UW es de dimension par.
3. Si {v
1
, v
2
, v
3
} es una base de un Kespacio vectorial V, enton-
ces {v
1
+v
2
+v
3
, v
1
+bv
2
+b
2
v
3
, v
1
+cv
2
+c
2
v
3
} es una base
de V si y solo si b = c = 1 = b.
3.8. EJERCICIOS 75
4. Si V denota el Respacio vectorial R
2n
[x], y Ues un subespacio
de V de dimension par, entonces todo subespacio W de V, tal
que V = UW, es de dimension par.
5. Si S y T son subconjuntos de V tales que vect(S) = vect(T),
entonces S = T.
6. Si S y T son subconjuntos de V tales que S = T, entonces
vect(S) = vect(T).
7. Si U y W son subespacios de V, entonces UW es subespacio
de V.
8. Si B V, y dimV = |B|, entonces vect(B) = V.
9. Si U y W son subespacios de V tales que dim(U) = dim(W),
entonces U = W.
10. Si S es un conjunto de generadores de V y T es un conjunto
linealmente independiente contenido en V, entonces S T es
una base de V.
CAPTULO 4
TRANSFORMACIONES LINEALES
En todo lo que sigue V y W denotan dos K-espacios vectoriales.
Ademas, convendremos en escribir los elementos (x
1
, . . . , x
n
) K
n
,
como
_
_
_
_
x
1
.
.
.
x
n
_
_
_
_
.
4.1. Transformaciones lineales
Denicion 4.1. Una funcion de V en W se dice que es una
transformacion lineal (o funcion lineal) si respeta la estructura de es-
pacio vectorial, esto es, para todo u, v V y K, se tiene:
1. (u +v) = (u) + (v).
2. (v) = (v).
Tambien una transformacion lineal es llamada un Khomomorsmo,
o simplemente homomorsmo. Sea una transformacion lineal: Si
es inyectiva se dice que es un monomorsmo. Si es epiyectiva se
dice que es un epimorsmo. Si es biyectiva se dice que es un
isomorsmo.
Ejemplo 4.1. Sea M M
nm
(K). La matriz M dene una trans-
formacion lineal
M
,

M
: K
m
K
n
x Mx.
Notese
M
es un isomorsmo si, y solo si, M es una matriz inver-
tible.
77
78 4. TRANSFORMACIONES LINEALES
Ejemplo 4.2. Sea V un K-espacio vectorial de dimension n, y -
jemos una base B de V. La funcion coordenada [ ]
B
es la funcion de
V en M
n1
(K), denida por:
v [v]
B
,
La funcion coordenada es un isomorsmo.
Ejemplo 4.3. La funcion traza tr, es una aplicacion lineal,
tr : M
n
(K) K
M tr(M) := a
11
+ +a
nn
,
donde M = (a
ij
), ver Proposicion 2.36. Ademas, tr es un epimorsmo.
Ejemplo 4.4. La funcion traspuesta , es un isomorsmo.
: M
nm
(K) M
mn
(K)
M M
t
Ejemplo 4.5. Sea V un K-espacio vectorial, y U un subespacio de
V. Sea la transformacion lineal (canonica) denida por:
: V V/U
v v + U
es un epimorsmo.
Ejemplo 4.6. Sea V el K-espacio vectorial K[x]. Pongamos p(x) =
a
0
+ a
1
x + + a
n
x
n
. Sean D y I las transformaciones lineales de V
en V denidas por:
D(p(x)) :=
n

i=1
ia
i
x
i1
, I(p(x)) :=
n

i=0
a
i
i +1
x
i+1
.
La transformacion D no es un monomorsmo, pero si es un epi-
morsmo. La transformacion I es un monomorsmo, pero no es un
epimorsmo.
La transformaciones D e I se suelen llamar derivada e integracion,
respectivamente.
4.1. TRANSFORMACIONES LINEALES 79
Ejemplo 4.7. Las funciones, de R en R, valor absoluto, seno y
coseno no son transformaciones lineales.
Notese que si es una transformacion lineal, entonces (0) = 0.
En efecto, (0) = (0+0) = (0) +(0); de donde se sigue (0) = 0.
Proposicion 4.2. Sea una funcion de V en W. Tenemos que
es una transformacion lineal si, y solo si, (u +v) = (u) +(v),
para todo u, v V, K.
Demostraci on. Queda de ejercicio.
Denicion 4.3. Sea : V W una aplicacion lineal. El Kernel
(o N ucleo) de es el subconjunto Ker() de V denido por:
Ker() := {v V ; (v) = 0}.
Recordemos que la imagen de , Im() , es el subconjunto de W
denido por:
Im() := {(v) ; v V}.
Proposicion 4.4. Ker() es un subespacio de V y Im() es un
subespacio de W.
Demostraci on. Sean u, v Ker() y K. Queremos de-
mostrar que u + v Ker(). De la Proposicion 4.2, (u + v) =
(u) +(v). Ahora como u, v Ker(), se obtiene que (u+v) =
0 +0 = 0. Es decir, u +v Ker().
Veamos que Im() es un subespacio de W. Sean w
1
= (v
1
), w
2
=
(v
2
) y K. Debemos ver que w
1
+ w
2
Im(). Ocupando la
linealidad de es claro que w
1
+ w
2
es imagen del vector v
1
+ v
2
.
Es decir, w
1
+w
2
Im().
Denicion 4.5. Las dimensiones de el Kernel e Imagen de se
llaman, respectivamente, la nulidad de y rango de . Denotaremos
por nul() la nulidad de , y por rg() el rango de .
80 4. TRANSFORMACIONES LINEALES
Ejemplo 4.8. Sea D : K
n
[x] K
n1
[x], donde D es denida
como en el Ejemplo 4.6. El Kernel de D es K, luego nul(D) = 1.
Ejemplo 4.9. Sea I : K
n
[x] K
n+1
[x], donde I es denida como
en el Ejenplo 4.6. La imagen de I esta constituida por los polinomios
de la forma a
1
x + +a
n+1
x
n+1
; luego rg(I) = n.
La epiyectividad e inyectividad de una funcion lineal pueden ser
analizados explotando la estructura lineal. En efecto, supongamos que
B = {v
1
, . . . , v
n
} que es una base de V y que : V W es una
transformacion lineal. Sea v V y pongamos v =

n
i=1

i
v
i
. Luego,
(v) =
_
n

i=1

i
v
i
_
=
n

i=1

i
(v
i
),
de donde se deduce el siguiente teorema.
Teorema 4.6. Sea : V W una transformacion lineal. Tene-
mos:
1. La imagen de esta generada por las imagenes de los vectores
de una base de V. En otros terminos, Im() = vect((v) , v
B), donde B denota una base de V.
2. La transformacion lineal queda completamente determinada
si se conocen las imagenes de los vectores de una base de V.
El siguiente teorema nos dice que la condicion de inyectividad en
funciones lineales quedan caracterizadas a traves de sus Kerneles.
Teorema 4.7. Una transformacion lineal es inyectiva si, y solo
si, Ker() = {0}.
Demostraci on. Supongamos que es inyectiva. Sea v Ker();
luego (v) = 0, ahora 0 = (0), luego (v) = (0), lo cual implica
v = 0. Es decir, Ker() = {0}.
Recprocamente, si tenemos la igualdad (u) = (v), entonces
(u v) = 0. Es decir, u v Ker() = {0}. Por lo tanto u = v, es
decir, es una funcion inyectiva.
4.1. TRANSFORMACIONES LINEALES 81
Ejemplo 4.10. Consideremos la aplicacion lineal =
M
del
Ejemplo 4.1. El Kernel de corresponde al conjunto solucion del sis-
tema Mx = 0. La imagen de esta generada por las imagenes (e
i
)
de los vectores canonicos de K
m
, es decir, Im() = vect((e
i
) ; i =
1, . . . , m. Ahora (e
i
) es la iesima columna de la matriz M. Por
lo tanto, el rango de es justamente el rango de M. Notese que
rg(M) = rg(M
t
), ver Ejercicio 2.12.
Analicemos :=
M
, para M =
_
1 0 1
2 1 1
_
. Tenemos,
x =
_
_
_
x
1
x
2
x
3
_
_
_
(x) = Mx =
_
x
1
+ x
3
2x
1
+ x
2
+ x
3
_
.
Dado que el Kernel de corresponde al conjunto solucion del sistema
Mx = 0, y como la forma normal de Hermite de M es:
_
1 0 1
0 1 1
_
se obtiene,
Ker() =

x K
3
; x
1
= x
3
, x
2
= x
3

.
En particular, no es un monomorsmo y nul() = 1.
La imagen de esta generada por Me
1
, Me
2
y Me
3
. Es decir,
Im() = vect
__
1
2
_
,
_
0
1
_
,
_
1
1
__
= vect
__
1
2
_
,
_
0
1
__
= K
2
.
As, es un epimorsmo y rg() = rg(M) = 2.
Teorema 4.8. Sea : V W una transformacion lineal y
supongase que V es de dimension nita, entonces,
dim(V) = nul() + rg().
82 4. TRANSFORMACIONES LINEALES
Demostraci on. Si nul() = 0, entonces C = {(v
1
), . . . , (v
n
)}
es una base de Im(), donde {v
1
, . . . , v
n
} es una base de V. En efecto,
del Teorema 4.6 se tiene que C genera a Im(). Veamos que C es
linealmente independiente. La combinacion lineal

n
i=1

i
(v
i
) = 0 es
equivalente a (

n
i=1

i
v
i
) = 0, luego

n
i=1

i
v
i
= 0. Por lo tanto

i
= 0, para todo i; es decir C es linealmente independiente. As,
dim(V) = 0 + n = nul() + rg().
Supongamos que nul() = r n. Sean {u
1
, . . . , u
r
} una base de
Ker() y {u
1
, . . . , u
r
, u
r+1
, . . . , u
n
} una base de V. Entonces,
V = vect(u
1
, . . . , u
r
) vect(u
r+1
, . . . , u
n
).
Del Teorema 4.6 se tiene que D = {(u
r+1
), . . . , (u
n
)} genera Im();
ademas, D es un conjunto linealmente independiente, por lo tanto, una
base de Im(). Luego, obtenemos:
dim(V) = r + (n r) = nul() + rg().

Corolario 4.9. Bajo las hipotesis del teorema anterior, tenemos:


1. es un monomorsmo si, y solo si, dim(V) = rg().
2. Si dim(V) < dim(W), entonces no puede ser un epimors-
mo.
3. Si dim(V) > dim(W), entonces no puede ser un monomor-
smo.
4. Si dim(V) = dim(W), entonces las siguientes armaciones
son equivalentes:
a) es un monomorsmo,
b) es un epimorsmo,
c) es un isomorsmo.
Demostraci on. Queda de ejercicio.
Ejemplo 4.11. Consideremos el epimorsmo del Ejemplo 4.5.
El Kernel de es U. En efecto, si v Ker(), entonces (v) = U; es
4.1. TRANSFORMACIONES LINEALES 83
decir, v + U = U, o sea v U. As, del Teorema 4.8 se obtiene:
dim(V) = nul() + rg() = dim(U) + dim(V/U).
Luego, dim(V/U) = dim(V) dim(U). Cf. Proposicion 3.43.
Denicion 4.10. Dos espacios vectoriales se dicen que son iso-
morfos si es posible denir un isomorsmo entre ellos. Si V y W son
isomorfos, denotaremos V W.
Ejemplo 4.12. Seg un los Ejemplos 4.2 tenemos V M
n1
(K),
para todo Kespacio vectorial V de dimension n.
Proposicion 4.11. Si es un isomorsmo, entonces
1
es un
isomorfo.
Demostraci on. Queda de ejercicio.
Teorema 4.12. Sea : V W una transformacion lineal. Te-
nemos, es un isomorsmo si, y solo si, las imagenes de los vectores
de una base de V constituyen una base de W.
Demostraci on. Sea B una base de V, y denotemos por (B) el
conjunto de las imagenes de los elementos de la base B de V.
Supongamos que es un isomorsmo. Dado w W, existe un
v V tal que w = (v). Ahora, el vector v es una combinacion lineal
de elementos v
1
, . . . , v
n
de la base B. Pongamos v =
1
v
1
+ +
n
v
n
;
luego w = (v) =
1
(v
1
)+ +
n
(v
n
), por lo tanto, (B) genera a
W. Demostremos que (B) es un conjunto linealmente independiente.
Dada una combinacion lineal

n
i=1

i
(v
i
) igual a cero, se sigue que
(

n
i=1

i
v
i
) = 0; luego

n
i=1

i
v
i
es un elemento de el Kernel de ,
o sea,

n
i=1

i
v
i
= 0. Por lo tanto,
i
= 0, para todo i. As, (B) es
linealmente independiente.
Recprocamente, supongamos que (B) es una base de W. Como
(B) genera Im() (ver Teorema 4.6), sigue que es epiyectiva. Vea-
mos que es inyectiva. Sea v =
1
v
1
+ +
n
v
n
Ker(), donde
v
i
B. Luego
1
(v
1
)+ +
n
(v
n
) = 0, de donde sigue que
i
= 0,
84 4. TRANSFORMACIONES LINEALES
para todo i; luego v = 0, y por la Proposicion 4.7 se sigue que es
inyectiva.
Ejemplo 4.13. Sea : R
3
R
2
[x] la transformacion lineal de-
nida por (a, b, c) = (a+b+c)+(b+c)x+cx
2
. Los espacios vectoriales
R
3
y R
2
[x] son ambos de dimension 3. Calculemos las imagenes de los
vectores de la base canonica de R
3
; tenemos, (e
1
) = 1, (e
2
) = 1 +x
y (e
3
) = 2 + x + x
2
. Ahora, como los vectores v
1
:= 1, v
2
:= 1 + x y
v
3
:= 2 + x + x
2
constituyen una base de R
2
[x], se sigue que es un
isomorsmo.
Procedamos a explicitar
1
(p(x)). Pongamos p(x) = a+bx+cx
2
,
tenemos:
p(x) = (a b c)v
1
+ (b c)v
2
+ cv
3
.
Luego,

1
(p(x)) =
1
((a b c)v
1
+ (b c)v
2
+ cv
3
)
= (a b c)
1
(v
1
) + (b c)
1
(v
2
) +c
1
(v
3
).
Ahora como
1
(v
i
) = e
i
, se obtiene,

1
(p(x)) = (a b c, b c, c).
Sea V un espacio vectorial de dimension nita y : V W un
isomorsmo. Luego, nul() = 0 y rg() = dimW. Por lo tanto, de
acuerdo al Teorema 4.8, se obtiene que si V W, entonces dimV =
dimW. Veamos que el recproco tambien es cierto. Supongamos que
dimV = dimW = n < ; sean B
V
= {v
1
, . . . , v
n
} y B
W
= {w
1
, . . . , w
n
}
dos bases de V y W respectivamente. La biyeccion v
i
w
i
entre los
conjuntos B
V
y B
W
dene una aplicacion lineal de V en W, mediante,
:
n

i=1

i
v
i

i=1

i
w
i
La funcion es una transformacion lineal biyectiva. Resumiendo, te-
nemos el siguiente teorema.
4.2. EL ESPACIO Hom(V, W) 85
Teorema 4.13. Dos espacios vectoriales, de dimension nita, son
isomorfos si, y solo si, tienen la misma dimension.
Ejemplo 4.14. Del Teorema anterior, tenemos:
K
n
M
n1
(K) M
1n
(K) K
n1
[x] F(X, K),
donde |X| = n.
4.2. El espacio Hom(V, W)
Sean y dos transformaciones lineales de V en W. Recordemos
que la suma + de las funciones y es la funcion de V en W
denida por:
( +)(v) := (v) +(v).
Sea K, la funcion es la funcion de V en W denida por:
()(v) := (v).
Lema 4.14. Sea K. Para todo y transformaciones lineales,
las funciones + y son transformaciones lineales.
Demostraci on. Queda de ejercicio.
Denicion 4.15. Denotemos por Hom(V, W) el conjunto formado
por todas las transformaciones lineales de V en W. En el caso V =
W, denotaremos Hom(V, W) por End(V). Los elementos de End(V) se
llaman endomorsmos de V.
La suma y ponderacion por escalar, denidas anteriormente, denen
una estructura de K-espacio vectorial sobre Hom(V, W).
Teorema 4.16. Hom(V, W) es un K-espacio vectorial.
Demostraci on. Queda de ejercicio.
Proposicion 4.17. Si V y W son espacios vectoriales de dimen-
siones m y n, respectivamente, entonces Hom(V, W) es de dimension
nm.
86 4. TRANSFORMACIONES LINEALES
Demostraci on. A partir de una base B de V y una base D de
W, construiremos una base C = {
ij
| 1 i n, 1 j m} de
Hom(V, W). De donde se concluye el teorema, pues el cardinal de C es
nm.
Pongamos B = {v
1
, . . . , v
n
} y D = {w
1
, . . . , w
m
}. Para cada 1 i
n y 1 j m, denamos los elementos
ij
de Hom(V, W), mediante,

ij
: v
k

w
j
para k = i
0 para k = i.
Veamos que C es un conjunto linealmente independiente. Si tenemos
la igualdad

i,j

ij

ij
= 0, entonces al evaluar en v
k
, obtenemos:

i,j

ij

ij
(v
k
) =

kj
w
j
= 0.
Luego, para todo k se tiene
k1
=
k2
= =
km
= 0, pues D es
linealmente independiente. As, se deduce que todo los
ij
son iguales
a 0. Por lo tanto C es linealmente independiente.
Veamos que C genera a Hom(V, W). Sea Hom(V, W), y v
k
B.
Sean
k1
, . . . ,
km
los escalares tales que (v
k
) =
k1
w
1
+ +
km
w
m
.
Tenemos que:
(4.1) =

i,j

ij

ij
.
En efecto, para todo v
k
tenemos:
_

i,j

ij

ij
_
(v
k
) =

i,j

ij

ij
(v
k
) =

kj
w
j
= (v
k
),
de donde se deduce (4.1). Luego, C genera a Hom(V, W).
Por lo tanto, C es una base para Hom(V, W).
De acuerdo con el Teorema 4.13 los espacios vectoriales M
nm
(K) y
Hom(V, W) son isomorfos. En orden a denir un isomorsmo explcito
introduciremos el concepto de matriz asociada a una transformacion
lineal.
4.2. EL ESPACIO Hom(V, W) 87
Denicion 4.18. Sea V y W dos espacios vectoriales de dimen-
siones n y m, respectivamente; pongamos B = {v
1
, . . . , v
n
}. Sea
Hom(V, W). La matriz asociada a la transformacion lineal , respecto
a las bases B y D, es la matriz []
D
B
de M
mn
(K) cuya i-esima columna
son las coordenadas de (v
i
) en la base D.
En el caso que End(V) y B = D, denotaremos la matriz []
D
B
simplemente por []
B
.
Ejemplo 4.15. Sea M M
nm
(K) y =
M
la aplicacion del
Ejemplo 4.1. Sean C
m
y C
n
las bases canonicas de K
m
y K
n
, respecti-
vamente. La matriz asociada a respecto a las bases C
m
y C
n
es la
matriz M. Es decir,
[]
Cn
Cm
= M.
Veamos el caso particular M =
_
1 0 1
2 1 1
_
. Consideremos la base D
de K
2
,
D =
_
1
0
_
,
_
1
1
_
.
Tenemos:
(e
1
) =
_
1
2
_
= 1
_
1
0
_
+ 2
_
1
1
_
(e
2
) =
_
0
1
_
= 1
_
1
0
_
+ 1
_
1
1
_
(e
3
) =
_
1
1
_
= 0
_
1
0
_
+ 1
_
1
1
_
.
Por lo tanto,
[]
D
C
3
=
_
1 1 0
2 1 1
_
.
Lema 4.19. Sean B una base de V, y de D una base de W. Para
todo Hom(V, W), se tiene:
[]
D
B
[v]
B
= [(v)]
D
(v V).
88 4. TRANSFORMACIONES LINEALES
Demostraci on. Sea B = {v
1
, . . . , v
n
}, sea v =

i
v
i
V. Te-
nemos,
[(v)]
D
=
_

i
(v
i
)
_
D
=

i
[(v
i
)]
D
.
Ahora [(v
i
)]
D
= []
D
B
[v
i
]
B
. Luego,
[(v)]
D
=

i
[]
D
B
[v
i
]
B
= []
D
B

i
[v
i
]
B
= []
D
B
[

i
v
i
]
B
= []
D
B
[v]
B
.

Lema 4.20. Sean y Hom(V, W), B y D bases de V y W,


respectivamente. Tenemos:
[+]
D
B
= []
D
B
+ []
D
B
( K).
Demostraci on. Seg un el lema anterior, para todo vector v tene-
mos: [+ ]
D
B
[v]
B
= [(+ )(v)]
D
; ahora como la funcion coorde-
nada [ ]
D
es lineal se sigue que:
[+ ]
D
B
[v]
B
= [(v)]
D
+ [(v)]
D
(v V).
El lema queda demostrado al tomar como v los elementos de la base
B.
Teorema 4.21. Sean V y W dos espacios vectoriales de dimensio-
nes n y m, respectivamente. Fijemos una base B de V y una base D de
W. Entonces la funcion F de Hom(V, W) en M
mn
(K), denida por:
F : []
D
B
es un isomorsmo.
Demostraci on. El lema anterior nos dice que F es una aplica-
cion lineal. Como los espacios vectoriales en cuestion tienen la misma
4.2. EL ESPACIO Hom(V, W) 89
dimension, basta ver que F es inyectiva (o bien epiyectiva) para con-
cluir que F es un isomorsmo (ver 4. en Corolario 4.9). Veamos que F
es inyectiva. Sea Ker(F), entonces F() = 0, o equivalentemente
[]
D
B
= 0. Esta igualdad implica que []
D
B
[v
i
]
B
= [(v
i
)]
D
= 0, para
todo v
i
V. As, (v
i
) = 0, para todo i. Por lo tanto = 0, o sea
Ker(F) = {0}.
Observacion 4.22. Sea V un espacio vectorial de dimension nita.
Sea I
V
el endomorsmo identidad de End(V),
I
V
: v v
La matriz asociada al endomorsmo I
V
respecto a las bases B y B

es
justamente la matriz cambio de base de B a B

, ver Denicion 3.31. Es


decir,
[I
V
]
B

B
= C
B

B
.
Observacion 4.23. Sea M = (a
ij
) M
mn
(K), entonces :=
F
1
(M) es la transformacion lineal de V en W tal que,
(v
i
) = a
1i
w
1
+a
2i
w
2
+ +a
mi
w
m
,
donde B = {v
1
, . . . , v
n
} y B = {w
1
, . . . , w
m
}.
Analicemos brevemente la relacion entre la matriz asociada a una
composicion de transformaciones lineales con la matriz asociada
a y .
Sean V, W y U tres K-espacios vectoriales de dimension nita. Sean
B, D y E bases de V, W y U, respectivamente. Sean Hom(V, W) y
Hom(W, U). Consideremos la matriz asociada a la transformacion
lineal compuesta Hom(V, U), ver Ejercicio 4.13, respecto a las
bases B y E. Ahora, para todo v V tenemos:
[]
E
B
[v]
B
= [()(v)]
E
= [( (v))]
E
= []
E
D
[(v)]
D
= []
E
D
[]
D
B
[v]
B
.
As, conservando las notaciones anteriores, hemos demostrado el si-
guiente teorema.
90 4. TRANSFORMACIONES LINEALES
Teorema 4.24. [ ]
E
B
= []
E
D
[]
D
B
.
Sea : V W un isomorsmo, y B, D bases de V y W respecti-
vamente. tenemos que
1
es igual a la funcion identidad I
V
de V.
Luego, del Teorema anterior obtenemos:
[I
V
]
B
B
= [
1
]
B
B
= [
1
]
B
D
[]
D
B
.
De donde se deduce el siguiente corolario.
Corolario 4.25. es un isomorsmo si, y solo si, la matriz []
D
B
es invertible. Ademas,
[
1
]
B
D
= ([]
D
B
)
1
.
Corolario 4.26. Para toda Hom(V, W), tenemos:
[]
D
B
= C
D
D
[]
D

B
C
B

B
,
donde B, B

son bases de V y D, D

son bases de W.
Demostraci on. Notese que podemos escribir = I
W
I
V
.
Ahora usando el Teorema 4.24 se sigue que:
[]
D
B
= [I
W
I
V
]
D
B
= [I
W
]
D
B
[I
V
]
B

B
= [I
W
]
D
D
[]
D

B
[I
V
]
B

B
;
pero [I
W
]
D
D
= C
D
D
y [I
V
]
B

B
= C
B

B
, ver la Observacion 4.22. Luego, se
deduce el corolario.
Notese que si en el corolario anterior tomamos un endomorsmo,
B = D y B

= D

, entonces obtenemos:
[]
B
= P[]
B
P
1
, (4.2)
donde P = C
B
B
.
Corolario 4.27. Sea Hom(V, W) tal que rg() = r, entonces
existen bases B y D de V y W, respectivamente, tales que:
[]
D
B
=
_
I
r
0
0 0
_
.
4.2. EL ESPACIO Hom(V, W) 91
Demostraci on. La demostracion sigue del corolario anterior y
Corolario 2.32.
Ejemplo 4.16. Sea la aplicacion lineal de M
2
(R) en R
3
denida
por:
:
_
a b
c d
_
(b c +d, 2b, 3c 3d).
La imagen Im() esta generada por la imagenes, por , de los ele-
mentos de la base canonica B

:= {E
11
, E
12
, E
21
, E
22
} de M
2
(R). Ahora,
(4.3)
(E
11
) = (0, 0, 0), (E
12
) = (1, 2, 0)
(E
21
) = (1, 0, 3), (E
22
) = (1, 0, 3).
Luego, Im() = vect{(1, 2, 0), (1, 0, 3)}, y por lo tanto rg() = 2.
De (4.3) se sigue que la matriz []
C

B
se escribe:
[]
D

B
=
_
_
_
0 1 1 1
0 2 0 0
0 0 3 3
_
_
_
,
donde D

denota la base canonica {e


1
, e
2
, e
3
} de R
3
. En el Ejemplo 2.12
tenemos calculado matrices P y Q tales que:
_
_
_
1 0 0 0
0 1 0 0
0 0 0 0
_
_
_
= P[]
D

B
Q.
Como las matrices P y Q son invertibles, ellas pueden ser interpreta-
das como matrices de cambio de bases. As, usando el Corolario 4.26
tenemos:
P = C
D
D
, Q = C
B

B
,
donde D = {v
1
, v
2
, v
3
} es una base de R
3
y B = {w
1
, w
2
, w
3
, w
4
} es una
base de M
2
(R).
92 4. TRANSFORMACIONES LINEALES
Procedamos a explicitar los elementos de las bases B y D. De acuer-
do al Ejemplo 2.12,
C
D

D
=
_
_
_
0 1/2 0
1 1/2 0
3 3/2 1
_
_
_
.
Recordemos que las columnas de C
D

D
son justamente las coorde-
nadas de los vectores de la base D en la base D

. Luego, se deduce
que:
v
1
= 0e
1
+ (1)e
2
+ 3e
3
= (0, 1, 3)
v
2
= (1/2)e
1
+ (1/2)e
2
+ (3/2)e
3
= (1/2, 1/2, 3/2)
v
3
= 0e
1
+ 0e
2
+1e
3
= (0, 0, 1).
Otra vez del Ejemplo 2.12 conocemos Q = C
B
B
. Ahora la matriz cambio
de base de B a B

es la inversa de la matriz C
B
B
. Luego,
C
D

D
=
_
_
_
_
_
_
0 0 1 0
1 0 0 0
0 1 0 1
0 0 0 1
_
_
_
_
_
_
1
=
_
_
_
_
_
_
0 1 0 0
0 0 1 1
1 0 0 0
0 0 0 1
_
_
_
_
_
_
.
De donde se obtiene:
w
1
= 0E
11
+0E
12
+ 1E
21
+0E
22
= E
21
=
_
0 0
1 0
_
w
2
= 1E
11
+0E
12
+ 0E
21
+0E
22
= E
11
=
_
1 0
0 0
_
w
3
= 0E
11
+1E
12
+ 0E
21
+0E
22
= E
12
=
_
0 1
0 0
_
w
4
= 0E
11
1E
12
+ 0E
21
+1E
22
= E
12
+ E
22
=
_
0 1
0 1
_
.
4.3. El espacio dual
En el caso W = K, el espacio vectorial Hom(V, W) = Hom(V, K) se
denota por V

, y se llama el dual de V. Los elementos de V

se llaman
formas lineales o funcionales lineales.
4.3. EL ESPACIO DUAL 93
Supongamos que V es de dimension nita n, y jemos una base B
de V. Consideremos el isomorsmo, no canonico, F
1
[ ]
B
de V
en V

. El isomorsmo F
1
es respecto a las bases B de V y {1} de K
(ver Observacion 4.23), el isomorsmo es la funcion traspuesta (ver
Ejercicio 4.4), y el isomorsmo [ ]
B
es la funcion coordenada respecto
a la base B, ver Ejercicio 4.2. Pongamos B = {v
1
, . . . , v
n
}, y calculemos
v

i
:= (F
1
[ ]
B
)(v
i
):
v
i

_
_
_
_
_
_
_
_
_
0
.
.
.
1
.
.
.
0
_
_
_
_
_
_
_
_
_

_
0 1 0
_
v

i
,
donde, seg un la Observacion 4.23, v

i
es la forma lineal denida por:
v

i
(v
j
) =

1 para j = i
0 para j = i.
Por supuesto el conjunto formado por los v

i
es una base de V

.
Denicion 4.28. La base B

:= {v

1
, . . . , v

n
} de V

se llama la base
dual de B.
A pesar de no haber un isomorsmo canonico entre V y su dual V

,
podemos construir un isomorsmo canonico entre V y el dual (V

de
V

. Mas precisamente, denamos la funcion : V (V

, mediante
(v)f := f(v), donde v V y f V

. Esto es, para v V,


(v) : V

K
f (v)f := f(v)
Proposicion 4.29. es un isomorsmo (canonico) de V en (V

.
Demostraci on. Es facil ver que es una transformacion lineal.
Veremos que es inyectiva, y como V y (V

tienen igual dimension,


se concluye que es isomorsmo.
94 4. TRANSFORMACIONES LINEALES
Sea v =
1
v
1
+ +
n
v
n
Ker(), entonces (v)f = 0, para
todo f V

. Es decir, f(v) = 0. Tomando f = v

i
, se sigue que
i
= 0,
para todo i. Por lo tanto v = 0.
Sean Hom(V, W), B = {v
1
, . . . , v
n
} una base de V y D =
{w
1
, . . . , w
m
} una base de W. La transformacion lineal dene una
funcion

de W

en V

,
f

(f) := f (f W

).
Sean B

y D

las respectivas bases duales de B y D. La i-esima


columna de la matriz [

]
B

D
son las coordenadas de

(w

i
) en la base
B

. Pongamos,
(4.4)

(w

i
) =
1i
v

1
+ +
ni
v

n
.
Por otra parte la j-esima columna de la matriz []
D
B
son las coor-
denadas de (v
j
) en la base D. Pongamos,
(4.5) (v
j
) =
1j
w
1
+ +
mj
w
m
.
Evaluando (4.4) en v
j
se obtiene:

(w

i
)(v
j
) = (
1i
v

1
+ +
ni
v

n
) (v
j
) =
ji
.
Usando (4.5) obtenemos:

(w

i
)(v
j
) = (w

i
)(v
j
)
= w

i
(
1j
w
1
+ +
mj
w
m
)
=
ij
.
Por lo tanto
ji
=
ij
. As, hemos demostrado la siguiente proposicion.
Proposicion 4.30.

es una transformacion lineal. Ademas,


[

]
B

D
= ([]
D
B
)
t
.
4.4. EJERCICIOS 95
4.4. Ejercicios
Ejercicio 4.1. Demuestre que la transformacion lineal del Ejemplo
4.2 es un isomorsmo.
Ejercicio 4.2. Explicite isomorsmos entre los espacios vectoriales
del Ejemplo 4.14.
Ejercicio 4.3. Sea M M
2
(K), considere la funcion
M
,

M
: M
2
(K) M
2
(K)
N MN NM
1. Demuestre que
M
es lineal.
2. Encuentre una base para el kernel y la imagen de
M
, para:
M =
_
0 1
1 0
_
.
Ejercicio 4.4. Considere la funcion ,
: M
n
(C) C
M tr(M
t
)
1. Demuestre que es lineal.
2. Calcular la nulidad y rango de .
Ejercicio 4.5. Sea la transformacion lineal de K
2
[x] en M
2
(K)
tal que:
x
_
1 1
1 1
_
,
x +1
_
1 1
1 0
_
,
x
2

_
0 0
0 1
_
.
Determine una base para Ker() y una base para Im().
96 4. TRANSFORMACIONES LINEALES
Ejercicio 4.6. Sea V un R-espacio vectorial y B = {v
1
, v
2
, v
3
} una
base de V. Sea Hom(V, R
3
) denida por:
(av
1
+bv
2
+ cv
3
) = (a + b +c, a +b, b +c) (a, b, c R).
1. Demuestre que es un isomorsmo.
2. Calcular [
1
(v)]
B
, donde v = (1, 2, 3).
Ejercicio 4.7. Explicite un isomorsmo entre los R-espacios vec-
toriales R
2
[x] y V = {A M
2
(R) | A = A
t
}
Ejercicio 4.8. Sea V := {M M
2
(R) ; tr(M) = 0}
1. Dena un isomorsmo de V en R
3
.
2. Determine
1
(x, y, z).
Ejercicio 4.9. Sea V un Respacio vectorial con base B = {v
1
, v
2
, v
3
}.
Sea Hom(R
3
, V) denida a traves de la asignacion:
(1, 1, 1, ) v
1
+v
2
+v
3
, (1, 1, 0, ) v
1
v
2
, (1, 0, 0) v
2
v
3
.
1. Demuestre que es un isomorsmo.
2. Determine []
B
C
, donde C es la base canonica de R
3
.
Ejercicio 4.10. Explicite una base para Hom(R
3
, R
2
).
Ejercicio 4.11. Sea V un K-espacio vectorial de dimension par.
Demuestre que para toda aplicacion lineal no nula de V en K se
tiene que la dimension del Kernel de es impar.
Ejercicio 4.12. Demuestre que si V o W son de dimension innita,
entonces Hom(U, V) tambien es de dimension innita.
Ejercicio 4.13. Demuestre que si Hom(V, W) y Hom(W, U),
entonces Hom(V, U).
Ejercicio 4.14. Sea el isomorsmo de R
3
en R
2
[x], denido por:
((a, b, c)) = (a +b + c)x
2
+ (a b +c)x + (a +b c).
Calcular
1
(x
2
+x +).
4.4. EJERCICIOS 97
Ejercicio 4.15. Sea V el R-espacio vectorial formado por las matri-
ces, con entradas en R, de tama no 2 y traza nula. Sea Hom(V, R
3
),
tal que:
[]
D
B
=
_
_
_
1 1 1
0 1 1
0 0 1
_
_
_
,
donde D = {(1, 1, 1), (1, 1, 0), (1, 0, 0)}, y
B =
_
1 0
0 1
_
,
_
0 0
1 0
_
,
_
0 1
0 0
_
.
Calcular, si existe,
1
(a, b, c).
Ejercicio 4.16. Sea
: R
3
M
2
(R)
(a, b, c)
_
a b b c
c b b a
_
.
Determine bases B y D de R
3
y M
2
(R), respectivamente, de modo que:
[]
D
B
=
_
_
_
_
_
_
1 0 0
0 1 0
0 0 0
0 0 0
_
_
_
_
_
_
.
Ejercicio 4.17. Sea V un K-espacio vectorial con base {v
1
, v
2
, v
3
}.
Sea la aplicacion lineal denida por:
(v
1
) = v
1
+v
2
+v
3
,
(v
2
) = v
1
v
2
+bv
3
,
(v
3
) = v
1
+v
2
+b
2
v
3
.
Encuentre los valores de b para los cuales es un isomorsmo. Describa

1
cuando corresponda.
Ejercicio 4.18. Sea X un conjunto nito. Sea V el C-espacio vec-
torial C
X
. Sea T la funcion de V en C, denida por:
f T(f) :=

xX
f(x).
98 4. TRANSFORMACIONES LINEALES
1. Demuestre que T es C-lineal.
2. Demuestre que T es un isomorsmo si, y solo si, |X| = 1.
Ejercicio 4.19. Sea una aplicacion lineal de K
2
[x] en K
2
tal que:
[]
D
B
=
_
1 1 1
0 1 1
_
,
donde B = {1, 1 + x, 1 + x + x
2
} y D = {(1, 0), (1, 1)}.
1. Calcular (x
2
+ x + ).
2. Calcular Ker().
3. Calcular Im().
Ejercicio 4.20. Sea la transformacion lineal desde K
2
[x] a K
4
,
tal que:
x (1, 1, 1, 1),
x 1 (1, 1, 1, 0),
x
2
(1, 1, 0, 0).
1. Determine una base para Ker().
2. Determine el rango de .
3. Determine la matriz asociada a , respecto a las bases canoni-
cas de K
2
[x] y K
4
.
Ejercicio 4.21. Sea V el R-espacio vectorial formado por la ma-
trices de la forma:
_
a b
b a
_
.
Hallar una base B de V y una base C de R
3
, tal que,
[]
C
B
=
_
_
_
1 0
0 0
0 0
_
_
_
,
donde Hom(V, R
3
) esta denido por:
:
_
a b
b a
_
(a b, b a, 2a 2b).
4.4. EJERCICIOS 99
Ejercicio 4.22. Encuentre bases B y D de M
2
(K) y K
2
, respecti-
vamente, tal que:
[]
D
B
=
_
1 0 0 0
0 1 0 0
_
,
donde esta denida por:
: M
2
(K) K
2
_
a b
c d
_
(a +d, b c).
Ejercicio 4.23. Sea T End
C
V tal que T
2
= 1. Demuestre que
V = UW, donde:
U = {v V ; Tv = v} y W = {v V ; Tv = v}.
Deduzca que existe una base B de V tal que [T]
B
es de la forma:
_
_
_
_
_
_
_
_
_
_
_
_
1
.
.
. 0
1
1
0
.
.
.
1
_
_
_
_
_
_
_
_
_
_
_
_
.
Ejercicio 4.24. Sea P End
K
V, tal que P
2
= P. Demuestre que,
V = Ker(P) Im(P).
Ejercicio 4.25. Sea V un C-espacio vectorial, y {v
1
, v
2
, v
3
} una base
de V. Sea la aplicacion lineal de V en C
3
tal que:
v
1
+v
2
+v
3
(i, i, i), v
1
+v
2
(0, i, i), v
1
(0, 0, i).
Demuestre que es un C-isomorsmo.
Ejercicio 4.26. Sea Hom
K
(U, V) y Hom
K
(V, W). De-
muestre que si es inyectiva, entonces rg() = rg( ).
100 4. TRANSFORMACIONES LINEALES
Ejercicio 4.27. Sea V un R-espacio vectorial, y supongamos que
existe un monomorsmo de V en R
4
cuya imagen es generada por los
vectores: (1, 1, 1, 1), (0, 1, 1, 0) y (1, 0, 0, 1). Determine la dimension
de V.
Ejercicio 4.28. Sea una aplicacion R-lineal epiyectiva de R
4
en
un espacio vectorial V, cuyo kernel esta constituido por lo vectores
(x, y, z, w) de R
4
tales que,
x +y +z + w = 0.
Calcular la dimension de V.
Ejercicio 4.29. Demuestre que si : V W es una aplicacion
lineal epiyectiva cuyo kernel es isomorfo a W, entonces la dimension de
V es un n umero par.
Ejercicio 4.30. Sea Hom(V, R
4
). Determine la dimension de
V, si se sabe que es inyectiva, y que:
Im() = vect{(1, 1, 1, 1), (1, 1, 1, 0), (2, 2, 2, 1)}.
Ejercicio 4.31. Sea V el R-espacio vectorial M
2
(R). Considere la
aplicacion lineal : V R
3
, denida por:
(E
11
) = e
1
+e
2
, (E
12
) = (E
21
) = e
3
, (E
22
) = e
1
e
2
,
donde {E
ij
} denota la base canonica de V, y {e
i
} denota la base canonica
de R
3
.
1. Calcular la nulidad de .
2. Calcular el rango de .
Ejercicio 4.32. Sean B = {v
1
, v
2
, v
3
} y D bases de un K-espacio
vectorial V. Calcular [v]
D
, si v = v
1
+2v
2
+3v
3
y
[I
V
]
B
D
=
_
_
_
0 0 1
0 1 0
1 1 1
_
_
_
.
4.4. EJERCICIOS 101
Ejercicio 4.33. Explicite una base para el Kernel de la aplicacion
lineal denida en el Ejecicio 4.18.
Ejercicio 4.34. Demuestre que si V es un Cespacio vectorial de
dimension n, entonces V resulta ser un Respacio vectorial de dimen-
sion 2n.
Ejercicio 4.35. Sean V y W los R-espacios vectoriales R
3
y R
2
,
respectivamente. Sea B la base {(1, 1, 1), (1, 1, 0), (1, 0, 0)} de V, y C =
{e
1
, e
2
} la base canonica de W. Sea Hom(V, W) denida por
(x, y, z) = (x + y, x + z). Considere

Hom(W

, V

), denida
por:

(f) := f (f W

).
1. Calcular [

]
B

C
.
2. Calcular [

(f)]
B
, donde f := e

1
+ e

2
.
Ejercicio 4.36. Determine bases B y D de los Q-espacios vecto-
riales M
2
(Q) y Q
2
respectivamente, tal que,
[]
D
B
=
_
1 0 0 0
0 1 0 0
_
,
donde:
:
_
a b
c d
_
(a + b + c +d, a).
Ejercicio 4.37. Sea V el C-espacio vectorial constituido por las
matrices simetricas de M
2
(C). Sea f := v

1
+2v

2
+ 3v

3
V

. Calcular:
f(
_
1 2
2 1
_
),
donde v
1
=
_
1 0
0 0
_
, v
2
=
_
0 1
1 0
_
y v
3
=
_
1 0
0 1
_
.
102 4. TRANSFORMACIONES LINEALES
Ejercicio 4.38. Sea la aplicacion R-lineal denida por,
: R
3
M
2
(R)
(a, b, c) (a, b, c) =
_
a + b b
c a c
_
.
Denote por

la aplicacion dual asociada a . Calcular las coordenadas


de

(tr) en la base dual de la base canonica de R


3
.
Ejercicio 4.39. Sea Hom(V, W). Demuestre que si es epi-
yectiva, entonces

es inyectiva.
Ejercicio 4.40. Decida si son verdaderas o falsas las siguientes
armaciones:
1. Si V = UW = UW

, entonces W = W

.
2. Sean V y W dos Kespacios vectoriales, : V W tal que
(0
V
) = 0
W
, entonces es una aplicacion lineal.
3. La funcion det : M
n
(K) K, M det(M), es una funcion
lineal.
4. Si End(V), entonces V = Ker() Im().
5. Si Hom(V, W), entonces el kernel de es un subespacio
de W.
6. Si la matriz asociada a una aplicacion lineal no es cuadrada,
entonces no puede ser inyectiva.
7. Si es un aaplicacion lineal de R
2
en R
4
, entonces es inyec-
tiva.
8. Si : R
4
R
2
es una aplicacion lineal, entonces es epi-
yectiva.
9. Si Hom(V, W) y dim(V) = dim(W), entonces es un
isomorsmo.
10. Si W es un subespacio de V, y W

= V

, entonces V = W.
11. Si V

, y no es nula, entonces nul() = dim(V

) 1.
CAPTULO 5
DIAGONALIZACI

ON Y FORMA DE JORDAN
5.1. Diagonalizacion
5.1.1. Discusion Preliminar. Seg un el Teorema 4.21 el estu-
dio de una transformacion lineal se puede reducir a estudiar la matriz
asociada a dicha transformacion lineal. Luego, es util encontrar bases
adecuadas de manera que la matriz asociada sea sencilla, por ejemplo,
que tenga la forma normal de Hermite, o mas a un, que sea una matriz
diagonal. Si Hom(V, W), uno puede determinar sin mayor dicul-
tad una base B de V, y una base D de W de modo tal que []
D
B
tenga
la forma de Hermite, ver Ejemplo 4.16. Ahora en el caso que sea un
endomorsmo, nos interesamos en determinar, si es posible, una base
B de V de modo que la matriz []
B
sea una matriz diagonal. El metodo
usado en el Ejemplo 4.16 no es eciente en este caso, pues necesitamos
usar la misma base B tanto en el dominio como en el recorrido de ,
para calcular []
B
, lo cual implica que al realizar una operacion la
obliga a realizar simultaneamente una operacion columna.
El objetivo de esta seccion es resolver el problema de diagonaliza-
cion de endomorsmos, esto es, caracterizaremos los endomorsmos
de V para los cuales es posible hallar una base B de V tal que la matriz
[]
B
es diagonal. Este problema se puede mirar desde un punto pura-
mente matricial. En efecto, dado un endomorsmo , consideremos la
matriz asociada []
D
respecto a una base D de V. Ahora determinar
una base B de modo que []
B
sea una matriz diagonal, es equivalente
a determinar una matriz invertible P tal que []
B
= P[]
D
P
1
sea dia-
gonal. La relacion precisa entre la matriz P y la base B esta dada por
103
104 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
el hecho que P es la matriz cambio de base desde la base D a la base
B, es decir P = C
B
D
, ver ecuacion (4.2).
Estudiemos el problema de diagonalizacion en dimension 2. Sean V
un K-espacio vectorial de dimension 2, End(V) y M la matriz de
respecto a una base B de V. Supongamos que existe una base D de
V tal que []
D
es una matriz diagonal. Pongamos,
[]
D
=
_

1
0
0
2
_
.
De acuerdo al Corolario 4.26 tenemos la relacion M = C
B
D
[]
D
C
D
B
, o
equivalentemente,
(5.1) MC
B
D
= C
B
D
[]
D
.
Ahora, determinar la base D es equivalente a determinar la matriz C
B
D
.
Si c
i
es la iesima columna de C
B
D
, entonces la ecuacion (5.1) nos dice
que Mc
i
=
i
c
i
(i = 1, 2), o equivalentemente,
(5.2) (M
i
I
2
)c
i
= 0.
Ahora como c
i
no es nulo, la relacion (5.2) nos dice que la matriz
M
i
I
2
es de determinante nulo, o equivalentemente el endomorsmo
I
V
de V es no invertible. As, los escalares
i
K deben ser
solucion de la ecuacion:
det(MxI
2
) = 0.
Notese que las columnas c
i
(i = 1, 2) determinan los vectores v
i
(i =
1, 2) de la base D, los cuales pertenecen al kernel del endomorsmo
I
V
, es decir, v
i
es tal que (v
i
) =
i
v
i
, para i = 1, 2.
La discusion previa motiva los conceptos de valor propio, vector
propio y polinomio caracterstico.
5.1.2. Vector Propio, Valor Propio y Polinomio Carac-
terstico.
Denicion 5.1. Sea M M
n
(K).
5.1. DIAGONALIZACI

ON 105
1. Un vector no nulo u K
n
se dice un vector propio para M,
si existe un escalar K tal que Mu = u. El escalar se
llama valor propio de M.
2. El polinomio det(M xI
n
) K[x], se llama el polinomio ca-
racterstico de M. La ecuacion det(M xI
n
) = 0 se llama la
ecuacion caracterstica de M.
Proposicion 5.2. Matrices similares tienen igual polinomio carac-
terstico.
Demostraci on. Sean M y N dos matrices similares de tama no n.
Luego, podemos escribir N = P
1
MP, donde P es una matriz invertible.
Tenemos,
det(N xI
n
) = det(P
1
MP xP
1
I
n
P)
= det(P
1
(MxI
n
)P)
= det(MxI
n
) (ver Teorema 2.15).
Es decir, los polinomios caratersticos de M y N son iguales.
Proposicion 5.3. Sea M M
n
(K). Un elemento K es un
valor propio de una matriz M si, y solo si, es una solucion de la
ecuacion caracterstica de M.
Demostraci on. Si K es un valor propio de M, entonces el
sistema (MI
n
)X = 0 tiene una solucion no trivial. Luego MI
n
no es invertible, equivalentemente det(MI
n
) = 0, en consecuencia
es una solucion de la ecuacion caracterstica de M. Recprocamente, si
es una solucion de la ecuacion caracterstica de M, entonces det(M
I
n
) = 0. De donde M I
n
no es invertible. Por lo tanto es un
valor propio de M.
106 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Ejemplo 5.1. Sea M =
_
0 1
1 0
_
. El polinomio caracterstico
de M es f(x) = x
2
+1. En efecto,
f(x) := det(MxI
n
) = det
__
x 1
1 x
__
= x
2
+1.
Si consideramos a M como un elemento en M
2
(R), tenemos entonces
que la ecuacion caracterstica no tiene soluciones en R. Por consiguiente
M no posee valores propios.
Ahora, si consideramos a M como un elemento en M
2
(C), la ecua-
cion caracterstica tiene como soluciones los complejos i y i. Luego,
tenemos dos valores propios para M.
Notese que M es la matriz asociada, respecto a la base canonica,
del endomorsmo : e
1
e
2
, e
2
e
1
del C-espacio vectorial C
2
, y
tambien la matriz asociada al endomorsmo : e
1
e
2
, e
2
e
1
del
R-espacio vectorial R
2
.
Ejemplo 5.2. El polinomio caracterstico de una matriz M
M
2
(K) es el polinomio,
x
2
tr(M)x + det (M) .
En efecto, pongamos M =
_
a b
c d
_
, entonces:
det(MxI
n
) = det
__
a x b
c d x
__
= (a x)(d x) bc
= x
2
(a + d)x + (ad bc)
= x
2
tr(M)x + det (M) .
En general, el polinomio caracterstico asociado a una mariz M
M
n
(K) tiene la forma:
(5.3) (1)
n
x
n
+ (1)
n1
tr(M)x
n1
+ + det(M) K[x]
5.1. DIAGONALIZACI

ON 107
(ver Ejecicio 5.2). Recprocamente, dado un polinomio f(x) de la for-
ma (5.3) podemos asociarle su matriz compa nera C
f
, la cual tiene
como polinomio caracterstico a f(x). Mas precisamente, sea f(x) =
(1)
n
x
n
+ a
n1
x
n1
+ + a
1
x + a
0
un polinomio en K[x]. La ma-
triz compa nera asociada a f(x) es la matriz cuadrada C
f
de tama no n
denida por,
C
f
:=
_
_
_
_
_
_
_
_
_
_
_
_
_
_
0 0 0 . . . 0 0 (1)
n+1
a
0
1 0 0 . . . 0 0 (1)
n+1
a
1
0 1 0 . . . 0 0 (1)
n+1
a
2
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 0 0 (1)
n+1
a
n3
0 0 0 . . . 1 0 (1)
n+1
a
n2
0 0 0 . . . 0 1 (1)
n+1
a
n1
_
_
_
_
_
_
_
_
_
_
_
_
_
_
M
n
(K).
Proposicion 5.4. El polinomio caracterstico asociado a la matriz
compa nera C
f
es el polinomio f(x).
Demostraci on. Debemos demostrar que det(C
f
xI
n
) = f(x).
Sobre la matriz C
f
xI
n
realizamos la operacion elemental la F
n1,n
(x),
luego sobre esta nueva matriz realizamos la operacion la F
n2,n1
(x),
y as, sucesivamente, hasta obtener la matriz:
_
_
_
_
_
_
_
_
_
0 0 0 . . . 0 0 (1)
n+1
f(x)
1 0 0 . . . 0 0 (1)
n+1
(a
1
+ +a
n1
x
n2
) x
n1
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
0 0 0 . . . 1 0 (1)
n+1
(a
n2
+ a
n1
x) x
2
0 0 0 . . . 0 1 (1)
n+1
a
n1
x
_
_
_
_
_
_
_
_
_
.
El determinante de esta ultima matriz es igual a det(C
f
xI
n
). Luego,
desarrollando el determinate por la primera la, obtenemos:
det(C
f
xI
n
) = (1)
n+1
(1)
n+1
f(x)det(I
n1
)
= f(x).

108 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
En orden a traspasar la Denicion 5.1 para endomorsmos, necesi-
tamos denir el concepto de determinante de un endomorsmo. Para
esto necesitamos la siguiente proposicion.
Proposicion 5.5. Sean End(V) y B, D dos bases de V, en-
tonces det([]
B
) = det([]
D
).
Demostraci on. De (4.2) tenemos que existe una matriz invertible
P, tal que []
B
= P[]
D
P
1
. Luego, aplicando el Teorema 2.15, se
obtiene la demostracion de la proposicion.
La proposicion anterior nos dice que el valor de []
B
, es indepen-
diente de la base B. Esto permite denir el determinante de un endo-
morsmo.
Denicion 5.6. Para End(V), denimos el determinante
det () de como:
det () := det ([]
B
) ,
donde B es una base de V.
Denicion 5.7. Sea End(V):
1. Un vector no nulo v V se dice un vector propio para si
existe un escalar K tal que (v) = v. El escalar se
llama valor propio de .
2. El polinomio det( xI
V
) K[x], se llama el polinomio ca-
racterstico de . La ecuacion det( xI
V
) = 0 se llama la
ecuacion caracterstica de .
Denicion 5.8. Sea K un valor propio de la matriz M
M
n
(K). Llamaremos espacio propio asociado con , al subespacio U

de K
n
constituido por las soluciones del sistema homogeneo:
(M I
n
)X = 0.
Es decir,
U

= {u K
n
; (MI
n
)u = 0}.
5.1. DIAGONALIZACI

ON 109
Analogamente, si K es un valor propio de End(V). Denimos
el espacio propio V

asociado con , como el kernel del endomorsmo


I
V
. Luego,
V

= {v V ; (v) = v}.
Observacion 5.9. Sea M M
n
(K), y denotemos por
M
el en-
domorfsismo de K
n
, denido por:

M
: K
n
K
n
u Mu
La matriz de
M
respecto de la base canonica B de K
n
, es justamente
la matriz M. En consecuencia, diagonalizar la matriz M es equivalente
a diagonalizar el endomorsmo
M
, es decir, diagonalizar la matriz M
equivalente a determinar una base D de K
n
, tal que []
D
es una matriz
diagonal. Si D es una tal base tenemos ademas:
(C
B
D
)
1
[]
B
C
B
D
= []
D
Luego,
P
1
MP es una matriz diagonal,
donde P = C
B
D
.
En lo que sigue, trabajaremos mas con matrices que con endomor-
smos.
Ejemplo 5.3. Sea M =
_
_
_
3 1 1
2 0 1
1 1 1
_
_
_
M
3
(K). Notemos
que:
M xI
3
=
_
_
_
3 x 1 1
2 x 1
1 1 1 x
_
_
_
F
13
(1)

_
_
_
2 x 0 2 x
2 x 1
1 1 1 x
_
_
_
C
31
(1)

_
_
_
2 x 0 0
2 x 1
1 1 2 x
_
_
_
.
110 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Luego,
det(M xI
3
) = (2 x) [(2 x)(x) +1]
= (x 2)(x 1)
2
.
Por lo tanto, la matriz M tiene como valores propios a 2 y 1. Determi-
nemos ahora los subespacios propios. Para el valor propio 2, tenemos:
M 2I
3
=
_
_
_
1 1 1
2 2 1
1 1 1
_
_
_
F
31
(1)

_
_
_
1 1 1
2 2 1
0 0 0
_
_
_
F
21
(2)

_
_
_
1 1 1
0 0 1
0 0 0
_
_
_
F
12
(1)

_
_
_
1 1 0
0 0 1
0 0 0
_
_
_
.
Luego, una base para el espacio propio U
2
es:

_
_
_
1
1
0
_
_
_

.
Luego, dim(U
2
) = 1.
Para el valor propio 1, tenemos:
M1I
3
=
_
_
_
2 1 1
2 1 1
1 1 0
_
_
_
F
21
(1)

_
_
_
2 1 1
0 0 0
1 1 0
_
_
_
F
13
(2)

_
_
_
0 1 1
0 0 0
1 1 0
_
_
_
.
Luego, la forma de Hermite de la matriz M I
3
es:
_
_
_
1 0 1
0 1 1
0 0 0
_
_
_
.
5.1. DIAGONALIZACI

ON 111
Luego, una base del espacio propio U
1
, es:

_
_
_
1
1
1
_
_
_

.
As, dim(U
1
) = 1.
Denicion 5.10. Sea un valor propio. La dimension del espacio
propio de se llama la multiplicidad geometrica de . La multiplicidad
algebraica de es la multiplicidad de en su polinomio caracteristco.
Ejemplo 5.4. En el ejemplo anterior, tenemos que la multiplicidad
geometrica de = 1 es 1, y su multiplicidad algebraica es 2. Para
el valor propio = 2, tenemos que las multiplicidades geometrica y
algebraica son iguales a 1.
Proposicion 5.11. La multiplicidad geometrica de un valor propio
es menor o igual a su multiplicidad algebraica.
Demostraci on. Sea un valor propio de la matriz M M
n
(K).
Supongamos que la multiplicidad geometrica de es r n. Conside-
remos el endomorsmo =
M
de K
n
, x Mx. Sea {v
1
, . . . , v
r
} una
base del espacio propio asociado con , luego (v
i
) = v
i
. Comple-
temos esta base a una base B = {v
1
, . . . , v
r
, . . . , v
n
} de K
n
. Luego, la
matriz asociada a respecto a esta base tiene la forma:
[]
B
=
_
_
_
_
_
_

.
.
.
.
.
.

0 0 N
_
_
_
_
_
_
,
donde N es una matriz de orden n r. Por lo tanto, el polinomio
caracterstico de M tiene la forma (x r)
r
q(x) K[x], donde q(x) es
el polinomio caracterstico de la matriz N. Por lo tanto r n.
112 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Proposicion 5.12. Sean
1
, . . . ,
m
los distintos valores propios
de una matriz M, y sean u
1
, . . . , u
m
vectores propios asociados a es-
tos valores propios. Entonces {u
1
, . . . , u
m
} es un conjunto linealmente
independiente.
Demostraci on. Supongamos que B = {u
1
, . . . , u
m
} es un con-
junto linealmente dependiente. Tomemos un sunconjunto B

de B que
sea linealmente independiente y maximal. Sin perdida de generalidad
pongamos B

= {u
1
, . . . , u
r
}. As, B

es una base del espacio vectorial


generado por B. Luego cada u
s
, con s = 1, . . . , r, se escribe de modo
unico como sigue,
(5.4) u
s
=
1
u
1
+ +
r
u
r
.
Notese que no todos los
i
son nulos, pues u
s
es un vector no nulo.
Multiplicando por M la ecuacion (5.4) obtenemos:
(5.5)
s
u
s
=
1

1
u
1
+ +
r

r
u
r
.
En el caso
s
= 0, tenemos que los otros valores propios son todos
distintos de 0 y como los
i
son no todos nulos, se sigue que no todos
los
i

i
son iguales a 0. Luego, la ecuacion (5.5) es una combinacion
lineal no trivial del vector nulo, es decir, B

es linealmente dependiente;
lo cual es una contradiccion. En el caso
s
= 0, la ecuacion (5.5) implica
que:
u
s
=
1

s
u
1
+ +
r

s
u
r
.
Ahora como
i
=
s
(i = 1, . . . , s), se obtiene una escritura distinta a
la dada en (5.4) de u
s
, lo cual es una contradiccion (ver Lema 3.28).
Corolario 5.13. Si M M
n
(K) tiene n valores propios distintos

1
, . . . ,
n
, entonces M es similar a una matriz diagonal. Mas preci-
samente, tenemos que P
1
MP es la matriz diagonal,
_
_
_
_

1
.
.
.

n
_
_
_
_
,
5.1. DIAGONALIZACI

ON 113
donde P es la matriz cuya i-esima columna es un vector propio del
valor propio
i
.
Demostraci on. Sea P la matriz de orden n cuya iesima columna
es un vector propio del valor propio
i
. De la proposicion anterior se
deduce que la matriz P es invertible. Ahora MP es la matriz cuya i-
esima columna es Mv
i
=
i
v
i
. Luego, tenemos MP = PT, donde:
T =
_
_
_
_

1
.
.
.

n
_
_
_
_
.
Por lo tanto, P
1
MP = T.
Ejemplo 5.5. Sea M =
_
_
_
4 4 6
18 25 36
11 16 23
_
_
_
M
3
(Q). Notemos
que:
M xI
3
=
_
_
_
4 x 4 6
18 25 x 36
11 16 23 x
_
_
_
C
13
(1/2)

_
_
_
x 1 4 6
0 25 x 36
x+1
2
16 23 x
_
_
_
F
31
(1/2)

_
_
_
x 1 4 6
0 25 x 36
0 18 26 x
_
_
_
.
Luego, det(MxI
3
) = (x+1)(x+2)(x1). Por lo tanto, de acuerdo
al corolario anterior, la matriz M es diagonalizable en Q, pues tiene 3
valores propios (distintos) en Q.
Calculemos el espacio propio U
1
. Tenemos:
M (1)I
3
=
_
_
_
3 4 6
18 26 36
11 16 22
_
_
_
.
114 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Luego
M+ I
3
F
21
(6)

_
_
_
3 4 6
0 2 0
11 16 22
_
_
_
F
1
(1/3)

_
_
_
1 4/3 2
0 2 0
11 16 22
_
_
_
F
31
(11)

_
_
_
1 4/3 2
0 2 0
0 4/3 0
_
_
_
F
2
(1/2)

_
_
_
1 4/3 2
0 1 0
0 4/3 0
_
_
_
F
32
(4/3)

_
_
_
1 4/3 2
0 1 0
0 0 0
_
_
_
F
12
(4/3)

_
_
_
1 0 2
0 1 0
0 0 0
_
_
_
.
Por lo tanto, tenemos:
U
1
=

_
_
_
x
y
z
_
_
_
; x + 2z = 0, y = 0

= vect

_
_
_
2
0
1
_
_
_

.
De igual modo determinamos los espacios propios U
1
y U
2
asociados
a los valores propios 1 y 2, respectivamente:
U
1
=

_
_
_
x
y
z
_
_
_
; x = 0, 2y + 3z = 0

= vect

_
_
_
0
3
2
_
_
_

U
2
=

_
_
_
x
y
z
_
_
_
; x z = 0, y +2z = 0

= vect

_
_
_
1
2
1
_
_
_

.
De acuerdo al corolario anterior, tenemos:
P
1
MP =
_
_
_
1 0 0
0 1 0
0 0 2
_
_
_
,
donde,
P =
_
_
_
2 0 1
0 3 2
1 2 1
_
_
_
.
5.1. DIAGONALIZACI

ON 115
5.1.3. Teorema de CayleyHamilton y Polinomio Mini-
mal. Sean M M
n
(K) y f(x) = a
n
x
n
+ + a
1
x + a
0
un polinomio
en K[x]. Denotaremos por f(M) la matriz de M
n
(K) obtenida de eva-
luar el polinomio f(x) en la matriz M, es decir,
f(M) := a
n
M
n
+ +a
1
M+ a
0
I
n
M
n
(K).
Teorema 5.14 (Cayley-Hamilton). Si f(x) es el polinomio carac-
terstico de la matriz M, entonces f(M) = 0.
Demostraci on. Sea M M
n
(K). Pongamos Q := M xI
n
. La
adjunta de la matriz Q, es una matriz cuyas entradas son polinomios
de grado a lo mas n 1. Luego, podemos escribir,
(5.6) adj(Q) = Q
n1
x
n1
+ +Q
1
x + Q
0
,
donde Q
i
M
n
(K). Por otra parte tenemos que adj(Q)Q = det (Q) I
n
,
o sea,
(5.7) adj(Q)Q = f(x)I
n
,
donde f(x) = a
n
x
n
+ + a
1
x + a
0
es el polinomio caracterstico de
M. Luego adj(Q)M adj(Q)x = f(x)I
n
. De esta ultima igualdad y la
escritura (5.6) para la adjunta de Q, se obtiene:
f(x)I
n
= Q
n1
x
n
Q
n2
x
n1
Q
0
x
+Q
n1
Mx
n1
+ + Q
1
Mx +Q
0
M
Por lo tanto,
a
n
I
n
= Q
n1
a
n1
I
n
= Q
n2
+ Q
n1
M
.
.
.
a
1
I
n
= Q
0
+ Q
1
M
a
0
I
n
= Q
0
M.
116 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Multiplicando respectivamente estas ecuaciones por M
n
, M
n1
, . . . , I
n
,
obtenemos:
a
n
M
n
= Q
n1
M
n
a
n1
M
n1
= Q
n2
M
n1
+ Q
n1
M
n
.
.
.
a
1
M = Q
0
M+Q
1
M
2
a
0
I
n
= Q
0
M.
Luego, al sumar estas ecuaciones resulta:
f(M) = a
n
M
n
+ a
0
I
n
= 0.

Corolario 5.15. Sea M una matriz invertible, y f(x) = a


n
x
n
+
+ a
1
x + a
0
su polinomio caracterstico, entonces,
M
1
=
1
a
0
(a
n
M
n1
+ + a
1
I
n
).
Demostraci on. Por el Teorema de CayleyHamilton f(M) = 0,
o equivalentemente
_
a
n
M
n1
+ + a
1
I
n
_
M = a
0
I
n
. Ahora, como
M es una matriz invertible se sigue que a
0
= 0, pues a
0
= det(M), ver
(5.3). Luego,

1
a
0
_
a
n
M
n1
+ + a
1
I
n
_
M = I
n
.
De donde se obtiene el corolario.
El Teorema de Cayley-Hamilton permite denir el concepto de po-
linomio minimal de una matriz.
Denicion 5.16. Sea M M
n
(K). El polinomio monico m(x)
K[x] de menor grado tal que m(M) = 0, se llama polinomio minimal
de M.
Notese que para matrices M, P M
n
(K), con P invertible, se tiene:
(P
1
MP)
r
= P
1
M
r
P, para todo r N. Luego, para todo polinomio
5.1. DIAGONALIZACI

ON 117
f(x) = a
n
x
n
+ + a
1
x + a
0
, tenemos:
f(P
1
MP) = a
n
(P
1
MP)
n
+ + a
1
(P
1
MP) +a
0
I
n
= a
n
P
1
M
n
P + + a
1
P
1
MP +P
1
P
= P
1
(a
n
M+ +a
1
P
1
MP + a
0
I
n
)P.
Es decir, f(P
1
MP) = P
1
f(M)P. Luego, para matrices similares M y
N tenemos:
f(M) = 0 si y solo si f(N) = 0.
Luego, se deduce la siguiente proposicion.
Proposicion 5.17. Matrices similares tienen igual polinomio mi-
nimal.
Proposicion 5.18. Sea M M
n
(K). Si f(x) K[x] es tal que
f(M) = 0, entonces el polinomio minimal divide a f(x).
En particular, el polinomio minimal de M divide al polinomio ca-
racterstico de M.
Demostraci on. Por el algoritmo de la division en el anillo K[x],
tenemos que existen polinomios q(x), r(x) K[x] tal que,
f(x) = q(x)m(x) + r(x),
donde el grado de r(x) es menor que el grado de m(x). Ahora, al evaluar
la igualdad anterior en M, obtenemos f(M) = q(M)m(M) +r(M). O
sea 0 = q(M)0 + r(M), es decir r(M) = 0. Luego, r(x) debe ser el
polinomio nulo, de donde el polinomio minimal divide a f(x).
La segunda armacion es una consecuencia del primer enunciado
de la proposicion y el teorema de Cayley-Hamilton.
Teorema 5.19. Si f(x) K[x] es el polinomio caracterstico de una
matriz M M
n
(K), entonces el polinomio monico asociado al cociente
f(x)/g(x) es el polinomio minimal de M, donde g(x) denota el maximo
com un divisor entre las entradas de la matriz adjunta de M xI
n
.
118 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Demostraci on. Conservemos las notaciones del enunciado del teo-
rema. Sea,
h(x) :=
f(x)
g(x)
y m(x) el polinomio minimal de M. Pongamos Q := M xI
n
. Como
g(x) es el maximo com un divisor de las entradas de adj(Q), podemos
escribir adj(Q) = g(x)R, donde R es una matriz en M
n
(K[x]) cuyas
entradas son polinomios que son primos relativos. Usando (5.7), se
deduce que g(x)RQ = g(x)h(x)I
n
; de donde,
RQ = h(x)I
n
.
Procediendo como en XXX, se puede ver que h(M) = 0. Luego, de la
Proposicion 5.18 se sigue que m(x) divide a h(x).
Para terminar la demostracion basta ver que h(x) divide a m(x).
Miremos el polinomio minimal m(x) en K[x, y] := K[x][y]. Conside-
remos el polinomio m(y) K[x, y] obtenido de reemplazar x por y en
m(x). Es claro que el polinomio yx divide al polinomio m(x)m(y),
entonces existe s(x, y) K[x, y] tal que,
m(x) m(y) = (y x)s(x, y).
Ahora, haciendo x = xI
n
y y = M, se obtiene,
(5.8) m(xI
n
) = (M xI
n
)s(xI
n
, M),
pues m(M) = 0. Multiplicando esta ultima igualdad por adj(Q), usan-
do la denicion de h(x) y (5.7), se sigue que m(xI
n
)R = h(x)s(xI
n
, M);
ahora como m(xI
n
)R = m(x)R, se obtiene:
m(x)R = h(x)s(xI
n
, M).
De esta ultima igualdad se sigue que h(x) divide todas las entradas
de la matriz m(x)R M
n
(K[x]). Pero las entradas de la matriz R
M
n
(K[x]) son primas relativas en K[x], por lo tanto h(x) divide a m(x).

5.1. DIAGONALIZACI

ON 119
Ejemplo 5.6. Consideremos las siguientes matrices de M
3
(K):
M =
_
_
_
8 15 12
6 13 12
4 10 10
_
_
_
, N =
_
_
_
5 10 14
6 10 12
1 1 0
_
_
_
.
Las matrices M y N tienen como polinomio caracterstico el polinomio,
f(x) = (x 2)
2
(x 1).
Un calculo directo da:
adj(MxI
3
) =
_
_
_
(x + 5)(x 2) 6(x 2) 4(x 2)
15(x 2) (x 16)(x 2) 10(x 2)
12(x 2) 12(x 2) (x +7)(x 2)
_
_
_
t
.
Luego, el maximo com un divisor de las entradas de adj(M xI
3
) es
(x 2). Luego, el polinomio minimal de M es (x 1)(x 2).
Para la matriz N se tiene,
adj(N xI
3
) =
_
_
_
x
2
10x + 12 6(x 2) (x 4)
2(5x 7) (x +7)(x 2) (x 5)
2(7x 10) 12(x 2) x
2
5x + 10
_
_
_
t
.
El maximo com un divisor de las entradas de adj(NxI
3
) es 1. Luego,
el polinomio minimal de N es (x 1)(x 2)
2
.
Proposicion 5.20. Cada factor irreducible del polinomio carac-
terstico es un factor irreducible del polinomio minimal.
Demostraci on. Sean M M
n
(K), f(x) y m(x) su polinomio
caracterstico y minimal, respectivamente. De la relaci on (5.8), obtene-
mos:
det(m(x)I
n
) = det ((MxI
n
)s(xI
n
, M)) ,
luego,
(m(x))
n
= f(x)det (s(xI
n
, M)) .
As, todo factor irreducible de f(x) divide a (m(x))
n
. Por lo tanto, todo
factor irreducible de f(x) divide a m(x).
120 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Corolario 5.21. Si el polinomio caracterstico f(x) de una matriz
M no tienen factores irreducibles repetidos, entonces el polinomio mi-
nimal de M es el polinomio monico asociado a f(x).
Demostraci on. Queda de ejercicio.
Ejemplo 5.7. Sea M M
7
(R) cuyo polinomio minimal f(x) es,
f(x) = (x
2
+x +1)
2
(x 2)
2
(x 1).
De acuerdo con la Proposicion 5.20, el polinomio minimal de M es uno
de los siguientes polinomios:
(x
2
+x +1)(x 2)(x 1), (x
2
+x +1)
2
(x 2)(x 1),
(x
2
+x +1)(x 2)
2
(x 1), (x
2
+x +1)
2
(x 2)
2
(x 1).
Ejemplo 5.8. Seg un el Corolario 5.21, es facil ver que para la
matriz M del Ejemplo 5.5 el polinomio minimal es (x+1)(x1)(x2).
5.1.4. Teorema de Diagonalizacion. El objetivo de esta sub-
seccion es demostrar el Teorema 5.24, el cual resuelve el problema de
diagonalizacion. En la demostracion del teorema se usar an los siguien-
tes lemas.
Lema 5.22. Sean
1
, . . . ,
m
distintos valores propios de una ma-
triz M M
n
(K), y sea U

i
es el espacio propio correspondiente con

i
. Entonces la suma U

1
+ + U
m
es una suma directa.
Demostraci on. Si existe un vector no nulo u U

j
(U

1
+
+

U

j
+ + U
m
), entonces tenemos un vector propio u, de
j
,
que es una combinacion lineal de vectores propios u
i
en U

i
, donde
1 i n, i = j; lo cual contradice la Proposicion 5.12. As, el lema
queda demostrado.
Lema 5.23. Sean y dos endomorsmo de un espacio vectorial
V de dimension n, entonces rg( ) n (nul() + nul()). Mas
generalmente, si
1
, . . . ,
m
son endomorsmos de V, entonces:
rg(
1

m
) n (nul(
1
) + + nul(
m
)).
5.1. DIAGONALIZACI

ON 121
Demostraci on. Consideremos el siguiente diagrama:
V

//
V

//
V
Im()
?

OO

<<
y
y
y
y
y
y
y
y
y
donde

es la restriccion de a Im(). Usando el Teorema 4.8, se


tiene:
n nul() = rg() = nul(

) + rg(

).
Luego rg(

) = rg() nul(

) = nnul() nul(

). Por otra parte


rg(

) = rg( ) y nul(

) nul(), de donde se concluye que:


rg( ) n (nul() + nul()).
La otra armacion del lema sigue de un argumento inductivo sobre
la primera armacion.
Teorema 5.24. Una matriz M M
n
(K) es diagonalizable si, y
solo si, su polinomio minimal se factoriza, en K[x], en factores lineales
distintos.
Demostraci on. Supongamos que la matriz M M
n
(K) es diago-
nalizable. As, M es similar a una matriz diagonal N. Ahora como los
elementos en la diagonal de N son justamente las races de su polino-
mio caracterstico, es decir, los valores propios de N, y como matrices
similares tienen igual polinomio caracterstico, se deduce entonces que
los valores propios de M son los elementos de la diagonal de N. Si
i
es un valor propio de N con multiplicidad r
i
, entonces el polinomio
minimal de N tiene a
i
como raz con multiplicidad s
i
, 1 s
i
r
i
.
Ahora, un calculo directo muestra que:
(N
1
I
n
)(N
2
I
n
) (N
k
I
n
) = 0.
Luego, el polinomio minimal de N es m(x) = (x
1
)(x
2
) (x

k
). Usando la Proposicion 5.17 se concluye que m(x) es tambien el
polinomio minimal de M.
122 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Recprocamente, sea m(x) = (x
1
)(x
2
) (x
k
) el poli-
nomio minimal de M. Sea
i
el endomorsmo de K
n
, denido por:
u (M
i
I
n
)u.
El kernel de
i
es el espacio propio U

i
correspondiente a
i
. Pongamos
d
i
= nul(
i
), es decir, d
i
es la dimension geometrica de
i
. De la
primera armacion del Lema 5.22 tenemos que d
1
+d
2
+ +d
k
n.
Por otra parte
1

k
es el endomorsmo u m(M)u. Pero
m(M) = 0, luego del Lema 5.23 se sigue que d
1
+ d
2
+ + d
k
n.
Por lo tanto, d
1
+ d
2
+ +d
k
= n. As,
K
n
= U

1
U

2
U

k
.
Ahora, elijamos una base B
i
de U

i
y consideremos la base B := B
i
de K
n
. De la construccion de B es inmediato que []
B
es una matriz
diagonal, donde:
: u Mu.
Ahora, Mcorresponde a la matriz asociada, respecto a la base canonica,
del endomorsmo de K
n
. Por lo tanto, M es similar a una matriz
diagonal.
Observacion 5.25. Notese que, como en el Corolario 5.13, si P
es la matriz cuya i-esima columna es el i-esimo vector de la base B,
entonces P
1
MP es la siguiente matriz diagonal:
_
_
_
_
D
1
0
.
.
.
0 D
k
_
_
_
_
, donde D
i
:=
_
_
_
_

i
0
.
.
.
0
i
_
_
_
_
.
Conservando las notaciones introducidas en la demostraci on del teo-
rema anterior, tenemos el siguiente corolario.
Corolario 5.26. M es diagonalizable si, y solo si, r
i
= d
i
. Es decir,
una matriz es diagonalizable si, y solo si, las multiplicidades geometri-
cas de sus valores propios coinciden con las respectivas multiplicidades
algebraicas.
5.1. DIAGONALIZACI

ON 123
Demostraci on. Si M es diagonalizable, tenemos n =

d
i
=

r
i
y como d
i
r
i
, se concluye que d
i
= r
i
.
Recprocamente, si r
i
= d
i
, entonces

d
i
=

r
i
= n. Luego,
K
n
= U
1
U
2
U
k
, de donde se concluye que M es diagonalizable.

Ejemplo 5.9. La matriz del Ejemplo 5.1 es diagonalizable como


elemento en M
2
(C), pero no es diagonalizable en M
2
(R).
Ejemplo 5.10. Mirando los polinomios minimales de las matrices
M y N del Ejemplo 5.6, se sigue que M es diagonalizable, y N no lo
es. De acuerdo a lo realizado en la demostracion del Teorema 5.24, la
matriz M es similar a la matriz diagonal D,
D =
_
_
_
2 0 0
0 2 0
0 0 1
_
_
_
.
Un calculo directo muestra que los espacios propios de 2 y 1 son,
respectivamente,
U
2
=

_
_
_
x
y
z
_
_
_
; 2x + 5y +4z = 0

= vect

_
_
_
5
2
0
_
_
_
,
_
_
_
2
0
1
_
_
_

.
y
U
1
=

_
_
_
x
y
z
_
_
_
; 2x + 3y = 0, 2y + 3z = 0

= vect

_
_
_
3
3
2
_
_
_

.
Luego, P
1
MP = D, donde:
P =
_
_
_
5 2 3
2 0 3
0 1 2
_
_
_
.
124 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Ejemplo 5.11. Sea V el Kespacio vectorial formado por las ma-
trices simetricas de M
2
(K). Sea End(V), denido por:
:
_
a b
b c
_

_
11a 6b 3d 12a 7b 3d
12a 7b 3d 12a 6b 4d
_
.
En este ejemplo diagonalizaremos el endomorsmo , es decir, cons-
truiremos una base D de V, tal que []
D
es una matriz diagonal.
Consideremos la base B := {u, v, w} de V, donde:
u =
_
1 0
0 0
_
, v =
_
0 1
1 0
_
y w =
_
0 0
0 1
_
.
Recalquemos que la eleccion de la base B es totalmente arbitraria. En
orden a calcular []
B
, notese que:
(u) =
_
11 12
12 12
_
, (v) =
_
6 7
7 6
_
y (w) =
_
3 3
3 4
_
Luego,
M := []
B
=
_
_
_
11 6 3
12 7 3
12 6 4
_
_
_
Ahora,
M xI
3
F
12
(1)

_
_
_
1 x 1 + x 0
12 7 x 3
12 6 4 x
_
_
_
C
21
(1)

_
_
_
1 x 0 0
12 5 x 3
12 6 4 x
_
_
_
Luego, el polinomio caracterstico de M resulta ser:
det( xI
3
) = det(M xI
3
) = (x +1)
2
(x 2).
Los espacios propios U
1
y U
2
de los valores propios 1 y 2 son:
U
1
=

_
_
_
x
y
z
_
_
_
; x = (1/2)y + (1/4)z

= vect

_
_
_
1
2
0
_
_
_
,
_
_
_
1
0
4
_
_
_

5.1. DIAGONALIZACI

ON 125
U
2
=

_
_
_
x
y
z
_
_
_
; x = y = z

= vect

_
_
_
1
1
1
_
_
_

.
Como la multiplidades geometrica y algebraica del valor propio 1
son iguales, idem con el valor propio 2, se sigue que la matriz M es
diagonalizable. Deniendo P como dice la Observacion 5.25,
P =
_
_
_
1 1 1
2 0 1
0 4 1
_
_
_
tenemos:
(5.9) P
1
MP =
_
_
_
1 0 0
0 1 0
0 0 2
_
_
_
.
Ahora la matriz P es invertible, luego puede ser interpretada como la
matriz cambio de base C
B
D
, donde D := {u

, v

, w

} es una base de V.
Ademas, M = []
B
, luego de (5.9) se tiene:
C
D
B
[]
B
C
B
D
= []
D
=
_
_
_
1 0 0
0 1 0
0 0 2
_
_
_
Es decir, la matriz asociada a respecto de la base D es una matriz
diagonal. Podemos determinar los vectores de la base D de la igualdad
P = C
B
D
. En efecto, esta igualdad implica:
u

= 1u + 2v + 0w =
_
1 2
2 0
_
v

= 1u + 0v + 4w =
_
1 0
0 4
_
w

= 1u + 1v + 1w =
_
1 1
1 1
_
.
126 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
5.2. Forma de Jordan
Como vimos anteriormente no toda matriz es diagonalizable. Por
ejemplo, para todo c K

la matriz M =
_
c
0
_
no es diagonali-
zable. Sin embargo, podemos ver que M es similar a la matriz,
_
1
0
_
.
Notese que los elementos en la diagonal de esta ultima matriz son el
valor propio de M. La matriz anterior recibe el nombre de matriz de
Jordan elemental. Mas generalmente, una matriz de Jordan elemental
de M
n
(K) es una matriz de la forma:
(5.10)
_
_
_
_
_
_
_
_
1 0


1
0
_
_
_
_
_
_
_
_
.
Nuestro principal objetivo en esta seccion es mostrar que si el po-
linomio caracterstico f(x) de una matriz M M
n
(K) se factoriza, en
K[x], en la forma:
(5.11) f(x) = (1)
n
(x
1
)
r
1
(x
2
)
r
2
(x
k
)
r
k
,
donde
1
, . . . ,
k
son las distintas races de f(x). Entonces, M es similar
a una matriz en la forma de Jordan, es decir, M es similar a una matriz
de la forma,
(5.12)
_
_
_
_
J
1
0
.
.
.
0 J
m
_
_
_
_
,
donde las matrices J
i
son matrices de Jordan elementales. Mas a un,
veremos como determinar una matriz invertible P tal que:
(5.13) P
1
MP es una matriz en la forma de Jordan.
5.2. FORMA DE JORDAN 127
La matriz de Jordan de (5.12) similar a la matriz Mesta unicamente
determinada, salvo permutacion de los bloques de Jordan elementales
J
i
. Luego, nos referiremos a la forma de Jordan de la matriz M.
Observacion 5.27. De igual modo que en la Observacion 5.9, note-
mos que determinar la forma de Jordan de la matriz M M
n
(K) es
equivalente a determinar una base D de K
n
, de modo que la matriz aso-
ciada al endomorsmo :=
M
, respecto de la base D, tenga la forma
de Jordan. Como M es la matriz []
B
, donde B es la base canonica de
K
n
, tenemos la relacion:
[]
D
= (C
B
D
)
1
MC
B
D
.
As, la matriz P de (5.13) es la matriz cuyas columnas son los vectores
de la base D. Cf. Corolario 5.13.
En el estudio de la forma de Jordan de M M
n
(K) sera realizado
a traves de ciertos endomorsmos

de K
n
. Para K, denotaremos

el endomorsmo de K
n
denido por,

: u (MI
n
)u.
Para i > 0, denotaremos por
i

la compuesta

(i-
veces), y convendremos que
0

es el endomorsmo identidad. En otros


terminos:

: u (MI
n
)
i
u (i N).
Denicion 5.28. Para todo i N y K, denimos los subes-
pacios U
i

y W
i

como el kernel e imagen de


i

, respectivamente. Es
decir:
U
i

:= Ker(
i

) y W
i

:= Im(
i

).
Notese que U
i

es el conjunto solucion del sistema homogeneo,


(M I
n
)
i
X = 0.
En particular, si es un valor propio de M, entonces U
1

es el espacio
propio asociado con .
128 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Ahora para todo i, tenemos: U
i

U
i+1

y W
i

W
i+1

. Luego,
obtenemos las siguientes sucesiones de subespacios:
(5.14) {0} = U
0

U
1

K
n
,
(5.15) K
n
= W
0

W
1

.
Como la dimension de K
n
es nita, implica que estas sucesiones
deben detenerse. Sea t el menor natural tal que,
(5.16) U
j

= U
t

, para todo j > t.


Obviamente la sucesion de subespacios de (5.15) tambien se detiene en
t, es decir: W
j

= W
t

, para todo j > t.


Proposicion 5.29. Para todo K, tenemos K
n
= U
t

W
t

.
Demostraci on. Tenemos

(W
t

) =

(
t

(K
n
) =
t+1

(K
n
).
Pero como t cumple (5.16), se sigue que

(W

) =
t+1

(K
n
) = W
t

.
Por lo tanto,

dene, por restriccion, un automorsmo de W


t

. Ahora
dado v K
n
, tenemos que para w :=
t

(v) W
t

existe un unico
u W
t

tal que

(u) = w. Como v = (v u) + u, se sigue que


K
n
= U

+ W
t

, pues (v u) U

. Por otra parte, tenemos que


n = dim(U
t

) + dim(W
t

), por lo tanto K
n
= U
t

W
t

.
Proposicion 5.30. Para todo i N y K, se tiene:
(5.17)

(U
i+1

) U
i

.
En particular, los espacios U
i

son estables por

, es decir,
(5.18)

(U
i

) U
i

.
Demostraci on. Sea

(u)

(U
i+1

). Tenemos
i

(u)) =

i+1

(u) = 0, pues u U
i+1

. La armacion (5.18) resulta de considerar


(5.14).
En lo que sigue denotaremos por t
i
el menor natural t de (5.16)
cuando =
i
.
5.2. FORMA DE JORDAN 129
Lema 5.31. Si
i
y
j
son dos valores propios distintos de M,
entonces U
t
i

i
W
t
j

j
.
Demostraci on. PENDIENTE
Proposicion 5.32. Si M M
n
(K) es una matriz con polinomio
caracterstico como en (5.11), entonces;
K
n
= U
t
1

1
U
t
k

k
.
Demostraci on. Usando la Proposicion 5.29 tenemos K
n
= U
t
i

i

W
t
i

i
. Ahora del Lema 5.31 tenemos U
t
2

2
W
t
1

1
, luego usando el Ejer-
cicio 3.14 se sigue que,
W
t
1

1
= [W
t
1

1
U
t
2

2
] [W
t
1

1
W
t
2

2
] = U
t
2

2
[W
t
1

1
W
t
2

2
].
Luego,
K
n
= U
t
1

1
W
t
1

1
= [U
t
1

1
U
t
2

2
] [W
t
1

1
W
t
2

2
].
Siguiendo de este modo obtenemos:
K
n
= [U
t
1

1
U
t
k

k
] [W
t
1

1
W
t
k

k
].
Para terminar la demostracion basta ver que W := W
t
1

1

W
t
k

k
= {0}. Consideremos el endomorsmos

i
de K
n
. Razonando
como en la Proposicion 5.29, tenemos que

i
es un automorsmo de
W
t
i

i
. Luego :=

k
es un automorsmo de W. As, para
todo i obtenemos un automorsmo
i
de W,

i
: u (M
1
I
n
)
i
(M
k
I
n
)
i
u.
Ahora, eligiendo un i conveniente tenemos
i
(u) = s(M)p(M)(u),
para alg un s(x) K[x]. Luego, del Teorema de Cayler-Hamilton, se
concluye que
i
(u) = 0. Por lo tanto W = {0}, pues
i
es un automor-
smo.
Corolario 5.33. Si s
i
es la multiplicidad algebraica de
i
en el
polinomio minimal de M, entonces s
i
= t
i
.
130 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Demostraci on. Queda de ejercicio
Las proposiciones 5.30 y 5.32 entregan los primeros pasos para en-
contrar la forma de Jordan de una matriz. En efecto, supongamos que
M es una matriz de M
n
(K), cuyo polinomio caracterstico tiene la for-
ma (5.11). Ahora, para cada valor propio de M elijamos una base
B

de U
t

. De acuerdo a la Proposicion 5.32 tenemos que B := B

es
una base de K
n
, donde recorre todos los valores propios de M. Por
otra parte tenemos:
Mu = (I
n
+M I
n
)u
= u + (M I
n
)u
= u +

u.
As, de la Proposicion 5.30 se sigue que,
(5.19) Mu = u +

u U

, para todo u U

.
Pongamos N := []
B
, donde:
: u Mu.
De (5.19) se deduce que la matriz N es diagonal por bloques. Luego,
M es similar una matriz diagonal por bloques, dado que M y N son
matrices asociadas al mismo endomorsmo . Mas precisamente, si M
es una matriz con valores propios
1
, . . . ,
k
y denotamos por P la
matriz cuyas columnas son los elementos de la base B, obtenemos que
N = P
1
MP tiene la forma:
(5.20) N =
_
_
_
_
N

1
0
.
.
.
0 N

k
_
_
_
_
,
donde N

i
es una matriz de tama no dim(U
t
i

i
).
Por lo tanto, la discusion previa nos dice que determinar la forma
de Jordan de la matriz M, se reduce a determinar la forma de Jordan
de las matrices N

i
. Notese que N

i
es la matriz, respecto a la base
B

i
, del endomorsmo de U
t
i

i
obtenido por restriccion de .
5.2. FORMA DE JORDAN 131
Veamos ahora que, mediante una eleccion adecuada de B

i
, las ma-
trices N

i
pueden ser consideradas como matrices triangulares superio-
res, teniendo a lo largo de la diagonal el valor propio
i
. En efecto,
pongamos =
i
y t = t
i
. Tenemos,
U
1

U
2

U
t1

U
t

.
Ahora, construiremos una base B

de U

, del siguiente modo: primero


construimos una base B
1

de U
1

, enseguida construimos una base B


2

de
U
2

que contiene como primeros vectores los elementos de la base B


1

,
seguimos de este modo hasta obtener una base B
t

de U

,
B
1

B
2

B
t1

B
t

.
Tomando B

= B
t

se deduce de (5.17) y (5.19) que N

tiene la siguiente
forma triangular:
(5.21) N

=
_
_
_
_

.
.
.
0
_
_
_
_
.
Ejemplo 5.12. A continuacion ejemplicamos la discusion previa
para la matriz M,
M =
_
_
_
_
_
_
_
_
_
_
_
1 1 1 0 0 1
0 1 3 0 0 3
0 0 1 1 0 0
0 0 0 1 0 0
0 3 2 0 2 2
0 0 3 1 0 2
_
_
_
_
_
_
_
_
_
_
_
.
El polinomio caracterstico de M es (x1)
4
(x+2)
2
. Para el valor propio
2 tenemos que la sucesion se detiene en t = 2. Mas precisamente,
U
1
2
= vect {u
1
:= e
5
} U
2
2
= vect {u
1
, u
2
:= e
2
+e
6
} ,
y para j 3, tenemos U
j
2
= U
2
2
. Para el valor propio 1, tenemos que
la sucesion se detiene en t = 2, y un calculo directo muestra que:
U
1
1
= vect {v
1
:= e
1
, v
2
:= e
3
+e
6
} ,
132 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
y
U
2
1
= vect {v
1
, v
2
, v
3
:= e
2
+e
5
, v
4
:= e
3
+e
6
} = U
j
1
,
para todo j 3.
Por lo tanto, K
5
= U
2
2
U
2
1
, y si ponemos P = (u
1
u
2
v
1
v
2
v
3
v
4
)
GL
6
(K), entonces P
1
MP es de la forma:
_
N
2
0
0 N
1
_
,
donde,
N
2
=
_
2
0 2
_
, N
1
=
_
_
_
_
_
_
1
0 1
0 0 1
0 0 0 1
_
_
_
_
_
_
.
En virtud de (5.20) y (5.21) estudiar la forma de Jordan de una
matriz se reduce a estudiar la forma de Jordan de matrices con un unico
valor propio. Sea M M
5
(K) una tal matriz, es decir, M tiene un unico
valor propio K. A continuacion mostraremos un procedimiento para
determinar una matriz P de modo que P
1
MP sea la forma de Jordan
de M. El procedimiento sera separado en tres etapas.
Primera etapa. Determinamos el primer t, donde la sucesion de (5.14)
se detiene. Notese que U
t

= K
n
, es decir, t es primer natural tal que
(M I
n
)
t
= 0. Ahora para cada 1 i t construimos una base B
i

de U
i

, tal que:
B
1

B
2

B
t

.
A modo de ejemplo supongamos M M
5
(K), t = 3 y que:
B
1

:= {u
1
, u
2
} es una base de U
1

.
B
2

:= {u
1
, u
2
, u
3
, u
4
} es una base de U
2

.
B
3

:= {u
1
, u
2
, u
3
, u
4
, u
5
} es una base de U
3

= K
5
.
5.2. FORMA DE JORDAN 133
Segunda etapa. Renombremos los vectores de B
t

\B
t1

= {u
jt
, . . . , u
n
}
poniendo w
jr
:= u
jr
, para todo j
t
r n. Denamos:
C
t
:= {w
jt
, . . . , w
n
}.
Reemplacemos los vectores de B
t1
\ B
t2
= {u
j
t1
, . . . , u
jt1
} haciendo
el reemplazo de u
r
por w
r
, donde,
w
r
:= (w
jtj
t1
+r
) (j
t1
r j
t
1).
En el caso que la cantidad de w
k
, j
t
k n, no sea suciente para
reemplazar los u
r
, elegimos w
r
arbitrarios de modo que:
vect(u
j
t1
, . . . , u
j1
) = vect(w
j
t1
, . . . , w
j1
).
Denimos,
C
t1
:= {w
j
t1
, . . . , w
k
t1
}.
Repetimos el proceso de reemplazo anterior con los vectores de B
t2
\
B
t3
= {u
j
t2
, . . . , u
j
t1
1
}, haciendo:
w
r
:=

(w
j
t1
j
t2
+r
) (j
t2
r j
t1
1).
Continuamos de este modo reemplazando los vectores de B
t3
\ B
t4
, y
as sucesivamente, hasta B
1
. Por lo tanto, obtenemos subconjuntos C
s
,
1 s t, tales que:
D
r
:=
r
_
s=1
C
s
es una base de U
r

,
para todo 1 r t.
En nuestro ejemplo, B
3
\B
2
= {u
5
}; luego C
3
= {w
5
}. Ahora B
2
\B
1
=
{u
3
, u
4
}. Luego, reemplazamos u
3
por w
3
:= (w
5
), y elegimos un
vector w
4
tal que vect(u
3
, u
4
) = vect(w
3
, w
4
). As,
C
2
:= {w
3
, w
4
}.
Finalmente, reemplazamos los vectores de B
1
= {u
1
, u
2
}, cambiando u
1
por w
1
:= (w
3
) y u
2
por w
2
:= (w
4
). Luego,
C
1
:= {w
1
, w
2
}.
134 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Tenemos:
D
1
:= C
1
= {w
1
, w
2
} es una base de U
1

.
D
2
:= C
1
C
2
= {w
1
, w
2
, w
3
, w
4
} es una base de U
2

.
D
3
:= C
1
C
2
C
3
= {w
1
, w
2
, w
3
, w
4
, w
5
} es una base de U
3

= K
5
.
Calculemos ahora la matriz asociada a =
M
respecto de la base
D := D
3
. Tenemos:
(w
1
) = Mw
1
= (MI
5
)w
1
+I
5
w
1
=

(w
1
) +w
1
= w
1
.
De igual modo se obtiene (w
2
) = w
2
. Para (w
3
), (w
4
) y (w
3
)
tenemos:
(w
3
) = Mw
3
= (M I
5
)w
3
+ I
5
w
3
=

(w
3
) + w
3
= w
1
+ w
3
(w
4
) = Mw
4
= (M I
5
)w
4
+ I
5
w
4
=

(w
4
) + w
4
= w
2
+ w
4
(w
5
) = Mw
5
= (M I
5
)w
5
+ I
5
w
5
=

(w
5
) + w
5
= w
3
+ w
5
.
Por lo tanto,
[]
D
=
_
_
_
_
_
_
_
_
0 1 0 0
0 0 1 0
0 0 0 1
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
.
Esto indica que un simple reordenamiento de los vectores de la base
D nos entrega la forma de Jordan de M. En efecto, haciendo
B := {w
1
, w
3
, w
5
, w
2
, w
4
}.
5.2. FORMA DE JORDAN 135
se sigue que:
[]
B
=
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
.
La tercera etapa indica como hacer el reordenamiento en el caso
general.
Tercera Etapa. Consideremos la base D := D
t
de U
t

= K
5
. La ultima
etapa consiste en reordenar los vectores de D, para obtener una base
B de K
5
. De modo preciso, el primer elemento de la base B es el primer
elemento de C
1
, el segundo elemento es el primer elemento de C
2
y
as sucesivamente, hasta utilizar el primer elemento de C
t
. Luego, el (t+
1)esimo elemento de B es el segundo elemento de C
1
, el (t +2)esimo
elemento de B es el segundo elemento de C
2
, y as sucesivamente, hasta
utilizar el segundo elemento de C
t
. Se contin ua este reordenamiento
hasta obtener la base B de K
n
.
Deniendo P la matriz cuyas columnas son los vectores de la base
B, se obtiene que P
1
MP es una matriz en la forma de Jordan. Cf.
Corolario 5.13.
En nuestro ejemplo D = {w
1
, w
2
, w
3
, w
4
, w
5
}, y
B = {w
1
, w
3
, w
5
, w
2
, w
4
}.
Si denimos P = (w
1
w
3
w
5
w
2
w
4
), entonces P
1
MP es la forma de
Jordan de M,
P
1
MP =
_
_
_
_
_
_
_
_
1 0 0 0
0 1 0 0
0 0 0 0
0 0 0 0
0 0 0 0
_
_
_
_
_
_
_
_
.
Ejemplo 5.13. PENDIENTE
136 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
El siguiente teorema establece las relaciones mas importantes que
hay entre la forma de Jordan de un matriz, el polinomio caracterstico
y el polinomio minimal.
Teorema 5.34. Sea M M
n
(K) tal que sus polinomios carac-
terstico f(x) y minimal m(x) se factorizan en K[x] como:
f(x) = (1)
n
(x
1
)
r
1
(x
k
)
r
k
,
m(x) = (x
1
)
s
1
(x
k
)
s
k
.
Entonces la matriz M es similar a una matriz J de la forma:
J =
_
_
_
_
0
.
.
.
0
_
_
_
_
donde los representan matrices J
i
de la forma,
J
i
=
_
_
_
_
_
_
_
_

i
1 0


1
0
i
_
_
_
_
_
_
_
_
.
Ademas se tiene:
1. Para cada valor propio
i
existe al menos una matriz J
i
de
tama no s
i
.
2. Las otras matrices J
i
correspondiente al valor propio
i
son de
tama no menor o igual a s
i
.
3. La cantidad de matrices J
i
correspondiente al valor propio
i
es igual a la multiplicidad geometrica de
i
.
4. La suma de los tama nos de todos las matrices J
i
correspon-
diente, al valor propio
i
, es r
i
.
La matriz J se llama una forma de Jordan de M.
Corolario 5.35. Toda matriz compleja es similar, en M
n
(C), a
una matriz de Jordan.
5.2. FORMA DE JORDAN 137
Demostraci on. El corolario resulta del hecho que C es un cuerpo
algebraicamente cerrado, y en consecuencia, todo polinomio se factoriza
en factores lineales.
Ejemplo 5.14. Del Teorema 5.34 y Corolario 5.35, se obtiene que
toda matriz en M
3
(C) es similar a una de las siguientes matrices:
_
_
_
0 0
0 0
0 0
_
_
_
,
_
_
_
0 0
0 0
0 0
_
_
_
,
_
_
_
0 0
0 0
0 0
_
_
_
,
_
_
_
1 0
0 0
0 0
_
_
_
,
_
_
_
1 0
0 0
0 0
_
_
_
,
_
_
_
1 0
0 1
0 0
_
_
_
,
donde , , C.
Ejemplo 5.15. Retomemos la matriz M del Ejemplo 5.12. De
acuerdo a lo realizado, sabemos que la forma de Jordan M es:
_
A 0
0 B
_
,
donde A es de tama no 2 y B de tama no 4. Ahora, usando ademas el
Corolario 5.33, se sigue que el polinomio minimal de M es:
(x 1)
2
(x + 2)
2
.
Por lo tanto, de la armacion 2 del Teorema 5.34 se sigue que:
A =
_
2 1
0 2
_
.
Y combinando las armaciones 2 y 3 del Teorema 5.34, se obtiene que:
B =
_
_
_
_
_
_
1 1 0 0
0 1 0 0
0 0 1 0
0 0 0 1
_
_
_
_
_
_
.
138 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
5.3. Ejercicios
Ejercicio 5.1. Sean M, N M
n
(K). Demuestre las siguientes ar-
maciones:
1. 0 es un valor propio de M si, y solo si, M no es invertible.
2. Si u es un vector propio de M, entonces u es tambien un vector
propio de M
n
.
3. Si u es un vector propio de M y N, entonces u es un vector
propio de M+ N y M, K.
4. Si M es invertible, entonces es un valor propio de M si, y
solo si,
1
es un valor propio de M
1
.
5. Si M es invertible, entonces las matrices MN y NM son simi-
lares.
Ejercicio 5.2. Demuestre que si f(x) = a
n
x
n
+ + a
1
x + a
0
, es
el polinomio caracterstico de una matriz M M
n
(K), entonces:
1. a
n
= (1)
n
.
2. a
n1
= (1)
n1
tr(M).
3. a
0
= det(M).
Ejercicio 5.3. Demuestre que sobre cualquier cuerpo K y todo
c K

, la matriz
_
1 c
0 1
_
no es diagonalizable.
Ejercicio 5.4. Sea V el K-espacio vectorial formado por las M
M
2
(K) tales que tr(M) = 0. Encuentre una base B de V tal que [T]
B
sea diagonal, donde:
T(M) =
_
M,
_
0 1
1 0
__
(M V).
Ejercicio 5.5. Determine una base B de V = R
2
[x] tal que []
B
sea
una matriz diagonal, donde es el endomorsmo de V denido por:
(ax
2
+bx+c) = (5a7b12c)x
2
+(6a+8b+12c)x+(2a2b3c).
5.3. EJERCICIOS 139
Ejercicio 5.6. Determine una base B de R
2
[x] tal que []
B
sea una
matriz diagonal, donde End(R
2
[x]) esta denida por:
: ax
2
+ bx +c (4a c)x
2
+3bx + (a + 4c).
Ejercicio 5.7. Considere la siguiente matriz M,
M =
_
_
_
2 1 1
2 1 2
1 1 0
_
_
_
.
1. Decida si la matriz M es diagonalizable en M
3
(C). Diagonalice
si corresponde.
2. Decida si la matriz M es diagonalizable en M
3
(R). Diagonalice
si corresponde.
Ejercicio 5.8. Analizar si es posible diagonalizar las siguientes ma-
trices:
_
_
_
5 6 8
9 11 18
4 5 9
_
_
_
,
_
_
_
14 16 8
8 10 4
8 8 6
_
_
_
y
_
_
_
6 6 3
2 2 2
2 2 1
_
_
_
.
Ejercicio 5.9. Sea T el endomorsmo del Ejercicio 4.3. Determine
una base B de M
2
(K), tal que [T]
B
sea diagonal.
Ejercicio 5.10. Sea D : K
n
[x] K
n
[x] la tansformacion derivada,
esto es:
D(a
n
x
n
+ + a
1
x + a
0
) := a
n
nx
n1
+ + +a
1
.
Decida si D es diagonalizable.
Ejercicio 5.11. Sea M M
3
(C),
M =
_
_
_
2 + i 2 1 i
1 i 1 1 + i
2 2 1
_
_
_
i
2
= 1.
1. Calcular M
4
.
2. Determine los n N, tal que M
n
M
3
(Z).
140 5. DIAGONALIZACI

ON Y FORMA DE JORDAN
Ejercicio 5.12. Sea:
M =
_
_
_
_
_
_
_
_
2 0 0 0 2
2 0 1 0 2
1 0 1 1 1
2 0 1 1 1
0 0 0 0 0
_
_
_
_
_
_
_
_
M
5
(C).
1. Demuestre que M tiene exactamente 2 valores propios.
2. Sean y los valores propios encontados en 1. Determine
subespacios U

y U

tales que:
(M I
5
)u U

, para todo u U

.
(M I
5
)u U

, para todo u U

.
C
5
= U

.
3. Determine la forma de Jordan de M.
Ejercicio 5.13. Determine una matriz P GL
5
(C) tal que P
1
MP
sea una matriz en la forma de Jordan, para:
M =
_
_
_
_
_
_
_
_
2 0 0 0 2
0 0 1 0 2
0 0 0 0 0
2 0 0 0 1
0 0 0 0 0
_
_
_
_
_
_
_
_
, M =
_
_
_
_
_
_
_
_
2 1 1 1 0
0 1 0 1 0
0 0 2 0 0
0 1 0 3 0
0 0 0 0 2
_
_
_
_
_
_
_
_
.
Ejercicio 5.14. Determine una base B de C
5
tal que []
B
este en
la forma de Jordan, : v Av, donde,
A =
_
_
_
_
_
_
_
_
5 1 1 0 0
0 7/2 1/2 0 1/2
1 1/2 7/2 0 1/2
0 0 0 4 0
0 0 0 0 4
_
_
_
_
_
_
_
_
.
5.3. EJERCICIOS 141
Ejercicio 5.15. Hallar una forma de Jordan de las siguiente ma-
trices:
_
_
_
_
_
_
2 2 1 0
0 1 0 1
0 1 2 1
0 1 0 3
_
_
_
_
_
_
,
_
_
_
_
_
_
0 1 0 2
0 1 1 1
0 1 1 1
0 0 0 0
_
_
_
_
_
_
_
_
_
_
_
_
_
_
2 0 0 0 2
2 0 1 0 2
1 0 1 1 1
2 0 1 1 1
0 0 0 0 0
_
_
_
_
_
_
_
_
.
Ejercicio 5.16. Hallar todas las posibles formas de Jordan de la
matriz M M
6
(C), cuyo polinomio caracterstico y minimal son res-
pectivamente:
f(x) = (x 2)
2
(x 3)
4
.
m(x) = (x 2)(x 3)
2
.
Apendice A: Lema de Zorn
Denicion 5.36. Un orden parcial sobre un conjunto X es una
relacion tal que:
1. x x, para todo x X.
2. Si x, y, z X son tales que x y y y z, entonces x z.
3. Si x, y X son tales que x y y y x, entonces x = y.
Un conjunto con un orden parcial se dice parcialmente ordenado.
Denicion 5.37. Sea X un conjunto con un orden parcial .
1. Un elemento x
0
X se dice maximal si x X y x
0
x,
entonces x
0
= x.
2. Un subconjunto Y de X se dice que es una parte totalmente
ordenada (o cadena), si para todo x, y Y se tiene x y o
y x.
Sea A un conjunto cualquiera. Sea X el conjunto de las partes de
A. La inclusion de conjuntos ( o bien ) induce un orden parcial
en X.
Axioma (Lema de Zorn). Si X es un conjunto (no vaco) par-
cialmente ordenado, tal que toda parte totalmente ordenada tiene un
elemento maximal en X, entonces X contiene un elemento maximal.
143
Apendice B: Polinomios
Sean A un anillo conmutativo con 1 y x una indeterminada. Un
polinomio con coecientes en A en la indeterminada x, es una expresion
f(x) de la forma:
(5.22) f(x) := a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
,
donde a
i
A, n N.
Los a
i
s se llaman los coecientes del polinomio f(x). Dos polino-
mios son iguales si, y solo si, sus respectivos coecientes son iguales.
El conjunto de todos los polinomios con coecientes en A en la
variable x se denota por A[x],
A[x] =

a
n
x
n
+a
n1
x
n1
+ +a
1
x +a
0
; a
i
A, n N

.
Notese que A[x] contiene A, los elementos de Ason llamados polinomios
constantes.
Sea f(x) A[x] escrito como en (5.22). Sea,
g(x) = b
m
x
m
+ b
m1
x
m1
+ + b
1
x + b
0
otro polinomio en A[x]. Sin perdida de generalidad, podemos suponer
que m n. Pongamos b
j
= 0, para todo m < j < n. Luego podemos
escribir:
g(x) = b
n
x
n
+ b
n1
x
n1
+ +b
1
x + b
0
.
Denimos la suma f(x)+g(x) de los polinomios f(x) y g(x) como sigue:
f(x)+g(x) := (a
n
+b
n
)x
n
+(a
n1
+b
n1
)x
n1
+ +(a
1
+b
1
)x+(a
0
+b
0
)
Cabe decir que la suma de polinomios se reduce a la suma de los coe-
cientes de los polinomios. De donde es claro que: la suma de polinomios
es asociativa, el elemento neutro es el polinomio constante 0 (es decir
145
146 AP

ENDICE B: POLINOMIOS
el neutro aditivo del anillo A) y el inverso de un polinomio es tomar
los respectivos inversos aditivos de los coecientes del polinomio. En
resumen, tenemos la siguiente proposicion.
Proposicion 5.38. A[x] con la suma de polinomios es un grupo
conmutativo.
El producto f(x)g(x) de los polinomios f(x) = a
n
x
n
+ +a
1
x+a
0
y g(x) = b
m
x
m
+ + b
1
x +b
0
en A[x], es el polinonmio:
h(x) = c
k
x
k
+c
k1
x
k1
+ + c
1
x +c
0
,
donde,
c
t
:=
t

i=0
a
i
b
ti
= a
0
b
t
+ a
1
b
t1
+ + a
t
b
0
.
El producto de polinomios es asociativo, y el neutro para el producto
de polinomios es el polinomio constante 1. Tambien tenemos distribu-
tividad del producto respecto a la suma. Resumiendo tenemos:
Teorema 5.39. A[x] tiene estructura de anillo conmutativo con 1.
Sea f(x) A[x] escrito como en (5.22). El coeciente a
n
se llama
coeciente lider. Cuando a
n
= 1, se dice que el polinomio es monico. Si
a
n
= 0 se dice que el grado, gr(f), del polinomio f(x) es n. Si f(x) = 0,
se dene el grado de f(x) como . Como es usual, convenimos que
el smbolo cumple con:
< n, para todo n N
+ () =
+n = n + () = , para todo n N.
Notese que un polinomio esta en A, si y solo si, su grado es 0, o
bien, .
Proposicion 5.40. Para todo f(x), g(x) A[x], se tiene:
1. gr(f +g) max{gr(f), gr(g)}.
2. gr(fg) gr(f) + gr(g).
AP

ENDICE B: POLINOMIOS 147


Sean a A y f(x) = a
n
x
n
+ a
n1
x
n1
+ + a
1
x + a
0
A[x],
denimos la evaluacion, f(a), de f(x) en a por,
f(a) := a
n
a
n
+ a
n1
a
n1
+ +a
1
a +a A.
Denicion 5.41. Diremos que a A es una raz del polinomio
f(x) A[x], si f(a) = 0.
Denicion 5.42. Sean f(x), g(x) A[x]. Se dice que g(x) divide
a f(x), en A[x], si existe un polinomio h(x) A[x] tal que,
f(x) = g(x)h(x).
Denicion 5.43. Una raz a de f(x) tiene multiplicidad m N,
si: (x a)
m
divide a f(x) y (x a)
m+1
no divide a f(x).
En lo que sigue del Apendice, A = K denota un cuerpo. En este
caso anillo K[x] tiene importantes propiedades. Comencemos por notar
que en la segunda armacion de la Proposicion 5.40 tenemos igualdad,
es decir,
gr(fg) = gr(f) + gr(g) (f(x), g(x) K[x]).
Teorema 5.44 (Algoritmo de la division). Dados f(x), g(x) K[x]
existen unicos polinomios s(x) y r(x) K[x] tales que:
f(x) = g(x)s(x) +r(x),
donde gr(r) < gr(g).
Tomando g(x) = xa K[x] en el Teorema 5.44, y luego evaluando
en a, se obtiene el siguiente corolario.
Corolario 5.45. Si f(x) K[x] y a K, entonces existe un unico
polinomio s(x) K[x] tal que,
f(x) = (x a)s(x) + f(a).
Del corolario anterior se deduce el siguiente corolario.
148 AP

ENDICE B: POLINOMIOS
Corolario 5.46. Sean f(x) K[x], a K. Entonces,
x a divide a f(x) en K[x] si, y solo si f(a) = 0.
Denicion 5.47. Un polinomio f(x) K[x], se dice irreducible si:
1. f(x) K.
2. Si f(x) = g(x)h(x), entonces g(x) K o bien h(x) K.
Proposicion 5.48. Sea f(x) K[x]\K, entonces f(x) es irreducible
si, y solo si, satisface la siguiente propiedad: f(x) divide a g(x)h(x),
entonces f(x) divide a g(x) o bien divide a h(x).
Es bien sabido que todo polinomio de K[x] puede ser escrito como
un producto de polinomios irreducibles.
Denicion 5.49. Un polinomio monico d(x) K[x] se dice que
es el maximo com un divisor de los polinomios f
1
(x), f
2
(x), . . . , f
m
(x)
K[x], si:
1. d(x) divide a f
i
(x), para todo i = 1, , m.
2. Si h(x) divide a f
i
(x), para todo i = 1, , m, entonces d(x)
divide a h(x).
En el caso que d(x) = 1 se dice que los polinomios f
1
(x), f
2
(x), . . . , f
m
(x)
son primos relativos.
En K[x] el maximo com un divisor siempre existe y es unico.
Para nalizar daremos los teoremas clasicos de factorizacion de po-
linomios en K[x], para K = R, C.
Teorema 5.50. Todo polinomio en C[x] tiene una raz en C. Ade-
mas, todo polinomio f(x) C[x] de grado n 1, se puede factorizar
como:
f(x) = a(x a
1
)(x a
2
) (x a
n
),
donde a
1
, . . . , a
n
C (con posibles repeticiones) y 0 = a C.
Notese que del teorema anterior nos dice que los polinomios irredu-
cibles de C[x] son aquellos de grado 1. En el anillo de polinomios R[x]
AP

ENDICE B: POLINOMIOS 149


los polinomios irreducibles son: de grado 1 y, aquellos, de grado 2, de
discriminante negativo.
Teorema 5.51. Todo polinomio f(x) en R[x] de grado n 1 se
puede factorizar como:
f(x) = a(x a
1
)(x a
2
) (x a
r
)f
1
(x) f
s
(x),
donde a
1
, . . . , a
r
R (con posibles repeticiones), 0 = a R, f
1
(x), . . .,
f
s
(x) R[x] son polinomios irreducibles de grado 2 y s = (n r)/2.

Indice alfabetico
Adjunta, matriz: 26
Algoritmo de la divisi on: 147
Anillo: 11
Base: 56
Base dual: 93
Caracterstica: 13
Cayley-Hamilton, teorema de:
115,115
Cofactor: 25
Combinaci on lineal: 51
Coordenadas: 61
Cramer, metodo de: 29
Cuerpo: 13
Determinante: 19, 20, 21
Determinante de un endomorsmo:
108
Diagonalizacion, teorema de: 103,
120
Dimension: 59
Dual de V: 92
Ecuaci on caracterstica: 105, 108
End(V): 85
Epimorsmo: 77
Espacio cociente: 69
Espacio propio: 108
Espacio vectorial: 47
Hermite, Forma normal de: 28, 30,
34
Hom(V, W): 85
Imagen: 79
Isomorfos: 83
Isomorsmo: 77
Jordan, forma de: 126, 126
Kernel: 79
Genera: 52
Generado, espacio vectorial: 51, 52
GL
n
(A): 19
Grado, de un polinomio: 146
Grassmann H., teorema de: 65
Grupo: 7
Linealmente independiente: 54
Linealmente dependiente: 54
Matriz: 17
Matriz antisimetrica:
pagerefantisimetricax
Matriz asociada a la transformaci on
lineal: 87
Matriz cambio de base: 63, 89
Matriz compa nera: 107
Matriz de Jordan elemental: 126
Matriz diagonal: 41
Matriz elemental la: 30
Matriz elemental columna: 31
Matriz hermitiana: 41
Matriz idempotente: 41
Matriz nilpotente: 41
151
152

INDICE ALFAB

ETICO
Matriz ortogonal: 41
Matriz simetrica: 41
Matriz triangular inferior: 41
Matriz triangular superior: 41
Monomorsmo: 77
Multiplicidad, de una raz: 147
Multiplicidad algebraica: 111
Multiplicidad geometrica: 111
M
nm
(A), M
n
(A): 17
Nulidad de f: 79
Polinomio caracterstico: 105, ??,
108
Polinomio minimal: 115, 116
Polinomio monico: 146
Primos relativos: 148
Raz, de un polinomio: 147
Rango, de una matriz: 35
Rango, de una aplicaci on lineal: 79
Similar, matriz: 40
Sistema de ecuaciones: 28
Sistema de ecuaciones homogeneo: 28
Subespacio vectorial, K-subespacio
vectorial: 49
Subgrupo: 9
Suma de subespacios vectoriales: 64
Suma de espacios vectoriales: 67
Suma directa (interna): 64, 66
Suma directa externa: 68
Transformacion lineal: 77
Traspuesta: 26
Traza, de una matriz: ??
Valor propio: 105, 108
Vector propio: 105, 108
vect(S): 52
V

: 92
Zorn, lema de: ??
Bibliografa
[1] Jacobson N., Basic Algebra I, 2 Ed., W. Freemn & Company Publisher, San
Francisco, 1985.
[2] Lang S., Algebra, 3 Ed., Addison-Wesley Publishing Co., Inc., Reading, Mass.,
1993.
153