Está en la página 1de 14

Instituto Politécnico Nacional

Escuela Superior de Física y Matemáticas

Notas de Álgebra III


Clases del Profesor Miguel Ángel Valencia Bucio

José Luis Alanís Garibay


Marzo 2021
1. Diagonalización

1.1. Operadores Diagonalizables

Denición. Sean V un espacio vectorial y W un subespacio de V . Decimos que W es un subespacio


invariante de V bajo el operador T : V → V o simplemente T -invariante si T (W ) ⊆ W , es decir;

v ∈ W =⇒ T (v) ∈ W.

Denición. Sean V un K-espacio vectorial de dimensión nita y T : V → V un operador lineal.


Decimos que T es diagonalizable si existe una base ordenada β de V tal que la matriz [T ]β es
diagonal.
 
1 2
Ejemplo 1. Sea T : R → R cuya matriz en términos de la base canónica es [T ]C = 0 3 .
2 2

Armamos que T es diagonalizable. En efecto, sea la base B = {e1 , e1 + e2 }, donde e1 , e2 son los
vectores de la base canónica para R2 . Entonces tenemos que
    
1 2 1 1  
T (e1 ) = [T ]C [e1 ]C = = = [e1 ] = 1 0 B .
0 3 0 0
    
1 2 1 3  
T (e1 + e2 ) = [T ]C [e1 + e2 ]C = = = 3[e1 + e2 ] = 3 0 1 B .
0 3 1 3
 
1 0
Así [T ]B = , la cual es una matriz diagonal, luego T es diagonalizable.
0 3

Analizando el ejemplo anterior nos damos cuenta que T (e1 ) = e1 y T (e1 + e2 ) = 3(e1 + e2 ), es
decir, la transformación de cada vector de la base B resulta ser un múltiplo escalar de sí mismo,
lo cual motiva las siguientes deniciones.

1.2. Eigenvalores y Eigenvectores

Por notación, representaremos con 0 al vector nulo de algún espacio vectorial, para
evitar confundirlo con el escalar nulo 0 de algún campo.

Denición. Sean V un K-espacio vectorial y T un operador lineal sobre V . Decimos que λ ∈ K


es un eigenvalor, valor propio o valor característico de T si existe v ∈ V , tal que

T (v) = λv, v 6= 0 .

Denición. Decimos que v ∈ V , con v 6= 0, es un eigenvector (vector propio o vector característico )
de T si existe λ ∈ K tal que
T (v) = λv.

Nota. Si T (v) = λv , entonces escribiremos v ∼ λ o también λ ∼ v para denotar que v 6= 0 es


T T

eigenvector de T , relacionado al eigenvalor λ de T . También es importante remarcar que en ambas


deniciones no es necesario que el escalar λ sea distinto de cero, dando cabida a los siguientes
resultados.

1
T
Corolario 1. Si v ∈ Ker(T ) y v 6= 0, entonces v es eigenvector de T y v ∼ λ para todo λ ∈ K.

Corolario 2. Si v es eigenvector de T , entonces ocurre igual para todo múltiplo escalar no nulo
de v . T T
v ∼ λ =⇒ αv ∼ λ, ∀α ∈ K/{0}.

Corolario 3. λ ∼
T
v si y sólo si v ∈ Ker(T − λIn ) y v 6= 0 .

Teorema 1.1. Sean V un K-espacio vectorial y T : V → V lineal. Si v1 , . . . , vn son eigenvectores


de T , entonces W = L {v1 , . . . , vn } es un subespacio T -invariante de V .
Demostración. Sea v ∈ W entonces existen α1 , . . . , αn ∈ K tales que v = α1 v1 + . . . + αn vn .
Además, para cada i = 1, . . . , n existe λi ∈ K tal que T (vi ) = λi vi , entonces

T (v) = T (α1 v1 + . . . + αn vn )
= α1 T (v1 ) + . . . + αn T (vn )
= α1 (λ1 v1 ) + . . . + αn (λn vn )
= (α1 λ1 )v1 + . . . + (αn λn )vn
∈W

Como v es arbitrario, concluimos que T (W ) ⊆ W , y así W es subespacio T -invariante de V . 

Teorema 1.2. Un operador T : V → V lineal es diagonalizable si y sólo si existe una base de V


formada únicamente por eigenvectores de T .
Demostración. Sea V un K-espacio vectorial de dimensión n y T : V → V lineal. Entonces T es
diagonalizable si y sólo si existe existe una base B = {β1 , β2 , . . . , βn } de V tal que [T ]B es diagonal,
es decir;  
λ1 T (β1 ) = λ1 β1
 λ2  T (β2 ) = λ2 β2
[T ]B =  ...  ⇐⇒ ..
 
  .
λn T (βn ) = λn βn ,
con λ1 , λ2 , . . . , λn ∈ K, lo que signica que B contiene solamente eigenvectores de T . 
El objetivo de nuestro estudio es tomar un operador T : V → V lineal y encontrar una base
de V que haga de T un operador diagonal. Tal proceso se conoce como diagonalización y el
Teorema 1.2 nos da una buena idea para comenzar, que es obtener una base de V conformada sólo
por eigenvectores. Inmediatamente nos encontramos con una pegunta muy importante: dado un
operador lineal ¾cómo encontramos sus eigenvectores y eigenvalores, si siquiera existen?
De ahora en adelante supondremos siempre V un K-espacio vectorial de dimensión nita n
y T : V → V un operador lineal, K será el campo R o el campo C. Aunque toda la teoría aquí
expuesta se puede extender a espacios vectoriales de dimensión innita, nos centraremos en estudiar
el caso donde dim(V ) = n ∈ N.
Denición. Sean T un operador, B una base para V y la matriz A = [T ]B . Denimos el polinomio
característico de T asociado a A, denotado por pT (x), como:

pT (x) := det(xIn − A).

2
Teorema 1.3. El polinomio característico de un operador es único, sin importar la base usada
para su representación matricial.
Demostración. Sean A, B dos bases ordenadas distintas para V y A = [T ]A , B = [T ]B . Entonces
existe una matriz cambio de base C = [T ]BA tal que C −1 AC = B . Entonces tenemos que
C −1 AC = B
xIn − C −1 AC = xIn − B
xIn − A = C(xIn − B)C −1
det(xIn − A) = det C(xIn − B)C −1


pTA (x) = det(C) det(xIn − B) det(C −1 ).


Pero C es matriz cambio de base, luego det(C) 6= 0, además det(C) = 1/ det(C −1 ). entonces
pTA (x) = det(C) det(C −1 ) det(xIn − B)
= det(xIn − B)
= pTB (x).
Por lo que el polinomio característico de T asociado a A es igual al asociado a B , y podemos
llamarlo únicamente polinomio característico de T . 
Ejemplo 2. Sea T : R3 → R3 , hallemos el polinomio pT (x) si
 
3 9 15
A = [T ]C = 14 7 2  .
27 75 93
Tenemos entonces que
pT (x) = det(xIn − A)
   
x 0 0 3 9 15
= det  0 x 0  − 14 7 2 
0 0 x 27 75 93
 
x − 3 −9 −15
= det  −14 x − 7 −2 
−27 −75 x − 93
=(x − 3) (x2 − 100x + 651) − (150)
 

− (−9) [(−14x + 1302) − (54)]


+ (−15) [(1050) − (−27x + 189)]
=(x − 3) x2 − 100x + 501
 

9 [−14x + 1248]
− 15 [27x + 861]
=x3 − 100x2 + 501x − 3x2 + 300x + 1503
− 126x + 11232
− 405x − 12915
=x3 − 103x2 + 270x − 3186.
El polinomio característico de la matriz dada es x3 − 103x2 + 270x − 3186.

3
Teorema 1.4. λ es eigenvalor de T si y sólo si pT (λ) = 0.
Demostración. λ es eigenvector de T si y sólo si existe v ∈ V tal que v 6= 0 y T (v) = λv .
⇐⇒ λv − T (v) = 0
⇐⇒ (λIn − T )(v) = 0
⇐⇒ Ker(λIn − T ) 6= 0
⇐⇒ λIn − T no es inyectivo
⇐⇒ λIn − T no es invertible
⇐⇒ det(λIn − T ) = 0
⇐⇒ pT (λ) = 0.


Ejemplo 3. Sea T : R3 → R3 , hallemos todos los eigenvalores de T si


 
13 1 −1
[T ]C =  16 13 4  .
−4 −1 10

Comenzamos por encontrar el polinomio característico de T.


pT (x) = det(xIn − T )
   
x 0 0 13 1 −1
= det  0 x 0  −  16 13 4 
0 0 x −4 −1 10
 
x − 13 −1 1
= det  −16 x − 13 −4 
4 1 x − 10
 2 
=(x − 13) (x − 23x + 130) − (−4)
− (−1) [(−16x + 160) − (−16)]
+ (1) [(−16) − (4x − 52)]
=x3 − 23x2 + 134x − 13x2 + 299x − 1742
− 16x + 176
− 4x + 36
=x3 − 36x2 + 413x − 1530.

El polinomio característico de T es x3 − 362 + 413x − 1530. Usando herramientas de Álgebra I


obtenemos que sus raíces son λ1 = 9, λ2 = 10 y λ3 = 17. Para cada eigenvalor de T , hace falta
conocer sus respectivos eigenvectores, esto lo hacemos al encontrar el kernel del operador T − λi In ,
para cada i = 1, 2, 3.

Para λ1 . Si v1 = (x, y, z) es tal que (T − 9I3 )v1 = 0 , entonces


          
13 1 −1 9 0 0 x 4 1 −1 x 0
(T − 9I3 )v1 =   16 13 4 − 0 9 0
    y = 16 4
  4   y = 0 = 0 .
 
−4 −1 10 0 0 9 z −4 −1 1 z 0

4
Utilizamos reducción gaussiana en este sistema de ecuaciones para obtener que
4x + y − z = 0 z=0 v = (x, −4x, 0)
=⇒ =⇒ 1
4x + y + z = 0 y = −4x = x(1, −4, 0).
Por lo tanto todos los eigenvectores relacionados a λ1 = 9 son L {(1, −4, 0)}.
Para λ1 . Si v2 = (x, y, z) es tal que (T − 10I3 )v2 = 0 , entonces
          
13 1 −1 10 0 0 x 3 1 −1 x 0
(T − 10I3 )v2 =  16 13 4 − 0 10 0
     y = 16 3
  4   y = 0
 
−4 −1 10 0 0 10 z −4 −1 0 z 0

0 14 −1
         
3 1 −1 3 1 −1 0 1 −4 0 1 −4
 16 3 4  ∼ 0 −1 4  ∼ 0 −1 4  ∼ 0 −1 4  ∼ 0 0 0 
−4 −1 0 1 41 0 1 14 0 4 1 0 4 1 0

y − 4z = 0 y = 4z v = (−4z, 4z, z)
=⇒ =⇒ 2
4x + y = 0 x = −y = −4z = z(−1, 4, 1)
Por lo tanto todos los eigenvectores relacionados a λ2 = 10 son el conjunto L {(−1, 4, 1)}.
Para λ3 . Si v3 = (x, y, z) es tal que (T − 17I3 )v3 = 0 , entonces
          
13 1 −1 17 0 0 x −4 1 −1 x 0
(T − 17I3 )v3 =  16 13 4 − 0 17 0
     y = 16 −4 4
    y = 0
 
−4 −1 10 0 0 17 z −4 −1 −7 z 0
       
−4 1 −1 −4 1 −1 4 0 4 1 0 1
 16 −4 4  ∼  0 0 0  ∼ 0 0 0 ∼ 0 0 0
−4 −1 −7 0 −2 −6 0 1 3 0 1 3

x+z =0 x = −z v = (−z, −3z, z)


=⇒ =⇒ 3
y + 3z = 0 y = −3z = z(−1, −3, 1).
Por lo tanto todos eigenvectores relacionados a λ3 = 17 son L {(−1, −3, 1)}.
Teorema 1.5. Sean v1 , . . . , vk eigenvectores de T , entonces todos ellos están asociados al mismo
eigenvalor λ si y sólo si el conjunto S := {v1 , . . . , vk } ∪ {0 } es un subespacio.
Demostración.
(=⇒) Supongamos que vi ∼ λ para todo vi ∈ S i = 1, . . . , k . Sean vj , vl ∈ S y a ∈ K, entonces
T

vj , vl ∼ λ y además
T

T (avj + vl ) = aT (vj ) + T (vl )


= aλvj + λvl
= λ(avj + vl )
∈ S.
Entonces S es un subespacio.
(⇐=) Supongamos que S := {v1 , . . . , vk } ∪ {0 } es un subespacio, es decir, para todos vj , vl ∈
S y todo a ∈ K se cumple que T (avj + vl ) ∈ S . HACE FALTA COMPLETAR ESTA
DEMOSTRACIÓN. 

5
Teorema 1.6. Si dos eigenvectores están asociados a dos eigenvalores distintos, entonces son
vectores linealmente independientes.

Demostración. Supongamos v1 ∼ λ1 , v2 ∼ λ2 con λ1 6= λ2 y c1 , c2 ∈ K tales que c1 v1 + c2 v2 = 0 .


T T

Entonces tenemos que


c1 λ1 v1 + c2 λ1 v2 = 0 (a)
c1 v1 + c2 v2 = 0 =⇒
c1 λ2 v1 + c2 λ2 v2 = 0 (b)
T (c1 v1 + c2 v2 ) = c1 λ1 v1 + c2 λ2 v2 = 0 (c)
Restamos (c) de las ecuaciones (a) y (b) para obtener
c1 v1 (λ1 − λ1 ) + c2 v2 (λ2 − λ1 ) = 0 c1 v1 (λ2 − λ1 ) + c2 v2 (λ2 − λ2 ) = 0
=⇒ c2 v2 (λ2 − λ1 ) = 0 =⇒ c1 v1 (λ2 − λ1 ) = 0
=⇒ c2 v2 = 0 =⇒ c1 v1 = 0
=⇒ c2 = 0. =⇒ c1 = 0.
Esto porque λ2 − λ1 6= 0 y v1 , v2 son vectores no nulos. Como c1 , c2 = 0 entonces v1 , v2 son
linealmente independientes. 

Corolario 4. Si v1 ∼
T
λ1 , v2 ∼ λ2 , . . . , vn ∼ λn con λi 6= λj para todo i 6= j , entonces v1 , v2 , . . . , vn
T T

son linealmente independientes.


Corolario 5. Si T tiene n eigenvalores distintos (recordando que dim(V ) = n), entonces T es
diagonalizable.
Teorema 1.7. Si T es diagonalizable, entonces su polinomio característico se descompone como
producto de factores lineales.
Demostración. Como T es diagonalizable, por el Teorema 1.2 existe una base B = {v1 , . . . , vn } de
V formada sólo por eigenvectores de T . Asignemos a cada eigenvector vi su respectivo eigenvalor
λi . Luego, por el Teorema 1.4, cada λi es raíz de pT (x) y (x − λi ) divide a pT (x).

pT (x) = q1 (x)(x − λ1 )
= q2 (x)(x − λ1 )(x − λ2 )
= q3 (x)(x − λ1 )(x − λ2 )(x − λ3 )
..
.
n
Y
= qn (x) (x − λi ).
i=1

Pero deg(pT (x)) = n, luego el polinomio qn (x) es una constante. Además, por la denición de
pT (x) = an x + an−1 x + . . . + a1 x + a0 , es fácil ver que qn (x) = an = 1 , concluyendo así que
n
Y
pT (x) = (x − λi ).
i=1

Esto es; pT (x) se descompone en un producto de (n) factores lineales. 

6
1.3. Eigenespacios

Denición. Sea λ un eigenvalor de T , denimos el eigenespacio de T asociado a λ como el conjunto


Eλ := Ker(T − λIn ).
Nota. Se deja como ejercicio la comprobación de que el conjunto denido es un subespacio de V .
Teorema 1.8. Si λ tiene multiplicidad m en pT (x), entonces
1 ≤ dim(Eλ ) ≤ m.

Demostración. Supongamos que pT (x) = (x − λ)m r(x), donde λ no es raíz de r(x). Sea d :=
dim(Eλ ). Como λ es eigenvalor de T , existe v tal que v ∼ λ, luego Ker(T − λIn ) 6= ∅ y por
T

el Corolario 2, concluimos que 1 ≤ d. Podemos tomar una base ordenada {v1 , . . . , vd } de Eλ y


extenderla a una base B = {v1 , . . . , vd , vd+1 , . . . , vn } de V . Entonces tenemos que
   
λId B λId B
[T ]B = =
A C 0 C

Es importante recalcar que esta es una representación a bloques de la matriz [T ]B , y que A es


una matriz nula de tamaño (n − d) × (n − d) porque T (vi ) es combinación lineal únicamente de vi ,
para todo i = 1, . . . , d, sin "tocar" los n − d vectores siguientes. Luego, obtenemos una expresión
para pT (x):

(x − λ)Id B

pT (x) = = det((x − λ)Id ) det(xIn−d − C) = (x − λ)d det(xIn−d − C).

0 xIn−d − C

Sea q(x) = det(xIn−d − C), entonces pT (x) = (x − λ)d q(x), pero por hipótesis
(x − λ)d q(x) = (x − λ)m r(x), r(λ) 6= 0,

donde λ puede ser raíz de q(x), en cuyo caso d < m, de lo contrario los polinomios q(x) y r(x) son
iguales y d = m. De cualquier forma, concluimos que
1 ≤ d ≤ m.

Teorema 1.9. Sean λ1 , . . . , λk eigenvalores distintos de T y sean v1 ∈ Eλ1 , . . . , vk ∈ Eλk ,
si v1 + . . . + vk = 0 =⇒ v1 = . . . = vk = 0 .
Demostración. Procedamos por contradicción, suponiendo que, de los eigenvectores ya dados, exis-
ten al menos m no nulos tales que v1 +. . .+vm = 0 . En tal combinación lineal, todos los coecientes
son iguales a 1 (no nulos) lo cual signica que son linealmente dependientes !. Pero v1 , . . . , vm están
asociados cada uno a un eigenvalor distinto, y el Corolario 4 establece que deben ser linealmente
independientes. Por esta contradicción, concluimos que
v1 = . . . = vk = 0 .

Corolario 6. El subespacio generado por todos los eigenvectores de T es la suma directa de todos
los eigenespacios de T .

7
Demostración. Sea W = L {v : v es eigenvector de T} y sean Eλ1 , . . . , Eλk todos los eigenespacios
de T . Sea v ∈ W , entonces existe un único i = 1, . . . , k tal que v ∼ λi , luego v ∈ Eλi . Entonces es
T

claro que
Eλ1 + . . . + Eλk = W. (1)
Por otro lado, sea v ∈ Eλi ∩Eλj , por el Corolario 2 sabemos que también −v ∈ Eλj . Ahora tomamos
v ∈ Eλi , −v ∈ Eλj y hacemos:
Teo. 1.9
v + (−v) = 0 , =⇒ v = 0 .

Es decir, hemos mostrado que Eλi ∩ Eλj = 0 , pero i, j son arbitrarios, y este resultado se puede
extender para todos los eigenespacios de T , por lo tanto

Eλ1 ∩ . . . ∩ Eλn = 0 . (2)

Por (1) y (2) queda demostrado que

Eλ1 ⊕ . . . ⊕ Eλk = W.


Teorema 1.10. Sea T : V → V un operador lineal tal que su polinomio característico se puede
descomponer como producto de factores lineales. Entonces las siguientes armaciones son equiva-
lentes.
i) T es diagonalizable.
ii) Para cada eigenvalor λi de T se cumple que la dimensión di del eigenespacio Eλi es igual a la
multiplicidad mi de λi como raíz del polinomio pT (x).
iii) V es la suma directa de Eλi , . . . , Eλk .
k
Demostración. La hipótesis general es: (1)
Y
pT (x) = (x − λi )mi .
i=1

(i) =⇒ (ii). Sean λ1 , . . . , λk todos los eigenvalores distintos de T y sea Bi = {v1 , . . . , vdi } una base
de un cierto Eλi . Como T es diagonalizable, entonces podemos extender Bi hasta una una
base B = {v1 , . . . , vdi , vdi +1 , . . . , vn }, que está formada sólo por eigenvectores de T . Notemos
que para todo j = di + 1, . . . , n existe un único l = 1, . . . , n tal que vj ∼ λl , con λl 6= λi .
T

Usamos el hecho de que, claramente, [T ]B es una matriz diagonal y obtenemos

λi
  Y
pT (x) = (x − λi )di (x − λj )dj
 ...  j6=i
 
k
 λi 
(1) Y
[T ]B =   =⇒ = (x − λi )mi
 
 λl(di +1) 
 ...  i=1
Y
= (x − λi )mi (x − λj )mj
 
λln j6=i

(2)
Y Y
∴ (x − λi )di (x − λj )dj = (x − λi )mi (x − λj )mj .
j6=i j6=i

8
Pero λi no es un factor dentro de los productorios en ambos lados de (2), esto implica (por
igualdad de polinomios) que los exponentes di y mi son iguales. Además, el eigenespacio Eλi
elegido es arbitrario.
∴ dim(Eλi ) = di = mi , ∀i = 1, . . . , k. 

(ii) =⇒ (iii). Sea W el subespacio generado por todos los eigenvectores de T , por el Corolario 6
sabemos que W = Eλ1 ⊕ . . . ⊕ Eλk .
Sean Bi = {v1i , . . . , v1di } una base para cada eigenespacio Eλi , donde car(Bi ) = di . Armamos
que la unión de todas las bases
B = B1 ∪ B2 ∪ . . . ∪ Bk = {v11 , . . . , v1d1 , v21 , . . . , v2d2 , . . . , vk1 , . . . , vkdk },
es un conjunto linealmente independiente. En efecto, sean cij ∈ K tales que
c11 v11 + . . . + c1d1 v1d1 + c21 v21 + . . . + c2d2 v2d2 + . . . + ck1 vk1 + . . . + ckdk vkdk = 0 .
| {z } | {z } | {z }


Eλ1 Eλ2 ··· Eλk
Por el Teorema 1.9 se tiene que
c11 v11 + . . . + c1d1 v1d1 = 0
c21 v21 + . . . + c2d2 v2d2 = 0
..
.
ck1 vk1 + . . . + ckdk vkdk = 0
Pero cada renglón es una combinación lineal de vectores de una base, por lo que son lineal-
mente independientes y esto implica que todos los escalares cij son iguales a cero.
k
Bj es l.i. (3)
[
∴B=
j=1

Con esto probamos que B es una base para W , porque claramente es un conjunto generador
y es l.i. Además car(B) = car(B1 ) + . . . + car(Bk ) = d1 + . . . + dk . Por la hipótesis de (ii )
se tiene que d1 = m1 , . . . , dk = mk y por la hipótesis general, la suma de los exponentes de
cada factor lineal, debe ser igual al grado de pT (x), esto es m1 + . . . + mk = n. Ambos hechos
implican que car(B) = n, pero esta cardinalidad es precisamente la dimensión de W, luego
dim(W ) = n = dim(V ).
∴ W = V. 

(iii) =⇒ (i). Como V = Eλ1 ⊕ . . . ⊕ Eλk , podemos tomar una base Bi para cada eigenespacio y
k
[
B= Bj ,
i=1

que es un conjunto generador y por (3) es l.i., entonces B es una base de W formada única-
mente por eigenvectores de T y hacemos uso del Teorema 1.2.
∴ T es diagonalidable. 

9
Con estas tres implicaciones queda demostrada la equivalencia entre (i ), (ii ) y (iii ). 

Corolario 7. Bajo las hipótesis del Teorema anterior, T es diagonalizable si y sólo si


Rank T − λi I = n − mi ∀i ∈ {1, . . . , k}.

Ejemplo 4. Sea T : R4 → R4 dado por


 
−2
 −2 
[T ]C = 
 24 −12 2
.

2

Veamos si T es diagonalizable y en tal caso, encontrar una base de R4 formada por eigenvectores
de T . Vemos que pT (x) = (x − 2)2 (x + 2)2 , luego los únicos eigenvalores de T son −2 y 2. Para
λ1 = −2 se tiene que, si v = (x, y, z, w) ∈ Eλ1 , entonces
   
0 0
 0  
∼ 0 
[T ]C + 2I4 = 
24 −12 4  6 −3 1  ,

4 1

6x − 3y + z = 0 v = (x, y, −6x + 3y, 0)


=⇒ z = −6x + 3y =⇒
w=0 = x(1, 0, −6, 0) + y(0, 1, 3, 0).
Por lo que Eλ1 = L {(1, 0, −6, 0), (0, 1, 3, 0)}, y se sigue que dim(Eλ1 ) = 2.
Para λ2 = 2, sea v = (x, y, z, w) ∈ Eλ2 , entonces
   
−4 1
 −4   1 
[T ]C − 2I4 = 
 24 −12 0
∼ ,
  0 
0 0

x=0 v = (0, 0, z, w)
=⇒
y=0 = z(0, 0, 1, 0) + w(0, 0, 0, 1).
De modo que Eλ2 = L {(0, 0, 1, 0), (0, 0, 0, 1)}, y así dim(Eλ2 ) = 2. Como las dimensiones de cada
eigenespacio corresponden con las multiplicidades de su respectivo eigenvalor, podemos concluir
que T es diagonalizable. Sea B = {(1, 0, −6, 0), (0, 1, 3, 0), (0, 0, 1, 0), (0, 0, 0, 1)} una base de R4 ,
entonces  
−2
 −2 
[T ]B  .
 2 
2

10
F

11
Teorema 1.11. Sean V un K-espacio vectorial, T : V → V lineal y sea α ∈ V tal que T k (α) = 0,
pero T k−1 (α) 6= 0 para cierto k ∈ N. Sea S{α, T (α), . . . , , T k−2 , T k−1 (α)}, entonces
i) S es l.i.
ii) W = L {S} es T -invariante.
iii) T̂ = T |W es nilpotente con índice de nilpotencia k .
 
0 0 0 ... 0 0
1 0 0 ... 0 0
 
0 1 0 ... 0 0
iv) [T̂ ]S =  .. .. .. . . .. .. .
 
.
 . . . . . 
0 0 0 . . . 0 0
0 0 0 ... 1 0
Demostración.
i ) Sean c1 , . . . , ck ∈ K tales que
c1 α + c2 T (α) + . . . + ck−1 T k−2 (α) + ck T k−1 (α) = 0 . (11.1)
Aplicamos k − 1 veces el operador T a (11.1) para obtener que
c1 T (α) + c2 T 2 (α) + · · · + ck−1 T k−1 (α) +  T k(α)
ck = 0



c1 T 2 (α) + c2 T 3 (α) + · · · + ck−2 T k−1 (α) +  k 



ck−1
 T (α) = 0
..
.
c1 T k−2 (α) + c2 T k−1 (α) +  T k(α)
c3 = 0


c1 T k−1 (α) +  T k(α)


c2 = 0



De la ultima ecuación obtuvimos que c1 T k−1 (α) = 0 , pero por hipótesis T k−1 (α) 6= 0 , entonces
c1 = 0. Sustituyendo esto en la penúltima ecuación, se tiene que c2 T ( k − 1)(α) = 0 , y por la
misma razón que antes, c2 = 0. Aplicamos este razonamiento recursivo en todas las ecuaciones,
incluyendo (11.1), y podemos concluir que
c1 = c2 = . . . = ck−1 = ck = 0.

Por lo tanto S es un conjunto l.i.


ii ) Sea v ∈ W , entonces existen a0 , a1 , . . . , ak−2 , ak−1 ∈ K tales que
v = a0 α + a1 T (α) + . . . + ak−1 T k−2 (α) + ak T k−1 (α).

Evaluamos a v bajo T .
T (v) = a0 T (α) + a1 T 2 (α) + . . . + ak−1 T k (α).

Pero cada vector involucrado en la combinación lineal está en S , luego T (v) ∈ L {S} = W .
Como v ∈ W es arbitrario, concluimos que W es T -invariante.


12
Ejercicio 1.1. Sea T : R3 → R3 dado por
T (x, y, z) = (5x − 3y + 2z, 15x − 9y + 6z, 10x − 6y + 4z).

Hallar J , la forma canónica de Jordan de T . Hallar una base B tal que [T ]B .


Solución.

13

También podría gustarte