Documentos de Académico
Documentos de Profesional
Documentos de Cultura
v ∈ W =⇒ T (v) ∈ W.
Armamos que T es diagonalizable. En efecto, sea la base B = {e1 , e1 + e2 }, donde e1 , e2 son los
vectores de la base canónica para R2 . Entonces tenemos que
1 2 1 1
T (e1 ) = [T ]C [e1 ]C = = = [e1 ] = 1 0 B .
0 3 0 0
1 2 1 3
T (e1 + e2 ) = [T ]C [e1 + e2 ]C = = = 3[e1 + e2 ] = 3 0 1 B .
0 3 1 3
1 0
Así [T ]B = , la cual es una matriz diagonal, luego T es diagonalizable.
0 3
Analizando el ejemplo anterior nos damos cuenta que T (e1 ) = e1 y T (e1 + e2 ) = 3(e1 + e2 ), es
decir, la transformación de cada vector de la base B resulta ser un múltiplo escalar de sí mismo,
lo cual motiva las siguientes deniciones.
Por notación, representaremos con 0 al vector nulo de algún espacio vectorial, para
evitar confundirlo con el escalar nulo 0 de algún campo.
T (v) = λv, v 6= 0 .
Denición. Decimos que v ∈ V , con v 6= 0, es un eigenvector (vector propio o vector característico )
de T si existe λ ∈ K tal que
T (v) = λv.
1
T
Corolario 1. Si v ∈ Ker(T ) y v 6= 0, entonces v es eigenvector de T y v ∼ λ para todo λ ∈ K.
Corolario 2. Si v es eigenvector de T , entonces ocurre igual para todo múltiplo escalar no nulo
de v . T T
v ∼ λ =⇒ αv ∼ λ, ∀α ∈ K/{0}.
Corolario 3. λ ∼
T
v si y sólo si v ∈ Ker(T − λIn ) y v 6= 0 .
T (v) = T (α1 v1 + . . . + αn vn )
= α1 T (v1 ) + . . . + αn T (vn )
= α1 (λ1 v1 ) + . . . + αn (λn vn )
= (α1 λ1 )v1 + . . . + (αn λn )vn
∈W
2
Teorema 1.3. El polinomio característico de un operador es único, sin importar la base usada
para su representación matricial.
Demostración. Sean A, B dos bases ordenadas distintas para V y A = [T ]A , B = [T ]B . Entonces
existe una matriz cambio de base C = [T ]BA tal que C −1 AC = B . Entonces tenemos que
C −1 AC = B
xIn − C −1 AC = xIn − B
xIn − A = C(xIn − B)C −1
det(xIn − A) = det C(xIn − B)C −1
9 [−14x + 1248]
− 15 [27x + 861]
=x3 − 100x2 + 501x − 3x2 + 300x + 1503
− 126x + 11232
− 405x − 12915
=x3 − 103x2 + 270x − 3186.
El polinomio característico de la matriz dada es x3 − 103x2 + 270x − 3186.
3
Teorema 1.4. λ es eigenvalor de T si y sólo si pT (λ) = 0.
Demostración. λ es eigenvector de T si y sólo si existe v ∈ V tal que v 6= 0 y T (v) = λv .
⇐⇒ λv − T (v) = 0
⇐⇒ (λIn − T )(v) = 0
⇐⇒ Ker(λIn − T ) 6= 0
⇐⇒ λIn − T no es inyectivo
⇐⇒ λIn − T no es invertible
⇐⇒ det(λIn − T ) = 0
⇐⇒ pT (λ) = 0.
4
Utilizamos reducción gaussiana en este sistema de ecuaciones para obtener que
4x + y − z = 0 z=0 v = (x, −4x, 0)
=⇒ =⇒ 1
4x + y + z = 0 y = −4x = x(1, −4, 0).
Por lo tanto todos los eigenvectores relacionados a λ1 = 9 son L {(1, −4, 0)}.
Para λ1 . Si v2 = (x, y, z) es tal que (T − 10I3 )v2 = 0 , entonces
13 1 −1 10 0 0 x 3 1 −1 x 0
(T − 10I3 )v2 = 16 13 4 − 0 10 0
y = 16 3
4 y = 0
−4 −1 10 0 0 10 z −4 −1 0 z 0
0 14 −1
3 1 −1 3 1 −1 0 1 −4 0 1 −4
16 3 4 ∼ 0 −1 4 ∼ 0 −1 4 ∼ 0 −1 4 ∼ 0 0 0
−4 −1 0 1 41 0 1 14 0 4 1 0 4 1 0
y − 4z = 0 y = 4z v = (−4z, 4z, z)
=⇒ =⇒ 2
4x + y = 0 x = −y = −4z = z(−1, 4, 1)
Por lo tanto todos los eigenvectores relacionados a λ2 = 10 son el conjunto L {(−1, 4, 1)}.
Para λ3 . Si v3 = (x, y, z) es tal que (T − 17I3 )v3 = 0 , entonces
13 1 −1 17 0 0 x −4 1 −1 x 0
(T − 17I3 )v3 = 16 13 4 − 0 17 0
y = 16 −4 4
y = 0
−4 −1 10 0 0 17 z −4 −1 −7 z 0
−4 1 −1 −4 1 −1 4 0 4 1 0 1
16 −4 4 ∼ 0 0 0 ∼ 0 0 0 ∼ 0 0 0
−4 −1 −7 0 −2 −6 0 1 3 0 1 3
vj , vl ∼ λ y además
T
5
Teorema 1.6. Si dos eigenvectores están asociados a dos eigenvalores distintos, entonces son
vectores linealmente independientes.
Corolario 4. Si v1 ∼
T
λ1 , v2 ∼ λ2 , . . . , vn ∼ λn con λi 6= λj para todo i 6= j , entonces v1 , v2 , . . . , vn
T T
pT (x) = q1 (x)(x − λ1 )
= q2 (x)(x − λ1 )(x − λ2 )
= q3 (x)(x − λ1 )(x − λ2 )(x − λ3 )
..
.
n
Y
= qn (x) (x − λi ).
i=1
Pero deg(pT (x)) = n, luego el polinomio qn (x) es una constante. Además, por la denición de
pT (x) = an x + an−1 x + . . . + a1 x + a0 , es fácil ver que qn (x) = an = 1 , concluyendo así que
n
Y
pT (x) = (x − λi ).
i=1
6
1.3. Eigenespacios
Demostración. Supongamos que pT (x) = (x − λ)m r(x), donde λ no es raíz de r(x). Sea d :=
dim(Eλ ). Como λ es eigenvalor de T , existe v tal que v ∼ λ, luego Ker(T − λIn ) 6= ∅ y por
T
Sea q(x) = det(xIn−d − C), entonces pT (x) = (x − λ)d q(x), pero por hipótesis
(x − λ)d q(x) = (x − λ)m r(x), r(λ) 6= 0,
donde λ puede ser raíz de q(x), en cuyo caso d < m, de lo contrario los polinomios q(x) y r(x) son
iguales y d = m. De cualquier forma, concluimos que
1 ≤ d ≤ m.
Teorema 1.9. Sean λ1 , . . . , λk eigenvalores distintos de T y sean v1 ∈ Eλ1 , . . . , vk ∈ Eλk ,
si v1 + . . . + vk = 0 =⇒ v1 = . . . = vk = 0 .
Demostración. Procedamos por contradicción, suponiendo que, de los eigenvectores ya dados, exis-
ten al menos m no nulos tales que v1 +. . .+vm = 0 . En tal combinación lineal, todos los coecientes
son iguales a 1 (no nulos) lo cual signica que son linealmente dependientes !. Pero v1 , . . . , vm están
asociados cada uno a un eigenvalor distinto, y el Corolario 4 establece que deben ser linealmente
independientes. Por esta contradicción, concluimos que
v1 = . . . = vk = 0 .
Corolario 6. El subespacio generado por todos los eigenvectores de T es la suma directa de todos
los eigenespacios de T .
7
Demostración. Sea W = L {v : v es eigenvector de T} y sean Eλ1 , . . . , Eλk todos los eigenespacios
de T . Sea v ∈ W , entonces existe un único i = 1, . . . , k tal que v ∼ λi , luego v ∈ Eλi . Entonces es
T
claro que
Eλ1 + . . . + Eλk = W. (1)
Por otro lado, sea v ∈ Eλi ∩Eλj , por el Corolario 2 sabemos que también −v ∈ Eλj . Ahora tomamos
v ∈ Eλi , −v ∈ Eλj y hacemos:
Teo. 1.9
v + (−v) = 0 , =⇒ v = 0 .
Es decir, hemos mostrado que Eλi ∩ Eλj = 0 , pero i, j son arbitrarios, y este resultado se puede
extender para todos los eigenespacios de T , por lo tanto
Eλ1 ⊕ . . . ⊕ Eλk = W.
Teorema 1.10. Sea T : V → V un operador lineal tal que su polinomio característico se puede
descomponer como producto de factores lineales. Entonces las siguientes armaciones son equiva-
lentes.
i) T es diagonalizable.
ii) Para cada eigenvalor λi de T se cumple que la dimensión di del eigenespacio Eλi es igual a la
multiplicidad mi de λi como raíz del polinomio pT (x).
iii) V es la suma directa de Eλi , . . . , Eλk .
k
Demostración. La hipótesis general es: (1)
Y
pT (x) = (x − λi )mi .
i=1
(i) =⇒ (ii). Sean λ1 , . . . , λk todos los eigenvalores distintos de T y sea Bi = {v1 , . . . , vdi } una base
de un cierto Eλi . Como T es diagonalizable, entonces podemos extender Bi hasta una una
base B = {v1 , . . . , vdi , vdi +1 , . . . , vn }, que está formada sólo por eigenvectores de T . Notemos
que para todo j = di + 1, . . . , n existe un único l = 1, . . . , n tal que vj ∼ λl , con λl 6= λi .
T
λi
Y
pT (x) = (x − λi )di (x − λj )dj
... j6=i
k
λi
(1) Y
[T ]B = =⇒ = (x − λi )mi
λl(di +1)
... i=1
Y
= (x − λi )mi (x − λj )mj
λln j6=i
(2)
Y Y
∴ (x − λi )di (x − λj )dj = (x − λi )mi (x − λj )mj .
j6=i j6=i
8
Pero λi no es un factor dentro de los productorios en ambos lados de (2), esto implica (por
igualdad de polinomios) que los exponentes di y mi son iguales. Además, el eigenespacio Eλi
elegido es arbitrario.
∴ dim(Eλi ) = di = mi , ∀i = 1, . . . , k.
(ii) =⇒ (iii). Sea W el subespacio generado por todos los eigenvectores de T , por el Corolario 6
sabemos que W = Eλ1 ⊕ . . . ⊕ Eλk .
Sean Bi = {v1i , . . . , v1di } una base para cada eigenespacio Eλi , donde car(Bi ) = di . Armamos
que la unión de todas las bases
B = B1 ∪ B2 ∪ . . . ∪ Bk = {v11 , . . . , v1d1 , v21 , . . . , v2d2 , . . . , vk1 , . . . , vkdk },
es un conjunto linealmente independiente. En efecto, sean cij ∈ K tales que
c11 v11 + . . . + c1d1 v1d1 + c21 v21 + . . . + c2d2 v2d2 + . . . + ck1 vk1 + . . . + ckdk vkdk = 0 .
| {z } | {z } | {z }
∈
∈
Eλ1 Eλ2 ··· Eλk
Por el Teorema 1.9 se tiene que
c11 v11 + . . . + c1d1 v1d1 = 0
c21 v21 + . . . + c2d2 v2d2 = 0
..
.
ck1 vk1 + . . . + ckdk vkdk = 0
Pero cada renglón es una combinación lineal de vectores de una base, por lo que son lineal-
mente independientes y esto implica que todos los escalares cij son iguales a cero.
k
Bj es l.i. (3)
[
∴B=
j=1
Con esto probamos que B es una base para W , porque claramente es un conjunto generador
y es l.i. Además car(B) = car(B1 ) + . . . + car(Bk ) = d1 + . . . + dk . Por la hipótesis de (ii )
se tiene que d1 = m1 , . . . , dk = mk y por la hipótesis general, la suma de los exponentes de
cada factor lineal, debe ser igual al grado de pT (x), esto es m1 + . . . + mk = n. Ambos hechos
implican que car(B) = n, pero esta cardinalidad es precisamente la dimensión de W, luego
dim(W ) = n = dim(V ).
∴ W = V.
(iii) =⇒ (i). Como V = Eλ1 ⊕ . . . ⊕ Eλk , podemos tomar una base Bi para cada eigenespacio y
k
[
B= Bj ,
i=1
que es un conjunto generador y por (3) es l.i., entonces B es una base de W formada única-
mente por eigenvectores de T y hacemos uso del Teorema 1.2.
∴ T es diagonalidable.
9
Con estas tres implicaciones queda demostrada la equivalencia entre (i ), (ii ) y (iii ).
Veamos si T es diagonalizable y en tal caso, encontrar una base de R4 formada por eigenvectores
de T . Vemos que pT (x) = (x − 2)2 (x + 2)2 , luego los únicos eigenvalores de T son −2 y 2. Para
λ1 = −2 se tiene que, si v = (x, y, z, w) ∈ Eλ1 , entonces
0 0
0
∼ 0
[T ]C + 2I4 =
24 −12 4 6 −3 1 ,
4 1
x=0 v = (0, 0, z, w)
=⇒
y=0 = z(0, 0, 1, 0) + w(0, 0, 0, 1).
De modo que Eλ2 = L {(0, 0, 1, 0), (0, 0, 0, 1)}, y así dim(Eλ2 ) = 2. Como las dimensiones de cada
eigenespacio corresponden con las multiplicidades de su respectivo eigenvalor, podemos concluir
que T es diagonalizable. Sea B = {(1, 0, −6, 0), (0, 1, 3, 0), (0, 0, 1, 0), (0, 0, 0, 1)} una base de R4 ,
entonces
−2
−2
[T ]B .
2
2
10
F
11
Teorema 1.11. Sean V un K-espacio vectorial, T : V → V lineal y sea α ∈ V tal que T k (α) = 0,
pero T k−1 (α) 6= 0 para cierto k ∈ N. Sea S{α, T (α), . . . , , T k−2 , T k−1 (α)}, entonces
i) S es l.i.
ii) W = L {S} es T -invariante.
iii) T̂ = T |W es nilpotente con índice de nilpotencia k .
0 0 0 ... 0 0
1 0 0 ... 0 0
0 1 0 ... 0 0
iv) [T̂ ]S = .. .. .. . . .. .. .
.
. . . . .
0 0 0 . . . 0 0
0 0 0 ... 1 0
Demostración.
i ) Sean c1 , . . . , ck ∈ K tales que
c1 α + c2 T (α) + . . . + ck−1 T k−2 (α) + ck T k−1 (α) = 0 . (11.1)
Aplicamos k − 1 veces el operador T a (11.1) para obtener que
c1 T (α) + c2 T 2 (α) + · · · + ck−1 T k−1 (α) + T k(α)
ck = 0
De la ultima ecuación obtuvimos que c1 T k−1 (α) = 0 , pero por hipótesis T k−1 (α) 6= 0 , entonces
c1 = 0. Sustituyendo esto en la penúltima ecuación, se tiene que c2 T ( k − 1)(α) = 0 , y por la
misma razón que antes, c2 = 0. Aplicamos este razonamiento recursivo en todas las ecuaciones,
incluyendo (11.1), y podemos concluir que
c1 = c2 = . . . = ck−1 = ck = 0.
Evaluamos a v bajo T .
T (v) = a0 T (α) + a1 T 2 (α) + . . . + ak−1 T k (α).
Pero cada vector involucrado en la combinación lineal está en S , luego T (v) ∈ L {S} = W .
Como v ∈ W es arbitrario, concluimos que W es T -invariante.
12
Ejercicio 1.1. Sea T : R3 → R3 dado por
T (x, y, z) = (5x − 3y + 2z, 15x − 9y + 6z, 10x − 6y + 4z).
13