Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Apuntes de Álgebra Lineal I - D. Caytuiro
Apuntes de Álgebra Lineal I - D. Caytuiro
Autor: D. Caytuiro
2021
Índice general
1. Unidad 0 6
1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2. Clases de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
2. Unidad 1 12
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Espacio Cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6. Espacio Producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Combinación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Sistema de Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.9. Subespacios Generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.11. Base de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.12. Existencia de una Base en un Espacio Vectorial . . . . . . . . . . . . . . . . . 29
2.13. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.14. Teorema de Completación de Bases . . . . . . . . . . . . . . . . . . . . . . . . 30
3. Unidad 2 34
2
ÍNDICE GENERAL
4. Unidad 3 62
4.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.1. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.2. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2. Operaciones elementales fila de una matriz . . . . . . . . . . . . . . . . . . . . 64
4.3. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.1. Tipos de matrices elementales . . . . . . . . . . . . . . . . . . . . . . . 65
4.4. Matriz escalonada reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5. Espacio Fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . 79
4.7. Matriz asociada a la composición . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.8. Aplicación: Transpuesta de una transformación lineal . . . . . . . . . . . . . . 85
4.9. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.9.1. Matriz de cambio de base de una base cualquiera a la base canónica . . 89
4.10. Relación entre las matrices asociadas a una misma transformación . . . . . . . 90
4.11. Sistema de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.11.1. Existencia y unicidad de los sistemas lineales . . . . . . . . . . . . . . . 98
5. Unidad 4 100
6. Unidad 5 114
6.1. Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.1.1. Proceso de Ortogonalización de Gram-Schmidt . . . . . . . . . . . . . . 120
6.1.2. Distancia de un vector a un subespacio . . . . . . . . . . . . . . . . . . 121
6.2. Isometrías Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.3. Teorema de Representación de Riesz . . . . . . . . . . . . . . . . . . . . . . . 125
6.3.1. Subespacios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3.2. Otra forma de encontrar el representante de Riesz . . . . . . . . . . . . 127
7. Unidad 6 128
7.1. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.1.1. Polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1.2. Una caracterización de matrices diagonalizables . . . . . . . . . . . . . 132
7.2. Polinomios Minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2.1. Nociones Previas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2.2. Polinomio Minimal de una Matriz . . . . . . . . . . . . . . . . . . . . . 138
7.2.3. Polinomio Minimal de un Vector . . . . . . . . . . . . . . . . . . . . . 140
7.2.4. ¿Cómo hallar el polinomio minimal de un vector? . . . . . . . . . . . . 141
7.2.5. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 143
7.2.6. Un criterio de diagonalización usando el polinomio minimal . . . . . . . 144
7.2.7. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.3. Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.3.1. Transformaciones lineales nilpotentes . . . . . . . . . . . . . . . . . . . 150
7.3.2. Existencia de la forma de Jordan para una transformación lineal nilpotente151
7.3.3. Unicidad de la forma de Jordan nilpotente. Semejanza. . . . . . . . . . 156
7.3.4. Caso General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7.3.5. Forma de Jordan de una transformación lineal . . . . . . . . . . . . . . 160
7.3.6. Unicidad de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . 167
7.3.7. Aplicación 1: Cálculo de las potencias de una matriz . . . . . . . . . . 171
8. Unidad 7 177
8.1. Coordenadas homogéneas y el plano proyectivo . . . . . . . . . . . . . . . . . 179
8.1.1. Rectas en el plano proyectivo . . . . . . . . . . . . . . . . . . . . . . . 181
8.2. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.3. Polar de un punto y Polar de una recta . . . . . . . . . . . . . . . . . . . . . . 185
Unidad 0
6
1.1. PRELIMINARES
1.1. Preliminares
1.1.1. Cuerpo
Definición 1.1.1. Sea K un conjunto no vacío, donde se definen las dos operaciones binarias
siguientes:
+ : K × K −→ K
· : K × K −→ K
R, C, Q son cuerpos
Reflexiva: Si a ∼ a, ∀ a ∈ A.
Simétrica: Si a ∼ b → b ∼ a, ∀ a, b ∈ A.
Transitiva: Si a ∼ b ∧ b ∼ c → a ∼ c, ∀ a, b, c ∈ A.
Donde:
[a] = {x ∈ A : a ∼ x}
| {z }
Clase de equivalencia de a
a ≡ b mod n ↔ a − b = n̊. (a ≡n b)
Demostración. Para que ≡n sea de equivalencia debe cumplir las tres propiedades:
Reflexiva:
0 = n̊
a − a = n̊
→ a ≡n a, ∀a ∈ A
Simétrica:
a ≡n b
a − b = n̊
(−1) · (a − b) = n̊
b − a = n̊
→ b ≡n a, ∀a, b ∈ A
Transitiva:
a ≡n b ∧ b ≡n c
a − b = n̊ ∧ b − c = n̊
→ (a − b) + (b − c) = n̊
a − c = n̊
∴ a ≡n c
[a] = [b].
[a] ∩ [b] = φ.
Entonces denotamos:
Zn := Z/ ≡n
Zn = {[0], [1], . . . , [n − 1]}
Donde:
[0] = n̊ osea [0] = {0, n, 2n, . . .}
[1] = n̊ + 1 osea [1] = {1, n + 1, 2n + 1, . . .}
..
.
[n − 1] = n̊ + n − 1 osea [n − 1] = {n − 1, 2n − 1, 3n − 1, . . .}
+ : Zn × Zn −→ Zn
· : Zn × Zn −→ Zn
Como:
[a] + [b] = [a + b]
[a] · [b] = [a · b]
Demostración.
(⇒)
∃k, l ∈ N\{1} : n = k · l
Luego:
[0] = [n] = [k · l]
⇒ Zn no es cuerpo.
(⇐)
Si n es primo. Veamos que Zn tiene la propiedad del elemento inverso multiplicativo y sea
r ∈ Z tal que [r] 6= [0]. Es decir, r no es múltiplo de n, osea:
M CD(r, n) = 1
∃a · b ∈ Z tal que a · r + b · n = 1
∴ Zn es cuerpo.
Observación 1.1.2.
K : cuerpo
Kn = |K × .{z
. . × K}
n veces
a = (x1 , . . . , xn )
b = (y1 , . . . , yn )
a + b = (x1 + y1 , . . . , xn + yn )
Sea λ ∈ K :
λ · a = (λx1 , . . . , λxn )
Luego:
(Kn , +, ·) cumple las mismas propiedades que (Rn , +, ·).
Unidad 1
12
2.1. ESPACIOS VECTORIALES
Definición 2.1.1. Sea V un conjunto no vacio, (K, +, ·) un cuerpo, donde se definen las
siguientes operaciones binarias.
+:V ×V →V
·:K×V →V
Propiedades 2.1.1. .
1. u + v = v + u, ∀u, v ∈ V (Conmutativa)
2. u + (v + w) = (u + v) + w, ∀u, v, w ∈ V (Asociativa)
3. ∃ 0 ∈ V /u + 0 = u, ∀u ∈ V (Neutro aditivo)
Ejemplo 2.1.1. .
Propiedades 2.1.2. .
0 = 0 + 00 = 00 + 0 = 00 → 0 = 00
2. −v = (−1) · v, ∀v ∈ V
Demostración.
v + (−1) · v = (1 + (−1)) · v = 0 · v = 0
Es decir: (−1) · v = −v
3. 0 · v = 0, ∀ v ∈ V
Demostración.
0 · v = (0 + 0) · v = 0 · v + 0 · v ⇐⇒ 0 = 0 · v
v+u=v+w =0
v = v + w + (−u) ⇐⇒ w + (−u) = 0 ⇐⇒ w = u
| {z }
0
F = {f : X → K f es función }
f, g ∈ F :
f +g :X →K
(f + g)(x) = f (x) + g(x)
λf : X → K
(λf )(x) = λf (x)
0∈S
Ejemplo 2.2.1. .
0, V son subespacios de V
F = {f : R → R/f es función }
1. S1 = {A ∈ V /A es simétrica }
2. S2 = {A ∈ V /A es diagonal }
3. S3 = {A ∈ V /traza(A) = 0}
U ∩ W es subespacio de V
S1 + S2 = {s1 + s2 /s1 ∈ S1 , s2 ∈ S2 }
Cerrado en la suma:
s01 + s02 ∈ S1 + S2
s1 + s2 ∈ S1 + S2
s1 + s2 ∈ S1 + S2
∴ S1 + S2 es un subespacio de V
Si : x ∈ S, ∃ s1 ∈ S1 , s2 ∈ S2 / x = s1 + s2
Demostración. .
x = |{z}
x + |{z}
0 = |{z}
0 + |{z}
x
∈S1 ∈S2 ∈S1 ∈S2
x = s1 + s2 = s01 + s02
s1 − s01 = s02 − s2 = v
| {z } | {z }
∈S1 ∈S2
⇒ v ∈ S1 ∧ v ∈ S2
v ∈ S1 ∩ S2 = {0}
v = 0 = s1 − s01 = s02 − s2
s1 = s01 ∧ s02 = s2
S = S1 + S2
S1 ∩ S2 = {0}
Notación:
S = S1 ⊕ S2
Ejemplo 2.4.1. V = R2
1. X = {(x, 0) : x ∈ R}
2. Y = {(0, y) : y ∈ R}
R2 = X ⊕ Y
X ∩ Y = (0, 0)
L1 = {t(1, −1, 0) : t ∈ R}
L2 = {s(1, 0, −1) : s ∈ R}
P = {(x, y, z) ∈ R3 : x + y + z = 0}
Demostrar:
1. L1 , L2 , P son subespacios de R3
2. P = L1 ⊕ L2
Demostración. .
Sean u, v ∈ L1 , λ ∈ R: u = t1 (1, −1, 0)∧v = t2 (1, −1, 0) → u+v = (t1 + t2 )(1, −1, 0)
| {z }
t∈R
L2 : {s(1, 0, −1), s ∈ R}
P := {(x, y, z) ∈ R3 : x + y + z = 0}
x = −y − z
→ u ∈ P : u = (−y − z, y − z)
∴ u + v ∈ P (Cerrado en la suma)
2. Afirmación: P = L1 + L2
=⇒ u = v1 + v2 ; u ∈ P, v1 ∈ L1 , v2 ∈ L2
Afirmación: L1 ∩ L2 = {0}
Consideremos v ∈ L1 ∩ L2
∴ L1 ∩ L2 = {0}
⇒ L1 ⊕ L2 = P
Recordemos:
a ≡n b ↔ a − b = n̊ ≡ ∃ k ∈ Z tal que a − b = k · n
[a]n = {x ∈ Z : a ≡n x}
Observación 2.5.1. .
u ≡ u mod S
u ≡ v mod S → v ≡ u mod S
u ≡ v mod S
→ u ≡ w mod S
v ≡ w mod S
De esto podemos definir:
[u] = {v ∈ V /u ≡ v mod S}
= {v ∈ V /u − v ∈ S}
=⇒ [u] ⊂ u + S
=⇒ u + S ⊂ [u]
V /S := {[u]S /u ∈ V }
Ejemplo 2.5.1. .
[u] = [u0 ]
[v] = [v 0 ]
⇒ [u + v] = [u0 + v 0 ]
Demostración.
[u] = [u0 ] → u − u0 ∈ S
[v] = [v 0 ] → v − v 0 ∈ S
Como S es subespacio:
(u − u0 ) + (v − v 0 ) = (u + v) − (u0 + v 0 ) ∈ S
⇒ [u + v] = [u0 + v 0 ]
Demostración.
[u] = [u0 ] → u − u0 ∈ S
Luego: λ(u − u0 ) ∈ S → λ · u − λ · u0 ∈ S
⇒ [λu] = [λu0 ]
Definición 2.5.3. .
+ : V /S × V /S → V /S
([u], [v]) → [u] + [v] = [u + v]
· : K × V /S → V /S
(λ, [u]) → λ[u] = [λu]
V × U = {(v, u) : v ∈ V, u ∈ U }
+ : (v1 , u1 ) + (v2 , u2 ) = ( v1 + v2 , u1 + u2 )
| {z } | {z }
Suma en V Suma en V
· : λ(v, u) = (λ · v , λ · u)
| {z } | {z }
Producto por un escalar en V Producto por un escalar en U
L{C} = {λ1 v1 + . . . + λm vm : λi ∈ K, vi ∈ C}
∃v1 , . . . , vn ∈ C ; λ1 , . . . , λn ∈ K
∃u1 , . . . , um ∈ C ; η1 , . . . , ηm ∈ K
m
X n
X
Tales que u = ηi ui , v = λj vj
i=1 j=1
⇒
m
X n
X
u+v = ηi ui + λj vj ∈ L(C), Pues sigue siendo combinación lineal de elementos
i=1 j=1
en C.
m
X m
X
λ·u=λ· ηi ui = (ληi )ui ∈ L(C)
i=1 i=1
Demostración.
(⊂)
(⊃)
\
Sea v ∈ S → v ∈ S, ∀S ⊂ V, C ⊂ S
S⊂V , C⊂S
Pero L(C) ⊂ V es un subespacio y L(C) ⊃ C
\
∴ S ⊂ L(C)
S⊂V , C⊂S
Observación 2.9.1. .
\
Si C 6= φ : L(C) = S
S⊂V , C⊂S
Si C = φ : L(φ) = {0}.
Demostración.
(⇒)
Como 0 ∈ S: n n
X X
0= λi ui = 0 · ui
i=1 i=1
Por unicidad: λi = 0, ∀i ∈ In .
∴ C es LI
(⇐)
k
X m
X
⇒ λi vi + ηbj uj = 0
i=1 j=1
m
X
⇒ (λ0j − ηj )uj = 0
j=1
Demostración. El hecho de tener al vector nulo como elemento lo hace LINEALMENTE DE-
PENDIENTE (L.D.)
1. B genera a V
2. B es L.I.
V = L(B)
Demostración.
(⇒)
→1=0
(→←)
(⇐)
Ningún elemento de X es combinación lineal de los otros, supongamos que X es L.D. ∃λi ∈ R
no todos nulos tales que.
n
X
λi vi = 0
i=1
Como es L.D. encontraremos almenos un λk 6= 0, por conveniencia supondremos que λ1 6= 0.
Entonces: ! !
n n
X 1 X
λ1 v1 = − λi vi → v1 = − λi vi
i=2
λ1 i=2
| {z }
v1 es combinación lineal de los otros
(→←)
∴ X es L.I
Lema 2.11.2. Todo sistema lineal homogéneo que tiene más incógnitas que ecuaciones tiene
una solución no trivial.
Debemos encontrar xj no todos nulos que cumplan la igualdad. Como {v1 , . . . , vm } genera a
V. m
X
⇒ uj = aij vi ; aij ∈ K, i ∈ Im , j ∈ In
i=1
n m
!
X X
⇒ xj aij vi =0
j=1 i=1
m n
!
X X
aij xj vi = 0 . . . (∗)
i=1 j=1
n
X
Si aij xj = 0; ∀i ∈ In , se cumple (∗):
j=1
a11 x1 + . . . + a1n xn = 0
.. .. .. ..
. . . .
am1 x1 + . . . + amn xn = 0
Y como n > m, entonces por el lema anterior ∃(α1 , . . . , αn ) ∈ Kn no nulos tal que satisfacen
el sistema. n
X
⇒ αj ui = 0 y con (α1 , . . . , αn ) no todos nulos
j=1
∴ {v1 , . . . , vn } es L.D.
2.13. Dimensión
∴n=m
Proposición 2.13.1. Sea V tal que dim(V ) = n (OJO: dim({0}) = 0). Todo conjunto de
generadores de V contiene una base.
X = {v1 , . . . , vk , vk+1 , . . . , vm }
Y = {v1 , . . . , vk }, k ≤ m
L({v1 , . . . , vk }) = L({v1 , . . . , vm })
V = L({v1 , . . . , vm }) ) L({v1 , . . . , vk })
{v, v1 , . . . , vk } es L.I.
#{v, v1 , . . . , vk } = k + 1
⇒ L({v1 , . . . , vk }) = V
∴ Y es base de V
Teorema 2.14.1. Sea V tal que dim(V ) = n. Sea {v1 , . . . , vk } ⊂ V , k < n conjunto L.I.
Entonces, ∃vk+1 , . . . , vn ∈ V, tales que. {v1 , . . . , vk , vk+1 , . . . , vn } es base de V .
..
.
Sn = L({v1 , . . . , vn })
Finalmente:
V = Sn
dim(S) = dim(V ) ⇒ S = V
∴S=V
Corolario 2.14.1. Si V tiene un conjunto finito de generadores, entonces V tiene base finita.
i. X ∩ Y = φ. Por contradicción:
Sea v ∈ X ∩ Y → v ∈ X ∧ v ∈ Y .
∴X ∩Y =φ
ii. X ∪ Y es base.
X ∪ Y es L.I.
X X
λi ui + ηj vj = 0
Tomando clase:
X
0+ ηi [vi ]
|{z}
Base
→ ηi = 0∀i ∈ Ir
Luego:
X
λi ui = 0
X ∪ Y genera a V .
Sea v ∈ V , entonces [v] ∈ V /S, además ∃λ1 , . . . , λk ∈ K tal que:
k
X
[v] = λj [vj ]
j=1
" k
#
X
→ v− λj vj = [0]
j=1
k
X
→v− λj vj ∈ S = L(X)
j=1
k
X l
X
⇒v= λj vj + αi xi ∈ L(X, Y )
|{z} |{z}
j=1 i=1 ∈X
∈Y
∴ X ∪ Y es una base de V
n = n[X] + k − 0
n[X] = n − k
Unidad 2
34
3.1. TRANSFORMACIONES LINEALES
T :U →V
2. T (λu) = λ · T (u); ∀u ∈ U, ∀λ ∈ K.
Ejemplo 3.1.3. Ti : Rn → R
(x1 , . . . , xn ) −→ xi
i) T (0) = 0
Demostración. .
i) T (0) = T (0 · u) = 0 · T (u) = 0
N u(T ) es subespacio de U
Im(T ) es subespacio de V
Demostración. .
Consideremos u, v ∈ N u(T ) ⊂ U
T (u) = 0 ∧ T (v) = 0
T (u) + T (v) = 0
T (u + v) = 0 → u + v ∈ N u(T )
T (u) = 0
λT (u) = 0 → T (λu) = 0
a) T es monomorfismo, si T es inyectiva.
b) T es epimorfismo, si T es sobreyectiva.
c) T es isomorfismo, si T es biyectiva.
Demostración. .
∴ N u(T ) = {0}
→ T (x) − T (y) = T (x − y) = 0
⇒ x − y ∈ N u(T ) = {0} → x − y = 0
| {z }
x=y
∴ T es monomorfismo (inyectiva)
Esto prueba que Im(T ) ⊂ L({T (ui ) : i ∈ I}). La otra inclusión es directa, pues T (ui ) ∈ Im(T )
para cada i ∈ I.
∴ Im(T ) = L({T (ui ) : i ∈ I})
mo, debe cumplirse que i∈I λi ui = 0. Por la independencia lineal de {ui : i ∈ I} implica que
P
Solución 3.2.1. .
{ui : i ∈ I} es L.I. → λi = 0, ∀i ∈ I
X
→ λi T (ui ) = 0, λi = 0, ∀i ∈ I
i∈I
∴ {T (ui ) : i ∈ I} es L.I.
Definamos T : U → V n
X
T (u) = λi vji
i=1
⇒ T 0 (u) = T (u), ∀u ∈ U
∴ T0 = T
→ T (ui ) = T 0 (ui )
X
Luego u = λi ui , aplicando transformación lineal.
i∈I
X X
T (u) = λi T (ui ) = λi T 0 (ui ) = T 0 (u)
i∈I i∈I
∴ T0 = T
Ejemplo 3.3.1. .
T : R3 → R5
T (1, 0, 0) = (1, 1, 1, 1, 1)
T (0, 1, 0) = (2, −1, 1, 1, 0) T está definido por linealidad
T (0, 0, 1) = (0, 0, 0, 0, 1)
U = V = K[x]
d i d
i−1
(x ) = ix ; i = 0, 1, . . . está definido por linealidad
dx dx
dim (U)=dim(Nu(T))+dim(Im(T))
Son L.I. !
n
X n
X
λi T (ui ) = 0 → T λi ui =0
i=k+1 i=k+1
n
X
⇒u= λi ui ∈ N u(T )
i=k+1
k
X n
X
0= αj uj + (−λj )uj
j=1 j=k+1
λi = 0, i ∈ k + 1, . . . , n
n
!
X
T (u) = T λi u i =y
i=1
n
X
→ λi T (ui ) = y
i=1
k
X n
X
Osea: λi T (ui ) + T (ui ) = y
| {z }
i=1 k+1
∈N u(T )
n
X
⇒y= λi T (ui )
i=k+1
U
T : → V, tal que : T = T ◦ Π
N u(T )
Definición 3.5.1. Sean U, V dos K-espacios vectoriales, decimos que U y V son ISOMOR-
FOS si existe un ISOMORFISMO T : U → V .
Notación: U ∼
=V
Ojo: En álgebra lineal, a dos espacios isomorfos se les considera idénticos (equivalentes).
V ∼
= Kn
→ dim(V ) = dim(K) = n
∴ Basta que sea inyectiva o sobreyectiva para que sea isomorfa, es decir V ∼
= Kn
T ◦Π=T
ii) T es isomorfismo
U/N u(T ) ∼
= Im(T )
Demostración. .
T ([u]) = T (u)
⇒T ◦Π=T
= T (u) = T ([u])
∴S=T
ii) T es sobreyectiva (T : U
N u(T )
→ Im(T ))
Sea y ∈ Im(T ) : ∃u ∈ U tal que T (u) = y pero T ([u]) = T (u) → T es sobreyectiva.
T es inyectiva
→ T (u) = 0 → u ∈ N u(T )
∴ T es inyectiva
a1 x1 + . . . + an xn = 0
Determine su dimensión
n
1 X
Solución 3.5.2. Sea v = (x1 , · · · , xn ) ∈ V , donde V es el hiperplano. Además x1 = −
a1 i=2
ai x i . !
n
1 X
⇒v= −ai · (xi , x2 , · · · , xn )
a1 i=2
ai
Sea B = {vi , i ∈ In−1 }, donde vi = − xi · ei , donde {ei , i ∈ In } base canónica de Kn .
a1
Entonces B es L.I.
⇒ v = L ({vi , i ∈ In−1 })
∴ dim(V ) = n − 1
U ∼ U +V
=
U ∩V V
S es sobreyectiva
Sea [y] ∈ U +V
V
−→ y ∈ U + V
∃ u ∈ U, v ∈ V tal que : y = u + v
y−u=v ∈V
∴ S es sobreyectiva.
N u(T ) = U ∩ V
(⊂) Si u ∈ N u(S) : S(u) = [0] = [u]
→u∈V ⇒u∈U ∩V
∴ N u(S) = U ∩ V
1. T es inyectiva.
2. T es sobreyectiva.
3. T es isomorfismo.
Demostración. .
∴ V = Im(T )
2) → 1) : T es sobreyectiva
→ dim(N u(T )) = 0
⇒ N u(T ) = {0}
∴ T es inyectiva
T +S :U →V
(T, S) →
u → T (u) + S(u)
· : K × L(U, V ) → L(U, V )
λT : U → V
(λ, T ) →
u → λ · T (u)
Nota 3.6.1. L(U, U ) = L(U ) se le denomina conjunto de endomorfismos y a sus elementos
se les denomina endomorfismo u operador lineal.
Afirmación: L(U, V ) ∼
= Km×n
En efecto, sean {u1 , . . . , un } base de U y {v1 , . . . , vm } base de V .
Entonces:
τij (u) = λj vi
Sea T ∈ L(U, V )
n
X n
X
u= λj uj ∈ U → T (u) = λj T (uj )
j=1 j=1
Luego !
n
X n
X m
X
T (u) = λj T (uj ) = λj aij vi
j=1 j=1 i=1
n X
X m
T (u) = aij λj vi
|{z}
j=1 i=1
τij (u)
n X
m
!
X
→ T (u) = aij τij (u)
j=1 i=1
n X
X m
Sea T = aij τij
j=1 i=1
• {τij } es L.I.
n X
X m
Si αij τij = 0
j=1 i=1
n X
X m
⇒ αij τij (u) = 0, ∀u ∈ U
j=1 i=1
Sea k ∈ In
n X
X m
αij τij (uk ) = 0
j=1 i=1
I
n
X
u= λj uj → τij (u) = λj vi
j=1
uk = 0 · u1 + 0 · u2 + . . . + 1.uk + 0 · uk+1 + . . . + 0 · un
τij (uk ) = λj vi
0 j 6= k
λj =
1 j = k
0 j 6= k
τij =
vi j = k
J
m X
X n
αij τij (µk ) = 0
i=1 j=1
| {z }
αik ·1·vi
m
X
αik .vi = 0
i=1
⇒ αik = 0, ∀i ∈ Im
αij = 0, ∀i ∈ Im , ∀j ∈ In
⇒ dim(L(U, V )) = mn
3.7. Proyecciones
Demostración. ¡Ejercicio!
Lema 3.7.1. Sea T : V → V lineal. Entonces T es proyección si y solo si T (v) = v para cada
v ∈ Im(T )
Demostración. .
Sea v ∈ Im(T ). Entonces ∃ u ∈ V tal que v = T (u). Luego T (v) = T (T (u)) = T (u) =
v ⇒ T (v) = v, ∀v ∈ Im(T ).
(⇐) Sea v ∈ V :
N u(Π) ⊕ Im(Π) = V
Demostración. .
N u(Π) + Im(Π) = V :
Sea v ∈ V . Entonces v = (v−Π(v))+Π(v) y se tiene que: Π(v−Π(v)) = Π(v)−Π(Π(v)) =
Π(v) − Π(v) = 0 con lo que v − Π(v) ∈ N u(T ) y Π(v) ∈ Im(Π).
Ejemplo 3.8.1. .
1. f1 : R3 → R
f1 (x1 , x2 , x3 ) = ax1 + bx2 + cx3
2. f2 : Rn → R
f2 (v) = ha, vi, dado a ∈ Rn fijo
3. f3 : C([a, b], R) → R
Z b
f3 (f ) = f (x)dx
a
f (v) = 1 y f (w) = 0, ∀ w ∈ S
Lo cual, en otras palabras es lo mismo que definir f en los elementos de la base de la siguiente
manera:
f (u1 ) = 0, . . . , f (um ) = 0, f (v) = 1, f (um+2 ) = 0, . . . , f (un ) = 0
L(K, V ) ∼
=V
Demostración. Definamos:
Φ : L(K, V ) → V
f → Φ(f ) = f (1)
Φ es inyectiva:
⇒ f (k) = 0, ∀k ∈ K → f = 0
∴ N u(Φ) = {0}
Φ es sobreyectiva:
Sea v ∈ V , definimos:
g:K→V
k → kv , g es lineal
g(1) = 1.v = v
|{z}
Φ(g) = v ⇒ v ∈ Im(Φ)
⇒ Φ es sobreyectiva
Demostración. En efecto:
vi∗ : V → K, i ∈ In
n
X
Si v = λj vj , entonces vi∗ (v) = λi claramente vi∗ es lineal. Probaremos que B ∗ = {v1∗ , . . . , vn∗ }
j=1
es una base de V ∗ .
B ∗ genera a V ∗
n
X
Sea f ∈ V , sea v ∈ V , luego v =
∗
λj vj .
j=1
n
! n
X X
f (v) = f λj vj = λj f (vj )
|{z}
j=1 j=1
vj∗ (v)
n n
!
X X
f (v) = f (vj )vj∗ (v) = f (vj )vj∗ (v)
j=1 j=1
n
X
⇒f = f (vj ) · vj∗
j=1
∴ B genera a V ∗
∗
B ∗ es L.I.
Xn n
X
Si αj vj∗ = 0 → αj vj∗ (v) = 0, ∀ v ∈ V .
j=1 j=1
Para v = vi :
0 i 6= j
∗
vj (vi ) =
1 i = j
n
X
αj vj∗ (vi ) = 0
j=1
αi vi∗ (vi ) = 0 → αi · 1 = 0
⇒ αi = 0 , ∀ i ∈ In
∴ B ∗ es L.I.
dim(V ∗ ) = dim(V )
Es decir: V ∼
= V ∗ ⇐⇒ dim(V ) < ∞
Como u ∈
/ {u1 , . . . , un } : u∗i (u) = 0, ∀i ∈ In .
n
X
⇒ f (u) = αi u∗i (8u) = 0
i=1
⇒ f (u) = 0
Demostración. .
Sean ϕ, ψ ∈ V ∗ . Entonces:
= θa (ϕ) + θa (ψ)
Sea ϕ ∈ V ∗ , λ ∈ K. Entonces:
∴ θa es transformación lineal
Demostración. .
θ es lineal: Sean u, v ∈ V, λ ∈ K
Sea f ∈ V ∗ :
θu+λv (f ) = f (u + λv) = f (u) + λf (v)
| {z }
θu (f )+λθv (f )
θ es inyectiva:
Sea u ∈ N u(θ) :
θu : V ∗ → K
f → θu (f ) = f (u) = 0, ∀f ∈ V ∗
θ es sobreyectiva:
Como la dimensión de V es finita, sabemos que:
⇒ Im(θ) = V ∗∗ → θ es sobreyectiva
∴ θ es isomorfismo
S o = {f ∈ V ∗ : f (s) = 0, ∀s ∈ S}
= {f ∈ V ∗ : S ⊂ N u(f )}
Demostración. Sea {v1 , . . . , vr } una base de S y sean los vectores vr+1 , . . . , vn ∈ V tales que
{v1 , . . . , vr , vr+1 , . . . , vn } es una base de V . Sea B ∗ = {Π1 , . . . , Πn } ⊂ V ∗ la base dual de B.
Entonces, para cada i con r + 1 ≤ i ≤ n se tiene que Πi (v1 ) = . . . = Πi (vr ) = 0 y por lo tanto,
Πi se anula sobre todo S. Por esto, {Πr+1 , . . . , Πn } ⊂ S o .
De donde:
dim(S) + dim(S o ) = n
Gracias a esta última proposición tenemos una idea sobre como determinar el anulador de un
subespacio.
Ejemplo 3.12.1. Sea S = L({(1, 1, 1), (1, 2, 1)}) ⊂ R3 . Hallar una base de S o .
Solución 3.12.1. Consideramos una base de R3 que extienda a la base de S por ejemplo:
x = a + b + c, y = a + 2b y z = a + b
De esto:
b = y − z, a = 2z − y y c = x − z
Y obtenemos:
Π3 (x, y, z) = x − z
(⊃)
(⊂)
Como v ∈ T , se tiene que Πr+1 (v) = 0, lo que contradice que Πr+1 (v) = 1. Luego T ⊂ S.
Nota 3.12.1. Con este resultado se tiene otra forma de encontrar las ecuaciones de un subes-
pacio
Ejemplo 3.12.2. Sea S = L({(1, 1, 1), (1, 2, 1)}) ⊆ R3 . Hallar ecuaciones (implicitas) para
S.
S = {(x, y, z) ∈ R3 : f (x, y, z) = 0, ∀f ∈ S o }
= {(x, y, z) ∈ R3 : λ(x − z) = 0, ∀λ ∈ R}
= {(x, y, z) ∈ R3 : x − z = 0}
1. (S + T )o = S o ∩ T o
2. (S ∩ T )o = S o + T o
Sugerencia: Probar (1) directamente. Para (2), utilizar la doble inclusión: ⊃ es rápida y para
⊂ se debe usar (1) y el teorema del núcleo e imagen.
T t : w∗ → v ∗
f → Tft
Demostración. .
a)
f ∈ N u(T t ) ⇔ Tft = 0 ⇔ f (T (v)) = 0, ∀v ∈ V ⇔ f ∈ [Im(T )]o .
b)
dim(Im(T t )) = dim(W ∗ ) − dim(N u(T t ))
= dim(Im(T ))
c)
dim(Im(T t )) = dim(Im(T )) = dim(V ) − dim(N u(T ))
Solo faltaria probar que Im(T t ) ⊂ (N u(T ))o . Sea g ∈ Im(T t ), entonces ∃f ∈ W ∗ tal
que:
g = Tft → ∀v ∈ N u(T ) : g(v) = Tft (v) = f (T (v)) = 0
Unidad 3
62
4.1. MATRICES
4.1. Matrices
A : Im × In → K
(i, j) → A( i, j) = aij
a11 . . . a1n
. ... ..
.
A= . .
am1 . . . amn
Donde:
ai1 . . . ain es la fila i de A.
a1j
.
.. es la columna j de A.
amj
Propiedades 4.1.1. .
1. Es asociativa.
2. Es distributiva.
En general no es conmutativa.
A ∈ Km×n
a1
.
.
. , ai es una f ila
A=
am
i) λ 6= 0
1 0 ··· 0 ··· 0
0
1 · · · 0 · · · 0
. .. . . .. ..
.. . . . 0
.
Ei (λ) =
0 0 · · · λ · · · 0
. .. .. .. . .
.. . . . . 0
0 0 ··· 0 ··· 1
ii)
1 0 ··· 0 ··· 0 ··· 0
0 1 · · · 0 · · · 0 · · · 0
. . .
.. .. . . ... ... ... ... 0
0 0 · · · 1 · · · λ · · · 0
Eij (λ) = . . . . . . . .
.. .. .. .. . . .. .. ..
0 0 · · · 0 · · · 1 · · · 0
.. .. .. .. .. .. . . ..
. . . . . . . .
0 0 ··· 0 ··· 0 ··· 1
Eij (λ)A : La fila i de A es aumentada λ veces la fila j.
iii)
1 0 ··· 0 ··· 0 ··· 0
0
1 ··· 0 ··· 0 ··· 0
. .. . . .. .. .. ..
..
. . . . . . 0
0 0 ··· 0 ··· 1 ··· 0
Eij = . .. .. .. . . .. .. ..
.. . . . . . . .
0 0 ··· 1 ··· 0 ··· 0
.. .. .. .. .. .. . . ..
. . . . . . . .
0 0 ··· 0 ··· 0 ··· 1
Eij A : Se intercambian la fila i con la fila j de A.
Proposición 4.3.1. Realizar una operación elemental de algún tipo es multiplicar por izquier-
da a la matriz por una matriz elemental del tipo anterior.
Demostración. i)
a1
.
..
A1 =
λai
.
..
am
e1 A1 = a1 = e1 A
..
.
ei A1 = λai = λei A
..
.
em A1 = am = em A
Osea:
e1 e1
. .
.. ..
ei A1 = λei A
. .
.. ..
em em
| {z } | {z }
Im Ei (λ)
Proposición 4.3.2. .
i) Ei (λ)−1 = Ei (λ−1 ), λ 6= 0.
Demostración.
n = 1 : A = [λ], λ ∈ K.
Si Ax = 0 ⇒ x = 0, supongamos λ = 0, A · 1 = 0 pero 1 6= 0. Luego λ 6= 0 :
E1 (λ−1 )A = [1] = I1
a11 · · · · · ·
. .. ..
.
.
A= . .
an1 · · · · · ·
Osea Ae1 es la primera columna de A. Haciendo un cambio de filas si es necesario,
podemos suponer que a11 6= 0.
1 ∗ ··· ∗
−1
a
21 ∗ · · · ∗
E1 (a11 )A = . .. .. ..
.. . . .
an1 ∗ ··· ∗
1 ∗ ··· ∗
−1
0 ∗ · · · ∗
E21 (−a21 )E1 (a11 )A = .. .. .. ..
. . . .
an1 ∗ ··· ∗
Así sucesivamente:
1 ∗ ··· ∗
−1
0
En1 (−an1 ) · · · E21 (−a21 ) E1 (a11 ) A = ..
| {z } | {z } | {z }
En E2 E1
. F
0
| {z }
F ∈K(n−1)×(n−1)
⇒ Ax = 0 → x = 0
Fy = 0, y ∈ K(n−1)×1
P
1 a11 · · · a1(n−1) − n−1 a
j=1 1j jy
0 y 1 0
. .. = =0
..
F
.
F y
0 yn−1
(Fr · · · F1 )F = In−1
Consideremos:
1 0 ··· 0
0
F̃k = .. ∈ Kn×n
. F
0
1 0 ··· 0 1 ∗ ··· ∗ 1 ∗ ··· ∗ 1 ∗ ··· ∗
0 0 0 0
.. .. .. = ..
. F1
. F
. (Fr · · · F1 )F
. In−1
0 0 0 0
Aplicando n − 1 matrices elementales de tipo E1i (∗), i = 2, · · · , n. Tenemos que:
ER ER−1 · · · E1 A = In
| {z }
matrices elementales
Demostración.
(→)
A cumple que: (Ax = 0 → x = 0) por el lema anterior ∃E1 , · · · , Em elementales tales que
Em · · · E1 · A = I
−1
⇒ A = E1−1 · · · Em−1 −1
Em
(←)
⇒ BAx = 0 → Ix = 0 → x = 0
Demostración.
(→)
x1
.
Sea A inversible, A = (A1 : · · · : An ). Si ni=1 xi Ai = 0 = A .
. = 0.
P
xn
x1
.
Por el corolario .
. = 0 ⇒ xi = 0, ∀i ∈ In
xn
∴ {A1 , · · · , An } es L.I.
(←)
⇒ BAX = 0 ⇒ x = 0 ⇒ A es inversible
Demostración. Existe B tal que AB = I, entonces B tiene inversa por la izquierda. Por el
corolario: B es inversible.
AB = I ⇒ ABB −1 = B −1
⇒ A = B −1 → A es inversible
m = 1 : A = (a1 , . . . , an )
Si A 6= 0, A = (0, . . . , 0, ar , . . . , an ) con ar 6= 0
E1 (a−1
r )A = (0, . . . , 0, 1, ∗, ∗, . . . , ∗)
r )A es escalonada reducida
Luego E1 (a−1
Sea A ∈ Km×n
0 ... 0 ∗ ... ∗
. .. .. ..
.
.
A= . Aj0 . .
0 ... 0 ∗ ... ∗
Sea Aj0 la primera columna no nula. Haciendo un cambio de filas se puede asumir que:
a
∗
∗ , con a 6= 0
Aj0 =
.
..
∗
0 ... ... 0 1 ∗ ... ... ∗
. . .. .. . . ..
.. . . . a2 . . .
−1
E1 (ar )A = . .. .. .. ..
.. .. ..
. . . . .
.
0 ... ... 0 am ∗ ... ... ∗
0 0 1 ∗ ... ∗
. ..
..
. 0
. ..
−1 .
.
Em1 (−am ) . . . E21 (−a2 )E1 (a )A = . 0 C
. .. ..
..
. .
0 0 0
Definimos:
1 0 ... 0
0
Fm+j = . , j ∈ Il
.. F
fj
0
Luego:
0 ... 0 1 ∗ ... ∗
. . ..
.. ..
. 0
Em+l . . . Em+1 Em . . . E1 A = . . .. ..
.. ..
. . C0
0 ... 0 0
Definición 4.5.1. Sea A ∈ Km×n . El espacio fila de A, denotado por F (A), es el subespacio
generado por las filas de A.
a1
.
. F (A) = L ({a1 , . . . , am })
.
A=
am
F (EA) = F (A)
Demostración. .
i) Si E = Ei (λ), λ 6= 0
iii) Si E = Eij
L {a1 , . . . , am } = L {a1 , . . . , aj , . . . , aj , . . . , am }
F (A) = F (Eij A)
F (BA) = F (A)
B = Ek . . . E1
Observación 4.5.1. .
i) A ∼F A, ∀A ∈ Km×n (Reflexiva)
ii) A ∼F B =⇒ B ∼F A (Simetría)
iii) A ∼F B ∧ B ∼F C =⇒ A ∼F C (Transitiva)
Demostración.
F (A) = F (A0 )
0 ... 0 1 0 0 0 ··· ∗
.. . ..
. . . ..
. . 1 0 0 · · · ∗
.. . .. .. ... .. .. ..
. . . ..
. . . . . .
. . .. .. ..
.
. . . ..
. . . . 1 · · · ∗
A0 =
0
... 0 0 0 0 0 · · · 0
. . . . .. .. .. .. .. ..
..
. . . . . .
0 . . . 0 |{z} 0 · · · |{z}
0 |{z} 0 · · · 0
k1 k2 kr
Vemos que:
{ak1 , . . . , akr } es LI
r
X
λi aki = 0
i=1
k1 k2 kr
z}|{ z}|{ z}|{
0 ... 0 1 0 ... 0
.. ..
(λ1 , . . . , λr ) . .
1 = (0, . . . , 0)
.. .. ...
. .
0 ... 0 1
=⇒ λi = 0, ∀i ∈ Ir
∴ {ak1 , . . . , akr } es LI
Teorema 4.5.1. Sea A ∈ Km×n , entonces ∃! A0 ∈ Km×n escalonada reducida, tal que A ∼F A0
h1 hr
z}|{ z}|{
0 . . . 1 . . . 0 }w1
. ...
..
.
.
B0 = .
1 }wr
0 0
.. ..
. .
0 0
L {v1 , . . . , vr } = L {w1 , . . . , wr }
Si r = 1:
L {v1 } = L {w1 }
1 ∗ ∗) = (0, . . . , |{z}
(0, . . . , |{z} α ∗ ∗) =⇒ α = 1 −→ w1 = v1
k1 h1
Supongamos que r = l − 1:
Si L {v1 , . . . , vr } = L {w1 , . . . , wr }
Afirmación: hr ≥ kr
Si: hr < kr .
En h1 : 0 = λ1 · 1, · · · , hr : 0 = λr · 1 ⇒ vr = 0(→←)
∴ hr ≥ kr
Analogamente hr ≤ kr
∴ hr = kr
∴ λ1 = · · · = λr−1 = 0
Para la posición hr = kr
1 = λr · 1 → λr = 1
vr = w r
Además vr = wr
∴ Ao = Bo
⇒ F (Ao ) = F (Bo )
∴ Ao ∼F Bo → A ∼F B
Además consideremos
Kn×1
N : U → M : V →Km×1
x1 y1
. .
. .
x→x= . y→y= .
xn ym
U −→T V
N↓ ↓M
Kn×1 −→ Te
Km×1
Te = M ◦ T ◦ N −1
Donde:
N : µ → e ∈ Kn×1
j j
Son isomorfismos =
M : vi → ei ∈ Km×1
Tex = AT x
Veamos:
Teej = (M o T o N −1 )ej = M (T (N −1 ej ))
Xm
= M (Tµj ) = M ( aij vi )
i=1
m
X m
X
= aij M (vi ) = aij ei
i=1 i=1
= Aj (Columnas j de A)
Definamos:
ϕ : L(Kn×1 , Km×1 ) → Km×n
T → ϕ(T ) = (T e1 : · · · : T en )
Afirmación: ϕ es isomorfismo.
ϕ es inyectiva:
Sea T ∈ N u(ϕ), ϕ(T ) = 0 = (T e1 : · · · : T en )
→ T ej = 0, ∀j ∈ In . . . (∗)
ϕ es sobreyectiva:
Sea A ∈ Km×n , A = (A1 : · · · : An ), Ai ∈ Km×1 . Definimos T : Kn×1 → Km×1 , tal que
T ej = Aj entonces ϕ(T ) = (A1 : · · · : An ) = A osea A ∈ Im(ϕ) → ϕ es sobreyectiva;
luego ϕ es isomorfismo.
Ahora definamos:
µ : L(U, V ) → L(Kn , Km )
T → µ(T ) = M ◦ T ◦ N −1 = Te
Afirmación: µ es isomorfismo.
µ es lineal.
µ(T + S) = M ◦ (T + S) ◦ N −1 = M ◦ T ◦ N −1 + M ◦ S ◦ N −1
= µ(T ) + µ(S)
= λµ(T )
Sea:
η : L(Kn , Km ) → L(U, V )
R → M −1 ◦ R ◦ N
(µ ◦ η)(R) = M ◦ (M −1 ◦ R ◦ N ) ◦ N −1 = R
(η ◦ µ)(T ) = M −1 ◦ (M ◦ T ◦ N −1 ) ◦ N = T
T →µ
|{z} M ◦ T ◦ N −1 →ϕ
|{z} AT
isomorf ismo isomorf ismo
| {z }
−→ϕ◦µ isomorf ismo, pues ϕ y µ lo son
AT = (ϕ ◦ µ)(T )
T x = y
ϕ◦µ↓ ↓N ↓M
AT x y
U →T W →S V
N↓ ↓P ↓M
Kn×1 →AT Kp×1 →AS Km×1
Demostración.
(S ◦ T )x = y
p
X
AT = [aij ]p×n tal que T (µj ) = aij wi
i=1
I
p
X
(S ◦ T )(µj ) = S( akj wk )
k=1
p
X
= akj S(wk )
k=1
J
p m
X X
(S ◦ T )(µj ) = akj ( )bik vi
k=1 i=1
Luego:
m X p m
X X
(S ◦ T )(µj ) = ( bik akj )vi = cij vi
i=1 k=1 i=1
p
X
⇒ cij = bik akj (elemento ij de AS · AT )
k=1
Osea:
AS◦T = AS · AT
(Ald )0 = (e1 : · · · : en ) = In
∴ Ald = In
Demostración. Como U ∼
= V → dim(U ) = dim(V ) = m
Im = (Ald )v = AT o T −1 = AT · AT −1
Demostración.
(→)
(←)
AT es inversible:
ϕ−1 : Km×n → L(Kn×1 , Km×1 )
Donde:
ϕ−1 (A) = TA : Kn×1 → Km×1
x → Ax
V →S U
M↓ ↓ N ↑ N0
−1
Km×1 →AT Kn×1
Afirmación S = N −1 o TAT −1 o M es la inversa de T.
(S o T ) = N −1 o TAT −1 o M o T
= N −1 o TAT −1 o M o (M −1 oTAT o N )
= N −1 o TA−1 o TA o N = ldU
T
Analogamente T o S = ldV
1 e2 e
z}|{
Ejemplo 4.7.1. U = V = L ({ sin , cos }), T : U → V , T (f ) = f 0 . Notamos que T (sen) =
z}|{
AT x = y = {sen = e1 , cos = e2 }
1 0
AT e1 = AT (0 ) = (1 ) 0 −1
AT =
AT e2 = AT (0 ) = (−1 )
1 0 1 0
Tx = y → AT x = y
T ex = ex → AT e1 = e1 1 0 0
T e2x = 2e2x → AT e2 = 2e2 AT =
0 2 0
T e3x = 3e3x → AT e3 = 3e3 0 0 3
Rx
Veamos (T −1 f )(x) = 0
f (t)dt + f (0)
1 0 0
AT −1 = 1
0
2 0
0 0 13
1 2 e e
2.
Sea w = a + ib, definimos: Tw : C → C, definido por Tw (z) = w · z es R-lineal. Hallaremos
ATw .
Tw x = y → AT x = y
a b
Ejemplo 4.7.4. U = V = R2×2 . Sea A = definimos:
c d
TA : R2×2 → R2×2
Es base de R2×2
TA x = y → ATA x = y
1 0 1 0 a 0
TA = A = = ae1 + ce3
0 0 0 0 c 0
0 1 0 1 0 a
TA = A = = ae2 + ce4
0 0 0 0 0 c
0 0 0 0 b 0
TA = A = = be1 + de3
1 0 1 0 d 0
0 0 0 0 0 b
TA = A = = be2 + de4
0 1 0 1 0 d
a 0 b 0
0 a 0 b
ATA =
c 0 d 0
0 c 0 d
Demostración. Sea B = [T t ]Y ∗ X ∗
n
X
T (uj ) = akj vk , j ∈ In
k=1
n
X
T t (vi∗ ) = bki u∗k , i ∈ Im
k=1
n
!
X
T t (vi∗ )(uj ) = bki u∗k (uj ) = bji
k=1
Osea:
bji = aij ⇒ B = At
(λT )t = λT t , ∀λ ∈ K, T ∈ L(U, V ).
L(U, V ) ∼
= L(V ∗ , U ∗ )
(S ◦ T )t = T t ◦ S t
Definición 4.9.1. .
Ejercicio 4.9.1. Probar que las tres relaciones anteriores son de equivalencia.
Ejemplo 4.9.1. En R2
B = {(1, 2), (1, 1)}
0 1 1 p
11
=
1 2 1 p21
0 −1
1 1 p p
= 11 12
1 3 2 1 p21 p22
−1 1 1 p12
=
3 2 1 p22
−1
1 1 0 −1 1 4
=⇒ PBB 0 = =
2 1 1 3 −1 −5
Ejemplo 4.9.2.
B = {(1, 0), (0, 1)}
0 1 0 p
= p11 + p21 = 11
1 0 1 p21
−1 1 0 p
= p12 + p22 = 12
3 0 1 p22
0 −1
=⇒ PBB 0 = Matriz de cambio de la base canónica B a la base B 0
1 3
Ejemplo 4.9.3. B1 = {(1, 0), (1, 3)}, B2 = {(0, 1), (1, 1)}
−1 2
⇒ PB1 B2 =
1 1
n n n
! n n
!
X X X X X
=⇒ u0j = pij ui = u0j = pij qki u0k = qki pij u0k
i=1 i=1 k=1 k=1 i=1
Luego:
n
(
X 0 , j 6= k
qki pij =
i=1 1, j=k
0 , j 6= k
[QP ]kj ={
1, j=k
=⇒ QP = I = In PBB 0 PB 0 B = In
−1
∴ PBB 0 = PB 0 B
PB 00 B = PB 00 B 0 PB 0 B
Demostración. Sean
B = {u1 , . . . , un }
0 0
B = {u1 , . . . , un } 0 Bases de U
B 00 = {u001 , . . . , u00n }
n
X n
X
u00j = rij ui = qkj u0k
i=1 k=1
n
X
Pero u0k = plk ul , luego:
l=1
n n n
! n n
!
X X X X X
u00j = rij ui = qkj plk ul = plk qkj ul
k=1 k=1 l=1 l=1 k=1
n
X
=⇒ rij = pik qkj = [P Q]ij , es decir, R = P Q
k=1
0
.
..
, con 1 en la posición i
m×1
M : vi → ei =
1 ∈ K
.
..
0
T x = y
↓ ↓N ↓M
AT x = y
n
X m
X
x= xj u j , y= yi vi
j=1 i=1
x1 y1
. .
. .
.
x= .
, y=
xn ym
También:
C 0 = {v10 , . . . , vm
0
} base de V
T x = y
↓ ↓ ↓
BT x0 = y 0
n
X m
X
0 0
x= xj u j , y = yi0 vi0
j=1 i=1
n
X m
X
x= xj u j , y = yi vi . . . (*)
j=1 i=1
n
X
La matriz PB 0 B = [pij ] es tal que: u0j = pkj uk
k=1
Reemplazando en (*):
n
X n
X n
X
x = x0j u0j = x0j ( pkj uk )
j=1 j=1 k=1
n
X Xn n
X
= ( x0j pkj )uk = xk uk
k=1 j=1 k=1
n
X
=⇒ x0j pkj = xk , ∀ k ∈ In
j=1
=⇒ x = PB 0 B x0
n X
X n
x= ( x0j pkj )uk
k=1 j=1
n X
X n
x= ( x0j pkj )ek
k=1 j=1
Tx = y
AT x = y , BT x0 = y 0
Reemplazando:
AT PB 0 B x0 = PC 0 C y 0
Pero:
BT x0 = y 0
=⇒ AT PB 0 B x0 = PC 0 C BT x0
=⇒ (AT PB 0 B − PC 0 C BT )x0 = 0
Luego:
AT PB 0 B − PC 0 C BT = 0
AT PB 0 B = PC 0 C BT
=⇒ BT = PC0 C −1 AT PB0 B
=⇒ BT = PCC0 AT PB0 B
Ax = b
Donde:
λ1 b1
. .
. .
A= [aij ]m×n
| {z } . , b = .
,x =
matriz de coeficientes λn bm
| {z }
solución
Proposición 4.11.1. Ax = b tiene solución si y solo si b ∈ C(A) (espacio generado por las
columnas de A, denominado espacio columna).
Demostración.
(→)
λ1 λ1 n
. .
. .
X
Sea x0 = . solución, entonces Ax0 = b osea A . = b =
λj Aj ⇒ b ∈ C(A).
j=1
λn λn
(←)
λ1
.
Si b ∈ C(A), entonces ∃λ1 , · · · , λn ∈ K. Tales que b = nj=1 λj Aj = A .
. .
P
λn
λ1
.
Luego .
. es solución.
λn
Demostración.
(→)
→ Ay = 0 ⇔ A0 y = 0
TA , TA0 : Kn×1 → Km×1 definidas por TA (y) = Ay, TA0 (y) = A0 y, luego N u(TA ) = N u(TA0 ).
⇒ dim(Im(TA )) = dim(Im(TA0 ))
Luego Im(TA ) ∼
= Im(TA0 )
0
∃Vr+1 , · · · , Vm ∃Vr+1 , · · · , Vm0
Afirmación: S o TA = TA0
λ1
.
En efecto, sea x ∈ Km×1 con x = .
. .
λn
n
X n
X r
X
TA x = λj Aj = λj aij Ai
j=1 j=1 i=1
n
X r
X
S(TA x) = λj aij S(Ai )
j=1 i=1
n
X r
X
S(TA x) = λj aij A0i = TA0 x
j=1 i=1
m×n
⇒ ∃P ∈ K : S(x) = Px
→ S(TA x) = TA0 x
→ A ∼F A 0
(←)
(←)
P −1 (P Ax) = P −1 (P b) → Ax = b
⇔ A0 x = b0 ⇔ los sistemas Ax = b y A0 x = b0 son equivalentes.
P A = Ao → P Ax} |{z}
| {z = |{z}
Pb
Ao x = bo
Definición 4.11.3. Diremos que el sistema lineal es homogéneo si b = 0, osea el sistema seria
Ax = 0
dim(SA ) = n − r (# de 1 − capitales)
= n − dim(F (A))
Demostración. Definimos:
TA : Kn×1 → Km×1
TA x = Ax
⇒ Im(TA ) = C(A)
Recordar:
x1 n
. X
.
Ax = (A1 , · · · , An ) . =
xj Aj
j=1
xn
Notar que:
N u(TA ) es el espacio solución de Ax = 0. Luego por el teorema del núcleo y la imagen:
Definición 4.11.4. El rango de una matriz A ∈ Km×n denotada como M (A) (también r(A),
rang(A), rank(A), etc.) se define como M (A) = dim(F (A)) = dim(C(A)).
Si B ∈ L {A1 , · · · , An } → B =∼nj=1 λj Aj
M (A) = M (A : B)
(→)
→ x − xo ∈ N u(T ) → x ∈ xo + N u(T )
(←)
Si x ∈ xo + N u(T ). ∃v ∈ N u(T ) : x = xo + v.
→ T x = T xo + Tv = y + 0 = y
→ x es solución.
Consideremos Ax = B, sea SA el conjunto solución, si SA 6= φ. Entonces, SA = xo + N u(TA ),
donde TA x = Ax.
#SA = #(xo + N u(TA ))
#SA = #N u(TA )
Demostración. .
1. M (A) = m = #f ilas.
TA xo = B = Axo = B
TA : Kn×1 → Km×1
#SA = #N u(TA )
#SA = #{0} = 1
4. M (A) < n
dim(Im(TA )), aplicando el teorema del núcleo e imagen:
M (A)
z }| {
n = dim(N u(TA )) + dim(Im(TA ))
Unidad 4
100
5.1. DETERMINANTES
5.1. Determinantes
Definición 5.1.1. Sea r ∈ N, una forma r-lineal en el K-espacio vectorial U es una función:
f : |U × .{z
. . × U} −→ K
r veces
∀ v1 , . . . , vi , vi0 , . . . , vr ∈ U , ∀ λ ∈ K
Teorema 5.1.1. Sea U un K-espacio vectorial de dimensión finita con base {u1 , . . . , un }.
Para cada una de las nr secuencias ordenadas J = {j1 , . . . , jr } de enteros comprendidos entre
1 y n, fijemos un número real aJ = aj1 ,...,jr . Existe una y solamente una, forma r-lineal
f : U × . . . × U −→ K tal que f (uji , . . . , ujr ) = aJ , ∀J = (j1 , . . . , jr )
{u1 , u2 , u3 }, f : forma:
⇒ ∃!f : U r → K
Corolario 5.1.1. Sea dimK U = n. El espacio vectorial Lr = (U, K) de todas las formas
r-lineales f : U × . . . × U −→ K tiene dimensión nr
Observación 5.1.2. Esto determina, una vez fijada una base de U , que:
Lr (U, K) ∼
r
= Kn , donde dimU = n
f (u1 , . . . , u, . . . , u, . . . , ur ) = f (v1 , . . . , v, . . . , v, . . . , vr ) = 0
| {z } | {z }
ϕ(u, u) = ϕ(v, v) = 0
f (v1 , . . . , u, . . . , v, . . . vr ) = −f (v1 , . . . , v, . . . , u, . . . , vr )
Es decir, f es antisimétrica.
Si f es antisimétrica:
donde
1 , si el número de permutaciones es par
sign(σ) =
−1 , si el número de permutaciones es impar
f : U × . . . × U −→ K
Demostración. (Ejercicio)
Teorema 5.1.3. Sea {u1 , . . . , un } una base del K-espacio vectorial U . Para todo escalar a,
existe una única forma n-lineal alternada f : U × . . . × U −→ K tal que:
f (u1 , . . . , un ) = a
Demostración. (Ver Elon Lages - pág 293) Supongamos que existe f ∈ An (U ) tal que
f (u1 , . . . , un ) = a. Supongamos, además, que existe g ∈ An (U ) tal que g(u1 , . . . , un ) = a. Se
tendría que:
Notamos que para cada permutación I = (i1 , . . . , in ) = (σ(1), . . . , σ(n)) se cumple que f (uI ) =
g(uI ) y si hubiese repeticiones f (uI ) = g(uI ) = 0.
Ahora veamos cómo obtener dicha forma n-lineal alternada f : U × . . . × U −→ K tal que:
0 , si hay repeticiones
f (ui1 , . . . , uin ) = a , si la permutación es par
−a , si la permutación es impar
Por el primer teorema, existe una única forma n-lineal f : U × . . . × U −→ K con estas
propiedades. Falta ver que f es alternada.
n
X
Sea v = xi ui , vector en U cualquiera, entonces:
i=1
P P
f (. . . , u, . . . , u, . . .) =
f (. . . , xi ui , . . . , xj uj , . . .)
n X
X n
= xi xj f (. . . , ui , . . . , uj , . . .)
i=1 j=1
Xn
= xi xi f (. . . , ui , . . . , ui , . . .)
i=1
Xn
+ xi xj f (. . . , ui , . . . , uj , . . .)
i<j
Xn
+ xi xj f (. . . , ui , . . . , uj , . . .)
i>j
Xn
= 0+ xi xj f (. . . , ui , . . . , uj , . . .)
i<j
n
X
− xi xj f (. . . , uj , . . . , ui , . . .)
i>j
n
X
= xi xj f (. . . , ui , . . . , uj , . . .)
i<j
Xn
− xj xi f (. . . , ui , . . . , uj , . . .)
j>i
= 0
Nota 5.1.1. U →T V .
U × ... × U V × ... × V
↓f
K
1. T ∗ f ∈ An (U )
2. (T + S)∗ = T ∗ + S ∗
3. (λT )∗ = λT ∗
4. (S ◦ T )∗ = T ∗ ◦ S ∗
5. I ∗ = I
∀f ∈ An (U ) y cualesquiera v1 , . . . vn ∈ U
Demostración. .
(←−): Si detT 6= 0, entonces, fijando una base {u1 , . . . , un } ⊂ U y una forma n-lineal
no nula f : U × . . . × U −→ K, tenemos:
f (T u1 , . . . , T un ) = detT · f (u1 , . . . , un ) 6= 0
f (T u1 , . . . , T un ) es LI −→ es base de U
Corolario 5.1.7. El sistema de ecuaciones lineales Ax = b, con A ∈ Kn×n (L(Kn , Kn )), posee
una única solución, si y solo si, detA 6= 0
Ahora pasemos a definir el determinante de una matriz cuadrada. Dada A ∈ MK (n, n), escribi-
remos de ahora en adelante A = [A1 : . . . : An ] (Ai : vectores columna de A). Sea T : Kn −→ Kn
el endomorfismo cuya matriz asociada a la base canónica de Kn sea A, es decir:
T e1 = A1 , . . . , T en = An
Es decir:
detA = f0 (A1 , . . . , An )
De lo anterior: det(A) = fo [A1 , · · · , An ] donde fo ∈ Altn (Kn ) es tal que fo (e1 , · · · , en ) = 1. Por
ende, det : M (n, n) → K es la única función n-lineal alternada de las columnas de la matriz
A = [A1 , · · · , An ] que toma el valor de 1 en la matriz identidad In
Por lo visto anteriormente, para cualquier forma n-lineal alternada f (A) = f (A1 , · · · , An ), se
tiene que f (A) = c · det(A), donde c = f (In ) = f (e1 , · · · , en ).
Por la definición de det(A) = det(A1 , · · · , An ) como una forma n-lineal alternada, tenemos
que:
3. det[· · · , vi , · · · , vj , · · · ] = −det[· · · , vj , · · · , vi , · · · ].
5. det[· · · , vi +
P
j6=i λj vj , · · · ] = det[· · · , vi , · · · ]
(¡Ejercicio!)
Propiedad 5.1.1. El determinante de una matriz triangular es igual al producto de los ele-
mentos de su diagonal.
A1 = a11 e1
A2 = a12 e1 + a22 e2
Por tanto:
det(A) = det[a11 e1 , A2 , · · · , An ]
= a11 det[e1 , a12 e1 + a22 e2 , A3 , · · · An ]
= a11 det[e1 , a22 e2 , A3 , · · · An ]
= a11 a22 det[e1 , e2 , a13 e1 + a23 e2 + a33 e3 , · · · An ]
= a11 a22 a33 det[e1 , e2 , e3 , A4 , · · · An ]
De esta manera se tiene:
n
Y
det(A) = a11 a22 a33 · · · ann = aii
i=1
det(A[i, b])
xi = ; i ∈ In
det(A)
n
X
= xk det[A1 , · · · , Ak , · · · , An ]
k=1
= xi det[A1 , · · · , An ]
= xi det(A)
det(A[i, b])
∴ xi =
det(A)
Demostración. Sea A = [aij ] ∈ M (n, n) la matriz T en una base {µ1 , · · · , µn } base de U . Por
definición, det(T ) = det(To ), donde To : Kn → Kn es el operador cuya matriz asociada en la
n
X n
X
ϕ(T µj ) = aij ϕ(µi ) = aij ei
i=1 i=1
= To (ej ) = To (ϕ(µj ))
De esto ϕ o T = To o ϕ, es decir:
To = ϕ o T o ϕ−1
det(A).f = T ∗ o f = (ϕ o T o ϕ−1 )∗ f
= (ϕ∗ )−1 o T ∗ o ϕ∗ · f
= det(T )f
∴ det(A) = det(T )
Sea la forma fo ∈ An (Kn ) tal que fo (e1 , · · · , en ) = 1, luego fo (eσ(1) , · · · , eσ(n) ) = sign(σ), ∀
σ ∈ Sn (Grupo de permutaciones de n elementos). Dada la matriz A = [aij ]n×n = A[A1 : · · · :
An ], tenemos:
n
..
.
X
A1 = ai1 1 ei1 a11 e1 · · ·
i1 =1 ..
. · · ·
.. a21 e2
. A=
.. ..
. . · · ·
n
..
X
An = ain 1 ein
an1 en . ···
in =1
Luego:
det(A) = fo (A1 , · · · , An )
n n
!
X X
= fo ai 1 e i 1 , · · · , ain ein
i1 =1 in =1
n
X
= ai1 1 . · · · .ain n .fo (ei1 , · · · , ein ) . . . (∗)
i1 ···in =1
En esta sumatoria se anulan los términos donde hayan repeticiones entre los índices i1 , . . . , in
quedando solamente aquellos en los que:
ρ:k→q
σ:q→k
X
det(A) = signσ a1σ(1) a2σ(2) a3σ(3)
σ∈S3
Ejercicio 5.1.2. Realizar este cálculo para una matriz A = [aij ]4×4 .
Osea:
det(A) = det(AT )
Entonces:
det(A) = det(B)det(E)det(G)
Dado A = [aij ] ∈ M (n, n), denotaremos por Aij a la matriz (n − 1) × (n − 1) que resulta de
omitir la i-ésima fila y j-ésima columna.
Por (*):
n
X
det(A) = (−1)i+j ai1 det(Ai1 )
i=1
Ahora veamos el caso en general:
Si A = [A1 : . . . : Aj−1 : ei : Aj+1 : . . . : An ]
A = [A1 : . . . : Aj : . . . : An ]
Xn
Aj = aij ei
i=1
Entonces: n
X
det(A) = aij det[A1 : . . . : Aj−1 : ei : Aj+1 : . . . : An ]
i=1
Lo cual, por lo anterior:
n
X
det(A) = (−1)i+j aij det(Aij )
i=1
| {z }
Desarrollo del determinante de A según la j-ésima columna
Donde:
1, si i = j
δij =
0, si i 6= j
De esto:
A · adj(A) = (det(A))In
Unidad 5
114
6.1. ESPACIOS CON PRODUCTO INTERNO
i) Bilinealidad: ∀ u, v, w ∈ V, ∀ λ ∈ R
ii) Simetría: ∀ u, v ∈ V
hu, vi = hv, ui
Ejemplo 6.1.1. .
1. (R, ·) : ha, bi = ab
2. (Rn , ·) : ha, bi =
P
ai b i
Definición 6.1.2. Sea (V, h, i) un espacio con producto interno, denominaremos la NORMA
como:
k.k : V −→ R
p
v −→ kvk = hv, vi
Nótese que un producto interno siempre induce a una norma, sin embargo, una norma no
necesariamente induce a un producto interno:
h , i −→ k k
h, i8kk
Propiedades 6.1.1. .
i) kvk ≥ 0 ∧ kvk = 0 ←→ v = 0
d(u, v) = ku − vk
Definición 6.1.4. Sean u, v ∈ V , el ángulo entre u y v es el número θ ∈ [0, 2π] tal que:
hu, vi
cos θ =
kukkvk
|hu, vi| ≤ kukkvk ∧ |hu, vi| = kukkvk , si y solo si, {u, v} son LD
Demostración. .
i) Sea λ ∈ R : ku + λvk2 ≥ 0
hu + λv, u + λvi ≥ 0
Considerando p(λ) = kvk2 λ2 + 2hu, viλ + kuk2 como p(λ) ≥ 0 −→ ∆(p) ≤ 0 Luego:
• (−→) Consideremos:
p(λ0 ) = 0 = ku + λ0 k2 =⇒ u = −λ0 v
Es decir, u es paralelo a v
ku + vk ≤ kuk + kvk
Demostración.
ku + vk2 = kuk2 + 2hu, vi + kvk2
=⇒ ku + vk ≤ kuk + kvk
Definición 6.1.5. Sea (V, h, i) un espacio con producto interno, diremos que u es ortogonal a
v (u ⊥ v) si
hu, vi = 0
ku + vk2 + ku − vk2
= kuk2 + kvk2
2
Facultad De Ciencias (UNI) 117
Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5
Observemos lo siguiente:
i) hu, vi = 0 , ∀ u, v ∈ B con u 6= v
ii) kuk = 1 , ∀ u ∈ B
n
X n
X
−→ hx, ui i = h λk uk , ui i = hλk uk , ui i
k=1 k=1
Pero:
6 i
0 ,k =
huk , ui i = (Delta de Dirac o Delta de Kromecker: δki )
1 ,k = i
hx, ui i = λi hui , ui i = λi
n
X
=⇒ x = hx, uk iuk
k=1
hu, vi
w1 = v
kvk2
hu, w1 i
w2 = u − w1
hw1 , w1 i
w1 w2
(w1 ⊥ w2 ) La base ortonormal sería ,
kw1 k kw2 k
Sean {a, b, c} L.I.
x = αw1 + βw2
Sea w3 = c − x con w3 ⊥ w1 , w3 ⊥ w2
hc − x, w1 i = hc, w1 i − hx, w1 i = 0
Es decir:
hc, w1 i − hαw1 + βw2 , w1 i = 0
El objetivo de este algoritmo es: Sea V un espacio con producto interno finito dimensional y
{v1 , . . . , vn } una base, se busca conseguir una base {w1 , . . . , wn } tal que:
hwk+1 , wj i = 0
Se cumple (i)
Si i = k + 1:
k
X hvk+1 , wi i
vk+1 = wk+1 + wj ∈ L {w1 , . . . , wk+1 }
j=1
hwj , wj i
• (⊃): Sea wi , 1 ≤ i ≤ k + 1
Si i = k + 1:
k
X hvk+1 , wj i
wk+1 = vk+1 − wj
j=1
hwj , wj i
PS : V −→ V
k
X hx, ui i
x −→ PS (x) = ui
i=1
hui , ui i
Propiedades 6.1.2. .
1) PS (x) ∈ S , ∀ x ∈ V
2) x − PS (x) ⊥ S , ∀ x ∈ V
Demostración. (Ejercicio)
=⇒ v = PS (x)
Demostración. .
∴ y = PS (x)
d(x, S) = kx − PS (x)k
= d(x, PS (x))
Propiedad 6.1.1.
d(x, S) = inf {d(x, y)/y ∈ S}
Nota 6.1.1. Tener en cuenta que se denomina espacio vectorial euclideo al espacio vectorial
con producto interno.
Demostración. .
kx − yk = kf (x − y)k
Luego:
hx − y, x − yi = hf (x − y), f (x − y)i
Además:
hx − y, x − yi = hx, xi − 2hx, yi + hy, yi
(Prueba simplificada)
Tw : V −→ R
v −→ Tw (v) = hv, wi
Es funcional lineal.
Demostración. .
Luego:
w = hw, v1 iv1 + . . . + hw, vn ivn
Es el w que hace:
T (v) = hv, wi, ∀v ∈ V ¡Verificar!
Entonces:
hv, w1 − w2 i = 0, ∀v ∈ V
⇒ w1 − w2 = 0
∴ w1 = w2
T (x, y, z) = 4x − z
hvi , wj i = 0, ∀i ∈ Ik , j ∈ Ip
Proposición 6.3.1. .
1. W ⊥ es un subespacio de U
2. (W ⊥ )⊥ = W
3. W ⊕ W ⊥ = U
Demostración. (¡Ejercicio!)
V = N u(T ) ⊕ N u(T )⊥
v = v0 + v⊥
= n − 1 (a menos que T = 0)
⇒ dim(N u(T )⊥ ) = 1
Tomamos e vector ortonormal en N u(T )⊥ , luego:
v⊥ = hv, eie, ∀v ∈ V
Unidad 6
128
7.1. DIAGONALIZACIÓN
7.1. Diagonalización
Observación 7.1.1. Una matriz es diagonalizable si esta es semejante a una matriz diagonal.
Observación 7.1.2. T es diagonalizable, si y solo si, [TB ] es diagonalizable para toda base B
de V .
T (6, 1, 3) = (2 · 6, −1 + 3, 4 · 3 − 6) = 2(6, 1, 3)
(6, 1, 3) es autovector de T con autovalor 2
Demostración. (¡Ejercicio!)
Proposición 7.1.2. Sea A ∈ Kn×n , entonces A es diagonalizable, si y solo si, existe una base
B de Kn×1 formada por autovectores de A.
Ejemplo 7.1.2. .
Es decir, (A − λI)x = 0
2−λ 3 x 0
1 =
2 1−λ x2 0
Recordemos que un sistema lineal homogéneo tiene solución no trivial, si y solo si, el
determinante de su matriz de coeficientes es cero. O sea, si λ2 −3λ−4 = 0, los autovalores
de A son λ1 = −1 y λ2 = 4
• Para λ = −1:
3 3 x 0
1 = =⇒ C.S.1 : L {(1, −1)}
2 2 x2 0
• Para λ = 4:
−2 3 x 0
1 = =⇒ C.S.2 : L {(3, 2)}
2 −3 x2 0
Luego A es diagonalizable, puesto que B = {(1, −1), (3, 2)} es una base de R2
formada por autovectores de A. Es más, si P = [PεB ] (matriz que cambia de base,
de la base canónica en la base B), se tiene que:
−1 0
P AP −1 =
0 4
3 0 0
2. Ver si A = 1 3 0 es diagonalizable. Así como el anterior, procedemos a resolver
0 0 3
(A − λI)x = 0, luego el sistema homogéneo tendrá solución no trivial si det(A −
λI) = 0. O sea, si (λ − 3)3 = 0, es decir, λ = 3 es el único autovalor de A.
Este polinomio tiene raíces i y −i, luego A no será diagonalizable ni en Q2×2 ni en R2×2 .
En C2×2 , los autovectores asociados son L {(1, i)}\{(0, 0)} y L {(−1, i)}\{(0, 0)}. Como B =
{(1, i), (−1, i)} es una base de C2 formada por autovectores de A, entonces A es diagonalizable
en C2×2
Proposición 7.1.4. Sea A ∈ Kn×n y sea C ∈ GL(n, K) (grupo lineal). Entonces XCAC −1 = XA
r
M
W = Si
i=1
Demostración. (Ejercicio)
Demostración. (Ejercicio)
Av = λ1 v = λ2 v −→ (λ1 − λ2 )v = 0
r
M
Sin pérdida de generalidad supongamos que i = r + 1. Sea v ∈ Eλr+1 ∩ Eλj . Entonces,
j=1
∃ vj ∈ Ej (j ∈ Ir ) tales que:
v = v1 + . . . + vr . . . (*)
Luego:
λr+1 v = λ1 v1 + . . . + λr vr = λr+1 v1 + . . . + λr+1 vr
Por hipótesis inductiva, los subespacios Eλj , j ∈ Ir están en suma directa, el vector nulo
se escribe de forma única como suma de ceros. Luego, (λj − λr+1 )vj = 0, para cada
j ∈ Ir . Por tanto: vj = 0, ∀ j ∈ Ir
Luego: v = 0
Demostración. Sea TA : Kn×1 → Kn×1 la trasformación lineal definida por TA (x) = Ax. Sea
s = dim(Eλ ) y sea {v1 , . . . , vs } una base de Eλ . Sean vs+1 , . . . , vn ∈ Kn×1 tales que:
Se tiene que:
λ0 ··· 0
0 ... ...
..
.
N
. .
. .. ...
.
[TA ]B = 0
0 ··· 0 λ
O M
Donde:
λ0 ··· 0
.
0 . . . . . ..
.
. . es de orden s × s
.. . . . . . 0
0 ··· 0 λ
De donde:
λ−x 0 ··· 0
... ... ..
0 .
N
.. ... ...
XTA = det
. 0
0 ··· 0 λ−x
O M − xIn−s
Por hipótesis, XA = (x − λ)r P (x) con P ∈ K[x] tal que P (λ) 6= 0 ⇒ (x − λ)s Q(x) = XTA =
XA = (x − λ)r P (x) con P (λ) 6= 0 de donde s ≤ r, ie: dim(Eλ ) ≤ mult(λ, XA )
i) A es diagonalizable en Kn×n .
r
M
ii) Eλi = Kn×1 .
i=1
Demostración. .
r
X r
X
n×1
n = dim(K )= dim(Eλj ) ≤ mult(λi , XA ) ≤ gr(XA ) = n
i=1 i=1
XA = (x − λ1 )a1 · . . . · (x − λr )r
r
[
iii) → i) Para cada i ∈ Ir , sea Bi una base de Eλi . Recordemos que B = Bi es una
i=1
r
M
base de Eλi ⊂ Kn×1 . Ahora:
i=1
r
X r
X r
X
#B = #Bi = dim(Eλi ) = ai = gr(XA ) = n
i=1 i=1 i=1
Mr r
M
De donde dim( Eλi ) = dim(K ). Luego
n×1
Eλi = Kn×1 y entonces B es una base
i=1 i=1
(formada por autovectores de A) de Kn×1 . Por tanto A es diagonizable.
1 0 0 1
1 1 0 −1
Ejemplo 7.1.4. Verificar si A = ∈ R4×4 es diagonalizable. Calculemos
0 0 1 1
0 0 0 2
XA = (x − 1) (x − 2). Para el autovalor 1 se tiene que:
3
P (A) = a0 In + a1 A + . . . + ar Ar
Donde:
Para cada k ∈ N, T k = T . . ◦ T} es la composición k veces.
| ◦ .{z
k veces
Lema 7.2.1. Sea A ∈ Kn×n . Existe un polinomio P ∈ K[x0 ] no nulo tal que: P (A) = 0
n 2
X
ai Ai = 0, de esto definimos:
i=0
n 2
X
P ∈ K[x], tal que P (x) = ai xi , entonces P =
6 0 y P (A) = 0.
i=0
Observación 7.2.1. Para cada matriz, distinguimos un polinomio de grado mínimo y mónico
que se anula en A. Veamos que este es único.
Solución 7.2.1. Como {I2 , A} es L.I., no existe P ∈ R[x] tal que gr(P ) = 1 y P (A) = 0.
Buscamos P = x2 + ax + b que anule a A.
1 0 −1 0 1 0
A2 + aA + b = 0 ⇔ + a + b =0
−2 1 1 −1 0 1
1−a+b=0
⇐⇒ ⇐⇒ a = 2, b = 1
−2 + a = 0
Luego:
mA = x2 + 2x + 1 Observamos que mA = XA
Proposición 7.2.1. Sea A ∈ Kn×n y sea P ∈ K[x]. Entonces P (A) = 0 si y solo si mA divide
a P.
Demostración.
(←)
Es directo (¡Ejercicio!).
(→)
Lema 7.2.2. Sean A, B ∈ Kn×n , A ∼ B. Entonces para todo P ∈ K[x], se cumple que
P (A) ∼ P (B). Es más P (A) = 0 si y solo si P (B) = 0
CBC −1 , entonces
r
X
−1
P (A) = P (CBC )= ai (CBC −1 )i
i=0
r r
!
X X
= ai CB i C −1 = C ai B C −1
i=0 i=0
−1
= CP (B)C ⇒ P (A) ∼ P (B)
Definición 7.2.2. Sea V un K-espacio vectorial de dimensión finita y sea B una base de
V . Sea T : V −→ V una transformación lineal. Definimos el polinomio minimal de T como
mT = m[T ]B .
Demostración. .
Es decir Rv = 0, como v 6= 0 → R = 0
De donde λ es un autovalor de A.
Sea A ∈ Kn×n y sea v ∈ Kn×1 . Dado P ∈ K[x], definimos P (v) = P (A).v. Diremos que P
anula a v si P (v) = 0.
Definición 7.2.3. Sea A ∈ Kn×n y sea v ∈ Kn×1 . El polinomio minimal de v, denotado por
mv , es el polinomio de grado mínimo y mónico que anula a v.
Ejemplo 7.2.2. .
⇐⇒ A2 e1 + aAe1 + be1 = 0
1 −1 1 0
⇐⇒ + a + b =
−2 1 0 0
1 − a + b = 0
⇐⇒
−2 + a = 0
⇐⇒ a = 2, b = 1
Luego:
me1 = x2 + 2x + 1
Am v + am−1 Am−1 v + . . . + a1 Av + a0 Iv = 0
=⇒ Am v = −a0 v − a1 Av − . . . − am−1 Am−1 v
Es decir {v, A, A2 v, . . . , Am v} son L.D.. Para hallar mv debemos buscar el mínimo m tal que
{v, Av, A2 v, . . . , Am v} sea L.D..
,→ mv = xm + am−1 xm−1 + · · · + a1 x + a0
Proposición 7.2.4. Sean A ∈ Kn×n , v ∈ Kn×1 y P ∈ K[x]. Entonces P (v) = 0, si y solo si,
mv |P (en particular mv |mA )
De donde P (v) = 0, si y solo si, R(v) = 0. Como mv es de grado mínimo entre los polinomios
que anulan a v, resulta que R(v) = 0, si y solo si, R = 0, es decir, si y solo si, mv |P
mA = M CM {mv1 : i ∈ In }
n
! n
X X
P (A) · v = P (A) αi vi = αi P (A)vi = 0
i=1 i=1
1 0 0
Ejemplo 7.2.3. Calcular mA para A = 1 1 0. Consideremos E = {e1 , e2 , e3 } base canó-
0 0 2
nica de R . Por la proposición anterior mA = M CM {me1 , me2 , me3 }. Hallemos me1 , me2 , me3 :
3
me1 : Notemos que {e1 , Ae1 } = {e1 , e1 + e2 } es LI, pero {e1 , Ae1 , A2 e1 } = {e1 , e1 +
e2 , e1 + 2e2 } no lo es. Además:
Luego:
mA = M CM {(x − 1)2 , (x − 1), (x − 2)}
mA = (x − 1)2 (x − 2)
Sea A ∈ Kn×n y sea XA el polinomio característico de A. Entonces mA |XA (lo que es equiva-
lente a que XA (A) = 0)
Demostración. Sea TA : Kn×1 −→ Kn×1 lineal, definida por TA (x) = Ax. Sea v ∈ Kn , su-
pongamos que {v, TA (v), . . . , TAk (v)} es LI y que TAk+1 (v) = −ak TAk (v) − . . . − a1 TA (v) − a0 v.
Entonces:
mv = xk+1 + ak xk + . . . + a1 x + a0
Extendemos el conjunto {v, TA (v), . . . , TAk (v)} a una base de Kn×1 . Sean wk+2 , . . . , wn ∈ Kn×1
tales que:
B = {v, TA (v), . . . , TAk (v), wk+2 , . . . , wn }
XA = (xk+1 + ak xk + . . . + a1 x + a0 ) · det(xIn−k−1 − N )
XA = mv · det(xIn−k−1 − N )
Por lo tanto, mv |XA para v ∈ Kn×1 arbitrario. Sea E = {e1 , . . . , en } base canónica de Kn×1 .
Por lo anterior mei |XA , ∀ i ∈ In . Por la proposición anterior mA = M CM {me1 , . . . , men }
divide a XA
∴ mA |XA , por ende XA (A) = 0.
1. gr(mA ) ≤ n
2. Si gr(mA ) = n, entonces mA = XA
Evaluando en x = 1: an + bn = 1
Derivando y evaluando en x = 1: an = n ∧ bn = 1 − n
Recordar que si XA tiene todas sus raíces simples, entonces A es diagonalizable, pero el re-
cíproco no es necesariamente cierto. Sin embargo, es posible dar una condición necesaria y
suficiente para la diagonalización considerando la factorización del polinomio minimal.
Proposición 7.2.6. Sea A ∈ Kn×n . Entonces A es diagonalizable, si y solo si, mA tiene todas
sus raíces em K y son simples.
Demostración. .
mA = M CM {mv1 , . . . , mvn }
= M CM {x − λ1 , . . . , x − λr }
= (x − λ1 ) . . . (x − λr )
mv = xk+1 + ak xk + . . . + a1 x + a0
Dado que mv |mA y por hipótesis mA tiene todas sus raíces en K y son simples, resulta
que XTA = mv tiene todas sus raíces en K, son simples y son algunos de los autovalores
de A. Luego TA es diagonalizable sobre S. Además, si XTA = (x−λi1 ) . . . (x−λik+1 ) como
i=1
diagonalizable.
Ejemplo 7.2.5. .
Ejemplo 7.2.6. .
1 0 0 0
1. Sea A = 0 0 2 0 ∈ R4×4 . Considere TA : R4 −→ R4
1 1 0 0
0 0 0 3
Demostración. .
i) (Ejercicio)
∴ S1 + S2 es invariante por T
i) mT |S |mT .
ii) XT |S |XT .
i) Sabemos que:
mT |S = M CM {mv1 , . . . , mvs }
Como mvi |mT para cada i ∈ Is , el MCM de estos también lo hace, osea mT |S |mT .
Luego:
xIs − A −B 0
XT = X[T ]B = det
0 xIn−s − C
= det(xIs − A) · det(xIn−s − C)
= X T |S · Q
Con lo que:
XT |S |XT
Supongamos que dim(S1 ) = s > 0, dim(S2 ) = t. Sean BS1 = {v1 , . . . , vs } y BS2 = {w1 , . . . , wt }
bases de S1 y S2 respectivamente. Entonces:
Es una base de V y:
A1 0
[T ]B = , donde A1 ∈ Ks×s , A2 ∈ Kt×t
0 A2
A1 = [T |S1 ] y A2 = [T |S2 ]
i) XT = XT |S1 · XT |S2
Demostración. .
ii) Sea P = M CM (mT |S1 , mT |S2 ). Dado que S1 y S2 son subespacios T -invariantes de V ,
por una proposición anterior se tiene que:
Luego: P |mT . Por otro lado, por la observación previa a la definición, si BS1 y BS2 son
bases de S1 y S2 respectivamente, y B = BS1 ∪ BS2 , entonces:
A1 0
[T ]B =
0 A2
Con A1 = [T |S1 ]B1 , A2 = [T |S2 ]B2 como mT |S1 |P y mT |S2 |P , resulta que P (A1 ) = 0 y
P (A2 ) = 0. Operando por bloques:
P (A1 ) 0
P ([T ]B ) = =0
0 P (A2 )
Análogamente, se dice que una matriz A ∈ Kn×n es nilpotente si existe k ∈ N tal que Ak = 0.
Demostración. .
Observación 7.3.2. Bajo las hipotesis del lema anterior, como el grado del polinomio minimal
de T es siempre menor o igual que la dimensión n de V , tendremos que T es nilpotente si y
solo si T n = 0.
Veamos que son estrictas. En primer lugar, observamos que si N u(T i ) = N u(T i+1 ) para algun
i ∈ N, entonces N u(T i+1 ) = N u(T i+2 ): Si v ∈ N u(T i+2 ), se tiene que T i+2 (v) = 0, de donde
T i+1 (T (v)) = 0, luego T (v) ∈ N u(T i+1 ) y como por hipótesis N u(T i+1 ) = N u(T i), entonces
T (v) ∈ N u(T i ). Esto dice que T i+1 (v) = T i (T (v)) = 0, es decir v ∈ N u(T i+1 ). Luego, si
N u(T i0 ) = N u(T i0 +1 ) para algún i0 ∈ N0 , se tiene que N u(T i ) = N u(T i+1 ) para todo i ≥ i0 .
Pero como el índice de nilpotencia de T es k, N u(T k−1 ) 6= V = N u(T k ), y en consecuencia
debe ser que i0 ≥ k.
Notación: Para el caso de matrices para cada A ∈ Kn×n , denotamos N u(A) al núcleo de TA
osea al conjunto {x ∈ Kn×1 : Ax = 0} de la proposición anterior se cumple:
Definición 7.3.3. Sea J ∈ Kn×n . Se dice que J es un bloque de Jordan nilpotente si:
0 0 0 ··· 0 0
1
0 0 · · · 0 0
0 1 0 · · · 0 0
J =
0 0 1 · · · 0 0
.. .. .. . . .. ..
. . . . . .
0 0 0 ··· 1 0
Lema 7.3.2. Sea V un K-espacio vectorial de dimensión finita, Sea T : V → V lineal y sea
i ∈ N. Sea {v1 , . . . , vr } ⊂ V conjunto L.I. tal que N u(T i ) ∩ L {v1 , . . . , vr } = {0}. Entonces
{T (v1 ), . . . , T (vr )} es L.I. y además N u(T i−1 ) ∩ L {T (v1 ), . . . , T (vr )} = {0}.
Un conjunto L.I. tal que Bk−1 ∪ Ck es una base de N u(T k ) = V . Por construcción, Ck es un
conjunto L.I. y:
N u(T k−1 ) ⊕ L {Ck } = N u(T k ) = V
Para fijar ideas, hagamos el paso siguiente de la recursión. Por el lema anterior, T (Ck ) ⊂
N u(T k−1 ) es un conjunto LI tal que N u(T k−2 )∩T (Ck ) = {0}. Sea Bk−2 una base de N u(T k−2 ).
(k−1) (k−1)
Completamos el conjunto LI Bk−2 ∪ T (Ck ) a una base de N u(T k−1 ) con {v1 , . . . , vrk−1 }.
Luego, si llamamos:
(k−1)
Ck−1 = T (Ck ) ∪ {v1 , . . . , vr(k−1)
k−1
} ⊂ N u(T k−1 )
Notemos que:
N u(T k−2 ) ⊕ L {Ck−1 } ⊕ L {Ck } = V
T (Ck ) ⊂ Ch−1 , ∀ j + 2 ≤ h ≤ k
Por el lema T (Cj+1 ) ⊂ N u(T j ) es un conjunto LI y N u(T j−1 ) ∩ L {T (Cj+1 )} = {0}. Consi-
deremos una base Bj−1 de N u(T j−1 ). Entonces:
Es LI y, por tanto
(j)
∃ v1 , . . . , vr(j)
j
∈ N u(T j )
Tales que
(j)
Bj−1 ∪ T (Cj+1 ) ∪ {v1 , . . . , vr(j)
j
} es base de N u(T j )
(j) (j)
Sea Cj = T (Cj+1 ) ∪ {v1 , . . . , vrj } ⊂ N u(T j ). Es claro que Cj ⊂ N u(T j ), dado que por
construcción, es un conjunto de una base de N u(T j ) y que:
Por tanto:
N u(T j−1 ) ⊕ L {Cj } ⊕ . . . ⊕ L {Ck } = V
L {C1 } ⊕ . . . ⊕ L {Ck } = V
k
[
Y como cada conjunto Cj para cada j ∈ Ik es LI, resulta que Cj es una base de V .
j=1
Consideremos la base B de V obtenida reordenando esta base como sigue:
(k) (k) (k) (j) (j)
B = {v1 , T (v1 ), . . . , T k−1 (v1 ), . . . , vr(k)
k
, T (vr(k)
k
), . . . , T k−1 (vr(k)
k
), . . . , v1 , T (v1 ), . . . , T j−1 (vr(j)
j
),
(1)
. . . , v1 , . . . , vr(1)
1
}
Definición 7.3.4. Una matriz A ∈ Kn×n se dice una forma de Jordan nilpotente si:
J1 0 . . . 0
0 J ...0
2
A=. . . .
.. .. . . ..
0 0 . . . Jr
Teorema 7.3.2. Sea A ∈ Kn×n una matriz nilpotente. Entonces A es semejante a una forma
de Jordan nilpotente.
A una base B de Kn tal que [TA ]B = JA es una forma de Jordan nilpotente, la llamaremos
una base de Jordan para A, y a la matriz JA una forma de Jordan para A
Ejemplo 7.3.1. Hallar una forma de Jordan y una base de Jordan para A ∈ R6×6 , siendo:
0 0 0 0 0 0
1 0 0 0 0 0
−1 −1 0 0 0 0
A=
0 1 0 0 1 0
−1 0 0 0 0 0
1 0 0 0 −1 0
Construimos una base de Jordan para A siguiendo la demostración del teorema anterior (con-
siderando la transformación lineal TA : R6 −→ R6 ). Tenemos que:
Lema 7.3.3. Sea J ∈ Km×m un bloque de Jordan nilpotente. Entonces rg(J i ) = m − i, para
cada i ∈ Im
Con este resultado se nos permite calcular la cantidad de bloques de cada tamaño que aparecen
en una forma de Jordan usando los rangos de las potencias de la matriz.
Proposición 7.3.2. Sea A ∈ Kn×n una forma de Jordan nilpotente de índice k. Entonces
el bloque de Jordan más grande que aparece en A es de tamaño k × k. Además, para cada
0 ≤ i ≤ k − 1 la cantidad de bloques de Jordan nilpotentes de tamaño mayor que i que
aparecen en A es:
bi = rg(Ai ) − rg(Ai+1 )
Si A está formada por r bloques de Jordan nilpotentes, resulta que rg(A) = n − r, dado que
este rango es la suma de los rangos de los distintos bloques de Jordan. En consecuencia, la
cantidad total de bloques de Jordan que forman A es b0 = n − rg(A).
Sea i ∈ Ik−1 , por el lema anterior, que para un bloque de Jordan J ∈ Kj×j se tiene que J i = 0
si j ≤ i, o rg(J i ) = j − i si j > i. Además, rg(A) es la suma de los rangos de los bloques que
aparecen en la diagonal. En consecuencia:
k
X k
X
i i+1
rg(A ) − rg(A ) = cj (j − i) − cj (j − (i + 1))
j=i+1 j=i+2
Xk
= cj = b i
j=i+1
Corolario 7.3.1. Sea A ∈ Kn×n una forma de Jordan nilpotente de índice k. Entonces, para
cada i ∈ Ik , la cantidad de bloques de Jordan de tamaño i × i que aparecen en A es:
ci = bi−1 − bi
= (rg(Ai−1 ) − rg(Ai )) − (rg(Ai ) − rg(Ai+1 ))
= rg(Ai+1 ) − 2rg(Ai ) + rg(Ai−1 )
Ejemplo 7.3.2. Decidir si existe una matriz A ∈ R15×15 tal que rg(A) = 10, rg(A4 ) = 3 y
rg(A5 ) = 0
Por la proposición anterior, se tiene que rg(A4 )−rg(A5 ) = 3 bloques 5×5 y como JA ∈ R15×15
estos deben ser los únicos bloques que aparecen.
15 − rg(A) = 15 − 10 = 5 (→ ←)
Demostración. Las cantidades de bloques de cada tamaño que aparecen en una forma de
Jordan nilpotente solo dependen de los rangos de sus potencias. Por otro lado, si J ∼ J 0 ,
entonces para cada i ∈ Ik se tiene que rg(J i ) = rg((J 0 )i ). En consecuencia, la cantidad de
bloques de Jordan de cada tamaño es la misma en J que en J 0 . Luego J = J 0
Teorema 7.3.4. Sean A, B ∈ Kn×n matrices nilpotentes. Sean J, J 0 formas de Jordan nilpo-
tentes tales que A ∼ J y B ∼ J 0 . Entonces: A ∼ B ↔ J = J 0
Demostración.
(→)
Si A ∼ B, y por hipótesis A ∼ J ∧ B ∼ J 0 y como ∼ es de equivalencia, resulta que J ∼ J 0 .
Luego por el lema J = J 0 .
(←)
Si J = J 0 siendo A ∼ J, B ∼ J 0 y por ser ∼ de equivalencia, se deduce que A ∼ B.
Ejemplo 7.3.3. .
Ahora generalizaremos lo visto para endomorfismos sobre K-espacios de dimensión finita cuyos
polinomios se factorizan linealmente (osea con sus raíces en K).
Observación 7.3.3.
|T |B = |T − λId|B + |λId|B
La idea de la forma general de Jordan es, como en el caso nilpotente, encontrar una base donde
la matriz del endomorfismo considerado tenga una forma particular (bloques de Jodan en la
diagonal).
Lema 7.3.5. Sea V un K-espacio vectorial de dimensión finita. Sea T : V → V una trans-
formación lineal talque mT = P Q con P y Q primos entre si. Entonces:
mT |N u(P (T )) = P y mT |N u(Q(T )) = Q
T (P (T )(x)) = 0. Luego:
Xr r
X
i
0 = T( ai T (x)) = ai T i+1 (x)
i=0 i=0
Xr
=( ai T i )(T (x))
i=0
De donde T (x) ∈ N u(P (T )). Por lo tanto N u(P (T )) es invariante por T . Análogo para
N u(Q(T )).
V = N u(P (T )) ⊕ N u(Q(T )). Dado que M CD(P, Q) = 1, existen R, S ∈ K[x] tales que
1 = RP + SQ de donde:
Luego, N u(P (T )) ∩ N u(Q(T )) = {0}. Por otro lado, para cada x ∈ V se tiene que:
Resulta que:
Q(T )((R(T ) o P (T )))(x)
N u(P (T )) + N u(Q(T )) = V
mT |N u(P (T )) = P y mT |N u(Q(T )) = Q:
Sea T1 y T2 las restricciones de T a N u(P (T )) y N u(Q(T )) respectivamente. Como
Con lo cual mT1 |P . Análogo, mT2 |Q. Como P y Q son coprimos, resulta que mT1 y mT2
también lo son y por tanto:
Definición 7.3.6. Diremos que J ∈ Kn×n es una matriz de Jordan o una forma de Jordan
si:
J1 0 ··· 0
0 J2 · · · 0
J =. .. . . ..
.. . . .
0 0 · · · Jr
Donde, para cada 1 ≤ i ≤ s, es de la forma:
(i)
J(λi , ni ) 0 ··· 0
(i)
0 J(λi n2 ) · · · 0
Ji = . . .
.. .. . . . ..
(i)
0 ··· 0 · · · J(λi , nri )
(i) (i)
Con n1 ≥ · · · ≥ nri y λi 6= λj para i 6= j, osea, cada Ji esta fotmado por (varios) bloques de
Jordan de autovalor λi ubicados en la diagonal.
Con la notación anterior, a una base B con la propiedad del teorema la llamaremos una base
de Jordan para T y a la matriz [T ]B una forma de Jordan para T .
Supongamos entonces que T tiene al menos dos autovalores distintos. Si λ1 es uno de los
autovalores de T , entonces mT = (x − λ1 )k1 . Q con gr(Q) ≥ 1 y ((x − λ1 )k1 , Q) = 1. Por
el lema anterior, N u((T − λ1 Idv )k1 ) y N u(Q(T )) son subespacios T -invariantes de V y
T2 : N u(Q(T )) −→ N u(Q(T ))
Por hipótesis inductiva, existen una base B1 de N u((T − λ1 I)k1 ) y una base B2 de
N u(Q(T )), tales que [T1 ]B1 y [T2 ]B2 son formas de Jordan. Entonces, tomando B =
B1 ∪ B2 obtenemos una base de V tal que:
[T1 ]B1 0
[T ]B =
0 [T2 ]B2
r
Y
Observación 7.3.4. Si mT = (x − λi )ki con λi 6= λj , si i 6= j. La prueba anterior nos
i=1
permite dar una forma constructiva de obtener una forma de Jordan como:
Podemos obtener una forma de Jordan para cada una de las restricciones de T a estos subes-
pacios invariantes N u((T − λi Idv )ki ) y las bases de Jordan Bi correspondientes. Entonces
B = B1 ∪ . . . ∪ Br resulta ser una base de V y [T ]B resulta una forma de Jordan de T
A una base B de Kn tal que [TA ]B es una forma de Jordan para A, y a la matriz [TA ]B una
forma de Jordan para A
J
Ejemplo 7.3.4. Hallar una forma de Jordan semejante a A y una base de Jordan para A,
siendo
1 0 0 2
2 −1 0 2
A= ∈ C4×4
2 0 −1 2
0 0 0 1
Se tiene que XA = (x − 1)2 (x + 1)2 , luego los autovalores de A son 1 y −1.
Puesto que A(e1 ) = e1 +2e2 +2e3 , luego {e1 , Ae1 }) es LI y A2 e1 = e1 , se tiene que me1 = x2 −1.
Por otro lado, Ae2 = −e2 , con lo cual me2 = x + 1. De la misma manera me3 = x + 1.
Finalmente, para e4 tenemos que Ae4 = 2e1 + 2e2 + 2e3 + e4 (y entonces {e4 , Ae4 } es LI) y
Ae4 = 4e1 + 4e2 + 4e3 + e4 = 2Ae4 − e4 . Luego:
me4 = x2 − 2x + 1
En consecuencia:
mA = M CM (x2 − 1, x + 1, (x − 1)2 )
mA = (x − 1)2 (x + 1)
Donde J1 ,J2 son formas de Jordan de T1 y T2 . Mas aún, si B1 y B3 son bases de Jordan para
T1 y T2 , entonces B = B1 ∪ B2 es una base de Jordan para A
Se tiene que mT1 = (x − 1)2 , luego T1 − IdN u((A−I)2 ) es nilpotente de índice 2. Además:
0 0 0 2 0 0 0 0
2 −2 0 2 −4 4 0 0
A−I = y (A − I)2 =
2 0 −2 2 −4 0 4 0
0 0 0 0 0 0 0 0
Luego, una base de Jordan para T1 es B1 = {e4 , (A − I)e4 } = {(0, 0, 0, 1), (2, 2, 2, 0)} y
su forma de Jordan es
1 0
[T1 ]B1 =
1 1
Luego una base de N u(A + I) (que será también una base de Jordan para T2 ) es B2 =
{(0, 1, 0, 0), (0, 0, 1, 0)} y la forma de Jordan de T2 es:
−1 0
[T2 ]B2 =
0 −1
Demostración. Sea B = {v1 , . . . , vn } una base de V tal que [T ]B es una forma de Jordan
J ∈ Kn×n .
J1 (λ1 ) 0 ··· 0
0 J2 (λ2 ) ··· 0
J = . .. ..
.. ..
.
. .
0 0 · · · Js (λs )
Donde para cada 1 ≤ i ≤ s, Ji (λi ) ∈ Kdi ×di denota la matriz formada por todos los bloques
de Jordan de autovalor λi que aparecen en J y λi 6= λj si i 6= j. Se tiene que XT = XJ =
Ys
(x − λi )di . Entonces λ1 , . . . , λs son los autovalores de T y para cada 1 ≤ i ≤ s, se tiene que
i=1
s
Y
ki
mJi (λi ) = (x − λi ) para algún 1 ≤ ki ≤ di . Entonces mT = mJ = (x − λi )ki , con lo que,
i=1
para cada 1 ≤ i ≤ s, ki = mult(λi , mi ). Sea k = mult(λ, mT ). Sin pérdida de generalidad,
supongamos que λ = λ1 . Observamos que:
J1 (0) 0 ··· 0
0 J2 (λ2 − λ) · · · 0
J − λIn = .. .. ..
..
.
. . .
0 0 · · · Js (λs − λ)
De donde:
0 0 ··· 0
0 (J (λ − λ))k · · · 0
k 2 2
(J − λIn ) = . . .
.. .. . .. ..
k
0 0 · · · (Js (λs − λ))
Puesto que Ji (λi − λ)k es inversible para cada 2 ≤ i ≤ s, entonces N u((J − λIn )k ) =
L {e1 , . . . , ed1 }. Teniendo en cienta que J = [T ]B , resulta que:
J − λIn = [T − λIdv ]B
Con lo que:
N u((T − λIdv )k ) = L {v1 , . . . , vd1 }
Consideremos la restricción:
−→ N u((T − λIdv )k )
La restricción T1 resulta ser una transformación lineal nilpotente y por lo tanto, tiene una
única forma de Jordan nilpotente J, asociada. Sea B1 = {v1 , . . . , vd1 }, que como vimos, es una
base de N u((T − λIdv )k ). Observamos que:
Como J1 (0) es una forma de Jordan nilpotente, debe de ser la forma de Jordan J1 de T1 .
En consecuencua J1 (λ1 ) = J1 − λ1 Id1 esta univocamente determinada por T . (Notar que
el subespacio invariante N u((T − λIdv )k )) y la restricción T1 = (T − λIdv )|N u((T −λIdv )k ) solo
dependen de T y no de la base).
Haciendo lo mismo para cada λi con 1 ≤ i ≤ s1 resulta que, Ji (λi ) ∈ Kdi ×di satisface:
Ji (λi ) = Ji + λi Idi
Por lo tanto, la forma de Jordan de T está univocamente determinado por T (salvo el orden
de los bloques correspondientes a los distintos autovalores de T ).
El hecho que todo polinomio se factorice linealmente C[x] nos permite demostrar el siguiente
resultado sobre semejanza de matrices en Cn×n .
Demostración.
(→)
Por el teorema anterior, la forma de Jordan de una transformación lineal es única salvo el
orden de los bloques correspondientes a los distintos autovalores. Luego JA = JB , salvo el
orden de los bloques.
(←)
Obvio (∼ es de equivalencia).
Solución 7.3.2. Ya sabemos que vale (→). Probemos la otra implicación. Por el teorema
anterior, A y B son semejantes si tienen la misma forma de Jordan (salvo el orden de los
distintos autovalores). Luego, basta ver que la forma de Jordan en C3×3 queda univocamente
por su polinomio característico y su polinomio minimal.
Sea J ∈ C3×3 una forma de Jordan. Entonces XJ es un polinomio mónico de grado 3 en C[x]
luego puede escribirse de alguna de las siguientes formas:
ii XJ = (x − λ1 )2 (x − λ2 ) con λi ∈ C, λ1 6= λ2 .
Para cada una de las opciones anteriores, veremos que existe una única J para cada polinomio
minimal posible.
0 0 λ3
0 0 λ
En primer lugar, observemos que es posible calcular las potencias de una matriz a partir
de las potencias de una matriz semejante:
En el caso que mA se factoriza linealmente en K, se puede hallar una matriz M (la forma de
Jordan de A) en la que cada Mi es un bloque de Jordan de autovalor λi para cada λi ∈ K.
Luego, para calcular las potencias de A basta poder calcular las potencias de J(λ, m), es decir,
J(λ, m)k .
Demostración. ¡Ejercicio!
Consideramos ( hk ) = 0, si h > k
J
Con esto obtenemos una fórmula para el cálculo de las potencias de un bloque de Jordan
de autovalor λ. Añadido a esto, si consideramos las observaciones previas, obtendremos las
potencias de A
Observación 7.3.5. Esta serie converge para toda matriz A. Note también que para matrices
de orden 1 × 1 la exponencial corresponde con la exponencial ordinaria.
2. exp(O) = In
4. exp(A) · exp(−A) = In
5. [exp(A)]−1 = exp(−A)
7. [exp(A)]T = exp(AT )
Matrices diagonalizables
M = P DP −1
eM = P eD P −1
−1 JP
eM = eP
Osea:
−1
eM = eP JP
∞
X (P −1 JP )k
=
k=1
k!
∞ ∞
X P −1 JP X
= = P −1 J k P
k=0
k! k=0
7.3.10. Aplicación
X(t0 ) = X0
Donde X(t) representa al vector de funciones incógnita. La solución de este sistema viene dado
por: Z t
A(t−t0 )
X(t) = e X0 + eA(t−s) f (s)ds
t0
Unidad 7
177
Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7
x∼y ⇔x−y ∈Z
[0,4] = {m + 0,4 :∈ Z}
1. [x] 6= φ, ∀x ∈ A,
Demostración. .
1. Sea x ∈ A, luego x ∼ x por la reflexividad entonces [x] tiene al menos un elemento. Por
esto [x] 6= φ.
2.
(←)
Obvio
(→)
A/ ∼= {[x] : x ∈ A}
µ ∼ v ⇐⇒ ∃λ ∈ R, µ = λv
De esta forma, [a : b : c] es la recta que pasa por (0, 0, 0) con dirección (a, b, c), sin considerar
el origen.
Observación 8.1.1. Sea [a : b : c] ∈ RP2 con c 6= 0. Como (ta, tb, tc) ∈ [a : b : c] para
cualquier t 6= 0. Considerando t = 1
c
6= 0, tenemos:
a b
[a : b : c] = : :1
b c
Osea:
{[X : Y : Z] ∈ RP2 : z 6= 0} ⊂ {[x : y : 1] ∈ RP2 : x, y ∈ R}
ϕ : R2 → A2
(x, y) → [X : Y : 1]
Es una biyección.
Demostración. .
Inyectividad: Sean (a, b), (c, d) ∈ R2 tales que ϕ(a, b) = ϕ(c, d), entonces [a : b : 1] =
[c : d : 1] osea (a, b, 1) ∈ [c : d : 1]. A2 es una copia de R2 en RP2 . Dado (x, y) ∈ R2 , las
coordenadas homogéneas de (x, y) es cualquier (x, y, z) ∈ [X : Y : 1], es decir, la terna
(x, y, z) satisface z 6= 0 y
X Y
x= , y=
Z Z
Ejemplo 8.1.1. Sea (3, 4) ∈ R2 . Entonces [3 : 4 : 1] = {(3λ, 4λ, λ)} ∈ R3 : λ 6= 0. Por tanto,
son coordenadas homogéneas de (3, 4) las ternas (−3, −4, −1), (9, 12, 3), (−15, −20, −3), etc.
Para evitar a estas múltiples formas de representar un punto del plano en coordenadas ho-
mogéneas, trabajaremos solo con A2 . Es decir, la representación de (x, y) en coordenadas
homogéneas estará dada por la clase [X : Y : 1].
También, notemos que RP2 no solo contiene elementos de A2 , sino también de P2∞ . Como A2
esta identificado de manera biunivoca con R2 , entonces podemos decir que RP2 es una extensión
del plano R2 . Luego RP2 puede ser denominado como el plano euclideano extendido.
X Y
x= , y=
Z Z
Y por tanto a( X
Z
) + b( YZ ) + c = 0. Luego, como Z 6= 0 tenemos:
aX + bY + cZ = 0
L = {[X : Y : Z] ∈ RP2 : aX + bY + cZ = 0}
Es decir, el conjunto de puntos del infinito P2∞ es una recta en RP2 , la que llamaremos
recta del infinito. Esta recta proyectiva no representa a ninguna recta en R2 .
Gracias al curso anterior es inmediato verificar que la recta proyectiva que pasa por
P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] esta determinada por:
X y Z
X1 Y1 Z1 = 0
X2 Y2 Z2
2. Si Q ∈ P2∞ entonces L0 = L (P, v), donde v = (v1 , v2 ) ∈ R2 es tal que Q = [v1 : v2 : 0].
Demostración. Ejercicio
L1 ∩ L2 6= φ
0 = hµ, wi = a1 X + b1 Y + c1 Z y 0 = hv, wi = a2 X + b2 Y + c2 Z
Demostración. ¡Ejercicio!
8.2. Cónicas
Sean ε > 0, L0 una recta en R2 y F0 ∈ P (P: Plano coordenado). Una cónica en el plano es
el conjunto:
d(p0 , F0 )
C0 = {p ∈ P : = ε}
d(p, L0 )
A ε se le denomina la EXCENTRICIDAD de C0 , a L0 se le denomina RECTA DIREC-
TRIZ de C0 y a F0 se le denomina FOCO de C0 .
Es decir:
ax + by + c
(x − x0 )2 + (y − y0 )2 = ε2 ( √ )
a2 + b 2
Pero escrito en su forma polinomial:
Comparando, obtenemos:
a2 ε 2 b2 ε 2
a11 = 1 − a22 = 1 −
a2 + b 2 a2 + b2
abε2 acε2
a12 = − a13 = − − x0
a2 + b 2 a2 + b 2
bcε2 c2 ε 2
a23 = 1 − − y0 a33 = − + x20 + y02
a2 + b 2 2
a +b 2
Definición 8.2.1. Una cónica en el plano cartesiano R2 es el lugar geométrico de los puntos
de R2 que satisfacen una ecuación de la forma:
Ahora convertiremos las ecuación (*) a coordenadas homogéneas. Sea (x, y) ∈ C0 , donde C0
es una cónica y sea [x1 : x2 : x3 ] su representación en coordenadas homogéneas. Entonces
x = x1 /x3 , y = x2 /x3 , luego reemplazamos en (*) y multiplicamos por x23 para obtener:
a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0 . . . (**)
Notar que si denotamos X = [x1 : x2 : x3 ], entonces (**) puede ser escrito como X T AX = 0
con A ∈ R3×3 es matriz simétrica, no nula.
h 1 0 −1 i
Ejemplo 8.2.1. Sea A = 0 1/2 −1 . Entonces la cónica C asociada a A tiene una ecuación
−1 −1 2
1
x21 + x22 + 2x33 − 2x1 x3 − 2x2 x3 = 0
2
en coordenadas cartesianas sería:
1
x2 + y 2 + 2 − 2x − 2y = 0
2
Luego factorizando, C representa a la cónica:
(y − 2)2
(x − 1)2 + =1
2
√
La cual es una elipse con centro (1, 2) y semiejes a = 1, b = 2
1 0 0
Ejemplo 8.2.2. Sea A = 0 1 0. Entonces la cónica C asociada a A tiene ecuación
0 0 0
x21 + x22 = 0 o en coordenadas cartesianas x2 + y 2 = 0. Es fácil de verificar que C = {(0, 0)},
es decir este conjunto es un punto único de R2 . Para poder diferenciar cuando una cónica en
RP2 representa o no, a una cónica usual en R2 , usaremos a la matriz asociada.
Definición 8.2.3. Sea C una cónica en RP2 y A su matriz asociada. Diremos que C es
degenerada si det(A) = 0. Caso contrario se dirá que es no degenerada.
x2 + y 2 + 1 = 0
Definición 8.3.1. Sea C una cónica en RP2 , con matriz asociada A. Diremos que P y Q ∈
RP2 son C-conjugados (o conjugadis respecto a C) si:
P T AQ = 0
Observación 8.3.1. .
Por otro lado, si H ∈ RP2 es tal que AH = 0, entonces todo punto Q ∈ RP2 es
conjugado con H, osea H ∈ C. A los puntos H, tales que AH = 0 los llamaremos
puntos singulares de C.
{Q ∈ RP2 : QT AP = 0}
{[X : Y : Z] ∈ RP2 : aC + bY + cZ = 0}
Definición 8.3.3. Sea C una cónica. Dada una recta L ∈ RP2 , diremos que P es el polo de
L , respecto de C, si L = LC (P ).
El cual podría no tener solución. Esto no ocurre en el caso de cónicas no degeneradas, pues
como det(A) 6= 0 entonces el sistema tiene solución y es única. Con esto tendríamos que el
polo de una recta asociada a una cónica no degenerada, el polo de una recta siempre existe y
es única.
−11 0
Ejemplo 8.3.1. Consideremos la cónica C asociada a A = y consideremos
1
0 2
−1
−1 −1 2
P = [1 : 2 : 1]. Entonces la recta polar de P esta dada por AP = [0 : 0 : −1], es decir,
LC (P ) = P2∞ . Osea, la recta polar de P , respecto de C, es la recta del infinito. Luego, el polo
de la recta del infinito, respecto de la elipse C, es P .
−1 0 0
Ejemplo 8.3.2. Consideremos la cónica C con matriz A = 1 y consideremos
0 0 2
1
0 2 0
P = [2 : 4 : 1]. Entonces la recta polar de P está dada por AP = [−2 : 12 : 2] = [−4 : 1 : 4],
es decir, LC (P ) tiene ecuación −4X − Y + 4Z = 0. Osea la recta polar de P respecto de C,
es representada en R2 por la recta L0 con ecuación normal y = 4x − 4. Observe que Lo es la
recta tangente a la parábola C (¡verificar!) con ecuación y = x2 en (2, 4).
Proposición 8.3.1. Sea C una cónica no degenerada, L una recta proyectiva y P ∈ RP2 . Si
P ∈ L entonces el polo de L pertenece a la recta polar de P .
Corolario 8.3.1. Sea C una cónica no degenerada y L una recta proyectiva. Entonces las
rectas polares, respecto de C, de todos los puntos de L se intersectan en un único punto, el
cual es el polo de L .
Demostración. Como el polo de L existe, entonces por la proposición anterior, el polo per-
tenece a todas las rectas polares a toda recta polar de puntos de L . Entonces todo punto de
L es conjugado a Q, es decir, LC (Q) = L . como el polo de L es único entonces Q debe ser
el polo de L .