Está en la página 1de 187

Universidad Nacional de Ingeniería

Facultad de Ciencias (EPM)

Apuntes de Álgebra Lineal I

¿Listo para no trikear?

Autor: D. Caytuiro

2021
Índice general

1. Unidad 0 6
1.1. Preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.1. Cuerpo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2. Clases de Equivalencia . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

2. Unidad 1 12
2.1. Espacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.2. Subespacios Vectoriales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.3. Suma de subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.4. Suma Directa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
2.5. Espacio Cociente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.6. Espacio Producto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.7. Combinación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.8. Sistema de Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.9. Subespacios Generados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.10. Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.11. Base de un Espacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.12. Existencia de una Base en un Espacio Vectorial . . . . . . . . . . . . . . . . . 29
2.13. Dimensión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.14. Teorema de Completación de Bases . . . . . . . . . . . . . . . . . . . . . . . . 30

3. Unidad 2 34

2
ÍNDICE GENERAL

3.1. Transformaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35


3.2. Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.3. Teorema de Extensión por linealidad . . . . . . . . . . . . . . . . . . . . . . . 39
3.4. Teorema del Núcleo e Imagen . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
3.5. Teorema Fundamental de las Transformaciones Lineales . . . . . . . . . . . . . 42
3.6. Espacio de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
3.6.1. Caracterización de L(U,V) . . . . . . . . . . . . . . . . . . . . . . . . . 47
3.7. Proyecciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
3.8. Funcionales Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
3.9. Espacio Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.10. Base Dual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
3.11. Espacio Bidual . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.12. Anulador de un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.13. Transpuesta de una Transformación Lineal . . . . . . . . . . . . . . . . . . . . 60

4. Unidad 3 62
4.1. Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.1. Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
4.1.2. Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
4.2. Operaciones elementales fila de una matriz . . . . . . . . . . . . . . . . . . . . 64
4.3. Matrices Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
4.3.1. Tipos de matrices elementales . . . . . . . . . . . . . . . . . . . . . . . 65
4.4. Matriz escalonada reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
4.5. Espacio Fila . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 74
4.6. Matriz asociada a una transformación lineal . . . . . . . . . . . . . . . . . . . 79
4.7. Matriz asociada a la composición . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.8. Aplicación: Transpuesta de una transformación lineal . . . . . . . . . . . . . . 85
4.9. Matriz de cambio de base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86
4.9.1. Matriz de cambio de base de una base cualquiera a la base canónica . . 89
4.10. Relación entre las matrices asociadas a una misma transformación . . . . . . . 90
4.11. Sistema de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.11.1. Existencia y unicidad de los sistemas lineales . . . . . . . . . . . . . . . 98

5. Unidad 4 100

Facultad De Ciencias (UNI) 3


Apuntes de Álgebra Lineal I de D.Caytuiro ÍNDICE GENERAL

5.1. Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101


5.1.1. Formas multilineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
5.1.2. Cálculo del determinante . . . . . . . . . . . . . . . . . . . . . . . . . . 109
5.2. Adjunta de una matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

6. Unidad 5 114
6.1. Espacios con producto interno . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.1.1. Proceso de Ortogonalización de Gram-Schmidt . . . . . . . . . . . . . . 120
6.1.2. Distancia de un vector a un subespacio . . . . . . . . . . . . . . . . . . 121
6.2. Isometrías Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
6.3. Teorema de Representación de Riesz . . . . . . . . . . . . . . . . . . . . . . . 125
6.3.1. Subespacios Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . 126
6.3.2. Otra forma de encontrar el representante de Riesz . . . . . . . . . . . . 127

7. Unidad 6 128
7.1. Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129
7.1.1. Polinomio característico . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.1.2. Una caracterización de matrices diagonalizables . . . . . . . . . . . . . 132
7.2. Polinomios Minimales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2.1. Nociones Previas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
7.2.2. Polinomio Minimal de una Matriz . . . . . . . . . . . . . . . . . . . . . 138
7.2.3. Polinomio Minimal de un Vector . . . . . . . . . . . . . . . . . . . . . 140
7.2.4. ¿Cómo hallar el polinomio minimal de un vector? . . . . . . . . . . . . 141
7.2.5. Teorema de Cayley-Hamilton . . . . . . . . . . . . . . . . . . . . . . . 143
7.2.6. Un criterio de diagonalización usando el polinomio minimal . . . . . . . 144
7.2.7. Subespacios invariantes . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
7.3. Forma de Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.3.1. Transformaciones lineales nilpotentes . . . . . . . . . . . . . . . . . . . 150
7.3.2. Existencia de la forma de Jordan para una transformación lineal nilpotente151
7.3.3. Unicidad de la forma de Jordan nilpotente. Semejanza. . . . . . . . . . 156
7.3.4. Caso General . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160
7.3.5. Forma de Jordan de una transformación lineal . . . . . . . . . . . . . . 160
7.3.6. Unicidad de la forma de Jordan . . . . . . . . . . . . . . . . . . . . . . 167
7.3.7. Aplicación 1: Cálculo de las potencias de una matriz . . . . . . . . . . 171

4 Latexeado por Adan S.L. y Jael L.G. (EPM)


ÍNDICE GENERAL

7.3.8. Aplicación 2: Exponencial de una matriz . . . . . . . . . . . . . . . . . 173


7.3.9. Cálculo de la exponencial de matrices . . . . . . . . . . . . . . . . . . . 174
7.3.10. Aplicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175

8. Unidad 7 177
8.1. Coordenadas homogéneas y el plano proyectivo . . . . . . . . . . . . . . . . . 179
8.1.1. Rectas en el plano proyectivo . . . . . . . . . . . . . . . . . . . . . . . 181
8.2. Cónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.3. Polar de un punto y Polar de una recta . . . . . . . . . . . . . . . . . . . . . . 185

Facultad De Ciencias (UNI) 5


Capitulo N° 1

Unidad 0

6
1.1. PRELIMINARES

1.1. Preliminares

1.1.1. Cuerpo

Definición 1.1.1. Sea K un conjunto no vacío, donde se definen las dos operaciones binarias
siguientes:
+ : K × K −→ K
· : K × K −→ K

Decimos que ( K, +, · ) es un cuerpo, si cumple las siguientes propiedades:



i) λ + η = η + λ; ∀ λ, η ∈ K. (Conmutatividad) 

 K es un grupo


ii) λ + ( η + µ ) = ( λ + η ) + µ; ∀ λ, η, µ ∈ K. (Asociatividad) 
abeliano
iii) ∃ 0 ∈ K / λ + 0 = 0 + λ = λ, ∀ λ ∈ K. (Neutro aditivo) 

aditivo



iv) ∀ λ ∈ K, ∃ η ∈ K / λ + η = 0. (Inverso aditivo) 

v) λ · η = η · λ; ∀ η, λ ∈ K. (Conmutatividad) 

 K es un grupo


vi) λ ( η · µ ) = ( λ · η ) µ; ∀ λ, η, µ ∈ K. (Asociatividad)

abeliano
vii) ∃ 1 ∈ K / λ · 1 = 1 · λ = λ; ∀ λ ∈ K. (Neutro multiplicativo) 

 multiplicativo


viii) ∀ λ ∈ K \ {0}, ∃ η ∈ K / λ · η = 1. (Inverso multiplicativo) 
ix) λ · ( η + µ ) = λ · η + λ · µ; ∀ λ, η, µ ∈ K. (Distributiva)

Ejemplo 1.1.1. Tenemos los siguientes ejemplos de cuerpos:

R, C, Q son cuerpos

Z no es cuerpo, pero es un anillo

Los conjuntos Zn = {n̊,n̊ + 1, . . . ,n̊ + (n − 1)}. Por ejemplo:

dZ3 = {3̊, 3̊ + 1, 3̊ + 2}c

¿Serán cuerpos?. Para responder esto veamos lo siguiente.

1.1.2. Clases de Equivalencia

Facultad De Ciencias (UNI) 7


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 0

Definición 1.1.2. Una función ∼ es una relación, si su conjunto de partida es igual a su


conjunto de llegada. Es decir:
∼ : A −→ A

Definición 1.1.3. Una relación ∼ definida en A es de equivalencia si cumple las siguientes


propiedades:

Reflexiva: Si a ∼ a, ∀ a ∈ A.

Simétrica: Si a ∼ b → b ∼ a, ∀ a, b ∈ A.

Transitiva: Si a ∼ b ∧ b ∼ c → a ∼ c, ∀ a, b, c ∈ A.

Definición 1.1.4. Si ∼ es de equivalencia en el conjunto A, podemos definir el conjunto


cociente por ∼ como:
A/ ∼ := {[a] : a ∈ A}

Donde:
[a] = {x ∈ A : a ∼ x}
| {z }
Clase de equivalencia de a

Ejemplo 1.1.2. Dado n ∈ N, en Z podemos definir la siguiente relación. Dados a, b ∈ Z:

a ≡ b mod n ↔ a − b = n̊. (a ≡n b)

En este caso decimos a es congruente con b modulo n.

Proposición 1.1.1. La relación ≡n es de equivalencia.

Demostración. Para que ≡n sea de equivalencia debe cumplir las tres propiedades:

Reflexiva:
0 = n̊
a − a = n̊
→ a ≡n a, ∀a ∈ A

Simétrica:
a ≡n b
a − b = n̊
(−1) · (a − b) = n̊
b − a = n̊
→ b ≡n a, ∀a, b ∈ A

8 Latexeado por Adan S.L. y Jael L.G. (EPM)


1.1. PRELIMINARES

Transitiva:
a ≡n b ∧ b ≡n c
a − b = n̊ ∧ b − c = n̊
→ (a − b) + (b − c) = n̊
a − c = n̊
∴ a ≡n c

Propiedad 1.1.1. Para a, b ∈ Z hay 2 posibilidades.

[a] = [b].

[a] ∩ [b] = φ.

Proposición 1.1.2. Para n ∈ N se tiene que.


n−1
[
Z= [r]n
r=0

Entonces denotamos:
Zn := Z/ ≡n
Zn = {[0], [1], . . . , [n − 1]}
Donde:
[0] = n̊ osea [0] = {0, n, 2n, . . .}
[1] = n̊ + 1 osea [1] = {1, n + 1, 2n + 1, . . .}
..
.

[n − 1] = n̊ + n − 1 osea [n − 1] = {n − 1, 2n − 1, 3n − 1, . . .}

Observación 1.1.1. En Zn definimos las operaciones:

+ : Zn × Zn −→ Zn
· : Zn × Zn −→ Zn

Como:
[a] + [b] = [a + b]
[a] · [b] = [a · b]

Proposición 1.1.3. Zn es cuerpo ↔ n es primo.

Demostración.

Facultad De Ciencias (UNI) 9


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 0

Lema 1.1.1. Si a, b ∈ Z : ∃ p, q ∈ Z/ p · a + q · db = M CD(a, b)

(⇒)

Veamos por contra reciproca. Si n no es primo:

∃k, l ∈ N\{1} : n = k · l

Luego:
[0] = [n] = [k · l]

Sabemos que 1 < k, l < n además si existe [k]−1 , entonces:

[0] = [k]−1 [k][l] = [1][l]


→ [0] = [l]
(→←)

⇒ Zn no es cuerpo.

(⇐)

Si n es primo. Veamos que Zn tiene la propiedad del elemento inverso multiplicativo y sea
r ∈ Z tal que [r] 6= [0]. Es decir, r no es múltiplo de n, osea:

M CD(r, n) = 1

∃a · b ∈ Z tal que a · r + b · n = 1

[a · r] + [b · n] = [a][r] + [0] = [1]


→ [a][r] = [1]

Entonces [a] es el inverso multiplicativo de [r]

∴ Zn es cuerpo.

10 Latexeado por Adan S.L. y Jael L.G. (EPM)


1.1. PRELIMINARES

Observación 1.1.2.
K : cuerpo
Kn = |K × .{z
. . × K}
n veces
a = (x1 , . . . , xn )
b = (y1 , . . . , yn )
a + b = (x1 + y1 , . . . , xn + yn )
Sea λ ∈ K :
λ · a = (λx1 , . . . , λxn )

Luego:
(Kn , +, ·) cumple las mismas propiedades que (Rn , +, ·).

Facultad De Ciencias (UNI) 11


Capitulo N° 2

Unidad 1

12
2.1. ESPACIOS VECTORIALES

2.1. Espacios Vectoriales

Definición 2.1.1. Sea V un conjunto no vacio, (K, +, ·) un cuerpo, donde se definen las
siguientes operaciones binarias.
+:V ×V →V

·:K×V →V

Diremos que (V, K, +, ·) es un K-espacio vectorial (espacio vectorial sobre K) si se cumplen


las siguientes propiedades.

Propiedades 2.1.1. .

1. u + v = v + u, ∀u, v ∈ V (Conmutativa)

2. u + (v + w) = (u + v) + w, ∀u, v, w ∈ V (Asociativa)

3. ∃ 0 ∈ V /u + 0 = u, ∀u ∈ V (Neutro aditivo)

4. ∀u ∈ V, ∃v ∈ V /u + v = 0 (Notación: v = −u) (Inverso aditivo)

5. λ(η · v) = (λ · η) v; ∀λ, η ∈ K, ∀v ∈ V (Asociativa)


| {z } | {z }
Producto con un escalar en V Producto en K

6. (λ + η) v = λ · v + η · v ; ∀λ, η ∈ K, ∀v ∈ V (Primera distributiva)


| {z } | {z }
Suma en K Suma en V

7. λ(u + v) = λ · u + λ · v; ∀λ ∈ K, ∀u, v ∈ V (Segunda distributiva)

8. 1 · v = v, ∀v ∈ V (Neutro en el producto por un escalar)

Ejemplo 2.1.1. .

Qn (Q-espacio vetorial), Rn (R-espacio vetorial), Cn (C-espacio vetorial) , . . . ,Kn (K-


espacio vetorial)

0n espacio vectorial nulo

K es espacio vectorial sobre K

Propiedades 2.1.2. .

1. El elemento neutro es único

Facultad De Ciencias (UNI) 13


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Demostración. Sea 0, 00 ∈ V elementos neutros.

0 = 0 + 00 = 00 + 0 = 00 → 0 = 00

2. −v = (−1) · v, ∀v ∈ V

Demostración.
v + (−1) · v = (1 + (−1)) · v = 0 · v = 0

Es decir: (−1) · v = −v

3. 0 · v = 0, ∀ v ∈ V

Demostración.
0 · v = (0 + 0) · v = 0 · v + 0 · v ⇐⇒ 0 = 0 · v

Ejercicio 2.1.1. Para cada v ∈ V existe un único elemento inverso.

Demostración. Sea v ∈ V , sean u, w elementos inversos de v.

v+u=v+w =0

v = v + w + (−u) ⇐⇒ w + (−u) = 0 ⇐⇒ w = u
| {z }
0

Ejemplo 2.1.2. Sea K cuerpo, X un conjunto no vacio.

F = {f : X → K f es función }

f, g ∈ F :

f +g :X →K
(f + g)(x) = f (x) + g(x)

λf : X → K
(λf )(x) = λf (x)

∴ (F, K, +, ·) es un K-espacio vectorial

14 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.2. SUBESPACIOS VECTORIALES

2.2. Subespacios Vectoriales

Definición 2.2.1. Sea V un K-espacio vectorial, sea S ∈ V un subconjunto no vacío. Diremos


que S es un subespacio de V , si:

0∈S

∀u, v ∈ S : u + v ∈ S (Cerrado en la suma)

∀u ∈ S, ∀λ ∈ K : λ · u ∈ S (Cerrado en el producto por un escalar)

Observación 2.2.1. S es también espacio vectorial.

Ejemplo 2.2.1. .

0, V son subespacios de V

V = R2 , las rectas que pasan por el origen son subespacios de R2

V = R3 , las rectas y planos que pasan por el origen son subespacios de R3

F = {f : R → R/f es función }

1. ζ(R) = {f : R → R/f es continua }

2. ζ k (R) = {f : R → R/f tiene k derivadas continuas }

3. D(R) = {f : R → R/f es diferenciable }

V = Kn×n (matrices de orden n × n)

1. S1 = {A ∈ V /A es simétrica }

2. S2 = {A ∈ V /A es diagonal }

3. S3 = {A ∈ V /traza(A) = 0}

Ejercicio 2.2.1. Sean U, W subespacios de V ,luego:

U ∩ W es subespacio de V

U ∪ W no necesariamente es subespacio de V . ¿Cúando si lo es?

Facultad De Ciencias (UNI) 15


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

2.3. Suma de subespacios

Sea V un K-espacio vectorial S1 , S2 ⊂ V subespacios

S1 + S2 = {s1 + s2 /s1 ∈ S1 , s2 ∈ S2 }

Ejercicio 2.3.1. S1 + S2 es un subespacio de V.

Solución 2.3.1. Consideremos s1 , s01 ∈ S1 , s2 , s02 ∈ S2 y λ ∈ K

Cerrado en la suma:
s01 + s02 ∈ S1 + S2

s1 + s2 ∈ S1 + S2

⇒ (s01 + s02 ) + (s1 + s2 ) = (s1 + s01 ) + (s2 + s02 ) ∈ S1 + S2


| {z } | {z }
∈ S1 ∈ S2

(Es cerrado en la suma)

Cerrado en el producto por un escalar:

s1 + s2 ∈ S1 + S2

⇒ λ(s1 + s2 ) = (λs1 ) + (λs2 ) ∈ S1 + S2


| {z } | {z }
∈S1 ∈S2

(Es cerrado en el producto por un escalar)

∴ S1 + S2 es un subespacio de V

2.4. Suma Directa

Sea V un K-espacio vectorial y sea S ⊂ V subespacio. Supongamos que S = S1 + S2 , donde


S1 , S2 son subespacios de V .

Si : x ∈ S, ∃ s1 ∈ S1 , s2 ∈ S2 / x = s1 + s2

¿Cuando s1 , s2 son únicos tales que x = s1 + s2 ?

16 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.4. SUMA DIRECTA

Proposición 2.4.1. S = S1 + S2 , todo elemento de S tendrá una descomposición única, si y


solo si:
S1 ∩ S2 = {0}

Demostración. .

(⇒) : Supongamos que la descomposición es única.

Es obvio que {0} ⊂ S1 ∩ S2 . Sea x ∈ S1 ∩ S2 .

x = |{z}
x + |{z}
0 = |{z}
0 + |{z}
x
∈S1 ∈S2 ∈S1 ∈S2

Por unicidad x = 0 ⇒ S1 ∩ S2 = {0}.

(⇐) : Supongamos que S1 ∩ S2 = {0}

Sea x ∈ S1 + S2 , sean s1 , s01 ∈ S1 y s2 , s02 ∈ S2 tales que:

x = s1 + s2 = s01 + s02

s1 − s01 = s02 − s2 = v
| {z } | {z }
∈S1 ∈S2

⇒ v ∈ S1 ∧ v ∈ S2

v ∈ S1 ∩ S2 = {0}

v = 0 = s1 − s01 = s02 − s2

s1 = s01 ∧ s02 = s2

Es decir, la descomposición es única.

Definición 2.4.1. Sea V un K-espacio vectorial, S1 , S2 , S subespacios de V . Diremos que S


es suma directa de S1 y S2 , si:

S = S1 + S2

S1 ∩ S2 = {0}

Notación:
S = S1 ⊕ S2

Facultad De Ciencias (UNI) 17


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Ejemplo 2.4.1. V = R2

1. X = {(x, 0) : x ∈ R}

2. Y = {(0, y) : y ∈ R}

R2 = X ⊕ Y

Es facil notar que:

(x, y) = (x, 0) + (0, y), o sea R2 = X + Y

X ∩ Y = (0, 0)

Ejercicio 2.4.1. V = R3 y sean:

L1 = {t(1, −1, 0) : t ∈ R}

L2 = {s(1, 0, −1) : s ∈ R}

P = {(x, y, z) ∈ R3 : x + y + z = 0}

Demostrar:

1. L1 , L2 , P son subespacios de R3

2. P = L1 ⊕ L2

Demostración. .

1. L1 : {t(1, −1, 0), t ∈ R}

Sean u, v ∈ L1 , λ ∈ R: u = t1 (1, −1, 0)∧v = t2 (1, −1, 0) → u+v = (t1 + t2 )(1, −1, 0)
| {z }
t∈R

∴ u + v = t(1, −1, 0) ∈ L1 (Cerrado en la suma)

λu = λt1 (1, −1, 0)


|{z}
T ∈R

∴ T (1, −1, 0) ∈ L1 (Cerrado en el producto por un escalar)

L2 : {s(1, 0, −1), s ∈ R}

Sean u, w ∈ L2 , η ∈ R: u = s1 (1, 0, −1) ∧ w = s2 (1, 0, −1) → u + w =


(s1 + s2 )(1, 0, −1)
| {z }
s∈R

∴ u + w = s(1, 0, −1) ∈ L2 (Cerrado en la suma)

18 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.4. SUMA DIRECTA

ηu = ηs1 (1, 0, −1)


|{z}
S∈R

∴ S(1, 0, −1) ∈ L2 (Cerrado en el producto por un escalar)

P := {(x, y, z) ∈ R3 : x + y + z = 0}

x = −y − z
→ u ∈ P : u = (−y − z, y − z)

u = (−y)(1, −1, 0) + (−z)(1, 0, −1)

→ P := {m(1, −1, 0) + n(1, 0, −1); m, n ∈ R}. Sean:

u, v ∈ P, λ ∈ R : u = m1 (1, −1, 0) + n1 (1, 0, −1) ∧ v = m2 (1, −1, 0) + n2 (1, 0, −1)

u + v = (m1 + m2 )(1, −1, 0) + (n1 + n2 )(−1, 0, 1) ∈ P


| {z } | {z }
∈R ∈R

∴ u + v ∈ P (Cerrado en la suma)

λu = λm1 (1, −1, 0) + λn1 (−1, 0, 1) ∈ P


|{z} |{z}
∈R ∈R

∴ λu ∈ P (Cerrado en el producto por un escalar)

2. Afirmación: P = L1 + L2

u ∈ P → u = m(1, −1, 0) + n(1, 0, −1)


| {z } | {z }
∈L1 ∈L2

=⇒ u = v1 + v2 ; u ∈ P, v1 ∈ L1 , v2 ∈ L2

Afirmación: L1 ∩ L2 = {0}

Consideremos v ∈ L1 ∩ L2

→ t(1, −1, 0) = s(1, 0, −1) = v

La unica solución es que t = 0 ∧ s = 0 → v = (0, 0, 0)

∴ L1 ∩ L2 = {0}

⇒ L1 ⊕ L2 = P

Facultad De Ciencias (UNI) 19


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

2.5. Espacio Cociente

Recordemos:
a ≡n b ↔ a − b = n̊ ≡ ∃ k ∈ Z tal que a − b = k · n

[a]n = {x ∈ Z : a ≡n x}

Definición 2.5.1. Sea V un K-espacio vectorial y S un subespacio de V. Si u, v ∈ V , diremos:

u ≡ v mod S (u ≡S v) , si y solo si, u − v ∈ S

Observación 2.5.1. .

u ≡ u mod S

u ≡ v mod S → v ≡ u mod S

u ≡ v mod S 
→ u ≡ w mod S
v ≡ w mod S 
De esto podemos definir:
[u] = {v ∈ V /u ≡ v mod S}

= {v ∈ V /u − v ∈ S}

Proposición 2.5.1. [u] = u + S = {u + s : s ∈ S}

Demostración. Probaremos por doble inclusión

(⊂): Sea v ∈ [u]. Entonces v − u ∈ S, v − u = s ∈ S → v = u + s ∈ u + S

=⇒ [u] ⊂ u + S

(⊃): Sea v ∈ u + S. Entonces ∃ s ∈ S, tal que v = u + s → v − u = s ∈ S. Es decir,


v − u ∈ S → v = u mod S → v ∈ [u]

=⇒ u + S ⊂ [u]

Por lo tanto, se concluye que [u] = u + S

Definición 2.5.2. Sea V un K-espacio vectorial y S ⊂ V un subespacio:

V /S := {[u]S /u ∈ V }

20 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.5. ESPACIO COCIENTE

Es denominado el ESPACIO COCIENTE de V sobre S.

Ejemplo 2.5.1. .

Proposición 2.5.2. [u], [v] ∈ V /S. Sean u0 , v 0 ∈ V tales que.

[u] = [u0 ]

[v] = [v 0 ]

⇒ [u + v] = [u0 + v 0 ]

Demostración.
[u] = [u0 ] → u − u0 ∈ S

[v] = [v 0 ] → v − v 0 ∈ S

Como S es subespacio:

(u − u0 ) + (v − v 0 ) = (u + v) − (u0 + v 0 ) ∈ S

⇒ [u + v] = [u0 + v 0 ]

Proposición 2.5.3. [u] = [u0 ] ⇒ [λu] = [λu0 ], ∀λ ∈ K

Facultad De Ciencias (UNI) 21


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Demostración.
[u] = [u0 ] → u − u0 ∈ S

Luego: λ(u − u0 ) ∈ S → λ · u − λ · u0 ∈ S

⇒ [λu] = [λu0 ]

Definición 2.5.3. .

+ : V /S × V /S → V /S
([u], [v]) → [u] + [v] = [u + v]

· : K × V /S → V /S
(λ, [u]) → λ[u] = [λu]

Ejercicio 2.5.1. Verificar que (V /S, K, +, ·) es un K-espacio vectorial.

2.6. Espacio Producto

Sean V, U K-espacios vectoriales.

V × U = {(v, u) : v ∈ V, u ∈ U }

+ : (v1 , u1 ) + (v2 , u2 ) = ( v1 + v2 , u1 + u2 )
| {z } | {z }
Suma en V Suma en V

· : λ(v, u) = (λ · v , λ · u)
| {z } | {z }
Producto por un escalar en V Producto por un escalar en U

(V × U, K, +, ·) es un K-espacio vectorial y se llama espacio vectorial producto de V y U

2.7. Combinación Lineal

Sea V un K-espacio vectorial.

22 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.8. SISTEMA DE GENERADORES

Definición 2.7.1. Sea G = {v1 , v2 , . . . , vr } ⊂ V , una combinación lineal de G es un elemento


v ∈ V tal que:
r
X
v= λi vi , con λi ∈ K, ∀i ∈ Ir
i=1

La definición se extiende al caso de subconjuntos no necesariamente finitos del espacio vectorial


considerado.

Definición 2.7.2. Sea I un conjunto de indices y sea G = {vi : i ∈ I} ⊂ V . Una combinación


lineal de G es un elemento v ∈ V tal que:
X
v= λi vi
i∈I

Donde λi = 0 salvo para finitos i ∈ I

2.8. Sistema de Generadores

Definición 2.8.1. Sea C un subconjunto no vacio de V . El subespacio generado por C es


definido por:

< C >= L(C) = Span{C} = {v ∈ V : v es combinación lineal de elementos de C}

L{C} = {λ1 v1 + . . . + λm vm : λi ∈ K, vi ∈ C}

2.9. Subespacios Generados

Proposición 2.9.1. L(C) es subespacio de V.

Demostración. Sean u, v ∈ L(C)

∃v1 , . . . , vn ∈ C ; λ1 , . . . , λn ∈ K

∃u1 , . . . , um ∈ C ; η1 , . . . , ηm ∈ K
m
X n
X
Tales que u = ηi ui , v = λj vj
i=1 j=1

Facultad De Ciencias (UNI) 23


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

m
X n
X
u+v = ηi ui + λj vj ∈ L(C), Pues sigue siendo combinación lineal de elementos
i=1 j=1
en C.
m
X m
X
λ·u=λ· ηi ui = (ληi )ui ∈ L(C)
i=1 i=1

Proposición 2.9.2. L(C) es el menor subespacio de V que contiene a C, es decir:


\
L(C) = S
S⊂V , C⊂S

Demostración.
(⊂)

Sea v ∈ L(C), entonces:


n
X
∃u1 , . . . , un ∈ C, ∃λ1 , . . . , λn ∈ K; tal que v = λi ui
i=1
Sea S0 ⊂ V un subespacio tal que C ⊂ S0 , como u1 , . . . , un ∈ C ⊂ S0 , S0 es subespacio.
Entonces: n
X
v= λi ui ∈ S0 → v ∈ S0
i=1
\
∴v∈ S
S⊂V , C⊂S

(⊃)
\
Sea v ∈ S → v ∈ S, ∀S ⊂ V, C ⊂ S
S⊂V , C⊂S
Pero L(C) ⊂ V es un subespacio y L(C) ⊃ C
\
∴ S ⊂ L(C)
S⊂V , C⊂S

Observación 2.9.1. .
\
Si C 6= φ : L(C) = S
S⊂V , C⊂S

Si C = φ : L(φ) = {0}.

Definición 2.9.1. Sea V un K-espacio vectorial, S ⊂ V un subespacio y C ⊂ S. Diremos que


C genera a S, si: S = L(C).

24 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.10. INDEPENDENCIA LINEAL

2.10. Independencia Lineal

Sea C ⊂ V , un subconjunto no vacio. Decimos que C es LINEALMENTE INDEPEN-


DIENTE (L.I.) si para cualquier subconjunto finito F ⊂ C, F = {u1 , . . . , un }, se cumple:
n
X
λi ui = 0 → λi = 0, ∀i = 1, . . . , n
i=1

Observación 2.10.1. Si C es finito, C = {v1 , . . . , vm }. C es linealmente independiente.


m
X
ηi vi = 0 ⇒ ηi = 0, ∀i ∈ Im
i=1

Ejemplo 2.10.1. V = {f : R → R}, C = {1, x, x2 , . . .} y F = {xn , . . . , xnk }. C es L.I.

Proposición 2.10.1. Sea V un K-espacio vectorial, S subespacio φ 6= C ⊂ V subconjunto tal


que S = L(C). La representación de v ∈ S con elementos de C es única, si y solo si, C es
L.I.

Demostración.
(⇒)

Supongamos que la representación es única. Sea φ 6= F ⊂ C finito, F = {u1 , . . . , un }


n
X
λi ui = 0
i=1

Como 0 ∈ S: n n
X X
0= λi ui = 0 · ui
i=1 i=1

Por unicidad: λi = 0, ∀i ∈ In .
∴ C es LI

(⇐)

C es L.I. Sea v ∈ S = L(C)


Luego ∃v1 , . . . vn ∈ C, ∃λi , . . . , λn ∈ K ;∃u1 , . . . , um ∈ C, ∃η1 , . . . , ηm ∈ K
Tales que:
n
X m
X n
X m
X
v= λi vi = ηj uj ⇒ λi vi − ηj uj = 0
i=1 j=1 i=1 j=1

Facultad De Ciencias (UNI) 25


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Por contradicción, supongamos que la representación no es única.

∃v1 , . . . , vk ∈ C tal que v1 , . . . , vk 6= ui , i ∈ Im


k
X n
X m
X
λi vi + λi vi = ηj uj 6= 0
i=1 i=k+1 j=1

k
X m
X
⇒ λi vi + ηbj uj = 0
i=1 j=1

Como C es L.I.: λi = 0, ∀i ∈ Ik y ηbj = 0, ∀j ∈ Im .


n
X m
X m
X m
X
⇒v= λi vi = ηj uj ⇒ λ0j uj = ηj uj
i=k+1 j=1 j=1 j=1

m
X
⇒ (λ0j − ηj )uj = 0
j=1

Como C es L.I.: λ0j − ηj = 0 → λ0j = ηj , ∀j ∈ Im


Luego v tiene representación única.

Pregunta 2.10.1. ¿Todo espacio vectorial tiene generadores?.


Si, pues V = L(V )

Lema 2.10.1. Si S ⊂ V es subespacio, entonces S no es L.I.

Demostración. El hecho de tener al vector nulo como elemento lo hace LINEALMENTE DE-
PENDIENTE (L.D.)

2.11. Base de un Espacio Vectorial

Definición 2.11.1. Sea V un K-espacio vectorial y B un conjunto en V no vacío. Decimos


que B es una base de V , si:

1. B genera a V

2. B es L.I.

Observación 2.11.1. Si B es base de V .

V = L(B)

26 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.11. BASE DE UN ESPACIO VECTORIAL

La representación de cada vector v ∈ V es única con elementos de B

Lema 2.11.1. El conjunto X = {v1 , . . . , vn } ⊂ V es L.I., si y solo si, ningún elemento de X


es combinación lineal de los otros.

Demostración.
(⇒)

Si X es L.I., supongamos que:


n
X n
X
v1 = λi vi → 1 · v1 − λi vi = 0
i=2 i=2
| {z }
1=0 (Pues X es L.I.)

→1=0

(→←)

(⇐)

Ningún elemento de X es combinación lineal de los otros, supongamos que X es L.D. ∃λi ∈ R
no todos nulos tales que.
n
X
λi vi = 0
i=1
Como es L.D. encontraremos almenos un λk 6= 0, por conveniencia supondremos que λ1 6= 0.
Entonces: ! !
n n
X 1 X
λ1 v1 = − λi vi → v1 = − λi vi
i=2
λ1 i=2
| {z }
v1 es combinación lineal de los otros

(→←)

∴ X es L.I

Lema 2.11.2. Todo sistema lineal homogéneo que tiene más incógnitas que ecuaciones tiene
una solución no trivial.

Demostración. Tenemos Rang(A) < n y Rang(A|b) < n, donde n es el número de incognitas.


Pero como es un sistema homogeneo, entonces Rang(A) = Rang(A|b) < n.
∴ Por el teorema de Frobenius, existen infinitas soluciones. Entonces existen infinitas soluciones
aparte de la trivial.

Facultad De Ciencias (UNI) 27


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Proposición 2.11.1. Sea {v1 , . . . , vm } un generador de V . Todo conjunto {u1 , . . . , un }, con


n > m elementos, es L.D.

Demostración. V = L(X), X = {v1 , . . . , vm }


n
X
xj uj = 0
j=1

Debemos encontrar xj no todos nulos que cumplan la igualdad. Como {v1 , . . . , vm } genera a
V. m
X
⇒ uj = aij vi ; aij ∈ K, i ∈ Im , j ∈ In
i=1
n m
!
X X
⇒ xj aij vi =0
j=1 i=1
m n
!
X X
aij xj vi = 0 . . . (∗)
i=1 j=1
n
X
Si aij xj = 0; ∀i ∈ In , se cumple (∗):
j=1

a11 x1 + . . . + a1n xn = 0
.. .. .. ..
. . . .
am1 x1 + . . . + amn xn = 0

Y como n > m, entonces por el lema anterior ∃(α1 , . . . , αn ) ∈ Kn no nulos tal que satisfacen
el sistema. n
X
⇒ αj ui = 0 y con (α1 , . . . , αn ) no todos nulos
j=1

∴ {v1 , . . . , vn } es L.D.

Corolario 2.11.1. Si {v1 , . . . , vm } genera a V y {u1 , . . . , un } es L.I., entonces n ≤ m.

Demostración. Probemos por contradicción: Si n > m, con {v1 , . . . , vm } generador de


V y {u1 , . . . , un } un conjunto L.I., entonces por la proposición anterior: {u1 , . . . , un } es L.D.
(contradicción):
∴n≤m

28 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.12. EXISTENCIA DE UNA BASE EN UN ESPACIO VECTORIAL

2.12. Existencia de una Base en un Espacio Vectorial

Lema 2.12.1. (Lema de Zorn)


Sea A un conjunto tal que para toda cadena C ⊆ A, el conjunto c pertenece al conjunto A.
S

Entonces existe algún elemento m ∈ A que es maximal en el sentido de que no es subconjunto


de ningún otro elemento de A.

Teorema 2.12.1. Todo K-espacio vectorial no nulo posee una base.

Demostración. Aplicación del Lema de Zorn.

2.13. Dimensión

Teorema 2.13.1. Si B = {v1 , . . . , vm } y B 0 = {v10 , . . . , vn0 } son bases de V . Entonces m = n,


es decir, dos bases cualesquiera de V tienen el mismo número de elementos.

Demostración. Como B es base −→ B genera a V . Si B 0 es base −→ B 0 es L.I.

=⇒ m ≥ n por el corolario, análogamente n ≥ m

∴n=m

Definición 2.13.1. Si V tiene base finita B = {v1 , . . . , vn }. Definimos la DIMENSIÓN de


V como:
dim(V ) = n

Ejemplo 2.13.1. Dimensión del subespacio S de matrices simétricas de orden n:


 2   2 
n −n n +n n(n + 1)
dim(S) = n + = =
2 2 2

Proposición 2.13.1. Sea V tal que dim(V ) = n (OJO: dim({0}) = 0). Todo conjunto de
generadores de V contiene una base.

Facultad De Ciencias (UNI) 29


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

Demostración. Sea X un conjunto de generadores de V . Sea Y ⊂ X un subconjunto L.I. con


la mayor cantidad de elementos posibles:

X = {v1 , . . . , vk , vk+1 , . . . , vm }

Y = {v1 , . . . , vk }, k ≤ m

Afirmación: El subconjunto Y es base de V , es decir:

L({v1 , . . . , vk }) = L({v1 , . . . , vm })

En efecto, por contradicción supongamos:

V = L({v1 , . . . , vm }) ) L({v1 , . . . , vk })

Sea v ∈ V \L({v1 , . . . , vk }), entonces v no es combinación lineal de {v1 , . . . , vk }, es decir:

{v, v1 , . . . , vk } es L.I.

#{v, v1 , . . . , vk } = k + 1

(→←), pues un conjunto L.I. a lo mas puede tener k elementos

⇒ L({v1 , . . . , vk }) = V

∴ Y es base de V

2.14. Teorema de Completación de Bases

Teorema 2.14.1. Sea V tal que dim(V ) = n. Sea {v1 , . . . , vk } ⊂ V , k < n conjunto L.I.
Entonces, ∃vk+1 , . . . , vn ∈ V, tales que. {v1 , . . . , vk , vk+1 , . . . , vn } es base de V .

Demostración. Como k < n: Sk = L({v1 , . . . , vk }) ( V . Sea vk+1 ∈ V \L({v1 , . . . , vk })


→ {v1 , . . . , vk , vk+1 } es L.I. (pues vk+1 no es combinacion lineal de los otros elementos),
dim(Sk ) = k
Sk+1 = L({v1 , . . . , vk , vk+1 }) , dim(Sk+1 ) = k + 1

30 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.14. TEOREMA DE COMPLETACIÓN DE BASES

(Así, sucesivamente en un número finito de pasos)

..
.

Tenemos que {v1 , . . . , vk , vk+1 , . . . , vn } es L.I.

Sn = L({v1 , . . . , vn })

Finalmente:
V = Sn

Lema 2.14.1. Sea S ⊂ V un subespacio. Entonces:

dim(S) = dim(V ) ⇒ S = V

Demostración. Sea {v1 , . . . , vn } base de S. Si S ( V , sea v ∈ V \S entonces {v1 , . . . , vn , v} es


L.I. y #{v1 , . . . , vn , v} = n + 1 (→←), pues n es el mayor número de vectores L.I. en V .

∴S=V

Nota 2.14.1. Si V no tiene base finita, denominamos su dimensión como: dim(V ) = ∞.

Corolario 2.14.1. Si V tiene un conjunto finito de generadores, entonces V tiene base finita.

Corolario 2.14.2. (Teorema de completación de bases general)


Sea V un K-espacio vectorial y X un conjunto L.I. Existe Y ⊂ V , X ∩ Y = φ, tal que X ∪ Y
es una base de V .

Demostración. Sea S = L(X) ( V , consideremos el K-espacio V /S por el teorema de exis-


tencia: V /S tiene base. Sea B = {[vi ] : i ∈ I} base de V /S, sea Y = {vi : i ∈ I}.

i. X ∩ Y = φ. Por contradicción:
Sea v ∈ X ∩ Y → v ∈ X ∧ v ∈ Y .

⇒ [v] = [0] ∧ [v] 6= [0](→←)

∴X ∩Y =φ

Facultad De Ciencias (UNI) 31


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 1

ii. X ∪ Y es base.

X ∪ Y es L.I.
X X
λi ui + ηj vj = 0

Tomando clase:
X
0+ ηi [vi ]
|{z}
Base

→ ηi = 0∀i ∈ Ir

Luego:
X
λi ui = 0

Pero µi son L.I.


→ λi = 0, ∀i ∈ Ip

X ∪ Y genera a V .
Sea v ∈ V , entonces [v] ∈ V /S, además ∃λ1 , . . . , λk ∈ K tal que:
k
X
[v] = λj [vj ]
j=1
" k
#
X
→ v− λj vj = [0]
j=1

k
X
→v− λj vj ∈ S = L(X)
j=1

∃α1 , . . . , αl ∈ K, x1 , . . . , xl ∈ X tales que:


k
X l
X
v− λj vj = α i xi
j=1 i=1

k
X l
X
⇒v= λj vj + αi xi ∈ L(X, Y )
|{z} |{z}
j=1 i=1 ∈X
∈Y

∴ X ∪ Y es una base de V

Proposición 2.14.1. Sea V un K-espacio vectorial tal que dim(V ) = n < ∞ y S ⊂ V un


subespacio. Entonces:
dim(V /S) = dim(V ) − dim(S)

32 Latexeado por Adan S.L. y Jael L.G. (EPM)


2.14. TEOREMA DE COMPLETACIÓN DE BASES

Demostración. Consideremos S = L(X) y B = {[vi ] : i ∈ I} base de V /S, con Y = {vi : i ∈


Ik }. Entonces por el corolario anterior X ∪ Y = Z es una base de V . Además X ∩ Y = φ

→ n[X ∪ Y ] = n[X] + n[Y ] − n[X ∩ Y ]

n = n[X] + k − 0

n[X] = n − k

∴ dim(S) = dim(V ) − dim(V /S)

Facultad De Ciencias (UNI) 33


Capitulo N° 3

Unidad 2

34
3.1. TRANSFORMACIONES LINEALES

3.1. Transformaciones Lineales

Definición 3.1.1. Sean U, V K-espacios vectoriales.

T :U →V

Diremos que T es una transformación lineal, si:

1. T (u + v) = T (u) + T (v), ∀u, v ∈ U .

2. T (λu) = λ · T (u); ∀u ∈ U, ∀λ ∈ K.

Ejemplo 3.1.1. T : R2 → R2 definida por T (x, y) = (x cos θ = y sin θ, x sin θ + y cos θ)

Ejemplo 3.1.2. Sea V = {f : [a, b] → R continuas }


Z b
T : V → R definida por T (f ) = f (x)dx
a

Ejemplo 3.1.3. Ti : Rn → R
(x1 , . . . , xn ) −→ xi

(Proyección sobre la coordenada i-ésima)

Propiedades 3.1.1. Sea T : U → V una transformación lineal

i) T (0) = 0

ii) T (−u) = −T (u), ∀u ∈ U

iii) T (u − v) = T (u) − T (v), ∀u, v ∈ U


n
! n
X X
iv) T λi ui = λi T (ui ), ∀λi ∈ K, ∀ui ∈ U
i=1 i=1

Demostración. .

i) T (0) = T (0 · u) = 0 · T (u) = 0

ii) T (−u) = T ((−1) · u) = (−1) · T (u) = −T (u)

iii) T (u + (−1) · v) = T (u) + T ((−1) · v) = T (u) − T (v)


n
! n n
X X X
iv) T λi ui = T (λi ui ) = λi T (ui )
i=1 i=1 i=1

Facultad De Ciencias (UNI) 35


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

3.2. Núcleo e Imagen

Definición 3.2.1. Sea T : U → V una transformación lineal.

1. N u(T ) = Ker(T ) = T −1 ({0}) ⊂ U = {u ∈ U : T (u) = 0}

2. Im(T ) = Rango(T ) = {T (u) : u ∈ U } ⊂ V

Proposición 3.2.1. Sea T : U → V

N u(T ) es subespacio de U

Im(T ) es subespacio de V

Demostración. .

Consideremos u, v ∈ N u(T ) ⊂ U

T (u) = 0 ∧ T (v) = 0

T (u) + T (v) = 0

T (u + v) = 0 → u + v ∈ N u(T )

∴ Es cerrado por la suma

T (u) = 0

λT (u) = 0 → T (λu) = 0

∴ λu ∈ N u(T ), es cerrado por el producto por un escalar

Consideremos T (u), T (v) ∈ Im(T ) ⊂ V , con u, v ∈ U

T (u) + T (v) = T (u + v) ∈ Im(T ); u + v ∈ U.

∴ Es cerrado por la suma

λT (u) = T (λu) ∈ Im(T ); λu ∈ U

∴ Es cerrado por el producto por un escalar

36 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.2. NÚCLEO E IMAGEN

Definición 3.2.2. Sea T : U −→ V

a) T es monomorfismo, si T es inyectiva.

b) T es epimorfismo, si T es sobreyectiva.

c) T es isomorfismo, si T es biyectiva.

Proposición 3.2.2. Si T : U −→ V es una transformación lineal biyectiva (isomorfismo),


entonces T −1 : V −→ U es una transformación lineal.

Demostración. Consideremos u, v ∈ U y T (u), T (v) ∈ V , como T es isomorfismo: T −1 (T (u)) =


u

1. Afirmación: T −1 (T (u)T (v)) = T −1 (T (u)) + T −1 (T (v)).

T −1 (T (u) + T (v)) = T −1 (T (u + v)) = u + v = T −1 (T (u)) + T −1 (T (v))

2. Afirmación: T −1 (λT (u)) = λT −1 (T (u))

T −1 (λT (u)) = T −1 (T (λu)) = λu = λT −1 (T (u))

Proposición 3.2.3. T : U → V es monomorfismo, si y solo si, N u(T ) = {0}

Demostración. .

(⇒) Si T es monomorfismo (inyectiva): Obviamente T (0) = 0 osea {0} ⊂ N u(T ).

Sea x ∈ N u(T ) → T (x) = 0 → T (x) = T (0). Por inyectividad: x = 0

∴ N u(T ) = {0}

(⇐) Si N u(T ) = {0}: Sean x, y ∈ U tal que T (x) = T (y)

→ T (x) − T (y) = T (x − y) = 0

⇒ x − y ∈ N u(T ) = {0} → x − y = 0
| {z }
x=y

∴ T es monomorfismo (inyectiva)

Facultad De Ciencias (UNI) 37


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Proposición 3.2.4. Sean U y V dos K-espacios vectoriales y sea T : U −→ V una transfor-


mación lineal. Entonces, si {ui : i ∈ I} es un sistema de generadores de U , {T (ui ) : i ∈ I} es
un sistema de generadores de Im(T ).

Demostración. Por definición Im(T ) = {T (u) : u ∈ U }. Si {ui : i ∈ I} es sistema de generado-


n
X
res de U , para cada u ∈ U existen i1 , . . . , in ∈ I y elementos λij ∈ K tales que u = λij , uij .
j=1
Luego
n
X
T (u) = λij T (uij ) ∈ L({T (ui ) : i ∈ I})
j=1

Esto prueba que Im(T ) ⊂ L({T (ui ) : i ∈ I}). La otra inclusión es directa, pues T (ui ) ∈ Im(T )
para cada i ∈ I.
∴ Im(T ) = L({T (ui ) : i ∈ I})

Proposición 3.2.5. Sea T : U −→ V monomorfismo. Entonces si {ui : i ∈ I} ⊂ U es un


conjunto L.I., {T (ui ) : i ∈ I} ⊂ V es un conjunto L.I.

Demostración. Supongamos que una combinación lineal de {T (ui ) : i ∈ I} satisface


i∈I λi T (ui ) = 0. Como T es lineal, entonces: T ( λi ui ) = 0, y como T es monomorfis-
P P

mo, debe cumplirse que i∈I λi ui = 0. Por la independencia lineal de {ui : i ∈ I} implica que
P

λi = 0, ∀i ∈ I. Por tanto {T (ui ) : i ∈ I} es L.I.

Ejercicio 3.2.1. Sean U, V espacios vectoriales (no necesariamente de dimensión finita) y


T : U → V transformación lineal. Demostrar:

T es monomorfismo, si y solo si, T transforma vectores L.I. de U en vectores L.I. de


V.

T es epimorfismo, si y solo si, T transforma vectores que generan U en vectores que


generan V .

T es isomorfismo, si y solo si, T transforma un base de U en una base de V .

Solución 3.2.1. .

38 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.3. TEOREMA DE EXTENSIÓN POR LINEALIDAD

T : U → V , sea {ui : i ∈ I} ⊂ U un conjunto L.I. y T monomorfismo. {T (ui ) : i ∈ I} ∈


Im(T ) ⊂ V , consideremos la combinación lineal.
X
λi T (ui ) = 0
i∈I
!
X
T λi ui =0
i∈I

Y al ser T monomorfismo → N u(T ) = {0}


X
λi ui = 0
i∈I

{ui : i ∈ I} es L.I. → λi = 0, ∀i ∈ I
X
→ λi T (ui ) = 0, λi = 0, ∀i ∈ I
i∈I

∴ {T (ui ) : i ∈ I} es L.I.

T : U → V . Consideremos u ∈ U y un conjunto {ui : i ∈ I} un conjunto de generadores.


X
→u= λi ui
i∈I
X X
T (u) = T ( λi ui ) −→ T (u) = λi T (ui )
i∈I i∈I

⇒ {T (ui ) : i ∈ I} es un conjunto generador de Im(T ), pero al ser epimorfismo Im(T ) =


V.
∴ {T (ui ) : i ∈ I} genera a V

T : U → V . Consideremos B = {ui : i ∈ I} una base de U y sea C = {T (ui ) : i ∈ I}.

• B genera a U y T es epimorfismo, entonces C genera a V

• B es L.I. y T es monomorfismo, entonces C es L.I.

∴ {T (ui : i ∈ I)} es base de V con T isomorfismo.

3.3. Teorema de Extensión por linealidad

Teorema 3.3.1. Sean U, V K-espacios vectoriales. B = {uj : j ∈ I} una base de U y sea


el conjunto de vectores {vj : j ∈ I} ⊂ V fijo y arbitrario. Entonces existe una única
transformación lineal T : U → V tal que T (uj ) = vj .

Facultad De Ciencias (UNI) 39


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Demostración. Sea u ∈ U, ∃λ1 , . . . , λn ∈ K; uj1 , . . . , ujn ∈ B, tales que:


n
X
u= λi uji
i=1

Definamos T : U → V n
X
T (u) = λi vji
i=1

Claramente T (uj ) = vj . Veamos la unicidad:

Sea T 0 : U → V tal que T 0 (uj ) = vj , ∀j ∈ I


n
X
Sea u = λi uji .
i=1 !
n
X
→ T 0 (u) = T 0 λi uji
i=1
n
X n
X
0
= λi T (uji ) = λi vji
i=1 i=1
n n
!
X X
= λi T (uji ) = T λi uji
i=1 i=1

⇒ T 0 (u) = T (u), ∀u ∈ U

∴ T0 = T

Corolario 3.3.1. Si T, T 0 : U → V son transformaciones lineales que coinciden en una base


U , entonces son iguales.

Demostración. Consideremos B = {ui : i ∈ I} base de U .

→ T (ui ) = T 0 (ui )
X
Luego u = λi ui , aplicando transformación lineal.
i∈I
X X
T (u) = λi T (ui ) = λi T 0 (ui ) = T 0 (u)
i∈I i∈I

∴ T0 = T

40 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.4. TEOREMA DEL NÚCLEO E IMAGEN

Ejemplo 3.3.1. .

T : R3 → R5

T (1, 0, 0) = (1, 1, 1, 1, 1) 


T (0, 1, 0) = (2, −1, 1, 1, 0) T está definido por linealidad


T (0, 0, 1) = (0, 0, 0, 0, 1)

U = V = K[x]

d i d
i−1
(x ) = ix ; i = 0, 1, . . . está definido por linealidad
dx dx

3.4. Teorema del Núcleo e Imagen

Teorema 3.4.1. Sean U, V dos K-espacios vectoriales donde dim(U ) < ∞ y T : U → V


transformación lineal, entonces dim(Im(T )) < ∞ y:

dim (U)=dim(Nu(T))+dim(Im(T))

Demostración. Sea {u1 , . . . , uk } base de N u(T ), por el teorema de completación de bases


existen uk+1 , . . . , un con n = dim(U ) tales que:

{u1 , . . . , uk , uk+1 , . . . , un } es base de U

Afirmación: {T (uk+1 ), . . . , T (un )} es base de Im(T ).

Son L.I. !
n
X n
X
λi T (ui ) = 0 → T λi ui =0
i=k+1 i=k+1
n
X
⇒u= λi ui ∈ N u(T )
i=k+1

Luego ∃α1 , . . . , αk ∈ K tales que:


k
X k
X n
X
u= αj uj → αj uj = λi ui
j=1 j=1 i=k+1

k
X n
X
0= αj uj + (−λj )uj
j=1 j=k+1

Facultad De Ciencias (UNI) 41


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Como {ui : i ∈ In } es L.I.


αj = 0, j ∈ 1, . . . , k

λi = 0, i ∈ k + 1, . . . , n

{T (uk+1 ), . . . , T (un )} genera a Im(T ). Sea y ∈ Im(T ) : ∃ u ∈ U/T (u) =


y; ∃ λ1 , . . . , λn ∈ K tal que u = ni=1 λi ui .
P

n
!
X
T (u) = T λi u i =y
i=1

n
X
→ λi T (ui ) = y
i=1

k
X n
X
Osea: λi T (ui ) + T (ui ) = y
| {z }
i=1 k+1
∈N u(T )

n
X
⇒y= λi T (ui )
i=k+1

∴ {T (µk+1 ), . . . , T (un )} genera Im(T )


∴ {T (µk+1 ), . . . , T (un )} es base de Im(T )
Luego: dim(Im(T )) = |{z}
n − k
|{z}
dim(U ) dim(N u(T ))

∴ dim(U ) = dim(N u(T )) + dim(Im(T ))

Ejercicio 3.4.1. Si dim(U ) = ∞. ¿Se cumplirá el teorema anterior?

3.5. Teorema Fundamental de las Transformaciones Li-


neales

Teorema 3.5.1. Sea T : U → V , N u(T ), Im(T ) son subespacios de U y V respectivamente.

42 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.5. TEOREMA FUNDAMENTAL DE LAS TRANSFORMACIONES LINEALES

U
T : → V, tal que : T = T ◦ Π
N u(T )

Definamos: Si [u] ∈ U/N u(T ):


T ([u]) = T (u)

Si [u] = [v]: u − v ∈ N u(T )

→ T (u − v) = 0 → T (u) = T (v) ⇒ T ([u]) = T ([v])

∴ T esta bien definida.

Definición 3.5.1. Sean U, V dos K-espacios vectoriales, decimos que U y V son ISOMOR-
FOS si existe un ISOMORFISMO T : U → V .

Notación: U ∼
=V

Ojo: En álgebra lineal, a dos espacios isomorfos se les considera idénticos (equivalentes).

Ejercicio 3.5.1. Sea V un K-espacio vectorial de dimensión n. Demostrar que

V ∼
= Kn

Solución 3.5.1. Sea T : V → Kn

→ dim(V ) = dim(K) = n

Si es inyectiva, sera sobreyectiva por el teorema del núcleo e imagen.

Si es sobreyectiva, sera inyectiva por el teorema del núcleo e imagen,

∴ Basta que sea inyectiva o sobreyectiva para que sea isomorfa, es decir V ∼
= Kn

Teorema 3.5.2. Sea T : U → V transformación lineal. Se cumple que:

Facultad De Ciencias (UNI) 43


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

i) ∃! T : U/N u(T ) → Im(T ), tal que:

T ◦Π=T

ii) T es isomorfismo
U/N u(T ) ∼
= Im(T )

Demostración. .

i) Existencia: T : U/N u(T ) → V definido por

T ([u]) = T (u)

Si u ∈ U : (T ◦ Π)(u) = T (Π(u)) = T ([u]) = T (u)

⇒T ◦Π=T

Unicidad: Sea S : U/N u(T ) → V , tal que S ◦ Π = T .


Sea [u] ∈ U/N u(T ) :
S([u]) = (S ◦ Π)(u) = S([u])

= T (u) = T ([u])

∴S=T

ii) T es sobreyectiva (T : U
N u(T )
→ Im(T ))
Sea y ∈ Im(T ) : ∃u ∈ U tal que T (u) = y pero T ([u]) = T (u) → T es sobreyectiva.

T es inyectiva

Sea [u] ∈ N u(T ) : T ([u]) = 0

→ T (u) = 0 → u ∈ N u(T )

Entonces [u] = [0]

∴ T es inyectiva

Ejercicio 3.5.2. El hiperplano es un subespacio de Kn definido por:

a1 x1 + . . . + an xn = 0

Determine su dimensión

44 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.5. TEOREMA FUNDAMENTAL DE LAS TRANSFORMACIONES LINEALES

n
1 X
Solución 3.5.2. Sea v = (x1 , · · · , xn ) ∈ V , donde V es el hiperplano. Además x1 = −
a1 i=2
ai x i . !
n
1 X
⇒v= −ai · (xi , x2 , · · · , xn )
a1 i=2
ai
Sea B = {vi , i ∈ In−1 }, donde vi = − xi · ei , donde {ei , i ∈ In } base canónica de Kn .
a1
Entonces B es L.I.
⇒ v = L ({vi , i ∈ In−1 })

∴ dim(V ) = n − 1

Corolario 3.5.1. Sean U y V subespacios de W , entonces:

U ∼ U +V
=
U ∩V V

Demostración. Definimos S : U → U + V /V por S(u) = [u] = u + V

S es sobreyectiva
Sea [y] ∈ U +V
V
−→ y ∈ U + V
∃ u ∈ U, v ∈ V tal que : y = u + v

y−u=v ∈V

→ [y] = [u] = S(u)

∴ S es sobreyectiva.

N u(T ) = U ∩ V
(⊂) Si u ∈ N u(S) : S(u) = [0] = [u]

→u∈V ⇒u∈U ∩V

(⊃) Si u ∈ U ∩ V → u ∈ V → [u] = [0], osea u ∈ N u(S)

∴ N u(S) = U ∩ V

Por el teorema fundamental


 
U ∼ U +V U ∼
= , = Im(S)
U ∩V V N u(S)

Facultad De Ciencias (UNI) 45


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Proposición 3.5.1. Sean U, V K-espacios vectoriales de dimensión finita con dim(U ) =


dim(V ) y T : U −→ V transformación lineal, entonces son equivalentes:

1. T es inyectiva.

2. T es sobreyectiva.

3. T es isomorfismo.

Demostración. .

1) → 2) : T es inyectiva, entonces N u(T ) = {0}.

(Por el teorema fundamental)


U U ∼ ∼
= = U = Im(T )
N u(T ) {0}
→ dim(U ) = dim(V ) = dim(Im(T ))

∴ V = Im(T )

2) → 1) : T es sobreyectiva

(Por el teorema fundamental)


U ∼
= Im(T ) = V
N u(T )
Como dim(U ) − dim(N u(T )) = dim(V )

→ dim(N u(T )) = 0

⇒ N u(T ) = {0}

∴ T es inyectiva

3.6. Espacio de Transformaciones

Definición 3.6.1. Sean U, V K-espacios vectoriales.

L(U, V ) = {T : U → V / T es transformación lineal}

Afirmación: (L(U, V ), +, ·) es un espacio vectorial, donde: + es la suma de funciones y · es


el producto de un escalar por una función.

46 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.6. ESPACIO DE TRANSFORMACIONES

+ : L(U, V ) × L(U, V ) → L(U, V )

T +S :U →V
(T, S) →
u → T (u) + S(u)

· : K × L(U, V ) → L(U, V )

λT : U → V
(λ, T ) →
u → λ · T (u)
Nota 3.6.1. L(U, U ) = L(U ) se le denomina conjunto de endomorfismos y a sus elementos
se les denomina endomorfismo u operador lineal.

3.6.1. Caracterización de L(U,V)

Sean U, V K-espacios vectoriales de dimensión finita con dim(U ) = n, dim(V ) = m.

Afirmación: L(U, V ) ∼
= Km×n
En efecto, sean {u1 , . . . , un } base de U y {v1 , . . . , vm } base de V .

Definición 3.6.2. τij : U → V , i ∈ Im , j ∈ In .


Tal que si:
n
X
u= λk u k
k=1

Entonces:
τij (u) = λj vi

Afirmación: {τij : i ∈ Im , j ∈ In } es base de L(U, V )

• {τij } genera a L(U, V ) :

Sea T ∈ L(U, V )
n
X n
X
u= λj uj ∈ U → T (u) = λj T (uj )
j=1 j=1

Pero T (uj ) ∈ V , entonces existen a1j , . . . , amj tales que:


m
X
T (uj ) = aij vi
i=1

Facultad De Ciencias (UNI) 47


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Luego !
n
X n
X m
X
T (u) = λj T (uj ) = λj aij vi
j=1 j=1 i=1
n X
X m
T (u) = aij λj vi
|{z}
j=1 i=1
τij (u)

n X
m
!
X
→ T (u) = aij τij (u)
j=1 i=1
n X
X m
Sea T = aij τij
j=1 i=1

∴ {τij } genera a L(U, V )

• {τij } es L.I.
n X
X m
Si αij τij = 0
j=1 i=1
n X
X m
⇒ αij τij (u) = 0, ∀u ∈ U
j=1 i=1

Sea k ∈ In
n X
X m
αij τij (uk ) = 0
j=1 i=1

I
n
X
u= λj uj → τij (u) = λj vi
j=1

uk = 0 · u1 + 0 · u2 + . . . + 1.uk + 0 · uk+1 + . . . + 0 · un

τij (uk ) = λj vi


0 j 6= k
λj =
1 j = k


 0 j 6= k
τij =
vi j = k

J
m X
X n
αij τij (µk ) = 0
i=1 j=1
| {z }
αik ·1·vi

48 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.7. PROYECCIONES

m
X
αik .vi = 0
i=1

Como {v1 , . . . , vm } es base de V.

⇒ αik = 0, ∀i ∈ Im

Dado que k ∈ In es arbitrario, se tiene.

αij = 0, ∀i ∈ Im , ∀j ∈ In

⇒ {τij } es L.I., osea es base dado que tambien genera a L(U, V ).


De esto: L(U, V ) ∼= Km×n

⇒ dim(L(U, V )) = mn

3.7. Proyecciones

Proposición 3.7.1. Sean U, V, dos K-espacios vectoriales. Sean T : U −→ V , S : V −→ W


transformaciones lineales. Entonces S ◦ T : U −→ W es una transformacion lineal.

Demostración. ¡Ejercicio!

Definición 3.7.1. Una transformación lineal Π : V → V se llama PROYECCIÓN si


Π ◦ Π = Π. Ejemplo:

Lema 3.7.1. Sea T : V → V lineal. Entonces T es proyección si y solo si T (v) = v para cada
v ∈ Im(T )

Facultad De Ciencias (UNI) 49


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Demostración. .

(⇒) Supongamos que T es proyección:

Sea v ∈ Im(T ). Entonces ∃ u ∈ V tal que v = T (u). Luego T (v) = T (T (u)) = T (u) =
v ⇒ T (v) = v, ∀v ∈ Im(T ).

(⇐) Sea v ∈ V :

Entonces T (v) ∈ Im(T ) y por hipótesis T (T (v)) = T (v), ∀v ∈ V . Luego T ◦ T = T , es


decir, es proyección.

Proposición 3.7.2. Sea Π : V → V una proyección. Entonces:

N u(Π) ⊕ Im(Π) = V

Demostración. .

N u(Π) ∩ Im(Π) = {0} :


Sea v ∈ N u(Π) ∩ Im(Π), como v ∈ Im(Π) por el lema anterior Π(v) = v. Pero v ∈
N u(T ), luego Π(v) = 0 = v → v = 0.

∴ N u(Π) ∩ Im(Π) = {0}

N u(Π) + Im(Π) = V :
Sea v ∈ V . Entonces v = (v−Π(v))+Π(v) y se tiene que: Π(v−Π(v)) = Π(v)−Π(Π(v)) =
Π(v) − Π(v) = 0 con lo que v − Π(v) ∈ N u(T ) y Π(v) ∈ Im(Π).

Proposición 3.7.3. Sean U, W subespacios de V , tales que V = U ⊕ W . Entonces existe una


única proyección Π : V → V tal que N u(Π) = U , Im(Π) = W

3.8. Funcionales Lineales

Definición 3.8.1. Sea V un K-espacio vectorial, un funcional lineal f es una transformación


lineal.
f : V −→ K

50 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.9. ESPACIO DUAL

Ejemplo 3.8.1. .

1. f1 : R3 → R
f1 (x1 , x2 , x3 ) = ax1 + bx2 + cx3

2. f2 : Rn → R
f2 (v) = ha, vi, dado a ∈ Rn fijo

3. f3 : C([a, b], R) → R
Z b
f3 (f ) = f (x)dx
a

3.9. Espacio Dual

Definición 3.9.1. Sea V un K-espacio vectorial. Se define el ESPACIO DUAL V ∗ :=


L(V, K), es decir, es el espacio vectorial sobre K formado por todas las funcionales lineales
que van de V hacia el cuerpo K.

Teorema 3.9.1. (Separación de un punto y un subespacio por medio de una fun-


cional lineal)
Sea V un K-espacio vectorial de dimensión finita, S un subespacio de V y v ∈ V \S. Entonces
existe una funcional lineal f ∈ V ∗ tal que:

f (v) = 1 y f (w) = 0, ∀ w ∈ S

Demostración. El espacio V es de dimensión finita y S es un subespacio de V , luego S también


es de dimensión finita. Sea {u1 , . . . , um } base de S. Denotemos v por um+1 ∈
/ L({u1 , . . . , um })
entonces {u1 , . . . , um , um+1 } es un conjunto L.I. Por el teorema de extension de base, existen
um+2 , . . . , un ∈ V, n > m tales que :

{u1 , . . . , um , um+1 , um+2 , . . . , un } es base de V

Definamos el funcional f : V → K mediante:


n
!
X
f λk uk = λm+1 (Proyección sobre la m + 1 componente)
k=1

Lo cual, en otras palabras es lo mismo que definir f en los elementos de la base de la siguiente
manera:
f (u1 ) = 0, . . . , f (um ) = 0, f (v) = 1, f (um+2 ) = 0, . . . , f (un ) = 0

Facultad De Ciencias (UNI) 51


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Y luego extendemos f por linealidad. Entonces:

f (v) = 1 y f (w) = 0, ∀w ∈ S = L({u1 , . . . , um })

Corolario 3.9.1. Sea V un K-espacio vectorial de dimensión finita, v ∈ V \{0}. Entonces


∃f ∈ V ∗ tal que f (v) 6= 0

Demostración. Usar el teorema anterior para S = {0}

Corolario 3.9.2. Sean V un K-espacio vectorial, v ∈ V . Si f (v) = 0, ∀f ∈ V ∗ . Entonces


v = 0.

Demostración. Si v 6= 0 por el corolario ∃f : V → R tal que f (v) 6= 0 (→←).

Proposición 3.9.1. Sea V en un K-espacio vectorial. Entonces:

L(K, V ) ∼
=V

Demostración. Definamos:
Φ : L(K, V ) → V

f → Φ(f ) = f (1)

Φ es lineal: obvio (¡Comprobar!)

Φ es inyectiva:

Sea f ∈ N u(Φ), luego Φ(f ) = f (1) = 0, sea k ∈ K: f (k) = f (k· 1) = kf (1) = k· 0 = 0.

⇒ f (k) = 0, ∀k ∈ K → f = 0

∴ N u(Φ) = {0}

Φ es sobreyectiva:

Sea v ∈ V , definimos:
g:K→V

52 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.10. BASE DUAL

k → kv , g es lineal

g(1) = 1.v = v
|{z}
Φ(g) = v ⇒ v ∈ Im(Φ)

Obtuvimos que ∀v ∈ V, ∃g ∈ L(K, V) tal que Φ(g) = v

⇒ Φ es sobreyectiva

∴ Φ es un isomorfismo, o sea L(K, V ) ∼


=V

3.10. Base Dual

Regresando al tema del espacio dual: L(V, K) = V ∗

Proposición 3.10.1. Sea V un K-espacio vectorial de dimensión finita. Veamos que V ∼


= V∗

Demostración. En efecto:

Sea {v1 , . . . , vn } ⊂ V base. Definamos:

vi∗ : V → K, i ∈ In
n
X
Si v = λj vj , entonces vi∗ (v) = λi claramente vi∗ es lineal. Probaremos que B ∗ = {v1∗ , . . . , vn∗ }
j=1
es una base de V ∗ .

B ∗ genera a V ∗
n
X
Sea f ∈ V , sea v ∈ V , luego v =

λj vj .
j=1

n
! n
X X
f (v) = f λj vj = λj f (vj )
|{z}
j=1 j=1
vj∗ (v)

Facultad De Ciencias (UNI) 53


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

n n
!
X X
f (v) = f (vj )vj∗ (v) = f (vj )vj∗ (v)
j=1 j=1

n
X
⇒f = f (vj ) · vj∗
j=1

∴ B genera a V ∗

B ∗ es L.I.
Xn n
X
Si αj vj∗ = 0 → αj vj∗ (v) = 0, ∀ v ∈ V .
j=1 j=1

Para v = vi : 
0 i 6= j

vj (vi ) =
1 i = j

n
X
αj vj∗ (vi ) = 0
j=1

αi vi∗ (vi ) = 0 → αi · 1 = 0

⇒ αi = 0 , ∀ i ∈ In

∴ B ∗ es L.I.

Luego, B ∗ es base de V ∗ . A la base B ∗ se le denomina base dual de B.

Corolario 3.10.1. Sea V K-espacio vectorial con dim(V ) < ∞. Luego

dim(V ∗ ) = dim(V )

Es decir: V ∼
= V ∗ ⇐⇒ dim(V ) < ∞

Proposición 3.10.2. Sea V un K-espacio de dimensión infinita y B una base de V , entonces


B ∗ no genera a V ∗ .

Demostración. B es infinito, definamos f : V → K tal que f (ui ) = 1, ∀ui ∈ B. Afirmación:


/ L(B ∗ )
f∈

Por contradicción, supongamos que f ∈ L(B ∗ ), ∃α1 , . . . , αn ∈ K y ∃u1 , . . . , un ∈ B. Tales que:


n
X
f= αi u∗i
i=1

54 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.11. ESPACIO BIDUAL

Como B es infinito, ∃u ∈ B\{u1 , . . . , un } :


n
X
f (u) = αi u∗i (u)
i=1

Como u ∈
/ {u1 , . . . , un } : u∗i (u) = 0, ∀i ∈ In .
n
X
⇒ f (u) = αi u∗i (8u) = 0
i=1

⇒ f (u) = 0

Pero por definición: f (u) = 1 (↔), luego f ∈


/ L(B ∗ ). De esto B ∗ no es base de V ∗ , pues
L(B ∗ ) ( V ∗

Ejercicio 3.10.1. B ∗ es L.I.

3.11. Espacio Bidual

Definición 3.11.1. Sea V un K-espacio vectorial. Su ESPACIO BIDUAL V ∗∗ se defi-


ne como (V ∗ )∗ . En otras palabras, V ∗∗ consiste en las funcionales lineales V ∗ → K, y las
operaciones lineales en V ∗∗ están definidas punto a punto.

Lema 3.11.1. Sea V un K-espacio vectorial y sea a ∈ V . Denotemos por θa al mapeo V ∗ → K


definido por θa (f ) = f (a), ∀f ∈ V ∗ . Entonces θa ∈ V ∗∗

Demostración. .

Sean ϕ, ψ ∈ V ∗ . Entonces:

θa (ϕ + ψ) = (ϕ + ψ)(a) = ϕ(a) + ψ(a)

= θa (ϕ) + θa (ψ)

Sea ϕ ∈ V ∗ , λ ∈ K. Entonces:

θa (λϕ) = λϕ(a) = λθa (ϕ)

∴ θa es transformación lineal

Facultad De Ciencias (UNI) 55


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Teorema 3.11.1. (Isomorfismo canónico del espacio dual al espacio inicial)


Sea V un K-espacio vectorial de dimensión finita. Entonces la aplicación θ : V → V ∗∗ , que
manda un vector v ∈ V al funcional θv ∈ V ∗∗ definifo por: θv (f ) = f (v) es un isomorfismo de
V sobre V ∗∗ . Este isomorfismo θ sera denominado isomorfismo canónico de V sobre V ∗∗ .

Demostración. .

El lema garantiza que θ(v) ⊂ V ∗∗

θ es lineal: Sean u, v ∈ V, λ ∈ K

θ(u + λv) = θu+λv : v ∗ → K

Sea f ∈ V ∗ :
θu+λv (f ) = f (u + λv) = f (u) + λf (v)
| {z }
θu (f )+λθv (f )

Osea θu+λv (f ) = (θu + λθv )(f )

∴ θu+λv = θu + λθv , es decir, es lineal

θ es inyectiva:
Sea u ∈ N u(θ) :
θu : V ∗ → K

f → θu (f ) = f (u) = 0, ∀f ∈ V ∗

Por el corolario 12.2: u = 0

∴ N u(θ) = 0 , es decir, θ es inyectiva

θ es sobreyectiva:
Como la dimensión de V es finita, sabemos que:

dim(V ) = dim(V ∗ ) = dim(V ∗∗ )

Por el teorema del núcleo y la imagen

dim(V ) = dim(Im(θ)) + dim(N u(θ))


| {z }
0

⇒ dim(V ) = dim(Im(θ)) = dim(V ∗∗ )

56 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.12. ANULADOR DE UN SUBESPACIO

Como Im(θ) es subespacio de V ∗∗ .

⇒ Im(θ) = V ∗∗ → θ es sobreyectiva

∴ θ es isomorfismo

3.12. Anulador de un Subespacio

Definición 3.12.1. Sea V un K-espacio vectorial y sea S un subespacio de V . Denominaremos


Anulador de S al conjunto:

S o = {f ∈ V ∗ : f (s) = 0, ∀s ∈ S}

= {f ∈ V ∗ : S ⊂ N u(f )}

Observación 3.12.1. S o es subespacio de V ∗ . En efecto:

Sean f, g ∈ S o , entonces f (s) = g(s) = 0, ∀s ∈ S, luego (f + g)(s) = f (s) + g(s) =


0, ∀s ∈ S. De esto f + g ∈ S o .

Sean λ ∈ K, f ∈ S o , entonces (λf )(s) = λf (s) = λ0 = 0, ∀s ∈ S, dado que f (s) =


0, ∀s ∈ S. Luego λf ∈ S o .

Proposición 3.12.1. Sea V un K-espacio vectorial de dimensión finita (dim(V ) = n) y sea


S subespacio de V . Entonces:
dim(S o ) = n − dim(S)

Demostración. Sea {v1 , . . . , vr } una base de S y sean los vectores vr+1 , . . . , vn ∈ V tales que
{v1 , . . . , vr , vr+1 , . . . , vn } es una base de V . Sea B ∗ = {Π1 , . . . , Πn } ⊂ V ∗ la base dual de B.
Entonces, para cada i con r + 1 ≤ i ≤ n se tiene que Πi (v1 ) = . . . = Πi (vr ) = 0 y por lo tanto,
Πi se anula sobre todo S. Por esto, {Πr+1 , . . . , Πn } ⊂ S o .

Veamos que {Πr+1 , . . . , Πn } genera a S o .

Sea g ∈ S o , dado que B ∗ es base de V ∗ , existen α1 , . . . , αn ∈ K tales que:


n
X
g= αi Πi
i=1

Facultad De Ciencias (UNI) 57


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

Pero para cada i ∈ In : αi = g(vi ). Además, como g ∈ S o y {v1 , . . . , vr } es base de S y


g(vi ) = 0 para cada 0 ≤ i ≤ r. En consecuencia, αi = 0 para cada 1 ≤ i ≤ r y por lo tanto
g ∈ L({Πr+1 , . . . , Πn }). Luego {Πr+1 , . . . , Πn } es una base de S o .

De donde:
dim(S) + dim(S o ) = n

Gracias a esta última proposición tenemos una idea sobre como determinar el anulador de un
subespacio.

Ejemplo 3.12.1. Sea S = L({(1, 1, 1), (1, 2, 1)}) ⊂ R3 . Hallar una base de S o .

Solución 3.12.1. Consideramos una base de R3 que extienda a la base de S por ejemplo:

B = {(1, 1, 1), (1, 2, 1), (1, 0, 0)}

Si B ∗ = {Π1 , Π2 , Π3 } es la base dual de B por la proposición anterior {Π3 } es base de S o . A


partir de:
Π3 (1, 1, 1) = 0, Π3 (1, 2, 1) = 0, Π3 (1, 0, 0) = 1

Extendemos por linealidad:

(x, y, z) = a(1, 1, 1) + b(1, 2, 1) + c(1, 0, 0)

x = a + b + c, y = a + 2b y z = a + b

De esto:
b = y − z, a = 2z − y y c = x − z

Y obtenemos:
Π3 (x, y, z) = x − z

Proposición 3.12.2. Sea V un K-espacio vectorial de dimensión n y sea S un subespacio de


V . Entonces:
{v ∈ V : f (v) = 0, ∀f ∈ S o } = S

Demostración. Sea T = {v ∈ V : f (v) = 0, ∀f ∈ S o }, podemos demostrar que T = S.

(⊃)

58 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.12. ANULADOR DE UN SUBESPACIO

Si v ∈ S para cada f ∈ S o , se tiene que f (v) = 0. Luego v ∈ T .

(⊂)

Supongamos que existe v ∈ T tal que v ∈


/ S. Sea {v1 , . . . , vr } una base de S, entonces
{v1 , . . . , vr , v} es L.I.
Sean vr+2 , . . . , vn ∈ V tales que B = {v1 , . . . , vr , |{z}
v , vr+2 , . . . , vn } es base de V . Si B ∗ =
vr+1
{Π1 , . . . , Πr , Πr+1 , . . . , Πn } es base dual de B, se tiene que:

Πr+1 (v1 ) = . . . = Πr+1 (vr ) = 0, de donde Πr+1 ∈ S o

Como v ∈ T , se tiene que Πr+1 (v) = 0, lo que contradice que Πr+1 (v) = 1. Luego T ⊂ S.

Nota 3.12.1. Con este resultado se tiene otra forma de encontrar las ecuaciones de un subes-
pacio

Ejemplo 3.12.2. Sea S = L({(1, 1, 1), (1, 2, 1)}) ⊆ R3 . Hallar ecuaciones (implicitas) para
S.

Solución 3.12.2. En el ejemplo anterior, vimos que S o = L({Π3 }) ⊂ (R3 )∗ , donde


Π3 (x, y, z) = x − z. Entonces por la última proposición:

S = {(x, y, z) ∈ R3 : f (x, y, z) = 0, ∀f ∈ S o }

= {(x, y, z) ∈ R3 : λ(x − z) = 0, ∀λ ∈ R}

= {(x, y, z) ∈ R3 : x − z = 0}

En general podemos enunciar.

Observación 3.12.2. Sea V un K-espacio vectorial de dimensión finita y sea S un subespacio.


Sea {f1 , . . . , fr } una base de S o . Entonces:

S = {v ∈ V.f1 (v) = 0 ∨ . . . ∨ fr (v) = 0}


r
\
= N u(fi )
i=1

Ejercicio 3.12.1. Sea V un K-espacio vectorial con dim(V ) = n. Sean S y T subespacios de


V . Entonces:

1. (S + T )o = S o ∩ T o

Facultad De Ciencias (UNI) 59


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 2

2. (S ∩ T )o = S o + T o

Sugerencia: Probar (1) directamente. Para (2), utilizar la doble inclusión: ⊃ es rápida y para
⊂ se debe usar (1) y el teorema del núcleo e imagen.

3.13. Transpuesta de una Transformación Lineal

Definición 3.13.1. Sean V y W dos K-espacios vectoriales y sea T : V −→ W lineal.


Entonces T induce una función T t : W ∗ −→ V ∗ definida por T t (f ) = Tft : V −→ K, donde
Tft (v) = f (T (v))

T t : w∗ → v ∗

f → Tft

Donde: Tft (v) = f (T (v))

Proposición 3.13.1. Sea T : V → W y sea T t : W ∗ → V ∗ La transpuesta de T (pullback


asociado). Entonces:

a) N u(T t ) = [Im(T )]o .

b) Si V y W son de dimensión finita, entonces:

dim(Im(T t )) = dim(Im(T )).

c) Im(T t ) = (N u(T ))o .

Demostración. .

a)
f ∈ N u(T t ) ⇔ Tft = 0 ⇔ f (T (v)) = 0, ∀v ∈ V ⇔ f ∈ [Im(T )]o .

b)
dim(Im(T t )) = dim(W ∗ ) − dim(N u(T t ))

= dim(W ∗ ) − dim((Im(T ))o ) = dim(W ∗ ) − (dim(W ) − dim(Im(T )))

= dim(Im(T ))

60 Latexeado por Adan S.L. y Jael L.G. (EPM)


3.13. TRANSPUESTA DE UNA TRANSFORMACIÓN LINEAL

c)
dim(Im(T t )) = dim(Im(T )) = dim(V ) − dim(N u(T ))

= dim((N u(T ))o )

Solo faltaria probar que Im(T t ) ⊂ (N u(T ))o . Sea g ∈ Im(T t ), entonces ∃f ∈ W ∗ tal
que:
g = Tft → ∀v ∈ N u(T ) : g(v) = Tft (v) = f (T (v)) = 0

Osea g ∈ (N u(T ))o

Facultad De Ciencias (UNI) 61


Capitulo N° 4

Unidad 3

62
4.1. MATRICES

4.1. Matrices

Definición 4.1.1. Sean m, n ∈ N. Consideremos el cuerpo K, Im = {1, 2, . . . , m}, In =


{1, 2, . . . , n}. Una matriz de orden m × n es una función.

A : Im × In → K

(i, j) → A( i, j) = aij
 
a11 . . . a1n
 . ... .. 
.
A=  . . 

am1 . . . amn
Donde:
 
ai1 . . . ain es la fila i de A.
 
a1j
 . 
 ..  es la columna j de A.
 
amj

Km×1 : conjunto de los vectores columna.

K1×n : conjunto de los vectores fila.

Observación 4.1.1. A Km×n se le puede dotar una estructura de espacio vectorial.

4.1.1. Producto de Matrices

Definición 4.1.2. Sea A = [aij ] ∈ Km×n , B = [bij ] ∈ Kn×p se define:


n
X
m×p
AB = [cij ] ∈ K , donde cij = aik bkj .
k=1

Propiedades 4.1.1. .

1. Es asociativa.

2. Es distributiva.

En general no es conmutativa.

Facultad De Ciencias (UNI) 63


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Definición 4.1.3. (Inversa de una matriz)


Sea A ∈ Kn×n , decimos que A es inversible, si existe B ∈ Kn×n tal que:

AB = BA = In (matriz identidad de orden n)

Nota 4.1.1. No toda matriz posee inversa.

4.1.2. Tipos de Matrices

Matriz nula: [0] ∈ Km×n .

Matriz triangular superior: A = [aij ] ∈ Kn×n , tal que aij = 0, ∀j < i

Matriz triangular inferior: A = [aij ] ∈ Kn×n , tal que aij = 0, ∀j > i

Matriz diagonal: A = [aij ] ∈ Kn×n /aij = 0, ∀i 6= j.

Matriz simétrica: A = [aij ] ∈ Kn×n /aij = aji .

Matriz antisimétrica: A = [aij ] ∈ Kn×n /aij = −aji .

4.2. Operaciones elementales fila de una matriz

A ∈ Km×n
 
a1
 . 
. 
 .  , ai es una f ila
A=
am

i) Multiplicación de una fila por un escalar no nulo.


 
a1
 . 
 .. 
 
 
λai  ← f ila i
 . 
 
 .. 
 
am

64 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.3. MATRICES ELEMENTALES

ii) Sumar una fila otra multiplicada por un escalar.


 
a1
 .. 
.
 
 
 
a + λa 
 i j
 .. 

 . 

 
 aj 
.
 
.
.
 
 
 
am

iii) Intercambio de filas.


 
a1
 .. 
.
 
 
 
a ← f ila i
 j 

 .
..


 
 
ai ← f ila j 
..
 
.
 
 
 
am

4.3. Matrices Elementales

4.3.1. Tipos de matrices elementales

i) λ 6= 0
 
1 0 ··· 0 ··· 0
 
0
 1 · · · 0 · · · 0

. .. . . .. ..
 .. . . . 0

.
Ei (λ) = 
 

0 0 · · · λ · · · 0
. .. .. .. . .
 
 .. . . . . 0

 
0 0 ··· 0 ··· 1

Ei (λ)A : La fila i de A multiplicada por λ.

Facultad De Ciencias (UNI) 65


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

ii)  
1 0 ··· 0 ··· 0 ··· 0
 
0 1 · · · 0 · · · 0 · · · 0
 
. . .
 .. .. . . ... ... ... ... 0

 
 
0 0 · · · 1 · · · λ · · · 0
Eij (λ) =  . . . . . . . .
 
 .. .. .. .. . . .. .. .. 

 
 
0 0 · · · 0 · · · 1 · · · 0
 .. .. .. .. .. .. . . .. 
 
. . . . . . . .
 
0 0 ··· 0 ··· 0 ··· 1
Eij (λ)A : La fila i de A es aumentada λ veces la fila j.

iii)  
1 0 ··· 0 ··· 0 ··· 0
 
0
 1 ··· 0 ··· 0 ··· 0 
. .. . . .. .. .. ..
 ..

 . . . . . . 0 
 
0 0 ··· 0 ··· 1 ··· 0
Eij =  . .. .. .. . . .. .. .. 
 
 .. . . . . . . .
 
 
0 0 ··· 1 ··· 0 ··· 0
 .. .. .. .. .. .. . . .. 
 
. . . . . . . .
 
0 0 ··· 0 ··· 0 ··· 1
Eij A : Se intercambian la fila i con la fila j de A.

Proposición 4.3.1. Realizar una operación elemental de algún tipo es multiplicar por izquier-
da a la matriz por una matriz elemental del tipo anterior.

Demostración. i)


a1
 . 
 .. 
 
 
A1 = 
λai 

 . 
 .. 
 
am
e1 A1 = a1 = e1 A
..
.

ei A1 = λai = λei A

66 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.3. MATRICES ELEMENTALES

..
.

em A1 = am = em A

Osea:    
e1 e1
 .   . 
 ..   .. 
   
   
 ei  A1 = λei  A
 .   . 
   
 ..   .. 
   
em em
| {z } | {z }
Im Ei (λ)

ii) y iii) Se prueba similarmente.

Proposición 4.3.2. .

i) Ei (λ)−1 = Ei (λ−1 ), λ 6= 0.

ii) Eij (λ)−1 = Eij (−λ)

iii) Eij−1 = Eij

Demostración.

Lema 4.3.1. Sea A ∈ Kn×n , tal que: si x ∈ Kn×1 si (Ax = 0 → x = 0).


Entonces existen matrices elementales E1 , · · · , Em ∈ Kn×n tales que In = (Em Em−1 · · · E1 )A

Demostración. Probemos por inducción.

n = 1 : A = [λ], λ ∈ K.
Si Ax = 0 ⇒ x = 0, supongamos λ = 0, A · 1 = 0 pero 1 6= 0. Luego λ 6= 0 :

E1 (λ−1 )A = [1] = I1

Supongamos que se cumple la tesis para n − 1.

Para n: Sea A ∈ Kn×n tal que (si Ax = 0 → x = 0).

Ae1 6= 0 → (Entonces al menos uno de sus elementos es 6= 0), pues e1 6= 0

Facultad De Ciencias (UNI) 67


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

 
a11 · · · · · ·
 . .. .. 
.
 .
A= . . 

an1 · · · · · ·
Osea Ae1 es la primera columna de A. Haciendo un cambio de filas si es necesario,
podemos suponer que a11 6= 0.

 
1 ∗ ··· ∗
 
−1
a
 21 ∗ · · · ∗
E1 (a11 )A =  . .. .. .. 

 .. . . .
 
an1 ∗ ··· ∗
 
1 ∗ ··· ∗
 
−1
 0 ∗ · · · ∗
E21 (−a21 )E1 (a11 )A =  .. .. .. .. 
 

 . . . . 
an1 ∗ ··· ∗
Así sucesivamente:
 
1 ∗ ··· ∗
 
−1
 0 
En1 (−an1 ) · · · E21 (−a21 ) E1 (a11 ) A =  ..
 

| {z } | {z } | {z }
En E2 E1

 . F 

0
| {z }
F ∈K(n−1)×(n−1)

Afirmación: Sea A ∈ Kn×n y B ∈ Kn×n inversible, si (Ax = 0 → x = 0) entonces


(BAx = 0 → x = 0).
En efecto, (BA)x = 0 ⇒ (B −1 B)Ax = B −1 0 = 0.

⇒ Ax = 0 → x = 0

Fy = 0, y ∈ K(n−1)×1
  P 
1 a11 · · · a1(n−1) − n−1 a
j=1 1j jy
    
 0  y 1  0

 . .. = =0
 
 ..

 F 
 . 
 F y

0 yn−1

68 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.3. MATRICES ELEMENTALES

Por la afirmación anterior:


 P 
n−1
− j=1 a1j yj
 
 y 1

. =0⇒y=0
 
..

 
 
yn−1

Por hipótesis inductiva: ∃F1 , · · · , Fr ∈ K(n−1)×(n−1) matrices elementales tales que:

(Fr · · · F1 )F = In−1

Consideremos:  
1 0 ··· 0
 
 0 
F̃k =  ..  ∈ Kn×n
 

 . F 

0

F̃k es una matriz elemental.


    
1 ∗ ··· ∗ 1 0 ··· 0 1 0 ··· 0
    
 0   0  0 
F̃r · · · F̃1  . =
  .  . ···
    
 .. F   .
. F r
  .
. F r−1

    
0 0 0

     
1 0 ··· 0 1 ∗ ··· ∗ 1 ∗ ··· ∗ 1 ∗ ··· ∗
     
 0  0  0   0 
.. .. .. = ..
     
   

 . F1 
 . F 
 . (Fr · · · F1 )F  
  . In−1 

0 0 0 0
Aplicando n − 1 matrices elementales de tipo E1i (∗), i = 2, · · · , n. Tenemos que:

ER ER−1 · · · E1 A = In
| {z }
matrices elementales

Corolario 4.3.1. A ∈ Kn×n cumple (Ax = 0 → x = 0) si y solo si A es inversible.

Demostración.
(→)

Facultad De Ciencias (UNI) 69


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

A cumple que: (Ax = 0 → x = 0) por el lema anterior ∃E1 , · · · , Em elementales tales que
Em · · · E1 · A = I
−1
⇒ A = E1−1 · · · Em−1 −1
Em

Osea: A(Em Em−1 · · · E1 ) = I → A es inversible.

(←)

A es inversible ∃B/AB = BA = I. Sea x ∈ Kn×1 tal que Ax = 0.

⇒ BAx = 0 → Ix = 0 → x = 0

Corolario 4.3.2. A es inversible si y solo si sus columnas son L.I.

Demostración.
(→)


x1
.
Sea A inversible, A = (A1 : · · · : An ). Si ni=1 xi Ai = 0 = A  .
 .  = 0.
P

xn
 
x1
.
Por el corolario  .
 .  = 0 ⇒ xi = 0, ∀i ∈ In
xn

∴ {A1 , · · · , An } es L.I.

(←)

Sea x ∈ Kn×1 tal que Ax = 0  


x1
.
.
 . =0
(A1 : · · · : An ) 
xn
Osea: n
X
xi Ai = 0
i=1

Como {A1 , A2 , · · · , An } es L.I.: → xi = 0, ∀i ∈ In ⇒ x = 0. Por el corolario A es inversible.

Corolario 4.3.3. Si A tiene inversa por la izquierda, entonces es inversible.

70 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.4. MATRIZ ESCALONADA REDUCIDA

Demostración. Existe B tal que BA = I, sea x ∈ Kn×1 tal que Ax = 0.

⇒ BAX = 0 ⇒ x = 0 ⇒ A es inversible

Corolario 4.3.4. Si A tiene inversa por la derecha, entonces A es inversible.

Demostración. Existe B tal que AB = I, entonces B tiene inversa por la izquierda. Por el
corolario: B es inversible.
AB = I ⇒ ABB −1 = B −1

⇒ A = B −1 → A es inversible

Corolario 4.3.5. Toda matriz inversible es producto de matrices elementales.

Ejercicio 4.3.1. At : transpuesta de A.

i) At es inversible si y solo si A es inversible.

ii) A es inversible si y solo si sus filas son L.I.

4.4. Matriz escalonada reducida

Definición 4.4.1. Sea A ∈ Km×n , diremos que A es escalonada si:

i) El primer elemento no nulo de una fila no nula es 1, llamado 1-capital

ii) En la columna de un 1-capital , los demás elementos son nulos

iii) No hay una fila nula sobre una no nula

iv) Sean i1 , . . . , is las filas no nulas y el 1-capital de la fila ij está en la columna kj


 
k1 k2 kr
z}|{ z}|{ z}|{
0 . . . 1 0 ... 0 
.
 
.. 
 

 1 . . . 
 

 1  

Entonces k1 < k2 < . . . < kr (A escalonada)

Facultad De Ciencias (UNI) 71


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Observación 4.4.1. La matriz nula y la matriz identidad son escalonadas

Proposición 4.4.1. Para A ∈ Km×n existen E1 , . . . , Ek ∈ Km×n matrices elementales, tales


que:

Ek Ek−1 . . . E2 E1 A = A0 (escalonada reducida)

Demostración. Por inducción sobre m

m = 1 : A = (a1 , . . . , an )

Si A = 0 no hay nada que probar

Si A 6= 0, A = (0, . . . , 0, ar , . . . , an ) con ar 6= 0

E1 (a−1
r )A = (0, . . . , 0, 1, ∗, ∗, . . . , ∗)

r )A es escalonada reducida
Luego E1 (a−1

Hipótesis inductiva: Para m − 1, se cumple la proposición

Sea A ∈ Km×n
 
0 ... 0 ∗ ... ∗
. .. .. .. 
.
.
A= . Aj0 . .
0 ... 0 ∗ ... ∗

Sea Aj0 la primera columna no nula. Haciendo un cambio de filas se puede asumir que:
 
a
 
∗
 
∗ , con a 6= 0
 
Aj0 =  
.
 .. 
 

 
0 ... ... 0 1 ∗ ... ... ∗
. . .. .. . . .. 
 .. . . . a2 . . .
−1
E1 (ar )A =  . .. .. .. .. 
 
 .. .. ..
 . . . . .
.
0 ... ... 0 am ∗ ... ... ∗

72 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.4. MATRIZ ESCALONADA REDUCIDA

 
0 0 1 ∗ ... ∗
. ..
 ..

 . 0 

. ..
−1 .

.
Em1 (−am ) . . . E21 (−a2 )E1 (a )A =  . 0 C 
. .. ..

 ..

 . . 

0 0 0

donde C ∈ K(m−1)×(n−j0 ) tiene (m − 1) filas, por hipótesis inductiva:

f1 , . . . , Fel ∈ K(m−1)×(m−1) elementales tales que: Fel , . . . , F


∃F f1 C = C0 (escalonada reducida)

Definimos:

 
1 0 ... 0
 
0 
Fm+j = .  , j ∈ Il
 
 .. F
fj 
 
0

Luego:

 
0 ... 0 1 ∗ ... ∗
. . ..
 .. ..

. 0 
Em+l . . . Em+1 Em . . . E1 A =  . . .. ..
 
 .. ..

 . . C0 

0 ... 0 0

Con los 1-capitales de C0 anulamos al primer elemento de su columna y así obtenemos


la matriz escalonada reducida.

Corolario 4.4.1. Si A ∈ Km×n es inversible, la matriz escalonada proveniente de la proposi-


ción es la identidad.

Facultad De Ciencias (UNI) 73


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

4.5. Espacio Fila

Definición 4.5.1. Sea A ∈ Km×n . El espacio fila de A, denotado por F (A), es el subespacio
generado por las filas de A.


a1
 . 
.  F (A) = L ({a1 , . . . , am })
 . 
A=
am

Proposición 4.5.1. Si E ∈ Km×n es una matriz elemental, entonces:

F (EA) = F (A)

Demostración. .

i) Si E = Ei (λ), λ 6= 0

L {a1 , . . . , ai , . . . , am } = L {a1 , . . . , λai , . . . , am }

F (A) = F (Ei (λ)A)

ii) Si Si E = Eij (λ)

L {a1 , . . . , am } = L {a1 , . . . , ai + λaj , . . . , am }

F (A) = F (Eij (λ)A)

iii) Si E = Eij
L {a1 , . . . , am } = L {a1 , . . . , aj , . . . , aj , . . . , am }

F (A) = F (Eij A)

Corolario 4.5.1. Si B ∈ Km×n es inversible, entonces:

F (BA) = F (A)

74 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.5. ESPACIO FILA

Demostración. Como B es inversible ∃ E1 , E2 , . . . , Ek ∈ Km×n elementales, tales que:

B = Ek . . . E1

F (BA) = F (Ek . . . E1 A) = F (A)

Corolario 4.5.2. Sean X, Y ∈ Km×n . Si Y = AX con A inversible, entonces F (X) = F (Y )

Definición 4.5.2. Sean A, B ∈ Km×n decimos que A es equivalente por filas a B, si ∃ P ∈


Km×n inversible tal que: B = P A. NOTACIÓN: A ∼F B (A es equivalente por filas a B)

Observación 4.5.1. .

i) A ∼F A, ∀A ∈ Km×n (Reflexiva)

ii) A ∼F B =⇒ B ∼F A (Simetría)

iii) A ∼F B ∧ B ∼F C =⇒ A ∼F C (Transitiva)

Es decir, ∼F es relación de equivalencia

Ejercicio 4.5.1. Probar los tres

Proposición 4.5.2. Si A ∼F A0 donde A0 es escalonada reducida, entonces la dimensión de


F(A) es igual al número de 1-capitales de A0 .

Demostración.
F (A) = F (A0 )
 
0 ... 0 1 0 0 0 ··· ∗
 .. . ..
. . . ..
 
. . 1 0 0 · · · ∗

 .. . .. .. ... .. .. .. 
. . . ..
 
. . . . . .
. . .. .. ..
.
. . . ..

. . . . 1 · · · ∗

A0 = 
 
0
 ... 0 0 0 0 0 · · · 0
. . . . .. .. .. .. .. ..
 ..

 . . . . . . 

 
0 . . . 0 |{z} 0 · · · |{z}
0 |{z} 0 · · · 0
k1 k2 kr

F (A0 ) = L (filas no nulas)

F (A0 ) = L (a1 , . . . , akr )

Facultad De Ciencias (UNI) 75


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Vemos que:

{ak1 , . . . , akr } es LI

r
X
λi aki = 0
i=1

 
k1 k2 kr
z}|{ z}|{ z}|{
0 ... 0 1 0 ... 0 
 .. ..
 
(λ1 , . . . , λr )  . .

 1  = (0, . . . , 0)

 .. .. ...
. .


 
0 ... 0 1

=⇒ λi = 0, ∀i ∈ Ir

∴ {ak1 , . . . , akr } es LI

Teorema 4.5.1. Sea A ∈ Km×n , entonces ∃! A0 ∈ Km×n escalonada reducida, tal que A ∼F A0

Demostración. Sean A0 , B0 ∈ Km×n escalonadas reducidas tales que A ∼F A0 ∧ B ∼F B0 =⇒


A0 ∼F B0 .
Notar que, como las filas no nulas de A0 , B0 forman base para F (A) → dim(F (A0 )) =
dim(F (B0 )) = r. Luego B0 y A0 tienen el mismo numero de filas no nulas.
 
k1 kr
z}|{ z}|{
0 . . . 1 . . . 0 }v1 
. ..
 
 .. .


.
 
.
A0 =  .

1 }vr 

 
0 0 
 .. ..
 
. .


 
0 0

76 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.5. ESPACIO FILA

 
h1 hr
z}|{ z}|{
0 . . . 1 . . . 0 }w1 
. ...
 
 ..


.
 
.
B0 =  .

1 }wr 

 
0 0 
 .. ..
 
. .


 
0 0

L {v1 , . . . , vr } = L {w1 , . . . , wr }

Si r = 1:
L {v1 } = L {w1 }

∃ α ∈ K tal que w1 = αv1

1 ∗ ∗) = (0, . . . , |{z}
(0, . . . , |{z} α ∗ ∗) =⇒ α = 1 −→ w1 = v1
k1 h1

Supongamos que r = l − 1:

Si L {v1 , . . . , vr } = L {w1 , . . . , wr }

Afirmación: hr ≥ kr

Supongamos que hr < kr :


vr ∈ L {w1 , . . . , wr }
r
X
vr = λr w i
i=1
 
hr kr
z}|{ z}|{
0 · · · 0 1 ··· ∗ ··· ∗ 
. . .. .. .. 
 .. . . . .. .. ..
 
(0, · · · , 1, ∗, · · · , ∗) = (λ1 , · · · , λr )  . . . . . 
 
0 ··· 0 ··· 0 1 ··· ∗

Si: hr < kr .
En h1 : 0 = λ1 · 1, · · · , hr : 0 = λr · 1 ⇒ vr = 0(→←)

∴ hr ≥ kr

Facultad De Ciencias (UNI) 77


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Analogamente hr ≤ kr
∴ hr = kr

Usando el razonamiento anterior:


r
X
vr = λi w i
i=1

∴ λ1 = · · · = λr−1 = 0

Para la posición hr = kr
1 = λr · 1 → λr = 1

vr = w r

L ({v1 , · · · , wr−1 }) = L ({w1 , · · · , wr−1 })

Por hipotesis inductiva:


v1 = w1
..
.
vr−1 = wr−1

Además vr = wr
∴ Ao = Bo

Corolario 4.5.3. Sean A, B ∈ Km×n tales que F (A) = F (B) entonces A ∼F B

Demostración. Sean Ao y Bo las matrices escalonadas reducidas de A y B.

⇒ F (Ao ) = F (A) = F (B) = F (Bo )

⇒ F (Ao ) = F (Bo )

Por la forma ‘canónica’ de las filas de la escalonada reducida → Ao = Bo .

∴ Ao ∼F Bo → A ∼F B

78 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.6. MATRIZ ASOCIADA A UNA TRANSFORMACIÓN LINEAL

4.6. Matriz asociada a una transformación lineal

Definición 4.6.1. Sean U, V K-espacios vectoriales de dimensión finita con dim(U ) = n,


dim(V ) = m. Sean {µ1 , · · · , µn } base de U y {v1 , · · · , vm } base de V .
Además sea:
T :U →V
n
X
x= xj µ j
j=1
x → T (x) = y, m
X
y= yi vi
i=1

Además consideremos

Kn×1
N : U →  M : V →Km×1
x1 y1
.  . 
. . 
x→x= . y→y=  . 
xn ym

Sea AT = [aij ] tal que T (µj ) = aij vi tenemos:


Pm
i=1

U −→T V
N↓ ↓M
Kn×1 −→ Te
Km×1

Te = M ◦ T ◦ N −1

Donde: 
N : µ → e ∈ Kn×1
j j
Son isomorfismos =
M : vi → ei ∈ Km×1

Tex = AT x

Veamos:
Teej = (M o T o N −1 )ej = M (T (N −1 ej ))
Xm
= M (Tµj ) = M ( aij vi )
i=1

Facultad De Ciencias (UNI) 79


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

m
X m
X
= aij M (vi ) = aij ei
i=1 i=1
= Aj (Columnas j de A)

Osea A = (A1 : · · · : An ) = (Tee1 : · · · : Teen )

Definamos:
ϕ : L(Kn×1 , Km×1 ) → Km×n

T → ϕ(T ) = (T e1 : · · · : T en )

Afirmación: ϕ es isomorfismo.

ϕ es lineal (facil de verificar).

ϕ es inyectiva:
Sea T ∈ N u(ϕ), ϕ(T ) = 0 = (T e1 : · · · : T en )

→ T ej = 0, ∀j ∈ In . . . (∗)

Por el teorema de extensión por linealidad: T = 0 es la única transformación lineal que


satisface (*), osea ϕ es inyectiva.

ϕ es sobreyectiva:
Sea A ∈ Km×n , A = (A1 : · · · : An ), Ai ∈ Km×1 . Definimos T : Kn×1 → Km×1 , tal que
T ej = Aj entonces ϕ(T ) = (A1 : · · · : An ) = A osea A ∈ Im(ϕ) → ϕ es sobreyectiva;
luego ϕ es isomorfismo.

Ahora definamos:
µ : L(U, V ) → L(Kn , Km )

T → µ(T ) = M ◦ T ◦ N −1 = Te

Afirmación: µ es isomorfismo.

µ es lineal.

µ(T + S) = M ◦ (T + S) ◦ N −1 = M ◦ T ◦ N −1 + M ◦ S ◦ N −1

= µ(T ) + µ(S)

µ(λT ) = M ◦ (λT ) ◦ N −1 = λ(M ◦ T ◦ N −1 )

= λµ(T )

80 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.7. MATRIZ ASOCIADA A LA COMPOSICIÓN

Sea:
η : L(Kn , Km ) → L(U, V )

R → M −1 ◦ R ◦ N

Veamos que η es la inversa de µ

(µ ◦ η)(R) = M ◦ (M −1 ◦ R ◦ N ) ◦ N −1 = R

(η ◦ µ)(T ) = M −1 ◦ (M ◦ T ◦ N −1 ) ◦ N = T

Luego µ es isomorfismo, entonces:

T →µ
|{z} M ◦ T ◦ N −1 →ϕ
|{z} AT
isomorf ismo isomorf ismo
| {z }
−→ϕ◦µ isomorf ismo, pues ϕ y µ lo son

AT = (ϕ ◦ µ)(T )

ϕ ◦ µ : L(U, V ) → Km×n , isomorf ismo

T x = y
ϕ◦µ↓ ↓N ↓M
AT x y

4.7. Matriz asociada a la composición

Expresaremos AS◦T en función de AS y AT . Sea W , dim(W ) = p, {w1 , · · · , wp } base de W ,


sean T : U → W, S : W → V .

U →T W →S V
N↓ ↓P ↓M
Kn×1 →AT Kp×1 →AS Km×1

Proposición 4.7.1. AS◦T = AS · AT

Demostración.
(S ◦ T )x = y

AS◦T x = y → AS◦T = [cij ]m×n

Facultad De Ciencias (UNI) 81


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Tal que: (S ◦ T )(µj ) =


Pm
i=1 cij vi

p
X
AT = [aij ]p×n tal que T (µj ) = aij wi
i=1

I
p
X
(S ◦ T )(µj ) = S( akj wk )
k=1
p
X
= akj S(wk )
k=1
J

As = [bij ]m×p tal que S(wj ) =


Pm
i=1 bij vi

p m
X X
(S ◦ T )(µj ) = akj ( )bik vi
k=1 i=1

Luego:
m X p m
X X
(S ◦ T )(µj ) = ( bik akj )vi = cij vi
i=1 k=1 i=1
p
X
⇒ cij = bik akj (elemento ij de AS · AT )
k=1

Osea:
AS◦T = AS · AT

Corolario 4.7.1. Sea T : U → U , luego AT n = (AT )n .

Demostración. Usar inducción sobre n.

Observación 4.7.1. ¿Ald ?, ld : U → U , dim(U ) = n


ldx = x, Ald x = x, ∀x ∈ Kn×1
Sabemos que (Ald )j = Ald ej = ej

(Ald )0 = (e1 : · · · : en ) = In

∴ Ald = In

Corolario 4.7.2. Si T : U → V es isomorfismo, entonces AT es inversible y (AT )−1 = AT −1

82 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.7. MATRIZ ASOCIADA A LA COMPOSICIÓN

Demostración. Como U ∼
= V → dim(U ) = dim(V ) = m

Im = (Ald )v = AT o T −1 = AT · AT −1

Luego: AT es inversible y (AT )−1 = AT −1

Proposición 4.7.2. Sea T : U → V transformación lineal. T es isomorfismo si y solo sí T


es inversible.

Demostración.
(→)

Por el corolario anterior

(←)

AT es inversible:
ϕ−1 : Km×n → L(Kn×1 , Km×1 )

Donde:
ϕ−1 (A) = TA : Kn×1 → Km×1

x → Ax

Entonces: ϕ−1 (A−1


T ) = TA−1 T

V →S U
M↓ ↓ N ↑ N0
−1
Km×1 →AT Kn×1
Afirmación S = N −1 o TAT −1 o M es la inversa de T.

(S o T ) = N −1 o TAT −1 o M o T

= N −1 o TAT −1 o M o (M −1 oTAT o N )

= N −1 o TA−1 o TA o N = ldU
T

Analogamente T o S = ldV

∴ T es isomorf ismo y su inversa es S

Facultad De Ciencias (UNI) 83


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

1 e2 e
z}|{
Ejemplo 4.7.1. U = V = L ({ sin , cos }), T : U → V , T (f ) = f 0 . Notamos que T (sen) =
z}|{

cos ∧ T (cos) = −sen ← T x = y

AT x = y = {sen = e1 , cos = e2 }
  
1 0
AT e1 = AT (0 ) = (1 )  0 −1
AT =  
AT e2 = AT (0 ) = (−1 ) 
1 0 1 0

Ejemplo 4.7.2. U = V = L ({ex , e2x , e3x }), T (f ) = f 0

Tx = y → AT x = y
  
T ex = ex → AT e1 = e1 1 0 0



 
T e2x = 2e2x → AT e2 = 2e2 AT = 
 0 2 0



T e3x = 3e3x → AT e3 = 3e3 0 0 3

Rx
Veamos (T −1 f )(x) = 0
f (t)dt + f (0)
 
1 0 0
 
AT −1 =  1
0
 2  0 

0 0 13

1 2 e e

Ejemplo 4.7.3. U = V = C = L ({ 1 , i }), C es un R-espacio vectorial con dimR (C) =


z}|{ z}|{

2.
Sea w = a + ib, definimos: Tw : C → C, definido por Tw (z) = w · z es R-lineal. Hallaremos
ATw .
Tw x = y → AT x = y

Veamos Tw (1) = w, Tw (i) = iw


  
Tw (1) = w = a · 1 + bi = ae1 + be2  a −b
ATw =  
Tw (i) = iw = −b · 1 + ai = −be1 + ae2  b a

 
a b
Ejemplo 4.7.4. U = V = R2×2 . Sea A =   definimos:
c d

TA : R2×2 → R2×2

84 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.8. APLICACIÓN: TRANSPUESTA DE UNA TRANSFORMACIÓN LINEAL

Por TA x = Ax. Hallaremos la matriz asociada:


        
 1 0 0 1 0 0 0 0 
  = e1 ,   = e2 ,   = e3 ,   = e4
 0 0 0 0 1 0 0 1 

Es base de R2×2
TA x = y → ATA x = y
     
1 0 1 0 a 0
TA   = A =  = ae1 + ce3
0 0 0 0 c 0
     
0 1 0 1 0 a
TA   = A =  = ae2 + ce4
0 0 0 0 0 c
     
0 0 0 0 b 0
TA   = A =  = be1 + de3
1 0 1 0 d 0
     
0 0 0 0 0 b
TA   = A =  = be2 + de4
0 1 0 1 0 d
 
a 0 b 0
 
0 a 0 b 
ATA = 
 

 c 0 d 0
 
0 c 0 d

4.8. Aplicación: Transpuesta de una transformación lineal

Proposición 4.8.1. Sean U, V K-espacios vectoriales con bases X = {u1 , · · · , um }, Y =


{v1 , · · · , vm }. Sean X ∗ , Y ∗ sus respectivas bases duales. Sea T : U −→ V un transformación
lineal y sea AT su matriz asociada en las bases X e Y . Entonces la matriz asociada a T t en
las bases Y ∗ y X ∗ es la transpuesta de la matriz AT .

Demostración. Sea B = [T t ]Y ∗ X ∗
n
X
T (uj ) = akj vk , j ∈ In
k=1

n
X
T t (vi∗ ) = bki u∗k , i ∈ Im
k=1

Facultad De Ciencias (UNI) 85


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

T t (vi∗ )(uj ) = vi∗ (T (uj ))


m
!
X
= vi∗ akj vk = aij
k=1

n
!
X
T t (vi∗ )(uj ) = bki u∗k (uj ) = bji
k=1

Osea:
bji = aij ⇒ B = At

Corolario 4.8.1. Sean U, V K-espacios vectoriales con dim(U ) = n, dim(V ) = m, entonces:

(T1 + T2 )t = T1t + T2t , ∀T1 , T2 ∈ L(U, V ).

(λT )t = λT t , ∀λ ∈ K, T ∈ L(U, V ).

L(U, V ) ∼
= L(V ∗ , U ∗ )

Sea W un K-espacio vectorial de dimensión finita y sean T : U −→ V , S : V −→ W


transformaciones lineales. Entonces:

(S ◦ T )t = T t ◦ S t

Apartado: U es reflexivo si: U ∼


= U ∗∗

4.9. Matriz de cambio de base

Definición 4.9.1. .

1. Sean A, B ∈ Km×n , diremos que A es equivalente a B si ∃ P ∈ Km×m , Q ∈ Kn×n


inversibles, tales que B = P AQ.
NOTACIÓN: A ∼ =B

86 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.9. MATRIZ DE CAMBIO DE BASE

2. Sean A, B ∈ Kn×n , diremos que A es semejante a B si ∃ P ∈ Kn×n inversible, tal que


B = P AP −1
NOTACIÓN: A ∼ B

3. Sean A, B ∈ Km×n , diremos que A es congruente a B si ∃ P ∈ Kn×n , tal que B =


P AP t
NOTACIÓN: A ≡ B

Ejercicio 4.9.1. Probar que las tres relaciones anteriores son de equivalencia.

Definición 4.9.2. (Matriz de cambio de base) Sea U un K-espacio vectorial, dimU = n


con n < ∞ y B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n } bases de U . Definimos la matriz de cambio
de base de B a B 0 como la matriz PBB 0 = [pij ]n×n , tal que:
n
X
u0j = pij uj , ∀j ∈ In
i=1

Observación 4.9.1. Se consideran las bases ordenadas

Ejemplo 4.9.1. En R2
B = {(1, 2), (1, 1)}

B 0 = {(0, 1), (−1, 3)}

Veamos cual es la matriz PBB 0


u u
z }|1 { z }|2 {
=⇒ u01 = (0, 1) = p11 (1, 2) + p21 (1, 1)

=⇒ u02 = (−1, 3) = p12 (1, 2) + p22 (1, 1)


| {z } | {z }
u1 u2

     
0 1 1 p 
  11 

 = 


1 2 1 p21

     

 0 −1

1 1 p p
 =   11 12 
 1 3 2 1 p21 p22
     
−1 1 1 p12 

 =   

3 2 1 p22 

 −1    
1 1 0 −1 1 4
=⇒ PBB 0 =    = 
2 1 1 3 −1 −5

Facultad De Ciencias (UNI) 87


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Ejemplo 4.9.2.
B = {(1, 0), (0, 1)}

B 0 = {(0, 1), (−1, 3)}

=⇒ (0, 1) = p11 (1, 0) + p21 (0, 1)

=⇒ (−1, 3) = p12 (1, 0) + p22 (0, 1)

       
0 1 0 p
  = p11   + p21   =  11 
1 0 1 p21
       
−1 1 0 p
  = p12   + p22   =  12 
3 0 1 p22

 
0 −1
=⇒ PBB 0 =  Matriz de cambio de la base canónica B a la base B 0
1 3

Ejemplo 4.9.3. B1 = {(1, 0), (1, 3)}, B2 = {(0, 1), (1, 1)}
 
−1 2
⇒ PB1 B2 =  
1 1

Proposición 4.9.1. Sean B = {u1 , . . . , un }, B 0 = {u01 , . . . , u0n } bases de U . Entonces PBB 0 es


inversible y su inversa es PB 0 B

Demostración. La matriz PB 0 B = P = [pij ]n×n es tal que:


n
X
u0j = pij ui
i=1

Y la matriz PBB 0 = Q = [qij ]n×n es tal que:


n
X
uj = qij u0i
i=1

n n n
! n n
!
X X X X X
=⇒ u0j = pij ui = u0j = pij qki u0k = qki pij u0k
i=1 i=1 k=1 k=1 i=1

pu0j = 0 · u01 + . . . + 1 · u0j + . . . + 0 · u0n y

88 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.9. MATRIZ DE CAMBIO DE BASE

Luego:
n
(
X 0 , j 6= k
qki pij =
i=1 1, j=k

0 , j 6= k
[QP ]kj ={
1, j=k

=⇒ QP = I = In PBB 0 PB 0 B = In
−1
∴ PBB 0 = PB 0 B

4.9.1. Matriz de cambio de base de una base cualquiera a la base


canónica

Sea B = {u1 , . . . , un } ⊂ Kn×1 una base

u1 = p11 . e1 + p21 . e2 + . . . + pn1 . en


u2 = p12 . e1 + p22 . e2 + . . . + pn2 . en
.. .. .. ... ..
. . . .
un = p1n . e1 + p2n . e2 + . . . + pnn . en

=⇒ PB = [P1 : . . . : Pn ] Matriz de cambio de base, de B a la base canónica

Proposición 4.9.2. Sean B, B 0 y B 00 bases de U , entonces:

PB 00 B = PB 00 B 0 PB 0 B

Demostración. Sean 
B = {u1 , . . . , un }  

0 0
B = {u1 , . . . , un } 0 Bases de U


B 00 = {u001 , . . . , u00n }

n
X n
X
u00j = rij ui = qkj u0k
i=1 k=1

Facultad De Ciencias (UNI) 89


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

n
X
Pero u0k = plk ul , luego:
l=1

n n n
! n n
!
X X X X X
u00j = rij ui = qkj plk ul = plk qkj ul
k=1 k=1 l=1 l=1 k=1

n
X
=⇒ rij = pik qkj = [P Q]ij , es decir, R = P Q
k=1

Corolario 4.9.1. Sean B = {u1 , . . . , un } ⊂ Kn×1 , B 0 = {u01 , . . . , u0n } ⊂ Kn×1 bases de U .


Entonces:
PB 0 B = PB−1 PB−10

Donde PB es la matriz cambio de base de la base canónica a B

Demostración. Sea E = {e1 , . . . , en } base canónica de Kn×1 . Por proposición anterior

PBB 0 = PBE PE B 0 = (PE B )−1 PE B 0 = PB−1 PB 0

4.10. Relación entre las matrices asociadas a una misma


transformación

Sean U, V K-espacios vectoriales con dimU = n, dimV = m y T : U → V transformación


lineal. Sean B = {u1 , . . . , un } base de U y C = {v1 , . . . , vm } base de V .
 
0
.
 .. 
 
1 ∈ K , con 1 en la posición j
  n×1
N : uj → ej =  
.
 .. 
 
0

90 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.10. RELACIÓN ENTRE LAS MATRICES ASOCIADAS A UNA MISMA
TRANSFORMACIÓN

 
0
.
 .. 
 
, con 1 en la posición i
  m×1
M : vi → ei = 
1 ∈ K

.
 .. 
 
0

T x = y
↓ ↓N ↓M
AT x = y

n
X m
X
x= xj u j , y= yi vi
j=1 i=1
   
x1 y1
.  . 
. . 
.
x=  . 
, y=
xn ym

También:

B 0 = {u01 , . . . , u0n } base de U

C 0 = {v10 , . . . , vm
0
} base de V

T x = y
↓ ↓ ↓
BT x0 = y 0

n
X m
X
0 0
x= xj u j , y = yi0 vi0
j=1 i=1
n
X m
X
x= xj u j , y = yi vi . . . (*)
j=1 i=1

n
X
La matriz PB 0 B = [pij ] es tal que: u0j = pkj uk
k=1

Reemplazando en (*):

Facultad De Ciencias (UNI) 91


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

n
X n
X n
X
x = x0j u0j = x0j ( pkj uk )
j=1 j=1 k=1
n
X Xn n
X
= ( x0j pkj )uk = xk uk
k=1 j=1 k=1

n
X
=⇒ x0j pkj = xk , ∀ k ∈ In
j=1

Osea [x]kl = [PB 0 B x0 ]k1

=⇒ x = PB 0 B x0

n X
X n
x= ( x0j pkj )uk
k=1 j=1
n X
X n
x= ( x0j pkj )ek
k=1 j=1

Análogamente, consideremos PC 0 C : y = PC 0 C y 0 . Se tiene que:

Tx = y

AT x = y , BT x0 = y 0

Reemplazando:
AT PB 0 B x0 = PC 0 C y 0

Pero:
BT x0 = y 0

=⇒ AT PB 0 B x0 = PC 0 C BT x0

=⇒ (AT PB 0 B − PC 0 C BT )x0 = 0

Luego:
AT PB 0 B − PC 0 C BT = 0

AT PB 0 B = PC 0 C BT

=⇒ BT = PC0 C −1 AT PB0 B

=⇒ BT = PCC0 AT PB0 B

92 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.11. SISTEMA DE ECUACIONES LINEALES

Proposición 4.10.1. Sea T : U → V una transformación lineal, dos matrices asociadas a T


siempre son equivalentes.

Corolario 4.10.1. Si T : U → U transformación lineal, dos matrices asociadas a T siempre


son semejantes.

4.11. Sistema de Ecuaciones Lineales

Definición 4.11.1. Una ecuación de la forma:



a11 x1 + · · · + a1n xn = b1 
.. .. .. ..

. . . . (∗)


am1 x1 + · · · + amn xn = bm

Con aij ∈ K, ∀i ∈ Im , j ∈ In . Es llamado sistema de ‘m’ ecuaciones con ‘n’ incógnitas.


Diremos que (λ1 , · · · , λn ) ∈ Kn es solución del sistema lineal (*), si para xi = λi , ∀i ∈ In se
satisface (*). Equivalentemente λ1 , · · · , λn es solución de (*), si:

Ax = b

Donde:    
λ1 b1
. .
. .
A= [aij ]m×n
| {z }  . , b =  . 
,x = 
matriz de coeficientes λn bm
| {z }
solución

Proposición 4.11.1. Ax = b tiene solución si y solo si b ∈ C(A) (espacio generado por las
columnas de A, denominado espacio columna).

Demostración.
(→)
   
λ1 λ1 n
. .
. .
X
Sea x0 =  .  solución, entonces Ax0 = b osea A  .  = b =
    λj Aj ⇒ b ∈ C(A).
j=1
λn λn

(←)

Facultad De Ciencias (UNI) 93


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

 
λ1
.
Si b ∈ C(A), entonces ∃λ1 , · · · , λn ∈ K. Tales que b = nj=1 λj Aj = A  .
 . .
P

λn
 
λ1
.
Luego  .
 .  es solución.
λn

Definición 4.11.2. Dos sistemas lineales Ax = b y A0 x = b0 serán llamados sistemas equiva-


lentes si tienen las mismas soluciones.

Proposición 4.11.2. Los sistemas de ecuaciones Ax = b y A0 x = b0 son equivalentes si y solo


si ∃P invertible tal que A0 = P A y b0 = P b.

Demostración.
(→)

Si Ax0 = b ∧ A0 x0 = b0 , para cualquier solución A(x − x0 ) = 0 ∧ A0 (x − x0 ) = 0.


⇒ x es solución de Ax = b ⇔ x − x0 es solución de Ay = 0.

→ Ay = 0 ⇔ A0 y = 0

TA , TA0 : Kn×1 → Km×1 definidas por TA (y) = Ay, TA0 (y) = A0 y, luego N u(TA ) = N u(TA0 ).

⇒ dim(Im(TA )) = dim(Im(TA0 ))

Luego Im(TA ) ∼
= Im(TA0 )

Im(TA ) = C(A), Im(TA0 ) = C(A0 )

Supongamos que {A1 , · · · , Ar } es base de C(A) (haciendo un cambio de orden si es necesario)


y supongamos {A01 , . . . , A0r } es base de C(A∗) por el teorema de completación.

0
∃Vr+1 , · · · , Vm ∃Vr+1 , · · · , Vm0

Tales que: {A1 , · · · , Ar , Vr+1 , · · · , Vm } y {A01 , · · · , A0r , Vr+1


0
, · · · , Vm0 } son bases de Km×1 .
Por el teorema de extensión por linealidad:

∃!S : Km×1 → Km×1

tal que S(Aj ) = A0j , ∀j ∈ Ir


0
S(Vr+k ) = Vr+k , ∀k ∈ Im−r

94 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.11. SISTEMA DE ECUACIONES LINEALES

Afirmación: S o TA = TA0
 
λ1
.
En efecto, sea x ∈ Km×1 con x =  .
 . .
λn
n
X n
X r
X
TA x = λj Aj = λj aij Ai
j=1 j=1 i=1

n
X r
X
S(TA x) = λj aij S(Ai )
j=1 i=1
n
X r
X
S(TA x) = λj aij A0i = TA0 x
j=1 i=1
m×n
⇒ ∃P ∈ K : S(x) = Px
→ S(TA x) = TA0 x

(P A)x = T (A0 x), ∀x ∈ Kn×1

⇒ P A = A0 como S es isomorfismo P es inversible.

→ A ∼F A 0

(←)

Si ∃P inversible tal que A0 = P A ∧ b0 = P b.


Afirmación: Ax = b ⇔ P Ax = P b.
(→) Obvio

(←)

P −1 (P Ax) = P −1 (P b) → Ax = b
⇔ A0 x = b0 ⇔ los sistemas Ax = b y A0 x = b0 son equivalentes.

Corolario 4.11.1. Para el sistema Ax = b ∃!Ao ∈ Km×n escalonada reducida y bo ∈ Km×1


tales que:
Ao x = bo sea equivalente a Ax = b

Demostración. Sea Ao la única matriz escalonada reducida de A.

P A = Ao → P Ax} |{z}
| {z = |{z}
Pb
Ao x = bo

Facultad De Ciencias (UNI) 95


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

Definición 4.11.3. Diremos que el sistema lineal es homogéneo si b = 0, osea el sistema seria
Ax = 0

Proposición 4.11.3. Consideremos al sistema homogéneo Ax = 0, A ∈ Km×n entonces el


conjunto solución es un subespacio SA y dim(SA ) = n − dim(F (A)).

Demostración. SA es un subespacio (ejercicio), supongamos que A es escalonada reducida.


Toda solución de Ax = 0 es de la forma: x = n−r
j=1 xAj wj ⇒ SA = L {w1 , · · · , wn−r }, como
P

{w1 , · · · , wn−r } es L.I. entonces es base:

dim(SA ) = n − r (# de 1 − capitales)

= n − dim(F (A))

Proposición 4.11.4. Sea A ∈ Km×n , entonces:

dim(F (A)) = dim(C(A))

Demostración. Definimos:
TA : Kn×1 → Km×1

TA x = Ax

⇒ Im(TA ) = C(A)

Recordar:  
x1 n
. X
 .
Ax = (A1 , · · · , An )  .  =
 xj Aj
j=1
xn
Notar que:
N u(TA ) es el espacio solución de Ax = 0. Luego por el teorema del núcleo y la imagen:

n = dim(N u(TA )) + dim(Im(TA ))

n = n − dim(F (A)) + dim(C(A))

⇒ dim(F (A)) = dim(C(A))

96 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.11. SISTEMA DE ECUACIONES LINEALES

Definición 4.11.4. El rango de una matriz A ∈ Km×n denotada como M (A) (también r(A),
rang(A), rank(A), etc.) se define como M (A) = dim(F (A)) = dim(C(A)).

Corolario 4.11.2. M (A) = M (AT )

Observación 4.11.1. Si A ∈ Km×n



M (A) ≤ m 
M (A) ≤ min{m, n}
M (A) ≤ n 

Corolario 4.11.3. A ∈ Kn×n es invertible si y solo si M (A) = n.

Demostración. A es inversible si y solo si sus columnas son L.I.. ← dim(C(A)) = M (A) = n


Ax = B → B ∈ C(A)
 
x1 n
. X
 .
Ax = (A1 , · · · , An )  .  =
 xj Aj
j=1
xn

Proposición 4.11.5. (Criterio de la matriz aumentada)


.
Ax = B tiene solución si y solo si M (A) = M ((A..B)), donde:
.
(A..B) = (A1 : · · · : An : B)

Demostración. Ax = B tiene solución ⇒ B ∈ C(A)

M (A) = dim(C(A)) = dim(L {A1 : . . . : An })

B ∈ L {A1 : . . . : An } ⇔ L {A1 : . . . : An } ⊂ L {A1 : . . . : An }

Si B ∈ L {A1 , · · · , An } → B =∼nj=1 λj Aj

Es obvio que L {A1 , · · · , An } ⊂ L {A1 , · · · , An , B} la otra inclusión se da porque:


n
X
B= λj Aj
j=1

Osea L {A1 , · · · , An } = L {A1 , · · · , An , B}

dim(C(A)) = dim(C(A : B))

M (A) = M (A : B)

Facultad De Ciencias (UNI) 97


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 3

4.11.1. Existencia y unicidad de los sistemas lineales

Lema 4.11.1. Sean U, V K-espacios vectoriales, y ∈ V T : U → V transformación lineal:


T x = y, tiene una solución xo ∈ U , si y solo si el conjunto solución es xo + N u(T ).

Demostración. Como xo es solución, T xo = y.

(→)

Sea x ∈ U una solución, entonces T x = y = T xo → T (x − xo ) = 0.

→ x − xo ∈ N u(T ) → x ∈ xo + N u(T )

(←)

Si x ∈ xo + N u(T ). ∃v ∈ N u(T ) : x = xo + v.

→ T x = T xo + Tv = y + 0 = y

→ x es solución.
Consideremos Ax = B, sea SA el conjunto solución, si SA 6= φ. Entonces, SA = xo + N u(TA ),
donde TA x = Ax.
#SA = #(xo + N u(TA ))

#SA = #N u(TA )

(Número de soluciones del sistema homogéneo Ax = 0)

Proposición 4.11.6. Consideremos Ax = B, A ∈ Rm×n , B ∈ Rm×1 .

1. Si M (A) = m, entonces el sistema tiene solución.

2. Si M (A) = n, entonces el sistema tiene solución, esta es única.

3. Si M (A) = m = n, el sistema tiene una única solución.

4. Si M (A) < n, entonces tiene mas de una solución.

Demostración. .

98 Latexeado por Adan S.L. y Jael L.G. (EPM)


4.11. SISTEMA DE ECUACIONES LINEALES

1. M (A) = m = #f ilas.

M (A) = m = dim(Km×1 ) = dim(C(A)) = dim(Im(TA ))

→ Im(TA ) = Km×1 → TA es sobreyectiva para B ∈ Km×1 , ∃xo ∈ R tal que:

TA xo = B = Axo = B

∴ El sistema tiene solución.

2. M (A) = n = dim(Im(TA )). Por el teorema del núcleo e imagen.

TA : Kn×1 → Km×1

→ n = dim(N u(TA )) + dim(Im(TA ))

n = dim(N u(TA )) + n → dim(N u(TA )) = 0

⇒ N u(TA ) = {0} osea TA es inyectiva.


Supongamos que x1 y x2 son soluciones de Ax = B → Ax1 = B = Ax2 → TA x1 = TA x2 .
Como TA es inyectiva: x1 = x2 .

#SA = #N u(TA )

#SA = #{0} = 1

3. M (A) = m = n, de 1 y 2 tiene solución y es única.

4. M (A) < n
dim(Im(TA )), aplicando el teorema del núcleo e imagen:
M (A)
z }| {
n = dim(N u(TA )) + dim(Im(TA ))

n − dim(N u(TA )) = M (A) < n

Osea dim(N u(TA )) > 0.


→ N u(TA ) 6= {0}

#SA = #N u(TA ) > 1

Facultad De Ciencias (UNI) 99


Capitulo N° 5

Unidad 4

100
5.1. DETERMINANTES

5.1. Determinantes

5.1.1. Formas multilineales

Definición 5.1.1. Sea r ∈ N, una forma r-lineal en el K-espacio vectorial U es una función:

f : |U × .{z
. . × U} −→ K
r veces

que es lineal en cada una de sus variables, es decir:

f (v1 , . . . , vi + vi0 , . . . , vr ) = f (v1 , . . . , vi , . . . , vr ) + f (v1 , . . . , vi0 , . . . , vr )

f (v1 , . . . , λvi , . . . , vr ) = λf (v1 , . . . , vi , . . . , vr )

∀ v1 , . . . , vi , vi0 , . . . , vr ∈ U , ∀ λ ∈ K

Observación 5.1.1. Si uno de los vectores vj = 0, entonces: f (v1 , . . . , vr ) = 0

Teorema 5.1.1. Sea U un K-espacio vectorial de dimensión finita con base {u1 , . . . , un }.
Para cada una de las nr secuencias ordenadas J = {j1 , . . . , jr } de enteros comprendidos entre
1 y n, fijemos un número real aJ = aj1 ,...,jr . Existe una y solamente una, forma r-lineal
f : U × . . . × U −→ K tal que f (uji , . . . , ujr ) = aJ , ∀J = (j1 , . . . , jr )

Demostración. (Ejercicio. Ver Elon Lages - pág 288)

{u1 , u2 , u3 }, f : forma:

f (u1 , u1 ) = a11 f (u1 , u2 ) = a12 f (u1 , u3 ) = a13


f (u2 , u1 ) = a21 f (u2 , u2 ) = a22 f (u2 , u3 ) = a23
f (u3 , u1 ) = a31 f (u3 , u2 ) = a32 f (u3 , u3 ) = a33

⇒ ∃!f : U r → K

Tal que f (ui , uj ) = aij


J

Corolario 5.1.1. Sea dimK U = n. El espacio vectorial Lr = (U, K) de todas las formas
r-lineales f : U × . . . × U −→ K tiene dimensión nr

Facultad De Ciencias (UNI) 101


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

Observación 5.1.2. Esto determina, una vez fijada una base de U , que:

Lr (U, K) ∼
r
= Kn , donde dimU = n

Definición 5.1.2. Una forma r-lineal f : U × . . . × U −→ K se le denominará alternada,


si:
f (v1 , . . . , v, . . . , v, . . . , vr ) = 0

Es decir, f se anula si hay vectores repetidos en la entrada.

Observación 5.1.3. f es alternada, si y solo si, f es antisimétrica. Pues, si f es alternada:

f (u1 , . . . , u, . . . , u, . . . , ur ) = f (v1 , . . . , v, . . . , v, . . . , vr ) = 0
| {z } | {z }
ϕ(u, u) = ϕ(v, v) = 0

=⇒ ϕ(u, u) + ϕ(v, v) = ϕ(u + v, u + v) = 0


=⇒ ϕ(u, u) + ϕ(u, v) + ϕ(v, u) + ϕ(v, v) = 0
| {z } | {z }
0 + ϕ(u, v) + ϕ(v, u) + 0 = 0
=⇒ ϕ(u, v) = −ϕ(v, u)

f (v1 , . . . , u, . . . , v, . . . vr ) = −f (v1 , . . . , v, . . . , u, . . . , vr )

Es decir, f es antisimétrica.

Si f es antisimétrica:

ϕ(u, u) = −ϕ(u, u) =⇒ 2ϕ(u, u) = 0 =⇒ ϕ(u, u) = 0 , es decir f es alternada

Corolario 5.1.2. Si f es alternada, para toda permutación σ de los enteros {1, 2, . . . , r} y


toda lista de vectores {v1 , . . . , vr } ⊂ U , se tiene:

f (vσ(1) , . . . , vσ(r) ) = sign(σ)f (v1 , . . . , vr )

donde 
 1 , si el número de permutaciones es par
sign(σ) =
 −1 , si el número de permutaciones es impar

Notación: Sea U un K-espacio vectorial

Ar (U ) : Espacio de las r-formas lineales alternadas

f : U × . . . × U −→ K

102 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.1. DETERMINANTES

Teorema 5.1.2. Sea f : U × . . . × U −→ K una forma r-lineal alternada. Si los vectores


v1 , . . . , vr son LD, entonces:
f (v1 , . . . , vr ) = 0

Demostración. (Ejercicio)

Corolario 5.1.3. Si existe una forma r-lineal alternada f : U × . . . × U −→ K tal que


f (v1 , . . . , vr ) 6= 0, entonces los vectores v1 , . . . , vr son L.I.

Demostración. (Contrarrecíproco del teorema anterior)

Corolario 5.1.4. Si r > dim(U ), entonces A(E) = {0}

Demostración. (Ejercicio. Consecuencia directa del teorema anterior)

A partir de ahora, nos concentraremos en estudiar las formas n-lineales alternadas en un


espacio dimensional, es decir las f ∈ An (U ), donde n = dimK U .

Teorema 5.1.3. Sea {u1 , . . . , un } una base del K-espacio vectorial U . Para todo escalar a,
existe una única forma n-lineal alternada f : U × . . . × U −→ K tal que:

f (u1 , . . . , un ) = a

Demostración. (Ver Elon Lages - pág 293) Supongamos que existe f ∈ An (U ) tal que
f (u1 , . . . , un ) = a. Supongamos, además, que existe g ∈ An (U ) tal que g(u1 , . . . , un ) = a. Se
tendría que:

g(ui1 , . . . , uin ) = 0 = f (ui1 , . . . , uin ) = 0 , si hubiese repeticiones en la lista

g(ui1 , . . . , uin ) = g(uσ(1) , . . . , uσ(n) )

g(ui1 , . . . , uin ) = sign(σ)g(u1 , . . . , un )

g(ui1 , . . . , uin ) = sign(σ) · a = sign(σ)f (u1 , . . . , un )

g(ui1 , . . . , uin ) = f (uσ(1) , . . . , uσ(n) )

g(ui1 , . . . , uin ) = f (ui1 , . . . , uin )

Notamos que para cada permutación I = (i1 , . . . , in ) = (σ(1), . . . , σ(n)) se cumple que f (uI ) =
g(uI ) y si hubiese repeticiones f (uI ) = g(uI ) = 0.

Facultad De Ciencias (UNI) 103


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

Por el primer teorema f es única y está determinada por f (u1 , . . . , un )

Ahora veamos cómo obtener dicha forma n-lineal alternada f : U × . . . × U −→ K tal que:




 0 , si hay repeticiones
f (ui1 , . . . , uin ) = a , si la permutación es par

−a , si la permutación es impar

Por el primer teorema, existe una única forma n-lineal f : U × . . . × U −→ K con estas
propiedades. Falta ver que f es alternada.
n
X
Sea v = xi ui , vector en U cualquiera, entonces:
i=1
P P
f (. . . , u, . . . , u, . . .) =
f (. . . , xi ui , . . . , xj uj , . . .)
n X
X n
= xi xj f (. . . , ui , . . . , uj , . . .)
i=1 j=1
Xn
= xi xi f (. . . , ui , . . . , ui , . . .)
i=1
Xn
+ xi xj f (. . . , ui , . . . , uj , . . .)
i<j
Xn
+ xi xj f (. . . , ui , . . . , uj , . . .)
i>j
Xn
= 0+ xi xj f (. . . , ui , . . . , uj , . . .)
i<j
n
X
− xi xj f (. . . , uj , . . . , ui , . . .)
i>j
n
X
= xi xj f (. . . , ui , . . . , uj , . . .)
i<j
Xn
− xj xi f (. . . , ui , . . . , uj , . . .)
j>i

= 0

Corolario 5.1.5. Si dimU = n, entonces dimAn (U ) = 1

Demostración. Sea {u1 , . . . , un } base de U , existe f ∈ An (U ) tal que f (u1 , . . . , un ) = 1.


Entonces para todo g ∈ An (U ), si g(u1 , . . . , un ) = a, se tiene también que af (u1 , . . . , un ) = a,
es decir, g = af . Por tanto {f } genera a An (U ).

104 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.1. DETERMINANTES

Corolario 5.1.6. Si {u1 , . . . , un } es una base de U y 0 6= f ∈ An (U ), entonces f (u1 , . . . , un ) 6=


0

Demostración. Por el teorema ∃ f0 ∈ An (U ) tal que f0 (u1 , . . . , un ) = 1. Por el corolario


anterior f = af0 (con a 6= 0), luego f (u1 , . . . , un ) = af0 (u1 , . . . , un ) = a 6= 0.

Toda transformación lineal T : U −→ V induce una transformación lineal T ∗ : Altn (V ) −→


Altn (U ) definida por
T ∗ (f ) : U × . . . × U −→ K

donde T ∗ (f )(v1 , . . . , vn ) = f (T (v1 ), . . . , T (vn )) (Pullback de f asociado a T )

Nota 5.1.1. U →T V .
U × ... × U V × ... × V
↓f
K

T ∗ (f )(u1 , . . . , un ) = f (T (u1 ), . . . , T (un ))

Ejercicio 5.1.1. Verificar que:

1. T ∗ f ∈ An (U )

2. (T + S)∗ = T ∗ + S ∗

3. (λT )∗ = λT ∗

4. (S ◦ T )∗ = T ∗ ◦ S ∗

5. I ∗ = I

6. Si T es isomorfismo, T ∗ también lo es. Además (T ∗ )−1 = (T −1 )∗

Recordar que estas son las propiedades de la transpuesta

Sea ahora T : U −→ U un endomorfismo. Como dimAn (U ) = 1, el operador lineal


A∗ : An (U ) −→ An (U ) consiste en la multiplicación por un escalar, que denominaremos
el DETERMINANTE del operador T : U −→ U y denotaremos por det(T ). Asi tenemos
que:
f (T v1 , . . . , T vn ) = (detT ) · f (v1 , . . . , vn )

∀f ∈ An (U ) y cualesquiera v1 , . . . vn ∈ U

Facultad De Ciencias (UNI) 105


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

Teorema 5.1.4. Si T , S : U −→ U son endomorfismos, entonces det(S ◦ T ) = detS · detT

Demostración. Sean {u1 , . . . , un } base de U y 0 6= f ∈ An (U ), luego f (u1 , . . . , un ) 6= 0.


Entonces:
det(S ◦ T ) · f (u1 , . . . , un ) = f (S ◦ T u1 , . . . , S ◦ T un )
= detS · f (T u1 , . . . , T un )
= detS · detT · f (u1 , . . . , un )
=⇒ det(S ◦ T ) = detS · detT

Teorema 5.1.5. El operador lineal T : U −→ U es inversible, si y solo si, det 6= 0. En caso


afirmativo, se tiene que det(T −1 ) = (detT )−1

Demostración. .

(−→): Si existe T −1 , entonces T ◦ T −1 = I, luego detT · det(T −1 ) = det(T ◦ T −1 ) =


detI = 1. Es decir, detT 6= 0 y det(T −1 ) = (detT )−1

(←−): Si detT 6= 0, entonces, fijando una base {u1 , . . . , un } ⊂ U y una forma n-lineal
no nula f : U × . . . × U −→ K, tenemos:

f (T u1 , . . . , T un ) = detT · f (u1 , . . . , un ) 6= 0

Luego, por un corolario anterior:

f (T u1 , . . . , T un ) es LI −→ es base de U

Entonces T es inversible, pues lleva bases en bases, es decir, es isomorfismo

Corolario 5.1.7. El sistema de ecuaciones lineales Ax = b, con A ∈ Kn×n (L(Kn , Kn )), posee
una única solución, si y solo si, detA 6= 0

Ahora pasemos a definir el determinante de una matriz cuadrada. Dada A ∈ MK (n, n), escribi-
remos de ahora en adelante A = [A1 : . . . : An ] (Ai : vectores columna de A). Sea T : Kn −→ Kn
el endomorfismo cuya matriz asociada a la base canónica de Kn sea A, es decir:

T e1 = A1 , . . . , T en = An

106 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.1. DETERMINANTES

Definiremos el determinante de la matriz A como el determinante de la transformación T . Así,


cuando f0 ∈ An (Kn ) es la forma n-lineal alternada tal que f0 (e1 , . . . , en ) = 1, entonces:

detA = detT = detT · f0 (e1 , . . . , en ) = f0 (T e1 , . . . , T en )

Es decir:
detA = f0 (A1 , . . . , An )

De lo anterior: det(A) = fo [A1 , · · · , An ] donde fo ∈ Altn (Kn ) es tal que fo (e1 , · · · , en ) = 1. Por
ende, det : M (n, n) → K es la única función n-lineal alternada de las columnas de la matriz
A = [A1 , · · · , An ] que toma el valor de 1 en la matriz identidad In

Por lo visto anteriormente, para cualquier forma n-lineal alternada f (A) = f (A1 , · · · , An ), se
tiene que f (A) = c · det(A), donde c = f (In ) = f (e1 , · · · , en ).

Por la definición de det(A) = det(A1 , · · · , An ) como una forma n-lineal alternada, tenemos
que:

1. det[· · · , vi + wi , · · · ] = det[. . . , vi , · · · ] + det[· · · , wi , · · · ].

2. det[· · · , λvi , · · · ] = λdet[· · · , vi , · · · ].

3. det[· · · , vi , · · · , vj , · · · ] = −det[· · · , vj , · · · , vi , · · · ].

4. det[e1 , · · · , en ] = det(In ) = 1. (Gracias a esto, se puede inducir).

5. det[· · · , vi +
P
j6=i λj vj , · · · ] = det[· · · , vi , · · · ]

(¡Ejercicio!)

Propiedad 5.1.1. El determinante de una matriz triangular es igual al producto de los ele-
mentos de su diagonal.

Demostración. Sea A = [aij ]n×n ∈ M (n, n). Escribimos A = [A1 , · · · , An ], tenemos:

A1 = a11 e1

A2 = a12 e1 + a22 e2

A3 = a13 e1 + a23 e2 + a33 e3


..
.

An = a1n e1 + a2n e2 + a3n e3 + · · · + ann en

Facultad De Ciencias (UNI) 107


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

Por tanto:
det(A) = det[a11 e1 , A2 , · · · , An ]
= a11 det[e1 , a12 e1 + a22 e2 , A3 , · · · An ]
= a11 det[e1 , a22 e2 , A3 , · · · An ]
= a11 a22 det[e1 , e2 , a13 e1 + a23 e2 + a33 e3 , · · · An ]
= a11 a22 a33 det[e1 , e2 , e3 , A4 , · · · An ]
De esta manera se tiene:
n
Y
det(A) = a11 a22 a33 · · · ann = aii
i=1

Proposición 5.1.1. (Regla de Cramer)


Sea A ∈ M (n, n) una matriz inversible. Dado b ∈ Kn , denotemos A[i, b] a la matriz que se
obtiene de sustituir a la i-ésima columna de A por b. La solución del sistema Ax = b de n
ecuaciones con n incógnitas es el vector x = (x1 , · · · , xn ) dada por:

det(A[i, b])
xi = ; i ∈ In
det(A)

Demostración. Si A = [A1 , · · · , An ], como Ax = b significa que b = x1 A1 + · · · + xn An . Luego:

det(A[i, b]) = det[A1 , · · · , b, · · · An ]

n
X
= xk det[A1 , · · · , Ak , · · · , An ]
k=1

= xi det[A1 , · · · , An ]

= xi det(A)
det(A[i, b])
∴ xi =
det(A)

Teorema 5.1.6. El determinante del operador lineal T : U → U es igual al determinante de


una matriz asociada a T en cualquier base de U .

Demostración. Sea A = [aij ] ∈ M (n, n) la matriz T en una base {µ1 , · · · , µn } base de U . Por
definición, det(T ) = det(To ), donde To : Kn → Kn es el operador cuya matriz asociada en la

108 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.1. DETERMINANTES

base canónica es A. Sea ϕ : U → Kn el isomorfismo que transforma la base {µ1 , · · · , µn } en la


base canónica de Kn . Para cada µj ∈ U , se tiene que:
n
X
T µj = aij µi , luego
i=1

n
X n
X
ϕ(T µj ) = aij ϕ(µi ) = aij ei
i=1 i=1

= To (ej ) = To (ϕ(µj ))

De esto ϕ o T = To o ϕ, es decir:
To = ϕ o T o ϕ−1

Por lo tanto, para cada f ∈ An (Kn ) se tiene:

det(A).f = T ∗ o f = (ϕ o T o ϕ−1 )∗ f

= (ϕ∗ )−1 o T ∗ o ϕ∗ · f

= (ϕ∗ )−1 .det(T ) o ϕ∗ f

= det(T )f

∴ det(A) = det(T )

5.1.2. Cálculo del determinante

Sea la forma fo ∈ An (Kn ) tal que fo (e1 , · · · , en ) = 1, luego fo (eσ(1) , · · · , eσ(n) ) = sign(σ), ∀
σ ∈ Sn (Grupo de permutaciones de n elementos). Dada la matriz A = [aij ]n×n = A[A1 : · · · :
An ], tenemos:
n
..
 
.
X
A1 = ai1 1 ei1  a11 e1 · · ·
i1 =1 ..
. · · ·
 
..  a21 e2
. A=
 .. ..

 . . · · ·

n
..
X  
An = ain 1 ein
an1 en . ···
in =1

Luego:
det(A) = fo (A1 , · · · , An )
n n
!
X X
= fo ai 1 e i 1 , · · · , ain ein
i1 =1 in =1

Facultad De Ciencias (UNI) 109


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

n
X
= ai1 1 . · · · .ain n .fo (ei1 , · · · , ein ) . . . (∗)
i1 ···in =1

En esta sumatoria se anulan los términos donde hayan repeticiones entre los índices i1 , . . . , in
quedando solamente aquellos en los que:

(i1 , i2 , . . . , in ) = (ρ(1), ρ(2), . . . , ρ(n))

Y si definimos σ = ρ−1 , tendríamos:

ai1 1 · ai2 2 · . . . · ain n = a1σ(1) · a2σ(2) · . . . · anσ(n)

No necesariamente akk = akσ(k) :

aρ(k)k = aqσ(q) , donde:

ρ:k→q

σ:q→k

Luego, reemplazamos en (*):


P
det(A) = σ∈Sn signσ a1σ(1) · . . . · anσ(n)

Ejemplo 5.1.1. Determinante de una matriz A = [aij ]3×3


      
 1 2 3 1 2 3 1 2 3
S3 = σ1 =   , σ2 =   , σ3 =  ,
 1 2 3 1 3 2 2 1 3
     
1 2 3 1 2 3 1 2 3 
σ4 =   , σ5 =   , σ6 =  
2 3 1 3 1 2 3 2 1 

X
det(A) = signσ a1σ(1) a2σ(2) a3σ(3)
σ∈S3

det(A) = signσ1 a11 a22 a33 + signσ2 a11 a23 a32


+signσ3 a12 a21 a33 + signσ4 a12 a23 a31
+signσ5 a13 a21 a32 + signσ6 a13 a22 a31
= +a11 a22 a33 − a11 a23 a32 − a12 a21 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31

110 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.1. DETERMINANTES

Ejercicio 5.1.2. Realizar este cálculo para una matriz A = [aij ]4×4 .

Notamos que también:


X
det(A) = signρ aρ(1) . . . aρ(n)n
ρ

Osea:

det(A) = det(AT )

Teorema 5.1.7. Sean B ∈ M (r, r), C ∈ M (r, n − r), D ∈ M (n − r, n − r) y 0 ∈ M (n − r, r)


matriz nula. Sea además:  
B C
A=  ∈ M (n, n)
0 D
Entonces:
det(A) = det(B) · det(D)

Demostración. Sea C una matriz fija arbitraria, definimos:


 
B C
fC (B, D) = det  
0 D

Es r-lineal alternada de las columnas de B y n − r-lineal alternada de las filas de D.


   
B C I C
det   = detB · fC  r 
0 D 0 D
| {z }
 
I C
= detB · detD · fC  r 
0 In−r
| {z }
1(P or ser triangular superior)

Observación 5.1.4. De esto se puede inducir, si:


 
B C D
 
A= 0 E F
0 0 G

Entonces:
det(A) = det(B)det(E)det(G)

Donde B, E, G son cuadradas.

Facultad De Ciencias (UNI) 111


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 4

Dado A = [aij ] ∈ M (n, n), denotaremos por Aij a la matriz (n − 1) × (n − 1) que resulta de
omitir la i-ésima fila y j-ésima columna.

Definición 5.1.3. El determinante de Aij es denominado como el ij-ésimo menor de A,


también denominada el menor relativo al elemento aij .

Cálculo del determinante

Si A = [e1 : A2 : . . . : An ] por el teorema anterior det(A) = det(A11 ), luego si A = [ei : A2 :


. . . : An ] entonces det(A) = (−1)i+1 det(Ai1 ). · · · (∗)

Luego, para A = [aij ] = [A1 : . . . : An ] con A1 = ai1 ei .


Pn
i=1
n
X
⇒ det(A) = ai1 · det[ei : A1 : . . . : An ]
i=1

Por (*):
n
X
det(A) = (−1)i+j ai1 det(Ai1 )
i=1
Ahora veamos el caso en general:
Si A = [A1 : . . . : Aj−1 : ei : Aj+1 : . . . : An ]

→ det(A) = (−1)j+i det(Aij )

Análogamente al paso anterior, si:

A = [A1 : . . . : Aj : . . . : An ]
Xn
Aj = aij ei
i=1
Entonces: n
X
det(A) = aij det[A1 : . . . : Aj−1 : ei : Aj+1 : . . . : An ]
i=1
Lo cual, por lo anterior:
n
X
det(A) = (−1)i+j aij det(Aij )
i=1
| {z }
Desarrollo del determinante de A según la j-ésima columna

Como det(A) = det(AT ), de manera análoga se tiene el desarrollo del determinante


respecto a la i-ésima fila:
n
X
det(A) = (−1)i+j aij det(Aij )
j=1

112 Latexeado por Adan S.L. y Jael L.G. (EPM)


5.2. ADJUNTA DE UNA MATRIZ

5.2. Adjunta de una matriz

De lo obtenido podemos decir:


n
X
(−1)j+k aik det(Ajk ) = det(A) · δij
j=1

Donde: 
 1, si i = j
δij =
 0, si i 6= j

Luego definimos la MATRIZ ADJUNTA (adj(A) ∈ Kn×n ) como:

(adj(A))ij = (−1)i+j det(Aji ), ∀i, j ∈ In

De esto:
A · adj(A) = (det(A))In

En caso A sea inversible:


1
A−1 = · adj(A)
det(A)

Facultad De Ciencias (UNI) 113


Capitulo N° 6

Unidad 5

114
6.1. ESPACIOS CON PRODUCTO INTERNO

6.1. Espacios con producto interno

A lo largo de este capítulo consideraremos a V como un R-espacio vectorial o como un C-


espacio vectorial.

Definición 6.1.1. Diremos que h, i : V × V −→ R es un PRODUCTO INTERNO si:

i) Bilinealidad: ∀ u, v, w ∈ V, ∀ λ ∈ R

hu, v + wi = hu, vi + hu, wi

hu, λvi = λhu, vi

ii) Simetría: ∀ u, v ∈ V

hu, vi = hv, ui

NOTA: Si V es un C-espacio vectorial hu, vi = hv, ui

iii) hv, vi ≥ 0, ∀ v ∈ V y hv, vi = 0 ↔ v = 0.

A (V, h, i) se le denomina espacio con producto interno

Ejemplo 6.1.1. .

1. (R, ·) : ha, bi = ab

2. (Rn , ·) : ha, bi =
P
ai b i

3. (Rn×n , h, i) : hA, Bi = T raza(AB T )


Z b
4. (C ([a, b]), h, i) = hf, gi =
o
f (x)g(x)dx
a

Definición 6.1.2. Sea (V, h, i) un espacio con producto interno, denominaremos la NORMA
como:
k.k : V −→ R
p
v −→ kvk = hv, vi

Nótese que un producto interno siempre induce a una norma, sin embargo, una norma no
necesariamente induce a un producto interno:

h , i −→ k k

h, i8kk

Facultad De Ciencias (UNI) 115


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

Propiedades 6.1.1. .

i) kvk ≥ 0 ∧ kvk = 0 ←→ v = 0

ii) kλvk = |λ| kvk, ∀ λ ∈ R, ∀ v ∈ V

Definición 6.1.3. Sea u, v ∈ V , definimos la distancia entre u y v como:

d(u, v) = ku − vk

Definición 6.1.4. Sean u, v ∈ V , el ángulo entre u y v es el número θ ∈ [0, 2π] tal que:
hu, vi
cos θ =
kukkvk

Proposición 6.1.1. (Desigualdad de Cauchy-Schwartz)

|hu, vi| ≤ kukkvk ∧ |hu, vi| = kukkvk , si y solo si, {u, v} son LD

Demostración. .

i) Sea λ ∈ R : ku + λvk2 ≥ 0
hu + λv, u + λvi ≥ 0

kuk2 + 2λhu, vi + λ2 kvk2 ≥ 0

Considerando p(λ) = kvk2 λ2 + 2hu, viλ + kuk2 como p(λ) ≥ 0 −→ ∆(p) ≤ 0 Luego:

∆(p) = 4hu, vi2 − 4kuk2 kvk2 ≤ 0

=⇒ |hu, vi| ≤ kukkvk

ii) Afirmación: |hu, vi| = kukkvk ←→ u es paralelo a v

• (−→) Consideremos:

p(λ) = kvk2 λ2 + 2hu, viλ + kuk2

116 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.1. ESPACIOS CON PRODUCTO INTERNO

Si |hu, vi| = kukkvk −→ ∆ = 0, entonces p(λ) solo posee una raíz λ0

p(λ0 ) = 0 = ku + λ0 k2 =⇒ u = −λ0 v

Es decir, u es paralelo a v

• (←−) Si u y v son paralelos, ∃ λ ∈ R tal que u = λv

|hu, vi| = |hλv, vi|


= |λ|hv, vi = |λ|kvk2
= |λ|kvkkvk = kukkvk

Corolario 6.1.1. (Desigualdad triangular)

ku + vk ≤ kuk + kvk

Demostración.
ku + vk2 = kuk2 + 2hu, vi + kvk2

ku + vk2 ≤ kuk2 + kvk2 + 2kukkvk

ku + vk2 ≤ (kuk + kvk)2

=⇒ ku + vk ≤ kuk + kvk

Corolario 6.1.2. (Desigualdad triangular para distancias)

d(u, w) ≤ d(u, v) + d(v, w) , ∀ u, v, w ∈ V

Definición 6.1.5. Sea (V, h, i) un espacio con producto interno, diremos que u es ortogonal a
v (u ⊥ v) si
hu, vi = 0

Teorema 6.1.1. (Teorema de Pitágoras) Si u ⊥ v : ku + vk2 = kuk2 + kvk2

Proposición 6.1.2. (Ley del paralelogramo) Ejercicio:

ku + vk2 + ku − vk2
= kuk2 + kvk2
2
Facultad De Ciencias (UNI) 117
Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

Observemos lo siguiente:

Sea x = (a, b, c) −→ x = ae1 + be2 + ce3 . Luego:

hx, e1 i = ahe1 , e1 i + bhe2 , e1 i + che3 , e1 i = a


hx, e2 i = ahe1 , e2 i + bhe2 , e2 i + che3 , e2 i = b
hx, e3 i = ahe1 , e3 i + bhe2 , e3 i + che3 , e3 i = c

=⇒ x = hx, e1 ie1 + hx, e2 ie2 + hx, e3 ie3 (en la base ortonormal)

Definición 6.1.6. Sea B ⊂ V una base, diremos que B es ortonormal si:

i) hu, vi = 0 , ∀ u, v ∈ B con u 6= v

ii) kuk = 1 , ∀ u ∈ B

Observación 6.1.1. Si B = {u1 , . . . , un } es una base ortonormal. Sea x ∈ V :


n
X
x= λk uk ; λ ∈ R, k ∈ In
k=1

n
X n
X
−→ hx, ui i = h λk uk , ui i = hλk uk , ui i
k=1 k=1

Pero: 
6 i
 0 ,k =
huk , ui i = (Delta de Dirac o Delta de Kromecker: δki )
 1 ,k = i

hx, ui i = λi hui , ui i = λi
n
X
=⇒ x = hx, uk iuk
k=1

118 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.1. ESPACIOS CON PRODUCTO INTERNO

¿Para todo V de dimensión finita, existe una base ortonormal?

hu, vi
w1 = v
kvk2

hu, w1 i
w2 = u − w1
hw1 , w1 i
 
w1 w2
(w1 ⊥ w2 ) La base ortonormal sería ,
kw1 k kw2 k
Sean {a, b, c} L.I.

x = αw1 + βw2

w1 ,w2 ortogonales y x ∈ L {w1 , w2 } = L {a, b}

Sea w3 = c − x con w3 ⊥ w1 , w3 ⊥ w2

hc − x, w1 i = hc, w1 i − hx, w1 i = 0

Facultad De Ciencias (UNI) 119


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

Es decir:
hc, w1 i − hαw1 + βw2 , w1 i = 0

Desarrollando hc, w1 i − αhw1 , w1 i = 0


hc, w1 i
α=
hw1 , w1 i
Análogamente
hc, w2 i
β=
hw2 , w2 i
Entonces:
hc, w1 i hc, w2 i
x= w1 + w2
hw1 , w1 i hw2 , w2 i
hc, w1 i hc, w2 i
w3 = c − w1 − w2
hw1 , w1 i hw2 , w2 i
Luego {w1 , w2 , w3 } son ortogonales dos a dos
 
w1 w2 w3
, , es base ortonormal
kw1 k kw2 k kw3 k

6.1.1. Proceso de Ortogonalización de Gram-Schmidt

El objetivo de este algoritmo es: Sea V un espacio con producto interno finito dimensional y
{v1 , . . . , vn } una base, se busca conseguir una base {w1 , . . . , wn } tal que:

i) w1 , . . . , wn son ortogonales dos a dos

ii) L {v1 , . . . , vn } = L {w1 , . . . , wn }

Tenemos {v1 , . . . , vn } base de V hacemos w1 = v1 . Si tenemos construidos {w1 , . . . , wk } tales


que cumplen (i) y (ii). Construiremos wk+1 :
k
X hvk+1 , wi i
wk+1 = vk+1 − wi
i=1
hwi , wi i

Probemos que cumplen (i) y (ii), 1 ≤ j ≤ k


k k
X hvk+1 , wj i X hvk+1 , wi i
i) hwk+1 , wj i = hvk+1 − wi , wi i = hvk+1 , wj i − h wi , wj i
i=1
hwi , wi i i=1
hwi , wi i
k
X hvk+1 , wi i hvk+1 , wj i
hwk+1 , wj i = hvk+1 , wj i − hwi , wj i = hvk+1 , wj i − hwj , wj i
i=1
hwi , wi i hwj , wj i

hwk+1 , wj i = 0

120 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.1. ESPACIOS CON PRODUCTO INTERNO

Se cumple (i)

ii) Afirmación: L {v1 , . . . , vk+1 } = L {w1 , . . . , wk+1 }

• (⊂): Sea vi , 1 ≤ i ≤ k + 1 Como L {v1 , . . . , vk } = L {w1 , . . . , wk }.

 Si i ∈ Ik : v ∈ L {w1 , . . . , wk } = L {w1 , . . . , wk+1 }

 Si i = k + 1:
k
X hvk+1 , wi i
vk+1 = wk+1 + wj ∈ L {w1 , . . . , wk+1 }
j=1
hwj , wj i

• (⊃): Sea wi , 1 ≤ i ≤ k + 1

 Si i ∈ Ik : Como L {w1 , . . . , wk } = L {v1 , . . . , vk }:

wi ∈ L {v1 , . . . , wk } ⊂ L {v1 , . . . , vk+1 }

 Si i = k + 1:
k
X hvk+1 , wj i
wk+1 = vk+1 − wj
j=1
hwj , wj i

Como L {w1 , . . . , wk } = L {v1 , . . . , vk }

wj ∈ L {v1 , . . . , vk } ⊂ L {v1 , . . . , vk+1 }

=⇒ wk+1 ∈ L {v1 , . . . , vk+1 }

6.1.2. Distancia de un vector a un subespacio

Sea V un espacio con producto interno y S ⊂ V un subespacio de dimensión finita. Aplicando


el proceso de Gran-Schmidt y normalizando, obtenemos una base ortonormal de S, digamos
{u1 , . . . , uk }. Definimos la proyección del vector x en el subespacio S:

PS : V −→ V
k
X hx, ui i
x −→ PS (x) = ui
i=1
hui , ui i

Propiedades 6.1.2. .

1) PS (x) ∈ S , ∀ x ∈ V

Facultad De Ciencias (UNI) 121


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

2) x − PS (x) ⊥ S , ∀ x ∈ V

3) PS (x + y) = PS (x) + PS (y) PS (λx) = λPS (x) ; ∀ λ ∈ R , ∀ x, y ∈ V

Demostración. (Ejercicio)

Proposición 6.1.3. (Teorema de la proyección) Sea x ∈ V :

i) d(x, PS (x)) ≤ d(x, y) , ∀ y ∈ S

ii) Si v ∈ S cumple que: d(x, PS (x)) = d(x, v)

=⇒ v = PS (x)

Demostración. .

i) Sea y ∈ S: [d(x, y)]2 = kx − yk2

[d(x, y)]2 = k x − PS (x) + PS (x) − y k2


| {z } | {z }
⊥S ∈S
= kx − PS (x)k + kPS (x) − yk2
2

≥ kx − PS (x)k2 = [d(x, PS (x))]2

∴ d(x, y) ≥ d(x, PS (x))

ii) Sea y ∈ S tal que: d(x, PS (x)) = d(x, y)

=⇒ [d(x, y)]2 = kx − PS (x)k2 + kPS (x) − yk2


[d(x, y)]2 = [d(x, PS (x))]2 + [d(PS (x), y)]2
=⇒ 0 = d(PS (x), y)

∴ y = PS (x)

Definición 6.1.7. Sea x ∈ V , la distancia del vector x al subespacio S es:

d(x, S) = kx − PS (x)k
= d(x, PS (x))

Propiedad 6.1.1.
d(x, S) = inf {d(x, y)/y ∈ S}

122 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.2. ISOMETRÍAS LINEALES

Demostración. (Ejercicio: Usar la proposición anterior)

Nota 6.1.1. Tener en cuenta que se denomina espacio vectorial euclideo al espacio vectorial
con producto interno.

6.2. Isometrías Lineales

Primero, hay que tener en cuenta lo siguiente:

V es un espacio vectorial euclídeo ≡ V tiene producto interno

Sea V un espacio vectorial euclídeo (R-espacio vectorial con producto interno).

Definición 6.2.1. Una aplicación f : V → V se dice que es una TRANSFORMACIÓN


ORTOGONAL o ISOMETRÍA LINEAL si preserva el producto escalar(interno), esto
es:
hf (x), f (y)i = hx, yi, ∀x, y ∈ V

Proposición 6.2.1. Si f : V → V es una isometría lineal, entonecs es una aplicación lineal.

Proposición 6.2.2. La aplicación lineal f : V → V es isometría lineal si y solo si kf (x)k =


kxk, ∀x ∈ V .

Demostración. .

(→): Supongamos que f es isometría lineal. Entonces:


p p
kf (x)k = hf (x), f (x)i = hx, xi = kxk

(←): Supongamos ahora que kf (x)k = kxk, ∀x ∈ V

Veamos que f es isometría lineal. Se tiene:

kx − yk = kf (x − y)k

Luego:
hx − y, x − yi = hf (x − y), f (x − y)i

hx − y, x − yi = hf (x) − f (y), f (x) − f (y)i

Facultad De Ciencias (UNI) 123


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

hx − y, x − yi = hf (x), f (x)i − hf (x), f (y)i − hf (y), f (x)i + hf (y), f (y)i

hx − y, x − yi = hf (x), f (x)i − 2hf (x), f (y)i + hf (y), f (y)i . . . (1)

Además:
hx − y, x − yi = hx, xi − 2hx, yi + hy, yi

hx − y, x − yi = kxk2 − 2hx, yi + kyk2

hx − y, x − yi = kf (x)k2 − 2hx, yi + kf (y)k2

hx − y, x − yi = hf (x), f (x)i − 2hx, yi + hf (y), f (y)i . . . (2)

De (1) y (2) se tiene:


hf (x), f (y)i = hx, yi

Proposición 6.2.3. Sea A la matriz asociada a un endomorfismo f en una base ortonormal.


Entonces:
f es isometría lineal ⇔ A es matriz ortogonal
| {z }
AAT =I

Demostración. Afirmación: hx, Ayi = hAT x, yi (¡Ejercicio!).


Luego:

f es isometría lineal ↔ hf (x), f (y)i = hx, yi


↔ hAx, Ayi = hx, yi
↔ hAAT x, yi = hx, yi
↔ hAAT x − x, yi = 0
↔ AT Ax − x = 0
↔ AT Ax = x
↔ AT A = In

(Prueba simplificada)

124 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.3. TEOREMA DE REPRESENTACIÓN DE RIESZ

6.3. Teorema de Representación de Riesz

Introducción: Sea V un espacio vectorial con producto interno. Si w ∈ V , entonces:

Tw : V −→ R
v −→ Tw (v) = hv, wi
Es funcional lineal.

Teorema 6.3.1. (Representación de Riesz)


Dado V un espacio vectorial de dimensión finita con producto interno. Si T : V → R funcional
lineal, entonces ∃!w ∈ V , tal que:
T (v) = hv, wi

Demostración. .

Existencia: Queremos encontrar w ∈ V tal que:

T (v) = hv, wi, ∀v ∈ V

En particular, si {v1 , . . . , vn } base ortonormal de V , queremos que:

T (vk ) = hvk , wi, ∀k ∈ In

Entonces tenemos que:


T (vk ) = hw, vk i

Luego:
w = hw, v1 iv1 + . . . + hw, vn ivn

⇒ w = T (v1 )v1 + . . . + T (vn )vn

Es el w que hace:
T (v) = hv, wi, ∀v ∈ V ¡Verificar!

Unicidad: Sean w1 , w2 ∈ V , tales que:

T (v) = hv, w1 i = hv, w2 i, ∀v ∈ V

Entonces:
hv, w1 − w2 i = 0, ∀v ∈ V

⇒ w1 − w2 = 0

∴ w1 = w2

Facultad De Ciencias (UNI) 125


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 5

Ejemplo 6.3.1. Sea T : R3 → R tal que:

T (x, y, z) = 4x − z

Vamos a determinar w (representante de Riesz) tomamos la base canónica y tenemos:



w1 = T (e1 ) = 4  

w2 = T (e2 ) = 0 w = (4, 0, −1)


w3 = T (e3 ) = −1

∴ T (x, y, z) = h(x, y, z), (4, 0, −1)i

Nota 6.3.1. Ver numeración

6.3.1. Subespacios Ortogonales

1. Diremos que x ∈ U es ortogonal al subespacio V ⊂ U , si x es ortogonal a todo vector


v ∈V.

2. Dos subespacios V y W de U (espacio con producto interno) con bases {v1 , . . . , vk } y


{w1 , . . . , wp } respectivamente, son ortogonales, si:

hvi , wj i = 0, ∀i ∈ Ik , j ∈ Ip

Observación 6.3.1. Osea x ∈ U es ortogonal al subespacio V si x es ortogonal a todo vector


perteneciente a una base de V .

Definición 6.3.1. El conjunto de todos los vectores ortogonales a V ⊂ U , se denomina


complemento ortogonal de V .
Notación: V ⊥

Proposición 6.3.1. .

1. W ⊥ es un subespacio de U

2. (W ⊥ )⊥ = W

3. W ⊕ W ⊥ = U

Demostración. (¡Ejercicio!)

126 Latexeado por Adan S.L. y Jael L.G. (EPM)


6.3. TEOREMA DE REPRESENTACIÓN DE RIESZ

6.3.2. Otra forma de encontrar el representante de Riesz

Sea T : V → R funcional lineal:

V = N u(T ) ⊕ N u(T )⊥

Luego, si v ∈ V : ∃!v0 ∈ N u(T ), v⊥ ∈ N u(T )⊥ :

v = v0 + v⊥

Entonces T (v) = T (v⊥ ), ahora por el teorema del núcleo e imagen:

dim(N u(T )) = dim(V ) − dim(Im(T ))

= n − 1 (a menos que T = 0)

⇒ dim(N u(T )⊥ ) = 1
Tomamos e vector ortonormal en N u(T )⊥ , luego:

v⊥ = hv, eie, ∀v ∈ V

⇒ T (v) = T (v⊥ ) = hv, eiT (e)

⇒ T (v) = hv, T (e)ei

Ejemplo 6.3.2. Volvamos a considerar T : R3 → R, tal que: T (x, y, z) = 4x − z.

⇒ N u(T ) = {(x, y, z) ∈ R3 : 4x − z = 0}(plano)

N u(T )⊥ = L {(4, 0, −1)}(normal al plano)


1
e = √ (4, 0, −1)
17
T (x, y, z) = h(x, y, z), T (e)ei

Notar que: T (e)e = √17


17
· √1 (4, 0, −1)
17

⇒ T (e)e = (4, 0, −1)

∴ T (x, y, z) = h(x, y, z), (4, 0, −1)i

Facultad De Ciencias (UNI) 127


Capitulo N° 7

Unidad 6

128
7.1. DIAGONALIZACIÓN

7.1. Diagonalización

Si T : V → V lineal y tiene asociadas A = [T ]B2 , B = [T ]B1 , entonces A = PB1 B2 BPB2 B1 ,


osea A ∼ B (semejanza).
J

Definición 7.1.1. Una matriz A ∈ Kn×n se llama DIAGONALIZABLE si existe una


matriz inversible C ∈ Kn×n tal que CAC −1 es una matriz diagonal.

Observación 7.1.1. Una matriz es diagonalizable si esta es semejante a una matriz diagonal.

Definición 7.1.2. Sea V un K-espacio vectorial de dimensión finita, y sea T : V −→ V una


transformación lineal. Se dice que T es diagonalizable o diagonal si existe una base B de V
tal que la matriz asociada a T en dicha base B ([T ]B ) es una matriz diagonal.

Observación 7.1.2. T es diagonalizable, si y solo si, [TB ] es diagonalizable para toda base B
de V .

Definición 7.1.3. Sea V un K-espacio vectorial, y sea T : V −→ V una transformación


lineal. Se dice que v ∈ V \{0} es un AUTOVECTOR (o VECTOR PROPIO) de T si
existe λ ∈ K tal que T (v) = λv. El elemento λ ∈ K se denomina AUTOVALOR (o VALOR
PROPIO) de T .

Ejemplo 7.1.1. T : R3 −→ R3 , T (x, y, z) = (2x, −y + z, 4z − x).

T (6, 1, 3) = (2 · 6, −1 + 3, 4 · 3 − 6) = 2(6, 1, 3)
(6, 1, 3) es autovector de T con autovalor 2

Proposición 7.1.1. Sea V un K-espacio vectorial de dimensión n y sea T : V −→ V trans-


formación lineal. Entonces T es diagonalizable, si y solo si, existe una base B de V formada
por autovectores de T .

Demostración. (¡Ejercicio!)

Definición 7.1.4. Sea A ∈ Kn×n , diremos que v ∈ Kn×1 \{0} es un AUTOVECTOR de A


si existe λ ∈ K tal que Av = λv. El elemento λ ∈ K se denomina AUTOVALOR de A.

Facultad De Ciencias (UNI) 129


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Proposición 7.1.2. Sea A ∈ Kn×n , entonces A es diagonalizable, si y solo si, existe una base
B de Kn×1 formada por autovectores de A.

Demostración. (¡Ejercicio!) Análoga a la proposición anterior

Ejemplo 7.1.2. .

1. Ver si A = ∈ R2×2 es diagonalizable. Por la proposición, basta buscar los autovec-


2 3

2 1

tores de A, o sea, los vectores x = (x1 , x2 ) ∈ R2 tal que (x1 , x2 ) 6= (0, 0) y:


   
x1 λx1
A  =   , para algún λ ∈ R
x2 λx2

Buscaremos los λ que satisfacen:

Ax = λx , para x 6= (0, 0)T

Es decir, (A − λI)x = 0
    
2−λ 3 x 0
   1 =  
2 1−λ x2 0

Recordemos que un sistema lineal homogéneo tiene solución no trivial, si y solo si, el
determinante de su matriz de coeficientes es cero. O sea, si λ2 −3λ−4 = 0, los autovalores
de A son λ1 = −1 y λ2 = 4

• Para λ = −1:
    
3 3 x 0
   1  =   =⇒ C.S.1 : L {(1, −1)}
2 2 x2 0

Es decir, los autovectores asociados a λ = −1 son:

L {(1, −1)} − {(0, 0)}

• Para λ = 4:
    
−2 3 x 0
   1  =   =⇒ C.S.2 : L {(3, 2)}
2 −3 x2 0

130 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.1. DIAGONALIZACIÓN

Luego A es diagonalizable, puesto que B = {(1, −1), (3, 2)} es una base de R2
formada por autovectores de A. Es más, si P = [PεB ] (matriz que cambia de base,
de la base canónica en la base B), se tiene que:
 
−1 0
P AP −1 =  
0 4

 
3 0 0
2. Ver si A = 1 3 0 es diagonalizable. Así como el anterior, procedemos a resolver
0 0 3
(A − λI)x = 0, luego el sistema homogéneo tendrá solución no trivial si det(A −
λI) = 0. O sea, si (λ − 3)3 = 0, es decir, λ = 3 es el único autovalor de A.

Si A fuese diagonalizable, ∃ C ∈ GL(3, R) (grupo lineal) tal que:


 
3 0 0
CAC −1 = 
 
 0 3 0

0 0 3

Pero esto se da, si y solo si, A = 3I. Por tanto A no es diagonalizable.

7.1.1. Polinomio característico

Sea A ∈ Kn×n y sea λ ∈ K. Se tiene que:

λ es autovalor de A ⇐⇒ ∃ x ∈ Kn×1 − {0}/Ax = λx


⇐⇒ Ax = λx tiene solución no trivial
⇐⇒ (A − λI)x = 0 tiene solución no trivial
⇐⇒ det(A − λI) = 0

Definición 7.1.5. Sea A ∈ Kn×n , se denomina POLINOMIO CARACTERÍSTICO de


A, y se denota XA , al polinomio XA = det(A − xIn ) ∈ K[x]

Proposición 7.1.3. Sean A ∈ Kn×n y sea λ ∈ K. Entonces λ es autovalor de A, si y solo si,


λ es raíz del polinomio característico de A.

Ejemplo 7.1.3. . Decidir si A = −1 es diagonalizable en Q2×2 , R2×2 , C2×2 . Los auto-


0 1

0

valores de A son las raíces del polinomio:


 
−x 1
XA = det   = x2 + 1
−1 −x

Facultad De Ciencias (UNI) 131


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Este polinomio tiene raíces i y −i, luego A no será diagonalizable ni en Q2×2 ni en R2×2 .
En C2×2 , los autovectores asociados son L {(1, i)}\{(0, 0)} y L {(−1, i)}\{(0, 0)}. Como B =
{(1, i), (−1, i)} es una base de C2 formada por autovectores de A, entonces A es diagonalizable
en C2×2

Proposición 7.1.4. Sea A ∈ Kn×n y sea C ∈ GL(n, K) (grupo lineal). Entonces XCAC −1 = XA

Demostración. Se tiene que:

XCAC −1 = det(CAC −1 − xI)


= det(CAC −1 − CxIn C −1 )
= det(C(A − xIn )C −1 )
= det(A − xIn ) = XA

Definición 7.1.6. Sea V un K-espacio vectorial de dimensión finita y sea T : V −→ V una


transformación lineal. Se define el polinomio característico de T como XT = X[T ]B , donde B
es una base cualquiera de V .

Observación 7.1.3. Sea V un K-espacio vectorial de dimensión finita y sea T : V −→ V una


transformación lineal y sea λ ∈ K. Entonces λ es un autovalor de T , si y solo si, λ es raíz de
XT

7.1.2. Una caracterización de matrices diagonalizables

En primer lugar, ampliaremos nuestro concepto de suma directa.

Definición 7.1.7. Sea V un K-espacio vectorial y sean S1 , . . . , Sr subespacios de V . Se dice


que S1 , . . . , Sr estan en suma directa si para cada w ∈ W = S1 + . . . + Sr , existe únicos
wi ∈ Si , i ∈ Ir tal que w = w1 + . . . + wr . En este caso diremos que W es la suma directa de
los subespacios S1 , . . . , Sr y se denota:
r
M
W = S1 ⊕ . . . ⊕ Sr = Si
i=1

Proposición 7.1.5. Sea V un K-espacio vectorial y sean S1 , . . . , Sr ⊂ V subespacios de W .


Son equivalentes:

132 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.1. DIAGONALIZACIÓN

r
M
W = Si
i=1

W = S1 + . . . + Sr y para cada j ∈ Ir se tiene Sj ∩ (S1 + . . . + Sj−1 + Sj+1 + . . . + Sr ) = {0}

Demostración. (Ejercicio)

Proposición 7.1.6. Sea V un K-espacio vectorial y sean S1 , . . . , Sr subespacios de V . Para


cada i ∈ Ir , sea Bi una base de Si . Son equivalentes:
r
M
i) W = Si
i=1

ii) B = B1 ∪ . . . ∪ Br es una base de W

Demostración. (Ejercicio)

Definición 7.1.8. Sea A ∈ Kn×n y sea λ un autovalor de A, se define el espacio de auto-


vectores como:

Eλ = {v ∈ Kn×1 : Av = λv} = {v ∈ Kn×1 : (A − λIn )v = 0}

Observación 7.1.4. Eλ es subespacio de Kn×1 , pues es el C.S. de un sistema homogéneo.

Proposición 7.1.7. Sea A ∈ Kn×n y sean λ1 , . . . , λr autovalores distintos de A. Entonces


Eλ1 , . . . , Eλr están en suma directa.

Demostración. Por inducción sobre la cantidad r de autovalores:

(r = 2): Sean λ1 y λ2 autovalores distintos de A. Si v ∈ Eλ1 ∩ Eλ2 , tenemos que:

Av = λ1 v = λ2 v −→ (λ1 − λ2 )v = 0

Como λ1 − λ2 6= 0, entonces v = 0. Luego Eλ1 ∩ Eλ2 = {0}, es decir, la suma es directa.

Supongamos que el resultado vale para r autovalores distintos y sean λ1 , . . . , λr , λr+1


autovalores distintos de A.
r+1
M
Probar de que: ∀ i ∈ Ir+1 , Eλi ∩ Eλj = {0}
j=1,j6=i

Facultad De Ciencias (UNI) 133


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

r
M
Sin pérdida de generalidad supongamos que i = r + 1. Sea v ∈ Eλr+1 ∩ Eλj . Entonces,
j=1
∃ vj ∈ Ej (j ∈ Ir ) tales que:

v = v1 + . . . + vr . . . (*)

Multiplicando (*) por A:


λr+1 v = λ1 v1 + . . . + λr vr

Pero si multiplicamos (*) por λr+1 :

λr+1 v = λr+1 v1 + . . . + λr+1 vr

Luego:
λr+1 v = λ1 v1 + . . . + λr vr = λr+1 v1 + . . . + λr+1 vr

0 = (λ1 − λr+1 )v1 + . . . + (λr − λr+1 )vr

Por hipótesis inductiva, los subespacios Eλj , j ∈ Ir están en suma directa, el vector nulo
se escribe de forma única como suma de ceros. Luego, (λj − λr+1 )vj = 0, para cada
j ∈ Ir . Por tanto: vj = 0, ∀ j ∈ Ir

Luego: v = 0

Proposición 7.1.8. Sea A ∈ Kn×n y sea λ ∈ K. Sea r la multiplicidad de λ como raíz de XA


(es decir, XA = (x − λ)r P (λ) con P (λ) 6= 0) y sea Eλ = {x ∈ Kn×1 : Ax = λx}. Entonces
dim(Eλ ) ≤ r
|{z} .
| {z }
mult geométrica mult algebraica

Demostración. Sea TA : Kn×1 → Kn×1 la trasformación lineal definida por TA (x) = Ax. Sea
s = dim(Eλ ) y sea {v1 , . . . , vs } una base de Eλ . Sean vs+1 , . . . , vn ∈ Kn×1 tales que:

B = {v1 , . . . , vs , vs+1 , . . . , vn } una base de Kn×1

Se tiene que:  
λ0 ··· 0
 0 ... ...
 .. 
. 
N 
 
 . .
. .. ...
 .
[TA ]B =  0 

 
 0 ··· 0 λ 
 
O M

134 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.1. DIAGONALIZACIÓN

Donde:
 
λ0 ··· 0
 .
0 . . . . . .. 
.
. .  es de orden s × s
 
 .. . . . . . 0
 
0 ··· 0 λ

De donde:  
λ−x 0 ··· 0
 ... ... .. 
 0 . 
N
 
 .. ... ... 
XTA = det 
 . 0 

 

 0 ··· 0 λ−x 

O M − xIn−s

XTA = (λ − x)s det(M − xIn−s )

XTA = (x − λ)s Q(x)

Por hipótesis, XA = (x − λ)r P (x) con P ∈ K[x] tal que P (λ) 6= 0 ⇒ (x − λ)s Q(x) = XTA =
XA = (x − λ)r P (x) con P (λ) 6= 0 de donde s ≤ r, ie: dim(Eλ ) ≤ mult(λ, XA )

Teorema 7.1.1. Sea A ∈ Kn×n y sean λ1 , . . . , λr todos los autovalores de A en K, con λi 6= λj ,


si i 6= j. Son equivalentes:

i) A es diagonalizable en Kn×n .
r
M
ii) Eλi = Kn×1 .
i=1

iii) XA = (x − λ1 )a1 · · · (x − λr )ar y ai = dim(Eλi ), ∀i ∈ Ir .

Demostración. .

i) → ii) : Si A es diagonizable en Kn×n , existe una base B = {v1 , . . . , vn } de Kn×1


formada por autovectores de A. Para cada vj ∈ B, existe i ∈ Ir tal que vj es autovector
de A de autovalor λi (pues λ1 , . . . , λr son todos los autovalores de A) es decir vj ∈ Eλi
M r
para algún i ∈ Ir lo que implica que vj ∈ Eλi .
i=1
r
M
En consecuencia: Kn = L {v1 , . . . , vn } = Eλi
i=1

Facultad De Ciencias (UNI) 135


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

ii) → iii) : Por la proposición anterior, para cada i ∈ Ir , dim(Eλi ) ≤ mult(λi , XA ). Si


M r
K n×1
= Eλi , se tiene que:
i=1

r
X r
X
n×1
n = dim(K )= dim(Eλj ) ≤ mult(λi , XA ) ≤ gr(XA ) = n
i=1 i=1

Osea todas son igualdades. En particular:

• De mult(λi , XA ) = gr(XA ), se tiene que XA se puede factorizar como un


Pr
i=1

producto de factores en K[x] de grado 1, si ai = mult(λi , XA ), i ∈ Ir , entonces:

XA = (x − λ1 )a1 · . . . · (x − λr )r

• Como dim(Eλi ) ≤ mult(λi , XA ), para i ∈ Ir . De la igualdad


Pr
i=1 dim(Eλi ) =

i=1 mult(λi , XA ), i ∈ Ir . Se tiene que: dim(Eλi ) = mult(λi , XA )


PXA

r
[
iii) → i) Para cada i ∈ Ir , sea Bi una base de Eλi . Recordemos que B = Bi es una
i=1
r
M
base de Eλi ⊂ Kn×1 . Ahora:
i=1

r
X r
X r
X
#B = #Bi = dim(Eλi ) = ai = gr(XA ) = n
i=1 i=1 i=1

Mr r
M
De donde dim( Eλi ) = dim(K ). Luego
n×1
Eλi = Kn×1 y entonces B es una base
i=1 i=1
(formada por autovectores de A) de Kn×1 . Por tanto A es diagonizable.

 
1 0 0 1
 
1 1 0 −1
Ejemplo 7.1.4. Verificar si A =   ∈ R4×4 es diagonalizable. Calculemos
 
0 0 1 1 
 
0 0 0 2
XA = (x − 1) (x − 2). Para el autovalor 1 se tiene que:
3

E1 = {x ∈ R4 : (A − I4 )x = 0} = L {(0, 1, 0, 0), (0, 0, 1, 0)}

De donde dim(E1 ) = 2 < 3 = mult(1, XA ). Luego A no es diagonalizable

136 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

7.2. Polinomios Minimales

7.2.1. Nociones Previas

Sea P ∈ K[x], P (x) = a0 + a1 x + · · · + ar xr . Dado A ∈ Kn×n definimos:

P (A) = a0 In + a1 A + . . . + ar Ar

Análogamente, si V es un K-espacio vectorial de dimensión finita y T : V → V transformación


lineal, definimos:
P (T ) = a0 Idv + a1 T + . . . + ar T r ∈ LK (V, V )

Donde:
Para cada k ∈ N, T k = T . . ◦ T} es la composición k veces.
| ◦ .{z
k veces

Lema 7.2.1. Sea A ∈ Kn×n . Existe un polinomio P ∈ K[x0 ] no nulo tal que: P (A) = 0

Demostración. Consideremos {In , A, . . . , An } ⊂ Kn×n . Este conjunto es L.D., luego existen


2

escalares a0 , . . . , an2 no todos nulos tales que:

n 2
X
ai Ai = 0, de esto definimos:
i=0

n 2
X
P ∈ K[x], tal que P (x) = ai xi , entonces P =
6 0 y P (A) = 0.
i=0

Observación 7.2.1. Para cada matriz, distinguimos un polinomio de grado mínimo y mónico
que se anula en A. Veamos que este es único.

Existencia: Por el PBD(principio de buen orden) sobre el conjunto de grados (grado


mínimo: r).

Unicidad: Si hay Q y Q0 mónicos que se anulan en A. Entonces (Q0 − Q)(A) = 0 y


gr(Q0 − Q) < r(→←)

Facultad De Ciencias (UNI) 137


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

7.2.2. Polinomio Minimal de una Matriz

Definición 7.2.1. Sea A ∈ Kn×n . Llamaremos polinomio minimal de A, denotado por mA ,


al polinomio mónico de grado mínimo que anula a A.
 
−1 0
Ejemplo 7.2.1. Sea A =  . Calcular mA
1 −1

Solución 7.2.1. Como {I2 , A} es L.I., no existe P ∈ R[x] tal que gr(P ) = 1 y P (A) = 0.
Buscamos P = x2 + ax + b que anule a A.
     
1 0 −1 0 1 0
A2 + aA + b = 0 ⇔   + a  + b =0
−2 1 1 −1 0 1

1−a+b=0
⇐⇒ ⇐⇒ a = 2, b = 1
−2 + a = 0
Luego:
mA = x2 + 2x + 1 Observamos que mA = XA

Proposición 7.2.1. Sea A ∈ Kn×n y sea P ∈ K[x]. Entonces P (A) = 0 si y solo si mA divide
a P.

Demostración.
(←)

Es directo (¡Ejercicio!).
(→)

Por el algoritmo de la división, se tiene que:

P = QmA + R , con R ≡ 0 ∨ gr(R) < gr(mA )

Luego 0 = P (A) = Q(A)·mA (A)+R(A) = R(A) y como mA es el polinomio de grado mínimo,


no puede ser que gr(R) < gr(mA ), por lo tanto, R ≡ 0.

Observación 7.2.2. Es facil verificar que si A = CBC −1 entonces Ak = CB k C −1 ; k ∈


N; A, B ∈ Kn×n , C ∈ GL(n, K).

138 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

Lema 7.2.2. Sean A, B ∈ Kn×n , A ∼ B. Entonces para todo P ∈ K[x], se cumple que
P (A) ∼ P (B). Es más P (A) = 0 si y solo si P (B) = 0

Demostración. Sea P ∈ K[x], P = ai xi . Si A ∼ B, existe C ∈ GL(n, K) tal que A =


Pr
i=0

CBC −1 , entonces
r
X
−1
P (A) = P (CBC )= ai (CBC −1 )i
i=0
r r
!
X X
= ai CB i C −1 = C ai B C −1
i=0 i=0
−1
= CP (B)C ⇒ P (A) ∼ P (B)

Proposición 7.2.2. Sean A, B ∈ Kn×n , A ∼ B. Entonces mA = mB .

Demostración. (¡Ejercicio!) Usar el lema y la proposición anterior

Nota 7.2.1. Gracias a este resultado tenemos que si T : V −→ V transformación lineal y


consideramos la matriz de T en dos bases de V distintas, los polinomios minimales de estas
coinciden. Por ello, podemos dar la siguiente definición.

Definición 7.2.2. Sea V un K-espacio vectorial de dimensión finita y sea B una base de
V . Sea T : V −→ V una transformación lineal. Definimos el polinomio minimal de T como
mT = m[T ]B .

Proposición 7.2.3. Sea A ∈ Kn×n , y sea mA el polinomio minimal de A. Sea λ ∈ K, entonces


λ es autovalor de A, si y solo si, λ es raíz de mA .

Demostración. .

(−→): Sea λ un autovalor de A.

Por el algoritmo de la división en K[x] existen Q, R ∈ K[x] tales que:

0 = mA (A) = Q(A)(A − λIn ) + RIn

Como λ es autovalor de A, existe v ∈ Kn×1 tal que Av = λv, luego:

0 = mA (A)v = Q(A)(Av − λv) + Rv

Es decir Rv = 0, como v 6= 0 → R = 0

Facultad De Ciencias (UNI) 139


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

(←−): Sea λ ∈ K raíz de mA .

Entonces mA = (X − λ)Q y por lo tanto 0 = mA (A) = (A − λIn )Q(A). Notamos que


Q(A) 6= 0, dado que gr(Q) = gr(mA )−1. Por tanto, existe w ∈ Kn×1 tal que Q(A), w 6= 0
sea v = Q(A)w. Entonces:

(A − λIn )v = (A − λIn )Q(A)w = 0w = 0

De donde λ es un autovalor de A.

7.2.3. Polinomio Minimal de un Vector

Sea A ∈ Kn×n y sea v ∈ Kn×1 . Dado P ∈ K[x], definimos P (v) = P (A).v. Diremos que P
anula a v si P (v) = 0.

Observación 7.2.3. Sea A ∈ Kn×n y mA el polinomio minimal de A. Entonces, para cada


v ∈ Kn×1 , se tiene que mA (v) = mA (A).v = 0.v = 0. Luego para cada v ∈ Kn×1 existe un
polinomio que anula a v.

Definición 7.2.3. Sea A ∈ Kn×n y sea v ∈ Kn×1 . El polinomio minimal de v, denotado por
mv , es el polinomio de grado mínimo y mónico que anula a v.

Nota 7.2.2. La existencia y unicidad se prueban gracias a la observación anterior y lo hecho


para el polinomio minimal de una matriz.

Ejemplo 7.2.2. .

1. Sea A ∈ Kn×n y sea v ∈ Kn×1 un autovector de λ. Entonces mv = x − λ.


 
−1 0
2. Sea A =   ∈ R2×2 . Calcular me1 . Busquemos un polinomio mónico P =
1 −1
x + b ∈ R[x] de grado 1 tal que P (e1 ) = 0.

P (e1 ) = 0 ⇔ P (e1 ) = (A + bI2 )e1 = 0 ⇔ (b − 1, 1) = (0, 0)

Imposible para cualquier valor de b. Luego gr(me1 ) ≥ 2. Veamos P = x2 + ax + b ∈ R[x],


en este caso:
P (e1 ) = 0 ⇐⇒ (A2 + aA + bI)e1 = 0

140 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

⇐⇒ A2 e1 + aAe1 + be1 = 0
       
1 −1 1 0
⇐⇒   + a   + b   =  
−2 1 0 0

1 − a + b = 0
⇐⇒
 −2 + a = 0

⇐⇒ a = 2, b = 1

Luego:
me1 = x2 + 2x + 1

7.2.4. ¿Cómo hallar el polinomio minimal de un vector?

Sea A ∈ Kn×n , si mv = xm + am−1 xm−1 + . . . + a1 x + a0 , entonces:

Am v + am−1 Am−1 v + . . . + a1 Av + a0 Iv = 0
=⇒ Am v = −a0 v − a1 Av − . . . − am−1 Am−1 v

Es decir {v, A, A2 v, . . . , Am v} son L.D.. Para hallar mv debemos buscar el mínimo m tal que
{v, Av, A2 v, . . . , Am v} sea L.D..

,→ mv = xm + am−1 xm−1 + · · · + a1 x + a0

Proposición 7.2.4. Sean A ∈ Kn×n , v ∈ Kn×1 y P ∈ K[x]. Entonces P (v) = 0, si y solo si,
mv |P (en particular mv |mA )

Demostración. Dado P ∈ K[x], se tiene que P = Qmv + R con Q, R ∈ K[x], R ≡ 0 o


gr(R) < gr(mv ). En consecuencia:

P (v) = P (A) · v = Q(A) · mv (A) · v + R(A) · v

= Q(A) · 0 + R(v) = R(v)

De donde P (v) = 0, si y solo si, R(v) = 0. Como mv es de grado mínimo entre los polinomios
que anulan a v, resulta que R(v) = 0, si y solo si, R = 0, es decir, si y solo si, mv |P

Facultad De Ciencias (UNI) 141


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

La siguiente proposición muestra cómo calcular el polinomio minimal de A ∈ Kn×n a partir


de los polinomios minimales de los vectores de una base de Kn×1

Proposición 7.2.5. Sea A ∈ Kn×n y sea B = {v1 , . . . , vn } base de Kn×1 , entonces:

mA = M CM {mv1 : i ∈ In }

Demostración. Sea P = M CM {mv1 : i ∈ In }. Por la proposición anterior mvi |mA , ∀ i ∈ In .


Luego P |mA . Por otro lado, como mvi |P , ∀ i ∈ In se tiene que P (A) · vi = 0 , para cada i ∈ In .
n
X
Sea v ∈ Kn×1
y sean α1 , . . . , αn ∈ K tales que v = αi vi . Entonces:
i=1

n
! n
X X
P (A) · v = P (A) αi vi = αi P (A)vi = 0
i=1 i=1

Tenemos que P (A) · v = 0, ∀ v ∈ Kn×1 y por tanto, P (A) = 0. Entonces mA |P . Como mA y


P se dividen mutuamente:
mA = P

 
1 0 0
Ejemplo 7.2.3. Calcular mA para A =  1 1 0. Consideremos E = {e1 , e2 , e3 } base canó-
 

0 0 2
nica de R . Por la proposición anterior mA = M CM {me1 , me2 , me3 }. Hallemos me1 , me2 , me3 :
3

me1 : Notemos que {e1 , Ae1 } = {e1 , e1 + e2 } es LI, pero {e1 , Ae1 , A2 e1 } = {e1 , e1 +
e2 , e1 + 2e2 } no lo es. Además:

0 = (e1 + 2e2 ) − 2(e1 + e2 ) + e1


0 = A2 e1 − 2Ae1 + e1

De donde me1 = x2 − 2x + 1 = (x − 1)2

me2 : Como Ae2 = e2 , entonces me2 = (x − 1)

me3 : Como Ae3 = 2e3 , entonces me3 = (x − 2)

Luego:
mA = M CM {(x − 1)2 , (x − 1), (x − 2)}
mA = (x − 1)2 (x − 2)

142 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

7.2.5. Teorema de Cayley-Hamilton

Sea A ∈ Kn×n y sea XA el polinomio característico de A. Entonces mA |XA (lo que es equiva-
lente a que XA (A) = 0)

Demostración. Sea TA : Kn×1 −→ Kn×1 lineal, definida por TA (x) = Ax. Sea v ∈ Kn , su-
pongamos que {v, TA (v), . . . , TAk (v)} es LI y que TAk+1 (v) = −ak TAk (v) − . . . − a1 TA (v) − a0 v.
Entonces:
mv = xk+1 + ak xk + . . . + a1 x + a0

Extendemos el conjunto {v, TA (v), . . . , TAk (v)} a una base de Kn×1 . Sean wk+2 , . . . , wn ∈ Kn×1
tales que:
B = {v, TA (v), . . . , TAk (v), wk+2 , . . . , wn }

Es una base de Kn×1 . Se tiene que:


 
0 0 ··· 0 −a0
 
1 0
 ··· 0 −a1 

.. .. ..
.
 
0 1 . . M
[TA ]B =  . .
 
 .. .. ..
.

 0 −ak−1 

 
0 · · · ··· 1 −ak 
 
O N
Sabemos que XA = XTA = X[TA ]B :
 
x 0 ··· 0 a0
 
−1 x · · · 0 a1 
 
 0 −1 . . . ... ..
 
. −M 
XA = det  . .. . .
 
 .. . x

 . ak−1 

 
 0 · · · · · · −1 x + ak 
 
O xIn−k−1 − N
 
x 0 ··· 0 a0
 
−1 x · · · 0 a1 
. ..
 
..
. ..
 
XA = det 
 0 −1 .  ·det(xIn−k−1 − N )
 . .. . .

 .. . . x

 ak−1 

0 · · · · · · −1 x + ak
| {z }
(Ejercicio)

Facultad De Ciencias (UNI) 143


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

XA = (xk+1 + ak xk + . . . + a1 x + a0 ) · det(xIn−k−1 − N )

XA = mv · det(xIn−k−1 − N )

Por lo tanto, mv |XA para v ∈ Kn×1 arbitrario. Sea E = {e1 , . . . , en } base canónica de Kn×1 .
Por lo anterior mei |XA , ∀ i ∈ In . Por la proposición anterior mA = M CM {me1 , . . . , men }
divide a XA
∴ mA |XA , por ende XA (A) = 0.

Observación 7.2.4. Sea A ∈ Kn×n , entonces:

1. gr(mA ) ≤ n

2. Si gr(mA ) = n, entonces mA = XA

3. Si existe v ∈ Kn×1 tal que gr(mv ) = n, entonces mv = mA = XA

Ejemplo 7.2.4. Sea A = 0 −1


, entonces XA = (x − 1)2 . Determinaremos An , por el algo-

1 2

ritmo de la división ∃ P ∈ K[x] : xn = (x − 1)2 P (x) + an x + bn

Evaluando en x = 1: an + bn = 1

Derivando y evaluando en x = 1: an = n ∧ bn = 1 − n

Luego: xn = (x − 1)2 P (x) + nx + (1 − n)

Por Cayley-Hamilton: An = nA + (1 − n)In

Además: A2 − 2A + In = 0 −→ A(2I − A) = In , es decir A−1 = 2I − A

7.2.6. Un criterio de diagonalización usando el polinomio minimal

Recordar que si XA tiene todas sus raíces simples, entonces A es diagonalizable, pero el re-
cíproco no es necesariamente cierto. Sin embargo, es posible dar una condición necesaria y
suficiente para la diagonalización considerando la factorización del polinomio minimal.

Proposición 7.2.6. Sea A ∈ Kn×n . Entonces A es diagonalizable, si y solo si, mA tiene todas
sus raíces em K y son simples.

Demostración. .

144 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

(−→): Supongamos que A es diagonalizable. Sean λ1 , . . . , λr los autovalores de A, con


λi 6= λj si i 6= j, y sea {v1 , . . . , vn } una base de autovectores de A. Si mv es el polinomio
minimal del vector v para la matriz A, se tiene que:

mA = M CM {mv1 , . . . , mvn }
= M CM {x − λ1 , . . . , x − λr }
= (x − λ1 ) . . . (x − λr )

En consecuencia, mA tiene todas sus raíces en K y son simples

(←−): Supongamos que mA = (x − λ1 ) . . . (x − λr ) con λi 6= λj si i 6= j. Entonces


λ1 , . . . , λr son todos los autovalores de A en K.
r
M
Probar de que: K n×n
= Eλi , donde Eλi = {x ∈ Kn : Ax = λx}
i=1

Sea v ∈ Kn \{0}. Consideremos el subespacio S = L {v, Av, A2 v, . . . , Am v, . . .} ⊂ Kn .


Supongamos que {v, Av, . . . , Ak v} es LI pero {v, Av, . . . , Ak v, Ak+1 v} es LD.

Luego Aj v ∈ L {v, Av, . . . , Ak v} ∀ j ∈ N y BS = {v, Av, . . . , Ak v} resulta ser una base


de S. Además gr(mv ) = k + 1, es decir, mv es de la forma:

mv = xk+1 + ak xk + . . . + a1 x + a0

Si x ∈ S resulta que Ax ∈ S. Sea TA : S −→ S lineal definida por TA (x) = Ax, se tiene


que:  
0 0 ... 0 −a0
 
1 0 . . . 0 −a1 
.. .. 
 

0 1 ... . . 
[TA ]BS = .
... . . . ... .. 
 
 .. . 
. .. . .
 
 .. . . 0 −ak−1 

 
0 0 ... 1 −ak
Observamos que:

XTA = det(XIk+1 − [TA ]BS )


= xk+1 + ak xk + . . . + a1 x + a0 = mv

Dado que mv |mA y por hipótesis mA tiene todas sus raíces en K y son simples, resulta
que XTA = mv tiene todas sus raíces en K, son simples y son algunos de los autovalores
de A. Luego TA es diagonalizable sobre S. Además, si XTA = (x−λi1 ) . . . (x−λik+1 ) como

Facultad De Ciencias (UNI) 145


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

v ∈ S, existen vi1 , . . . , vik+1 autovectores de TA (donde vij es un autovector de autovalor


λij ) tales que v = vi1 + . . . + vik+1 . Pero vij es un autovector de TA con autovalor λij ,
Mr
entonces es un autovector de A con el mismo autovalor. Luego v ∈ Eλi .
i=1
r
M
Como v ∈ K era arbitrario, se tiene que K =
n
Eλi . Luego, por teorema, A es
n

i=1
diagonalizable.

Ejemplo 7.2.5. .

Si A ∈ Cn×n tal que Ak = In , entonces A es diagonalizable.

Si A ∈ Rn×n tal que Ak = In , entonces A no necesariamente es diagonalizable (A =


 
0 0 1
1 0 0 , por ejemplo)
0 1 0

7.2.7. Subespacios invariantes

Definición 7.2.4. Sea V un K-espacio vectorial y sea T : V −→ V una transformación lineal.


Un subespacio S ⊂ V se dice invariante por T (o T invariante) si T (S) ⊂ S

Ejemplo 7.2.6. .
 
1 0 0 0
1. Sea A = 0 0 2 0 ∈ R4×4 . Considere TA : R4 −→ R4
1 1 0 0
0 0 0 3

Si consideramos la base canónica de R4 : E = {e1 , e2 , e3 , e4 } algunos subespacios inva-


riantes son L {e1 , e2 }, L {e2 }, L {e3 }, L {e4 }, L {e3 , e4 }, L {e1 , e2 , e4 }

2. Sea A = ( 12 01 ) ∈ R2×2 . Veamos para TA : R2 −→ R2

a) Subespacios invariantes de dimensión 0: {0}

b) Subespacios invariantes de dimensión 2: R2

c) Subespacios invariantes de dimensión 1:

S = L {v} es un subespacio invariante de dimension 1, si y solo si, v 6= 0 y


Av ∈ L {v}, es decir, Av = λv. Luego, L {v} es TA -invariante, si y solo si, v es
autovector de A. Verificar que S = L {e2 } (Ejercicio).

146 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

Proposición 7.2.7. Sea V un K-espacio vectorial. Sea T : V −→ V transformación lineal.


Entonces:

i) N u(T ) e Im(T ) son subespacios T -invariantes de V

ii) S es un subespacio T -invariantes de V de dimensión 1, si y solo si, S = L {v} con v


autovector de T

iii) Si S1 y S2 son subespacios T -invariantes de V , entonces S1 ∩S2 y S1 +S2 son subespacios


T -invariantes de V

Demostración. .

i) (Ejercicio)

ii) Sea S un subespacio T -invariante de V unidimensional. Entonces S = L {v} para algún


v ∈ V , v 6= 0 tal que T (v) ∈ L {v}, es decir, ∃ λ ∈ K tal que T (v) = λv y como v 6= 0,
entonces v es autovector de T .

Recíprocamente, si S = L {v} con v autovector de T , como v 6= 0, entonces dimS = 1


y como T (v) = λv para algún λ ∈ K, resulta que T (S) ⊂ S. Luego T (S) es subespacio
invariante de dimensión 1.

iii) Sean S1 y S2 subespacios de V invariantes por T :

• Entonces T (S1 ∩ S2 ) ⊂ T (S1 ) ⊂ S1 , análogo para S2 : T (S1 ∩ S2 ) ⊂ S2 . Por lo tanto:


T (S1 ∩ S2 ) ⊂ S1 ∩ S2

• Dado que S1 y S2 son invariantes por T f (S1 + S2 ) ⊂ f (S1 ) + f (S2 ) ⊂ S1 + S2

∴ S1 + S2 es invariante por T

Nota 7.2.3. Sea T : V → V , S ⊂ V subespacio T -invariante, denotemos por T |S a la


restricción de T sobre el subespacio S, osea T |S : S → S.

Proposición 7.2.8. Sea V un K-espacio vectorial de dimensión finita, sea T : V → V lineal


y sea S ⊂ V subespacio T -invariante. Sea T |S : S → S la restricción. Entonces:

i) mT |S |mT .

ii) XT |S |XT .

Facultad De Ciencias (UNI) 147


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Demostración. Sean n = dim(V ) y s = dim(S) (Obvio s ≤ n). Sea Bs = {v1 , . . . , vs } base de


S y sean {vs+1 , . . . , vn } ⊂ V tales que {v1 , . . . , vn } es base de V .

i) Sabemos que:
mT |S = M CM {mv1 , . . . , mvs }

mT = M CM {mv1 , . . . , mvs , mvs+1 , . . . , mvn }

Como mvi |mT para cada i ∈ Is , el MCM de estos también lo hace, osea mT |S |mT .

ii) Para la base B considerada, se tiene que:


 
0
A B
[T ]B =   ∈ Kn×n , donde A = [T |S ]Bs ∈ Ks×s
0 C

Luego:  
xIs − A −B 0
XT = X[T ]B = det  
0 xIn−s − C
= det(xIs − A) · det(xIn−s − C)

= X T |S · Q

Con lo que:
XT |S |XT

Observación 7.2.5. Sea V un K-espacio vectorial de dimensión finita y sea T : V → V


transformación lineal. Sean S1 , S2 subespacios T -invariantes tales que S1 ⊕ S2 = V .

Supongamos que dim(S1 ) = s > 0, dim(S2 ) = t. Sean BS1 = {v1 , . . . , vs } y BS2 = {w1 , . . . , wt }
bases de S1 y S2 respectivamente. Entonces:

B = BS1 ∪ BS2 = {v1 , . . . , vs , w1 , . . . , wt }

Es una base de V y:
 
A1 0
[T ]B =   , donde A1 ∈ Ks×s , A2 ∈ Kt×t
0 A2

Mas aún, si T |S1 : S1 → S1 , T |S2 : S2 → S2 son las restricciones, se tiene que:

A1 = [T |S1 ] y A2 = [T |S2 ]

Esto nos lleva a la siguiente definición.

148 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.2. POLINOMIOS MINIMALES

Definición 7.2.5. Sea V un K-espacio vectorial y sea T : V → V endomorfismo. Sea S ⊂ V


subespacio T -invariante. Un complemento invariante para S es un subespacio S 0 de V tal que
S 0 es T -invariante y S ⊕ S 0 = V .

Observación 7.2.6. Dada una transformación lineal T : V → V y un subespacio S de


V , T -invariante para S, no siempre existe un complemento invariante para S. Por ejemplo
considere: T : R2 → R2 definido por T (x, y) = (0, x). Consideremos S = L {e2 } y este no
tiene complemento invariante.

Proposición 7.2.9. Sea V un K-espacio vectorial de dimensión finita y sea T : V → V una


transformación lineal. Sean S1 y S2 subespacios T -invariantes de V tales que S1 ⊕ S2 = V .
Entonces:

i) XT = XT |S1 · XT |S2

ii) mT = M CM (mT |S1 , mT |S2 )

Demostración. .

i) (Ejercicio) se deduce de la observación previa a la definición.

ii) Sea P = M CM (mT |S1 , mT |S2 ). Dado que S1 y S2 son subespacios T -invariantes de V ,
por una proposición anterior se tiene que:

mT |S1 |mT y mT |S2 |mT

Luego: P |mT . Por otro lado, por la observación previa a la definición, si BS1 y BS2 son
bases de S1 y S2 respectivamente, y B = BS1 ∪ BS2 , entonces:
 
A1 0
[T ]B =  
0 A2

Con A1 = [T |S1 ]B1 , A2 = [T |S2 ]B2 como mT |S1 |P y mT |S2 |P , resulta que P (A1 ) = 0 y
P (A2 ) = 0. Operando por bloques:
 
P (A1 ) 0
P ([T ]B ) =  =0
0 P (A2 )

De donde mT |P . Luego P = mT , puesto que P y mT sin descompinidos en polinomios


mónicos que se dividen mutuamente.

Facultad De Ciencias (UNI) 149


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

7.3. Forma de Jordan

7.3.1. Transformaciones lineales nilpotentes

Definición 7.3.1. Sea V un K-espacio vectorial. Una transformación lineal T : V → V se


dice NILPOTENTE si existe k ∈ N tal que T k = T
| ◦ .{z
. . ◦ T} = 0.
k−veces

Análogamente, se dice que una matriz A ∈ Kn×n es nilpotente si existe k ∈ N tal que Ak = 0.

Observación 7.3.1. Si V es un K-espacio vectorial de dimensión finita y T : V → V una


transformación lineal, entonces T es nilpotente si y solo si para cualquier base B de V , [T ]B
es nilpotente.

Definición 7.3.2. Sea T : V → V transformación lineal nilpotente. Se define el índice de


nilpotencia de T como:
mı́n{j ∈ N : T j = 0}

Análogamente, se define el índice de nilpotencia de una matriz nilpotente A ∈ Kn×n como


mı́n{j ∈ N : Aj = 0}.

Lema 7.3.1. Sea V un K-espacio vectorial de dimensión finita y sea T : V → V . Entonces T


es nilpotente de índice k si y solo si mT = xk

Demostración. .

(−→): Si T es nilpotente de índice k, se tiene que T k = 0 y T k−1 6= 0. La primera


condición implica que el polinomio xk anula a T , y en consecuencia, mT |xk . Luego,
mT = xj para algun j ≤ k. Como T k−1 6= 0, entonces mT = xk .

(←−): Si mT = xk , entonces T k = 0 y T k−1 6= 0 con lo que T es nilpotente de indice k.

Observación 7.3.2. Bajo las hipotesis del lema anterior, como el grado del polinomio minimal
de T es siempre menor o igual que la dimensión n de V , tendremos que T es nilpotente si y
solo si T n = 0.

150 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Proposición 7.3.1. Sea V un K-espacio vectorial de dimensión n, y sea T : V → V nilpotente


de índice k. Entonces:

{0} ( N u(T ) ( N u(T 2 ) ( . . . ( N u(T k ) = V

Demostración. Siendo k el índice de nilpotencia de T , se tiene T k = 0, de donde N u(T k ) = V .


Además es claro que valen las inclusiones.

Veamos que son estrictas. En primer lugar, observamos que si N u(T i ) = N u(T i+1 ) para algun
i ∈ N, entonces N u(T i+1 ) = N u(T i+2 ): Si v ∈ N u(T i+2 ), se tiene que T i+2 (v) = 0, de donde
T i+1 (T (v)) = 0, luego T (v) ∈ N u(T i+1 ) y como por hipótesis N u(T i+1 ) = N u(T i), entonces
T (v) ∈ N u(T i ). Esto dice que T i+1 (v) = T i (T (v)) = 0, es decir v ∈ N u(T i+1 ). Luego, si
N u(T i0 ) = N u(T i0 +1 ) para algún i0 ∈ N0 , se tiene que N u(T i ) = N u(T i+1 ) para todo i ≥ i0 .
Pero como el índice de nilpotencia de T es k, N u(T k−1 ) 6= V = N u(T k ), y en consecuencia
debe ser que i0 ≥ k.

Notación: Para el caso de matrices para cada A ∈ Kn×n , denotamos N u(A) al núcleo de TA
osea al conjunto {x ∈ Kn×1 : Ax = 0} de la proposición anterior se cumple:

{0} ( N u(A) ( N u(A2 ) ( . . . ( N u(Ak ) = Kn×1

7.3.2. Existencia de la forma de Jordan para una transformación


lineal nilpotente

Sea V un K-espacio vectorial de dimensión n y sea T : V → V nilpotente de índice máximo


osea n (es decir mT = XT = xn ). Sea v ∈ V \N u(T n−1 ). Como mv divide a mT = xn , resulta
que mv = xk (k ≤ n). Sea v ∈ V tal que T n−1 (v) 6= 0, es decir v ∈ V \N u(T n−1 ), resulta
mv = xn y por tanto, el conjunto:

B = {v, T (v), T 2 (v), . . . , T n−1 (v)}

Facultad De Ciencias (UNI) 151


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Es una base de V . Además.


 
0 0 0 ··· 0 0
 
1
 0 0 · · · 0 0 
 
0 1 0 · · · 0 0
[T ]B = 
 

0 0 1 · · · 0 0
 .. .. .. . . .. .. 
 
. . . . . .
 
0 0 0 ··· 1 0
Este tipo de matrices aparecerán y les daremos un nombre.

Definición 7.3.3. Sea J ∈ Kn×n . Se dice que J es un bloque de Jordan nilpotente si:
 
0 0 0 ··· 0 0
 
1
 0 0 · · · 0 0 
 
0 1 0 · · · 0 0
J =
 

0 0 1 · · · 0 0
 .. .. .. . . .. .. 
 
. . . . . .
 
0 0 0 ··· 1 0

Lema 7.3.2. Sea V un K-espacio vectorial de dimensión finita, Sea T : V → V lineal y sea
i ∈ N. Sea {v1 , . . . , vr } ⊂ V conjunto L.I. tal que N u(T i ) ∩ L {v1 , . . . , vr } = {0}. Entonces
{T (v1 ), . . . , T (vr )} es L.I. y además N u(T i−1 ) ∩ L {T (v1 ), . . . , T (vr )} = {0}.

Demostración. Supongamos que v = α1 T (v1 ) + · · · + αr T (vr ) ∈ N u(T i−1 ). Entonces:

0 = T i−1 (v) = T i (α1 v1 + · · · + αr vr )

De donde α1 v1 + · · · + αr vr ∈ N u(T i ). Como N u(T i ) ∩ L {v1 , . . . , vr } = {0}, resulta que


α1 v1 + · · · + αr vr = 0 y como {v1 , . . . , vr } es L.I. α1 = · · · = αr = 0. Luego v = 0, de la misma
prueba se deduce que si α1 T (v1 ) + · · · + αr (vr ) = 0, entonces α1 = · · · = αr = 0. Con lo cual
{T (v1 ), . . . , T (vr )} es L.I.

Teorema 7.3.1. Sea V un K-espacio vectorial de dimensión n y sea la transformación lineal


T : V → V nilpotente de índice k. Entonces existe una base B de V tal que:
 
J1 0 ··· 0
 
0 J
2 ··· 0 
[T ]B =  . .
 
 .. .. ..
. 0

 
0 0 · · · Jr

152 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Donde, para cada i ∈ Ir , Ji ∈ Kni ×ni es un bloque de Jordan y k = n1 ≥ n2 ≥ · · · ≥ nr .

Demostración. Como T es nilpotente de índice k:

{0} ( N u(T ) ( N u(T 2 ) ( . . . ( N u(T k−1 ) ( N u(T k ) = V

Consideremos conjuntos de vectores en N u(T j ) recursivamente comenzando en j = k hasta


j = 1, por el lema anterior y de tal forma que la unión de esos conjuntos sea una base de V .
Sea Bk−1 una base de N u(T k−1 ) y sea:
(k)
Ck = {v1 , . . . , vr(k)
k
} ⊂ N u(T k ) = V

Un conjunto L.I. tal que Bk−1 ∪ Ck es una base de N u(T k ) = V . Por construcción, Ck es un
conjunto L.I. y:
N u(T k−1 ) ⊕ L {Ck } = N u(T k ) = V

Para fijar ideas, hagamos el paso siguiente de la recursión. Por el lema anterior, T (Ck ) ⊂
N u(T k−1 ) es un conjunto LI tal que N u(T k−2 )∩T (Ck ) = {0}. Sea Bk−2 una base de N u(T k−2 ).
(k−1) (k−1)
Completamos el conjunto LI Bk−2 ∪ T (Ck ) a una base de N u(T k−1 ) con {v1 , . . . , vrk−1 }.
Luego, si llamamos:
(k−1)
Ck−1 = T (Ck ) ∪ {v1 , . . . , vr(k−1)
k−1
} ⊂ N u(T k−1 )

Tenemos que Ck−1 es un conjunto LI y vale:

N u(T k−2 ) ⊕ L {Ck−1 } = N u(T k−1 )

Notemos que:
N u(T k−2 ) ⊕ L {Ck−1 } ⊕ L {Ck } = V

Pasemos ahora al j-ésimo paso de la recursión: Sea j ∈ Ik . Supongamos construidos los


conjuntos LI Cj+1 ⊂ N u(T j+1 ), . . . , Ck ⊂ N u(T k ) tales que:

T (Ck ) ⊂ Ch−1 , ∀ j + 2 ≤ h ≤ k

N u(T j ) ⊕ L {Cj+1 } = N u(T j+1 )

N u(T j ) ⊕ L {Cj+1 } ⊕ . . . ⊕ L {Ck } = V

Por el lema T (Cj+1 ) ⊂ N u(T j ) es un conjunto LI y N u(T j−1 ) ∩ L {T (Cj+1 )} = {0}. Consi-
deremos una base Bj−1 de N u(T j−1 ). Entonces:

Bj−1 ∪ T (Cj+1 ) ⊂ N u(T j )

Facultad De Ciencias (UNI) 153


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Es LI y, por tanto
(j)
∃ v1 , . . . , vr(j)
j
∈ N u(T j )

Tales que
(j)
Bj−1 ∪ T (Cj+1 ) ∪ {v1 , . . . , vr(j)
j
} es base de N u(T j )

(j) (j)
Sea Cj = T (Cj+1 ) ∪ {v1 , . . . , vrj } ⊂ N u(T j ). Es claro que Cj ⊂ N u(T j ), dado que por
construcción, es un conjunto de una base de N u(T j ) y que:

N u(T j−1 ) ⊕ Cj = N u(T j )

Por tanto:
N u(T j−1 ) ⊕ L {Cj } ⊕ . . . ⊕ L {Ck } = V

Al terminar la recursión tendremos que:

L {C1 } ⊕ . . . ⊕ L {Ck } = V
k
[
Y como cada conjunto Cj para cada j ∈ Ik es LI, resulta que Cj es una base de V .
j=1
Consideremos la base B de V obtenida reordenando esta base como sigue:
(k) (k) (k) (j) (j)
B = {v1 , T (v1 ), . . . , T k−1 (v1 ), . . . , vr(k)
k
, T (vr(k)
k
), . . . , T k−1 (vr(k)
k
), . . . , v1 , T (v1 ), . . . , T j−1 (vr(j)
j
),
(1)
. . . , v1 , . . . , vr(1)
1
}

Se puede verificar que [T ]B tiene la forma del enunciado del teorema.

Definición 7.3.4. Una matriz A ∈ Kn×n se dice una forma de Jordan nilpotente si:
 
J1 0 . . . 0
 
 0 J ...0 
2
A=. . . .
 
 .. .. . . .. 

 
0 0 . . . Jr

Con Ji ∈ Kni ×ni bloques de Jordan nilpotentes (i ∈ Ir ) y n1 ≥ n2 ≥ . . . ≥ nr

Por el teorema anterior tenemos que para todo endomorfismo nilpotente T : V −→ V (V es


K-espacio vectorial), existe una base B de V tal que [T ]B es una forma de Jordan nilpotente.
A dicha base B la denominaremos una base de Jordan para T y a la matriz [T ]B una forma
de Jordan para T .

Aplicando este teorema para TA : Kn −→ Kn

154 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Teorema 7.3.2. Sea A ∈ Kn×n una matriz nilpotente. Entonces A es semejante a una forma
de Jordan nilpotente.

A una base B de Kn tal que [TA ]B = JA es una forma de Jordan nilpotente, la llamaremos
una base de Jordan para A, y a la matriz JA una forma de Jordan para A

Ejemplo 7.3.1. Hallar una forma de Jordan y una base de Jordan para A ∈ R6×6 , siendo:
 
0 0 0 0 0 0
 
1 0 0 0 0 0
 
 
−1 −1 0 0 0 0
A=
 

0 1 0 0 1 0
 
 
−1 0 0 0 0 0
 
1 0 0 0 −1 0

Como XA = x6 , entonces A es nilpotente. Calculemos mA , con la forma xk , con k ∈ I6


 
0 0 0 0 0 0
 
0 0 0 0 0 0
 
 
−1 0 0 0 0 0
2
A =  y A3 = O
 
0 0 0 0 0 0
 
 
0 0 0 0 0 0
 
1 0 0 0 0 0

Resulta que XA = x3 . Sea E = {e1 , . . . , e6 } la base canónica de R6 , entonces: B1 = {e3 , e4 , e6 },


B2 = {e3 , e4 , e6 , e2 , e5 } y B3 = {e3 , e4 , e6 , e2 , e5 , e1 } son bases de N u(A), N u(A2 ) y N u(A3 ),
respectivamente.

Construimos una base de Jordan para A siguiendo la demostración del teorema anterior (con-
siderando la transformación lineal TA : R6 −→ R6 ). Tenemos que:

{0} ( N u(A) ( N u(A2 ) ( N u(A3 ) = R6

Extendemos la base B2 de N u(A2 ) a una base de N u(A3 ) = R6 , por ejemplo, agregando el


vector e1 que completa B3 . Consideramos Ae1 = (0, 1, −1, 0, −1, 1) ∈ N u(A2 ). Se tiene que:

{0} ( N u(A) ( N u(A2 ) ( N u(A3 ) = R6


| {z } | {z }
Ae1 e1

Facultad De Ciencias (UNI) 155


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Ahora consideremos la base B1 de N u(A), tomamos el conjunto B1 ∪ {Ae1 } ⊂ N u(A2 ), y


extendemos este conjunto a una base de N u(A2 ). Para esto podemos elegir, por ejemplo, el
vector e5 ∈ N u(A2 ).

Multiplicando por A los vectores Ae1 y e5 se obtiene el conjunto LI:

{A2 e1 , Ae5 } = {(0, 0, −1, 0, 0, 1), (0, 0, 0, 1, 0, −1)} ⊂ N u(A2 )

{0} ( N u(A) ( N u(A2 ) ( N u(A3 ) = R6


| {z } | {z } | {z }
A2 e1 Ae1 e1
Ae5 e5
Finalmente extendemos el conjunto {A2 e1 , Ae5 } a una base de N u(A), por ejemplo, con el
vector e3 . Obtenemos:

{0} ( N u(A) ( N u(A2 ) ( N u(A3 ) = R6


| {z } | {z } | {z }
A2 e1 Ae1 e1
Ae5 e5
e3

Entonces, una base de Jordan para A es:

B = {e1 , Ae1 , A2 e1 , e5 , Ae5 , e3 }


= {(1, 0, 0, 0, 0, 0), (0, 1, −1, 0, −1, 1), (0, 0, −1, 0, 0, 1),
(0, 0, 0, 0, 1, 0), (0, 0, 0, 1, 0, −1), (0, 0, 1, 0, 0, 0)}

Y una forma de Jordan de A es J = [TA ]B , es decir:


 
0 0 0 0 0 0
 
1 0 0 0 0 0
 
 
0 1 0 0 0 0
JA = 
 

0 0 0 0 0 0
 
 
0 0 0 1 0 0
 
0 0 0 0 0 0

7.3.3. Unicidad de la forma de Jordan nilpotente. Semejanza.

Lema 7.3.3. Sea J ∈ Km×m un bloque de Jordan nilpotente. Entonces rg(J i ) = m − i, para
cada i ∈ Im

156 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Demostración. Se puede verificar inductivamente que J i = (eTi+1 : . . . : eTm : 0 . . . : 0), donde ej


denota el j-ésimo vector de la base canónica de Kn (es decir, que al elevar un bloque de Jordan
nilpotene a la i, los unos bajan i−1 lugares). En consecuencia, rg(J i ) = dimL {ei+1 , . . . , em } =
m−i

Con este resultado se nos permite calcular la cantidad de bloques de cada tamaño que aparecen
en una forma de Jordan usando los rangos de las potencias de la matriz.

Proposición 7.3.2. Sea A ∈ Kn×n una forma de Jordan nilpotente de índice k. Entonces
el bloque de Jordan más grande que aparece en A es de tamaño k × k. Además, para cada
0 ≤ i ≤ k − 1 la cantidad de bloques de Jordan nilpotentes de tamaño mayor que i que
aparecen en A es:
bi = rg(Ai ) − rg(Ai+1 )

En particular, la cantidad de bloques de Jordan que aparecen en A es b0 = n − rg(A) =


dim(N u(A))

Demostración. Como el índice de nilpotencia es k, se tiene que mA = xk . Sean J1 , . . . , Jr los


bloques de Jordan que aparecen en A con Jl ∈ Kn2 ×n2 para cada l ∈ Ir . Entonces:

mA = M CM {mJ1 , . . . , mJr } = M CM {xn1 , . . . , xnr } = xn1

Luego, n1 = k, es decir, el bloque de Jordan más grande que aparece en A es de k × k.

Si A está formada por r bloques de Jordan nilpotentes, resulta que rg(A) = n − r, dado que
este rango es la suma de los rangos de los distintos bloques de Jordan. En consecuencia, la
cantidad total de bloques de Jordan que forman A es b0 = n − rg(A).

Sea i ∈ Ik−1 , por el lema anterior, que para un bloque de Jordan J ∈ Kj×j se tiene que J i = 0
si j ≤ i, o rg(J i ) = j − i si j > i. Además, rg(A) es la suma de los rangos de los bloques que
aparecen en la diagonal. En consecuencia:
k
X k
X
i i+1
rg(A ) − rg(A ) = cj (j − i) − cj (j − (i + 1))
j=i+1 j=i+2
Xk
= cj = b i
j=i+1

Facultad De Ciencias (UNI) 157


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Corolario 7.3.1. Sea A ∈ Kn×n una forma de Jordan nilpotente de índice k. Entonces, para
cada i ∈ Ik , la cantidad de bloques de Jordan de tamaño i × i que aparecen en A es:

ei = rg(Ai+1 ) − 2rg(Ai ) + rg(Ai−1 )

Demostración. Observamos que:

ck = bk−1 = rg(Ak−1 ) − rg(Ak ) = rg(Ak+1 ) − 2rg(Ak ) + rg(Ak−1 )

Puesto que Ak = 0. Sea i ∈ Ik−1 , entonces:

ci = bi−1 − bi
= (rg(Ai−1 ) − rg(Ai )) − (rg(Ai ) − rg(Ai+1 ))
= rg(Ai+1 ) − 2rg(Ai ) + rg(Ai−1 )

Ejemplo 7.3.2. Decidir si existe una matriz A ∈ R15×15 tal que rg(A) = 10, rg(A4 ) = 3 y
rg(A5 ) = 0

Solución: Si rg(A5 ) = 0 y rg(A4 ) = 3, entonces A5 = 0 y A4 6= 0 de donde A es nilpotente


de índice 5. Entonces A es semejante a una forma de Jordan nilpotente JA cuyo bloque más
grande es de 5 × 5

Por la proposición anterior, se tiene que rg(A4 )−rg(A5 ) = 3 bloques 5×5 y como JA ∈ R15×15
estos deben ser los únicos bloques que aparecen.

Pero la cantidad de bloques de Jordan debe ser:

15 − rg(A) = 15 − 10 = 5 (→ ←)

Luego, no existe una matriz A ∈ K15×15 que cumple lo establecido

Lema 7.3.4. Sean J y J 0 formas de Jordan nilpotentes. Si J ∼ J 0 , entonces J = J 0

Demostración. Las cantidades de bloques de cada tamaño que aparecen en una forma de
Jordan nilpotente solo dependen de los rangos de sus potencias. Por otro lado, si J ∼ J 0 ,
entonces para cada i ∈ Ik se tiene que rg(J i ) = rg((J 0 )i ). En consecuencia, la cantidad de
bloques de Jordan de cada tamaño es la misma en J que en J 0 . Luego J = J 0

158 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Teorema 7.3.3. (Unicidad en el caso nilpotente) Sea V un K-espacio vectorial de di-


mensión n. Sea T : V −→ V transformación lineal nilpotente. Entonces existe una única
forma de Jordan nilpotente J ∈ Kn×n tal que:

[T ]B = J para alguna base B de V

Demostración. Si B y B 0 son bases de V tales que [T ]B = J y [T ]B 0 = J 0 con J y J 0 formas


de Jordan nilpotentes, entonces J ∼ J 0 . Por el lema anterior: J = J 0

Teorema 7.3.4. Sean A, B ∈ Kn×n matrices nilpotentes. Sean J, J 0 formas de Jordan nilpo-
tentes tales que A ∼ J y B ∼ J 0 . Entonces: A ∼ B ↔ J = J 0

Demostración.
(→)
Si A ∼ B, y por hipótesis A ∼ J ∧ B ∼ J 0 y como ∼ es de equivalencia, resulta que J ∼ J 0 .
Luego por el lema J = J 0 .
(←)
Si J = J 0 siendo A ∼ J, B ∼ J 0 y por ser ∼ de equivalencia, se deduce que A ∼ B.

Ejemplo 7.3.3. .

1. Sean A, B ∈ R4×4 dos matrices que mA = mB = x3 . Probar que A ∼ B.

Solución 7.3.1. Por el teorema anterior, el ejemplo es equivalente a probar que A y


B tienen la misma forma de Jordan. Luego, basta ver que existe una única forma de
Jordan nilpotente J ∈ R4×4 tal que mJ = x3 . Si mJ = x3 , entonces J tiene al menos
un bloque de Jordan nilpotente 3 × 3. Como J ∈ R4×4 , lo único que le queda es que este
conformada por un bloque de 3 × 3 y otro de 1 × 1, es decir.
 
0 0 0 0
 
1 0 0 0
J =
 

0 1 0 0
 
0 0 1 0

2. Sean A, B ∈ R7×7 las matrices.


   
J3 0 J3 0
   
A=  J3
,B = 
  J2


0 0 0 J2

Facultad De Ciencias (UNI) 159


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Observamos que XA = x7 = XB , mA = x3 = mB , y rg(A) = rg(B), pero A  B dado


que son dos formas de Jordan diferentes.

7.3.4. Caso General

Ahora generalizaremos lo visto para endomorfismos sobre K-espacios de dimensión finita cuyos
polinomios se factorizan linealmente (osea con sus raíces en K).

7.3.5. Forma de Jordan de una transformación lineal

Primero veamos un caso particular, en el que el polinomio minimal del endomorfismo se


factoriza linealmente pero tiene una sola raíz.

Sea V un K-espacio vectorial de dimensión n y que sea T : V → V transformación lineal tal


que mT = (x − λ)k para algún k ≤ n. Se tiene entonces que (T − λId)k = 0 y (T − λId)k−1 6= 0
con lo cual T − λId es nilpotente de índice k por un teorema anterior existe una base B de V
tal que |T − λId|B ∈ Kn×n es una forma de Jordan nilpotente, es decir:
 
J1 0 ··· 0
 
0 J2 · · · 0
|T − λId|B =  . .. . . .. 
 
 .. . . .
 
0 0 · · · Jr

Donde, para cada 1 ≤ i ≤ r, J ∈ Kni ×ni es un bloque de Jordan nilpotente y k = n1 ≥ n2 ≥


· · · ≥ nr .

Observación 7.3.3.
|T |B = |T − λId|B + |λId|B

= |T − λId|B + λIn , de donde


 
J(λ, n1 ) 0 ··· 0
 
 0 J(λ, n2 ) · · · 0 
|T |B =  .. .. ..
 
..
.


 . . . 

0 0 · · · J(λ, nr )

160 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Donde, para cada 1 ≤ i ≤ r


 
λ 0 ··· 0 0
 
1
 λ · · · 0 0 
ni ×ni
 
J(λ, ni ) = 
0 1 · · · 0 0 ∈K
. .. . . .. .. 
 .. . . . .
 
0 0 ··· 1 λ

Y k = n1 ≥ n2 ≥ · · · ≥ nr . Esto motiva a la siguiente definición.

Definición 7.3.5. Sea λ ∈ K. Se llama bloque de Jordan asociado al autovalor λ de tamaño


’n’ a la matriz J(λ, n) ∈ Kn×n
 
λ 0 ··· 0 0
 
1
 λ ··· 0 0 
 
0 1 ··· 0 0
J(λ, n) = 
 

0 1 ··· 0 0
 .. .. . . .. .. 
 
. . . . .
 
0 0 ··· 1 λ

La idea de la forma general de Jordan es, como en el caso nilpotente, encontrar una base donde
la matriz del endomorfismo considerado tenga una forma particular (bloques de Jodan en la
diagonal).

La demostración de la existencia de la forma de Jordan se basa en el siguiente lema.

Lema 7.3.5. Sea V un K-espacio vectorial de dimensión finita. Sea T : V → V una trans-
formación lineal talque mT = P Q con P y Q primos entre si. Entonces:

N u(P (T )) y N u(Q(T )) son subespacios invariantes por T .

V = N u(P (T )) ⊕ N u(Q(T )).

mT |N u(P (T )) = P y mT |N u(Q(T )) = Q

Demostración. N u(P (T )) y N u(Q(T )) don invariantes por T :


Sea P = ai xi y sea x ∈ N u(P (T )). Entonces P (T )(x) = 0. Aplicando T se obtiene
Pr
i=0

T (P (T )(x)) = 0. Luego:
Xr r
X
i
0 = T( ai T (x)) = ai T i+1 (x)
i=0 i=0

Facultad De Ciencias (UNI) 161


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Xr
=( ai T i )(T (x))
i=0

De donde T (x) ∈ N u(P (T )). Por lo tanto N u(P (T )) es invariante por T . Análogo para
N u(Q(T )).

V = N u(P (T )) ⊕ N u(Q(T )). Dado que M CD(P, Q) = 1, existen R, S ∈ K[x] tales que
1 = RP + SQ de donde:

Id = R(T ) o P (T ) + S(T ) o Q(T )

Sea x ∈ N u(P (T )) ∩ N u(Q(T )). Entonces

x = Id(x) = R(T )(P (T )(x)) + S(T )(Q(T )(x))

= R(T )(0) + S(T )(0) = 0

Luego, N u(P (T )) ∩ N u(Q(T )) = {0}. Por otro lado, para cada x ∈ V se tiene que:

x = (R(T ) o P (T ))(x) + (S(T ) o Q(T ))(x)

Ahora, como Q(T ) o R(T ) = (QR)(T )

= (R.Q)(T ) = R(T ) o Q(T )

Resulta que:
Q(T )((R(T ) o P (T )))(x)

= (Q(T ) o R(T ) o P (T ))(x)

= R(T )((Q(T ) o P (T ))(x))

= R(T )(mT (T )(x)) = R(T )(0) = 0

De donde (R(T ) o P (T ))(x) ∈ N u(Q(T )). Analogamente, (S(T ) o Q(T ))(x) ∈


N u(P (T )). En consecuencia:

N u(P (T )) + N u(Q(T )) = V

mT |N u(P (T )) = P y mT |N u(Q(T )) = Q:
Sea T1 y T2 las restricciones de T a N u(P (T )) y N u(Q(T )) respectivamente. Como

162 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

V = N u(P (T )) ⊕ N u(Q(T )), se tiene que mT = M CM (mT1 , mT2 ). Si P = ai x i ,


Pr
i=0

para cada x ∈ N u(P (T )), se tiene que:


Xr r
X
i
P (T1 )(x) = ( ai T1 )(x) = ai T1i (x)
i=0 i=0
r
X
= ai T1i (x) = P (T )(x) = 0
i=0

Con lo cual mT1 |P . Análogo, mT2 |Q. Como P y Q son coprimos, resulta que mT1 y mT2
también lo son y por tanto:

P Q = mT = M CM (mT1 , mT2 ) = mT1 mT2

De donde mT1 = P y mT2 = Q.

Definición 7.3.6. Diremos que J ∈ Kn×n es una matriz de Jordan o una forma de Jordan
si:  
J1 0 ··· 0
 
0 J2 · · · 0
J =. .. . . .. 
 
 .. . . .
 
0 0 · · · Jr
Donde, para cada 1 ≤ i ≤ s, es de la forma:
 
(i)
J(λi , ni ) 0 ··· 0
 (i)

 0 J(λi n2 ) · · · 0 
Ji =  . . .
 
 .. .. . . . ..


 
(i)
0 ··· 0 · · · J(λi , nri )
(i) (i)
Con n1 ≥ · · · ≥ nri y λi 6= λj para i 6= j, osea, cada Ji esta fotmado por (varios) bloques de
Jordan de autovalor λi ubicados en la diagonal.

A continuación se demostrara el resultado principal de esta sección.

Teorema 7.3.5. Sea V un K-espacio vectorial de dimensión finita. Sea T : V −→ V una


transformación lineal tal que mT se factoriza linealmente sobre K. Entonces existe una base
B de V tal que [T ]B es una forma de Jordan.

Con la notación anterior, a una base B con la propiedad del teorema la llamaremos una base
de Jordan para T y a la matriz [T ]B una forma de Jordan para T .

Facultad De Ciencias (UNI) 163


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Demostración. Probaremos el teorema por inducción sobre n = dimV :

Para n = 1 nada que hacer

Supongamos que el teorema vale para toda transformación lineal definida en un K-


espacio vectorial de dimensión m < n y sea T : V −→ V una transformación lineal
definida en un K-espacio vectorial V de dimensión n.

Si mT = (x − λ)k , estamos en el caso analizado antes. Para el cual el teorema vale.

Supongamos entonces que T tiene al menos dos autovalores distintos. Si λ1 es uno de los
autovalores de T , entonces mT = (x − λ1 )k1 . Q con gr(Q) ≥ 1 y ((x − λ1 )k1 , Q) = 1. Por
el lema anterior, N u((T − λ1 Idv )k1 ) y N u(Q(T )) son subespacios T -invariantes de V y

V = N u((T − λ1 Idv )k1 ) ⊕ N u(Q(T ))

Además como λ, es autovalor de T pero no el único, {0} ⊂ N u((T − λ1 Idv )k1 ) ⊂ V y


las inclusiones son estrictas. En particular, 0 < dim(N u((T − λ1 Idv )k1 )) < dimV = n.
Entonces también vale:

0 < dim(N u(Q(T ))) < dimV = n

Consideremos las restricciones de T a N u((T − λ1 Idv )k1 ) y N u(Q(T )).

T1 : N u((T − λ1 Idv )k1 ) −→ N u((T − λ1 Idv )k1 )

T2 : N u(Q(T )) −→ N u(Q(T ))

Por hipótesis inductiva, existen una base B1 de N u((T − λ1 I)k1 ) y una base B2 de
N u(Q(T )), tales que [T1 ]B1 y [T2 ]B2 son formas de Jordan. Entonces, tomando B =
B1 ∪ B2 obtenemos una base de V tal que:
 
[T1 ]B1 0
[T ]B =  
0 [T2 ]B2

Observamos que de acuerdo al lema anterior, mT1 = (x − λ1 )k1 y mT2 = Q. Entonces


[T1 ]B1 está formada por bloques de Jordan de autovalor λ1 y, como λ1 no es raíz de Q,
[T2 ]B2 está formada por bloques de Jordan de autovalor λ, con λ 6= λ1 . En consecuencia
[T ]B es una forma de Jordan.

164 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

r
Y
Observación 7.3.4. Si mT = (x − λi )ki con λi 6= λj , si i 6= j. La prueba anterior nos
i=1
permite dar una forma constructiva de obtener una forma de Jordan como:

V = N u((T − λ1 Idv )k1 ) ⊕ . . . ⊕ N u((T − λr Idv )r1 )

Podemos obtener una forma de Jordan para cada una de las restricciones de T a estos subes-
pacios invariantes N u((T − λi Idv )ki ) y las bases de Jordan Bi correspondientes. Entonces
B = B1 ∪ . . . ∪ Br resulta ser una base de V y [T ]B resulta una forma de Jordan de T

El teorema anterior también se puede enunciar para matrices complejas:

Teorema 7.3.6. Sea A ∈ Cn×n , entonces A es semejante a una forma de Jordan.

A una base B de Kn tal que [TA ]B es una forma de Jordan para A, y a la matriz [TA ]B una
forma de Jordan para A
J

Ejemplo 7.3.4. Hallar una forma de Jordan semejante a A y una base de Jordan para A,
siendo  
1 0 0 2
 
2 −1 0 2
A=  ∈ C4×4
 
2 0 −1 2
 
0 0 0 1
Se tiene que XA = (x − 1)2 (x + 1)2 , luego los autovalores de A son 1 y −1.

Calculemos mA = M CM {me1 , me2 , me3 , me4 }, donde {e1 , e2 , e3 , e4 } es la base canónica de C4 .

Puesto que A(e1 ) = e1 +2e2 +2e3 , luego {e1 , Ae1 }) es LI y A2 e1 = e1 , se tiene que me1 = x2 −1.
Por otro lado, Ae2 = −e2 , con lo cual me2 = x + 1. De la misma manera me3 = x + 1.
Finalmente, para e4 tenemos que Ae4 = 2e1 + 2e2 + 2e3 + e4 (y entonces {e4 , Ae4 } es LI) y
Ae4 = 4e1 + 4e2 + 4e3 + e4 = 2Ae4 − e4 . Luego:

me4 = x2 − 2x + 1

En consecuencia:
mA = M CM (x2 − 1, x + 1, (x − 1)2 )
mA = (x − 1)2 (x + 1)

Facultad De Ciencias (UNI) 165


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Sabemos entonces que:


C4 = N u((A − I)2 ) ⊕ N u(A + I)

Y si T1 : N u((A − I)2 ) −→ N u((A − I)2 ) y T2 : N u(A + I) −→ N u(A + I) son restricciones


de TA a N u((A − I)2 ) y N u(A + I), respectivamente. Una transformada de Jordan para A es:
 
J1 O
JA =  
O J2

Donde J1 ,J2 son formas de Jordan de T1 y T2 . Mas aún, si B1 y B3 son bases de Jordan para
T1 y T2 , entonces B = B1 ∪ B2 es una base de Jordan para A

Base y forma de Jordan de T1 : N u((A − I)2 ) −→ N u((A − I)2 )

Se tiene que mT1 = (x − 1)2 , luego T1 − IdN u((A−I)2 ) es nilpotente de índice 2. Además:
   
0 0 0 2 0 0 0 0
   
2 −2 0 2 −4 4 0 0
A−I =  y (A − I)2 = 
   

2 0 −2 2 −4 0 4 0
   
0 0 0 0 0 0 0 0

De donde N u(A−I) = L (1, 1, 1, 0) y N u((A−I)2 ) = {(1, 1, 1, 0), (0, 0, 0, 1)}. Considera-


mos el vector e4 = (0, 0, 0, 1) que extiende una base de N u(A−I) a una de N u((A−I)2 ).
Obtenemos:
{0} ( N u(A − I) ( N u((A − I)2 )
| {z } | {z }
(A−I)e1 e4

Luego, una base de Jordan para T1 es B1 = {e4 , (A − I)e4 } = {(0, 0, 0, 1), (2, 2, 2, 0)} y
su forma de Jordan es  
1 0
[T1 ]B1 =  
1 1

Base y forma de Jordan de T2 : N u(A + I) −→ N u(A + I)

Sabemoes que mT2 : x − 1, luego T2 es diagonalizable. Se tiene que:


 
2 0 0 2
 
0 0 0 2
A+I =
 

2 0 0 2
 
0 0 0 2

166 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Luego una base de N u(A + I) (que será también una base de Jordan para T2 ) es B2 =
{(0, 1, 0, 0), (0, 0, 1, 0)} y la forma de Jordan de T2 es:
 
−1 0
[T2 ]B2 =  
0 −1

En consecuencia, una base de Jordan para A es:

B = B1 ∪ B2 = {(0, 0, 0, 1), (2, 2, 2, 0), (0, 1, 0, 0), (0, 0, 1, 0)}

Y una forma de Jordan de A es:


 
1 0 0 0
 
1 0 0 0
JA = 
 

 0 0 -1 0
 
0 0 0 -1

7.3.6. Unicidad de la forma de Jordan

A continuación veremos que la forma de Jordan asociada a una transformación lineal T : V →


V , donde V es un K-espacio vectorial de dimensión finita, es única salvo por el orden en que
aparecen los bloques de Jordan correspondientes a autovalores distintos.

Teorema 7.3.7. Sea V un K-espacio vectorial de dimensión n y sea T : V → V una transfor-


mación lineal tal que mT se factoriza linealmente sobre K. Entonces existe una única forma de
Jordan J ∈ Kn×n (salvo el orden de sus bloques) tal que para alguna base B de V , [T ]B = J.

Demostración. Sea B = {v1 , . . . , vn } una base de V tal que [T ]B es una forma de Jordan
J ∈ Kn×n .  
J1 (λ1 ) 0 ··· 0
 
 0 J2 (λ2 ) ··· 0 
J = . .. ..
 
 .. ..
.

 . . 

0 0 · · · Js (λs )
Donde para cada 1 ≤ i ≤ s, Ji (λi ) ∈ Kdi ×di denota la matriz formada por todos los bloques
de Jordan de autovalor λi que aparecen en J y λi 6= λj si i 6= j. Se tiene que XT = XJ =
Ys
(x − λi )di . Entonces λ1 , . . . , λs son los autovalores de T y para cada 1 ≤ i ≤ s, se tiene que
i=1

Facultad De Ciencias (UNI) 167


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

s
Y
ki
mJi (λi ) = (x − λi ) para algún 1 ≤ ki ≤ di . Entonces mT = mJ = (x − λi )ki , con lo que,
i=1
para cada 1 ≤ i ≤ s, ki = mult(λi , mi ). Sea k = mult(λ, mT ). Sin pérdida de generalidad,
supongamos que λ = λ1 . Observamos que:
 
J1 (0) 0 ··· 0
 
 0 J2 (λ2 − λ) · · · 0 
J − λIn =  .. .. ..
 
..
.


 . . . 

0 0 · · · Js (λs − λ)

De donde:  
0 0 ··· 0
 
0 (J (λ − λ))k · · · 0 
k 2 2
(J − λIn ) =  . . .
 
 .. .. . .. ..


 
k
0 0 · · · (Js (λs − λ))

Puesto que Ji (λi − λ)k es inversible para cada 2 ≤ i ≤ s, entonces N u((J − λIn )k ) =
L {e1 , . . . , ed1 }. Teniendo en cienta que J = [T ]B , resulta que:

J − λIn = [T − λIdv ]B

Con lo que:
N u((T − λIdv )k ) = L {v1 , . . . , vd1 }

Consideremos la restricción:

T1 = (T − λIdv )|N u((T −λId : N u((T − λIdv )k )


v )k )

−→ N u((T − λIdv )k )

La restricción T1 resulta ser una transformación lineal nilpotente y por lo tanto, tiene una
única forma de Jordan nilpotente J, asociada. Sea B1 = {v1 , . . . , vd1 }, que como vimos, es una
base de N u((T − λIdv )k ). Observamos que:

[T1 ]B1 = [T|N u((T −λId ]B1 − λId1 = J1 (0)


v )k )

Como J1 (0) es una forma de Jordan nilpotente, debe de ser la forma de Jordan J1 de T1 .
En consecuencua J1 (λ1 ) = J1 − λ1 Id1 esta univocamente determinada por T . (Notar que
el subespacio invariante N u((T − λIdv )k )) y la restricción T1 = (T − λIdv )|N u((T −λIdv )k ) solo

168 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

dependen de T y no de la base).
Haciendo lo mismo para cada λi con 1 ≤ i ≤ s1 resulta que, Ji (λi ) ∈ Kdi ×di satisface:

Ji (λi ) = Ji + λi Idi

Donde di = mult(λi , XT ) y si ki = mult(λi , mT ), Ji es la forma de Jordan nilpotente de la


restricción:
(T − λi Idv )|N u((T −λ Idv )k ) : N u((T − λi Idv )ki )
i

−→ N u((T − λi IdV )KI )

Por lo tanto, la forma de Jordan de T está univocamente determinado por T (salvo el orden
de los bloques correspondientes a los distintos autovalores de T ).

El hecho que todo polinomio se factorice linealmente C[x] nos permite demostrar el siguiente
resultado sobre semejanza de matrices en Cn×n .

Teorema 7.3.8. Sean A, B ∈ Cn×n , y sean JA y JB las formas de Jordan de A y B respecti-


vamente. Entonces:

A ∼ B ⇔ JA = JB salvo el orden de los bloques

Demostración.
(→)

Sabemos que A ∼ JA y B ∼ JB . Si A ∼ B, como ∼ es una relación de equivalencia, resulta


que JA ∼ JB . Entonces existe una transformación lineal T : Kn → Kn y bases B1 y B2 de Kn
tales que:
[T ]B1 = JA y [T ]B2 = JB

Por el teorema anterior, la forma de Jordan de una transformación lineal es única salvo el
orden de los bloques correspondientes a los distintos autovalores. Luego JA = JB , salvo el
orden de los bloques.
(←)

Obvio (∼ es de equivalencia).

Ejemplo 7.3.5. Sean A, B ∈ C3×3 . Probar que A ∼ B, si y solo si, XA = XB y mA = mB .


¿Vale el mismo resultado para matrices de C4×4 ?

Facultad De Ciencias (UNI) 169


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Solución 7.3.2. Ya sabemos que vale (→). Probemos la otra implicación. Por el teorema
anterior, A y B son semejantes si tienen la misma forma de Jordan (salvo el orden de los
distintos autovalores). Luego, basta ver que la forma de Jordan en C3×3 queda univocamente
por su polinomio característico y su polinomio minimal.

Sea J ∈ C3×3 una forma de Jordan. Entonces XJ es un polinomio mónico de grado 3 en C[x]
luego puede escribirse de alguna de las siguientes formas:

i XJ = (x − λ1 )(x − λ2 )(x − λ3 ) con λi ∈ C, λi 6= λj si i 6= j.

ii XJ = (x − λ1 )2 (x − λ2 ) con λi ∈ C, λ1 6= λ2 .

iii XJ = (x − λ)3 con λ ∈ C.

Para cada una de las opciones anteriores, veremos que existe una única J para cada polinomio
minimal posible.

i Si XJ = (x − λ1 )(x − λ2 )(x − λ3 ). Luego J es diagonalizable con forma de Jordan.


 
λ1 0 0
 
J =
 0 λ3 0 

0 0 λ3

ii Si XJ = (x − λ1 )2 (x − λ2 ) con λ1 6= λ2 ∈ C entonces mJ = (x − λ1 )(x − λ2 ) o mJ = XJ

• Si mJ = (x − λ1 )(x − λ2 ), J es diagonalizable y su forma de Jordan sería:


 
λ1 0 0
 
J =
0 λ1 0

0 0 λ2

• Si mJ = (x − λ1 )2 (x − λ2 ), entonces J tiene un bloque 2 × 2 con autovalor λ1 y uno


1 × 1 con autovalor de λ1 . Luego:
 
λ1 0 0
 
J =
1 λ1 0

0 0 λ2

Si XJ = (x − λ)3 con λ ∈ C, entonces mJ = (x − λ)k , k ∈ I3 .

170 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

• Si mJ = (x − λ), entonces J es diagonalizable, luego su forma de Jordan:


 
λ 0 0
 
J =
0 λ 0

0 0 λ

• Si mJ = (x − λ)2 , entonces el bloque más grande de J es 2 × 2, luego:


 
λ 0 0
 
J =
 1 λ 0 

0 0 λ

• Si mJ = (x − λ)3 , entonces J tiene un bloque 3 × 3 y por lo tanto:


 
λ 0 0
 
J =
 1 λ 0 

0 1 λ

El resultado no vale en C4×4 . Por ejemplo:


   
0 0 0 0 0 0 0 0
   
1 0 0 0 1 0 0 0
A= ,B = 
   

0 0 0 0 0 0 0 0
   
0 0 1 0 0 0 0 0

Verifican: XA = XB = x4 y mA = mB = x2 , pero A  B porque sus formas de Jordan son


distintas.

7.3.7. Aplicación 1: Cálculo de las potencias de una matriz

En primer lugar, observemos que es posible calcular las potencias de una matriz a partir
de las potencias de una matriz semejante:

Si A ∼ B, existe C ∈ GL(n, K) tal que A = CBC −1 , entonces para cada k, Ak = CB k C −1

A partir de esto, notamos que si una matriz A es diagonalizable, entonces se puede


calcular fácilmente Ak , para cada k ∈ N. Basta hallar C ∈ GL(n, K) y D ∈ Kn×n

Facultad De Ciencias (UNI) 171


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

diagonal tal que A = CDC −1 y tener en cuenta que:


   
λ1 0 ... 0 λk1 0 ... 0
   
0 λ2 . . . 0 k
0 λk2 . . . 0
D=. .. . . ..  =⇒ D = . .. . . .. 
   
 .. .  .. .

 . .  . . 
k
0 0 . . . λn 0 0 . . . λn

Utilizando la igualdad Ak = CB k C −1 , ya obtendríamos las potencias de A.

Consideremos el caso en el que la matriz A no sea diagonalizable. Si


 
M1 O ... O
 
O M2 . . . O 
A∼M = . .. . . ..  , con Mi ∈ Kni ×ni
 
 .. . . . 
 
O O . . . Mr

existe C ∈ GL(n, K) tal que A = CM C −1 . Entonces, para cada k ∈ N, Ak = CM k C −1


y gracias al producto por bloques obtenemos:
 
M1k O ... O
 
k
 O M2k . . . O 
M = .. .. . . ..
 
.


 . . . 

O O . . . Mrk

En el caso que mA se factoriza linealmente en K, se puede hallar una matriz M (la forma de
Jordan de A) en la que cada Mi es un bloque de Jordan de autovalor λi para cada λi ∈ K.
Luego, para calcular las potencias de A basta poder calcular las potencias de J(λ, m), es decir,
J(λ, m)k .

Se puede probar inductivamente que:


 
Ok×(m−k) Ok×k
J(0, m)k =  
I(m−k) O(m−k)×k

Demostración. ¡Ejercicio!

172 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Si λ 6= 0, escribimos J(λ, m) = λIm + J(0, m)

J(λ, m)k = (λIm + J(0, m))k


Xk
= ( ki ) (λIm )k−i · J(0, m)i
i=1  
k
X Oi×(m−i) Oi×i
= ( ki ) λk−i  
i=1 Im−i O(m−i)×i
 
Oi×(m−i) Oi×i
=  
k k−i
( ) λ Im−i O(m−i)×i
 i 
λk O ... ... O
 
 ( k ) λk−1 λk ... ... O
 1 
 
k−2
= 
 (2)λ
k ( k1 ) λk−1 ... ... O
.. .. ... ... .. 

. . .


 
k
( m−1 ) λk−(m−1) ( m−2
k
) λk−(m−2) . . . ( k1 ) λk−1 λk

Consideramos ( hk ) = 0, si h > k
J

Con esto obtenemos una fórmula para el cálculo de las potencias de un bloque de Jordan
de autovalor λ. Añadido a esto, si consideramos las observaciones previas, obtendremos las
potencias de A

7.3.8. Aplicación 2: Exponencial de una matriz

La exponencial de una matriz es definida de manera similar a la habitual.

Definición 7.3.7. Sea A ∈ Kn×n , la exponencial de A, denotada por eA o exp(A) es la matriz


n × n dada por la serie de potencias:

A
X Ak
e =
k=0
k!

Observación 7.3.5. Esta serie converge para toda matriz A. Note también que para matrices
de orden 1 × 1 la exponencial corresponde con la exponencial ordinaria.

Facultad De Ciencias (UNI) 173


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Propiedades 7.3.1. Sean A y B dos matrices de orden n, a y b escalares. Entonces:

1. exp(A) · exp(B) = exp(A + B), si es que AB = BA

2. exp(O) = In

3. exp(aA) · exp(bA) = exp((a + b)A)

4. exp(A) · exp(−A) = In

5. [exp(A)]−1 = exp(−A)

6. det(exp(A)) = exp(T r(A))

7. [exp(A)]T = exp(AT )

8. Si AB = BA: exp(A) · exp(B) = exp(B) · exp(A)


−1
9. Si B es invertible, entonces: eBAB = BeA B −1

7.3.9. Cálculo de la exponencial de matrices

Matrices diagonalizables

Si A es una matriz diagonal:


 
a1
 O 
 a2 
A=
 
 ... 

 O 
an
Entonces su exponencial se obtiene tomando las exponenciales de cada uno de los ele-
mentos de la diagonal.  
ea1
 O 
A
 ea2 
e =
 
..
.

 
 O 
ean
Si una matriz M es diagonalizable entonces:

M = P DP −1

Donde D es diagonal y P puede elegirse ortogonal. Luego:

eM = P eD P −1

174 Latexeado por Adan S.L. y Jael L.G. (EPM)


7.3. FORMA DE JORDAN

Matrices que admiten forma de Jordan

Analicemos para un bloque de Jordan


 
λ 0 ··· ··· 0
 
1
 λ ··· ··· 0 
.
1 .. · · ·
 
BJ = 
0 0
. .. . . . . .. 

 .. . . . .
 
0 0 ··· 1 λ
 

 


 1!
eλ O 

eλ eλ
 
=⇒ eBJ = 2! 1!
eλ 
.. .. .. ..
 
. . . .
 
 
 
eλ eλ eλ
(n−1)! (n−2)!
··· 1!

Se dice que una matriz M admite forma canónica de Jordan cuando existe una matriz
no singular P tal que:
M = P −1 JP

Donde J es una matriz triangular por bloques de Jordan.

−1 JP
eM = eP

Osea:
−1
eM = eP JP

X (P −1 JP )k
=
k=1
k!
∞ ∞
X P −1 JP X
= = P −1 J k P
k=0
k! k=0

7.3.10. Aplicación

Dado un sistema de ecuaciones diferenciales lineales con coeficientes constantes de la forma:

X 0 (t) = AX(t) + f (t)

X(t0 ) = X0

Facultad De Ciencias (UNI) 175


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 6

Donde X(t) representa al vector de funciones incógnita. La solución de este sistema viene dado
por: Z t
A(t−t0 )
X(t) = e X0 + eA(t−s) f (s)ds
t0

176 Latexeado por Adan S.L. y Jael L.G. (EPM)


Capitulo N° 8

Unidad 7

177
Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7

Nota 8.0.1. Recordar: Relaciones de equivalencia.

Ejemplo 8.0.1. Sea A = R y defina la relación ∼ como:

x∼y ⇔x−y ∈Z

Se puede con¿mprobar de manera fácil que ’∼’ es de equivalencia. Si consideramos x = 0,4 ∈


R, tendríamos que y ∼ 0,4 si y solo su, y = 0,4 + m, m ∈ Z, De esta manera:

[0,4] = {m + 0,4 :∈ Z}

= {. . . ; −1,6; −0,6; 0,4; 0,4; 1,4; . . .}

Luego: [x + m] = [x]. Verificar que:

R/ ∼= {[w] : w ∈ [0, 1 >}

En efecto, si [x] ∈ R/ ∼ para x ∈ R, entonces 2 = x − [|x|] ∈ [0, 1 > donde [|x|] ∈ Z es el


máximo entero de x. Luego w ∼ x y por lo tanto, [x] = [w]

Proposición 8.0.1. Sea A 6= φ y ∼ una relación de equivalencia en A. Entonces:

1. [x] 6= φ, ∀x ∈ A,

2. [x] ∩ [y] 6= φ, si y solo si, [x] = [y].


[
3. A = [x].
x∈A

Demostración. .

1. Sea x ∈ A, luego x ∼ x por la reflexividad entonces [x] tiene al menos un elemento. Por
esto [x] 6= φ.

2.
(←)

Obvio
(→)

Sea z ∈ [x] ∩ [y], osea z ∼ x y z ∼ y, por simetría se tiene que x ∼ z y z ∼ y por


transitividad, se tiene que x ∼ y.

Con esto se tendría que si un elemento w es equivalente a x, entonces es equivalente a y.


De forma análoga también se obtiene que si se es equivalente a y, entonces es equivalente
a x. Finalmente concluimos que [x] = [y].

178 Latexeado por Adan S.L. y Jael L.G. (EPM)


8.1. COORDENADAS HOMOGÉNEAS Y EL PLANO PROYECTIVO

3. En primer lugar, [x] ⊂ A, ∀x ∈ A, entonces U [x] ⊂ A. Por otro lado, si w ∈ A, entonces:

w ∈ [w] ⊂ U [x] ⇒ A ⊂ U [x]

Definición 8.0.1. Sea A 6= φ y ∼ relación de equivalencia:

A/ ∼= {[x] : x ∈ A}

8.1. Coordenadas homogéneas y el plano proyectivo

Sean A = R3 \{0} y definamos en A la siguiente relación ∼, para µ, v ∈ R3 \{0} mediante:

µ ∼ v ⇐⇒ ∃λ ∈ R, µ = λv

Ejercicio 8.1.1. Probar que ’∼’ es de equivalencia.

Notación: Dado µ = (a, b, c) ∈ R3 \{0}, denotamos:

[µ] = [(a, b, c)] = [a : b : c]

De esta forma, [a : b : c] es la recta que pasa por (0, 0, 0) con dirección (a, b, c), sin considerar
el origen.

Definición 8.1.1. Al conjunto cociente R3 \{0}/ ∼ lo denominaremos plano proyectivo y


lo denotaremos por RP2 .

RP2 = {[X : Y : Z] : (x, y, z) ∈ R3 \{0}}

Observación 8.1.1. Sea [a : b : c] ∈ RP2 con c 6= 0. Como (ta, tb, tc) ∈ [a : b : c] para
cualquier t 6= 0. Considerando t = 1
c
6= 0, tenemos:
 
a b
[a : b : c] = : :1
b c
Osea:
{[X : Y : Z] ∈ RP2 : z 6= 0} ⊂ {[x : y : 1] ∈ RP2 : x, y ∈ R}

Pero la otra inclusión es inmediata. Asi se puede escribir:

RP2 = {[X : Y : 1]; x, y ∈ R} ∪ {[X : Y : 0] : x, y ∈ R}


| {z } | {z }
A2 puntos afines o propios P2∞ puntos impropios o del infinito

Facultad De Ciencias (UNI) 179


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7

Proposición 8.1.1. La función:

ϕ : R2 → A2

(x, y) → [X : Y : 1]

Es una biyección.

Demostración. .

Sobreyectividad: Obvio, pues sea [X : Y : 1] ∈ A2 entonces ∃(x, y) ∈ R2 tal que


ϕ(x, y) = [X : Y : 1].

Inyectividad: Sean (a, b), (c, d) ∈ R2 tales que ϕ(a, b) = ϕ(c, d), entonces [a : b : 1] =
[c : d : 1] osea (a, b, 1) ∈ [c : d : 1]. A2 es una copia de R2 en RP2 . Dado (x, y) ∈ R2 , las
coordenadas homogéneas de (x, y) es cualquier (x, y, z) ∈ [X : Y : 1], es decir, la terna
(x, y, z) satisface z 6= 0 y
X Y
x= , y=
Z Z

Ejemplo 8.1.1. Sea (3, 4) ∈ R2 . Entonces [3 : 4 : 1] = {(3λ, 4λ, λ)} ∈ R3 : λ 6= 0. Por tanto,
son coordenadas homogéneas de (3, 4) las ternas (−3, −4, −1), (9, 12, 3), (−15, −20, −3), etc.

Ejemplo 8.1.2. Sea P0 ∈ R2 un punto que en coordenadas homogéneas se representa por


(7, −2, 3). Entonces P0 tiene coordenadas cartesianas.
 
7 2
(x, y) = ,−
3 3

Para evitar a estas múltiples formas de representar un punto del plano en coordenadas ho-
mogéneas, trabajaremos solo con A2 . Es decir, la representación de (x, y) en coordenadas
homogéneas estará dada por la clase [X : Y : 1].

También, notemos que RP2 no solo contiene elementos de A2 , sino también de P2∞ . Como A2
esta identificado de manera biunivoca con R2 , entonces podemos decir que RP2 es una extensión
del plano R2 . Luego RP2 puede ser denominado como el plano euclideano extendido.

180 Latexeado por Adan S.L. y Jael L.G. (EPM)


8.1. COORDENADAS HOMOGÉNEAS Y EL PLANO PROYECTIVO

8.1.1. Rectas en el plano proyectivo

Sea L0 una recta en R2 que satisface la ecuación general ax + by + c = 0. Sea (x, y) ∈ L0 y


sea [X : Y : Z] ∈ RP2 su representación en coordenadas homogéneas. Entonces:

X Y
x= , y=
Z Z

Y por tanto a( X
Z
) + b( YZ ) + c = 0. Luego, como Z 6= 0 tenemos:

aX + bY + cZ = 0

Asi la representación en coordenadas homogéneas de L esta dada por:

L = {[X : Y : Z] ∈ RP2 : aX + bY + cZ = 0}

Observación 8.1.2. L0 esta contenida propiamente en L , pues si (x, y) ∈ L0 , entonces


[X : Y : 1] ∈ L pero [−b : a : 0] ∈ L no corresponde a ningún par de R2 . Esto motiva a la
siguiente definición.

Definición 8.1.2. Sea [a : b : c] ∈ RP2 . La recta proyectiva asociada a [a : b : c] (o recta RP2 )


es el conjunto
L [a : b : c] = {[X : Y : Z] ∈ RP2 : aX + bY + cZ = 0}.

Si (a, b) 6= (0, 0) entonces L [a : b : c] representará una recta en R2 . En efecto, consi-


deremos la recta en L0 = L (a, b, c), con ecuación general ax + by + c = 0. Entonces
(x, y) ∈ L (a, b, c) si y solo si [X : Y : 1] ∈ L [a : b : c]. A este tipo de rectas las
llamaremos propoas o afines.

En caso (a, b) = (0, 0), se tiene que c 6= 0. Luego [a : b : c] = [0 : 0 : 1] y así tenemos la


recta:
L [0 : 0 : 1] = {[X : Y : Z] : Z = 0} = P2∞

Es decir, el conjunto de puntos del infinito P2∞ es una recta en RP2 , la que llamaremos
recta del infinito. Esta recta proyectiva no representa a ninguna recta en R2 .

Sea L = L [a : b : c] una recta en RP2 que representa a la recta L (a, b, c) de R2 osea


con (a, b) 6= (0, 0). Entonces la intersección de L con la recta del infinito P2∞ puede ser
estudiada de la siguiente manera:

Facultad De Ciencias (UNI) 181


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7

Sea [X0 : Y0 : Z : 0] ∈ L ∩ P2∞ . Entonces Z = 0 y aX0 + bY0 = 0. Luego (X0 , Y0 , Z0 ) =


λ(−b, a, 0) y asi [X0 : Y0 : Z0 ] = [−b : a : 0], osea [−b : a : 0] es la intersección de L con
P2∞ . Luego, toda recta de RP2 diferente de P2∞ intersecta a este en un único punto.

Gracias al curso anterior es inmediato verificar que la recta proyectiva que pasa por
P = [X1 : Y1 : Z1 ] y Q = [X2 : Y2 : Z2 ] esta determinada por:

X y Z


X1 Y1 Z1 = 0


X2 Y2 Z2

Esta representación se denomina la representación algebraica de la recta que pasa por


P y Q (L (P, Q)).

Proposición 8.1.2. Sean P ∈ A2 , Q ∈ RP2 y P0 el punto de R2 con P como coordenada


homogénea. Considere L la recta proyectiva que pasa por P y Q. Entonces L representa a
una recta L0 en R2 y

1. Si Q ∈ A2 entonces L0 = L (P0 , Q0 ), donde Q tiene a Q0 como coordenada homogénea.

2. Si Q ∈ P2∞ entonces L0 = L (P, v), donde v = (v1 , v2 ) ∈ R2 es tal que Q = [v1 : v2 : 0].

Demostración. Ejercicio

Teorema 8.1.1. Sean L1 y L2 rectas en RP2 . Entonces:

L1 ∩ L2 6= φ

Demostración. Consideremos L1 = L [a1 : b1 : c1 ] y L2 = L [a2 : b2 : c2 ] y sean µ = (a1 , b1 , c1 )


y v = (a2 , b2 , c2 ). Si µ y v son paralelos, entonces [a1 : b1 : c1 ] = [a2 : b2 : c2 ] y por lo tanto
L1 ∩ L2 = L1 = L2 6= φ.

Caso contrario definimos w = µ × v 6= 0 y escribimos w = (X, Y, Z). Entonces:

0 = hµ, wi = a1 X + b1 Y + c1 Z y 0 = hv, wi = a2 X + b2 Y + c2 Z

Esto muestra que [X : Y : Z] ∈ L1 ∩ L2

Corolario 8.1.1. Sean L1 y L2 rectas afines y distintas en RP2 y sea R ∈ L1 ∩ L2 . Entonces


R ∈ P2∞ , si y solo si, L1 y L2 representan rectas paralelas en R2 .

Demostración. ¡Ejercicio!

182 Latexeado por Adan S.L. y Jael L.G. (EPM)


8.2. CÓNICAS

8.2. Cónicas

Sean ε > 0, L0 una recta en R2 y F0 ∈ P (P: Plano coordenado). Una cónica en el plano es
el conjunto:
d(p0 , F0 )
C0 = {p ∈ P : = ε}
d(p, L0 )
A ε se le denomina la EXCENTRICIDAD de C0 , a L0 se le denomina RECTA DIREC-
TRIZ de C0 y a F0 se le denomina FOCO de C0 .

Podemos establecer lo siguiente:

• Si ε < 1, entonces C0 es una elipse

• Si ε = 1, entonces C0 es una parábola

• Si ε > 1, entonces C0 es una hipérbola

Si establecemos F0 = (x0 , y0 ), L0 = L (a, b, c) con ax + by + c = 0 y p = (x, y) ∈ C0 , entonces


p cumple:
p
(x − x0 )2 + (y − y0 )2

ax + by + c

a2 + b 2

Es decir:
ax + by + c
(x − x0 )2 + (y − y0 )2 = ε2 ( √ )
a2 + b 2
Pero escrito en su forma polinomial:

a11 x2 + a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0

Comparando, obtenemos:

a2 ε 2 b2 ε 2
a11 = 1 − a22 = 1 −
a2 + b 2 a2 + b2

abε2 acε2
a12 = − a13 = − − x0
a2 + b 2 a2 + b 2
bcε2 c2 ε 2
a23 = 1 − − y0 a33 = − + x20 + y02
a2 + b 2 2
a +b 2

De esto obtenido, se define a continuación.

Facultad De Ciencias (UNI) 183


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7

Definición 8.2.1. Una cónica en el plano cartesiano R2 es el lugar geométrico de los puntos
de R2 que satisfacen una ecuación de la forma:

a11 x2 + a12 xy + a22 y 2 + 2a13 x + 2a23 y + a33 = 0 . . . (*)

Así, si C0 es una cónica, entonces:

C0 = {(x, y) ∈ R2 : (x, y) satisface (*)}

Además a la expresión (*) la denominaremos como la ecuación general de la cónica.

Ahora convertiremos las ecuación (*) a coordenadas homogéneas. Sea (x, y) ∈ C0 , donde C0
es una cónica y sea [x1 : x2 : x3 ] su representación en coordenadas homogéneas. Entonces
x = x1 /x3 , y = x2 /x3 , luego reemplazamos en (*) y multiplicamos por x23 para obtener:

a11 x21 + 2a12 x1 x2 + a22 x22 + 2a13 x1 x3 + 2a23 x2 x3 + a33 x23 = 0 . . . (**)

Definición 8.2.2. Diremos que C ⊂ RP2 es una cónica si:

C = {[x1 : x2 : x3 ] ∈ RP2 : [x1 : x2 : x3 ] satisface (**)}

Observación 8.2.1. Podemos reescribir (**) como:


  
h i a 11 a12 a13 x1
 
x1 x2 x3  a21 a22 a23  x2  = 0
 

a31 a32 a33 x3

Notar que si denotamos X = [x1 : x2 : x3 ], entonces (**) puede ser escrito como X T AX = 0
con A ∈ R3×3 es matriz simétrica, no nula.

Observación 8.2.2. Para simplificar, si P = [x1 : x2 : x3 ] ∈ RP2 entonces lo representaremos


h x1 i
como el vector columna xx23 . De este modo, si P = [x1 : x2 : x3 ] y Q = [x01 : x02 : x03 ], entonces
Q = AP será la abreviación de escribir:
    
x01 a11 a12 a13 x1
    
x0  = a21 a22 a23  x2 
 2   
0
x3 a31 a32 a33 x3

Además P T representa al vector columna (x1 , x2 , x3 )

184 Latexeado por Adan S.L. y Jael L.G. (EPM)


8.3. POLAR DE UN PUNTO Y POLAR DE UNA RECTA

h 1 0 −1 i
Ejemplo 8.2.1. Sea A = 0 1/2 −1 . Entonces la cónica C asociada a A tiene una ecuación
−1 −1 2

1
x21 + x22 + 2x33 − 2x1 x3 − 2x2 x3 = 0
2
en coordenadas cartesianas sería:
1
x2 + y 2 + 2 − 2x − 2y = 0
2
Luego factorizando, C representa a la cónica:
(y − 2)2
(x − 1)2 + =1
2

La cual es una elipse con centro (1, 2) y semiejes a = 1, b = 2
 
1 0 0
Ejemplo 8.2.2. Sea A =  0 1 0. Entonces la cónica C asociada a A tiene ecuación
 

0 0 0
x21 + x22 = 0 o en coordenadas cartesianas x2 + y 2 = 0. Es fácil de verificar que C = {(0, 0)},
es decir este conjunto es un punto único de R2 . Para poder diferenciar cuando una cónica en
RP2 representa o no, a una cónica usual en R2 , usaremos a la matriz asociada.

Definición 8.2.3. Sea C una cónica en RP2 y A su matriz asociada. Diremos que C es
degenerada si det(A) = 0. Caso contrario se dirá que es no degenerada.

Ejemplo 8.2.3. Sea A = I3 . Entonces la cónica C asociada a A es no degenerada y tiene


ecuación:
x21 + x22 + x23 = 0

que en coordenadas cartesianas, se escribe como

x2 + y 2 + 1 = 0

Luego C = {(x, y) ∈ R2 : x2 +y 2 +1 = 0} = φ, es decir, C es no degenerada pero no representa


a ninguna cónica usual.

8.3. Polar de un punto y Polar de una recta

Definición 8.3.1. Sea C una cónica en RP2 , con matriz asociada A. Diremos que P y Q ∈
RP2 son C-conjugados (o conjugadis respecto a C) si:

P T AQ = 0

Facultad De Ciencias (UNI) 185


Apuntes de Álgebra Lineal I de D.Caytuiro UNIDAD 7

Observación 8.3.1. .

Es inmediato reconocer que P ∈ RP2 es conjugado de si mismo, si y solo si, P ∈ C.


Además como es simétrica, pues P T AQ = QT AP .

Por otro lado, si H ∈ RP2 es tal que AH = 0, entonces todo punto Q ∈ RP2 es
conjugado con H, osea H ∈ C. A los puntos H, tales que AH = 0 los llamaremos
puntos singulares de C.

Asi, dado P ∈ RP2 , el conjunto de los puntos conjugados a P respecto a C es:

{Q ∈ RP2 : QT AP = 0}

Si P no es un punto singular y consideramos a N = AP = [a : b : c], entonces podemos


representar el conjunto anterior como:

{[X : Y : Z] ∈ RP2 : aC + bY + cZ = 0}

El cual es una recta proyectiva, al cual denominaremos como recta polar de P .

Definición 8.3.2. Sea C una cónica y sea P ∈ C no singular. La recta polar de P es el


conjunto de los puntos Q ∈ RP2 conjugados a P respecto a C. Denotamos esta recta como
LC (P ) es decir:
LC (P ) = {Q ∈ RP2 : QT AP = 0}

Definición 8.3.3. Sea C una cónica. Dada una recta L ∈ RP2 , diremos que P es el polo de
L , respecto de C, si L = LC (P ).

Dado P ∈ RP2 un punto no singular de una cónica, basta determinar N = AP = [a : b : c]


tendríamos que resolver el sistema:

a11 X + a12 Y + a13 Z = a


a21 X + a22 Y + a23 Z = a
a31 X + a32 Y + a33 Z = a

El cual podría no tener solución. Esto no ocurre en el caso de cónicas no degeneradas, pues
como det(A) 6= 0 entonces el sistema tiene solución y es única. Con esto tendríamos que el
polo de una recta asociada a una cónica no degenerada, el polo de una recta siempre existe y
es única.

186 Latexeado por Adan S.L. y Jael L.G. (EPM)


8.3. POLAR DE UN PUNTO Y POLAR DE UNA RECTA

 
−11 0
Ejemplo 8.3.1. Consideremos la cónica C asociada a A =   y consideremos
 
1
 0 2
−1 
−1 −1 2
P = [1 : 2 : 1]. Entonces la recta polar de P esta dada por AP = [0 : 0 : −1], es decir,
LC (P ) = P2∞ . Osea, la recta polar de P , respecto de C, es la recta del infinito. Luego, el polo
de la recta del infinito, respecto de la elipse C, es P .
 
−1 0 0
Ejemplo 8.3.2. Consideremos la cónica C con matriz A =  1  y consideremos
 
 0 0 2
1
0 2 0
P = [2 : 4 : 1]. Entonces la recta polar de P está dada por AP = [−2 : 12 : 2] = [−4 : 1 : 4],
es decir, LC (P ) tiene ecuación −4X − Y + 4Z = 0. Osea la recta polar de P respecto de C,
es representada en R2 por la recta L0 con ecuación normal y = 4x − 4. Observe que Lo es la
recta tangente a la parábola C (¡verificar!) con ecuación y = x2 en (2, 4).

Proposición 8.3.1. Sea C una cónica no degenerada, L una recta proyectiva y P ∈ RP2 . Si
P ∈ L entonces el polo de L pertenece a la recta polar de P .

Demostración. Como C es no degenerada entonces L tiene un polo Q ∈ RP2 . Como P ∈ L =


LC (Q) entonces P y Q son conjugados. Luego Q ∈ LC (P ), es decir, el polo de L pertenece a
la recta polar de P .

Corolario 8.3.1. Sea C una cónica no degenerada y L una recta proyectiva. Entonces las
rectas polares, respecto de C, de todos los puntos de L se intersectan en un único punto, el
cual es el polo de L .

Demostración. Como el polo de L existe, entonces por la proposición anterior, el polo per-
tenece a todas las rectas polares a toda recta polar de puntos de L . Entonces todo punto de
L es conjugado a Q, es decir, LC (Q) = L . como el polo de L es único entonces Q debe ser
el polo de L .

Facultad De Ciencias (UNI) 187

También podría gustarte