Está en la página 1de 74

Algebra Lineal

12 de diciembre de 2018
Índice general

I Sistemas de ecuaciones 7
1. Matrices 8
1.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.1. Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.1.2. Matriz cuadrada . . . . . . . . . . . . . . . . . . . . . 8
1.1.3. Matrices triangulares . . . . . . . . . . . . . . . . . . . 9
1.1.4. Matrices particulares . . . . . . . . . . . . . . . . . . . 9
1.1.5. Transposicion . . . . . . . . . . . . . . . . . . . . . . . 9
1.1.6. Matriz inversa . . . . . . . . . . . . . . . . . . . . . . . 9
1.2. Operaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.1. Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.2. Multiplicacion por un escalar . . . . . . . . . . . . . . 10
1.2.3. Producto . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.2.4. Traza . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.1. Propiedades de la suma . . . . . . . . . . . . . . . . . 11
1.3.2. Propiedades del producto por un escalar . . . . . . . . 11
1.3.3. Propiedades del producto de matrices . . . . . . . . . . 11
1.3.4. Propiedades de las matrices triangulares . . . . . . . . 12
1.3.5. Propiedades de la transposicion . . . . . . . . . . . . . 12
1.3.6. Propiedades de la traza . . . . . . . . . . . . . . . . . . 12

2. Factorizacion LDU 13
2.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
2.1.1. Matriz de eliminacion . . . . . . . . . . . . . . . . . . . 13
2.1.2. Matriz de permutacion . . . . . . . . . . . . . . . . . . 13
2.1.3. Matriz no singular . . . . . . . . . . . . . . . . . . . . 13
2.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

1
ÍNDICE GENERAL 2

2.2.1. Unicidad de la factorizacion LDU . . . . . . . . . . . . 14


2.2.2. Unicidad de la factorizacion LU . . . . . . . . . . . . . 14
2.2.3. Factorizacion de matrices simetricas . . . . . . . . . . . 14
2.2.4. Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
2.2.5. Clasicacion de sistemas . . . . . . . . . . . . . . . . . 15
2.2.6. No singularidad e invertibilidad . . . . . . . . . . . . . 17

II Espacios vectoriales 18
3. Introduccion 19
3.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1.1. Espacio vectorial . . . . . . . . . . . . . . . . . . . . . 19
3.1.2. Subespacio vectorial . . . . . . . . . . . . . . . . . . . 20
3.1.3. Suma de subespacios . . . . . . . . . . . . . . . . . . . 20
3.1.4. Combinacion lineal . . . . . . . . . . . . . . . . . . . . 20
3.1.5. Espacio generado . . . . . . . . . . . . . . . . . . . . . 21
3.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
3.2.1. Propiedades de los espacios vectoriales . . . . . . . . . 21
3.2.2. Caracterizacion de suma directa de subespacios . . . . 21
3.2.3. Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
3.2.4. Union de espacios vectoriales . . . . . . . . . . . . . . . 23

4. Independencia lineal, dimension y base 24


4.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
4.1.1. Independencia lineal . . . . . . . . . . . . . . . . . . . 24
4.1.2. Dimension . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.1.3. Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.1. Unicidad de la combinacion lineal independiente . . . . 25
4.2.2. Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
4.2.3. Finitud de subconjuntos linealmente independientes . . 26
4.2.4. Corolario . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.5. Lema . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
4.2.6. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . 28
4.2.7. Relacion entre la dimension de un espacio y un subespacio 28
4.2.8. Corolario . . . . . . . . . . . . . . . . . . . . . . . . . 29
4.2.9. Inversibilidad de una matriz . . . . . . . . . . . . . . . 29
ÍNDICE GENERAL 3

4.2.10. Dimension de la suma de subespacios . . . . . . . . . . 29

5. Coordendas y cambios de base 31


5.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.1. Base ordenada . . . . . . . . . . . . . . . . . . . . . . . 31
5.1.2. Coordenadas . . . . . . . . . . . . . . . . . . . . . . . 31
5.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
5.2.1. Matriz de cambio de base . . . . . . . . . . . . . . . . 32
5.2.2. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . 33

III Transformaciones lineales 34


6. Introduccion 35
6.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1.1. Transformacion lineal . . . . . . . . . . . . . . . . . . . 35
6.1.2. Espacio nulo . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1.3. Rango . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
6.1.4. Homomorsmos . . . . . . . . . . . . . . . . . . . . . . 36
6.1.5. Espacios isomorfos . . . . . . . . . . . . . . . . . . . . 36
6.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
6.2.1. Determinacion de una TL por la actuacion en la base . 36
6.2.2. Inyectividad de una transformacion lineal . . . . . . . . 37
6.2.3. Teorema de la dimension . . . . . . . . . . . . . . . . . 38
6.2.4. Relacion entre el rango por las y columnas . . . . . . 39
6.2.5. Espacio de todas las transformaciones . . . . . . . . . . 39
6.2.6. Dimension del espacio de todas las transformaciones . . 40
6.2.7. Linealidad de la composicion . . . . . . . . . . . . . . . 40
6.2.8. Linealidad de la inversa . . . . . . . . . . . . . . . . . 40
6.2.9. Teorema de los morsmos . . . . . . . . . . . . . . . . 41
6.2.10. Isomorsmo sobre el cuerpo . . . . . . . . . . . . . . . 42
6.2.11. Respresentacion de TL por matrices . . . . . . . . . . . 42
6.2.12. Teorema . . . . . . . . . . . . . . . . . . . . . . . . . . 43
6.2.13. Matriz asociada a la composicion . . . . . . . . . . . . 44

7. Funcionales lineales y dualidad 45


7.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.1. Funcional lineal . . . . . . . . . . . . . . . . . . . . . . 45
ÍNDICE GENERAL 4

7.1.2. Espacio dual . . . . . . . . . . . . . . . . . . . . . . . . 45


7.1.3. Hiperplano . . . . . . . . . . . . . . . . . . . . . . . . 45
7.1.4. Anulador . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 46
7.2.1. Existencia y unicidad de la base dual . . . . . . . . . . 46
7.2.2. Propiedades de los funcionales lineales . . . . . . . . . 47
7.2.3. Relacion entre la dimension de un espacio y su anulador 47
7.2.4. Corolario . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.2.5. Corolario . . . . . . . . . . . . . . . . . . . . . . . . . 48
7.2.6. Suma e interseccion de anuladores . . . . . . . . . . . . 49

IV Diagonalizacion 50
8. Autovalores y autovectores 51
8.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
8.1.1. Autovalores y autovectores . . . . . . . . . . . . . . . . 51
8.1.2. Ecuacion y polinomios caracteristicos . . . . . . . . . . 52
8.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
8.2.1. Autovalores de una matriz triangular . . . . . . . . . . 52
8.2.2. Independencia lineal de los autoespacios . . . . . . . . 52

9. Diagonalizacion 54
9.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
9.1.1. Matrices semejantes . . . . . . . . . . . . . . . . . . . . 54
9.1.2. Matriz diagonalizable . . . . . . . . . . . . . . . . . . . 54
9.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
9.2.1. Autovalores de matrices semejantes . . . . . . . . . . . 54
9.2.2. Condicion necesaria y suciente de diagonalizabilidad . 55
9.2.3. Condicion suciente de diagonalizabilidad . . . . . . . 56
9.2.4. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . 56

10.Forma normal de Jordan 57


10.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
10.1.1. Espacio invariante . . . . . . . . . . . . . . . . . . . . 57
10.1.2. Vector ciclico . . . . . . . . . . . . . . . . . . . . . . . 57
10.1.3. Espacio ciclico . . . . . . . . . . . . . . . . . . . . . . . 58
10.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
ÍNDICE GENERAL 5

10.2.1. Invarianza de espacios nulos . . . . . . . . . . . . . . . 58


10.2.2. Teorema 4 . . . . . . . . . . . . . . . . . . . . . . . . . 58
10.2.3. Teorema 5 . . . . . . . . . . . . . . . . . . . . . . . . . 59
10.2.4. Proposicion 1 . . . . . . . . . . . . . . . . . . . . . . . 59
10.2.5. Proposicion 2 . . . . . . . . . . . . . . . . . . . . . . . 60
10.2.6. Lema de Schur . . . . . . . . . . . . . . . . . . . . . . 60
10.2.7. Independencia lineal de vectores ciclicos . . . . . . . . 60
10.2.8. Teorema de Jordan . . . . . . . . . . . . . . . . . . . . 61

V Producto interno y ortogonalidad 62


11.Producto interno 63
11.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
11.1.1. Producto interno . . . . . . . . . . . . . . . . . . . . . 63
11.1.2. Producto interno estandar . . . . . . . . . . . . . . . . 63
11.1.3. Longitud . . . . . . . . . . . . . . . . . . . . . . . . . . 64
11.1.4. Distancia . . . . . . . . . . . . . . . . . . . . . . . . . 64
11.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
11.2.1. Ley del paralelogramo . . . . . . . . . . . . . . . . . . 64
11.2.2. Teorema de Pitagoras . . . . . . . . . . . . . . . . . . . 64
11.2.3. Desigualdad de Cauchy-Schwarz . . . . . . . . . . . . . 65
11.2.4. Desigualdad triangular . . . . . . . . . . . . . . . . . . 65

12.Ortogonalidad 66
12.1. Deniciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 66
12.1.1. Ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . 66
12.1.2. Complemento ortogonal . . . . . . . . . . . . . . . . . 66
12.1.3. Conjunto ortogonal . . . . . . . . . . . . . . . . . . . . 66
12.1.4. Base ortogonal . . . . . . . . . . . . . . . . . . . . . . 67
12.1.5. Conjunto ortonormal . . . . . . . . . . . . . . . . . . . 67
12.1.6. Matriz ortongonal . . . . . . . . . . . . . . . . . . . . . 67
12.1.7. Proyeccion de un vector sobre otro . . . . . . . . . . . 67
12.2. Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
12.2.1. Proposicion . . . . . . . . . . . . . . . . . . . . . . . . 68
12.2.2. Relacion entre complemento ortogonal y espacio nulo . 68
12.2.3. Independencia lineal de conjuntos ortogonales . . . . . 69
12.2.4. Combinacion lineal ortogonal . . . . . . . . . . . . . . 69
ÍNDICE GENERAL 6

12.2.5. Caracterizacion de las matrices ortonormales . . . . . . 70


12.2.6. Propiedades de las matrices ortonormales . . . . . . . . 70
12.2.7. Teorema de la descomposicion ortogonal . . . . . . . . 70
12.2.8. Teorema de la mejor aproximacion . . . . . . . . . . . 71
12.2.9. Corolario . . . . . . . . . . . . . . . . . . . . . . . . . 72
12.2.10.Proyecciones sobre conjuntos ortonormales . . . . . . . 72
12.2.11.Algoritmo de Gram-Schmidt . . . . . . . . . . . . . . . 72
Parte I

Sistemas de ecuaciones

7
Capítulo 1

Matrices

1.1. Deniciones
1.1.1. Matriz
Una matriz A de tamaño f × c con coecientes en K es una funcion
A : J1, f K × J1, cK → K. Notaremos al conjunto de todas las matrices de f
las y c columnas con coecientes en K como Kf ×c .
Es comun representar a una matriz A : J1, f K × J1, cK → K como un
arreglo rectangular  
a11 a12 . . . a1c
 a21 a22 . . . a2c 
A= .. .. . . .. 
 
 . . . . 
af 1 af 2 . . . af c
en donde aij son los llamados coecientes de la matriz A.
Diremos que dos matrices A y B son iguales si tienen la misma cantidad
de las, la misma cantidad de columnas y aij = bij para cualquier i, j .

1.1.2. Matriz cuadrada


Una matriz A se dice cuadrada si tiene la misma cantidad de las y
columnas, es decir, si A ∈ Kn×n para algun n.

8
CAPÍTULO 1. MATRICES 9

1.1.3. Matrices triangulares


Una matriz cuadrada A se dice:
triangular superior si aij = 0 para i > j ;

triangular inferior si aij = 0 para i < j ;

diagonal si es triangular superior y triangular inferior.

1.1.4. Matrices particulares


La matriz nula 0f ×c es la matriz de tamaño f × c que tiene todas sus
entradas iguales a cero.
La matriz identidad de orden n es la matriz I = In ∈ Kn×n tal que
Iij = δij en donde δij esta denida por:
(
1 i=j
δij =
6 j
0 i=

1.1.5. Transposicion
Dada A ∈ Km×n se dene la matriz transpuesta de A como la matriz
A ∈ Kn×m dada por (At )ij = aji .
t

Diremos que una matriz A es simetrica si A = At .

1.1.6. Matriz inversa


Diremos que una matriz A ∈ Rn×n es inversible si existe otra matriz
B ∈ Rn×n tal que AB = BA = I . De existir esta matriz es unica y se nota
A−1 .
CAPÍTULO 1. MATRICES 10

1.2. Operaciones
1.2.1. Suma
Si A, B ∈ Kf ×c , la suma de A con B es la matriz C = (A + B) ∈ Kf ×c
dada por los coecientes cij = aij + bij .

Observacion Notese que solo pueden sumarse matrices del mismo tamaño.

1.2.2. Multiplicacion por un escalar


La multiplicacion de la matriz A ∈ Kf ×c por el escalar α ∈ K se dene
como la matriz C = (αA) ∈ Kf ×c dada por cij = αaij .

1.2.3. Producto
Si A ∈ Km×n y B ∈ Kn×p denimos el producto de A con B como la
matriz C = (AB) ∈ Km×p dada por
n
X
cij = aik bkj
k=1

Observacion Notese que el producto de matrices no es conmutativo, aun-


que si asociativo.

1.2.4. Traza
n
Dada A ∈ K se dene la traza de A como tr (A) = aii .
X
n×n

i=1
CAPÍTULO 1. MATRICES 11

1.3. Teoremas
1.3.1. Propiedades de la suma
Sean A, B, C ∈ Kn×m , entonces:
Asociatividad:(A + B) + C = A + (B + C);
Conmutatividad:(A + B) = (B + A);
Existencia del neutro: 0n×m + A = A + 0n×m ;
Existencia del opuesto: A + (−1A) = 0.

1.3.2. Propiedades del producto por un escalar


Sean A, B ∈ Kn×m y α, β ∈ K, entonces:
Asociatividad:(αβ) A = α (βA);
Distributividad respecto de la suma de matrices: α (A + B) = αA+βB ;
Distributividad respecto de la suma de escalares: (α + β) A = αA+βA;
Escalar neutro para el producto: 1A = A;
α0n×m = 0n×m ;
0A = 0n×m ;
αA = 0n×m ⇒ α = 0 o A = 0n×m ;
(−α) A = α (−A).

1.3.3. Propiedades del producto de matrices


Sean A, B, C matrices con coecientes en K, entonces:
Asociatividad: A (BC) = (AB) C ;
Distributividad respecto de la suma de matrices por la derecha: (A + B) C =
AC + BC ;
Distributividad respecto de la suma de matrices por la izquierda: A (B + C) =
AB + AC .
CAPÍTULO 1. MATRICES 12

1.3.4. Propiedades de las matrices triangulares


Si A, B son matrices triangulares inferiores, entonces AB tambien lo es
y ademas si A es invertible resultara que A−1 es triangular inferior.
Si A, B son matrices triangulares superiores, entonces AB tambien lo
es y ademas si A es invertible resultara que A−1 es triangular superior.
Si A, B son matrices diagonales, entonces AB tambien lo es y ademas
si A es invertible resultara que A−1 es diagonal.

1.3.5. Propiedades de la transposicion


Sean A, B ∈ Kf ×c , α ∈ K entonces:
(At ) = A;
t

(αA)t = αAt ;

(A + B)t = At + B t ;

Si C ∈ Km×n y D ∈ Kn×p entonces (CD)t = Dt C t .

1.3.6. Propiedades de la traza


tr (A + B) = tr (A) + tr (B);

tr (αA) = αtr (A);

tr (AB) = tr (BA);
n X
X n
tr (AAt ) = a2ij
i=1 j=1
Capítulo 2

Factorizacion LDU

2.1. Deniciones
2.1.1. Matriz de eliminacion
Denimos la matriz Eij (−l) dada por:

−l
 p=i∧q =j
epq = 1 p=q

0

Si premultiplicamos a una matriz A por esta matriz de eliminacion, lo que


obtenemos es una nueva matriz donde a la la i de A se le ha restado l veces
la la j .

2.1.2. Matriz de permutacion


Una matriz es de permutacion si es cuadrada con exactamente una com-
ponente 1 por la y columna, y el resto de sus coecientes son 0.

2.1.3. Matriz no singular


Una matriz cuadrada A es no singular si puede transformarse en U
sin pivotes nulos, con posibles intercambios de las. En este caso el sistema
Ax = b tiene solucion unica.
Una matriz es singular cuando aun con intercambio de las hay pivotes
nulos.

13
CAPÍTULO 2. FACTORIZACION LDU 14

2.2. Teoremas
2.2.1. Unicidad de la factorizacion LDU
Enunciado Si A puede factorizarse sin intercambio de las y todos los
pivotes son distintos de 0, entonces la factorizacion LDU es unica.

Demostracion Supongamos A = L1 D1 U1 = L2 D2 U2 .
1 es triangular inferior con 1 en la diagonal.
L−1
U2−1 es triangular superior con 1 en la diagonal.
D1−1 es diagonal cuyos elementos diagonales son los reciprocos de los
elementos diagonales de D1 .
L1 D1 U1 = L2 D2 U2
−1
D1 U1 = L1 L2 D2 U2
−1 −1
U1 = D1 L1 L2 D2 U2
U1 U2−1 = D1−1 L−1
1 L2 D2
| {z } | {z }
triangular superior con 1 en la diagonal triangular inferior

Luego ambas matrices son I , es decir: U1 U2−1 = I ⇒ U1 = U2 y analo-


gamente L1 = L2 y D1 = D2 .

2.2.2. Unicidad de la factorizacion LU


Enunciado La factorizacion LU de una matriz cuadrada invertible es uni-
ca.

Demostracion Supongamos A = L1 U1 = L2 U2 , luego A = L1 D1 U


f1 = L2 D2 U
f2
y por el teorema anterior L1 = L2 ∧ D1 = D2 ∧ U f2 ⇒ U1 = D1 U
f1 = U f2 = U2 .
f1 = D2 U

2.2.3. Factorizacion de matrices simetricas


Enunciado Si A es simetrica y puede factorizarse sin intercambio de las
en la forma LDU , entonces U = Lt .

Demostracion A = LDU = At = U t Dt Lt = U t DLt por lo tanto L = U t


y U = Lt .
CAPÍTULO 2. FACTORIZACION LDU 15

2.2.4. Lema
Enunciado Sean para i, j ∈ {1, . . . , n} las funciones:
Πij : {1, . . . , n} → {1, . . . , n} 
r
 i 6= j 6= r
r → Πij (r) = i r=j

j r=i

entonces Pij Ekl (m) = EΠij (k)Πij (l) (m) Pij .

Demostracion
Si k, l 6= i, j ⇒ Pij Ekl = Ekl Pij .
Si k = i ∧ l = j , como Πij (k) = j y Πij (l) = i ⇒ Pij Eij = Eji Pij .
Si k = i ∧ l 6= j , como Πij (k) = j y Πij (l) = l ⇒ Pij Eil = Ejl Pij .
COMPLETAR.

2.2.5. Clasicacion de sistemas


Enunciado Sea A ∈ Rn×n , luego:
1. Si A se puede transformar en U triangular superior sin 0 en la diagonal
entonces Ax = b tiene solucion unica ∀b ∈ Rn .
2. Si no, entonces para cada b ∈ Rn , Ax = b tiene innitas soluciones o
ninguna.

Demostracion
1. Ax = b, EP |{z}b ⇒ U x = b̃, luego como U es triangular superior
| {zA} x = EP
U b̃
sin 0 en la diagonal, existe solucion unica con substitucion hacia atras.
CAPÍTULO 2. FACTORIZACION LDU 16

2. Si no se puede transformar en U , la matriz EP A tendra esta forma:


U0
 
c M1
z }| { z}|{ z }| {
? ··· ··· ? ? ? ··· ··· ?
 
... .. .. .. ..
 
. . . .
 
 0 
.. ... . . . .. .. .. ..
 
. . . . .
 
 
 

 0 ··· 0 ? ? ? ··· ··· ? 

j
 0 ··· ··· 0 0 ? ··· ··· ? }m2 

 0 ··· ··· 0 0 ? ··· ··· ? 
.. .. .. .. ..
 
. . . . .
 
 

.. .. .. .. .. 
. . . . .
 
 
0 ··· ··· 0 0 ? ··· ··· ?
 
 
| {z } | {z }
0 M3
 

. xn , luego EP Ax tendra esta forma:


sea x = x1 , . . ., xj , |. .{z }
| {z }
w z

U 0 w + cxj + M1 z
 
 m2 z 
M3 z
 

y sea b̃ = EP b = |{z} . . . , luego el sistema EP Ax = b̃ es


. . . , bj , |{z}
d1 d2
equivalente al sistema Ax = b:

0
U w + cxj + M1 z
 = d1
M2 = bj

M3 = d2

Si M3 z = d2 no tiene solucion entonces no hay solucion del sistema.


Si M3 z = d2 tiene solucion, sea z̃ tal solucion, luego:
• M2 z̃ 6= bj ⇒ no hay solucion.
• COMPLETAR.
CAPÍTULO 2. FACTORIZACION LDU 17

2.2.6. No singularidad e invertibilidad


Enunciado A es no singular si y solo si A es inversible.

Demostracion
⇒ : Como A es no singular, entonces ∀b ∈ Rn el sistema Ax = b tiene
solucion unica. En particular para los versores ej .
   
| | | | | |
Sean xj /Axj = ej y B =  x1 . . . xn , luego AB =  Ax1 . . . Axn  = I .
| | | | | |
Tenemos:
EA xj = Eej ⇒ xj = U −1 Eej .
• Axj = ej ⇒ |{z}
U
 
| | |
• B =  U −1 Ee1 . . . U −1 Een  = U −1 EI = U −1 E .
| | |

Luego BA = (U −1 E) A = U −1 (EA) = U −1 U = I , o en forma mas


sencilla:

AB = I ⇐⇒ EP AB = EP ⇐⇒ U BA = EP A ⇐⇒ U BA = U ⇐⇒ BA = I

⇐ : A es invertible, luego existe A−1 por lo que Ax = b tiene solucion


x = A−1 b.
Supongamos que Ax1 = b y Ax2 = b, luego x1 = A−1 b y x2 = A−1 b por
lo que x1 = x2 .
Parte II

Espacios vectoriales

18
Capítulo 3

Introduccion

3.1. Deniciones
3.1.1. Espacio vectorial
Sea V un conjunto no vacio de objetos llamados elementos, K un cuerpo
de escalares y las operaciones:
+ : V × V →V · : K × V →V
(u, v) →u + v (α, u) →αu

decimos que (V, K, +, ·) es un espacio vectorial si satisface los siguientes axio-


mas:
Axiomas para la suma
1. Cerrado bajo la suma: (∀u, v ∈ V ) ∃!w ∈ V /w = u + v .
2. Asociatividad de la suma: u + (v + w) = (u + v) + w.
3. Conmutatividad de la suma: u + v = v + u .
4. Elemento neutro de la suma: ∃!0 ∈ V /v + 0 = v .
5. Elemento opuesto de la suma: (∀v ∈ V ) ∃! − v ∈ V /v + (−v) = 0.

19
CAPÍTULO 3. INTRODUCCION 20

Axiomas para el producto por escalares


1. Cerrado bajo el producto: (∀v ∈ V, α ∈ K) ∃!w ∈ V /w = αv .
2. Asociatividad del producto: (αβ) v = α (βv).
3. Elemento neutro del producto: (∀v ∈ V ) 1K v = v .
Propiedades distributivas
1. Del producto respecto de la suma de vectores: α (u + v) = αu+αv .
2. Del producto respecto de la suma de escalares: (α + β) v = αv + βv .

3.1.2. Subespacio vectorial


Sea V un espacio vectorial sobre K, diremos que U es subespacio vectorial
de V si es un subconjunto de V y ademas es un espacio vectorial, es decir:
1. No es vacio: 0 ∈ U .
2. Cerrado bajo la suma: (∀u, v ∈ U ) ∃!w ∈ U/w = u + v .
3. Cerrado bajo el producto: (∀v ∈ U, α ∈ K) ∃!w ∈ U/w = αv .

Observacion El resto de los axioman se heredan por ser U ⊆ V .

3.1.3. Suma de subespacios


Sea V un espacio vectorial sobre el cuerpo K y U1 , U2 subespacios de V de-
nimos el subespacio suma como: U = U1 +U2 = {u1 + u2 /u1 ∈ U1 , u2 ∈ U2 }.
Si ademas, cada u ∈ U se escribe de manera unica como la suma de un
vector de U1 y otro de U2 y lo notamos U = U1 ⊕ U2 .

3.1.4. Combinacion lineal


Sea V un espacio vectorial sobre K y dados los vectores v1 , v2 , . . . , vn ∈ V
diremos que v ∈ V es una combinacion lineal de dichos vectores si existen
escalares α1 , α2 , . . . , αn ∈ K tales que: v = α1 v1 + α2 v2 + · · · + αn vn .
CAPÍTULO 3. INTRODUCCION 21

3.1.5. Espacio generado


Denimos al espacio generado por S = {v1 , v2 , . . . , vn } como:
hSi = {α1 v1 + α2 v2 + · · · + αn vn /α1 , α2 , . . . , αn ∈ K}
es decir, el conjunto de todas las combinaciones lineales de los vectores de S .
Si S ⊆ V y V = hSi diremos que S genera a V . Si |S| = n ∈ N diremos
que V es de dimension nita y en caso contrario de dimension innita.

3.2. Teoremas
3.2.1. Propiedades de los espacios vectoriales
Enunciado Sea (V, K, +, ·) un espacio vectorial, sabemos existe 0 ∈ V /0 + x = x;
y para cada v ∈ V existe v̄/v + v̄ = 0, luego:
1. Si 00 ∈ V es tal que 00 + x = x, entonces 00 = 0.
2. Dado v ∈ V , si v̄ 0 es tal que v + v̄ 0 = 0, entonces v̄ 0 = v̄ .
3. Si z + x = z + y entonces x = y .
4. α · 0 = 0.
5. 0 · v = 0.
6. (−α · v) = α · v̄ = (α · v).
7. Si α · v = 0 entonces α = 0 o v = 0.

Demostracion EJERCICIO.

3.2.2. Caracterizacion de suma directa de subespacios


Enunciado Sean U1 y U2 subespacios de V , luego las siguientes proposi-
ciones son equivalentes:
1. V = U1 ⊕ U2 .
2. V = U1 + U2 y 0 = u1 + u2 ⇒ u1 = u2 = 0.
3. V = U1 + U2 y U1 ∩ U2 = {0}.
CAPÍTULO 3. INTRODUCCION 22

Demostracion
1 ⇐⇒ 2:

• ⇒ : Supongamos V = U1 ⊕ U2 . Luego por denicion resulta


V = U1 + U2 . Ademas por la unicidad de la representacion del
0 tenemos 0 = u1 + u2 ⇒ u1 = u2 = 0 pues 0 = 0 + 0.
• ⇐ : Puesto que V = U1 +U2 tenemos que ∀v ∈ V ∃u1 , u2 /v = u1 + u2 .
Solo nos queda ver la unicidad. Supongamos que v = w1 + w2 = u1 + u2 ,
luego:

0 = v − v = (u1 + u2 ) − (w1 + w2 ) = (u1 − w1 ) − (u2 − w2 )


| {z } | {z }
∈U1 ∈U2

y como 0 = u1 +u2 ⇒ u1 = u2 = 0, sabemos que u1 − w1 = 0 ⇒ u1 = w1


y analogamente u2 = w2 por lo tanto ∃!u1 , u2 /v = u1 + u2 .
1 ⇐⇒ 3: EJERCICIO.

3.2.3. Lema
Enunciado Sea V un espacio vectorial y v1 , v2 , . . . , vn ∈ V entonces:
1. vj ∈ h{v1 , v2 , . . . , vn }i para j ∈ {1, . . . , n}.
2. h{v1 , v2 , . . . , vn }i es un subespacio de V .
3. Si U ⊆ V es un subespacio de V tal que v1 , v2 , . . . , vn ∈ U luego
h{v1 , v2 , . . . , vn }i ⊆ U .
CAPÍTULO 3. INTRODUCCION 23

Demostracion
1. En efecto vj = (0v1 + . . . + 1vj + . . . + 0vn ) ∈ h{v1 , v2 , . . . , vn }i.
2. Nos alcanzara con ver que h{v1 , v2 , . . . , vn }i =
6 ∅ y ademas es cerrado
bajo la suma de vectores y producto por escalares:
0 ∈ h{v1 , v2 , . . . , vn }i pues 0 = 0v1 + . . . + 0vn .
Sean u, w ∈ h{v1 , v2 , . . . , vn }i luego u = α1 v1 + . . . + αn vn y w =
β1 v1 + . . . + βn vn . Sumando ambas igualdades obtenemos:
u + w = (α1 + β1 ) v1 + . . . + (αn + βn ) vn
por lo que u + w ∈ h{v1 , v2 , . . . , vn }i.
Sea α un escalar, luego αv = α (c1 v1 + . . . + cn vn ) = (αc1 ) v1 + . . . + (αcn ) vn
por lo que αv ∈ h{v1 , v2 , . . . , vn }i.
3. Sea u ∈ h{v1 , v2 , . . . , vn }i, luego u = α1 v1 +. . .+αn vn . Como v1 , . . . , vn ∈
U y U es un espacio vectorial, los axiomas de clausura nos permiten
asegurar que α1 v1 + . . . + αn vn = u ∈ U .

Observacion Este lema implica que h{v1 , v2 , . . . , vn }i es el menor subes-


pacio de V que contiene a v1 , v2 , . . . , vn .

3.2.4. Union de espacios vectoriales


Enunciado Sean W1 , W2 subespacios de V , luego W1 ∪ W2 es subespacio
de V si y solo si W1 ⊂ W2 o W2 ⊂ W1 .
⇒ : Supongamos lo contrario, es decir que W1 6⊂ W2 y W2 6⊂ W1 . Esto
quiere decir que ∃u ∈ W1 /u ∈
/ W2 y ∃v ∈ W2 /u ∈ / W1 .
Consideremos ahora el vector u + v ∈ W1 ∪ W2 , luego u + v ∈ W1 o
u + v ∈ W2 .
• Si u + v ∈ W1 entonces por existencia del opuesto y clausura bajo
la suma u + v − u = u ∈ W1 . Contradiccion.
• Analogamente para u + v ∈ W1 .
⇐ : Trivial pues si W1 ⊂ W2 o W2 ⊂ W1 entonces W1 ∪ W2 = W1 o
bien W1 ∪ W2 = W2 .
Capítulo 4

Independencia lineal, dimension y

base

4.1. Deniciones
4.1.1. Independencia lineal
Sea V un espacio vectorial sobre K, entonces S ⊂ V se dice linealmente
dependiente si existen v1 , . . . , vn ∈ S distintos y escalares α1 , . . . , αn no todos
nulos tales que α1 v1 + · · · + αn vn = 0.
Un conjunto que no es linealmente dependiente se dice linealmente in-
dependiente. Mas precisamente un conjunto es linealmente independiente si
α1 v1 + α2 v2 + · · · + αn vn = 0 ⇒ α1 = . . . = αn = 0.
Si el conjunto S es nito, frecuentemente se dice que los vectores S son
linealmente dependientes o independientes.

Observaciones
Cualquier conjunto que contenga a 0 es linealmente dependiente.
Cualquier conjunto que contenga a otro linealmente dependiente es
linealmente dependiente.
Cualquier subconjunto de uno linealmente independiente, tambien es
linealmente independiente.
Un conjunto S es linealmente independiente si y solo si cada subcon-
junto de S es linealmente independiente.

24
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 25

4.1.2. Dimension
Todo espacio vectorial V generado por una cantidad nita de vectores n
se denomina espacio vectorial de dimension nita y lo notamos dim (V ) = n
siendo n el natural mas pequeño posible. En caso contrario diremos que V
es de dimension innita.

4.1.3. Base
En un espacio vectorial V de dimension nita, una base B es un conjunto
de vectores linealmente independientes que genera el espacio.

Observacion Notese que |B| = dim (V ).

4.2. Teoremas
4.2.1. Unicidad de la combinacion lineal independiente
Enunciado Los vectores v1 , . . . , vn son linealmente independientes si y solo
si ∀v ∈ h{v1 , . . . , vn }i, v puede escribirse de manera unica como combinacion
lineal de v1 , . . . , vn .

Demostracion
⇒ : Sea v ∈ h{v1 , . . . , vn }i /v = α1 v1 + . . . + αn vn = β1 v1 + . . . + βn vn
luego 0 = v−v = (α1 − β1 ) v1 +. . .+(αn − βn ) vn . Como dichos vectores
son linealmente independientes resulta αi − βi = 0 ⇐⇒ αi = βi , por
lo tanto ambas combinaciones son identicas.
⇐ : Como la unica forma de escribir al 0 es 0 = 0v1 +. . .+0vn entonces
dichos vectores son linealmente independientes.

4.2.2. Lema
Enunciado Si S = {v1 , . . . , vn } es linealmente dependiente y v1 6= 0 luego
∃j ∈ {2, . . . , n} tal que se verican:
1. vj ∈ h{v1 , . . . , vj−1 , vj+1 , . . . , vn }i.
2. Si quitamos al vector vj resulta: h{v1 , . . . , vn }i = h{v1 , . . . , vj−1 , vj+1 , . . . , vn }i.
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 26

Demostracion
1. Como S es linealmente dependiente existen escalares c1 , . . . , cn ∈ K no
todos nulos tales que c1 v1 + . . . + cn vn = 0. Como v1 6= 0 entonces
c2 , . . . , cn no pueden ser todos cero.
Sea j ∈ {2, . . . , n} el mayor indice tal que cj 6= 0 luego:
cj c1 c2 cj−1 cj+1 cn
vj = vj = − v1 − v2 − . . . − vj−1 − vj+1 − . . . − vn
cj cj cj cj cj cj

quedando probado lo propuesto.


2.
⊇ : Trivial.
⊆ : Sea v ∈ h{v1 , . . . , vn }i luego:
 
c1 cj−1 cj+1 cn
v = a1 v1 +. . .+aj − v1 − . . . − vj−1 − vj+1 − . . . − vn +. . .+an vn
cj cj cj cj

quedando probado lo propuesto.

4.2.3. Finitud de subconjuntos linealmente independien-


tes
Enunciado Sea V un espacio vectorial generado por un conjunto nito de
vectores B = {v1 , . . . , vn } entonces cualquier conjunto linealmente indepen-
diente de vectores de V es nito y no contiene mas de n elementos.

Demostracion Sea S ⊆ V un conjunto con mas de n vectores: S = {w1 , . . . , wm } .


n
Como cada wj ∈ V entonces existen escalares aij ∈ K/wj = aij vi .
X

i=1
Sea A = (aij )n×m , como el sistema Ax = 0 es compatible indeterminado
(pues tiene menos ecuaciones que incognitas) existe una solucion no trivial
m
x = (x1 , . . . xm ) tal que aij xj = 0.
X

j=1
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 27

Consideremos una combinacion lineal en S con dichos escalares:


m m n
! m n
! n m
!
X X X X X X X
xj wj = xj aij vi = xj aij vi = xj aij vi = 0
j=1 j=1 i=1 j=1 i=1 i=1 j=1

Es decir que para esos escalares x1 , . . . , xm no todos nulos resulta que


x1 w1 + . . . + xm wm = 0 con escalares no todos nulos, luego S es linealmente
dependiente.

4.2.4. Corolario
Enunciado Sea V un espacio vectorial de dimension nita n entonces:
1. Cualquier subconjunto de V que contenga mas de n vectores es lineal-
mente dependiente.
2. No existe un subconjunto de V que contenga menos de n vectores que
genere V .

Demostracion
1. Sea S un subconjunto de V con mas de n vectores y supongamos que
es linealmente independiente, luego por el teorema anterior resulta que
S no tiene mas de n vectores. Contradiccion.
2. Supongamos existe un conjunto con menos de n vectores que genera
V , digamos m < n vectores. Como n es la dimension de V entonces es
el minimo numero de vectores necesarios para generar V , sin embargo
tambien lo podemos generar con m < n vectores. Contradiccion.

4.2.5. Lema
Enunciado Sea S un subconjunto linealmente independiente de un espacio
vectorial V y supongamos que v ∈ V pero v ∈
/ hSi entonces S ∪ {v} es
linealmente independiente.

Demostracion Sean w1 , . . . , wn ∈ S distintos. Consideremos c1 w1 + . . . + cn wn + bv = 0


con b 6= 0. Podemos escribir v = − cnb w1 −. . .− cbn wn luego v ∈ hSi lo que con-
tradice nuestra hipotesis por lo que b = 0 y en consecuencia c1 = . . . = cn = 0
por ser S linealmente independiente.
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 28

4.2.6. Teorema
Enunciado Si W es un subespacio de un espacio vectorial de dimension
nita V , entonces cada subconjunto linealmente independiente de W es nito
y es parte de una base nita de W .

Demostracion Sea S0 un subconjunto linealmente independiente de W ,


luego S0 es subconjunto linealmente independiente de V por ser W ⊆ V
y por el teorema anterior (como V es de dimension nita) resulta S0 un
conjunto nito.
Si S0 genera a W ya esta probado el teorema. Si no entonces existe
b1 ∈ W/b1 ∈/ hS0 i luego S1 = {b1 } ∪ S0 resulta linealmente independiente
por el lema anterior.
Si S1 genera a W ya esta probado el teorema. Si no entonces existe
b2 ∈ W/b2 ∈/ hS1 i luego S2 = {b2 } ∪ S1 resulta linealmente independiente
por el lema anterior.
Continuando de esta manera entonces en a lo sumo dim (V ) − 1 pasos
llegamos a obtener un conjunto Sk = S0 ∪ {b1 , . . . , bk } que es base de W .

4.2.7. Relacion entre la dimension de un espacio y un


subespacio
Enunciado Si W es un subespacio propio de un espacio vectorial V de
dimension nita entonces W es de dimension nita y dim (W ) < dim (V ).

Demostracion Sea v ∈ W/v 6= 0. Por el teorema anterior existe una base


de W que contiene a v y no contiene mas de dim (V ) elementos por lo que
resulta W de dimension nita y dim (W ) ≤ dim (V ).
Como W es un subespacio propio de V , existe b ∈ V /b ∈
/ W . Sea BW una
base de W luego:

dim (W ) = |BW | < |{b} ∪ BW | ≤ dim (V )


CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 29

4.2.8. Corolario
Enunciado En un espacio vectorial de dimension nita V cada conjunto
no vacio de vectores linealmente independientes es parte de una base de V .

Demostracion EJERCICIO.

4.2.9. Inversibilidad de una matriz


Enunciado Sea A una matriz n × n sobre un cuerpo K y supongamos
que sus vectores las forman un conjunto linealmente independiente de Kn
entonces A es inversible.
 
− v1 −
Demostracion A =  .
 − .. −  siendo vi vectores la de A. Llamemos

− vn −
W al subespacio generado por {v1 , . . . , vn } donde dim (W ) = n resultando
W = Kn . n
Por otro lado ei = cij vj para algunos escalares cij con 1 ≤ i ≤ n,
X

j=1
luego I = CA y analogamente I = AC .

4.2.10. Dimension de la suma de subespacios


Enunciado Si W1 y W2 son subespacio de dimension nita de un espacio
vectorial V entonces W1 + W2 es de dimension nita y ademas resulta:

dim (W1 ) + dim (W2 ) = dim (W1 ∩ W2 ) + dim (W1 + W2 )

Demostracion Por hipotesis podemos decir que W1 ∩ W2 es un subespacio


de dimension nita y por el corolario anterior existe una base de W1 ∩ W2 ,
digamos {u1 , . . . , uk } tal que es parte de una base de W1 y una base de W2 .
Es decir:
{u1 , . . . , uk , v1 , . . . , vm } es base de W1 .

{u1 , . . . , uk , w1 , . . . , wn } es base de W2 .
CAPÍTULO 4. INDEPENDENCIA LINEAL, DIMENSION Y BASE 30

Seguro que W1 + W2 esta generado por {u1 , . . . , uk , v1 , . . . , vm , w1 , . . . , wn }.


Veamos que este conjunto es linealmente independiente:
(∗)
z }| {
X k m
X n
X
xi ui + y j vj + zl wl = 0
i=1 j=1 l=1

n
X k
X m
X
− zl wl = xi u i + yj vj
l=1 i=1 j=1
| {z } | {z }
h∈W2 h∈W1

luego resulta que h ∈ W2 y h ∈ W1 , es decir h ∈ W1 ∩ W2 = {u1 , . . . , uk } por


lo que existen escalares ci tales que:
n
X k
X k
X n
X
h=− zl wl = ci ui ⇒ 0 = ci u i + zl wl
l=1 i=1 i=1 l=1

donde {u1 , . . . , uk , w1 , . . . , wn } es linealmente independiente (por ser base de


W2 ) y entonces zl = 0 para todo l ∈ {1, . . . , n}.
k m
Volviendo a (∗): yj vj = 0 donde {u1 , . . . , uk , v1 , . . . , vm } es
X X
xi u i +
i=1 j=1
linealmente independiente, luego xi = 0 para todo i ∈ {1, . . . , k} y yj = 0
para todo j ∈ {1, . . . , m}.
Por lo tanto {u1 , . . . , uk , v1 , . . . , vm , w1 , . . . , wn } es linealmente indepen-
diente y mas aun, es una base de W1 + W2 .
Tenemos:
dim (W1 ) + dim (W2 ) = (k + m) + (k + n) = k + (m + k + n).

dim (W1 + W2 ) = k + m + n.

dim (W1 ∩ W2 ) = k .

luego,

dim (W1 ) + dim (W2 ) = dim (W1 ∩ W2 ) + dim (W1 + W2 )


Capítulo 5

Coordendas y cambios de base

5.1. Deniciones
5.1.1. Base ordenada
Sea V un espacio vectorial de dimension nita, una base ordenada de
V es una sucesion nita de vectores que genera el espacio V . Por abuso de
notacion diremos que B = {v1 , . . . , vn } es una base ordenada.

5.1.2. Coordenadas
Sea V un espacio vectorial de dimension nita sobre K y sea B = {v1 , . . . , vn }
una base ordenada de V entonces, dado v ∈ V resulta que existe una uni-
n
ca n-upla (x1 , . . . , xn ) de escalares tal que v = xi vi . Llamaremos a xi la
X

i=1
cordenada i-esima de v respecto de la base ordenada B .
Es decir que para cada base ordenada de V existe una funcion biyectiva:
F : V →Kn
v → (x1 , . . . , xn )

donde F verica F (u + v) = F (u) + F (v) y F (αu) = αF (u).


Para establecer la dependencia de las coordenadas respecto de una base
ordenada B notaremos [v]B .

31
CAPÍTULO 5. COORDENDAS Y CAMBIOS DE BASE 32

5.2. Teoremas
5.2.1. Matriz de cambio de base
Enunciado Sea V un espacio vectorial de dimension n sobre K y sean B
y B 0 bases ordenadas de V entonces existe una unica matriz n × n inversible
A ∈ M [K] tal que: [v]B = A [v]B 0 y [v]B 0 = A−1 [v]B para todo v ∈ V .

Demostracion Sean B = {v1 , . . . , vn } y B 0 = {v10 , . . . , vn0 } bases ordenadas


de V y sea u ∈ V tal que [u]B 0 = (x01 , . . . , x0n ). Sabemos que para cada vj0
n
existe unicos escalares aij tales que vj0 = aij vi para 1 ≤ j ≤ n. Para u
X

i=1
tenemos:
n n n
! n X
n n n
!
X X X X X X
u = x01 v10 +. . .+xn vn0 = x0j vj0 = x0j x0j aij vi = x0j aij

aij vi = vi
j=1 j=1 i=1 j=1 i=1 i=1 j=1

Como las coordenadas x1 , . . . , xn de u respecto de B son unicas, se deduce


n
que xi = aij x0j para 1 ≤ i ≤ n.
X

j=1
| {z }
(∗)
 
x1
Sea A la matriz n×n cuyas entradas entrada ij son aij y sean x =  ... 
 
xn
 
x01
y x0 =  ...  podemos escribir (∗) como [u]B = x = Ax0 = A [u]B 0 (1).
 
x0n
Como B y B 0 son linealmente independientes, x = 0 ⇐⇒ x0 = 0 enton-
ces considerando (1) resulta que los vectores columna de A son linealmente
independientes luego A resulta inversible y x0 = A−1 x.
CAPÍTULO 5. COORDENDAS Y CAMBIOS DE BASE 33

5.2.2. Teorema
Enunciado Sea A una matriz inversible n × n sobre K, V un espacio vec-
torial de dimension n sobre K y B una base ordenada de V entonces existe
una unica base ordenada B 0 de V tal que:
1. [v]B = A−1 [v]B 0 .
2. [v]B 0 = A [v]B .

Demostracion Sea B = {v1 , . . . , vn }, si B 0 = {v10 , . . . , vn0 } es una base que


n
verica (2) entonces aij vi . Veamos que {v10 , . . . , vn0 } asi denidos
X
vj0 =
i=1
constituyen una base ordenada. Sea Q = A−1 , luego
n n n n n
!
X X X X X
qjk vj0 = qjk aij vi = aij qjk vi = vk
j=1 j=1 i=1 i=1 j=1

para 1 ≤ k ≤ n.
Vemos que para cada k pudimos expresar al vector vk como combinacion
lineal de los vectores {v10 , . . . , vn0 }, es decir que el espacio generado por B 0
contiene a B por lo tanto B 0 genera todo el espacio V . Ademas como B 0 es
linealmente independiente, luego B 0 es base de V y por su denicion y el
teorema anterior resultan (1) y (2).
Parte III

Transformaciones lineales

34
Capítulo 6

Introduccion

6.1. Deniciones
6.1.1. Transformacion lineal
Sean V y W espacios vectoriales sobre K, una funcion T : V → W es
llamada lineal si verica:
1. T (u + v) = T (u) + T (v) ∀u, v ∈ V .
2. T (αu) = αT (u) ∀u ∈ V ∀α ∈ K.
Notaremos al conjunto de todas las transformaciones lineales de V en W
como L (V, W ).

Observacion Como T (0 − v) = T (0)−T (v) resulta T (u) = T (v) ⇐⇒ T (u − v) = 0.

6.1.2. Espacio nulo


Sea T ∈ L (V, W ) denimos el espacio nulo de T como: N (T ) = {v ∈ V /T (v) = 0}.
Notese que N (T ) es un espacio vectorial.
Diremos que una transformacion lineal es no singular si T (v) = 0 ⇒ v = 0
es decir N (T ) = {0}.

6.1.3. Rango
Si V es un espacio vectorial de dimension nita y T ∈ L (V, W ) se dice
que la dimension de img (T ) es el rango de T .

35
CAPÍTULO 6. INTRODUCCION 36

6.1.4. Homomorsmos
Las transformaciones lineales de entre espacios vectoriales son llamadas
homomorsmos de espacios vectoriales. Un homomorsmo T ∈ L (V, W ) se
llama:
Monomorsmo si T es inyectiva.
Epimorsmo si T es sobreyectiva.
Isomorsmo si T es biyectiva.
Endomorsmo si V = W .
Automormos si es un isomormo endomorfo.

6.1.5. Espacios isomorfos


Si existe un isomorsmo de V en W diremos que V y W son isomorsmos.

Observaciones
Todo espacio vectorial es trivialmente isomorfo a si mismo.
Si V es isomorfo a W luego W es isomorfo a V .
Si V es isomorfo a W y W a Z entonces V es isomorfo a Z .
De lo anterior concluimos que la relacion ser isomorfo a es una relacion de
equivalencia en el conjunto de espacios vectoriales.

6.2. Teoremas
6.2.1. Determinacion de una TL por la actuacion en la
base
Enunciado Sea V un espacio vectorial de dimension nita y {v1 , . . . , vn }
una base ordenada de V y sean W un espacio vectorial sobre el mismo cuerpo
K y w1 , . . . , wn ∈ W entonces existe una unica T ∈ L (V, W ) /T (vi ) = wi
con i ∈ {1, . . . , n}.
CAPÍTULO 6. INTRODUCCION 37

Demostracion Denamos T sobre V : sea v ∈ V , sabemos que existe un


unico vector (x1 , . . . , xn ) ∈ Kn tal que v = x1 v1 + . . . + xn vn . Sea:
n
! n n
X X X
T (v) = x1 T (v1 ) + . . . + xn T (vn ) = T xi vi = xi T (vi ) = xi w i
i=1 i=1 i=1

T esta bien denida pues T (vi ) ∈ W .

T es lineal pues:
n n
! " n
# n
X X X X
• T (u + v) = T xi vi + yi vi =T (xi + yi ) vi = (xi + yi ) T (vi ) =
i=1 i=1 i=1 i=1
n
X n
X n
X
= (xi + yi ) wi = xi w i + yi wi = T (v) + T (w)
i=1 i=1 i=1
n
! n n
X X X
• T (αv) = T αxi vi = αxi T (vi ) = α xi wi = αT (v)
i=1 i=1 i=1

T es unica: Supongamos S : V → W es una transformacion lineal tal


que S (vi ) = wi para 1 ≤ i ≤ n. Luego para v ∈ V :
n
! n n n n
!
X X X X X
S (v) = S xi vi = xi S (vi ) = xi w i = xi T (vi ) = T xi vi = T (v)
i=1 i=1 i=1 i=1 i=1

6.2.2. Inyectividad de una transformacion lineal


Enunciado Sea T una transformacion lineal, luego T es inyectiva si y solo
si N (T ) = {0}.

Demostracion
⇒ : Supongamos existe un vector v ∈ V /T (v) = 0 = T (0) |{z}
⇒ v = 0.
inyectiva

⇐ : Sean u, v ∈ V /T (u) = T (v) luego:

T (u)−T (v) = 0 ⇒ T (u − v) = 0 ⇒ u−v ∈ N (T ) = {0} ⇒ u−v = 0 ⇒ u = v


CAPÍTULO 6. INTRODUCCION 38

6.2.3. Teorema de la dimension


Enunciado Sean V, W espacios vectoriales sobre K y T ∈ L (V, W ) de
dimension nita, entonces rang (T ) + dim [N (T )] = dim (V ).

Demostracion Sea {v1 , . . . , vk } una base de N (T ), existen vectores vk+1 , . . . , vm


tales que {v1 , . . . , vk , vk+1 , . . . , vm } es base de V . Veamos que {T (vk+1 ) , . . . , T (vm )}
es una base de img (T ).
Los vectores T (v1 ) , . . . , T (vm ) generan img (T ) pues sea y ∈ img (T ) lue-
m
go ∃v ∈ V /T (v) = y . Como v ∈ V existen escalares α1 , . . . , αm ∈ K/v = αj vj ,
X

j=1
m
! m
luego y = T αj T (vj ). Para 1 < j < k se tiene que
X X
αj vj =
j=1 j=1
m
T (vj ) = 0 (por ser vectores de N (T )) por lo tanto y = αj T (vj ) con-
X

j=k+1
cluyendo que T (vk+1 ) , . . . , T (vm ) generan img (T ). Debemos ver ahora que
son linealmente independientes. !
m m
Supongamos existen escalares ci ∈ K tales que 0 = ci vi ,
X X
ci T (vi ) = T
i=k+1 i=k+1
m
es decir que v = ci vi ∈ N (T ). Como {v1 , . . . , vk } es base de N (T )
X

i=k+1
k
tambien existen escalares bi ∈ K tales que v = bi vi ∈ N (T ). Luego
X

i=1
k m
ci vi y como {v1 , . . . , vk , vk+1 , . . . , vm } son li-
X X
0 = v−v = bi vi −
i=1 i=k+1
nealmente independientes por ser base de V resulta que bi = ci = 0. Por lo
tanto {T (vk+1 ) , . . . , T (vm )} es base de img (T ).
rang (T ) = dim [img (T )] = m − k .

dim (V ) = m = k + (m − k) = dim [N (T )] + rang (T ).


CAPÍTULO 6. INTRODUCCION 39

6.2.4. Relacion entre el rango por las y columnas


Enunciado Si A es una matriz con entradas en K entonces dim [N (T )]
mas el rango de A por las es igual al rango de A por columnas.

Demostracion Sea T : Kn → Km tal que T (x) = Ax. El espacio nulo de


T es el espacio solucion de Ax = 0. La imagen de T es el conjunto de vectores
columna y tales que Ax = y tiene solucion.
Sean A1 , . . . , Am las columnas de A, luego T (x) = Ax = x1 A1 +. . .+xn An
por lo tanto img (T ) es el subespacio generado por las columnas de A. Vale de-
cir entonces que img (T ) es C (A) de donde sigue que rang (T ) = dim [C (A)].
COMPLETAR.

6.2.5. Espacio de todas las transformaciones


Enunciado Sean V, W espacios vectoriales sobre K y T, S ∈ L (V, W ) en-
tonces la funcion (T + S) denida por (T + S) v = T v + Sv es una transfor-
macion lineal.
El conjunto de todas las transformaciones lineales de V en W junto a la
suma y el producto por escalares asi denido, es un espacio vectorial sobre
K.

Demostracion
Clausura respecto de la suma:
• (T + S) (cv + u) = T (cv + u)+S (cv + u) = cT (v) + T (u) + cS (v) + S (u) .
• T (cv + u) + S (cv + u) = cT (v) + T (u) + cS (v) + S (u) .

Clausura respecto del producto por escalares:


• (αT ) (cv + u) = (αT ) (cv) + (αT ) (u) = c (αT ) (v) + (αT ) (u) = cαT (v) + αT (u) .
• αT (cv + u) = α [T (cv) + T (u)] = αT (cv)+αT (u) = αcT (v) + αT (u) .

EJERCICIO.

Observacion L (V, W ) es un subespacio del espacio vectorial formado por


todas las funciones de V en W (no solo las lineales) con la suma y producto
por escalares usuales.
CAPÍTULO 6. INTRODUCCION 40

6.2.6. Dimension del espacio de todas las transforma-


ciones
Enunciado Sea V un espacio vectorial n-dimensional sobre K y sea W otro
espacio m-dimensional sobre el mismo cuerpo luego L (V, W ) es de dimension
nita y de dimension mn.

Demostracion Sean B = {v1 , . . . , vn } y B 0 = {w1 , . . . , wm } bases orde-


nadas de V y W . Denimos para 1 ≤ p ≤ m y 1 ≤ q ≤ n las siguientes
transformaciones lineales:
(
0 6 q
j=
Epq (vj ) =
wp j=q

Veamos que las m × n transformaciones lineales denidas forman una base


de L (V, W ). COMPLETAR.

6.2.7. Linealidad de la composicion


Enunciado Sean V, W, Z espacios vectoriales sobre K y sean T ∈ L (V, W ) , S ∈ L (W, Z)
luego la composicion S ◦ T denida por (S ◦ T ) v = (ST ) v = ST v = S (T v)
es una transformacion lineal de V en Z .

Demostracion (ST ) (αv + u) = S [T (αv + u)] = S [αT (v) + T (u)] =


αS (T v) + S (T u) = α (ST ) (v) + (ST ) u.

6.2.8. Linealidad de la inversa


Enunciado Sean V, W espacios vectoriales sobre K y T ∈ L (V, W ), si T
es inversible entonces su inversa T −1 ∈ L (W, V ).

Demostracion Si T ∈ L (V, W ) es inversible se tiene que T T −1 = IW y


T −1 T = IV . Sean w1 , w2 ∈ W , α ∈ K y sean vi = T −1 (wi ) es decir que
vi ∈ V son los unicos vectores tales que T (vi ) = wi .
Como T es lineal, T (αv1 + v2 ) = αT (v1 ) + T (v2 ) = αw1 + w2 . El vector
αv1 + v2 es el unico vector de V que T asigna a αw1 + w2 , luego:

T −1 (αw1 + w2 ) = αv1 + v2 = αT −1 (w1 ) + T −1 (w2 )


CAPÍTULO 6. INTRODUCCION 41

Observaciones Supongamos que T ∈ L (V, W ) y S ∈ L (W, Z) son inver-


sibles entonces:
(ST )−1 = T −1 S −1 .

(ST ) (T −1 S −1 ) = Iv ∧ (T −1 S −1 ) (ST ) = Iz .

6.2.9. Teorema de los morsmos


Enunciado Sea T ∈ L (V, W ) luego:
1. T es monomorsmo si y solo si lleva cada conjunto linealmente inde-
pendiente de V a un subconjunto linealmente independiente de W .
2. Si T es epimorsmo entonces lleva cada conjunto generador de V a un
conjunto generador de W .
3. T es isomorsmo si y solo si lleva cada base de V a una base de W .

Demostracion
1.
⇒ : Sea T no singular y sea S un subconjunto linealmente inde-
pendiente de V , queremos ver que si v1 , . . . , vk ∈ S luego T (v1 ) , . . . , T (vk )
es linealmente independiente en W .

0 = α1 T (v1 )+. . .+αk T (vk ) = T (α1 v1 + . . . + αk vk ) ⇒ α1 v1 +. . .+αk vk = 0 ⇒ αi = 0

⇐ : Supongamos que T lleva subconjunton {v1 , . . . , vk } lineal-


mente independientes en V en subconjuntos linealmente indepen-
dientes en W . Sea v ∈ V /v 6= 0. El conjunto S = {v} es lineal-
mente independiente luego {T (v)} es linealmente independiente
en W por lo tanto T (v) 6= 0. Esto muestra que N (T ) = {0} y
por lo tanto T es no singular.
CAPÍTULO 6. INTRODUCCION 42

2. Sea {v1 , . . . , vn } ⊆ V / h{v1 , . . . , vn }i = V , nos preguntamos si h{T (v1 ) , . . . , T (vn )}i =


W:
n
⊆ : x ∈ h{T (v1 ) , . . . , T (vn )}i ⇒ x = αi T (vi ) ⇒ x ∈ W .
X
| {z }
i=1
∈W
n
⊇ : x ∈ W |{z}
X
⇒ ∃v ∈ V /T (v) = x ⇒ ∃v = βi vi /T (v) = x ⇒
Hip. i=1
n
! n
βi T (vi ) = x ⇒ x ∈ h{T (v1 ) , . . . , T (vn )}i = W .
X X
⇒T βi vi = x ⇒
i=1 i=1

3. Trivial pues si BV es base de V , entonces es linealmente independiente


y genera a V . Luego como T es monomorsmo y epimorsmo lleva BW
a un conjunto linealmente que genera W , es decir una base de W .

6.2.10. Isomorsmo sobre el cuerpo


Enunciado Todo espacio vectorial n-dimensional sobre K es isomorfo a
Kn .

Demostracion Sea V un espacio n-dimensional y B = {v1 , . . . , vn } una


base ordenada de V , denimos la transformacion T : V → Kn dada por
T (v) = (x1 , . . . , xn ) la n-upla de coordenadas de v relativas a la base B ,
es decir: v = x1 v1 + . . . + xn vn . Esta aplicacion resulta lineal, inyectiva y
sobreyectiva

6.2.11. Respresentacion de TL por matrices


Enunciado Sean V un espacio vectorial n-dimensional sobre K, W un es-
pacio vectorial m-dimensional sobre el mismo cuerpo y sean B base ordenada
de V y B 0 base ordenada de W entonces para cada T ∈ L (V, W ) existe una
matriz A ∈ Mm×n [K] tal que para cada vector v ∈ V resulta [T v]B 0 = A [v]B .
Mas aun, la funcion que a cada transformacion le asignua su correspondiente
matriz, es biyectiva.
CAPÍTULO 6. INTRODUCCION 43

Demostracion Si v = x1 v1 + . . . + xn vn ∈ V entonces:
n
! n n m
! m n
!
X X X X X X
T (v) = T xj vj = xj T (vj ) = xj Aij wi = Aij xj wi
j=1 j=1 j=1 i=1 i=1 j=1

Si x es el vector de coordenadas de v en la base B , esta igualdad muestra


que Ax es el vector de coordenadas del vector T (v) en la base B 0 y por lo
tanto [T (v)]B 0 = A [v]B .
Ademas!si A es cualquier matriz
! m × n sobre K entonces deniendo
n m n
wi resulta T ∈ L (V, W ) cuya matriz aso-
X X X
T xj vj := Aij xj
j=1 i=1 j=1
ciada relativa a las bases ordenadas B y B 0 es A. A esta matriz A asociada
a T se llama matriz de transformacion relativa a las bases B y B 0 .

Observacion Sea A la matriz cuyas columnas son A1 , . . . , An con aij = [T (vj )]B0 ,
si S ∈ L (V, W ) y C = [C1 , . . . , Cn ] es la matriz de S relativa a las bases
ordenadas B y B 0 entonces la matriz αA + C es la matriz asociada a la
transformacion lineal αT + S relativa a B y B 0 pues:
αaij + cij = α [T (vj )]B 0 + [S (vj )]B 0 = [αT (vj ) + S (vj )]B 0 = [(αT + S) (vj )]B 0

6.2.12. Teorema
Enunciado Sea V un espacio vectorial n-dimensional sobre K y W un
espacio vectorial sobre el mismo cuerpo, para cada par de bases ordenadas
B y B 0 de V y W respectivamente la funcion
F : L (V, W ) →Km×n
T →A

donde A es la matriz de transformacion relativa a las bases B y B 0 , es un


isomorsmo entre dichos espacios vectoriales.

Demostracion Resulta evidente de considerar el teorema anterior teniendo


en cuenta la observacion.

Notacion Para señalar explicitamente la dependencia de esta matriz A


asociada a T de la base ordenada B suele escribirse como A = [T ]B .
CAPÍTULO 6. INTRODUCCION 44

6.2.13. Matriz asociada a la composicion


Enunciado Sean V, W, Z espacios vectoriales de dimension nita sobre K
y sean T ∈ L (V, W ) , S ∈ L (W, Z), si B, B 0 , B 00 son bases ordenadas para
V, W, Z y si A es la matriz de T relativa a B y B 0 y C es la matriz de S
relativa a B 0 y B 00 entonces la matriz de la composicion ST relativa a B y
B 00 es la matriz D = CA.

Demostracion EJERCICIO.

Observaciones
Si T, S ∈ L (V ), B base ordenada de V de dimension nita entonces:
[ST ]B = [S]B [T ]B .

El isomorsmo entre L (V ) y Mn×n [K] preserva productos. Como con-


secuencia de esto se tiene que un operador lineal T es inversible si y
solo si [T ]B es una matriz inversible.

B .
Cuando T es inversible resulta [T −1 ]B = [T ]−1
Capítulo 7

Funcionales lineales y dualidad

7.1. Deniciones
7.1.1. Funcional lineal
Sea V un espacio vectorial sobre K, una transformacion lineal de V en K
se dice un funcional lineal.

Observaciones
Si f es un funcional lineal no nulo, entonces rang (f ) = 1.
Si dim (V ) = n ∈ N sabemos que dim [N (f )] = dim (V ) − rang (f ) = n − 1.

7.1.2. Espacio dual


Si V es un espacio vectorial sobre K, el conjunto de todos los funcionales
lineales sobre V forman un espacio vectorial. Dicho espacio lo notaremos
L (V, K) = V ∗ y lo llamaremos espacio dual de V .

Observacion Por el teorema de la dimension del espacio de todas las trans-


formaciones, sabemos que dim (V ∗ ) = dim (V ).

7.1.3. Hiperplano
En un espacio vectorial de dimension nita n, un subespacio de dimension
n − 1 es llamado hiperplano.

45
CAPÍTULO 7. FUNCIONALES LINEALES Y DUALIDAD 46

7.1.4. Anulador
Sea V un espacio vectorial sobre K y S ⊂ V , llamamos anulador de S al
conjunto S 0 = {f ∈ V ∗ /f (v) = 0∀v ∈ S}.

Observaciones
S 0 es subespacio vectorial de V ∗ .

Si S = {0} entonces S 0 = V ∗ .
Si S = V entonces S 0 = {0} ⊂ V ∗ .

7.2. Teoremas
7.2.1. Existencia y unicidad de la base dual
Enunciado Sea B = {v1 , . . . , vn } una base ordenada de un espacio vecto-
rial V , sabemos por el teorema de determinacion de una TL por la actuacion
en la base que para cada i ∈ {1, . . . , n} existen unicos funcionales lineales
fi sobre V tales que fi (vj ) = δij . Luego el conjunto {f1 , . . . , fn } es la unica
base de V ∗ .
n
Demostracion Veamos que son linealmente independientes: Sea f =
X
ci f i
i=1
n n
con ci ∈ K luego f (vj ) = ci δij = cj . En particular si f es
X X
ci fi (vj ) =
i=1 i=1
n
el funcional lineal nulo f0 = ci fi sera f0 (vj ) = 0 por lo tanto cj = 0
X

i=1
pudiendo concluir lo propuesto.
Ademas como sabemos que dim (V ∗ ) = dim (V ) = n surge que B ∗ = {f1 , . . . , fn }
es base para V ∗ llamada base dual de V .

Observacion El funcional lineal fi es la funcion que asigna a cada vector


v ∈ V su i-esima coordenada relativa a la base B .
CAPÍTULO 7. FUNCIONALES LINEALES Y DUALIDAD 47

7.2.2. Propiedades de los funcionales lineales


Enunciado
n
1. Para cada funcional lineal f sobre V se tiene que: f = f (vi ) fi .
X

i=1

n
2. Para cada v ∈ V se tiene v = fi (v) vi .
X

i=1

Demostracion
1. Sea f ∈ V ∗ , luego f es combinacion lineal de los elementos fi , es decir:
n
ci fi y como f (vi ) = c1 f1 (vi ) + . . . + cn fn (vi ) = 0 + . . . +
X
f =
i=1
n
ci fi (vi ) + . . . + 0 resulta f (vi ) = ci por lo que f = f (vi ) fi .
X
| {z }
1 i=1

n n n
2. De forma similar si v ∈ V , v = xi vi , luego fj (v) =
X X X
xi fj (vi ) = xi δij = xj
i=1 i=1 i=1
y por lo tanto xj = fj (v).

7.2.3. Relacion entre la dimension de un espacio y su


anulador
Enunciado Sea V un espacio vectorial de dimension nita sobre K y sea
W subespacio de V , entonces se tiene que dim (W ) + dim (W 0 ) = dim (V ).

Demostracion Sea dim (W ) = k y {v1 , . . . , vk } base de W . Elijamos


vk+1 , . . . , vn ∈ V /B = {v1 , . . . , vk , vk+1 , . . . , vn } es una base de V .
Sea {f1 , . . . , fn } la base dual de V ∗ en B . Veamos que {fk+1 , . . . , fn } es
base de W 0 .
CAPÍTULO 7. FUNCIONALES LINEALES Y DUALIDAD 48

( fi ∈ W para i = k + 1, . . . , n pues fi (vj ) = δij donde δij = 0 si


0
n
i≥k+1
, luego para v ∈ W : v = αj vj para ciertos αj ∈ K se tiene
X
j≤k j=1
k
que fi (v) = αj fi (vj ) = 0, i ≥ k + 1 por lo tanto fi ∈ W 0 , {fk+1 , . . . , fn }
X

j=1
es linealmente independiente.
n
Falta ver que h{fk+1 , . . . , fn }i = W . Sea f ∈ V , f = f (vi ) fi . Si
X
0 ∗

i=1
n
f ∈ W se tiene que f (vi ) = 0 para vi ∈ W , 1 ≤ i ≤ k luego f = f (vi ) fi ,
X
0

i=k+1
es decir, f es combinacion lineal de h{fk+1 , . . . , fn }i. Asi se tiene que dim (W 0 ) = n − k .

7.2.4. Corolario
Enunciado Si W es subespacio k-dimensional de un espacio vectorial V
n-dimensional, entonces W es la interseccion de (n − k) hiperplanos de V .

Demostracion W es exactamente el conjunto de vectores v tales que


fi (v) = 0, i = k + 1, . . . , n. En el caso k = n − 1, W es el espacio nulo
de fn .

7.2.5. Corolario
Enunciado Si W1 y W2 son subespacios de un espacio vectorial de dimen-
sion nita, entonces W1 = W2 ⇐⇒ W10 = W20 .

Demostracion
⇒ : Trivial.

⇐ : Supongamos W1 6= W2 y supongamos existen v ∈ V /v ∈ W1 ∧ v ∈ / W2 ,


es decir existe un funcional lineal f tal que f (u) = 0 para todo u ∈ W2
pero f (v) 6= 0. Luego f ∈ W20 y f ∈ / W10 . (W2 esta generado como la
interseccion de un numero nito de hiperplanos).
CAPÍTULO 7. FUNCIONALES LINEALES Y DUALIDAD 49

7.2.6. Suma e interseccion de anuladores


Enunciado Sean W1 y W2 subespacios de un espacio vectorial V de di-
mension nita entonces:
1. (W1 + W2 )0 = W10 ∩ W20 .
2. (W1 ∩ W2 )0 = W10 + W20 .

Demostracion EJERCICIO.
Parte IV

Diagonalizacion

50
Capítulo 8

Autovalores y autovectores

8.1. Deniciones
8.1.1. Autovalores y autovectores
Sea V un espacio vectorial sobre K y sea T un operador lineal sobre V ,
un autovalor de T es un escalar λ ∈ K tal que existe un vector no nulo v ∈ V
que verica T (v) = λv . Si λ es un autovalor de T entonces:
Cualquier vector v/T (v) = λv se llama autovector de T asociado al
autovalor λ.
La coleccion de todos los autovectores asociados a un determinado au-
tovalor λ se llama autoespacio de T asociado a λ.

Observaciones
Si T es un operador lineal cuya matriz asociada es A y λ es un escalar
cualquiera, el conjunto {v ∈ V : Av = λv} es un subespacio de V . En
efecto es el espacio nulo de la matriz A−λI . Tenemos que λ es autovalor
de T si Av = λv ⇐⇒ Av − λv = 0 ⇐⇒ (A − λI) v = 0 ⇐⇒ v ∈ N (A − λI).
Si dim (V ) es nita, (A − λI) es no inyectiva cuando el determinante
de la matriz asociada a ella para alguna base B es igual a 0.
Si una matriz A tiene a 0 como autovalor, esto signica que Ax = 0x
tiene una solucion no trivial, luego A es singular y por lo tanto no
inversible.

51
CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES 52

8.1.2. Ecuacion y polinomios caracteristicos


La ecuacion |A − λI| = 0 se llama ecuacion caracteristica de A. Al poli-
nomio P (λ) = |A − λI| se lo llama polinomio caracteristico.

Observacion Un escalar λ es autovalor de A si y solo si λ satisface la


ecuacion caracteristica de A.

8.2. Teoremas
8.2.1. Autovalores de una matriz triangular
Enunciado Los autovalres de una matriz triangular son las entradas de su
diagonal principal.

Demostracion Veamoslo para una matriz de orden 3 triangular superior:


 
a11 − λ a12 a13
A − λI =  0 a22 − λ a23 
0 0 a33 − λ

λ sera autovalor de A si y solo si |A − λI| = 0 si y solo si (a11 − λ) (a22 − λ) (a33 − λ) =


0 si y solo si λ = aii .

8.2.2. Independencia lineal de los autoespacios


Enunciado Si v1 , . . . , vr son autovectores correspondientes a distintos au-
tovalores λ1 , . . . , λr de una matriz A entonces {v1 , . . . , vr } es linealmente
independiente.

Demostracion Supongamos {v1 , . . . , vr } es linealmente dependiente. Co-


mo para cada j ∈ {1, . . . , r} se tiene que vj 6= 0, uno de ellos debe ser
combinacion lineal de los precedentes vectores linealmente independientes.
Entonces para ciertos escalares c1 , . . . , cp tenemos: c1 v1 + . . . + cp vp = vp+1
para algun p + 1 entre 1 y r.
CAPÍTULO 8. AUTOVALORES Y AUTOVECTORES 53

Por un lado, multiplicando ambos lados por A obtenemos:

c1 Av1 + . . . + cp Avp = Avp+1 ⇐⇒ c1 λ1 v1 + . . . + cp λp vp = λp+1 vp+1

donde vj son autovectores asociados al correspondiente autovalor λj ; por el


otro multiplicando por λp+1 :

c1 λp+1 v1 + . . . + cp λp+1 vp = λp+1 vp+1

y restando ambas igualdades resulta:

c1 (λ1 − λp+1 ) v1 + . . . + cp (λp − λp+1 ) v1 = 0

pero como {v1 , . . . , vp } es linealmente independiente resulta que todos los


escalares tienen que ser 0.
Como por hipotesis los autovalores son distintos sabemos que λi −λp+1 6= 0
surge que ci = 0 para 1 ≤ i ≤ p luego reemplazando en la igualdad original
se tiene vp+1 = 0 lo que es contradiccion que parte de suponer {v1 , . . . , vr }
es linealmente dependiente.
Capítulo 9

Diagonalizacion

9.1. Deniciones
9.1.1. Matrices semejantes
Sean 2 matrices cuadradas A y B sobre K, se dice que B es semejante o
similar a A si existe una matriz P inversible tal que B = P −1 AP .

Observacion En dicho caso A tambien es semejante a B pues B = P −1 AP ⇐⇒ P BP −1 = A.

9.1.2. Matriz diagonalizable


Se dice que una matriz A es diagonalizable si es semejante a una matriz
diagonal. Es decir si A = P DP −1 para alguna matriz P inversible y D
diagonal.

9.2. Teoremas
9.2.1. Autovalores de matrices semejantes
Enunciado Si las matrices A, B son semejantes, entonces tienen el mismo
polinomio caracteristico y por lo tanto los mismos autovalores con la misma
multiplicidad.

54
CAPÍTULO 9. DIAGONALIZACION 55

Demostracion Si B = P −1 AP entonces:
B − λI = P −1 AP − λI = P −1 AP − λP −1 IP = P −1 (A − λI) P

luego:

|B − λI| = P −1 (A − λI) P = P −1 |A − λI| |P | = |A − λI|

Observacion Este resultado permite calcular los autovalores de un ope-


rador lineal T sobre un espacio vectorial V de dimension nita como los
autovalores de la matriz asociada a T en cualquier base ordenada B de V .
Esto demuestra ademas que un operador lineal T sobre V con dim (V ) = n
tendra a lo sumo n autovalores diferentes.

9.2.2. Condicion necesaria y suciente de diagonaliza-


bilidad
Enunciado Una matriz A es diagonalizable si y solo si A tiene n autovec-
tores linealmente independientes. Es mas, A = P DP −1 con D diagonal si y
solo si las columnas de P son n autovectores linealmente independientes de
A. En este caso las entradas diagonales de D son los autovalores de A que
corresponden a los respectivos autovectores.

Demostracion
 
| | |
⇒ : Sean λ1 , . . . , λn las entradas de D y sea P =  v1 . . . vn  luego
   |  | |
| | | | | |
AP =  Av1 . . . Avn  y P D =  λ1 v1 . . . λvn .
| | | | | |
Como A es diagonalizable A = P DP −1 ⇐⇒ AP = P D, e igualando
columnas Avi = λi vi . Ademas como P es inversible resultan sus colum-
nas ser autovectores linealmente independientes de A y los elementos
diagonales de D los autovalores correspondientes.
CAPÍTULO 9. DIAGONALIZACION 56

⇐ : Dados v1 , . . . vn autovectores
 linealmente
 independientes de A,
| | |
construimos la matriz P = v1 . . . vn  y con los correspondien-

| | |
tes autovalores armamos una matriz diagonal D. Luego vale para estas
matrices que AP = P D. Si ademas {v1 , . . . vn } es linealmente indepen-
diente resulta que P es inversible y se tiene A = P DP −1 siendo en ese
caso A diagonalizable.

9.2.3. Condicion suciente de diagonalizabilidad


Enunciado Una matriz de orden n con n autovalores diferentes es diago-
nalizable.

Demostracion Resulta evidente de considerar los teoremas de indepen-


dencia lineal de los autoespacios y condicion necesaria y suciente de diago-
nalizabilidad.

9.2.4. Propiedades
Sea A una matriz de orden n cuyos autovalores diferentes son λ1 , . . . , λp
con 1 ≤ p ≤ n entonces:
1. Para 1 ≤ k ≤ p la dimension del autoespacio correspondiente a λk es
menor o igual a la multiplicidad del autovalor λk .
2. La matriz A es diagonalizable si y solo si la suma de las dimensiones
de los distintos autoespacios es igual a n. Esto sucede si y solo si la
dimension del autoespacio correspondiente a λk es igual a su multipli-
cidad.
3. Si A es diagonalizable y Bk es base para el autoespacio correspondien-
te a λk entonces la coleccion B = B1 ∪ . . . ∪ Bp forma una base de
autovectores de A.
Capítulo 10

Forma normal de Jordan

10.1. Deniciones
10.1.1. Espacio invariante
Sea V un espacio vectorial sobre K y sea T : V → V un operador lineal,
un subespacio W de V se dice invariante por T si T aplica a W en si mismo.
Esto es, si v ∈ W ⇒ T (v) ∈ W .
Si S = {T1 , T2 , . . .} es un conjunto de operadores lineales sobre V , diremos
que un subespacio W de V es S-invariante si es invariente para cada Ti ∈ S .
Diremos ademas que V 6= {0} es un S-espacio simple si sus unicos subes-
pacios S-invarantes son V y el espacio trivial.

10.1.2. Vector ciclico


Sea V un espacio vectorial sobre K, T : V → V un operador lineal, α ∈ K
y v ∈ V un vector no nulo, diremos que v es (T − αI) ciclico si existe un
entero r ≥ 1 tal que (T − αI)r v = 0.
El minimo entero positivo r que tiene esta propiedad recibe el nombre de
periodo de v relativo a T − αI .

Observacion Si r es dicho periodo, entonces tenemos que (T − αI) v 6= 0


para cualquier entero k tal que 0 ≤ k < r.

57
CAPÍTULO 10. FORMA NORMAL DE JORDAN 58

10.1.3. Espacio ciclico


Un espacio vectorial V de dimension r se conoce como ciclico, si existe
algun numero α y un vector v ∈ V que es (T − αI) ciclico de orden r, para
alguna transformacion lineal T .

Observacion Si V es ciclico entonces (T − αI)r−1 v, (T − αI)r−2 v, . . . , (T − αI) v, v




es una base de V llamada base de Jordan.

10.2. Teoremas
10.2.1. Invarianza de espacios nulos
Enunciado Sea T : V → V lineal y P (X) un polinomio cualqueira, en-
tonces N [P (T )] es invariante por T .

Demostracion Llamemos con S a la transformacion lineal P (T ) y sea


v ∈ N (S), esto es S (v) = 0. Necesitamos probar que T (v) ∈ N (S) o lo que
es lo mismo: S [T (v)] = 0.
Como P (X) X = XP (X) tenemos ST = T S , luego S [T (v)] = T [S (v)] = T (0) = 0.

10.2.2. Teorema 4
Enunciado Sean P1 (X) , P2 (X) polinomios no constantes tales que su ma-
ximo comun divisor es 1 (es decir que no comparten raices y sus coecientes
principales son coprimos) y sean T : V → V un operador lineal. Si P (T ) es
la transformacion nula, entonces para W1 = N [P1 (T )] y W2 = N [P2 (T )]
resulta V = W1 ⊕ W2 .

Demostracion Debemos ver que V es suma de W1 y W2 y cada vector de


W1 +W2 se expresa de forma unica. Por suposicion existen polinomios Q1 , Q2
tales que Q1 (X) P1 (X) + Q2 (X) P2 (X) = 1 de donde Q1 (T ) P1 (T ) + Q2 (T ) P2 (T ) = I (∗).
CAPÍTULO 10. FORMA NORMAL DE JORDAN 59

V = W1 +W2 : Sea v ∈ V , luego v = Iv = [Q1 (T ) P1 (T )] (v) + [Q2 (T ) P2 (T )] (v).


Observemos que el primer termino
 de esta suma pertenece a W2 pues

[P2 (T ) Q1 (T ) P1 (T )] (v) = Q1 (T ) P1 (T ) P2 (T ) (v) = 0 y analoga-


 
| {z }
P (T )
mente el segundo termino esta en W1 .
Sea v ∈ W1 + W2 , luego v = w1 + w2 con w1 ∈ W1 y w2 ∈ W2 .
Observemos que:

[Q1 (T ) P1 (T )] (v) = [Q1 (T ) P1 (T )] (w1 ) + [Q1 (T ) P1 (T )] (w2 ) = [Q1 (T ) P1 (T )] (w2 )


| {z }
0

Aplicando (∗) a w2 resulta w2 = Iw2 = [Q1 (T ) P1 (T )] (w2 )+[Q2 (T ) P2 (T )] (w2 ),


luego w2 esta determinado de manera unica y analogamente para w1 .

10.2.3. Teorema 5
Enunciado Sea V un espacio vectorial sobre K, T : V → V un operador
lineal, P (X) = (X − α1 )m1 . . . (X − αr )mr un polinomio tal que P (T ) = 0
y Ui = N (T − αi I)mi entonces V es la suma directa de los subespacios
U1 , . . . , Ur .

Demostracion EJERCICIO (INDUCCION).

10.2.4. Proposicion 1
Enunciado Sea S = {U1 , . . . , Un } un conjunto de operadores de V y
T ∈ L (V ) tal que T Ui = Ui T para toda Ui ∈ S , entonces img (T ) y N (T )
son subespacios S-invariantes de V .

Demostracion
Sea w ∈ Img (T ) tal que T (v) = w, luego Ui (w) = Ui [T (v)] = T [Ui (v)]
y como T aplica vectores dentro de su imagen resulta Ui (w) ∈ Img (T ).
Sea u ∈ N (T ), entonces T [Ui (u)] = Ui [T (u)] = Ui (0) = 0 por lo que
Ui (u) ∈ N (T ).
CAPÍTULO 10. FORMA NORMAL DE JORDAN 60

10.2.5. Proposicion 2
Enunciado Sea S un conjunto de operadores de V y T : V → V un
operador lineal. Supongamos que U T = T U para todo U ∈ S , luego si P es
un polinomio sobre K entonces P (T ) U = U P (T ).

Demostracion EJERCICIO.

10.2.6. Lema de Schur


Enunciado Sea V un espacio vectorial sobre K y sea S = {U1 , . . . Un } un
conjunto de operadores de V . Si V es un S-espacio simple y T : V → V una
transformacion lineal tal que T Ui = Ui T para toda Ui ∈ S , entonces T es
invertible o T es la aplicacion nula.

Demostracion Supongamos T 6= 0. Por la proposicion 1 sabemos que


Img (T ) y N (T ) son subespacios invariantes. Ademas como V es un S-espacio
simple sus unicos subespacios invariantes son V y {0} por lo que Img (T ) = V
y N (T ) = {0}. Esto implica que T es sobreyectiva e inyectiva, luego es
invertible.

10.2.7. Independencia lineal de vectores ciclicos


Enunciado Si v 6= 0 es (T − αI) ciclico con periodo r, entonces los ele-
mentos v, (T − αI) v, . . . , (T − αI)r−1 v son linealmente independientes.

Demostracion Sea U = T − αI , consideremos escalares c0 , . . . , cr−1 tales


que 0 = c0 v + c1 U 1 (v) + . . . + cr−1 U r−1 (v).
Aplicando U r−1 :
U r−1 (0) = 0 = c0 U r−1 (v) + c1 U r (v) + |{z}
. . . +cr−1 0
| {z }
0 0

es decir c0 U r−1 (v) = 0 por lo que c0 = 0.


| {z }
6=0
Aplicando U r−2 :
U r−2 (0) = 0 = 0v + c1 U r−1 (v) + c2 U r (v) + |{z}
. . . +cr−1 0
| {z }
0 0
CAPÍTULO 10. FORMA NORMAL DE JORDAN 61

es decir c1 U r−1 (v) = 0 por lo que c1 = 0. Continuando de esta manera obte-


| {z }
6=0
nemos que ci = 0 por lo que dichos vectores son linealmente independientes.

10.2.8. Teorema de Jordan


Enunciado Sea V 6= {0} un espacio de dimension nita sobre K y sea
T : V → V un operador lineal, entonces V se puede expresar como una suma
directa de subespacios ciclicos T-invariantes.

Demostracion NO COMPLETAR.
Parte V

Producto interno y ortogonalidad

62
Capítulo 11

Producto interno

11.1. Deniciones
11.1.1. Producto interno
Dado un espacio vectorial V sobre un cuerpo K, un producto interno en
V es una funcion
V ×V → K
(u, v) → u · v = u × v = hu, vi

que satisface los siguientes:


1. hu, vi = hv, ui.
2. hu + v, wi = hu, wi + hv, wi.
3. hαu, vi = α hu, vi.
4. hu, ui ≥ 0.
5. hu, ui = 0 ⇐⇒ u = 0.

11.1.2. Producto interno estandar


Sean u, v matrices n × 1 sobre R, luego el escalar ut v se dice producto
interno de u y v y se indica u · v .

63
CAPÍTULO 11. PRODUCTO INTERNO 64

11.1.3. Longitud
La longitud o norma de √
un vector v ∈ Rn es un escalar no negativo que
notamos kvk denido como v · v .

11.1.4. Distancia
Para u, v ∈ Rn , la distancia entre u y v es la longitud de u − v , es decir:
dist (u, v) = ku − vk.

11.2. Teoremas
11.2.1. Ley del paralelogramo
Enunciado kx + yk2 + kx − yk2 = 2 kxk2 + kyk2 .


Demostracion
kx + yk2 = (x + y) · (x + y) = x · x + x · y + y · x + y · y .

kx − yk2 = (x − y) · (x − y) = x · x − x · y − y · x + y · y .

kx + yk2 + kx + yk2 = x · x + x · x + y · y + y · y = 2 kxk2 + kyk2 .




11.2.2. Teorema de Pitagoras


Enunciado kx + yk2 = kxk2 + kyk2 ⇐⇒ x · y = 0.

Demostracion
⇒ :kx + yk2 − kxk2 − kyk2 = 0 ⇐⇒ 2 (x · y) = 0 ⇐⇒ x · y = 0.

⇐ : kx + yk2 = x · x + x · y + y · x +y · y = kxk2 + kyk2 .


|{z} |{z}
0 0
CAPÍTULO 11. PRODUCTO INTERNO 65

11.2.3. Desigualdad de Cauchy-Schwarz


Enunciado |u · v| ≤ kuk kvk.

Demostracion Si v = 0 el teorema es trivialmente cierto, si no, sea α = u·v


v·v
,
luego:

0 ≤ ku − αvk2 = u · u − u · αv − αv · u + αv · αv = u · u − 2α (u · v) + α2 (v · v)

y reemplazando [α] tenemos:


hu · v i h u · v i2 (u · v)2 (u · v)2 2 (u · v)
2
0 ≤ kuk2 −2 (u · v)+ (v · v) = kuk2 −2 + = kuk −
v·v v·v kvk2 kvk2 kvk2

Notemos que como u · v ≥ 0 entonces u · v = |u · v| ⇐⇒ (u · v)2 = |u · v|2 .


En resumen:
|u · v|2 |u · v|2
0 ≤ kuk2 − ⇐⇒ ≤ kuk2 ⇐⇒ |u · v|2 ≤ kuk2 kvk2 ⇐⇒ |u · v| ≤ kuk kvk
kvk2 kvk2

11.2.4. Desigualdad triangular


Enunciado ku + vk ≤ kuk + kvk.

Demostracion
ku + vk2 = kuk2 +2 (u · v)+kvk2 = kuk2 +2 |u · v|+kvk2 ≤ kuk2 +2 kuk·kvk+kvk2 = (kuk + kvk)2

donde la desigualdad vale por el teorema anterior.


Capítulo 12

Ortogonalidad

12.1. Deniciones
12.1.1. Ortogonalidad
Dos vectores u, v ∈ Rn son ortogonales si u · v = 0.

Observaciones
El vector 0 es ortogonal a todo vector.
Si u es ortogonal a v entonces tambien lo es a αv .

12.1.2. Complemento ortogonal


Si un vector z es ortogonal a todo vector en un subespacio W de Rn ,
diremos que z es ortogonal a W .
El conjunto de todos los vectores z que son ortogonales a W se llama
complemento ortogonal de W y se nota W ⊥ .

12.1.3. Conjunto ortogonal


Se dice que un conjunto de vectores {u1 , . . . , un } es ortogonal si cada par
de vectores diferentes del conjunto son ortogonales.

66
CAPÍTULO 12. ORTOGONALIDAD 67

12.1.4. Base ortogonal


Una base ortogonal de un subespacio W de Rn es una base de W que
ademas es un conjunto ortogonal.

12.1.5. Conjunto ortonormal


Un conjunto {u1 , . . . , un } es un conjunto ortonormal si es un conjunto
ortogonal de vectores de norma 1.

12.1.6. Matriz ortongonal


Una matriz ortogonal es una matriz U cuadrada, inversible tal que U −1 = U t .

Observacion Toda matriz cuadrada con columnas ortonormales es una


matriz ortogonal.

12.1.7. Proyeccion de un vector sobre otro


Dados u, y ∈ Rn (con u 6= 0), buscamos escribir a y como y = αu + z
con z⊥u. Notese que y = αu + z ⇐⇒ z = y − αu, luego z⊥u ⇐⇒
(y − αu) ⊥u ⇐⇒ (y − αu) · u = 0 ⇐⇒ y · u − α (u · u) = 0 y despejando
α obtenemos: α = u·u
y·u
.
Llamando ŷ = αu = u·uy·u
u tenemos y = ŷ + z . Diremos que ŷ es proyeccion
ortogonal de y sobre u.

Observacion La proyeccion ortogonal de y sobre u es igual a la de y sobre


cualquier multiplo de u. Luego, considerando L = h{u}i resulta:
y·u
ŷ = proyL y = u
u·u
CAPÍTULO 12. ORTOGONALIDAD 68

12.2. Teoremas
12.2.1. Proposicion
Enunciado
1. Un vector x ∈ W ⊥ si y solo si x es ortogonal a todo vector de un
conjunto que genere W .
2. W ⊥ es un espacio vectorial.

Demostracion
1. Sea B = {w1 , . . . , wn } una base de W .
⇒ : Dado x ∈ W ⊥ , luego x⊥w para todo w ∈ W , en particular
para todo wi ∈ B .
⇐ : Sea w ∈ W tal que w = α1 w1 + . . . + αn wn , luego:

w · x = α1 (w1 · x) + . . . + αn (wn · x) = 0
| {z } | {z }
0 0

2. Veamos que satisface los axiomas de clausura:


Para cualquier w ∈ W sean x, x0 ∈ W ⊥ , luego x · w = x0 · w = 0 y
como (x + x0 ) · w = x · w + x0 · w = 0 resulta que x + x0 ∈ W ⊥ .
Para cualquier w ∈ W sea x ∈ W ⊥ , luego x · w = 0 y como
(αx) · w = α (x · w) = 0 resulta que αx ∈ W ⊥ .

12.2.2. Relacion entre complemento ortogonal y espacio


nulo
Enunciado Sea A ∈ Rm×n entonces el complemento ortogonal del espacio
la de A es el espacio nulo de A y el complemento ortogonal del espacio
columna de A es el espacio nulo de A.
CAPÍTULO 12. ORTOGONALIDAD 69
   
A1 x 0
Demostracion Ax = 0 =  .   . 
 ..  =  .. , luego x es ortogonal a cada
An x 0
vector la de A, por lo que x ∈ F (A) .

De manera reciproca si x ∈ F (A)⊥ entonces x es ortogonal a todo vector


en F (A), en particular a los vectores las de A y asi resulta Ax = 0 ⇒ x ∈
N (A).
Usando este resultado para At obtenemos la otra igualdad.

12.2.3. Independencia lineal de conjuntos ortogonales


Enunciado Si S = {u1 , . . . , up } ⊂ Rn es un conjunto ortogonal de vectores
distintos de 0 entonces S es linealmente independiente, por lo tanto es una
base del espacio generado por S .

Demostracion Supongamos c1 u1 + . . . + cp up = 0 para algunos escalares


ci . Entonces:

0 = 0·u1 = (c1 u1 + . . . + cp up )·u1 = c1 (u1 · u1 )+. . .+cp (up · u1 ) = c1 (u1 · u1 ) = 0 ⇒ c1 = 0

De forma analoga obtenemos que ci = 0, luego S es linealmente independien-


te.

12.2.4. Combinacion lineal ortogonal


Enunciado Sea S = {u1 , . . . , up } una base ortogonal de un subespacio W
de Rn , entonces para cada y ∈ W , los coecientes de la combinacion lineal
y = c1 u1 + . . . + cp up estan dados por cj = uj ·ujj .
y·u

Demostracion La ortogonalidad de S nos permite armar que:


(1)

y · uj
z }| {
y · uj = (c1 u1 + . . . + cp up ) · uj = cj (uj · uj ) ⇒ cj =
| {z } | {z } uj · uj
(1) (2) | {z }
(2)
CAPÍTULO 12. ORTOGONALIDAD 70

12.2.5. Caracterizacion de las matrices ortonormales


Enunciado Una matriz tiene columnas ortonormales si y solo si U t U = I .
 
| | |
Demostracion Supongamos m = 3 = n y sea U =  u1 u2 u3  luego
| | |

U tU u1 u2 u3
ut1 ut1 · u1 ut1 · u2 ut1 · u3
ut2 ut2 · u1 ut2 · u2 ut2 · u3
ut3 ut3 · u1 ut3 · u2 ut3 · u3

de donde sigue el resultado.

12.2.6. Propiedades de las matrices ortonormales


Enunciado Sea U ∈ Rm×n con columnas ortonormales y sean x, y ∈ Rn
entonces se tiene que:
1. kU xk = kxk.
2. U x · U y = x · y .
3. U x · U y = 0 ⇐⇒ x · y = 0.

Demostracion EJERCICIO.

12.2.7. Teorema de la descomposicion ortogonal


Enunciado Sea W un subespacio de Rn , entonces todo y ∈ Rn puede
escribirse de forma unica como y = ŷ + z donde ŷ ∈ W y z ∈ W ⊥ .
De hecho si {u1 , . . . , up } es cualquier base ortogonal de W entonces:
y · u1 y · up
ŷ = u1 + . . . + up
u1 · u1 up · up
CAPÍTULO 12. ORTOGONALIDAD 71

Demostracion Sea {u1 , . . . , up } base ortogonal de W y denimos


y · u1 y · up
ŷ := u1 + . . . + up
u1 · u1 up · up

entonces ŷ ∈ W . Sea z = y − ŷ , luego:


 
y · u1 y · up
z·u1 = (y − ŷ)·u1 = y·u1 −ŷ·u1 = y·u1 − (u1 · u1 ) + |{z}
... + (up · u1 ) =
u1 · u1 up · up | {z }
=0 =0
 
y · u1
= y · u1 − (u1 · u1 ) = y · u1 − [y · u1 ] = 0
u1 · u1
De manera analoga obtenemos que z⊥uj para j ∈ {1, . . . , p}.
Para ver la unicidad supongamos que y puede escribirse como y = ŷ1 + z1
y como y = ŷ2 + z2 con ŷ1 , ŷ2 ∈ W(⊥ . Entonces y = ŷ1 + z1 = ŷ2 + z2 ⇒
ŷ1 − ŷ2 =0
ŷ1 − ŷ2 = z2 − z1 , luego v · v = 0 ⇒ ⇒ ŷ1 = ŷ2 ∧ z1 = z2 .
| {z } | {z } z2 − z1 =0
v∈W v∈W ⊥

12.2.8. Teorema de la mejor aproximacion


Enunciado Sean W un subespacio de Rn , y ∈ Rn e ŷ la proyeccion ortogo-
nal de y sobre W , entonces ŷ es el vector de W mas cercano a y en el sentido
de que ky − ŷk < ky − vk para todo v ∈ W (v 6= ŷ ).

Demostracion Sea v ∈ W (v 6= ŷ), luego ŷ − v ∈ W . Ademas segun el


teorema de la descomposicion ortogonal y−ŷ ∈ W ⊥ , en particular y−ŷ⊥ŷ−v .
Usando el teorema de Pitagoras, ky − ŷk2 + kŷ − vk2 = ky − ŷ + ŷ − vk2 = ky − vk2
y puesto que v 6= ŷ ⇒ ŷ − v 6= 0 ⇒ (ŷ − v) · (ŷ − v) > 0 ⇐⇒ kŷ − vk2 > 0.
Sumando a ambos lados de la desigualdad tenemos kŷ − vk2 + ky − ŷk2 > ky − ŷk2
y por lo visto usando el teorema de pitagoras obtenemos ky − vk2 > ky − ŷk2
si y solo si ky − vk > ky − ŷk.
CAPÍTULO 12. ORTOGONALIDAD 72

12.2.9. Corolario
Enunciado Si y ∈ W = h{u1 , . . . , up }i entonces proyW y = y.

Demostracion Sea y = c1 u1 + . . . + cp up , luego:


c1 u1 ·u1 cp up ·up

y · u1 y · up
z }| { z }| {
proyW y = u1 + . . . + up = c1 u1 + . . . + cp up = y
u1 · u1 up · up

12.2.10. Proyecciones sobre conjuntos ortonormales


Enunciado Si {u1 , . . . , up } es base ortonormal de un subespacio
 W de R , 
n

| | |
entonces proyW y = (y · u1 ) u1 +. . .+(y · up ) up y ademas si U = u1 . . . up 

| | |
entonces proyW y = U U y .
t

Demostracion EJERCICIO.

12.2.11. Algoritmo de Gram-Schmidt


Enunciado Dada una base {w1 , . . . , wp } para un subespacio W de Rn ,
deniendo:
v1 = w1 .

v2 = w2 − w2 ·v1
v
v1 ·v1 1
.
v3 = w3 − w3 ·v1
v
v1 ·v1 1
− w3 ·v2
v
v2 ·v2 2
.
..
.
vp = wp − wp ·v1
v
v1 ·v1 1
− wp ·v2
v
v2 ·v2 2
− ... − wp ·vp
v
vp ·vp p
.

entonces {v1 , . . . , vk } es base ortogonal de Wk = h{w1 , . . . , wk }i para 1 ≤ k ≤ p.


CAPÍTULO 12. ORTOGONALIDAD 73

Demostracion
CASO BASE: Trivial pues v1 = w1 .
CASO INDUCTIVO: Supongamos que se probo el resultado para k , es
decir que {v1 , . . . , vk } es base ortogonal de Wk = h{w1 , . . . , wk }i.
Veamos que B = {v1 , . . . , vk , vk+1 } es ortogonal. Para i, j ∈ {1, . . . , k} /i 6= j
resulta vi ⊥ vj por hipotesis inductiva. Ademas:
 
wk+1 · v1 wk+1 · vk wk+1 · vi
vk+1 ·vi = wk+1 − v1 − . . . − vk ·vi = wk+1 ·vi − vi ·vi = 0
v1 · v1 vk · vk vi · vi

luego {v1 , . . . , vk , vk+1 } es ortogonal y en consecuencia tambien es li-


nealmente independiente. Como ademas |B| = |Wk+1 | resulta que tam-
bien es base.

También podría gustarte