Está en la página 1de 284

Clases de

Álgebra Lineal
para Ingeniería

Revisión 2.0: Septiembre 2010

Pedro José Hernando Oter

Instituto Universitario “Gregorio Millán Barbany”


Grupo de Modelización, Simulación Numérica y Matemática Industrial
Dep. Ciencia e Ing. de Materiales e Ing. Química
Escuela Politécnica Superior
UNIVERSIDAD CARLOS III DE MADRID
© Pedro José Hernando Oter, 2010

Pedro José Hernando Oter


Dep. Ciencia e Ing. de Materiales e Ing. Química
Escuela Politécnica Superior
UNIVERSIDAD CARLOS III DE MADRID
Avda de la Universidad, 30
28911 Leganés
SPAIN
pedroj@math.uc3m.es

ISBN: xxx-xx-xxx-xxxx-x
Revisión 2.0 - Septiembre 2010
Made by LATEX.
Índice

Tema Página

1 Sistemas de Ecuaciones Lineales 1


1.1 Introducción a los Sistema de Ecuaciones Lineales (SEL) . . . . . . . . . . . . . . . . . 3
1.1.1 Ecuaciones y Sistemas de Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . 3
R
1.1.2 Puntos y Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . . . 5
R
1.2 Geometría de los SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Objetos Geométricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Dimensión de los Objetos Geométricos . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Relaciones entre Objetos Geométricos . . . . . . . . . . . . . . . . . . . . . . . 7
R
1.3 Solución de un SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Ecuaciones Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Sistemas Compatibles e Incompatibles . . . . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Combinación Lineal de Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . 11
R
1.4 Métodos Resolución de SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Métodos Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Sistemas Escalonados o Triangulares . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Método de Sustitución hacia Atrás . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.4.4 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Operaciones Elementales de Fila . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.6 Método de Gauss o Eliminación Gaussiana . . . . . . . . . . . . . . . . . . . . 15
1.5 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Matrices Asociadas a SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Operaciones Elementales de Fila en la Matriz Asociada . . . . . . . . . . . . . 17
1.5.3 Matrices Escalonadas o Triangulares . . . . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.5 Teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Método de Gauss Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Identificación de Sistemas Incompatibles . . . . . . . . . . . . . . . . . . . . . . 20
1.6.2 Identificación de Sistemas Compatibles Indeterminados . . . . . . . . . . . . . 20
1.7 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Matriz Escalonada Reducida . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Matriz Identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 Sistemas Homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

2 Espacios Vectoriales 25
R
2.1 Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Representación Gráfica de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

i
ii Índice

2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Vector Opuesto y Vectores Estándar . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . . . . . . 30
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Combinación Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 Rango de un Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Interpretación Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.1 Base y Dimensión de un Sistema de Vectores . . . . . . . . . . . . . . . . . . . 36
R
2.5.2 Generación de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.5 Vectores Unitarios y Normalización . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8.1 Distancia entre dos Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
R
2.8.2 Ángulo entre dos Vectores en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.3 Ángulo entre dos Vectores en n . . . . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.4 Definición Alternativa del Producto Escalar en n . . . . . . . . . . . . . . . . 44
2.9 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.10 Proyección Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
R R
2.10.1 Interpretación Geométrica en 2 y 3 . . . . . . . . . . . . . . . . . . . . . . . 46
2.10.2 Aplicaciones Geométricas de la Proyección Ortogonal . . . . . . . . . . . . . . 47

3 Matrices 49
3.0 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1 Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . . . . . . . . . . . . . 54
3.1.3 Diferencia de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.4 Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.5 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.6 Producto Matricial Vector-Vector . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.7 Producto Matriz-Vector Estándar . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.8 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.1 Matriz Simétrica y Antisimétrica . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . . . . . . . . . . . . . 58
3.3 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1 Propiedades de la Suma y la Multiplicación por un Escalar . . . . . . . . . . . 59
3.3.2 Combinación Lineal de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.3 Propiedades de la Multiplicación de Matrices . . . . . . . . . . . . . . . . . . . 60

Clases de Álgebra Pedro José Hernando Oter


Índice iii

3.4 Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60


3.4.1 Cálculo de la Matriz Inversa: método de Gauss-Jordan . . . . . . . . . . . . . . 60
3.4.2 Inversa y SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.3 Propiedades de las Matrices Invertibles . . . . . . . . . . . . . . . . . . . . . . 63
3.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.1 Introducción: Determinantes de Matrices 2 × 2 . . . . . . . . . . . . . . . . . . 63
3.5.2 Determinantes de Matrices 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.3 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.4 Determinantes de Matrices n × n . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.5.5 Cálculo del Determinante mediante Desarrollos de Laplace . . . . . . . . . . . 66
3.5.6 Determinantes e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . 67
3.5.7 Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.8 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.9 Matriz Adjunta e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . 69
3.6 Subespacios Asociados a una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6.1 Espacios Columna y Fila de una Matriz . . . . . . . . . . . . . . . . . . . . . . 70
3.6.2 Rango, Núcleo y Nulidad de una Matriz . . . . . . . . . . . . . . . . . . . . . . 71
3.6.3 Teorema Fundamental de las Matrices Invertibles . . . . . . . . . . . . . . . . . 73
3.6.4 Bases para los Espacios Fila, Columna y Nulo de una Matriz . . . . . . . . . . 73

4 Transformaciones Lineales 75
4.1 Concepto de Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1 Forma Matricial de una Transformación Lineal . . . . . . . . . . . . . . . . . . 78
4.1.2 Propiedades de las Transformaciones Lineales . . . . . . . . . . . . . . . . . . . 79
4.2 Transformaciones Lineales Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2.1 Transformación Lineal de Vectores Estándar . . . . . . . . . . . . . . . . . . . . 82
4.2.2 Demostración ⇐= de la Sección 4.1.2 . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.1 Función Invertible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Operaciones con TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.1 Suma de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.2 Composición de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.5 Imagen y Núcleo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.2 Núcleo o Espacio Nulo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5.4 Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

5 Bases 101
R
5.1 Bases en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.1 Coordenadas y Matriz asociada a una Base . . . . . . . . . . . . . . . . . . . . 103
5.2 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.1 Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

6 Ortogonalidad 109
R
6.1 Ortogonalidad en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.1 Conjunto Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Vector Ortogonal a un Subespacio . . . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Bases Ortogonales y Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.1 Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113

Pedro José Hernando Oter Clases de Álgebra


iv Índice

6.2.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115


6.3 Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.1 Propiedades de las Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . 117
6.4 TL Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . 119
6.5.2 Relaciones entre los Subespacios Fundamentales de una Matriz . . . . . . . . . 119
6.6 Proyección Ortogonal sobre Subespacios . . . . . . . . . . . . . . . . . . . . . . . . . . 121
6.6.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . 123
6.7 Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.8 Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

7 Mínimos Cuadrados 129


7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Mejor Aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.3 Aproximación mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . 132
7.4 Mínimos Cuadrados mediante la Factorización QR . . . . . . . . . . . . . . . . . . . . 136
7.5 Error en la Aproximación por Mínimos Cuadrados: Residuos . . . . . . . . . . . . . . 138
7.6 Ajuste de Datos mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . 139

8 Autovalores y Autovectores 145


8.1 Introducción: Sistemas Dinámicos Discretos . . . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2.1 Interpretación Geométrica de los Autovalores y Autovectores . . . . . . . . . . 149
8.2.2 Determinación de Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . 150
8.2.3 Autoespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.2.4 Multiplicidades Algebraica y Geométrica . . . . . . . . . . . . . . . . . . . . . . 153
8.2.5 Autovalores y Matrices Inversas . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
8.2.6 Tres Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.3 Semejanza y Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.1 Matrices Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.2 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.3 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
8.3.4 Autovalores Reales y Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 161
8.4 Diagonalización Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
8.4.1 Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.4.2 Descomposición Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.5 Teoremas Avanzados Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.6 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

9 Pseudoinversa y Descomposición en Valores Singulares 167


9.1 Pseudoinversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.1.1 Propiedades de la Matriz Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . 170
9.2 Pseudoinversa y Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3 Matriz de una Proyección Ortogonal sobre un Subespacio . . . . . . . . . . . . . . . . 170
9.4 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.1 Valores Singulares de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.2 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . 174
9.5 Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.1 Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.2 Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181

Clases de Álgebra Pedro José Hernando Oter


Índice v

9.5.3 Otras Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . 182

10 Introducción a las Ecuaciones Diferenciales Ordinarias con Coeficientes Constantes 183


10.1 Introducción a las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . . . . . 185
10.1.1 Clasificación de las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . 186
10.2 Solución o Curva Integral de una EDO . . . . . . . . . . . . . . . . . . . . . . . . . . . 188
10.2.1 Resolución de EDO Simples: Método de Separación de Variables . . . . . . . . 189
10.2.2 Problema de Valores Iniciales y Condición Inicial . . . . . . . . . . . . . . . . . 190
10.2.3 Solución General y Particular de una EDO . . . . . . . . . . . . . . . . . . . . 191
10.3 Interpretación Geométrica de una EDO . . . . . . . . . . . . . . . . . . . . . . . . . . 192
10.3.1 Campo de Pendientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
10.3.2 Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
10.4 Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) . . . . . . . . . . . . . . . . . 195
10.4.1 SEDO de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
10.4.2 Sistema Equivalente a EDO de Orden n . . . . . . . . . . . . . . . . . . . . . . 196
10.4.3 SEDO Lineales y Autónomos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.5 SEDO con Coeficientes Constantes, (SEDOC) . . . . . . . . . . . . . . . . . . . . . . . 197
10.5.1 Forma Matricial de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.2 Solución Analítica de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.3 Solución General y Particular de un SEDOC . . . . . . . . . . . . . . . . . . . 199
10.6 SEDOC Bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.6.1 Tipos de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.7 Sistemas Dinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
10.7.1 Sistemas Dinámicos Continuos Lineales . . . . . . . . . . . . . . . . . . . . . . 208
10.7.2 Representación Gráfica: Trayectorias, Plano de Fases y Espacio de Fases . . . . 208
10.7.3 Puntos Criticos, Estacionarios o de Equilibrio . . . . . . . . . . . . . . . . . . . 210
10.7.4 Campo Direccional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
10.7.5 Separatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10.8 Estabilidad de un SEDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
10.8.1 Tipos de Estabilidad y Soluciones de Sistemas Dinámicos . . . . . . . . . . . . 217
10.8.2 Análisis de la Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

APÉNDICES 225
A Números Complejos 227
A.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2 Cuerpo de los números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.1 Definición del número imaginario i . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.2 Potencias enteras de i . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
A.2.3 Definición de Número Complejo. Formas Cartesiana y Binómica . . . . . . . . 230
A.3 Operaciones Básicas en C
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.1 Suma de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.2 Producto de Números Complejos . . . . . . . . . . . . . . . . . . . . . . . . . . 231
A.3.3 El Cuerpo de los Números Complejo . . . . . . . . . . . . . . . . . . . . . . . . 233
A.4 Conjugado de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
A.4.1 Propiedades del Conjugado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234
A.4.2 Conjugados y División de Números Complejos . . . . . . . . . . . . . . . . . . 234
A.5 Representación Geométrica de C
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.1 El Plano Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235
A.5.2 Módulo de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . 236

Pedro José Hernando Oter Clases de Álgebra


vi Índice

A.5.3 Argumento de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . . 237


A.6 Otras Formas de Expresar los Números Complejos . . . . . . . . . . . . . . . . . . . . 238
A.7 Forma Trigonométrica y Polar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238
A.7.1 Propiedades y Operaciones Básicas de la Forma Polar . . . . . . . . . . . . . . 239
A.7.2 Exponencial Compleja. Fórmula de Euler . . . . . . . . . . . . . . . . . . . . . 240
A.7.3 Teorema de De Moivre . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
A.7.4 Potenciación en la Forma Polar . . . . . . . . . . . . . . . . . . . . . . . . . . . 241
A.7.5 Raíz n-ésima de un Número Complejo . . . . . . . . . . . . . . . . . . . . . . . 242
A.8 Forma Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 243
A.8.1 Operaciones en Forma Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . 243
A.8.2 Seno y Coseno Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 244
A.8.3 Logaritmo Complejo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245

B Temas de Repaso 247


B.1 Trigonometría . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
B.2 Productos Notables . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 248
B.3 Polinomios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249
B.4 Coordenadas Cartesianas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
B.5 Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
B.5.1 Valor Absoluto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
B.5.2 Distancia en R
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
R
B.5.3 Distancia en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 252
R
B.5.4 Distancia en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
B.6 Vectores Geométricos en el Plano y en el Espacio . . . . . . . . . . . . . . . . . . . . . 253
B.6.1 Vectores de Posición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 253
B.6.2 Vectores que no son de posición: Vectores Generales . . . . . . . . . . . . . . . 254
B.6.3 Vectores Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
R C K
B.7 Vectores en Espacios n , n y n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 255
B.7.1 Caracterización de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 256
R R
B.8 Geometría y Vectores en 2 y 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
R
B.8.1 Rectas en 2 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
B.8.2 Conversión entre Formas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258
R
B.8.3 Planos en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
R
B.8.4 Rectas en 3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
B.8.5 Fórmula de Equilibrio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 261
B.9 Fórmulas Geométricas sobre Distancias . . . . . . . . . . . . . . . . . . . . . . . . . . 262
R
B.9.1 Producto Escalar y Vectorial en 3 . . . . . . . . . . . . . . . . . . . . . . . . 262
R
B.9.2 Distancia de un Punto a un Recta en 2 . . . . . . . . . . . . . . . . . . . . . 262
R
B.9.3 Distancia entre dos Rectas paralelas en 2 . . . . . . . . . . . . . . . . . . . . 262
R
B.9.4 Distancia de un Punto a un Plano en 3 . . . . . . . . . . . . . . . . . . . . . 263
R
B.9.5 Distancia entre dos Planos Paralelos en 3 . . . . . . . . . . . . . . . . . . . . 263
R
B.9.6 Distancia de un Punto a un Recta en 3 . . . . . . . . . . . . . . . . . . . . . 263
R
B.9.7 Distancia entre dos Rectas paralelas en 3 . . . . . . . . . . . . . . . . . . . . 263
R R
B.10 Geometría de los Sistemas de Ecuaciones en 2 y 3 . . . . . . . . . . . . . . . . . . 264
B.10.1 Sistemas de Una Ecuación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264
B.10.2 Sistemas de Dos Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
B.10.3 Sistemas de Tres Ecuaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266
B.11 Métodos simples de Resolución de Sistemas . . . . . . . . . . . . . . . . . . . . . . . . 268
B.12 Sumatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 269
B.13 Introducción a las Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270
B.13.1 Tipos de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270

Clases de Álgebra Pedro José Hernando Oter


Índice vii

B.13.2 Representación Gráfica de Funciones Reales . . . . . . . . . . . . . . . . . . . . 271


B.13.3 Tipos de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
B.13.4 Función Inversa (o Recíproca) f −1 (x) . . . . . . . . . . . . . . . . . . . . . . . 273
B.13.5 Composición de Funciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 274

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Pedro José Hernando Oter Clases de Álgebra


:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=
TEMA 1
Sistemas de Ecuaciones Lineales

Contenido
1.1 Introducción a los Sistema de Ecuaciones Lineales (SEL) . . . . . . . . . . . . . . 3
1.1.1 Ecuaciones y Sistemas de Ecuaciones . . . . . . . . . . . . . . . . . . . . . 3
R
1.1.2 Puntos y Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.1.3 Sistemas de Ecuaciones Lineales . . . . . . . . . . . . . . . . . . . . . . . . 5
1.2 R
Geometría de los SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.1 Objetos Geométricos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.2.2 Dimensión de los Objetos Geométricos . . . . . . . . . . . . . . . . . . . . 6
1.2.3 Relaciones entre Objetos Geométricos . . . . . . . . . . . . . . . . . . . . 7
1.3 R
Solución de un SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.3.1 Ecuaciones Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.3.2 Sistemas Compatibles e Incompatibles . . . . . . . . . . . . . . . . . . . . 11
1.3.3 Combinación Lineal de Ecuaciones . . . . . . . . . . . . . . . . . . . . . . 11
1.4 R
Métodos Resolución de SEL en n . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.1 Métodos Simples . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4.2 Sistemas Escalonados o Triangulares . . . . . . . . . . . . . . . . . . . . . 13
1.4.3 Método de Sustitución hacia Atrás . . . . . . . . . . . . . . . . . . . . . . 13
1.4.4 Sistemas Equivalentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.5 Operaciones Elementales de Fila . . . . . . . . . . . . . . . . . . . . . . . 14
1.4.6 Método de Gauss o Eliminación Gaussiana . . . . . . . . . . . . . . . . . . 15
1.5 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.5.1 Matrices Asociadas a SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.5.2 Operaciones Elementales de Fila en la Matriz Asociada . . . . . . . . . . . 17
1.5.3 Matrices Escalonadas o Triangulares . . . . . . . . . . . . . . . . . . . . . 17
1.5.4 Rango de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.5.5 Teorema de Rouché-Fröbenius . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6 Método de Gauss Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
1.6.1 Identificación de Sistemas Incompatibles . . . . . . . . . . . . . . . . . . . 20
1.6.2 Identificación de Sistemas Compatibles Indeterminados . . . . . . . . . . . 20
1.7 Método de Gauss-Jordan . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.1 Matriz Escalonada Reducida . . . . . . . . . . . . . . . . . . . . . . . . . . 21
1.7.2 Matriz Identidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
1.8 Sistemas Homogéneos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

1
2

SEL

Clases de Álgebra
Definiciones Geometría Métodos de Resolución SEL Homogéneos

Objetos Geométricos Dimensiones Solución SEL Pequeños Ec. Equivalentes SEL Grandes Sol. Trivial

Puntos Fórmula de Equilibrio Tipo SEL Mét. Simples Comb. Lineal Ec. Mét. Gauss Met. Gauss-Jordan

Rectas Compatibles Incompatibles Op. Elem. Fila Mét. Gauss Matricial

Planos Determinado Indeterminado Sist. Escalonados o Triang. Matrices

Hiperplanos Sol. Única ∞ Sol. Mét. Sustitución Atrás M. Escalonada Rango

M. Escalonada Reducida Teo. Rouche-Frobenius

M. Identidad

Pedro José Hernando Oter


TEMA 1: Sistemas de Ecuaciones Lineales
1.1. Introducción a los Sistema de Ecuaciones Lineales (SEL) 3

1.1. Introducción a los Sistema de Ecuaciones Lineales (SEL)


Consideremos el siguiente problema sencillo.

P Ejemplo 1.1. Determinar la edad de dos hermanos sabiendo que el triple de la diferencia entre
el mayor y el menor es dos veces la edad del menor, y que la suma de ambas edades es 24.
Solución: Llamando x a la edad del mayor e y a la edad de menor podemos establecer las
siguientes ecuaciones del problema:
 
3(x − y) = 2y 3x − 5y = 0
=⇒ Sist. de 2 ec. lineales con 2 incóg.
x+y = 24 x+y = 24

La solución del sistema de ecuaciones dará la solución del problema.


Características:
• Un sistema de ecuaciones simplifica un problema real mediante una estructura de lenguaje
(matemático) algebraico, eliminando cualquier complejidad adicional del problema real.
• Un mismo sistema puede representar a problemas reales totalmente distintos.
• La solución del problema real queda reducida a la resolución del problema matemático y la
posterior interpretación de los resultados.

En el presente tema analizaremos los sistemas de ecuaciones lineales buscando métodos generales
de resolución que sean apropiados para su utilización de forma óptima en un ordenador.

1.1.1. Ecuaciones y Sistemas de Ecuaciones


Vamos a comenzar con algunas definiciones básicas.

U Definición 1.1 (Ecuación)


Una ecuación es una igualdad que relaciona incógnitas (variables) y constantes y que se
verifica únicamente para determinados valores de las variables.

Incógnitas : x, y.
ax + b cos (y) = c =⇒
Constantes : a, b, c.

Las ecuaciones se pueden clasificar en dos tipos básicos:


• Ecuación lineal: ecuación polinómica de primer grado (potencia 1) en todas las variables.

ax + by = c

• Ecuación no lineal: ecuación de tipo no polinómica o polinómica de grado mayor que uno.

Pedro José Hernando Oter Clases de Álgebra


4 TEMA 1: Sistemas de Ecuaciones Lineales

U Definición 1.2 (Solución de una Ecuación)


Se denomina solución de una ecuación al conjunto de valores {s1 , · · · , sn } que al sustituir en
las variables, x1 = s1 , x2 = s2 , ..., xn = sn , se verifica la ecuación.

U Definición 1.3 (Sistema de Ecuaciones)


Un sistema de ecuaciones es un conjunto de ecuaciones acopladas, es decir que comparten
incógnitas.

P Ejemplo 1.2. El siguiente es un ejemplo de sistema de ecuaciones:



a1 x2 + b1 y = c1 ln (y)
a2 x + b2 xy = c2

! Nota 1.1. Un conjunto de ecuaciones no acopladas se denominan ecuaciones independientes o no acoplados.

U Definición 1.4 (Solución del Sistema de Ecuaciones)


Se denomina solución de un sistema de ecuaciones al conjunto de valores {s1 , · · · , sn } que
verifica todas y cada una de las ecuaciones del sistema.

U Definición 1.5 (Dimensión de un Sistema de Ecuaciones)


La dimensión de un sistema de ecuaciones es el número de ecuaciones y el número de
incógnitas del sistema.

1.1.2. Puntos y Espacios Rn


U Definición 1.6 (Punto)
Un punto es un conjunto de valores ordenados, denominados coordenadas o componentes
del punto. Las coordenadas se representan encerradas entre paréntesis:

(x1 , x2 , · · · , xn )

El número de coordenadas de un punto se denomina dimensión del punto.

Clases de Álgebra Pedro José Hernando Oter


1.1. Introducción a los Sistema de Ecuaciones Lineales (SEL) 5

U Definición 1.7 (Espacio n ) R


El conjunto de todos los puntos de n componentes reales se representa por Rn .
Rn = {(x1 , x2 , · · · , xn ) : xi ∈ R, 1 ≤ i ≤ n}

El valor n ≥ 1 se denomina dimensión del espacio.

• El espacio R2 es el espacio bidimensional (2D) representado por todos los puntos del plano
cartesiano 1 .
R
• El espacio 3 es el espacio tridimensional (3D) formado por todos los puntos del espacio real,
representado por los ejes XY Z.
• El espacio Rn es el espacio n-dimensional formado por todos los puntos de n coordenadas
reales.

La solución de una ecuación se puede representar mediante un punto de un espacio Rn , siendo n el


número de incógnitas de la ecuación.

P Ejemplo 1.3. La solución del sistema de ecuaciones:



x−y = 5
2x + 3y = 15

es el punto (x, y) = (6, 1) ∈ R2 .


1.1.3. Sistemas de Ecuaciones Lineales

U Definición 1.8 (Sistemas de Ecuaciones Lineales en n )


Se denomina sistema de m ecuaciones lineales (SEL) en el espacio
R
Rn , al conjunto finito
de ecuaciones lineales acopladas:

a11 x1 + a12 x2 + ··· + a1n xn = b1


a21 x1 + a22 x2 + ··· + a2n xn = b2
.. .. .. ..
. . . .
am1 x1 + am2 x2 + ··· + amn xn = bm

donde:
• aij ∈ R se denominan coeficientes del sistema (constantes).
• bi ∈ R son los términos independientes del sistema (constantes).
• xi ∈ R son las n incógnitas del sistema (variables).

1 Ver el Apéndice B.4, página 251.

Pedro José Hernando Oter Clases de Álgebra


6 TEMA 1: Sistemas de Ecuaciones Lineales

P R
Ejemplo 1.4. El siguiente es un SEL de 5 (número de incógnitas) formado por 3 ecuaciones:

 x1 − 3x2 + x3 − x5 = 9
2x1 + x2 + x3 − x4 + 2x5 = 0

−x2 + x4 = −12

La dimensión 2 de este sistema es: 3 ecuaciones y 5 incógnitas

1.2. Geometría de los SEL en Rn


U Definición 1.9 (Plano en 3 )
R
R
Un plano3 en 3 es el conjunto de puntos (x, y, z) que verifican la ecuación:

ax + by + cz = d ; a, b, c, d ∈ R

El concepto de plano se puede generalizar a espacios Rn .


U Definición 1.10 (Hiperplano en n )
R
R
Un hiperplano en n es el conjunto de puntos (x1 , x2 , · · · , xn ) ∈ Rn que verifican la ecuación:
a1 x1 + a2 x2 + · · · + an xn = b ; ai , b ∈ R

Si b = 0 el hiperplano pasa por el origen (0, 0, . . . , 0) ∈ Rn .

1.2.1. Objetos Geométricos

U Definición 1.11 (Objetos Geométricos)


Vamos a denominar objetos geométricos a todo conjunto de puntos de Rn definido mediante
una o varias ecuaciones lineales.

Los objetos geométricos son: puntos, rectas, planos e hiperplanos.

1.2.2. Dimensión de los Objetos Geométricos


R
Los objetos geométricos de cualquier espacio n (excepto los puntos individuales) están formados por
infinitos puntos. Aun así, claramente algunos son más grandes (poseen un mayor número de puntos)
que otros. Para poder cuantificar el tamaño de un objeto geométrico se vuelve a utilizar el concepto
de dimensión.
2 Ver la Definición 1.5, página 4.
3 Ver una introducción a la geometría afín en el Apéndice B.8.3, página 259.

Clases de Álgebra Pedro José Hernando Oter


1.2. Geometría de los SEL en Rn 7

U Definición 1.12 (Dimensión de un Objeto Geométrico)


R
La dimensión de un objeto geométrico de n es un número que expresa el tamaño relativo
del mismo.

Los objetos geométricos simples en Rn tienen la siguiente dimensión:


• Punto: dimensión 0.

• Recta: dimensión 1.
• Plano: dimensión 2.

! Nota 1.2. Estos valores se pueden obtener a través de una fórmula general conocida con el nombre de Fórmula de
Equilibrio, que se verá posteriormente en la Definición 1.14, página 8. Además en el Apéndice B.8.5, página 261 se puede
encontrar la relación entre la dimensión de un objeto geomético y el número de parámetros en su ecuación.

1.2.3. Relaciones entre Objetos Geométricos


R
Dado un conjunto de m ecuaciones lineales (objetos geométricos) en un espacio n (y por tanto con n
incógnitas), vamos a denotar por Ei a cada una de sus ecuaciones y por Xi cada uno de los términos
izquierdos de la igualdad Ei , de la siguiente forma:

  
a11 x1 + a12 x2 + ··· + a1n xn = b1 
 X1 = b1 
 E1 


 
 

a21 x1 + a22 x2 + ··· + a2n xn = b2 X2 = b2 E2
.. .. .. .. =⇒ .. .. =⇒ ..
. . . . 
 . . 
 . 


 
 

am1 x1 + am2 x2 + ··· + amn xn = bm Xm = bm Em

De forma general, cada una de las ecuaciones Ei se puede identificar como un determinado hiperplano
en el espacio n . R
Cualquier par de hiperplanos Ei y Ej pueden ser entre sí:
• Coincidentes: si Ei = cEj , para cualquier c ∈ R no nulo.
• Paralelos: si Xi = cXj , para cualquier c ∈ R no nulo.
• No paralelos: si Xi 6= cXj , para cualquier c ∈ R no nulo.

U Definición 1.13 (Concurrencia)


Se dice que un conjunto de objetos geométricos es concurrente si tienen alguna parte común
a todos los objetos.

Pedro José Hernando Oter Clases de Álgebra


8 TEMA 1: Sistemas de Ecuaciones Lineales

P Ejemplo 1.5.

• Dos rectas secantes son concurrentes en un punto.

• Dos planos secantes son concurrentes en una recta.

1.3. Solución de un SEL en Rn


R
La solución 4 de un SEL en n se puede interpretar como un objeto geométrico de una dimensión 5
determinada, definido por las ecuaciones que forman el sistema.

La dimensión de la solución (objeto geométrico) depende de la dimensión del SEL (número de


ecuaciones e incógnitas6 ) y viene dada por la denominada fórmula de equilibrio.

U Definición 1.14 (Fórmula de Equilibrio)


R
Dado un objeto geométrico de n definido por m ecuaciones lineales (SEL):


 a11 x1 + a12 x2 + ··· + a1n xn = b1

 a21 x1 + a22 x2 + ··· + a2n xn = b2
.. .. .. ..

 . . . .


am1 x1 + am2 x2 + ··· + amn xn = bm

Su dimensión viene dada por la ecuación:

Dimensión = Dimensión Espacio − Num. Ecuaciones del Objeto = n − m

Por tanto, la solución de un sistema de m ecuaciones concurrentes no coincidentes con n incógnitas,


siendo m ≤ n, es un objeto geométrico de dimensión n − m.

Ejemplos
• Una ecuación en R2 :
ax + by = c
representa una recta, que es un objeto de dimensión 2-1=1.
• Dos ecuaciones (rectas) secantes en R2 :

a1 x + b1 y = c1
a2 x + b2 y = c2

tienen por solución un punto en R2 , que tiene dimensión 2 − 2 = 0.


4 Ver la Definición 1.4, página 4.
5 Ver la Definición 1.12, página 7.
6 El número de incógnitas corresponde con la dimensión del espacio Rn al que pertenece.

Clases de Álgebra Pedro José Hernando Oter


1.3. Solución de un SEL en Rn 9

• Una ecuación en R3 :
ax + by + cz = d
representa un plano, que es un conjunto de dimensión 3-1=2.
• Dos ecuaciones (planos) concurrentes no coincidentes en 3 : R

a1 x + b1 y + c1 z = d1
a2 x + b2 y + c2 z = d2

tienen por solución una recta en R3 , que tiene dimensión 3 − 2 = 1.


• Un SEL formado por cuatro hiperplanos concurrentes no coincidentes en R4 :


 a11 x1 + a12 x2 + a13 x3 + a14 x4 = b1

a21 x1 + a22 x2 + a23 x3 + a24 x4 = b2

 a31 x1 + a32 x2 + a33 x3 + a34 x4 = b3

a41 x1 + a42 x2 + a43 x3 + a44 x4 = b4

tienen como solución un punto (4-4=0) en R4 .


Conclusión

Sea un SEL en Rn de m ecuaciones con n incógnitas.


• Si m < n, el sistema puede tener:
– ninguna solución: conjunto de hiperplanos no concurrentes, (coincidentes, paralelos y/o
secantes en número k < m).
– infinitas soluciones: conjunto de hiperplanos concurrentes, (coincidentes y/o secantes),
en objetos de dimensión no nula (rectas, planos o hiperplanos).
• Si m ≥ n, el sistema puede tener:
– ninguna solución : conjunto de hiperplanos no concurrentes (coincidentes, paralelos y/o
secantes en número k < n).
– infinitas soluciones: conjunto de hiperplanos concurrentes, (coincidentes y/o secantes),
en un objeto de dimensión no nula (rectas, planos o hiperplanos).
– solución única: conjunto de hiperplanos concurrentes, (coincidentes y secantes o sólo
secantes), en un objeto de dimensión nula (punto n-dimensional.)

P Ejemplo 1.6. Analizar el siguiente sistema de 2 ecuaciones en



R5 :
x1 + x2 − 4x3 = −2 : E1
x2 + 6x3 − 2x4 + 9x5 = 0 : E2

Solución: Representan a dos hiperplanos de dimensión 5 − 1 = 4 en R5 . Llamando E1 a la


primera ecuación y E2 a la segunda, podemos concluir que:
• No son Coincidentes ya que E1 6= cE2 , para cualquier c ∈ R no nulo.
• No son Paralelos ya que X1 6= cX2 , para cualquier c ∈ R no nulo.
• Son secantes (concurrentes) y su solución tiene dimensión 5 − 2 = 3 (hiperplano de
dimensión 3 en un espacio de dimensión 5).

Pedro José Hernando Oter Clases de Álgebra


10 TEMA 1: Sistemas de Ecuaciones Lineales

(Continúa en la página siguiente)

P Ejemplo 1.6 (Continuación).


Vamos a encontrar la ecuación que describe la solución. Resolviendo por igualación:
 
x2 = −2 − x1 + 4x3
− 2 − x1 + 4x3 = −6x3 + 2x4 − 9x5
x2 = −6x3 + 2x4 − 9x5

Despejando, por ejemplo x4 :


1 9
x4 = −1 − x1 + 5x3 + x5
2 2
y eligiendo como parámetros por ejemplo: x1 = t, x3 = s y x5 = w, la ecuación paramétrica 7 del
R
hiperplano de dimensión 3 en el espacio 5 se puede representar como:
           

 x1 = t 
 x1 0 1 0 0

 
  x2   −2   −1   4  0
 x2 = −2 − x1 + 4x3           
x3 = s     
=⇒  x3  =  0  + t  0 + s 1 + w
   0
   

 x4 = −1 − 12 x1 + 5x3 + 92 x5 
  x4   −1   −1/2   −5   9/2 

 

x5 = w x5 0 0 0 1

En forma vectorial 8 :
~x = p~ + t~v1 + s~v2 + w~v3

1.3.1. Ecuaciones Equivalentes

U Definición 1.15 (Ecuaciones Equivalentes)


Se dice que dos ecuaciones E1 y E2 son equivalentes si ambas tienen las mismas soluciones.

E1 = cE2 ; c∈ R

Fácilmente se puede obtener una ecuación equivalente de otra, multiplicando ambas partes de la
ecuación por una constante distinta de cero.

Desde un punto de vista geométrico, que dos ecuaciones sean equivalentes es lo mismo que sean
coincidentes, y por tanto representan el mismo objeto geométrico.

P Ejemplo 1.7. Encontrar todas las ecuaciones equivalentes del siguiente plano:

3x + 2y − z = 5

Solución: Multiplicando la ecuación por un escalar no nulo a ∈ R:


×a
3x + 2y − z = 5 −−→ 3ax + 2ay − az = 5a

Cualquiera de estas ecuaciones representa exactamente el mismo plano.


7 Ver
el Apéndice B.8, página 257.
8 En
las formas paramétrica y vectorial, la dimensión de un objeto geométrico coincide con el número de sus
parámetros.

Clases de Álgebra Pedro José Hernando Oter


1.3. Solución de un SEL en Rn 11

1.3.2. Sistemas Compatibles e Incompatibles

U Definición 1.16 (Sistema Compatible)


Se dice que un sistema de ecuaciones lineales es compatible si tiene solución 9 . Hay dos tipos
de sistemas compatibles:
• Compatible Determinado: Si la solución es única (un punto n-dimensional).
• Compatible Indeterminado: Si tiene infinitas soluciones (objeto geométrico de
dimensión no nula).

U Definición 1.17 (Sistema Incompatible)


Se dice que un sistema de ecuaciones lineales es incompatible si no tiene solución (conjunto
de objetos geométricos no concurrentes).

P Ejemplo 1.8.

• Tres rectas paralelas y una secante en R2 forman un sistema incompatible.


• Dos planos coincidentes y uno secante en R3 forman un sistema compatible indeterminado.
• Dos rectas secantes en R2 forman un sistema compatible determinado.

1.3.3. Combinación Lineal de Ecuaciones

U Definición 1.18 (Combinación Lineal de Ecuaciones)


R
Se dice que una ecuación E ∈ n es una combinación lineal de un conjunto de m ecuaciones
R
E1 , E2 , · · · , Em ∈ n si es una suma (término a término) de ecuaciones equivalentes a ellas.
n
X
E= ai Ei = a1 E1 + a2 E2 + · · · + am Em ; ∀ai ∈ R
i=1

Propiedades de las Combinaciones Lineales

• La combinación lineal de ecuaciones concurrentes produce una nueva ecuación concurrente con
las originales.

• La combinación lineal de ecuaciones paralelas produce una nueva ecuación paralela a las
originales.

9 Ver la Definición 1.4, página 4.

Pedro José Hernando Oter Clases de Álgebra


12 TEMA 1: Sistemas de Ecuaciones Lineales

P Ejemplo 1.9. Dadas las ecuaciones en



R2 :
E1 : x−y =1
E2 : 2x + 3y = 4

Calcular y representar gráficamente E3 = −3E1 + 2E2


Solución:

E1
2
E2
1 (−3)× x −y = 1
b E3
(2)× 2x +3y = 4
1 2 3 4
x +9y = 5
−1

P Ejemplo 1.10. Determinar de forma gráfica una posible combinación lineal de las tres rectas
R
E1 , E2 y E3 en 2 que muestra el siguiente gráfico.
Solución:

1.4. Métodos Resolución de SEL en Rn


1.4.1. Métodos Simples
Existen tres métodos simples de resolución de sistemas de ecuaciones lineales10 :

• Método de Sustitución.

• Método de Igualación.
• Método de Reducción.

Estos métodos son útiles para la resolución “a mano” de pequeños (en número y dimensión) SEL.
Sin embargo, para la resolución de sistemas más grandes, tanto a mano como por ordenador, estos
SEL no resultan prácticos, siendo necesarios métodos sistemáticos fáciles de programar.
Existen sistemas de ecuaciones lineales con una estructura especial que permite su resolución
sistemática de forma fácil, independientemente de la dimensión del sistema. Este tipo de sistemas
se denominan escalonados o triangulares.

10 Ver el Apéndice B.11, página 268.

Clases de Álgebra Pedro José Hernando Oter


1.4. Métodos Resolución de SEL en Rn 13

1.4.2. Sistemas Escalonados o Triangulares

U Definición 1.19 (Sistemas Escalonados o Triangulares)


Se dice que un sistema está en su forma escalonada si permite colocar las ecuaciones con las
incógnitas ordenadas por columnas, de forma que el primer coeficiente distinto de cero en cada
ecuación, (denominado entrada principal), se encuentra en alguna columna a la izquierda
de cualquier entrada principal debajo de ella.

P Ejemplo 1.11. Los siguientes sistemas están en forma escalonada.




 x − y − z = 2  x1 + x2 − 3x3 +


x4 − x5 = 2
x2 − x3 − 2x4 + x5 = 0
y + 3z = 5 ;
 
 2x4 − 3x5 = −1
5z = 10 
− 3x5 = 9

! Nota 1.3. La forma de escalera también puede ser de abajo a arriba, siendo el planteamiento del problema y su
resolución de forma análoga a la explicada aquí.

P Ejemplo 1.12. Los siguientes sistemas no están en forma escalonada.





 x1 + x2 − 3x3 + x4 − x5 = 2
 x − y − z = 2 
x2 − x3 − 2x4 + x5 = 0
−x + y + 3z = 5 ;
 
 2x4 − 3x5 = −1
5z = 10 
− x3 + x4 − 3x5 = 9

1.4.3. Método de Sustitución hacia Atrás


El método o algoritmo de resolución de sistemas escalonados se denomina sustitución hacia atrás
y consiste en ir obteniendo los valores de las incógnitas desde las ecuaciones inferiores a las superiores.

P Ejemplo 1.13. Resolver los ejemplos anteriores utilizando el método de sustitución hacia atrás.
Solución:


 x − y − z = 2 −→ x = 2 + y + z ; x=3 paso 3
y + 3z = 5 −→ y = 5 − 3z ; y = −1 paso 2


5z = 10 −→ z=2 paso 1



 x1 + x2 − 3x3 + x4 − x5 = 2 −→ x1 = −x2 + 3x3 − x4 + x5 x1 = 2t + 9

 x2 − x3 − 2x4 + x5 = 0 −→ x2 = x3 + 2x4 − x5 x3 = t x2 = t − 7

 2x4 − 3x5 = −1 −→ x4 = 21 (−1 + 3x5 ) x4 = −5


− 3x5 = 9 −→ x5 = −3

Pedro José Hernando Oter Clases de Álgebra


14 TEMA 1: Sistemas de Ecuaciones Lineales

1.4.4. Sistemas Equivalentes

U Definición 1.20 (Sistemas Equivalentes)


Se dice que dos sistemas de ecuaciones son equivalentes si posen el mismo conjunto de
soluciones.

P Ejemplo 1.14. Los dos sistemas de 2 :



R

x−y = 1 x−y = 1
;
x+y = 3 y = 1

son equivalentes, ya que ambas tienen por única solución x = 2, y = 1.

P Ejemplo 1.15. Los dos sistemas de



R3 :

x+y−z = 2 ; 3x + 3y − 3z = 6

son equivalentes, ya que ambas tienen por solución el plano z = x + y − 2.

1.4.5. Operaciones Elementales de Fila


Un sistema de ecuaciones lineales puede ser transformado en otro sistema equivalente (con las mismas
soluciones), aplicando una o varias de las siguientes operaciones elementales de fila:
• Intercambiar el orden de dos ecuaciones entre sí.
Este cambio no altera el conjunto de ecuaciones y por tanto se obtiene un sistema equivalente.
• Multiplicar una ecuación (ambas partes de la igualdad) por una constante distinta de cero.
Se obtiene así una ecuación equivalente a la original y por tanto el nuevo sistema es equivalente
al anterior.
• La adición de un múltiplo de una ecuación a otra ecuación. Este proceso se puede realizar
múltiples veces (combinación lineal de una ecuación con otras ecuaciones).
La nueva ecuación será concurrente11 con el conjunto de ecuaciones elegido y por tanto el nuevo
sistema es equivalente al original.

Las operaciones elementales se pueden utilizar para transformar un sistema de ecuaciones general
en un sistema escalonado y por tanto fácilmente resoluble.

Notación

• Ei ↔ Ej : Intercambiar las ecuaciones Ei y Ej .


• kEi : Multiplicar la ecuación Ei por el escalar k.
• Ei + kEj : Multiplicar Ej por el escalar k y sumarle el resultado a la ecuación Ei .

11 Ver la Definición 1.13, página 7.

Clases de Álgebra Pedro José Hernando Oter


1.5. Matrices 15

P Ejemplo 1.16.

Ejemplo de operaciones elementales sobre un SEL.
    
 3x + 2y − z = 1   −3x − 2y + z = −1   −3x − 2y + z = −1 
−E1 E2 ↔ E3
x−y+z = 2 −−−→ x−y+z = 2 −−−−−−−→ 2x + y + 3z = 3
     
2x + y + 3z = 3 2x + y + 3z = 3 x−y+z = 2
 
 −3x − 2y + z = −1 
−E3 + 2E1 + E2
−−−−−−−−−−−−−→ 2x + y + 3z = 3
 
−5x − 2y + 4z = −1
Todos estos sistemas y cualquier otro resultado de operaciones elementales son equivalentes, es
decir, poseen el mismo conjunto de soluciones.

1.4.6. Método de Gauss o Eliminación Gaussiana


El método de Gauss o eliminación gaussiana12 es un método apropiado para la resolución de sistemas
de ecuaciones lineales generales a mano y con un ordenador.
Consiste en la transformación de un SEL original en otro sistema equivalente escalonado, mediante
la utilización de operaciones elementales. El sistema escalonado resultante será fácilmente resoluble
mediante el método de sustitución hacia atrás.

P Ejemplo 1.17. Resolver mediante eliminación gaussiana el siguiente


Solución:
SEL en R3 .
x1 + x2 + x3 = 3
2x1 + 3x2 + x3 = 5
x1 − x2 − 2x3 = −5
   
 x1 + x2 + x3 = 3   x1 + x2 + x3 = 3 
−E + 2E1
2x1 + 3x2 + x3 = 5 −−−−2−−−−−→ − x2 + x3 = 1
   
x1 − x2 − 2x3 = −5 x1 − x2 − 2x3 = −5
   
 x1 + x2 + x3 = 3   x1 + x2 + x3 = 3 
−E + E1 E + 2E2
−−−−3−−−−→ − x2 + x3 = 1 −−3−−−−−→ − x2 + x3 = 1
   
2x2 + 3x3 = 8 5x3 = 10
Aplicando el método de sustitución hacia atrás:

x3 = 2 ; x2 = x3 − 1 = 1 ; x1 = 3 − x2 − x3 = 0

1.5. Matrices
En la aplicación de operaciones elementales del método de Gauss, es mucho más práctico preocuparnos
únicamente por los coeficientes y términos independientes de cada ecuación, sin incluir las variables.
Aunque se estudiarán en detalle en el Tema 3, vamos a recordar la definición de matriz numérica.

12 El matemático alemán Carl Friedrich Gauss (1777-1855) desarrolló este método sobre 1794 al resolver un sistema

de 17 ecuaciones con 17 incógnitas para determinar la órbita del planeta Ceres. Sin embargo, existen evidencias de que
este método fue utilizado por los chinos hace 2000 años.

Pedro José Hernando Oter Clases de Álgebra


16 TEMA 1: Sistemas de Ecuaciones Lineales

U Definición 1.21 (Matriz)


Una matriz es una disposición de números13 ordenados en filas y columnas.
Una matriz A de m filas y n columnas se representa por Am×n y utilizaremos corchetes
cuadrados [ ] en su notación de la siguiente forma:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
Am×n =  .

 ..
..

..  ; aij ∈ ; A ∈ m×n R R
. . 
am1 am2 ··· amn

donde Rm×n es el espacio de las matrices reales Am×n .

P Ejemplo 1.18. Ejemplos de matrices numéricas reales:


 
 
0 −2 3
A2×2 =
1
2
−1
−3
∈ R2×2 ; A3×3 = 1 1 1 ∈ R3×3
−8 4 −2

1.5.1. Matrices Asociadas a SEL


Se pueden asociar dos tipos distintos de matrices a un sistema de m ecuaciones con n incógnitas:
• Matriz de Coeficientes: Matriz conteniendo los coeficientes ordenados del sistema.
• Matriz de Ampliada: Matriz de coeficientes + columna con los términos independientes.
Dado el sistema general de m ecuaciones con n incógnitas:

a11 x1 + a12 x2 + ··· + a1n xn = b1


a21 x1 + a22 x2 + ··· + a2n xn = b2
.. .. .. ..
. . . .
am1 x1 + am2 x2 + ··· + amn xn = bm

La matriz de coeficientes A y la matriz ampliada A|B asociadas a este sistema son:


   
a11 a12 · · · a1n a11 a12 · · · a1n b1
 a21 a22 · · · a2n   a21 a22 · · · a2n b2 
A=


.. ..

..  ∈
m×n
R
; A|B = 

.. .. ..

∈ Rm×(n+1)
. . .   . . . 
am1 am2 · · · amn am1 am2 · · · amn bm

P Ejemplo 1.19. Determinar la matriz ampliada asociada al siguiente SEL:


 
3x + 2y − z = 1 3 2 −1 1
x−y+z = 2 =⇒  1 −1 1 2 
2x + y + 3z = 3 2 1 3 3
13 Números reales o complejos, aunque en este curso nos centraremos básicamente en el caso real.

Clases de Álgebra Pedro José Hernando Oter


1.5. Matrices 17

1.5.2. Operaciones Elementales de Fila en la Matriz Asociada


Las operaciones elementales de fila realizadas sobre un SEL para transformarlo en otro sistema
equivalente escalonado14 , se pueden realizar en su correspondiente matriz ampliada asociada, para
obtener una matriz equivalente por filas a la primera.
Estas operaciones elementales de fila son:

• Intercambiar dos filas entre sí. (Fi ↔ Fj )


Esta operación corresponde al intercambio del orden de las ecuaciones.
• Multiplicar una fila por una constante distinta de cero. (kFi )
Esta operación corresponde con la sustitución de una ecuación por otra equivalente
(coincidente) a la original.
• La adición de un múltiplo de una fila a otra fila. (Fi + kFj )
Esta operación corresponde con la sustitución de una determinada ecuación por una
combinación lineal de una (o varias) ecuaciones del sistema, donde el coeficiente de la ecuación
a sustituir sea no nulo.

! Nota 1.4. La notación es igual que la utilizada con las operaciones elementales con ecuaciones, cambiando ecuaciones
(E), por filas (F ).

P Ejemplo 1.20. Ejemplo de operaciones elementales sobre la matriz asociada al SEL del
Ejemplo 1.19.
     
3 2 −1 1 −3 −2 1 −1 −3 −2 1 −1
 1 −1 −F1  F2 ↔ F3 
1 2  −−−→ 1 −1 1 2  −−− −−−−→ 2 1 3 3 
2 1 3 3 2 1 3 3 1 −1 1 2
 
−3 −2 1 −1
−F3 + 2F1 + F2 
−−−−−−−−−−−−→ 2 1 3 3 
−5 −2 4 −1

1.5.3. Matrices Escalonadas o Triangulares


El método de Gauss15 puede aplicarse a la matriz ampliada del SEL, transformándola mediante
operaciones elementales de fila a una matriz equivalente por filas, en forma escalonada o triangular,
correspondiente al SEL escalonado buscado.

U Definición 1.22 (Matriz Escalonada o Triangular)


Una matriz escalonada (o triangular) es aquella que cumple las siguientes propiedades:
• Cualquier fila de ceros está en la parte inferior de la matriz.
• En cada fila no nula, el primer elemento distinto de cero, (denominado elemento
principal o pivote), se encuentra al menos una columna a la izquierda de cualquier
pivote de cualquier fila por debajo de ella.

14 Ver la Sección 1.4.5, página 14.


15 Ver la Sección 1.4.6, página 15.

Pedro José Hernando Oter Clases de Álgebra


18 TEMA 1: Sistemas de Ecuaciones Lineales

P Ejemplo 1.21. Las siguientes matrices son matrices escalonadas:


     
 
0 2 0 1 −1 3
2 4 1 1 0 1 1 1 2 1 
 0 −1 2   0 1 5   0 0 1 3   0 0 −1 1 2 2 

 0 0 0 0 4 2 
0 0 0 0 0 4 0 0 0 0
0 0 0 0 0 5

U Definición 1.23 (Matriz Escalonada Equivalente)


• Se dice que la matriz escalonada de una dada, obtenida a través de operaciones
elementales de fila, es una matriz escalonada equivalente a la original.
• El proceso de obtención de la matriz escalonada equivalente se denomina reducción de
una matriz a su forma escalonada equivalente.

1.5.4. Rango de una Matriz

U Definición 1.24 (Rango de una Matriz)


Se define el rango16 de una matriz como el número de filas no nulas que tiene en su forma
escalonada equivalente. El rango de una matriz A se identifica a través de:

rang(A)

1.5.5. Teorema de Rouché-Fröbenius

R Teorema 1.1 (Teorema de Rouché-Fröbenius17 )


R
Sea A ∈ m×n una matriz de coeficientes correspondiente a un sistema de m ecuaciones
con n incógnitas, y sea A|B su matriz ampliada. Entonces, el sistema es compatible (tiene
solución) si y sólo si:
rang(A) = rang(A|B)

• Si rang(A) = n =⇒ Sistema Compatible determinado (sol. única).

• Si rang(A) < n =⇒ Sistema Compatible indeterminado (infinitas sol).

Num. variables libres (parámetros) = n − rang(A)

! Nota 1.5. El número de variables libres coincide con la dimensión de la solución.

16 En
la Definición 3.18, página 71 se verá una definición alternativa del rango de una matriz.
17 También
es conocido con el nombre de Teorema del Rango, sin embargo esta forma es más confusa al existir más
de un teorema del rango en diferentes áreas.

Clases de Álgebra Pedro José Hernando Oter


1.6. Método de Gauss Matricial 19

1.6. Método de Gauss Matricial


Dado el sistema general de m ecuaciones con n incógnitas:

a11 x1 + a12 x2 + ··· + a1n xn = b1


a21 x1 + a22 x2 + ··· + a2n xn = b2
.. .. .. ..
. . . .
am1 x1 + am2 x2 + ··· + amn xn = bm

la aplicación del método de Gauss (eliminación gaussiana) utilizando la matriz ampliada (forma
matricial) consiste en los siguientes pasos:

1. Obtener la matriz ampliada del SEL.


 
a11 a12 · · · a1n b1
 a21 a22 · · · a2n b2 
 
 .. .. .. 
 . . . 
am1 am2 ··· amn bm

2. Se elige el primer pivote p = a11 . Si p = 0 se intercambia la primera fila con cualquier otra por
debajo hasta que p 6= 0.

3. Se hacen ceros todos los elementos de la columna del pivote p por debajo de él. Para ello,
llamando i a la fila del pivote, (p = aii ), cada fila Fj por debajo del pivote (j > i) se substituye
por la combinación lineal:
aji
Fj = Fj − Fi ; ∀j > i
aii

4. Se repite el proceso 2-3 hasta obtener una matriz escalonada.

P Ejemplo 1.22. Resolver mediante eliminación gaussiana el siguiente SEL en R3 .


x1 + x2 + x3 = 3
2x1 + 3x2 + x3 = 5
x1 − x2 − 2x3 = −5

Solución: Utilizando el método de Gauss-Jordan, se tiene,


     
1 1 1 3 1 1 1 3 1 1 1 3
F − 2F1  F − F1 
 2 3 1 5  −−2−−−−−→ 0 1 −1 −1  −−3−−−−→ 0 1 −1 −1 
1 −1 −2 −5 1 −1 −2 −5 0 −2 −3 −8
 
1 1 1 3
F3 + 2F2 
−−−−−−−→ 0 1 −1 −1 
0 0 −5 −10
Utilizando el método de sustitución hacia atrás, se obtiene la solución:

x3 = 2 ; x2 = x3 − 1 = 1 ; x1 = 3 − x2 − x3 = 0

Pedro José Hernando Oter Clases de Álgebra


20 TEMA 1: Sistemas de Ecuaciones Lineales

1.6.1. Identificación de Sistemas Incompatibles


Si alguna fila de la matriz escalonada tiene todos sus coeficientes nulos, pero el correspondiente término
independiente no es cero, el sistema es incompatible18 (no tiene solución).

P Ejemplo 1.23. Resolver mediante eliminación gaussiana el siguiente SEL en R3 .


x1 − x2 + 2x3 = 3
x1 + 2x2 − x3 = −3
2x2 − 2x3 = 1

Solución:
     
1 −1 2 3 1 −1 2 3 1
F2 1 −1 2 3
 1 F2 − F 1 3
2 −1 −3  −−−−−−→  0 3 −3 −6  −−−→  0 1 −1 −2 
0 2 −2 1 0 2 −2 1 0 2 −2 1
 
1 −1 2 3
F + 2F2 
−−3−−−−−→ 0 1 −1 −2 
0 0 0 5
La última ecuación 0 = 5 no tiene solución y por tanto el sistema es incompatible.

1.6.2. Identificación de Sistemas Compatibles Indeterminados


Si el SEL no es incompatible y su matriz escalonada ampliada tiene una o más filas (completas) de
ceros, el sistema es compatible indeterminado.
En un SEL Compatible Indeterminado hay dos tipos de variables:
• Variables Principales: correspondientes (en número) a las filas no nulas.
• Variables Libres: diferencia entre variables totales (n) y variables principales,

Var. Libres = n − Var. Principales

P Ejemplo 1.24. Resolver mediante eliminación gaussiana el siguiente SEL en R4 .


w − x − y + 2z = 1
2w − 2x − y + 3z = 3
−w + x − y = −3

Solución:
     
1 −1 −1 2 1 1 −1 −1 2 1 1 −1 −1 2 1
F − 2F1  F + F1 
 2 −2 −1 3 3  −−2−−−−−→ 0 0 1 −1 1  −−3−−−−→ 0 0 1 −1 1 
−1 1 −1 0 −3 −1 1 −1 0 −3 0 0 −2 2 −2
 
1 −1 −1 2 1
F + 2F2 
−−3−−−−−→ 0 0 1 −1 1  =⇒ Sistema Compatible Indeterminado
0 0 0 0 0
(Continúa en la página siguiente)

18 Ya que el rango de la matriz de coeficientes es menor que el rango de la matriz ampliada y por el teorema de

Rouché-Fröbenius, (ver el Teorema 1.1, página 18), el sistema es incompatible.

Clases de Álgebra Pedro José Hernando Oter


1.7. Método de Gauss-Jordan 21

P Ejemplo 1.24 (Continuación).


El sistema asociado es ahora:
w − x − y + 2z = 1
y − z = 1

El cual tiene un número infinito de soluciones (4-2=2).


Las variables principales en este caso pueden ser w e y y las variables libres x y z.
Aplicando el método de sustitución hacia atrás:

y =1+z ; w = 1 + x + y − 2z = 1 + x + 1 + z − 2z = 2 + x − z

Asignando los parámetros x = t y z = s se puede expresar la solución en forma paramétrica


como:
         
w 2+t−s 2 1 −1
 x  t      
 =  = 0 + t1 + s 0
 y  1+s 1 0  1
z s 0 0 1

1.7. Método de Gauss-Jordan


El método de eliminación de Gauss-Jordan19 es una modificación del método de Gauss que simplifica
la fase de sustitución hacia atrás 20 y es particularmente útil cuando se hacen los cálculos a mano.

1.7.1. Matriz Escalonada Reducida

U Definición 1.25 (Matriz Escalonada Reducida)


Una matriz escalonada reducida es una matriz escalonada con las siguientes dos características:

• Todas los pivotes son la unidad, (denominado 1 principal)


• Cada columna con pivote, tiene ceros en toda posición distinta del pivote.

P Ejemplo 1.25. Las siguientes matrices están en su forma escalonada



reducida.

  1 2 0 0 −3 1 0
1 0 0  0 0 1 0 4 −1 0 
 
 0 1 0  ;  0 0 0 1 3 −2 0 
 
0 0 1  0 0 0 0 0 0 1 
0 0 0 0 0 0 0

19 W. Jordan (1842-1899) fue un ingeniero y profesor alemán de topografía geodésica cuya contribución a la solución

de los sistemas lineales fue un método sistemático de sustitución hacia atrás directamente relacionado con el método de
Gauss-Jordan.
20 Ver la Sección 1.4.3, página 13.

Pedro José Hernando Oter Clases de Álgebra


22 TEMA 1: Sistemas de Ecuaciones Lineales

U Definición 1.26 (Matriz Escalonada Reducida Equivalente)


Se define la matriz escalonada reducida equivalente de una matriz A, a la matriz
escalonada reducida obtenida mediante la aplicación de operaciones elementales de fila en
A.

La matriz escalonada reducida equivalente de una matriz A se puede obtener de dos formas:
• Obtener la matriz escalonada equivalente 21 y posteriormente obtener los pivotes unidad y ceros
correspondientes. Este método es computacionalmente preferible para un ordenador.
• Ir obteniendo los pivotes unidad a medida que se va obteniendo la matriz escalonada equivalente.
Este método es más útil para cálculos a mano.

Unicidad de la Matriz Escalonada Reducida

Existen infinitas matrices escalonadas correspondientes a una matriz dada. Sin embargo, la matriz
escalonada reducida correspondiente a una matriz dada es única.

Proceso

El método de Gauss-Jordan consiste en la obtención de la matriz escalonada reducida de un SEL.


Si el sistema es compatible determinado22 , su solución vendrá dada directamente por la columna de
los términos independientes, sin necesidad de aplicar el método de sustitución hacia atrás.

P Ejemplo 1.26. Resolver mediante el método de Gauss-Jordan el siguiente SEL en R3 .


x1 + x2 + x3 = 3
2x1 + 3x2 + x3 = 5
x1 − x2 − 2x3 = −5

Solución:
     
1 1 1 3 1 1 1 3 1 1 1 3
 2 F2 − 2F1 F3 − F 1
3 1 5  −−−−−−−→  0 1 −1 −1  −−−−−−→  0 1 −1 −1 
1 −1 −2 −5 1 −1 −2 −5 0 −2 −3 −8
     
1 1 1 3 1 0 2 4 − 15 F3 1 0 2 4
F + 2F2  F − F2 
−−3−−−−−→ 0 1 −1 −1  −−1−−−−→ 0 1 −1 −1  −−−−→  0 1 −1 −1 
0 0 −5 −10 0 0 −5 −10 0 0 1 2
   
1 0 2 4 1 0 0 0
F2 + F3  F − 2F
−−−−−−→ 0 1 0 1  −−1−−−−−→ 3 
0 1 0 1 
0 0 1 2 0 0 1 2
(Continúa en la página siguiente)

21 Ver
la Definición 1.23, página 18.
22 Los
SEL incompatibles y compatibles indeterminados se pueden identificar de igual forma que se vio en la
Sección 1.6.1, página 20 y Sección 1.6.2, página 20.

Clases de Álgebra Pedro José Hernando Oter


1.8. Sistemas Homogéneos 23

P Ejemplo 1.26 (Continuación).


Como el rango de la matriz de coeficientes es 3 igual que la dimensión del sistema, el sistema es
compatible y determinado. La solución es directamente la columna de términos independientes.

x1 = 0 ; x2 = 1 ; x3 = 2

1.7.2. Matriz Identidad

U Definición 1.27 (Matriz Identidad)


Se denomina matriz identidad de orden n a una matriz de la forma:
 
1 0 ··· 0
 0 1 ··· 0 

In = 

.. .. ..

∈

Rn×n
. . .
0 0 ··· 1

R
Un SEL de n tiene solución única, (compatible y determinado), si y sólo si la matriz escalonada
reducida equivalente a su matriz de coeficientes es una matriz identidad de orden n, In .

1.8. Sistemas Homogéneos

U Definición 1.28 (Sistemas Homogéneos)


Un SEL se denomina homogéneo si el término independiente en cada ecuación es cero.

El siguiente es un SEL homogéneo de m ecuaciones con n incógnitas:

a11 x1 + a12 x2 + ··· + a1n xn = 0


a21 x1 + a22 x2 + ··· + a2n xn = 0
.. .. .. ..
. . . .
am1 x1 + am2 x2 + ··· + amn xn = 0

Por el teorema de Rouché-Fröbenius23 los SEL homogéneos son siempre compatibles, ya que
rang(A) = rang(A|B), pudiendo ser determinados o indeterminados en función de la matriz de
coeficientes A ∈ m×n :R
• Si rang(A) = n, el sistema es compatible determinado, y su solución única es la solución nula
R
~x = ~0 = [0, · · · , 0] ∈ n conocida con el nombre de solución trivial.
• Si rang(A) < n, el sistema es compatible indeterminado, con infinitas soluciones, (una de ellas
la solución trivial).

23 Ver el Teorema 1.1, página 18.

Pedro José Hernando Oter Clases de Álgebra


:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=
TEMA 2
Espacios Vectoriales

Contenido
2.1 R
Vectores en Espacios n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.1.1 Representación Gráfica de Vectores . . . . . . . . . . . . . . . . . . . . . . 27
2.2 Operaciones Elementales con Vectores . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.1 Suma . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.2.2 Producto por un Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . 29
2.2.3 Vector Opuesto y Vectores Estándar . . . . . . . . . . . . . . . . . . . . . 29
2.2.4 Diferencia de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.2.5 Propiedades Algebraicas de la Suma y Producto por un Escalar . . . . . . 30
2.3 Espacio y Subespacio Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4 Sistemas de Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 32
2.4.1 Combinación Lineal de Vectores . . . . . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Dependencia e Independencia Lineal . . . . . . . . . . . . . . . . . . . . . 33
2.4.3 Rango de un Sistema . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.4.4 Interpretación Geométrica . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5 Conjuntos o Sistemas Generadores . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.5.1 Base y Dimensión de un Sistema de Vectores . . . . . . . . . . . . . . . . 36
R
2.5.2 Generación de n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
2.6 Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.6.1 Propiedades del Producto Escalar . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7 Distancia y Norma en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.1 Propiedades de la Distancia . . . . . . . . . . . . . . . . . . . . . . . . . . 41
2.7.2 Distancia de un Punto al Origen . . . . . . . . . . . . . . . . . . . . . . . 41
R
2.7.3 Norma de un Vector en n . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.4 Propiedades de la Norma . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.7.5 Vectores Unitarios y Normalización . . . . . . . . . . . . . . . . . . . . . . 43
2.8 Relaciones entre Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.8.1 Distancia entre dos Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . 43
R
2.8.2 Ángulo entre dos Vectores en 2 . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.3 Ángulo entre dos Vectores en n . . . . . . . . . . . . . . . . . . . . . . . 44
R
2.8.4 Definición Alternativa del Producto Escalar en n . . . . . . . . . . . . . 44
2.9 Vectores Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.10 Proyección Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
R R
2.10.1 Interpretación Geométrica en 2 y 3 . . . . . . . . . . . . . . . . . . . . 46
2.10.2 Aplicaciones Geométricas de la Proyección Ortogonal . . . . . . . . . . . . 47

25
26

Clases de Álgebra
Vectores Rn

Espacios Vectoriales Sistemas de Vectores Sistema Generador Producto Escalar Relaciones entre Vectores Ortogonalidad

Operaciones Propiedades Subespacios Vectoriales Combinación Lineal Vec. Rango de un Sist. Bases Dimensión Propiedades Distancia entre Puntos Ángulo entre Vectores Proyección Ortogonal

Suma Producto por un Escalar Dependencia Lineal Independencia Lineal Base Canónica Norma Euclídea Aplicaciones Geométricas

Resta Sist. Lin. Dependiente Sist. Lin. Independiente Distancia entre Vectores

Pedro José Hernando Oter


TEMA 2: Espacios Vectoriales
2.1. Vectores en Espacios Rn 27

2.1. Vectores en Espacios Rn


U Definición 2.1 (Vector)
Un vector 1 ~v es una colección ordenada de números reales:

~v = [v1 , v2 , · · · , vn ] ; vi ∈ R
Cada uno de los números se denomina componente o coordenadas y el número de componentes
n se denomina dimensión del vector.

U Definición 2.2 (Espacio n ) R


El conjunto de todos los vectores2 de n componentes reales se representa por Rn .
Rn = {[x1 , x2 , · · · , xn ] : xi ∈ R, 1 ≤ i ≤ n}

P Ejemplo 2.1.
R 2
= {[x, y] : x, y ∈ } R −→ [1, 0] ∈ 2 R
R 3
= {[x, y, z] : x, y, z ∈ R} −→ [1, −1, 1/3] ∈ R3
2.1.1. Representación Gráfica de Vectores
R R
Los vectores de baja dimensión3 , 2 y 3 , se pueden representar gráficamente como un segmento
dirigido desde el origen hasta el punto dado por las coordenadas del vector.
Z

z
Y
~v = [x, y]
~v
y

x y
~v

Y
X
~v = [x, y, z]

x X

Figura 2.1.: Representación gráfica de vectores en R2 y R3 .

Existe una relación directa entre un punto de n componentes P = (x1 , · · · , xn ) y un vector con las
mismas componentes ~x = [x1 , · · · , xn ], ya que asociado a cada punto existe un vector con inicio en el
R
origen (0, · · · , 0) ∈ n y final en el punto en cuestión. De forma que cuando hablamos de espacios n R
nos podemos referir indistintamente a espacios de puntos 4 y/o espacios de vectores.
1 Esta definición corresponde a los conocidos como vectores generales. Además hay otros tipos de vectores como los

vectores geométricos y de posición, ver una introducción en el Apéndice B.6, página 253.
2 Una generalización de los vectores en espacios complejos C
n se puede ver en el Apéndice B.7, página 255.

R
3 Los vectores n para n > 3 no se pueden representar gráficamente.
4 Ver la Definición 1.7, página 5.

Pedro José Hernando Oter Clases de Álgebra


28 TEMA 2: Espacios Vectoriales

2.2. Operaciones Elementales con Vectores


Sean los vectores: ~u, ~v ∈ n : R

 ~u = [u1 , u2 , · · · , un ] ; u1 , u2 , · · · , un ∈ R
v1 , v2 , · · · , vn ∈ R

~v = [v1 , v2 , · · · , vn ] ;
Vamos a definir las operaciones de suma, producto por un escalar y diferencia entre vectores.

2.2.1. Suma

U Definición 2.3 (Suma de Vectores)


Se define la suma de dos vectores ~u, ~v ∈ Rn como el vector ~s ∈ Rn dado por:
~s = ~u + ~v = [u1 , u2 , · · · , un ] + [v1 , v2 , · · · , vn ] = [u1 + v1 , u2 + v2 , · · · , un + vn ]

P Ejemplo 2.2. Determinar la suma de los vectores de 4 : ~u = [1, 2, 3, 4] y ~v = [0, −2, 3, −1]
Solución:
R
~s = ~u + ~v = [1, 2, 3, 4] + [0, −2, 3, −1] = [1, 0, 6, 3]

Regla del Paralelogramo


R R
En los casos particulares de 2 y 3 donde los vectores se pueden representar gráficamente, la suma
de dos vectores ~u + ~v representa el vector diagonal del paralelogramo de lados ~u y ~v , en el plano
definido por ambos vectores.

Z
Y
~v
~v
~u + ~u
~u

~s =
~u

~v
~v

~v ~s Y
X
~u
X

Figura 2.2.: Suma de dos vectores en R2 y R3 . Regla del paralelogramo.

P Ejemplo 2.3. En
Solución:
R2 determinar ~x + ~y siendo ~x = [3 − 1] e ~y = [1, 4].

Y
4
3 ~y
~y
2 ~x +
~v =
1 ~v = ~x+~y = [3, −1]+[1, 4] = [3+1, (−1)+4] = [4, 3]
1 2 3 4 X
−1 ~x

Clases de Álgebra Pedro José Hernando Oter


2.2. Operaciones Elementales con Vectores 29

2.2.2. Producto por un Escalar

U Definición 2.4 (Producto por un Escalar)


Se define la multiplicación de un vector ~v = [v1 , v2 , · · · , vn ] ∈ Rn por un escalar 5 α ∈ R de la
siguiente forma:

α~v = α[v1 , v2 , · · · , vn ] = [αv1 , αv2 , · · · , αvn ] ; ~v ∈ Rn , α∈ R

P Ejemplo 2.4. En
Solución:
R2 determinar el producto del vector ~u = [1, 2] por el escalar α = −3.
~v = α~u = (−3)[1, 2] = [−3, −6]

! Nota 2.1. La multiplicación de un vector por una constante (escalar) únicamente modifica su longitud y/o sentido,
sin modificar su dirección. A esto se le denomina escalamiento de un vector.

P Ejemplo 2.5. Dado ~v = [2, 3], calcular 2~v y − 32 ~v .


Solución:

Y
6
5 2~v

4
3
2 ~v • 2~v = 2 ∗ [2, 3] = [4, 6]
1

−4 −3 −2 −1 1 2 3 4 5 6 X
• − 32 ~v = − 23 ∗ [2, 3] = [− 34 , −2]
−1
−2
− 23 ~v
−3
−4

2.2.3. Vector Opuesto y Vectores Estándar

U Definición 2.5 (Vector Opuesto)


El vector opuesto (o negativo) de un vector ~v ∈ Rn es el vector −~v dado por:
−~v = (−1)~v = (−1)[v1 , v2 , · · · , vn ] = [−v1 , −v2 , · · · , −vn ]

U Definición 2.6 (Vectores Estándar)


R
Se define el vector estándar ~ei ∈ n como aquel vector que tiene todas sus componentes 0
excepto la componente i-ésima que tiene un 1.

~ei = [0, 0, · · · , 1, · · · , 0]

5 La palabra escalar proviene del latín scala que significa escalera.

Pedro José Hernando Oter Clases de Álgebra


30 TEMA 2: Espacios Vectoriales

2.2.4. Diferencia de Vectores

U Definición 2.7 (Diferencia o Resta de Vectores)


R
Restar dos vectores ~u, ~v ∈ n es sumar a ~u el vector opuesto de ~v .

~u − ~v = ~u + (−~v ) ; ~u, ~v ∈ Rn

P Ejemplo 2.6. En
Solución:
R2 , dados ~u = [1, 3] y ~v = [4, 2] determinar ~u − ~v y ~v − ~u.
Y
4
~u
3
~v
2
~u − ~v
1 • ~u −~v = [1, 3] − [4, 2] = [1 − 4, 3 − 2] = [−3, 1]
−4 −3 −2 −1 1 2 3 4 X • ~v −~u = [4, 2] − [1, 3] = [4 − 1, 2 − 3] = [3, −1]
−1
~v − ~u
−2
−~v
−3
−~u
−4

2.2.5. Propiedades Algebraicas de la Suma y Producto por un Escalar

Dados los vectores ~u, ~v , w


~∈ Rn y los escalares α, β ∈ R, se verifican las siguientes propiedades:
• Conmutativa : ~u + ~v = ~v + ~u
• Asociativa de la Suma : (~u + ~v ) + w
~ = ~u + (~v + w)
~

• Asociativa del Producto : α(β~u) = αβ~u = (αβ)~u


• Elemento Neutro 1 : (~u + ~0) = ~0 + ~u = ~u
• Elemento Neutro 2 : 0~u = ~0 ; α~0 = ~0
• Elemento Unitario : 1 ∗ ~u = ~u ∗ 1 = ~u

• Elemento Opuesto 1 : ~u + (−~u) = (−~u) + ~u = ~0


• Elemento Opuesto 2 : (−α)~u = α(−~u) = −(α~u)
• Distributiva 1 : α(~u + ~v ) = α~u + α~v = (~u + ~v )α
• Distributiva 2 : (α + β)~u = α~u + β~u = ~u(α + β)

P Ejemplo 2.7. En
~u − (3~v + 2w).
~
R2 , dados los vectores ~u = [3, 4], ~v = [1, −2] y w
~ = [0, 5], calcular

Solución:

~ = [3, 4] − (3[1, −2] + 2[0, 5]) = [3, 4] − ([3, −6] + [0, 10]) = [3, 4] − [3, 4] = [0, 0] = ~0
~u − (3~v + 2w)

Clases de Álgebra Pedro José Hernando Oter


2.3. Espacio y Subespacio Vectorial 31

P Ejemplo 2.8. Demostrar la propiedad conmutativa de la suma de vectores.


Solución:

~u + ~v = [u1 , u2 , · · · , un ] + [v1 , v2 , · · · , vn ] = [u1 + v1 , u2 + v2 , · · · , un + vn ] =

= [v1 + u1 , v2 + u2 , · · · , vn + un ] = [v1 , v2 , · · · , vn ] + [u1 , u2 , · · · , un ] = ~v + ~u

P Ejemplo 2.9. Representar gráficamente la propiedad asociativa de la suma de vectores en R3 .


+ ~
w
~v )
~u +
=(
~)
w
(~v +
~u +

w
~
w
~
~v +
~u +
~v
~u

~v

2.3. Espacio y Subespacio Vectorial

U Definición 2.8 (Espacio Vectorial)


Se denomina espacio vectorial a todo conjunto V en el que se definen dos operaciones entre
sus elementos, llamadas suma 6 y multiplicación por un escalar 7 , que cumple las propiedades
algebraicas8 de los vectores n . R

P Ejemplo 2.10.

• Kn , siendo K = ó R K C
= , es un espacio vectorial para cualquier n ≥ 1, con las
operaciones habituales de adición y multiplicación por escalares ( ó ). R C
• El conjunto F de todas las funciones reales de variable real en el que se definen las
operaciones:
– suma: (f + g)(x) = f (x) + g(x), ∀f, g ∈ F.
– multiplicación por un escalar: (cf )(x) = cf (x), ∀f ∈ F, ∀c ∈ R.
es un espacio vectorial.

6 También llamada adición.


7 Estas operaciones pueden ser muy variadas y no necesariamente la suma y producto por un escalar definidas
anteriormente para vectores.
8 Ver la Sección 2.2.5, página 30.

Pedro José Hernando Oter Clases de Álgebra


32 TEMA 2: Espacios Vectoriales

U Definición 2.9 (Subespacio Vectorial)


Un subconjunto W de un espacio vectorial V , W ⊆ V , se denomina subespacio vectorial
de V si tiene las siguientes propiedades:
• W contiene el elemento nulo de V .
• W es cerrado bajo la suma: si w1 , w2 ∈ W =⇒ w1 + w2 ∈ W .
• W es cerrado bajo el producto por un escalar: si w ∈ W y k es un escalar, entonces
kw ∈ W .

P Ejemplo 2.11.

• El conjunto de todos los vectores ~v = [x, y, z] ∈ R3 pertenecientes al plano9 3x + 2y − z = 0


es un subespacio vectorial de 3 . R
R
• El conjunto de todos los vectores ~v = [x, y] ∈ 2 pertenecientes a la recta 3x + 2y = 1
R
no son un subespacio vectorial de 2 , ya que este conjunto no contiene al vector nulo
R
[0, 0] ∈ 2 .

R
• El conjunto de todos los vectores ~v = [x, y, z, w, t] ∈ 5 que cumplen las ecuaciones10 :

 x + y − z + 5w − t = 0
3x − 5t = 0

y + 2z − w = 0

forman un subespacio vectorial de R5 .


Todos los objetos geométricos 11 de Rn que pasan por el origen12 forman un subespacio vectorial del
correspondiente espacio n . R

2.4. Sistemas de Vectores

U Definición 2.10 (Sistema de Vectores)


Se denomina sistema de vectores a todo conjunto de vectores S = {~v1 , ~v2 , · · · , ~vp } ⊂ Rn .

9 Es decir, cuyas componentes [x, y, z] cumplen dicha ecuación.


10 Es R
decir, pertenecen al hiperplano de dimensión 5 − 3 = 2 en el espacio 5 .
11 Ver la Definición 1.11, página 6.
12 Para ello, todas de las ecuaciones lineales constitutivas que definen el objeto poseen 0 como término independiente.

Clases de Álgebra Pedro José Hernando Oter


2.4. Sistemas de Vectores 33

2.4.1. Combinación Lineal de Vectores

U Definición 2.11 (Combinación Lineal de Vectores)


R
Se dice que un vector ~v ∈ n es una combinación lineal de un sistema de m vectores ~v1 ,
R
~v2 , · · · , ~vm ∈ si existen m escalares (constantes) c1 , c2 , · · · , cm ∈ tales que13 : R
m
X
~v = c1~v1 + c2~v2 + · · · + cm~vm = cj ~vj
j=1

A los escalares ci se les denominan coeficientes de la combinación lineal.

P R
Ejemplo 2.12. Dados los vectores de 2 : ~u = [−2, 2], ~v = [3, 1], w ~ = [−2, −2], ~x = [1, 2],
~y = [3, −1], determinar el vector resultante de la siguiente combinación lineal, representando
gráficamente el resultado.
1
−~u + 2~v + 3w
~ + ~x + ~y
2
Solución:

~u Y ~x
2
~y 1
1 −~u + 2~v + 3w
~ + ~x + ~y
2
−2 −1 1 2 3 4 5 X 1

−1 = (−1)[−2, 2]+2[3, 1]+3[−2, −2]+ [1, 2]+[3, −1]


~u

~v
+

2
2~v

w
~ −2
+

= [2 + 6 − 6 + 0.5 + 3, −2 + 2 − 6 + 1 − 1]
3w~

−3
+
1

−4
2
~x

= [5.5, −6]
+
~y

−5

2.4.2. Dependencia e Independencia Lineal

U Definición 2.12 (Dependencia e Independencia Lineal)


R
• Se dice que un vector ~v ∈ n es linealmente dependiente de un sistema de m vectores
R
~v1 , ~v2 , · · · , ~vm ∈ , si ~v es una combinación lineal de dichos vectores.
• En caso contrario, se dice que ~v ∈ Rn es linealmente independiente de (el conjunto
de) los vectores.

! Nota 2.2. La dependencia lineal es transitiva: si ~v depende linealmente de unos vectores y cada uno de estos dependen
linealmente de otros, entonces ~v depende linealmente de los últimos.

13 Ver un resumen de la definición y propiedades de los sumatorios en el Apéndice B.12, página 269.

Pedro José Hernando Oter Clases de Álgebra


34 TEMA 2: Espacios Vectoriales

U Definición 2.13 (Conjunto Linealmente Dependiente)


R
Se dice que un conjunto o sistema de vectores S = {~v1 , ~v2 , · · · , ~vp } ⊂ n es linealmente
dependiente (o ligado) si se verifica una de las siguientes condiciones, que son equivalentes
entre sí14 :

• Alguno de los vectores de S depende linealmente de los demás.


• Para algunos escalares α1 , α2 , · · · , αp ∈ R, que no son todos nulos se cumple:
α1 v~1 + α2 v~2 + · · · + αp v~p = ~0

U Definición 2.14 (Conjunto Linealmente Independiente)


R
Se dice que un conjunto o sistema de vectores S = {~v1 , ~v2 , · · · , ~vp } ⊂ n es linealmente
independiente (o libre) si se verifica una de las siguientes condiciones, que son equivalentes
entre sí:

• El sistema S no es linealmente dependiente, es decir, ninguno de los vectores de S


depende linealmente de los demás.
• La única combinación lineal de vectores de S que es nula es la que tiene todos sus
coeficientes nulos, es decir:

α1 v~1 + α2 v~2 + · · · + αp v~p = ~0 ⇐⇒ α1 = α2 = · · · = αp = 0

siendo los escalares α1 , α2 , · · · , αp ∈ R.

2.4.3. Rango de un Sistema

U Definición 2.15 (Rango de un Sistema de Vectores)


Se denomina rango15 de un sistema de vectores S, al mayor número de vectores linealmente
independientes entre sí que hay en S.

r = rang(S)

En los conjuntos de vectores S linealmente independientes, el rango coincide con el número de


vectores del conjunto, rang(S) = N . En los conjuntos linealmente dependientes, rang(S) ≤ N .

14 La
primera definición es formal o teórica y la segunda operacional o aplicada.
15 El
rango de un sistema de vectores está relacionado con el rango de una matriz (ver Sección 1.5.4, página 18) que
los contiene, como se verá en la Sección 3.6, página 70.

Clases de Álgebra Pedro José Hernando Oter


2.4. Sistemas de Vectores 35

P Ejemplo 2.13.
• El rango de S = {[1, 2], [3, 2]} es rang(S) = 2.
• El rango de G = {[1, 1, 1], [2, 2, 2], [3, 3, 3]} es rang(G) = 1.

2.4.4. Interpretación Geométrica

U Definición 2.16 (Vectores Paralelos)


R
En n , se dice que dos vectores son paralelos si poseen la misma dirección, es decir:

~u k ~v ⇐⇒ ~u = α~v =⇒ a~u + b~v = ~0

Por tanto, dos vectores paralelos son siempre linealmente dependientes.

U Definición 2.17 (Vectores Coplanarios)


R
En 3 , se dice que tres vectores son coplanarios si están contenidos en el mismo plano, es
decir:
Z

u ~ coplanarios ⇐⇒ ~u = α~v +β w
~u, ~v , w ~
v
w
Y
~ = ~0
a~u + b~v + cw ; a, b, c ∈ R
X

Por tanto, tres vectores coplanarios son siempre linealmente dependientes.

U Definición 2.18 (Vectores Co-hiperplanarios)


R
En n , se dice que n vectores son co-hiperplanarios si están contenidos en el mismo hiperplano,
y por tanto son linealmente dependientes.

v~1 , v~2 , · · · v~n co-hiperplanarios ⇐⇒ v~1 = α2 v~2 + α3 v~3 + · · · + αn v~n

a1~v1 + a2~v2 + · · · + an~vn = ~0 ; ai ∈ R

Pedro José Hernando Oter Clases de Álgebra


36 TEMA 2: Espacios Vectoriales

2.5. Conjuntos o Sistemas Generadores

U Definición 2.19 (Conjunto o Sistema Generador)


Dado un sistema de vectores W , subconjunto de otro sistema de vectores V , W ⊂ V , se dice
que W es un conjunto o sistema generador de V , si todo vector ~v ∈ V es linealmente
dependiente de W .

∀~v ∈ V ~v = c1 w1 + · · · + ck wk ∀wi ∈ W

W1
W2
W3 W4 Un espacio vectorial V no nulo tiene infinitos conjuntos generadores W1 , W2 , · · ·

! Nota 2.3. A través de la notación gen() se representa el espacio generado por combinación lineal de los vectores
de un conjunto generador W = {w
~ 1, · · · , w
~ k }:
gen(w
~ 1, · · · , w
~ k ) = {~v : ~v = α1 w
~ 1 + · · · + αm w
~ k , ∀α1 , · · · , αk ∈ R}

2.5.1. Base y Dimensión de un Sistema de Vectores

U Definición 2.20 (Base de un Sistema de Vectores)


Una base de un sistema de vectores V es un conjunto generador formado por vectores
linealmente independientes.

U Definición 2.21 (Dimensión de un Sistema de Vectores)


Al número de vectores que contiene cualquier base de un conjunto de vectores V se denomina
dimensión de V , y coincide con rang(V ) (número de vectores linealmente independientes).

2.5.2. Generación de Rn
Vamos a aplicar los conceptos anteriores en la generación de los espacios Rn .
Generación del Espacio R2
• Con todas las combinaciones lineales de uno o más vectores paralelos, (linealmente dependientes),
se obtienen todos los vectores que pasan por la recta que tiene la dirección de los vectores. Por
R
tanto, el rango de cualquier conjunto de vectores paralelos en 2 es 1 y no pueden ser una base
R
de 2 .

Clases de Álgebra Pedro José Hernando Oter


2.5. Conjuntos o Sistemas Generadores 37

R
• Cualquier vector de 2 se puede obtener como combinación lineal de dos vectores no paralelos
(linealmente independientes). Por tanto, cualquier conjunto de vectores que contenga al menos
dos vectores no paralelos, tiene rango 2, y por tanto es un conjunto generador de 2 . R
• Una base de R
2
será cualquier conjunto de exactamente dos vectores no paralelos.

Y Y Y

3~v

~u
~u ~v
~v ~v ~u − 2~v
~v
−2 X X X

−2
~u +
2~v
Base Canónica o Estándar de R2
Tomando los dos vectores estándar16 de R2 :
~e1 = [1, 0] ; ~e2 = [0, 1]

Y Cualquier vector de 2
R
de la forma ~v = [v1 , v2 ] se
puede expresar como combinación lineal de los dos vectores
estándar:
~e2
~v

~v = v1~e1 + v2~e2 = v1 [1, 0] + v2 [0, 1] = [v1 , v2 ]


~e1 X
Por tanto, el conjunto B = {[1, 0], [0, 1]} es una base de R2 .
A los vectores estándar se les suele denotar como ~i = [1, 0] y ~j = [0, 1], y a la base B = {~i, ~j} se le
denomina base canónica o estándar de 2 . R

Generación del Espacio R3


• Con todas las combinaciones lineales de uno o más vectores paralelos, (linealmente dependientes),
se obtienen todos los vectores que pasan por la recta que tiene la dirección de los vectores. Por
tanto, el rango de cualquier conjunto de vectores paralelos en 3 es 1 y no pueden ser una base R
de 3 . R
• Con todas las combinaciones lineales de al menos dos vectores no paralelos, (linealmente
independientes 7→ coplanarios), se pueden obtener todos los vectores contenidos en el plano
descrito por los dos vectores. Por tanto, el rango de cualquier conjunto de vectores coplanarios
R
en 3 es 2 y no puede ser una base de 3 . R
R
• Cualquier vector de 3 se puede obtener como combinación lineal de tres vectores no coplanarios.
Por tanto, el rango de cualquier conjunto de vectores que contenga al menos 3 vectores no
coplanarios en 3 es 3. R
• Una base de R
3
será cualquier conjunto de exactamente tres vectores no coplanarios.

16 Ver la Definición 2.6, página 29.

Pedro José Hernando Oter Clases de Álgebra


38 TEMA 2: Espacios Vectoriales

Z Z Z

~u ~v ~u ~u

w
~
~
w ~v ~v

w
~
Y Y Y
X X X

Base Canónica o Estándar de R3


Tomando los vectores estándar de R3 :
~e1 = [1, 0, 0] ; ~e2 = [0, 1, 0] ; ~e3 = [0, 0, 1]

Cualquier vector ~v = [v1 , v2 , v3 ] ∈ R3 se puede expresar como combinación lineal de estos vectores:
~v = v1~e1 + v2~e2 + v3~e3 = v1 [1, 0, 0] + v2 [0, 1, 0] + v3 [0, 0, 1] = [v1 , v2 , v3 ]

Por tanto, el conjunto B = {[1, 0, 0], [0, 1, 0], [0, 0, 1]} es una base de R3 .
Z
~k

~j
~i
Y
X

R
A estos los vectores estándar de 3 se les suele denotar como ~i = [1, 0, 0], ~j = [0, 1, 0] y ~k = [0, 0, 1],
y a la base B = {~i, ~j, ~k} se le denomina base canónica o estándar de 3 . R

Conclusión: Generación del Espacio Vectorial Rn


R
• Cualquier conjunto de vectores de n co-hiperplanarios de un hiperplano de dimensión k < n
es un conjunto linealmente dependiente de rango k.
R
• Todo conjunto V ⊆ n con n vectores linealmente independientes, (rang(V ) = n), es un
conjunto generador17 de n . R
• Una base de Rn
será cualquier conjunto de exactamente n vectores no co-hiperplanarios
(linealmente independientes)18 .
• La base canónica o estándar de n es el conjunto: R
B = {~e1 , ~e2 , · · · , ~en } = {[1, 0, 0, · · · , 0], [0, 1, 0, · · · , 0], · · · , [0, 0, 0, · · · , 1]} ⊂ Rn .

17 Y R
por tanto, todo ~v ∈ n se puede obtener por combinación lineal de los vectores de V .
18 Conjunto generador formado por n vectores.

Clases de Álgebra Pedro José Hernando Oter


2.5. Conjuntos o Sistemas Generadores 39

P Ejemplo 2.14. Encontrar un conjunto generador y una base del subespacio vectorial W ⊂
definido por: 
R3
x+y−z = 0
W :
x−y = 0
Solución: Primero tenemos que encontrar el conjunto de los infinitos vectores de 3 que R
pertenecen al subespacio W y para ello tenemos que resolver el SEL que los define. Como
las dos ecuaciones del SEL son claramente linealmente independientes, la dimensión de W es
R
3 − 2 = 1 y por tanto es una recta en 3 que vendrá definida en forma vectorial por un único
parámetro. Resolviendo el SEL por Gauss:

     x = −y + z = −t + 2t = t
1 1 −1 0 F2 − F1 1 1 −1 0
−−−−−−→ −→ y=t
1 −1 0 0 0 −2 1 0 
z = 2y = 2t

R
En forma vectorial, el conjunto de todos los vectores de 3 que forman parte del subespacio W
son:    
x 1
 y  = t 1  ; ∀t ∈ R
z 2
Un conjunto generador de W será cualquier conjunto formado por uno19 o más vectores de W ,
como por ejemplo los siguientes:
     
G1 = 1 1 2 ; G2 = 2 2 4 , −1 −1 −2
     
G3 = 3 3 6 , 2 2 4 , 0 0 0
Una base de W será cualquier conjunto de vectores formado por un sólo vector20 no nulo de W ,
como por ejemplo:
   
B1 = 1 1 2 ; B2 = −2 −2 −4

P Ejemplo 2.15. Encontrar un conjunto generador y una base del subespacio vectorial W ⊂
donde sus vectores ~v = [x, y, z, w, t] cumplen:
R5

W : x+y−z =0

Solución: En este caso la dim(W ) = 5 − 1 = 4, por tanto habrá 4 parámetros libres en su


definición vectorial. Resolviendo el SEL de una ecuación con 5 incógnitas se tiene:
         
x = −y − z = −α + β   x −1 1 0 0


y=α   y 
  1 
 
 0 
 
 0   0 
   
z=β

 z  = α  0 +β  1 +γ  0 +δ  0  ; ∀α, β, γ, δ ∈
          R
w=γ 
  w   0   0   1   0 


t=δ t 0 0 0 1

Dando valores a los parámetros α, β, γ y δ se obtienen todos los vectores que forman parte del
subespacio W .
(Continúa en la página siguiente)
19 Si este vector es único, no puede ser el vector nulo.
20 Ya que la dimensión de W es uno.

Pedro José Hernando Oter Clases de Álgebra


40 TEMA 2: Espacios Vectoriales

P Ejemplo 2.15 (Continuación).


Un conjunto generador de W estará formado por al menos 4 vectores21 linealmente
independientes de W , como los dos ejemplos siguientes:
                 

 −1 1 0 0   
 −1 2 0 0 0 

    1   0   0   0   1 
 1   
 0   0   0 
     
          

      
G1 =  0  ,  1  ,  0  ,  0            
; G2 =  0  ,  2  ,  0  ,  0  ,  1 

   0   1   0   
 

 0 
 
 0   0   −1   0   0 

   
0 0 0 1 0 0 0 8 0

Una base de W está formada por cualquier conjunto de exactamente 4 vectores linealmente
independientes de W , como los dos ejemplos siguientes:
       

 −1 2 0 0 

 
      
 1   0   0   0 

B1 = G1 ;       
B2 =  0  ,  2  ,  0  ,  0  

  0   0   −1   0  

 

 
0 0 0 8

2.6. Producto Escalar


Los vectores poseen multitud de aplicaciones en ingeniería. Muchas de ella pueden ser fácilmente
desarrolladas mediante una importante operación vectorial denominada producto escalar22 .

U Definición 2.22 (Producto Escalar en


Dados dos vectores de n : R
R n
)


~u = [u1 , u2 , · · · , un ]
~v = [v1 , v2 , · · · , vn ]
; ~u, ~v ∈ Rn
se define el producto escalar de ~u por ~v y lo representamos por ~u ·~v como el escalar resultante
de la siguiente operación:

n
X
~u · ~v = [u1 , u2 , · · · , un ] · [v1 , v2 , · · · , vn ] = u1 v1 + u2 v2 + · · · + un vn = uk vk
k=1

! Nota 2.4.
• No confundir el producto escalar con el producto por un escalar 23 , c~v .
• Los dos vectores tienen que tener igual dimensión (número de componentes).
• El resultado siempre es un escalar (número real), no un vector.
• El producto escalar es un caso especial del producto más general denominado producto interno, definido para
espacios vectoriales generales24

21 Ya que este valor es la dimensión del subespacio vectorial W .


22 En algunos libros de texto lo denominan producto punto, siguiendo la terminología anglosajona.
23 Ver la Sección 2.2.2, página 29.
24 Ver la Definición 2.8, página 31.

Clases de Álgebra Pedro José Hernando Oter


2.7. Distancia y Norma en Rn 41

P Ejemplo 2.16. Calcular el producto escalar de los vectores de R3 :


~u = [1, 2, −3] ; ~v = [−3, 5, 2]

Solución:

~u · ~v = [1, 2, −3] · [−3, 5, 2] = 1 ∗ (−3) + 2 ∗ 5 + (−3) ∗ 2 = −3 + 10 − 6 = 1

2.6.1. Propiedades del Producto Escalar

Dados los vectores ~u, ~v , w


~∈ Rn y c ∈ R, se verifica:
• Conmutativa: ~u · ~v = ~v · ~u
• Asociativa: ~u · (~v + w)
~ = ~u · ~v + ~u · w.
~
• (c~u) · ~v = c(~u · ~v ) = ~u · (c~v )
• ~u · ~u ≥ 0. Si ~u · ~u = 0 ⇐⇒ ~u = ~0.

2.7. Distancia y Norma en Rn


La distancia25 entre dos puntos A y B de Rn viene definida por el número real no negativo:
v
 u n
A(a1 , · · · , an ) p uX
d(A, B) = d(B, A) = (a1 − b1 ) + · · · (an − bn ) = t (ai − bi )2
2 2
B(b1 , · · · , bn )
i=1

A esta distancia se le denomina distancia euclídea.

2.7.1. Propiedades de la Distancia

Dados dos puntos A, B ∈ Rn , se verifica:


• d(A, B) ∈ R. d(A, B) ≥ 0
• d(A, B) = 0 ⇐⇒ A = B =⇒ d(X, X) = 0 ∀X ∈ Rn
• d(A, B) = d(B, A)

2.7.2. Distancia de un Punto al Origen


Dado A(x1 , x2 , · · · , xn ) ∈ Rn con xi ∈ R, se tiene:
v
q u n
p uX
d(A, ~0) = (x1 − 0)2 + · · · (xn − 0)2 = x21 + · · · x2n = t x2i
i=1

Pedro José Hernando Oter Clases de Álgebra


42 TEMA 2: Espacios Vectoriales

! Nota 2.5. Caso especial:


Rn = R

• Si =⇒ d(A, 0) = x2 = |x| (valor absoluto de x).

2.7.3. Norma de un Vector en Rn


U Definición 2.23 (Norma de un Vector en n )
Se define la norma de un vector ~v = [v1 , · · · , vn ] ∈
R
Rn como la distancia del origen al
extremo del vector y se identifica por k~v k.
v v
q u n u n
uX uX √
k~v k = 2 2
v1 + · · · vn = t vi = t
2 vi vi = ~v · ~v
i=1 i=1

Esta norma se la denomina norma euclídea o norma 2.

! Nota 2.6. Además de la norma 2 o euclídea se definen otras normas muy utilizadas, como son la norma 1, la norma
n y la norma infinito, las cuales tienen diferentes aplicaciones.

2.7.4. Propiedades de la Norma

Dado el vector ~v ∈ Rn y el escalar α ∈ R, se verifica:


• k~v k > 0 , ∀~v 6= ~0 ; k~0k = 0
• kα~v k = |α|k~v k
p p √ √
Dem: kα~v k = (α~v ) · (α~v ) = α2 (~v · ~v ) = α2 ~v · ~v = |α| k~v k
• Desigualdad de Cauchy-Schwarz : |~u · ~v | ≤ k~uk k~v k
Dem: Ver Ejemplo 2.18, página 46.
• Desigualdad Triangular : k~u + ~v k ≤ k~uk + k~v k
Dem:

k~u + ~v k2 = (~u + ~v ) · (~u + ~v ) = ~u · ~u + ~u · ~v + ~v · ~u + ~v · ~v = ~u · ~u + 2(~u · ~v ) + ~v · ~v =


c−s
= k~uk2 + 2(~u · ~v ) + k~v k2 ≤ k~uk2 + 2|~u · ~v | + k~v k2 ≤ k~uk2 + 2k~ukk~v k + k~v k2 = (k~uk + k~v k)2
=⇒ k~u + ~v k ≤ k~uk + k~v k

! Nota 2.7.
~v

~u +
~v Descripción gráfica de la desigualdad triangular en R2 .
~u

~u

~v
25 Ver el Apéndice B.7.1, página 256.

Clases de Álgebra Pedro José Hernando Oter


2.8. Relaciones entre Vectores 43

2.7.5. Vectores Unitarios y Normalización

U Definición 2.24 (Vector Unitario)


R
Se dice que un vector ~v ∈ n es unitario si su norma es la unidad.

~v vector unitario ⇐⇒ k~v k = 1

R
Cualquier vector ~v ∈ n no nulo se puede transformar en unitario dividiendo por la norma del
vector, de la siguiente forma:
 
1 1 x1 xn
~v = [x1 , x2 , · · · , xn ] =⇒ ~u = ~v = [x1 , x2 , · · · , xn ] = ,··· ,
k~v k k~v k k~v k k~v k
s s s
|x1 |2 |xn |2 |x1 |2 + · · · + |xn |2 k~v k2 √
k~uk = 2
+ ··· + 2
= 2
= 2
= 1=1
k~v k k~v k k~v k k~v k

El nuevo vector unitario ~u tiene la misma dirección y sentido que el vector original ~v pero con norma
1. A este proceso se le denomina normalización de un vector.

2.8. Relaciones entre Vectores


2.8.1. Distancia entre dos Vectores

U Definición 2.25 (Distancia entre dos Vectores)


R
Dados dos vectores ~u, ~v ∈ n se define la distancia entre ellos como:

d(~u, ~v ) = k~u − ~v k = k~v − ~uk = d(~v , ~u)

! Nota 2.8.

Y
k~u − ~v
k
Interpretación gráfica de la diferencia de vectores en R2
~u

~v
X

! Nota 2.9. La definición de distancia entre vectores coincide con la definición de distancia entre puntos de Rn , como
se muestra a continuación:
v
u n
R
q uX
n 2 2
A, B ∈ =⇒ d(A, B) = d(B, A) = (a1 − b1 ) + · · · (an − bn ) = t (ai − bi )2
i=1
v
u n
Rn
q uX
~v , ~
u∈ =⇒ d(~v , ~
u) = d(~ 2 2
u, ~v ) = (u1 − v1 ) + · · · (un − vn ) = t (ui − vi )2
i=1

Pedro José Hernando Oter Clases de Álgebra


44 TEMA 2: Espacios Vectoriales

2.8.2. Ángulo entre dos Vectores en R2


Y 
~v1 = [x1 , y1 ]
; θ = |α1 − α2 |
~v1 ~v2 = [x2 , y2 ]
θ ~v2 y1 y2
sen α1 = ; sen α2 =
k~v1 k k~v2 k
α1 α2 x1 x2
X cos α1 = ; cos α2 =
k~v1 k k~v2 k
Teniendo en cuenta que cos(a − b) = cos a cos b + sen a sen b, se tiene:
x1 x2 y1 y2
cos θ = cos(α1 − α2 ) = cos α1 cos α2 + sen α1 sen α2 = +
k~v1 k k~v2 k k~v1 k k~v2 k
Despejando:
~v1 · ~v2
k~v1 kk~v2 k cos θ = x1 x2 + y1 y2 = ~v1 · ~v2 =⇒ cos θ =
k~v1 k k~v2 k

! Nota 2.10. El ángulo θ siempre se mide en radianes. La relación entre grados sexagesimales y radianes viene dada
mediante la fórmula: rad = (grados × 2π)/360

2.8.3. Ángulo entre dos Vectores en Rn


Generalizando la definición anterior a dos vectores no nulos ~v1 , ~v2 ∈ Rn :
~v1 · ~v2
cos θ =
k~v1 k k~v2 k

! Nota 2.11. Desde un punto de vista geométrico, sólo tiene sentido el ángulo entre vectores de R2 y R3 , aunque desde
R
un punto de vista matemático, dicha expresión en n tiene múltiples aplicaciones.

2.8.4. Definición Alternativa del Producto Escalar en Rn


U Definición 2.26 (Producto Escalar en n )
R
R
Dados dos vectores ~u, ~v ∈ n , se define el producto escalar de ~u por ~v como el número
(escalar) resultado de la siguiente operación:

~u · ~v = k~uk k~v k cos θ

donde θ es el ángulo entre ~u y ~v .


Recordamos que la primera definición dada26 del producto escalar en Rn fue:
n
X
~u · ~v = [u1 , u2 , · · · , un ] · [v1 , v2 , · · · , vn ] = u1 v1 + u2 v2 + · · · + un vn = uk vk
k=1

26 Ver la Definición 2.22, página 40.

Clases de Álgebra Pedro José Hernando Oter


2.9. Vectores Ortogonales 45

2.9. Vectores Ortogonales

U Definición 2.27 (Vectores Ortogonales)


R
Se dice que dos vectores ~u, ~v ∈ n son ortogonales si su producto escalar es cero.

~u · ~v = 0 ⇐⇒ ~u, ~v ortogonales

! Nota 2.12. El vector nulo ~0 = [0, · · · , 0] ∈ Rn , es ortogonal a cualquier vector ya que: ~v · ~0 = 0 ; ∀~v ∈ Rn
R
En n dos vectores no nulos ~u y ~v son ortogonales si el ángulo entre ellos es ± π2 = ±90◦ , es decir,
son perpendiculares.

~u · ~v 0 π
cos θ = = =0 =⇒ θ = arccos 0 = ±
k~uk k~v k k~uk k~v k 2
~u
θ= π
2 ~u · ~v = 0 ⇐⇒ ~u ⊥ ~v En R2 y R3
~v
! Nota 2.13. El concepto de ortogonalidad es muy importante dentro de las matemáticas. Su significado es más amplio
que el puramente geométrico y se habla de polinomios ortogonales, soluciones ortogonales, campos ortogonales, etc.

! Nota 2.14.
~v

Si ~
u ⊥ ~v =⇒ Por el teorema de Pitágoras:
+

~v
~u

u + ~v k2 = k~
k~ uk2 + k~v k2

~u

2.10. Proyección Ortogonal

U Definición 2.28 (Proyección Ortogonal)


R
Dados dos vectores ~u, ~v ∈ n se denomina proyección27 ortogonal de ~v sobre ~u al vector de
Rn
resultado de la siguiente operación:


 ~u · ~v ∈ R

~u · ~v
 
 ~u · ~
u  ∈ R
proy~u (~v ) =
~u · ~u
~u

~
u·~v
u ∈ R
 ~u~u·~

 ~u·~ ·~
v
u ~ u ∈ n
R
(prod. por un escalar)

27 La etimología de la palabra proyección viene del latín proiectio, de proficere; de pro=delante y facere=hacer. La

proyección es la representación gráfica de un objeto sobre una superficie plana, obtenida al unir las intersecciones sobre
dicho plano de las líneas proyectantes de todos los puntos del objeto desde el vértice.

Pedro José Hernando Oter Clases de Álgebra


46 TEMA 2: Espacios Vectoriales

2.10.1. Interpretación Geométrica en R2 y R3


El vector sombra de ~v sobre ~u lo vamos a denominar
~v p~ y se puede calcular como:
1
p~ = k~
pk ~u
p~ ~u k~uk

Por trigonometría: p k = k~v k cos θ = k~v k k~u~uk ·~vk~vk =


k~ ~
u·~
k~
v
uk

Finalmente: ~
u·~
p~ = k~v
uk k~
~
u
uk = k~
~
u·~
v
u = ~u~u·~
uk2 ~
·~
v
u ~ u

La proyección ortogonal de un vector ~u sobre otro vector ~u, proy~u (~v ), coincide geométricamente con
el vector sombra de ~v sobre ~u.

! Nota 2.15. El sentido del vector proyección p


~ = proyu v ) depende de la disposición espacial de los vectores ~
~ (~ u y ~v .

~v ~v

~v
~u p~ ~u ~p p~ ~u

P R
Ejemplo 2.17. En 2 encontrar la proyección ortogonal de ~v = [−1, 3] sobre ~u = [2, 1].
Solución:
  
~u · ~v ~u · ~v = [2, 1] · [−1, 3] = 2(−1) + 1(3) = −2 + 3 = 1
proy~u (~v ) = ~u =
~u · ~u ~u · ~u = [2, 1] · [2, 1] = 2(2) + 1(1) = 4 + 1 = 5

~v 3
 
2 1 2 1
proy~u (~v ) = [2, 1] = ,
1 ~u 5 5 5

−1 1 2 X

P Ejemplo 2.18. De forma geométrica y por el teorema de Pitágoras es evidente que


kproy~u (~v )k ≤ k~v k. Demostrar que esta expresión es equivalente a la desigualdad de Cauchy-
Schwarz : |~u · ~v | ≤ k~ukk~v k
Solución:
 
~u · ~v ~u · ~v
kproy~u (~v )k = ~
u = k~uk = ~u · ~v k~uk = |~u · ~v | k~uk = |~u · ~v | =⇒ |~u · ~v | ≤ k~v k
~u · ~u ~u · ~u k~uk2 k~uk2 k~uk k~uk

! Nota 2.16. En gráficos 3D las proyecciones ortogonales son muy útiles para determinar sombras, reflexiones, etc. La
palabra proyección viene de proyectar una imagen sobre un plano.

Clases de Álgebra Pedro José Hernando Oter


2.10. Proyección Ortogonal 47

2.10.2. Aplicaciones Geométricas de la Proyección Ortogonal


R R
A continuación se muestran algunas fórmulas practicas en la determinación de distancias en 2 y 3 ,
obtenidas mediante consideraciones geométricas y utilizando el concepto de proyección ortogonal. En
el Apéndice B.9, página 262, se encuentran otras fórmulas alternativas más conocidas.

Distancia de un Punto a un Recta en R2 y R3


Ab
~v
b
−→ −→
d P d = kP A − proy~v (P A)k

Distancia entre dos Rectas paralelas en R2 y R3

P2 b
~v
−−−→ −−−→
b d = kP1 P2 − proy~v (P1 P2 )k
d P1

Distancia de un Punto a un Plano en R3


~n
A
b

d −→
d = kproy~n (P A)k
b b
P

Distancia entre dos Planos Paralelos en R3


~n

b P1 −−−→
d d = kproy~n (P1 P2 )k

b
P2

Pedro José Hernando Oter Clases de Álgebra


:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=
TEMA 3
Matrices

Contenido
3.0 Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51
3.0.1 Tipos de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.1 Operaciones con Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.1 Suma de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.2 Producto de un Escalar por una Matriz . . . . . . . . . . . . . . . . . . . 54
3.1.3 Diferencia de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.1.4 Producto de Matrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.1.5 Producto Matricial Matriz-Vector . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.6 Producto Matricial Vector-Vector . . . . . . . . . . . . . . . . . . . . . . . 56
3.1.7 Producto Matriz-Vector Estándar . . . . . . . . . . . . . . . . . . . . . . . 57
3.1.8 Potencia de Matrices Cuadradas . . . . . . . . . . . . . . . . . . . . . . . . 57
3.2 Matriz Transpuesta AT . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.1 Matriz Simétrica y Antisimétrica . . . . . . . . . . . . . . . . . . . . . . . 58
3.2.2 Propiedades de la Matriz Transpuesta . . . . . . . . . . . . . . . . . . . . 58
3.3 Álgebra Matricial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.1 Propiedades de la Suma y la Multiplicación por un Escalar . . . . . . . . . 59
3.3.2 Combinación Lineal de Matrices . . . . . . . . . . . . . . . . . . . . . . . . 59
3.3.3 Propiedades de la Multiplicación de Matrices . . . . . . . . . . . . . . . . 60
3.4 Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.4.1 Cálculo de la Matriz Inversa: método de Gauss-Jordan . . . . . . . . . . . 60
3.4.2 Inversa y SEL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 62
3.4.3 Propiedades de las Matrices Invertibles . . . . . . . . . . . . . . . . . . . . 63
3.5 Determinantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63
3.5.1 Introducción: Determinantes de Matrices 2 × 2 . . . . . . . . . . . . . . . 63
3.5.2 Determinantes de Matrices 3 × 3 . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.3 Regla de Sarrus . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.5.4 Determinantes de Matrices n × n . . . . . . . . . . . . . . . . . . . . . . . 65
3.5.5 Cálculo del Determinante mediante Desarrollos de Laplace . . . . . . . . . 66
3.5.6 Determinantes e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . . 67
3.5.7 Propiedades de los Determinantes . . . . . . . . . . . . . . . . . . . . . . . 67
3.5.8 Regla de Cramer . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.5.9 Matriz Adjunta e Inversa de una Matriz . . . . . . . . . . . . . . . . . . . 69
3.6 Subespacios Asociados a una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . 70
3.6.1 Espacios Columna y Fila de una Matriz . . . . . . . . . . . . . . . . . . . 70
3.6.2 Rango, Núcleo y Nulidad de una Matriz . . . . . . . . . . . . . . . . . . . 71
3.6.3 Teorema Fundamental de las Matrices Invertibles . . . . . . . . . . . . . . 73
3.6.4 Bases para los Espacios Fila, Columna y Nulo de una Matriz . . . . . . . 73

49
50

Clases de Álgebra
Matrices

Definiciones Operaciones Transpuesta Inversa Determinante Subespacios Mat.

Tipos Basicas Producto M. Simétrica Propiedades Definición Cálculo Propiedades Definición Cálculo Propiedades Tipos Propiedades Teo. Fund. Mat. Inv. Bases

Suma Prod. por Escalar Matriz-Matriz Matriz-Vector Met. Gauss-Jordan S. Fila S. Columna Rango Núcleo Nulidad

Resta

Pedro José Hernando Oter


TEMA 3: Matrices
3.0. Matrices 51

3.0. Matrices

U Definición 3.1 (Matriz)


Una matriz es una disposición de números ordenados en filas y columnas.
Una matriz A de m filas y n columnas se denota por Am×n y las representaremos mediante
corchetes cuadrados, de la siguiente forma:
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 

Am×n =  .
 ..
..

.. 

; aij ∈ ; R
A = [aij ] ∈ m×n R
. .
am1 am2 ··· amn

• El orden, dimensión o tamaño de una matriz es la cantidad de filas y columnas que


posee, (m × n).

• Se denominan elementos diagonales de la matriz Am×n = [aij ] a los elementos aii


que poseen igual fila que columna.
 
∗ ··· ···
 ··· ∗ ··· 
··· ··· ∗

• Al conjunto de todos los elementos diagonales se denomina diagonal principal. Se


definen las subdiagonales como aquellas “diagonales” por encima y por debajo de la
diagonal principal.
• Si las n columnas de la matriz Am×n son los vectores ~c1 , ~c2 , · · · , ~cn ∈ Rm , podemos
representarla como un vector de vectores columna:
 
a1i
   a2i 
 
A = ~c1 ~c2 · · · ~cn ; ~ci =  . 
 .. 
ami

• Si las m filas de la matriz Am×n son los vectores f~1 , f~2 , · · · , f~m ∈ Rn , podemos
representarla como un vector de vectores fila:
 ~ 
f1
 f~2   
 
A= .  ; f~i = ~ai1 ~ai2 · · · ~ain
 .. 
f~m

Pedro José Hernando Oter Clases de Álgebra


52 TEMA 3: Matrices

U Definición 3.2 (Matrices Iguales)


Se dice que dos matrices son iguales si poseen las mismas dimensiones (número de filas y
columnas) y si son iguales todos sus correspondientes elementos.

3.0.1. Tipos de Matrices


• Matriz Fila: Matriz formada por una única fila, (análoga a un vector fila).
 
A1×n = a11 a12 · · · a1n

• Matriz Columna: Matriz formada por una única columna, (análoga a un vector columna).
 
a11
 a21 
 
Am×1 =  . 
 .. 
am1
• Matriz Nula, Om×n : Matriz con todos sus elementos iguales a cero.
{0m×n = [aij ] : aij = 0, 0 ≤ i ≤ m, 0 ≤ j ≤ n}
 
0 0 ··· 0
 0 0 ··· 0 
 
Om×n =  . . .. 
 .. .. . 
0 0 ··· 0
• Matriz Cuadrada: Matriz con igual número de filas que de columnas.
 
a11 a12 · · · a1n
 a21 a22 · · · a2n 
 
An×n =  . .. .. 
 .. . . 
an1 an2 · · · ann
• Matriz Triangular Superior: Matriz cuadrada donde sus entradas por debajo de la diagonal
principal son cero.
{An×n = [aij ] : aij = 0 si i > j}
 
∗ ∗ ··· ∗
 0 ∗ ··· ∗ 
 
Dn =  . . .. 
 .. .. . 
0 0 ··· ∗
• Matriz Triangular Inferior: Matriz cuadrada donde sus entradas por encima de la diagonal
principal son cero.
{An×n = [aij ] : aij = 0 si i < j}
 
∗ 0 ··· 0
 ∗ ∗ ··· 0 
 
Dn =  . . .. 
 .. .. . 
∗ ∗ ··· ∗

Clases de Álgebra Pedro José Hernando Oter


3.0. Matrices 53

• Matriz Diagonal: Matriz cuadrada donde sus entradas no diagonales son cero,

{An×n = [aij ] : aij = 0 si i 6= j}


 
a11 0 · · · 0
 0 a22 · · · 0 
 
Dn =  . .. .. 
 .. . . 
0 0 ··· ann

• Matriz Tridiagonal: Matriz cuadrada con elementos no todos nulos en la diagonal principal
y en las subdiagonales justo por encima y por debajo de la principal, siendo el resto de los
elementos cero.  
a11 a21 · · · ··· 0
 a21 a22 a23 ··· 0 
 
 0 a31 a32 a33 ··· 
 
 .. .. 
 . . 
0 0 ··· an n−1 ann

• Matriz Escalar: Matriz diagonal con todos sus elementos diagonales iguales.
 
d 0 ··· 0
 0 d ··· 0 
 
Dn =  . . .. 
 .. .. . 
0 0 ··· d

• Matriz Identidad de orden n, In : Matriz escalar con elementos diagonales de valor unidad.
También puede considerarse como una matriz cuyos vectores fila y columna son los vectores
estándar 1 de n . R
{In = [aij ] : aij = 1 si i = j, aij = 0 si i 6= j}

   
1 0 ··· 0 ~e1
 0 1 ··· 0     ~e2 
   
In =  .. .. ..  = ~e1 ~e2 · · · ~en = .. 
 . . .   . 
0 0 ··· 1 ~en

• Matriz Elemental: Cualquier matriz que se obtiene al realizar una única operación elemental
por fila 2 sobre una matriz identidad In . Ejemplos de matrices elementales:
 
  1 0 0 0
1 0 0  
 0 2 0 0  1 −1
 0 0 1  ;   ;
 0 0 1 0  0 1
0 1 0
0 0 0 1

1 Ver la Definición 2.6, página 29.


2 Ver la Sección 1.4.5, página 14.

Pedro José Hernando Oter Clases de Álgebra


54 TEMA 3: Matrices

3.1. Operaciones con Matrices


3.1.1. Suma de Matrices

U Definición 3.3 (Suma de Matrices)


R
Dadas dos matrices A, B ∈ m×n , se define la suma de ambas A + B como la matriz
R
C ∈ m×n resultado de la operación:
   
a11 · · · a1n b11 · · · b1n
 .. .
.   .. .. 
A + B = [aij ] + [bij ] =  . . + . . =
am1 · · · amn bm1 · · · bmn
 
a11 + b11 ··· a1n + b1n

= .. .. 
. .  = [aij + bij ] = [cij ] = C
am1 + bm1 ··· amn + bmn

3.1.2. Producto de un Escalar por una Matriz

U Definición 3.4 (Producto de un Escalar por una Matriz)


Se define el producto de un escalar k ∈ por una matriz A ∈ R Rm×n a la matriz
B∈ R m×n
resultado de la operación:
··· ···
   
a11 a12 a1n ka11 ka12 ka1n
 a21 a22 ··· a2n   ka21 ka22 ··· ka2n 
kA = k  = =
   
.. .. .. .. .. ..
 . . .   . . . 
am1 am2 ··· amn kam1 kam2 ··· kamn

···
 
a11 a12 a1n
 a21 a22 ··· a2n 
=  k = Ak = B
 
.. .. ..
 . . . 
am1 am2 ··· amn

3.1.3. Diferencia de Matrices

U Definición 3.5 (Diferencia de Matrices)


R
Dadas dos matrices A, B ∈ m×n , se define la diferencia A − B como la matriz suma de A
más la opuesta B, A − B = A + (−B) ∈ m×n . R

Clases de Álgebra Pedro José Hernando Oter


3.1. Operaciones con Matrices 55

3.1.4. Producto de Matrices

U Definición 3.6 (Multiplicación de Matrices)


R R
Dadas las matrices A ∈ m×n y B ∈ n×p , se define el producto o multiplicación de la
R
matriz A por la matriz B, como aquella matriz C ∈ m×p resultado de la operación:
  
a11 a12 · · · a1n b11 b12 · · · b1p
 a21 a22 · · · a2n   b21 b22 · · · b2p 
  
AB =  . .. ..   .. .. ..  =
 .. . .  . . . 
am1 am2 ··· amn bn1 bn2 ··· bnp
 ~   
f1A f~1A · ~c1B f~1A · ~c2B ··· f~1A · ~cnB
 f~2A   f~2A · ~c1B f~2A · ~c2B ··· f~2A · ~cnB 
   
=  .  [~c1B ~c2B · · · ~cpB ] =  .. .. .. =C
 ..   . . . 
f~mA ~
fmA · ~c1B ~
fmA · ~c2B ··· ~
fmA · ~cnB
El elemento cij de la matriz resultado C se puede expresar como:
n
X
cij = ai1 bij + ai2b2j + · · · + ain bnj = aik bkj
k=1

!
Nota 3.1. El número de columnas de la matriz A debe coincidir con el número de filas de la matriz B.

P Ejemplo 3.1. Calcular AB siendo:


 
  1 1 2
 −1 0 
A=
1
2
2
1
−1 0
1 1
∈ R2×4 ; B=
 1
3
1
∈
−2 
R4×3
0 0 1

Solución:  
  1 1 2
1 2 −1 0  −1 3 0 
AB =  =
2 1 1 1  1 1 −2 
0 0 1
 
1 ∗ 1 + 2 ∗ (−1) + (−1) ∗ 1 + 0 ∗ 0 1 ∗ 1 + 2 ∗ 3 + (−1) ∗ 1 + 0 ∗ 0 1 ∗ 2 + 2 ∗ 0 + (−1) ∗ (−2) + 0 ∗ 1
=
2 ∗ 1 + 1 ∗ (−1) + 1 ∗ 1 + 1 ∗ 0 2∗1+1∗3+1∗1+1∗0 2 ∗ 2 + 1 ∗ 0 + 1 ∗ (−2) + 1 ∗ 1
 
=
−2 6 4
2 6 3
∈ 3×2 R

Pedro José Hernando Oter Clases de Álgebra


56 TEMA 3: Matrices

3.1.5. Producto Matricial Matriz-Vector


El producto matricial de dos matrices da como resultado una nueva matriz.

R
• El producto matricial de una matriz A ∈ m×n por una matriz (o vector) columna V ∈ n×1 R
da como resultado una matriz (o vector) columna C ∈ m×1 : R
    
a11 a12 · · · a1n v1 a11 v1 + a12 v2 + · · · + a1n vn
 a21 a22 · · · a2n   v2   a21 v1 + a22 v2 + · · · + a2n vn 
    
AV =  . .. ..   ..  =  ..  = Cm×1
 .. . .   .   . 
am1 am2 ··· amn vn am1 v1 + am2 v2 + · · · + amn vn

• El producto matricial de una matriz (o vector) fila V ∈ 1×m por una matriz A ∈ R Rm×n da
como resultado una matriz (o vector) fila C ∈ 1×n : R
 
a11 a12 · · · a1n
 
 a21 a22 · · · a2n 

V A = v1 v2 · · · vm  . .. ..  =
 .. . . 
am1 am2 · · · amn
 
= a11 v1 + a21 v2 + · · · + am1 vm a12 v1 + a22 v2 + · · · + am2 vm ··· a1n v1 + a2n v2 + · · · + amn vm = C1×n

3.1.6. Producto Matricial Vector-Vector


• El producto matricial de una matriz (o vector) columna R
W ∈ n×1 por una matriz (o vector)
R
fila V ∈ 1×n es igual a una matriz cuadrada A ∈ n×n R de la forma:
   
w1 v1 w1 v1 w 2 · · · v1 w n
 w2   
  v2 w1 v2 w 2 · · · v2 w n 
  
W V =  .  v1 v 2 · · · vn =  . .. ..  = An×n
 ..   .. . . 
wn vn w 1 vn w2 · · · vn wn

R
• El producto matricial de una matriz (o vector) fila V ∈ 1×n por una matriz (o vector) columna
R R
W ∈ n×1 es una matriz (o vector) de un sólo elemento A ∈ 1×1 , siendo por tanto un escalar.
 
w1
  
 w2   
V W = v1 v2 · · · vn  .  = v1 w1 + v2 w2 + · · · + vn wn = A1×1 ∈
 .. 
R
wn

El producto matricial de un vector fila por un vector columna es una operación equivalente al producto
escalar 3 de dos vectores.

3 Ver la Definición 2.22, página 40.

Clases de Álgebra Pedro José Hernando Oter


3.1. Operaciones con Matrices 57

3.1.7. Producto Matriz-Vector Estándar


Sea A ∈ Rm×n y los vectores estándar 4 ~ei ∈ Rm×1 y ~ej ∈ R1×n . Entonces
• A~ei es la i-ésima columna de A: A~ei = ~ci .
 0  
a11 a12 ··· a1n a1i
 a21 a22 ··· a2n   ..   a2i 
 
  .   
A~ei =  .. .. ..    =  ..  = ~ci
 . . . 1  . 
am1 am2 ··· amn .. ami
.

• ~ej A es la j-ésima fila de A: ~ej A = f~j .


 
a11 a12 ··· a1n
 
 a21 a22 ··· a2n  
 
~ej A = 0 · · · 1 · · ·  . .. ..  = aj1 aj2 · · · ajn = f~j
 .. . . 
am1 am2 ··· amn

3.1.8. Potencia de Matrices Cuadradas

U Definición 3.7 (Potencia de una Matriz Cuadrada, An )


R
Dada una matriz cuadrada A ∈ n×n se define la operación A elevado a la potencia n ∈ N,
como el resultado del producto matricial:

An = AA
| {z· · · A}
n veces

Propiedades de la Potencia de Matrices Cuadradas

Dada A ∈ Rn×n y r, s ∈ N, se verifica:


• Ar As = Ar+s .

• (Ar )s = Ars .
• Por definición A0 = In .

4 Ver la Definición 2.6, página 29.

Pedro José Hernando Oter Clases de Álgebra


58 TEMA 3: Matrices

3.2. Matriz Transpuesta AT

U Definición 3.8 (Matriz Transpuesta, AT )


R
Dada A ∈ m×n , se define su matriz transpuesta AT ∈ Rn×m aquella que se obtiene
intercambiando las filas y columnas5 de A.

A = [aij ] =⇒ AT = [aji ] ∀i, j


   
a11 a12 · · · a1n a11 a21 am1
 a21 a22 · · · a2n   a12 a22 am2 
   
A= .. .. ..  =⇒ AT =  . .. ··· .. 
 . . .   .. . . 
am1 am2 · · · amn a1n a2n amn

3.2.1. Matriz Simétrica y Antisimétrica

U Definición 3.9 (Matriz Simétrica y Antisimétrica)


R
• Una matriz cuadrada A ∈ n×n se dice que es simétrica si AT = A.

• Una matriz cuadrada A ∈ Rn×n se dice que es antisimétrica si AT = −A.

3.2.2. Propiedades de la Matriz Transpuesta

• (AT )T = A ; A∈ Rm×n
• (A ± B)T = AT ± B T ; A, B ∈ Rm×n
• (kA)T = k(A)T ; A∈ Rm×n , k∈R
• (AB)T = B T AT ; A, B ∈ Rn×n
• (Ar )T = (AT )r ; A ∈ Rn×n , r ≥ 0

R Teorema 3.1
• Si A es una matriz cuadrada, entonces A + AT es una matriz simétrica.

• Si A es una matriz cuadrada, entonces A − AT es una matriz antisimétrica.

• AAT y AT A son matrices simétricas para cualquier matriz A.

5 Es decir, la i-ésima fila de A es la i-ésima columna de AT y la j-ésisma columna de A pasa a ser la j-ésisma fila de
AT .

Clases de Álgebra Pedro José Hernando Oter


3.3. Álgebra Matricial 59

3.3. Álgebra Matricial


3.3.1. Propiedades de la Suma y la Multiplicación por un Escalar

Sean A, B, C ∈ Rm×n y α, β ∈ R. Entonces,


• A+B =B+A Conmutativa
• (A + B) + C = A + (B + C) Asociativa
• A + 0m×n = A Elemento Neutro
• 1A = A Elemento Unitario
• A + (−A) = 0m×n Elemento Opuesto
• α(A + B) = αA + αB Distributiva 1
• (α + β)A = αA + βA Distributiva 2
• α(βA) = (αβ)A Asociativa 2

3.3.2. Combinación Lineal de Matrices

U Definición 3.10 (Combinación Lineal de Matrices)


R
Se dice que una matriz A ∈ m×n es una combinación lineal de k matrices A1 , A2 , · · · ,
R R
Ak ∈ m×n , si existen k constantes c1 , c2 , · · · , ck ∈ tales que:
k
X
A = c1 A1 + c2 A2 + · · · + ck Ak = cj Aj
j=1

A los escalares ci se les denominan coeficientes de la combinación lineal.

• Se dice que las matrices A1 , A2 , · · · , Ak ∈ Rm×n son linealmente independientes si


la única solución de la ecuación:

c1 A1 + c2 A2 + · · · + ck Ak = 0m×n

es la solución trivial 6 : c1 = c2 = · · · = ck = 0.

• Se dice que las matrices A1 , A2 , · · · , Ak ∈ Rm×n son linealmente dependientes si


existen soluciones no triviales de la ecuación:

c1 A1 + c2 A2 + · · · + ck Ak = 0m×n

6 Ver la Sección 1.8, página 23.

Pedro José Hernando Oter Clases de Álgebra


60 TEMA 3: Matrices

U Definición 3.11 (Espacios de Matrices)


Se define el espacio generado por un conjunto de matrices como el conjunto de todas las
posibles combinaciones lineales de las matrices.

3.3.3. Propiedades de la Multiplicación de Matrices

• Elemento Neutro: AIn = Im A = A ; A∈ Rm×n


• Asociativa 1: A(BC) = (AB)C ; A∈ Rm×n , B∈ Rn×p , C∈ Rp×s .
• Asociativa 2: (kA)B = A(kB) = k(AB) ; A∈ Rm×n , B ∈ Rn× .
• Distributiva 1: (A + B)C = AC + BC ; A, B ∈ Rm×n , C ∈ Rn×p .
• Distributiva 2: A(B + C) = AB + AC ; A ∈ Rm×n , B, C ∈ Rn×p .

! Nota 3.2. El producto de matrices no es conmutativo y por tanto generalmente AB 6= BA.

3.4. Inversa de una Matriz

U Definición 3.12 (Matriz Invertible y Matriz Inversa, A−1 )


R
Se dice que una matriz cuadrada A ∈ n×n es invertible o no singular, si existe una matriz
R
A−1 ∈ n×n tal que:
AA−1 = A−1 A = In
donde In es la matriz identidad de orden n.
En caso de existir, la matriz A−1 se le denomina matriz inversa de A.
Una matriz no invertible se dice que es singular.

! Nota 3.3. Dada una matriz (no necesariamente cuadrada) A ∈ Rm×n , se denomina :
• Inversa por la derecha: R ∈ Rn×m : AR = Im
• Inversa por la izquierda: L ∈ Rn×m : LA = In
Si A es invertible entonces R = L = A−1 .

3.4.1. Cálculo de la Matriz Inversa: método de Gauss-Jordan


Sea A ∈ Rn×n . Llamando X = A−1 se tiene:
   
a11 a12 ··· a1n x11 x12 ··· x1n 1 0 ··· 0
 a21 a22 ··· a2n  x21 x22 ··· x2n  0 1 ··· 0 
   
AX = In =⇒  .. .. ..  .. .. ..  .. .. .. 
 . . .  . . .  . . . 
an1 amn2 ··· amnn xn1 xn2 ··· xnn 0 0 ··· 1

Clases de Álgebra Pedro José Hernando Oter


3.4. Inversa de una Matriz 61

Denotando por ~xi a los vectores columna de X y ~ei a los vectores columna de In , el problema del
cálculo de la matriz inversa se puede transformar en el cálculo de n SEL de la forma:


 A~x1 = ~e1

 A~x1 = ~e1
A[~x1 ~x2 · · · ~xn ] = [~e1 ~e2 · · · ~en ] =⇒ . ..
 ..

 .

A~xn = ~en

Notar que puede utilizarse el método de Gauss-Jordan7 para resolver los n SEL a la vez:
   
a11 a12 · · · a1n 1 0 ··· 0 1 0 ··· 0 x11 x12 · · · x1n
 a21 a22 · · · a2n 0 1 ··· 0   0 1 ··· 0 x21 x22 · · · x2n 
  Op. Elem. de Fila  
 .. .. .. .. .. ..  −−−−−−−−−−−−−−→  .. .. .. .. .. .. 
 . . . . . .   . . . . . . 
an1 an2 · · · ann 0 0 ··· 1 0 0 ··· 1 xn1 xn2 · · · xnn
| {z }| {z } | {z }| {z }
A In In A−1

Proceso de Cálculo de la Matriz Inversa (Método Gauss-Jordan)

Para encontrar la inversa de una matriz A ∈ Rn×n se puede seguir los siguientes pasos:
1. Formar la matriz n × (2n) de la forma: [A|In ].
2. Calcular la matriz escalonada reducida equivalente de la anterior.
• si el resultado es de la forma [In |X], entonces A es invertible y A−1 = X.
• si es de otra forma (en la parte izquierda no aparece In ), entonces A es no
invertible (singular ).

P Ejemplo 3.2. Calcular, en caso de que exista,



la matriz inversa de la matriz:

1 1 1
A= 2 3 2 
3 8 2

Solución:
     
1 1 1 1 0 0 1 1 0 1 0 0 1 0 1 3 −1 0
F −2F1 F −5F2
 2 3 2 0 1 0  −−2−−−→  0 1 0 −2 1 0  −−3−−−→  0 1 0 −2 1 0 
F3 −3F1 F1 −F2
3 8 2 0 0 1 0 5 −1 −3 0 1 0 0 −1 7 −5 1
   
1 0 0 10 −6 1 10 −6 1
F1 +F3
−−−−→  0 1 0 −2 1 0  =⇒ A−1 =  −2 1 0 
−F3
0 0 1 −7 5 −1 −7 5 −1

7 Ver la Sección 1.7, página 21.

Pedro José Hernando Oter Clases de Álgebra


62 TEMA 3: Matrices

Propiedades de la Matriz Inversa

Una matriz A ∈ Rm×n es invertible si y sólo si8 :


• A es una matriz cuadrada, m = n.

• rang (A) = n.

P Ejemplo 3.3. Determinar si la siguiente matriz es



invertible.

1 2 3
A= 4 5 6 
7 8 9

Solución: La matriz es cuadrada y por tanto puede ser invertible. Vamos a calcular su rango,
obteniendo una matriz escalonada equivalente de A.
     
1 2 3 1 2 3 1 2 3
F2 −4F1 F −2F2
 4 5 6 − −−−−→  0 −3 −6  −−3−−−→  0 −3 −6 
F3 −7F1
7 8 9 0 −6 −12 0 0 0

Como rang (A) = 2 < n = 3, por tanto A es no invertible.

3.4.2. Inversa y SEL

R Teorema 3.2
Dada una matriz cuadrada invertible A ∈ Rn×n , entonces se verifica:
• A−1 es única.
• El SEL A~x = ~b es compatible determinado y su solución única viene dada por:

~x = A−1~b ; ∀~b ∈ Rn

Dada una matriz A ∈ Rm×n :


• ∀~y ∈ Rm :
– si A es invertible, el SEL A~x = ~y tiene una única solución ~x = A−1 ~y .
– si A no es invertible, el SEL A~x = ~y tiene infinitas soluciones o ninguna.

• En el caso especial ~y = ~0, el SEL A~x = ~0 siempre tiene como solución ~x = ~0.
– si A es invertible, esta será la única solución.
– si A no es invertible, tendrá además otras infinitas soluciones más.

8 Estas propiedades están basadas en la resolución de SEL. Ver el Teorema 1.1, página 18.

Clases de Álgebra Pedro José Hernando Oter


3.5. Determinantes 63

3.4.3. Propiedades de las Matrices Invertibles

Sean A, B ∈ Rn×n matrices invertibles, entonces:


• A−1 es invertible y (A−1 )−1 = A

• (cA)−1 = 1c A−1 , siendo c ∈ R, con c 6= 0.


• (AB)−1 = B −1 A−1 .
• AT es invertible y (AT )−1 = (A−1 )T .
• Ar es invertible y (Ar )−1 = (A−1 )r = A−r , ∀r ≥ 0.

• Toda matriz elemental 9 es invertible y su inversa es una matriz elemental del mismo tipo.

3.5. Determinantes
3.5.1. Introducción: Determinantes de Matrices 2 × 2
El cálculo de la matriz inversa de una matriz invertible A ∈ R2×2 de la forma:
 
a b
A=
c d
es sencillo siguiendo el método de Gauss-Jordan. Podemos suponer que a 6= 0 y sin pérdida de
generalidad se obtiene:
  1    b 1

a b 1 0 a F1 1 ab a1 0 F2 −cF1 1 a a 0
−−−→ −−−−−→
c d 0 1 c d 0 1 0 ad−cb
a − ac 1
   d −b

a
ad−cb F3 1 ab 1
a 0 b
F1 − a F3 1 0 ad−cb ad−cb
−−−−−→ −c a −−−−−→ −c a
0 1 ad−cb ad−cb 0 1 ad−cb ad−cb
La matriz inversa de A será:
 d −b
  
1 d −b
A−1 = ad−cb
−c
ad−cb
a =
ad−cb ad−cb ad − cb −c a

De aquí podemos deducir que la matriz A será invertible, si y sólo si ad − bc 6= 0 .

U Definición 3.13 (Determinante de una Matriz 2 × 2)


Dada una matriz A ∈ 2×2 : R  
a b
A=
c d
se denomina determinante de A y se denota por det (A) o bien |A|, al escalar:
 
a b
det (A) = |A| = det = ad − bc
c d

9 Ver la Sección 3.0.1, página 52.

Pedro José Hernando Oter Clases de Álgebra


64 TEMA 3: Matrices

Propiedades del Determinante de una Matriz 2 × 2

Dada una matriz A ∈ R2×2 :


• A es invertible si y sólo si det (A) 6= 0.
 
1 d −b
• En caso de ser invertible, su inversa vale: A −1
=
det (A) −c a

3.5.2. Determinantes de Matrices 3 × 3


Dada una matriz general A3×3 :  
a b c
A= d e f 
g h i
Calculando su inversa por el método de Gauss-Jordan se obtiene:
 
ei − f h ch − bi bf − ce
1  f g − di ai − cg
A−1 = cd − af  ; |A| = aei + bf g + cdh − ceg − af h − bdi
|A|
dh − eg bg − ah ae − bd

De igual forma que en el caso 2 × 2, la matriz A−1 existirá si y sólo si |A| =


6 0.

3.5.3. Regla de Sarrus


La regla de Sarrus es un método sistemático para encontrar el determinante de una matriz A de hasta
orden 3 × 3. Consiste en escribir la matriz A y a su derecha las dos primeras columnas de A. Entonces
se multiplica las entradas de las seis diagonales, sumándose o restándose en función de la dirección.

|A| = aei + bf g + cdh − ceg − af h − bdi

     


a b c 

a b 

a b c 



a b c 

     

 d e f 
 d e 
 d e f 


 d e f 

     
g h i g h g h i g h i
− − − + + + + −

La regla de Sarrus no10 es válida para matrices de orden superior a 3 × 3.

P Ejemplo 3.4. Calcular el determinante de la siguiente matriz, utilizando la regla de Sarrus:


 
5 −3 2
A= 1 0 2 
2 −1 3

|A| = 5∗0∗3+1∗(−1)∗2+2∗(−3)∗2−[2∗0∗2]−[2∗(−1)∗5]−[3∗(−3)∗1] = 0−2−12−0+10+9 = 5

10 El valor obtenido de esta forma para matrices de mayor orden no tiene ninguna relación con la inversa de la matriz.

Clases de Álgebra Pedro José Hernando Oter


3.5. Determinantes 65

3.5.4. Determinantes de Matrices n × n


Vamos a deducir un método general para calcular el determinante de una matriz n × n. Comenzamos
con el determinante de una matriz A3×3 general:
 
a b c
A= d e f 
g h i

Como hemos visto anteriormente este determinante se puede expresar fácilmente mediante la regla de
Sarrus. El resultado obtenido se puede reorganizar de la siguiente forma:

|A| = aei + bf g + cdh − ceg − af h − bdi = a(ei − f h) − b(di − f g) + c(dh − eg) =



e f
= a − b d f + c d e
h i g i g h
que puede interpretarse como un desarrollo de determinantes 2 × 2 a través de los elementos de la
primera fila de la matriz. También se puede obtener un resultado análogo desarrollando por la primera
columna de la matriz A como sigue:

|A| = aei + bf g + cdh − ceg − af h − bdi = a(ei − f h) − d(bi − ch) + g(bf − ce) =

e f a g b c
= a
− d +g
h i c i e f
Se puede comprobar fácilmente que el resultado es el mismo independientemente de la fila o columna
que se elija para el desarrollo.
Este procedimiento se puede generalizar para el cálculo del determinante de cualquier matriz n × n
de forma recursiva, como función de los determinantes de submatrices (n − 1) × (n − 1) de A. A su vez,
cada uno de los determinantes obtenidos, se pueden definir mediante los determinantes de submatrices
(n − 2) × (n − 2) de A, y así sucesivamente.
Vamos a clarificar el cálculo definiendo previamente los conceptos de menor complementario y
adjunto.

U Definición 3.14 (Menores y Adjuntos de una Matriz Cuadrada)


R R
Sea una matriz cuadrada A ∈ n×n y la correspondiente matriz Aij ∈ (n−1)×(n−1) formada
al eliminar la fila i-ésima y la columna j-ésima de A. Se define entonces:
• Menor Complementario (o simplemente Menor) ij de A, representado por Mij , al
determinante de la matriz Aij .
Mij = det(Aij )

• Adjunto (o Cofactor) ij de A, es el menor ij de A al que se le añade un signo (+/−)


dado por la expresión:

Cij = (−1)i+j det(Aij ) = (−1)i+j Mij

Pedro José Hernando Oter Clases de Álgebra


66 TEMA 3: Matrices

La regla de los signos utilizada en el cálculo del adjunto, (−1)i+j , se puede expresar intuitivamente
en forma de tablero de ajedrez como:
 
+ − + − ···
 − + − + ··· 
 
 + − + − ··· 
 
 − + − + ··· 
 
.. .. .. .. . .
. . . . .

3.5.5. Cálculo del Determinante mediante Desarrollos de Laplace

1. Se define el determinante de una matriz A1×1 = [a] como el escalar det(A) = |A| = a.
R
2. Dada una matriz cuadrada A = [aij ] ∈ n×n se puede definir su determinante como el
escalar obtenido por el desarrollo por una fila o por el desarrollo por una columna de la forma
siguiente:
• Desarrollo a lo largo de la fila i-ésima :

det(A) = |A| =

= (−1)i+1 ai1 det(Ai1 ) + (−1)i+2 ai2 det(Ai2 ) + · · · + (−1)i+n ain det(Ain ) =


n
X n
X n
X
= (−1)i+j aij det(Aij ) = (−1)i+j aij Mij = aij Cij
j=1 j=1 j=1

• Desarrollo a lo largo de la columna j-ésima :

det(A) = |A| =

= (−1)1+j a1j det(A1j ) + (−1)2+j a2j det(A2j ) + · · · + (−1)n+j anj det(Anj ) =


n
X n
X n
X
= (−1)i+j aij det(Aij ) = (−1)i+j aij Mij = aij Cij
i=1 i=1 i=1

P Ejemplo 3.5. Calcular el determinante de la siguiente matriz, utilizando el desarrollo de


Laplace.  
5 −3 2
A= 1 0 2 
2 −1 3
Solución: Desarrollando por ejemplo a través de la primera fila:

0 2 1 2 1 0

|A| = 5
− (−3)
+ 2 = 10 − 3 − 2 = 5
−1 3 2 3 2 −1

Desarrollando por ejemplo a través de la segunda columna se obtiene el mismo resultado:



1 2
|A| = −(−3) + 0 5 2 − (−1) 5 2 = 3 ∗ (−1) + 0 + 8 = 5
2 3 2 3 1 2

Clases de Álgebra Pedro José Hernando Oter


3.5. Determinantes 67

• El cálculo de un determinante por el método de los desarrollos de Laplace se simplifica al


desarrollar por la fila o columna que contenga un mayor número de ceros.

• El cálculo de un determinante mediante el desarrollo de Laplace no es eficiente


computacionalmente, siendo el número de operaciones totales a realizar superior a n!.

3.5.6. Determinantes e Inversa de una Matriz


Dada una matriz invertible A, se tiene:
AA−1 = In
Tomando determinantes a ambos lados de la igualdad:
|A||A−1 | = |In |
Fácilmente se puede comprobar que el determinante de la matriz identidad es igual a la unidad (basta
ir desarrollando por cada uno de los elementos de la diagonal),
|In | = 1 =⇒ |A||A−1 | = 1
Y finalmente
1
|A−1 | = |A|−1 =
|A|
Como consecuencia de esta fórmula se puede deducir la siguiente propiedad:

Una matriz cuadrada A es invertible si y sólo si |A| =


6 0.

3.5.7. Propiedades de los Determinantes

Sean A, B y C matrices cuadradas de orden n, entonces:


• Si A tiene una fila o columna de ceros, entonces |A| = 0.

• Si A tiene dos filas o columnas iguales, entonces |A| = 0.


• Si B se obtiene de intercambiar dos filas o columnas de A, entonces |B| = −|A|.
• Si A es una matriz triangular (superior, inferior o diagonal), su determinante es igual al
producto de los elementos de su diagonal principal.

• Si B se obtiene de multiplicar una fila o columna por el escalar k, entonces |B| = k|A|. Por
tanto det(kA) = k n |A|.
• Si A, B y C son matrices iguales excepto que la i-ésima fila (o i-ésima columna) de C es la
suma de las correspondientes i-ésimas filas (o columnas) de A y B, entonces, |C| = |A| + |B|.

• Si B se obtiene al sumar un múltiplo de una fila (columna) de A a otra fila (columna) de A,


entonces |B| = |A|.
• Para cualquier dos matrices cuadradas de orden n, |AB| = |A||B|.
• |A−1 | = 1/|A|.

• |AT | = |A|.

Pedro José Hernando Oter Clases de Álgebra


68 TEMA 3: Matrices

3.5.8. Regla de Cramer


La regla de Cramer permite obtener la solución de un SEL compatible determinado mediante la
utilización del determinante de la matriz de coeficientes.
Sea el sistema de n ecuaciones lineales con n incógnitas:

A~x = ~b

A ∈ n×n R
~b ∈ n R
Denotemos por Ai (~b) a la matriz obtenida al reemplazar la i-ésima columna de A por el vector ~b,

Ai (~b) = [ ~c1 ~c2 ··· ~b · · · ~cn ]



Columna i

A través de esta matriz se puede expresar la solución del anterior sistema de ecuaciones lineales de la
forma dada por el siguiente teorema.

R Teorema 3.3 (Regla de Cramer)


Sea una matriz cuadrada e invertible A ∈ Rn×n y sea ~b un vector de Rn . Entonces la solución
del sistema A~x = ~b está dada por:

det(Ai (~b))
xi = ; ∀i = 1, · · · , n
|A|

 Demostración 3.3
Como las columnas de la matriz identidad I son los vectores estándar columna ~ei , se tiene
que:
AIi (~x) = A[ ~e1 · · · ~x · · · ~en ] = [ A~e1 · · · A~x · · · A~en ] =

= [ ~c1 · · · ~b · · · ~cn ] = Ai (~b)


Tomando determinantes a ambos lados de la igualdad,

|A| det(Ii (~x)) = det(Ai (~b))

siendo:
1 0 ··· x1 ··· 0 0

0 1 ··· x2 ··· 0 0

.. .. .. .. .. ..

. . . . . .
det(Ii (~x)) = 0 0 ··· xi ··· 0 0 = xi

.. .. .. .. .. ..
. . . . . .
0 0 ··· xn−1 ··· 1 0

0 0 ··· xn ··· 0 1
como se puede ver al desarrollar por la fila i-ésima. Por tanto, despejando de la expresión
|A| xi = det(Ai (~b)) se obtiene el resultado anterior.

Clases de Álgebra Pedro José Hernando Oter


3.5. Determinantes 69

Desde un punto de vista computacional la regla de Cramer es ineficiente para resolver sistemas,
salvo los muy pequeños, debido al gran coste de cálculo de los determinantes.

3.5.9. Matriz Adjunta e Inversa de una Matriz


R
Dada una matriz cuadrada A ∈ n×n , se puede construir una nueva matriz de adjuntos sustituyendo
cada elemento aij por el correspondiente adjunto 11 de cada elemento,

Cij = (−1)i+j Mij = (−1)i+j det(Aij )

U Definición 3.15 (Matriz Adjunta, adj(A))


Se denomina matriz adjunta de una matriz A y se representa por adj(A), a la transpuesta
de la matriz de adjuntos, dada por:
 
C11 C21 · · · Cn1
 C12 C22 · · · Cn2 
 
adj(A) = [Cij ]T = [Cji ] =  . .. . .. 
 .. . . . . 
C1n C2n · · · Cnn

R Teorema 3.4
Para toda matriz invertible A ∈ Rn×n se tiene:
1
A−1 = adj(A)
|A|

 Demostración 3.4
La inversa de una matriz invertible A es una matriz X tal que:
 
AX = I ; X= ~x1 ~x2 · · · ~xn

siendo ~xj la columna j-ésima de la matriz X. Para determinar cada una de estos vectores
columna se puede resolver los sistemas A~xj = ~ej y por la regla de Cramer:

det(Ai (~ej ))
xij =
|A|

(Continúa en la página siguiente)

11 Ver la Definición 3.14, página 65.

Pedro José Hernando Oter Clases de Álgebra


70 TEMA 3: Matrices

 Demostración 3.4 (Continuación)


y como:

a11 a12 ··· 0 ··· a1n

a21 a22 ··· · · · a2n

.. .. .. .. ..
. . . . .
det(Ai (~ej )) = = (−1)j+i det(Aji ) = Cji
aj1 aj2 ··· 1 ··· ajn

.. .. .. .. ..
. . . . .
an1 an2 ··· 0 ··· ann

se deduce fácilmente la expresión anterior.

3.6. Subespacios Asociados a una Matriz


Dada la matriz A ∈ Rm×n ,
   ~ 
a11 a12 ··· a1n f1
 a21 a22 ··· a2n     ~ 
   f2 
A= .. .. ..  = ~c1 ~c2 · · · ~cn = . 
 . . .   .. 
am1 am2 ··· amn f~m
Vamos a estudiar la relación que hay entre los vectores fila y columna que componen una matriz
y como afectan a las propiedades de la misma. Dicho análisis se hará a través de la definición de
importantes conceptos que serán de gran utilidad en el resto de los temas.

3.6.1. Espacios Columna y Fila de una Matriz

U Definición 3.16 (Espacio Columna de una Matriz)


R
Se define el espacio columna12 de A ∈ m×n como el subespacio de m generado por la R
combinación lineal de todos los vectores columna de A. Se representa por col(A).

col(A) = {~x ∈ Rm : ~x = α1~c1 + · · · + αn~cn ; αi ∈ R}

U Definición 3.17 (Espacio Fila de una Matriz)


R
Se define el espacio fila de A ∈ m×n como el subespacio de Rn generado por la combinación
lineal de todos los vectores fila de A. Se representa por fil(A).

fil(A) = {~x ∈ Rn : ~x = α1 f~1 + · · · + αm f~m ; αi ∈ R}

12 Como se verá más adelante, el espacio columna de una matriz coincide con la imagen de una matriz, ver la

Definición 4.10, página 93.

Clases de Álgebra Pedro José Hernando Oter


3.6. Subespacios Asociados a una Matriz 71

R Teorema 3.5
R
Sea A ∈ m×n , entonces se verifica:
• Si B en una matriz equivalente por filas 13 a la matriz A entonces14 , fil(A) = fil(B).
• dim(fil(A)) = dim(col(A)).

3.6.2. Rango, Núcleo y Nulidad de una Matriz

U Definición 3.18 (Rango de una Matriz)


R
Dada la matriz A ∈ m×n , se puede definir15 el rango de A como la dimensión de su espacio
fila o de su espacio columna 16 . Se denota por rang(A).

rang(A) = dim(fil(A)) = dim(col(A))

U Definición 3.19 (Núcleo o Espacio Nulo de una Matriz)


R
Dada la matriz A ∈ m×n , se define el núcleo o espacio nulo de A al subespacio de n R
compuesto de las soluciones del sistema lineal homogéneo 17 A~x = ~0. Se denota18 por ker(A).

ker(A) = {~x ∈ Rn : A~x = ~0}

U Definición 3.20 (Nulidad de una Matriz)


R
Dada la matriz A ∈ m×n , se define la nulidad de A al valor de la dimensión del núcleo de
una matriz.
nul(A) = dim(ker(A))

R Teorema 3.6 (Teorema del Rango de las Matrices)


R
Sea A ∈ m×n , entonces se verifica:

rang(A) + nul(A) = n

13 Ver la Sección 1.5.2, página 17.


14 Aunque no necesariamente col(A) = col(B).
15 En la Sección 1.5.4, página 18 se dio una definición alternativa y equivalente del rango de una matriz.
16 Y por tanto, según la Definición 2.15, página 34, el rango de una matriz coincide con el número de vectores fila y

vectores columna linealmente independientes que tiene la matriz.


17 Ver la Sección 1.8, página 23.
18 En lengua inglesa la palabra kernel se traduce como núcleo.

Pedro José Hernando Oter Clases de Álgebra


72 TEMA 3: Matrices

 Demostración 3.5

nul(A) = Num. de parámetros libres de la solución del Sist. Homog. = n − rang(A)

=⇒ nul(A) + rang(A) = (n − rang(A)) + rang(A) = n

R Teorema 3.7
R
Sea A ∈ m×n , entonces se verifica19 :

• rang(AT ) = rang(A).
• rang(AT A) = rang(A).

• La matriz AT A ∈ Rn×n es invertible si y sólo si rang(A) = n.

 Demostración 3.6
• rang(A) = dim(col(A)) = dim(fil(A)) = rang(AT )

• Como AT A ∈ Rn×n , tiene el mismo número de columnas que A y por el teorema del
rango:
rang(A) + nul(A) = n = rang(AT A) + nul(AT A)
Entonces, basta con demostrar que nul(A) = nul(AT A) para que rang(A) =
rang(AT A). Para ello vamos a demostrar que todo ~x que pertenece a nul(A) también
pertenece a nul(AT A) y viceversa.
1. Todo ~x ∈ nul(A) cumple A~x = ~0 =⇒ AT A~x = AT ~0 = ~0, y por tanto
~x ∈ nul(AT A).
2. Para todo ~x ∈ nul(AT A) se tiene AT A~x = ~0 =⇒ ~xT AT A~x = ~xT ~0 = 0. Entonces:

~xT AT A~x = (A~x)T (A~x) = (A~x) · (A~x) = 0 =⇒ A~x = ~0

y por tanto ~x ∈ nul(A).


Por tanto nul(A) = nul(AT A) =⇒ rang(A) = rang(AT A).
• Trivial.

19 Las propiedades de la matriz AT A serán estudiadas con más detenimiento en el Tema 9, página 167.

Clases de Álgebra Pedro José Hernando Oter


3.6. Subespacios Asociados a una Matriz 73

3.6.3. Teorema Fundamental de las Matrices Invertibles

R Teorema 3.8 (Teorema Fundamental de las Matrices Invertibles)


R
Sea A ∈ n×n . Las siguientes afirmaciones son equivalentes:

• A es invertible 20 .
• A~x = ~b tiene solución única 21 ∀~b ∈ Rn .
• A~x = ~0 tiene sólo la solución trivial 22 ~x = ~0 ∈ Rn .
• La forma escalonada reducida equivalente 23 de A es In .
• det (A) 6= 0, (ver Sección 3.5.6, página 67).
• rang(A) = n, (ver Sección 1.5.4, página 18 y Definición 3.18, página 71).
• ker(A) = {~0}, (ver Definición 3.19, página 71).

• Los vectores columna de A son linealmente independientes y forman una base 24 de Rn .


• Los vectores fila de A son linealmente independientes y forman una base de Rn .

3.6.4. Bases para los Espacios Fila, Columna y Nulo de una Matriz

R
Dada una matriz A ∈ m×n , los pasos a seguir para calcular bases para el espacio fila, el espacio
columna y/o el espacio nulo son los siguientes:

1. Encontrar la forma escalonada reducida R de A.


2. Los vectores fila no nulos, (con unos principales), de R forman una base para fil(A).
3. Los vectores columna de A correspondientes a los vectores columna no nulos, (con unos pivote),
de R forman una base para col(A).
4. Resolver el sistema R~x = ~0, expresando la solución como una combinación lineal, (a través
de posibles parámetros libres), de un conjunto de vectores. Estos vectores forma una base del
ker(A).

20 Ver la Definición 3.12, página 60.


21 Ver la Sección 1.3.2, página 11.
22 Ver la Sección 1.8, página 23.
23 Ver la Definición 1.23, página 18.
24 Ver la Sección 2.5.1, página 36.

Pedro José Hernando Oter Clases de Álgebra


:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=
TEMA 4
Transformaciones Lineales

Contenido
4.1 Concepto de Transformación Lineal . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.1.1 Forma Matricial de una Transformación Lineal . . . . . . . . . . . . . . . 78
4.1.2 Propiedades de las Transformaciones Lineales . . . . . . . . . . . . . . . . 79
4.2 Transformaciones Lineales Elementales . . . . . . . . . . . . . . . . . . . . . . . . 81
4.2.1 Transformación Lineal de Vectores Estándar . . . . . . . . . . . . . . . . . 82
4.2.2 Demostración ⇐= de la Sección 4.1.2 . . . . . . . . . . . . . . . . . . . . . 83
4.3 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.1 Función Invertible . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 83
4.3.2 Inversa de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 87
4.4 Operaciones con TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.1 Suma de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.4.2 Composición de Transformaciones . . . . . . . . . . . . . . . . . . . . . . . 90
4.5 Imagen y Núcleo de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.1 Imagen de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.5.2 Núcleo o Espacio Nulo de una TL . . . . . . . . . . . . . . . . . . . . . . . 95
4.5.3 Nulidad y Rango de una TL . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.5.4 Tipos de TL . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100

75
76

Clases de Álgebra
Transformaciones Lineales

Definiciones TL Inversa Composición de TL Características

Forma Matricial Propiedades Operaciones Tipos Imagen Núcleo Nulidad Rango

Pedro José Hernando Oter


TEMA 4: Transformaciones Lineales
4.1. Concepto de Transformación Lineal 77

4.1. Concepto de Transformación Lineal


Una expresión del tipo:
y1 = a11 x1 + a12 x2 + · · · + a1n xn
y2 = a21 x1 + a22 x2 + · · · + a2n xn
.. ..
. .
ym = am1 x1 + am2 x2 + · · · + amn xn
además de como un SEL1 , puede ser vista como una función vectorial2 que transforma un vector
de entrada:
~x = [x1 , x2 , · · · , xn ] ∈ n R
en otro vector de salida:
~y = [y1 , y2 , · · · , ym ] ∈ Rm
Esta función vectorial la podemos representar como:

f: Rn 7−→ Rm ;
f
~x −→ ~y

U Definición 4.1 (Transformación Lineal)


Se denomina transformación3 lineal, a toda función vectorial de varias variables, lineal en
todas sus variables (polinómica de primer grado) entre un espacio dominio n a otro espacio R
R
imagen m .

T : Rn 7−→ Rm ;
T
[x1 , x2 , · · · , xn ] −→ [y1 , y2 , · · · , ym ]

y1 = a11 x1 + a12 x2 + · · · + a1n xn


y2 = a21 x1 + a22 x2 + · · · + a2n xn
.. .. ; ~y = T (~x)
. .
ym = am1 x1 + am2 x2 + · · · + amn xn

! Nota 4.1. Por interés práctico, se denotará mediante las siglas TL a las Transformaciones Lineales.

P Ejemplo 4.1. La transformación lineal:

y1 = x1 + x2
y2 = x1 − x2

Convierte un vector de entrada ~x = [x1 , x2 ] ∈ R2 en otro vector ~y = [y1 , y2 ] ∈ R2 .


Entrada Salida
~x = [1, 0] ~y = [1, 1]
~x = [1, 1] ~y = [2, 0]
.. ..
. .

1 Verla Definición 1.8, página 5.


2 Veruna introducción a las funciones en Apéndice B.13, página 270.
3 También se denomina función, aplicación, operador o mapeo.

Pedro José Hernando Oter Clases de Álgebra


78 TEMA 4: Transformaciones Lineales

Las TL pueden utilizarse para codificar información como muestra el siguiente ejemplo.

P Ejemplo 4.2. Un espía quiere enviar la posición de un objetivo (x1 , x2 ) de forma codificada
(y1 , y2 ), siguiendo la clave (transformación lineal):

y1 = x1 + 3x2
y2 = 2x1 − x2

De forma que cuando la posición actual es (5, 10):


   
x1 5
~x = =
x2 10

Se envía la posición codificada:


     
y1 5 + 3 ∗ 10 35
~y = = =
y2 2 ∗ 5 − 10 0

Esta información deberá ser decodificada por su receptor, como se verá más adelante en este
tema4 .

4.1.1. Forma Matricial de una Transformación Lineal


Toda TL:
y1 = a11 x1 + a12 x2 + · · · + a1n xn
y2 = a21 x1 + a22 x2 + · · · + a2n xn
.. ..
. .
ym = am1 x1 + am2 x2 + · · · + amn xn
se puede expresar de forma matricial, extrayendo la información importante de la TL como:
    
y1 a11 a12 · · · a1n x1 
 y2   a21 a22 · · · a2n   x2   ~x ∈ Rnm×n
  
 ..  =  .. ..
 
..   ..  ; ~y = A~x A∈ R
 .  . . .  .  
~y ∈ Rm
ym am1 am2 ··· amn xn

U Definición 4.2 (Matriz Asociada a una Transformación Lineal)


Dada una transformación lineal:
~y = T (~x) = A~x
se denomina matriz asociada5 a la TL, a la matriz A que define dicha transformación.

4 Ver el Ejemplo 4.13, página 92.


5 También se le suele denominar matriz canónica o matriz estándar.

Clases de Álgebra Pedro José Hernando Oter


4.1. Concepto de Transformación Lineal 79

P Ejemplo 4.3. La forma matricial del Ejemplo 4.1 es:


    
y1 = x1 + 3x2 y1 1 3 x1
=⇒ = =⇒ ~y = A~x
y2 = 2x1 − x2 y2 2 −1 x2
 
1 3
A=
2 −1
Por tanto, podemos expresar esta TL como:

T : R2 7−→ R2 ; ~y = T (~x) = A~x

4.1.2. Propiedades de las Transformaciones Lineales

R Teorema 4.1 (Propiedades de las TL)


Una transformación (función) T : n −
7 → R Rm es lineal si y sólo si, verifica las siguientes dos
propiedades:

• T (~u + ~v ) = T (~u) + T (~v ) ; Rn


∀~u, ~v ∈
• T (k~u) = kT (~u) ; ∀~u ∈ Rn , ∀k ∈ R Nota: Para k = 0 =⇒ T (~0) = ~0

! Nota 4.2. Las propiedades del Teorema 4.1 se suelen utilizar como definición alternativa de transformación lineal,
(ver la definición original dada en la Definición 4.1, página 77).

Demostración =⇒ (Una TL verifica estas propiedades)


Vamos a demostrar como una transformación T : n 7−→ m del tipo: R R
  
y1 = a11 x1 + a12 x2 + · · · + a1n xn a11 a12 ··· a1n x1
y2 = a21 x1 + a22 x2 + · · · + a2n xn  a21 a22 ··· a2n   x2 
  
.. .. ; ~y = T (~x) = A~x =  . .. ..   .. 
. .  .. . .  . 
ym = am1 x1 + am2 x2 + · · · + amn xn am1 am2 ··· amn xn

cumple las dos propiedades antes citadas.


1. T (~u + ~v ) = T (~u) + T (~v ) ; ∀~u, ~v ∈ Rn
La parte izquierda de la igualdad será igual a:
  
a11 a12 ··· a1n u1 + v1
 a21 a22 ··· a2n  u2 + v2 
  
T (~u + ~v ) = A(~u + ~v ) =  . .. ..  .. =
 .. . .  . 
am1 am2 ··· amn un + vn
 
a11 (u1 + v1 ) + a12 (u2 + v2 ) + · · · + a1n (un + vn )
 a21 (u1 + v1 ) + a22 (u2 + v2 ) + · · · + a2n (un + vn ) 
 
= .. 
 . 
am1 (u1 + v1 ) + am2 (u2 + v2 ) + · · · + amn (un + vn )

Pedro José Hernando Oter Clases de Álgebra


80 TEMA 4: Transformaciones Lineales

Por otra parte, el lado derecho de la igualdad será:

     
a11 a12 ··· a1n u1 a11 a12 ··· a1n v1
 a21 a22 ··· a2n   u2   a21 a22 ··· a2n   v2 
     
T (~u)+T (~v ) = A~x+A~v =  .. .. ..   .. + .. .. ..   .. =
 . . .  .   . . .  . 
am1 am2 ··· amn un am1 am2 ··· amn vn
   
a11 u1 + a12 u2 + · · · + a1n un a11 v1 + a12 v2 + · · · + a1n vn
 a21 u1 + a22 u2 + · · · + a2n un   a21 v1 + a22 v2 + · · · + a2n vn 
    Suma Vectores
= .. + ..  =
 .   . 
am1 u1 + am2 u2 + · · · + amn un am1 v1 + am2 v2 + · · · + amn vn
 
a11 (u1 + v1 ) + a12 (u2 + v2 ) + · · · + a1n (un + vn )
 a21 (u1 + v1 ) + a22 (u2 + v2 ) + · · · + a2n (un + vn ) 
 
 .. 
 . 
am1 (u1 + v1 ) + am2 (u2 + v2 ) + · · · + amn (un + vn )

siendo ambos resultados iguales.


2. T (k~u) = kT (~u) ; ∀~u ∈ Rn , ∀K ∈ R
La parte izquierda de la igualdad será igual a:
    
a11 a12 · · · a1n ku1 k(a11 u1 + a12 u2 + · · · + a1n un )
 a21 a22 · · · a2n   ku2   k(a21 u1 + a22 u2 + · · · + a2n un ) 
    
T (k~u) = A(k~u) =  . .. ..   .. = .. 
 .. . .  .   . 
am1 am2 ··· amn kun k(am1 u1 + am2 u2 + · · · + amn un )

Y la parte derecha de la igualdad:


     
y1 ky1 k(a11 u1 + a12 u2 + · · · + a1n un )
 y2   ky2   k(a21 u1 + a22 u2 + · · · + a2n un ) 
     
kT (~u) = kA~x = k  .  =  . = .. 
 ..   ..   . 
yn kyn k(am1 u1 + am2 u2 + · · · + amn un )

siendo ambos resultados iguales.

! Nota 4.3. La demostración ⇐=, correspondiente a si una función vectorial (transformación) cumple las dos
propiedades anteriores obligatoriamente debe ser lineal en todas sus componentes, se verá posteriormente en la
Sección 4.2.2, página 83.

Las dos propiedades del Teorema 4.1, página 79, se pueden resumir en una sola:

T (α~u + β~v ) = αT (~u) + βT (~v ) ; ∀~u, ~v ∈ Rn , ∀α, β ∈ R


Es decir, la TL de una combinación lineal de vectores es igual a la combinación lineal de las TL de
los vectores.

Clases de Álgebra Pedro José Hernando Oter


4.2. Transformaciones Lineales Elementales 81

P Ejemplo 4.4. Dada la TL T : R2 7−→ R2 definida por:


y1 = 3x1 + x2
y2 = −x1 − 2x2

calcular T (2~u − 5~v + 7w)


~ ∀~u, ~v , w
~∈ R2 .
Solución: Poniéndolo en forma matricial:
        
3 1 x1 u1 v1 w1
T (~x) = ; ~u = , ~v = , w
~=
−1 −2 x2 u2 v2 w2

Como es una TL, podemos calcularlo de dos formas distintas.


Forma 1:
          
3 1 u1 v1 w1 3 1 2u1 − 5v1 + 7w1
T (2~u−5~v +7w)
~ = 2 −5 +7 =
−1 −2 u2 v2 w2 −1 −2 2u2 − 5v2 + 7w2
   
3(2u1 − 5v1 + 7w1 ) + (2u2 − 5v2 + 7w2 ) 6u1 − 15v1 + 21w1 + 2u2 − 5v2 + 7w2
= =
−(2u1 − 5v1 + 7w1 ) − 2(2u2 − 5v2 + 7w2 ) −2u1 + 5v1 − 7w1 − 4u2 + 10v2 − 14w2
Forma 2:
T (2~u − 5~v + 7w)
~ = 2T (~u) − 5T (~v ) + 7T (w)
~ =
        
3 1 u1 3 1 v1 3 1 w1
=2 −5 +7
−1 −2 u2 −1 −2 v2 −1 −2 w2
        
6 2 u1 −15 −5 v1 21 7 w1
= + + =
−2 −4 u2 5 10 v2 −7 −14 w2
       
6u1 + 2u2 −15v1 − 5v2 21w1 + 7w2 6u1 + 2u2 − 15v1 − 5v2 + 21w1 + 7w2
= + + =
−2u1 − 4u2 5v1 + 10v2 −7w1 − 14w2 −2u1 − 4u2 + 5v1 + 10v2 − 7w1 − 14w2
Siendo ambas expresiones iguales.

Estas dos propiedades de las TL simplifican en gran medida la utilidad y operaciones de las TL,
haciendo de ellas una herramienta matemática muy utilizada en la práctica.

4.2. Transformaciones Lineales Elementales


• TL Nula : T : Rn 7−→ Rm : T (~x) = ~0 ∈ Rm ; ∀x ∈ Rn
La matriz asociada a la transformación nula T (~x) = A~x = ~0 es la matriz nula de orden m × n :
 
0 0 ··· 0
 0 0 ··· 0 

0m×n =  . .
 .. ..

..  ∈
m×n
R
. 
0 0 ··· 0

Pedro José Hernando Oter Clases de Álgebra


82 TEMA 4: Transformaciones Lineales

• TL Identidad : T : Rn 7−→ Rm : T (~x) = ~x ∈ Rm ; ∀x ∈ Rn


En este caso obligatoriamente n = m y la matriz asociada a la transformación identidad
T (~x) = A~x = ~x corresponde con la matriz identidad In :
 
1 0 ··· 0
 0 1 ··· 0 

In =  . .
 .. ..

..  ∈

n×n
R
.
0 0 ··· 1

4.2.1. Transformación Lineal de Vectores Estándar


Dada una transformación lineal cualquiera T : Rn 7−→ Rm , se tiene6 :
 
0
 0  
a11 a12 ··· a1n   a1i
 a21 a22 ··· a2n   ..   a2i 
 

T (~ei ) = A~ei =  .
 ..
.. ..
 .  
   =  .. 
1  . 

; ~ei ∈ Rn
. .
.
am1 am2 ··· amn  ..  ani
0

siendo e~i el vector estándar 7 i-ésimo. Por tanto, el vector T (~ei ) corresponde con la columna i-ésima,
~ci , de la matriz asociada a la transformación lineal T : n 7−→ m . R R
 
T (~ei ) = A~ei = ~c1 ~c2 · · · ~cn ~ei = ~ci

U Definición 4.3 (Matriz Asociada a una TL a través de vectores estándar)


Como T (~ei ) = ~ci , la matriz asociada a cualquier transformación lineal T : n 7−→ R Rm , se
puede definir como:  
A = T (~e1 ) T (~e2 ) · · · T (~en )

Dado un vector ~x ∈ Rn se tiene:


T (~x) = T (x1~e1 + x2~e2 + · · · + xn~en ) = x1 T (~e1 ) + x2 T (~e2 ) + · · · + xn T (~en ) = x1~c1 + x2~c2 + · · · + xn~cn

siendo ~ci la columna i-ésima de la matriz asociada a la transformación T .


        
a11 · · · a1n x1 a11 a12 a1n n
 .. ..   ..   .   .   .  X
~y = A~x =  . .   .  = x1  ..  + x2  ..  + · · · + xn  ..  = xi~ci
am1 ··· amn xn am1 am2 amn i=1

6 Ver la Sección 3.1.7, página 57.


7 Ver la Sección 2.2.3, página 29.

Clases de Álgebra Pedro José Hernando Oter


4.3. Inversa de una TL 83

4.2.2. Demostración ⇐= de la Sección 4.1.2


Vamos a utilizar la Definición 4.3 de una matriz asociada a una TL mediante vectores estándar, para
terminar la demostración del Teorema 4.1, página 79, cuyo resultado hera:

Una transformación T : Rn 7−→ Rm que verifica las siguientes dos propiedades:


(1) T (~u + ~v ) = T (~u) + T (~v ) , ∀~u, ~v ∈ Rn
(2) T (k~u) = kT (~u) , ∀~u ∈ Rn , ∀K ∈ R

es una TL.

 Demostración 4.1 
~x ∈ Rnm×n
Una transformación es lineal si tiene la forma: T (~x) = A~x
A∈ R
R
Sean ~e1 , ~e2 , · · · , ~en los vectores estándar de n , entonces:
 
x1
 x2 
 
~x =  .  = [x1~e1 + x2~e2 + · · · + xn~en ]
 .. 
xn

Por tanto, aplicando las dos propiedades anteriores (1) y (2) tenemos:
(1) (2)
T (~x) = T (x1~e1 + x2~e2 + · · · + xn~en ) = T (x1~e1 ) + T (x2~e2 ) + · · · + T (xn~en ) =
 
x1
 x2 
(2)  
= x1 T (~e1 ) + x2 T (~e2 ) + · · · + xn T (~en ) = [T (~e1 ), T (~e2 ), · · · , T (~en )]  .  = A~x
 .. 
xn

4.3. Inversa de una TL


4.3.1. Función Invertible

U Definición 4.4 (Función Invertible)


Se dice que una función T : X 7−→ Y es invertible 8 si la ecuación T (x) = y tiene una solución
única x ∈ X para cada y ∈ Y .
Si una función T : X 7−→ Y es invertible, su inversa T −1 : Y 7−→ X se define como:

T −1 (y) = { solución única x ∈ X de T (x) = y }

8 Ver una definición de función inversa en el Apéndice B.13.4, página 273.

Pedro José Hernando Oter Clases de Álgebra


84 TEMA 4: Transformaciones Lineales

P Ejemplo 4.5. Determinar si las siguientes TL T , R y S son invertibles, a través de sus


correspondientes definiciones dadas mediante conjuntos de Venn.

T R S
b b b b b b

b b
x1 b
b y0 b
b

x2 b b y0
b b b b
b b

b b b b b b

X Y X Y X Y

Solución:
• T es invertible al ser una función uno a uno o biyectiva.
• R no es invertible, ya que R(x) = y0 tiene dos soluciones x1 y x2 .
• S no es invertible, ya que S(x) = y0 no tiene solución.

P Ejemplo 4.6. Sea el problema de la codificación de mensajes, Ejemplo 4.2, dado en este caso
por la siguiente TL:
    
y1 = x1 + 3x2 y1 1 3 x1
=⇒ = =⇒ ~y = A~x
y2 = 2x1 + 5x2 y2 2 5 x2

R
Esta TL codifica una posición de entrada ~x = [x1 , x2 ] ∈ 2 en otro vector ~y = [y1 , y2 ] ∈ 2 . R
Cuando se recibe el mensaje codificado hay que decodificarlo. Por ejemplo si el vector codificado
es ~y = [131, 220], conociendo la matriz de codificación A habrá que resolver el SEL:

x1 + 3x2 = 131
2x1 + 5x2 = 220

Utilizando Gauss-Jordan:
     
1 3 131 F2 −2F1 1 3 131 F1 +3F2 1 0 5
−−−−−→ −−−−−→
2 5 220 0 −1 −42 −F3 0 1 42

por tanto, la información decodificada es ~x = [5, 42]. Lo interesante es encontrar la forma de


decodificar cualquier mensaje ~y = [y1 , y2 ].

1 3 y1 F2 −2F1 1 3 y1 F1 +3F2 1 0 −5y1 + 3y2
−−−−−→ −−−−−→
2 5 y2 0 −1 −2y1 + y2 −F3 0 1 2y1 − y2

Luego, la función de decodificación (función inversa) es:


    
x1 = −5y1 + 3y2 x1 −5 3 y1
=⇒ = =⇒ ~x = A−1 ~y
x2 = 2y1 − y2 x2 2 −1 y2

siendo también una TL.


(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


4.3. Inversa de una TL 85

P Ejemplo 4.6 (Continuación).


La relación entre las dos matrices A y A−1 es la siguiente:
 
1 3
codificar con la matriz A =
2 5
−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−−→
~x ←−−−−−−−−−−−−−−−−−−−−−−−−  −−−−−−−
− − − ~y
−5 3
−1
decodificar con matriz A =
2 −1

P Ejemplo 4.7. No todas las transformaciones lineales son invertibles. Por ejemplo:
   
x1 T y1
7−→
x2 y2

Supongamos que se elige como codificación:


    
y1 = x1 + 2x2 y1 1 2 x1
=⇒ = =⇒ ~y = A~x
y2 = 2x1 + 4x2 y2 2 4 x2

Cuando se recibe la información codifica ~y = [89, 178] y queremos decodificarla, tendremos que
resolver el sistema:
x1 + 2x2 = 89
2x1 + 4x2 = 178
que tiene infinitas soluciones de la forma:
   
x1
x2
=
89 − t
t
; ∀t ∈ R
Ya que este SEL no tiene solución única, es imposible recuperar la actual posición codificada,
es decir, la transformación de codificación y la matriz de codificación A son no
invertibles. Por tanto este código (TL) no es útil para este fin.

U Definición 4.5 (TL Invertible)


La TL ~y = A~x es invertible si el SEL:
A~x = ~y
tiene una única solución ~x ∈ R n
para todo ~y ∈ Rm =⇒ ∃A−1

Analicemos todos los posibles casos de A ∈ Rm×n :


• m<n
En este caso el sistema tiene menos ecuaciones que incógnitas y por tanto puede ser:
– incompatible (sin solución).
– compatible indeterminado (infinitas soluciones), para cualquier ~y ∈ Rm .
Por tanto la TL ~y = A~x es no invertible.

Pedro José Hernando Oter Clases de Álgebra


86 TEMA 4: Transformaciones Lineales

P Ejemplo 4.8. Una TL real con n = 3 y m = 2 de la forma T :


interpretarla gráficamente como:
R3 7−→ R2 , podemos

x3 y2
T
 
    x1
y1 a11 a12 a13  x2 
=
y2 a21 a22 a23 T (~x) = A~x
x3 x2 y1

x1
Se puede considerar como una transformación de todos los puntos del espacio 3 en los puntos R
R
del plano 2 . Intuitivamente se aprecia que existen más puntos en el conjunto dominio 3 que R
en el conjunto imagen 2 y por tanto:R
• La TL o bien no es inyectiva o no es sobreyectiva o ambas cosas. =⇒ no es biyectiva 9 .

• El SEL A~x = ~y puede tener infinitas soluciones o bien no tener solución, para todos o
algunos ~y ∈ 2 . R
En cualquiera de los dos casos, la TL no es invertible.

• m=n
En este caso el sistema tiene el mismo número de ecuaciones que incógnitas y por tanto puede
ser:
– incompatible (sin solución).
– compatible indeterminado (infinitas soluciones).
– compatible determinado (solución única) para cualquier ~y ∈ Rm .
La TL ~y = A~x sera invertible si y sólo si10 :

rang (A) = n

es decir:
– Cualquier matriz escalonada equivalente 11 de A no posee ninguna fila de ceros.
– La matriz escalonada reducida equivalente 12 de A es la matriz identidad de orden n, In .
 
1 0 ··· 0
 0 1 ··· 0 

In =  . .
 .. ..

..  ∈

R n×n
.
0 0 ··· 1

9 Ver el Apéndice B.13.3, página 272.


10 Ver la Sección 3.4.1, página 62.
11 Ver la Definición 1.23, página 18.
12 Ver la Definición 1.26, página 22.

Clases de Álgebra Pedro José Hernando Oter


4.3. Inversa de una TL 87

• m>n
En este caso el sistema tiene más ecuaciones que incógnitas y si T es inyectiva siempre podemos
R
encontrar algún determinado ~y ∈ m tal que el sistema A~x = ~y sea incompatible (sin solución).
Por tanto la TL ~y = A~x es no invertible.

P Ejemplo 4.9. Una TL real con n = 2 y m = 3 de la forma T : 2 7−→ 3 , se puede inter-


R
pretar como una aplicación de de todos los puntos del plano 2 en los puntos del espacio 3 .
R R
R
x2 y2
   
y1 a11 a12   T

 y2  =  a21 x1
a22 
x2
y3 a31 a32 T (~x) = A~x
x1 y1

R R
y1
Claramente existen menos puntos en 2 que en 3 , de forma que no puede existir una
correspondencia uno a uno (biyectiva) y por tanto la TL no es invertible.

4.3.2. Inversa de una TL


Dada la transformación lineal T : Rn 7−→ Rm :
    
y1 = a11 x1 + a12 x2 + · · · + a1n xn y1 a11 a12 ··· a1n x1
y2 = a21 x1 + a22 x2 + · · · + a2n xn  y2   a21 a22 ··· a2n   x2 
    
.. .. ;  ..  =  .. .. ..   .. 
. .  .  . . .  . 
ym = am1 x1 + am2 x2 + · · · + amn xn ym am1 am2 ··· amn xn
 
 a11 a12 ··· a1n
 ~x ∈ Rnm×n  a21 a22 ··· a2n 
T (~x) = A~x = ~y A∈ R ;

A= .
 ..
.. ..

∈ Rm×n

~y ∈ Rm . . 
am1 am2 ··· amn

U Definición 4.6 (TL Inversa)


Si una TL :
T : Rn → Rn ; ~y = T (~x) = A~x
es invertible 13 , se define la TL inversa, T −1 (~y ), como:

T −1 : Rn → Rn ; ~x = T −1 (~y ) = A−1 ~y

13 Ver la Definición 4.5, página 85.

Pedro José Hernando Oter Clases de Álgebra


88 TEMA 4: Transformaciones Lineales

P Ejemplo 4.10. Encontrar la TL inversa de la TL, T : 3 7−→ 3 :


   
R R
 
y1 x1 + x2 + x3 1 1 1
 y2  =  2x1 + 3x2 + 2x3  =⇒ ~y = T (~x) = A~x ; A= 2 3 2 
y3 3x1 + 8x2 + 2x3 3 8 2

Solución: Aplicando el método de Gauss-Jordan14 :


     
1 1 1 1 0 0 1 1 0 1 0 0 1 0 1 3 −1 0
F2 −2F1 F −5F2
 2 3 2 0 1 0 − −−−−→  0 1 0 −2 1 0  −−3−−−→  0 1 0 −2 1 0 
F3 −3F1 F1 −F2
3 8 2 0 0 1 0 5 −1 −3 0 1 0 0 −1 7 −5 1
   
1 0 0 10 −6 1 10 −6 1
F1 +F3
−−−−→  0 1 0 −2 1 0  =⇒ A−1 =  −2 1 0 
−F3
0 0 1 −7 5 −1 −7 5 −1
La TL inversa queda entonces:
     
x1 10y1 − 6y2 + y3 10 −6 1
 x2  =  −2y1 + y2  =⇒ ~x = T −1 (~y ) = A−1 ~y ; A−1 =  −2 1 0 
x3 −7y1 + 5y2 − y3 −7 5 −1

Propiedades de la TL Inversa

Dada una función biyectiva 15 T : X 7−→ Y se tiene:


• T −1 (T (x)) = T −1 (y) = x , ∀x ∈ X
• T (T −1 (y)) = T (x) = y , ∀y ∈ Y
• (T −1 )−1 = T

Linealidad de la TL Inversa

En caso de que exista, la transformación inversa T −1 de una TL:

T : Rn 7−→ Rm ; T (~x) = ~y = A~x

es una TL, ya que16 :

T −1 (α~u + β~v ) = A−1 (α~u + β~v ) = αA−1 ~u + βA−1~v = αT −1 (~u) + βT −1 (~v )

14 Ver la Sección 1.7, página 21.


15 Ver el Apéndice B.13.3, página 272.
16 Ver el Teorema 4.1, página 79 y la propiedad resumen en la página 80.

Clases de Álgebra Pedro José Hernando Oter


4.4. Operaciones con TL 89

4.4. Operaciones con TL


4.4.1. Suma de Transformaciones

U Definición 4.7 (Suma de Transformaciones)


R
Dadas las transformaciones: F : n 7−→ m y G : R Rn 7−→ Rm , se define la transformación
suma de F y G como:

(F + G)(~x) = F (~x) + G(~x) = A~x + B~x = (A + B)~x ; ~x ∈ Rn


siendo A + B la matriz suma17 de A ∈ Rm×n y B ∈ Rm×n :
     
a11 · · · a1n b11 ··· b1n a11 + b11 ··· a1n + b1n
 .. .
..  +  ...
  ..  =  .. .. 
A+B = . .   . . 
am1 · · · amn bm1 ··· bmn am1 + bm1 ··· amn + bmn

Propiedades de la Suma de TL

• La suma de TL es una TL.


• La suma de TL es conmutativa, ya que: A + B = B + A.
• La suma de TL es asociativa, ya que: A + (B + C) = (A + B) + C.
• La operación diferencia de TL se define como la suma del opuesto: A − B = A + (−B)

P Ejemplo 4.11. Dadas las TL:


 
 y1 = x1 + x2  y1 = 2x1
R
F : 2 7−→ 3

R
y2 = 2x1 − x2 G: R2 7−→ R3 
y2 = −x1 − x2
y3 = x1 + 2x2 y3 = 2x2

calcular las TL: (F + G)(~x) y (F − G)(~x).


Solución:
   
1 1   2 0  
x x
(F + G)(~x) = A(~x) + B(~x) =  2 −1  1 +  −1 −1  1 = (A + B)~x =
x2 x2
1 2 0 2
     
1 1 2 0   3 1  
x x
=  2 −1  +  −1 −1  1 =  1 −2  1 = C~x
x2 x2
1 2 0 2 1 4
(Continúa en la página siguiente)

17 Ver la Sección 3.1.1, página 54.

Pedro José Hernando Oter Clases de Álgebra


90 TEMA 4: Transformaciones Lineales

P Ejemplo 4.11 (Continuación).


   
1 1   2 0  
x  x1 = (A − B)~x =
(F − G)(~x) = A(~x) − B(~x) =  2 −1  1 −  −1 −1
x2 x2
1 2 0 2
     
1 1 2 0   −1 1  
     x1  x1 = D~x
= 2 −1 − −1 −1 = 3 0
x2 x2
1 2 0 2 1 0

4.4.2. Composición de Transformaciones

U Definición 4.8 (Composición de Transformaciones)


Dadas las transformaciones: 
G : p 7−→ n R R
F : n 7−→ m R R
se define, la composición de la transformación F con G de la siguiente forma:
G F
(F ◦ G)(~x) = F [G(~x)] ~x −→ G(~x) −→ F [G(~x)]

Dominio de la Composición de TL

Dada la composición de TL: (F ◦ G)(~x) = F [G(~x)].


• El dominio de F debe de coincidir con la imagen de G.
• El dominio de la nueva transformación (F ◦G)(x) coincide con el dominio de G(~x) y su imagen
es la imagen de F (~y ).
(F ◦ G) : p 7−→ m R R

P Ejemplo 4.12. Dadas las TL:


 y1 = x1 + x2 
F : R2 7−→ R3 
y2 = 2x1 − x2 G: R4 7−→ R2 y1
y2
= x1 + x2 + x3 + x4
= 2x1 − x2 − x4
y3 = x1 + 2x2

calcular la TL composición F con G, (F ◦ G)(~x).


Solución:
 
   x1
1 1 x1  
1 1 1 1  x2 
F (~x) = A~x =  2 −1   x2  ; G(~x) = B~x =  
2 −1 0 −1  x3 
1 2 x3
x4
(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


4.4. Operaciones con TL 91

P Ejemplo 4.12 (Continuación).





 
x1
1 1  
1 1 1 1  
 x2  =
(F ◦ G))(~x) = F [G(~x)] = A(B~x) =  2 −1  
 2 −1 0 −1  x3 
1 2
x4
   
1 1   (x1 + x2 + x3 + x4 ) + (2x1 − x2 − x4 )
x + x + x + x
=  2 −1  1 2 3 4
=  2(x1 + x2 + x3 + x4 ) − (2x1 − x2 − x4 )  =
2x1 − x2 − x4
1 2 (x1 + x2 + x3 + x4 ) + 2(2x1 − x2 − x4 )
 
    x
3x1 + x3 3 0 1 0  1
x2 
=  3x2 + 2x3 + 3x4  =  0 3 2 3   x3  = C~x
5x1 − x2 + x3 − x4 5 −1 1 −1
x4
La composición de estas dos TL es una nueva TL: (F ◦ G) : R4 7−→ R3 .
Propiedades de la Composición de TL

• La composición de TL es una TL: (F ◦ G)(~x) = A(B~x) = C~x.


• La composición de TL no es conmutativa: (F ◦ G) 6= (G ◦ F ).

• La composición de TL sí es asociativa: F ◦ (G ◦ H) = (F ◦ G) ◦ H.

Demostración


F : Rnp 7−→ Rnm ; F (~x) = A~x
G: R 7−→ R ; G(~x) = B~x

• (F ◦ G)(α~u + β~v ) = F [G(α~u + β~v )] = A(B(α~u + β~v )) = A(αB~u + βB~v ) = A(αB~u) + A(βB~v ) =
αA(B~u) + βA(B~v ) = α(F ◦ G)(~u) + β(F ◦ G)(~v )
R
• (F ◦ G) : p 7−→ m R
Por otra parte, (G ◦ F ) estará definida si y sólo si m = p. Por tanto de forma general
(F ◦ G) 6= (G ◦ F ).
• Ver Apéndice B.13.5, página 274.

Matriz asociada a la Composición de TL


Como la composición de TL es otra TL, por tanto tiene asociada una determinada matriz. Vamos a
ver cual es su forma:

R R
F : n 7−→ m ; F (~x) = A~x
R R
G : p 7−→ n ; G(~x) = B~x

··· ···
    
a11 a12 a1n b11 b12 b1p x1
 a21 a22 ··· a2n   b21 b22 ··· b2p   x2 
(F ◦ G)(~
x) = F [G(~
x)] = A(B~
x) =    .  =
    
.. .. .. .. .. ..
  .. 
 
 . . .   . . .
am1 am2 ··· amn bn1 bn2 ··· bnp xp

Pedro José Hernando Oter Clases de Álgebra


92 TEMA 4: Transformaciones Lineales

··· b11 x1 + b12 x2 + · · · + b1p xp


  
a11 a12 a1n
 a21 a22 ··· a2n   b21 x1 + b22 x2 + · · · + b2p xp 
= . =
  
.. .. ..
 ..

. .  . 
am1 am2 ··· amn bn1 x1 + bn2 x2 + · · · + bnp xp
a11 (b11 x1 + b12 x2 + · · · + b1p xp ) + a12 (b21 x1 + b22 x2 + · · · + b2p xp ) + · · · a1n (bn1 x1 + bn2 x2 + · · · + bnp xp )
 
 a21 (b11 x1 + b12 x2 + · · · + b1p xp ) + a22 (b21 x1 + b22 x2 + · · · + b2p xp ) + · · · a2n (bn1 x1 + bn2 x2 + · · · + bnp xp ) 
= =
 
..
 . 
am1 (b11 x1 + b12 x2 + · · · + b1p xp ) + am2 (b21 x1 + b22 x2 + · · · + b2p xp ) + · · · amn (bn1 x1 + bn2 x2 + · · · + bnp xp )

(a11 b11 + a12 b21 + · · · + a1n bn1 )x1 + (a11 b21 + a12 b22 + · · · + a1n bn2 )x2 + · · · + (a11 b1p + a12 b2p + · · · + a1n bnp )xp
 
 (a21 b11 + a22 b21 + · · · + a2n bn1 )x1 + (a21 b21 + a22 b22 + · · · + a2n bn2 )x2 + · · · + (a21 b1p + a22 b2p + · · · + a2n bnp )xp 
= =
 
..
 . 
(am1 b11 + am2 b21 + · · · + amn bn1 )x1 + (am1 b21 + am2 b22 + · · · + amn bn2 )x2 + · · · (am1 b1p + am2 b2p + · · · + amn bnp )xp

a11 b11 + a12 b21 + · · · + a1n bn1 a11 b21 + a12 b22 + · · · + a1n bn2 ··· a11 b1p + a12 b2p + · · · + a1n bnp
  
x1
 a21 b11 + a22 b21 + · · · + a2n bn1 a21 b21 + a22 b22 + · · · + a2n bn2 ··· a21 b1p + a22 b2p + · · · + a2n bnp   x2 
=  .  =
  
..
 .   .. 
am1 b11 + am2 b21 + · · · + amn bn1 am1 b21 + am2 b22 + · · · + amn bn2 · · · am1 b1p + am2 b2p + · · · + amn bnp xp

f~1A f~1A · ~c1B f~1A · ~c2B · · · f~1A · ~cnB


    
x1
 f~   f~ · ~c f~2A · ~c2B · · · f~2A · ~cnB  
 x2 
 2A   2A 1B
= ..  [~c1B ~c2B · · · ~cpB ] = 
  .. .. ..  .. 


 .   . . .   . 
f~mA f~mA · ~c1B f~mA · ~c2B ~
· · · fmA · ~cnB x n

Por tanto, la matriz asociada a la TL (F ◦ G)(~x) = A(B~x) = (AB)~x es la matriz dada por el producto
matricial 18 AB :
 ~ 
f1A · ~c1B f~1A · ~c2B ··· f~1A · ~cnB 
 f~2A · ~c1B f~2A · ~c2B ··· f~2A · ~cnB   A ∈ Rm×n

AB =  .. .. ..

 B ∈ Rm×p
n×p
 . . .  
AB ∈ R
f~mA · ~c1B f~mA · ~c2B ··· f~mA · ~cnB

P Ejemplo 4.13. Siguiendo con en el problema de la codificación de mensajes. El espía 1 envía


una posición ~x codificada según una TL ~y = F (~x) al espía 2 y éste vuelve a codificar el mensaje
según otra TL distinta ~z = G(~y ) y lo envía al espía 3. Conociendo las TL de codificación y
sabiendo que el mensaje final doblemente codificado es ~z = [6, 6], encontrar el mensaje original
~x.
     
1 1 x1 1 2 y1
~y = F (~x) = ; ~z = G(~y ) =
1 −1 x2 2 1 y2
Solución:
      
1 2 1 1 x1 3 −1 x1
~z = (G ◦ F )(~x) = G[F (~x)] = = = C~x
2 1 1 −1 x2 3 1 x2
(Continúa en la página siguiente)

18 Ver la Sección 3.1.4, página 55.

Clases de Álgebra Pedro José Hernando Oter


4.5. Imagen y Núcleo de una TL 93

P Ejemplo 4.13 (Continuación).


Notar que la composición es (G ◦ F )(~x) y no (F ◦ G)(~x), ya que el orden de aplicación de las
codificaciones es primero F y despúes G. Por tanto:

~x = C −1 ~z
        
1/6 1/6 x1 1/6 1/6 6 2
C −1 = =⇒ = =
−1/2 1/2 x2 −1/2 1/2 6 0

correspondiente al mensaje original ~x.

4.5. Imagen y Núcleo de una TL


4.5.1. Imagen de una TL

U Definición 4.9 (Imagen de una TL)


Sea una TL entre un espacio dominio X a otro espacio imagen Y .
T
T : X 7−→ Y ; ~x = [x1 , x2 , · · · , xn ] −→ [y1 , y2 , · · · , ym ] = ~y
Se denomina imagen de la TL al conjunto de vectores ~y del espacio imagen Y de T que son
imagen de algún vector ~x del espacio dominio X.

im(T ) = (~y ∈ Y : ~y = T (~x) para algún ~x ∈ X)

! Nota 4.4. Dada una TL, T : X 7−→ Y , no confundir la imagen de la transformación, im(T ), con el espacio imagen
de la misma, Y . La imagen es un determinado subconjunto del espacio imagen, im(T ) ⊆ Y . Ver en la página 95 una
aclaración sobre el tipo de subconjunto que es (subespacio vectorial).

U Definición 4.10 (Imagen de una Matriz)


R
Se define la imagen de una matriz A ∈ m×n y se denota por im(A), a la imagen de la TL
que define dicha matriz.

~y = T (~x) = A~x =⇒ im(T ) = im(A)

El espacio columna 19 de una matriz coincide con la imagen de la matriz20 :


        
y1 a11 · · · an1 x1 a11 an1
im(A) =  ...  =  ... ..   ..  = x  ..  + · · · + x  ..  = col(A)
  
.  .  1 .  n . 
ym am1 · · · amn xm am1 amn

19 Ver la Definición 3.16, página 70.


20 Ver demostración en la página 82.

Pedro José Hernando Oter Clases de Álgebra


94 TEMA 4: Transformaciones Lineales

P Ejemplo 4.14. Describir la imagen de la TL T : 2 7−→


 
R R3 definida por la matriz:
1 1
A= 1 2 
1 3

Solución:
La imagen de T es el conjunto de todos los posibles valores dados por la transformación.
Aplicando la relación anterior se tiene:
     
    1 1   1 1
x1 x1 x
T (~x) = T =A =  1 2  1 = x1  1  + x2  2 
x2 x2 x2
1 3 1 3

De forma que la im(T ) se puede obtener con todas las posibles combinaciones lineales de los
vectores columna de la matriz A. En este caso en concreto, corresponde a un plano en 3 que R
pasa por el origen21 (0, 0, 0).
     
 1 1 
im(T ) = im(A) = s  1  + t  2  ; ∀s, t ∈

R
1 3

P Ejemplo 4.15. Calcular la imagen de la TL de T : 2 7−→


 
R R2 definida por la matriz:
1 3
A=
2 6

Solución:
              
x1 x1 1 3 x1 1 3 1 1
T (~x) = T =A = = x1 + x2 = x1 + 3x2 =
x2 x2 2 6 x2 2 6 2 2
 
1
= (x1 + 3x2 )
2
R
Como x1 , x2 ∈ , la im(T ) está formada por todos los vectores ~y ∈ 2 que tienen la dirección R
R
del vector [1, 2]. Esto corresponde a una recta en 2 que pasa por el origen (0, 0).
   
im(T ) = im(A) = t
1
2
; ∀t ∈ R

21 Si no pasara por el origen no sería un subespacio vectorial (ver Sección 4.5.1, página 95) y podría indicar que hemos

cometido algún error en su cálculo.

Clases de Álgebra Pedro José Hernando Oter


4.5. Imagen y Núcleo de una TL 95

Propiedades de la Imagen de una TL

Dada una TL entre un espacio dominio X a otro espacio imagen Y : T : X 7−→ Y

• El vector nulo del espacio imagen, ~0 ∈ Y , siempre está contenido en la imagen de T , im(T ).
• La imagen de T es cerrada con respecto a la suma:

∀~v1 , ~v2 ∈ im(T ) =⇒ ~v1 + ~v2 ∈ im(T )

• La imagen de T es cerrada con respecto a la multiplicación por un escalar:

∀~v ∈ im(T ) , ∀k ∈ R =⇒ k~v ∈ im(T )

 Demostración 4.2
• T (~0) = A~0 = ~0
• Sean ~v1 , ~v2 ∈ im(T ) =⇒ ~v1 +~v2 = T (~x1 ) + T (~x2 ) = T (~x1 + ~x2 ) =⇒ ~v1 +~v2 ∈ im(T )
• Sea ~v ∈ im(T ) y k ∈ R =⇒ k~v = kT (~x1 ) = T (k~x1 ) = T (~x2 ) =⇒ k~v ∈ im(T )

Por tanto, la imagen de una TL es un subespacio vectorial 22 de su espacio imagen.

4.5.2. Núcleo o Espacio Nulo de una TL

U Definición 4.11 (Núcleo de una TL)


Dada una TL entre un espacio dominio X a otro espacio imagen Y .

T
T : X 7−→ Y ; ~x = [x1 , x2 , · · · , xn ] −→ [y1 , y2 , · · · , ym ] = ~y

Se denomina núcleo o espacio nulo de la TL al conjunto de ~x perteneciente al espacio


dominio de T , cuya imagen es el vector nulo ~0 ∈ Y del espacio imagen. Por tanto, el núcleo
de T serán las soluciones del SEL homogéneo A~x = ~0.

ker(T ) = (~x ∈ X : T (~x) = A~x = ~0)

! Nota 4.5. Dada una TL, T : X 7−→ Y , el núcleo es un determinado subconjunto del espacio dominio, ker(T ) ⊆ X.
Ver en la página 97 una aclaración sobre el tipo de subconjunto que es (subespacio vectorial).

El núcleo 23 de una matriz A ∈ Rm×n coincide con el núcleo de la TL que define dicha matriz.
~y = T (~x) = A~x =⇒ ker(T ) = ker(A)

22 Ver la Definición 2.9, página 32.


23 Ver la Sección 3.6, página 70.

Pedro José Hernando Oter Clases de Álgebra


96 TEMA 4: Transformaciones Lineales

P Ejemplo 4.16. Encontrar el núcleo de la TL de T :



R3 7−→ R2 definida por:

 
x1
1 1 1  x2 
T (~x) =
1 2 3
x3

Solución: El núcleo de T son las soluciones del sistema A~x = ~0. Resolviendo dicho sistema
mediante el método de Gauss-Jordan24 :
     
1 1 1 0 F −F1 1 1 1 0 F −F2 1 0 −1 0
−−2−−→ −−1−−→
1 2 3 0 0 1 2 0 0 1 2 0
   
x1 1
Solución25 del SEL: x3 = t, x2 = −2t, x1 = t =⇒ ~x =  x2  = t  −2 
x3 1
R
En este caso el núcleo de T es por tanto, la recta en 3 que pasando por el origen, tiene por
vector director [1, −2, 1].
   
 1 
ker(T ) = t  −2  ; ∀t ∈
 
R
1

P Ejemplo 4.17. Encontrar el núcleo de la



TL T : R5 7−→ R4 definida por la matriz:

1 5 4 3 2
 1 6 6 6 6 
A=  1

7 8 10 12 
1 6 6 7 8

Solución: Aplicando Gauss-Jordan26 se obtiene la matriz escalonada reducida equivalente:


     
1 5 4 3 2 1 0 −6 −12 −18 1 0 −6 0 6
 0 1 2 3 4   0 1 2 3 4   0 1 2 0 −2 
A=  
 0 2 4 7 10  ∼  0
∼ 
0 0 1 2   0 0 0 1 2 
0 1 2 4 6 0 0 0 1 2 0 0 0 0 0
   
x1 6s − 6t
 x2   −2s + 2t 
   
Solución del SEL: ~x =   
 x3  =  s
 x4   −2t 
x5 t
(Continúa en la página siguiente)

24 Ver
la Sección 1.7, página 21.
25 Comose puede apreciar de los cálculos del problema, al aplicar el método de Gauss-Jordan en la determinación
del núcleo no es necesario incluir la matriz ampliada completa, ya que el vector de ceros independiente permanece
inalterable con las operaciones.
26 En este caso y para simplificar como se ha visto en el ejemplo anterior, no incluimos el vector de términos

independientes (ceros).

Clases de Álgebra Pedro José Hernando Oter


4.5. Imagen y Núcleo de una TL 97

P Ejemplo 4.17 (Continuación).


El núcleo de la TL corresponde entonces con un hiperplano de dimensión 2 en R5 dado por:
     

 6 −6 


 
  
 −2 
 2
 


ker(T ) = s  1  + t 

 
 0 ; ∀s, t ∈ R

  0  −2  


 

0 1

Propiedades del Núcleo de una TL

Dada una TL entre un espacio dominio X a otro espacio imagen Y : T : X 7−→ Y


• El vector nulo del espacio dominio, ~0 ∈ X, está contenido en el ker(T ).
• El núcleo de T es cerrado respecto a la suma:

~v1 + ~v2 ∈ ker(T ) ; ∀~v1 , ~v2 ∈ ker(T )

• El núcleo de T es cerrado con respecto a la multiplicación por un escalar:

k~v ∈ ker(T ) ; ∀~v ∈ ker(T ), k ∈ R

 Demostración 4.3
• A~0 = ~0 =⇒ ~0 ∈ ker(T )
 
A~v1 = ~0
• Sean ~v1 , ~v2 ∈ ker(T ) =⇒ =⇒ A(~v1 +~v2 ) = A~v1 +A~v2 = ~0+~0 = ~0
A~v2 = ~0

• Sea ~v ∈ ker(T ) y k ∈ R =⇒ A(k~v ) = k(A~v ) = k~0 = ~0

Por tanto, el núcleo de una TL es un subespacio vectorial de su espacio dominio.

4.5.3. Nulidad y Rango de una TL

U Definición 4.12 (Nulidad de una TL)


R R
La dimensión 27 del núcleo de una TL, T : n 7−→ m , definida por ~y = T (~x) = A~x,
se denomina nulidad de la transformación lineal (o de la matriz A asociada a dicha
transformación). Se representa por nul(T ), (o nul(A)):

nul(T ) = dim(ker T ) = dim(ker A) = nul(A)

27 Ver la Definición 2.21, página 36.

Pedro José Hernando Oter Clases de Álgebra


98 TEMA 4: Transformaciones Lineales

La nulidad es la dimensión de la solución del sistema homogéneo 28 A~x = ~0, y por tanto coincide
con el número de parámetros de su solución, (que a su vez, coincide con el número de filas nulas que
contiene una matriz escalonada equivalente 29 de A).

U Definición 4.13 (Rango de una TL)


R R
La dimensión de la imagen de una TL, T : n 7−→ m , definida por ~y = T (~x) = A~x, se
denomina rango de T .
rang(T ) = dim(im T )

El concepto de rango ya fue definido en el Tema 3 sobre matrices30 y como se verá en el siguiente
teorema, está íntimamente relacionado con el rango de una TL.

R Teorema 4.2
El rango de una TL coincide con el rango de su matriz asociada A:

rang(T ) = dim(im T ) = dim(im A) = rang(A)

 Demostración 4.4
Dada una TL: ~y = A~x

1. La imagen de T es el subespacio del espacio imagen que posee solución en el SEL:


A~x = ~y .
2. La dim(T ) coincide con el número de columnas linealmente independientes de A.
3. El número de columnas linealmente independientes coincide con el número de filas no
nulas en la matriz escalonada equivalente y por tanto, coincide con el rang(A).

Por tanto, si T : Rn 7−→ Rm , ~y = T (~x) = A~x :


dim(im(T )) = m - Num. parámetros libres de la sol. = m - Num. filas nulas de A = rang(A)

A continuación se verá un importante teorema que establece la relación que existe entre la nulidad
y el rango de una TL.

28 Ver la Sección 1.8, página 23.


29 Ver la Definición 1.23, página 18.
30 Ver la Definición 3.18, página 71.

Clases de Álgebra Pedro José Hernando Oter


4.5. Imagen y Núcleo de una TL 99

R Teorema 4.3 (Teorema del Rango de las TL)


R R
Dada una TL, T : n 7−→ m , con matriz asociada A ∈ Rm×n , entonces se verifica:
rang(T ) + nul(T ) = n

! Nota 4.6. Tener que n representa la dimensión del espacio dominio de la TL y por tanto es el número de columnas
de la matriz asociada A.

 Demostración 4.5
Ver el Teorema 3.6, página 71.

Las siguientes ecuaciones son equivalentes:

dim(ker T ) + dim(im T ) = n

dim(ker A) + dim(im A) = n
nul(A) + rang(A) = n

Resumen
De forma esquemática, podemos representar el “funcionamiento” de una TL y la relación entre los
elementos que la definen: espacio dominio, espacio imagen31 , núcleo e imagen de la transformación,
de la siguiente forma:

Imagen
Núcleo
0
ker(T)
im(T)

Espacio Dominio Espacio Imagen

31 Ver la Definición 4.1, página 77.

Pedro José Hernando Oter Clases de Álgebra


100 TEMA 4: Transformaciones Lineales

4.5.4. Tipos de TL

Dada una transformación lineal, T : Rn 7−→ Rm , definida por ~y = T (~x) = A~x. Entonces32 :
• Si dim(im(T )) = m ⇐⇒ T es sobreyectiva.

• Si ker(T ) = {~0} ⇐⇒ T es inyectiva.


• T es invertible si es biyectiva. En este caso, a la TL se le denomina Isomorfismo. Se dice
R R
entonces que los espacios dominio n e imagen m son isomorfos.

 Demostración 4.6
• Si dim(im(T )) = m ⇐⇒ T es sobreyectiva.
R
Si dim(im(T )) = m, todo elemento del espacio imagen ( m ) es imagen de algún
R
elemento del espacio dominio ( n ), y por tanto T es sobreyectiva.
• Si ker(T ) = {~0} ⇐⇒ T es inyectiva.
Si ker(T ) = {~0} =⇒ la única solución de A~x = ~0 es ~x = ~0.
R
Dados ~u, ~v ∈ n , dos vectores del espacio dominio de T , vamos a ver bajo que
condiciones T (~u) = T (~v ).

T (~u) = T (~v ) ; T (~u)−T (~v ) = ~0 ; T (~u−~v ) = ~0 =⇒ Sol. única ~u−~v = ~0 =⇒ ~u = ~v

Que es la definición de una función inyectiva.


• T es invertible si es biyectiva.
Ver la Sección 3.8, página 73.
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

32 Ver el Apéndice B.13.3, página 272, las definiciones de funciones inyectiva, sobreyectiva y biyectiva.

Clases de Álgebra Pedro José Hernando Oter


TEMA 5
Bases

Contenido
5.1 R
Bases en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.1.1 Coordenadas y Matriz asociada a una Base . . . . . . . . . . . . . . . . . 103
5.2 Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
5.2.1 Matriz de Cambio de Base . . . . . . . . . . . . . . . . . . . . . . . . . . . 106

101
102

Clases de Álgebra
Bases

Coordenadas Cambio de Base

Matriz Asociada a una Base Vector de Coordenadas Propiedades Matriz de Cambio de Base Teoremas

Pedro José Hernando Oter


TEMA 5: Bases
5.1. Bases en Rn 103

5.1. Bases en Rn
Recordatorio

• Dado un sistema de vectores S, subconjunto de otro sistema de vectores V , S ⊂ V , se dice


que S es un conjunto o sistema generador1 de V , si todo vector ~v ∈ V es linealmente
dependiente de S.
• Una base2 de un conjunto de vectores V es un conjunto generador de V formado por vectores
linealmente independiente.
• Al número de vectores que contiene cualquier base de un conjunto de vectores V se denomina
dimensión3 de V .

5.1.1. Coordenadas y Matriz asociada a una Base

U Definición 5.1 (Coordenadas de un Vector respecto una Base)


R
Sea una base B = {~v1 , · · · , ~vm } de un subespacio W ⊆ n de dim(W ) = m. Cualquier vector
~x ∈ W se puede escribir de forma única como:

~x = c1 v~1 + c2~v2 + · · · + cm~vm

Los escalares c1 , · · · , cm se denominan coordenadas de ~x respecto de la base B y el


vector,  
c1
[~x]B =  ... 
 

cm
se denomina vector de coordenadas de ~x respecto de la base B.

U Definición 5.2 (Matriz Asociada a una Base)


La definición de un vector ~x ∈ W en una base B de W se puede expresar como una TL4 de la
forma:  
c1
~x = c1 v~1 + c2~v2 + · · · + cm~vm = PB [~x]B = [~v1 · · · ~vm ]  ... 
 

cm
R
donde PB = [~v1 · · · ~vm ] ∈ n×m es la matriz asociada 5 a la TL que define la base y se
denomina matriz asociada a la base B.

1 Ver la Definición 2.19, página 36.


2 Ver la Definición 2.20, página 36.
3 Ver la Definición 2.21, página 36.
4 Ver la Definición 4.1, página 77.
5 Ver la Definición 4.2, página 78.

Pedro José Hernando Oter Clases de Álgebra


104 TEMA 5: Bases

P Ejemplo 5.1. Sea la base B de R2 formada por los vectores ~v1 = [3, 1]T y ~v2 = [−1, 3]T .
a) Si ~x = [10, 10]T , encontrar [~x]B .
b) Si [~x]B = [2, −1]T , encontrar ~x.
Solución:

a) Tenemos que encontrar el vector de coordenadas del vector ~x en la base B.


        
10 3 −1 3 −1 c1
~x = c1~v1 + c2~v2 = PB [~x]B =⇒ = c1 + c2 =
10 1 3 1 3 c2

Resolviendo el SEL:
      
3 −1 10 0 −10 −20 c2 = 2 4
→ =⇒ =⇒ [~x]B =
1 3 10 10 0 40 c1 = 4 2

b) Tenemos que encontrar el vector resultado de la combinación lineal:


       
c1 3 −1 7
~x = PB [~x]B = [~v1 ~v2 ] = c1~v1 + c2~v2 = 2 −1 =
c2 1 3 −1
 
7
=⇒ ~x =
−1

R Teorema 5.1
Sea B = {~v1 , · · · , ~vn } una base del subespacio W ⊆ Rm , y sean ~x, ~y ∈ W y α ∈ R. Entonces:
1. [~x + ~y ]B = [~x]B + [~y ]B .
2. [α~x]B = α[~x]B .

 Demostración 5.1
Sean:

[~x]B = [c1 , · · · , cn ] =⇒ ~x = c1~v1 + · · · + cn~vn
[~y ]B = [d1 , · · · , dn ] =⇒ ~y = d1~v1 + · · · + dn~vn
Aplicando propiedades de los espacios vectoriales6 se tiene:

~x +~y = (c1 +d1 )~v1 +· · ·+(cn +dn )~v1 =⇒ [~x +~y ]B = [(c1 +d1 ), · · · , (cn +dn )] = [~x]B +[~y ]B

α~x = α(c1~v1 + · · · + cn~v1 ) =⇒ [c~x]B = [αc1 , · · · , αcn ] = α[~x]B

6 Ver la Sección 2.2, página 28.

Clases de Álgebra Pedro José Hernando Oter


5.2. Cambio de Base 105

Las dos propiedades del Teorema 5.1 se pueden resumir en una sóla7 :

[α1~v1 + · · · + αn~vn ]B = α1 [~v1 ]B + · · · + αn [~vn ]B

Esto implica que las coordenadas de una combinación lineal de vectores en una base determinada
coincide con la combinación lineal de las coordenadas de los vectores en la misma base.

R Teorema 5.2
R
En el espacio n las coordenadas de cualquier vector ~x ∈ Rn en una determinada base
B = {~v1 , · · · , ~vn }, se pueden obtener como:
 
c1
~x = PB [~x]B = [~v1 , · · · , ~vn ]  ... 
 
=⇒ [~x]B = PB−1 ~x
cn

 Demostración 5.2
Como en este caso la matriz PB es cuadrada y con vectores columna linealmente
independientes (por ser una base), siempre es invertible.

5.2. Cambio de Base


En la práctica interesa trabajar en un determinado sistema de coordenadas definido por una
determinada base. Vamos a ver como se realiza el cambio de base en espacios n . R
P R
Ejemplo 5.2. Sea un subespacio vectorial W ⊂ n . Dado el vector ~x = [−1, 1, 1]T ∈ W ,
determinar los vectores de coordenadas del vector ~x, en las dos bases del Ejemplo 6.5: BW =
{~v1 , ~v2 } = {[1, 1, 0]T , [−2, 0, 1]T } y CW = {~u1 , ~u2 } = {[1, 1, 0]T , [1, −1, −1]T }
Solución: Hay que resolver dos SEL, uno con cada base.
a) Con respecto a la primera base BW = {~v1 , ~v2 } = {[1, 1, 0]T , [−2, 0, 1]T }, tenemos que
resolver el sistema:
       
1 −2 1 −2   −1
c
c1  1  + c2  0  =  1 0  1 = 1
c2
0 1 0 1 1

Cuya solución es c1 = 1, c2 = 1, por tanto el vector de coordenadas es: [~x]B = [1, 1]T
(Continúa en la página siguiente)

7 Al igual que se hizo en el Teorema 4.1, página 79, con las propiedades de una TL, que fueron resumidas en la

página 80.

Pedro José Hernando Oter Clases de Álgebra


106 TEMA 5: Bases

P Ejemplo 5.2 (Continuación).

b) Con respecto a la segunda base CW = {~u1 , ~u2 } = {[1, 1, 0]T , [1, −1, −1]T } , tenemos que
resolver el sistema:
       
1 1 1 1   −1
c
c1  1  + c2  −1  =  1 −1  1 =  1 
c2
0 −1 0 −1 1

Cuya solución es c1 = 0, c2 = −1, por tanto el vector de coordenadas es [~x]C = [0, −1]T .

5.2.1. Matriz de Cambio de Base

U Definición 5.3 (Matriz de Cambio de Base)


Sean B = [~v1 , · · · , ~vk ] y C = [~u1 , · · · , ~uk ] dos bases de un mismo subespacio vectorial W ⊆ n R
de dimensión k ≤ n. Se denomina matriz de cambio de base de B a C a la matriz de n × k
cuyas columnas son los vectores de coordenadas de B con respecto a C : [~v1 ]C , · · · , [~vk ]C . Se
denota por PC←B .
PC←B = [[~v1 ]C , · · · , [~vk ]C ]

Toda matriz de cambio de base PC←B en un subespacio vectorial de dimensión k, es una matriz
cuadrada e invertible de dimensión k × k.

R Teorema 5.3 (Cambio de Base)


Sean B = [~v1 , · · · , ~vk ] y C = [~u1 , · · · , ~uk ] bases de un espacio vectorial W ⊆ Rn de dimensión
k ≤ n, y PC←B la matriz de cambio de base de B a C. Entones:

[~x]C = PC←B [~x]B ; ∀~x ∈ W

 Demostración 5.3
Sea ~x ∈ W y [~x]B = [c1 , · · · , ck ]T , entonces ~x = c1~v1 + · · · + ck~vk , y por tanto:
 
c1
[~x]C = [c1~v1 + · · · + ck~vk ]C = c1 [~v1 ]C + · · · + ck [~vk ]C = [[~v1 ]C , · · · , [~vk ]C ]  ...  = PC←B [~x]B
 

ck

Clases de Álgebra Pedro José Hernando Oter


5.2. Cambio de Base 107

P Ejemplo 5.3. Encontrar la matriz de cambio de base de B a C, PC←B , correspondiente a las


bases del Ejemplo 6.5, y aplicarla al vector ~x = [−1, 1, 1]T . Comprobar el resultado con el
obtenido en el Ejemplo 5.2.
Solución: PC←B = [[~v1 ]C , · · · , [~vn ]C ]
   
  1 1   1    
c1  1 −1  c1 =  1  − Sol. c1 1
[~v1 ]C = : PC [~v1 ]C = ~v1 =⇒ −−→ =
c2 c2 c2 0
0 −1 0
   
  1 1   −2    
c1   c 1   Sol. c1 −1
[~v2 ]C = : PC [~v2 ]C = ~v2 =⇒ 1 −1 = 0 −−−→ =
c2 c2 c2 −1
0 −1 1
 
1 −1
PC←B =
0 −1

Comprobación: según la solución del Ejemplo 5.2, el vector ~v en la base B es [~x]B = [1, 1]T .
Vamos a determinar su valor en la base C utilizando la matriz de cambio de base PC←B .
    
1 −1 1 0
[~x]C = PC←B [~x]B = =
0 −1 1 −1

que coincide con lo calculado en el Ejemplo 5.2.

R Teorema 5.4
Sean B = [~v1 , · · · , ~vn ] y C = [~u1 , · · · , ~un ] bases del espacio Rn y sea PC←B la matriz de
cambio de base de B a C. Entonces:
1. PC←B es la única matriz M tal que: M [~x]B = [~x]C ; ∀~x ∈ Rn .
2. PC←B es invertible.
3. (PC←B )−1 = PB←C .

 Demostración 5.4
R
1. Sea M una matriz con la propiedad M [~x]B = [~x]C para todo ~x ∈ n . Tomando ~x = ~ui ,
(i-ésima componente de la base B), se tiene que [~x]B = [~ui ]B = ~ei y por tanto:

M [~x]B = M [~ui ]B = M~ei = [~ui ]C

que corresponde con la i-ésima columna de la matriz MC←B . Por tanto, para toda i se
tiene que M = PC←B .
(Continúa en la página siguiente)

Pedro José Hernando Oter Clases de Álgebra


108 TEMA 5: Bases

 Demostración 5.4 (Continuación)


2. Como B = {~u1 , · · · , ~un } es un conjunto linealmente independiente, P [~x]B = [~x]C =
{[~u1 ]C , · · · , [~un ]C } también lo es, ya que la única posibilidad de que se cumpla:

c1 [~u1 ]C + · · · + cn [~un ]C = [c1 ~u1 + · · · + cn ~un ] = ~0

es que c1 = · · · = cn = 0, que es la definición de independencia lineal de vectores8 . Por


tanto P [~x]B = [~x]C es invertible.

3. Como PC←B es invertible y:

PC←B [~x]B = [~x]C =⇒ [~x]B = (PC←B )−1 [~x]C

y debido a la unicidad de la matriz de cambio de base, tenemos que PB←C = (PC←B )−1 .

R Teorema 5.5
Sean B = [~v1 , · · · , ~vn ] y C = [~u1 , · · · , ~un ] bases del espacio Rn , entonces:
PB←C = (PB )−1 PC ; PC←B = (PC )−1 PB

 Demostración 5.5
R
Sea ~x ∈ n , entonces:
  
~x = PB [~x]B [~x]B = (PB )−1 PC [~x]C = PB←C [~x]C
=⇒ PB [~x]B = PC [~x]C =⇒
~x = PC [~x]C [~x]C = (PC )−1 PB [~x]B = PC←B [~x]B
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

8 Ver la Sección 2.4.2, página 33.

Clases de Álgebra Pedro José Hernando Oter


TEMA 6
Ortogonalidad

Contenido
6.1 R
Ortogonalidad en n . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.1 Conjunto Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
6.1.2 Vector Ortogonal a un Subespacio . . . . . . . . . . . . . . . . . . . . . . . 112
6.2 Bases Ortogonales y Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.1 Bases Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113
6.2.2 Bases Ortonormales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 115
6.3 Matrices Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
6.3.1 Propiedades de las Matrices Ortogonales . . . . . . . . . . . . . . . . . . . 117
6.4 TL Ortogonales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5 Complemento Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 118
6.5.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . 119
6.5.2 Relaciones entre los Subespacios Fundamentales de una Matriz . . . . . . 119
6.6 Proyección Ortogonal sobre Subespacios . . . . . . . . . . . . . . . . . . . . . . . . 121
6.6.1 Propiedades del Complemento Ortogonal . . . . . . . . . . . . . . . . . . . 123
6.7 Proceso de Gram-Schmidt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 124
6.8 Factorización QR . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

109
110

Clases de Álgebra
Ortogonalidad

Conjunto Ortogonal Vector Ortogonal Bases Ortogonales Matrices Ortogonales TL Ortogonales Complemento Ortogonal Proy. Ortogonal Factorización QR
a un Subespacio sobre Subespacios

Bases Ortonormales Calculo Definición Propiedades Definición Propiedades Definición Propiedades Relación con Definiciones Propiedades Definición Cálculo
Sub. Fund. Mat.

Cambio de Base Proceso de Gram-Schmidt Vec. Perpendicular Teo. Descomp.


Ortogonal

Pedro José Hernando Oter


TEMA 6: Ortogonalidad
6.1. Ortogonalidad en Rn 111

6.1. Ortogonalidad en Rn
6.1.1. Conjunto Ortogonal

U Definición 6.1 (Conjunto Ortogonal)


Se dice que un conjunto de vectores {~v1 , ~v2 · · · , ~vk } de Rn es ortogonal si todos los pares de
vectores distintos del conjunto son ortogonales 1 :

~vi · ~vj = 0 si i 6= j ∀i, j = 1, 2, · · · , k

! Nota 6.1. Desde el punto de vista geométrico, los vectores de un conjunto ortogonal son mutuamente perpendiculares:
el ángulo entre ellos es π/2 = 90o .

P Ejemplo 6.1. La base canónica 2 {~e1 , · · · , ~en } de Rn es un conjunto ortogonal.


P Ejemplo 6.2. Demostrar que el conjunto V = {~v1 , ~v2 , ~v3 } ∈
[2, 1, −1], ~v2 = [0, 1, 1], y ~v3 = [1, −1, 1].
R3 es ortogonal, donde ~v1 =

Solución: Tenemos que demostrar que todo producto escalar entre vectores distintos del conjunto
es siempre cero. 
 ~v1 · ~v2 = 2 ∗ 0 + 1 ∗ 1 − 1 ∗ 1 = 0
~v1 · ~v3 = 2 ∗ 1 − 1 ∗ 1 − 1 ∗ 1 = 0

~v2 · ~v3 = 0 ∗ 1 − 1 ∗ 1 + 1 ∗ 1 = 0

R Teorema 6.1
Todo conjunto ortogonal de vectores no nulos {~v1 , · · · , ~vk } de Rn , es un conjunto linealmente
independiente 3 .

 Demostración 6.1
Siguiendo la definición de conjunto linealmente independiente de vectores, vamos a
R
determinar qué escalares c1 , · · · , ck ∈ verifican c1~v1 + · · · + ck~vk = 0.
Para cualquier vector ~vi de un conjunto ortogonal se tendría:

(c1~v1 + · · · + ck~vk ) · ~vi = 0 ; c1 (~v1 · ~vi ) + · · · + ci (~vi · ~vi ) + · · · + ck (~vk · ~vi ) = 0

Todos los productos (~vj · ~vi ) son cero salvo para j = i, por tanto

ci (~vi · ~vi ) = 0 =⇒ ci = 0

ya que ~vi 6= ~0 y por tanto (~vi · ~vi ) 6= 0. Como esta expresión es válida para cualquier
i = 1, · · · , k, implica que un conjunto ortogonal es un conjunto linealmente independiente.

1 Ver la definición de vectores ortogonales en la Sección 2.9, página 45.


2 Ver la Sección 2.5.1, página 36.
3 Ver la Sección 2.4.2, página 33.

Pedro José Hernando Oter Clases de Álgebra


112 TEMA 6: Ortogonalidad

6.1.2. Vector Ortogonal a un Subespacio

U Definición 6.2 (Vector Ortogonal a un Subespacio)


R R
Sea W un subespacio de n . Se dice que un vector ~v ∈ n es ortogonal al subespacio W
si ~v es ortogonal a todos los vectores de W .

R Teorema 6.2
R
Un vector ~v ∈ n es ortogonal a un subespacio W ⊂ Rn si y sólo si es ortogonal a todos
los vectores que generan4 el subespacio.

 Demostración 6.2
R R
Sea ~v ∈ n y un subespacio W ⊂ n de dimensión dim(W ) = k con una base cualquiera
B = {~u1 , · · · , ~uk }. Todo vector w
~ ∈ W se puede expresar entonces como:

~ = c1 ~u1 + · · · + ck ~uk
w

Cualquier vector ~v ∈ Rn será ortogonal a cualquier w~ ∈ W si:


~v · w
~ = ~v · (c1 ~u1 + · · · + ck ~uk ) = c1 (~v · ~u1 ) + · · · + ck (~v · ~uk )

De forma que si:

~v · ~ui = 0 ; 1 ≤ i ≤ k ⇐⇒ ~v · w
~ =0

P Ejemplo 6.3. Determinar si el vector ~v = [−1, −1, −1] ∈


R
W ⊂ 3 definido por:
R3 es ortogonal al subespacio

W : x+y+z =0
Solución: Vamos a encontrar primero una base de W . Expresando W en forma vectorial:
          
 x = t x 1 0  1 0 
y = s =⇒  y  = t  0  + s  1  =⇒ BW =  0  ,  1 
  
z = −t − s z −1 −1 −1 −1

Claramente podemos observar que el vector ~v es ortogonal a los dos vectores de la base y por tanto
es ortogonal a W . Por otra parte, desde un punto de vista geométrico, es fácil comprobar que ~v
es paralelo al vector normal al plano W , ~n = [1, 1, 1] y por tanto es perpendicular (ortogonal) a
todo vector del plano.

4 Es decir, a cualquier conjunto generador y más concretamente, a cualquiera de sus bases.

Clases de Álgebra Pedro José Hernando Oter


6.2. Bases Ortogonales y Ortonormales 113

6.2. Bases Ortogonales y Ortonormales


6.2.1. Bases Ortogonales

U Definición 6.3 (Base Ortogonal)


Una base ortogonal de un subespacio 5 W de Rn es una base 6 de W constituida por un
conjunto ortogonal.

P Ejemplo 6.4. En el Ejemplo 6.2, los tres vectores son ortogonales y por tanto son linealmente
independientes. Como además su número (3) coincide con la dimensión 7 del espacio al que
R
pertenecen 3 , forman una base ortogonal de 3 . R

P Ejemplo 6.5. Encontrar una base cualquiera y una base ortogonal del subespacio W de
dado por 
R3
W = [x, y, z] : x − y + 2z = 0
Solución: Una base será un conjunto linealmente independiente de vectores que cumplan esa
ecuación. Despejando x = y − 2z y tomando los parámetros y = t y z = s se tiene que el
subespacio W formado por todos los vectores incluidos en el plano es:
       
x t − 2s 1 −2
y= t  = t  1  + s  0  = t~v1 + s~v2
z s 0 1

Por tanto dim(W ) = 2. Como ~v1 y ~v2 son linealmente independientes (no paralelos), ambos
forman una base de W :
BW = {~v1 , ~v2 }
Esta base no es ortogonal ya que ~v1 ·~v2 = −2 6= 0. Una base ortogonal se formará con dos vectores
que pertenezcan al plano y sean ortogonales. Sean esos vectores ~u1 = [a, b, c] y ~u2 = [d, e, f ],
entonces deben de cumplir:
 
 a − b + 2c = 0
Cumplen la ec. del plano.
d − e + 2f = 0

ad + be + cf = 0 Ortogonalidad

Este es un sistema no lineal de 3 ecuaciones y 6 incógnitas, por lo puede tener infinitas soluciones.
Vamos a encontrar una solución simple, fijando algunos valores y determinando el resto:

Ec. 1
a = 1, b = 1 −−−−→ c = 0

Ec. 3
d = 1, e = −1 −−−−→ f = −1
(Continúa en la página siguiente)

5 Ver la Definición 2.9, página 32.


6 Ver la Definición 2.20, página 36.
7 Ver la Definición 2.21 y la Sección 2.5.2 en la página 36.

Pedro José Hernando Oter Clases de Álgebra


114 TEMA 6: Ortogonalidad

P Ejemplo 6.5 (Continuación).


Por tanto, una base ortogonal de W será el conjunto:
   
 1 1 
BW = {~u1 , ~u2 } =  1  ,  −1 
 
0 −1

R Teorema 6.3
Sea B = {~v1 , · · · , ~vk } una base ortogonal de un subespacio W ⊆ Rn de dimensión k ≤ n y
sea ~x ∈ W . Entonces los escalares únicos8 c1 , · · · , ck tales que,

~x = c1~v1 + · · · + ck~vk = PB [~x]B

están dados por:


~vi · ~x
ci = ; ∀i = 1, · · · , k
~vi · ~vi

 Demostración 6.3
Como B es una base de W , existen los escalares únicos c1 , · · · , ck tales que ~x = c1~v1 +· · ·+ck~vk ,
por tanto:

~vi · ~x = ~vi · (c1~v1 + · · · + ck~vk ) = c1 (~vi · ~v1 ) + · · · + ci (~vi · ~vi ) + · · · + ck (~vi · ~vk ) =

~vi · ~x
= 0 + · · · + ci (~vi · ~vi ) + 0 = ci (~vi · ~vi ) =⇒ ci =
~vi · ~vi

P Ejemplo 6.6. En la segunda base (ortogonal) del Ejemplo 6.5, B = {~u1 , ~u2 }
{[1, 1, 0], [1, −1, −1]}, determinar el vector de coordenadas del vector ~x = [−1, 1, 1] ∈ W .
=

Solución:
~u1 · ~x 0 ~u2 · ~x −3
c1 = = =0 ; c2 = = = −1
~u1 · ~u1 2 ~u2 · ~u2 3
Por tanto el vector de coordenadas es [~x]B = [0, −1], igual que el obtenido en el Ejemplo 5.2,
pero sin necesidad de resolver ningún SEL.

8 Estos coeficientes corresponden con las coordenadas del vector ~


x en la base B. Ver Sección 5.1, página 103.

Clases de Álgebra Pedro José Hernando Oter


6.2. Bases Ortogonales y Ortonormales 115

6.2.2. Bases Ortonormales

U Definición 6.4 (Conjunto Ortonormal y Base Ortonormal)


R
• Se dice que un conjunto de vectores {~v1 , ~v2 · · · , ~vk } de n es ortonormal si es un
conjunto ortogonal 9 de vectores unitarios 10 .

0 si i 6= j
~vi · ~vj =
1 si i = j

• Una base ortonormal es aquella que está formada por un conjunto ortonormal de
vectores.

Dada una base ortogonal 11 {~v1 , · · · , ~vk } se puede obtener fácilmente una base ortonormal
{~u1 , · · · , ~uk }, simplemente normalizando 12 cada uno de los vectores ~vi de la base.
1 1
~ui = ~vi = √ ~vi
k~vi k ~vi · ~vi

R Teorema 6.4
Sea B = {~u1 , · · · , ~uk } una base ortonormal de un subespacio W ⊆ Rn de dimensión k y sea
~x ∈ W entonces:
~x = (~u1 · ~x)~u1 + · · · + (~um · ~x)~uk

 Demostración 6.4
Trivial según el Teorema 6.3 y teniendo en cuenta que cualquier vector ortonormal ~u cumple

que ~u · ~u = 1, ya que su norma es la unidad, k~uk = ~u · ~u = 1.

Las bases ortogonales y ortonormales simplifican de forma considerable los cálculos de cambios de
base13 .

9 Ver la Definición 6.1, página 111.


10 Ver la Definición 2.24, página 43.
11 Ver la Definición 6.3, página 113.
12 Ver la Sección 2.7.5, página 43.
13 Ver la Sección 5.2, página 105.

Pedro José Hernando Oter Clases de Álgebra


116 TEMA 6: Ortogonalidad

6.3. Matrices Ortogonales

U Definición 6.5 (Matriz Ortogonal)


Se dice que una matriz cuadrada Q ∈ Rn×n es ortogonal si sus vectores columna forman un
conjunto ortonormal de vectores 14 .

! Nota 6.2.
• No se utiliza el término matriz ortonormal, aunque quizás sería más intuitivo.
• Es habitual utilizar la notación Q para referirse a matrices ortogonales.

R Teorema 6.5
Toda matriz ortogonal Qn×n verifica:

QT Q = In

 Demostración 6.5
R
Si ~u, ~v ∈ n son vectores columna entonces15 :

~x · ~y = ~xT ~y

Por tanto, el producto matricial QT Q corresponde con todos los posibles productos escalares
entre las columnas de Q. El resultado será 1 si coinciden columnas iguales dando lugar a
los elementos de la diagonal, ó 0 si las columnas son distintas dando lugar al resto de los
elementos.   
1
 2  
  
QT Q =  ..  1 2 · · · n  = In
 .  
n

R Teorema 6.6
Una matriz Q es ortogonal si y sólo si:

Q−1 = QT ⇐⇒ Q es una Matriz Ortogonal

14 Ver la Definición 6.4, página 115.


15 Ver la Sección 3.1.6, página 56.

Clases de Álgebra Pedro José Hernando Oter


6.4. TL Ortogonales 117

 Demostración 6.6
Según el Teorema 6.5, página 116, una matriz ortogonal Q verifica QT Q = In . Como
los vectores columna de Q son linealmente independientes16 existe Q−1 , y por tanto
multiplicando ambas partes de la igualdad anterior por la inversa, Q−1 = QT , se tiene:

QT Q = In ; QT QQ−1 = In Q−1 ; QT = Q−1


| {z } | {z }
In Q−1

R Teorema 6.7
Los vectores fila de una matriz ortogonal Q forman un conjunto ortonormal de vectores.

 Demostración 6.7
QT = Q−1 ; QQT = I

6.3.1. Propiedades de las Matrices Ortogonales

Sea Q ∈ Rn×n una matriz ortogonal. Entonces


• Q~x · Q~y = ~x · ~y ; ∀~x, ~y ∈ Rn .
• kQ~xk = k~xk ; ∀~x ∈ Rn .
• La inversa Q−1 = QT también es una matriz ortogonal.
• Si A y B son matrices ortogonales de igual tamaño, entonces AB también es una matriz
ortogonal.

Demostración

• Si Q es ortogonal, QT Q = I, y por tanto se tiene:


Q~x · Q~y = (Q~x)T Q~y = ~xT QT Q~y = ~xT I~y = ~xT ~y = ~x · ~y
√ p p √ √
• kQ~xk = Q~x · Q~x = (Q~x)T Q~x = ~xT QT Q~x = ~xT ~x = ~x · ~x = k~xk
• Trivial.
• Si A y B son matrices ortogonales entonces:
(AB)−1 = B −1 A−1 = B T AT = (AB)T
por tanto AB es una matriz ortogonal.
16 Al ser ortogonales, ver el Teorema 6.1, página 111.

Pedro José Hernando Oter Clases de Álgebra


118 TEMA 6: Ortogonalidad

6.4. TL Ortogonales

U Definición 6.6 (TL Ortogonal)


R R
Una TL , T : n 7−→ n , ~y = T (~x) = A~x, se dice que es ortogonal si la matriz A ∈ Rn×n
que la define es ortogonal.

Las TL ortogonales preservan la longitud de los vectores transformados, ya que17 :

k~y k = kT (~x)k = kQ~xk = k~xk

P Ejemplo 6.7. Una rotación de vectores en


Y ~y
R2 con respecto al origen, corresponde con la TL:

 
θ ~x cos θ − sen θ
~y = T (~x) = ~x
sen θ cos θ

X
Esta TL es ortogonal ya que la matriz que define la transformación es ortogonal (al ser los
vectores columna y fila ortogonales). Claramente, la rotación preserva la longitud.

6.5. Complemento Ortogonal

U Definición 6.7 (Complemento Ortogonal)


R
Sea W un subespacio de n . El conjunto de todos los vectores ~v ∈ Rn ortogonales18 a W se
denomina complemento ortogonal de W , y se denota por W ⊥ .

W ⊥ = {~v ∈ Rn : ~v · w
~ =0 ; ∀w
~ ∈ W}

P R
Ejemplo 6.8. Si W es un plano de 3 que pasa por el origen y ` es una recta que pasando por
el origen19 es perpendicular al plano W (es decir, paralela al vector normal 20 al plano), entonces
todo vector ~v ∈ ` es perpendicular a W y por tanto W ⊥ = ` y `⊥ = W .

17 Ver la Sección 6.3.1, página 117.


18 Ver la Sección 6.1.2, página 112.
19 Notar que ambos, plano y recta, son subespacios vectoriales de
20 Ver el Apéndice B.8.3, página 260.
R3 , (ver la Definición 2.9, página 32).

Clases de Álgebra Pedro José Hernando Oter


6.5. Complemento Ortogonal 119

6.5.1. Propiedades del Complemento Ortogonal

Sea W un subespacio de Rn . Entonces


• W ⊥ es un subespacio de Rn .

• (W ⊥ )⊥ = W .
• W ∩ W ⊥ = {~0}.
• Si21 W = gen(w ~ k ), entonces ~v ∈ W ⊥ sii ~v · w
~ 1, · · · , w ~ i = 0, ∀i = 1, · · · , k.

6.5.2. Relaciones entre los Subespacios Fundamentales de una Matriz

Una matriz A ∈ Rm×n tiene asociados cuatro subespacios fundamentales 22


• fil(A), ker(A) ∈ Rn
• col(A), ker(AT ) ∈ Rm

R Teorema 6.8
R
Sea A ∈ m×n . Entonces:

(fil(A))⊥ = ker(A) ; (col(A))⊥ = (im(A))⊥ = ker(AT )

 Demostración 6.8
R
• Sea ~x ∈ n , entonces ~x ∈ (fil(A))⊥ sii es ortogonal a cada fila de A, y esto es lo mismo
que A~x = ~0 y por tanto ~x ∈ ker(A).
• Igual que antes, sustituyendo A por AT y teniendo en cuenta que fil(AT ) = col(A).

Toda matriz A ∈ Rm×n define una TL:


T : X 7−→ Y

donde:
• El dominio de T es X = Rn .
• La imagen de T es Y = im(T ) = im(A) = col(A), donde im(T ) ⊆ Rm .
• T envía ker(A) ⊆ X a ~0 ∈ Y .
• El complemento ortogonal de la imagen de T es ker(AT ) ⊆ Rm .
21 Ver la Nota 2.3, página 36.
22 Ver las definiciones de fil(A), col(A) y ker(A) en la Sección 3.6, página 70.

Pedro José Hernando Oter Clases de Álgebra


120 TEMA 6: Ortogonalidad

Esquemáticamente podemos relacionar estos conceptos de la siguiente forma:

ker(A) ker(AT )

TA
b b

fil(A) col(A)
Rn Rm

P  
R
Ejemplo 6.9. Sea W el subespacio de 5 generado por los vectores:
   
1 −1 0
 −3   1  −1 
     

~1 =  5  
~2 =  2  ~3 =  
w ; w ; w  4
 0  −2   −1 
5 3 5

Calcular una base de W ⊥ .


Solución: Resolución de forma matricial. El espacio generado por los vectores w
~ 1, w
~2 y w
~ 3 es
el mismo que col(A) de:  
1 −1 0
 −3 1 −1 
 
A=  5 2 4 

 0 −2 −1 
5 3 5
Del Teorema 6.8: W ⊥ = (col(A))⊥ = ker(AT )
   
1 −3 5 0 5 0 1 0 0 3 4 0
[AT |~0] =  −1 1 2 −2 3 0  −→  0 1 0 1 3 0 
0 −1 4 −1 5 0 0 0 1 0 2 0

Por tanto, ~y ∈ W ⊥ será y5 = t, y4 = s, y3 = −2t, y2 = −3t − s, y1 = −4t − 3s. Finalmente:


         

 −4 −3 
 −4 −3

 
  
 −3 
 −1 
 

  −3   −1 
   
W⊥ = t
  −2  + s  0  : t, s ∈
   R

= gen 

 −2  ,  0 
   
  0
  1 
  0   1 

 

1 0 1 0

Clases de Álgebra Pedro José Hernando Oter


6.6. Proyección Ortogonal sobre Subespacios 121

6.6. Proyección Ortogonal sobre Subespacios

U Definición 6.8 (Vector Perpendicular)


R
Dados dos vectores ~u, ~v ∈ n , se define el vector perpendicular a ~u según el vector ~v como:
~v
~u
 
~u · ~v
perp~u (~v ) = ~v − proy~u (~v ) = ~v − ~u
~u · ~u
perp~u(~v )
proy~u (~v)

Este vector es ortogonal a ~u con un tamaño proporcional a ~v .

R
Todo vector ~v ∈ n se puede definir entonces en función de cualquier otro vector ~u ∈ Rn no paralelo
a ~v de la siguiente forma:
~v = proy~u (~v ) + perp~u (~v )

U Definición 6.9 (Proyección Ortogonal sobre un Subespacio)


R
Sea un subespacio W ⊆ n y B = {~u1 , · · · , ~uk } una base ortogonal 23 de W .
R
Entonces, para cualquier vector ~v ∈ n se define la proyección ortogonal de ~v sobre W
como:
   
~u1 · ~v ~uk · ~v
proyW (~v ) = proy~u1 (~v ) + · · · + proy~uk (~v ) = ~u1 + · · · + ~uk
~u1 · ~u1 ~uk · ~uk

! Nota 6.3. Si la base B es ortonormal =⇒ ~


ui · ~
ui = 1.
   
~
u1 · ~v ~
uk · ~v
proyW (~v ) = proyu
~1 (~
v ) + · · · + proy u
~k (~
v ) = ~
u 1 + · · · + ~
uk = (~
u1 · ~v ) ~
u1 + · · · + (~
uk · ~v ) ~
uk
~
u1 · ~
u1 ~
uk · ~
uk

U Definición 6.10 (Vector Perpendicular a un Subespacio)


R
Sea un subespacio W ⊆ n . Para cualquier vector no nulo ~v ∈ Rn se define el vector
perpendicular a W como:
perpW (~v ) = ~v − proyW (~v )

23 La base debe ser obligatoriamente ortogonal para que la fórmula sea válida.

Pedro José Hernando Oter Clases de Álgebra


122 TEMA 6: Ortogonalidad

perpW (~v )
~v
p~1
~u1 p~2
~u2
W proyW (~v )

R R
Figura 6.1.: Proyección ortogonal de un vector ~v ∈ 3 sobre un subespacio W ⊂ 3 con base ortogonal B = {~ u1 , ~
u2 }.
Los vectores p~1 = proyu v) y p
~ 1 (~ ~2 = proyu v ) son las proyecciones ortogonales de ~v sobre cada uno de
~ 2 (~
los vectores de la base de W . Gráficamente se puede observar como proyW (~v ) = p ~1 + p~2 .

P R
Ejemplo 6.10. Sea W el plano en 3 con ecuación x − y + 2z = 0, y sea ~v = [3, −1, 2].
Encontrar la proyección ortogonal de ~v sobre W y la componente de ~v ortogonal a W .
Solución: Podemos resolverlo de dos formas:
• Forma 1: Utilizando razonamientos geométricos, a través del vector proyección ortogonal
y el vector perpendicular.

• Forma 2: Utilizando la proyección ortogonal sobre un subespacio.


Veamos a continuación dichas formas de resolución.
Forma 1
El vector perpW (~v ) lo podemos calcular como la proyección ortogonal del vector ~v sobre un vector
normal al plano ~n, perpW (~v ) = proy~n (~v ). Basándonos en la ecuación del plano, ~n = [1, −1, 2].

~v
perpW (~v ) W
proyW (~v )

proyW (~v ) = ~v + [−perpW (~v )] = ~v − perpW (~v )


~n · ~v [1, −1, 2] · [3, −1, 2] 4
perpW (~v ) = proy~n (~v ) = ~n = [1, −1, 2] = [1, −1, 2]
~n · ~v [1, −1, 2] · [1, −1, 2] 3

perpW (~v ) = [4/3, −4/3, 8/3]

proyW (~v ) = ~v − perpW (~v ) = [3, −1, 2] − [4/3, −4/3, 8/3] = [5/3, 1/3, −2/3]

proyW (~v ) = [5/3, 1/3, −2/3]


(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


6.7. Proceso de Gram-Schmidt 123

P Ejemplo 6.10 (Continuación).


Forma 2
En el Ejemplo 6.5 se encontró una base ortogonal a este plano, B = {~u1 , ~u2 } con ~u1 = [1, 1, 0] y
~u2 = [1, −1, −1].
   
~u1 · ~v ~u2 · ~v
proyW (~v ) = p~1 + p~2 = proy~u1 (~v ) + proy~u2 (~v ) = ~u1 + ~u2
~u1 · ~u1 ~u2 · ~u2

perpW (~v ) = ~v − proyW (~v )


Por tanto:          
1 1 1 2/3 5/3
2  2
proyW (~v ) = 1 + −1  =  1  +  −2/3  =  1/3 
2 3
0 −1 0 −2/3 −2/3
     
3 5/3 4/3
perpW (~v ) =  −1  −  1/3  =  −4/3 
2 −2/3 8/3
Notar que el vector perpW (~v ) es paralelo al vector normal al plano ~n = [1, −1, 2].

R Teorema 6.9 (Teorema de la Descomposición Ortogonal)


R R
Sea W ⊆ n y sea un vector ~v cualquiera de n . Entonces existen vectores únicos w
~ ∈W y
~ ⊥ ∈ W ⊥ tales que:
w
~v = w ~⊥
~ +w

 Demostración 6.9
Corresponden con los vectores w
~ = proyW (~v ) y w
~ ⊥ = perpW (~v ) ya que:

w ~ ⊥ = proyW (~v ) + perpW (~v ) = proyW (~v ) + (~v − proyW (~v )) = ~v


~ +w

6.6.1. Propiedades del Complemento Ortogonal

• Sea un subespacio W ⊆ Rn , entonces24 :


dim(W ) + dim(W ⊥ ) = n

• Sea la matriz A ∈ R m×n
, entonces:
fil(A) : rang(A) + nul(A) = n
col(A) : rang(A) + nul(AT ) = m
Nota: rang(A) = dim(fil(A)) = dim(col(A)).

24 Esto no quiere decir que se rellene todo el espacio Rn con W y W ⊥ .

Pedro José Hernando Oter Clases de Álgebra


124 TEMA 6: Ortogonalidad

6.7. Proceso de Gram-Schmidt


El proceso de Gram-Schmidt es un método sencillo y sistemático para construir una base ortogonal
(u ortonormal si se normaliza) de cualquier subespacio de n . R
Sea B = {~x1 , · · · , ~xm } una base de un subespacio W ⊆ Rn y definiendo:
~
u1 = x1   W1 = gen(x1 ) = gen(u1 )
~ 1 ·~
u x2
~
u2 = perpW1 (~ x2 − proyW1 (~
x2 ) = ~ x2 −
x2 ) = ~ ~ 1 ·~
u u1
~
u1 W2 = gen(x1 , x2 ) = ...
   
~ 1 ·~
u x3 ~ 2 ·~
u x3
~u3 = perpW2 (~ x3 − proyW2 (~
x3 ) = ~ x3 −
x3 ) = ~ ~ 1 ·~
u u1
u1 −
~ ~ 2 ·~
u u2
~
u2 W3 = gen(x1 , x2 , x3 ) = ...
.. ..
.   .
~ 1 ·~
u xm
um = perpWm−1 (~
~ xm ) = ~xm − proyWm−1 (~ xm −
xm ) = ~ ~ 1 ·~
u u1
u1 − · · ·
~
 
~ m−1 ·~
u xm
− u~ m−1 ·~um−1 ~ um−1 Wm = gen(x1 , . . . , xm )

Entonces para cada i = 1, · · · , m el conjunto de vectores {~u1 , · · · , ~ui } forma una base ortogonal del
espacio Wi . En particular el conjunto {~u1 , · · · , ~um } es una base ortogonal de Wm = W .

P Ejemplo 6.11. Encontrar una base ortogonal de R3 que contenga el vector ~x1 = [1, 2, 3].
Solución: Para poder aplicar el proceso de Gram-Schmidt necesitamos partir de una base
cualquiera, por tanto elegimos dos vectores ~x2 y ~x3 que no sean paralelos entre ellos ni entre ~x1 .
Por ejemplo ~x2 = [0, 1, 0] y ~x3 = [0, 0, 1].
Entonces:
 
1
~u1 = ~x1 =2
3
       
  0 1 −1/7 −1
~u2 = ~x2 − ~
u1 ·~
~
x2
u1 ·~
u1 ~u1 =  1  − 2  
14
2 =  5/7  =⇒  5 
0 3 −3/7 −3
   
~
u1 ·~
x3 ~
u2 ·~
x3
~u3 = ~x3 − ~
u1 ·~
u1 ~u1 − ~
u2 ·~
u2 ~u2 =
         
0 1 −1 −3/10 −3
0− 3  
2 − −3 
5 = 0  =⇒  0 
14 35
1 3 −3 1/10 1

Por tanto, {~u1 , ~u2 , ~u3 } es una posible base ortogonal para 3 que contiene al vector [1, 2, 3].R
Normalizando estos vectores se podría obtener una base ortonormal de 3 . R

Clases de Álgebra Pedro José Hernando Oter


6.8. Factorización QR 125

6.8. Factorización QR
R
Si A ∈ m×n es una matriz con columnas linealmente independientes25 y se le aplica el proceso de
Gram-Schmidt a los vectores columnas, se obtiene una importante descomposición matricial 26 de A
conocida con el nombre de factorización QR.

R Teorema 6.10 (Factorización QR)


R
Toda matriz A ∈ m×n con columnas linealmente independientes 27 puede ser factorizada
como A = QR, donde Qm×n es una matriz con columnas ortonormales 28 y Rn×n es una
matriz triangular superior invertible 29 , de la forma:

Am×n = Qm×n Rn×n

 Demostración 6.10
Sean ~c1 , · · · , ~cn los vectores columna de la matriz Am×n y sean ~q1 , · · · , ~qn los vectores
ortonormales obtenidos al aplicar el proceso Gram-Schmidt a los vectores columna30 de A y
posterior normalización.
Entonces, existen escalares αij y rij tales que:
 
~q1 = α11~c1 
  ~c1 = r11 ~q1


 

~q2 = α12~c1 + α22~c2 
  ~c2 = r12 ~q1 + r22 ~q2

~q3 = α13~c1 + α23~c2 + α33~c3 =⇒ ~c3 = r13 ~q1 + r23 ~q2 + r33 ~q3
.. 
 
 ..
. 
 
 .

 

~qn = α1n~c1 + α2n~c2 + · · · + αnn~cn ~cn = r1n ~q1 + r2n ~q2 + · · · + rnn ~qn

Lo cual se puede expresar matricialmente como:


 
r11 r12 ··· r1n
   
 0 r22 ··· r2n 

A= ~c1 ~c2 · · · ~cn = ~q1 ~q2 · · · ~qn  .. .. ..  = QR
 . . . 
0 0 ··· rnn

La matriz R se puede obtener fácilmente una vez determinada Q, ya que al tener columnas
ortogonales31 , QT Q = In y por tanto:

A = QR ; QT A = QT QR ; R = QT A

25 Para lo cual es necesario que n ≤ m.


26 Una descomposición de una matriz es una factorización de la misma en un producto de otras matrices, de la forma
siguiente: A = M1 M2 · · · Mk .
27 Si A es cuadrada esto implica que es invertible.
28 La matriz Q será una matriz ortogonal si A, y por tanto Q, es cuadrada.
29 Lo que implica que sus elementos diagonales son no nulos.
30 Siempre en el mismo orden en que aparecen, es decir q
~1 = ~c1 , q~2 = perpq~1 (~c2 ), etc. Ya que de otra forma, la matriz
R no será necesariamente tridiagonal superior.
31 No necesariamente Q es invertible. Sólo si A es cuadrada, entonces Q es ortogonal y tiene sentido hablar de la

inversa de Q, siendo además Q−1 = QT .

Pedro José Hernando Oter Clases de Álgebra


126 TEMA 6: Ortogonalidad

La Demostración 6.10 presenta de forma detallada el procedimiento de cálculo de la de la factorización


QR de una matriz.

! Nota 6.4. La factorización QR se puede extender a matrices arbitrarias (no necesariamente con columnas linealmente
independientes), mediante una forma ligeramente modificada, utilizando matrices de Householder.

! Nota 6.5. Cuando el proceso de Gram-Schmidt se implementa en un ordenador, los errores de redondeo propios del
cálculo, generan una pérdida de ortogonalidad de los vectores, que puede llegar a ser una importante causa de errores.
En la práctica se suele utilizar una versión modificada de la factorización QR mostrada aquí, para minimizar estos
errores de redondeo.

La factorización QR de una matriz tiene multitud de aplicaciones en:

• Resolución de SEL de forma numérica eficiente.


• Aproximación numérica de autovalores 32 .
• Aproximación del problema de mínimos cuadrados 33 .

P Ejemplo 6.12. Encontrar, en caso de ser posible, la factorización QR de la siguiente matriz:


 
1 −1
 1 4 
A=  1

2 
1 1

Solución: Claramente los dos vectores columna de la matriz son linealmente independientes y
por tanto sí es posible realizar la descomposición QR de la matriz. Vamos a seguir los pasos
dados en la Demostración 6.10.

1. Ortogonalizar los vectores columna de la matriz mediante el proceso de Gram-Schmidt.


 
~u1 = ~v1 = 1 1 1 1
   
~u1 · ~v2   1 1 1 1 · −1 4 2 1  
~u2 = ~v2 − ~u1 = −1 4 2 1 −     1 1 1 1
~u1 · ~u1 1 1 1 1 · 1 1 1 1
 
5 5 1 1
= − −
2 2 2 2
2. Normalizando los vectores ortogonales obtenidos anteriormente podemos construir la
matriz ortogonal Q:
 √ 
1/2 −5/√52
   1/2 5/√52 
Q = ~u1 ~u2 =   1/2

1/√52 
1/2 −1/ 52

(Continúa en la página siguiente)

32 Ver el Tema 8, página 145.


33 Ver la Sección 7.4, página 136.

Clases de Álgebra Pedro José Hernando Oter


6.8. Factorización QR 127

P Ejemplo 6.12 (Continuación).

5. La matriz R se obtiene aplicando la fórmula R = QT A.


 
  1 −1  
 1 4 
R = QT A = √1/2 1/2
√ 1/2
√ 1/2
√  = 2 √3
−5/ 52 5/ 52 1/ 52 −1/ 52  1 2  0 13
1 1

Como podemos observar la matriz R es triangular superior.

Fácilmente se puede comprobar como A = QR.

P Ejemplo 6.13. Encontrar, en caso de ser posible, la factorización QR de la matriz:


 
1 0 1
A=
1 1 1

Solución: Como esta matriz tiene 2 filas como mucho existirán dos vectores de dos componentes
linealmente independientes, y por tanto los tres vectores columna de A son linealmente
dependientes.
En conclusión, esta matriz no tiene factorización QR.
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Pedro José Hernando Oter Clases de Álgebra


:????;
>5NM5>
>CEEB>
>DDA>
>5IJ5>
<????=
TEMA 7
Mínimos Cuadrados

Contenido
7.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.2 Mejor Aproximación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
7.3 Aproximación mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . 132
7.4 Mínimos Cuadrados mediante la Factorización QR . . . . . . . . . . . . . . . . . . 136
7.5 Error en la Aproximación por Mínimos Cuadrados: Residuos . . . . . . . . . . . . 138
7.6 Ajuste de Datos mediante Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . 139

129
130

Clases de Álgebra
Mínimos Cuadrados

Mejor Aprox. Sol. Min. Cuad.

Teorema Teorema Aplicaciones Error Factorización QR

Ec. Normales

Pedro José Hernando Oter


TEMA 7: Mínimos Cuadrados
7.1. Introducción 131

7.1. Introducción
En este tema se presenta una aplicación muy importante de las ideas vistas sobre el complemento
ortogonal 1 y la proyección ortogonal 2 sobre subespacios vectoriales vistos en el tema anterior.

7.2. Mejor Aproximación

U Definición 7.1 (Mejor Aproximación)


Si W es un subespacio3 de V , W ⊆ V , y si ~v ∈ V , entonces la mejor aproximación de ~v
en W es el vector p~ ∈ W tal que:

k~v − p~ k < k~v − wk


~ ; ~ ∈ W con w
∀w ~ 6= p~

~v

k~v − ~pk R
Interpretación gráfica en 3 de la mejor aproximación
de un vector a un plano W que pasa por el origen. El
p~ R R
resultado coincide con la idea intuitiva en 2 y 3 de la
W distancia más corta como la linea recta perpendicular.
w
~

R Teorema 7.1 (Teorema de la Mejor Aproximación)


Si W es un subespacio de dimensión finita de un espacio V con producto interno4 y si ~v ∈ V ,
entonces proyW (~v ) es la mejor aproximación a ~v en W .

 Demostración 7.1
~v Vamos a ver una intuitiva demostración geométrica
en R 3
. Debido a la ortogonalidad de la mejor
k~v − ~pk aproximación, podemos identificar un triángulo
rectángulo, donde k~v − wk
~ = 6 0 es la hipotenusa y
p~ k~v − p~k es uno de los catetos. Por el teorema de
W Pitágoras:
w
~
=⇒ k~v − p~k < k~v − wk ~ ∈ W con w
~ ; ∀w ~ 6= p~

1 Verla Sección 6.5, página 118.


2 Verla Sección 6.6, página 121.
3 Debe ser un subespacio normado, es decir, en el cual se ha definido una norma determinada, como por ejemplo, la

norma euclídea.
4 Generalización de producto escalar.

Pedro José Hernando Oter Clases de Álgebra


132 TEMA 7: Mínimos Cuadrados

P R
Ejemplo 7.1. Sea W el plano en 3 con ecuación x−y +2z = 0, y sea ~v = [3, −1, 2]. Encontrar
la mejor aproximación de ~v en W y la distancia euclídea desde ~v hasta W .

Solución: La mejor aproximación de ~v en W será el vector proyW (~v ) calculado en el


Ejemplo 6.10.  
5/3
proyW (~v ) =  1/3 
−2/3
La distancia de ~v a W es la distancia de ~v al punto de W más cercano a ~v y esta es precisamente
kperpW (~v )k = k~v − proyW (~v )k. El vector perpW (~v ) también se calculó en Ejemplo 6.10 siendo:
 
4/3
perpW (~v ) =  −4/3 
8/3

por tanto: r r √
16 16 64 96 4 2
d = kperpW (~v )k = + + = = √
9 9 9 9 3

7.3. Aproximación mediante Mínimos Cuadrados

U Definición 7.2 (Solución de Mínimos Cuadrados)


R R
Si A ∈ m×n y ~b ∈ m , una solución de mínimos cuadrados del SEL A~x = ~b es un vector
R
p~ ∈ n tal que:
k~b − A~
p k ≤ k~b − A~xk ; ∀~x ∈ n R

La solución de mínimos cuadrados de un SEL es la mejor aproximación del vector de términos


independientes, ~b, en el espacio columna de la matriz de los coeficientes, col(A).

R Teorema 7.2 (Teorema de los Mínimos Cuadrados)


R R
Sea A ∈ m×n y ~b ∈ m . Entonces:

• El SEL A~x = ~b, siempre tiene al menos una solución de mínimos cuadrados p~ ∈ Rn
que viene dada por las denominadas ecuaciones normales:

p = AT ~b
AT A~

• Si la matriz A tiene vectores columnas linealmente independientes entonces la matriz


AT A es invertible y la solución de mínimos cuadrados es única, dada por:

p~ = (AT A)−1 AT ~b

Clases de Álgebra Pedro José Hernando Oter


7.3. Aproximación mediante Mínimos Cuadrados 133

 Demostración 7.2
El vector de la im(A) = col(A) más cercano a ~b, según el Teorema 7.1, es la solución del
problema de mínimos cuadrados, siendo la proyección ortogonal del vector ~b sobre col(A):

p = proycol(A) (~b)
A~

En lugar de calcular primero el vector proyección y después resolver el SEL anterior, vamos
a utilizar una forma más eficiente de resolverlo. Como el vector:
~b − A~
p = ~b − proycol(A) (~b) = perpcol(A) (~b)

es ortogonal a col(A), entonces para cualquier vector columna ~ci de A, se tiene:

~ci · (~b − A~
p) = ~ciT (~b − A~
p) = 0

De forma matricial se puede expresar como:

AT (~b − A~
p) = ~0 ; AT ~b − AT A~
p = ~0 =⇒ p = AT ~b
AT A~

Este SEL se conoce con el nombre de ecuaciones normales. Para que la solución sea única,
el rango de la matriz AT A debe ser n (número de incógnitas del SEL) y entonces según el
Teorema 3.7, página 72, las columnas de A son linealmente independientes, siendo la solución:

p~ = (AT A)−1 AT ~b

P Ejemplo 7.2. Encontrar una solución de mínimos cuadrados para el sistema incompatible
A~x = ~b, donde:    
1 5 3
A =  2 −2  ; ~b =  2 
−1 1 5

p = AT ~b, de forma que:


Solución: Tenemos que resolver el sistema (ecuaciones normales) AT A~
 
  1 5  
T 1 2 −1   6 0
A A= 2 −2 =
5 −2 1 0 30
−1 1
 
  3  
1 2 −1 2
AT ~b = 2=
5 −2 1 16
5
Por tanto el SEL a resolver es:
        
6 0 p1 2 p1 1/3
= =⇒ p~ = =
0 30 p2 16 p2 8/15

Como las columnas de A son claramente linealmente independientes, por el Teorema 7.2, la
solución de mínimos cuadrados es única.

Pedro José Hernando Oter Clases de Álgebra


134 TEMA 7: Mínimos Cuadrados

P Ejemplo 7.3. Encontrar una solución de mínimos cuadrados para el sistema incompatible
A~x = ~b, donde:
   
1 0 1 1
 1 −1 0  0
A~x = ~b ; A=  −1
 ; ~b =  
1 0  1
1 −1 0 1

Solución: Las ecuaciones normales AT A~p = AT ~b son en este caso:


 
  1 0 1  
1 1 −1 1  4 −3 1
1 −1 0 
AT A =  0 −1 1 −1    −1
 =  −3 3 0 
1 0 
1 0 0 0 1 0 1
1 −1 0
 
 1        
1 1 −1 1   1 4 −3 1 p1 1
0
AT ~b =  0 −1 1 −1  
1
=0 =⇒  −3 3 0   p2  =  0 
1 0 0 0 1 1 0 1 p3 1
1
Resolviendo el SEL por Gauss:
       
4 −3 1 1 1 0 1 1 1 0 1 1 1 0 1 1
 −3 3 0 0  →  −3 3 0 0  →  −3 3 0 0 → 0 3 3 3 
1 0 1 1 1 0 1 1 0 0 0 0 0 0 0 0

En este caso existen infinitas soluciones de mínimos cuadrados dadas por:



 p1 = 1−t
p~ =

p2 = 1−t ; ∀t ∈ R
p3 = t

Esto es consecuencia de que la matriz A tiene vectores columna linealmente dependientes, y por
tanto según el Teorema 7.2 existe la solución de mínimos cuadrados, pero en este caso no es
única.

P Ejemplo 7.4. Dar la solución de mínimos cuadrados del siguiente SEL compatible determinado:
   
1 −1 ~b = 1
A~x = ~b ; A= ;
1 2 7

p = AT ~b, son de la forma:


Solución: Las ecuaciones normales AT A~
         
T 1 1 1 −1 2 1 T~ 1 1 1 8
A A= = ; A b= =
−1 2 1 2 1 5 −1 2 7 13
        
2 1 p1 8 p1 3
= =⇒ p~ = =
1 5 p2 13 p2 2

(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


7.3. Aproximación mediante Mínimos Cuadrados 135

P Ejemplo 7.4 (Continuación).


Por otra parte, si resolvemos el sistema compatible y determinado original por Gauss:
    
1 −1 1 1 −1 1 x2 = 6/3 = 2
→ →
1 2 7 0 3 6 x1 = 1 + x2 = 3

Comprobándose que la solución de mínimos cuadrados en el caso de un sistema compatible y


determinado, coincide con la solución del sistema.

P Ejemplo 7.5. Dar dos posibles interpretaciones geométricas al Ejemplo 7.2.


Solución:
• Determinar el plano que pasa por el origen: z = ax + by que mejor ajuste a los puntos de
R3
: (1, 5, 3), (2, −2, 2) y (−1, 1, 5).
Queremos encontrar valores a y b tales que verifiquen:
    
 a + 5b = 3 1 5   3
 2 a
2a − 2b = 2 =⇒ −2  =2
 b
−a + b = 5 −1 1 5

Según la solución anterior se tiene entonces a = p1 y b = p2 y el plano buscado es:


z
b

1 8
x z= x+ y
3 15
b

R
• Determinar el vector de 3 perteneciente al plano definido por los vectores ~v1 = [1, 2, −1]
y ~v2 = [5, −2, 1] que es más cercano al vector ~u = [3, 2, 5].
Como ~v1 y ~v2 son linealmente independientes, definen un plano W y el vector buscado de
este plano se puede definir como combinación lineal de ~v1 y ~v2 :
         
1 5 3 1 5   3
a
a~v1 + b~v2 = ~u ; a  2  + b  −2  =  2  =⇒  2 −2  =2
b
−1 1 5 −1 1 5

Según la solución anterior se tiene entonces a = p1 y b = p2 y el vector buscado es:


     
1 5 3
1 8 1 8
~v = ~v1 + ~v2 = 2+  −2  =  −2/5 
3 15 3 15
−1 1 1/5
(Continúa en la página siguiente)

Pedro José Hernando Oter Clases de Álgebra


136 TEMA 7: Mínimos Cuadrados

P Ejemplo 7.5 (Continuación).


z

~u
~v2
p~
x
~v1

7.4. Mínimos Cuadrados mediante la Factorización QR

U Definición 7.3 (Condicionamiento)


Se dice que un SEL (o la matriz que lo define) está mal condicionado, si pequeñas variaciones
en los valores que lo definen5 producen grandes variaciones en la solución del mismo.

En la práctica, las ecuaciones normales que aparecen en muchos problemas de mínimos cuadrados
están mal condicionadas, lo cual significa que los errores numéricos que se producen en las operaciones
matématicas del método (Gauss, Gauss-Jordan, etc.) como consecuencia de la utilización de un
ordenador6 en su resolución, se van acumulando y pueden producir grandes errores en la solución
final del problema.

La factorización 7 QR produce un método de resolución que mejora sensiblemente la precisión de


los resultados.
Por supesto, esta mejora en la precisión se obtiene a cambio de un mayor coste computacional, ya
que generalmente la factorización QR requiere una cantidad de operaciones bastante superior8 a la
requerida por los métodos estudiados aquí, y todavía mucho más para otros métodos avanzados.

R Teorema 7.3
R
Sea A ∈ m×n con columnas linealmente independientes 9 y sea ~b ∈ m . Si A = QR es R
una factorización QR de A, entonces la única solución del problema de mínimos cuadrados
A~x = ~b viene dada por:

p = ~b
A~ ; p = ~b
QR~ ; p = QT ~b
R~ ; p~ = R−1 QT ~b

5 Debidas a errores experimentales, de redondeo en el cálculo, etc.


6 El cual tiene una precisión finita en los cálculos.
7 Ver la Sección 6.8, página 125.
8 La proporción aumenta al aumentar la dimensión del sistema, siendo muy elevado para sistemas muy grandes.
9 Lo que produce una solución única en el problema de mínimos cuadrados.

Clases de Álgebra Pedro José Hernando Oter


7.4. Mínimos Cuadrados mediante la Factorización QR 137

 Demostración 7.3
La solución de mínimos cuadrados es:

p = AT ~b
AT A~

Si A = QR entonces:

p = (QR)T ~b
(QR)T (QR)~ ; p = RT QT ~b
RT QT QR~ ; p = RT QT ~b
RT R~

Como R es invertible, multiplicando por la izquierda ambas partes de la igualdad por (RT )−1
se obtiene:
R~p = QT ~b

En la práctica y teniendo en cuenta que la matriz R tiene forma triangular, resulta mucho más
sencillo resolver el SEL:
p = QT ~b
R~
por el método de sustitución hacia atrás, que calcular R−1 y después p~ = R−1 QT ~b.

P Ejemplo 7.6. Encontrar la solución de mínimos cuadrados del Ejemplo 7.2 utilizando la
factorización QR de la matriz A.
   
1 5 3
A =  2 −2  ; ~b =  2 
−1 1 5

Solución: Como se vió en Sección 6.8, para calcular la factorización QR de una matriz se necesita
ortonormalizar los vectores columna de A mediante el métodod de Gram-Schidth. Llamando ~vi
a los vectores columna de A y ~ui a los nuevos vectores ortogonolales, se tiene:
  
~u1 = ~v1 = 16 1 2 −1 
  √ √ 
  1/√6 5/√30
   Q = ~u1 ~u2 =  2/√6 −2/√30 
~u2 = ~v2 − ~u1 · ~v2 ~u1 = 5 −2 1 
~u1 · ~u1 −1/ 6 1/ 30
La matriz R se obtiene de la siguiente forma10 :
 
 √ √ √  1 5  √ 
1/√ 6 2/√ 6 −1/
√ 6  6 √ 0
R = QT A = 2 −2  =
5/ 30 −2/ 30 1/ 30 0 30
−1 1

Finalmente, la solución de mínimos cuadrados vendrá dada mediante la solución del sistema:
 
 √    √ √ √  3  √ 
R~p = QT ~b ;
6 √ 0 p1
=
1/
√ 6 √ 6 −1/√ 6  2  =
2/ 2/
√ 6
0 30 p2 5/ 30 −2/ 30 1/ 30 16/ 30
5
(Continúa en la página siguiente)

10 Ver la Sección 6.8, página 125.

Pedro José Hernando Oter Clases de Álgebra


138 TEMA 7: Mínimos Cuadrados

P Ejemplo 7.6 (Continuación).


Cuya solución se puede calcular fácilmente:
   
p1 1/3
p~ = =
p2 8/15

Esta solución coincide con la obtenida mediante las ecuaciones normales en el Ejemplo 7.2.

7.5. Error en la Aproximación por Mínimos Cuadrados:


Residuos
Sea un sistema incompatible A~x = ~b, con A ∈ Rm×n , que lo expresaremos como:
p ≈ ~b
A~
donde p~ es la solución de mínimos cuadrados del problema. Como en general ésta es una solución
aproximada del sistema, estamos interesados en calcular los errores cometidos en cada una de las
variables. Estos errores se pueden expresar en forma vectorial mediante un vector de errores, ~e,
denominado también vector de residuos como:
~e = ~b − A~
p
siendo los errores o residuos de cada variable, ~e = [e1 , · · · em ]. El error global cometido, se puede
cuantificar a través de la norma del vector de residuos:
k~ek = k~b − A~
pk = k~b − proycol(A) (~b)k = kperpcol(A) (~b)k

El método de mínimos cuadrados busca una solución p~ que minimiza la norma euclídea del vector
de residuos (errores) definido por:
q
k~ek = e21 + · · · + e2n =⇒ k~ek2 = e21 + · · · + e2n

y por tanto, minimiza la suma de los cuadrados de los errores, de ahí el nombre de mínimos
cuadrados.

P Ejemplo 7.7. Encontrar los errores cometidos (residuos) en la aproximación de mínimos


cuadrados del Ejemplo 7.2 y calcular el valor del error global. En base a ellos, determinar si
es una buena o mala aproximación.
   
1 5 3    
~b =  2  p1 1/3
A =  2 −2  ; ; p~ = =
p2 8/15
−1 1 5
Solución:      
3 1 5   0
1/3
~e = ~b − A~
p=2− 2 −2  =  14/5 
8/15
5 −1 1 24/5
La primera ecuación se cumple (e1 = 0) y el máximo error se produce en la tercera ecuación
(e3 > e2 ).
(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


7.6. Ajuste de Datos mediante Mínimos Cuadrados 139

P Ejemplo 7.7 (Continuación).


El error global es: s  2  2
14 24
k~ek = 02 + + ≈ 5.6
5 5
Este valor indica que el error cometido en la aproximación es considerable. Podemos estimar
el error relativo n cada ecuación dividiendo los término bi entre los correspondientes ei y
multiplicando por 100, obteniéndose 0% en la primera ecuación, 71% en la segunda ecuación
y 100% en la tercera ecuación. Se puede observar que el error global es un valor promedio (en
tanto por uno) de los errores relativos. En función de la naturaleza del problema, estos altos
errores podrían indicar una revisión del planteamiento del problema en busca de unos mejores
resultados.

7.6. Ajuste de Datos mediante Mínimos Cuadrados


El método de los mínimos cuadrados es una técnica matemática ampliamente utilizada en el campo
de la ingeniería. Una de las aplicaciones más extendidas es en el ajuste de datos a curvas, superficies,
etc.

U Definición 7.4 (Ajuste de Datos)


• El ajuste de datos consiste en encontrar una determinada función que aproxime a unos
determinados datos.

• El error del ajuste determinará la precisión del ajuste.

Hay diferentes técnicas para realizar el ajuste de datos, siendo la más ampliamente utilizada el
método de los mínimos cuadrados.

• El ajuste de datos por mínimos cuadrados encuentra aquella función (curva, superficie, etc.)
que minimiza la suma de los cuadrados de los errores (distancia de los puntos a la función).
Para ello se debe plantear un determinado problema que genere un SEL (normalmente
indeterminado) y encontrar la solución de mínimos cuadrados correspondiente.

• La función de ajuste siempre viene dada a través de un número determinado de parámetros,


definiendo una familia de infinitas funciones. El ajuste dará como resultado unos valores
concretos de los parámetros que determinan una única función de esta familia.

Vamos a estudiar los casos más sencillos de ajuste de datos a funciones.

Ajuste de datos a una Recta en R2


Dado un conjunto de datos (x, y) ∈ R2 , normalmente dados en forma de tabla, se pide encontrar la
recta que mejor ajuste a estos datos. En este caso la familia de funciones será:

y = f (x) = a + bx

siendo a y b los parámetros a determinar.

Pedro José Hernando Oter Clases de Álgebra


140 TEMA 7: Mínimos Cuadrados

b
2 b b x y
b x1 y1
b
b
1 b b .. .. y = a + bx
b . .
xn yn
1 2 3 4

Sustituyendo cada uno de los pares (xi , yi ) de la tabla en la familia de funciones se obtiene el SEL,
siendo los parámetros a y b las incógnitas a determinar.

 a + bx1 = y1    

 1 x1 y1
 a + bx2 = y2  1 x2     y 
.. ..   a  2 

 . .  .. ..  b =  ..  =⇒ A~x = ~b

  . .   . 
a + bxn = yn 1 xn yn
Claramente si la tabla tiene más de dos datos, el SEL será incompatible y no tendrá solución11 .
Tendremos que buscar entonces la mejor solución de mínimos cuadrados para encontrar la función,
perteneciente a la familia de funciones, que mejor ajuste a los datos dados.
Como siempre existe al menos una solución de mínimos cuadrados12 , siempre existirá al menos una
función de ajuste. El problema es que esta función no siempre será una buena solución del problema.

Para determinar la calidad del ajuste es necesario calcular los errores del problema de mínimos
cuadrados. Calculando el vector de errores 13 ~e = [e1 , ..., en ] tendremos:
• Cada error individidual ei representa el error cometido en cada ecuación y geométricamente
se puede interpretar como la menor distancia del punto (xi , yi ) a la función de ajuste.
• El error global e = k~ek da la norma del vector error y representa la acumulación de los errores
en todos los puntos, siendo un indicador de la calidad global del ajuste.

Parábola en R2
Este caso es análogo al ajuste de rectas, cambiándo únicamente la familia de funciones del ajuste,
siendo en este caso:
y = f (x) = a + bx + cx2
con a, b y c los parámetros del ajuste (íncógnitas a determinar).
b

2 b x y
x1 y1
b y = a + bx + c2
1 b .. ..
b . .
xn yn
1 2 b3 4
    

 a + bx1 + cx21 = y1 1 x1 x21   y1

 a + bx2 + cx22  a
= y2  1 x2 x22 


 y2 

. ..  .. ..  b = ..  =⇒ A~x = ~b
 ..

 .  . . 
c
 . 

a + bxn + cx2n = yn 1 xn 2
xn yn
11 Lo cual indica que no existe ninguna función de la familia de funciones propuestas que pase o contenga a todos los
datos de la tabla.
12 Ver el Teorema 7.2, página 132.
13 Ver la Sección 7.5, página 138.

Clases de Álgebra Pedro José Hernando Oter


7.6. Ajuste de Datos mediante Mínimos Cuadrados 141

Polinomio General en R2
Se puede utilizar un polinomio de cualquier grado para el ajuste, siendo el procedimiento a seguir
análogo a los anteriores.
b
2 x y
b b
b b x1 y1
1 b b .. .. y = c0 + c1 x + · · · + cm xm
. .
b xn yn
1 2 3 4

     

 c0 + c1 x1 + · · · + cm xm
1 = y1 1 x1 ··· xm
1 c0 y1

 c0 + c1 x2 + · · · + cm xm     
2 = y2  1 x2 ··· xm
2  c1   y2 
.. ..  .. ..  .. = ..  =⇒ A~x = ~b

 . .  . .  .   . 


c0 + c1 xn + · · · + cm xm
n = yn 1 xn ··· m
xn cm yn

Naturalmente algunos polinomios darán un mejor ajuste que otros, pudiéndose determinar su calidad
mediante el cálculo de los errores de mínimos cuadrados. De forma general, al aumentar el grado del
polinomio, (mayor número de parámetros de ajuste), disminuirá el error cometido en el ajuste, pero
no necesariamente aumentará la calidad del ajuste. Esto se debe a que al aumentar el grado de un
polinomio aumentan las oscilaciones en su gráfica, obteniéndose resultados no deseados.

Por tanto, en un ajuste polinómico se buscará siempre el polinomio de menor grado que mejor ajuste
a los datos.

Plano en R3
Este es el caso más sencillo de ajuste de datos en 3D. Dado un conjunto de puntos (xi , yi , zi ) queremos
encontrar el plano que mejor los ajusta:

z = f (x, y) = a + bx + cy

Siguiendo el plateamiento de los casos anteriores se obtendría el correspondiente SEL del ajuste.
z
b
b
x y z
x1 y1 z1
x .. .. .. z = a + bx + cy
. . .
b
xn yn zn
y

    

 a + bx1 + cy1 = z1 1 x1 y1   z1

 a + bx2 + cy2  1 a
= z2  x2 y2 

 z2



.. ..  ..  b  =  ..  =⇒ A~x = ~b

 . .  .  c  . 


a + bxn + cyn = zn 1 xn yn zn

Pedro José Hernando Oter Clases de Álgebra


142 TEMA 7: Mínimos Cuadrados

Superficie Cuadrática en R3
El ajuste se puede realizar a una superficie más general como por ejemplo una superficie cuadrática o
cuádrica (elipsoide, paraboloide e hiperboloide).

6.0
b
5.0 x y z
4.0 x1 y1 z1
3.0 b
.. .. .. z = a + bx + cy + dx2 + ey 2 + f xy
2.0
. . .
1.0
-1.0
b
xn yn zn
b -1.0

1.0 1.0
2.0 2.0

x -1.0
y


 a + bx1 + cy1 + dx21 + ey12 + f x1 y1 = z1

 a + bx2 + cy2 + dx22 + ey22 + f x2 y2 = z2
.. .. ..

 . . .


a + bxn + cyn + dx2n + eyn2 + f xn yn = zn
   
  a z1
1 x1 y1 x21 y12 x1 y1    
 .. .. .. .. .. ..   b  =  z2  A~x = ~b
 . . . . . .   .   .  =⇒
2 2
 ..   .. 
1 xn yn xn yn xn yn
f zn

Hiperplano en Rm
Se puede realizar un ajuste de datos en cualquier dimensión espacial, aunque para dimensiones altas
no existirá una interpretación geométrica del problema.
El caso más sencillo corresponde al ajuste de n datos (x1 , ..., xm ) ∈ m a un hiperplano: R
y = f (x1 , ..., xm ) = c0 + c1 x1 + ... + cm xm

siendo { c0 , c1 , ..., cm } el conjunto de parámetros a ajustar. De forma análoga a los casos anteriores
se puede plantear el SEL del problema.
x1 x2 ··· xm y
x11 x12 ··· x1m y1
.. .. .. .. y = c0 + c1 x1 + · · · + cm xm
. . . .
xn1 xn2 ··· xnm yn

     

 c0 + c1 x11 + · · · + cm x1m = y1 1 x11 ··· x1m c0 y1

 c0 + c1 x21 + · · · + cm x2m     
= y2  1 x21 ··· x2m  c1   y2 
.. .. ..  .. .. ..  .. = ..  =⇒ A~x = ~b

 . . .  . . .  .   . 


c0 + c1 xn1 + · · · + cm xnm = yn 1 xn1 ··· xnm cm yn

14 Ver el Teorema 7.2, página 132.

Clases de Álgebra Pedro José Hernando Oter


7.6. Ajuste de Datos mediante Mínimos Cuadrados 143

En todos los casos la solución del problema de mínimos cuadrados puede obtenerse por ejemplo
mediante la solución del sistema de las ecuaciones normales 14 :

AT A~x = ~b

P Ejemplo 7.8. Encontar la ecuación de la recta en


cuadrados a los datos siguientes:
R2 que mejor aproxime por mínimos

x −2 −1 1 2
y 1 0 1 −1
Solución: La ecuación del ajuste es:
y = a + bx
siendo a y b los parámetros a determinar. El sistema de ecuaciones lineales correspondiente es
en este caso:
    
 a − 2b =


1 1 −2   1
a−b = 0  1 −1  a  0 
;   =  ; A~c = ~b
 a + b = 1  1 1  b  1 


a + 2b = −1 1 2 −1

La solución de mínimos cuadrados se puede encontrar resolviendo las ecuaciones normales:


   
4 0 T~ 1
T
A A= ; A b= ; AT A~p = AT ~b
0 10 −3

La solución final es:    


a 1/4 1 3
= ; y= − x
b −3/10 4 10

P Ejemplo 7.9. Realizar una interpretación gráfica del Ejemplo 7.8 y calcular el error cometido
en el ajuste.
Solución:

b b
1

−3 −2 −1 1 2 3
−1 b

 
3/20 r
 −11/20  37
p=
~e = ~b − A~  21/20 
 ; error = k~ek = ≈ 1.36
20
−13/20

Pedro José Hernando Oter Clases de Álgebra


144 TEMA 7: Mínimos Cuadrados

Resumen

 Ec. Normales


 Solución p = proycol(A) (~b) −−−−−−−−−→ AT A~
: A~ p = AT ~b

Aprox. Min. 

A~x = ~b −
Cuadrados
−−−−−−−→ Sol. QR : A(col. lin. indep) = QR =⇒ p = ~bQT
R~
A~p ≈ ~b 




 p
Error : error = k~ek = k~b − A~
pk = kperpcol(A) (~b)k = e21 + · · · + e2n

! Nota 7.1. Existen otros procedimientos de cálculo en la determinación del problema de mínimos cuadrados. En el
Tema 9 se verá uno de ellos. :???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Clases de Álgebra Pedro José Hernando Oter


TEMA 8
Autovalores y Autovectores

Contenido
8.1 Introducción: Sistemas Dinámicos Discretos . . . . . . . . . . . . . . . . . . . . . . 147
8.2 Autovalores y Autovectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 149
8.2.1 Interpretación Geométrica de los Autovalores y Autovectores . . . . . . . 149
8.2.2 Determinación de Autovalores y Autovectores . . . . . . . . . . . . . . . . 150
8.2.3 Autoespacios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
8.2.4 Multiplicidades Algebraica y Geométrica . . . . . . . . . . . . . . . . . . . 153
8.2.5 Autovalores y Matrices Inversas . . . . . . . . . . . . . . . . . . . . . . . . 154
8.2.6 Tres Teoremas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155
8.3 Semejanza y Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.1 Matrices Triangulares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.2 Matrices Semejantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
8.3.3 Diagonalización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
8.3.4 Autovalores Reales y Complejos . . . . . . . . . . . . . . . . . . . . . . . . 161
8.4 Diagonalización Ortogonal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162
8.4.1 Teorema Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.4.2 Descomposición Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . 164
8.5 Teoremas Avanzados Adicionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165
8.6 Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166

145
146

Clases de Álgebra
Autovalores y Autovectores

Definiciones Cálculo Propiedades Semejanza Diagonalización Auto. Reales

Int. Geométrica Autoespacios Mat. Inversa Teoremas Mat. Semejantes Mat. Diagonalizable Teo. Diagonalización Diag. Ortogonal Teorema

Potencia Mat. Desc. Espectral Teo. Espectral

Pedro José Hernando Oter


TEMA 8: Autovalores y Autovectores
8.1. Introducción: Sistemas Dinámicos Discretos 147

8.1. Introducción: Sistemas Dinámicos Discretos

U Definición 8.1 (Sistema Dinámico Discreto)


Dada una TL de la forma,
T (~x) = A~x
se denomina Sistema Dinámico Discreto a un proceso del estilo:

~x(t + 1) = A~x(t)

donde ~x(t) es un vector de estado a tiempo t (valor entero) y ~x(t + 1) es el vector de estado
al tiempo siguiente (t + 1). La matriz A se denomina matriz de transición del sistema1 .

Vamos a analizar como ejemplo el caso bidimensional. Supongamos que ~x ∈ R2×2 , A ∈ R2×2 y
partimos de un vector inicial a tiempo t = 0:
 
x0
~x0 =
y0

Entonces:
x, y
~xi 4 b
~x1 = A~x0 x
t xi yi b b b
~x2 = A~x1 3
0 x0 y0 b
b
~x3 = A~x2 2 b
.. .. 1 x1 y1 b y
. . .. .. .. 1
b
b
. . .
~xn = A~xn−1
n xn yn t
1 2 3 4

Por otra parte, también se pueden obtener los valores temporales x(t) de la siguientes forma:

~x0
~x1 = A~x0
~x2 = A~x1 = AA~x0 = A2 ~x0
~x3 = A~x2 = AA2 ~x0 = A3 ~x0
.. ..
. .
~xn = A~xn−1 = AAn−1 ~x0 = An ~x0

Lo cual demuestra que en todo sistema dinámico discreto con una matriz A fija, la evolución del
sistema depende únicamente del estado inicial ~x0 .

Es interesante conocer la evolución a tiempos grandes y para ello será necesario calcular An , cuestión
complicada si A es grande2

1 Sila matriz A representa probabilidades, los procesos se denominan cadenas de Markov.


2 El número de operaciones (multiplicaciones y sumas) necesarias para obtener el producto matricial AA con
R
A ∈ m×m es de orden 2m3 y por tanto An es de orden 2nm3 , (ver Sección 3.1.4, página 55). Por ejemplo, A10
R
siendo A ∈ 50×50 necesita unos dos millones y medio de operaciones.

Pedro José Hernando Oter Clases de Álgebra


148 TEMA 8: Autovalores y Autovectores

Sin embargo, si existiera un determinado vector inicial ~v tal que cumpliera:

A~v = λ~v

siendo λ un escalar cualquiera, se tendría:

~x0 = ~v
~x1 = A~x0 = A~v = λ~v
~x2 = A~x1 = Aλ~v = λA~v = λ2~v
.. ..
. .
~xn = A~xn−1 = Aλn−1~v = λn−1 A~v = λn~v

De esta forma se consigue cambiar el cálculo de An mediante multiplicaciones matriciales (lentas),


por el mucho más sencillo cálculo de λn (potencia de un escalar).

Este proceso sólo es válido para el caso especial en que ~x0 = ~v . Sin embargo, si existiera otro vector
~v2 con propiedades análogas al anterior ~v que llamaremos a partir de ahora ~v1 , tendríamos:

A~v2 = µ~v2

Si además ~v2 fuera linealmente independiente 3 de ~v1 , entonces cualquier otro otro vector ~x0 se podría
poner como combinación lineal 4 de ambos vectores:

~x0 = α~v1 + β~v2

y en este caso se tendría:

~x0 = α~v1 + β~v2


~x1 = A~x0 = A(α~v1 + β~v2 ) = αλ~v1 + βµ~v2
~x2 = A~x1 = A(αλ~v1 + βµ~v2 ) = αλ2~v1 + βµ2~v2
.. ..
. .
~xn = A~xn−1 = A(αλn−1~v1 + βµn−1~v2 ) = αλn~v1 + βµn~v2

En la cual se han remplazado una potencia matricial por dos potencias escalares.

! Nota 8.1. Si la matriz A fuera de orden m, se necesitarían m vectores linealmente independientes con estas propiedades
especiales y la potencia An se transformaría en la suma de m potencias escalares.

Este tipo de situaciones se producen con bastante asiduidad en la práctica y se utilizan técnicas de
este estilo para resolver problemas de forma analítica y numérica5 .

3 Ver la Sección 2.4.2, página 33.


4 Ver la Sección 2.4.1, página 33.
5 En caso de que el tiempo no sea discreto sino continuo se denominan sistemas dinámicos continuos, apareciendo

sistemas de ecuaciones diferenciales en su formulación, (ver el Tema 10, página 183).

Clases de Álgebra Pedro José Hernando Oter


8.2. Autovalores y Autovectores 149

8.2. Autovalores y Autovectores

U Definición 8.2 (Autovalores y Autovectores)


R
Sea una matriz cuadrada A ∈ n×n . Un escalar real o complejo6 λ ∈ se llama autovalor K
o valor propio7 de A si existe un vector (real o complejo) no nulo ~v ∈ n tal que: K
A~v = λ~v

Al vector ~v se le denomina autovector o vector propio8 de A correspondiente o asociado


al autovalor λ, y viceversa.

8.2.1. Interpretación Geométrica de los Autovalores y Autovectores

A~v = λ~v R
El vector ~y = A~x ∈ n se puede considerar como el
resultado de una TL, ~y = T (~x). Un determinado autovector
~v ~x de A dará como resultado de la TL un múltiplo (vector
paralelo) del mismo ~x. El correspondiente autovalor λ
asociado a ~x será dicho múltiplo.
A~v = λ~v En el gráfico se puede ver esta interpretación en 2 . R
~y = A~v

Vamos a determinar gráficamente los autovalores y autovectores de dos casos correspondientes a


diferentes TL, T : 2 → 2 . R R
Caso 1
    
5 y y1 3 1 x1
~y = =
4 y2 1 3 x2
3

2
En la figura se muestran los resultados obtenidos al
1
aplicar como entradas vectores unitarios ~x (dentro
0
del círculo pequeño) y las correspondientes salidas
x
−1
~y (fuera del círculo pequeño). En el gráfico se ha
−2
desplazado la salida ~y y se ha colocado a continuación
−3
de la entrada ~x. Como se puede apreciar, existen
−4 cuatro autovectores con longitudes iguales dos a dos.
−5 Por tanto, existen dos autovalores y asociados a cada
uno de ellos existen dos autovectores.
−5 −4 −3 −2 −1 0 1 2 3 4 5

6 El
7 En
espacio K
representa a R
(conjunto de los números reales) o a C
(conjunto de los números complejos).
algunos libros lo denominan eigenvalor, término derivado de las terminologías inglesa y alemana. La palabra
eigen significa propio o característico de, indicando que contiene información importante acerca de la naturaleza de la
matriz A.
8 También denominado eigenvector en las terminologías inglesa y alemana.

Pedro José Hernando Oter Clases de Álgebra


150 TEMA 8: Autovalores y Autovectores

Caso 2
3 y

2
    
y1 1 1 x1
1
~y = =
y2 −1 1 x2
0
En este caso y siguiendo el mismo procedimiento
x

−1 anterior, se puede observar como no existe ningún


autovector y por tanto ningún autovalor asociado.
−2

−3
−3 −2 −1 0 1 2 3

! Nota 8.2. La representación gráfica de los autovalores de una matriz real 3 × 3 estaría formada por figuras 3D de
esferas y elipsoides. Para dimensiones mayores de 3 no se podría hacer representaciones gráficas.

P Ejemplo 8.1. Mostrar que el vector ~x = [1, 1] es un autovector de la matriz A y encontrar el


autovalor asociado al mismo.  
3 1
A=
1 3
Solución:       
3 1 1 4 1
A~x = = =4 = 4~x
1 3 1 4 1
Por tanto, ~x es un autovector de A con autovalor asociado λ = 4.

8.2.2. Determinación de Autovalores y Autovectores


Los autovalores λ y autovectores ~v de una matriz cuadrada A, son aquellos que verifican A~v = λ~v .
Operando matricialmente se tiene:

A~v − λ~v = ~0 =⇒ (A − λIn )~v = ~0 (8.1)

Los autovectores ~v de la matriz A son el espacio nulo o núcleo 9 de la matriz (A − λI), que tiene la
forma:
     
a11 a12 ··· a1n λ 0 ··· 0 a11 − λ a12 ··· a1n
 a21 a22 ··· a2n   0 λ ··· 0   a21 a22 − λ ··· a2n 
     
A − λI =  . .. .. − .. .. .. = .. .. .. 
 .. . .   . . .   . . . 
an1 an2 ··· ann 0 0 ··· λ an1 an2 ··· ann − λ

Como la ecuación (8.1) es un sistema homogéneo 10 , la única forma de que tenga soluciones ~v distintas
de la nula, es que sea un sistema compatible indeterminado (infinitas soluciones) y por tanto con
una matriz escalonada reducida equivalente 11 con al menos una fila de ceros. Matricialmente esto
es equivalente a que la matriz (A − λI) sea singular 12 y por tanto, su determinante igual a cero,
det(A − λI) = 0, siendo ésta la condición necesaria y suficiente para la existencia de autovalores en
una matriz.
9 Ver la Definición 3.19, página 71.
10 Ver la Sección 1.8, página 23.
11 Ver la Definición 1.26, página 22.
12 Ver la Definición 3.12, página 60.

Clases de Álgebra Pedro José Hernando Oter


8.2. Autovalores y Autovectores 151

Los autovalores de una matriz cuadrada A son las soluciones λ de la ecuación:

|A − λI| = 0

U Definición 8.3 (Ecuación y Polinomio Característicos)


• La ecuación det(A − λI) = 0 se conoce con el nombre de ecuación característica.
• Cuando se desarrolla el det(A − λI) se obtiene un polinomio en λ que se denomina
polinomio característico. El polinomio característico de una matriz A de orden n
será siempre de orden n y por el teorema fundamental del álgebra, tendrá n soluciones
reales o complejas.

P Ejemplo 8.2. Calcular el polinomio característico de una matriz general 2 × 2:


 
a b
A=
c d

Solución:

a−λ b
det(A − λI) = = (a − λ)(d − λ) − bc = λ2 − (a + d)λ + (ad − bc)
c d−λ

P Ejemplo 8.3. Calcular la ecuación y polinomio



característico de la matriz: c

1 0 1
A= 1 1 0 
−1 0 0

Solución: El polinomio característico es:



1−λ 0 1

det(A − λI) = 1 1 − λ 0 = −λ(1 − λ)2 + (1 − λ) = (1 − λ)(λ2 − λ + 1)
−1 0 −λ

La ecuación característica por tanto es:

(1 − λ)(λ2 − λ + 1) = 0

Procedimiento de Cálculo de Autovalores y Autovectores

Sea A ∈ Rn×n .
1. Calcular el polinomio característico det(A − λI).
2. Calcular los autovalores de A resolviendo la ecuación característica det(A − λI) = 0 para λ.

3. Para cada autovalor λ, encontrar el núcleo de la correspondiente matriz A − λI. Las soluciones
no nulas son los autovectores ~v asociados al autovalor λ de la matriz A.

Pedro José Hernando Oter Clases de Álgebra


152 TEMA 8: Autovalores y Autovectores

8.2.3. Autoespacios

U Definición 8.4 (Autoespacios)


El conjunto de todos los autovectores ~v asociados a un autovalor λ de una determinada matriz
R
A ∈ n×n , junto con el vector nulo, se denomina autoespacio13 de λ y se representa por Eλ .

P Ejemplo 8.4. Encontrar los autovalores y autovectores de la matriz:


 
0 1 0
A= 0 0 1 
2 −5 4

Solución:

−λ 1 0

det(A − λI) = 0 −λ 1 = λ2 (4 − λ) + 0 + 2 − 0 − 5λ − 0 = −λ3 + 4λ2 − 5λ + 2 = 0

2 −5 4−λ

Fácilmente se ve que λ = 2 es solución, por tanto factorizando:



λ1 = λ2 = 1 (raíz doble)
(λ − 2)(−λ2 + 2λ − 1) = (λ − 1)2 (λ − 2) = 0 =⇒
λ3 = 2

Vamos a encontrar los autovectores asociados a los autovalores.


λ1 = λ2 = 1

         
−1 1 0 0 1 0 −1 0 x 1  1 
[A−1I|0] =  0 −1 1 0 ∼ 0 1 −1 0  =⇒  y  = t  1  =⇒ E1 =  1 
 
2 −5 3 0 0 0 0 0 z 1 1

λ3 = 2

         
−2 1 0 0 1 0 −1/4 0 x 1/4  1 
[A−2I|0] =  0 −2 1 0 ∼ 0 1 −1/2 0  =⇒  y  = t  1/2  =⇒ E2 =  2 
 
2 −5 2 0 0 0 0 0 z 1 4

Notar que los autovectores sólo indican una dirección determinada y por tanto se puede tomar
cualquier múltiplo del mismo14 .
En resumen la matriz A tiene 3 autovectores (dos de ellos iguales) y asociados a cada uno tiene
un autovector.

13 También denominada eigenespacio en las terminologías inglesa y alemana.


14 Es decir, cualquier vector paralelo.

Clases de Álgebra Pedro José Hernando Oter


8.2. Autovalores y Autovectores 153

8.2.4. Multiplicidades Algebraica y Geométrica

U Definición 8.5 (Multiplicicidad Algebraica y Geométrica)


• Multiplicidad Algebraica de un autovalor es la multiplicidad 15 de su raíz en el
polinomio característico.
• Multiplicidad Geométrica de un autovalor es la dimensión 16 del autoespacio asociado
al autovalor.

P Ejemplo 8.5. En el ejemplo Ejemplo 8.4, λ = 1 tiene multiplicidad algebraica 2 y λ = 2 tiene


multiplicidad algebraica 1. Por otra parte, el autovalor λ = 1 tiene multiplicidad geométrica 1
porque dim(E1 ) = 1, y λ = 2 también tiene multiplicidad geométrica 1 porque dim(E2 ) = 1.

P Ejemplo 8.6. Encontrar los autovalores y autovectores de la matriz:


 
−1 0 1
A =  3 0 −3 
1 0 −1

Solución:

−1 − λ 0 1

det(A − λI) = 3 −λ −3 = −λ(1 + λ)2 + 0 + 0 + λ − 0 − 0 = −λ2 (λ + 2) = 0

1 0 −1 − λ


λ1 = λ2 = 0 (multiplicidad algebraica 2)
−λ2 (λ + 2) = 0 =⇒
λ3 = −2 (multiplicidad algebraica 1)

λ1 = λ2 = 0
             
−1 0 1 0 1 0 −1 0 x 1 0  1 0 
[A−0I|0] =  3 0 −3 0 ∼ 0 0 0 0  =⇒  y  = t  0 +s  1  =⇒ E0 =  0  ,  1 
1 0 −1 0 0 0 0 0 z 1 0 1 0
 

λ3 = −2
         
1 0 1 0 1 0 1 0 x −1  −1 
[A + 2I|0] =  3 2 −3 0 ∼ 0 1 −3 0  =⇒  y  = t  3  =⇒ E−2 =  3 
1 0 1 0 0 0 0 0 z 1 1
 

La multiplicidad geométrica de λ1 = λ2 = 0 es 2 mientras que la de de λ3 = −2 es 1.

15 La multiplicidad de una solución en una ecuación es el número de veces que apare ese valor como solución.

Geométricamente tiene que ver con la concavidad de la función que define la ecuación cerca de esa raíz.
16 Número de vectores linealmente independientes.

Pedro José Hernando Oter Clases de Álgebra


154 TEMA 8: Autovalores y Autovectores

8.2.5. Autovalores y Matrices Inversas

R Teorema 8.1
Una matriz cuadrada A es invertible si y sólo si 0 no es un autovalor de A.

 Demostración 8.1
Una matriz cuadrada A es invertible si y sólo si det(A) 6= 0. Si 0 fuera un autovalor de esta
matriz se verificaría:

det(A − 0I) = det(A) = 0 −→ ¡Contradicción!

Por tanto cero no puede ser un autovalor de una matriz invertible.

Teorema Fundamental de las Matrices Invertibles


Veamos una versión ampliada del Teorema Fundamental de las Matrices Invertibles que vimos en el
Teorema 3.8, página 73.

R Teorema 8.2 (Teorema Fundamental de las Matrices Invertibles)


R
Sea A ∈ n×n y sea T : V 7−→ W una transformación lineal definida por A. Entonces las
siguientes afirmaciones son equivalentes:
• A es invertible.
• A~x = ~b tiene solución única ∀~b ∈ Rn .
• A~x = ~0 tiene sólo la solución trivial ~x = ~0 ∈ Rn .
• La forma escalonada reducida equivalente de A es In .
• rang(A) = n.
• ker(T ) = ker(A) = {~0}.

• T es biyectiva.
• Los vectores columna de A son linealmente independientes y forman una base del
R
espacio n .
• Los vectores fila de A son linealmente independientes y forman una base del espacio
Rn
.

• det(A) 6= 0.
• 0 no es un autovalor de A.

Clases de Álgebra Pedro José Hernando Oter


8.2. Autovalores y Autovectores 155

8.2.6. Tres Teoremas

R Teorema 8.3
R
Sea A ∈ n×n con autovalor λ y ~v un autovector asociado.
• Si A es invertible, entonces 1/λ es un autovalor A−1 con autovector asociado ~v .
• Para todo entero k, λk es un autovalor de la matriz Ak con autovector asociado ~v .

 Demostración 8.2
• Sea A~v = λ~v , con A invertible.

A−1 A~v = A−1 λ~v ; ~v = A−1 λ~v = A−1~v λ ; λ−1~v = A−1~v

Por tanto, λ−1 es un autovalor de A−1 con autovector asociado ~v .


• Sea A~v = λ~v . Entonces multiplicando reiteradamente ambas partes de la igualdad por
A se tiene:
A2~v = λA~v = λ2~v ; ··· ; Ak~v = λk~v
Por tanto, λk es un autovalor de Ak con ~v autovector asociado.
Como también se cumple A−1~v = λ−1~v se puede realizar la misma demostración para
A−k~v = λ−k~v , siendo A−k = (A−1 )k .

R Teorema 8.4
R
Sea A ∈ n×n y sean λ1 , · · · , λm autovalores distintos de A con autovectores asociados ~v1 ,
· · · , ~vm . Entonces ~v1 , · · · , ~vm son linealmente independientes.

R Teorema 8.5
R
Sea A ∈ n×n y sean λ1 , · · · , λm autovalores distintos de A con autovectores asociados ~v1 ,
· · · , ~vm . Sea un vector ~v combinación lineal de los autovectores, tal que:

~x = c1~v1 + · · · + cm~vm

Entonces para cualquier entero k se tiene:

Ak ~x = c1 λk1 ~v1 + · · · + cm λkm~vm

! Nota 8.3.

• La demostración del Teorema 8.4 no verá aqui debido a su longitud. Puede consultarse en la bibliografía ...
• La demostración del Teorema 8.5 fue vista en la introducción del presente tema.

Pedro José Hernando Oter Clases de Álgebra


156 TEMA 8: Autovalores y Autovectores

8.3. Semejanza y Diagonalización


8.3.1. Matrices Triangulares

R Teorema 8.6
Los autovalores de una matriz triangular 17 (superior, inferior o diagonal) son los elementos
de su diagonal principal.

 Demostración 8.3
El determinante de una matriz triangular es el producto de sus elementos diagonales18 . Como
la matriz (A − λI) es diagonal, su determinate es: 
Yn  λ1 = a11

det(A − λI) = (a11 − λ)(a22 − λ) · · · (ann − λ) = (aii − λ) = 0 ..
 .
i=1 
λn = ann
y por tanto, las soluciones de la ecuación característica serán los n elementos diagonales de
la matriz.

Ya que las las matrices triangulares muestran los autovalores de una matriz en su diagonal principal,
es muy interesante poder relacionar una matriz cuadrada cualquiera con una matriz triangular
equivalente que tenga los mismos autovalores.

Mediante el método de eliminación gaussiana se puede obtener una matriz triangular equivalente
de una matriz dada19 . Sin embargo, esta matriz equivalente por filas no conserva el valor del
determinante y por tanto tampoco conserva los autovalores.

En esta sección vamos a estudiar una nueva transformación matricial que sí conserva los autovalores.

8.3.2. Matrices Semejantes

U Definición 8.6 (Matrices Semejantes)


R
Sean A, B ∈ n×n . Se dice que A es semejante a B si existe una matriz (real o compleja)
K
P ∈ n×n invertible tal que,

AP = P B =⇒ P −1 AP = B

La semejanza de A a B se representa20 por A ∼ B.


Nota: La matriz P no es única.

17 Ver la Sección 3.0.1, página 52.


18 Ver la Sección 3.5.7, página 67.
19 Ver la Sección 1.5.3, página 17.
20 El símbolo ∼ se suele utilizar también para representar matrices equivalentes por filas.

Clases de Álgebra Pedro José Hernando Oter


8.3. Semejanza y Diagonalización 157

R Teorema 8.7 (Características de las Matrices Semejantes)


R
Sean A, B, C ∈ n×n , entonces:

• A ∼ A.
• Si A ∼ B entonces B ∼ A.
• Si A ∼ B y B ∼ C, entonces A ∼ C.

 Demostración 8.7
• Esta propiedad es consecuencia de: I −1 AI = A.
• Si A ∼ B entonces:

AP = P B =⇒ A = P BP −1 =⇒ P −1 A = BP −1 =⇒ B∼A

A∼B =⇒ AP = P B ; A = P BP −1

B∼C =⇒ BM = M C ; B = M CM −1

A = P BP −1 = P (M CM −1 )P −1 = (P M )C(P M )−1 = RCR−1 =⇒ AR = RC =⇒ A ∼ C

Propiedades de las Matrices Semejantes

Sean A, B ∈ Rn×n con A ∼ B, entonces:


1. det(A) = det(B).

2. A y B tienen el mismo polinomio característico y por tanto los mismos autovalores.


3. A es invertible si y sólo si B también lo es.
4. nul(A) = nul(B) =⇒ rang(A) = rang(B).

! Nota 8.4. Los autovectores ~v de A y B no tienen porqué ser iguales.

 Demostración 8.8
1. Como A = P BP −1 ,

det(A) = det(P ) det(B) det(P −1 ) = det(B) det(P ) det(P −1 ) = det(B)

(Continúa en la página siguiente)

Pedro José Hernando Oter Clases de Álgebra


158 TEMA 8: Autovalores y Autovectores

 Demostración 8.8 (Continuación)


2. Sea pA (λ) el polinomio característico de A y como A = P BP −1 se tiene,

pA (λ) = det(A−λI) = det(P BP −1 −λI) = det(P BP −1 −λP IP −1 ) = det(P (B−λI)P −1 ) =

= det(P ) det(B − λI) det(P −1 ) = det(P ) det(P −1 ) det(B − λI) = det(B − λI) = pB (λ)

3. Como A = P BP −1 , si existe A−1 debe ser: A−1 = (P BP −1 )−1 = P B −1 P −1

4. Sea un vector ~x ∈ ker(B) =⇒ B~x = ~0, entonces como AP = P B :

AP ~x = P B~x ; A(P ~x) = P (B~x) = ~0 =⇒ P ~x ∈ ker(A)

Esto indica que por cada vector ~x que anula B~x existe al menos otro vector P ~x que
anula A(P ~x). Por tanto, dim(ker(B)) = p ≤ dim(ker(A)). Por otra parte, sea un vector
~y ∈ ker(A) =⇒ A~y = ~0, entonces como BM = M A, siendo M = P −1 se tiene:

BM ~y = M A~y ; B(M ~y ) = M (A~y ) = ~0 =⇒ M ~y ∈ ker(B)

Por tanto, dim(ker(A)) = r ≤ dim(ker(B)). En definitiva, nul(A) = dim(ker(A)) =


dim(ker(B)) = nul(B). Como rang(X) + nul(X) = n, finalmente:

rang(A) = rang(B)

8.3.3. Diagonalización
Las matrices diagonales presentan grandes ventajas desde el punto de vista matricial:
• Son sencillas y necesitan poca memoria para su almacenamiento en un ordenador21 .
• Si existe, su inversa es muy fácil de calcular (invertir los elementos diagonales).
Q
• Su determinate es inmediato: |D| = dii .
• Sus autovalores coinciden con los elementos diagonales.
Por tanto, es interesante encontrar una matriz diagonal que sea semejante a una matriz dada: A ∼ D.

U Definición 8.7 (Matriz Diagonalizable)


R
Una matriz A ∈ n×n es diagonalizable si existe una matriz diagonal D ∈ n×n tal que AK
K
sea semejante a D, es decir, que exista una matriz P ∈ n×n invertible tal que:

AP = P D =⇒ A = P DP −1

21 Basta con almacenar únicamente los elementos de su diagonal.

Clases de Álgebra Pedro José Hernando Oter


8.3. Semejanza y Diagonalización 159

R Teorema 8.8 (Diagonalización de una Matriz)


R
Una matriz A ∈ n×n es diagonalizable si y sólo si tiene n autovectores linealmente
independientes, verificándose:
P −1 AP = D
donde los elementos diagonales de D son los autovalores de A y las columnas de P son los
n autovectores asociados linealmente independientes, en el mismo orden que los autovalores
correspondientes.

 Demostración 8.9
Sea A semejante a una matriz diagonal D mediante AP = P D. Sean ~v1 , · · · , ~vn las columnas
de P y λ1 , · · · , λn los elementos diagonales de A, entonces:
 
λ1 0 ··· 0
   
 0 λ2 · · · 0  
AP = P D =⇒ A ~v1 ~v2 · · · ~vn = ~v1 ~v2 · · · ~vn  . . .. 
 .. .. . 
0 0 ··· λn

     A~v1 = λ1~v1

A~v1 A~v2 ··· A~vn = λ1~v1 λ2~v2 ··· λn~vn ..
 .

A~vn = λn~vn
Igualando las columnas: A~vi = λi~vi , ∀i = 1, · · · , n.
Lo que demuestra que los vectores columna de P son los autovectores de A siendo los
autovalores asociados, los elementos diagonales de D en el mismo orden.
Como P es invertible, sus columna son linealmente independientes.
De igual forma se demuestra ⇐=, comenzando por los autovalores y autovectores de A.

P Ejemplo 8.7. En caso de ser posible, encontrar una matriz P que diagonalice la matriz,
 
0 1 0
A= 0 0 1 
2 −5 4

Solución: Del ejemplo Ejemplo 8.4 sabemos que sus autovalores son λ1 = λ2 = 1 y λ3 = 2,
siendo sus autovectores:
   
 1   1 
E1 =  1  ; E2 =  2 
   
1 4

Como A no tiene 3 autovectores linealmente independientes, por el Teorema 8.8,


A no es diagonalizable.

Pedro José Hernando Oter Clases de Álgebra


160 TEMA 8: Autovalores y Autovectores

P Ejemplo 8.8. Si es posible, encontrar una matriz P que diagonalice la matriz,


 
−1 0 1
A =  3 0 −3 
1 0 −1

Solución: Del Ejemplo 8.6 sabemos que sus autovalores son λ1 = λ2 = 0 y λ3 = −2, siendo sus
autovectores:      
 1 0   −1 
E0 =  0  ,  1  ; E−2 =  3 
   
1 0 1
Es fácil comprobar que los tres autovectores son linealmente independientes y pueden formar
una matriz P de la forma:
 
  1 0 −1
P = ~v1 ~v2 ~v3 =  0 1 3 
1 0 1

entonces P es invertible y además se puede comprobar que


       
−1 0 1 1 0 −1 0 0 2 1 0 −1 0 0 0
AP =  3 0 −3   0 1 3  =  0 0 −6  =  0 1 3  0 0 0  = PD
1 0 −1 1 0 1 0 0 −2 1 0 1 0 0 −2

! Nota 8.5.
• El orden no importa, pero las matrices P y D serán distintas en función del orden elegido. Por ejemplo, en el
caso anterior se podría haber elegido:
   
−1 0 1 −2 0 0
P =  3 1 0  ; D=  0 0 0 
1 0 1 0 0 0
   
0 −1 1 0 0 0
P =  1 3 0  ; D=  0 −2 0 
0 1 1 0 0 0
• Verificar AP = P D a mano es mucho más sencillo que verificar A = P DP −1 ya que no es necesario calcular
P −1 .

R Teorema 8.9 (Teorema de la Diagonalización)


R
Sea A ∈ n×n con autovalores distintos λ1 , · · · , λk con k ≤ n. Entonces, los siguientes
enunciados son equivalentes:
• A es diagonalizable.
• A tiene en total n autovectores linealmente independientes 22 .
• La multiplicidad algebraica de cada autovalor es igual a su multiplicidad geométrica 23 .

! Nota 8.6. La demostración es trivial.

22 El conjunto de todos los autoespacios de A contiene n autovectores.


23 Ver la Definición 8.5, página 153.

Clases de Álgebra Pedro José Hernando Oter


8.3. Semejanza y Diagonalización 161

8.3.4. Autovalores Reales y Complejos

Los autovalores de una matriz real pueden ser reales o complejos, al igual que sus autovectores.

P Ejemplo 8.9. Calcular los autovalores y autovectores de la matriz real A =



0
1
−1
0

.
Solución:

−λ −1 √ λ1 = i
det(A − λI) = = λ2 + 1 = 0 =⇒ λ = ± −1 = ±i
1 −λ λ2 = −i
λ1 = i
     
−i −1 0 1 −i 0 1 −i 0
[A − iI|0] = −→ −→ =⇒ v1 = iv2
1 −i 0 1 −i 0 0 0 0
     
x i i
=⇒ =t =⇒ Ei =
λ1 = −i y 1 1
     
i −1 0 1 i 0 1 i 0
[A + iI|0] = −→ −→ =⇒ v1 = −iv2
1 i 0 1 i 0 0 0 0
     
x −i −i
=⇒ =t =⇒ Ei =
y 1 1
Hay un tipo de matrices reales que siempre tienen autovalores y autovectores reales: las matrices
reales simétricas24 .

R Teorema 8.10
Si A es real y simétrica, entonces los autovalores y autovectores asociados de A son reales.

 Demostración 8.10
Un número complejo25 z = a + bi es real si z = z̄ ⇔ parte imaginaria nula, b = 0.
Sea una matriz A real y simétrica, entonces Ā = A y sea λ un autovalor con autovector
asociado v de A. Entonces Av = λv.
Tomando complejos conjugados en ambas partes se tiene: Av ¯ = Av̄ = λv¯ = λ̄v̄.
Posteriormente, tomando transpuestas y teniendo en cuenta el hecho de que A es simétrica:

(Av̄)T = (λ̄v̄)T ; v̄T A = λ̄v̄T

Calculemos entonces cuanto vale λ(v̄T v),

λ(v̄T v) = v̄T (λv) = v̄T (Av) = (v̄T A)v = (λ̄v̄T )v = λ̄(v̄T v) =⇒ (λ − λ̄)(v̄T v) = 0

(Continúa en la página siguiente)

24 Ver la Definición 3.9, página 58.


25 El conjugado de un número complejo z = a + bi es el complejo z̄ = a − bi (parte imaginaria cambiada de signo).

Pedro José Hernando Oter Clases de Álgebra


162 TEMA 8: Autovalores y Autovectores

 Demostración 8.10 (Continuación)


Como v es un autovector y por tanto no es nulo, v̄T v 6= 0 y por tanto,

λ − λ̄ = 0 ; λ = λ̄ =⇒ λ∈ R
Si los autovalores son reales y la matriz A también lo es, las soluciones del sistema homogéneo
(autovectores asociados) también serán reales.

8.4. Diagonalización Ortogonal

U Definición 8.8 (Diagonalización Ortogonal)


Una matriz A es ortogonalmente diagonalizable si existe una matriz ortogonal Q y una matriz
diagonal D tales que:
QT AQ = D

Vamos a ver las condiciones bajo las cuales una matriz es ortogonalmente diagonalizable.

R Teorema 8.11
Si A es simétrica todos los autovectores correspondientes a autovalores distintos son
ortogonales entre sí.

 Demostración 8.11
Sean ~v1 y ~v2 dos autovectores asociados a dos autovalores distintos λ1 = 6 λ2 , A~v1 = λ1~v1 ,
A~v2 = λ2~v2 . Teniendo en cuenta que A es simétrica, AT = A y que ~x · ~y = ~xT ~y , se tiene:

λ1 (~v1 · ~v2 ) = (λ1~v1 ) · ~v2 = (A~v1 ) · ~v2 = (A~v1 )T ~v2 = ~v1T (A~v2 ) = ~v1T (λ2~v2 ) = λ2 (~v1 · ~v2 )

Por tanto, (λ1 − λ2 )(~v1 · ~v2 ) = 0 y como λ1 6= λ2 por tanto ~v1 · ~v2 = 0.

P Ejemplo 8.10. Verificar el resultado del Teorema



8.11 con la matriz,

2 1 1
A= 1 2 1 
1 1 2

Solución: El polinomio característico de A es:

pA (λ) = det(A − λI) = −λ3 + 6λ2 − 9λ + 4 = −(λ − 4)(λ − 1)2 = 0


(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


8.4. Diagonalización Ortogonal 163

P Ejemplo 8.10 (Continuación).


Los autovalores son λ1 = 4, λ2 = 1 y los autoespacios correspondientes:
     
 1   −1 −1 
E4 =  1  ; E1 =  0  ,  1 
   
1 1 0

Donde fácilmente se comprueba que todo autovector de E4 , (en este caso sólo uno), es ortogonal
a todo autovector de E1 .

! Nota 8.7. En el Ejemplo 8.6 se obtiene un conjunto de autovectores que son linealmente independientes, pero no son
ortogonales. Por tanto, es diagonalizable pero no ortogonalmente.

8.4.1. Teorema Espectral

U Definición 8.9 (Espectro de una Matriz)


Al conjunto de los autovalores de una matriz A se le conoce con el nombre de espectro26 de
la matriz A.

R Teorema 8.12 (Teorema Espectral)


R
Sea A ∈ n×n . Entonces A es ortogonalmente diagonalizable si y solo sí es simétrica.

 Demostración 8.12
Si A es ortogonalmente diagonalizable, existe una matriz ortogonal Q tal que:

AQ = QD ; A = QDQT =⇒ AT = (QDQT )T = QDT QT = QDQT = A

De forma análoga, se puede demostrar que toda matriz simétrica es ortogonalmente


diagonalizable.

26 La palabra espectro proviene del latín espectrum que significa imagen. Cuando los átomos son excitados, estos

vibran y emiten luz, que es mezcla de distintas frecuencias y que corresponden a diferentes líneas brillantes en su
espectro. Estas frecuencias se pueden obtener de forma matemática calculando los autovalores de un determinado
operador matricial. De aquí deriva el nombre de espectro al conjunto de autovalores de una determinada matriz.

Pedro José Hernando Oter Clases de Álgebra


164 TEMA 8: Autovalores y Autovectores

8.4.2. Descomposición Espectral

U Definición 8.10 (Descomposición Espectral)


R
Cualquier matriz simétrica A ∈ n×n se puede expresar a través de una matriz ortogonal Q
y una matriz diagonal D como:
  T 
λ1 · · · 0 ~q1
  . .
A = QDQ = ~q1 · · · ~qn  ..
T . . ..   ... 
.  
=
T
0 · · · λn ~qn
 T 
~q
   .1 
= λ1 ~q1 ··· λn ~qn  ..  = λ1 ~q1 ~q1T + λ2 ~q2 ~q2T + · · · + λn ~qn ~qnT
~qnT
A la obtención de este resultado se le denomina descomposición espectral27 de A.
Nota: El conjunto {~q1 · · · ~qn } es un conjunto ortonormal, (ortogonales + unitarios).

P Ejemplo 8.11. Diagonalizar ortogonalmente la matriz siguiente y obtener su descomposición


espectral.  
2 1 1
A= 1 2 1 
1 1 2
Solución: En el ejemplo Ejemplo 8.10 determinamos los autovalores y autovectores de A, siendo
λ1 = 4 y λ2 = λ3 = 1 (doble) y los autoespacios correspondientes:
     
 1   −1 −1 
E4 =  1  ; E1 =  0  ,  1 
   
1 1 0

Como necesitamos tres autovectores ortogonales, aplicando el proceso de Gram-Schmidt28 a E1


se obtiene:    
 −1 −1/2 
E1 =  0  ,  1
 
1 −1/2
Normalizando estos vectores podemos obtener una matriz Q ortogonal de la forma:
 √ √ √   √   √   √ 
1/√3 −1/ 2 −1/√6 1/√3 −1/ 2 −1/√6
Q =  1/√3 √0 2/√6  ; ~q1 =  1/√3  , ~q2 =  
√0 , ~q3 =
 2/ 6 

1/ 3 1/ 2 −1/ 6 1/ 3 1/ 2 −1/ 6
(Continúa en la página siguiente)

27 Cada uno de los términos q ~i q~iT corresponde con la matriz asociada a la TL definida por la proyección ortogonal
sobre el subespacio generado por q~i , por esta razón a la descomposición espectral se la denomina a veces forma de
proyección del teorema espectral.
28 Ver la Sección 6.7, página 124.

Clases de Álgebra Pedro José Hernando Oter


8.5. Teoremas Avanzados Adicionales 165

P Ejemplo 8.11 (Continuación).


Notar que:  
4 0 0
QT AQ =  0 1 0 
0 0 1
Finalmente, su descomposición espectral será:

A = λ1 ~q1 ~q1T + λ2 ~q2 ~q2T + λ3 ~q3 ~q3T

8.5. Teoremas Avanzados Adicionales

R Teorema 8.13 (Teorema de Perron)


K
Sea A ∈ n×n una matriz positiva (aij > 0). Entonces A tiene un autovalor λ1 real con las
siguientes propiedades:
• λ1 > 0.

• λ1 tiene un autovector asociado ~v1 positivo (vi > 0).


• Para cualquier otro autovalor de A se verifica |λ| < λ1 .

R Teorema 8.14 (Teorema de Perron-Frobenius)


K
Sea A ∈ n×n una matriz irreducible no negativa. Entonces A tiene un autovalor λ1 real con
las siguientes propiedades:
• λ1 > 0.

• λ1 tiene un autovector asociado positivo.


• Para cualquier otro autovalor de A se verifica |λ| ≤ λ1 .
• Cualquier autovalor (real o complejo) λ de A que verifique |λ| = λ1 , entonces λ es una
raíz (compleja) de la ecuación λn − λn1 = 0.

• λ1 tiene multiplicidad algebraica 1.

! Nota 8.8. Estos dos teoremas se han hecho famosos por formar parte del algoritmo de Google para la determinación
rápida del ranking de páginas web.

Pedro José Hernando Oter Clases de Álgebra


166 TEMA 8: Autovalores y Autovectores

8.6. Resumen
• Toda matriz cuadrada siempre tiene autovalores y autovectores asociados (reales o complejos).
• Si A es real y simétrica sus autovalores y autovectores siempre serán reales.
• En las matrices triangulares (superiores, inferiores o diagonales), los autovalores corresponden
con los elementos de la diagonal principal : λi = aii .

• A es invertible ⇐⇒ cero no es un autovalor de A.


• Tres teoremas importantes:
1. Los autovectores asociados a autovalores distintos son linealmente independientes.
2. Ak ~x = α1 λk1 ~v1 + · · · + α1 λkn~vn siendo ~x = α1~v1 + · · · + αn~vn .
 −1
A : autovectores 1/λ, mismos autovectores de A.
3.
An : autovalores λn , mismos autovalores de A.
• Matrices Semejantes: A ∼ B ⇐⇒ ∃P invertible : AP = P B.
Propiedades:
– pA (λ) = pB (λ) =⇒ |A| = |B|
– rang(A) = rang(B) ; nul(A) = nul(B).
– Si ∃A −1
=⇒ B −1
.
• Diagonalización. ∃P : AP = P D si y sólo si existen n autovectores linealmente
independientes (multiplicidades ma = mg ), donde D = [λ1 · · · λ2 ] y P = [~v1 · · · ~vn ].
• Diagonalización Ortogonal (Teorema Espectral): AQ = QD si y sólo si A es simétrica.

• Descomposición Espectral. Si A es simétrica, existe Q ortogonal tal que:

A = QDQT = [~q1 · · · ~qn ][λ1 · · · λ2 ][~q1 · · · ~qn ]T = λ1 ~q1 ~q1T + · · · + λn ~qn ~qnT
:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

Clases de Álgebra Pedro José Hernando Oter


TEMA 9
Pseudoinversa y Descomposición en
Valores Singulares

Contenido
9.1 Pseudoinversa de una Matriz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 169
9.1.1 Propiedades de la Matriz Pseudoinversa . . . . . . . . . . . . . . . . . . . 170
9.2 Pseudoinversa y Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . 170
9.3 Matriz de una Proyección Ortogonal sobre un Subespacio . . . . . . . . . . . . . . 170
9.4 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.1 Valores Singulares de una Matriz . . . . . . . . . . . . . . . . . . . . . . . 172
9.4.2 Descomposición en Valores Singulares . . . . . . . . . . . . . . . . . . . . . 174
9.5 Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.1 Pseudoinversa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
9.5.2 Mínimos Cuadrados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
9.5.3 Otras Aplicaciones de la DVS . . . . . . . . . . . . . . . . . . . . . . . . . 182

167
168

Clases de Álgebra
Pseudoinversa y Descomposión en Valores Singulares (DVS)

Pseudoinversa Descomposición en Valores Singulares

Definición Propiedades Aplicaciones Definición Cálculo Propiedades Aplicaciones

Min. Cuadrados Proy. Ortogonal Subesp. Int. Geométrica Generalización Desc. Espectral

Pedro José Hernando Oter


TEMA 9: Pseudoinversa y Descomposición en Valores Singulares
9.1. Pseudoinversa de una Matriz 169

9.1. Pseudoinversa de una Matriz


Toda matriz A ∈ Rn×n invertible 1 da lugar a SEL compatibles determinados (solución única) de la
forma2 :
A~v = ~b =⇒ ~x = A−1 ~x ; ∀~b ∈ Rn
Si la matriz A no es invertible, el SEL no tiene solución única3 . Para toda matriz A ∈ Rm×n se define
la mejor aproximación a la solución del SEL A~x ≈ ~b, como la solución de mínimos cuadrados ~x ∈ Rn
dada por las ecuaciones normales4 :
AT A~x = AT ~b
Si la matriz A tiene columnas linealmente independientes, la matriz AT A es invertible, y en este caso
la solución de mínimos cuadrados es única y viene dada por:

~x = (AT A)−1 AT ~b

Por tanto, se puede considerar a la matriz (AT A)−1 AT como una generalización del concepto de
matriz inversa para toda matriz A ∈ m×n . R
En este tema vamos a explorar estas consideraciones y alguos conceptos importantes que aparecen
desde un punto de vista práctico.

U Definición 9.1 (Matriz Pseudoinversa)


R
Dada una matriz A ∈ m×n con columnas linealmente independientes, se define la matriz
pseudoinversa A+ de A como:

A+ = (AT A)−1 AT ; A+ ∈ Rn×m

! Nota 9.1. Si la matriz A es invertible, claramente A+ = A−1 ya que:


A+ = (AT A)−1 AT = A−1 (AT )−1 AT = A−1 I = A−1

P Ejemplo 9.1. Encontrar, en caso de que exista, la pseudoinversa de la matriz A ∈


siguiente:  
R3×2
1 1
A= 1 2 
1 3
Solución: Como los vectores columna son linealmente independientes, sí existe la matriz
pseudoinversa . Vamos a calcularla.
 
  1 1    
T 1 1 1   3 6 T −1 7/3 −1
A A= 1 2 = =⇒ (A A) =
1 2 3 6 14 −1 1/2
1 3
    
+ T −1 T 7/3 −1 1 1 1 4/3 1/3 −2/3
A = (A A) A = =
−1 1/2 1 2 3 −1/2 0 1/2
1 Por tanto con vectores fila y columna linealmente independientes.
2 Ver la Sección 3.4.2, página 62.
3 Puede tener infinitas soluciones (compatible indeterminado) o no tener solución (incompatible).
4 Ver la Sección 7.3, página 132.

Pedro José Hernando Oter Clases de Álgebra


170 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

9.1.1. Propiedades de la Matriz Pseudoinversa

Sea A ∈ Rm×n una matriz con columnas linealmente independientes, entonces:


• AA+ A = A

• A+ AA+ = A+
• AA+ y A+ A son simétricas.
• (cA)+ = 1c A+ para todo escalar c 6= 0.
• Si A es cuadrada:
• (A+ )+ = A
• (AT )+ = (A+ )T

9.2. Pseudoinversa y Mínimos Cuadrados

R Teorema 9.1 (Pseudoinversa y Mínimos Cuadrados)


R
Si A ∈ m×n es una matriz con vectores columna linealmente independientes, la solución
R
única de mínimos cuadrados p~ ∈ n del SEL incompatible A~x ≈ ~b viene dada por:

p~ = A+~b ; A+ ∈ Rn×m , ~b ∈ Rm

 Demostración 9.1
Basta tener en cuenta la Definición 9.1, página 169 de A+ y el Teorema 7.2, página 132.

9.3. Matriz de una Proyección Ortogonal sobre un Subespacio

U Definición 9.2 (Matriz de una Proyección Ortogonal)


Se define la matriz de la proyección ortogonal 5 de un vector ~v sobre un subespacio W , a
aquella matriz A asociada a la TL que define dicha proyección.

proyW (~v ) = A~v = T (~x)

5 Ver la Definición 6.9, página 121.

Clases de Álgebra Pedro José Hernando Oter


9.3. Matriz de una Proyección Ortogonal sobre un Subespacio 171

R Teorema 9.2
R R
Sea W un subespacio vectorial de m y A ∈ m×n una matriz cuyas columnas forman una
R
base de W , entonces la proyección ortogonal de todo vector ~v ∈ m sobre W es el vector:

proyW (~v ) = A(AT A)−1 AT ~v = AA+~v

 Demostración 9.2
Como los vectores columna de A forman una base de W se tiene:

proyW (~v ) = proycol(A) (~v )

Según el teorema de la mejor aproximación6 , la proyW (~v ) es la mejor aproximación de ~v en


W y ésta corresponde con la solución de mínimos cuadrados, ~x, dada por7 :

A~x = proycol(A) (~v )

cuya solución, si A tiene vectores columna linealmente independientes, viene dada por8 :

~x = (AT A)−1 AT ~v

Por tanto:
proyW (~v ) = proycol(A) (~v ) = A~x = A(AT A)−1 AT ~v = AA+~v

Según el Teorema 9.2, si A es una matriz con vectores columna linealmente independientes, la matriz
de la proyección ortogonal sobre col(A) es AA+ .

P Ejemplo 9.2. Encontrar la matriz de la proyección ortogonal de un vector ~v ∈ 3 sobre el


R
subespacio W ⊂ 3 definido por la ecuación del plano x − y + 2z = 0. Aplicarla para encontrar
R
la proyección ortogonal del vector ~v = [3, −1, 2] sobre W y comparar el resultado obtenido en el
Ejemplo 6.10, página 122.

Solución: Tomando una base de W , BW = {[1, 1, 0], [−1, 1, 1]} y formando la matriz:
 
1 −1
A= 1 1 
0 1
(Continúa en la página siguiente)

6 Ver el Teorema 7.1, página 131.


7 Ver la Sección 7.3, página 132.
8 Ver el Teorema 7.2, página 132.

Pedro José Hernando Oter Clases de Álgebra


172 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

P Ejemplo 9.2 (Continuación).


Entonces:
 
  1 −1    
1 1 0  1  2 0 1/2 0
AT A = 1 = =⇒ T
(A A) −1
=
−1 1 1 0 3 0 1/3
0 1

Por tanto, la matriz asociada a la proyección ortogonal sobre W es:


   
1 −1    5/6 1/6 −1/3
1/2 0 1 1 0
AA+ = A(AT A)−1 AT =  1 1  =  1/6 5/6 1/3 
0 1/3 −1 1 1
0 1 −1/3 1/3 1/3

La proyección de ~v = [3, −1, 2] sobre W será entonces:


    
5/6 1/6 −1/3 3 5/3
proyW (~v ) = A(AT A)−1 AT ~v =  1/6 5/6 1/3   −1  =  1/3 
−1/3 1/3 1/3 2 −2/3

cuyo resultado corresponde con el obtenido en el Ejemplo 6.10.

9.4. Descomposición en Valores Singulares


Como se ha visto anteriormente, algunas matrices A ∈ Rn×n se pueden factorizar mediante la
diagonalización de la siguiente forma9 :

A = P DP −1

donde D es una matriz diagonal con los autovalores de A, y P es una matriz invertible que contiene los
autovectores de A. Si A es simétrica entonces se puede realizar una diagonalización ortogonal10 ,
donde P será una matriz ortogonal 11 y por tanto P −1 = P T .
La diagonalización (ortogonal o no) sólo es posible en un determinado número de matrices A
cuadradas12 ..
Vamos a ver en esta sección una factorización general muy importante, útil para toda matriz A,
denominada Descomposición en Valores Singulares 13 (DVS).

9.4.1. Valores Singulares de una Matriz

R Teorema 9.3
R
Para toda matriz A ∈ m×n , la correspondiente matriz AT A ∈ Rn×n tiene todos sus
autovalores reales y no negativos.

9 Ver el Teorema 8.8, página 159.


10 Ver el Teorema 8.11, página 162.
11 Ver la Sección 6.3, página 116.
12 Sólo en aquellos casos en los que A tiene n autovalores linealmente independientes, ver la Sección 8.3, página 156
13 En terminología anglosajona se define como Singular Value Descomposition (SVD).

Clases de Álgebra Pedro José Hernando Oter


9.4. Descomposición en Valores Singulares 173

 Demostración 9.3
Para toda matriz A ∈ Rm×n , la matriz AT A ∈ Rn×n es simétrica14 ya que:
(AT A)T = AT (AT )T = AT A

y por tanto puede ser diagonalizada ortogonalmente. Además, por ser real y simétrica, todos
sus autovalores son reales15 .
(Continúa en la página siguiente)

 Demostración 9.3 (Continuación)


Por otra parte, llamando λ a un autovalor de AT A asociado a un autovector unitario ~v , se
tiene:

0 ≤ kA~v k2 = (A~v ) · (A~v ) = (A~v )T (A~v ) = ~v T AT A~v = ~v T λ~v = λ(~v · ~v ) = λk~v k2 = λ

y por tanto, todos los autovalores de AT A son no negativos.

U Definición 9.3 (Valores Singulares)


R
Se definen los valores singulares de una matriz A ∈ m×n , a las raíces cuadradas (positivas)
de los autovalores 16 de la matriz AT A. Se denotan mediante σ1 , σ2 , · · · , σr , ordenados en
orden decreciente y teniendo en cuenta sus correspondientes multiplicidades aritméticas 17 :

σ1 ≥ σ2 ≥ · · · ≥ σr ≥ 0

P Ejemplo 9.3. Calcular los valores singulares de



la matriz A ∈

R3×2 siguiente:
1 1
A= 1 0 
0 1

Solución: Calculamos primero la matriz AT A ∈ 2×2 . R


 
  1 1  
T 1 1 0   2 1
A A= 1 0 =
1 0 1 1 2
0 1
(Continúa en la página siguiente)

14 Ver la Definición 3.9, página 58.


15 Ver el Teorema 8.10, página 161.
16 Ver la Definición 8.2, página 149.
17 Ver la Definición 8.5, página 153.

Pedro José Hernando Oter Clases de Álgebra


174 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

P Ejemplo 9.3 (Continuación).


Los autovalores de esta matriz son:

2−λ 1 λ1 = 1
= (2 − λ)2 − 1 = λ2 − 4λ + 3 = 0 =⇒
1 2−λ λ2 = 3

Ordenando los autovalores de mayor a menor y calculando sus raíces cuadradas tenemos:

σ1 = 3 ; σ2 = 1

Interpretación Geométrica de los Valores Singulares


Basándonos en la demostración del Teorema 9.3, página 172, tenemos que los autovalores λi y
autovectores ~vi de la matriz AT A cumplen:
p
λi = kA~vi k2 =⇒ σi = λi = kA~vi k

R
Los valores kA~vi k corresponden con la longitud de los semi-ejes de las elipses (en 2 ) o elipsoides (en
R3
R
) formadas por todos los vectores A~x con ~x ∈ n , k~xk = 1, (ver la Sección 8.2.1, página 149).

9.4.2. Descomposición en Valores Singulares

R Teorema 9.4 (Descomposición en Valores Singulares)


R
Dada una matriz A ∈ m×n con valores singulares no nulos σ1 ≥ σ2 ≥ · · · ≥ σr . Entonces
R
existe una matriz ortogonal U ∈ m×m , una matriz ortogonal V ∈ n×n y una matriz R
R
“pseudodiagonal” 18 Σ ∈ m×n con los valores singulares en su diagonal principal, tales que:


 A ∈ m×n R

U ∈ m×m R(ortogonal)
A = U ΣV T

 Σ ∈ m×n
R(pseudodiagonal)

V ∈ n×n R(ortogonal)

     
a11 a12 ··· a1n u11 ··· u1m σ1 0 ··· 0 v11 ··· vn1
 a21 a22 ··· a2n   u21 ··· u2m  0 σ2 ··· 0  v12 ··· vn2 
     
 .. .. .. = .. .. ..  .. .. .. ..  .. .. .. 
 . . .   . . .  . . . .  . . . 
am1 am2 ··· amn um1 ··· umm v1n ··· vnn

! Nota 9.2. El teorema de la descomposición en valores singulares es una generalización del teorema de la
diagonalización de matrices cuadradas 19 .

18 Estrictamente no es una matriz diagonal al no ser siempre cuadrada, pero se cumple que todos sus elementos son

cero, excepto quizás los de su diagonal principal, como ocurre en todas las matrices diagonales.
19 Ver el Teorema 8.8, página 159.

Clases de Álgebra Pedro José Hernando Oter


9.4. Descomposición en Valores Singulares 175

 Demostración 9.4
Como la matriz V es ortogonal, por tanto V −1 = V T . Tenemos entonces que encontrar
matrices U , Σ y V tales que:

A = U ΣV T =⇒ AV = U Σ =⇒ A~vi = σi ~ui

Siendo ~vi y ~ui los vectores columna de las matrices V y U respectivamente y σi los valores
de la diagonal principal de la matriz Σ. Si tomamos como V = [~v1 , ~v2 , · · · , ~vn ], con ~vi los
R
autovectores (ordenados y normalizados) de la matriz AT A ∈ n×n y como σi los valores
singulares A se tiene:
1
~ui = A~vi i = 1, · · · , r
σi
Como la matriz V es ortogonal quedaría demostrar que la matriz U = [~u1 , ~u2 , · · · , ~um ]
también es ortogonal.

1 1 ~vi~vjT
u~i · u~j = u~i u~j T = A~vi ( A~vj )T = AAT = 0
σi σj σi σj

ya que V es ortogonal y por tanto ~vi~vjT = 0.

Notar que si r < m, la matriz U se debe completar con (m − r) vectores ortogonales hasta formar
un conjunto de m vectores ortogonales. 20 .

Propiedades de la DVS

R Teorema 9.5
Sea A = U ΣV T una descomposición de valores singulares de A ∈ Rm×n , siendo {σ1 , · · · , σr }
los valores singulares no nulos de A. Entonces:
• rang(A) = r
• {~u1 , · · · , ~ur } es una base ortonormal de col(A).

• {~ur+1 , · · · , ~um } es una base ortonormal de ker(AT ).


• {~v1 , · · · , ~vr } es una base ortonormal de fil(A).
• {~vr+1 , · · · , ~vn } es una base ortonormal de ker(A).

20 Tenemos que buscar vectores linealmente independientes y ortonormalizarlos con Gram-Schmidt al resto.

Pedro José Hernando Oter Clases de Álgebra


176 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

U Definición 9.4 (Vectores Singulares por la Izquierda y por la Derecha)


R
Dada una DVS de una matriz A ∈ m×n de la forma A = U ΣV T , se denominan:

• Vectores singulares por la izquierda de A, a las columnas de U .


• Vectores singulares por la derecha de A, a las columnas de V .

U Definición 9.5 (Generalización de la Descomposición Espectral21 )


R
Dada una matriz A ∈ m×n con descomposición en valores singulares A = U ΣV T dada por:

Σ = diag(σ1 , · · · , σr ) ; V = [~v1 , · · · , ~vn ] ; U = [~u1 , · · · , ~um ]

Entonces:
A = σ1 ~u1~v1T + · · · + σr ~ur ~vrT

Proceso de Cálculo

El proceso a seguir para obtener la DVS de una matriz A ∈ Rm×n es el siguiente:


A = U ΣV T

R
1. Calcular los n autovalores λi y autovectores ~vi de la matriz AT A ∈ n×n . Los autovalores 22
deben estar ordenados de mayor a menor y los autovectores 23 deben ser normalizados para
obtener un conjunto ortonormal.

2. Se calculan los valores singulares de A, σi = λi . Construimos la matriz Σ ∈ m×n constituida R
toda de ceros, excepto los r ≤ n valores singulares no nulos, σi > 0, en la diagonal principal.

3. Se construye la matriz V ∈ Rn×n con los autovectores ~vi ordenados en las columnas.
4. Calculamos los r primeros vectores columna de la matriz U ∈ Rm×m mediante:
1
~ui = A~vi
σi
Estos vectores ya serán ortonormales. Si r < m necesitamos completar el conjunto con m − r
vectores ortogonales al conjunto {~u1 , · · · , ~ur }. Para ello buscamos primero vectores linealmente
independientes 24 al conjunto y posteriormente los ortonormalizamos mediante el proceso de
Gram-Schmidt25 .
5. Finalmente, con los m vectores ~ui construimos la matriz U ordenados en las columnas.

21 Ver la Definición 8.10, página 164.


22 Los cuales son todos reales no negativos, ya que AAT es una matriz real y simétrica.
23 Los cuales son ortogonales.
24 Se suele probar con vectores válidos lo más sencillos posibles, como por ejemplo los vectores estándar ~
ei .
25 Ver la Sección 6.7, página 124.

Clases de Álgebra Pedro José Hernando Oter


9.4. Descomposición en Valores Singulares 177

Las matrices U y V no están determinadas de forma única y por tanto se pueden obtener diferentes
descomposoiciones en valores singulares de una misma matriz.

P Ejemplo 9.4. Encontrar una descomposición en valores singulares de la siguiente matriz:


 
1 1 0
A=
0 0 1

Solución: Tenemos que encontrar las matrices Σ, V , y U de forma que A = U ΣV T . Calculamos


primeramente la matriz AT A:
   
1 0   1 1 0
1 1 0
AT A =  1 0  = 1 1 0 
0 0 1
0 1 0 0 1

Encontramos los autovalores de esta matriz:



1−λ 1 0

1 1−λ 0 = (1−λ)3 −(1−λ) = (1−λ)[(1−λ)2 −1] = (1−λ)(λ2 −2λ) = λ(1−λ)(λ−2)

0 0 1−λ

Por tanto los autovalores, ordenados de mayor a menor, son: λ1 = 2, λ2 = 1, λ3 = 0. Calculando


sus correspondientes autovectores, se tiene:
     
1 0 −1
~v1 =  1  ; ~v2 =  0  ; ~v3 =  1 
0 1 0

Estos vectores ya son ortogonales, por tanto basta con normalizarlos dividiendo por su
correspondiente norma:
 √     √ 
1/√2 0 −1/√2
~v1 =  1/ 2  ; ~v2 =  0  ; ~v3 =  1/ 2 
0 1 0
√ √ √ √
Entonces, los valores singulares de A son σ1 = λ1 = 2, σ2 = λ2 = 1, σ3 = λ3 = 0. Por
tanto, las matrices Σ y V quedan:
 √ √ 
 √  1/√2 0 −1/√2
2 0 0
Σ= ; V =  1/ 2 0 1/ 2 
0 1 0
0 1 0

Nos falta la matriz U que tiene dimensiones 2 × 2, ya que A tiene dimensiones 2 × 3. Entonces:
 √ 
  1/ 2  
1 1 1 1 0  √ 1
~u1 = A~v1 = √ 1/ 2 = 
σ1 2 0 0 1 0
0
 
  0  
1 1 1 1 0  0 = 0
~u2 = A~v2 =
σ2 1 0 0 1 1
1
(Continúa en la página siguiente)

Pedro José Hernando Oter Clases de Álgebra


178 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

P Ejemplo 9.4 (Continuación).


Por tanto:  
1 0
U=
0 1
Finalmente:
 √ √ 
  √  1/ 2 1/ 2 0
1 0 2 0 0 
A = U ΣV T = 0√ 0√ 1 
0 1 0 1 0
−1/ 2 1/ 2 0

P Ejemplo 9.5. Encontrar una descomposición en valores de la matriz dada en el Ejemplo 9.4,
página 177 que sea distinta de la obtenida en dicho problema.
Solución: Podemos encontrar unos autovectores distintos a los obtenidos en el Ejemplo 9.4. En
concreto podemos cambiar el autovector ~v3 (cambiando de posición el signo negativo):
     
1 0 1
~v1 =  1  ; ~v2 =  0  ; ~v3 =  −1 
0 1 0

En este caso, las matrices Σ y V quedan:


√  √ 
 √  1/√2 0 1/√2
2 0 0
Σ= ; V =  1/ 2 0 −1/ 2 
0 1 0
0 1 0

Finalmente la matriz U será:


 √ 
  1/√2  
1 1 1 1 0  1/ 2  = 1
~u1 = A~v1 = √
σ1 2 0 0 1 0
0
 
  0  
1 1 1 1 0  0 = 0
~u2 = A~v2 =
σ2 1 0 0 1 1
1
Como la matriz U tiene dimensión 2 × 2, queda igual que el caso anterior.
 
1 0
U=
0 1

Finalmente:
 √ √ 
  √  1/ 2 1/ 2 0
1 0 2 0 0  0
A = U ΣV T = √ 0√ 1 
0 1 0 1 0
1/ 2 −1/ 2 0

Clases de Álgebra Pedro José Hernando Oter


9.4. Descomposición en Valores Singulares 179

P Ejemplo 9.6. Encontrar una descomposición


Ejemplo 9.3, página 173. 
en valores singulares de la matriz del

1 1
A= 1 0 
0 1
Solución: Los autovalores calculados de la matriz AT A son: λ1 = 3 y λ2 = 1. Calculando los
correspondientes autovectores y normalizándolos se tiene:
 √   √ 
1/√2 −1/√2
~v1 = ; ~v2 =
1/ 2 1/ 2

Por tanto los valores singulares de A son σ1 = 3 y σ2 = 1 y por tanto:
 √ 
3 0  √ √ 
1/√2 −1/√2
Σ= 0 1  ; V =
1/ 2 1/ 2
0 0

Notar que como las dimensiones de A son 3 × 2, la matriz Σ tiene las mismas dimensiones que
A, la matriz V debe ser 2 × 2 y la matriz U debe ser 3 × 3. Para calcular U utilizamos los
autovectores:    √ 
1 1  √  2/√6
1 1 1/√2
~u1 = A~v1 = √  1 0  =  1/√6 
σ1 3 0 1 1/ 2
1/ 6
   
1 1  √ 
1 1 −1/ 2 √0
~u2 = A~v2 = 1 0  √ =  −1/√2 
σ2 1 1/ 2
0 1 1/ 2
Necesitamos un tercer vector ~u3 que sea ortonormal a ~u1 y ~u2 . Por ejemplo, claramente el vector
~e3 = [0, 0, 1] es linealmente independiente de ~u1 y ~u2 y por tanto basta con utilizar el proceso
Gram-Schmidt26 .
   √     
0 2/√6 √ 0 −1/3
~u1 · ~e3 ~u2 · ~e3 1 1
~u3 = ~e3 − ~u1 − ~u2 =  0  − √  1/√6  − √  −1/√2  =  1/3 
~u1 · ~u1 ~u2 · ~u2 6 2
1 1/ 6 1/ 2 1/3
√ √ √ √
Dividiendo por la norma k~u3 k = 3/3 se obtiene ~u3 = [−1/ 3, 1/ 3, 1/ 3] y por tanto:
 √ √ 
2/√6 √0 −1/√3
U =  1/√6 −1/√2 1/√3 
1/ 6 1/ 2 1/ 3

Finalmente, la DVS de A queda:


 √ √  √ 
2/√6 −1/√3 0  √ √ 
√0 3
1/
A = U ΣV T
=  1/√6 −1/√2 1/√3   0 1  √2 1/√2
−1/ 2 1/ 2
1/ 6 1/ 2 1/ 3 0 0

26 Ver la Sección 6.7, página 124.

Pedro José Hernando Oter Clases de Álgebra


180 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

9.5. Aplicaciones de la DVS


9.5.1. Pseudoinversa
La dvs de una matriz puede utilizarse para determinar de forma eficiente la pseudoinversa de la matriz.

R Teorema 9.6
Sea A = U ΣV T una descomposición de valores singulares de A ∈ Rm×n , siendo {σ1 , · · · , σr }
los valores singulares no nulos de A. Entonces:

A + = V Σ+ U T

siendo Σ+ la matriz transpuesta de Σ con los elementos inversos en la diagonal principal.

 Demostración 9.5
Vamos a sustituir A por su dvs A = U ΣV T en la definición de la pseudoinversa de una
matriz27 .

A+ = (AT A)−1 AT = [(U ΣV T )T (U ΣV T )]−1 (U ΣV T )T = [V ΣT U T U ΣV T ]−1 (V ΣT U T ) =

= [V ΣT ΣV T ]−1 (V ΣT U T ) = V (ΣT Σ)−1 V T V ΣT U T = V (ΣT Σ)−1 ΣT U T = V Σ+ U T


Donde:
  −1  
σ1 0 ··· 0 σ1 0 ··· 0 σ1 0 ··· 0
 0 σ2 ··· 0  0 σ2 ··· 0   0 σ2 ··· 0 
    
Σ+ = (ΣT Σ)−1 ΣT =  .. .. .. ..  .. .. .. ..   .. .. .. .. =
 . . . .  . . . .   . . . . 

 −1    1
 
σ12 0 ··· 0 σ1 0 ··· 0 σ12
0 ··· 0 σ1 0 ··· 0
 0 σ22 ··· 0   0 σ2 ··· 0   0 1
··· 0

0 σ2 ··· 0 
     σ22  
= .. .. .. ..   .. .. .. .. = .. .. .. ..
 .. .. .. .. =
 . . . .   . . . .  
 . . . .

 . . . . 

 1 
σ1 0 ··· 0
 0 1
··· 0 
 σ2 

 .. .. .. .. 

. . . .

27 Ver la Definición 9.1, página 169.

Clases de Álgebra Pedro José Hernando Oter


9.5. Aplicaciones de la DVS 181

9.5.2. Mínimos Cuadrados


La descomposición en valores singulares se puede utilizar también para resolver de forma eficiente el
problema de mínimos cuadrados28 .

R Teorema 9.7
Sea A = U ΣV T una descomposición de valores singulares de A ∈ m×n , siendo {σ1 , · · · , σr } R
los valores singulares no nulos de A. Entonces la solución de mínimos cuadrados del problema
A~p ≈ ~b se puede expresar como:

~b · ~u1 ~b · ~u2 ~b · ~un


p~ = ~v1 + ~v2 + · · · + ~vn
σ1 σ2 σn

 Demostración 9.6
Vamos a sustituir A por su dvs A = U ΣV T en las ecuaciones normales del problema de
mínimos cuadrados29 .
p~ = (AT A)−1 (AT ~b) = A+~b = V Σ+ U T ~b
Teniendo en cuenta que:
 1    1 
σ1 0 ··· 0 ~u1 σ1 ~
u1
 0 1
··· 0    1 
+ T  σ2  ~u2   σ2 u2
~ 
Σ U = .. .. .. ..  .. = .. 
 . . . .  .   . 
1 ~um 1
0 0 ··· σm σ2 ~um

siendo ~ui los vectores columna de la matriz U . Por otra parte30 :


   u1 ·~b
~

1
σ1 ~
u1 σ1
 1   u2 ·~b
~ 
 σ2 u2
~ ~  σ2 
+
Σ U b= T~
.. b = 
 ..


 .   . 
1
σ2 ~um um ·~b
~
σm

Finalmente:
 u1 ·~b
~

σ1
 u2 ·~b
~ 
  σ2  ~b · ~u1 ~b · ~u2 ~b · ~un
V Σ+ U T ~b = ~v1 ~v2 · · · ~vn  = ~v1 + ~v2 + · · · + ~vn
 ..  σ1 σ2 σn
 . 
um ·~b
~
σm

28 Ver el Tema 7, página 129.


29 Ver el Teorema 7.2, página 132 y el Teorema 9.1, página 170.
30 Ver la Sección 3.1.6, página 56.

Pedro José Hernando Oter Clases de Álgebra


182 TEMA 9: Pseudoinversa y Descomposición en Valores Singulares

9.5.3. Otras Aplicaciones de la DVS


La DVS de una matriz es una herramienta muy útil, tanto en la práctica como en la teoría. Algunos
aplicaciones adicionales a las explicadas aquí son:
• Cálculo numérico del rango 31 de una matriz de forma precisa.

• Simplificación y exactitud en el cálculo de expresiones que involucran normas 32 y número de


condición 33 de las matrices.
• Compresión de imágenes digitales.

:???;
>CDB>
>1A>
>C1B>
>EA>
<???=

31 Ver la Sección 1.5.4, página 18.


32 Las normas matriciales no se verán aquí.
33 Ver la Definición 7.3, página 136.

Clases de Álgebra Pedro José Hernando Oter


TEMA 10
Introducción a las Ecuaciones
Diferenciales Ordinarias con
Coeficientes Constantes

Contenido
10.1 Introducción a las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . . . . . . 185
10.1.1 Clasificación de las Ecuaciones Diferenciales . . . . . . . . . . . . . . . . . 186
10.2 Solución o Curva Integral de una EDO . . . . . . . . . . . . . . . . . . . . . . . . 188
10.2.1 Resolución de EDO Simples: Método de Separación de Variables . . . . . 189
10.2.2 Problema de Valores Iniciales y Condición Inicial . . . . . . . . . . . . . . 190
10.2.3 Solución General y Particular de una EDO . . . . . . . . . . . . . . . . . . 191
10.3 Interpretación Geométrica de una EDO . . . . . . . . . . . . . . . . . . . . . . . . 192
10.3.1 Campo de Pendientes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
10.3.2 Isoclinas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 194
10.4 Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) . . . . . . . . . . . . . . 195
10.4.1 SEDO de Primer Orden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 196
10.4.2 Sistema Equivalente a EDO de Orden n . . . . . . . . . . . . . . . . . . . 196
10.4.3 SEDO Lineales y Autónomos . . . . . . . . . . . . . . . . . . . . . . . . . 197
10.5 SEDO con Coeficientes Constantes, (SEDOC) . . . . . . . . . . . . . . . . . . . . 197
10.5.1 Forma Matricial de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.2 Solución Analítica de un SEDOC . . . . . . . . . . . . . . . . . . . . . . . 198
10.5.3 Solución General y Particular de un SEDOC . . . . . . . . . . . . . . . . . 199
10.6 SEDOC Bidimensionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.6.1 Tipos de Soluciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 200
10.7 Sistemas Dinámicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
10.7.1 Sistemas Dinámicos Continuos Lineales . . . . . . . . . . . . . . . . . . . . 208
10.7.2 Representación Gráfica: Trayectorias, Plano de Fases y Espacio de Fases . 208
10.7.3 Puntos Criticos, Estacionarios o de Equilibrio . . . . . . . . . . . . . . . . 210
10.7.4 Campo Direccional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 211
10.7.5 Separatrices . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 212
10.8 Estabilidad de un SEDO . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
10.8.1 Tipos de Estabilidad y Soluciones de Sistemas Dinámicos . . . . . . . . . 217
10.8.2 Análisis de la Estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . 219

183
184

Clases de Álgebra
Ecuaciones Diferenciales (EDO)

Definición Solución Interpretación Geométrica Sistemas (SEDO) Sistemas Dinámicos Estabilidad

Clasificación Curva Integral Mét. Resolución Campo Pendientes Isoclinas Tipos Forma Matricial Solución Analítica Definición Rep. Gráfica Separatrices Definición Análisis

Sol. General Sol. Particular Primer Orden Sol. General Sol. Particular Tipos Trayectorias Plano Fase Campo Direccional Tipos Puntos Críticos

Lineales Autónomos Nodos Focos Centros Espirales Puntos Silla

Pedro José Hernando Oter


TEMA 10: Introducción a las Ecuaciones Diferenciales
10.1. Introducción a las Ecuaciones Diferenciales 185

10.1. Introducción a las Ecuaciones Diferenciales

U Definición 10.1 (Ecuación Diferencial)


Una ecuación diferencial es una ecuación que puede relacionar una función (variable
dependiente), su variable o variables (variables independientes) y al menos una de sus
derivadas.

P Ejemplo 10.1. Los siguientes son ejemplos de ecuaciones diferenciales:

y 0 = −ky

d2 y dy
x2 +x + (x2 − p2 )y = 0
dx2 dx
∂2w ∂w
= a2
∂x2 ∂t
Las ecuaciones diferenciales son el núcleo principal del Análisis Matemático y es la parcela
matemática más importante para la compresión de las Ciencias Físicas.

Analisis Complejo

Cálculo
Series de Fourier y
Polinomios Ortogonales

Álgebra Ecuaciones Diferenciales


Integral de Lebesge

Análisis
Numérico
Espacios Metricos y
de Hilbert

ANÁLISIS MATEMÁTICO

Las ecuaciones diferenciales tienen innumerables aplicaciones teóricas y prácticas en muchos campos
de las ciencias, ingeniería y tecnología, como por ejemplo:

• Física: Leyes gravitacionales, electricidad y magnetismo, ecuaciones de onda, mecánica clásica


y cuántica, relatividad de Einstein, etc.
• Química: Mezclas y reacciones químicas, química nuclear, etc.
• Biología: Bio-física, ecología, poblaciones, etc.

• Economía
• ...

Pedro José Hernando Oter Clases de Álgebra


186 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.1.1. Clasificación de las Ecuaciones Diferenciales


Debido a la gran complejidad de las ecuaciones diferenciales, éstas se pueden clasificar de diferentes
formas, en función de:

1. Tipo de las derivadas.


2. Orden de la ecuación.
3. Linealidad de la ecuación.

Clasificación 1: Tipo de las derivadas


Las ecuaciones diferenciales se pueden clasificar en dos grandes grupos en función del tipo de derivadas
que aparecen:
• Ecuaciones Diferenciales Ordinarias (EDO): Son aquellas ecuaciones diferenciales donde las
derivadas son respecto a una única variable independiente, denominadas derivadas ordinarias.
  dk y
F x, y, y 0 , y 00 , . . . , y (n) = 0 , y (k) = (10.1)
dxk

• Ecuaciones Diferenciales en derivadas parciales (EDP): Son aquellas ecuaciones


diferenciales donde aparecen derivadas respecto a más de una variable independiente,
denominadas derivadas parciales.
 ∂2z
z(x, y, t) =⇒ F x, y, t, z, zx0 , zy0 , . . . = 0 , zxy
00
= (10.2)
∂x∂y

En este tema sólo veremos algunos tipos de ecuaciones diferenciales ordinarias (EDO).

Clasificación 2: Orden y Grado de la Ecuación Diferencial

U Definición 10.2 (Orden de una EDO)


El orden de una ecuación diferencial (ordinaria o en derivadas parciales) es el orden de la
derivada de mayor orden de la ecuación.

P Ejemplo 10.2.
df
x + x2 = 0 : EDO de primer orden
dx

df d2 f d3 f
2 + 2 − 3 = x3 : EDO de tercer orden
dx dx dx

∂f ∂2f
+ = x + y2 : EDP de segundo orden
∂x ∂x∂y

Clases de Álgebra Pedro José Hernando Oter


10.1. Introducción a las Ecuaciones Diferenciales 187

U Definición 10.3 (Grado de una EDO)


El grado de una ecuación diferencial (ordinaria o en derivadas parciales) es la potencia de la
máxima derivada contenida en la ecuación.

P Ejemplo 10.3.

d3 y d2 y dy
3
− 5x 2 + 6 − 7y = 0 : EDO de primer grado
dx dx dx
 2 3  5
d v 2 dv
6 − 7v = 15t + 3 + 10 : EDO de tercer grado
dt2 dt

∂z ∂2z
10x2 − =0 : EDP de primer grado
∂x ∂x∂y

Clasificación 3: Linealidad de la Ecuación

U Definición 10.4 (Linealidad de una Ecuación Diferencial)


Una ecuación diferencial ordinaria Ecuación (10.1) o parcial Ecuación (10.2), se dice que es
lineal si cumple simultáneamente las dos siguientes condiciones:

• La variable dependiente y todas sus derivadas son de primer grado (el exponente es igual
a 1).
• Cada término coeficiente1 sólo depende, a lo sumo, de la(s) variable(s) independiente(s),
(no importan los exponentes de los coeficientes).

P Ejemplo 10.4.

y 00 − 2y 0 + y = 0 : EDO lineal (1 − y)y0 + 2y = ex : EDO no lineal

d3 y dy d2 y
+x − 5y = ex : EDO lineal + sen y = 0 : EDO no lineal
dx3 dx dx2

d4 y
(y − x)dx + 4xdy = 0 : EDO lineal + y2 = 0 : EDO no lineal
dx4

1 Aquel término que multiplica a una derivada.

Pedro José Hernando Oter Clases de Álgebra


188 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.2. Solución o Curva Integral de una EDO

U Definición 10.5 (Solución o Curva Integral de una EDO)


Dada una EDO, Ecuación (10.1), cualquier función y = f (x) de clase 2 C n (o superior) en un
intervalo3 I que verifique la ecuación, se denomina solución o curva integral de la EDO en el
intervalo I.

La solución de una EDO puede tener dos formas generales:

• Solución Analítica: La solución viene dada mediante una expresión matemática (fórmula,
desarrollo en serie, etc.)
• Solución Numérica: Los valores de la solución son conocidos mediante la resolución de un
algoritmo numérico, teniendo normalmente una determinada precisión.

Aunque generalmente es difícil o incluso imposible encontrar una solución analítica 4 a una EDO,
suele ser sencillo comprobar que una determinada función y = f (x) es solución de una determinada
EDO, calculando las correspondientes derivadas, introducciéndolas en la ecuación y comprobando su
veracidad.

P Ejemplo 10.5. Dada la EDO:


y 00 − 5y 0 + 6y = 0
comprobar que las tres funciones:

f1 (x) = e2x ; f2 (x) = e3x ; f3 (x) = c1 f1 (x) + c2 f2 (x) , con c1 , c2 ∈ R


son soluciones analíticas de la EDO.
Solución:

• y = e2x ; y 0 = 2e2x ; y 00 = 4e2x −→ 4e2x − 10e2x + 6e2x = 0 cierto!


Sol.
=⇒

• y = e3x ; y 0 = 3e3x ; y 00 = 9e3x −→ 9e3x − 15e3x + 6e3x = 0 cierto!


Sol.
=⇒

• y = c1 e2x + c2 e3x ; y 0 = 2c1 e2x + 3c2 e3x ; y 00 = 4c1 e2x + 9c2 e3x −→
Sol.

[4c1 e2x + 9c2 e3x ] − [10c1 e2x + 15c2 e3x ] + [6e2x + 6e3x ] = 0 =⇒ cierto!

! Nota 10.1. Las EDO poseen una teoría compleja sobre la existencia y unicidad de sus soluciones y en este curso sólo
se verán algunos detalles de la misma, (ver el Teorema 10.1, página 196).

2 Se dice que una función y = f (x) es de clase C n si existen y son continuas la función y sus n primeras funciones

derivadas; y, y 0 , y 00 , · · · , y (n) .
3 El intervalo I se denomina intervalo de definicion, de validez o dominio de la solución. Puede ser un intervalo

abiero (a, b), cerrado [a, b], infinito (a, ∞), etc.
4 Sólo aproximadamente el 99.9% de las EDO resolubles tienen solución analítica. El procentaje es todavía mucho

menor en el caso de las EDP.

Clases de Álgebra Pedro José Hernando Oter


10.2. Solución o Curva Integral de una EDO 189

10.2.1. Resolución de EDO Simples: Método de Separación de Variables


Como se ha comentado, generamente es necesario un método numérico para poder encontrar la soluciòn
de una determinada EDO. Sin embargo, para los casos más sencillos existen determinados métodos
matemáticos que permiten encontrar la solución analítica de la ecuación. En esta sección vamos a ver
uno de estos métodos, el de separación de variables, que aun siendo bastante simple posee una gran
aplicabilidad.
Sea la EDO de primer orden:

 x : Variable independiente.
dy
= F (x, y) =⇒ y = f (x) : Variable dependiente de x. Solución buscada. (10.3)
dx 
F (x, y) : Función escalar de varias variables.

U Definición 10.6 (Función de Variables Separables)


Se dice que una función F (x, y) es de variables separables si puede separse en dos funciones,
una para la variable independiente x y otra para la variable dependiente y, de forma:

F (x, y) = g(x)h(y)

Método de Separación de Variables

Si la función F (x, y) es de variables separables, entonces se puede utilizar el método de separación


de variables para encontrar la solución de la EDO Ecuación (10.3), de la siguiente forma:
Z Z
dy dy dy
= F (x, y) = g(x)h(y) ; = g(x)dx ; = g(x)dx
dx h(y) h(y)

En el caso de que se puedan integrar ambas integrales indefinidas se obtiene la función solución 5 .

Notar que al resolver las integrales indefinidas aparece una constante de integración para cada una.
Estas constantes se pueden simplificar en una sóla de la siguiente forma:
Z Z
f (t) dt = g(r) dr ; F (t) + α = G(r) + β ; F (t) = G(r) + c

siendo F (t) y G(r) funciones primitivas 6 de f (t) y g(r) respectivamente, α y β las constantes de
integración y c = β − α la única constante de integración simplificada.

5 La función solución puede estar en forma explícita, y = f (x), o bien en forma implícita, f (x, y) = 0, sin poder

despejar la variable dependiente de la independiente.


6 Es decir, funciones que cumplen [F (t)]0 = f (t) y [G(r)]0 = g(r).

Pedro José Hernando Oter Clases de Álgebra


190 TEMA 10: Introducción a las Ecuaciones Diferenciales

P Ejemplo 10.6. Resolver las siguientes EDO simples mediante el método de separación de
variables:
dy dy dy dy
a) =5 b) = 4x2 + 3x − 2 c) = −y d) = 10t2 x3 y 5
dx dx dt dt

Solución:
Z Z
• a)
dy
dx
=5 ; dy = 5 dx ; y = 5x + c ; c∈ R
Z Z
• b)
dy
dx
= 4x2 +3x−2 ; dy = (4x2 +3x−2) dx ; y =
4x3
3
+
3x2
2
− 2x + c ; c ∈ R
Z Z
dy dy
• c) = −y ; = − dt ; ln y = −t + c ; y = e−t+c = e−t ec ; y = ke−t
dt y
k = ec ∈ R
Z Z  3 
• d)
dy
dt
2 3 5
= 10t x y ;
dy
y5
= 10x 3 2
t dt ;
−1
4y 4
= 10x 3 t
3
+c ; c∈ R
Notar que en este último caso la variable x es considerada un parámetro ya que no es ni
es ni la variable dependiente ni la variable independiente.

10.2.2. Problema de Valores Iniciales y Condición Inicial

U Definición 10.7 (Problema de Valores Iniciales, (PVI))


Se denomina problema de valores iniciales (PVI) al conjunto formado de una EDO y unas
condiciones iniciales 7 :
 
 EDO a resolver: F t, x, x0 , . . . , x(n) = 0



(n−1)
 Sujeta a: x(t0 ) = x0 , x0 (t0 ) = t00 , . . . , x(n) (t0 ) = x0



Condiciones Iniciales

P Ejemplo 10.7. El siguiente es un ejemplo de un problema de valor inicial, (PVI), para una
EDO de primer orden: 
 dy
 = xy − sen x2
dx


y(3) = −10

7 El término condición inicial proviene de los sistemas físicos en los que la variable independiente es el tiempo t y

donde y(t0 ) = y0 y y 0 (t0 ) = y00 representan respectivamente, la posición y velocidad iniciales a tiempo t0 .

Clases de Álgebra Pedro José Hernando Oter


10.2. Solución o Curva Integral de una EDO 191

P Ejemplo 10.8. El siguiente es otro ejemplo de un problema de valor inicial, (PVI), en este
caso para una EDO de segundo orden:
 00
 y − y 0 + xy − sen x2 = 0

y(−1) = 0 ; y 0 (−1) = 2

10.2.3. Solución General y Particular de una EDO

U Definición 10.8 (Solución General y Particular)


• La solución general de una EDO es el conjunto de todas las curvas integrales,
dependientes de un parámetro 8 c, que constituyen lo que se llama una familia
uniparamétrica de curvas, cuya ecuación puede escribirse como:

x = φ(t; c) =⇒ Solución General

• Se denomina solución particular de una EDO a la curva integral que satisface un PVI
con condición inicial y = y0 cuando x = x0 :
 
x = φ(t; c0 )
=⇒ Solución Particular
x0 = φ(t0 ; c0 )

La solución particular representa una única curva de la solución general (familia


uniparamétrica), para un valor determinado c0 del parámetro.

En la siguiente gráfica se muestra la solución general de una determinada EDO (familia de curvas
uniparamétricas en color azul) y una solución particular para unas determinadas condiciones iniciales
(curva en color rojo).

x
φ(t; c)

dx
= F (x, t) =⇒ x = φ(x; c)
dt b x0 φ(t; c = c0)

t0 t

8 Ver el método de Separación de Variables en la página 189.

Pedro José Hernando Oter Clases de Álgebra


192 TEMA 10: Introducción a las Ecuaciones Diferenciales

P Ejemplo 10.9. Encontrar la solución general y particular del siguiente PVI:


 0
y = y sen x
y(π) = 2

Solución: Primero calculamos la solución general, aplicando el método de separación de


variables:
Z Z
0 dy dy dy
y = = y sen x ; = sen x dx ; = sen x dx ; ln y + ln c = ln (cy) = − cos x
dx y y

y = ce− cos x
Para calcular la solución particular, es necesario primero calcular el valor del parámetro c. Para
ello, aplicando las condiciones iniciales:
2
y(π) = 2 =⇒ 2 = ce− cos π = ce−(−1) = ce ; c= = 2e−1
e
Finalmente la solución particular se obtiene sustituyendo el valor de c en la solución general :

y = 2e−1 e− cos x = 2e−(1+cos x)

10.3. Interpretación Geométrica de una EDO


Dada la EDO de primer orden:
dx
= F (t, x)
dt
la función F (t, x) representa la pendiente de la curva solución x = φ(t; c) en cada punto (t, x).

x
x = φ(t; c)

x0

x′ = F (t0, x0)

t0 t

Esta información puede resultar útil para tener un conocimiento geométrico de la solución de una
EDO.

Clases de Álgebra Pedro José Hernando Oter


10.3. Interpretación Geométrica de una EDO 193

10.3.1. Campo de Pendientes


El valor de la pendiente de una EDO se puede representar en una gráfica de ejes coordenados t − x
mediante pequeños segmentos que indican la inclinación de la curva solución9 .
Por cada punto (t0 , x0 ) pasa una única curva solución, de forma que representando un campo
vectorial de flechitas podemos tener una aproximación gráfica del conjunto de soluciones.

U Definición 10.9 (Campo de Pendientes)


Se denomina campo de pendientes de una EDO al conjunto de todos los pequeños segmentos
que representan las pendientes f (t, x) en una malla de puntos (t, x).

y ’ = (3 − y)/2 y ’ = (3 − y)/2

6 6

5 5

4 4

3 3
y

2 2

1 1

0 0

−1 −1
−1 0 1 2 3 4 5 6 −1 0 1 2 3 4 5 6
x x

Campo de Pendientes Curvas Integrales

P Ejemplo 10.10. Representar gráficamente el campo direccional y algunas curvas integrales de


la EDO de primer orden:
dx
x0 = =x
dt
Solución: El campo direccional se puede representar
x dibujando pequeñas rayitas con pendientes dadas, en
este caso, por la ecuación:

m(t, x) = x

La solución general de la EDO se puede obtener


mediante el método de separación de variables
obteniendo:
x = cet
En la gráfica se ha dibujado cuatro curvas solución
particulares para unas determinadas condiciones
iniciales x(t0 ) = x0 con valores c = c0
t
correspondientes.

9 Según la definición de derivada de una función, el ángulo de la flechita viene dada por el valor α = arctan dx
.
dt

Pedro José Hernando Oter Clases de Álgebra


194 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.3.2. Isoclinas

U Definición 10.10 (Isoclinas)


Una isoclina de la EDO x0 = f (t, x) es una curva de la forma:

f (t, x) = m

en la cual la pendiente x0 (t) de la curva solución x(t) es constante e igual a m ∈ R.

P Ejemplo 10.11. Dada la siguiente EDO:

y 0 = −x + y

c alcular las isoclinas para las cuales y 0 es igual a 0, ±1, ±2 y ±3.

Solución: Las isoclinas de esta EDO tienen por ecuación:

−x + y = m ; y =m+x

Dando los valores a m = {0, ±1, ±2, ±3} se obtienen la curvas


isoclinas (rectas paralelas en este caso).

P Ejemplo 10.12. Dibujar las isoclinas y curvas integrales de la siguiente EDO:

y 0 = yx

Solución: Las isoclinas son las curvas (de color rojo en x

el grafico):

yx = m =⇒ y=
m
x
; ∀m ∈ R
Resolviendo la EDO mediante el método de separción t

de variables, se obtienen la curvas integrales (de color


azul en el gráfico):
Z Z
dy 2
= x dx ; ln (cy) = x2 ; y = cex
y

U Definición 10.11 (Nulclinas)


Se denominan nulclinas a las curvas isoclinas con pendiente cero:

x0 = f (t, x) = 0

Clases de Álgebra Pedro José Hernando Oter


10.4. Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO) 195

10.4. Sistemas de Ecuaciones Diferenciales Ordinarias (SEDO)


En muchos problemas científicos y técnicos aparecen magnitudes que interaccionan unas con otras
siguiendo leyes complejas. Una buena forma de modelizar dichos problemas es a través de sistemas de
ecuaciones diferenciales ordinarias.

U Definición 10.12 (Sistema de Ecuaciones Diferenciales Ordinarias)


Un Sistema de Ecuaciones Diferenciales Ordinarias (SEDO) es un conjunto de ecuaciones de
la forma:

~
 F


= (F1 , F2 , . . . , Fn )

 ~x = (x1 , x2 , . . . , xn )
 0
~ 0 (n) ~
F [t, ~x, ~x , . . . , ~x ] = 0 =⇒ ~x = (x01 , x02 , . . . , x0n )
 . ..
 ..

 .

 (n) (n) (n) (n)
~x = (x1 , x2 , . . . , xn )

Donde F~ es una función vectorial de n componentes F1 , . . ., Fn , que dependen cada una de


una variable escalar t (variable independiente), de una función vectorial ~x y de sus derivadas
de orden k, ~x (k) respecto a t. A su vez, la función vectorial ~x depende de n funciones escalares
x1 (t), . . ., xn (t), que son las incógnitas a determinar.

P Ejemplo 10.13. El siguiente es un ejemplo de sistema de ecuaciones diferenciales, (SEDO):



3x01 − x1 x2 + x000
2 = 0
x002 − x001 = 0

U Definición 10.13 (Solución de un SEDO)


Se dice que un SEDO tiene solución en un intervalo I si existen n funciones:

x1 = φ1 (t) ; x2 = φ2 (t) ; ... ; xn = φn (t)

diferenciables en I, que satisfacen el sistema de ecuaciones en todos los puntos de I.


De forma general, las funciones xi serán familias de curvas que dependerán de un determinado
parámetro ci :
xi = φi (t, ci )
Si se expecifican unas condiciones iniciales, (problema de valores iniciales, PVI):

x1 (t0 ) = x10 ; x2 (t0 ) = x20 ; ... ; xn (t0 ) = xn0

Se pueden determinar los valores particulares de los parámetros10 ci .

Si habitualmente resulta complicado el estudio de una única EDO, aun más complicado es el estudio
general de los SEDO. Por ello, en este tema analizaremos exclusivamente los SEDO de primer orden
y de ellos nos centraremos en el caso lineal 11 más sencillo.
10 Ver la Sección 10.5.2, página 198.
11 Ver la Sección 10.1.1, página 186.

Pedro José Hernando Oter Clases de Álgebra


196 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.4.1. SEDO de Primer Orden

U Definición 10.14 (SEDO de Primer Orden)


De forma general, un SEDO explícito 12 de primer orden (SEDO1) se puede expresar como13
un conjunto de ecuaciones diferenciales acopladas14 , de la forma:
 0

 x1 = f1 (t, x1 , x2 , . . . , xn )

 x02 = f2 (t, x1 , x2 , . . . , xn )
.. .. (10.4)

 . .

 0
xn = fn (t, x1 , x2 , . . . , xn )

donde t es la variable independiente (espacial, temporal, etc.), el conjunto x1 , . . ., xn son


dt .
funciones desconocidas dependientes de una única variable t y x0i = dx i

A continuación veremos un teorema muy importante que establece las condiciones suficientes para
la existencia y unicidad de las soluciones de un SEDO de primer orden.

R Teorema 10.1 (Existencia y Unicidad de Soluciones)


Un SEDO de primer orden, Ecuación (10.4), con todas sus funciones fi y todas su funciones
derivadas ∂fi /∂xj , 1 ≤ i, j ≤ n, continuas en una región R del plano, tiene una única solución
del PVI en R:
 0

 x1 = f1 (t, x1 , x2 , . . . , xn )

 0
 x2 = f2 (t, x1 , x2 , . . . , xn )

.. (10.5)
 .

 0
 xn = fn (t, x1 , x2 , . . . , xn )


x1 (t0 ) = x10 ; x2 (t0 ) = x20 ; · · · ; xn (t0 ) = xn0

Por tanto, basta con que las funciones que definen las derivadas en el SEDO sean funciones
suficientemente suaves (continuas y derivables) en un dominio, para asegurar la existencia de una
única función solución 15 en ese dominio.

10.4.2. Sistema Equivalente a EDO de Orden n


Los SEDO permiten generalizar, simplificar y resolver diferentes problemas de las ecuaciones
diferenciales. Por ejemplo, los SEDO pueden entenderse como una forma particular de representar
unas determinadas EDO de orden superior, como se verá a continuación.

12 Los sistemas donde no se puede despejar la derivada se denominan implícitos.


13 Conocida como forma normal.
14 Ver la Definición 1.3, página 4.
15 Si existiera más de una solución en algún punto, la solución no sería una función. Ver una introducción a las

funciones en el Apéndice B.13, página 270.

Clases de Álgebra Pedro José Hernando Oter


10.5. SEDO con Coeficientes Constantes, (SEDOC) 197

Cualquier EDO de orden n explícita:

x(n) = f [t, x, x0 , x00 , . . . , x(n−1) ]

es equivalente a un SEDO de primer orden, de la siguiente forma:

x1 = x ; x2 = x0 ; x3 = x00 ; · · · ; xn = x(n−1)
 0

 x1 = x2

 x 0
= x3

 2
.. ..
 . .

 0

 x (n−1) = xn
 0
xn = f (t, x1 , x2 , . . . , xn )

P Ejemplo 10.14. Obtener el SEDO equivalente de la siguiente EDO de segundo orden:

y 00 + 3y 0 − 10y = 6e4x

Solución: Al ser de segundo orden, se podrá expresar como un SEDO de 2 × 2 de la siguiente


forma:
1. Despejamos y 00 : y 00 = −3y 0 + 10y + 6e4x
2. Realizamos el cambio de variables: y1 = y ; y2 = y 0

3. El SEDO resultante es: 


y10 = y2
y20 = −3y2 + 10y1 + 6e4x

10.4.3. SEDO Lineales y Autónomos

U Definición 10.15 (SEDO Lineal y Autónomo)


Existe una gran diversidad de tipos de SEDO1 que dependen fundamentalmente de la forma
de las funciones fi (t, x1 , · · · , xn ) en la Ecuación (10.4), siendo los más importantes:
• SEDO lineales, (SEDO1L): Las funciciones fi son lineales respecto a todas las variables
dependientes.
• SEDO autónomos, (SEDOA): Las funciónes fi no dependen del tiempo.

10.5. SEDO con Coeficientes Constantes, (SEDOC)


En este curso, vamos a analizar únicamente los SEDO más sencillos que hay: de primer orden,
lineales y autónomos (SEDO1LA), también conocidos de forma abreviada como SEDO con coeficientes
constantes, (SEDOC).

Pedro José Hernando Oter Clases de Álgebra


198 TEMA 10: Introducción a las Ecuaciones Diferenciales

U Definición 10.16 (SEDO con Coeficientes Constantes)


Los SEDO con coeficientes constantes, (SEDOC), tienen la forma:
 0

 x = a11 x1 + a12 x2 + · · · + a1n xn
 10
 x2 = a21 x1 + a22 x2 + · · · + a2n xn
. ..
 ..

 .
 0
xn = an1 x1 + an2 x2 + · · · + ann xn

donde x1 , x2 , ..., xn son las variables dependientes, t es la variable independiente, x0i = dt ,


dxi
y
R
aij ∈ son constantes.

10.5.1. Forma Matricial de un SEDOC


Los SEDOC se pueden representar de forma matricial como:

X 0 = AX
donde:
       
x1 (t) x01 dx1 /dt a11 ··· a1n
X =  ...  X 0 =  ...  =  ..
       .. .. 
; .  ; A= . . 
0
xn (t) xn dxn /dt an1 ··· ann

Los SEDOC pueden considerarse como un tipo especial de transformaciones lineales 16 .

10.5.2. Solución Analítica de un SEDOC


Teniendo en cuenta la solución del problema escalar17 :
x0 = ax =⇒ x(t) = ceat
vamos a buscar la solución general del SEDOC:
X 0 = AX (10.6)
con soluciones de la forma:
    

 x1 (t) = ~v1 eλt x1 (t) v1
 
 x2 (t) = ~v2 eλt  x2 (t)   v2
  

 λt λ∈ R

 .

.. ;  ..  =  ..
 .   .
e

=⇒ X(t) = ~v eλt
~v ∈ Rn (10.7)
 λt
xn (t) = ~vn e xn (t) vn
Vamos a ver qué condiciones tienen que tener la constante λ y el vector de constantes ~v para que la
Ecuación (10.7) sea solución de la Ecuación (10.6).
(10.6)
X 0 (t) = λeλt ~v −−−→ λeλt ~v = Aeλt ~v =⇒ λ~v = A~v

16 Ver la Sección 4.1, página 77.


17 Ver la Sección 10.2.1, página 189.

Clases de Álgebra Pedro José Hernando Oter


10.6. SEDOC Bidimensionales 199

R Teorema 10.2
La Ecuación (10.7) es solución de Ecuación (10.6) si y sólo si λ es un autovalor de A y ~v su
autovector asociado18 .

R Teorema 10.3
• Si x1 (t), x2 (t), · · · , xn (t) son soluciones de la Ecuación (10.6), entonces cualquier
combinación lineal de ambas también es solución.

• El conjunto de todas las soluciones del sistema es un espacio vectorial de dimensión n.


Por tanto si todas las xi (t) son soluciones linealmente independientes 19 , (es decir, una
base 20 del espacio funcional correspondiente), cualquier otra solución φ(t) se puede
expresar como combinación lineal de ellas, para unos únicos valores reales c1 , c2 , · · · ,
cn de la forma:
φ(t) = c1 x1 (t) + c2 x2 (t) + · · · + cn xn (t) (10.8)

10.5.3. Solución General y Particular de un SEDOC

U Definición 10.17 (Solución General y Particular de un SEDOC)


• La función Ecuación (10.8) se conoce con el nombre de Solución General del SEDOC
dado por la Ecuación (10.6).

• Expecificando unas condiciones iniciales 21 , se pueden determinar los parámetros c1 y c2


de la solución general, Ecuación (10.8), obteniendose la denominada Solución Particular
del SEDOC dado por la Ecuación (10.6).

18 Ver la Definición 8.2, página 149.


19 Se dice que un conjunto de funciones f1 (x), · · · , fn (x) son linealmente independientes en un intervalo [a, b] si el
siguiente determinante, denominado wronskiano W (x), no se anula en dicho intervalo:

f1 (x) ··· fn (x)
0 0

f 1 (x) · · · f n (x)
.. .. ..

W (x) = 6= 0 ∀x ∈ [a, b]
. . .


(n−1) (n−1)
f (x) · · · fn (x)
1

Esta definición es análoga a la definción de conjunto de vectores linealmente independientes, ver la Definición 2.14,
página 34 y el Teorema 3.8, página 73.
20 Ver la Definición 2.20, página 36.
21 Ver la Sección 10.2.2, página 190.

Pedro José Hernando Oter Clases de Álgebra


200 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.6. SEDOC Bidimensionales


En este curso nos vamos a centrar exclusivamente en el caso bidimensional n = 2 de los SEDOC,
por ser uno de los tipos más simples y con una sencilla interpretación gráfica.
  
 dx1 = a11 x1 + a12 x2


dx1
 dt  dt    
0   a11 a12 x1
; X = = = AX

 dx2  dx  a21 a22 x2

 = a21 x1 + a22 x2
2
dt dt

Para resolver un SEDOC, Ecuación (10.6), basta encontrar los autovalores y autovectores de la
matriz A asociada al sistema, siendo la solución general, según el Teorema 10.3, de la forma:

  2
X
x1 (t)
X(t) = = ck eλk t ~vk = c1 eλ1 t ~v1 + c2 eλ2 t ~v2 (10.9)
x2 (t)
k=1

donde c1 y c2 son constantes arbitrariasy λ1 y λ2 los autovalores asociados a los autovectores ~v1 y
~v2 . De forma matricial:
       
x1 (t) λ1 t v11 λ2 x v21 c1 eλ1 t v11 + c2 eλ2 t v21
X(t) = = c1 e + c2 e =
x2 (t) v12 v22 c1 eλ1 t v12 + c2 eλ2 t v22

La solución particular del problema de valores iniciales (PVI):


 0
X (t) = AX(t)
(10.10)
X(t0 ) = X0 = [x10 x20 ]T

será:
2
X
X(t) = ck eλ(t−t0 ) ~vk
k=1

donde los coeficientes ck se obtienen resolviendo el sistema:


2
X    
x10 c1 v11 + c2 v12
X0 = ck~vk =⇒ =
x20 c1 v21 + c2 v22
k=1

10.6.1. Tipos de Soluciones


Vamos a analizar las soluciones de los SEDOC bidimensionales en función del tipo de autovalores y
autovectores de la matriz A asociada al sistema.

Clases de Álgebra Pedro José Hernando Oter


10.6. SEDOC Bidimensionales 201

Caso Real Simple


Sea el SEDOC simple dado por:


 dx1
 dt = a11 x1
     
0 x01 a11 0 x1
; X = = = AX

 dx2 x02 0 a22 x2

 = a22 x2
dt
donde a11 y a22 son constantes reales.

Como las ecuaciones son independientes22 , podemos integrar cada ecuación por separado23 ,
obteniéndose24 la solución general del sistema:
  
x1 (t) x1 (t) = c1 ea11 t
X= =⇒
x2 (t) x2 (t) = c2 ea22 t

Las exponenciales serán crecientes si el coeficiente aii es positivo y decrecientes si aii es negativo.
Si alguno de los coeficientes es cero, la solución es una recta horizontal.

Los parámetros c1 y c2 se podrán determinar si se expecifican unas determinadas condiciones


iniciales:
x1 (t0 ) = x10 x10 = c1 ea11 t0 c1 = x10 e−a11 t0
x2 (t0 ) = x20 x20 = c2 ea22 t0 c2 = x20 e−a22 t0

P Ejemplo 10.15. Encontrar la solución del PVI:


 0
 x = 3x
y 0 = −y

x(0) = 5 ; y(0) = 2

Solución: La solución general se puede obtener directamente integrando cada ecuación por
separado obteniéndose:

x(t) = c1 e3t
y(t) = c2 e−t

La solución particular se obtiene aplicando las condiciones iniciales:

5 = c1 e3∗0 =⇒ c1 = 5

2 = c1 e−0 =⇒ c2 = 2

x(t) = 5e3t
y(t) = 2e−t
22 Ya que en cada ecuación diferencial sólo aparece un tipo de variable dependiente y por tanto podemos aplicar el

método de separación de variables a cada ecuación de forma independiente.


23 Ver la Sección 10.2.1, página 189.
24 Notar que en este caso los autovalores de la matriz A se pueden calcular fácilmente, siendo λ = a
1 11 y λ2 = a22 ,
y sus autovectores asociados ~v1 = [1, 0] y ~v2 = [0, 1], lo cual corresponde con lo dicho en la Sección 10.5.2.

Pedro José Hernando Oter Clases de Álgebra


202 TEMA 10: Introducción a las Ecuaciones Diferenciales

Caso Real con Matriz Diagonalizable




 dx1
 dt = a11 x1 + a12 x2
     
x01 a11 a12 x1
; = = A~x

 dx2 x02 a21 a22 x2

 = a21 x1 + a22 x2
dt
En este caso las ecuaciones del sistema no son independientes y no puede aplicarse directamente el
método de separación de variables para resolverlo.
Sin embargo, en el caso de que la matriz A sea diagonalizabletendremos:
 
λ1 0
A = P DP −1 ; D= ; P = [~v1 , ~v2 ]
0 λ2

siendo λ1 , λ2 ∈ R los autovalores de A y ~v1 , ~v2 ∈ R2 los correspondientes autovectores asociados.


Entonces:
d~x d~x d  
= A~x = P DP −1 ~x ; P −1 = DP −1 ~x ; P −1 ~x = D P −1 ~x
dt dt dt
donde aquí se han aplicado las propiedades básicas de la derivada. Denominando:
~y = P −1 ~x (10.11)
Se tiene:
d~y
= D~y
dt
que corresponde con el caso bidimensional simple visto anteriormente y cuya solución es:

y1 = c1 eλ1 t
y2 = c2 eλ2 t
y teniendo en cuenta la definición de #„
y , Ecuación (10.11), la solución del sistema original será:
 
  c1 eλ1 t
~x = P ~y = ~v1 ~v2 = c1 eλ1 t~v1 + c2 eλ2 t~v2
c2 eλ2 t

correspondiente a la solución general del sistema comentada en la Sección 10.5.2.

P Ejemplo 10.16. Hallar la solución general del SEDO:


 0
x =x+y
y 0 = 4x − 2y

Solución: De forma matricial:


    
0 x0 (t) 1 1 x(t)
X (t) = =
y 0 (t) 4 −2 y(t)

Autovalores:
1−λ 1
=0 =⇒ (1 − λ)(−2 − λ) − 4 = 0
4 −2 − λ

2 λ1 = −3
λ +λ−6=0 =⇒
λ2 = 2
(Continúa en la página siguiente)

Clases de Álgebra Pedro José Hernando Oter


10.6. SEDOC Bidimensionales 203

P Ejemplo 10.16 (Continuación).


Autovector correspondiente a λ1 = −3 : ~v1
     
4 1 v1 0 v1 = 1
= =⇒ 4v1 + v2 = 0 =⇒
4 1 v2 0 v2 = −4
 
1
~v1 =
−4
Autovector correspondiente a λ2 = 2 : ~v2
     
−1 1 v1 0 v1 = 1
= =⇒ − v1 + v2 = 0 =⇒
4 −4 v2 0 v2 = 1
 
1
~v2 =
1
Solución General:      
x(t) −3t 1 2t 1
X(t) = = c1 e + c2 e
y(t) −4 1

x(t) = c1 e−3t + c2 e2t
y(t) = −4c1 e−3t + c2 e2t

50 50 50

40 40 40

30 30 x(t) 30 y(t)
20 x(t) 20 y(t) 20
c1 = 1
10 10 10
c2 = 1
−4 −2 2 4 −4 −2 2 4 −4 −2 2 4
−10 −10 −10

−20 −20 −20

−30 −30 −30

−40 −40 −40

−50 −50 −50

Figura 10.1.: Representación gráfica de la solución general del Ejemplo 10.16 (familia uniparamétrica para las funciónes
x(t) e y(t) y solución particular para los valores c1 = 1 y c2 = 1.

P Ejemplo 10.17. Encontrar la solución particular del Ejemplo 10.16 sabiendo que:

x(1) = 2 ; y(3) = 4

Solución: Se tiene que cumplir,


   
2 c1 e−3∗1 + c2 e2∗1
=
4 −4c1 e−3∗3 + c2 e2∗3
(Continúa en la página siguiente)

Pedro José Hernando Oter Clases de Álgebra


204 TEMA 10: Introducción a las Ecuaciones Diferenciales

P Ejemplo 10.17 (Continuación).


Resolviendo por Gauss:
     
e−3 e2 2 1 e5 2e3 1 e5 2e3
→ →
−4e−9 e6 4 −4 e15 4e9 0 e + 4e5
15
4e + 8e3
9

Resolviendo por el método de sustitución hacia atrás:



 4e9 + 8e3 4e4 + 8e−2

 c2
 = 15
e + 4e 5
=
e10 + 4



 c1 4e9 + 8e3 2e13 + 8e3 − 4e9 − 8e3 2e13 − 4e9
= 2e3 − c2 e5 = 2e3 − = =
e10 + 4 e10 + 4 e10 + 4

Caso Real con Matriz No Diagonalizable


Este caso corresponde a una matriz asociada con un único autovalor real λ de multiplicidad algebráica 25
2 pero con un único autovector asociado ~v , es decir con multiplicidad geométrica 26 1. Al no poder
diagonalizar la matriz, no se puede encontrar la solución del problema utilizando el método mostrado
en la Sección 10.6.1, página 202.
En este caso, además de la solución X1 (t) = ~v eλt , es necesario buscar una nueva solución de la
forma:
X2 (t) = ~v teλt + ~ueλt
donde ~u es un nuevo vector que necesitamos encontrar, siendo la solución general:
X(t) = c1 X1 (t) + c2 X2 (t)
Para ello, la solución X2 debe verificar el SEDO homogéneo:
X 0 = AX (10.12)
Derivando la solución X2 , introduciéndo su valor en la Ecuación (10.12) y simplificando, se obtiene:
(A~v − λ~v )teλt + (A~u − λ~u − ~v )eλt = 0
Como esta ecuación se debe de verificar para todo valor de t, se tiene obligatoriamente que cumplir:
(A~v − λ~v ) = 0 =⇒ (A − λI)~v = 0 (10.13)

(A~u − λ~u − ~v ) = 0 =⇒ ((A − λI)~u = ~v (10.14)

Por tanto, los pasos a seguir para resolver un SEDOC con matriz asociada no diagonalizable son:
1. Obtener el autovalor λ y el autovector asociado ~v (resolviendo el primer SEL, Ecuación (10.13)).

2. Conocido ~v , resolver el segundo SEL, Ecuación (10.14), obteniendo ~u.


3. La solución general tendrá la forma:

X(t) = c1 X1 (t) + c2 X2 (t) = c1~v eλt + c2 ~v teλt + ~ueλt

25 Número de veces que se repite un determinado autovalor, ver Definición 8.5, página 153.
26 Número de autovectores asociados a un autovalor.

Clases de Álgebra Pedro José Hernando Oter


10.6. SEDOC Bidimensionales 205

P Ejemplo 10.18. Resolver el siguiente SEDO:


 0
x =x
y0 = x + y
 
1 0
Solución: Buscamos los autovalores y autovectores de la matriz asociada, A = .
1 1
Autovalores:

1−λ 0
=0 =⇒ (1 − λ)2 = 0 =⇒ λ = 1 (doble)
1 1−λ

Autovectores correspondientes a λ = 1 :
       
0 0 v1 0 v1 = 0 0
= =⇒ v1 = 0 =⇒ =⇒ ~v =
1 0 v2 0 v2 = 1 1

Entonces, además de la solución X1 (t) = ~v eλt , tenemos que buscar una segunda solución de la
forma:
X( t) = ~v teλt + ~ueλt
Para encontrar el vector ~u tenemos que resolver el SEL:
         
0 0 u1 0 0 0 0 u1 = 1 1
(A−λI)~u = ~v ; = =⇒ =⇒ =⇒ ~u =
1 0 u2 1 1 0 1 u2 = 0 0

Por tanto la solución general del problema es:


      
λt λt λt
 0 t 0 t 1
X(t) = c1~v e + c2 ~v te + ~ue = c1 e + c2 te + et
1 1 0

x(t) = c2 et
y(t) = c1 et + c2 tet

P Ejemplo 10.19. Comprobar la validez de la solución obtenida en el Ejemplo 10.18 y encontrar


la solución particular para las condiciones iniciales:

x(1) = −1 ; y(2) = −2

Solución: Comprobamos la solución:


  0
x = c2 e t x = c2 et = x
t t =⇒ =⇒ cierto !
y = c1 e + c2 te y 0 = c1 et + c2 et + c2 tet = x + y

Para encontrar la solución particular de las condiciones iniciales del problema, tendremos que
resolver el SEL:
 
−1 = c2 e c2 = −e−1
2 2 =⇒
−2 = c1 e + 2c2 e c1 = −2e−2 − 2c2 = −2e−2 + 2e−1

Pedro José Hernando Oter Clases de Álgebra


206 TEMA 10: Introducción a las Ecuaciones Diferenciales

Caso Complejo
En el caso de que la matriz A sea real, los autovalores complejos que aparezcan lo harán en pares
conjugados, siendo los autovectores correspondientes también complejos conjugados. Llamando r a los
autovalores y ~v a los autovectores correspondientes, se tiene:
( )
r1 = λ + µi ; ~v1 = ~a + ~bi
A~v = r~v =⇒
r2 = λ − µi ; ~v2 = ~a − ~bi

R
donde: λ, µ ∈ y ~a, ~b ∈ 2 . R
Teniendo en cuenta la fórmula de Euler 27 :
ezt = e(α+βi)t = eαt eβit = eαt [cos (βt) + i sen (βt)]
Las soluciónes se podrán expresar como:
(
x1 (t) = ~v1 er1 t = (~a + ~bi)e(λ+µi)t = (~a + ~bi)eλt (cos µt + i sen µt) = eλt (~a cos µt − ~b sen µt) + ieλt (~b cos µt + ~a sen µt)
x2 (t) = ~v2 er2 t = (~a − ~bi)e(λ−µi)t = (~a − ~bi)eλt (cos µt − i sen µt) = eλt (~a cos µt − ~b sen µt) − ieλt (~b cos µt + ~a sen µt)

Como se observa hay dos partes comunes a ambas soluciones. Llamando:


(
X1 (t) = eλt (~a cos µt − ~b sen µt)
X2 (t) = eλt (~b cos µt + ~a sen µt)

La solución conjunta se puede expresar de forma simplificada como:


X(t) = X1 (t) ± iX2 (x)
Fácilmente se puede comprobar que ambas partes de la solución, real X1 y compleja X2 , verifican el
SEDOC por separado:  0
0 X1 (t) = AX1 (t)
X (t) = AX(t) −→
X20 (t) = AX2 (t)
Por tanto, por cada dos autovalores complejos conjugados existen dos soluciones28 reales del sistema
homogéneo.

La solución general correspondiente al par de autovalores complejos (conjugados) será:

X(t) = c1 X1 (t) + c2 X2 (t) = c1 eλt (~a cos µ1 t − ~b sen µ1 t) + c2 eλt (~b cos µ2 t + ~a sen µ2 xt)

La solución particular (determinación de los valores de c1 y c2 ) se realiza con el método explicado


en la Sección 10.5.2, página 198.

P Ejemplo 10.20. Resolver el siguiente problema de valor inicial:


 0
 x = −x − y
y 0 = 2x − y

x(0) = 1 , y(0) = 2
(Continúa en la página siguiente)

27 Ver la Sección A.7.2, página 240.


28 Se puede comprobar que son linealmente independientes ∀t ∈ R.

Clases de Álgebra Pedro José Hernando Oter


10.6. SEDOC Bidimensionales 207

P Ejemplo 10.20 (Continuación).


Solución: En forma matricial:
 0    
x (t) −1 −1 x(t)
X 0 (t) = =
y 0 (t) 2 −1 y(t)

Autovalores:

−1 − λ −1 √ √
= 0 ; (−1 − λ)2 + 2 = 0 ; −1 − λ = i 2 =⇒ λ1,2 = −1 ± i 2
2 −1 − λ

Autovectores: λ1 = −1 + i 2
 √      √
−i 2 −1√ v1 0 −v1 i 2 −√v2 = 0
= =⇒
2 −i 2 v2 0 2v1 − v2 i 2 = 0
   
√ v1 = 1 √ 1 + 0i
v2 = −v1 i 2=⇒ −→ ~v1 = √
v2 = −i 2 0 − i 2
Por tanto:     
 √ 1 0

 λ1 = −1 + i 2 −→ ~v1 = +i √

 0 − 2
    
 √


 λ2 = −1 − i 2 −→ ~v2 =
1
+i √0
0 2
Solución General:

X(t) = c1 eλt (~a cos µ1 t − b~1 sen µ1 t) + c2 eλt (b~2 cos µ2 t + ~a sen µ2 t)
      
x(t) 1 √ 0 √
= c1 e −t
cos t 2 − √ sen t 2 +
y(t) 0 − 2
    
0 √ 1 √
+c2 e −t √ cos(−t 2) + sen(−t 2)
2 0
   √   √ 
x(t) −t √ cos t √ 2 −t √ − sen t √2
X(t) = = c1 e + c2 e
y(t) 2 sen t 2 2 cos t 2

Solución Particular: como x(0) = 1 , y(0) = 2


~x
y
     
1
= c1
1
+ c2 √0
2 0 2
   x
1 = c1 √ c1 = √
1
=⇒
2 = c2 2 c2 = 2
t
 √ √ √ 
 x(t) = e−t cos[t 2] − 2 sen[t 2]
 √ √ √ 
y(t) = e−t 2 sen[t 2] + 2 cos[t 2]

Pedro José Hernando Oter Clases de Álgebra


208 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.7. Sistemas Dinámicos

U Definición 10.18 (Sistema Dinámico)


Un Sistema Dinámico Continuo o simplemente Sistema Dinámico es todo proceso definido
mediante un SEDO donde la variable independiente t representa el tiempo.

Hay una gran variedad de sistemas dinámicos. En este curso nos vamos a centrar principalmente en
los sistemas dinámicos definidos por SEDOC.

10.7.1. Sistemas Dinámicos Continuos Lineales


En la Sección 8.1, página 147 se vio la definición de Sistema Dinámico Discreto. Vamos a ver aquí la
versión continua.

U Definición 10.19 (Sistema Dinámico Continuo Lineales)


Un Sistema Dinámico Continuo Lineal es un sistema dinámico definido mediante un SEDOC
de la forma:
d~x
= A~x
dt

10.7.2. Representación Gráfica: Trayectorias, Plano de Fases y Espacio de


Fases

U Definición 10.20 (Trayectoria, Órbitas o Línea de Flujo)


Cada una de las soluciones X(t) = [x1 (t), . . . , xn (t)] de un sistema dinámico representa una
curva paramétrica en el espacio n-dimensional, denominada trayectoria, órbitas o línea de
flujo.

Cada trayectoria representa un estado o fase del sistema bajo unas condiciones dadas.

U Definición 10.21 (Plano y Espacio de Fases)


El conjunto de las trayectorias de un sistema dinámico se denomina de forma general Retrato
de Fases o Retrato Fase.
• Si n = 2 el retrato fase se denomina Plano de Fases
• Si n > 2 el retrato fase se denomina Espacio de Fases

Clases de Álgebra Pedro José Hernando Oter


10.7. Sistemas Dinámicos 209

En las siguientes gráficas se muestran un ejemplo de un plano de fases para un problema


bidimensional y un espacio de fases para un problema tridimensional.
Phase
20 Portrait by NDSolve
10
0
-10

y(t)

40

30

x(t) 20

10

0
-10 -5 0 5 10

Plano de Fases (n = 2) Espacio de Fases (n = 3)


 0
 x (t) = f1 (x, y, z)
x0 (t) = f1 (x, y)

y 0 (t) = f2 (x, y, z)
y 0 (t) = f2 (x, y)  0
z (t) = f2 (x, y, z)

En las gráficas de abajo se muestra para el caso bidimensional, la relación que hay entre las curvas
integrales 29 de un sistema dínamico y sus trayectorias o líneas de flujo en el plano de fases.
x2
~x

x1

x2
t x1
Curvas Integrales Trayectoria en el Plano de Fases

• Las trayectorias en el plano de fases son curvas paramétricas dependientes de la variable


independiente (parámetro) t.

• Dos trayectorias distintas en el plano de fase para un sistema autónomo 30 no pueden coincidir
en ningún punto.

29 Ver la Definición 10.5, página 188.


30 Ver la Definición 10.15, página 197.

Pedro José Hernando Oter Clases de Álgebra


210 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.7.3. Puntos Criticos, Estacionarios o de Equilibrio

U Definición 10.22 (Puntos Críticos, Estacionarios o de Equilibrio)


Dado un sistema dinámico de la forma:
 0
 x1 = f1 (x1 , . . . , xn )

.. ..
 . .
 0
xn = fn (x1 , . . . , xn )

R
Se dice que ~xc = (xc1 , . . . , xcn ) ∈ n es un punto crítico, punto estacionario o punto de equilibrio
del sistema si:  0 c c c
 x1 (~x ) = f1 (x1 , . . . , xn ) = 0

.. ..
 . .
 0 c
xn (~x ) = fn (xc1 , . . . , xcn ) = 0

Los puntos críticos de un sistema dinámico indican puntos estáticos, invariantes en el tiempo.

P Ejemplo 10.21. Calcular los puntos críticos del siguiente sistema dinámico:
 0
x =x+y
y 0 = 1 + xy

Solución: Tenemos que resolver el sistema de ecuaciones:


 
x+y =0 y = −x
=⇒ =⇒ x = ±1
xy = 0 1 + xy = 1 − x2 = 0

Los puntos críticos del sistema son dos ~xc1 = (1, −1) y ~xc2 = (−1, 1) .

Los puntos críticos de un SEDOC bidimensional se obtienen resolviendo el SEL:


 0 
x = ax + by ax + by = 0
=⇒
y 0 = cx + dy cx + dy = 0

que al ser un SEL homogéneo31 , siempre tiene al menos un punto critico en el origen del plano de
fases (x, y) = (0, 0).
Si las ecuaciones son linealmente independientes la solución trivial será única, de otra forma, existiran
infinitas soluciones además de la trivial.

31 Ver la Sección 1.8, página 23.

Clases de Álgebra Pedro José Hernando Oter


10.7. Sistemas Dinámicos 211

P Ejemplo 10.22. Calcular los puntos críticos del siguiente sistema dinámico:
 0
x = 3x + 2y
y 0 = 5x − y

Solución: Como el sistema para calcular los puntos críticos es homogéneo y tiene ecuaciones
linealmente independientes, el único punto crítico será la solución trivial:

~xc2 = (0, 0)

10.7.4. Campo Direccional


Dado un sistema dinámico bidimensional:
 0 x2
x1 = f1 (x1 , x2 )
x02 = f2 (x1 , x2 )

Las pendientes de las trayectorias en cada punto del


plano fase se pueden calcular de forma:

dx2 dx2 dt dx2 /dt x0


= = = 20
dx1 dt dx1 dx1 /dt x1

y se pueden representar en el plano de fases como


pequeñas flechas32 cuyas coordenadas vienen dadas por
el vector velocidad 33 :
 
dx1 dx2 x1
V = ,
dt dt

U Definición 10.23 (Campo Direccional)


Se denomina campo direccional o campo de direcciones de un sistema dinámico bidimensional:

d~x
= A~x
dt
al campo vectorial en el plano de fases donde a cada punto34 ~x se le asocia el vector velocidad
A~x.

Normalmente para simplificar y clarificar el campo de dirección, no se considera a escala las normas
de los vectores velocidad sino únicamente su dirección, siendo por tanto la longitud de todas las
flechas iguales.

32 De forma análoga a como se hizo en la Sección 10.3.1, página 193 con el campo de pendientes, aunque en este caso

sólo eran rayitas sin dirección.


33 El vector velocidad d~x/dt del movimiento de una partícula es tangente a la trayectoria en cada punto.
34 Vértice del vector ~
x.

Pedro José Hernando Oter Clases de Álgebra


212 TEMA 10: Introducción a las Ecuaciones Diferenciales

10.7.5. Separatrices

U Definición 10.24 (Separatrices)


Las separatrices son trayectorias particulares que separan el plano de fases en regiones de
comportamiento o movimiento distinto.

En el siguiente ejemplo de plano de fases de un sistema dinámico, se puede observar el conjunto de


trayectorias y dos separatrices que distinguen cuatro tipos de comportamiento.
Los sistemas dinámicos bidimensionales del tipo:
x2

d~x
= A~x
dt
se pueden entender como la evolución temporal de un
determinado vector de estado ~x siguiendo unas reglas
dadas por la matriz A asociada al sistema, de forma
A~x. En este caso, las separatrices son trayectorias que x1
mantienen constante su dirección ~v en el plano de fases,
siendo por tanto líneas rectas que pasan por el origen y
cumplen la condición:

A~v = λ~v

coincidiendo por tanto con la dirección de los


autovectores de la matriz A.
Esquematicamente podemos entender el proceso pensando en un vector de entrada ~v que en un
tiempo infinitesimal cambia al vector A~v . Si la dirección del vector coincide con la dirección de
algún autovector, esta dirección permanece constante en el tiempo. En función del signo del autovalor
asociado al autovector, el sentido de la trayectoria permanecerá o cambiará.

~v ~v
λ>0 λ<0

A~v A~v

• La dirección de las separatrices está dada por los autovectores de la matriz A que define el
SEDOC y las líneas en sí mismas son los autoespacios 35 asociados.
• El sentido de las separatrices depende del signo del autovalor asociado a cada autovector. Si
λ > 0 la trayectoria sale del origen y si λ < 0 la trayectoria entra al origen.

35 Ver la Definición 8.4, página 152.

Clases de Álgebra Pedro José Hernando Oter


10.7. Sistemas Dinámicos 213

P Ejemplo 10.23. Calcular los puntos


siguiente SEDOC:
criticos, el campo de dirección y las separatrices del

 
 0 dx1
 x1 = x1 + 2x2     
d~x  dt 
 1 2 x1 1 2
; = = = A~x ; A=
 0 dt  dx2  4 3 x2 4 3
x = 4x + 3x
2 1 2
dt
Solución: Los puntos criticos se obtienen resolviendo el SEL:

x1 + 2x2 = 0
4x1 + 3x2 = 0

cuya única solución (punto crítico) es (xc1 , xc2 ) = (0, 0) .

El campo de dirección se puede representar en el plano fase x1 −x2 , donde en cada punto (x1 , x2 )
se dibuja una flecha con pendiente dada por:

~v = [x1 + 2x2 , 4x1 + 3x2 ]

Las separatrices se pueden determinar calculando los autovalores y autovectores de la matriz A:

λ1 = 5, λ2 = −1, ~v1 = [1, 2] , ~v2 = [1, −1]

Por tanto las separatrices son rectas que pasan por el origen y tienen pendientes:

2 1
m1 = =2 ; m2 = = −1
1 −1

x2 x2 x2

x1 x1 x1

Campo de dirección Separatrices Trayectorias


Podemos comprobar como las separatrices poseen los siguientes sentidos:
• Separatriz 1: Como λ1 > 0, su sentido es saliendo del origen.
• Separatriz 2: Como λ2 < 0, su sentido es entrando al origen.

Autovalor Nulo

Un autovalor nulo indica que no existe la separatriz correspondiente a su autovector.

Pedro José Hernando Oter Clases de Álgebra


214 TEMA 10: Introducción a las Ecuaciones Diferenciales

P Ejemplo 10.24. Calcular el campo de dirección y las isoclinas del siguiente SEDO lineal:
  

 dx1 dx1
 dt = 3x1

d~x       
 dt  3 0 x1 3 0
; = = = A~x ; A=

 dx2 dt  dx  0 0 x2 0 0

 = 0
2
dt dt
Solución: Los autovalores de A son λ1 = 0 y λ2 = 3 y los autovectores correspondientes son
~v1 = [0, 1] y ~v2 = [1, 0]. Como podemos observar en el campo de dirección mostrado abajo, sólo
existe una separatriz correspondiente al autovalor λ2 = 3, (recta y = 0).
x2

x1

P Ejemplo 10.25. Calcular los puntos críticos del Ejemplo 10.24.


Solución: Tenemos que resolver el SEL:

3x1 = 0
0 = 0

Cuya solución son los puntos x1 = 0, x2 = t ∀t ∈ R. Por tanto todos los puntos (0, t) (eje vertical
x = 0) son puntos críticos del sistema.

Autovalores Complejos

Los autovalores complejos indican que no existen separatrices. Las trayectorias36 en el plano de fases
pueden ser curvas cerradas (elipses) o abiertas (espirales).

! Nota 10.2. La ecuación paramétrica de una elipse centrada en el origen es:



x = a cos(rt)
y = b sin(rt)
donde a y b son los semiejes de la elipse en los ejes de coordenadas x e y respectivamente, r hace refencia a la velocidad
de giro y t es el parámetro.
De forma general, una elipse girada o una espiral (en función de los valores a, b, c y d), tendrá una ecuación paramétrica
del estilo: 
x = a cos(rt) + b sin(rt)
y = c cos(rt) + d sin(rt)

36 En la Sección 10.8.2, página 219 se verá información más detallada sobre la forma de las trayectorias en el caso de

autovalores complejos.

Clases de Álgebra Pedro José Hernando Oter


10.7. Sistemas Dinámicos 215

P Ejemplo 10.26. Calcular el plano de fases del SEDOC dado en el Ejemplo 10.20:
 0
x = −x − y
y 0 = 2x − y

Solución: