Está en la página 1de 397

Álgebra Lineal

Á. Suescun, X. Insausti, J. Flaquer


2022
© 2022 Ángel Suescun, Xabier Insausti, Juan Flaquer Fuster, Tecnun (Universidad de Navarra)

Reservados todos los derechos.


Queda prohibida la reproducción total o parcial sin autorización previa.
Primera edición: septiembre 2018
Segunda edición: septiembre 2019
Tercera edición: septiembre 2020
Cuarta edición: septiembre 2021
Quinta edición: septiembre 2022
Impreso en España

Pº Manuel de Lardizábal, 13
20018 – San Sebastián (Gipuzkoa)

Suescun, Insausti, Flaquer (2022) 2 Tecnun-Universidad de Navarra


Prólogo

Estos Apuntes han sido escritos para facilitar el estudio de la parte de Álgebra Lineal de la asignatura
Matemáticas, que se imparte actualmente durante el primer semestre en Tecnun, la Escuela de Ingeniería
de la Universidad de Navarra, en San Sebastián.
Los apuntes se adaptan al temario de la asignatura, incluyendo explicaciones adicionales tanto para
apuntalar los conocimientos previos como para lograr mayor profundidad en lo aprendido durante el
curso.
Este curso contiene una exposición teórica básica que se complementa con ejercicios prácticos que,
además de fortalecer la comprensión de la teoría, sirven para resolver las cuestiones de mayor interés
práctico. En algunas ocasiones se omiten las demostraciones en aras de hacer más asequible el contenido
teórico de este curso. Las demostraciones omitidas pueden encontrarse en los textos de la bibliografía
recomendada.

Suescun, Insausti, Flaquer (2022) 3 Tecnun-Universidad de Navarra


Suescun, Insausti, Flaquer (2022) 4 Tecnun-Universidad de Navarra
Álgebra Lineal

Álgebra Lineal

El Álgebra Lineal es la rama de la Matemáticas que se dedica al estudio de los espacios vectoriales y sus
aplicaciones lineales. Tanto los vectores como las aplicaciones lineales se pueden expresar
convenientemente mediante matrices. El cálculo matricial permite abordar cuestiones tales como:
resolver un sistema de ecuaciones lineales, descomponer un vector como combinación lineal de otros
vectores dados, transformar linealmente los vectores de un espacio vectorial en otros del mismo espacio,
averiguar qué vectores no cambian de dirección cuando se transforman linealmente, y otras muchas,
todas ellas relevantes en las aplicaciones prácticas.
Los avances tecnológicos actuales están muy ligados al cálculo matricial. Como botón de muestra, el
buscador de Google, permite clasificar la información que uno desea en función de su relevancia en la
red, apoyándose en un algoritmo original que se basa en un problema de valores y vectores propios.
Los primeros capítulos se centran en el cálculo matricial y en los métodos de resolución de los sistemas
de ecuaciones lineales. Las matrices permiten representar sistemas de ecuaciones y otros objetos
matématicos de manera muy conveniente. Este libro presenta la matriz como un objeto matemático con
entidad propia, explica sus propiedades y cómo manejarlas.
La teoría de espacios vectoriales es un formalismo unificado que facilita el manejo de vectores, cualquiera
que sea su naturaleza. La representación matricial de vectores y subespacios vectoriales permite avanzar
el conocimiento de las propiedades de las matrices.
Las matrices vuelven a aparecer al estudiar las aplicaciones lineales, pues permiten representarlas una
vez seleccionadas las bases de trabajo en los espacios vectoriales en que actúan. El estudio de la función
matricial lineal 𝑦 = 𝐴𝑥 permite revisar el conocimiento de los sistemas de ecuaciones y abordar un
problema de capital importancia como es el de los valores y vectores propios.
El producto escalar permite equipar a los espacios vectoriales con los conceptos de norma o tamaño de
un vector y distancia entre vectores. Nuevamente, las matrices permiten unificar eficazmente la expresión
de cualquier producto escalar en cualquier espacio vectorial y abordar los problemas de optimización
lineal, como son el cálculo de la proyección ortogonal sobre un subespacio, el vector más cercano a otros,
y el problema de los mínimos cuadrados. Las propiedades del producto escalar ayudan a comprender las
características de las matrices que lo representan.

Suescun, Insausti, Flaquer (2022) 5 Tecnun-Universidad de Navarra


Álgebra Lineal

Contenido

Prólogo ....................................................................................................................................................... 3
Álgebra Lineal ............................................................................................................................................. 5
Contenido ................................................................................................................................................... 6
1 Matrices............................................................................................................................................... 11
Primeras definiciones y notación .................................................................................................... 12
Suma matricial................................................................................................................................. 13
Producto por escalares ................................................................................................................... 13
Conjugación matricial ...................................................................................................................... 14
Trasposición matricial ..................................................................................................................... 15
Matrices simétricas y antisimétricas ............................................................................................... 16
Trasposición hermítica .................................................................................................................... 16
Matrices hermíticas y antihermíticas .............................................................................................. 17
Producto matricial ........................................................................................................................... 17
Traza de una matriz cuadrada ......................................................................................................... 20
Potencias de matrices cuadradas .................................................................................................... 21
Inversas de una matriz .................................................................................................................... 23
La matriz inversa ............................................................................................................................. 24
Matrices particionadas .................................................................................................................... 25
Matrices cuadradas especiales ....................................................................................................... 28
Ejemplos de aplicación .................................................................................................................... 31
Ejercicios resueltos .......................................................................................................................... 35
Ejercicios propuestos ...................................................................................................................... 42
2 Sistemas de Ecuaciones Lineales .......................................................................................................... 49
Definiciones ..................................................................................................................................... 50
Matriz ampliada .............................................................................................................................. 52
Operaciones elementales................................................................................................................ 52
Sistemas de Cramer ........................................................................................................................ 55
El mecanismo de eliminación Gaussiana ........................................................................................ 56
El método de Gauss......................................................................................................................... 57
El método de Gauss-Jordan............................................................................................................. 61
Estructura del conjunto de soluciones de 𝑨𝒙 = 𝒃.......................................................................... 63
Inversas de 𝑨 y la ecuación 𝑨𝒙 = 𝒃 ............................................................................................... 64
Obtención de la inversa de una matriz regular ............................................................................... 66
Obtención de las matrices inversas por la derecha y por la izquierda ............................................ 67
Factorización 𝑳𝑼 de 𝑨..................................................................................................................... 68
Variantes de la factorización 𝑳𝑼 de 𝑨 ............................................................................................ 70
Aplicación de la factorización 𝑳𝑼 para resolver sistemas de Cramer ............................................. 72
Factorización 𝑳𝑼 de 𝑷𝑨 .................................................................................................................. 73
Coste computacional de operaciones matriciales y resolución de sistemas .................................. 74
Ejemplos de aplicación .................................................................................................................... 77
Ejercicios resueltos .......................................................................................................................... 82
Ejercicios propuestos ...................................................................................................................... 93
3 Determinantes ..................................................................................................................................... 97
Definiciones ..................................................................................................................................... 98
Propiedades .................................................................................................................................... 99
La matriz adjunta........................................................................................................................... 100
Las matrices regulares ................................................................................................................... 102
La regla de Cramer ........................................................................................................................ 102
Cálculo práctico de determinantes ............................................................................................... 104
Menores ........................................................................................................................................ 107
El determinante de Vandermonde................................................................................................ 108

Suescun, Insausti, Flaquer (2022) 6 Tecnun-Universidad de Navarra


Contenidos Álgebra Lineal

Ejemplos de aplicación .................................................................................................................. 109


Ejercicios resueltos ........................................................................................................................ 113
Ejercicios propuestos .................................................................................................................... 121
4 Espacios Vectoriales........................................................................................................................... 127
Estructura de espacio vectorial ..................................................................................................... 128
Subespacios Vectoriales ................................................................................................................ 131
Subespacios generados ................................................................................................................. 132
Dependencia e independencia lineal ............................................................................................ 135
Base de un espacio (o subespacio) vectorial ................................................................................. 138
Vectores en forma escalonada por columnas ............................................................................... 144
Dimensión de un espacio vectorial ............................................................................................... 145
Ecuaciones paramétricas de un subespacio vectorial ................................................................... 147
Ecuaciones implícitas de un subespacio vectorial ......................................................................... 149
Suma de subespacios vectoriales .................................................................................................. 150
Intersección de subespacios vectoriales ....................................................................................... 152
Cambio de base en un espacio vectorial ....................................................................................... 153
Ejemplos de aplicación .................................................................................................................. 156
Ejercicios resueltos ........................................................................................................................ 158
Ejercicios propuestos .................................................................................................................... 169
5 Aplicaciones Lineales ......................................................................................................................... 175
Introducción al concepto de aplicación ........................................................................................ 176
Aplicaciones lineales (I) ................................................................................................................. 176
Aplicaciones lineales (II) ................................................................................................................ 179
Núcleo de una aplicación lineal ..................................................................................................... 180
Imagen de una aplicación lineal .................................................................................................... 183
Matriz de una aplicación lineal ..................................................................................................... 187
Núcleo e imagen de una matriz .................................................................................................... 191
Operaciones con aplicaciones lineales .......................................................................................... 194
Isomorfismos ................................................................................................................................. 197
Cambios de base ........................................................................................................................... 199
Rango matricial ............................................................................................................................. 201
Rango e inversas de una matriz .................................................................................................... 204
Rango y discusión de un sistema................................................................................................... 206
Proyección sobre un subespacio vectorial .................................................................................... 206
Matriz de proyección .................................................................................................................... 207
Ejemplos de aplicación .................................................................................................................. 209
Ejercicios resueltos ........................................................................................................................ 211
Ejercicios propuestos .................................................................................................................... 224
6 Espacios con Producto Escalar ........................................................................................................... 227
Producto escalar ........................................................................................................................... 228
Ortogonalidad ............................................................................................................................... 229
Norma inducida ............................................................................................................................. 230
Ángulo entre dos vectores ............................................................................................................ 232
Bases ortonormales ...................................................................................................................... 233
Expresión del producto escalar en una base cualquiera ............................................................... 234
Expresión del producto escalar en una base ortonormal ............................................................. 235
Componentes de un vector en una base ortonormal ................................................................... 236
Distancia entre dos vectores ......................................................................................................... 237
Vector proyección ortogonal ........................................................................................................ 237
Método de Gram-Schmidt ............................................................................................................ 240
Matrices unitarias y ortogonales reales ........................................................................................ 243
Factorización 𝑸𝑹........................................................................................................................... 245
Complemento ortogonal ............................................................................................................... 247
Ejemplos de aplicación .................................................................................................................. 249
Ejercicios resueltos ........................................................................................................................ 252
Ejercicios propuestos .................................................................................................................... 267
7 Valores y Vectores Propios ................................................................................................................ 271

Suescun, Insausti, Flaquer (2022) 7 Tecnun-Universidad de Navarra


Álgebra Lineal Contenidos

Notación ........................................................................................................................................ 272


Valores y vectores propios ............................................................................................................ 272
Obtención de los valores propios .................................................................................................. 273
Obtención de los vectores propios ............................................................................................... 274
Los subespacios propios ................................................................................................................ 275
Ventaja de trabajar en una base de vectores propios .................................................................. 278
Matrices semejantes ..................................................................................................................... 279
Diagonalización por semejanza ..................................................................................................... 279
Criterios de diagonalización .......................................................................................................... 282
El polinomio característico ............................................................................................................ 285
Fórmulas de Vieta ......................................................................................................................... 287
𝝀-matrices y polinomios matriciales ............................................................................................. 288
Teorema de Cayley-Hamilton ........................................................................................................ 289
Obtención de la inversa de una matriz regular ............................................................................. 290
Polinomio mínimo ......................................................................................................................... 291
Método de la potencia .................................................................................................................. 292
El método 𝑸𝑹 ............................................................................................................................... 294
Ejemplos de aplicación .................................................................................................................. 296
Ejercicios resueltos ........................................................................................................................ 299
Ejercicios propuestos .................................................................................................................... 312
8 Diagonalización de Matrices Normales .............................................................................................. 316
Matrices normales ........................................................................................................................ 317
Teorema de Schur ......................................................................................................................... 318
Teorema espectral ........................................................................................................................ 319
Tipos de matrices normales .......................................................................................................... 320
Descomposición espectral ............................................................................................................ 321
Diagonalización de matrices hermíticas ........................................................................................ 322
Diagonalización de matrices reales y simétricas ........................................................................... 323
Obtención de las matrices 𝑸 y 𝑫 .................................................................................................. 324
Descomposición en valores singulares (SVD) ................................................................................ 326
Ejemplos de aplicación .................................................................................................................. 332
Ejercicios resueltos ........................................................................................................................ 335
Ejercicios propuestos .................................................................................................................... 342
9 Dificultades al resolver 𝑨𝒙 = 𝒃.......................................................................................................... 346
Norma espectral ............................................................................................................................ 347
Análisis de estabilidad en sistemas de ecuaciones lineales .......................................................... 349
Resolución numérica de sistemas de ecuaciones lineales bien condicionados: El método de
Gauss con pivotamiento parcial .................................................................................................... 351
Sistemas de ecuaciones incompatibles e indeterminados ............................................................ 353
Sistemas de ecuaciones incompatibles: La solución de residuo mínimo ...................................... 353
Sistemas de ecuaciones indeterminados: La solución de norma mínima ..................................... 356
La matriz inversa generalizada ...................................................................................................... 357
Matriz de proyección ortogonal sobre 𝑹(𝑨) ................................................................................ 361
Ejemplos de aplicación .................................................................................................................. 363
Ejercicios resueltos ........................................................................................................................ 367
Ejercicios propuestos .................................................................................................................... 375
10 Formas Cuadráticas Reales ................................................................................................................ 378
Formas bilineales reales y simétricas ............................................................................................ 379
Formas cuadráticas reales ............................................................................................................. 380
Diagonalización de una forma cuadrática real .............................................................................. 381
El método de la matriz ortogonal ................................................................................................. 382
El método de Lagrange ................................................................................................................. 383
Invariantes de una forma cuadrática ............................................................................................ 384
Clasificación de las formas cuadráticas reales .............................................................................. 385
Ejemplos de aplicación .................................................................................................................. 388
Ejercicios resueltos ........................................................................................................................ 390
Ejercicios propuestos .................................................................................................................... 394

Suescun, Insausti, Flaquer (2022) 8 Tecnun-Universidad de Navarra


Contenidos Álgebra Lineal

Bibliografía .............................................................................................................................................. 397

Suescun, Insausti, Flaquer (2022) 9 Tecnun-Universidad de Navarra


Álgebra Lineal Contenidos

Suescun, Insausti, Flaquer (2022) 10 Tecnun-Universidad de Navarra


1 Matrices

El objetivo de este capítulo es aprender a operar con matrices, con independencia de lo que pueden
representar. Se definen los conceptos más importantes y se explican las operaciones posibles y sus
propiedades, trabajando tanto con matrices reales como complejas. Al final del capítulo se muestra la
utilidad del cálculo matricial con tres ejemplos de aplicación práctica.

Suescun, Insausti, Flaquer (2022) 11 Tecnun-Universidad de Navarra


1.1 Primeras definiciones y notación 1 Matrices

Primeras definiciones y notación

Un escalar es un número real o complejo.


Una matriz 𝐴 es una colección de 𝑚 × 𝑛 escalares, organizados en 𝑚 filas y 𝑛 columnas:
𝑎11 𝑎12 … 𝑎1𝑛
𝑎21 𝑎22 … 𝑎2𝑛
𝐴=[ … … … … ]
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛
Es habitual la siguiente notación:
𝐴 = [ 𝑎𝑖𝑗 ]
El escalar 𝑎𝑖𝑗 representa un elemento cualquiera de la matriz 𝐴, llamado elemento genérico de 𝐴. El par
de subíndices (𝑖, 𝑗) define la posición del elemento 𝑎𝑖𝑗 en la matriz, que se halla en la fila 𝑖 y la columna 𝑗.
La matriz 𝐴 se dice que tiene tamaño 𝑚 × 𝑛 (se lee 𝑚 por 𝑛) por tener 𝑚 filas y 𝑛 columnas, escribiendo
en ocasiones 𝐴𝑚×𝑛 . Cuando 𝑚 = 𝑛, la matriz se llama cuadrada y se dice que es de orden 𝑛.
Los elementos con subíndices repetidos forman la diagonal principal de 𝐴:
𝑎11 , 𝑎22 , … , 𝑎𝑛𝑛
Una matriz formada por una sola columna se llama matriz columna; análogamente, una matriz formada
por una sola fila se llama matriz fila.
La matrices cuadradas y rectangulares se denotan con letras latinas mayúsculas (𝐴, 𝐵, 𝐼, … ) y los
escalares mediante caracteres griegos (𝛼, 𝛽, 𝜆, … ).
La notación para las matrices columna suele ser mediante letras latinas minúsculas:
𝑢, 𝑣, 𝑤, …
Para las matrices fila se usan letras latinas minúsculas con la letra 𝑇 como supraíndice por la derecha:
𝑢𝑇 , 𝑣 𝑇 , 𝑤 𝑇 , …
Esta notación particular ayuda a distinguir inmediatamente si se está trabajando con filas o columnas. En
el apartado §1.5 se identificará ( )𝑇 con el operador trasposición.

Ejemplo 1.1
La matriz
𝛼1
𝛼2
𝑢 = […]
𝛼𝑛
es una columna de tamaño 𝑛 × 1, formada por los escalares 𝛼1 , 𝛼2 , … , 𝛼𝑛 mientras que la matriz
𝑢𝑇 = [𝛼1 𝛼2 … 𝛼𝑛 ]
es una fila de tamaño 1 × 𝑛, que procede de trasponer la columna 𝑢.

Una matriz 1 × 1 sólo contiene un elemento y se identifica con el elemento que contiene. Así la matriz
𝐴 = [𝛼] = 𝛼
es una matriz de tamaño que se identifica con el escalar 𝛼.
La matriz 𝑂𝑚×𝑛 se llama matriz nula y todos sus elementos son iguales a cero:
0 0 … 0
0 0 … 0
𝑂𝑚×𝑛 =[ ]
… … … …
0 0 … 0

Suescun, Insausti, Flaquer (2022) 12 Tecnun-Universidad de Navarra


1 Matrices 1.2 Suma matricial

La matriz identidad 𝐼𝑛 es una matriz cuadrada de orden 𝑛 con todos sus elementos cero, excepto los de
la diagonal principal que tienen de valor la unidad
1 0 … 0
0 1 … 0
𝐼𝑛 = [ ]
… … … …
0 0 … 1
Las columnas de 𝐼𝑛 se denominan columnas básicas y se las denota así:
1 0 0
0 1 0
𝑒1 = [ ] , 𝑒2 = [ ] , … , 𝑒𝑛 = [ ]
⋮ ⋮ ⋮
0 0 1

Suma matricial

Para sumar dos matrices 𝐴 y 𝐵, éstas deben ser del mismo tamaño 𝑚 × 𝑛. La matriz suma 𝐶 = 𝐴 + 𝐵 es
también de tamaño 𝑚 × 𝑛, y se calcula sumando ordenadamente los elementos de 𝐴 y 𝐵:
𝑐𝑖𝑗 = 𝑎𝑖𝑗 + 𝑏𝑖𝑗 ∀𝑖, 𝑗
… … … … … … … … … … … …
… … … … … … … … … … … …
[… … 𝑎𝑖𝑗 + 𝑏𝑖𝑗 …] = [… … 𝑎𝑖𝑗 …] + [… … 𝑏𝑖𝑗 …]
… … … … … … … … … … … …

Propiedades de la suma matricial


1) (𝐴 + 𝐵) + 𝐶 = 𝐴 + (𝐵 + 𝐶) Asociativa
2) 𝐴 + 𝐵 = 𝐵 + 𝐴 Conmutativa
3) 𝐴 + 𝑂 = 𝐴 Matriz nula
4) 𝐴 + (−𝐴) = 𝑂 Matriz opuesta

En las expresiones de las propiedades todas las matrices indicadas tienen el mismo tamaño.
La propiedad 1 permite realizar las sumas en distinto orden sin alterar el resultado. La propiedad 2 afirma
que el resultado de la suma no depende del orden de los sumandos. La propiedad 3 afirma que la matriz
nula es el elemento neutro de la suma. Finalmente, la propiedad 4 garantiza la existencia de la matriz
opuesta de una matriz dada, que obtiene cambiando de signo todos los elementos de la matriz 𝐴.

Producto por escalares

Sea 𝛼 un escalar y 𝐴 una matriz de tamaño 𝑚 × 𝑛.


El producto de 𝛼 por 𝐴, es una matriz 𝐶 = 𝛼𝐴, del mismo tamaño que 𝐴, que se calcula multimplicando
el escalar a todos los elementos de la matriz 𝐴:
𝑐𝑖𝑗 = α 𝑎𝑖𝑗 ∀𝑖, 𝑗
… … … … … … … …
… … … … … … … …
𝛼 [… … 𝑎𝑖𝑗 …] = [… … 𝛼𝑎𝑖𝑗 …]
… … … … … … … …

Propiedades del producto por escalar


5) 𝛼(𝛽𝐴) = (𝛼𝛽)𝐴 Asociativa
6) 𝛼(𝐴 + 𝐵) = 𝛼𝐴+ 𝛼𝐵 Distributiva de la suma matricial con el producto por escalar
7) (𝛼 + 𝛽)𝐴 = 𝛼𝐴 + 𝛽𝐴 Distributiva de la suma de escalares con el producto por escalar

Suescun, Insausti, Flaquer (2022) 13 Tecnun-Universidad de Navarra


1.4 Conjugación matricial 1 Matrices

8) 1𝐴 = 𝐴 Producto por la unidad


Estas propiedades son auto explicativas, teniendo en cuenta que 𝛼 y 𝛽 son escalares y 𝐴 y 𝐵 dos matrices
del mismo tamaño.

Conjugación matricial

Un número complejo 𝛼 se puede escribir como


𝛼 = 𝑎 + 𝑏𝑖
donde 𝑖 = √−1 es la unidad imaginaria y 𝑎 y 𝑏 son dos números reales que se reciben el nombre de
parte real y parte imaginaria respectivamente.
Conjugar un número complejo significa cambiar de signo su parte imaginaria. El conjugado de 𝛼, que se
denota como 𝛼̅, es:
𝛼̅ = 𝑎 − 𝑏𝑖
Los números reales se caracterizan por tener su parte imaginaria igual a cero, o lo que es lo mismo,
coinciden con su conjugado, como es muy fácil probar:
𝛼 = 𝛼̅ → 𝑎 + 𝑏𝑖 = 𝑎 − 𝑏𝑖 → 2𝑏𝑖 = 0 → 𝑏 = 0 → 𝛼 ∈ ℝ
El módulo del número complejo es

|𝛼| = √𝑎2 + 𝑏 2
Nótese que al multiplicar un número complejo por su conjugado se obtiene el cuadrado del módulo

𝛼̅𝛼 = (𝑎 − 𝑏𝑖)(𝑎 + 𝑏𝑖) = 𝑎2 + 𝑏 2 = |𝛼|2 (1.1)

Conjugar una matriz significa conjugar todos sus elementos. Así, si 𝐴 es una matriz compleja de tamaño
𝑚 × 𝑛, la conjugada de 𝐴, escrita 𝐴̅, es una matriz compleja del mismo tamaño 𝑚 × 𝑛 tal que
𝐴 = [𝑎𝑖𝑗 ] → 𝐴̅ = [ ̅̅̅̅
𝑎𝑖𝑗 ]

Ejemplo 1.2
1 − 3𝑖 2 + 5𝑖 1 + 3𝑖 2 − 5𝑖
𝐴=[ ] → 𝐴̅ = [ ]
2𝑖 −3 −2𝑖 −3

Toda matriz 𝐴 formada por números complejos se puede escribir de la forma


𝐴 = 𝐵 + 𝑖𝐶
siendo 𝐵 y 𝐶 matrices reales, esto es, formadas por sólo números reales. La matriz 𝐵 recibe el nombre de
parte real de 𝐴 y la matriz 𝐶 recibe el nombre de parte imaginaria de 𝐴.
Por lo tanto:
𝐴 = 𝐵 + 𝑖𝐶 → 𝐴̅ = 𝐵 − 𝑖𝐶

Ejemplo 1.3
La conjugada de la matriz del Ejemplo 1.2 es:
1 − 3𝑖 2 + 5𝑖 1 2 −3 5 1 2 −3 5 1 + 3𝑖 2 − 5𝑖
𝐴=[ ]=[ ]+𝑖[ ] → 𝐴̅ = [ ]−𝑖[ ]=[ ]
2𝑖 −3 0 −3 2 0 0 −3 2 0 −2𝑖 −3

Suescun, Insausti, Flaquer (2022) 14 Tecnun-Universidad de Navarra


1 Matrices 1.5 Trasposición matricial

A continuación, se enumeran las propiedades de la conjugación matricial.

Propiedades de la conjugación matricial


9) ̅̅̅̅̅̅̅̅
𝐴 + 𝐵 = 𝐴̅ + 𝐵̅ Conjugada de la suma
10) ̅̅̅̅
𝛼𝐴 = 𝛼̅𝐴̅ Conjugada del producto por α

11) 𝐴̅ = 𝐴 Conjugada de la conjugada


12) 𝐴 es real si y sólo si 𝐴̅ = 𝐴 Matriz real

La propiedad 12 se demuestra fácilmente. La doble implicación (“si y solo si ” = ⟺) requiere dos


demostraciones:
• Demostrar que “𝐴 real ⟹ 𝐴̅ = 𝐴 ” es inmediato, ya que al no existir parte imaginaria de 𝐴,
esto es 𝐶 = 𝑂, la conjugación no origina ningún cambio en la matriz.
• Demostrar que “𝐴̅ = 𝐴 ⟹ 𝐴 real ” es también sencillo:
𝐴̅ = 𝐴 → 𝐵 − 𝑖𝐶 = 𝐵 + 𝑖𝐶 → 2𝑖𝐶 = 𝑂 → 𝐶 = 𝑂 → 𝐴 real

Trasposición matricial

Trasponer una matriz significa transformar sus columnas en filas, esto es, las columnas de la matriz
original pasan a ser las filas de la matriz traspuesta. También se puede explicar como escribir las filas de
la matriz original como columnas en la matriz traspuesta. Véanse los siguientes ejemplos.

Ejemplo 1.4
1 4
1 2 3
𝐴=[ ] → 𝐴𝑇 = [2 5]
4 5 6
3 6
Nótese que las columnas de 𝐴 son ahora las filas de 𝐴𝑇 . Así mismo, las filas de 𝐴 son las columnas de 𝐴𝑇 .
Véase también el ejemplo 1.1.

Ejemplo 1.5
1 𝟐 𝟑 1 4 7
𝐴 = [4 5 𝟔] → 𝐴𝑇 = [𝟐 5 8]
7 8 9 𝟑 𝟔 9
Nótese que los elementos de la diagonal principal no cambian. El resto de elementos, se mueven a
posiciones simétricas respecto de la diagonal principal: el elemento (2,3) de 𝐴 se convierte en el elemento
(3,2) de 𝐴𝑇 .

Dada la matriz 𝐴 de tamaño 𝑚 × 𝑛, la traspuesta de 𝐴, que se escribe 𝐴𝑇 , es una matriz de tamaño


cambiado 𝑛 × 𝑚 tal que:
(col. 𝑗)
⋮ ⋮ 𝑎1𝑗 ⋮ … … … …
⋮ ⋮ 𝑎2𝑗 ⋮ … … … …
⏟𝐴 = → ⏟𝐴𝑇 = [𝑎 𝑎 2𝑗 … 𝑎𝑚𝑗 ] (fila 𝑗)
𝑚×𝑛
⋮ ⋮ ⋮ ⋮ 𝑛×𝑚
1𝑗

[⋮ ⋮ 𝑎𝑚𝑗 ⋮ ] … … … …

De manera abreviada:
𝐴 = [𝑎𝑖𝑗 ] → 𝐴𝑇 = [𝑎𝑗𝑖 ]

Suescun, Insausti, Flaquer (2022) 15 Tecnun-Universidad de Navarra


1.6 Matrices simétricas y antisimétricas 1 Matrices

Es decir, al trasponer la matriz 𝐴, el elemento de 𝐴 ubicado en la posición (𝑖, 𝑗) se convierte en el elemento


(𝑗, 𝑖) de la matriz traspuesta 𝐴𝑇 .

Propiedades del operador trasposición


13) (𝐴 + 𝐵)𝑇 = 𝐴𝑇 + 𝐵𝑇 Traspuesta de la suma
14) (𝛼𝐴)𝑇 = 𝛼𝐴𝑇 Traspuesta del producto por 𝛼

15) ( 𝐴̅ )𝑇 = ̅̅̅̅̅̅
(𝐴𝑇 ) Traspuesta de la conjugada
𝑇 𝑇
16) (𝐴 ) = 𝐴 Traspuesta de la traspuesta

La propiedad 15 permite conmutar, i.e. intercambiar, los operadores trasposición y conjugación.

Matrices simétricas y antisimétricas

Una matriz cuadrada 𝐴 se llama simétrica si cumple que 𝐴𝑇 = 𝐴, es decir, si


𝑎𝑖𝑗 = 𝑎𝑗𝑖 ∀𝑖, 𝑗
𝑇
Una matriz cuadrada 𝐴 se llama antisimétrica si 𝐴 = −𝐴, en cuyo caso
𝑎𝑖𝑗 = −𝑎𝑗𝑖 ∀𝑖, 𝑗
Las matrices simétricas se reconocen porque por encima y por debajo de la diagonal principal los mismos
valores aparecen simétricamente dispuestos respecto a ella.
Las matrices antisimétricas se reconocen porque por encima y por debajo de la diagonal principal los
mismos valores aparecen simétricamente dispuestos respecto a ella, aunque cambiados de signo. Así
mismo, su diagonal principal solo puede contener ceros.

Ejemplo 1.6
La matriz 𝐴 es simétrica y la matriz 𝐵 es antisimétrica:
1 2 3 0 1 −2
𝐴=[2 4 5] 𝐵 = [−1 0 −3 ]
3 5 6 2 3 0
Nótese que 𝐴 cumple 𝑎𝑗𝑖 = 𝑎𝑖𝑗 ∀𝑖, 𝑗. En cuanto a la matriz 𝐵, 𝑏𝑖𝑖 = 0 ∀𝑖 y 𝑏𝑗𝑖 = −𝑏𝑖𝑗 ∀𝑖, 𝑗.

Trasposición hermítica

Se define la traspuesta hermítica de 𝐴, que se denota por 𝐴𝐻 , como sigue:

𝐴𝐻 = ( 𝐴̅ )𝑇 = ̅̅̅̅̅̅
(𝐴𝑇 )
Los operadores trasposición y conjugación conmutan entre sí, y forman un nuevo operador que se
denomina trasposición hermítica (∙)𝐻 .
En la práctica, la trasposición hermítica se puede ejecutar tanto primero conjugando y después
trasponiendo como al revés.

Ejemplo 1.7
1 − 3𝑖 2 + 5𝑖 1 + 3𝑖 −2𝑖
𝐴=[ ] → 𝐴𝐻 = [ ]
2𝑖 3 2 − 5𝑖 3

Suescun, Insausti, Flaquer (2022) 16 Tecnun-Universidad de Navarra


1 Matrices 1.8 Matrices hermíticas y antihermíticas

Conviene conocer y manejar con soltura las siguientes propiedades, que se deducen combinando las
propiedades de la conjugación y la trasposición:

Propiedades de la trasposición hermítica


17) (𝐴 + 𝐵)𝐻 = 𝐴𝐻 + 𝐵𝐻 Traspuesta hermítica de la suma
18) (𝛼𝐴)𝐻 = 𝛼̅𝐴𝐻 Traspuesta hermítica del producto por 𝛼
19) (𝐴𝐻 )𝐻 = 𝐴 Traspuesta hermítica de la traspuesta hermítica

En la propiedad 18 se ha tenido en cuenta que el escalar 𝛼 puede ser un número complejo por lo que es
afectado por la conjugación asociada a la trasposición hermítica.

Matrices hermíticas y antihermíticas

En el campo complejo se consideran las matrices hermíticas, que cumplen la condición 𝐴𝐻 = 𝐴, y las
matrices antihermíticas, que verifican 𝐴𝐻 = −𝐴.

Ejemplo 1.8
La matriz 𝐴 es hermítica y la matriz 𝐵 es antihermítica:
1 1+𝑖 3𝑖 2𝑖 1+𝑖 3𝑖
𝐴 = [1−𝑖 4 −5 + 2𝑖 ] 𝐵 = [−1 + 𝑖 0 5−𝑖]
−3𝑖 −5 − 2𝑖 6 3𝑖 −5 − 𝑖 −3𝑖
Para verificarlo basta obtener las traspuestas hermíticas de ambas matrices:
𝑇
1 1−𝑖 −3𝑖 1 1+𝑖 3𝑖
𝐻
𝐴 = [1+𝑖 4 −5 − 2𝑖 ] = [ 1 − 𝑖 4 −5 + 2𝑖 ] = 𝐴
3𝑖 −5 + 2𝑖 6 −3𝑖 −5 − 2𝑖 6
−2𝑖 1−𝑖 −3𝑖 𝑇 −2𝑖 −1 − 𝑖 −3𝑖
𝐻
𝐵 = [−1 − 𝑖 0 5 + 𝑖 ] = [1 − 𝑖 0 −5 + 𝑖 ] = −𝐵
−3𝑖 −5 + 𝑖 3𝑖 −3𝑖 5+𝑖 3𝑖

Como ilustran los ejemplos, las matrices hermíticas tienen valores reales en la diagonal principal. Fuera
de esta diagonal, se tienen números complejos conjugados en posiciones simétricas:
𝐴𝐻 = 𝐴 → 𝑎𝑗𝑖 = ̅̅̅̅
𝑎𝑖𝑗 → 𝑎𝑖𝑖 ∈ ℝ
Por su parte las matrices antisimétricas tienen valores imaginarios puros (o nulos) en la diagonal principal.
En posiciones simétricas fuera de esta diagonal, se tienen números complejos que son uno el opuesto del
conjugado del otro.
𝐴𝐻 = −𝐴 → 𝑎𝑗𝑖 = − ̅̅̅̅
𝑎𝑖𝑗 → 𝑎𝑖𝑖 ∈ 𝕀

Producto matricial

Se analiza en primer lugar el producto de una matriz fila por una matriz columna, que se calcula
multiplicando ordenadamente cada elemento de la fila por el elemento correspondiente de la columna y
sumando todos estos productos. El resultado es un escalar:
𝛽1
𝑢𝑛×1 𝛽
} → 𝑢 𝑣 = [𝛼1
𝑇 𝛼2 … 𝛼𝑛 ] [ 2 ] = 𝛼1 𝛽1 + 𝛼2 𝛽2 + ⋯ 𝛼𝑛 𝛽𝑛
𝑣𝑛×1 …
𝛽𝑛
Abreviadamente:

Suescun, Insausti, Flaquer (2022) 17 Tecnun-Universidad de Navarra


1.9 Producto matricial 1 Matrices

𝑛
𝑇
𝑢 𝑣 = ∑ 𝛼𝑘 𝛽𝑘 (1.2)
𝑘=1

Nótese que, para poder realizar este producto, la fila y la columna deben tener el mismo número de
elementos:
⏟𝑇 ∙ ⏟
𝑢 𝑣 = ⏟
𝛼
1×𝑛 𝑛×1 1×1

Ejemplo 1.9
𝑎 1 𝑎
𝑢 = [ 𝑏 ] 𝑣 = [ 2 ] → 𝑣𝑇 𝑢 = [ 1 2 3 ] [ 𝑏 ] = 𝑎 + 2𝑏 + 3𝑐
𝑐 3 𝑐

Ejemplo 1.10
En ocasiones la fila se construye con una transpuesta hermítica:
1+𝑖 1+𝑖
𝑥 = [ 2𝑖 ] → 𝑥 𝐻 𝑥 = [1 − 𝑖 −2𝑖 5] [ 2𝑖 ] = (1 − 𝑖 2 ) − (2𝑖)2 + 52 = 2 + 4 + 25 = 31
5 5

Se analiza ahora el producto matricial en toda su generalidad. De manera concisa, el producto de dos
matrices 𝐴𝑚×𝑛 y 𝐵𝑛×𝑝 consiste en multiplicar las filas de 𝐴 por la columnas de 𝐵. El resultado es una
matriz 𝐶𝑚×𝑝 :

𝐴 ∙ ⏟
𝐵 = ⏟
𝐶
𝑚×𝑛 𝑛×𝑝 𝑚×𝑝

Nótese que es necesario satisfacer una condición de tamaños: el número de columnas de 𝐴 debe ser
igual al número de filas de 𝐵.
(𝑐𝑜𝑙. 𝑗)
⋯ 𝑏1𝑗 ⋮
⋯ 𝑏2𝑗 ⋮
⋮ ⋮ ⋮ =
(𝑓𝑖𝑙𝑎 𝑖) 𝑎𝑖1 𝑎𝑖2 ⋯ 𝑎𝑖𝑛 ⋮ ⋯ ⋯ 𝑐𝑖𝑗 ⋯
[ ⋯ ] 𝑏𝑛𝑗 [ ⋮ ]
[ ]

El elemento 𝑐𝑖𝑗 de la matriz producto 𝐶 se obtiene multiplicando la fila 𝑖 de 𝐴 por la columna 𝑗 de 𝐵.


Matemáticamente:
𝑛

𝑐𝑖𝑗 = 𝑎𝑖1 𝑏1𝑗 + 𝑎𝑖2 𝑏2𝑗 + ⋯ + 𝑎𝑖𝑛 𝑏𝑛𝑗 = ∑ 𝑎𝑖𝑘 𝑏𝑘𝑗 (1.3)
𝑘=1

Ejemplo 1.11
𝑎 𝑑
1 2 3 𝑏 𝑎 + 2𝑏 + 3𝑐 𝑑 + 2𝑒 + 3𝑓
[ ][ 𝑒]=[ ]
4 5 6 𝑐 4𝑎 + 5𝑏 + 6𝑐 4𝑑 + 5𝑒 + 6𝑓
𝑓

Es también interesante analizar el producto de una matriz columna por una matriz fila:

Suescun, Insausti, Flaquer (2022) 18 Tecnun-Universidad de Navarra


1 Matrices 1.9 Producto matricial

𝛼1 𝛼1 𝛽1 𝛼1 𝛽2 ⋯ 𝛼1 𝛽𝑛
𝑢𝑚×1 𝛼 2 𝛼2 𝛽1 𝛼2 𝛽2 ⋯ 𝛼2 𝛽𝑛
} → 𝑢 𝑣 𝑇 = [ … ] [𝛽1 𝛽2 … 𝛽𝑛 ] = [ ]
𝑣𝑛×1 ⋯ ⋯ ⋯ ⋯
𝛼𝑚 𝛼𝑚 𝛽1 𝛼𝑚 𝛽2 ⋯ 𝛼𝑚 𝛽𝑛
El resultado es una matriz de tamaño 𝑚 × 𝑛. Nótese que, en este caso, se sigue cumpliendo la condición
de tamaños, aunque el número de elementos de la fila y de la columna no coincidan:
⏟ 𝑣𝑇 =
𝑢 ∙ ⏟ ⏟
𝐶
𝑚×1 1×𝑛 𝑚×𝑛

Ejemplo 1.12
La matriz de todo unos se puede obtener multiplicando la columna de unos por la fila de unos:
1 1 1 ⋯ 1
1 1 1 ⋯ 1
[1
[ ]⏟ 1 … 1] = [ ]
… ⋯ ⋯ ⋯ ⋯
1×𝑛
⏟1 ⏟1 1 ⋯ 1
𝑚×1 𝑚×𝑛

Es importante no confundir el producto fila columna con el producto columna fila. El primero podría 1
devolver un escalar, el segundo es siempre una matriz. Por tanto, en general
𝑢𝑇 𝑣 ≠ 𝑢𝑣 𝑇
Se van a presentar en lo que sigue las propiedades del producto matricial.

Propiedades del producto matricial


20) (𝐴𝐵)𝐶 = 𝐴(𝐵𝐶) Asociativa
21) 𝐴(𝐵 + 𝐶) = 𝐴𝐵 + 𝐴𝐶 Primera distributiva
22) (𝐴 + 𝐵)𝐶 = 𝐴𝐶 + 𝐵𝐶 Segunda distributiva
23) 𝐴𝐼𝑛 = 𝐼𝑚 𝐴 = 𝐴 Producto por la identidad (𝐴𝑚×𝑛 )
24) 𝐴𝐵 ≠ 𝐵𝐴 (en general) No conmutatividad
25) 𝐴(𝛼𝐵) = (𝛼𝐴)𝐵 = 𝛼(𝐴𝐵) Producto con escalares
26) ̅̅̅̅
𝐴𝐵 = 𝐴̅ 𝐵̅ Conjugada del producto
𝑇 𝑇 𝑇
27) (𝐴𝐵) = 𝐵 𝐴 Traspuesta del producto
28) (𝐴𝐵)𝐻 = 𝐵𝐻 𝐴𝐻 Traspuesta hermítica del producto

La propiedad 24 nos advierte de que el producto matricial no cumple la propiedad conmutativa: el


resultado del producto depende en general del orden de los factores. La propiedad 27 (28) afirma que la
traspuesta (traspuesta hermítica) de un producto es el producto de traspuestas (traspuestas hermíticas),
pero cambiando el orden de escritura.
Puede suceder que el producto de 𝐴 por 𝐵 sea la matriz nula 𝑂, sin necesidad de que 𝐴 o 𝐵 sean nulas,
como se prueba con el siguiente ejemplo.

1 El producto fila columna no es realizable si los factores no tienen los tamaños adecuados.

Suescun, Insausti, Flaquer (2022) 19 Tecnun-Universidad de Navarra


1.10 Traza de una matriz cuadrada 1 Matrices

Ejemplo 1.13
−1 1
1 1 0 0 0
[ ][ 1 −1] = [ ]
0 1 1 0 0
−1 1

Se dice que las matrices 𝐴 y 𝐵 conmutan si 𝐴𝐵 = 𝐵𝐴. Para que dos matrices conmuten es necesario, no
suficiente, que sean cuadradas.

Ejemplo 1.14
Las matrices 𝐴 y 𝐵 siguientes conmutan:
1 2 2 3 2 7
𝐴=[ ] 𝐵=[ ] → 𝐴𝐵 = 𝐵𝐴 = [ ]
0 1 0 2 0 2
Por el contrario, las matrices 𝐶 y 𝐷 no conmutan:
1 2 1 3
𝐶=[ ] 𝐷=[ ] → 𝐶𝐷 ≠ 𝐷𝐶
1 1 4 2

Traza de una matriz cuadrada

Se denomina traza de 𝐴 a la suma de los elementos de la diagonal principal de 𝐴:


𝑛

traza(𝐴) = ∑ 𝑎𝑖𝑖 = 𝑎11 + 𝑎22 + … + 𝑎𝑛𝑛 (1.4)


𝑖=1

La traza es un escalar, esto es, un número real o complejo.

Propiedades de la traza
29) traza(𝐴 + 𝐵) = traza(𝐴) + traza(𝐵)
30) traza(𝛼𝐴) = 𝛼 traza(𝐴)
31) traza(𝐴𝐵) = traza(𝐵𝐴)

Las dos primeras propiedades son evidentes.


Por el contrario, la última propiedad resulta paradójica: aunque las matrices 𝐴𝐵 y 𝐵𝐴 sean distintas, sus
trazas coinciden siempre que los productos sean posibles. Se demuestra a continuación esta propiedad.

Proposición 1.1
Enunciado: Si 𝐴 es de tamaño 𝑚 × 𝑛 y 𝐵 es de tamaño 𝑛 × 𝑚, la traza de la matriz 𝐴𝐵 coincide con la
traza de la matriz 𝐵𝐴.
Demostración: La matriz 𝐴𝐵 será cuadrada de orden 𝑚, y la matriz 𝐵𝐴 será también cuadrada de orden
𝑛. Se tiene
𝑚 𝑛

traza(𝐴𝐵) = ∑(∑ 𝑎𝑖𝑘 𝑏𝑘𝑖 )


𝑖=1 𝑘=1
𝑛 𝑚

traza(𝐵𝐴) = ∑(∑ 𝑏𝑘𝑖 𝑎𝑖𝑘 )


𝑘=1 𝑖=1

Suescun, Insausti, Flaquer (2022) 20 Tecnun-Universidad de Navarra


1 Matrices 1.11 Potencias de matrices cuadradas

Ambas expresiones conducen al mismo resultado teniendo en cuenta que los productos 𝑎𝑖𝑘 𝑏𝑘𝑖 y 𝑏𝑘𝑖 𝑎𝑖𝑘
conducen al mismo resultado y que se puede cambiar el orden de los sumatorios en cualquiera de las dos
expresiones. Por lo tanto:
traza(𝐴𝐵) = traza(𝐵𝐴)

Ejemplo 1.15
A partir de dos matrices 𝐴 y 𝐵 se construyen las matrices 𝐴𝐵 y 𝐵𝐴:
1 1 1 2 1
1 1 0 2 3
𝐴=[ ] , 𝐵 = [1 2] → 𝐴𝐵 = [ ] , 𝐵𝐴 = [1 3 2]
0 1 1 2 5
1 3 1 4 3
Las matrices 𝐴𝐵 y 𝐵𝐴 son distintas, incluso tienen tamaño distintos. Sin embargo, sus trazas coinciden:
traza(𝐴𝐵) = traza(𝐵𝐴) = 7

Potencias de matrices cuadradas

Vamos a definir las potencias naturales de una matriz cuadrada 𝐴 de orden 𝑛. Por convenio

𝐴0 = 𝐼𝑛 (1.5)

Se tiene que
𝐴1 = 𝐴
𝐴2 = 𝐴𝐴1
𝐴3 = 𝐴𝐴2
y, en general, se demuestra por inducción que

𝐴𝑘+1 = 𝐴𝑘 𝐴 (1.6)

Se tiene, además

𝐴𝑝 𝐴𝑞 = 𝐴𝑞 𝐴𝑝 = 𝐴𝑝+𝑞 (1.7)

con 𝑝 y 𝑞 números naturales cualesquiera.


El producto matricial es en general no conmutativo por lo que hay que tener cuidado al manejar
expresiones matriciales análogas a las identidades notables con escalares. Obsérvese que el cuadrado de
la suma de dos matrices es:
(𝐴 + 𝐵)2 = (𝐴 + 𝐵)(𝐴 + 𝐵) = 𝐴2 + 𝐴𝐵 + 𝐵𝐴 + 𝐵2
con 𝐴 y 𝐵 cuadradas del mismo orden, ya que, en general, 𝐴𝐵 ≠ 𝐵𝐴.
De igual manera:
(𝐴 + 𝐵)(𝐴 − 𝐵) = 𝐴2 − 𝐴𝐵 + 𝐵𝐴 − 𝐵2
La matriz identidad conmuta con cualquier otra matriz cuadrada por lo que se tiene el siguiente resultado
interesante:
(𝐼 + 𝐴)(𝐼 − 𝐴) = (𝐼 − 𝐴)(𝐼 + 𝐴) = 𝐼 − 𝐴2
Si las matrices 𝐴 y 𝐵 conmutan, se puede usar la fórmula del binomio de Newton, en la que 𝑝 es un
número natural

Suescun, Insausti, Flaquer (2022) 21 Tecnun-Universidad de Navarra


1.11 Potencias de matrices cuadradas 1 Matrices

𝑝
𝑝
𝐴𝐵 = 𝐵𝐴 → (𝐴 + 𝐵) = ∑ ( ) 𝐴𝑝−𝑘 𝐵𝑘
𝑝 (1.8)
𝑘
𝑘=0

siendo

𝑝 𝑝!
( )= (1.9)
𝑘 𝑘! (𝑝 − 𝑘)!

el número combinatorio p sobre k. Se recuerda el significado del operador factorial (∙)! :

𝑝! = 𝑝 ∙ (𝑝 − 1) ∙ (𝑝 − 2) ⋯ 3 ∙ 2 ∙ 1 (1.10)

Ejemplo 1.16
Nótese la simplificación:
7 7! 7 ∙ 6 ∙ 5 ∙ 4! 7 ∙ 6 ∙ 5 7 ∙ 6 ∙ 5
( )= = = = = 35
4 4! ∙ 3! 4! ∙ 3! 3! 3∙2∙1

Ejemplo 1.17
Se pide calcular 𝐴𝑝 con
1 1 0
𝐴 = [0 1 1]
0 0 1
y 𝑝 un número natural.
Se observa que 𝐴 = 𝐼 + 𝐵, con 𝐼 la matriz identidad de orden 3 y 𝐵 la matriz
0 1 0
𝐵 = [0 0 1]
0 0 0
La matriz identidad 𝐼 conmuta con cualquier matriz cuadrada de su mismo orden, en particular conmuta
con 𝐵. Por lo tanto para calcular 𝐴𝑝 = (𝐼 + 𝐵)𝑝 se puede usar la fórmula del binomio de Newton. Además,
las potencias sucesivas de 𝐵 se anulan a partir de 𝐵3 :
0 0 1 0 0 0 0 0 0
𝐵2 = [0 0 0] 𝐵3 = [0 0 0] → 𝐵𝑘 = [0 0 0] (𝑘 ≥ 3)
0 0 0 0 0 0 0 0 0
resultado que se puede demostrar fácilmente por inducción sobre 𝑘.
Aplicando la fórmula del binomio de Newton y al ser nulas las potencias de 𝐵 mayores que dos, se tiene
𝑝 𝑝 𝑝
𝐴𝑝 = (𝐼 + 𝐵)𝑝 = ( ) 𝐼 𝑝 𝐵0 + ( ) 𝐼 𝑝−1 𝐵1 + ( ) 𝐼 𝑝−2 𝐵2
0 1 2
Esto es:
1
𝐴𝑝 = 𝐼 + 𝑝𝐵 + 2𝑝(𝑝 − 1)𝐵2
1 0 0 0 𝑝 0 0 0 𝑝(𝑝 − 1)/2
= [0 1 0] + [0 0 𝑝] + [ 0 0 0 ]
0 0 1 0 0 0 0 0 0
Es decir
1 𝑝 𝑝(𝑝 − 1)/2
𝐴𝑝 = [ 0 1 𝑝 ] (∀ 𝑝)
0 0 1

Suescun, Insausti, Flaquer (2022) 22 Tecnun-Universidad de Navarra


1 Matrices 1.12 Inversas de una matriz

Inversas de una matriz

Se definen a continuación las matrices inversas por la izquierda y por la derecha de una matriz 𝐴 de
tamaño 𝑚 × 𝑛. La existencia de estas inversas, se analizará más adelante cuando se estudie el rango
matricial. Por el momento, se asume que podrían existir.
Se dice que 𝐿 es una inversa por la izquierda de 𝐴𝑚×𝑛 si

𝐿𝐴 = 𝐼𝑛 (1.11)

Nótese que el tamaño de 𝐿 debe ser 𝑛 × 𝑚.


Análogamente, se dice que 𝑅 es una inversa por la derecha de 𝐴𝑚×𝑛 si

𝐴𝑅 = 𝐼𝑚 (1.12)

Nótese que el tamaño de 𝑅 debe ser también 𝑛 × 𝑚.

Ejemplo 1.18
La matriz 𝐿 es una inversa por la izquierda de la matriz 𝐴
1 1 1 1
1 −1 1 1 −1 1 1 0
𝐿=[ ] 𝐴 = [1 2] → 𝐿𝐴 = [ ] [1 2] = [ ] = 𝐼2
0 1 −1 0 1 −1 0 1
1 1 1 1

Ejemplo 1.19
La matriz 𝑅 es una inversa por la derecha de la matriz 𝐴
1 1
𝐴 = [1 −1 1] 𝑅 = [1] → 𝐴𝑅 = [1 −1 1] [1] = 1 = 𝐼1
1 1

Ejemplo 1.20
Las matrices 𝑅1 y 𝑅2 son inversas por la derecha de la matriz 𝐴:
1 1 1 1
1 −1 1
𝐴=[ ] 𝑅1 = [1 2] 𝑅2 = [0 1]
0 1 −1
1 1 0 0
1 1
1 −1 1 1 0
𝐴𝑅1 = [ ] [1 2] = [ ]=𝐼
0 1 −1 0 1
1 1
1 1
1 −1 1 1 0
𝐴𝑅2 = [ ] [0 1] = [ ]=𝐼
0 1 −1 0 1
0 0

Las inversas por la izquierda o por la derecha no tienen por qué existir; más aún, caso de existir no tienen
por qué ser únicas.
Se tienen las siguientes proposiciones:

Proposición 1.2
Enunciado: Caso de que existan ambas clases de inversas 𝐿 y 𝑅 para la matriz 𝐴, dichas inversas coinciden.
Demostración:
∃𝐿, 𝑅 → 𝐿 = 𝐿𝐼𝑚 = 𝐿(𝐴𝑅) = (𝐿𝐴)𝑅 = 𝐼𝑛 𝑅 = 𝑅

Suescun, Insausti, Flaquer (2022) 23 Tecnun-Universidad de Navarra


1.13 La matriz inversa 1 Matrices

Proposición 1.3
Enunciado: Caso de que existan ambas clases de inversas para la matriz 𝐴, la citada matriz 𝐴 debe ser
cuadrada.
Demostración: Sea 𝐴𝑚×𝑛 . Llamando 𝐵 a las matrices 𝐿 y 𝑅, ya que 𝐿 = 𝑅, se tiene:
𝐴𝐵 = 𝐼𝑚 𝐵𝐴 = 𝐼𝑛
Aprovechando la 3ª propiedad de la traza
traza(𝐴𝐵) = traza(𝐵𝐴)
traza(𝐼𝑚 ) = traza(𝐼𝑛 )
𝑚=𝑛
Por lo tanto, necesariamente la matriz 𝐴 es cuadrada.

Una consecuencia inmediata de lo anterior es que, si la matriz no es cuadrada, caso de tener inversas,
éstas solo serán de un tipo: bien inversas por la izquierda o bien inversas por la derecha.
Más adelante, en el capítulo 2, se presentará un método para su obtención. Respecto a su existencia,
aunque se justificará en el capítulo 5 (§5.12) al hablar del rango matricial, se citan ahora los siguientes
resultados:
- Una matriz con más filas que columnas sólo puede tener inversas por la izquierda. En el caso de tener
inversa por la izquierda, tendrá más de una.
- Una matriz con más columnas que filas sólo puede tener inversas por la derecha. En el caso de tener
inversa por la derecha, tendrá más de una.
En lo que sigue, se estudia el caso habitual de las matrices cuadradas.

La matriz inversa

Dada la matriz 𝐴, cuadrada de orden 𝑛, se dice que la matriz 𝐴−1 , también cuadrada de orden 𝑛, es la
inversa de 𝐴 si es a la vez inversa por la izquierda y por la derecha de 𝐴, esto es, si se cumplen las dos
identidades siguientes:

𝐴−1 𝐴 = 𝐴𝐴−1 = 𝐼𝑛 (1.13)

La matriz inversa, cuando existe, es la única matriz que cumple las dos igualdades de la ecuación (1.13).
Esta afirmación se demuestra en la Proposición 1.4.

Ejemplo 1.21
1 −2 1 2
La matriz 𝐴−1 = [ ] es la inversa de la matriz 𝐴 = [ ] pues
0 1 0 1
1 2 1 −2 1 0
𝐴𝐴−1 = [ ][ ]=[ ] = 𝐼2
0 1 0 1 0 1
y también
1 −2 1 2 1 0
𝐴−1 𝐴 = [ ][ ]=[ ] = 𝐼2
0 1 0 1 0 1

Por esta razón, podemos clasificar las matrices cuadradas entre las que tienen inversa y las que no tienen.
Una matriz cuadrada que tiene inversa se llama regular; si una matriz cuadrada no tiene inversa, se llama
singular.

Suescun, Insausti, Flaquer (2022) 24 Tecnun-Universidad de Navarra


1 Matrices 1.14 Matrices particionadas

Proposición 1.4
Enunciado: La inversa de una matriz regular es única.
Demostración: Para demostrar la unicidad de la matriz inversa de una matriz regular, demostraremos que
no puede haber otra.
Sea 𝐵 otra inversa de 𝐴, además de 𝐴−1 . Se cumple, por tanto
𝐴𝐵 = 𝐼 𝐵𝐴 = 𝐼
Al multiplicar cada una de las dos igualdades por 𝐴−1
(𝐴−1 )𝐴𝐵 = (𝐴−1 )𝐼 → 𝐵 = 𝐴−1
𝐵𝐴(𝐴−1 ) = 𝐼(𝐴−1 ) → 𝐵 = 𝐴−1
se deduce que 𝐵 es exactamente igual a 𝐴−1 . Es decir, la matriz inversa es única.

A continuación, se enumeran las propiedades de la matriz inversa.

Propiedades de la matriz inversa


32) (𝐴 + 𝐵)−1 ≠ 𝐴−1 + 𝐵 −1 (en general) Inversa de la suma
33) (𝛼𝐴)−1 =𝛼 −1 −1
𝐴 (𝛼 ≠ 0) Inversa del producto por 𝛼
34) (𝐴̅ )−1 = ̅̅̅̅̅̅̅̅
(𝐴−1 ) Inversa de la conjugada
35) (𝐴𝑇 )−1 = (𝐴−1 )𝑇 Inversa de la traspuesta
36) (𝐴𝐵)−1 =𝐵 𝐴 −1 −1
Inversa del producto
37) (𝐴−1 )−1 = 𝐴 Inversa de la inversa
Nota: 𝐴, 𝐵 regulares.

La propiedad 32 afirma algo que también es verdad para los escalares: la inversa de una suma no es suma
de inversas. La propiedad 36 afirma que la inversa del producto es producto de inversas, pero cambiando
el orden de escritura.
La propiedad 34 permite concluir que la conjugada de una matriz regular es también una matriz regular.
Análogamente, la propiedad 35 permite afirmar que también es regular la traspuesta de una matriz
regular.
Nótese que el producto de matrices regulares es regular (propiedad 36) y que la matriz inversa de una
matriz regular es también regular (propiedad 37).
Para matrices regulares se define la potencia a un número entero negativo de la forma siguiente

𝐴−𝑘 = (𝐴−1 )𝑘 𝑘 ∈ 𝑁, 𝑘 > 0 (1.14)

Matrices particionadas

Se puede construir un bloque o submatriz de una matriz dada 𝐴, seleccionando 𝑝 filas y 𝑞 columnas. Los
elementos situados en esas filas y columnas formarán un bloque o submatriz de tamaño 𝑝 × 𝑞.

Ejemplo 1.22
Con los elementos de las filas 1,3 y las columnas 1, 2 de la matriz

Suescun, Insausti, Flaquer (2022) 25 Tecnun-Universidad de Navarra


1.14 Matrices particionadas 1 Matrices

1 2 3
𝐴=[4 5 6]
7 8 9
1 2
se construye la submatriz 𝐵 = [ ].
7 8

Particionar una matriz 𝐴 significa descomponerla en bloques mediante líneas horizontales y/o verticales.
Estos bloques constituyen los elementos matriciales de la matriz particionada.

Ejemplo 1.23
La matriz 𝐴 se puede particionar de la siguiente manera:
1 0 1 1 1
0 1 1 1 2
𝐴=[ ]
0 0 1 0 1
0 0 0 1 2
obteniéndose la matriz particionada
𝐴11 𝐴12 𝐴13
𝐴=[ ]
𝐴21 𝐴22 𝐴23
con
1 0
𝐴11 = 𝐴22 = [ ] = 𝐼2
0 1
1 1 0 0
𝐴12 =[ ] 𝐴21 = [ ] = 𝑂2
1 1 0 0
1
𝐴13 = 𝐴23 = [ ]
2
Este ejemplo ilustra una razón muy habitual para particionar matrices: la existencia de bloques repetidos
que definen un patrón en la matriz. Se podía haber expresado así:
𝐼2 𝑈 𝑏
𝐴=[ ]
𝑂2 𝐼2 𝑏
con
1 1 1
𝑈=[ ] 𝑏=[ ]
1 1 2

Nótese en el Ejemplo 1.23 que la matriz 𝐴 sin particionar es de tamaño 4 × 5 pero su tamaño
particionada por bloques es 2 × 3, pues tiene dos filas de bloques y tres columnas de bloques. A veces el
tamaño por bloque se resalta con un subrayado. En este ejemplo, 𝐴 es de tamaño 2 × 3.
Para operar con matrices particionadas se utilizan las mismas reglas que para operar con matrices sin
particionar, pero teniendo en cuenta que los elementos que se manejan son a su vez matrices.
Los siguientes ejemplos ilustran las operaciones con matrices particionadas:

Ejemplo 1.24
𝐴 𝐶 𝐴+𝐶 𝐴 𝛼𝐴
[ ]+[ ]=[ ] 𝛼[ ] = [ ]
𝐵 𝐷 𝐵+𝐷 𝐵 𝛼𝐵
̅̅̅̅̅̅ 𝑇
𝐴 𝐴̅ 𝐴 𝐴𝑇
[ ]=[ ] [ ] = [𝐴𝑇 𝐵𝑇 ] [𝐴 𝐵 ]𝑇 = [ ]
𝐵 𝐵̅ 𝐵 𝐵𝑇

Suescun, Insausti, Flaquer (2022) 26 Tecnun-Universidad de Navarra


1 Matrices 1.14 Matrices particionadas

𝐶 𝐴 𝐴𝐶 𝐴𝐷 𝐴𝐸
[𝐴 𝐵 ] [ ] = 𝐴𝐶 + 𝐵𝐷 [ ] [𝐶 𝐷 𝐸] = [ ]
𝐷 𝐵 𝐵𝐶 𝐵𝐷 𝐵𝐸

Ejemplo 1.25
La matriz identidad de orden 𝑛 se puede particionar por columnas:
𝐼𝑛 = [𝑒1 𝑒2 … 𝑒𝑛 ]
siendo 𝑒1 , 𝑒2 , … , 𝑒𝑛 las ya citadas columnas básicas.

Ejemplo 1.26
Sea 𝐴𝑚×𝑛 = [𝑢1 𝑢2 … 𝑢𝑛 ] una matriz particionada por columnas. Al multiplicar una matriz 𝐵 por la
matriz 𝐴 se obtiene otra matriz particionada por columnas:
𝐵𝐴 = 𝐵[𝑢1 𝑢2 … 𝑢𝑛 ] = [𝐵𝑢1 𝐵𝑢2 … 𝐵𝑢𝑛 ]
Sea 𝑥 una columna 𝑛 × 1
𝛼1
𝛼2
𝑥 = […]
𝛼𝑛
El producto 𝐴𝑥 se puede expresar como sigue:
𝛼1
𝛼2
𝐴𝑥 = [𝑢1 𝑢2 … 𝑢𝑛 ] [ ] = 𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑛 𝑢𝑛

𝛼𝑛
Nótese que el resultado es una matriz columna 𝑚 × 1, que se obtiene como combinación lineal de las
matrices colunas 𝑢1 , 𝑢2 , … , 𝑢𝑛 , todas de tamaño 𝑚 × 1.

Ejemplo 1.27
Se pide hallar la inversa de una matriz particionada de la forma
𝐼 𝐵
𝐴=[ ]
𝑂 𝐼
en función del bloque 𝐵, donde los bloques son todos cuadrados del mismo orden. 𝐼 es la matriz identidad
y 𝑂 la matriz nula.
Se puede suponer que la inversa de 𝐴, caso de existir, se podría particionar como 𝐴:
𝑃 𝑄
𝐴−1 = [ ]
𝑅 𝑆
con 𝑃 , 𝑄, 𝑅, y 𝑆 bloques incógnita. Se debe cumplir que 𝐴𝐴−1 = 𝐼
𝐼 𝐵 𝑃 𝑄 𝐼 𝑂
[ ][ ]=[ ]
𝑂 𝐼 𝑅 𝑆 𝑂 𝐼
De lo que se deduce fácilmente que
𝑃=𝑆=𝐼 𝑅=𝑂 𝑄 = −𝐵
y de ahí que
𝐼 −𝐵
𝐴−1 = [ ]
𝑂 𝐼

Suescun, Insausti, Flaquer (2022) 27 Tecnun-Universidad de Navarra


1.15 Matrices cuadradas especiales 1 Matrices

Matrices cuadradas especiales

Vamos a tratar aquí de una serie de matrices cuadradas, todas ellas de orden 𝑛, de especial relevancia en
las aplicaciones. Ya se han visto en apartados anteriores las matrices simétricas, antisimétricas,
hermíticas y antihermíticas.
Una matriz 𝐿 es triangular inferior si 𝑙𝑖𝑗 = 0, para 𝑖 < 𝑗
𝑙11 0 … 0
𝑙21 𝑙22 … 0
𝐿=[ ]
… … … …
𝑙𝑛1 𝑙𝑛2 … 𝑙𝑛𝑛
Análogamente, una matriz 𝑈 es triangular superior si 𝑢𝑖𝑗 = 0, para 𝑖 > 𝑗
𝑢11 𝑢12 … 𝑢1𝑛
0 𝑢22 … 𝑢2𝑛
𝑈=[… … … …]
0 0 … 𝑢𝑛𝑛
Un caso particular de las matrices triangulares es el de las matrices diagonales que son de la forma
𝑑11 0 … 0
0 𝑑22 … 0
𝐷=[ ]
… … … …
0 0 … 𝑑𝑛𝑛
cumpliendo 𝑑𝑖𝑗 = 0, para 𝑖 ≠ 𝑗.

Ejemplo 1.28
Las matrices
1 0 0 1 −1 2 1 0 0
𝐿 = [2 3 0] 𝑈 = [0 3 3] 𝐷 = [0 2 0]
4 5 6 0 0 −4 0 0 3
son, respectivamente, triangular inferior, triangular superior y diagonal.

Una matriz real 𝑄 se dice ortogonal si 𝑄 −1 = 𝑄𝑇 .


Una matriz compleja 𝑄 se dice unitaria si 𝑄 −1 = 𝑄𝐻 . Las matrices unitarias en el campo real son
ortogonales.
La inversión de las matrices ortogonales (unitarias) es muy sencilla de realizar pues la inversa coincide con
la traspuesta (traspuesta hermítica). Nótese que:
𝑄𝑜𝑟𝑡𝑜𝑔𝑜𝑛𝑎𝑙 → 𝑄𝑄𝑇 = 𝑄𝑇 𝑄 = 𝐼
𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 → 𝑄𝑄𝐻 = 𝑄𝐻 𝑄 = 𝐼

Ejemplo 1.29
La matriz
𝑐𝑜𝑠𝜃 −𝑠𝑒𝑛𝜃
𝑄=[ ]
𝑠𝑒𝑛𝜃 𝑐𝑜𝑠𝜃
es ortogonal pues 𝑄 −1 = 𝑄𝑇 , ya que
𝑐𝑜𝑠𝜃 −𝑠𝑒𝑛𝜃 𝑐𝑜𝑠𝜃 𝑠𝑒𝑛𝜃 1 0
𝑄𝑄𝑇 = [ ][ ]=[ ]=𝐼
𝑠𝑒𝑛𝜃 𝑐𝑜𝑠𝜃 −𝑠𝑒𝑛𝜃 𝑐𝑜𝑠𝜃 0 1

Una matriz 𝐴 se dice idempotente si 𝐴2 = 𝐴. En este caso:

Suescun, Insausti, Flaquer (2022) 28 Tecnun-Universidad de Navarra


1 Matrices 1.15 Matrices cuadradas especiales

𝐴3 = 𝐴2 𝐴 = 𝐴𝐴 = 𝐴
𝐴4 = 𝐴3 𝐴 = 𝐴𝐴 = 𝐴
𝐴5 = 𝐴4 𝐴 = 𝐴𝐴 = 𝐴
Esto es, si 𝐴 es idempotente, 𝐴𝑝 = 𝐴 (∀𝑝 ∈ 𝑁).
Una matriz 𝐴 se dice nilpotente si 𝐴𝑘 = 𝑂, con 𝑘 > 0. El menor valor de 𝑘 para el que se cumple la anterior
identidad se denomina índice de nilpotencia de 𝐴.
Una matriz 𝐴 se dice involutiva si 𝐴2 = 𝐼. Nótese que en este caso, 𝐴−1 = 𝐴.

Ejemplo 1.30
La matriz 𝐴 es idempotente:
1/2 1/2 1/2 1/2
𝐴=[ ] → 𝐴2 = 𝐴𝐴 = [ ]=𝐴
1/2 1/2 1/2 1/2

Ejemplo 1.31
La matriz 𝑁 es nilpotente de índice 3
0 1 0 0 0 1 0 0 0
𝑁 = [0 0 1] → 𝑁 2 = [0 0 0] → 𝑁 3 = [0 0 0] = 𝑂
0 0 0 0 0 0 0 0 0

Ejemplo 1.32
La matriz 𝐴 es involutiva:

1 1 −2 −2 1 0 0
𝐴 = [−2 1 −2] → 𝐴2 = [0 1 0]
3
−2 −2 1 0 0 1

Una matriz 𝑃 se dice matriz de permutación si resulta de la matriz identidad 𝐼 al intercambiar de orden
sus filas (o sus columnas).

Ejemplo 1.33
La matriz
0 1 0 0
1 0 0 0
𝑃=[ ]
0 0 0 1
0 0 1 0
es de permutación, pues se obtiene de la identidad
1 0 0 0
0 1 0 0
𝐼=[ ]
0 0 1 0
0 0 0 1
moviendo las filas (o las columnas) 1, 2, 3, 4 de la matriz identidad a las posiciones 2, 1, 4, 3,
respectivamente.

Ejemplo 1.34
Nótese el efecto de premultiplicar y postmultiplicar por una matriz de permutación.
0 1 0 1 2 3
𝑃 = [1 0 0] 𝐴 = [4 5 6]
0 0 1 7 8 9

Suescun, Insausti, Flaquer (2022) 29 Tecnun-Universidad de Navarra


1.15 Matrices cuadradas especiales 1 Matrices

Premultiplicar 𝐴 por 𝑃 intercambia las filas 1 y 2 de 𝐴:


0 1 0 1 2 3 4 5 6
𝑃𝐴 = [1 0 0] [4 5 6] = [1 2 3]
0 0 1 7 8 9 7 8 9
Postmultiplicar 𝐴 por 𝑃 intercambia las columnas 1 y 2 de 𝐴:
1 2 3 0 1 0 2 1 3
𝐴𝑃 = [4 5 6] [ 1 0 0] = [ 5 4 6]
7 8 9 0 0 1 8 7 9

Una matriz 𝐴 real se dice normal si cumple la identidad 𝐴𝐴𝑇 = 𝐴𝑇 𝐴 (o 𝐴𝐴𝐻 = 𝐴𝐻 𝐴, si 𝐴 es compleja).

Ejemplo 1.35
Las matrices simétricas reales, las antisimétricas reales, las hermíticas, las antihermíticas, las ortogonales
reales y las unitarias son todas ellas matrices normales. La demostración es trivial.

En los ejercicios aparecerán ejemplos concretos de otras matrices cuadradas especiales.

Suescun, Insausti, Flaquer (2022) 30 Tecnun-Universidad de Navarra


1 Matrices 1.16 Ejemplos de aplicación

Ejemplos de aplicación

Ejemplo de aplicación 1.1: Movimiento de insectos (Extraído de C. Meyer)


Supóngase un recinto cerrado en el que hay 200 insectos distribuidos en cuatro cámaras con pasadizos
de comunicación, tal como indica la figura.

Al cabo de un minuto se redistribuyen los insectos. El 40% de los que ocupan una cámara permanecen en
ella y el 60% restante se mueven a las cámaras accesibles, distribuyéndose de manera uniforme. Por
ejemplo, un 30% de insectos de la cámara #2 iría a la cámara #3 y otro 30% de insectos de la cámara #2
iría a la cámara #4. Se supone que en ese minuto un insecto no puede visitar dos cámaras distintas. El
flujo de insectos se repite minuto a minuto.
Se pretende en este ejemplo modelizar matricialmente este proceso y simular la evolución de la población
de insectos en cada cámara.
En primer lugar, se construye un modelo del proceso.
(𝑘) (𝑘) (𝑘) (𝑘)
Se denota con 𝛼1 , 𝛼2 , 𝛼3 , 𝛼4 el número de insectos que hay en las cámaras #1, #2, #3 y #4
respectivamente al terminar el minuto 𝑘. Al terminar el minuto siguiente (𝑘 + 1) se tiene:
(𝑘+1) (𝑘) (𝑘)
𝛼1 = 0.4𝛼1 + 0.2𝛼4
(𝑘+1) (𝑘) (𝑘) (𝑘)
𝛼2 = 0.4𝛼2 + 0.3𝛼3 + 0.2𝛼4
(𝑘+1) (𝑘) (𝑘) (𝑘)
𝛼3 = 0.3𝛼2 + 0.4𝛼3 + 0.2𝛼4
(𝑘+1) (𝑘) (𝑘) (𝑘) (𝑘)
𝛼4 = 0.6𝛼1 + 0.3𝛼2 + 0.3𝛼3 + 0.4𝛼4
Matricialmente
(𝑘+1) 0.4 0 0 0.2 𝛼 (𝑘)
𝛼1 1
(𝑘+1)
𝛼2 0 0.4 0.3 0.2 𝛼2(𝑘)
(𝑘+1)
= (𝑘)
𝛼3 0 0.3 0.4 0.2 𝛼3
(𝑘+1) (𝑘)
[ 𝛼4 ] [0.6 0.3 0.3 0.4] [𝛼4 ]
O de forma más compacta, denotando por 𝑥 (𝑘) la columna que guarda el número de insectos en las
cámaras en el minuto 𝑘
𝑥 (𝑘+1) = 𝑀𝑥 (𝑘)
𝑀 es una matriz estocástica por columnas (también llamada matriz de Markov). Obsérvese que la matriz
es no negativa y que la suma de los elementos de cada columna vale la unidad.
La condiciones iniciales del proceso indican que los 200 insectos se distribuyen uniformemente entre las
cuatro cámaras. Por tanto, en el minuto 0:
50
(0) 50
𝑥 =[ ]
50
50
Para simular la evolución de los insectos, se aplica iterativamente el modelo. Así, tras el primer minuto:

Suescun, Insausti, Flaquer (2022) 31 Tecnun-Universidad de Navarra


1.16 Ejemplos de aplicación 1 Matrices

0.4 0 0 0.2 50 30
0 0.4 0.3 0.2 50 45
𝑥 (1) = 𝑀𝑥 (0) = =
0 0.3 0.4 0.2 50 45
[0.6 0.3 0.3 0.4] [50] [80]
Y tras el segundo minuto:
0.4 0 0 0.2 30 28
0 0.4 0.3 0.2 45 47.5
𝑥 (2) = 𝑀𝑥 (1) = =
0 0.3 0.4 0.2 45 47.5
[0.6 0.3 0.3 0.4] [80] [ 77 ]
Continuando la simulación, al cabo de 20 minutos, la población de cada cámara alcanza unos valores
constantes que corresponden a un estado estacionario:
25
50
𝑥 (𝑘) = (𝑘 ≥ 20)
50
[75]
Dos comentarios sobre este ejercicio:
▪ Se ha construido un modelo iterativo muy sencillo que no contempla correctamente el hecho de que
un mismo insecto no puede estar en dos cámaras a la vez. Como se observa al cabo de dos minutos,
hay un insecto que está simultáneamente en las cámaras #2 y #3. Esto ocurre también en sucesivas
iteraciones, que producen números no enteros de población.
▪ Se podrían evitar las sucesivas iteraciones calculando previamente 𝑀𝑘 :
𝑥 (1) = 𝑀𝑥 (0) → 𝑥 (2) = 𝑀𝑥 (1) = 𝑀2 𝑥 (0) → ⋯ → 𝑥 (𝑘+1) = 𝑀𝑘 𝑥 (0)
En el capítulo de valores y vectores propio se mostrará como calcular 𝑀𝑘 de forma eficiente. Por el
momento, se escribe aquí el siguiente resultado:
1/8 1/8 1/8 1/8
1/4 1/4 1/4 1/4
lim 𝑀𝑘 =
𝑘→∞ 1/4 1/4 1/4 1/4
[3/8 3/8 3/8 3/8]
Nótese que la matriz resultante también es una matriz de Markov. Por lo tanto, el estado estacionario es:
1/8 1/8 1/8 1/8 50 25
1/4 1/4 1/4 1/4 50 50
𝑥 (∞) = lim 𝑥 (𝑘) = lim 𝑀𝑘 𝑥 (0) = =
𝑘→∞ 𝑘→∞ 1/4 1/4 1/4 1/4 50 50
[3/8 3/8 3/8 3/8] [50] [75]
Se invita al lector a probar diferentes condiciones iniciales y analizar los estados estacionarios alcanzados
en cada caso. ¿Qué conclusión se puede sacar?

Suescun, Insausti, Flaquer (2022) 32 Tecnun-Universidad de Navarra


1 Matrices 1.16 Ejemplos de aplicación

Ejemplo de aplicación 1.2: Sistema mecánico


En la figura se muestran dos masas 𝑚1 y 𝑚2 unidas entre sí por un muelle de rigidez 𝑘2 y con 𝑚1 unida a
la base fija mediante un muelle de rigidez 𝑘1 .

k1 m1 k2 m2 Posición
sin fuerza

Posición
x1 x2 desplazada

f (t)

Al ejercer una fuerza 𝑓(𝑡), las dos masas se desplazan horizontalmente, 𝑥1 (𝑡) la masa 𝑚1 y 𝑥2 (𝑡) la masa
𝑚2 . Al ser 𝑓(𝑡) variable en el tiempo 𝑡, los desplazamientos de las masas también variarán con el tiempo.
La parte superior de la figura muestra el sistema en reposo. La parte inferior muestra el sistema
deformado por efecto de la fuerza 𝑓(𝑡).
Se pretende en este ejemplo deducir las ecuaciones del movimiento y expresarlas de forma matricial. Se
comienza dibujando los diagramas de sólido libre:

m1 m2
k1 x1 k2 (x2 – x1) k2 (x2 – x1) f (t)

Y se construyen las ecuaciones de equilibrio dinámico de cada masa (2ª ley de Newton):
𝑓(𝑡) − 𝑘2 (𝑥2 − 𝑥1 ) = 𝑚2 𝑥̈ 2 → 𝑚2 𝑥̈ 2 + 𝑘2 (𝑥2 − 𝑥1 ) = 𝑓(𝑡)
𝑘2 (𝑥2 − 𝑥1 ) − 𝑘1 𝑥1 = 𝑚1 𝑥̈1 → 𝑚1 𝑥̈1 − 𝑘2 (𝑥2 − 𝑥1 ) + 𝑘1 𝑥1 = 0
Siendo 𝑥̈1 , 𝑥̈ 2 las aceleraciones de las dos masas:
𝑑 2 𝑥1 (𝑡) 𝑑 2 𝑥2 (𝑡)
𝑥̈1 = 𝑥̈ 2 =
𝑑𝑡 2 𝑑𝑡 2
Estas ecuaciones se pueden expresar matricialmente como sigue:
𝑚2 0 𝑥̈ 2 𝑘2 −𝑘2 𝑥2 𝑓(𝑡)
[ ][ ] + [ ][ ] = [ ]
0 𝑚1 𝑥̈1 −𝑘2 𝑘2 + 𝑘1 𝑥1 0
Esto es
𝑀𝑥̈ + 𝐾𝑥 = 𝐹
La matriz 𝑀 recibe el nombre de matriz de masas. La matriz 𝐾 se denomina matriz de rigidez. La matriz
columna 𝑥 almacena los desplazamientos de las masas, la columna 𝑥̈ sus aceleraciones y finalmente, 𝐹 es
una matriz columna que guarda las fuerzas exteriores aplicadas sobre las masas.

Ejemplo de aplicación 1.3: Transporte público (Extraído de C. Meyer)


Se consideran cuatro ciudades #1, #2, #3 y #4, conectadas por tres líneas de autobús de un solo sentido
(sólo ida) y otras dos líneas de doble sentido (ida y vuelta), según se indica en la siguiente figura.

Suescun, Insausti, Flaquer (2022) 33 Tecnun-Universidad de Navarra


1.16 Ejemplos de aplicación 1 Matrices

#1 #2

#3 #4

Este ejemplo ilustra el concepto y el uso de la matriz de conectividad 𝐶, que se construye del siguiente
modo:
• 𝑐𝑖𝑗 = 1 si se puede ir de la ciudad 𝑖 a la ciudad 𝑗 directamente (𝑖 ≠ 𝑗).
• 𝑐𝑖𝑗 = 0 en caso contrario.
La matriz 𝐶 es por lo tanto:
0 1 1 1
0 0 0 1
𝐶=[ ]
0 0 0 1
1 1 0 0
Obsérvese que la falta de simetría de 𝐶 se debe a que no todos los autobuses son de ida y vuelta: aunque
es posible ir directamente de #1 a #2 pero no es posible volver sin pasar por otra ciudad.
Además de 𝐶, es interesante analizar 𝐶 2 :
1 1 0 2
1 1 0 0
𝐶2 = [ ]
1 1 0 0
0 1 1 2
El significado de 𝐶 2 se comprende mejor si analizamos el producto 𝑐𝑖𝑘 𝑐𝑘𝑗 :
• 𝑐𝑖𝑘 𝑐𝑘𝑗 = 0 si no se puede ir de #𝑖 a #𝑗 pasando por #𝑘
• 𝑐𝑖𝑘 𝑐𝑘𝑗 = 1 si se puede ir de #𝑖 a #𝑗 pasando por #𝑘
Por lo tanto, el elemento (𝑖, 𝑗) de la matriz 𝐶 2 representa el número de caminos distintos para ir de la
ciudad #𝑖 a la ciudad #𝑗 con una parada intermedia.
4
2
(𝐶 )𝑖𝑗 = ∑ 𝑐𝑖𝑘 𝑐𝑘𝑗
𝑘=1
2
Así, (𝐶 )14 = 2 significa que hay dos formas distintas de ir de la ciudad #1 a la ciudad #4 pasando por
una sola población intermedia: pasando por la ciudad #2 o pasando por la ciudad #3.

Suescun, Insausti, Flaquer (2022) 34 Tecnun-Universidad de Navarra


1 Matrices 1.17 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 1.1
Pruébese que toda matriz cuadrada 𝐴 se puede escribir de modo único en la forma
𝐴 =𝐵+𝐶
donde 𝐵 es una matriz simétrica (llamada parte simétrica de 𝐴) y 𝐶 es una matriz antisimétrica (llamada
parte antisimétrica de 𝐴).

Solución
Suponiendo que 𝐵 y 𝐶 son dos matrices cuadradas, simétrica y antisimétrica respectivamente:
𝐴 =𝐵+𝐶
𝐴𝑇 = 𝐵𝑇 + 𝐶 𝑇 = 𝐵 − 𝐶
Sumando y restando miembro a miembro se llega a:
1
𝐴 + 𝐴𝑇 = 2𝐵 → 𝐵 = 2(𝐴 + 𝐴𝑇 )
1
𝐴 − 𝐴𝑇 = 2𝐶 → 𝐶 = 2(𝐴 − 𝐴𝑇 )

Se comprueba fácilmente que las matrices 𝐵 y 𝐶, así calculadas, son simétrica y antisimétrica
respectivamente, y suman 𝐴:
1 1
𝐵𝑇 = 2(𝐴𝑇 + 𝐴) = 𝐵 𝐶 𝑇 = 2(𝐴𝑇 − 𝐴) = −𝐶 𝐵+𝐶 =𝐴

Queda por probar que estas matrices 𝐵 y 𝐶 son la única solución. Si existieran otras matrices 𝐵′ y 𝐶′,
simétrica y antisimétrica, respectivamente, cuya suma es 𝐴, se tendría:
𝐴 =𝐵+𝐶
𝐴 = 𝐵′ + 𝐶′
Restando ahora miembro a miembro se llega fácilmente a:
𝐵 − 𝐵′ = 𝐶′ − 𝐶
Ambos miembros de la expresión anterior representan una misma matriz, que es a la vez simétrica y
antisimétrica, de lo que se concluye que esta matriz debe ser necesariamente la matriz nula. De ahí se
deduce inmediatamente la unicidad de la solución, pues
𝐵′ = 𝐵
𝐶′ = 𝐶

Ejercicio 1.2
Demuéstrese que 𝑥 𝐻 𝑥 es un número real no negativo, que vale cero si y sólo si 𝑥 es la columna nula, es
decir, 𝑥 = 0.

Solución
Sea 𝑥 una matriz columna compleja cualquiera:
𝑎1 + 𝑏1 𝑖
𝑎2 + 𝑏2 𝑖
𝑥=[ ]

𝑎𝑛 + 𝑏𝑛 𝑖
Se tiene
𝑎1 + 𝑏1 𝑖
𝑎2 + 𝑏2 𝑖
𝑥 𝐻 𝑥 = [𝑎1 − 𝑏1 𝑖 𝑎2 − 𝑏2 𝑖 ⋯ 𝑎𝑛 − 𝑏𝑛 𝑖] [ ]=

𝑎𝑛 + 𝑏𝑛 𝑖

Suescun, Insausti, Flaquer (2022) 35 Tecnun-Universidad de Navarra


1.17 Ejercicios resueltos 1 Matrices

𝑛 𝑛

= ∑(𝑎𝑘 − 𝑏𝑘 𝑖)(𝑎𝑘 + 𝑏𝑘 𝑖) = ∑(𝑎𝑘2 + 𝑏𝑘2 ) ≥ 0


𝑘=1 𝑘=1

El resultado del sumatorio es un número real no negativo, pues es la suma de cuadrados de números
reales; además, vale cero si y sólo si todos los coeficientes involucrados en la suma son nulos, esto es, si
𝑎𝑘 = 𝑏𝑘 = 0, para 𝑘 = 1, 2, . . . , 𝑛. Por lo tanto 𝑥 𝐻 𝑥 es un número real que cumple:
𝑥𝐻𝑥 = 0 ⟺ 𝑥 = 0
𝑥𝐻𝑥 > 0 ⟺ 𝑥 ≠ 0

Ejercicio 1.3
Si 𝐵 es la parte simétrica de la matriz cuadrada 𝐴 de orden 𝑛 y 𝑥 una matriz columna cualquiera de 𝑛
elementos, pruébese que
𝑥 𝑇 𝐴𝑥 = 𝑥 𝑇 𝐵𝑥

Solución
Este enunciado implica que la contribución de la parte antisimétrica 𝐶 de 𝐴 en la expresión 𝑥 𝑇 𝐴𝑥 debe
ser nula. Se tiene
𝑥 𝑇 𝐴𝑥 = 𝑥 𝑇 (𝐵 + 𝐶)𝑥 = 𝑥 𝑇 𝐵𝑥 + 𝑥 𝑇 𝐶𝑥
pero 𝑥 𝑇 𝐶𝑥 vale cero pues
𝛼 = 𝑥 𝑇 𝐶𝑥 → 𝛼 = 𝛼 𝑇 = (𝑥 𝑇 𝐶𝑥)𝑇 = 𝑥 𝑇 𝐶 𝑇 (𝑥 𝑇 )𝑇
= 𝑥 𝑇 (−𝐶)𝑥 = −(𝑥 𝑇 𝐶𝑥) = −𝛼
luego
𝛼 = 0 → 𝑥 𝑇 𝐶𝑥 = 0
y, por tanto
𝑥 𝑇 𝐴𝑥 = 𝑥 𝑇 𝐵𝑥

Ejercicio 1.4
Pruébese que si 𝐴 es una matriz hermítica, el número 𝑥 𝐻 𝐴𝑥 es real.

Solución
Un simple análisis de tamaños prueba que el número 𝛼 = 𝑥 𝐻 𝐴𝑥 es un escalar. Así mismo, por ser 𝐴
hermítica (𝐴 = 𝐴𝐻 ) se demuestra fácilmente que 𝛼 es un número real, pues 𝛼̅ = 𝛼. Veamos:
𝛼̅ = 𝛼 𝐻 = (𝑥 𝐻 𝐴𝑥)𝐻 = 𝑥 𝐻 𝐴𝐻 (𝑥 𝐻 )𝐻 = 𝑥 𝐻 𝐴𝑥 = 𝛼

Ejercicio 1.5
Pruébese que si 𝐴 es definido positiva, la identidad 𝐴𝑥0 = 0, con 𝑥0 una columna de tamaño adecuado,
implica 𝑥0 = 0.
Nota: Por definición, una matriz hermítica 𝐴 se dice definido positiva si el número real 𝑥 𝐻 𝐴𝑥 es
estrictamente mayor que cero para toda columna 𝑥 no nula.

Solución
Se comprueba que, al imponer las condiciones del enunciado, el producto 𝑥0𝐻 𝐴𝑥0 se anula:
𝑥0𝐻 𝐴𝑥
⏟0 = 𝑥0𝐻 0 = 0
=0

Como 𝐴 es una matriz definido positiva, 𝑥0𝐻 𝐴𝑥0 = 0 implica necesariamente 𝑥0 = 0.


Nótese que, si 𝐴 es definido positiva, el producto 𝑥0𝐻 𝐴𝑥0 solo puede anularse si 𝑥0 = 0.

Suescun, Insausti, Flaquer (2022) 36 Tecnun-Universidad de Navarra


1 Matrices 1.17 Ejercicios resueltos

Ejercicio 1.6
Pruébese que la matriz identidad 𝐼 es hermítica y definido positiva.

Solución
Es patente que 𝐼 𝐻 = 𝐼, por lo que 𝐼 es hermítica. Además, de la definición dada en el ejercicio anterior se
deduce que 𝐼 es definido positiva pues:
𝑥 𝐻 𝐼𝑥 = 𝑥 𝐻 𝑥 > 0, ∀ 𝑥 ≠ 0

Ejercicio 1.7
Demostrar que la traza matricial de matrices cuadradas de orden 𝑛 tiene las siguientes propiedades:
𝑡𝑟𝑎𝑧𝑎(𝐴 ± 𝐵) = 𝑡𝑟𝑎𝑧𝑎(𝐴) ± 𝑡𝑟𝑎𝑧𝑎(𝐵)
𝑡𝑟𝑎𝑧𝑎(𝛼𝐴) = 𝛼 𝑡𝑟𝑎𝑧𝑎(𝐴)

Solución
Para demostrar la primera identidad, sea 𝐶 = 𝐴 ± 𝐵. Se tiene 𝑐𝑖𝑖 = 𝑎𝑖𝑖 ± 𝑏𝑖𝑖 , ∀𝑖 de modo que:
𝑛 𝑛 𝑛 𝑛

𝑡𝑟𝑎𝑧𝑎(𝐶) = ∑ 𝑐𝑖𝑖 = ∑(𝑎𝑖𝑖 ± 𝑏𝑖𝑖 ) = ∑ 𝑎𝑖𝑖 ± ∑ 𝑏𝑖𝑖 = 𝑡𝑟𝑎𝑧𝑎(𝐴) ± 𝑡𝑟𝑎𝑧𝑎(𝐵)


𝑖=1 𝑖=1 𝑖=1 𝑖=1

La segunda identidad, se prueba análogamente, siendo ahora 𝐶 = 𝛼𝐴 se tiene 𝑐𝑖𝑖 = 𝛼𝑎𝑖𝑖 , ∀𝑖 :


𝑛 𝑛 𝑛

𝑡𝑟𝑎𝑧𝑎(𝐶) = ∑ 𝑐𝑖𝑖 = ∑(𝛼𝑎𝑖𝑖 ) = 𝛼 ∑ 𝑎𝑖𝑖 = 𝛼 𝑡𝑟𝑎𝑧𝑎(𝐴)


𝑖=1 𝑖=1 𝑖=1

Ejercicio 1.8
Aplicando las propiedades de la traza matricial, demuestre que no es posible la identidad siguiente:
𝐴𝐵 − 𝐵𝐴 = 𝐼𝑛
siendo 𝐴 y 𝐵 matrices cuadradas de orden 𝑛.

Solución
Se demuestra que las matrices cuadradas 𝐼𝑛 y (𝐴𝐵 − 𝐵𝐴) no pueden ser iguales porque sus trazas son
distintas.
De una parte, la traza de la matriz identidad de orden 𝑛 es:
𝑡𝑟𝑎𝑧𝑎 (𝐼𝑛 ) = 𝑛
De otra parte, por ser 𝑡𝑟𝑎𝑧𝑎 (𝐴𝐵) = 𝑡𝑟𝑎𝑧𝑎 (𝐵𝐴):
𝑡𝑟𝑎𝑧𝑎 (𝐴𝐵 − 𝐵𝐴) = 𝑡𝑟𝑎𝑧𝑎 (𝐴𝐵) − 𝑡𝑟𝑎𝑧𝑎 (𝐵𝐴) = 0
Es decir:
𝑡𝑟𝑎𝑧𝑎 (𝐴𝐵 − 𝐵𝐴) ≠ 𝑡𝑟𝑎𝑧𝑎 𝐼𝑛
Y en definitiva, 𝐴𝐵 − 𝐵𝐴 ≠ 𝐼𝑛

Ejercicio 1.9
Demuestre que la matriz 𝐴 cuadrada de orden 𝑛, con todos sus elementos de valor unidad, puede
escribirse como:
𝐴 = 𝑒𝑒 𝑇
siendo 𝑒 una matriz columna formada por 𝑛 unos.

Solución

Suescun, Insausti, Flaquer (2022) 37 Tecnun-Universidad de Navarra


1.17 Ejercicios resueltos 1 Matrices

Efectivamente:
1 1 ⋯ 1 1
𝐴 = 𝑒𝑒 𝑇 = [ ⋮ ] [1 ⋯ 1] = [ ⋮ ⋱ ⋮] , con 𝑒 = [ ⋮ ]
1 1 ⋯ 1 𝑛×𝑛 1 𝑛×1

Ejercicio 1.10
Supuesto que 𝑥 e 𝑦 son dos matrices columna de 𝑛 elementos y que 𝐴 = 𝑥𝑦 𝑇 pruébese que
𝐴𝑘 = (𝑥 𝑇 𝑦)𝑘−1 𝐴
para todo número natural 𝑘 > 1.

Solución
Se demuestra por inducción sobre 𝑘. Se empieza verificando la fórmula para 𝑘 = 2, ya que
𝐴2 = (𝑥𝑦 𝑇 )(𝑥𝑦 𝑇 ) = 𝑥(𝑦 𝑇 𝑥)𝑦 𝑇 = (𝑦 𝑇 𝑥)(𝑥𝑦 𝑇 ) = (𝑥 𝑇 𝑦)(𝑥𝑦 𝑇 ) = (𝑥 𝑇 𝑦)A
Donde se ha utilizado la equivalencia de escalares:
𝑦𝑇 𝑥 = 𝑥 𝑇 𝑦
Suponiendo ahora que la fórmula es cierta para 𝑘 − 1, se tiene
𝐴𝑘−1 = (𝑥 𝑇 𝑦)𝑘−2 𝐴
Y finalmente, se comprueba que la fórmula también es cierta para 𝑘:
𝐴𝑘 = 𝐴𝑘−1 𝐴 = (𝑥 𝑇 𝑦)𝑘−2 𝐴2 = (𝑥 𝑇 𝑦)𝑘−2 (𝑥 𝑇 𝑦)𝐴 = (𝑥 𝑇 𝑦)𝑘−1 𝐴

Ejercicio 1.11
Sea 𝐴 = 𝐵 + 𝐶, donde 𝐵 y 𝐶 son dos matrices cuadradas de orden 𝑛, con 𝐶 2 = 𝑂𝑛 y 𝐵𝐶 = 𝐶𝐵.
Demuéstrese que, para todo número natural 𝑝 > 0
𝐴𝑝+1 = 𝐵𝑝 (𝐵 + (𝑝 + 1)𝐶)

Solución (Primer procedimiento)


Por inducción sobre 𝑝. La fórmula dada es cierta para 𝑝 = 1 ya que
𝐴2 = (𝐵 + 𝐶)2 = 𝐵2 + 𝐵𝐶 + 𝐶𝐵 + 𝐶 2 = 𝐵2 + 2𝐵𝐶 = 𝐵(𝐵 + 2𝐶)
Suponemos que la fórmula es cierta para 𝑝 − 1, esto es:
𝐴𝑝 = 𝐵𝑝−1 (𝐵 + 𝑝𝐶)
Y se comprueba que la fórmula también es cierta para 𝑝:
𝐴𝑝+1 = 𝐴𝑝 𝐴 = 𝐵𝑝−1 (𝐵 + 𝑝𝐶)(𝐵 + 𝐶)
= 𝐵𝑝−1 (𝐵2 + 𝑝𝐶𝐵 + 𝐵𝐶 + 𝑝𝐶 2 )
= 𝐵𝑝−1 (𝐵2 + 𝑝𝐵𝐶 + 𝐵𝐶)
= 𝐵𝑝 (𝐵 + (𝑝 + 1)𝐶)

Solución (Segundo procedimiento)


Mediante el binomio de Newton aprovechando que las matrices 𝐵 y 𝐶 conmutan:
𝐴𝑝+1 = (𝐵 + 𝐶)𝑝+1
𝑝 + 1 𝑝+1 𝑝+1 𝑝 𝑝 + 1 𝑝−1 2 𝑝 + 1 𝑝+1
=( )𝐵 +( )𝐵 𝐶 + ( )𝐵 𝐶 +⋯+( )𝐶
⏟ 0 ⏟ 1 ⏟ 2 𝑝+1
=1 𝑝+1 =𝑂𝑛
𝑝+1 𝑝
=𝐵 + (𝑝 + 1)𝐵 𝐶
= 𝐵𝑝 (𝐵 + (𝑝 + 1)𝐶)

Suescun, Insausti, Flaquer (2022) 38 Tecnun-Universidad de Navarra


1 Matrices 1.17 Ejercicios resueltos

Obsérvese que el dato 𝐶 2 = 𝑂𝑛 tiene como consecuencia que todas las potencias de 𝐶 con exponentes
mayores que dos son también nulas.

Ejercicio 1.12
Se conoce la siguiente fórmula general, siendo 𝑢 y 𝑣 dos matrices columna de 𝑛 elementos tales que 1 +
𝑣 𝑇 𝑢 ≠ 0:
𝑢𝑣 𝑇
(𝐼𝑛 + 𝑢𝑣 𝑇 )−1 = 𝐼𝑛 −
1 + 𝑣𝑇 𝑢
Hallar la inversa de la matriz 𝐼𝑛 + 𝑒𝑒 𝑇 , siendo 𝑒 la matriz columna formada por 𝑛 unos, usando la citada
fórmula.

Solución
Para invertir 𝐼𝑛 + 𝑒𝑒 𝑇 , se puede usar la fórmula dada, haciendo 𝑢 = 𝑣 = 𝑒.
Nótese que
1 + 𝑒𝑇𝑒 = 1 + 𝑛 ≠ 0
Luego
𝑒𝑒 𝑇 1
(𝐼𝑛 + 𝑒𝑒 𝑇 )−1 = 𝐼𝑛 − 𝑇
= 𝐼𝑛 − 𝑒𝑒 𝑇
1+𝑒 𝑒 1+𝑛
Y substituyendo:
1 0 0 1 1 1 𝑛 −1 −1
1 1 −1
(𝐼𝑛 + 𝑒𝑒 𝑇 )−1
= [0 1 0]− [1 1 1] = [ 𝑛 −1]
⋱ 1+𝑛 ⋱ 1+𝑛 ⋱
0 0 1 1 1 1 −1 −1 𝑛

Ejercicio 1.13
Pruébese que
𝐴−1 = −(𝐴 + 2𝐼)
siendo 𝐴 una matriz cuadrada que cumple 𝐴2 + 2𝐴 + 𝐼 = 𝑂.

Solución
Obsérvese que:
𝐴2 + 2𝐴 + 𝐼 = 𝑂
−(𝐴2 + 2𝐴) = 𝐼
𝐴(−(𝐴 + 2𝐼)) = 𝐼
𝐴−1 = −(𝐴 + 2𝐼)

Ejercicio 1.14
Sea 𝐾 una matriz real antisimétrica, y considérese la matriz
𝐴 = (𝐼 + 𝐾)(𝐼 − 𝐾)−1
Pruébese que 𝐴 es una matriz ortogonal, siendo (𝐼 − 𝐾) regular.

Solución
Se trata de la llamada transformación de Cayley para 𝐾. En realidad, la regularidad de (𝐼 − 𝐾) y también
la de (𝐼 + 𝐾) se deducen de la antisimetría de 𝐾 (Para probar esta doble afirmación se requieren los
resultados del Capítulo 2). La demostración del enunciado de este ejercicio puede seguir los siguientes
pasos.

Suescun, Insausti, Flaquer (2022) 39 Tecnun-Universidad de Navarra


1.17 Ejercicios resueltos 1 Matrices

En primer lugar se calcula 𝐴𝑇 :


𝑇
𝐴𝑇 = ((𝐼 + 𝐾)(𝐼 − 𝐾)−1 )
= ((𝐼 − 𝐾)−1 )𝑇 (𝐼 + 𝐾)𝑇
= ((𝐼 − 𝐾)𝑇 )−1 (𝐼 + 𝐾)𝑇
−1
= ((𝐼 − 𝐾 𝑇 )) (𝐼 + 𝐾 𝑇 )
= (𝐼 + 𝐾)−1 (𝐼 − 𝐾)
Y ahora se comprueba que 𝐴𝐴𝑇 = 𝐼:
𝐴𝐴𝑇 = (𝐼 + 𝐾)(𝐼 − 𝐾)−1 (𝐼 + 𝐾)−1 (𝐼 − 𝐾)
−1
= (𝐼 + 𝐾)((𝐼 + 𝐾)(𝐼 − 𝐾)) (𝐼 − 𝐾)
−1
= (𝐼 + 𝐾)((𝐼 − 𝐾)(𝐼 + 𝐾)) (𝐼 − 𝐾)
= (𝐼 + 𝐾)(𝐼 + 𝐾)−1 (𝐼 − 𝐾)−1 (𝐼 − 𝐾)
=𝐼
Nótese que se ha usado la siguiente identidad trivial:
(𝐼 + 𝐾)(𝐼 − 𝐾) = (𝐼 − 𝐾)(𝐼 + 𝐾)

Ejercicio 1.15
Demuéstrese que cada una de las tres clases de matrices siguientes: hermíticas, antihermíticas y unitarias
son normales.

Solución
Es suficiente con probar que conmutan con su traspuesta hermítica:
𝐴 es hermítica 𝐴𝐴𝐻 = 𝐴𝐴 = 𝐴𝐻 𝐴
𝐴 es antihermítica 𝐴𝐴𝐻 = 𝐴(−𝐴) = (−𝐴)𝐴 = 𝐴𝐻 𝐴
𝐴 es unitaria 𝐴𝐴𝐻 = 𝐴𝐴−1 = 𝐼 = 𝐴−1 𝐴 = 𝐴𝐻 𝐴

Ejercicio 1.16
Identificar qué matrices de las siguientes son singulares, nilpotentes, o idempotentes:
1 0 0 0 0 0
0 1 0 1
𝐴 = [0 0 0] 𝐵 = [−1 0 0] 𝐶 = [ ] 𝐷=[ ]
0 0 0 1
0 1 1 1 1 0

Solución
Singulares: 𝐴, 𝐵, 𝐶, 𝐷. Nilpotentes: 𝐵, 𝐶. Idempotentes: 𝐴, 𝐷

Ejercicio 1.17
Demuestre que la siguiente matriz de tamaño 𝑛 × 𝑛 es idempotente:
1/𝑛 1/𝑛 ⋯ 1/𝑛
1/𝑛 1/𝑛 ⋯ 1/𝑛 1
𝐵=[ ] = 𝑒𝑒 𝑇
⋮ ⋮ ⋱ ⋮ 𝑛
1/𝑛 1/𝑛 ⋯ 1/𝑛

Solución
Nótese que 𝑒 es una matriz columna de tamaño 𝑛 × 1 formada por 𝑛 unos. Por lo tanto:
1 1 1 1
𝐵2 = ( 𝑒𝑒 𝑇 ) ( 𝑒𝑒 𝑇 ) = 2 𝑒(𝑒 𝑇 𝑒)𝑒 𝑇 = 𝑒𝑒 𝑇 = 𝐵
𝑛 𝑛 𝑛 𝑛

Ejercicio 1.18
Cálcule la inversa de la siguiente matriz regular:

Suescun, Insausti, Flaquer (2022) 40 Tecnun-Universidad de Navarra


1 Matrices 1.17 Ejercicios resueltos

2 1 1 0 0
1 2 0 1 0
𝐴= 1 1 0 0 1
1 0 0 0 0
[0 1 0 0 0]

Solución
Nótese que la matriz 𝐴 se puede particionar de la siguiente forma:

2 1 1 0 0
1 2 0 1 0 𝐵3×2 𝐼3
𝐴= 1 1 0 0 1 =[ 𝐼 ]
2 𝑂2×3
1 0 0 0 0
[0 1 0 0 0]

Al igual que en otros ejemplos y ejercicios, suponemos que su inversa podría particionarse de manera
análoga, con bloques 𝑋, 𝑌, 𝑍 y 𝑇 de tamaños adecuados:
𝑋 𝑌2×2
𝐴−1 = [ 2×3 ]
𝑍3×3 𝑇3×2
Y verificamos qué condiciones deben cumplir los citados bloques para que 𝐴𝐴−1 = 𝐼5 . Esto es:
𝐵3×2 𝐼3 𝑋 𝑌2×2 𝐼 𝑂3×2
[ ] [ 2×3 ]=[ 3 ]
𝐼2 𝑂2×3 𝑍3×3 𝑇3×2 𝑂2×3 𝐼2
Multiplicando:
𝐵𝑋 + 𝑍 𝐵𝑌 + 𝑇 𝐼 𝑂
[ ]=[ ]
𝑋 𝑌 𝑂 𝐼
Nótese que se han omitido los tamaños, una vez se tiene la certeza de que son correctos. Comparando
las dos matrices se determinan las expresiones de los cuatro bloques:
𝑋 = 𝑂2×3 , 𝑌 = 𝐼2 , 𝑍 = 𝐼3 , 𝑇 = −𝐵3×2
Y por lo tanto:

0 0 0 1 0
𝑂2×3 𝐼2 0 0 0 0 1
𝐴−1 = [ ]= 1 0 0 −2 −1
𝐼3 −𝐵3×2
0 1 0 −1 −2
[0 0 1 −1 −1]

Suescun, Insausti, Flaquer (2022) 41 Tecnun-Universidad de Navarra


1.18 Ejercicios propuestos 1 Matrices

Ejercicios propuestos

Ejercicio 1.19
Realice las siguientes multiplicaciones matriciales
1 1 1
2 1 2
[ ][ 1 1 1] [ ] [1 2 3 4 5] [ ] [1 2 3 4]
3 1 3
4 1 4
1 1
1 −1
[ ] [1 −1 1 −1 1] [ ] [1 1 1]
1 1
1 −1

Ejercicio 1.20
Obtener las traspuestas de las siguientes matrices:

1 −4 1
𝑋 𝑌 𝑍
𝐴 = [−2 5] 𝑏 = [−1] 𝑐 𝑇 = [1 −1 1 −1] 𝐵=[ ]
𝑅 𝑆 𝑇
3 −6 0

Ejercicio 1.21
Obtener las traspuestas hermíticas de las siguientes matrices

1+𝑖 −4 1 − 2i
𝐴 = [ −2𝑖 5 + 2𝑖 ] 𝑏 = [ −1 ] 𝑐 𝐻 = [1 −1 𝑖 −𝑖 ]
3 − 9𝑖 −6 + 𝑖 7i

Ejercicio 1.22
Compruebe la validez de la siguiente operación con matrices particionadas
𝐵𝐴 = 𝐵[𝑢1 𝑢2 … 𝑢𝑛 ] = [𝐵𝑢1 𝐵𝑢2 … 𝐵𝑢𝑛 ]
con las siguientes matrices:
1 2 𝑎 𝑏 0
𝐵=[ ] 𝐴=[ ]
2 4 𝑎 0 𝑐

Ejercicio 1.23
Sean 𝐴2×2 , 𝐵2×2 y 𝐶 una matriz del tamaño adecuado, justifique si son ciertos o falsos los siguientes
enunciados:
a) 𝐴𝐵 = [𝑎1 𝑎2 ][𝑏1 𝑏2 ] = [𝑎1 𝑏1 𝑎2 𝑏2 ] siendo 𝑎1 , 𝑎2 y 𝑏1 , 𝑏2 las columnas de las matrices 𝐴 y 𝐵
respectivamente.
b) 𝐴𝐶 + 𝐵𝐶 = (𝐴 + 𝐵)𝐶
c) 𝐴𝐷 + 𝐷𝐵 = (𝐴 + 𝐵)𝐷 = 𝐷(𝐴 + 𝐵)
d) 𝐴𝑇 + 𝐵𝑇 = (𝐴 + 𝐵)𝑇
e) 𝐴𝑇 + 𝐶 𝑇 = (𝐴 + 𝐶)𝑇
f) 𝐶 𝑇 (𝐴𝑇 + 𝐵𝑇 ) = (𝐴𝐶 + 𝐵𝐶)𝑇

Ejercicio 1.24
Dadas dos matrices columna reales 𝑢 y 𝑣 del mismo tamaño, demostrar que
(𝑢𝑣 𝑇 )2 = 𝑘(𝑢𝑣 𝑇 )
encontrando así mismo el valor del escalar 𝑘.

Suescun, Insausti, Flaquer (2022) 42 Tecnun-Universidad de Navarra


1 Matrices 1.18 Ejercicios propuestos

Ejercicio 1.25
Dadas dos matrices columna complejas 𝑢 y 𝑣 del mismo tamaño, demostrar que
(𝑢𝑣 𝐻 )𝑛 = 𝑘(𝑢𝑣 𝐻 )
encontrando así mismo el valor del escalar 𝑘 en función del número natural 𝑛 > 1

Ejercicio 1.26
Construya una matriz de permutación 4 × 4 para intercambiar las filas 1 y 4 y las filas 2 y 3. Indique cómo
usar la matriz de permutación para ejecutar la mencionada operación sobre una matriz 𝐴4×3 .

Ejercicio 1.27
Construya una matriz de permutación 3 × 3 para mover las columnas 1, 2 y 3 a las posiciones 2, 3 y 1,
respectivamente. Indique cómo usar la matriz de permutación para ejecutar la mencionada operación
sobre una matriz 𝐴4×3 .

Ejercicio 1.28
Construya una matriz 2 × 2 de cada uno de los siguientes tipos: simétricas, antisimétricas, hermíticas y
antihermíticas.

Ejercicio 1.29
Construya una matriz 3 × 3 de cada uno de los siguientes tipos: diagonal, triangular superior y triangular
inferior.

Ejercicio 1.30
A partir de la siguiente matriz ortogonal de tamaño 2 × 2
𝑐𝑜𝑠𝜃 −𝑠𝑒𝑛𝜃
𝑄=[ ]
𝑠𝑒𝑛𝜃 𝑐𝑜𝑠𝜃
construya 3 matrices ortogonales de tamaño 3 × 3.

Ejercicio 1.31
Suponga que la primera columna de una matriz 𝐵 es nula. ¿Qué se puede afirmar de la primera columna
de la matriz 𝐴𝐵?

Ejercicio 1.32
Suponga una matriz 𝐵 cuya segunda columna es igual a la suma de la primera con la tercera. ¿Qué se
puede afirmar de la segunda columna de la matriz 𝐴𝐵?

Ejercicio 1.33
Suponga que 𝐵3×3 es una matriz cuyas tres columnas son iguales. ¿Qué se puede afirmar de la matriz 𝐴𝐵?

Ejercicio 1.34
Sea 𝐴 una matriz cuadrada del mismo orden que la matriz identidad 𝐼. Se sabe que las matrices
(𝐴 + 𝐼), (𝐴 − 𝐼), (𝐼 + 𝐴), (𝐼 − 𝐴) conmutan. ¿Debe cumplir la matriz 𝐴 alguna condición?

Ejercicio 1.35
Sean 𝑢 y 𝑣 las siguientes matrices columna:
1 𝑎
𝑢 =[2] 𝑣 =[𝑏]
3 𝑐
Calcule 𝑢𝑇 𝑣, 𝑣 𝑇 𝑢, 𝑢𝑣 𝑇

Suescun, Insausti, Flaquer (2022) 43 Tecnun-Universidad de Navarra


1.18 Ejercicios propuestos 1 Matrices

Ejercicio 1.36
Sean 𝑢 y 𝑣 las siguientes matrices columna:
1+𝑖 𝑎
𝑢 = [ 2 ] 𝑣 = [ 𝑏𝑖 ]
3𝑖 𝑐
Calcule 𝑢𝐻 𝑣, 𝑣 𝐻 𝑢, 𝑢𝑣 𝐻

Ejercicio 1.37
Dadas
1 2 3 𝑎 0 0
𝐴 = [4 5 6] 𝐷 = [0 𝑏 0]
7 8 9 0 0 𝑐
realice los siguientes productos matriciales 𝐴𝐷 y 𝐷𝐴 y saque conclusiones de los resultados.

Ejercicio 1.38
Dadas las siguientes matrices 3 × 3 particionadas
𝑐1𝑇 𝑎 0 0
𝐵 = [ 𝑏1 𝑏2 𝑏3 ] 𝐶 = [𝑐2𝑇 ] 𝐷 = [0 𝑏 0]
𝑐3𝑇 0 0 𝑐
calcule 𝐵𝐷 y 𝐷𝐶.

Ejercicio 1.39
Demostrar que el producto de dos matrices simétricas 𝐴 y 𝐵 del mismo tamaño es una matriz simétrica
si y sólo si 𝐴 y 𝐵 conmutan.

Ejercicio 1.40
Sean 𝐴 y 𝐵 dos matrices cuadradas del mismo orden. Demostrar que 𝐴𝐵 es regular si 𝐴 y 𝐵 también lo
son.

Ejercicio 1.41
Pruébense las siguientes propiedades de la trasposición hermítica, tomando como punto de partida las
propiedades de la conjugación y trasposición matriciales:
(𝐴 + 𝐵)𝐻 = 𝐴𝐻 + 𝐵𝐻
(𝛼𝐴)𝐻 = 𝛼̅𝐴𝐻
(𝐴𝐻 )𝐻 = 𝐴
(𝐴𝐵)𝐻 = 𝐵𝐻 𝐴𝐻
(𝐴𝐻 )−1 =(𝐴−1 )𝐻 , con 𝐴 regular

Ejercicio 1.42
Demostrar que si una matriz regular verifica 𝐴−1 = 𝐴, entonces se trata de una matriz involutiva.

Ejercicio 1.43
Pruébese que si 𝐴 es una matriz regular, también 𝐴−1 es regular.

Ejercicio 1.44
Pruébese que si 𝐴 es una matriz regular y antihermítica, también 𝐴−1 es antihermítica.

Suescun, Insausti, Flaquer (2022) 44 Tecnun-Universidad de Navarra


1 Matrices 1.18 Ejercicios propuestos

Ejercicio 1.45
Desarrollar la expresión matricial (𝐼 + 𝐴)𝑛 , siendo 𝐴 una matriz cuadrada que cumple que 𝐴3 es la matriz
nula.

Ejercicio 1.46
Demuéstrese que si 𝐴𝑝 = 𝑂, entonces (𝐼 − 𝐴)−1 = 𝐼 + 𝐴 + 𝐴2 + ⋯ + 𝐴𝑝−1 .

Ejercicio 1.47
Dada la matriz
1 0 1
𝑀 = [0 0 0]
1 0 1
pruébese que 𝑀𝑛 = 2𝑛−1 𝑀, ∀ 𝑛 ≥ 1.

Ejercicio 1.48
Dada la matriz
1 0 1
𝐻 = [0 1 0]
1 0 1
hállese una expresión general para 𝐻 𝑛 ∀ 𝑛 ≥ 1.

Ejercicio 1.49
Se sabe que las matrices 𝐴 y 𝐵 verifican las tres condiciones siguientes:
𝐴2 = 𝐴 𝐵2 = 𝑂 𝐴𝐵 = 𝐵𝐴 ≠ 𝑂
Hallar el valor del escalar 𝑞 para que se cumpla la identidad (𝐴 + 𝐵)2 = 𝐴(𝐼 + 𝑞𝐵).

Ejercicio 1.50
Desarrollar 𝐴(𝐼 + 𝐴)𝑝 , sabiendo que 𝐴2 = 𝐴.

Ejercicio 1.51
Sean 𝐴 y 𝐵 dos matrices regulares que verifican:
(𝐼 + 𝐴)−1 = 𝐼 + 𝐵 −1
(𝐼 + 𝐵)−1 = 𝐼 + 𝐴−1
Pruébese que si 𝐴 y 𝐵 conmutan, debe ser 𝐴 = 𝐵 necesariamente.

Ejercicio 1.52
Pruébese que si 𝐴 es una matriz regular y simétrica entonces 𝐴−1 es también simétrica.

Ejercicio 1.53
Pruébese que la matriz (𝐼𝑛 − 𝐴) posee una inversa de la forma (𝐼𝑛 + 𝛼𝐴) siendo 𝐴 = 𝑒𝑒 𝑇 , la matriz
cuadrada de orden 𝑛 cuyo elemento genérico vale la unidad. Hállese también el valor de 𝛼 en función de
𝑛. Nota: 𝑒 es la columna de todo unos.

Ejercicio 1.54
Pruébese que:
𝐴(𝐼𝑛 − 𝐴)−1 = (𝐼𝑛 − 𝐴)−1 𝐴
siendo 𝐴 una matriz cuadrada de orden 𝑛 que verifica que (𝐼𝑛 − 𝐴) es regular.

Suescun, Insausti, Flaquer (2022) 45 Tecnun-Universidad de Navarra


1.18 Ejercicios propuestos 1 Matrices

Ejercicio 1.55
Pruébese que se cumple:
𝐴(𝐴 + 𝐵)−1 𝐵 = 𝐵(𝐴 + 𝐵)−1 𝐴 = (𝐴−1 + 𝐵 −1 )−1
siendo 𝐴, 𝐵 y (𝐴 + 𝐵) matrices regulares del mismo orden.

Ejercicio 1.56
Supuesto que 𝐴 sea una matriz regular, pruébese la identidad siguiente:
(𝐴 + 𝐵)𝐴−1 (𝐴 − 𝐵) − (𝐴 − 𝐵)𝐴−1 (𝐴 + 𝐵) = 𝑂

Ejercicio 1.57
Pruébese que si 𝑆 es una matriz regular, entonces:
𝑡𝑟𝑎𝑧𝑎 (𝑆 −1 𝐴𝑆) = 𝑡𝑟𝑎𝑧𝑎(𝐴)

Ejercicio 1.58
Se considera el conjunto 𝐶 de las matrices 𝑀(ℎ) dependientes del parámetro real ℎ que son de la forma:
ℎ2 2
𝑀(ℎ) = 𝐴 + ℎ𝐴 + 𝐼
2
siendo 𝐴3 = 𝑂, pero 𝐴2 distinto de la matriz nula. Se pide probar que la inversa de 𝑀(ℎ) pertenece al
conjunto 𝐶.

Ejercicio 1.59
Se sabe que la inversa de la matriz cuadrada 𝐴 bidiagonal de orden 𝑛
1 −1 0 ⋯ 0 0
0 1 −1 ⋯ 0 0
0 0 1 ⋯ 0 0
𝐴=
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 −1
[ 0 0 0 ⋯ 0 1]
viene dada por la matriz triangular superior
1 1 1 ⋯ 1 1
0 1 1 ⋯ 1 1
0 0 1 ⋯ 1 1
𝐴−1 =
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 1
[ 0 0 0 ⋯ 0 1]
Aprovéchese este resultado para obtener la inversa de la matriz 𝐵 = 𝐴𝐴𝑇 .

Ejercicio 1.60
Dado el sistema de dos ecuaciones matriciales:
𝜆𝑥 = 𝐴𝑥 + 𝐵𝑢
𝑦 = 𝐶𝑥 + 𝐼𝑚 𝑢
donde 𝐴 es una matriz cuadrada de orden 𝑛, 𝐵 es 𝑛 × 𝑚, 𝐶 es 𝑚 × 𝑛 y 𝜆 un valor escalar tal que (𝜆𝐼𝑛 −
𝐴) es una matriz regular, demuéstrese que
𝑦 = (𝐶(𝜆𝐼 − 𝐴)−1 𝐵 + 𝐼)𝑢

Ejercicio 1.61
Suponiendo que las inversas de 𝐴 y 𝐷 existen, pruébese que:

Suescun, Insausti, Flaquer (2022) 46 Tecnun-Universidad de Navarra


1 Matrices 1.18 Ejercicios propuestos

𝐴 𝐵 −1 𝐸 −𝐸𝐵𝐹
[ ] =[ ]
𝑂 𝐷 𝑂 𝐹
siendo 𝐸 y 𝐹 dos bloques cuadrados a obtener en función de los datos.

Ejercicio 1.62
Calcular 𝐴100 , usando matrices particionadas, siendo:
1 0 0 1⁄3 1⁄3 1⁄3
0 1 0 1⁄3 1⁄3 1⁄3
0 0 1 1⁄3 1⁄3 1⁄3
𝐴=
0 0 0 1⁄3 1⁄3 1⁄3
0 0 0 1⁄3 1⁄3 1⁄3
[0 0 0 1⁄3 1⁄3 1⁄3]

Ejercicio 1.63
Demuéstrese que la inversa de la matriz simétrica:
𝐴 𝐵
[ ]
𝑇
𝐵 𝐶
donde las matrices 𝐴 𝑦 𝑄 = 𝐶 − 𝐵𝑇 𝐴−1 𝐵 son regulares, viene dada por:
−1
𝐴 𝐵 𝐴−1 + 𝐴−1 𝐵𝑆𝐵𝑇 𝐴−1 −𝐴−1 𝐵𝑆
[ ] =[ ],
𝐵𝑇 𝐶 −𝑆𝐵𝑇 𝐴−1 𝑆
siendo 𝑆 la inversa de 𝑄.

Ejercicio 1.64
Pruébese que si 𝐴 y 𝐵 son matrices cuadradas de orden n tales que
𝐴𝐵 = 𝐴 𝐵𝐴 = 𝐵
entonces 𝐴 y 𝐵 son idempotentes.

Ejercicio 1.65
Probar que si el producto 𝐴𝐵 de las matrices 𝐴 y 𝐵 es una matriz regular, entonces la matriz 𝐵 tiene
inversa por la izquierda y la matriz 𝐴 tiene inversa por la derecha.

Ejercicio 1.66
Pruébese que si la matriz cuadrada 𝑃 es idempotente, entonces la matriz 𝑄 = 2𝑃 − 𝐼 es involutiva.

Ejercicio 1.67
Demuéstrese que la matriz de Householder 𝐻 = 𝐼 − 2𝑤𝑤 𝑇 , siendo 𝑤 una columna real que verifica
𝑤 𝑇 𝑤 = 1, es una matriz ortogonal.

Ejercicio 1.68
¿Tiene una sola solución 𝑋 la ecuación 𝐴−1 (𝐵 + 𝑋)𝐶 −1 = 𝐼𝑛 siendo 𝐴 y 𝐶 matrices regulares de orden 𝑛
y 𝐵 una matriz cuadrada de orden 𝑛?

Ejercicio 1.69
Demostrar que si 𝐴2 = 𝑂 entonces las matrices 𝐴 ± 𝐼 son regulares.

Ejercicio 1.70
Demostrar que si 𝐴3 = 𝑂 entonces 𝐼 − 𝐴 es regular, calculando previamente (𝐼 − 𝐴)(𝐼 + 𝐴 + 𝐴2 ).

Suescun, Insausti, Flaquer (2022) 47 Tecnun-Universidad de Navarra


1.18 Ejercicios propuestos 1 Matrices

Suescun, Insausti, Flaquer (2022) 48 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales

Los sistemas de ecuaciones lineales son la clave para resolver la mayor parte de problemas que se
plantean en Álgebra Lineal. Apenas se encuentra un problema que no necesite resolver algún sistema
lineal. En este Capítulo se estudian fundamentalmente las técnicas Gaussianas: El método de Gauss y su
variante de Gauss-Jodan. Seguidamente se analiza la relación que hay entre las soluciones de un sistema
general y las soluciones del sistema homogéneo asociado. Se continúa con el estudio de las inversas (por
la izquierda y por la derecha) de 𝐴 y su relación con las soluciones de la ecuación matricial 𝐴𝑥 = 𝑏. Se
explica el método para invertir una matriz mediante Gauss-Jordan.

Suescun, Insausti, Flaquer (2022) 49 Tecnun-Universidad de Navarra


2.1 Definiciones 2 Sistemas de Ecuaciones Lineales

Definiciones

Un sistema de 𝑚 ecuaciones lineales con 𝑛 incógnitas 𝛼1 , 𝛼2 , … , 𝛼𝑛 es de la forma:

𝑎11 𝛼1 + 𝑎12 𝛼2 + … + 𝑎1𝑛 𝛼𝑛 = 𝛽1


𝑎21 𝛼1 + 𝑎22 𝛼2 + … + 𝑎2𝑛 𝛼𝑛 = 𝛽2
(2.1)

{ 𝑎𝑚1 𝛼1 + 𝑎𝑚2 𝛼2 + … + 𝑎𝑚𝑛 𝛼𝑛 = 𝛽𝑚

Este sistema general se puede escribir de forma compacta mediante matrices. Se tiene entonces la
ecuación matricial lineal:

𝐴𝑥 = 𝑏 (2.2)

La matriz 𝐴 de tamaño 𝑚 × 𝑛 se denomina matriz de coeficientes del sistema:


𝑎11 𝑎12 … 𝑎1𝑛
𝑎21 𝑎22 … 𝑎2𝑛
𝐴=[ ]

𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛
La matriz columna 𝑏, de tamaño 𝑚 × 1, es la matriz de términos independientes:
𝛽1
𝛽2
𝑏=[ ]

𝛽𝑚
Y la matriz columna 𝑥, de tamaño 𝑛 × 1, es la matriz incógnita, formada por las 𝑛 incógnitas 𝛼1 , 𝛼2 , … , 𝛼𝑛
del sistema:
𝛼1
𝛼2
𝑥=[ ⋮ ]
𝛼𝑛
Es evidente que 𝐴𝑥 = 𝑏 equivale al sistema de ecuaciones lineales (2.1):

𝑎11 𝑎12 … 𝑎1𝑛 𝛼1 𝛽1


𝑎21 𝑎22 … 𝑎2𝑛 𝛼2 𝛽2
[ ][ ⋮ ] = [ ] (2.3)
⋮ ⋮
𝑎𝑚1 𝑎𝑚2 … 𝑎𝑚𝑛 𝛼𝑛 𝛽𝑚

Ejemplo 2.1
La siguiente ecuación lineal con tres incógnitas
𝛼1 − 2𝛼2 + 3𝛼3 = 4
puede expresarse matricialmente como sigue
𝛼1
[1 −2 3] [𝛼2 ] = [4]
𝛼3
Por lo tanto:
𝛼1
𝐴 = [1 −2 3] 𝑏 = [4] 𝑥 = [𝛼2 ]
𝛼3

Ejemplo 2.2
El sistema de dos ecuaciones lineales con tres incógnitas siguiente

Suescun, Insausti, Flaquer (2022) 50 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.1 Definiciones

2𝛼1 + 4𝛼2 − 5𝛼3 = 1


{
−2𝛼1 + 4𝛼2 + 6𝛼3 = 8
tiene como matriz del sistema y como columna de términos independientes
2 4 −5 1
𝐴=[ ] 𝑏=[ ]
−2 4 6 8
La matriz incógnita es
𝛼1
𝑥 = [𝛼2 ]
𝛼3

La colección de 𝑛 escalares 𝛼10 , 𝛼20 , … , 𝛼𝑛0 es una solución del sistema (2.1) si, al sustituir sus valores
por las incógnitas, se satisfacen todas y cada una de las ecuaciones. Es decir, la columna
𝛼10
𝛼20
𝑥0 = [ ⋮ ]
𝛼𝑛0
es una solución si satisface la identidad2

𝐴𝑥0 = 𝑏 (2.4)

Un sistema con al menos una solución se llama compatible. Si carece de solución se llama incompatible.
Un sistema compatible se llama determinado si la solución es única, e indeterminado si tiene más de una
solución. Dos sistemas con el mismo conjunto de soluciones se dice que son equivalentes.

Ejemplo 2.3
El sistema
𝛼1 + 𝛼2 + 𝛼3 = 3
{
𝛼1 + 2𝛼2 + 3𝛼3 = 6
tiene más de una solución, como es fácil de comprobar. Algunas de las soluciones son
1 0 2
𝑥0 = [1] 𝑥1 = [3] 𝑥2 = [−1] …
1 0 2
El sistema por tanto es compatible e indeterminado.

Un sistema homogéneo es aquél cuyos términos independientes valen todos cero. Su representación
matricial es de la forma

𝐴𝑥 = 0 (2.5)

donde 0 indica la matriz columna nula de 𝑚 elementos. Los sistemas homogéneos tienen siempre al
menos una solución: la solución trivial nula formada por 𝑛 ceros. Nótese que:
𝐴0 = 0

2 Nótese la diferencia entre 𝐴𝑥 = 𝑏 y 𝐴𝑥0 = 𝑏. La primera es una ecuación, que puede tener o no tener solución. La
segunda es una identidad que, por existir 𝑥0 , determina una igualdad verdadera. Si el sistema no tuviera solución,
𝐴𝑥 = 𝑏 no sería cierto para ninguna columna 𝑥, por lo que sería erróneo usar 𝐴𝑥 = 𝑏 como una igualdad verdadera.

Suescun, Insausti, Flaquer (2022) 51 Tecnun-Universidad de Navarra


2.2 Matriz ampliada 2 Sistemas de Ecuaciones Lineales

Ejemplo 2.4
El sistema homogéneo asociado al sistema general del ejemplo anterior
𝛼1 + 𝛼2 + 𝛼3 = 0
{
𝛼1 + 2𝛼2 + 3𝛼3 = 0
0
además de la solución trivial nula [0], tiene otras muchas soluciones. Por ejemplo:
0
1 2
𝑥ℎ1 = [−2] 𝑥ℎ2 = [−4] …
1 2

Matriz ampliada

Se denomina matriz ampliada del sistema de ecuaciones 𝐴𝑥 = 𝑏 a la siguiente matriz:


[𝐴|𝑏]
Esta matriz se forma ampliando la matriz 𝐴 con la columna de términos independientes 𝑏. El trazo recto
que separa la matriz 𝐴 de la columna 𝑏 tiene como único propósito ayudar a visualizarlas.

Ejemplo 2.5
2𝛼1 + 4𝛼2 − 5𝛼3 = 1 2 4 −5 1
{ → 𝐴𝑥 = 𝑏 → [ | ]
−2𝛼1 + 4𝛼2 + 6𝛼3 = 8 −2 4 6 8
2𝛼1 + 4𝛼2 − 5𝛼3 = 0 2 4 −5 0
{ → 𝐴𝑥 = 0 → [ | ]
−2𝛼1 + 4𝛼2 + 6𝛼3 = 0 −2 4 6 0

Nótese que las filas de la matriz ampliada retienen toda la información relevante de las ecuaciones del
sistema, simplificando su representación. Cualquier operación sobre las ecuaciones del sistema se refleja
en la correspondiente operación sobre las filas de la matriz ampliada y recíprocamente.

Operaciones elementales

Se definen las operaciones elementales sobre las ecuaciones (o filas de la matriz ampliada) como las más
simples posibles que transforman un sistema de ecuaciones en otro equivalente, esto es, con el mismo
conjunto de soluciones que el sistema original.
Las operaciones elementales pueden representarse mediante matrices sencillas, llamadas matrices
elementales, que se obtienen a partir de la matriz identidad, ejecutando sobre ella la operación elemental
deseada.
Estas operaciones pueden ser de tres clases distintas, que se explican a continuación.

Operación elemental de clase I: Intercambiar dos ecuaciones (o filas) distintas entre sí.
Su matriz elemental asociada resulta de intercambiar las filas deseadas en la matriz identidad. Se denota
por 𝐹𝑖,𝑗 , con (𝑖 ≠ 𝑗), para indicar que se intercambian las filas 𝑖 y 𝑗.

Ejemplo 2.6
Intercambiar las dos ecuaciones del sistema:
1 2 3 4 5 6
[ | ] → [ | ]
4 5 6 1 2 3

Suescun, Insausti, Flaquer (2022) 52 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.3 Operaciones elementales

La matriz elemental asociada a esta operación resulta de intercambiar entre sí las filas primera y segunda
de la matriz identidad:
1 0 0 1
𝐼2 = [ ] → 𝐹1,2 = [ ]
0 1 1 0

Operación elemental de clase II: Multiplicar una ecuación (o fila) por un escalar 𝜶 distinto de cero.
Su matriz elemental asociada resulta de multiplicar por 𝛼 la correspondiente fila de la matriz identidad.
Se denota por 𝐹𝛼∙𝑖 para indicar que el escalar 𝛼 multiplica la fila 𝑖.

Ejemplo 2.7
Multiplicar la segunda fila por 4:
4 5 6 4 5 6
[ | ] → [ | ]
1 2 3 4 8 12
La matriz elemental asociada a esta operación resulta de multiplicar por 4 la segunda fila de la matriz
identidad:
1 0 1 0
𝐼2 = [ ] → 𝐹4∙2 = [ ]
0 1 0 4

Operación elemental de clase III: Restar a una ecuación (o fila) otra ecuación (o fila), previamente
multiplicada por un escalar 𝜶.
Su matriz elemental asociada resulta de restar a una fila de la matriz identidad otra multiplicada por el
escalar 𝛼. Se denota por 𝐹𝑖−𝛼∙𝑗 cuando a la fila 𝑖 se le resta la fila 𝑗 multiplicada por 𝛼, con 𝑖 ≠ 𝑗.

Ejemplo 2.8
A la segunda fila se le resta la primera multiplicada por 1:
4 5 6 4 5 6
[ | ] → [ | ]
4 8 12 0 3 6
La matriz elemental asociada resulta de realizar esa operación sobre la segunda fila de la matriz identidad:
1 0 1 0
𝐼2 = [ ] → 𝐹2−1∙1 = [ ]
0 1 −1 1

Las siguientes proposiciones formalizan el uso de las matrices elementales para ejecutar operaciones
elementales.

Proposición 2.1
Enunciado: Premultiplicar una matriz cualquiera 𝐴 por una matriz asociada a una operación elemental
por filas 𝐹, ejecuta esa misma operación elemental sobre las filas de la matriz 𝐴.
Demostración: Es evidente. Véase el Ejemplo 2.9.

Proposición 2.2
Enunciado: Las matrices asociadas a operaciones elementales sobre las ecuaciones (o filas) son regulares
y sus inversas están asociadas a operaciones elementales de la misma clase.
Demostración: Nótese que toda operación elemental se puede deshacer con una operación elemental de
la misma clase.

Suescun, Insausti, Flaquer (2022) 53 Tecnun-Universidad de Navarra


2.3 Operaciones elementales 2 Sistemas de Ecuaciones Lineales

Sea 𝐹 la matriz asociada a una operación elemental dada. Su inversa 𝐹 −1 es precisamente la matriz
asociada a la operación elemental que deshace la operación dada.

−1
𝐶𝑙𝑎𝑠𝑒 𝐼 𝐹𝑖,𝑗 → 𝐹𝑖,𝑗 = 𝐹𝑗,𝑖 = 𝐹𝑖,𝑗
−1
𝐶𝑙𝑎𝑠𝑒 𝐼𝐼 𝐹𝛼∙𝑖 → 𝐹𝛼∙𝑖 = 𝐹𝛼−1∙𝑖 (𝛼 ≠ 0) (2.6)
−1
𝐶𝑙𝑎𝑠𝑒 𝐼𝐼𝐼 𝐹𝑖−𝛼∙𝑗 → 𝐹𝑖−𝛼∙𝑗 = 𝐹𝑖+𝛼∙𝑗 (𝑖 ≠ 𝑗)

Estas inversas son también matrices asociadas a operaciones elementales de la misma clase. Es muy fácil
probar que:
𝐹𝑖,𝑗 𝐹𝑖,𝑗 = 𝐹𝛼∙𝑖 𝐹𝛼−1∙𝑖 = 𝐹𝑖−𝛼∙𝑗 𝐹𝑖+𝛼∙𝑗 = 𝐼
Por lo tanto, las matrices elementales son regulares pues todas ellas tienen inversa.

Proposición 2.3
Enunciado: El producto de matrices elementales es una matriz regular, no necesariamente elemental.
Demostración: Sean 𝐹 = 𝐹1 𝐹2 … 𝐹𝑝−1 𝐹𝑝 el producto de 𝑝 matrices elementales, todas ellas regulares. Es
evidente que 𝐹 es regular, ya que su inversa existe:
−1
𝐹 −1 = (𝐹1 𝐹2 … 𝐹𝑝−1 𝐹𝑝 ) = 𝐹𝑝−1 𝐹𝑝−1
−1
… 𝐹2−1 𝐹1−1

Proposición 2.4
Enunciado: Toda matriz regular se puede expresar como producto de matrices elementales por filas.
Demostración3: El método de Gauss-Jordan convierte la matriz ampliada [ 𝐴 | 𝑏 ] en [ 𝐼𝑛 | 𝑥0 ] mediante
operaciones elementales por filas. Por lo tanto, pre-multiplicando por las matrices elementales asociadas,
se puede transformar la primera matriz ampliada en la segunda.
Sean 𝐹1 , 𝐹2 , … , 𝐹𝑝 son las matrices asociadas, se tiene
𝐹𝑝 … 𝐹2 𝐹1 [ 𝐴 | 𝑏 ] = [ 𝐼𝑛 | 𝑥0 ]
[ 𝐹𝑝 … 𝐹2 𝐹1 𝐴 | 𝐹𝑝 … 𝐹2 𝐹1 𝑏 ] = [ 𝐼𝑛 | 𝑥0 ]
En particular
𝐹𝑝 … 𝐹2 𝐹1 𝐴 = 𝐼𝑛
Despejando 𝐴
𝐴 = 𝐹1−1 𝐹2−1 … 𝐹𝑝−1 𝐼𝑛 = 𝐺1 𝐺2 … 𝐺𝑝
donde las matrices 𝐺𝑖 = 𝐹𝑖−1 también son elementales por ser inversas de elementales.

Dos comentarios finales:


▪ Todo lo afirmado sobre las filas de una matriz se puede aplicar de manera análoga a las columnas de
la matriz. Las operaciones elementales por columnas también se pueden representar mediante
matrices elementales que se construyen aplicando la operación a las columnas de la matriz identidad.
Para ejecutar una operación sobre las columnas de la matriz 𝐴, basta postmultiplicar la matriz 𝐴 por
la matriz elemental.
▪ Por otra parte, resulta intuitivo y fácil de probar el siguiente enunciado: Toda matriz de permutación
𝑃 de filas (o columnas) es el producto de matrices elementales de clase I de filas (o columnas).

3 Esta demostración requiere conocer el método de Gauss-Jordan (véase §2.7), en particular cuando se aplica a un
sistema con matriz regular.

Suescun, Insausti, Flaquer (2022) 54 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.4 Sistemas de Cramer

Ejemplo 2.9
Las sucesivas operaciones elementales mostradas en los ejemplos anteriores pueden plantearse como
premultiplicaciones por matrices elementales:
1 2 3 0 1 1 2 3 4 5 6
𝐹1,2 [ | ]=[ ][ | ]=[ | ]
4 5 6 1 0 4 5 6 1 2 3
4 5 6 1 0 4 5 6 4 5 6
𝐹4∙2 [ | ]=[ ][ | ]=[ | ]
1 2 3 0 4 1 2 3 4 8 12
4 5 6 1 0 4 5 6 4 5 6
𝐹2−1∙1 [ | ]=[ ][ | ]=[ | ]
4 8 12 −1 1 4 8 12 0 3 6
Nótese que las sucesivas operaciones pueden reunirse como sigue:
1 2 3 4 5 6
𝐹2−1∙1 𝐹4∙2 𝐹1,2 [ | ]=[ | ]
4 5 6 0 3 6
Para revertir las operaciones anteriores, basta multiplicar ordenadamente por las sucesivas inversas:
−1 −1 −1 4 5 6 −1 −1 −1 1 2 3 1 2 3
𝐹1,2 𝐹4∙2 𝐹2−1∙1 [ | ] = 𝐹1,2 𝐹4∙2 𝐹2−1∙1 (𝐹2−1∙1 𝐹4∙2 𝐹1,2 [ | ]) = [ | ]
0 3 6 4 5 6 4 5 6
Se comprueba que la regla para el cálculo de la inversa de un producto sirve adecuadamente:
−1 −1 −1 −1
(𝐹2−1∙1 𝐹4∙2 𝐹1,2 ) = 𝐹1,2 𝐹4∙2 𝐹2−1∙1

Sistemas de Cramer

Un sistema de Cramer es un sistema de ecuaciones lineales 𝐴𝑥 = 𝑏 cuya matriz de coeficientes 𝐴 es


regular.
Por ser 𝐴 regular, un sistema de Cramer tiene las siguientes características:
▪ La matriz del sistema es cuadrada, esto es, el sistema tiene el mismo número de ecuaciones que de
incógnitas.
▪ El sistema es compatible determinado, luego tiene una única solución. Por lo tanto, la eliminación de
Gauss (véase §2.6) producirá tantos pívots como incógnitas.
La siguiente proposición demuestra esta última afirmación.

Proposición 2.5
Enunciado: Si 𝐴 es regular, 𝐴𝑥 = 𝑏 es compatible determinado.
Demostración: Es evidente que el sistema es compatible, pues existe al menos una solución. Al existir 𝐴−1
se puede construir 𝑥0 = 𝐴−1 𝑏, que es solución del sistema:
𝐴𝑥0 = 𝐴(𝐴−1 𝑏) = (𝐴𝐴−1 )𝑏 = 𝐼𝑏 = 𝑏
Se demuestra ahora que esta solución es la única posible. Para ello, se supone la existencia de otra
solución, 𝑥1 .
Por lo tanto:
𝐴𝑥1 = 𝑏

𝐴𝑥0 = 𝑏
𝐴(𝑥1 − 𝑥0 ) = 0
Al existir 𝐴−1 se puede premultiplicar por ella en ambos lados del igual:
𝐴−1 𝐴(𝑥1 − 𝑥0 ) = 𝐴−1 0
𝑥1 − 𝑥0 = 0
Necesariamente 𝑥1 = 𝑥0 , y se concluye que 𝑥0 es la única solución.

Suescun, Insausti, Flaquer (2022) 55 Tecnun-Universidad de Navarra


2.5 El mecanismo de eliminación Gaussiana 2 Sistemas de Ecuaciones Lineales

El mecanismo de eliminación Gaussiana

El mecanismo de eliminación Gaussiana es el fundamento del método de Gauss. Sirve para eliminar una
incógnita en una ecuación. Para ello se necesita otra ecuación en la que esa incóginta esté presente. Que
la incógnita esté presente quiere decir que su coeficiente, que se denomina pívot, es distinto de cero.

Ejemplo 2.10
Se desea eliminar la incógnita 𝛼1 en la segunda ecuación:
2𝛼1 + 2𝛼2 − 𝛼3 = 3 −1 | 3 ]
{ ≡ [ 2 2
6𝛼1 − 3𝛼2 + 𝛼3 = 4 6 −3 1 4
Para ello, a la segunda ecuación (fila) se le resta la primera multiplicada por 3(= 6/2):
2𝛼1 + 2𝛼2 − 𝛼3 = 3 −1 | 3 ]
{ ≡ [ 2 2
−9𝛼2 + 4𝛼3 = −5 0 −9 4 −5
En la segunda ecuación 𝛼1 ya no está presente, su coeficiente ha sido anulado.
Nótese que la eliminación ha sido posible porque 𝛼1 está realmente presente en la primera ecuación, esto
es, su coeficiente es distinto de cero (𝑎11 = 2). Este coeficiente es el pívot.
Nótese también el origen del cociente 6/2: es el coeficiente a eliminar dividido por el pívot.

Para ilustrar el mecanismo en toda su generalidad, se toman dos ecuaciones 𝑖 y 𝑘 cualesquiera (𝑖 ≠ 𝑘) de


un sistema de ecuaciones lineales:
𝑎𝑖1 𝛼1 + 𝑎𝑖2 𝛼2 + ⋯ + 𝑎𝑖𝑗 𝛼𝑗 + ⋯ + 𝑎𝑖𝑛 𝛼𝑛 = 𝛽𝑖
𝑎𝑘1 𝛼1 + 𝑎𝑘2 𝛼2 + ⋯ + 𝑎𝑘𝑗 𝛼𝑗 + ⋯ + 𝑎𝑘𝑛 𝛼𝑛 = 𝛽𝑘
Se desea eliminar la incógnita 𝛼𝑗 de la ecuación 𝑘, esto es anular el coeficiente 𝑎𝑘𝑗 . Para poder hacerlo,
es necesario que 𝛼𝑗 esté realmente presente en la ecuación 𝑖. Es decir, necesariamente:
𝑎𝑖𝑗 ≠ 0
La eliminación se realiza ejecutando la siguiente operación elemental de clase III:
“Restar a la fila 𝑘 la fila 𝑖 previamente multiplicado por el múltiplo de Gauss 𝜇.”
El múltiplo de Gauss se calcula así:

𝑎𝑘𝑗 coeficiente a eliminar


𝜇= = (2.7)
𝑎𝑖𝑗 pívot

Al ejecutar la operación, la ecuación 𝑘 se transforma de la siguiente manera:


′ ′ ′ ′ ′
𝑎𝑘1 𝛼1 + 𝑎𝑘2 𝛼2 + ⋯ + 𝑎⏟
𝑘𝑗 𝛼𝑗 + ⋯ + 𝑎𝑘𝑛 𝛼𝑛 = 𝛽𝑘
=0

Nótese que al anularse su coeficiente, la incógnita 𝛼𝑗 desaparece de la ecuación 𝑘:


𝑎𝑘𝑗
𝑎𝑘𝑗 = 𝑎𝑘𝑗 − 𝜇𝑎𝑖𝑗 = 𝑎𝑘𝑗 − ( )𝑎 = 0
𝑎𝑖𝑗 𝑖𝑗
Comentarios finales:
▪ El pívot necesariamente es un valor no nulo.
▪ Si 𝑎𝑖𝑗 = 0, la incógnita no está realmente presente en la ecuación 𝑖, por lo que no existe pívot para
esa incógnita en la citada ecuación.

Suescun, Insausti, Flaquer (2022) 56 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.6 El método de Gauss

Ejemplo 2.11
La eliminación Gaussiana es muy útil para resolver sistemas de ecuaciones. Por ejemplo, el siguiente
sistema:
2𝛼1 + 3𝛼2 = 1
{
4𝛼1 + 5𝛼2 = 6
En primer lugar, se elimina la primera incógnita de la segunda ecuación. El pívot vale 2 y el múltiplo de
Gauss es 𝜇 = 4/2 = 2. Por lo tanto, a la segunda fila se le resta la primera multiplicada por 2. Se trabaja
sobre la matriz ampliada:

[ 2 3|1] [ 2 3|1]
4 5 6 → 𝑓2 − 2𝑓1 → 0 −1 4
Nótese que el sistema resultante es equivalente al inicial, pero mucho más fácil de resolver:
2𝛼1 + 3𝛼2 = 1
{
−𝛼2 = 4
Despejando en la segunda ecuación y reusando el resultado en la primera se obtiene:
1 13
𝛼2 = −4 𝛼1 = (1 − 3𝛼2 ) =
2 2

El método de Gauss

El método de Gauss es un método sistemático para analizar y resolver sistemas de ecuaciones lineales.
Tiene tres fases: eliminación, discusión y resolución.

Fase de eliminación
Durante esta fase y de manera sistemática se utiliza el mecanismo de eliminación Gaussiana con el
objetivo de transformar el sistema original en otro equivalente con estructura triangular.
La fase de eliminación funciona por etapas, realizando operaciones elementales sobre las filas de la
matriz ampliada. Cada etapa viene determinada por una columna de la matriz del sistema. Se comienza
por la primera columna.
El trabajo en cada etapa es el siguiente:
▪ En la columna se busca un elemento no nulo que será seleccionado como pívot. El nuevo pívot se
busca en las filas en las que no haya pívots de etapas anteriores. Si no fuera posible elegir un pívot
se pasa a la siguiente columna.
▪ La fila del pívot debe situarse en la posición más alta posible y por debajo de las filas con pívots de
etapas anteriores. Para lograrlo puede ser necesario intercambiar filas.
▪ A continuación, se utiliza la eliminación Gaussiana para hacer ceros debajo del pívot.
▪ Una vez terminada la eliminación, se pasa a siguiente columna de la matriz y se ejecuta una nueva
etapa.
La fase de eliminación termina cuando ya no es posible encontrar más pívots en las columnas de la matriz
del sistema. La siguiente figura ilustra de forma general el resultado de la fase eliminación.
Nótese que, por construcción, no puede haber dos pívots ni en la misma fila ni en la misma columna de la
matriz del sistema.

Suescun, Insausti, Flaquer (2022) 57 Tecnun-Universidad de Navarra


2.6 El método de Gauss 2 Sistemas de Ecuaciones Lineales

0 … 0 ≠ ∗ … ∗ ∗ ∗ … ∗ … ∗ ∗ … ∗ ∗
0 … 0 0 0 … 0 ≠ ∗ … ∗ … ∗ ∗ … ∗ | ∗
0 … 0 0 0 … 0 0 0 … 0 … ∗ ∗ … ∗ ∗
| …
… … … … … … … … … … … … … … … …
0 … 0 0 0 … 0 0 0 … 0 … ≠ ∗ … ∗ | ∗
Compatible
0 … 0 0 0 … 0 0 0 … 0 … 0 0 … 0 𝛽
Incompatible
… … … … … … … … … … … … … … … … | …
[0 … 0 0 0 … 0 0 0 … 0 … 0 0 … 0 0 ]
Figura 2.1: Forma escalonada por filas resultante de la fase de eliminación. Los pívots se representan con ≠ , el
símbolo * denota un número cualquiera y 𝛽 puede ser cero o no. La existencia de escalonamiento
en la última columna determina que el sistema es incompatible y por tanto no tiene solución. La
primeras columnas de ceros son muy infrecuentes. Se indican aquí por generalidad.

Fase de discusión
En la columna de términos independientes (la última columna de la matriz ampliada) pueden suceder dos
cosas excluyentes (Figura 2.1):
▪ Si existe algún 𝛽 ≠ 0, (es decir, existe escalonamiento en la última columna), el sistema es
incompatible pues, en ese caso, la fila en cuestión representa una condición imposible de cumplir4:
0𝛼1 + 0𝛼2 + ⋯ + 0𝛼𝑛 = 𝛽
▪ En caso contrario, el sistema es compatible. En este caso, la cuenta de pívots determina cuantas
soluciones existen:
o Si el número de pívots es igual al número de incógnitas, sólo existe una solución: el sistema
es compatible determinado.
o Si el número de pívots es menor que el número de incógnitas, existe más de una solución: el
sistema es compatible indeterminado.
Nótese que el número de pívots nunca será mayor que el número de incógnitas, que coincide con el
número de columnas de la matriz. En la Figura 2.1, cuando 𝛽 = 0 el sistema es compatible indeterminado.

Fase de resolución o vuelta atrás


En esta fase se obtienen las soluciones del sistema. Sólo se ejecuta si el sistema es compatible.
En primer lugar, se clasifican las incógnitas en dos categorías:
▪ Pivotales: son incógnitas cuyas columnas asociadas tienen pívot.
▪ Libres: son incógnitas cuyas columnas asociadas no tienen pívot. Libre quiere decir que la solución
para estas incógnitas puede adoptar cualquier valor. En función de las incógnitas libres, cuando las
hay, se resuelven las pivotales. Las incógnitas libres sólo aparecen en los sistemas indeterminados.
Nótese que los sitemas indeterminado presentan incógnitas libres mientras que los sistemas
determinados solo tienen incógintas pivotales.
La vuelta atrás consiste en despejar las incógnitas pivotales en función de las libres y de las pivotales ya
resueltas, comenzando por la última pivotal hasta llegar a la primera. Por comodidad, a cada incógnita
libre se le asigna un parámetro independiente.
Los siguientes ejemplos ayudarán a aclarar todo lo anterior.

4 La ecuación resultante 0 = 𝛽 no tiene sentido si 𝛽 ≠ 0.

Suescun, Insausti, Flaquer (2022) 58 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.6 El método de Gauss

Ejemplo 2.12
Resolver el siguiente sistema de ecuaciones con el método de Gauss:
2𝛼1 + 2𝛼2 + 4𝛼3 + 3𝛼4 = −2
2𝛼 + 2𝛼2 + 8𝛼3 + 6𝛼4 = 4
{ 1
2𝛼1 + 4𝛼2 + 6𝛼3 + 10𝛼4 = 8
6𝛼1 + 8𝛼2 + 18𝛼3 + 19𝛼4 = 10

Fase de eliminación
2 2 4 3 −2 2 2 4 3 −2
[𝐴|𝑏]= [ 2 2 8 6 | 4 ] (a)
→ [ 0 0 4 3 | 6]…
2 4 6 10 8 0 2 2 7 10
6 8 18 19 10 0 2 6 10 16
2 2 4 3 −2 2 2 4 3 −2 2 2 4 3 −2
7 | 10 → 7 | 10 (d) 7 | 10
(b) (c)
→ 0 2 2 0 2 2 → 0 2 2
|
0 0 4 3 6 0 0 4 3 6 0 0 4 3 6
[ 0 2 6 10 16 ] [ 0 0 4 3 6] [ 0 0 0 0 0]
Se han realizado las siguientes operaciones:
(a) El primer elemento de la primera columna se elige como pívot y se usa para hacer ceros en las
demás filas de la primera columna.
(b) A continuación, se busca un pívot en la segunda columna y se encuentra en la tercera fila, por lo
que se intercambian la segunda y la tercera fila.
(c) Con el segundo pívot ya en el sitio correcto se hacen ceros por debajo y se pasa a la siguiente
columna.
(d) En la tercera columna se elige el 4 como tercer pívot y se elimina el elemento bajo el pívot. Con esto
termina la fase de eliminación ya que la cuarta fila ha sido anulada completamente y no va ser
posible encontrar más pívots en la cuarta columna.

Fase de discusión
El sistema es compatible, ya que el último escalón se produce en la zona de la matriz del sistema. Además,
es indeterminado pues existen 4 incógnitas y sólo han aparecido 3 pívots.

Fase de vuelta atrás


Existen 3 incógnitas pivotales (𝛼1 , 𝛼2 , 𝛼3 ) y una libre (𝛼4 ). Ayuda indicar en la parte superior de las
columnas de 𝐴 el tipo de incógnita (𝑃 pivotal, 𝐿 libre).
1 15 11
𝑃 𝑃 𝑃 𝐿 𝛼1 = (−2 − 2𝛼2 − 4𝛼3 − 3𝛼4 ) = − + 𝜖
2 2 4
2 2 4 3 −2 1 7 11
𝛼2 = (10 − 2𝛼3 − 7𝛼4 ) = − 𝜖
0 2 2 7 | 10 → 2 2 4
|
0 0 4 3 6 1 3 3
𝛼3 = (6 − 3𝛼3 ) = − 𝜖
[ 0 0 0 0 0] 4 2 4

{ 𝛼4 = 𝜖
Por ser 𝛼4 una incógnita libre, i.e. puede adoptar cualquier valor, se le ha asignado como valor el
parámetro independiente 𝜖. Y en función de esta incógnita libre, se han resuelto las demás.

Ejemplo 2.13
Resolver el sistema
2𝛼1 + 4𝛼2 = 6
{ 4𝛼1 − 𝛼2 = 3
−2𝛼1 + 5𝛼2 = 3

Suescun, Insausti, Flaquer (2022) 59 Tecnun-Universidad de Navarra


2.6 El método de Gauss 2 Sistemas de Ecuaciones Lineales

con el método de Gauss.


1
2 4 6 2 4 6 2 4 6 𝛼1 = (6 − 4𝛼2 ) = 1
2
[𝐴|𝑏]=[ 4 −1 | 3 ] → [ 0 −9 | −9] → [ 0 −9 | −9] → { −9
−2 5 3 0 9 9 0 0 0 𝛼2 = = 1
−9

El sistema es compatible determinado y su solución es única.


Finalmente, unos comentarios de índole práctica:


▪ Cuando existe solución, el método de Gauss las obtiene todas.
▪ El sistema de ecuaciones triangular resultante de la fase eliminación es equivalente al inicial, esto es,
el conjunto de soluciones del sistema final es idéntico al conjunto de soluciones del sistema inicial.
▪ En sistemas de ecuaciones que dependen de parámetros puede ocurrir que el candidato a pívot sea
dependiente de estos parámetros. Pueden existir valores de los parámetros que lo anulen por lo que
ese candidato no sería siempre un pívot válido. Esta circunstancia obliga a bifurcar inmediatamente
la fase de eliminación para contemplar los dos casos siguientes:
o Cuando el candidato a pívot es 0, por lo que no puede ser pívot.
o Cuando el candidato es distinto de 0, en cuyo caso se podrá usar como pívot.
Estas bifurcaciones pueden aparecer en repetidas ocasiones.
▪ Así mismo, la dependencia respecto de los parámetros del sistema puede hacer posible la aparición
de un último escalón en la columna de términos independientes (𝛽 = 0 o 𝛽 ≠ 0). En estos casos
también hay que bifurcar la discusión y resolución del sistema de manera análoga a lo explicado en
el punto anterior.

Ejemplo 2.14
Discutir y resolver el siguiente sistema en función del parámetro 𝛾:
𝛼1 + 𝛼2 = 2
{
𝛼1 + 𝛾𝛼2 = 2
1 1 2 1 1 2
[𝐴|𝑏] =[ | ]→[ | ]
1 𝛾 2 0 𝛾−1 0
Nótese que, como 𝛾 − 1 puede hacerse cero, es necesario contemplar los dos casos siguientes:
1 1 2 Compatible 𝛼 = 2 − 𝛼2 = 2 − 𝜖
▪ 𝛾=1 → [ | ] → { 1 ∀𝜖
0 indeterminado 𝛼2 = 𝜖
0 0
1 1 2 Compatible 𝛼1 = 2
▪ 𝛾≠1 → [ | ] → {
0 𝛾−1 0 determinado 𝛼2 = 0

Ejemplo 2.15
Discutir la existencia de soluciones del siguiente sistema en función de 𝛾:
2𝛼1 + 4𝛼2 = 6
{ 4𝛼1 − 𝛼2 = 3
−2𝛼1 + 5𝛼2 = 𝛾
2 4 6 2 4 6 2 4 6
[𝐴|𝑏]=[ 4 −1 | 3 ] → [ 0 −9 | −9 ] → [ 0 −9 | −9 ]
−2 5 𝛾 0 9 𝛾+6 0 0 𝛾−3

Suescun, Insausti, Flaquer (2022) 60 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.7 El método de Gauss-Jordan

Para analizar la existencia de soluciones, hay que estudiar qué valores del parámetro 𝛾 producen
escalonamiento en la última columna:

2 4 6
Sistema
▪ 𝛾≠3 → 0 −9 | −9 → incompatible → ∄ solución
[ 0 0 𝛾−3]
2 4 6
Compatible 𝛼 =1
▪ 𝛾=3 → [ 0 −9 | −9 ] → →{ 1
determinado 𝛼2 = 1
0 0 0

El método de Gauss-Jordan

El método de Gauss-Jordan es una variante en la que se reemplaza la substitución hacia atrás con otra
fase de eliminación, esta vez por encima de los pívots. Este método es especialmente interesante para
resolver sistemas de Cramer y para calcular inversas de matrices regulares.
Se presenta a continuación el método de Gauss-Jordan para resolver sistemas de Cramer.
Por ser 𝐴 regular, la fase de eliminación de Gauss conduce a la forma escalonada que se muestra en la
Figura 2.2. Nótese la existencia de pívots en todas las filas (sistema compatible) y en todas las columnas
(ausencia de incógnitas libres, solución única).

≠ ∗ ∗ … ∗ ∗
0 ≠ ∗ … ∗ | ∗
𝐸𝑙𝑖𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛
[ 𝐴 | 𝑏 ]→ 0 0 ≠ … ∗ ∗
… … … … … | …
[ 0 0 0 … ≠ ∗]
Figura 2.2: Forma escalonada por filas resultante de la fase de eliminación de Gauss para un sistema de Cramer.
Los pívots se representan con ≠ . El símbolo * denota un número cualquiera.

La variante de Gauss-Jordan consiste en realizar los dos pasos siguientes, que se ilustran
esquemáticamente en la Figura 2.3.

1 ∗ ∗ … ∗ ∗ 1 0 0 … 0 𝛼10
0 1 ∗ … ∗ | ∗ 0 1 0 … 0 | 𝛼20
(𝑎) (𝑏)
⋯→ 0 0 1 … ∗ ∗ → 0 0 1 … 0 𝛼30
… … … … … | … … … … … … | …
[ 0 0 0 … 1 ∗] [ 0 0 0 … 1 𝛼𝑛0 ]

Figura 2.3: Los dos pasos del método de Gauss-Jordan en un sistema de Cramer: (a) normalización de los pívots;
(b) eliminación por encima de los pívots. Los pívots se representan con ≠ , el símbolo * denota un
número cualquiera, 𝛼10 , 𝛼20 , … , 𝛼𝑛0 es la solución única del sistema de Cramer.

Normalización de los pívots


Con el objetivo de que todos los pívots valgan uno, se divide cada fila por su pívot.

Eliminación por encima de los pívots


Empezando por la última fila, se eliminan todos los elementos por encima del pívot. Se hace lo mismo con
la penúltima fila y se continúa hasta la primera. Al terminar esta eliminación, la matriz del sistema se habrá
transformado en la identidad y la columna de términos independientes se habrá convertido en la solución

Suescun, Insausti, Flaquer (2022) 61 Tecnun-Universidad de Navarra


2.7 El método de Gauss-Jordan 2 Sistemas de Ecuaciones Lineales

del sistema. Es habitual resumir el método de Gauss-Jordan para matrices regulares de la siguiente
manera:

𝐺−𝐽
[𝐴|𝑏] → [ 𝐼𝑛 | 𝑥0 ] (2.8)

Ejemplo 2.16
Resolver el siguiente sistema con el método de Gauss-Jordan:
𝛼1 + 2𝛼2 + 𝛼3 = 3
{ 2𝛼1 + 2𝛼2 + 5𝛼3 = 13
5𝛼1 + 6𝛼2 + 9𝛼3 = 23
Se inicia con la fase de eliminación habitual:

1 2 1 3 1 2 1 3 1 2 1 3
[ 2 2 5 | 13 ] → [ 0 −2 3 | 7] → 0 −2 3 | 7 ⋯
5 6 9 23 0 −4 4 8 [ 0 0 −2 −6]
Llegados a este punto, se concluye que el sistema es compatible determinado pues tiene 3 incógnitas y
han salido 3 pívots. Ahora, se realiza el trabajo específico del método de Gauss-Jordan: (a) la
normalización de los pívots y (b) la eliminación por encima de los pívots unidad.
1 2 1 3 1 2 0 0 1 0 0 −2
(a) (b)
→ 0 1 −3/2 | −7/2 → 0 1 0 |1 →[0 1 0| 1 ]
[ 0 0 1 3 ] [ 0 0 1 3] 0 0 1 3
Y la solución es:
𝛼1 = −2
{ 𝛼2 = 1
𝛼3 = 3

Ejemplo 2.17
Se resuelve ahora el sistema indeterminado del ejemplo 2.12 con el método de Gauss-Jordan. Para ello,
se parte del resultado de la fase de eliminación y se aplican (a) la normalización de los pívots y (b) la
eliminación por encima de los pívots unidad:
2 2 4 3 −2 1 1 2 3/2 −1
[ 𝐴 |𝑏 ]→
𝐸𝑙𝑖𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛
0 2 2 7 | 10 (a)
→ 0 1 1 7/2 | 5 ⋯
| |
0 0 4 3 6 0 0 1 3/4 3/2
[ 0 0 0 0 0] [ 0 0 0 0 0 ]
1 1 0 0 −4 1 0 0 −11/4 −15/2
(b)
→ 0 1 0 11/4 | 7/2 → 0 1 0 11/4 | 7/2 ⋯
| |
0 0 1 3/4 3/2 0 0 1 3/4 3/2
[ 0 0 0 0 0 ] [ 0 0 0 0 0 ]
Y las soluciones se expresan en función del parámetro asignado a la incógnita libre 𝛼4 :
15 11
𝛼1 = − + 𝜖
2 4
7 11
𝛼2 = − 𝜀
→ 2 4 2
3 3
𝛼3 = − 𝜖
2 4
{ 𝛼4 = 𝜖

Suescun, Insausti, Flaquer (2022) 62 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.8 Estructura del conjunto de soluciones de 𝑨𝒙=𝒃

Estructura del conjunto de soluciones de 𝑨𝒙 = 𝒃

Se estudia ahora la relación que existe entre las soluciones de un sistema general compatible,
representado por 𝐴𝑥 = 𝑏, y las soluciones de su sistema homogéneo asociado 𝐴𝑥 = 0.
Se denota por 𝑆𝑔 el conjunto de soluciones del sistema general compatible y con 𝑆ℎ el conjunto de
soluciones del sistema homogéneo asociado (que es siempre compatible, pues al menos posee la
solución nula 0).

Proposición 2.6
Enunciado: Las soluciones del sistema general compatible 𝐴𝑥 = 𝑏 son el resultado de sumar una solución
cualquiera 𝑥0 a todas las soluciones del sistema homogéneo asociado 𝐴𝑥 = 0 (Figura 2.4).
Abreviadamente:
𝑆𝑔 = 𝑥0 + 𝑆ℎ
(Con la notación 𝑥0 + 𝑆ℎ queremos indicar el conjunto que resulta de sumar 𝑥0 a todos los elementos 𝑥ℎ
de 𝑆ℎ ). La Figura 2.4 ilustra la idea.

𝐾 𝑛×1
𝑆ℎ 𝑆𝑔
𝑥0

𝑥ℎ
𝑥1 = 𝑥0 + 𝑥ℎ

Figura 2.4: El conjunto de soluciones de la ecuación general compatible 𝑆𝑔 está compuesto por soluciones como
𝑥0 y 𝑥1 , que puede obtenerse sumando una solución 𝑥ℎ de la ecuación homogénea a la solución 𝑥0 .
Nótese que 𝑥0 puede ser cualquier solución de la ecuación general. Así mismo, al sumar cualquier
otra solución del sistema homogéneo a 𝑥0 se obtendrá otra solución del sistema general.

Demostración: Se trata de probar la igualdad de los conjuntos 𝑆𝑔 y 𝑥0 + 𝑆ℎ . Para ello hace falta probar
las dos afirmaciones siguientes:
(a) Todo elemento del 1er conjunto está también en el 2o: 𝑥1 ∈ 𝑆𝑔 ⟹ 𝑥1 ∈ 𝑥0 + 𝑆ℎ
Sea 𝑥1 otra solución de la ecuación general, además de la solución 𝑥0 ya conocida:
𝐴𝑥1 = 𝑏
𝑥1 ∈ 𝑆𝑔 → (𝑥1 − 𝑥0 ) = 0 → 𝑥ℎ = 𝑥1 − 𝑥0 ∈ 𝑆ℎ
→ 𝐴⏟
𝐴𝑥0 = 𝑏
𝑥ℎ

Por lo tanto:
𝑥1 = 𝑥0 + 𝑥ℎ ⟹ 𝑥1 ∈ 𝑥0 + 𝑆ℎ

(b) Todo elemento del 2o conjunto está también en el 1o: 𝑥1 ∈ 𝑥0 + 𝑆ℎ ⟹ 𝑥1 ∈ 𝑆𝑔


Una columna 𝑥1 de 𝑥0 + 𝑆ℎ será el resultado de sumar 𝑥0 a una solución concreta 𝑥ℎ de 𝐴𝑥 = 0,
𝑥1 ∈ 𝑥0 + 𝑆ℎ ⟹ ∃ 𝑥ℎ ∈ 𝑆ℎ | 𝑥1 = 𝑥0 + 𝑥ℎ
Se comprueba fácilmente que 𝑥1 es solución de la ecuación general:
𝐴𝑥1 = 𝐴(𝑥0 + 𝑥ℎ ) = 𝐴𝑥0 + 𝐴𝑥ℎ = 𝑏 ⟹ 𝑥1 ∈ 𝑆𝑔
Consecuencia inmediata: Un sistema general compatible será determinado si y sólo si el sistema
homogéneo asociado es también determinado.

Suescun, Insausti, Flaquer (2022) 63 Tecnun-Universidad de Navarra


2.9 Inversas de 𝑨 y la ecuación 𝑨𝒙 =𝒃 2 Sistemas de Ecuaciones Lineales

Ejemplo 2.18
El conjunto de soluciones 𝑆𝑔 del siguiente sistema general es:
𝛼1 + 𝛼2 + 𝛼3 = 3
{
𝛼1 + 2𝛼2 + 4𝛼3 = 7
𝛼1 = −1 + 2𝜖
1 1 1 3 1 1 1 3 1 0 −2 −1
[ | ]~[ | ]~[ | ] → 𝑆𝑔 = {𝛼2 = 4 − 3𝜖 ∀𝜖
1 2 4 7 0 1 3 4 0 1 3 4 𝛼3 = 𝜖
Y el conjunto de soluciones 𝑆ℎ del sistema homogéneo asociado es:
𝛼1 + 𝛼2 + 𝛼3 = 0
{
𝛼1 + 2𝛼2 + 4𝛼3 = 0
𝛼1 = 2𝜖
1 1 1 0 1 1 1 0 1 0 −2 0
[ | ]~[ | ]~[ | ] → 𝑆ℎ = {𝛼2 = −3𝜖 ∀𝜖
1 2 4 0 0 1 3 0 0 1 3 0 𝛼3 = 𝜖
Nótese que:
2𝜖 −1 2𝜖
𝑆ℎ = { [−3𝜖 ] ∀𝜖 } 𝑆𝑔 = { [ 4 ] + [−3𝜖 ] ∀𝜖 } = 𝑥0 + 𝑆ℎ
𝜖 ⏟0 𝜖
𝑥0

Ejemplo 2.19
El sistema general
𝛼1 + 3𝛼2 − 5𝛼3 = −1
{
−2𝛼1 − 4𝛼2 + 6𝛼3 = 0
es compatible, pues tiene al menos la solución
1
𝑥0 = [1]
1
Las soluciones del sistema homogéneo asociado son:
𝛼1 = −𝜖
𝛼1 + 3𝛼2 − 5𝛼3 = 0
{ → 𝑆ℎ = {𝛼2 = 2𝜖 ∀𝜖
−2𝛼1 − 4𝛼2 + 6𝛼3 = 0 𝛼3 = 𝜖
Por lo tanto, todas las soluciones de la ecuación general son:
𝛼1 = 1 − 𝜖
𝑆𝑔 = 𝑥0 + 𝑆ℎ = {𝛼2 = 1 + 2𝜖 ∀𝜖
𝛼3 = 1 + 𝜖
Nótese que se obtiene el mismo conjunto de soluciones de la ecuación general si se utiliza cualquier otra
solución general, por ejemplo, la columna 𝑥1 :
0 𝛼1 = − 𝜖
𝑥1 = [3] → 𝑆𝑔 = 𝑥1 + 𝑆ℎ = {𝛼2 = 3 + 2𝜖 ∀𝜖
2 𝛼3 = 2 + 𝜖

Inversas de 𝑨 y la ecuación 𝑨𝒙 = 𝒃

Sea la ecuación lineal general 𝐴𝑥 = 𝑏, con 𝐴 una matriz de tamaño 𝑚 × 𝑛 y 𝑏 una columna de 𝑚
elementos.
Podría ocurrir que 𝐴 tuviera inversas por la izquierda.

Suescun, Insausti, Flaquer (2022) 64 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.9 Inversas de 𝑨 y la ecuación 𝑨𝒙 =𝒃

Proposición 2.7
Enunciado: Si 𝐴𝑥 = 𝑏 tiene solución y existe inversa por la izquierda 𝐿 de 𝐴, entonces la solución es única.
Demostración: Sea 𝑥0 una solución de 𝐴𝑥 = 𝑏. Debe cumplirse 𝐴𝑥0 = 𝑏. Si existiera otra solución 𝑥1 , se
debería cumplir 𝐴𝑥1 = 𝑏. Restando miembro a miembro ambas identidades:
𝐴(𝑥1 − 𝑥0 ) = 0
Multiplicando por la izquierda por 𝐿
𝐿𝐴(𝑥1 − 𝑥0 ) = 𝐿0
𝐼𝑛 (𝑥1 − 𝑥0 ) = 0
𝑥1 − 𝑥0 = 0
𝑥1 = 𝑥0
lo que significa que la solución 𝑥0 es única.
Comentario: Es crucial que 𝐴𝑥 = 𝑏 tenga solución, no basta con que exista la inversa por la izquierda 𝐿.
Si no hay solución, no cabe hablar de solución única.

Ejemplo 2.20
Se sabe que 𝑥0 es solución del sistema
𝛼1 + 𝛼2 = 3
1
{ 𝛼1 + 2𝛼2 = 5 → 𝑥0 = [ ] → 𝐴𝑥𝑜 = 𝑏
2
𝛼1 + 𝛼2 = 3
La matriz del sistema 𝐴 tiene inversa por la izquierda:
1 1
1 −1 1
𝐴 = [1 2] → 𝐿=[ ]
0 1 −1
1 1
Por lo tanto, 𝑥0 es la única solución del sistema.

Ejemplo 2.21
Es evidente que este sistema no tiene solución, aunque su matriz 𝐴 tiene inversas por la izquierda:
𝛼1 + 𝛼2 = 3
{ 𝛼1 + 2𝛼2 = 5
𝛼1 + 𝛼2 = 4

Por otra parte, puede ocurrir también que la matriz 𝐴 tenga inversas por la derecha.

Proposición 2.8
Enunciado: Si existe inversa por la derecha 𝑅 de 𝐴, entonces la ecuación 𝐴𝑥 = 𝑏 tiene solución.
Demostración: Es evidente que el sistema tiene solución, pues 𝑥0 = 𝑅𝑏 es una solución, como se verifica
a continuación:
𝐴𝑥0 = 𝐴(𝑅𝑏) = (𝐴𝑅)𝑏 = 𝐼𝑚 𝑏 = 𝑏
luego 𝐴𝑥 = 𝑏 tiene al menos la solución 𝑥0 = 𝑅𝑏.
Comentario: El recíproco no es cierto pues la existencia de solución no implica necesariamente que exista
inversa por la derecha 𝑅 de 𝐴.

Suescun, Insausti, Flaquer (2022) 65 Tecnun-Universidad de Navarra


2.10 Obtención de la inversa de una matriz regular 2 Sistemas de Ecuaciones Lineales

Ejemplo 2.22
La matriz de coeficientes 𝐴 del siguiente sistema tiene inversa por la derecha 𝑅:

𝛼1 − 𝛼2 + 𝛼3 = 1 1 1
1 −1 1
{ → 𝐴=[ ] → 𝑅 = [1 2]
𝛼2 − 𝛼3 = 2 0 1 −1
1 1
Por lo tanto 𝑥0 = 𝑅𝑏 es solución, aunque no es la única:
1 1 3
1
𝑥0 = 𝑅𝑏 = [1 2] [ ] = [5]
2
1 1 3

Ejemplo 2.23
El siguiente sistema tiene solución aunque su matriz de coeficientes 𝐴 no posea inversas por la derecha:
𝛼1 − 𝛼2 + 𝛼3 = 0 1 −1 1
{ → 𝐴=[ ] → ∄𝑅
−𝛼1 + 𝛼2 − 𝛼3 = 0 −1 1 −1

Finalmente, ¿qué implica para la ecuación matricial 𝐴𝑥 = 𝑏 la existencia de ambas clases de inversas 𝐿 y
𝑅 de 𝐴?

Proposición 2.9
Enunciado: Si existen las inversas 𝐿 y 𝑅 de 𝐴, la ecuación 𝐴𝑥 = 𝑏 tiene solución y ésta es única.
Demostración: Si existe 𝑅, el sistema tiene solución; habiendo solución y existiendo 𝐿, la solución es única.

En el caso que existan 𝐿 y 𝑅 de 𝐴 se sabe que 𝐴−1 = 𝐿 = 𝑅, esto es, 𝐴 es una matriz regular y la ecuación
𝐴𝑥 = 𝑏 es un sistema de Cramer. La citada ecuación tiene como solución única:
𝑥0 = 𝑅𝑏 = 𝐴−1 𝑏

Ejemplo 2.24
La matriz de coeficientes del siguiente sistema es regular:
𝛼1 + 𝛼2 = 7 1 1 2 −1
{ → 𝐴=[ ] → 𝐴−1 = [ ]
𝛼1 + 2𝛼2 = 9 1 2 −1 1
El sistema tiene una única solución:
2 −1 7 5
𝑥0 = 𝐴−1 𝑏 = [ ][ ] = [ ]
−1 1 9 2

Obtención de la inversa de una matriz regular

Se deduce a continuación un procedimiento práctico basado en el método de Gauss-Jordan para calcular


la inversa 𝐴−1 de una matriz regular 𝐴.
Sea 𝐴 una matriz regular de orden 𝑛. Denotando con 𝑥1 , 𝑥2 , … , 𝑥𝑛 las columnas de 𝐴−1 y con 𝑒1 , 𝑒2 , … , 𝑒𝑛
las columnas de 𝐼𝑛 , se tiene
𝐴𝐴−1 = 𝐼𝑛
𝐴[𝑥1 𝑥2 … 𝑥𝑛 ] = [𝑒1 𝑒2 … 𝑒𝑛 ]
[𝐴𝑥1 𝐴𝑥2 … 𝐴𝑥𝑛 ] = [𝑒1 𝑒2 … 𝑒𝑛 ]

Suescun, Insausti, Flaquer (2022) 66 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.11 Obtención de las matrices inversas por la derecha y por la izquierda

De la igualdad anterior se deducen 𝑛 sistemas de ecuaciones lineales que comparten la matriz de


coeficientes 𝐴. De la identidad 𝐴𝑥𝑖 = 𝑒𝑖 se deduce que 𝑥𝑖 debe ser solución del sistema 𝐴𝑥 = 𝑒𝑖
𝐴𝑥 = 𝑒1 → 𝑥1
𝐴𝑥 = 𝑒2 → 𝑥2

𝐴𝑥 = 𝑒𝑛 → 𝑥𝑛
Por ser 𝐴 regular, los 𝑛 sistemas de ecuaciones son compatibles y determinados, y se pueden resolver con
el método de Gauss-Jordan:
𝐴𝑥 = 𝑒1 → [ 𝐴 | 𝑒1 ] → [ 𝐼𝑛 | 𝑥1 ]
𝐴𝑥 = 𝑒2 → [ 𝐴 | 𝑒2 ] → [ 𝐼𝑛 | 𝑥2 ]
⋮ ⋮
𝐴𝑥 = 𝑒𝑛 → [ 𝐴 | 𝑒𝑛 ] → [ 𝐼𝑛 | 𝑥𝑛 ]
Como todos ellos comparten la misma matriz del sistema, se resuelven con las mismas operaciones
elementales. Por ello, resulta más eficiente resolverlos de forma conjunta:
[ 𝐴 | 𝑒1 𝑒2 … 𝑒𝑛 ] → [ 𝐼𝑛 | 𝑥1 𝑥2 … 𝑥𝑛 ]
O de forma más compacta:

[ 𝐴 | 𝐼𝑛 ] → [ 𝐼𝑛 | 𝐴−1 ] (2.9)

Ejemplo 2.25
Se calcula a continuación la inversa de la siguiente matriz 𝐴 usando el método de Gauss-Jordan:
1 2
𝐴=[ ]
3 4
1 2 1 0 1 2 1 0
[ 𝐴 | 𝐼𝑛 ] = [ | ]~[ | ]⋯
3 4 0 1 0 −2 −3 1
1 2 1 0 1 0 −2 1
~[ | ]~[ | ] = [ 𝐼𝑛 | 𝐴−1 ]
0 1 3/2 −1/2 0 1 3/2 −1/2
Luego
−2 1
𝐴−1 = [ ]
3/2 −1/2

Obtención de las matrices inversas por la derecha y por la izquierda

La estrategia del método de Gauss-Jordan puede usarse para averiguar si una matriz rectangular 𝐴𝑚×𝑛 ,
con 𝑚 < 𝑛, tiene inversas de por la derecha y calcularlas en su caso.
El siguiente ejemplo ilustra está idea.

Ejemplo 2.26
Hállense todas las inversas por la derecha (caso de existir) de la matriz:
1 1 1
𝐴23 = [ ]
1 2 2
Una matriz inversa por la derecha 𝑅 de 𝐴 debe ser una matriz de tamaño 32 de la forma:
𝑅32 = [𝑥1 𝑥2 ]
Las columnas 𝑥1 y 𝑥2 deben satisfacer las dos ecuaciones matriciales 𝐴𝑥 = 𝑒1 y 𝐴𝑥 = 𝑒2 , según se deduce
del siguiente desarrollo:

𝐴𝑅 = 𝐼2 → 𝐴[𝑥1 𝑥2 ] = [𝑒1 𝑒2 ] → [𝐴𝑥1 𝐴𝑥2 ] = [𝑒1 𝑒2 ] → { 𝐴𝑥 = 𝑒1 → 𝑥1


𝐴𝑥 = 𝑒2 → 𝑥2

Suescun, Insausti, Flaquer (2022) 67 Tecnun-Universidad de Navarra


2.12 Factorización 𝑳𝑼 de 𝑨 2 Sistemas de Ecuaciones Lineales

Resolviendo simultáneamente ambos sistemas de ecuaciones, se llega a:


1 1 1 1 0 1 1 1 1 0 1 0 0 2 −1
[ 𝐴 | 𝐼𝑛 ] = [ | ]~[ | ]~[ | ]
1 2 2 0 1 0 1 1 −1 1 0 1 1 −1 1
Los dos sistemas de ecuaciones son compatibles indeterminados, por lo que la matriz 𝐴 tiene inversas por
la derecha. Resolviendo todas las soluciones para las dos columnas:
𝛼1 = 2 𝛼1 = −1
𝑥1 ≡ { 𝛼2 = −1 − 𝜖1 𝑥2 ≡ { 𝛼2 = 1 − 𝜖2
𝛼3 = 𝜖1 𝛼3 = 𝜖 2
Y todas la matrices inversas por la derecha de 𝐴 son por tanto de la forma:
2 −1
𝑅 = [−1 − 𝜖1 1 − 𝜖2 ] ∀𝜖1 , 𝜖2 ∈ 𝑅
𝜖1 𝜖2
Si alguno de los sistemas de ecuaciones hubiera sido incompatible, no habría podido encontrarse la
correspondiente columna de 𝑅 y por tanto la matriz 𝐴 no habría tenido inversas por la derecha.

Esta estrategia también permite estudiar estudiar las inversas por la izquierda. Nótese que si 𝐿 es una
inversa por la izquierda de 𝐴, entonces 𝐿𝑇 es una inversa por la derecha de 𝐴𝑇 :
𝐿𝐴 = 𝐼 → 𝐴𝑇 𝐿𝑇 = 𝐼
Por lo tanto, para calcular la inversa por la izquierda, se buscan las inversas por la derecha de la matriz
traspuesta y se traspone el resultado.

Ejemplo 2.27
Hállense todas las inversas por la izquierda de la matriz:
1 1
𝐴 = [1 2]
1 2
Aprovechando el resultado del ejemplo anterior, se deduce que:
2 −1 − 𝜖1 𝜖1
𝐿=[ ] ∀𝜖1 , 𝜖2 ∈ 𝑅
−1 1 − 𝜖2 𝜖2

Factorización 𝑳𝑼 de 𝑨

En muchas ocasiones suele ser necesario resolver varios sistemas de ecuaciones con la misma matriz de
coeficientes pero con distinta matriz de términos independientes. Para estos casos la factorización 𝐿𝑈 de
la matriz de coeficientes 𝐴 resulta de gran utilidad. En concreto, se pretende resolver el problema de
factorizar una matriz cuadrada 𝐴 como el producto de una matriz triangular inferior 𝐿 y una matriz
triangular superior 𝑈; la primera con su diagonal principal formada por unos y la segunda con su diagonal
principal formada por números distintos de cero:
𝐴 = 𝐿𝑈
No todas las matrices admiten la factorización 𝐿𝑈, pero, cuando existe, esta factorización es única. Las
matrices triangulares 𝐿 y 𝑈 tienen el siguiente aspecto (* significa cualquier valor):

1 0 ⋯ 0 𝑢11 ∗ ⋯ ∗
∗ 1 0 0 𝑢22 ∗
𝐿= 𝑈= (𝑢𝑖𝑖 ≠ 0 ∀𝑖)
⋮ ⋱ ⋮ ⋮ ⋱ ⋮
[ ∗ ∗ ⋯ 1 ] [ 0 0 ⋯ 𝑢𝑛𝑛 ]

Suescun, Insausti, Flaquer (2022) 68 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.12 Factorización 𝑳𝑼 de 𝑨

Es evidente que las matrices 𝐿 y 𝑈 son regulares.


Se presentan en primer lugar unos ejemplos sencillos. Tras ellos, se indican las condiciones de existencia
y se explica un método sistemático para su obtención.

Ejemplo 2.28
La siguiente matriz 𝐴 admite factorización 𝐿𝑈
1 2
𝐴=[ ]
3 4
Nótese que el producto de las siguientes matrices 𝐿 y 𝑈 es la matriz 𝐴:
1 0 1 2 1 0 1 2 1 2
𝐿=[ ] 𝑈=[ ] → 𝐿𝑈 = [ ][ ]=[ ]=𝐴
3 1 0 −2 3 1 0 −2 3 4

Ejemplo 2.29
La siguiente matriz no admite factorización 𝐿𝑈
0 1
𝐴=[ ]
2 3
Tratando de resolver se llega a ecuaciones incompatibles:
1 0 𝑏 𝑐 𝑏 𝑐 0 1 𝑏=0
[ ][ ]=[ ]=[ ] →
𝑎 1 0 𝑑 𝑎𝑏 𝑎𝑐 + 𝑑 2 3 𝑎𝑏 = 2
Luego esta matriz 𝐴 no tiene descomposición 𝐿𝑈.

Se enumeran a continuación las condiciones de existencia de la factorización 𝐿𝑈 de una matriz cuadrada


𝐴 de orden 𝑛 y el método de obtención de las matrices 𝐿 y 𝑈.
Condiciones de existencia de la 𝑳𝑼: Una matriz cuadrada de orden 𝑛, mediante una eliminación
Gaussiana empleando solo operaciones elementales de clase III, produce exactamente 𝑛 pívots en las
posiciones de su diagonal principal (1,1), (2,2) … (𝑛, 𝑛).
Método de cálculo: La matriz escalonada resultante de la eliminación Gaussiana empleando solo
operaciones elementales de clase III es precisamente la matriz 𝑈. Nótese que en su diagonal principal
estarán los pívots, que son no nulos.
Por su parte, la matriz 𝐿, triangular inferior con unos en la diagonal principal se completa almacenando
bajo ésta los múltiplos de Gauss usados en la eliminación. Es decir, el múltiplo de Gauss usado para
eliminar el elemento (𝑖, 𝑗) se almacena como 𝑙𝑖𝑗 .
El siguiente ejemplo ayudará a comprender mejor lo anterior.

Ejemplo 2.30
Se desea encontrar la descomposición 𝐿𝑈 de la matriz
3 1 1
𝐴=[ 6 0 4]
−9 −11 9
La eliminación de Gauss, usando solo operaciones elementales de clase III, transforma la matriz 𝐴 en 𝑈:
3 1 1 3 1 1 3 1 1
𝐴=[ 6 0 4] → 𝑙21 = 2 → [ 0 −2 2] → → [0 −2 2] = 𝑈
−9 −11 9 𝑙31 = −3 0 −8 12 𝑙32 = 4 0 0 4
Nótese que el proceso se ha completado sin requerir operaciones de otra clase. Por tanto, se cumplen las
condiciones de existencia y la matriz tiene 𝐿𝑈.
Los múltiplos de Gauss utilizados 𝑙21 , 𝑙31 , 𝑙32 completan las matriz triangular inferior 𝐿:

Suescun, Insausti, Flaquer (2022) 69 Tecnun-Universidad de Navarra


2.13 Variantes de la factorización 𝑳𝑼 de 𝑨 2 Sistemas de Ecuaciones Lineales

1 0 0
𝐿=[ 2 1 0]
−3 4 1
Al multiplicar 𝐿 por 𝑈 se obtiene la matriz 𝐴.

Se recogen a continuación dos resultados interesantes asociados a la existencia de 𝐿𝑈.

Proposición 2.10
Enunciado: Si la matriz 𝐴 admite 𝐿𝑈 entonces 𝐴 es regular. (El recíproco no es cierto).
Demostración: Si 𝐴 admite 𝐿𝑈, dado que tanto 𝐿 como 𝑈 son regulares, también lo es 𝐴.
Obviamente, el reciproco no es cierto pues hay matrices regulares que no admiten 𝐿𝑈. Por ejemplo:
0 1
𝐴=[ ]
2 3

Variantes de la factorización 𝑳𝑼 de 𝑨

Si la matriz 𝐴 cumple algunas condiciones adicionales, la factorización 𝐿𝑈 conduce a otras factorizaciones


interesantes. Se presentan a continuación de manera incremental.

Factorización 𝑳𝑫𝑼′
En este caso, la matriz cuadrada 𝐴 se descompone en el producto de tres matrices: 𝐿 triangular inferior
con unos en la diagonal inferior, 𝐷 diagonal con los pivots en la diagonal principal, y 𝑈 ′ triangular superior
con unos en la diagonal principal:
𝐴 = 𝐿𝐷𝑈 ′
siendo
1 0 ⋯ 0 𝑢11 0 ⋯ 0 1 ∗ ⋯ ∗
∗ 1 0 0 𝑢22 0 0 1 ∗
𝐿= 𝐷= 𝑈′ =
⋮ ⋱ ⋮ ⋮ ⋱ ⋮ ⋮ ⋱ ⋮
[ ∗ ∗ ⋯ 1 ] [ 0 0 ⋯ 𝑢𝑛𝑛 ] [0 0 ⋯ 1]
con 𝑢𝑖𝑖 > 0 ∀ 𝑖. Nótese que 𝐷 y 𝑈 ′ son también regulares.
Condición de existencia: La matriz 𝐴 admite 𝐿𝑈.
Método de cálculo: Se calcula en primer lugar la 𝐿𝑈. Nótese que, por ser 𝐷 regular:
𝐴 = 𝐿𝑈 = 𝐿𝐼𝑈 = 𝐿(𝐷𝐷 −1 )𝑈 = 𝐿𝐷(𝐷 −1 𝑈) = 𝐿𝐷𝑈 ′ → 𝑈 ′ = 𝐷 −1 𝑈
Es muy fácil probar que 𝑈 ′ es triangular superior con unos en la diagonal principal. Una manera rápida de
encontrar 𝑈 ′ consiste en dividir cada fila de 𝑈 por su pívot correspondiente.

Ejemplo 2.31
Para hallar la descomposición 𝐿𝐷𝑈 ′ de la matriz 𝐴 del ejemplo anterior, se parte de las matrices 𝐿 y 𝑈 ya
obtenidas, y se construye la matriz 𝐷 con la diagonal principal de 𝑈:
3 0 0
𝐷 = [0 −2 0]
0 0 4
y la matriz 𝑈 ′ como

Suescun, Insausti, Flaquer (2022) 70 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.13 Variantes de la factorización 𝑳𝑼 de 𝑨

1/3 0 0 3 1 1 1 1/3 1/3


′ −1
𝑈 =𝐷 𝑈=[ 0 −1/2 0 ][ 0 −2 2] = [ 0 1 −1 ]
0 0 1/4 0 0 4 0 0 1
Nótese el efecto de premultiplicar por 𝐷 −1 : cada fila de 𝑈 se ha dividido por su pívot correspondiente.

Factorización 𝑳𝑫𝑳𝑻
Cuando una matriz es simétrica y admite 𝐿𝑈, y por tanto 𝐿𝐷𝑈 ′ , es muy fácil probar que
𝑈 ′ = 𝐿𝑇
y por ello:
𝐴 = 𝐿𝐷𝐿𝑇
Condición de existencia: la matriz 𝐴 es simétrica y admite 𝐿𝑈.
Método de cálculo: a partir de la 𝐿𝑈 se construye 𝐷, extrayendo los pívots de la diagonal principal de 𝑈.

Ejemplo 2.32
Hallar la descomposición 𝐿𝐷𝐿𝑇 de la matriz simétrica
2 4
𝐴=[ ]
4 16
Se obtiene en primer lugar la 𝐿𝑈
2 4 2 4 1 0
𝐴=[ ]→ →[ ]=𝑈 𝐿=[ ]
4 16 𝑙21 = 2 0 8 2 1
La matriz diagonal 𝐷 es
2 0
𝐷=[ ]
0 8
Nótese que, efectivamente:
1/2 0 2 4 1 2
𝐷 −1 𝑈 = [ ][ ]=[ ] = 𝐿𝑇
0 1/8 0 8 0 1
Por lo tanto, si se hace el producto 𝐿𝐷𝐿𝑇 se obtiene 𝐴.

Variante de Cholesky 𝓛𝓛𝑻


Si una matriz 𝐴 simétrica admite 𝐿𝑈 y además todos sus pívots son positivos, entonces la matriz se puede
factorizar como el producto de dos triangulares, una traspuesta de la otra:
𝐴 = ℒℒ 𝑇
Siendo

√𝑢11 0 ⋯ 0
∗ √𝑢22 0
ℒ=
⋮ ⋱ ⋮
[ ∗ ∗ ⋯ √𝑢𝑛𝑛 ]
con 𝑢𝑖𝑖 > 0 ∀ 𝑖.
Condición de existencia: la matriz es simétrica, admite 𝐿𝑈 y todos los pívots son positivos.
Método de cálculo: Se parte de la factorización 𝐿𝐷𝐿𝑇 , que existe por ser 𝐴 simétrica y por admitir 𝐿𝑈. Al
ser los pívots positivos:

Suescun, Insausti, Flaquer (2022) 71 Tecnun-Universidad de Navarra


2.14 Aplicación de la factorización 𝑳𝑼 para resolver sistemas de Cramer 2 Sistemas de Ecuaciones Lineales

𝐴 = 𝐿𝐷𝐿𝑇 = 𝐿𝐷12 𝐿𝑇 = 𝐿(𝐷1 𝐷1 )𝐿𝑇 = (𝐿𝐷1 )(𝐷1𝑇 𝐿𝑇 ) = (𝐿𝐷1 )(𝐿𝐷1 )𝑇 = ℒℒ 𝑇


donde
ℒ = 𝐿𝐷1
es una matriz triangular inferior, en cuya diagonal principal se hallan las raíces cuadradas positivas de los
pívots de 𝐴. Nótese que, por ser los pívots positivos:

√𝑢11 0 ⋯ 0
0 √𝑢22 0
𝐷 = 𝐷12 → 𝐷1 =
⋮ ⋱ ⋮
[ 0 0 ⋯ √𝑢𝑛𝑛 ]

Ejemplo 2.33
Hallar la descomposición de Cholesky de la matriz real y simétrica del ejemplo anterior, cuyos pívots son
positivos.
A partir de las matrices 𝐿 y 𝐷 se construyen 𝐷1 y ℒ
0 0 0
𝐷1 = [ √2 ] ℒ = 𝐿𝐷1 = [ 1 0] [ √2 ] = [ √2 ]
0 √8 2 1 0 2√2 2√2 2√2
Si se hace el producto ℒℒ 𝑇 se obtiene la matriz 𝐴.

Aplicación de la factorización 𝑳𝑼 para resolver sistemas de Cramer

La factorización 𝐿𝑈 es muy útil para resolver sucesivos sistemas de ecuaciones que comparten la matriz
de coeficientes y que sólo difieren en la columna de términos independientes:
𝐴𝑥 = 𝑏1
𝐴𝑥 = 𝑏2
𝐴𝑥 = 𝑏3

Si la matriz 𝐴 admite 𝐿𝑈, las matrices 𝐿 y 𝑈 almacenarán el trabajo de eliminación de Gauss que se podrá
reaprovechar más tarde en la resolución de los sistemas.
Sea 𝐴𝑥 = 𝑏 un sistema de Cramer, con 𝐴 una matriz cuadrada que admite 𝐿𝑈:
𝐴 = 𝐿𝑈 → 𝐿𝑈𝑥 = 𝑏
Este sistema se puede descomponer en dos más sencillos:
𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
𝐿𝑦 = 𝑏 → 𝑦0
𝐿(𝑈𝑥) = 𝑏 → {
𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
𝑈𝑥 = 𝑦0 → 𝑥0
Primero se resuelve el sistema triangular inferior para encontrar 𝑦0 , y luego se resuelve el sistema
triangular superior para obtener la solución buscada 𝑥0 .
Esto se muestra en el siguiente ejemplo.

Ejemplo 2.34
Aprovechar la descomposición 𝐿𝑈 de la matriz
3 1 1
𝐴=[ 6 0 4]
−9 −11 9

Suescun, Insausti, Flaquer (2022) 72 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.15 Factorización 𝑳𝑼 de 𝑷𝑨

obtenida en ejemplo 2.28 para resolver el sistema 𝐴𝑥 = 𝑏 con


8
𝑏 = [ 18 ]
−4
Se conocen ya las matrices 𝐿 y 𝑈
1 0 0 3 1 1
𝐿=[ 2 1 0] 𝑈 = [0 −2 2]
−3 4 1 0 0 4
Por lo tanto, el sistema de ecuaciones se desdobla en dos. Se resuelve en primer lugar el triangular inferior
con una simple vuelta atrás:
𝛽1 = 8 𝛽1 = 8 8
𝐿𝑦 = 𝑏 → { 2𝛽1 + 𝛽2 = 18 → 𝛽2 = 2 → 𝑦0 = [ 2 ]
−3𝛽1 + 4𝛽2 + 𝛽3 = −4 𝛽3 = 12 12
Se resuelve ahora el sistema triangular superior, también con una vuelta atrás:
3𝛼1 + 𝛼2 + 𝛼3 = 8 𝛼1 = 1 1
𝑈𝑥 = 𝑦0 → { −2𝛼2 + 2𝛼3 = 2 → 𝛼2 = 2 → 𝑥0 = [ 2 ]
4𝛼3 = 12 𝛼3 = 3 3
𝑥0 que es la solución del sistema 𝐴𝑥 = 𝑏.

Factorización 𝑳𝑼 de 𝑷𝑨

Puede suceder que una matriz regular 𝐴 no admita factorización 𝐿𝑈, debido a que sus 𝑛 pívots no
aparecen en las posiciones debidas. En estos casos, es posible realizar una reordenación de las filas de 𝐴
mediante una matriz de permutación 𝑃, tal que la nueva matriz regular 𝑃𝐴 sí admita factorización 𝐿𝑈.
𝑃𝐴 = 𝐿𝑈
La factorización anterior se puede usar para resolver el sistema
𝐴𝑥 = 𝑏
En este caso, es necesario previamente transformarlo, multiplicando miembro a miembro por la matriz
de permutación 𝑃 que reordena las filas de 𝐴:
𝑃𝐴𝑥 = 𝑃𝑏
Y, aprovechando la descomposición 𝐿𝑈 de 𝑃𝐴, se resuelve en dos pasos:
𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
𝐿𝑦 = 𝑃𝑏 → 𝑦0
𝐿𝑈𝑥 = 𝑃𝑏 → {
𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
𝑈𝑥 = 𝑦0 → 𝑥0

Ejemplo 2.35
Resolver el sistema 𝐴𝑥 = 𝑏 siendo
0 0 1 1
𝐴 = [0 2 3] 𝑏=[5]
4 5 6 15
La matriz 𝐴 es regular pero no admite 𝐿𝑈, pues 𝑎11 = 0. Sin embargo, si se intercambiaran las filas 1 y 3
se obtendría una matriz que sí admite 𝐿𝑈. Esta reordenación se puede lograr pre-multiplicando por una
matriz de permutación (o matriz elemental de clase II):
0 0 1 0 0 1 0 0 1 4 5 6
𝑃 = [0 1 0] → 𝑃𝐴 = [0 1 0] [ 0 2 3] = [0 2 3]
1 0 0 1 0 0 4 5 6 0 0 1
Nótese que la factorización 𝐿𝑈 de 𝑃𝐴 es evidente:

Suescun, Insausti, Flaquer (2022) 73 Tecnun-Universidad de Navarra


2.16 Coste computacional de operaciones matriciales y resolución de sistemas 2 Sistemas de Ecuaciones Lineales

1 0 0 4 5 6
𝐿 = [0 1 0] 𝑈 = [0 2 3]
0 0 1 0 0 1
Por tanto, en lugar de resolver 𝐴𝑥 = 𝑏, se resuelve 𝑃𝐴𝑥 = 𝑃𝑏 en dos etapas:
𝛽1 = 15 𝛽1 = 15 15
𝐿𝑦 = 𝑃𝑏 → { 𝛽2 = 5 → 𝛽2 = 5 → 𝑦0 = [ 5 ]
𝛽3 = 1 𝛽3 = 1 1
Se resuelve ahora el sistema triangular superior, también con una vuelta atrás:
4𝛼1 + 5𝛼2 + 6𝛼3 = 15 𝛼1 = 1 1
𝑈𝑥 = 𝑦0 → { 2𝛼2 + 3𝛼3 = 5 → 𝛼2 = 1 → 𝑥0 = [ 1 ]
𝛼3 = 1 𝛼3 = 1 1

Coste computacional de operaciones matriciales y resolución de sistemas

La resolución de un determinado problema matemático en un ordenador tiene asociado un


determinado coste computacional. Este coste computacional está determinado por el número de
operaciones que se tienen que realizar en un ordenador para resolver dicho problema y, en definitiva,
es una medida del tiempo que se requiere para resolver el problema.

Se suelen distinguir las operaciones de suma y producto de números reales de las de división entre
números reales.

A continuación se muestra el coste computacional de las operaciones más habituales en álgebra lineal.

a) Suma de 𝑛 números.

Para efectuar la siguiente suma de 𝑛 números

𝛼1 + 𝛼2 + ⋯ + 𝛼𝑛−1 + 𝛼𝑛

es necesario realizar 𝑛 − 1 sumas. Cuando 𝑛 es grande, 𝑛 − 1 es del mismo orden que 𝑛 y se escribe
𝑂(𝑛) para indicar que es de orden 𝑛. El orden es lineal, lo que significa que el tiempo de cálculo es
proporcional al número de sumandos del problema. Si duplicamos el número de sumandos, se duplica
el tiempo.

b) Producto fila-columna

El producto de una fila por una columna, ambas de 𝑛 elementos, conduce a una expresión de la forma
𝛼1 𝛽1 + 𝛼2 𝛽2 + ⋯ + 𝛼𝑛−1 𝛽𝑛−1 + 𝛼𝑛 𝛽𝑛

Hacen falta 𝑛 multiplicaciones y 𝑛 − 1 sumas. Como el tiempo que requiere un microprocesador


moderno para realizar una multiplicación es muy superior al necesario para hacer una suma,
habitualmente suelen despreciarse las sumas frente a las multiplicaciones. En cualquier caso, cuando 𝑛
es grande, 𝑛 − 1 es del mismo orden que 𝑛 y el coste computacional de este problema es del orden de
𝑛 y se escribe 𝑂(𝑛). Es un problema lineal.

c) Producto de dos matrices

Sea 𝐴 una matriz de tamaño 𝑚 × 𝑝 y 𝐵 una matriz de tamaño 𝑝 × 𝑛. El producto de estas dos matrices
requiere 𝑚𝑛 productos fila-columna de tamaño 𝑝, esto es, un total de 𝑚𝑛(𝑝 − 1) sumas y 𝑚𝑛𝑝
multiplicaciones. En definitiva, el coste computacional de este problema es del orden de 𝑚𝑛𝑝. En el

Suescun, Insausti, Flaquer (2022) 74 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.16 Coste computacional de operaciones matriciales y resolución de sistemas

caso particular de que ambas matrices fueran cuadradas de orden 𝑛 (es decir, 𝑚 = 𝑝 = 𝑛), el problema
es de orden 𝑛3 y se escribe 𝑂(𝑛3 ). Se trata de un orden cúbico, lo que significa que si duplicamos el
tamaño de las matrices, el tiempo requerido para hacer la multiplicación se multiplica por ocho.

d) Resolución de un sistema de Cramer de 𝑛 ecuaciones y 𝑛 incógnitas empleando el método de


Gauss

Estudiamos en primer lugar el coste computacional de la etapa de eliminación. En la 𝑘-ésima fila de la


matriz ampliada, se necesitan (𝑛 − 𝑘) divisiones para calcular los correspondientes múltiplos de Gauss
y (𝑛 − 𝑘)(𝑛 − 𝑘 + 1) multiplicaciones y sumas para la eliminación de las (𝑛 − 𝑘) filas por debajo de la
fila 𝑘-ésima. Puesto que hay que realizar la eliminación desde la primera fila hasta la penúltima, el
número total de operaciones de la fase de eliminación es
𝑛−1
1 1 1
∑(𝑛 − 𝑘)(𝑛 − 𝑘 + 1) + (𝑛 − 𝑘) = 𝑛(𝑛2 − 1) + 𝑛(𝑛 − 1) ≈ 𝑛3
3 2 3
𝑘=1

Estudiamos en segundo lugar la etapa de vuelta atrás. Para esta etapa son necesarias 𝑛 divisiones y

1 1
1 + 2 + 3 + ⋯ + (𝑛 − 1) = 𝑛(𝑛 − 1) ≈ 𝑛2
2 2
1 1
sumas y multiplicaciones. Como para 𝑛 grande 𝑛3 ≫ 𝑛2 , el coste computacional de resolver un
3 2
1
sistema de Cramer con el método de Gauss es aproximadamente 𝑛3 . Por tanto, es un problema cúbico
3
y de orden 𝑂(𝑛3 ).

e) Resolución de un sistema de Cramer de 𝑛 ecuaciones y 𝑛 incógnitas empleando el método de


Gauss-Jordan

Para el método de Gauss-Jordan necesitamos realizar en primer lugar la etapa de eliminación Gaussiana.
Para la eliminación Gaussiana hacia atrás, en la la 𝑘-ésima fila (comenzando a contar desde la última
fila) se necesitan (𝑛 − 𝑘) divisiones para obtener los múltiplos de Gauss y, a continuación, (𝑛 − 𝑘)
multiplicaciones y sumas. Por último, se necesitan 𝑛 divisiones para normalizar los pívots. Esto hace un
total de

1 1 1
𝑛(𝑛2 − 1) + 𝑛(𝑛 − 1) + 𝑛(𝑛 − 1) + 𝑛 ≈ 𝑛3
3 2 3

El problema vuelve a ser cúbico, de orden𝑂(𝑛3 ), pero comparado con el método de Gauss el método
de Gauss-Jordan es algo más lento.

f) Método de Gauss-Jordan para invertir una matriz regular de orden 𝑛

El número de operaciónes necesarias para la inversión de una matriz empleando el método de Gauss-
Jordan se calcula de forma similar a si resolvemos un sistema de ecuaciones con este método. La única
diferencia, es que en lugar de tener una columna de términos independientes, tenemos 𝑛 columnas.
Por tanto, en la 𝑘-ésima fila de la eliminación Gaussiana, se necesitan (𝑛 − 𝑘) divisiones para calcular
los correspondientes múltiplos de Gauss y (𝑛 − 𝑘)(2𝑛 − 𝑘) multiplicaciones y sumas para la
eliminación de las (𝑛 − 𝑘) filas por debajo de la fila 𝑘-ésima. Esto da un total de
𝑛−1
−7𝑛3 + 6𝑛2 + 𝑛 1 5
∑(𝑛 − 𝑘)(2𝑛 − 𝑘) + (𝑛 − 𝑘) = 2𝑛2 (𝑛 − 1) + + 𝑛(𝑛 − 1) ≈ 𝑛3
6 2 6
𝑘=1
operaciones. Para la eliminación Gaussiana hacia atrás, en la la 𝑘-ésima fila (comenzando a contar desde
la última fila) se necesitan (𝑛 − 𝑘) divisiones para obtener los múltiplos de Gauss y, a continuación,

Suescun, Insausti, Flaquer (2022) 75 Tecnun-Universidad de Navarra


2.16 Coste computacional de operaciones matriciales y resolución de sistemas 2 Sistemas de Ecuaciones Lineales

𝑛(𝑛 − 𝑘) multiplicaciones y sumas. Por último, se necesitan 𝑛2 divisiones para normalizar los pívots.
Esto hace un total de
𝑛−1
1 1 1
𝑛2 + ∑(𝑛 − 𝑘) + 𝑛(𝑛 − 𝑘) = 𝑛2 + 𝑛(𝑛 − 1) + 𝑛2 (𝑛 − 1) ≈ 𝑛3
2 2 2
𝑘=1
operaciones. Por tanto, el método de Gauss-Jordan para invertir una matriz regular de orden 𝑛 requiere
4
aproximadamente 𝑛3 operaciones. Por tanto, también es un problema cúbico y de orden 𝑂(𝑛3 ).
3

Ejemplo 2.36
Supongamos que necesitan resolverse 𝑠 sistemas de ecuaciones de Cramer de 𝑛 ecuaciones y 𝑛
incógnitas, todos ellos con la misma matriz de coeficientes pero con distintas matrices de términos
independientes. Si se emplea el método de Gauss 𝑠 veces, el número total de operaciones que habría que
1
hacer es aproximadamente 𝑠𝑛3 . Por el contrario, si se realiza la factorización 𝐿𝑈 de la matriz de
3
coeficientes y se resuelven los sistemas triangulares correspondientes, el número total de operaciónes
1
sería aproximadamente 𝑛3 + 𝑠𝑛2 , que es una cantidad significativamente menor para 𝑠 grande.
3

Suescun, Insausti, Flaquer (2022) 76 Tecnun-Universidad de Navarra


Ejemplos de aplicación

Ejemplo de aplicación 2.1


Se recuerda que la población de insectos del Ejemplo de aplicación 1.1 en el minuto 𝑘 + 1 en función de
la población en el minuto 𝑘 sigue la ley
𝑥 (𝑘+1) = 𝑀𝑥 (𝑘)
donde
0.4 0 0 0.2
0 0.4 0.3 0.2
𝑀=[ ]
0 0.3 0.4 0.2
0.6 0.3 0.3 0.4
Si en un minuto dado (a partir del primer minuto) la población de insectos en las cámaras #1, #2, #3, #4,
es de 20, 18, 18, 44 insectos, respectivamente, ¿cuál habrá sido la población de insectos en el minuto
anterior?
Evidentemente hay que resolver el sistema de ecuaciones
0.4 0 0 0.2 𝑥1 20
0 0.4 0.3 0.2 𝑥2 18
[ ][ ] = [ ]
0 0.3 0.4 0.2 𝑥3 18
0.6 0.3 0.3 0.4 𝑥4 44
obteniendo como resultado la población
𝑥1 = 40 𝑥2 = 𝑥3 = 𝑥4 = 20

Ejemplo de aplicación 2.2 ( adaptado de C. Moler 5)


El Page Rank de Google mide la importancia relativa de una página de la web respecto de las demás,
clasificando las páginas de la red de menor a mayor importancia (entre cero y uno).
La importancia de una página en la red se mide por el número de enlaces que apuntan a ese lugar
promediado por la importancia de cada enlace.
Construimos una matriz 𝐺 de conectividad, donde 𝑔𝑖𝑗 = 1 si la página 𝑖 es referenciada por la página 𝑗 y
𝑔𝑖𝑗 = 0 en caso contrario. Suponiendo la existencia de n páginas conectadas en la red y denotando con
𝑐𝑗 = ∑𝑛𝑖=1 𝑔𝑖𝑗 , entonces el cociente 𝑎𝑖𝑗 = 𝑔𝑖𝑗 /𝑐𝑗 da la probabilidad de alcanzar la página 𝑖 desde la página
𝑗. Si denotamos con 𝛼1 , 𝛼2 , … , 𝛼𝑛 el valor de cada página, entonces
𝑎𝑖𝑗 𝛼𝑗
es el valor que aporta la página 𝑗 a la página 𝑖, de modo que
𝛼𝑖 = 𝑎𝑖1 𝛼1 + 𝑎𝑖2 𝛼2 + ⋯ +𝑎𝑖𝑗 𝛼𝑗 + ⋯ 𝑎𝑖𝑛 𝛼𝑛 , 𝑖 = 1,2, … , 𝑛
En notación matricial
𝛼1 𝑎11 𝑎12 … 𝑎1𝑛 𝛼1
𝛼2 𝑎21 𝑎22 … 𝑎2𝑛 𝛼2
[…] = [ … … … … ][…]
𝛼𝑛 𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 𝛼𝑛
o bien
𝑥 = 𝐴𝑥

5 Moler, C. Experiments with MATLAB. Chapter 7: Google PageRank. MathWorks, Inc., 2011.
https://www.mathworks.com/help/matlab/examples/use-page-rank-algorithm-to-rank-websites.html
https://www.mathworks.com/content/dam/mathworks/mathworks-dot-com/moler/exm/chapters/pagerank.pdf

Suescun, Insausti, Flaquer (2022) 77 Tecnun-Universidad de Navarra


2.17 Ejemplos de aplicación 2 Sistemas de Ecuaciones Lineales

La matriz 𝐴 vuelve a ser una matriz de Markov. La suma de los elementos de cada columna vale la unidad
y todos sus elementos son positivos. El teorema de Perron-Frobenius garantiza la existencia de una
solución formada por coeficientes positivos, la cual es única si se añade la condición
𝑛

∑ 𝛼𝑖 = 1
𝑖=1

Estos valores de 𝛼𝑖 permiten ordenar las páginas por su importancia relativa.


Un ejemplo numérico concreto se muestra en la figura siguiente, donde las flechas indican los enlaces de
una página hacia otras.

#1 #2

#3

#4 #5

La matriz de conectividad correspondiente es


0 1 0 0 0
0 0 1 0 0
𝐺= 1 0 0 1 0
1 0 1 0 1
[0 1 1 0 0]
Dividiendo cada columna por su suma, se tiene
0 1/2 0 0 0
0 0 1/3 0 0
𝐴 = 1/2 0 0 1 0
1/2 0 1/3 0 1
[ 0 1/2 1/3 0 0]
La resolución del sistema compatible indeterminado
𝑥 = 𝐴𝑥
es equivalente al sistema homogéneo
(𝐼 − 𝐴)𝑥 = 0
y da como soluciones
𝛼1 = 0.1116𝜀
𝛼2 = 0.2233𝜀
𝛼3 = 0.6698𝜀
𝛼4 = 0.6140𝜀
𝛼5 = 0.3349𝜀
Imponiendo la condición ∑4𝑖=1 𝛼𝑖 = 1 se obtiene definitivamente
𝛼1 = 0.0571
𝛼2 = 0.1143
𝛼3 = 0.3429

Suescun, Insausti, Flaquer (2022) 78 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.17 Ejemplos de aplicación

𝛼4 = 0.3143
𝛼5 = 0.1714
por lo que el orden de las páginas de la red, de mayor a menor importancia, es #3, #4, #5, #2, #1.

Ejemplo de aplicación 2.3 ( adaptado de J. Flaquer con planteamiento de Strang 6)


Se trata de resolver el circuito eléctrico de corriente continua de la figura, formado por cinco resistencias
𝑅1 , 𝑅2 , 𝑅3 , 𝑅4 , 𝑅5 , una fuente de tensión 𝑉 y un generador de intensidad 𝐼.

Nodo 1 𝑅2 Nodo 2 𝑅3 Nodo 3

𝐼2 , 𝑉2 𝐼3 , 𝑉3

𝐼1 , 𝑉1 𝐼4 , 𝑉4 +
𝑅1 𝐼 𝑅4 𝑉

𝐼5 , 𝑉5

Nodo 0 𝑅5

Las incógnitas son los potenciales 𝑥1 , 𝑥2 , 𝑥3 en cada nodo y las intensidades de corriente 𝐼1 , 𝐼2 , 𝐼3 , 𝐼4 , 𝐼5 que
circulan por las resistencias. Las caídas de potencial 𝑉1 , 𝑉2 , 𝑉3 , 𝑉4 , 𝑉5 en cada una de ellas se calcularán a
partir de las corrientes aplicando la Ley de Ohm.
Se asume que el nodo 0 está conectado a tierra, i.e. su potencial es 𝑥0 = 0, aunque por generalidad se
incluirá en la deducción de las ecuaciones.
Se tiene que:
𝑉1 = 𝑥1 − 𝑥0 𝑉1 0 1 −1 0 0 𝑥
0
𝑉2 = 𝑥2 − 𝑥1 𝑉2 0 0 1 −1 0 𝑥
1
𝑉3 = 𝑥3 − 𝑥2 → 𝑉3 = 0 − 0 0 1 −1 [𝑥 ] → 𝑒 = 𝑏 − 𝐴𝑥
2
𝑉4 = 𝑥2 − 𝑥0 𝑉4 0 1 0 −1 0 𝑥
3
{ 𝑉5 = 𝑉 + 𝑥0 − 𝑥3 [ 𝑉5 ] [ 𝑉 ] [−1 0 0 1]
La columna 𝑒 almacena las caídas de potencial en cada resistencia, la columna 𝑏 guarda las fuentes de
tensión en serie con cada resistencia y la matriz 𝐴, llamada matriz de incidencia, almacena la topología
de la red.
La matriz de incidencia tiene tantas filas como ramas (resistencias) y tantas columnas como nodos. Esta
matriz se construye de la siguiente manera: si la rama 𝑘 sale del nodo 𝑖 y llega al nodo 𝑗, entonces 𝑎𝑘𝑖 =
−1 y 𝑎𝑘𝑗 = 1. El signo lo determina el sentido de la corriente en la figura.
Aplicando la Ley de Ohm se tiene

𝐼1 = 𝑉1 /𝑅1 𝐼1 𝑅1−1 0 0 0 0 𝑉1
𝐼2 = 𝑉2 /𝑅2 𝐼2 0 𝑅2−1 0 0 0 𝑉2
𝐼3 = 𝑉3 /𝑅3 → 𝐼3 = 0 0 𝑅3−1 0 0 𝑉3 → 𝑦 = 𝐶𝑒
𝐼4 = 𝑉4 /𝑅4 𝐼4 0 0 0 𝑅4−1 0 𝑉4
{ 𝐼5 = 𝑉5 /𝑅5 [ 𝐼5 ] [ 0 0 0 0 𝑅5−1 ] [ 𝑉5 ]

6 G. Strang, P.-O. Persson, “Circuit Simulation and Moving Mesh Generation”, Proc. of Int. Symp. on Comm. and
Inform. Tech. 2004 (ISCIT 2004), October 2004.

Suescun, Insausti, Flaquer (2022) 79 Tecnun-Universidad de Navarra


2.17 Ejemplos de aplicación 2 Sistemas de Ecuaciones Lineales

donde la columna 𝑦 almacena las corrientes que circulan por cada resistencia y la matriz 𝐶, llamada matriz
de conductancia, es una matriz diagonal que guarda los inversos de la resistencias de cada rama.
Teniendo en cuenta la expresión de 𝑒 calculada anteriormente:
𝑦 = 𝐶𝑒 = 𝐶(𝑏 − 𝐴𝑥)
Aplicando la Ley de Kirchoff de la suma de corrientes en cada nodo (corrientes entrantes positivas,
corrientes salientes negativas), aparece de nuevo la matriz de incidencia 𝐴:
𝐼1
Nodo 0: 𝐼1 + 𝐼4 − 𝐼5 − 𝐼 =0 1 0 0 1 −1 𝐼 𝐼
2
Nodo 1: −𝐼1 + 𝐼2 =0 −1 1 0 0 0 0
{ → [ ] 𝐼3 = [ ] → 𝐴𝑇 𝑦 = 𝑓
Nodo 2: −𝐼2 + 𝐼3 − 𝐼4 + 𝐼 =0 0 −1 1 −1 0 −𝐼
𝐼4
Nodo 3: −𝐼3 + 𝐼5 =0 0 0 −1 0 1 0
[ 𝐼5 ]
donde la columna 𝑓 almacena las fuentes de corriente de la red que llegan (negativas) a cada nodo o salen
(positivas) de cada nodo.
Resumiendo, se han obtenido las siguientes ecuaciones que deben resolverse conjuntamente para
obtener los potenciales en los nodos (𝑥) y las intensidades en cada rama (𝑦)
𝑦 = 𝐶(𝑏 − 𝐴𝑥)
{ 𝑇
𝐴 𝑦=𝑓
Hay dos maneras de plantear la resolución:
1) Primero se obtiene 𝑥 y a continuación 𝑦:
𝐴𝑇 ⏟
𝐶(𝑏 − 𝐴𝑥) = 𝑓 → 𝐴𝑇 𝐶𝑏 − 𝐴𝑇 𝐶𝐴𝑥 = 𝑓 → 𝐴𝑇 𝐶𝐴𝑥 = 𝐴𝑇 𝐶𝑏 − 𝑓 ⇒ 𝑥
𝑦

𝑥 → 𝑦 = 𝐶(𝑏 − 𝐴𝑥) ⇒ 𝑦
2) Resolución conjunta:
𝐶 −1 𝑦 = 𝑏 − 𝐴𝑥 𝐶 −1 𝑦 + 𝐴𝑥 = 𝑏 𝐶 −1 𝐴 𝑦 𝑏
{ → { → [ ][ ]=[ ] ⇒ 𝑥, 𝑦
𝑇 𝑇 𝑓
𝐴 𝑦=𝑓 𝐴 𝑦 =𝑓 𝐴𝑇 0 𝑥
En ambos casos se llega a un sistema compatible indeterminado (la matriz 𝐴 es de rango 3, o dicho de
otro modo, 𝐴𝑇 𝐶𝐴 solo dará 3 pívots al aplicar el método de Gauss). Imponiendo la condición 𝑥0 = 0 se
determina la solución final.
Ejemplo numérico:
Tomemos los siguientes valores para el circuito de la figura anterior
𝑅1 = 1Ω, 𝑅2 = 2Ω, 𝑅3 = 3Ω, 𝑅4 = 4Ω, 𝑅5 = 5Ω
𝑉 = 10𝑉, 𝐼 = 2𝐴
Se plantea el sistema, que resultar ser indeterminado: nótese que la última ecuación es la suma de las
otras tres, cambiada de signo.
1.4500 −1.0000 −0.2500 −0.2000 𝑥0 −4
𝑇 𝑇 −1.0000 1.5000 −0.5000 0.0000 𝑥1 0
𝐴 𝐶𝐴𝑥 = 𝐴 𝐶𝑏 − 𝑓 → [ ][ ] = [ ]
−0.2500 −0.5000 1.0833 −0.3333 𝑥2 2
−0.2000 0.0000 −0.3333 0.5333 𝑥3 2
Se resuelve imponiendo 𝑥0 = 0. Para ello, se descartan la primera columna de la matriz y la incógnita 𝑥0 .
Ahora el sistema es compatible determinado:
−1.0000 −0.2500 −0.2000 𝑥 −4 𝑥0 0
1
1.5000 −0.5000 0.0000 𝑥 0 𝑥1 1.5294
[ ] [ 2] = [ ] ⇒ 𝑥 = [𝑥 ] = [ ]
−0.5000 1.0833 −0.3333 𝑥 2 2 4.5882
3
0.0000 −0.3333 0.5333 2 𝑥3 6.6176

Y las intensidades en cada resistencia, quedan:

Suescun, Insausti, Flaquer (2022) 80 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.17 Ejemplos de aplicación

𝐼1 1.5294
𝐼2 1.5294
𝑦 = 𝐶(𝑏 − 𝐴𝑥) ⇒ 𝑦 = 𝐼3 = 0.6765
𝐼4 1.1471
[ 𝐼5 ] [ 0.6765 ]
Nótese que se cumple, obviamente, que 𝐼1 = 𝐼2 y que 𝐼3 = 𝐼5 .

Suescun, Insausti, Flaquer (2022) 81 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

Ejercicios resueltos

Ejercicio 2.1
Se conoce que 𝑥1 es una solución del sistema de ecuaciones 𝐴𝑥 = 𝑏 y que 𝑥2 es una solución del sistema
𝐴𝑥 = 2𝑏. Se pide hallar una solución del sistema homogéneo asociado 𝐴𝑥 = 0.

Solución
Por una parte, se sabe que la columna 𝑥1 cumple que:
𝐴𝑥1 = 𝑏 → 2𝐴𝑥1 = 2𝑏 → 𝐴(2𝑥1 ) = 2𝑏
Por otra parte, la columna 𝑥2 cumple que:
𝐴𝑥2 = 2𝑏
Restando miembro a miembro:
𝐴(2𝑥1 − 𝑥2 ) = 0
De donde se deduce que la columna
𝑥ℎ = 2𝑥1 − 𝑥2
es una solución de la ecuación homogénea 𝐴𝑥 = 0

Ejercicio 2.2
Si la ecuación 𝐴𝑥 = 𝑏 posee solución única, ¿puede suceder que la ecuación 𝐴𝑥 = 𝑏1 posea más de una
solución?

Solución
No es posible. Recuérdese la estructura del conjunto de soluciones de una ecuación general compatible:
𝑆𝑔 = 𝑥0 + 𝑆ℎ
La existencia de más de una solución (en caso de que exista al menos una) no depende de cuál sea la
columna de términos independientes; sólo depende de 𝑆ℎ , que a su vez depende exclusivamente de 𝐴.

Ejercicio 2.3
Dado el sistema representado por la ecuación 𝐴𝑥 = 𝑏, donde 𝐴 es una matriz de tamaño 𝑚 × 𝑛, ¿qué
significa, para la matriz 𝐴 del sistema y para el propio sistema, que existan a la vez la inversa por la
izquierda 𝐿 y la inversa por la derecha 𝑅 de 𝐴?

Solución
Sobre la matriz 𝐴𝑚×𝑛 se deduce que:
▪ Es cuadrada (𝑚 = 𝑛)
▪ Es regular (∃! 𝐴−1 = 𝐿 = 𝑅)
▪ Su rango es 𝑛
Sobre el sistema de ecuaciones 𝐴𝑥 = 𝑏:
▪ Es un sistema de Cramer
▪ Es un sistema compatible determinado
▪ Su solución es única y vale 𝑥0 = 𝐴−1 𝑏
▪ En la fase de eliminación del método de Gauss se obtendrán 𝑛 pívots

Ejercicio 2.4
Hallar el fallo del siguiente razonamiento: “Suponiendo que son ciertas las dos afirmaciones siguientes:

Suescun, Insausti, Flaquer (2022) 82 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.18 Ejercicios resueltos

▪ La ecuación matricial 𝐴𝑥 = 𝑏 es incompatible


▪ La matriz 𝐿 es una inversa por la izquierda de 𝐴
entonces la columna 𝑥 = 𝐿𝑏 es una solución de 𝐴𝑥 = 𝑏 según se deduce de
𝐴𝑥 = 𝑏 → 𝐿(𝐴𝑥) = 𝐿𝑏 → (𝐿𝐴)𝑥 = 𝐿𝑏 → 𝐼𝑥 = 𝐿𝑏 → 𝑥 = 𝐿𝑏"

Solución
Si 𝐴𝑥 = 𝑏 es incompatible significa que la identidad no se cumple para ninguna columna 𝑥. Por tanto, no
se puede tomar esa ecuación como punto de partida de posteriores identidades.

Ejercicio 2.5
Resuelva el siguiente sistema de ecuaciones usando el método de Gauss:
𝛼1 − 2𝛼2 + 3𝛼3 − 4𝛼4 = 4
𝛼2 − 𝛼3 + 𝛼4 = −3
{
𝛼1 + 3𝛼2 − 3𝛼4 = 1
−7𝛼2 + 3𝛼3 − 𝛼4 = 1

Solución
Etapa de eliminación del método de Gauss. Partiendo de la matriz ampliada y usando operaciones
elementales por filas se tiene:
1 −2 3 −4 4 1 −2 3 −4 4
0 1 −1 1 −3 0 1 −1 1 −3
[𝐴 𝑏] → [ | ]~[ | ]
1 3 0 −3 1 0 5 −3 1 −3
0 −7 3 −1 1 0 −7 3 −1 1
1 −2 3 −4 4 1 −2 3 −4 4
0 1 −1 1 −3 0 1 −1 1 −3
~[ | ]~[ | ]
0 0 2 −4 12 0 0 2 −4 12
0 0 −4 6 −20 0 0 0 −2 4
Etapa de sustitución hacia atrás del método de Gauss. Partiendo del sistema ya escalonado, se despeja de
la cuarta ecuación la cuarta incógnita, de la tercera ecuación la tercera incógnita, y así sucesivamente
hasta despejar 𝛼1 :
1
𝛼4 = −24 = −2 𝛼1 = −8
1
𝛼3 = (12 + 4𝛼4 ) = 2 𝛼2 = 1
2 →
𝛼2 = −3 + 𝛼3 − 𝛼4 = 1 𝛼3 = 2
𝛼1 = 4 + 2𝛼2 − 3𝛼3 + 4𝛼4 = −8 { 𝛼4 = −2

Ejercicio 2.6
Resuelva el ejercicio 2.5 usando el método de Gauss-Jordan.

Solución
Reaprovechando el resultado de la etapa de eliminación, se prosigue normalizando los pívots
1 −2 3 −4 4 1 −2 3 −4 4
0 1 −1 1 −3 0 1 −1 1 −3
[𝐴 𝑏] → ⋯ → [ | ]~[ | ]
0 0 2 −4 12 0 0 1 −2 6
0 0 0 −2 4 0 0 0 1 −2
y se elimina por encima de éstos, comenzando por el último pívot:
1 −2 3 0 −4 1 −2 0 0 −10
0 1 −1 0 −1 0 1 0 0 1
~[ | ]~[ | ]
0 0 1 0 2 0 0 1 0 2
0 0 0 1 −2 0 0 0 1 −2

Suescun, Insausti, Flaquer (2022) 83 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

1 0 0 0 −8 𝛼1 = −8
0 1 0 0 1 𝛼 = 1
~[ | ] → [𝐼 𝑥0 ] → { 2
0 0 1 0 2 𝛼3 = 2
0 0 0 1 −2 𝛼4 = −2

Ejercicio 2.7
Discútase y resuélvase, en el cuerpo de los números reales, el siguiente sistema de ecuaciones lineales
que depende del parámetro real 𝑎:
𝑎2 𝛼1 + 𝑎𝛼2 + 𝛼3 = 1
{ 𝛼1 + 𝑎𝛼2 + 𝛼3 = 𝑎
2
𝛼1 + 𝑎𝛼2 + 𝑎 𝛼3 = 1

Solución
En general, dando valores a los parámetros de un sistema se obtienen sistemas numéricamente
diferentes, por lo que es lógico pensar que las soluciones dependerán de los valores de tales parámetros,
y de ahí que haga falta una discusión sistemática de aquellos valores que hacen que el sistema sea
compatible, y de entre estos, una discusión de los que hacen que el sistema sea determinado.
En realidad, las tareas de discusión de un sistema y de su resolución están estrechamente relacionadas:
en la propia resolución del sistema se efectúa la discusión, debido a la necesidad de que los pívots
utilizados sean no nulos.
Puede ocurrir que el mejor candidato a pívot sea un elemento dependiente de los parámetros del sistema
por lo que será necesario discutir previamente qué le ocurre al sistema cuando el elemento candidato es
nulo (i.e. no es un pívot). Una vez analizado ese caso, el candidato es un pívot válido (i.e. no nulo) y se
puede continuar con la eliminación.
En este problema se parte de la matriz ampliada y se procede mediante operaciones elementales por filas,
seleccionando pívots que no dependan del parámetro (en la medida que ello sea posible). Si el pívot
seleccionado depende del parámetro, habrá que estudiar por separado para que valores del parámetro
se anula, estudiando que le ocurre al sistema cuando el elemento se anula y cuando no:
𝑎2 𝑎 1 1 1 𝑎 1 𝑎
[𝐴 𝑏] → [ 1 𝑎 1 | 𝑎] ~ [𝑎2 𝑎 1 | 1]
1 𝑎 𝑎2 1 1 𝑎 𝑎2 1
1 𝑎 1 𝑎 1 𝑎 1 𝑎
~ [0 𝑎 − 𝑎3 1 − 𝑎 2 | 1 − 𝑎 3 ] ~ [0 𝑎(1 − 𝑎2 ) 1 − 𝑎2 | 1 − 𝑎3 ]
0 0 𝑎2 − 1 1 − 𝑎 0 0 𝑎2 − 1 1 − 𝑎
Obsérvese que según el valor de 𝑎, el sistema de ecuaciones presenta uno, dos o tres pívots:
Si 𝑎 = 1, el sistema es compatible indeterminado. Sustituyendo 𝑎 por su valor, se obtiene un solo pívot.
Por lo tanto, se pueden elegir dos de las incógnitas, en este caso 𝛼2 y 𝛼3 , como parámetros
independientes y resolver la restante en función de estos parámetros:
1 1 1 1 𝛼1 = 1 − 𝜀1 − 𝜀2
[0 0 0| 0 ] → { 𝛼2 = 𝜀1
0 0 0 0 𝛼3 = 𝜀2
Si 𝑎 = −1, el sistema se vuelve incompatible. Esto se observa claramente en la 2ª y 3ª filas, que
representan ecuaciones sin solución:
1 −1 1 −1
[0 0 0| 2 ] → ∄ 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
0 0 0 2
Del mismo modo, si 𝑎 = 0, el sistema se vuelve también incompatible:
1 0 1 0 1 0 1 0
[0 0 1 | 1] ~ [ 0 0 1 | 1] → ∄ 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
0 0 −1 1 0 0 0 2

Suescun, Insausti, Flaquer (2022) 84 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.18 Ejercicios resueltos

Finalmente, si 𝑎 ∉ {−1, 0, 1} el sistema posee tres pívots y es por consiguiente compatible determinado.
La solución única es en este caso dependiente del parámetro 𝑎 y se obtiene mediante sustitución hacia
atrás:
−1
𝛼1 =
1+𝑎
1 𝑎 1 𝑎
2 − 𝑎 − 𝑎3
[0 𝑎(1 − 𝑎2 ) 1 − 𝑎2 | 1 − 𝑎3 ] → 𝛼2 =
𝑎(1 − 𝑎2 )
0 0 𝑎2 − 1 1 − 𝑎
−1
{ 𝛼3 = 1 + 𝑎
Es lógico que las incógnitas primera y tercera tomen los mismos valores por la "simetría" del problema
respecto de esas incógnitas.

Ejercicio 2.8
Discutir y resolver, usando la eliminación Gaussiana, el siguiente sistema homogéneo de tres ecuaciones
y tres incógnitas, dependiente del parámetro real 𝑎 distinto de cero:

𝑎 𝛼2 + 𝑎 2 𝛼3 = 0
1
𝛼 + 𝑎 𝛼3 = 0
𝑎 1
1 1
{ 𝑎2 𝛼1 + 𝛼
𝑎 2
= 0

Solución
Al ser 𝑎 ≠ 0, las filas 2ª y 3ª de la matriz del sistema pueden multiplicarse por 𝑎 y 𝑎2 , respectivamente,
así como la fila 1ª puede ser dividida por 𝑎
0 𝑎 𝑎2 0 1 𝑎 1 𝑎 0 1 𝑎 0
[ 1/a 0 𝑎 ] ~ [1 0 𝑎2 ] ~ [1 0 𝑎2 ] ~ [0 −𝑎 𝑎2 ]
1/𝑎2 1/a 0 1 𝑎 0 0 1 𝑎 0 1 𝑎
1 𝑎 0 1 𝑎 0 𝛼1 = 0
~ [0 1 −𝑎] ~ [0 1 −𝑎] { 𝛼2 = 0
⟶ 𝛼 =0
0 1 𝑎 0 0 2𝑎 3

Siendo 𝑎 distinto de cero, el sistema es compatible determinado con solución nula.


Nótese que al ser nula, la columna de términos independientes se ha suprimido por simplicidad.

Ejercicio 2.9
Discutir y resolver cuando proceda el siguiente sistema de ecuaciones lineales en función de los valores
del parámetro real 𝑎:
𝑎𝛼1 + 𝛼2 + 𝛼3 = 2𝑎
{ 𝛼1 + 𝑎𝛼2 + 𝛼3 = 1
𝛼1 + 𝛼2 + 𝑎𝛼3 = 3

Solución (Primer procedimiento)


Se plantea la matriz ampliada [𝐴 𝑏] y se realiza el proceso de eliminación gaussiana
𝑎 1 1 2𝑎 1 𝑎 1 1
[𝐴 𝑏] ~ [1 𝑎 1 | 1 ] ~ [𝑎 1 1|2𝑎 ]
1 1 𝑎 3 1 1 𝑎 3
Nótese que 𝑎 sólo puede funcionar como pívot si es no nulo. En lugar de analizar qué ocurre cuando 𝑎 es
o no nulo, se han intercambiado las filas 1ª y 2ª para comenzar con un pívot de valor unidad:
1 𝑎 1 1 1 𝑎 1 1 1 𝑎 1 1
~ [𝑎 1 1|2𝑎] ~ [0 1 − 𝑎2 1 − 𝑎 | 𝑎 ] ~ [0 1−𝑎 𝑎 − 1 | 2]
1 1 𝑎 3 0 1−𝑎 𝑎−1 2 0 1 − 𝑎2 1−𝑎 𝑎

Suescun, Insausti, Flaquer (2022) 85 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

Para continuar con la eliminación es necesario distinguir entre los posibles valores de 𝑎 que hacen cero o
distinto de cero a 1 − 𝑎.
Por un lado, si 𝑎 = 1, el sistema es incompatible:
1 1 1 1
~ [0 0 0 | 2] → ∄ 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
0 0 0 1
Por el contrario, si 𝑎 ≠ 1 el proceso de eliminación puede continuar con (1 − 𝑎) como nuevo pívot. Para
facilitar los cálculos, se dividen las filas 2ª y 3ª por (1 − 𝑎), que es no nulo, y se continúa eliminando:
1 𝑎 1 1 1 𝑎 1 1 1 𝑎 1 1
[0 1−𝑎 𝑎 − 1 | 2] ~ [0 1 −1|2/(1 − 𝑎)] ~ [0 1 −1 | 2/(1 − 𝑎) ]
0 1 − 𝑎2 1−𝑎 𝑎 0 1+𝑎 1 𝑎/(1 − 𝑎) 0 0 𝑎 + 2 −(𝑎 + 2)/(1 − 𝑎)
De nuevo, para continuar con la eliminación es necesario distinguir entre los posibles valores de 𝑎.
Por un lado, si 𝑎 = −2, el sistema es compatible indeterminado
1 −2 1 1 𝛼1 = 7/3 + 𝜀
~ [0 1 −1|2/3] → { 𝛼2 = 2/3 + 𝜀 ( ∀𝜀 ∈ 𝑅)
0 0 0 0 𝛼3 = 𝜀
Si 𝑎 ≠ −2 y 𝑎 ≠ 1, la eliminación puede continuar. Como antes, conviene dividir la 3ª fila por (𝑎 + 2),
que es no nulo, para simplificar la ecuación. Así mismo, para agilizar la resolución, se continúa según el
método de Gauss-Jordan, formando ceros por encima de los pívots.

1 𝑎 1 1 1 𝑎 0 (2 − 𝑎)/(1 − 𝑎)
[0 1 −1 | 2/(1 − 𝑎) ] ~ [0 1 0| 1/(1 − 𝑎) ]
0 0 1 −1/(1 − 𝑎) 0 0 1 −1/(1 − 𝑎)
1 0 0 2 𝛼1 = 2
~ [0 1 0| 1/(1 − 𝑎) ] → { 𝛼2 = 1/(1 − 𝑎)
0 0 1 −1/(1 − 𝑎) 𝛼3 = −1/(1 − 𝑎)

Solución (Segundo procedimiento)


Nótese la siguiente característica de la matriz del sistema ampliada: al sumar a la primera fila de la matriz
ampliada las otras dos se obtiene una fila resultado en la que aparece el factor 𝑎 + 2.
𝑎 1 1 2𝑎 𝑎+2 𝑎+2 𝑎 + 2 2(𝑎 + 2)
[𝐴 𝑏]~ [1 𝑎 1| 1 ] ~ [ 1 𝑎 1 | 1 ]
1 1 𝑎 3 1 1 𝑎 3
Se discute ahora si (𝑎 + 2) es o no es cero. Si 𝑎 = −2, el sistema es compatible indeterminado:
0 0 0 0 0 0 0 0 𝛼1 = 7/3 + 𝜀
[1 −2 1 | 1] ~ [ 1 −2 1 | 1] → { 𝛼2 = 2/3 + 𝜀 ( ∀𝜀 ∈ 𝑅)
1 1 −2 3 0 3 −3 2 𝛼3 = 𝜀
Por el contrario, si 𝑎 ≠ −2, se divide la primera fila por 𝑎 + 2 y se inicia el proceso de eliminación, con un
pívot de valor unidad:
1 1 1 2 1 1 1 2
[1 𝑎 1 | 1] ~ [ 0 𝑎−1 0 |−1]
1 1 𝑎 3 0 0 𝑎−1 1
Para continuar con la eliminación es necesario distinguir entre los posibles valores de 𝑎. Por un lado, si
𝑎 = 1, el sistema es incompatible:
1 1 1 2
[0 0 0|−1] → ∄ 𝑠𝑜𝑙𝑢𝑐𝑖ó𝑛
0 0 0 1
Si 𝑎 ≠ 1 el proceso de eliminación puede continuar. Para facilitar los cálculos, se dividen las filas 2ª y 3ª
por 𝑎 − 1, que es no nulo, y se continúa eliminando:

Suescun, Insausti, Flaquer (2022) 86 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.18 Ejercicios resueltos

1 1 1 2 1 0 0 2 𝛼1 = 2
[0 1 0|−1/(𝑎 − 1)] ~ [0 1 0| 1/(1 − 𝑎) ] ~ → { 𝛼2 = 1/(1 − 𝑎)
0 0 1 1/(𝑎 − 1) 0 0 1 −1/(1 − 𝑎) 𝛼3 = −1/(1 − 𝑎)

Ejercicio 2.10
Discutir y resolver el sistema siguiente, siendo 𝑎 un parámetro real:
1 𝑎 𝑎2 𝛼1 1
[𝑎 1 𝑎 ] [ 𝛼2 ] = [ 𝑎 ]
𝑎2 𝑎 1 𝛼3 𝑎2

Solución
Se plantea la matriz ampliada y se realiza el proceso de eliminación Gaussiana:

1 𝑎 𝑎2 1 1 𝑎 𝑎2 1 1 𝑎 𝑎2 1
[𝑎 1 𝑎 | 𝑎 ] ~ [0 1 − 𝑎2 𝑎 − 𝑎 3 | 0 ] ~ [0 1 − 𝑎2 𝑎(1 − 𝑎2 ) |0]
𝑎2 𝑎 1 𝑎2 0 𝑎 − 𝑎3 1 − 𝑎4 0 0 𝑎(1 − 𝑎2 ) (1 + 𝑎2 )(1 − 𝑎2 ) 0
Para continuar con la eliminación es necesario distinguir entre los posibles valores de 𝑎. Por un lado, si
𝑎 = ±1, el sistema es compatible indeterminado:
1 ±1 1 1 𝛼1 = 1 ∓ 𝜀1 − 𝜀2
[0 0 0|0] → { 𝛼2 = 𝜀1
0 0 0 0 𝛼3 = 𝜀2
Por el contrario, si 𝑎 ≠ ±1, el sistema es compatible determinado:
1 𝑎 𝑎2 1 1 𝑎 𝑎2 1 𝛼1 = 1
[0 1 𝑎 | 0 ] → [0 1 𝑎 | 0 ] → { 𝛼2 = 0
0 𝑎 1 + 𝑎2 0 0 0 1 0 𝛼3 = 0

Ejercicio 2.11
Se sabe que el sistema de ecuaciones lineales siguiente
𝑏𝛼1 + 𝑎𝛼2 = 𝑐
{ 𝑐𝛼1 + 𝑎𝛼3 = 𝑏
𝑐𝛼2 + 𝑏𝛼3 = 𝑎
es compatible determinado, siendo 𝑎, 𝑏 y 𝑐 tres parámetros reales. Demuéstre que el producto 𝑎𝑏𝑐 es no
nulo.

Solución
Se parte de la matriz ampliada:
𝑏 𝑎 0 𝑐
[𝑐 0 𝑎| 𝑏]
0 𝑐 𝑏 𝑎
Nótese que si 𝑐 fuera nulo, se perderá al menos un pívot y el sistema no será compatible determinado.
Por lo tanto, 𝑐 es no nulo y se puede dividir por él:
𝑏 𝑎 0 𝑐 𝑏 𝑎 0 𝑐 1 0 𝑎/𝑐 𝑏/𝑐
[𝑐 0 𝑎| 𝑏 ] ~ [1 0 𝑎/𝑐 | 𝑏/𝑐 ] ~ [0 1 𝑏/𝑐 | 𝑎/𝑐 ]
0 𝑐 𝑏 𝑎 0 1 𝑏/𝑐 𝑎/𝑐 𝑏 𝑎 0 𝑐
1 0 𝑎/𝑐 𝑏/𝑐 1 0 𝑎/𝑐 𝑏/𝑐
~ [0 1 𝑏/𝑐 | 𝑎/𝑐 ] ~ [0 1 𝑏/𝑐 | 𝑎/𝑐 ]
0 𝑎 −𝑎𝑏/𝑐 𝑐 − 𝑏 2 /𝑐 0 0 −2𝑎𝑏/𝑐 𝑐 − (𝑎2 + 𝑏 2 )/𝑐
Si 𝑎 o 𝑏 fueran cero, el sistema perdería un 𝑝𝑖𝑣𝑜𝑡 y no podría ser compatible determinado. Por lo tanto,
𝑎 y 𝑏 no pueden ser nulos. Si el sistema es compatible determinado, debe ser 𝑎𝑏𝑐 ≠ 0.

Suescun, Insausti, Flaquer (2022) 87 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

Ejercicio 2.12
Sea el sistema de ecuaciones lineales siguiente:
𝑎𝛼1 + 𝑏𝛼2 + 𝑐𝛼3 = 𝑎
{ 𝑏𝛼1 + 𝑐𝛼2 + 𝑎𝛼3 = 𝑏
𝑐𝛼1 + 𝑎𝛼2 + 𝑏𝛼3 = 𝑐
siendo 𝑎, 𝑏 y 𝑐 tres parámetros reales no simultáneamente nulos. Demuéstrese que si 𝑎 + 𝑏 + 𝑐 = 0, el
sistema es compatible indeterminado.

Solución
Se parte de la matriz ampliada y se suman a la 1ª fila las filas 2ª y 3ª
𝑎 𝑏 𝑐 𝑎 𝑎+𝑏+𝑐 𝑎+𝑏+𝑐 𝑎+𝑏+𝑐 𝑎+𝑏+𝑐
[𝑏 𝑐 𝑎| 𝑏] ~ [ 𝑏 𝑐 𝑎 | 𝑏 ]
𝑐 𝑎 𝑏 𝑐 𝑐 𝑎 𝑏 𝑐
Al ser 𝑎 + 𝑏 + 𝑐 = 0, el sistema de ecuaciones pierde un pívot, por lo que nunca puede ser compatible
determinado:
0 0 0 0
[𝑏 𝑐 𝑎| 𝑏]
𝑐 𝑎 𝑏 𝑐
Se comprueba ahora que, siendo 𝑎 + 𝑏 + 𝑐 = 0, el sistema no puede ser incompatible en ningún caso.
Sustituyendo 𝑎 = −(𝑏 + 𝑐) se obtiene:
0 0 0 0
[𝑏 𝑐 −(𝑏 + 𝑐)| 𝑏]
𝑐 −(𝑏 + 𝑐) 𝑏 𝑐
Si 𝑏 ≠ 0 el sistema es compatible indeterminado:
0 0 0 0 0 0 0 0
[1 𝑐/𝑏 −1 − 𝑐/b| 1 ] ~ [1 𝑐/𝑏 −1 − c/𝑏 | 1]
𝑐 −(𝑏 + 𝑐) 𝑏 𝑐 0 −(𝑏 + 𝑐 + 𝑐 2 /𝑏) 𝑏 + 𝑐 + 𝑐 2 /𝑏 0
pues tanto si 𝑏 + 𝑐 + 𝑐 2 /𝑏 es nulo como si no, no hay escalonamiento en la última columna.
Si 𝑏 = 0 y 𝑐 ≠ 0 el sistema también será compatible indeterminado:
0 0 0 0
[0 𝑐 −𝑐 | 0]
𝑐 −𝑐 0 𝑐
Si 𝑏 y 𝑐 fueran simultáneamente nulos, también lo sería 𝑎, contradiciendo el enunciado.

Ejercicio 2.13
Averiguar para qué valores no nulos de 𝑥 la siguiente matriz es invertible
0 𝑥 𝑥2
𝐴 = [𝑥 −1 0 𝑥]
𝑥 −2 𝑥 −1 0
y hallar 𝐴−1 cuando proceda.

Solución
La matriz inversa se obtiene aplicando el método de Gauss-Jordan:
0 𝑥 𝑥2 1 0 0
[𝐴 𝐼3 ] = [𝑥 −1 0 𝑥 |0 1 0]
𝑥 −2 𝑥 −1 0 0 0 1

Suescun, Insausti, Flaquer (2022) 88 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.18 Ejercicios resueltos

Al ser 𝑥 ≠ 0, las filas 2ª y 3ª pueden multiplicarse por 𝑥 y 𝑥 2 respectivamente, para facilitar las
operaciones:
0 𝑥 𝑥2 1 0 0 1 0 𝑥2 0 𝑥 0
~ [1 0 𝑥 2| 0 𝑥 0] ~ [0 𝑥 𝑥 2 | 1 0 0]
1 𝑥 0 0 0 𝑥2 1 𝑥 0 0 0 𝑥2
1 0 𝑥2 0 𝑥 0 1 0 𝑥2 0 𝑥 0
~ [0 𝑥 𝑥2 | 1 0 0] ~ [0 𝑥 𝑥 2 | 1 0 0]
0 𝑥 −𝑥 2 0 −𝑥 𝑥2 0 0 −2𝑥 2 −1 −𝑥 𝑥 2
1 0 𝑥2 0 𝑥 0 1 0 0 −1/2 𝑥/2 𝑥 2 /2
~ [0 1 𝑥 | 1/𝑥 0 0] ~ [ 0 1 0| 1/(2𝑥) −1/2 𝑥/2] = [𝐼3 𝐴−1 ]
0 0 1 1/(2𝑥 2 ) 1/(2𝑥) −1/2 0 0 1 1/(2𝑥 2 ) 1/(2𝑥) −1/2
Nótese que, con independencia del valor de 𝑥 (𝑥 ≠ 0) , siempre se obtienen tres pívots. Por lo tanto, los
tres sistemas de ecuaciones siempre son compatibles determinados y se concluye que la matriz 𝐴 siempre
es regular:
−1/2 𝑥/2 𝑥 2 /2
−1
∃𝐴 = [ 1/(2𝑥) −1/2 𝑥/2 ] ∀𝑥 ≠ 0
1/(2𝑥 2 ) 1/(2𝑥) −1/2

Ejercicio 2.14
Hállense todas las inversas por la derecha (en caso de existir) de la matriz:
1 1 1 1 1
𝐴=[ ]
0 1 1 1 1

Solución
Una inversa por la derecha 𝑅 de 𝐴, matriz de tamaño 25, debe ser una matriz de tamaño 52 de la
forma:
𝑅 = [𝑥1 𝑥2 ]
Las columnas 𝑥1 y 𝑥2 deben satisfacer las dos ecuaciones matriciales 𝐴𝑥1 = 𝑒1 y 𝐴𝑥2 = 𝑒2 , según se
deduce del siguiente desarrollo:

𝐴𝑅 = 𝐼2 → 𝐴[𝑥1 𝑥2 ] = [𝑒1 𝑒2 ] → {𝐴𝑥1 = 𝑒1


𝐴𝑥2 = 𝑒2
Resolviendo simultáneamente ambos sistemas de ecuaciones, se llega a:

[𝐴 𝐼2 ] = [1 1 1 1 1 1
|
0
]~[
1 0 0 0 0 1
|
−1
]
0 1 1 1 1 0 1 0 1 1 1 1 0 1
cuyas soluciones son respectivamente:
𝛼1 = 1 𝛼1 = −1
𝛼2 = −𝜆1 − 𝜆2 − 𝜆3 𝛼2 = 1 − 𝛿1 − 𝛿2 − 𝛿3
𝑥1 → 𝛼3 = 𝜆1 𝑥2 → 𝛼3 = 𝛿1
𝛼4 = 𝜆2 𝛼4 = 𝛿2
{ 𝛼5 = 𝜆3 { 𝛼5 = 𝛿3
Y todas la matrices inversas por la derecha de 𝐴 son por tanto de la forma:
1 −1
−𝜆1 − 𝜆2 − 𝜆3 1 − 𝛿1 − 𝛿2 − 𝛿3
𝑅 = 𝜆1 𝛿1 , ∀ 𝜆1 , 𝜆2 , 𝜆3 , 𝛿1 , 𝛿2 , 𝛿3 ∈ 𝑅
𝜆2 𝛿2
[ 𝜆3 𝛿3 ]

Ejercicio 2.15
Hállense todas las inversas por la izquierda (en caso de existir) de la matriz:

Suescun, Insausti, Flaquer (2022) 89 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

1 0
1 1
𝐵= 1 1
1 1
[1 1]

Solución
Se buscan matrices de tamaño 25 que cumplan:
𝐿𝐵 = 𝐼2
Trasponiendo este resultado:
(𝐿𝐵)𝑇 = 𝐼2𝑇 → 𝐵𝑇 𝐿𝑇 = 𝐼2
De esta última expresión se deduce un método práctico para calcular inversas por la izquierda: “Se
calculan las inversas por la derecha de la matriz traspuesta, y se traspone el resultado”.
Al comparar la matriz 𝐵 con la matriz 𝐴 del ejercicio anterior se observa que:
𝐵𝑇 = 𝐴
En el citado ejercicio se han calculado las inversas por la derecha de 𝐴. Por lo tanto, sólo queda trasponer
el resultado:
1 −𝜆1 − 𝜆2 − 𝜆3 𝜆1 𝜆2 𝜆3
𝐿 = 𝑅𝑇 = [ ] ∀ 𝜆1 , 𝜆2 , 𝜆3 , 𝛿1 , 𝛿2 , 𝛿3 ∈ 𝑅
−1 1 − 𝛿1 − 𝛿2 − 𝛿3 𝛿1 𝛿2 𝛿3

Ejercicio 2.16
Hallar la descomposición 𝐿𝑈 de la matriz siguiente:
1 1 1 ⋯ 1
1 2 2 2
𝐴= 1 2 3 3
⋮ ⋱
[1 2 3 𝑛]

Solución
A las filas segunda, tercera en adelante les restamos la primera; a las filas tercera, cuarta en adelante les
restamos la segunda y así sucesivamente obteniendo las matrices
1 1 1 ⋯ 1 1 0 0 ⋯ 0
0 1 1 1 1 1 0 0
𝑈= 0 0 1 1 𝐿= 1 1 1 0
⋮ ⋱ ⋮ ⋱
[0 0 0 1] [1 1 1 1]

Ejercicio 2.17
Obtener la descomposición 𝐿𝑈 de la siguiente matriz:
1 𝑎 𝑎2
𝐴=[𝑏 1 𝑎]
𝑏2 𝑏 1
sabiendo que 𝑎𝑏 = −1.

Solución
Mediante operaciones elementales de clase III, transformamos la matriz 𝐴 en 𝑈:

1 𝑎 𝑎2 1 𝑎 𝑎2 1 𝑎 𝑎2
𝐴=[𝑏 2 ] ~ [0 1 − 𝑎𝑏 𝑎(1 − 𝑎𝑏)
1 𝑎 ] ~ [0 1 − 𝑎𝑏 𝑎−𝑎 𝑏 ]~
𝑏2 𝑏 1 0 𝑏 − 𝑎𝑏 2 1 − 𝑎2 𝑏 2 0 𝑏(1 − 𝑎𝑏) (1 + 𝑎𝑏)(1 − 𝑎𝑏)

Suescun, Insausti, Flaquer (2022) 90 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.18 Ejercicios resueltos

1 𝑎 𝑎2 1 𝑎 𝑎2 1 𝑎 𝑎2
~ [0 2 2𝑎 ] ~ [0 2 2𝑎 ] ~ [0 2 2𝑎 ] = 𝑈
0 2𝑏 0 0 0 −2𝑎𝑏 0 0 2
Es decir:
1 0 0 1 𝑎 𝑎2
𝐿=[ 𝑏 1 0] 𝑈= [ 0 2 2𝑎 ]
𝑏2 𝑏 1 0 0 2

Ejercicio 2.18
Se conocen las matrices 𝐿 y 𝑈 de la descomposición 𝐿𝑈 de una matriz 𝐴:
1 0 1 2
𝐿=[ ] 𝑈=[ ]
2 1 0 3
Hállese la descomposición de Cholesky de 𝐴, verificando previamente si se cumplen las condiciones de
existencia de esta descomposición.

Solución
Del enunciado:
1 0 1 2 1 2
𝐴 = 𝐿𝑈 = [ ][ ]=[ ]
2 1 0 3 2 7
Las condiciones de existencia de la descomposición de Cholesky se cumplen:
▪ La matriz 𝐴 tiene descomposición 𝐿𝑈.
▪ La matriz 𝐴 es real y simétrica.
▪ Sus dos pívots {1, 3} son positivos.
▪ Los pívots aparecen en las posiciones (1,1) y (2,2)
Por tanto, siguiendo el desarrollo de la exposición teórica:
1 0 1 0
𝐷=[ ] → 𝐷1 = [ ]
0 3 0 √3
1 0 1 0 1 0
ℒ = 𝐿𝐷1 = [ ][ ]=[ ]
2 1 0 √3 2 √3
Y de ahí:
1 0 1 2
𝐴 = ℒℒ 𝑇 = [ ][ ]
2 √3 0 √3

Ejercicio 2.19
Se conoce la descomposición 𝐴 = 𝐿𝐷𝐿𝑇 de una matriz real y simétrica 𝐴:
1 0 0 4 0 0
𝐿 = [−1 1 0] 𝐷 = [0 9 0]
2 −1 1 0 0 16
Hállese la descomposición de Cholesky de 𝐴 y la matriz 𝐴.

Solución
2 0 0
𝐷 = 𝐷12 → 𝐷1 = [0 3 0]
0 0 4
1 0 0 2 0 0 2 0 0
ℒ = 𝐿𝐷1 = [−1 1 0] [0 3 0] = [−2 3 0]
2 −1 1 0 0 4 4 −3 4

Suescun, Insausti, Flaquer (2022) 91 Tecnun-Universidad de Navarra


2.18 Ejercicios resueltos 2 Sistemas de Ecuaciones Lineales

4 −4 8
𝐴 = ℒℒ 𝑇 = [−4 13 −17]
8 −17 41

Ejercicio 2.20
Resolver el sistema 𝐴𝑥 = 𝑏, aprovechando la descomposición de Cholesky, siendo 𝐴 la matriz del
problema anterior y 𝑏 la columna:
−4
𝑏 = [ 4]
8

Solución
Aprovechando la descomposición de Cholesky, el sistema se resuelve en dos etapas sucesivas:
−2
1º ℒ𝑦 = 𝑏 → 𝑦0 = [ 0]
4
𝐴𝑥 = 𝑏 → ℒℒ 𝑇 𝑥 = 𝑏 →
−2
2º ℒ 𝑇 𝑥 = 𝑦0 → 𝑥0 = [ 1]
{ 1

Ejercicio 2.21
Hallar la descomposición de Cholesky de la siguiente matriz:
9 6 −3 9
6 8 2 4
𝐴=[ ]
−3 2 9 7
9 4 7 47

Solución
Mediante operaciones elementales de clase III, transformamos la matriz 𝐴 en 𝑈:
9 6 −3 9 9 6 −3 9 9 6 −3 9 9 6 −3 9
6 8 2 4 0 4 4 −2 0 4 4 −2 0 4 4 −2
𝐴=[ ]~[ ]~[ ]~[ ]=𝑈
−3 2 9 7 0 4 8 10 0 0 4 12 0 0 4 12
9 4 7 47 0 −2 10 38 0 0 12 37 0 0 0 1
Por lo tanto:
1 0 0 0
9 6 −3 9
0 4 4 −2 2/3 1 0 0
𝑈=[ ] 𝐿=
0 0 4 12 −1/3 1 1 0
0 0 0 1
[ 1 −1/2 3 1]
Y finalmente:
9 0 0 0 3 0 0 0
0 4 0 0 0 2 0 0
𝐷=[ ] → 𝐷1 = [ ]
0 0 4 0 0 0 2 0
0 0 0 1 0 0 0 1
1 0 0 0 3 0 0 0
3 0 0 0
2/3 1 0 0 0 2 0 0 2 2 0 0
ℒ = 𝐿 𝐷1 = [ ]=
−1/3 1 1 0 0 0 2 0 −1 2 2 0
0 0 0 1
[ 1 −1/2 3 1] [ 3 −1 6 1]

Suescun, Insausti, Flaquer (2022) 92 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.19 Ejercicios propuestos

Ejercicios propuestos

Ejercicio 2.22
Resolver los siguientes sistemas de ecuaciones lineales usando el método de Gauss:
2𝛼1 − 𝛼2 + 𝛼3 = 1 2𝛼1 − 𝛼2 + 𝛼3 = 0
−𝛼1 + 5𝛼2 + 4𝛼3 = −8 −𝛼1 + 5𝛼2 + 4𝛼3 = 0
{ {
𝛼1 − 2𝛼2 − 𝛼3 = 3 𝛼1 − 2𝛼2 − 𝛼3 = 0
4𝛼1 − 5𝛼2 − 𝛼3 = 7 4𝛼1 − 5𝛼2 − 𝛼3 = 0

Ejercicio 2.23
Discutir y resolver el siguiente sistema de ecuaciones lineales de tres ecuaciones con tres incógnitas en
función del parámetro real 𝑞
𝛼1 + 𝑞𝛼2 − 𝛼3 = 0
{ 𝛼1 + (2𝑞 − 1)𝛼2 − 𝑞𝛼3 = 0
(2 − 𝑞)𝛼1 + 𝛼2 − 𝛼3 = 0

Ejercicio 2.24
Discutir y resolver cuando proceda el siguiente sistema de ecuaciones en función de los valores del
parámetro real 𝑏:
(𝑏 + 1)𝛼1 + 𝛼2 + 𝛼3 = 𝑏2
{ 𝛼1 + (𝑏 + 1)𝛼2 + 𝛼3 = 2𝑏
𝛼1 + 𝛼2 + (𝑏 + 1)𝛼3 = 0

Ejercicio 2.25
Discutir y resolver en función de los parámetros reales 𝑝, 𝑞 y 𝑟 el sistema dado matricialmente por:
1 1 1 𝛼1 1
[𝑝 𝑝+1 𝑝 + 1 ] [𝛼2 ] = [𝑝]
𝑞 𝑞+𝑟 𝑞 + 2𝑟 𝛼3 𝑟

Ejercicio 2.26
Discutir y resolver mediante Gauss el sistema siguiente, siendo 𝑎 un parámetro real:
1−𝑎 0 (1 − 𝑎)2 𝛼1 (1 − 𝑎)2
[ −𝑎 1 − 2𝑎 0 ] [ 𝛼 2 ] = [ 0 ]
𝑎2 𝑎2 0 𝛼 3 0

Ejercicio 2.27
Resolver el sistema dependiente de los parámetros 𝑎 y 𝑏.
𝛼1 + 2𝛼2 + 𝛼3 = 2
𝛼 + 𝛼2 + 2𝛼3 = 3
{ 1
𝛼1 + 3𝛼2 + 𝑎𝛼3 = 1
𝛼1 + 2𝛼2 + 𝛼3 = 𝑏

Ejercicio 2.28
Dadas las matrices:
0 1 0 2 1
𝐴 = [0 0 1] 𝐵 = [1 2]
0 0 0 3 3
encontrar la matriz 𝑋 que satisface 𝐴𝑋 = 𝐵 − 𝑋.

Suescun, Insausti, Flaquer (2022) 93 Tecnun-Universidad de Navarra


2.19 Ejercicios propuestos 2 Sistemas de Ecuaciones Lineales

Ejercicio 2.29
Demuéstrese que las dos ecuaciones matriciales 𝐴𝑥 = 𝑏 y 𝐴𝑇 𝑦 = 0 no pueden ser simultáneamente
compatibles supuesto que 𝑏 𝑇 𝑦 = 1.

Ejercicio 2.30
Demostrar que 𝐴 es invertible si la ecuación 𝐴𝑥 = 𝑏 tiene solución única para cualquier columna 𝑏.
Deducir la solución.

Ejercicio 2.31
Discutir y resolver el sistema
𝛼1 + ℎ𝛼2 = 2
{
4𝛼1 + 8𝛼2 = 𝑘
según los distintos valores de los parámetros reales ℎ y 𝑘.

Ejercicio 2.32
Estudiar la compatibilidad del sistema
𝑎𝛼1 + 𝑏𝛼2 + 𝛼3 = 𝑐
{ 𝛼1 + 𝑎𝛼2 + 𝑏𝛼3 = 0
𝑎𝛼1 + 𝑏𝛼2 + 𝑎𝛼3 = 𝑐
según los distintos valores de los parámetros reales 𝑎, 𝑏 y 𝑐.

Ejercicio 2.33
Encontrar los valores de 𝑘 para los que la matriz
1 2 4
𝐴=[3 1 6]
𝑘 3 2
es regular.

Ejercicio 2.34
De una matriz 𝐴 se conocen dos inversas por la derecha 𝑅 𝑦 𝑅´. Dado el sistema 𝐴𝑥 = 𝑏, hallar una
solución 𝑥ℎ del sistema homogéneo asociado 𝐴𝑥 = 0 en función de 𝑅, 𝑅´ y 𝑏 que no sea necesariamente
la solución nula.

Ejercicio 2.35
Indíquese un procedimiento para resolver de modo eficiente el sistema homogéneo 𝐴𝑥 = 0 siendo:
𝐴 = 𝑢𝑣 𝑇
con 𝑢 y 𝑣 dos columnas no nulas conocidas.

Ejercicio 2.36
Sabiendo que la matriz
1 0
𝑅 = [1 1]
1 1
es una inversa por la derecha de la matriz 𝐴 y dada la columna
1
𝑏=[ ]
1
hallar una solución de la ecuación 𝐴𝑥 = 𝑏.

Suescun, Insausti, Flaquer (2022) 94 Tecnun-Universidad de Navarra


2 Sistemas de Ecuaciones Lineales 2.19 Ejercicios propuestos

Ejercicio 2.37
Invertir, usando Gauss-Jordan, la siguiente matriz de orden 4:
1 1 1 1
1 2 2 2
𝐴=[ ]
1 2 3 3
1 2 3 4

Ejercicio 2.38
Calcule la inversa de la matriz 𝐴 usando el método de Gauss-Jordan:
2 0 0 0
8 4 0 0
𝐴=[ ]
−4 −2 −1 0
8 4 2 1

Ejercicio 2.39
Hállese cuando exista la inversa de la siguiente matriz:
𝑎 1 0
𝐴 = [1 𝑎 1]
0 1 𝑎

Ejercicio 2.40
Hállese la inversa de la matriz 𝐴 de orden 𝑛,
1 0 0 ⋯ 0 0
1 1 0 … 0 0
1 1 1 … 0 0
𝐴=
⋯ .. .. ⋯ … ⋯
1 1 1 .. 1 0
[1 1 1 ⋯ 1 1]

Ejercicio 2.41
Hállese la inversa de la matriz:
𝑎+1 𝑎 𝑎
𝐴=[ 𝑎 𝑎+1 𝑎 ]
𝑎 𝑎 𝑎+1
sabiendo que 3𝑎 + 1 ≠ 0.

Ejercicio 2.42
Resuelva en función de 𝑝 el siguiente sistema de ecuaciones lineales:
𝛼1 + (1 + 𝑝)𝛼2 + 𝛼3 = 0
{ 𝛼1 + (1 + 𝑝)𝛼2 + (2 + 𝑝)𝛼3 = 1 + 𝑝
𝛼1 + 𝛼2 + (1 − 𝑝)𝛼3 = 2𝑝
empleando únicamente el método de Gauss o el de Gauss-Jordan.

Ejercicio 2.43
Obtener, en caso de existir, la descomposición 𝐿𝑈 de la matriz:
1 1 1
𝐴 = [−1 0 0]
−1 −2 −1

Ejercicio 2.44
Hallar la descomposición 𝐿𝑈 de la matriz (en caso de existir)

Suescun, Insausti, Flaquer (2022) 95 Tecnun-Universidad de Navarra


2.19 Ejercicios propuestos 2 Sistemas de Ecuaciones Lineales

1 2 1 2
2 8 4 8
𝐴=[ ]
1 4 3 6
2 8 6 12

Ejercicio 2.45
Obtener la descomposición de Cholesky de la matriz:
1 𝑎 𝑎2
𝐴=[𝑎 1 𝑎]
𝑎2 𝑎 1
cuando exista, en función de 𝑎.

Ejercicio 2.46
La descomposición de Cholesky de una matriz 𝐴 origina la matriz triangular
1 0 0
ℒ = [2 3 0]
4 5 6
Hallar la descomposición 𝐿𝑈 de 𝐴.

Ejercicio 2.47
Hallar la descomposición 𝐿𝑈 de la matriz de orden 𝑛 > 1 siguiente:
1 −1 0 ⋯ 0 0
−1 2 −1 0 0
0 −1 2 0 0
𝐴=
⋯ ⋯ ⋯
0 0 0 2 −1
[ 0 0 0 ⋯ −1 2]

Ejercicio 2.48
Si se denota con ℒ la matriz triangular inferior que resulta de la descomposición de Cholesky de una cierta
matriz 𝐴 de orden 𝑛.
1 0 0 ⋯ 0 0
−1 1 0 0 0
0 −1 1 0 0
ℒ=
⋯ ⋯ ⋯
0 0 0 1 0
[ 0 0 0 ⋯ −1 1]
Hállese la descomposición 𝐿𝑈 de 𝐴.

Suescun, Insausti, Flaquer (2022) 96 Tecnun-Universidad de Navarra


3 Determinantes

Desde el punto de vista histórico los determinantes precedieron a las matrices. Antiguamente se hizo uso
extensivo de ellos en la resolución de sistemas de ecuaciones lineales, si bien las técnicas Gaussianas son
las más usadas en la actualidad. Los determinantes tienen aplicaciones en la resolución de determinados
problemas geométricos y en el análisis funcional. En este curso nos interesan especialmente por su
conexión con el cálculo de los valores propios, esto es, ¿para qué valores de 𝜆 existen columnas 𝑥 no nulas
tal que 𝐴𝑥 = 𝜆𝑥, siendo 𝐴 una matriz cuadrada? La respuesta la encontramos en las soluciones de la
ecuación det(𝐴 − 𝜆𝐼) = 0.
En este capítulo se introducen los determinantes a través de la noción de permutaciones de los 𝑛 números
naturales 1,2, … , 𝑛, y se estudia la función determinante y sus propiedades. La noción de adjunto de un
elemento prepara la definición de matriz adjunta que conduce al cálculo de la matriz inversa. Se repasa la
regla de Cramer y el cálculo práctico de los determinantes. El capítulo se cierra con el determinante de
Vandermonde, el método de Laplace y el rango de una matriz.

Suescun, Insausti, Flaquer (2022) 97 Tecnun-Universidad de Navarra


3.1 Definiciones 3 Determinantes

Definiciones

Una permutación 𝜎 de los 𝑛 primeros números naturales 1, 2, … , 𝑛 está formada por esos 𝑛 números
𝜎(1), 𝜎(2), … , 𝜎(𝑛), pero, posiblemente, cambiados de orden. Así, para 𝑛 = 4, los números 4, 3, 1, 2
forman una permutación de los números 1, 2, 3, 4. Con 𝑛 números distintos se pueden formar un total de
𝑛! permutaciones sin repetición. En el caso de 𝑛 = 4 habrá un total de 4! = 4 ∙ 3 ∙ 2 ∙ 1 = 24
permutaciones. Denotaremos, en general, con 𝑆𝑛 al conjunto de todas las permutaciones de los 𝑛
primeros números naturales 1, 2, … , 𝑛.
Se dice que en la permutación 𝜎(1), 𝜎(2), … , 𝜎(𝑖), … , 𝜎(𝑗), … , 𝜎(𝑛) hay una inversión si 𝑖 < 𝑗 pero 𝜎(𝑖) >
𝜎(𝑗). Por ejemplo, en la permutación 4, 3, 1, 2 el número 4 presenta tres inversiones con los números
3, 1, 2 y el número 3 presenta 2 inversiones con los números 1, 2. Se denotará con 𝐼(𝜎) el número total
de inversiones de la permutación 𝜎. Así, en nuestro ejemplo, hay un total de 5 inversiones.
Se define el signo 𝜀𝜎 de la permutación 𝜎 mediante
𝜀𝜎 = (−1)𝐼(𝜎)
En nuestro ejemplo 𝜀𝜎 = (−1)5 = −1.
Una vez definidos estos concepto, se puede dar la siguiente definición del determinante de una matriz
cuadrada 𝐴 de orden 𝑛 mediante la expresión

det𝐴 = ∑ 𝜀𝜎 𝑎1 𝜎(1) 𝑎2 𝜎(2) … 𝑎𝑛 𝜎(𝑛)


𝜎 ∈ 𝑆𝑛

donde 𝜎 recorre todo el conjunto de permutaciones 𝑆𝑛 . Se trata de una suma de 𝑛! sumandos, tantos
como permutaciones de 𝑛 números. Cada sumando es el producto del signo de una permutación por el
resultado de multiplicar 𝑛 elementos de la matriz 𝐴, pertenecientes a 𝑛 filas distintas y a 𝑛 columnas
distintas. Nótese que en cada sumando las filas de los elementos de 𝐴 que se multiplican están numeradas
en el orden natural 1, 2, … , 𝑛 y las columnas 𝜎(1), 𝜎(2), … , 𝜎(𝑛) según la permutación 𝜎.

Ejemplo 3.1
Sea 𝐴 una matriz cuadrada de orden dos
𝑎11 𝑎12
𝐴 = [𝑎 𝑎22 ]
21

Se tiene 𝑛 = 2. Hay dos permutaciones de los números 1,2:


𝜎1 = 1,2 𝑐𝑜𝑛 𝜀𝜎1 = 1
𝜎2 = 2,1 𝑐𝑜𝑛 𝜀𝜎2 = −1
En este caso,
det𝐴 = (+1)𝑎11 𝑎22 + (−1)𝑎12 𝑎21 = 𝑎11 𝑎22 − 𝑎12 𝑎21

En el ejemplo anterior, se ha obtenido una regla general muy sencilla para calcular el determinante de las
matrices cuadradas de orden dos.

Ejemplo 3.2
Sea 𝐴 una matriz cuadrada de orden tres
𝑎11 𝑎12 𝑎13
𝐴 = [𝑎21 𝑎22 𝑎23 ]
𝑎31 𝑎32 𝑎33
En este caso 𝑛 = 3. Hay seis permutaciones de los números 1, 2 y 3:
𝜎1 = 1,2,3, 𝜎2 = 2,3,1, 𝜎3 = 3,1,2 con 𝜀𝜎1 = 𝜀𝜎2 = 𝜀𝜎3 = 1

Suescun, Insausti, Flaquer (2022) 98 Tecnun-Universidad de Navarra


3 Determinantes 3.2 Propiedades

𝜎4 = 2,1,3, 𝜎5 = 3,2,1, 𝜎6 = 1,3,2 con 𝜀𝜎4 = 𝜀𝜎5 = 𝜀𝜎6 = −1


De modo que se llega a
det𝐴 = 𝑎11 𝑎22 𝑎33 + 𝑎12 𝑎23 𝑎31 + 𝑎13 𝑎21 𝑎32
−𝑎12 𝑎21 𝑎33 − 𝑎13 𝑎22 𝑎31 − 𝑎11 𝑎23 𝑎32

En el ejemplo se ha obtenido la llamada Regla de Sarrus, válida sólo para matrices cuadradas de orden
tres.

Ejemplo 3.3
El cálculo del determinante de la matriz de orden tres
1 2 3
𝐴 = [4 5 6]
7 8 9
vale cero, pues es el resultado que se obtiene por la regla de Sarrus
det𝐴 = 1 ∙ 5 ∙ 9 + 2 ∙ 6 ∙ 7 + 3 ∙ 4 ∙ 8
−2 ∙ 4 ∙ 9 − 3 ∙ 5 ∙ 7 − 1 ∙ 6 ∙ 8 = 0

El determinante de una matriz de orden uno coincide con el único elemento de esa matriz, caso trivial.
De todo lo explicado se puede afirmar que el determinante de una matriz cuadrada es un número
perteneciente al campo numérico de la citada matriz.

Propiedades

En lo sucesivo conviene pensar en una función determinante, denotada por det, que actúa sobre las 𝑛
columnas de una matriz cuadrada 𝐴 de orden 𝑛, dando como resultado el determinante de 𝐴 definido
anteriormente
det(𝐴) = det([𝑢1 𝑢2 … 𝑢𝑛 ]) = det𝐴
Se puede probar (se omite la demostración) que el determinante de una matriz cuadrada cumple las
siguientes propiedades:

Propiedades del determinante


1) det([𝑢1 𝑢2 … 𝑢 + 𝑣 … 𝑢𝑛 ]) = det([𝑢1 𝑢2 … 𝑢 … 𝑢𝑛 ]) + det([𝑢1 𝑢2 … 𝑣 … 𝑢𝑛 ])
2) det([𝑢1 𝑢2 … 𝛼𝑢 … 𝑢𝑛 ]) = 𝛼 det([𝑢1 𝑢2 … 𝑢 … 𝑢𝑛 ])
3) det([𝑢1 𝑢2 … 𝑢 … 𝑣 … 𝑢𝑛 ]) = − det([𝑢1 𝑢2 … 𝑣 … 𝑢 … 𝑢𝑛 ])
4) det(𝐼𝑛 ) = det([𝑒1 𝑒2 … 𝑒𝑛 ]) = 1

La propiedad 1 afirma que si una columna es suma de otras dos columnas 𝑢 y 𝑣, el determinante se puede
descomponer como suma de dos determinantes: el primero se lleva la columna 𝑢 y el segundo la columna
𝑣, dejando las demás columnas en su lugar.
La propiedad 2 afirma que si una columna es múltiplo escalar de otra columna 𝑢, en la forma 𝛼𝑢, el
determinante se puede expresar como el factor 𝛼 por otro determinante que retiene la columna 𝑢 y deja
intactas las demás columnas.
La propiedad 3 afirma que si se intercambian entre sí dos columnas 𝑢 y 𝑣 que ocupan posiciones distintas,
el determinante cambia de signo. Se deduce inmediatamente que

Suescun, Insausti, Flaquer (2022) 99 Tecnun-Universidad de Navarra


3.3 La matriz adjunta 3 Determinantes

det([𝑢1 𝑢2 … 𝑢 … 𝑢 … 𝑢𝑛 ]) = 0
esto es, cuando en la matriz hay dos columnas iguales, el determinante se anula.
La propiedad 4 afirma que el determinante de la matriz identidad vale la unidad.
De estas propiedades que definen la función determinante se pueden extraer, entre otras, las siguientes
consecuencias (de las que se omite la demostración):
• Si una columna de 𝐴 es combinación lineal de las demás columnas de 𝐴, el determinante se
anula. Lo que significa que si hay una columna 𝑢𝑗 de 𝐴 de la forma
𝑢𝑗 = 𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑗−1 𝑢𝑗−1 + 𝛼𝑗+1 𝑢𝑗+1 + ⋯ + 𝛼𝑛 𝑢𝑛
entonces
det([𝑢1 𝑢2 … 𝑢𝑗 … 𝑢𝑛 ]) = 0
• Si a una columna de 𝐴 se le suma una combinación lineal de las demás columnas de 𝐴, el
determinante no varía. Esto es, si
𝑢 = 𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑗−1 𝑢𝑗−1 + 𝛼𝑗+1 𝑢𝑗+1 + ⋯ + 𝛼𝑛 𝑢𝑛
entonces
det([𝑢1 𝑢2 … 𝑢𝑗 … 𝑢𝑛 ]) = det([𝑢1 𝑢2 … 𝑢𝑗 + 𝑢 … 𝑢𝑛 ])
• Las operaciones elementales sobre las columnas de 𝐴, si son de clase I cambian de signo el valor
del determinante; si son de clase II multiplican el valor del determinante por el correspondiente
escalar; y si son de clase III no alteran el valor del determinante.
• Se verifica que
det(𝛼𝐴) = 𝛼 𝑛 det𝐴
det(𝐴𝑇 ) = det𝐴
Esta última consecuencia afirma que la trasposición no altera el valor del determinante. Lo que significa
que cualquier propiedad enunciada sobre las columnas de 𝐴 sigue siendo cierta si se enuncia sobre las
filas de 𝐴.
Obsérvese que en general det(𝐴 + 𝐵) ≠ det𝐴 + det𝐵. No obstante, se verifica que
det(𝐴̅) = ̅̅̅̅̅̅
det𝐴
det(𝐴𝐵) = det𝐴 ⋅ det𝐵
Y si 𝐴 es regular, entonces det(𝐴−1 ) = 1/ det 𝐴.

La matriz adjunta

Se denomina menor al determinante de una submatriz cuadrada, obtenida partir de otra matriz.
Se llama menor complementario 𝑀𝑖𝑗 del elemento 𝑎𝑖𝑗 de la matriz cuadrada 𝐴 al menor que resulta de
suprimir la fila 𝑖 y la columna 𝑗 de 𝐴.

Ejemplo 3.4
1 2 3
Dada la matriz 𝐴 = [4 5 6], el menor complementario del elemento 𝑎12 es
7 8 9
4 6
𝑀12 = det [ ] = −6
7 9

Se llama adjunto del elemento 𝑎𝑖𝑗 de la matriz cuadrada 𝐴 al menor complementario de 𝑎𝑖𝑗 multiplicado
por el coeficiente (−1)𝑖+𝑗 . El adjunto del elemento 𝑎𝑖𝑗 se denota por Å𝑖𝑗 de modo que

Suescun, Insausti, Flaquer (2022) 100 Tecnun-Universidad de Navarra


3 Determinantes 3.3 La matriz adjunta

Å𝑖𝑗 = (−1)𝑖+𝑗 𝑀𝑖𝑗

Ejemplo 3.5
Dada la matriz
1 2 3
𝐴 = [4 5 6]
7 8 9
el adjunto del elemento 𝑎12 = 2 es
Å12 = (−1)1+2 𝑀12 = −(−6) = 6

Ya estamos en condiciones de definir la matriz adjunta de la matriz cuadrada 𝐴 como la traspuesta de la


matriz de adjuntos. Se denota Adj𝐴, de modo que
𝑇
Å11 … Å1𝑛 Å11 … Å𝑛1
Adj𝐴 = [ … … … ] =[ … … … ]
Å𝑛1 … Å𝑛𝑛 Å1𝑛 … Å𝑛𝑛

Ejemplo 3.6
1 2 3 −3 6 −3
La adjunta de la matriz 𝐴 = [4 5 6] es la matriz Adj𝐴 = [ 6 −12 6 ].
7 8 9 −3 6 −3
Obsérvese que la adjunta de una matriz no simétrica puede ser simétrica.

Se van a enunciar a continuación dos proposiciones:

Proposición 3.1
Enunciado: Si se multiplican los elementos de una fila (o columna) de una matriz cuadrada 𝐴 por sus
correspondientes adjuntos y se suman los resultados obtenidos se obtiene el valor del determinante de
𝐴. Matemáticamente, ∀ 𝑖 ∈ {1, 2, … , 𝑛} se verifica
𝑎𝑖1 Å𝑖1 + 𝑎𝑖2 Å𝑖2 + ⋯ + 𝑎𝑖𝑛 Å𝑖𝑛 = det 𝐴
Demostración: Se omite.

Proposición 3.2
Enunciado: Si se multiplican los elementos de una fila (o columna) de una matriz cuadrada 𝐴 por los
adjuntos de los correspondientes elementos de una fila (o columna) distinta y se suman los resultados
obtenidos, se obtiene el valor cero. Matemáticamente, ∀𝑖 ∈ {1, 2, … , 𝑛} y 𝑗 ≠ 𝑖 se verifica
𝑎𝑖1 Å𝑗1 + 𝑎𝑖2 Å𝑗2 + ⋯ + 𝑎𝑖𝑛 Å𝑗𝑛 = 0
Demostración: Se omite.

Obsérvese que se pueden combinar las dos últimas proposiciones en una única identidad:
𝑎𝑖1 Å𝑗1 + 𝑎𝑖2 Å𝑗2 + ⋯ + 𝑎𝑖𝑛 Å𝑗𝑛 = det 𝐴 𝛿𝑖𝑗 ∀𝑖, 𝑗 ∈ {1, 2, … , 𝑛}
donde 𝛿𝑖𝑗 es la delta de Kronecker, que se define como
1 𝑖=𝑗
𝛿𝑖𝑗 = {
0 𝑖≠𝑗

Suescun, Insausti, Flaquer (2022) 101 Tecnun-Universidad de Navarra


3.4 Las matrices regulares 3 Determinantes

Proposición 3.3
Enunciado: Para cualquier matriz cuadrada 𝐴 de orden 𝑛,
𝐴 Adj𝐴 = det 𝐴 𝐼𝑛
Demostración:
… … … … Å𝑗1 … … … … … … …
𝑎
𝐴 Adj𝐴 = [ 𝑖1 … 𝑎𝑖𝑛 ] [… … … ] = [… 𝛿𝑖𝑗 det𝐴 …] = det 𝐴 [… 𝛿𝑖𝑗 …] = det 𝐴 𝐼𝑛
… … … … Å𝑗𝑛 … … … … … … …

Nótese que la proposición anterior es cierta para cualquier matriz, ya sea regular o singular.

Las matrices regulares

El determinante de las matrices regulares es distinto de cero:

Proposición 3.4
Enunciado: Una matriz cuadrada 𝐴 es regular si y sólo si su determinante es distinto de cero.
Demostración: Sea 𝐴 una matriz cuadrada de orden 𝑛. Supóngase que det𝐴 ≠ 0. De la Proposición 3.3 se
deduce que la matriz es regular y la expresión de 𝐴−1 :
1 1
𝐴 Adj𝐴 = ⏟
det 𝐴 𝐼𝑛 → 𝐴 ( Adj𝐴) = 𝐼𝑛 → 𝐴−1 = Adj𝐴
≠0
det 𝐴 det 𝐴
Recíprocamente, supóngase que 𝐴 es regular. Entonces existirá 𝐴−1 , cumpliéndose 𝐴𝐴−1 = 𝐼𝑛 . Tomando
determinantes en esta expresión se tiene que
det (𝐴𝐴−1 ) = det (𝐼𝑛 )
y empleando las propiedades de los determinantes
det 𝐴 ⋅ det (𝐴−1 ) = 1
Si el producto de dos números es la unidad, ninguno de ellos puede ser cero. Por lo tanto:
det 𝐴 ≠ 0

Ejemplo 3.7
La inversa de la matriz
1 2 0
𝐴 = [3 0 2]
0 3 1
es la matriz
1/2 1/6 −1/3
−1
1 1 −6 −2 4
𝐴 = Adj𝐴 = [−3 1 −2] = [ 1/4 −1/12 1/6 ]
det 𝐴 −12
9 −3 −6 −3/4 1/4 1/2

La regla de Cramer

La regla de Cramer utiliza determinantes para resolver sistemas 𝐴𝑥 = 𝑏 cuando 𝐴 es una matriz regular
de orden 𝑛. Estos sitemas tienen una única solución, 𝑥0 = 𝐴−1 𝑏 y la regla de Cramer los resuelve sin usar
1
𝐴−1 = Adj 𝐴.
det 𝐴

Suescun, Insausti, Flaquer (2022) 102 Tecnun-Universidad de Navarra


3 Determinantes 3.5 La regla de Cramer

Sean 𝑢1 𝑢2 … 𝑢𝑛 las columnas de la matriz 𝐴 y 𝑥0 la única solución del sistema, es decir:


𝛼10
𝛼20
𝐴 = [𝑢1 𝑢2 … 𝑢𝑛 ] 𝑥0 = [ … ]
𝛼𝑛0
Por ser solución:
𝑏 = 𝐴𝑥0 = 𝛼10 𝑢1 + 𝛼20 𝑢2 + ⋯ + 𝛼𝑗0 𝑢𝑗 + ⋯ + 𝛼𝑛0 𝑢𝑛
Para hallar el valor de la incógnita 𝛼𝑗0 se hace los siguiente. En primer lugar se reordena la suma anterior:

𝑏 = 𝛼𝑗0 𝑢𝑗 + ∑ 𝛼𝑖0 𝑢𝑖
𝑖≠𝑗

Y a continuación, se calcula el siguiente determinantes, que está basado en el de la matriz 𝐴, remplazando


la columna 𝑢𝑗 por la columna 𝑏:

det[𝑢1 𝑢2 … 𝑏 … 𝑢𝑛 ] = det [𝑢1 𝑢2 … (𝛼𝑗0 𝑢𝑗 + ∑ 𝛼𝑖0 𝑢𝑖 ) … 𝑢𝑛 ]


𝑖≠𝑗

= det[𝑢1 𝑢2 … 𝛼𝑗0 𝑢𝑗 … 𝑢𝑛 ] + det [𝑢1 𝑢2 … ∑ 𝛼𝑖0 𝑢𝑖 … 𝑢𝑛 ]


𝑖≠𝑗

= 𝛼𝑗0 det[𝑢1 𝑢2 … 𝑢𝑗 … 𝑢𝑛 ] + 0 = 𝛼𝑗0 det𝐴


Nótese que el segundo determinante de la derecha es nulo pues la columna ∑𝑖≠𝑗 𝛼𝑗0 𝑢𝑗 es combinación
de la demás.
Como 𝐴 es regular, det𝐴 ≠ 0:
det[𝑢1 𝑢2 … 𝑏 … 𝑢𝑛 ]
𝛼𝑗0 =
det 𝐴
para todo 𝑗 ∈ {1, 2, … , 𝑛}.

Ejemplo 3.8
Se desea resolver por la regla de Cramer el sistema 𝐴𝑥 = 𝑏, siendo:
1 2 0 12
𝐴 = [3 0 2] 𝑏 = [24]
0 3 1 48
Denotando con 𝑢1 , 𝑢2 , 𝑢3 las columnas de 𝐴, la solución viene dada por
12 2 0
det [24 0 2]
det[𝑏 𝑢2 𝑢3 ] 48 3 1 = −6
𝛼10 = =
det𝐴 −12
1 12 0
det [3 24 2]
det[𝑢1 𝑏 𝑢3 ] 0 48 1 = 9
𝛼20 = =
det𝐴 −12
1 2 12
det [3 0 24]
det[𝑢1 𝑢2 𝑏] 0 3 48 = 21
𝛼30 = =
det𝐴 −12
Esto es:
−6
𝑥0 = [ 9 ]
21

Suescun, Insausti, Flaquer (2022) 103 Tecnun-Universidad de Navarra


3.6 Cálculo práctico de determinantes 3 Determinantes

Cálculo práctico de determinantes

Se parte del resultado de la Proposición 3.1,


𝑎𝑖1 Å𝑖1 + 𝑎𝑖2 Å𝑖2 + ⋯ + 𝑎𝑖𝑛 Å𝑖𝑛 = det𝐴 ∀ 𝑖 ∈ {1, 2, … , 𝑛}
Esta expresión muestra cómo calcular el determinante de 𝐴 desarrollado por los elementos de la fila 𝑖 de
𝐴. Conviene desarrollar por una fila (o columna) que posea el mayor número posible de ceros, ya que para
esos elementos no hará falta calcular su correspondiente adjunto.

Ejemplo 3.9
Se pide calcular el siguiente determinante:
0 0 5 0
1 4 2 0
det [ ]
1 6 4 2
3 7 5 0
Desarrollando por la primera fila y luego por la segunda columna:
0 0 5 0 1 4 0
1 4
det [ 1 4 2 0 ] = 5(−1)1+3 det [1 6 2 ] = 5 ⋅ 2(−1)2+3 det [ ] = 5 ⋅ (−2) · (−5) = 50
1 6 4 2 3 7
3 7 0
3 7 5 0

Una estrategía muy usada es crear filas o columnas con muchos ceros, ejecutando operaciones
elementales de clase 3, esto es, haciendo cero con el mecanismos de eliminación de Gauss.
Cálculo del determinante de matrices triangulares
Las matrices triangulares (inferiores o superiores) tienen un determinante muy sencillo de calcular, pues
resulta de multiplicar los elementos de la diagonal principal de la matriz.

Proposición 3.5
Enunciado: El determinante de la una matriz triangular inferior es
𝑙11 0 … 0
𝑙21 𝑙22 … 0
det 𝐿 = det [ ] = 𝑙11 𝑙22 … 𝑙𝑛𝑛
… … … …
𝑙𝑛1 𝑙𝑛2 … 𝑙𝑛𝑛
Demostración: Desarrollando por la primera fila de 𝐿 se tiene
𝑙22 … 0
det 𝐿 = 𝑙11 det [ … … …]
𝑙𝑛2 … 𝑙𝑛𝑛
Repitiendo sucesivamente el procedimiento se llega finalmente al resultado indicado.

Nuevamente, una estrategia eficaz es intentar convertir el determinante a resolver en uno triangular,
haciendo ceros mediante operaciones elementales.

Ejemplo 3.10
Para calcular el determinante de la siguiente matriz
1 2 3
𝐴 = [4 5 6]
7 8 10
Se transforma el determinante en uno triangular mediante tres operaciones elementales:

Suescun, Insausti, Flaquer (2022) 104 Tecnun-Universidad de Navarra


3 Determinantes 3.6 Cálculo práctico de determinantes

1 2 3 1 2 3 1 2 3
det [4 5 6 ] = det [0 −3 −6 ] (a) = det [0 −3 −6] = 1 ⋅ (−3) ⋅ 1 = −3
7 8 10 0 −6 −11 (b) 0 0 1 (c)
siendo las operaciones realizadas: a) 𝐹2 − 4𝐹1 , b) 𝐹3 − 7𝐹1 y c) 𝐹3 − 2𝐹2 .

Ejemplo 3.11
Hallar el siguiente determinante, siendo 𝜆 un parámetro real:
1−𝜆 1 1
𝐷(𝜆) = det [ 1 1−𝜆 1 ]
1 1 1−𝜆
Se resuelve transformándolo también en un determinante triangular:
3−𝜆 3−𝜆 3−𝜆 1 1 1
𝐷(𝜆) = det [ 1 1−𝜆 1 ] = (3 − 𝜆)det [1 1−𝜆 1 ]
1 1 1−𝜆 1 1 1−𝜆
1 1 1
= (3 − 𝜆)det [0 −𝜆 0 ] = (3 − 𝜆)(−𝜆)2
0 0 −𝜆
Se han realizado lo siguiente. Se ha sumado a la primera fila las filas segunda y tercera, para lograr un
factor común 3 − 𝜆 en la primera fila; una vez extraído, a la segunda y tercera fila se les resta la primera
formada por todo unos, obteniendo el determinante de una matriz triangular superior.

Cálculo del determinante de matrices tridiagonales


Las matrices cuadradas de orden 𝑛 tridiagonales de la forma
𝑎 𝑏 0 … 0 0
𝑐 𝑎 𝑏 … 0 0
0 𝑐 𝑎 … 0 0
… … … … … …
0 0 0 … 𝑎 𝑏
[0 0 0 … 𝑐 𝑎]
poseen un determinante 𝐷𝑛 que se puede obtener recursivamente conociendo los dos determinantes de
órdenes inmediatamente inferiores 𝐷𝑛−1 y 𝐷𝑛−2, pues desarrollando por la primera fila de 𝐷𝑛 se tiene
𝑎 𝑏 … 0 0 𝑐 𝑏 … 0 0
𝑐 𝑎 … 0 0 0 𝑎 … 0 0
𝐷𝑛 = 𝑎 det … … … … … − 𝑏 det … … … … … = 𝑎𝐷𝑛−1 − 𝑏𝑐𝐷𝑛−2
0 0 … 𝑎 𝑏 0 0 … 𝑎 𝑏
[0 0 … 𝑐 𝑎] [0 0 … 𝑐 𝑎]
donde el primer determinante es 𝐷𝑛−1 y el segundo se ha desarrollado a su vez por su primera columna
obteniendo 𝑐𝐷𝑛−2 .
En definitiva,
𝐷𝑛 = 𝑎𝐷𝑛−1 − 𝑏𝑐𝐷𝑛−2
Una fórmula general para 𝐷𝑛 en función de los valores de 𝑛, 𝑎, 𝑏, 𝑐 se puede hallar utilizando ecuaciones
en diferencias.
Se parte de la ecuación de segundo grado 𝑥 2 − 𝑎𝑥 + 𝑏𝑐 = 0 cuyas raíces son 𝛼 y 𝛽. Se dan dos situaciones
posibles:
Si 𝛼 ≠ 𝛽, entonces
𝐷𝑛 = 𝑐1 𝛼 𝑛 + 𝑐2 𝛽 𝑛
Si 𝛼 = 𝛽, entonces
𝐷𝑛 = 𝑐1 𝛼 𝑛 + 𝑐2 𝑛𝛼 𝑛−1

Suescun, Insausti, Flaquer (2022) 105 Tecnun-Universidad de Navarra


3.6 Cálculo práctico de determinantes 3 Determinantes

En ambos casos, los coeficientes 𝑐1 y 𝑐2 se determinan para valores pequeños de 𝑛. Se omite la


justificación de las citadas afirmaciones.

Ejemplo 3.12
Se pide hallar el valor del siguiente determinante de orden 𝑛
3 2 0 … 0 0
1 3 2 … 0 0
0 1 3 … 0 0
𝐷𝑛 = det
… … … … … …
0 0 0 … 3 2
[0 0 0 … 1 3]
La ecuación 𝑥 2 − 𝑎𝑥 + 𝑏𝑐 = 0 es en este ejemplo 𝑥 2 − 3𝑥 + 2 = 0. Las soluciones de la ecuación son
𝛼 = 1 y 𝛽 = 2, distintas entre sí, luego
𝐷𝑛 = 𝑐1 1𝑛 + 𝑐2 2𝑛
Como 𝐷1 = 3 y 𝐷2 = 7, se tiene
𝐷1 = 𝑐1 + 2𝑐2 = 3
𝐷2 = 𝑐1 + 4𝑐2 = 7
deduciéndose
𝑐1 = −1, 𝑐2 = 2
de donde
𝐷𝑛 = −1 + 2𝑛+1

Cálculo del determinante de matrices triangulares por bloques


Es frecuente encontrarse con la necesidad de calcular el determinante de una matriz triangular por
bloques, con bloques diagonales cuadrados. Se puede probar que el citado determinante es igual al
producto de los determinantes de los bloques diagonales. Así, por ejemplo,
𝐴11 𝑂 … 𝑂
𝐴21 𝐴22 …
det = det𝐴11 det𝐴22 … det𝐴𝑝𝑝
… … … …
[𝐴𝑝1 𝐴𝑝2 … 𝐴𝑝𝑝 ]

Ejemplo 3.13
Se pide calcular el determinante de la siguiente matriz
1 1 1 0 0
1 2 2 0 0
𝐴= 1 2 3 0 0
5 6 7 1 2
[8 9 10 3 4]
Tiene dos bloques cuadrados diagonales por lo que

1 1 1
1 2
det𝐴 = det [1 2 2] ⋅ det [ ] = 1 ⋅ (−2) = −2
3 4
1 2 3

Suescun, Insausti, Flaquer (2022) 106 Tecnun-Universidad de Navarra


3 Determinantes 3.7 Menores

Menores

Se llama menor de orden 𝑘 de una matriz 𝐴 (no necesariamente cuadrada) al determinante de la


submatriz cuadrada de 𝐴 que resulta de fijar 𝑘 filas y 𝑘 columnas de 𝐴.
Si se fijan las filas 𝑖1 , 𝑖2 , … , 𝑖𝑘 y las columnas 𝑗1 , 𝑗2 , … , 𝑗𝑘 utilizaremos la notación
𝑀(𝑖1 , 𝑖2 , … , 𝑖𝑘 ; 𝑗1 , 𝑗2 , … , 𝑗𝑘 )
para denotar el citado menor.

Ejemplo 3.14
Dada la matriz
1 2 3 4
𝐴 = [5 6 7 8]
9 10 11 12
Es
6 8
𝑀(2, 3; 2, 4) = det [ ] = −8
10 12

Para matrices cuadradas 𝐴 es interesante definir un menor principal de orden 𝑘 como un menor de orden
𝑘 que resulta de fijar 𝑘 filas y las mismas 𝑘 columnas de 𝐴. Se simplifica la notación a 𝑀(𝑖1 , 𝑖2 , … , 𝑖𝑘 ).

Ejemplo 3.15
Dada la matriz
1 2 3
𝐴 = [4 5 6]
7 8 9
el menor

5 6
𝑀(2,3) = det [ ] = −3
8 9
es un menor principal de orden 2 de 𝐴.

Un menor principal de orden 𝑘 se llama menor principal angular si se fijan las 𝑘 primeras filas y las 𝑘
primeras columnas.

Ejemplo 3.16
Dada la matriz anterior
1 2 3
𝐴 = [4 5 6]
7 8 9
el menor
1 2
𝑀(1,2) = det [ ] = −3
4 5
es un menor principal angular de orden 2 de 𝐴.

Suescun, Insausti, Flaquer (2022) 107 Tecnun-Universidad de Navarra


3.8 El determinante de Vandermonde 3 Determinantes

El determinante de Vandermonde

El determinante de Vandermonde es un determinante 𝑉𝑛 de orden 𝑛 que aparece en determinadas


ocasiones, lo que justifica su estudio. Depende de 𝑛 parámetros 𝛼1 , 𝛼2 , … , 𝛼𝑛 . Formulado por filas, la fila
𝑖 de la matriz está formada por las potencias naturales de 0 hasta 𝑛 − 1 de 𝛼𝑖
1 𝛼1 𝛼12 … 𝛼1𝑛−1
1 𝛼2 𝛼22 … 𝛼2𝑛−1
𝑉𝑛 = det 1 𝛼3 𝛼32 … 𝛼3𝑛−1

[1 𝛼𝑛 𝛼𝑛2 … 𝛼𝑛𝑛−1 ]
Se puede probar que

𝑉𝑛 = ∏( 𝛼𝑖 − 𝛼𝑗 )
𝑖>𝑗

Se trata del producto de todas las diferencias posibles 𝛼𝑖 − 𝛼𝑗 entre pares de números de 𝛼1 , 𝛼2 , … , 𝛼𝑛
de modo que el subíndice 𝑖 de 𝛼𝑖 sea mayor que el subíndice 𝑗 de 𝛼𝑗 .
Un ejemplo aclarará esta cuestión:

Ejemplo 3.17
Se pide calcular el determinante de la siguiente matriz
1 𝑎 𝑎2
𝐴 = [1 𝑏 𝑏2]
1 𝑐 𝑐2
Se trata del determinante de Vandermonde de orden tres, dependiente de 𝑎, 𝑏, 𝑐. Se tiene, por tanto
det 𝐴 = 𝑉3 = (𝛼2 − 𝛼1 )(𝛼3 − 𝛼1 )(𝛼3 − 𝛼2 ) = (𝑏 − 𝑎)(𝑐 − 𝑎)(𝑐 − 𝑏)

Suescun, Insausti, Flaquer (2022) 108 Tecnun-Universidad de Navarra


3 Determinantes 3.9 Ejemplos de aplicación

Ejemplos de aplicación

Ejemplo de aplicación 3.1


Se trata de hallar un polinomio de tercer grado
𝑦 = 𝑎 + 𝑏𝑥 + 𝑐𝑥 2 + 𝑑𝑥 3
que pasa por los cuatro puntos de coordenadas (2,5), (3,3), (4,5), (5,2) respecto de un sistema de
referencia cartesiano.
Como el polinomio debe pasar por los puntos citados se debe cumplir:
5 = 𝑎 + 2𝑏 + 4𝑐 + 8𝑑
3 = 𝑎 + 3𝑏 + 9𝑐 + 27𝑑
5 = 𝑎 + 4𝑏 + 16𝑐 + 64𝑑
2 = 𝑎 + 5𝑏 + 25𝑐 + 125𝑑
En escritura matricial
1 2 4 8 𝑎 5
1 3 9 27 𝑏 3
=
1 4 16 64 𝑐 5
[1 5 25 125] [ 𝑑 ] [2]
La matriz del sistema es de Vandermonde, escrita por filas, y es de la forma
20 21 22 23
30 31 32 33
40 41 42 43
[ 50 51 52 53 ]
Su determinante vale
(5 − 4)(5 − 3)(5 − 2)(4 − 3)(4 − 2)(3 − 2) =
= 1 ⋅ 2 ⋅ 3 ⋅ 1 ⋅ 2 ⋅ 1 = 12
Es distinto de cero. El sistema es de Cramer y por consiguiente con solución única. Resuelto el sistema se
obtiene
𝑎 = 57, 𝑏 = −51, 𝑐 = 15.5, 𝑑 = −1.5
que corresponde al polinomio de tercer grado
𝑦 = 57 − 51𝑥 + 15.5𝑥 2 − 1.5𝑥 3
que pasa exactamente por los cuatro puntos dados, como se muestra en la siguiente gráfica.

20

15

y
10

0
1 2 3 4 5 6
x

Suescun, Insausti, Flaquer (2022) 109 Tecnun-Universidad de Navarra


3.9 Ejemplos de aplicación 3 Determinantes

Ejemplo de aplicación 3.2


La sucesión de Fibonacci es una sucesión infinita en la que cada término se construye sumando los dos
inmediatamente anteriores, partiendo de los números 1 y 2:
1, 2, 3, 5, 8, 13, 21, …
La ecuación recursiva viene dada por
𝑓𝑛 = 𝑓𝑛−1 + 𝑓𝑛−2
El siguiente determinante de una matriz tridiagonal de orden 𝑛 permite, variando 𝑛, obtener los términos
de la sucesión:
1 −1 … 0 0
1 1 … 0 0
𝑓𝑛 = det … … … … …
0 0 … 1 −1
[0 0 … 1 1]
La fórmula general para 𝑓𝑛 se puede obtener resolviendo la ecuación 𝑥 2 − 𝑥 − 1 = 0 que origina como
soluciones distintas
1 + √5 1 − √5
𝛼= 𝛽=
2 2
Por consiguiente
𝑓𝑛 = 𝑐1 𝛼 𝑛 + 𝑐2 𝛽 𝑛
Dando a 𝑛 los valores iniciales 1, 2 estos mismos valores corresponden a 𝑓1 y 𝑓2 por lo que se tiene el
sistema de Vandermonde
𝑓1 = 𝑐1 𝛼 + 𝑐2 𝛽 = 1
𝑓2 = 𝑐1 𝛼 2 + 𝑐2 𝛽 2 = 2
que se puede resolver muy fácilmente dándose cuenta de que
𝛼2 = 𝛼 + 1
𝛽2 = 𝛽 + 1
con lo que el sistema se simplifica a
𝑐1 𝛼 + 𝑐2 𝛽 = 1
𝑐1 (𝛼 + 1) + 𝑐2 (𝛽 + 1) = 2
y todavía más a
𝑐1 𝛼 + 𝑐2 𝛽 = 1
𝑐1 + 𝑐2 = 1
y de ahí
1−𝛽 𝛼−1
𝑐1 = , 𝑐2 =
𝛼−𝛽 𝛼−𝛽
Nótese que
𝛼+𝛽 =1
𝛼 − 𝛽 = √5
En definitiva
𝑛+1 𝑛+1
𝛼 𝛽 1 1 + √5 1 − √5
𝑓𝑛 = 𝑐1 𝛼 𝑛 + 𝑐2 𝛽 𝑛 = 𝛼𝑛 − 𝛽𝑛 = [( ) −( ) ]
𝛼−𝛽 𝛼−𝛽 √5 2 2

Suescun, Insausti, Flaquer (2022) 110 Tecnun-Universidad de Navarra


3 Determinantes 3.9 Ejemplos de aplicación

Ejemplo de aplicación 3.3


Los determinantes tienen numerosas aplicaciones en Geometría. Las más básicas tienen que ver con el
cálculo del área de un paralelogramo, el volumen de un paralelepípedo y el del tetraedro definido por tres
aristas concurrentes.
Área de un paralelogramo
Considérese un paralelogramo definido por los dos vectores de la figura, cuyos extremos, en un sistema
de referencia cartesiano plano, tienen de coordenadas (𝑎, 𝑏) y (𝑐, 𝑑).

(𝑐, 𝑑)
𝑑

𝑏 (𝑎, 𝑏)

𝑐 𝑎

Su área viene dada por


𝑎 𝑏
𝑆 = abs (det [ ]) = |𝑎𝑑 − 𝑏𝑐|
𝑐 𝑑
donde 𝑎𝑏𝑠 significa “valor absoluto”.
Volumen de un paralelepípedo
Considérese ahora el paralelepípedo definido por los tres vectores de la figura, cuyos extremos, en un
sistema de referencia cartesiano espacial, tienen de coordenadas (𝑎, 𝑏, 𝑐), (𝑑, 𝑒, 𝑓) y (𝑔, ℎ, 𝑗) .

(𝑔, ℎ, 𝑖) (𝑔, ℎ, 𝑖)

(𝑑, 𝑒, 𝑓) (𝑑, 𝑒, 𝑓)

(𝑎, 𝑏, 𝑐) (𝑎, 𝑏, 𝑐)

Su volumen viene dado por el siguiente valor absoluto


𝑎 𝑏 𝑐
𝑉 = abs (det [𝑑 𝑒 𝑓]) = |𝑎𝑒𝑖 + 𝑏𝑓𝑔 + 𝑐𝑑ℎ − 𝑐𝑒𝑔 − 𝑏𝑑𝑖 − 𝑎𝑓ℎ|
𝑔 ℎ 𝑖
Volumen de un tetraedro
Finalmente, sea el tetraedro de la figura definido por los tres vectores de coordenadas en los extremos
(𝑎, 𝑏, 𝑐), (𝑑, 𝑒, 𝑓) y (𝑔, ℎ, 𝑗). Su volumen es la sexta parte del volumen del paralelepípedo anterior por lo
que
1 1
𝑉𝑇 = 𝑉 = |𝑎𝑒𝑖 + 𝑏𝑓𝑔 + 𝑐𝑑ℎ − 𝑐𝑒𝑔 − 𝑏𝑑𝑖 − 𝑎𝑓ℎ|
6 6

Suescun, Insausti, Flaquer (2022) 111 Tecnun-Universidad de Navarra


3.9 Ejemplos de aplicación 3 Determinantes

Suescun, Insausti, Flaquer (2022) 112 Tecnun-Universidad de Navarra


3 Determinantes 3.10 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 3.1
Demuestre que 𝑑𝑒𝑡(𝐴𝐵) = 𝑑𝑒𝑡(𝐵𝐴), siendo 𝐴 y 𝐵 dos matrices cuadradas de orden 𝑛.

Solución
Aplicando una propiedad de los determinantes:
det(𝐴𝐵) = det 𝐴 ⋅ det 𝐵 = det 𝐵 ⋅ det 𝐴 = det(𝐵𝐴)

Ejercicio 3.2
Si el determinante de la matriz cuadrada 𝐴2×2 = [𝑢 𝑣] vale la unidad, siendo 𝑢 y 𝑣 las dos columnas
de 𝐴, ¿cuánto vale el determinante de la matriz 𝐵 = [𝑢 + 𝑣 𝑢 − 𝑣]?

Solución (Primer procedimiento)


Separando la 1ª columna y a continuación la 2ª:
det 𝐵 = det[ 𝑢 + 𝑣 𝑢 − 𝑣 ] = det[ 𝑢 𝑢 − 𝑣 ] + det[ 𝑣 𝑢 − 𝑣 ]
= det[𝑢 𝑢] − det[𝑢 𝑣] + det[𝑣 𝑢] − det[𝑣 𝑣]
= 0 − 1 − 1 − 0 = −2

Solución (Segundo procedimiento)


Sumando la segunda columna a la primera, y restando la nueva primera columna a la segunda:
det 𝐵 = det[ 𝑢 + 𝑣 𝑢 − 𝑣 ] = det[ 2𝑢 𝑢 − 𝑣 ]
= 2 det[ 𝑢 𝑢 − 𝑣 ] = 2 det[ 𝑢 −𝑣 ]
= −2 det[ 𝑢 𝑣 ] = −2

Ejercicio 3.3
Demuestre que det 𝐴𝐻 = ̅̅̅̅̅̅̅
det 𝐴.

Solución
Atendiendo a la definición de la matriz traspuesta hermítica y a las propiedades de los determinantes, se
tiene:
det 𝐴𝐻 = det(𝐴̅)𝑇 = det 𝐴̅ = ̅̅̅̅̅̅̅
det 𝐴

Ejercicio 3.4
Siendo 𝐴 una matriz real de orden 𝑛, demuestre que det (𝐴𝑇 𝐴) ≥ 0.

Solución
Atendiendo a las propiedades de los determinantes, se tiene:
det(𝐴𝑇 𝐴) = det 𝐴𝑇 ⋅ det 𝐴 = det 𝐴 ⋅ det 𝐴 = (det 𝐴)2 ≥ 0
ya que el determinante de una matriz real es también un número real.

Ejercicio 3.5
Escribir el determinante de (𝐴 + 𝐵) en función de los determinantes de 𝐴 y 𝐵, siendo 𝐴 y 𝐵 matrices
cuadradas de orden dos de la forma:
𝐴 = [ 𝑢1 𝑢2 ] 𝐵 = [𝑣1 𝑣2 ]
sabiendo que:
det [ 𝑢1 𝑣2 ] = det [ 𝑢2 𝑣1 ]

Suescun, Insausti, Flaquer (2022) 113 Tecnun-Universidad de Navarra


3.10 Ejercicios resueltos 3 Determinantes

Solución
det(𝐴 + 𝐵) = det [𝑢1 + 𝑣1 𝑢2 + 𝑣2 ]
= det [𝑢1 𝑢2 + 𝑣2 ] + det [𝑣1 𝑢2 + 𝑣2 ]
= det [ 𝑢1 𝑢2 ] + det [ 𝑢1 𝑣2 ] + det [ 𝑣1 𝑢2 ] + det [ 𝑣1 𝑣2 ]
= det 𝐴 + 𝑑𝑒𝑡 [ 𝑢1 𝑣2 ] − det [ 𝑢2 𝑣1 ] + det 𝐵
= det 𝐴 + det 𝐵
El resultado obtenido no puede generalizarse como una propiedad de los determinantes.

Ejercicio 3.6
Demuéstrese que una matriz antisimétrica de orden impar es singular.

Solución
Sea 𝐴 una matriz antisimétrica de orden 𝑛 impar. Se tiene:
det 𝐴 = det(𝐴𝑇 ) = det (−𝐴) = det ((−1)𝐴) = (−1)𝑛 det 𝐴 = − det 𝐴
Por tanto, 𝑑𝑒𝑡 𝐴 = 0 y 𝐴 es singular.

Ejercicio 3.7
A partir de la identidad 𝐴 𝐴𝑑𝑗𝐴 = det 𝐴 𝐼𝑛 , deduzca el valor del determinante de la matriz adjunta de una
matriz regular 𝐴 en función del determinante de 𝐴.

Solución
Calculando el determinante de las matrices a ambos lados de la identidad del enunciado y operando:
det(𝐴 𝐴𝑑𝑗𝐴) = det(det 𝐴 𝐼𝑛 )
det 𝐴 ⋅ det(𝐴𝑑𝑗𝐴) = (det 𝐴)𝑛 det 𝐼𝑛 = (det 𝐴)𝑛
Al tratarse de una matriz regular:
det 𝐴 ≠ 0 → det(𝐴𝑑𝑗𝐴) = (det 𝐴)𝑛−1

Ejercicio 3.8
Deduzca el valor del determinante de una matriz 𝐴 regular en función del determinante de su matriz
adjunta.

Solución
Se parte del resultado del ejercicio anterior
det(𝐴𝑑𝑗𝐴) = (det 𝐴)𝑛−1
luego
1
det 𝐴 = det(𝐴𝑑𝑗𝐴)𝑛−1

Ejercicio 3.9
Averigüe para qué valores de 𝑥 la siguiente matriz:
0 𝑥 𝑥2
𝐴 = [𝑥 −1 0 𝑥]
𝑥 −2 𝑥 −1 0
es invertible.

Suescun, Insausti, Flaquer (2022) 114 Tecnun-Universidad de Navarra


3 Determinantes 3.10 Ejercicios resueltos

Solución
Los valores de 𝑥 buscados son aquellos que no anulan el determinante de la matriz 𝐴:
0 𝑥 𝑥2
det 𝐴 = det [𝑥 −1 0 𝑥 ] = 𝑥𝑥𝑥 −2 + 𝑥 −1 𝑥 −1 𝑥 2 = 1 + 1 = 2
𝑥 −2 𝑥 −1 0
Por tanto la matriz siempre es invertible cuando 𝑥 ≠ 0

Ejercicio 3.10
Hállese, cuando proceda, la inversa de la matriz del ejercicio 3.9.

Solución
La citada matriz es invertible siempre que 𝑥 ≠ 0. Su inversa es:
𝑇
𝐴𝑑𝑗 𝐴 1 −1 𝑥 −1 𝑥 −2 1 −1 𝑥 𝑥2
𝐴−1 = = [ 𝑥 −1 𝑥 −1 ] = [ 𝑥 −1 −1 𝑥 ]
det 𝐴 2 2 −2
𝑥2 𝑥 −1 𝑥 𝑥 −1 −1

Ejercicio 3.11
Resuelva el siguiente sistema de ecuaciones usando la regla de Cramer:
−𝛼1 + 2𝛼2 = 0
{
3𝛼1 − 4𝛼2 = 2

Solución
Directamente:
0 2 −1 0
det [ ] −4 det [ ]
𝛼1 = 2 −4 = =2 𝛼2 = 3 2 = −2 = 1
−1 2 −2 −1 2 −2
det [ ] det [ ]
3 −4 3 −4

Ejercicio 3.12
Se sabe que un determinante de orden 𝑛 verifica la siguiente ecuación:
𝐷𝑛 = 2𝐷𝑛−1 − 𝐷𝑛−2
Se conoce que 𝐷1 = 2 y 𝐷2 = 3. Hállese 𝐷𝑛 en función de 𝑛.

Solución
Aplicando el método de las ecuaciones en diferencias, se plantea y resuelve la ecuación de 2º grado
correspondiente:
𝛼=1
𝑥 2 − 2𝑥 + 1 = 0 → {
𝛽=𝛼=1
Por tanto, la solución buscada tiene la siguiente forma:
𝐷𝑛 = 𝑐1 𝛼 𝑛 + 𝑐2 𝑛𝛼 𝑛−1 = 𝑐1 + 𝑛𝑐2
Sólo queda resolver las dos constantes 𝑐1 y 𝑐2 . Para ellos, se utilizan los valores conocidos del
determinante:
𝑛=1 → 𝐷1 = 𝑐1 + 𝑐2 → 𝑐1 + 𝑐2 = 2 𝑐 =1
} → { 1
𝑛=2 → 𝐷2 = 𝑐1 + 2𝑐2 → 𝑐1 + 2𝑐2 = 3 𝑐2 = 1
Y, en definitiva:
𝐷𝑛 = 1 + 𝑛 × 1𝑛−1 = 1 + 𝑛

Suescun, Insausti, Flaquer (2022) 115 Tecnun-Universidad de Navarra


3.10 Ejercicios resueltos 3 Determinantes

Ejercicio 3.13
Se sabe que:
𝐴 𝐴𝑥
det [ ] = det 𝐴 ⋅ (𝛼 − 𝑥 𝑇 𝐴𝑥)
𝑥𝑇𝐴 𝛼
Siendo: 𝐴 una matriz real y cuadrada de orden 𝑛, 𝑥 una columna de 𝑛 números reales y 𝛼 un número real
cualquiera. Calcúlese el determinante de la matriz 𝐵 cuadrada de orden 𝑛 + 1 siguiente:
1 0 0 ⋯ 0 1
0 1 0 ⋯ 0 1
0 0 1 0 1
𝐵=
⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 1
[1 1 1 ⋯ 1 𝑛]

Solución
Comparando con la fórmula del enunciado:
1
1
𝐴 = 𝐼𝑛 𝑥= 1 𝛼=𝑛

[1]
Y, por tanto:
𝑥 𝑇 𝐴𝑥 = 𝑥 𝑇 𝐼𝑛 𝑥 = 𝑥 𝑇 𝑥 = 𝑛
det 𝐵 = det 𝐼𝑛 × (𝑛 − 𝑛) = 0

Ejercicio 3.14
Resolver la siguiente ecuación en la incógnita real 𝑥, donde 𝑎 y 𝑏 son parámetros reales:
𝑥 𝑎 𝑏
det [𝑎 𝑥 𝑏] = 0
𝑏 𝑎 𝑥

Solución
Sumando a la 1ª columna todas las demás y sacando factor común la expresión (𝑎 + 𝑏 + 𝑥):
𝑥 𝑎 𝑏 𝑥+𝑎+𝑏 𝑎 𝑏 1 𝑎 𝑏
det [ 𝑎 𝑥 𝑏] = det [𝑎 + 𝑥 + 𝑏 𝑥 𝑏] = (𝑎 + 𝑏 + 𝑥) ⋅ det [1 𝑥 𝑏]
𝑏 𝑎 𝑥 𝑏+𝑎+𝑥 𝑎 𝑥 1 𝑎 𝑥
Continuando por columnas
1 0 0
= (𝑎 + 𝑏 + 𝑥) ⋅ det [ 1 𝑥−𝑎 0 ] = (𝑎 + 𝑏 + 𝑥)(𝑥 − 𝑎)(𝑥 − 𝑏)
1 0 𝑥−𝑏
Y los valores de 𝑥 que anulan el determinante son:
𝑥 ∈ { −(𝑎 + 𝑏), 𝑎, 𝑏 }

Ejercicio 3.15
Calcúlese el determinante 𝐷𝑛 de la siguiente matriz cuadrada de orden 𝑛
𝑎+𝑏 𝑎 ⋯ 𝑎
𝑎 𝑎+𝑏 𝑎
𝐴=[ ]
⋮ ⋱
𝑎 𝑎 ⋯ 𝑎+𝑏
en función de los parámetros reales 𝑎 y 𝑏.

Suescun, Insausti, Flaquer (2022) 116 Tecnun-Universidad de Navarra


3 Determinantes 3.10 Ejercicios resueltos

Solución
Sumando a la 1ª fila todas las demás y sacando factor común (𝑎𝑛 + 𝑏), trabajando luego por filas
𝑎+𝑏 𝑎 ⋯ 𝑎 𝑎𝑛 + 𝑏 𝑎𝑛 + 𝑏 ⋯ 𝑎𝑛 + 𝑏
𝑎 𝑎+𝑏 𝑎 𝑎 𝑎+𝑏 𝑎
𝐷𝑛 = det [ ] = det [ ]
⋮ ⋱ ⋮ ⋱
𝑎 𝑎 ⋯ 𝑎+𝑏 𝑎 𝑎 ⋯ 𝑎+𝑏
1 1 ⋯ 1 1 1 ⋯ 1
𝑎 𝑎+𝑏 𝑎 0 𝑏 0
= (𝑎𝑛 + 𝑏) ⋅ det [ ] = (𝑎𝑛 + 𝑏) ⋅ det [ ]
⋮ ⋱ ⋮ ⋱
𝑎 𝑎 ⋯ 𝑎+𝑏 0 0 ⋯ 𝑏
Y, por lo tanto:
𝐷𝑛 = (𝑎𝑛 + 𝑏)𝑏 𝑛−1

Ejercicio 3.16
Hallar en función de a el valor del siguiente determinante:
𝑎 1 1 1
1 𝑎 1 1
det [ ]
1 1 𝑎 1
1 1 1 𝑎

Solución
𝑎 1 1 1 𝑎+3 𝑎+3 𝑎+3 𝑎+3 1 1 1 1
1 𝑎 1 1 1 𝑎 1 1 1 𝑎 1 1
det [ ] = det [ ] = (𝑎 + 3) ⋅ det [ ]
1 1 𝑎 1 1 1 𝑎 1 1 1 𝑎 1
1 1 1 𝑎 1 1 1 𝑎 1 1 1 𝑎
1 1 1 1
0 𝑎−1 0 0
= (𝑎 + 3) ⋅ det [ ] = (𝑎 + 3)(𝑎 − 1)3
0 0 𝑎−1 0
0 0 0 𝑎−1

Ejercicio 3.17
Resuelva la siguiente ecuación polinomial:
𝑥 𝑎 𝑎 ⋯ 𝑎
𝑎 𝑥 𝑎 ⋯ 𝑎
det 𝑎 𝑎 𝑥 ⋯ 𝑎 =0
⋯ ⋯ ⋯ ⋯ ⋯
[𝑎 𝑎 𝑎 ⋯ 𝑥]
donde 𝑥 es la incógnita y 𝑎 es un parámetro real no nulo.

Solución
Es un caso particular del ejercicio 3.15, donde 𝑏 = 𝑥 − 𝑎, luego denotando el determinante con 𝐷𝑛 se
tiene
𝐷𝑛 = (𝑎𝑛 + 𝑥 − 𝑎)(𝑥 − 𝑎)𝑛−1 = (𝑥 + (𝑛 − 1)𝑎)(𝑥 − 𝑎)𝑛−1
de lo que se deduce que las 𝑛 raíces de la ecuación 𝐷𝑛 = 0 son reales y hay dos distintas. La primera raíz
es simple y vale 𝑥1 = (1 − 𝑛)𝑎. La segunda raíz es múltiple, con multiplicidad (𝑛 − 1), y vale 𝑥2 = 𝑎.

Ejercicio 3.18
¿Para qué valores del parámetro real 𝛼 se anula el siguiente determinante?
1 𝛼 𝛼2 𝛼3
𝛼3 1 𝛼 𝛼2
det [ ]
𝑥 𝛼3 1 𝛼
𝑧 𝑦 𝛼3 1

Suescun, Insausti, Flaquer (2022) 117 Tecnun-Universidad de Navarra


3.10 Ejercicios resueltos 3 Determinantes

Solución
Si a cada una de las tres últimas columnas se le resta la anterior multiplicada por 𝛼, en el orden cuarta,
tercera y segunda, se obtiene el determinante de una matriz triangular inferior:
1 𝛼 𝛼2 𝛼3 1 0 0 0
𝛼3 1 𝛼 𝛼2 𝛼3 1 − 𝛼4 0 0
det [ ] = det [ ] = (1 − 𝛼 4 )3
𝑥 𝛼3 1 𝛼 𝑥 𝛼 3 − 𝛼𝑥 1 − 𝛼4 0
𝑧 𝑦 𝛼3 1 𝑧 𝑦 − 𝛼𝑧 𝛼 3 − 𝛼𝑦 1 − 𝛼4
que se anula para los valores reales de 𝛼1 = 1 y 𝛼2 = −1.
Nota: El resultado no depende de los valores de 𝑥, 𝑦, 𝑧.

Ejercicio 3.19
Hállese el valor del determinante de orden 𝑛 siguiente, siendo 𝑎 y 𝑏 dos parámetros reales no nulos:
𝑎+𝑏 𝑎 0 ⋯ 0 0
𝑏 𝑎+𝑏 𝑎 ⋯ 0 0
0 𝑏 𝑎+𝑏 ⋯ 0 0
𝐷𝑛 = det
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 𝑎+𝑏 𝑎
[ 0 0 0 ⋯ 𝑏 𝑎 + 𝑏]

Solución
𝐷𝑛 se puede obtener recursivamente conociendo los dos determinantes de órdenes inmediatamente
inferiores, 𝐷𝑛−1 y 𝐷𝑛−2 por lo que
𝐷𝑛 = (𝑎 + 𝑏)𝐷𝑛−1 − 𝑎𝑏𝐷𝑛−2
Resolviendo la ecuación asociada, se obtienen dos raíces, que son:
𝑥 2 − (𝑎 + 𝑏)𝑥 + 𝑎𝑏 = 0 → 𝑥 ∈ { 𝑎, 𝑏 }
En primer lugar se considera el caso de dos raíces distintas, esto es 𝑎 ≠ 𝑏. En este caso:
𝐷𝑛 = 𝑐1 𝑎𝑛 + 𝑐2 𝑏 𝑛
Para determinar las constantes se particulariza la expresión anterior para 𝑛 = 1 y 𝑛 = 2:
𝑛=1 → 𝐷1 = 𝑎 + 𝑏 → 𝑐1 𝑎 + 𝑐2 𝑏 = 𝑎 + 𝑏
𝑛=2 → 𝐷2 = (𝑎 + 𝑏)2 − 𝑎𝑏 → 𝑐1 𝑎2 + 𝑐2 𝑏 2 = (𝑎 + 𝑏)2 − 𝑎𝑏
𝑎 𝑏
𝑐1 = 𝑐2 =
𝑎−𝑏 𝑏−𝑎
Y, por tanto:
𝑎𝑛+1 𝑏 𝑛+1 1
𝐷𝑛 = + = (𝑎𝑛+1 − 𝑏 𝑛+1 )
𝑎−𝑏 𝑏−𝑎 𝑎−𝑏
Si por el contrario, la ecuación sólo tuviera una raíz doble, esto es 𝑏 = 𝑎:
𝐷𝑛 = 𝑐1 𝑎𝑛 + 𝑐2 𝑛𝑎𝑛−1
Como antes, para determinar las constantes se particulariza la expresión para 𝑛 = 1 y 𝑛 = 2:
𝑛=1 → 𝐷1 = 𝑎 + 𝑏 = 2𝑎 → 𝑐1 𝑎 + 𝑐2 = 2𝑎
2 2
𝑛=2 → 𝐷2 = (𝑎 + 𝑏) − 𝑎𝑏 = 3𝑎 → 𝑐1 𝑎2 + 2𝑐2 𝑎 = 3𝑎2
𝑐1 = 1 𝑐2 = 𝑎
Y, por tanto,
𝐷𝑛 = 𝑎𝑛 + 𝑛𝑎𝑛 = (1 + 𝑛)𝑎𝑛

Suescun, Insausti, Flaquer (2022) 118 Tecnun-Universidad de Navarra


3 Determinantes 3.10 Ejercicios resueltos

Ejercicio 3.20
Demuéstrese que si dos matrices cuadradas 𝐴 y 𝐵, ambas del mismo orden 𝑛, difieren solamente en la
columna 𝑗, para un valor de 𝑗 dado, entonces:
det(𝐴 + 𝐵) = 2𝑛−1 (det 𝐴 + det 𝐵)

Solución
De acuerdo a la descripción dada en el enunciado, las matrices 𝐴 y 𝐵 son de la forma:
𝐴 = [ 𝑥1 ⋯ 𝑥𝑗−1 𝑢 𝑥𝑗+1 ⋯ 𝑥𝑛 ]
𝐵 = [ 𝑥1 ⋯ 𝑥𝑗−1 𝑣 𝑥𝑗+1 ⋯ 𝑥𝑛 ]

con 𝑢 ≠ 𝑣, de donde:
det(𝐴 + 𝐵) = det [ 2𝑥1 ⋯ 2𝑥𝑗−1 𝑢 + 𝑣 2𝑥𝑗+1 ⋯ 2𝑥𝑛 ]
= 2𝑛−1 det [ 𝑥1 ⋯ 𝑥𝑗−1 𝑢 + 𝑣 𝑥𝑗+1 ⋯ 𝑥𝑛 ]
= 2𝑛−1 (det [ 𝑥1 ⋯ 𝑥𝑗−1 𝑢 𝑥𝑗+1 ⋯ 𝑥𝑛 ]
+ det [ 𝑥1 ⋯ 𝑥𝑗−1 𝑣 𝑥𝑗+1 ⋯ 𝑥𝑛 ])
= 2𝑛−1 (det 𝐴 + det 𝐵)

Ejercicio 3.21
Demuéstrese la identidad
1 + 𝑣 𝑇 𝑢 = det (𝐼𝑛 + 𝑢 𝑣 𝑇 )
donde 𝑢 y 𝑣 son columnas cualesquiera de 𝑛 elementos, haciendo uso de las dos identidades siguientes:
𝐼𝑛 0 𝐼 𝑢 𝐼 𝑢
[ ][ 𝑛 ] = [ 𝑛𝑇 ]
𝑣𝑇 1 −𝑣 𝑇 1 0 1 + 𝑣𝑇 𝑢
𝐼𝑛 𝑢 𝐼 0 𝐼 + 𝑢𝑣 𝑇 𝑢
[ ] [ 𝑛𝑇 ]=[ 𝑛 𝑇 ]
−𝑣 𝑇 1 𝑣 1 0 1

Solución
Los primeros miembros de las dos identidades indicadas son el producto matricial de las mismas matrices,
pero cambiadas de orden. Poseen el mismo determinante, ya que el determinante del producto matricial
es producto de determinantes y ese cambio de orden no afecta al resultado. Luego también los segundos
miembros poseen el mismo determinante, esto es:
𝐼𝑛 𝑢 𝐼𝑛 + 𝑢𝑣 𝑇 𝑢
det [ 𝑇 ] = det [ ]
0𝑇 1+𝑣 𝑢 0𝑇 1
de donde desarrollando como matrices triangulares por bloques:
det 𝐼𝑛 ⋅ det ( 1 + 𝑣 𝑇 𝑢) = det (𝐼𝑛 + 𝑢𝑣 𝑇 ) ⋅ det [1]
y, por consiguiente:
1 + 𝑣 𝑇 𝑢 = det (𝐼𝑛 + 𝑢 𝑣 𝑇 )

Ejercicio 3.22
Hállese el valor del siguiente determinante:
1 1 1 1
−1 1/2 1 −2
𝐷 = det [ ]
1 1/4 1 4
−1 1/8 1 −8

Solución:
Es un determinante de Vandermonde por columnas, con cuatro parámetros de valores:
1
−1, 2
, 1, − 2

Suescun, Insausti, Flaquer (2022) 119 Tecnun-Universidad de Navarra


3.10 Ejercicios resueltos 3 Determinantes

Por lo tanto:
1 1 1 1
1
(−1) ( ) (1) (−2)
2
𝐷 = det 1 2
(−1)2 ( ) (1)2 (−2)2
2
1 3
(−1)3 ( ) (1)3 (−2)3
[ 2 ]
1 1 1 45
= ( − (−1)) (1 − (−1))(−2 − (−1)) (1 − ) (−2 − ) (−2 − 1) = −
2 2 2 4

Suescun, Insausti, Flaquer (2022) 120 Tecnun-Universidad de Navarra


3 Determinantes 3.11 Ejercicios propuestos

Ejercicios propuestos

Ejercicio 3.23
Se pide estudiar para qué valores del parámetro real 𝑥 la siguiente matriz carece de inversa:
1+𝑥 1 1
𝐴=[ 1 1 + 2𝑥 1 ]
1 1 1 + 3𝑥

Ejercicio 3.24
Demuestre que si 𝐴𝑛×𝑛 es una matriz regular:
det 𝐴−1 = (det 𝐴)−1

Ejercicio 3.25
Supuesto que las matrices 𝐴 y 𝐵 son regulares, demuestre la identidad:
det (𝐴 + 𝐵)
det (𝐴−1 + 𝐵 −1 ) =
det (𝐴𝐵)

Ejercicio 3.26
Muestre con un ejemplo que det(𝐴 + 𝐵) ≠ det 𝐴 + det 𝐵.

Ejercicio 3.27
Demuestre que la matriz cuadrada 𝐴 es singular si y sólo si 𝐴 𝐴𝑑𝑗 𝐴 = 𝑂, siendo 𝑂 la matriz nula.

Ejercicio 3.28
Siendo 𝐴𝑛×𝑛 una matriz regular y 𝛼 un escalar, demuestre que:
𝐴𝑑𝑗(𝛼𝐴) = 𝛼 𝑛−1 𝐴𝑑𝑗 𝐴

Ejercicio 3.29
Hállese la inversa de la adjunta de una matriz regular 𝐴 de orden 𝑛, con 𝑛 > 1, en función de la matriz 𝐴.

Ejercicio 3.30
Hállese el valor del siguiente determinante de orden 𝑛, siendo 𝑑 un parámetro real:
0 1 1 1
1 0 𝑑 ⋯ 𝑑
𝐷𝑛 = det 1 𝑑 0 𝑑
⋮ ⋮
[1 𝑑 𝑑 ⋯ 0]

Ejercicio 3.31
Desarróllese el determinante y hállense las raíces de la ecuación:
𝑥2 + 2 𝑎𝑥 𝑏𝑥
det [ 𝑎𝑥 𝑥2 + 2 0 ]=0
𝑏𝑥 0 𝑥 2 + 1/4
siendo:
2 27
𝑎 = √7 𝑏 = √28

Suescun, Insausti, Flaquer (2022) 121 Tecnun-Universidad de Navarra


3.11 Ejercicios propuestos 3 Determinantes

Ejercicio 3.32
Calcule el siguiente determinante según sea su orden 𝑛 par o impar:
𝑥 𝑦 0 ⋯ 0 0
0 𝑥 𝑦 ⋯ 0 0
0 0 𝑥 ⋯ 0 0
𝐷𝑛 = det
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 𝑥 𝑦
[𝑦 0 0 ⋯ 0 𝑥]

Ejercicio 3.33
La matriz cuadrada 𝐴 = [𝑢 𝑣 𝑤] de orden 3 está formada por las tres columnas 𝑢, 𝑣 y 𝑤. Con ellas
se construye la nueva matriz cuadrada
𝐵 = [𝑣+𝑤 𝑢+𝑤 𝑢+𝑣]
de orden 3. Recordando las propiedades de la definición de la función determinante, cuando la matriz
sobre la que actúa está particionada por columnas, escriba 𝑑𝑒𝑡 𝐵 en función de 𝑑𝑒𝑡 𝐴, trabajando sólo
con las columnas y no con sus elementos particulares.

Ejercicio 3.34
Dada la matriz cuadrada 𝐴 de orden n, dependiente del parámetro real no nulo 𝑎, calcule 𝑑𝑒𝑡 𝐴 en función
de 𝑛 y 𝑎 con
1 1 1 ⋯ 1
1 1+𝑎 1 ⋯ 1
𝐴= 1 1 1+𝑎 ⋯ 1
⋯ ⋯ ⋯ ⋯ ⋯
[1 1 1 ⋯ 1 + 𝑎]

Ejercicio 3.35
Demuéstrese que si 𝐴 es una matriz regular, entonces la inversa de la adjunta de 𝐴 coincide con la adjunta
de la inversa de 𝐴.

Ejercicio 3.36
¿Cómo cambia el valor de un determinante de una matriz cuadrada de orden 𝑛 = 2𝑘 si las 𝑘 primeras
filas se sitúan detrás de las 𝑘 restantes filas manteniendo su orden relativo?

Ejercicio 3.37
Siendo 𝑃 una matriz regular del mismo orden que la matriz cuadrada 𝐴, demuéstrese que:
det (𝑃−1 𝐴 𝑃) = det 𝐴

Ejercicio 3.38
Pruébese que si 𝐴 es una matriz ortogonal y real, entonces det 𝐴 = ±1 .

Ejercicio 3.39
Pruébese que si 𝐴 es una matriz unitaria, entonces el módulo del determinante de 𝐴 vale la unidad.

Ejercicio 3.40
Resuelva el siguiente sistema de ecuaciones usando la regla de Cramer:

Suescun, Insausti, Flaquer (2022) 122 Tecnun-Universidad de Navarra


3 Determinantes 3.11 Ejercicios propuestos

4𝛼1 + 𝛼2 − 2𝛼2 = 7
{ −𝛼1 + 𝛼2 + 2𝛼2 = 3
−3𝛼1 + 𝛼2 + 4𝛼2 = 5

Ejercicio 3.41
Calcule el siguiente determinante de orden 𝑛
1 + 𝑎1 𝑎2 𝑎3 ⋯ 𝑎𝑛
𝑎1 1 + 𝑎2 𝑎3 ⋯ 𝑎𝑛
det 𝑎1 𝑎2 1 + 𝑎3 ⋯ 𝑎𝑛
⋯ ⋯ ⋯ ⋯ ⋯
[ 𝑎1 𝑎2 𝑎3 ⋯ 1 + 𝑎𝑛 ]
en función de los parámetros 𝑎1 , 𝑎2 , ⋯ , 𝑎𝑛 .

Ejercicio 3.42
Calcule el siguiente determinante de orden 𝑛:
2 −1 0 ⋯ 0 0
−1 2 −1 ⋯ 0 0
0 −1 2 ⋯ 0 0
𝐷𝑛 = det
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 2 −1
[ 0 0 0 ⋯ −1 2]

Ejercicio 3.43
Calcule el determinante de la siguiente matriz particionada por bloques
𝑂 𝐵
𝐴=[ ]
𝐶 𝐷
en función de los determinantes de los bloques 𝐵 y 𝐶, donde todos los bloques son cuadrados de orden
𝑘 y 𝑂 es un bloque nulo.

Ejercicio 3.44
Hállese el valor del siguiente determinante de orden 3, desarrollándolo por filas y columnas:
(𝑎 − 𝑏 − 𝑐)/2 𝑎 𝑎
det [ 𝑏 (𝑏 − 𝑐 − 𝑎)/2 𝑏 ]
𝑐 𝑐 (𝑐 − 𝑎 − 𝑏)/2

Ejercicio 3.45
Calcule el determinante de la inversa de la siguiente matriz y explique por qué no depende del valor del
parámetro 𝑎:
1 𝑎 0 ⋯ 0 0
0 1 𝑎 ⋯ 0 0
0 0 1 ⋯ 0 0
𝐴=
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 𝑎
[0 0 0 ⋯ 0 1]

Ejercicio 3.46
Obténgase el valor del determinante de orden 𝑛 + 1 siguiente:

Suescun, Insausti, Flaquer (2022) 123 Tecnun-Universidad de Navarra


3.11 Ejercicios propuestos 3 Determinantes

1 1 1 ⋯ 1
1 1 + 𝑎1 1 ⋯ 1
𝐷𝑛+1 = det 1 1 1 + 𝑎2 ⋯ 1
⋯ ⋯ ⋯ ⋯ ⋯
[1 1 1 ⋯ 1 + 𝑎𝑛 ]
donde 𝑎1 , 𝑎2 , . .. , 𝑎𝑛 son parámetros reales.

Ejercicio 3.47
Hállese el valor del determinante de orden 𝑛 + 1 siguiente:
𝑎 𝑎+𝑏 𝑎 + 2𝑏 ⋯ 𝑎 + 𝑛𝑏
−𝑎 𝑎 0 ⋯ 0
𝐷𝑛+1 = det 0 −𝑎 𝑎 ⋯ 0
⋯ ⋯ ⋯ ⋯ ⋯
𝑎 0
[ 0 0 0 ⋯ −𝑎 𝑎 ]
donde 𝑎 y 𝑏 son parámetros reales.

Ejercicio 3.48
Calcule el determinante de la siguiente matriz tridiagonal de orden 𝑛, en función del parámetro real 𝑎.
1 + 𝑎2 𝑎 0 ⋯ 0 0
𝑎 1 + 𝑎2 𝑎 ⋯ 0 0
0 𝑎 1 + 𝑎2 ⋯ 0 0
⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 + 𝑎2 𝑎
[ 0 0 0 ⋯ 𝑎 1 + 𝑎2 ]

Ejercicio 3.49
Hállese el valor del siguiente determinante de orden 𝑛:
𝛼1 𝛼12 𝛼13 ⋯ 𝛼1𝑛
𝛼2 𝛼22 𝛼23 ⋯ 𝛼2𝑛
det 𝛼 𝛼32 𝛼33 ⋯ 𝛼3𝑛
3
⋯ ⋯ ⋯ ⋯ ⋯
[ 𝛼𝑛 𝛼𝑛2 𝛼𝑛3 ⋯ 𝛼𝑛𝑛 ]

Ejercicio 3.50
Calcule los determinantes de las siguientes matrices:
0 0 −2 3 0 1 1 1
2 1 1
1 0 1 2 1 0 1 1
𝑎) [ 6 2 1] 𝑏) [ ] 𝑐) [ ]
−1 1 2 1 1 1 0 1
−2 2 1
0 2 −3 0 1 1 1 0

Ejercicio 3.51
Calcule las inversas de las matrices del ejercicio 3.50.

Ejercicio 3.52
Calcule el siguiente determinante:
0 0 2 0 1
1 2 1 3 1
det 0 5 2 0 1
2 1 4 4 3
[0 0 4 0 3]

Suescun, Insausti, Flaquer (2022) 124 Tecnun-Universidad de Navarra


3 Determinantes 3.11 Ejercicios propuestos

Ejercicio 3.53
Sea 𝐴 una matriz cuadrada real. Demuestre que det(𝐴2 + 𝐼) ≥ 0, aprovechando la identidad
𝐴2 + 𝐼 = (𝐴 + 𝑖𝐼)(𝐴 − 𝑖𝐼).

Suescun, Insausti, Flaquer (2022) 125 Tecnun-Universidad de Navarra


3.11 Ejercicios propuestos 3 Determinantes

Suescun, Insausti, Flaquer (2022) 126 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 3.11 Ejercicios propuestos

4 Espacios Vectoriales

Los espacios vectoriales junto con las aplicaciones lineales constituyen el marco estructural de todo el
Álgebra Lineal. Esten capítulo estudia los espacios vectoriales de dimensión finita. Los espacios
vectoriales de dimensión infinita, relacionados normalmente con los espacios funcionales, requieren un
tratamiento peculiar y se hallan fuera de un curso básico de Álgebra Lineal. Se estudian aquí los
conceptos de espacio vectorial, subespacios vectoriales, subespacios generados, dependencia e
independencia lineal, suma e intersección de subespacios y suma directa. La noción de combinación
lineal, crucial en todo el desarrollo del capítulo, establece una interpretación geométrica de los sistemas
de ecuaciones lineales y a las ecuaciones implícitas y paramétricas.

Suescun, Insausti, Flaquer (2022) 127 Tecnun-Universidad de Navarra


4.1 Estructura de espacio vectorial 4 Espacios Vectoriales

Estructura de espacio vectorial

Sea 𝐾 el cuerpo 𝑅 de los números reales o el cuerpo 𝐶 de los números complejos. Los elementos que
forman 𝐾 se denominan escalares y se emplearán letras griegas minúsculas 𝛼, 𝛽, 𝛾, … para denotarlos.
Un espacio vectorial sobre 𝐾 es un conjunto 𝐸 no vacío, de elementos llamados vectores (denotados con
letras latinas minúsculas 𝑥, 𝑦, 𝑧, …) sobre el que hay definidas dos operaciones binarias (ver figura 4.1).

𝐸
𝑦

𝑥+𝑦

𝛼. 𝑥

𝐾
0 1 𝛼

Figura 4.1: Espacio vectorial con las operaciones de suma vectorial y producto por escalares.

La primera de las operaciones, llamada suma vectorial


+: 𝐸 × 𝐸 ⟼ 𝐸
(𝑥, 𝑦) → 𝑥 + 𝑦
hace corresponder a un par de vectores (𝑥, 𝑦) cualesquiera el vector 𝑥 + 𝑦, suma de 𝑥 ∈ 𝐸 e 𝑦 ∈ 𝐸; y
cumple las siguientes propiedades:

Propiedades de la suma vectorial 7


1) 𝑥 + (𝑦 + 𝑧) = (𝑥 + 𝑦) + 𝑧 Asociativa
2) 𝑥 + 𝑦 = 𝑦 + 𝑥 Conmutativa
3) ∃! 0 ∈ 𝐸; 0 + 𝑥 = 𝑥 + 0 = 𝑥 Elemento neutro
4) ∀𝑥 ∈ 𝐸, ∃! (−𝑥) ∈ 𝐸; 𝑥 + (−𝑥) = (−𝑥) + 𝑥 = 0 Elemento opuesto

en las que 0 denota al vector nulo de 𝐸, y (−𝑥) al vector opuesto de 𝑥.


La segunda de las operaciones, llamada producto por escalares
. ∶𝐾×𝐸 ⟼ 𝐸
(𝛼, 𝑥) → 𝛼. 𝑥

hace corresponder a un par escalar-vector (𝛼, 𝑥) cualquiera el vector 𝛼. 𝑥, producto del escalar 𝛼 ∈ 𝐾 por
el vector 𝑥 ∈ 𝐸, y que cumple las siguientes propiedades:

7 La notación ∃! se lee “existe uno y sólo uno”; la notación ∈ se lee “pertenece”. De otra parte, la notación “;” se lee
“tal que” y finalmente la notación ∀ se lee “para todo”.

Suescun, Insausti, Flaquer (2022) 128 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.1 Estructura de espacio vectorial

Propiedades del producto por escalares


5) 𝛼. (𝛽. 𝑥) = (𝛼𝛽). 𝑥 Compatibilidad
6) 𝛼. (𝑥 + 𝑦) = 𝛼. 𝑥 + 𝛼. 𝑦 Distributiva (respecto a suma vectorial)
7) (𝛼 + 𝛽). 𝑥 = 𝛼. 𝑥 + 𝛽. 𝑥 Distributiva (respecto a suma escalar)
8) 1. 𝑥 = 𝑥 Elemento neutro

Las cuatro propiedades para la suma vectorial permiten afirmar que (𝐸,+) tiene estructura de grupo
Abeliano y, junto con las cuatro propiedades para el producto por escalares, (𝐸, +, . , 𝐾) tiene estructura
de espacio vectorial sobre 𝐾.
Obsérvese que la propiedad 5) es similar a una propiedad asociativa. Sin embargo, no lo es ya que los
productos que aparecen son distintos8 entre sí. Lo que indica esta propiedad es que el producto de
escalares del cuerpo 𝐾 es compatible con el producto por escalares del espacio vectorial 𝐸. Nótense
también las dos operaciones suma distintas9 que aparecen en la propiedad 7).
La definición de espacio vectorial aquí presentada se aplica a numerosos ejemplos prácticos de interés.
Muchos conjuntos, formados por elementos muy dispares entre sí, se comportan del mismo modo, pues
poseen la estructura común de espacio vectorial. Esta es la gran ventaja de trabajar en un espacio vectorial
abstracto 𝐸: sabiendo trabajar en 𝐸 se sabe trabajar en cualquier espacio vectorial.
Por último, es importante no asociar directamente el concepto de vector a una matriz columna. Aunque
es cierto que el conjunto de todas las matrices columna (con las operaciones de suma y producto por
escalar definidas para matrices) forma un espacio vectorial como se muestra en el ejemplo 4.1, existen
otros muchos espacios vectoriales distintos del conjunto de las matrices columna.
A continuación, se muestran algunos ejemplos de espacios vectoriales:

Ejemplo 4.1
Uno de los espacio vectorial más empleados es el de las matrices columna de 𝑛 elementos en 𝐾, denotado
por 𝐾 𝑛×1 . Aquí las operaciones son: la suma de columnas y el producto de un escalar por una columna.
Es patente que se cumplen las ocho propiedades de definición de espacio vectorial.

Ejemplo 4.2
Otro ejemplo habitual de espacio vectorial es el espacio Euclídeo 𝐾 𝑛 , donde
𝐾𝑛 = 𝐾 × 𝐾 × … × 𝐾
es el producto cartesiano de 𝐾, 𝑛 veces, el cual está formado por elementos de la forma (𝛼1 , 𝛼2 , … , 𝛼𝑛 ),
con 𝛼𝑖 ∈ 𝐾, 𝑖 = 1,2, … , 𝑛. Aquí las dos operaciones que dan la estructura de espacio vectorial son:
(𝛼1 , 𝛼2 , … , 𝛼𝑛 ) + (𝛽1 , 𝛽2 , … , 𝛽𝑛 ) = (𝛼1 + 𝛽1 , 𝛼2 + 𝛽2 , … , 𝛼𝑛 +𝛽𝑛 )
𝛼. (𝛼1 , 𝛼2 , … , 𝛼𝑛 ) = (𝛼𝛼1 , 𝛼𝛼2 , … , 𝛼𝛼𝑛 )
Se cumplen también en este caso las ocho propiedades de espacio vectorial.

Ejemplo 4.3
El conjunto de las matrices de tamaño 𝑚 × 𝑛 con elementos en 𝐾, denotado por 𝐾 𝑚×𝑛 , también forma
un espacio vectorial con las operaciones habituales de suma de matrices y el producto de un escalar por
una matriz definidos en el Capítulo 1. Vuelve a ser evidente que se cumplen las ocho propiedades de

8 La naturaleza de los factores (operandos) no es la misma: en 𝛼𝛽 se multiplican dos escalares, en 𝛼. 𝑥 se multiplica


un escalar por un vector.
9 En 𝛼 + 𝛽 se suman dos escalares. En 𝛼. 𝑥 + 𝛽. 𝑥 se suman dos vectores.

Suescun, Insausti, Flaquer (2022) 129 Tecnun-Universidad de Navarra


4.1 Estructura de espacio vectorial 4 Espacios Vectoriales

definición de espacio vectorial. Obsérvese que el espacio 𝐾 𝑛×1 de matrices columna no es más que un
caso particular de 𝐾 𝑚×𝑛 .

Ejemplo 4.4
El conjunto de los polinomios de grado a lo sumo 𝑛 con coeficientes en 𝐾 y en la variable 𝑡, denotado
por 𝐾𝑛 [𝑡], tiene estructura de espacio vectorial sobre 𝐾, con las operaciones ordinarias de suma de
polinomios
(𝛼0 + 𝛼1 t + 𝛼2 t 2 + ⋯ + 𝛼𝑛 𝑡 𝑛 ) + (𝛽0 + 𝛽1 𝑡 + 𝛽2 𝑡 2 + ⋯ + 𝛽𝑛 𝑡 𝑛 )
= (𝛼0 + 𝛽0 ) + (𝛼1 + 𝛽1 )𝑡 + (𝛼2 + 𝛽2 )𝑡 2 + ⋯ + (𝛼𝑛 + 𝛽𝑛 )𝑡 𝑛
y producto de un escalar por un polinomio
𝛼. (𝛼0 + 𝛼1 t + 𝛼2 t 2 + ⋯ + 𝛼𝑛 𝑡 𝑛 ) = 𝛼𝛼0 + 𝛼𝛼1 t + 𝛼𝛼2 t 2 + ⋯ + 𝛼𝛼𝑛 𝑡 𝑛
De nuevo se puede comprobar que se satisfacen las ocho propiedades de espacio vectorial.

Ejemplo 4.5

Un ejemplo geométrico: Los vectores fijos 𝑢⃗ = 𝑥𝑖 + 𝑦𝑗 + 𝑧𝑘 ⃗ del espacio ordinario 𝐸3 de vectores con
origen común el origen 𝑂 de un sistema de referencia cartesiano 𝑂𝑋𝑌𝑍, forman un espacio vectorial real
con las operaciones ordinarias de suma de vectores y producto de un número real por un vector.
Denotaremos este espacio vectorial por 𝐸3 (ver figura 4.2).

𝑢


𝑘
𝑦
𝑌
𝑖 𝑗

𝑥
𝐸3
𝑋

Figura 4.2: Espacio vectorial de los vectores fijos en el espacio.

Como caso particular, los vectores fijos 𝑢


⃗ = 𝑥𝑖 + 𝑦𝑗 del plano ordinario de puntos, con origen común el
origen 𝑂 de un sistema de referencia cartesiano 𝑂𝑋𝑌, forman también un espacio vectorial real con las
operaciones anteriores y se denota por 𝐸2 .

Se presentan a continuación tres resultados que son consecuencia inmediata de la definición de espacio
vectorial.

Proposición 4.1
Enunciado: Sea 𝐸 un espacio vectorial sobre 𝐾. Para todo 𝑥 ∈ 𝐸 y 𝛼 ∈ 𝐾 se verifica
0. 𝑥 = 𝛼. 0 = 0
Demostración: Se demuestra en primer lugar que 0. 𝑥 = 0. Obsérvese que

Suescun, Insausti, Flaquer (2022) 130 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.2 Subespacios Vectoriales

8) 7) 8)
𝑥 = 1. 𝑥 = (1 + 0). 𝑥 = 1. 𝑥 + 0. 𝑥 = 𝑥 + 0. 𝑥
Por la propiedad 4), existe (−𝑥) y sumándolo en ambos lados de la igualdad y empleando 1) se llega a
3)
0 = 0 + 0. 𝑥 = 0. 𝑥
Para demostrar 𝛼. 0 = 0, se parte de
3) 6)
𝛼. 𝑥 = 𝛼. (𝑥 + 0) = 𝛼. 𝑥 + 𝛼. 0
De nuevo, empleando la propiedad 4), existe −(𝛼. 𝑥), y sumándolo en ambos lados de la igualdad y
empleando 1) se llega a
3)
0 = 0 + 𝛼. 0 = 𝛼. 0

Proposición 4.2
Enunciado: Sea 𝐸 un espacio vectorial sobre 𝐾. Para todo 𝑥 ∈ 𝐸 y 𝛼 ∈ 𝐾 se verifica
𝛼. (−𝑥) = (−𝛼). 𝑥 = −(𝛼. 𝑥)
Demostración: Se demuestra en primer lugar que 𝛼. (−𝑥) = −(𝛼. 𝑥). Se parte de
Prop 4.1 4) 6)
0 = 𝛼. 0 = α. (𝑥 + (−𝑥)) = 𝛼. 𝑥 + 𝛼. (−𝑥)
Por la propiedad 4), existe −(𝛼. 𝑥), y sumándolo en ambos lados de la igualdad y empleando 1) se llega a
−(𝛼. 𝑥) + 0 = 0 + 𝛼. (−𝑥)
y el resultado deseado se obtiene aplicando la propiedad 3) a la última igualdad.
Para demostrar que (−𝛼). 𝑥 = −(𝛼. 𝑥) se parte de
Prop 4.1 7)
0 = 0. 𝑥 = (𝛼 + (−𝛼)). 𝑥 = 𝛼. 𝑥 + (−𝛼). 𝑥
De nuevo, empleando la propiedad 4), existe −(𝛼. 𝑥), y sumándolo en ambos lados de la igualdad y
empleando 1) se llega a
−(𝛼. 𝑥) + 0 = 0 + (−𝛼). 𝑥
La demostración concluye aplicando la propiedad 3) a la última igualdad.

Proposición 4.3
Enunciado: Sea 𝐸 un espacio vectorial sobre 𝐾, con 𝑥 ∈ 𝐸 y 𝛼 ∈ 𝐾. Si 𝛼. 𝑥 = 0, entonces o bien 𝛼 = 0, o
bien 𝑥 = 0.
Demostración: Si 𝛼 = 0, el enunciado es cierto por la Proposición 4.1. Si 𝛼 ≠ 0, existe 𝛼 −1 ∈ 𝐾 de modo
que multiplicando miembro a miembro por 𝛼 −1 en 0 = 𝛼. 𝑥 se llega a
5) 8)
(𝛼 −1 ). 0 = (𝛼 −1 ). (𝛼. 𝑥) = (𝛼 −1 𝛼). 𝑥 = 1. 𝑥 = 𝑥
Por la Proposición 4.1, se tiene que 𝛼 −1 . 0 = 0 y por tanto se concluye que 𝑥 = 0.

Subespacios Vectoriales

Se dice que el subconjunto 𝐹 de 𝐸, distinto del conjunto vacío, es un subespacio vectorial de 𝐸 si se


cumplen las dos condiciones siguientes:
1. La suma de dos vectores de 𝐹 pertenece a 𝐹, es decir:
∀ 𝑢, 𝑣 ∈ 𝐹 → 𝑢 + 𝑣 ∈ 𝐹
2. El producto de un escalar por un vector de 𝐹 pertenece a 𝐹, es decir:

Suescun, Insausti, Flaquer (2022) 131 Tecnun-Universidad de Navarra


4.3 Subespacios generados 4 Espacios Vectoriales

∀ 𝛼 ∈ 𝐾, ∀ 𝑢 ∈ 𝐹 → 𝛼. 𝑢 ∈ 𝐹
Estas dos condiciones pueden resumirse diciendo que el subconjunto 𝐹 es un subespacio vectorial de 𝐸
si él mismo es un espacio vectorial, utilizando las dos operaciones heredadas de 𝐸.

Ejemplo 4.6
En el espacio vectorial Euclídeo 𝑅2 , los vectores de la forma (𝛼, −𝛼) forman un subespacio vectorial de
𝑅2 . Obsérvese que se cumple la condición 1:
(𝛼, −𝛼) + (𝛽, −𝛽) = (𝛼 + 𝛽, −(𝛼 + 𝛽)) = (𝛾, −𝛾), con 𝛾 = 𝛼 + 𝛽
y la condición 2:
𝛼(𝛽, −𝛽) = (𝛼𝛽, −𝛼𝛽) = (𝛿, −𝛿), con 𝛿 = 𝛼𝛽

Una consecuencia inmediata de la definición de subespacio vectorial es la siguiente:

Proposición 4.4
Enunciado: El vector nulo pertenece a cualquier subespacio vectorial.
Demostración: Sea 𝐹 un subespacio vectorial de 𝐸. Si 𝑢 ∈ 𝐹, entonces por la condición 2, (−1). 𝑢 = −𝑢 ∈
𝐹. Como 𝑢 ∈ 𝐹 y también −𝑢 ∈ 𝐹, por la condición 1, −𝑢 + 𝑢 = 0 ∈ 𝐹.

En todo espacio vectorial 𝐸 se hallan al menos dos subespacios vectoriales, llamados triviales: el más
pequeño {0}, formado sólo por el vector nulo, y el más grande, el propio espacio 𝐸.

Subespacios generados

En este capítulo se verán distintas maneras de caracterizar subespacios vectoriales de un espacio vectorial
𝐸 sobre 𝐾. La primera de ellas son los subespacios generados. Para ello, se parte de una lista ordenada
de 𝑝 vectores del espacio vectorial 𝐸 de la forma
𝑥1 , 𝑥2 , … , 𝑥𝑝
y de una lista ordenada de 𝑝 escalares de 𝐾
𝛼1 , 𝛼2 , … , 𝛼𝑝
Con los citados vectores y escalares se forma un nuevo vector
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝

que recibe el nombre de combinación lineal de los vectores de la lista; los citados escalares se llaman
coeficientes de la combinación lineal.
Diremos que el vector 𝑥 depende linealmente de los vectores 𝑥1 , 𝑥2 , … , 𝑥𝑝 por ser 𝑥 combinación lineal
de los vectores de la lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 que lo genera.
Si se fija la lista de los vectores 𝑥1 , 𝑥2 , … , 𝑥𝑝 y se varían los coeficientes de la combinación lineal
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝
tomando todos los valores posibles de 𝛼1 , 𝛼2 , … , 𝛼𝑝 , se obtienen todas las posibles combinaciones lineales
de la lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 . Ese conjunto de todas las posibles combinaciones lineales forman el llamado
subespacio generado por los vectores de la lista, que se denotará mediante 𝐹 = 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑝 ] (Ver
figura 4.3).

Suescun, Insausti, Flaquer (2022) 132 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.3 Subespacios generados

𝐸
𝐹 = 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑝 ]

𝑥
𝛼1 𝛼𝑝
𝑥1 α2
𝑥𝑝
𝑥2

𝐾
𝛼1 α2 … 𝛼𝑝

Figura 4.3: Subespacio generado por los vectores 𝑥1 , 𝑥2 , … , 𝑥𝑝 .

A continuación, se prueba que, en efecto, el subespacio generado tiene estructura de subespacio


vectorial.

Proposición 4.5
Enunciado: Todo subespacio generado es un subespacio vectorial.
Demostración: Puesto que 𝑥1 , 𝑥2 , … , 𝑥𝑝 ∈ 𝐸, el subespacio 𝐹 generado por 𝑥1 , 𝑥2 , … , 𝑥𝑝 está formado por
vectores del espacio vectorial 𝐸, luego 𝐹 es un subconjunto de 𝐸. En particular, haciendo 𝛼1 = 𝛼2 = ⋯ =
𝛼𝑝 = 0, se tiene que
0. 𝑥1 + 0. 𝑥2 + ⋯ + 0. 𝑥𝑝 = 0 ∈ 𝐹
es decir, el vector nulo pertenece a 𝐹 y por tanto es un conjunto no vacío. Queda probar que se cumplen
las condiciones 1 y 2 de subespacio vectorial.
Para probar 1, tomamos dos vectores de 𝐹,
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝
𝑦 = 𝛽1 . 𝑥1 + 𝛽2 . 𝑥2 + ⋯ + 𝛽𝑝 . 𝑥𝑝
y se observa que
𝑥 + 𝑦 = (𝛼1 + 𝛽1 ). 𝑥1 + (𝛼2 + 𝛽2 ). 𝑥2 + ⋯ + (𝛼𝑝 + 𝛽𝑝 ). 𝑥𝑝
Puesto que 𝑥 + 𝑦 es también una combinación lineal de los vectores de la lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 , se concluye
que 𝑥 + 𝑦 ∈ 𝐹.
Para probar 2, tomamos el vector 𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝 de 𝐹 y el escalar 𝛼 de 𝐾. Se observa
que el vector
𝛼. 𝑥 = (α𝛼1 ). 𝑥1 + (α𝛼2 ). 𝑥2 + ⋯ + (𝛼𝛼𝑝 ). 𝑥𝑝
Es evidente que 𝛼. 𝑥 es una combinación lineal de los vectores de la lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 y, por tanto, se
concluye que 𝛼. 𝑥 ∈ 𝐹.

Ejemplo 4.7
En el espacio vectorial Euclídeo 𝑅2 , la lista de vectores
𝑥1 = (1, 2), 𝑥2 = (2, 4)
generan el subespacio vectorial de la Figura 4.4.

Suescun, Insausti, Flaquer (2022) 133 Tecnun-Universidad de Navarra


4.3 Subespacios generados 4 Espacios Vectoriales

𝐹 = 𝑔𝑒𝑛 [𝑥1 , 𝑥2 ]
𝑥2
4

𝑥1
2

𝑅2

1 2

Figura 4.4: Subespacio vectorial de 𝑅2 generado por los vectores (1, 2) y (2, 4).

Nótese que el vector nulo (i.e. el origen) está contenido en el subespacio. Cualquier recta que pase por el
origen es también un subespacio vectorial.

Una forma indirecta de probar que un subconjunto de vectores de 𝐸 es un subespacio vectorial es probar
que se trata de un subespacio generado por una lista de vectores.

Proposición 4.6
Enunciado: El subespacio generado es el menos amplio de los subespacios vectoriales que contienen la
lista generadora.
Demostración: Sea 𝐹 = 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑝 ] y 𝐺 un subespacio vectorial cualquiera que contiene a la lista
generadora 𝑥1 , 𝑥2 , … , 𝑥𝑝 . Para cualquier vector 𝑥 ∈ 𝐹, existen escalares 𝛼1 , 𝛼2 , … , 𝛼𝑝 tales que
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝 . Pero como 𝑥1 , 𝑥2 , … , 𝑥𝑝 ∈ 𝐺 y 𝑥 es una combinación lineal de
𝑥1 , 𝑥2 , … , 𝑥𝑝 , necesariamente 𝑥 ∈ 𝐺. Por tanto, se concluye que 𝐹 ⊂ 𝐺.

De manera similar a los sistemas de ecuaciones lineales, vamos a definir a continuación lo que se entiende
por operaciones elementales sobre una lista de vectores.

Operación elemental de clase I: Consiste en intercambiar dos vectores de la lista entre sí.
𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑗 , … , 𝑥𝑝 → 𝑥1 , 𝑥2 , … , 𝑥𝑗 , … , 𝑥𝑖 , … , 𝑥𝑝

Operación elemental de clase II: Consiste en multiplicar un vector por un escalar α distinto de cero.
𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑝 → 𝑥1 , 𝑥2 , … , 𝛼. 𝑥𝑖 , … , 𝑥𝑝

Operación elemental de clase III: Consiste en restar a un vector otro vector, previamente multiplicado
por un escalar α.
𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑗 , … , 𝑥𝑝 → 𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , (𝑥𝑗 − 𝛼. 𝑥𝑖 ), … , 𝑥𝑝
Del mismo modo que las operaciones elementales sobre las ecuaciones de un sistema no alteraban su
conjunto de soluciones, la siguiente proposición muestra que las operaciones elementales sobre vectores
no alteran el subespacio generado.

Suescun, Insausti, Flaquer (2022) 134 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.4 Dependencia e independencia lineal

Proposición 4.7
Enunciado: Las operaciones elementales sobre los vectores de una lista no modifican el subespacio
generado.
Demostración:
Clase I: Si 𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑗 , … , 𝑥𝑝 ], entonces existen escalares tales que
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑖 . 𝑥𝑖 + ⋯ + 𝛼𝑗 . 𝑥𝑗 + ⋯ + 𝛼𝑝 . 𝑥𝑝
= 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑗 . 𝑥𝑗 + ⋯ + 𝛼𝑖 . 𝑥𝑖 + ⋯ + 𝛼𝑝 . 𝑥𝑝
𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑗 , … , 𝑥𝑖 , … , 𝑥𝑝 ]
Clase II: Sea 𝛼 ≠ 0. Si 𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑝 ], existen escalares tales que
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑖 . 𝑥𝑖 + ⋯ + 𝛼𝑝 . 𝑥𝑝
𝛼𝑖
= 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + . (𝛼. 𝑥𝑖 ) + ⋯ + 𝛼𝑝 . 𝑥𝑝
𝛼
𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝛼. 𝑥𝑖 , … , 𝑥𝑝 ]
Clase III: Sea 𝛼 ∈ 𝐾. Si 𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑗 , … , 𝑥𝑝 ], existen escalares tales que
𝑥 = 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑖 . 𝑥𝑖 + ⋯ + 𝛼𝑗 . 𝑥𝑗 + ⋯ + 𝛼𝑝 . 𝑥𝑝
= 𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + (𝛼𝑖 + 𝛼𝛼𝑗 ). 𝑥𝑖 + ⋯ + 𝛼𝑗 . (𝑥𝑗 − 𝛼. 𝑥𝑖 ) + ⋯ + 𝛼𝑝 . 𝑥𝑝
𝑥 ∈ 𝑔𝑒𝑛[𝑥1 , 𝑥2 , … , 𝑥𝑖 , … , 𝑥𝑗 − 𝛼. 𝑥𝑖 , … , 𝑥𝑝 ]

Esta última proposición permite pasar de una lista generadora a otra, mediante operaciones elementales,
sin perder ni ganar combinaciones lineales y, por tanto, sin modificar el subespacio generado.

Ejemplo 4.8
Las dos listas de tres vectores cada una 𝑥1 , 𝑥2 , 𝑥3 y 𝑥3 , 𝑥2 + 2. 𝑥3 , 𝑥1 generan el mismo subespacio
vectorial, es decir,
𝑔𝑒𝑛[𝑥1 , 𝑥2 , 𝑥3 ] = 𝑔𝑒𝑛[𝑥3 , 𝑥2 + 2. 𝑥3 , 𝑥1 ]

Por último, vamos a convenir que el subespacio generado por el conjunto vacío ∅ = { } es el subespacio
trivial nulo {0}.

Dependencia e independencia lineal

Una lista de vectores se dice linealmente dependiente si existe al menos un vector de la lista que depende
linealmente de los demás vectores de la lista.
Una lista de vectores se dice linealmente independiente si no existe ningún vector de la lista que dependa
linealmente de los demás vectores de la lista.
Así pues, las listas de vectores se clasifican en linealmente dependientes (l.d.) o linealmente
independiente (l.i.). Preguntar por el carácter lineal de una lista significa preguntar por si esa lista es
linealmente dependiente o independiente.

Ejemplo 4.9
La lista 𝑢, 𝑢 + 2. 𝑣, 𝑣 es linealmente dependiente, pues el segundo vector de la lista, 𝑢 + 2. 𝑣, depende
linealmente de los otros dos 𝑢, 𝑣.

Suescun, Insausti, Flaquer (2022) 135 Tecnun-Universidad de Navarra


4.4 Dependencia e independencia lineal 4 Espacios Vectoriales

Ejemplo 4.10
La lista (1, 2), (2, 3) es linealmente independiente en 𝑅2 , pues ninguno de los dos vectores depende
linealmente del otro, esto es:
(1, 2) ≠ 𝛼. (2, 3) (2, 3) ≠ 𝛽. (2, 3)

Ejemplo 4.11
La lista de vectores de 𝑅2×2
1 0 −1 −3 1 1
[ ],[ ],[ ]
2 1 4 −4 0 2
es linealmente dependiente ya que
−1 −3 1 0 1 1
[ ] = 2. [ ] − 3. [ ]
4 −4 2 1 0 2

Proposición 4.8
Enunciado: Si una lista contiene al vector nulo, esa lista es linealmente dependiente.
Demostración: Sea 𝑥1 , 𝑥2 , … ,0, … , 𝑥𝑝 una lista que contiene el vector nulo. La lista es linealmente
dependiente ya que el vector nulo depende de los demás vectores, i.e. se puede escribir como
combinación lineal de los demás:
0 = 0. 𝑥1 + 0. 𝑥2 + ⋯ + 0. 𝑥𝑝

Proposición 4.9
Enunciado: Las operaciones elementales sobre los vectores de una lista respetan el carácter lineal.
Demostración: El resultado es trivial para las operaciones elementales de clase I. Para las operaciones
elementales de clase II y III el resultado se prueba por reducción al absurdo (se omite).

Ejemplo 4.12
Como la lista (1, 2), (2, 3) es linealmente independiente en 𝑅2 , la lista (1, 2), (1, 2) + (2, 3) también será
linealmente independiente.

Una forma práctica para conocer el carácter lineal de una determinada lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 consiste en
resolver la siguiente ecuación vectorial:
𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝 = 0
donde 𝛼1 , 𝛼2 , … , 𝛼𝑝 son las incógnitas de la ecuación. Nótese que siempre existe al menos la solución
nula 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑝 = 0, pero podría haber otras soluciones:
1. Si la ecuación vectorial tiene otras soluciones distintas de la nula, la lista es linealmente
dependiente. Sea 𝛼10 , 𝛼20 , … , 𝛼𝑘0 , … , 𝛼𝑝0, con 𝛼𝑘0 ≠ 0 una solución no nula:
𝛼10 . 𝑥1 + 𝛼20 . 𝑥2 + ⋯ + ⏟
𝛼𝑘0 . 𝑥𝑘 + ⋯ + 𝛼𝑝0 . 𝑥𝑝 = 0
≠0

Nótese que se puede despejar 𝑥𝑘 como combinación lineal de los demás vectores
−𝛼𝑘0 . 𝑥𝑘 = 𝛼10 . 𝑥1 + 𝛼20 . 𝑥2 + ⋯ + 𝛼𝑝0 . 𝑥𝑝

−1
𝑥𝑘 = . (𝛼10 . 𝑥1 + 𝛼20 . 𝑥2 + ⋯ + 𝛼𝑝0 . 𝑥𝑝 )
𝛼𝑘0

Suescun, Insausti, Flaquer (2022) 136 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.4 Dependencia e independencia lineal

lo que confirma que la lista es linealmente dependiente.


2. Si la ecuación vectorial sólo tiene la solución nula, ningún vector podrá despejarse como
combinación lineal de otros y por tanto, la lista es linealmente independiente.
El planteamiento de la ecuación vectorial conduce a un sistema de ecuaciones lineales como se ilustra en
el siguiente ejemplo:

Ejemplo 4.13
Los vectores (1, 2, 3), (0, 4, 5), (0, 0, 7) de 𝑅3 forman una lista linealmente independiente, pues la
ecuación vectorial:
𝛼1 (1, 2, 3) + 𝛼2 (0, 4, 5) + 𝛼3 (0, 0, 7) = (0, 0, 0)
conduce al sistema de ecuaciones
𝛼1 = 0
{ 2𝛼1 + 4𝛼2 = 0
3𝛼1 + 5𝛼2 + 7𝛼3 = 0
que es compatible determinado, cuya única solución es 𝛼1 = 𝛼2 = 𝛼3 = 0.

Para finalizar esta sección, se presentan cuatro proposiciones que resultan útiles a la hora de resolver
problemas.

Proposición 4.10
Enunciado: Toda sublista de una lista linealmente independiente es linealmente independiente.

Figura 4.5.

Demostración: Evidente.

Proposición 4.11
Enunciado: Toda lista que contiene una lista linealmente dependiente es linealmente dependiente.

Figura 4.6.

Demostración: Es consecuencia directa de la definición de lista linealmente dependiente.

Proposición 4.12
Enunciado: Si en una lista de 𝑝 vectores se suprime un vector combinación lineal de los demás vectores
de esa lista, no se altera el subespacio 𝐹 generado.

Figura 4.7.

Suescun, Insausti, Flaquer (2022) 137 Tecnun-Universidad de Navarra


4.5 Base de un espacio (o subespacio) vectorial 4 Espacios Vectoriales

Demostración: Es consecuencia de la proposición 4.7 y de que el vector nulo puede eliminarse de


cualquier lista generadora sin modificar el subespacio generado.

Proposición 4.13
Enunciado: Si a una lista de 𝑝 vectores se le añade un vector combinación lineal de los vectores de esa
lista, no se altera el subespacio 𝐹 generado.

Figura 4.8.

Demostración: Es consecuencia de la proposición 4.7 y de que el vector nulo puede añadirse a cualquier
lista generadora sin modificar el subespacio generado.

La proposición 4.12 anterior justifica la importancia de manejar listas generadoras que sean linealmente
independientes, pues en ellas no sobra ningún vector a la hora de generar el correspondiente subespacio.
De alguna manera, es la lista mínima que genera el subespacio. Esta idea de lista generadora con el
mínimo número de vectores prepara la definición de base de un espacio vectorial en el siguiente apartado.

Base de un espacio (o subespacio) vectorial

Se llama base de un espacio (o subespacio) vectorial a una lista independiente y generadora del espacio
(o subespacio) que la contiene.
Sea 𝐸 un espacio (o subespacio) vectorial. Se dice que la lista de vectores 𝑢1 , 𝑢2 , … , 𝑢𝑛 es una base de 𝐸,
denotada 𝐵𝐸 , si se cumplen dos condiciones:
1) 𝑢1 , 𝑢2 , … , 𝑢𝑛 genera 𝐸
2) 𝑢1 , 𝑢2 , … , 𝑢𝑛 es una lista linealmente independiente en 𝐸.

Ejemplo 4.14
Los vectores (1, 0, 0), (2, 3, 0), (4, 5, 6) de 𝑅3 forman una base de 𝑅3 porque constituyen una lista
linealmente independiente y porque generan 𝑅3 .
En efecto, al escribir un vector (𝑎, 𝑏, 𝑐) cualquiera de 𝑅3 , como combinación lineal de los vectores dados,
se plantea la siguiente ecuación vectorial
(𝑎, 𝑏, 𝑐) = 𝛼1 (1, 0, 0) + 𝛼2 (2, 3, 0) + 𝛼3 (4, 5, 6)
o equivalentemente, el siguiente sistema de ecuaciones
𝛼1 + 2𝛼2 + 4𝛼3 = 𝑎
{ 3𝛼2 + 5𝛼3 = 𝑏
6𝛼3 = c
que es siempre compatible determinado. Nótese que:
- Por ser compatible, está garantizado que cualquier vector de 𝑅3 puede escribirse como combinación
lineal de los vectores de la lista. Es decir, esta lista es generadora de 𝑅3 .
- Por ser determinado, los coeficientes 𝛼1 , 𝛼2 , 𝛼3 de la combinación lineal son únicos. Esta
circunstancia es consecuencia de la independencia lineal de los vectores de la lista, tal como se
demostrará en la proposición 4.14.

Suescun, Insausti, Flaquer (2022) 138 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.5 Base de un espacio (o subespacio) vectorial

Puesto que la lista 𝑢1 , 𝑢2 , … , 𝑢𝑛 genera 𝐸, cualquier vector 𝑥 ∈ 𝐸 puede escribir como combinación lineal
de ellos. Es decir existen coeficientes 𝛼1 , 𝛼2 , … 𝛼𝑛 de modo que
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛

𝐸
𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛
𝛼1 α2 𝛼𝑛

Figura 4.9: El vector 𝑥 ∈ 𝐸 expresado en la base de 𝐸.

Por ser 𝑢1 , 𝑢2 , … , 𝑢𝑛 una lista linealmente independiente, estos coeficientes 𝛼1 , 𝛼2 , … 𝛼𝑛 son únicos, y los
llamamos componentes del vector 𝑥 en la base 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 . Véase la proposición 4.14.
Así mismo, denotamos por 𝑥𝐵𝐸 a la matriz columna formada con las componentes, es decir:
𝛼1
𝛼2
𝑥𝐵𝐸 =[ ⋮ ]
𝛼𝑛
siendo 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 .

Proposición 4.14
Enunciado: Las componentes de un vector en una base son únicas.
Demostración: Sea 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 una base de 𝐸 y sea 𝑥 ∈ 𝐸. Puesto que la lista 𝑢1 , 𝑢2 , … , 𝑢𝑛 genera
𝐸, existen coeficientes 𝛼1 , 𝛼2 , … 𝛼𝑛 tal que
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛
Se procede por reducción al absurdo. Supóngase que existen otros coeficientes 𝛼1′ , 𝛼2′ , … 𝛼𝑛′ tal que
𝑥 = 𝛼1′ . 𝑢1 + 𝛼2′ . 𝑢2 + ⋯ + 𝛼𝑛′ . 𝑢𝑛
Restando ambas ecuaciones se llega a la siguiente ecuación vectorial
(𝛼1′ − 𝛼1 ). 𝑢1 + (α′2 − 𝛼2 ). 𝑢2 + ⋯ + (α′𝑛 − 𝛼𝑛 ). 𝑢𝑛 = 0
Puesto que la lista 𝑢1 , 𝑢2 , … , 𝑢𝑛 es linealmente independiente, la anterior ecuación sólo puede tener la
solución nula, luego
𝛼𝑖′ − 𝛼𝑖 = 0 ∀𝑖 ∈ {1,2, … , 𝑛}
Y por lo tanto, todo vector se escribe de modo único en una base dada.

Ejemplo 4.15
Las componentes del vector 𝑥 = (2, 0, 8) en la base 𝐵𝐵 = (1, 2, 3), (0, 4, 5), (0, 0, 7) de 𝑅3 son
2
𝑥𝐵 = [−1]
1
ya que
(2, 0, 8) = 2(1, 2, 3) + (−1)(0, 4, 5) + 1(0, 0, 7)

Suescun, Insausti, Flaquer (2022) 139 Tecnun-Universidad de Navarra


4.5 Base de un espacio (o subespacio) vectorial 4 Espacios Vectoriales

Ejemplo 4.16
1 0 1 1
Sea 𝐹 un subespacio vectorial de 𝑅2×2 y 𝐵𝐹 = [ ],[ ] una base de 𝐹.
2 1 0 2
1 2
Para calcular las componentes del vector 𝑥 = [ ] de 𝐹 en la base 𝐵𝐹 se escribe el vector como
−2 3
combinación lineal de los vectores de la base:
1 0 1 1 1 2
𝛼1 [ ] + 𝛼2 [ ]=[ ]
2 1 0 2 −2 3
que conduce al siguiente sistema de ecuaciones que hay que resolver
𝛼1 + 𝛼2 = 1
𝛼2 = 2 𝛼1 = −1
{ →
2𝛼1 = −2 𝛼2 = 2
𝛼1 + 2𝛼2 = 3
Y, por lo tanto
−1
𝑥𝐵𝐹 = [ ]
2
Nótese que se verifica que:
1 2 1 0 1 1
[ ] = (−1) [ ]+2 [ ]
−2 3 2 1 0 2
Finalmente se repasan las consecuencias de las propiedades de la base:
- Por ser una lista generadora de 𝐹 y 𝑥 ∈ 𝐹, el sistema de ecuaciones debe tener solución.
- Por ser una lista linealmente independiente, la solución es única.

Ejemplo 4.17
2 0
Retomando la base de 𝐹 del ejemplo anterior, se analiza si el vector 𝑦 = [ ] pertenece al subespacio
0 3
𝐹 o no.
Al ser base de 𝐹, sus vectores son una lista generadora de 𝐹, por lo que si el vector 𝑦 estuviera en 𝐹
deberíar ser generado por ellos:
1 0 1 1 2 0
𝛼1 [ ] + 𝛼2 [ ]=[ ]
2 1 0 2 0 3
Nótese que la ecuación vectorial anterior conduce a un sistema incompatible (las ecuaciones segunda y
tercera sugieren que 𝛼1 = 𝛼2 = 0, lo cual no es compatible con las ecuaciones primera y cuarta):
𝛼1 + 𝛼2 = 2
𝛼2 = 0
{ → 𝑆𝑖𝑠𝑡𝑒𝑚𝑎 𝐼𝑛𝑐𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒
2𝛼1 = 0
𝛼1 + 2𝛼2 = 3
En consecuencia, se puede afirmar que 𝑦 ∉ 𝐹.

Trabajar con las componentes de un vector es más sencillo que trabajar con los propios vectores. Los dos
resultados siguientes permiten hacerlo.

Proposición 4.15
Enunciado: Dada una base cualquiera, la matriz de componentes de una combinación lineal es
combinación lineal de las matrices de componentes de los vectores, con los mismos coeficientes.
Demostración: Sea 𝐸 un espacio vectorial y 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 una base del mismo. Consideramos la lista
de vectores 𝑥1 , 𝑥2 , … , 𝑥𝑝 ∈ 𝐸 cuyas matrices de componentes son

Suescun, Insausti, Flaquer (2022) 140 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.5 Base de un espacio (o subespacio) vectorial

𝛼11 𝛼12 𝛼1𝑝


𝛼21 𝛼22 𝛼2𝑝
𝑥1 𝐵 = [ ⋮ ] , 𝑥2 𝐵 = [ ⋮ ] , … , 𝑥𝑝 𝐵 = [ ⋮ ]
𝐸 𝐸 𝐸
𝛼𝑛1 𝛼𝑛2 𝛼𝑛𝑝
Sea la combinación lineal 𝑦 = 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽𝑝 𝑥𝑝 . El vector 𝑦 puede escribirse como
𝑦 = 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽𝑝 𝑥𝑝
𝑛 𝑛 𝑛

= 𝛽1 ∑(𝛼𝑗1 𝑢𝑗 ) + 𝛽2 ∑(𝛼𝑗2 𝑢𝑗 ) + ⋯ + 𝛽𝑝 ∑(𝛼𝑗𝑝 𝑢𝑗 )


𝑗=1 𝑗=1 𝑗=1
𝑝 𝑛 𝑛 𝑝

= ∑ 𝛽𝑖 ∑(𝛼𝑗𝑖 𝑢𝑗 ) = ∑ (∑ 𝛽𝑖 𝛼𝑗𝑖 ) 𝑢𝑗
𝑖=1 𝑗=1 𝑗=1 𝑖=1
= (𝛽1 𝛼11 + 𝛽2 𝛼12 + ⋯ + 𝛽𝑝 𝛼1𝑝 )𝑢1 + (𝛽1 𝛼21 + 𝛽2 𝛼22 + ⋯ + 𝛽𝑝 𝛼2𝑝 )𝑢2 + ⋯
+ (𝛽1 𝛼𝑛1 + 𝛽2 𝛼𝑛2 + ⋯ + 𝛽𝑝 𝛼𝑛𝑝 )𝑢𝑛
por lo que la matriz de componentes de 𝑦 en la base 𝐵𝐸 es
𝛽1 𝛼11 + 𝛽2 𝛼12 + ⋯ + 𝛽𝑝 𝛼1𝑝
𝛽 𝛼 + 𝛽2 𝛼22 + ⋯ + 𝛽𝑝 𝛼2𝑝
y𝐵𝐸 = 1 21

[𝛽1 𝛼𝑛1 + 𝛽2 𝛼𝑛2 + ⋯ + 𝛽𝑝 𝛼𝑛𝑝 ]
𝛼11 𝛼12 𝛼1𝑝
𝛼21 𝛼22 𝛼 2𝑝
= 𝛽1 [ ⋮ ] + 𝛽2 [ ⋮ ] + ⋯ + 𝛽𝑝 [ ⋮ ] = 𝛽1 𝑥1 𝐵 + 𝛽2 𝑥2 𝐵 + ⋯ + 𝛽𝑝 𝑥𝑝 𝐵
𝐸 𝐸 𝐸
𝛼𝑛1 𝛼𝑛2 𝛼𝑛𝑝

Proposición 4.16
Enunciado: Las matrices de componentes que representan en una misma base a los vectores de una lista
tienen el mismo carácter lineal que los vectores de la citada lista.
Demostración: Sea 𝐸 un espacio vectorial y 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 una base del mismo.
Si 𝑥1 , 𝑥2 , … , 𝑥𝑝 ∈ 𝐸, por la Proposición 4.15, la ecuación vectorial 𝛼1 𝑥1 + 𝛼2 𝑥2 + ⋯ + 𝛼𝑝 𝑥𝑝 = 0 es
equivalente al sistema de ecuaciones 𝛼1 𝑥1 𝐵 + 𝛼2 𝑥2 𝐵 + ⋯ + 𝛼𝑝 𝑥𝑝 𝐵 = 0𝐵𝐸 , por lo que el carácter lineal
𝐸 𝐸 𝐸
de 𝑥1 , 𝑥2 , … , 𝑥𝑝 es el mismo que el de 𝑥1 𝐵 , 𝑥2 𝐵 , … , 𝑥𝑝 𝐵 .
𝐸 𝐸 𝐸

A continuación, se ilustra la importancia de las dos últimas proposiciones mediante ejemplos sencillos.

Ejemplo 4.18
Los dos vectores 1 + 𝑡, 1 − 𝑡 de 𝑅1 [𝑡] forman una lista linealmente independiente, pues en la base 1, 𝑡 de
1 1
𝑅1 [𝑡] sus componentes son [ ] , [ ] respectivamente, que forman una lista linealmente independiente.
1 −1

Ejemplo 4.19
1 0 1 1
En el subespacio vectorial 𝐹 de 𝑅2×2 del ejemplo 4.17, definido por la base 𝐵𝐹 = [ ],[ ]
2 1 0 2
1 2 1 3
consideramos los vectores 𝑥 = [ ]e𝑦=[ ]. Las componentes de estos dos vectores en la
−2 3 −4 4
base 𝐵𝐹 están dadas por
−1 −2
𝑥𝐵𝐹 = [
], 𝑦𝐵𝐹 = [ ]
2 3
−1 −4
Obsérvese que las componentes del vector 𝑧 = 1𝑥 − 2𝑦 = [ ] son precisamente
6 −5
−1 −2 3
𝑧𝐵𝐹 = 1𝑥𝐵𝐹 − 2𝑦𝐵𝐹 = 1 [ ] − 2 [ ] = [ ]
2 3 −4

Suescun, Insausti, Flaquer (2022) 141 Tecnun-Universidad de Navarra


4.5 Base de un espacio (o subespacio) vectorial 4 Espacios Vectoriales

Efectivamente:
1 0 1 1
𝑧 = 3[ ] + (−4) [ ]
2 1 0 2

Se ha hablado del concepto de base de un espacio vectorial, pero aún no se ha garantizado que tal base
(o bases) existan. Nos preocupa ahora la cuestión de si en un espacio vectorial existe alguna base y, en su
caso, cómo hallarla. Responderemos a esta cuestión para espacios de tipo finito, esto es, espacios
generados por un número finito de vectores y que sean distintos del trivial nulo.
La siguiente proposición prueba la existencia de una base y da un método para encontrarla.

Proposición 4.17
Enunciado: Todo espacio vectorial de tipo finito, distinto del trivial nulo, admite base.
Demostración: Sea la lista finita 𝑥1 , 𝑥2 , … , 𝑥𝑝 una lista generadora de 𝐸 ≠ {0} formada por 𝑝 vectores no
nulos.
Si la lista 𝑥1 , 𝑥2 , … , 𝑥𝑝 es linealmente independiente, entonces la lista es base. Por otro lado, si la lista
𝑥1 , 𝑥2 , … , 𝑥𝑝 es linealmente dependiente, se eliminan uno a uno todos los vectores que sean combinación
lineal de los demás hasta llegar a una lista linealmente independiente. No se pueden eliminar todos los
vectores de la lista, ya que en ese caso 𝐸 sería el subespacio trivial nulo.
Por la proposición 4.12, la eliminación de vectores combinación lineal de una lista no altera el subespacio
generado, por lo que la lista resultante será linealmente independiente y generadora de 𝐸, es decir, una
base de 𝐸.

Ejemplo 4.20
La lista de vectores (1, 2, 3), (1, 1, 1), (2, 3, 4) genera un subespacio vectorial 𝐹 de 𝑅3 .
La lista no es base de 𝐹, ya que no es linealmente independiente. Se puede observar que el vector (2, 3, 4)
es combinación lineal de los demás. Eliminando este vector, la lista resultante, (1, 2, 3), (1, 1, 1), es
linealmente independiente y sigue generando el mismo subespacio 𝐹. Consecuentemente, es una base
de 𝐹.

Ejemplo 4.21
Los vectores 𝑡 + 1, 𝑡 − 1, 2𝑡 + 1 generan el espacio vectorial 𝑅1 [𝑡] pero no son una base del mismo
porque la lista es linealmente dependiente.
El vector 2𝑡 + 1 es combinación lineal de los otros dos. Al eliminarlo, la lista 𝑡 + 1, 𝑡 − 1 es linealmente
independiente y sigue generando el mismo espacio vectorial. Por tanto, es una base de 𝑅1 [𝑡].

Un mismo espacio vectorial tiene infinitas bases de, ya que cualquier lista linealmente independiente que
lo genere, será base. De entre todas las bases que existen para un espacio vectorial, se conoce como base
natural o base canónica la base “más sencilla” de ese espacio vectorial. En los siguientes ejemplos se
presenta la base canónica para cada uno de los espacios vectoriales que se han estudiado hasta ahora.
Es importante mencionar que la base canónica está definida solamente para espacios vectoriales, y en
ningún caso hablaremos aquí de base canónica para subespacios vectoriales.

Ejemplo 4.22
En el espacio vectorial de las matrices columna 𝐾 𝑛×1 la base canónica está dada por las 𝑛 columnas básicas
𝑒1 , 𝑒2 , … , 𝑒𝑛 , es decir,

Suescun, Insausti, Flaquer (2022) 142 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.5 Base de un espacio (o subespacio) vectorial

1 0 0
0 1 0
[ ],[ ],…,[ ]
⋮ ⋮ ⋮
0 0 1

Ejemplo 4.23
En el espacio vectorial Euclídeo 𝐾 𝑛 la base canónica está dada por la lista
(1, 0, … , 0), (0, 1, … , 0), … , (0, 0, … , 1)

Ejemplo 4.24
En el espacio vectorial 𝐾 𝑚×𝑛 de las matrices de tamaño 𝑚 × 𝑛, la base canónica está dada por la lista de
matrices 𝐶1 , 𝐶2 , … , 𝐶𝑚⋅𝑛 , donde

[𝐶𝑘 ]𝑖,𝑗 = { 1 𝑘 = 𝑖 + (𝑗 − 1)𝑛


0 resto
donde 𝑘 ∈ {1, 2, … , 𝑚 ⋅ 𝑛}, 𝑖 ∈ {1, 2, … , 𝑚}, 𝑗 ∈ {1, 2, … , 𝑛}.
Por ejemplo, en 𝐾 3×2 la base canónica es:
1 0 0 1 0 0 0 0 0 0 0 0
[0 0] , [ 0 0] , [ 1 0] , [ 0 1] , [ 0 0] , [ 0 0]
0 0 0 0 0 0 0 0 1 0 0 1

Ejemplo 4.25
En el espacio vectorial 𝐾𝑛 [𝑡] de los polinomios de grado a lo sumo 𝑛, la base canónica está dada por la
lista de polinomios
1, 𝑡, 𝑡 2 , … , 𝑡 𝑛
es una base de 𝑅𝑛 [𝑡].

Ejemplo 4.26
Se dice que es la base más sencilla del espacio porque encontrar las componentes de un vector en la base
canónica es siempre muy fácil:
1
4 2
𝑥 = (1, 2, 3, 4) ∈ 𝑅 → 𝑥𝐵𝑐 =[ ]
3
4
1
1 2 2
𝑥=[ ] ∈ 𝑅2×2 → 𝑥𝐵𝑐 =[ ]
3 4 3
4
1 1
2 2
𝑥 = [ ] ∈ 𝑅4×1 → 𝑥𝐵𝑐 =[ ]
3 3
4 4
1
2
𝑥 = 1 + 2𝑡 + 3𝑡 2 + 4𝑡 3 ∈ 𝑅3 [𝑡] → 𝑥𝐵𝑐 =[ ]
3
4

Suescun, Insausti, Flaquer (2022) 143 Tecnun-Universidad de Navarra


4.6 Vectores en forma escalonada por columnas 4 Espacios Vectoriales

Vectores en forma escalonada por columnas

Se dice que los 𝑘 vectores 𝑥1 , 𝑥2 , … , 𝑥𝑘 de 𝐸 están escritos en forma escalonada por columnas en la base
𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 de 𝐸 si, al escribir sus componentes en columnas, las primeras componentes no nulas
de cada vector ocupan lugares (“alturas”) diferentes.

Ejemplo 4.27
Las componentes en columna de los tres vectores de 𝑅4 siguientes
𝑥1 = (0, 1, 2, 3)
𝑥2 = (0, 0, 4, 5)
𝑥3 = (6, 7, 8, 9)
expresados en la base canónica forman tres columnas de números:
0 0 6
1 0 7
2 4 8
3 5 9
donde los primeros elementos no nulos de las columnas (peldaños) están en “alturas” distintas. Se trata
de una forma escalonada por columnas.

Ejemplo 4.28
Las componentes en columna de los dos vectores de 𝑅4 siguientes
𝑥1 = (0, 1, 2, 3)
𝑥2 = (0, 2, 4, 5)
no están en forma escalonada por columnas, ya que las componentes de ambos vectores en la base
canónica
0 0
1 2
2 4
3 5
tienen sus peldaños en la segunda posición.

Ejemplo 4.29
Las componentes en columna de los tres vectores de 𝑅2 [𝑡] siguientes
𝑥1 = 1 + 𝑡 2
𝑥2 = 𝑡 − 2𝑡 2
𝑥3 = 3𝑡 2
expresados en la base canónica forman tres columnas de números:
1 0 0
0 1 0
1 −2 3
y se trata de una forma escalonada por columnas.

El hecho de que una lista de vectores forme una forma escalonada por columnas no sólo depende de los
vectores de la lista, sino también de la base considerada. De esta forma, una lista puede estar en forma
escalonada por columnas en una determinada base, pero esa misma lista puede no estar en forma
escalonada por columnas en otra base.

Suescun, Insausti, Flaquer (2022) 144 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.7 Dimensión de un espacio vectorial

Proposición 4.18
Enunciado: Si los 𝑘 vectores 𝑥1 , 𝑥2 , … , 𝑥𝑘 de 𝐸 se expresan en la base 𝐵𝐸 en forma escalonada por
columnas, entonces la lista 𝑥1 , 𝑥2 , … , 𝑥𝑘 es linealmente independiente.
Demostración: Si la lista de vectores 𝑥1 , 𝑥2 , … , 𝑥𝑘 está expresada en forma escalonada por columnas en
la base 𝐵𝐸 , las componentes de los vectores de esa lista (o una reordenación de los mismos) pueden
expresarse de la siguiente manera:
0 0 0
⋮ ⋮ ⋮
c1 ≠ 0 0 0
⋮ ⋮ ⋮
∗ c2 ≠ 0 0
⋮ ⋮ ⋱ ⋮
∗ ∗ c𝑘 ≠ 0
⋮ ⋮ ⋮
∗ ∗ ∗
Entonces, el estudio de la ecuación vectorial
0 0 0 0
⋮ ⋮ ⋮ ⋮
c1 ≠ 0 0 0 0
⋮ ⋮ ⋮ ⋮
𝛼1 ∗ +𝛼 2 c 2 ≠ 0 + ⋯ + 𝛼 𝑘 0 = 0
⋮ ⋮ ⋮ ⋮
∗ ∗ c 𝑘 ≠ 0 0
⋮ ⋮ ⋮ ⋮
[ ∗ ] [ ∗ ] [ ∗ ] [0]
conduce a un sistema lineal homogéneo con 𝑘 pívots 𝑐1 , 𝑐2 , … , 𝑐𝑘 y 𝑘 incógnitas 𝛼1 , 𝛼2 , … , 𝛼𝑘 , por lo que
tiene solución única 𝛼1 = 𝛼2 = ⋯ = 𝛼𝑘 = 0. Por tanto, se concluye la independencia lineal de los
vectores 𝑥1 , 𝑥2 , … , 𝑥𝑘 .

Dimensión de un espacio vectorial

La dimensión de un espacio vectorial es el número de vectores de las bases del espacio.


Para que la definición de dimensión tenga sentido es necesario el número de vectores de cualquier base
es el mismo. Esto se demuestra en las dos proposiciones siguientes.

Proposición 4.19
Enunciado: En un espacio vectorial 𝐸 de tipo finito y distinto del trivial nulo, una lista linealmente
independiente no puede tener más vectores que una lista generadora.
Demostración: Sea 𝑥1 , 𝑥2 , … , 𝑥𝑛 una lista generadora de 𝐸 y sea 𝑦1 , 𝑦2 , … , 𝑦𝑚 una lista linealmente
independiente de vectores de 𝐸. Se procede por reducción al absurdo suponiendo que 𝑚 > 𝑛. Puesto
que 𝑥1 , 𝑥2 , … , 𝑥𝑛 es una lista generadora, los vectores 𝑦1 , 𝑦2 , … , 𝑦𝑚 pueden escribirse como combinación
lineal de los mismos:
𝑦1 = 𝛼11 𝑥1 + 𝛼12 𝑥2 + ⋯ + 𝛼1𝑛 𝑥𝑛
𝑦2 = 𝛼21 𝑥1 + 𝛼22 𝑥2 + ⋯ + 𝛼2𝑛 𝑥𝑛

𝑦𝑚 = 𝛼𝑚1 𝑥1 + 𝛼𝑚2 𝑥2 + ⋯ + 𝛼𝑚𝑛 𝑥𝑛
Este sistema de ecuaciones vectorial necesariamente es compatible pues los vectores 𝑦1 , 𝑦2 , … , 𝑦𝑚 deben
poder ser generados a partir de la lista generadora 𝑥1 , 𝑥2 , … , 𝑥𝑛 . Si se realizan operaciones elementales
en el sistema de ecuaciones vectorial, se llega a que a lo sumo éste puede tener 𝑛 pívots (recuérdese que

Suescun, Insausti, Flaquer (2022) 145 Tecnun-Universidad de Navarra


4.7 Dimensión de un espacio vectorial 4 Espacios Vectoriales

𝑚 > 𝑛) y, por tanto, al menos una ecuación es combinación lineal de las demás. Por tanto, existe una
combinación lineal no nula tal que
𝑐1 𝑦1 + 𝑐2 𝑦2 + ⋯ + 𝑐𝑚 𝑦𝑚 = 0
lo cual contradice el enunciado, puesto que 𝑦1 , 𝑦2 , … , 𝑦𝑚 es una lista linealmente independiente. Por
tanto, necesariamente tiene que ser 𝑚 ≤ 𝑛.

Proposición 4.20
Enunciado: Todas las bases de un espacio vectorial de tipo finito, distinto del trivial nulo, tienen el mismo
número de vectores.
Demostración: Sean 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 y 𝐵𝐸′ = 𝑢1′ , 𝑢2′ , … , 𝑢𝑚

dos bases de 𝐸. Puesto que ambas listas
simultáneamente generan 𝐸 y son linealmente independientes, por la Proposición 4.19 se deduce que
𝑚 ≤ 𝑛 y que 𝑚 ≥ 𝑛 y se concluye que 𝑚 = 𝑛.

En adelante, se empleará la notación dim 𝐸 para indicar la dimensión del espacio vectorial 𝐸.

Ejemplo 4.30
De la definición de base canónica, es inmediato deducir que
dim 𝐾 𝑛×1 = 𝑛
dim 𝐾 𝑛 = 𝑛
dim 𝐾 𝑚×𝑛 = 𝑚 ⋅ 𝑛
dim 𝐾𝑛 [𝑡] = 𝑛 + 1

De la proposición 4.19, se deducen también las siguientes afirmaciones:


• dim 𝐸 es el número máximo de vectores de las listas linealmente independientes.
• dim 𝐸es el número mínimo de vectores de las listas generadoras de 𝐸.
• Si dim 𝐸 = 𝑛, una lista generadora de 𝑛 vectores es también linealmente independiente.
• Si dim 𝐸 = 𝑛, una lista linealmente independiente de 𝑛 vectores es también generadora.
• Si 𝐹 es un subespacio vectorial de 𝐸, entonces dim 𝐹 ≤ dim 𝐸.
• Si 𝐹 es un subespacio vectorial de 𝐸, y dim 𝐹 = dim 𝐸, entonces 𝐹 = 𝐸.

Ejemplo 4.31
Se puede probar muy fácilmente que los tres vectores de 𝑅3
𝑢1 = (0, 1, 1)
𝑢2 = (1, 0, 1)
𝑢3 = (1, 1, 0)
forman una lista linealmente independiente. Como dim 𝑅3 = 3 y hay tres vectores, no es necesario
probar que la lista es generadora de 𝑅3 . Se puede concluir inmediatamente que la lista 𝑢1 , 𝑢2 , 𝑢3 es una
base de 𝑅3 .

Suescun, Insausti, Flaquer (2022) 146 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.8 Ecuaciones paramétricas de un subespacio vectorial

Ecuaciones paramétricas de un subespacio vectorial

Existen distintas maneras de describir subespacios vectoriales. La manera más directa es describir
directamente el subconjunto en cuestión, lo que no es fácil en general. También se ha visto que otra
manera de describir subespacios es dando una base o, en general, una lista generadora. En este apartado
y en el siguiente, veremos dos maneras más para describir subespacios vectoriales.
En lo sucesivo, sea 𝐸 un espacio vectorial de dimensión 𝑛, y sea 𝐹 un subespacio vectorial de dimensión
𝑘 (obviamente 𝑘 ≤ 𝑛). Trabajaremos con una base de 𝐸, 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 (habitualmente la canónica)
y con una base cualquiera de 𝐹, 𝐵𝐹 = 𝑣1 , 𝑣2 , … , 𝑣𝑘 .
Todo vector 𝑥 ∈ 𝐹 cumple también 𝑥 ∈ 𝐸, por lo que se puede expresar tanto en la base 𝐵𝐸 como en la
base 𝐵𝐹 (ver figura 4.9)

𝐸
𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛
𝛼1 α2 𝛼𝑛

𝜆1 𝜆𝑘
𝐹
𝜆2
𝐵𝐹 = 𝑣1 , 𝑣2 , … , 𝑣𝑘

Figura 4.10: El vector 𝑥 ∈ 𝐹 expresado en la base de 𝐸 y en la base de 𝐹.

En la base 𝐵𝐸 , el vector 𝑥 se puede escribir de la forma


𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛
y en la base 𝐵𝐹 el mismo vector 𝑥 se puede escribir de la forma
𝑥 = 𝜆1 . 𝑣1 + 𝜆2 . 𝑣2 + ⋯ + 𝜆𝑘 . 𝑣𝑘
Dicho de otra forma, las componentes del vector 𝑥 escritas en la base de 𝐸 y en la base de 𝐹 son,
respectivamente,
𝛼1
𝛼2 𝜆1
𝑥𝐵𝐸 =[ ⋮ ] 𝑥𝐵𝐹 = [ ⋮ ]
𝛼𝑛 𝜆𝑘

Ejemplo 4.32
Sea 𝐹 el subespacio vectorial de 𝑅3 que tiene como base los vectores
𝑣1 = (1, 1, 1), 𝑣2 = (1, −1, 1)
Está claro que la dimensión de 𝐹 es dos. El vector
𝑥 = 2𝑣1 + 3𝑣2 = (5, −1, 5)
pertenece a 𝐹 y sus componentes en la base 𝐵𝐹 = 𝑣1 , 𝑣2 son
𝜆 2
𝑥𝐵𝐹 = [ 1 ] = [ ]
𝜆2 3
Pero el vector 𝑥 también pertenece a 𝑅3 y sus componentes en la base canónica de 𝑅3 son

Suescun, Insausti, Flaquer (2022) 147 Tecnun-Universidad de Navarra


4.8 Ecuaciones paramétricas de un subespacio vectorial 4 Espacios Vectoriales

α1 5
𝑥𝐵 = [α2 ] = [−1]
𝑅3
α3 5

Dado que se refieren al mismo vector 𝑥, debe existir una relación entre sus componentes en ambas bases,
𝑥𝐵𝐸 y 𝑥𝐵𝐹 . Precisamente, las ecuaciones paramétricas de 𝐹 en las bases 𝐵𝐸 , 𝐵𝐹 relacionan las
componentes 𝛼𝑖 de 𝑥 en la base 𝐵𝐸 con las componentes 𝜆𝑗 de 𝑥 en la base 𝐵𝐹 .
Empleando la Proposición 4.15 (las componentes de una combinación lineal son la misma combinación
lineal de las componentes), expresamos el vector 𝑥 en la base 𝐵𝐸 como
𝑥𝐵𝐸 = (𝜆1 . 𝑣1 + 𝜆2 . 𝑣2 + ⋯ + 𝜆𝑘 . 𝑣𝑘 )𝐵𝐸 = 𝜆1 𝑣1𝐵 + 𝜆2 𝑣2B + ⋯ + 𝜆𝑘 𝑣𝑘𝐵
𝐸 E 𝐸

donde 𝑣𝑗𝐵 son las componentes del vector 𝑣𝑗 en la base 𝐵𝐸 . Para obtener una expresión matricial,
𝐸
llamamos 𝑐𝑖𝑗 a la componente 𝑖-ésima de 𝑣𝑗 en la base 𝐵𝐸 , es decir,
𝑐1𝑗
𝑐2𝑗
𝑣𝑗𝐵 =[ ⋮ ]
𝐸
𝑐𝑛𝑗
Por tanto, reescribimos la anterior ecuación como
𝛼1 𝑐11 𝑐12 𝑐1𝑘
𝛼2 𝑐21 𝑐22 𝑐2𝑘
[ ⋮ ] = 𝜆1 [ ⋮ ] + 𝜆2 [ ⋮ ] + ⋯ + 𝜆𝑘 [ ⋮ ]
𝛼𝑛 𝑐𝑛1 𝑐𝑛2 𝑐𝑛𝑘
que conduce a las ecuaciones paramétricas de 𝐹 en las bases 𝐵𝐸 , 𝐵𝐹
𝛼1 = 𝑐11 𝜆1 + 𝑐12 𝜆2 + ⋯ + 𝑐1𝑘 𝜆𝑘
𝛼 = 𝑐21 𝜆1 + 𝑐22 𝜆2 + ⋯ + 𝑐2𝑘 𝜆𝑘
𝐹≡{ 2

𝛼𝑛 = 𝑐𝑛1 𝜆1 + 𝑐𝑛2 𝜆2 + ⋯ + 𝑐𝑛𝑘 𝜆𝑘
y en notación matricial
𝑥𝐵𝐸 = 𝐶𝑥𝐵𝐹
donde 𝐶 es una matriz de tamaño 𝑛 × 𝑘, cuyas columnas contienen las componentes de los vectores de
la base de 𝐹 expresados en la base de 𝐸:
𝛼1 𝜆1 𝑐11 𝑐12 𝑐1𝑘
𝛼2 𝜆2 𝑐21 𝑐22 𝑐2𝑘
𝑥𝐵𝐸 = [ ⋮ ], 𝑥𝐵𝐹 = [ ], 𝐶=[ ]
⋮ ⋮ ⋮ ⋯ ⋮
𝛼𝑛 𝜆𝑘 𝑐𝑛1 𝑐𝑛2 𝑐𝑛𝑘
Obsérvese que como los vectores de la base de 𝐹 forman una lista linealmente independiente, también
son linealmente independientes las 𝑘 columnas de 𝐶.
Por último, las componentes 𝜆𝑗 se llaman parámetros independientes de las ecuaciones paramétricas. El
motivo es que dando todos los valores posibles a las componentes 𝜆𝑗 se obtienen de modo único todos
los vectores del subespacio 𝐹 expresados en la base de 𝐸.

Ejemplo 4.33
Sea 𝐹 el subespacio vectorial de 𝑅3 del ejemplo anterior, cuya base 𝐵𝐹 está dada por los vectores
𝑣1 = (1, 1, 1), 𝑣2 = (1, −1, 1)
Para hallar las ecuaciones paramétricas de 𝐹 en la base canónica de 𝑅3 y la base 𝐵𝐹 de 𝐹 hay que expresar
los vectores de la base 𝐵𝐹 en la base canónica 𝑅3 , es decir,

Suescun, Insausti, Flaquer (2022) 148 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.9 Ecuaciones implícitas de un subespacio vectorial

1 1
𝑣1 𝐵 = [1], 𝑣2 𝐵 = [−1]
𝑅3 𝑅3
1 1
por lo que las ecuaciones paramétricas de 𝐹 en las citadas bases son
α1 1 1
[α2 ] = 𝜆1 [1] + 𝜆2 [−1]
α3 1 1
o equivalentemente
𝛼1 = 𝜆1 + 𝜆2
𝐹 ≡ {𝛼2 = 𝜆1 − 𝜆2
𝛼3 = 𝜆1 + 𝜆2
Y escrito en forma matricial
1 1
𝑥𝐵 = [1 −1] 𝑥𝐵𝐹
𝑅3
1 1

Ejemplo 4.34
Sea 𝐹 el subespacio vectorial de 𝑅2 [𝑡] cuya base 𝐵𝐹 está dada por los polinomios
𝑣1 = 1 + 𝑡, 𝑣2 = 1 − t 2
Para hallar las ecuaciones paramétricas de 𝐹 en la base canónica de 𝑅2 [𝑡] y la base 𝐵𝐹 de 𝐹 hay que
expresar los vectores de la base 𝐵𝐹 en la base canónica 𝑅2 [𝑡], es decir,
1 1
𝑣1 𝐵 = [1], 𝑣2 𝐵 =[ 0 ]
𝑅2 [𝑡] 𝑅2 [𝑡]
0 −1
por lo que las ecuaciones paramétricas de 𝐹 en las citadas bases son
α1 1 1
α
[ 2 ] = 𝜆1 [1] + 𝜆2 [ 0 ]
α3 0 −1
o equivalentemente
𝛼1 = 𝜆1 + 𝜆2
𝐹 ≡ { 𝛼2 = 𝜆1
𝛼3 = − 𝜆2
Y escrito en forma matricial
1 1
𝑥𝐵𝐸 = [1 0 ] 𝑥𝐵𝐹
0 −1

Ecuaciones implícitas de un subespacio vectorial

Sea otra vez 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 una base de 𝐸 y 𝐹 un subespacio del mismo. En principio, todo vector 𝑥 ∈
𝐸 puede expresarse como combinación lineal de la base de 𝐸:
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛
Es evidente que dando todos los valores posibles a las componentes 𝛼i se obtendrían todos los vectores
de 𝐸 (incluyendo los que están en 𝐹). Si sólo se quisieran obtener los vectores de 𝐹, ya no valdrían todas
las combinaciones posibles de valores para las componentes y habría que imponer ciertas restricciones
sobre ellas. Precisamente, las restricciones que tienen que cumplir las componentes 𝛼i para que el vector
𝑥 pertenezca a 𝐹 se llaman ecuaciones implícitas del subespacio 𝐹.

Suescun, Insausti, Flaquer (2022) 149 Tecnun-Universidad de Navarra


4.10 Suma de subespacios vectoriales 4 Espacios Vectoriales

La obligación de que 𝑥 esté en 𝐹 equivale a que sus componentes 𝛼𝑖 satisfagan un cierto sistema
homogéneo de 𝑚 ecuaciones lineales con 𝑛 incógnitas de la forma
𝑎11 𝛼1 + 𝑎12 𝛼2 + ⋯ + 𝑎1𝑛 𝛼𝑛 = 0
𝑎21 𝛼1 + 𝑎22 𝛼2 + ⋯ + 𝑎2𝑛 𝛼𝑛 = 0
𝐹≡{

𝑎𝑚1 𝛼1 + 𝑎𝑚2 𝛼2 + ⋯ + 𝑎𝑚𝑛 𝛼𝑛 = 0
las cuales constituyen las ecuaciones implícitas de 𝐹 en la base 𝐵𝐸 .
Es obvio que el sistema debe ser homogéneo pues todo subespacio vectorial contiene el vector nulo.
Matricialmente se puede abreviar la escritura de las ecuaciones implícitas mediante
𝐴𝑥𝐵𝐸 = 0
Es importante recalcar que, a diferencia de las ecuaciones paramétricas, los elementos 𝑎𝑖𝑗 de la matriz 𝐴
no tienen una interpretación intuitiva sencilla.
Otra diferencia con las ecuaciones paramétricas es que las ecuaciones implícitas sólo dependen de la base
𝐵𝐸 de 𝐸, pero no dependen de ninguna base de 𝐹.

Ejemplo 4.35
Las ecuaciones homogéneas
𝛼 + 𝛼2 + 𝛼3 = 0
{ 1
2𝛼1 − 𝛼2 − 𝛼3 = 0
son las ecuaciones implícitas de un subespacio 𝐹 de 𝑅3 en la base canónica, suponiendo que ésta es la
base de referencia del espacio.

Así como las ecuaciones paramétricas permitían generar todos los vectores que pertenecen al subespacio,
las ecuaciones implícitas permiten determinar inmediatamente si un vector pertenece o no al subespacio.
Basta con estudiar si las componentes del citado vector satisfacen o no las ecuaciones implícitas del
subespacio.

Suma de subespacios vectoriales

Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝐸. Se define el subespacion suma de 𝐹 y 𝐺 como


𝐹 + 𝐺 = {𝑥; 𝑥 = 𝑢 + 𝑣, 𝑢 ∈ 𝐹, 𝑣 ∈ 𝐺}
La suma está formada por los vectores que se obtienen al sumar todos los vectores de 𝐹 con todos los
vectores de 𝐺.

𝑣
𝐹+𝐺
𝐹

𝑢
𝑢+𝑣

Figura 4.11: La suma de los subespacios 𝐹 y 𝐺.

Suescun, Insausti, Flaquer (2022) 150 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.10 Suma de subespacios vectoriales

Se puede probar fácilmente que:


𝐹 ⊆𝐹+𝐺
𝐺 ⊆𝐹+𝐺
y que 𝐹 + 𝐺 es un subespacio vectorial de 𝐸 (ver figura 4.10).
La siguiente proposición sugiere una manera de caracterizar el subespacio suma.

Proposición 4.21
Enunciado: Si se junta una base de 𝐹 con otra base de 𝐺 se obtiene una lista generadora de 𝐹 + 𝐺.
Demostración: Sean 𝐵𝐹 = 𝑢1 , 𝑢2 , … , 𝑢𝑝 y 𝐵𝐺 = 𝑣1 , 𝑣2 , … , 𝑣𝑞 bases de 𝐹 y 𝐺. Si 𝑥 ∈ 𝐹 + 𝐺, entonces
existen vectores 𝑢 ∈ 𝐹 y 𝑣 ∈ 𝐺 tales que 𝑥 = 𝑢 + 𝑣. El vector 𝑢 se puede expresar en la base 𝐵𝐹 y el
vector 𝑣 se puede expresar en la base 𝐵𝐺 , luego
𝑥 = 𝑢 + 𝑣 = (𝛼1 . 𝑢1 + ⋯ + 𝛼𝑝 . 𝑢𝑝 ) + (𝛽1 . 𝑣1 + ⋯ + 𝛽𝑞 . 𝑣𝑞 )
Esto es, la lista 𝐵𝐹 , 𝐵𝐺 = 𝑢1 , 𝑢2 , … , 𝑢𝑝 , 𝑣1 , 𝑣2 , … , 𝑣𝑞 permite generar cualquier vector de 𝐹 + 𝐺.

Gracias a esta proposición, resulta sencillo obtener una base del subespacio suma. Basta con juntar una
base de 𝐹 con otra base de 𝐺 y eliminar los vectores que sean linealmente dependientes de los demás.
Por tanto, se puede asegurar que 𝑑𝑖𝑚(𝐹 + 𝐺) ≤ dim 𝐹 + dim 𝐺.
Se dice que la suma de los subespacios vectoriales 𝐹 y 𝐺 es una suma directa si al juntar una base de 𝐹
con otra base de 𝐺 se obtiene directamente una base de 𝐹 + 𝐺. En este caso se escribirá 𝐹⨁𝐺 en lugar
de 𝐹 + 𝐺. Que la suma sea directa significa que en la lista generadora que surge al juntar las bases no hay
ningún vector dependiente de los demás, por lo que será una lista linealmente independiente.
Obviamente, en ese caso 𝑑𝑖𝑚 𝐹⨁𝐺 = dim 𝐹 + dim 𝐺.
Por último, decimos que el subespacio vectorial 𝐺 es un subespacio complementario del subespacio
vectorial 𝐹 si 𝐹⨁𝐺 = 𝐸.

Ejemplo 4.36
Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝑅3 . Sean 𝐵𝐹 = (3, 2, 1), (0,2,1) y 𝐵𝐺 = (0,0,1), (3,0,0) sendas
bases de 𝐹 y 𝐺 respectivamente. Juntado ambas bases:
𝐵𝐹 , 𝐵𝐺 = (3, 2, 1), (0, 2, 1), (0, 0, 1), (3, 0, 0)
se obtiene una lista generadora de 𝐹 + 𝐺.
De esa lista se puede extraer una base de 𝐹 + 𝐺 suprimiendo por ejemplo el cuarto vector que depende
de los demás, luego una base de la suma es
𝐵𝐹+𝐺 = (3, 2, 1), (0, 2, 1), (0, 0, 1)
En este caso, la suma de 𝐹 y 𝐺 no es directa, ya que al juntar bases no se ha obtenido directamente una
base de 𝐹 + 𝐺.

Ejemplo 4.37
En 𝑅3 se considera el subespacio 𝐹 que tiene como base 𝐵𝐹 = (0, 1, 1), (1, 0, 1) y el subespacio 𝐺 que
tiene como base 𝐵𝐺 = (1, 1, 0). Al juntar bases
𝐵𝐹 , 𝐵𝐺 = (0, 1, 1), (1, 0, 1), (1, 1, 0)
se obtiene directamente una base de la suma 𝐹 + 𝐺, luego la suma es directa.
Está claro que 𝑑𝑖𝑚(𝐹 + 𝐺) = 3. Como 𝑑𝑖𝑚 𝑅3 = 3 y 𝐹 + 𝐺 está contenido en 𝑅3 , se tiene la identidad
𝐹⨁𝐺 = 𝑅3 . Por tanto, 𝐺 es un subespacio complementario de 𝐹.

Suescun, Insausti, Flaquer (2022) 151 Tecnun-Universidad de Navarra


4.11 Intersección de subespacios vectoriales 4 Espacios Vectoriales

Intersección de subespacios vectoriales

Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝐸. Se define el subespacio intersección de 𝐹 y 𝐺 como


𝐹 ∩ 𝐺 = {𝑥; 𝑥 ∈ 𝐹, 𝑥 ∈ 𝐺}
La intersección está formada por todos los vectores que pertenecen simultáneamente a 𝐹 y a 𝐺. Es
evidente que:
𝐹∩𝐺 ⊆𝐹
𝐹∩𝐺 ⊆𝐺
Se puede probar fácilmente que 𝐹 ∩ 𝐺 es un subespacio vectorial de 𝐸 (ver figura 4.11).

𝐺
𝐹∩𝐺

Figura 4.12: La intersección de los subespacios 𝐹 y 𝐺.

Ejemplo 4.38
En 𝑅3 , sea 𝐹 el subespacio definido por la ecuación implícita
𝐹 ≡ { 3𝛼1 + 2𝛼2 + 𝛼3 = 0
y el subespacio 𝐺 definido por la ecuación implícita
𝐺 ≡ { 𝛼2 + 𝛼3 = 0
ambas ecuaciones relativas a la base canónica de 𝑅3 . Las componentes de los vectores de la intersección
𝐹 ∩ 𝐺 deben cumplir las dos ecuaciones simultáneamente, por lo que las ecuaciones implícitas de 𝐹 ∩ 𝐺
en la base canónica son
3𝛼1 + 2𝛼2 + 𝛼3 = 0
𝐹∩𝐺 ≡{
𝛼 2 + 𝛼3 = 0

El apartado concluye con un resultado que relaciona la dimensión de los subespacios 𝐹 y 𝐺 con su suma
𝐹 + 𝐺 y su intersección 𝐹 ∩ 𝐺.

Proposición 4.22: Teorema de la dimensión


Enunciado: Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝐸. Entonces
dim 𝐹 + 𝐺 = dim 𝐹 + dim 𝐺 − dim 𝐹 ∩ 𝐺
Demostración: Sea 𝑘 = dim 𝐹 ∩ 𝐺 y sea 𝑤1 , 𝑤2 , … , 𝑤𝑘 una base de 𝐹 ∩ 𝐺.
Si 𝑝 = dim 𝐹, ya que 𝐹 ∩ 𝐺 ⊆ 𝐹, existen 𝑝 − 𝑘 vectores de 𝐹, 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘 , tal que
𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘
es una base de 𝐹. Análogamente, si 𝑞 = dim 𝐺, ya que 𝐹 ∩ 𝐺 ⊆ 𝐺, existen 𝑞 − 𝑘 vectores de 𝐺,
𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘 , tal que

Suescun, Insausti, Flaquer (2022) 152 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.12 Cambio de base en un espacio vectorial

𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘
es una base de 𝐺. Juntando bases se obtiene la siguiente lista generadora de la suma 𝐹 + 𝐺
𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘, 𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘
Quitando los 𝑘 vectores 𝑤1 , 𝑤2 , … , 𝑤𝑘 repetidos se obtiene otra lista generadora de 𝐹 + 𝐺,
𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘 , 𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘
Vamos a ver que esta lista es linealmente independiente. Por un lado, está claro que la lista
𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘 es linealmente independiente por ser una base de 𝐹. Supongamos que
existe un vector 𝑣𝑖 que es combinación lineal de 𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘 . Eso significa que 𝑣𝑖 ∈ 𝐺 y
también 𝑣𝑖 ∈ 𝐹, es decir, 𝑣𝑖 ∈ 𝐹 ∩ 𝐺. Si esto fuera así, 𝑣𝑖 sería combinación lineal de 𝑤1 , 𝑤2 , … , 𝑤𝑘 y por
tanto la lista 𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘 sería linealmente dependiente, lo cual es una contradicción.
Por tanto, se deduce que la lista
𝑤1 , 𝑤2 , … , 𝑤𝑘 , 𝑢1 , 𝑢2 , … , 𝑢𝑝−𝑘 , 𝑣1 , 𝑣2 , … , 𝑣𝑞−𝑘
es linealmente independiente y, por tanto, base de 𝐹 + 𝐺. Luego, la dimensión de 𝐹 + 𝐺 es
(𝑝 − 𝑘) + 𝑘 + (𝑞 − 𝑘) = 𝑝 + 𝑞 − 𝑘
Luego
dim 𝐹 + 𝐺 = 𝑘 + (𝑝 − 𝑘) + (𝑞 − 𝑘) = 𝑝 + 𝑞 − 𝑘 = dim 𝐹 + dim 𝐺 − dim 𝐹 ∩ 𝐺

Cambio de base en un espacio vectorial

Se plantea aquí la cuestión de cómo varían las componentes de un vector en 𝐸 al pasar de una base 𝐵𝐸 a
una nueva base 𝐵𝐸′ . Por conveniencia, llamaremos base antigua a la base 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 de 𝐸, y
llamaremos base nueva a la base 𝐵𝐸′ = 𝑢1′ , 𝑢2′ , … , 𝑢𝑛′ de 𝐸. Un vector 𝑥 ∈ 𝐸 se puede expresar en ambas
bases de la forma
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛
𝑥 = 𝛼1′ . 𝑢1′ + 𝛼2′ . 𝑢2′ + ⋯ + 𝛼𝑛′ . 𝑢𝑛′
Es decir, las componentes del vector 𝑥 en ambas bases son
𝛼1 𝛼1′
𝛼2 𝛼′
𝑥𝐵𝐸 = [ ⋮ ], 𝑥𝐵𝐸′ = [ 2]

𝛼𝑛 𝛼𝑛′
Las componentes 𝛼1 , 𝛼2 , … , 𝛼𝑛 se llaman antiguas y las componentes 𝛼1′ , 𝛼2′ , … , 𝛼𝑛′ se llaman nuevas.

𝐸
𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛
α2
𝛼1 𝛼𝑛

𝑆 𝑥

𝛼1′ ′
𝛼2′ 𝛼𝑛
𝐵𝐸′ = 𝑢1′ , 𝑢2′ , … , 𝑢𝑛′

Figura 4.13: El vector 𝑥 ∈ 𝐸 expresado en las bases antigua (𝐵𝐸 ) y nueva (𝐵𝐸′ ) de 𝐸. La matriz de cambio de base
𝑆 relaciona las componentes del vector 𝑥 en ambas bases.

Suescun, Insausti, Flaquer (2022) 153 Tecnun-Universidad de Navarra


4.12 Cambio de base en un espacio vectorial 4 Espacios Vectoriales

El problema del cambio de base consiste en, dado un vector 𝑥, expresar las componentes antiguas 𝑥𝐵𝐸
en función de las componentes nuevas 𝑥𝐵𝐸′ (Ver figura 4.12).

Empleando la Proposición 4.15 (las componentes de una combinación lineal son la misma combinación
lineal de las componentes), escribimos la expresión 𝑥 = 𝛼1′ . 𝑢1′ + 𝛼2′ . 𝑢2′ + ⋯ + 𝛼𝑛′ . 𝑢𝑛′ en la base antigua
𝐵𝐸 como
𝑥𝐵𝐸 = (𝛼1′ . 𝑢1′ + 𝛼2′ . 𝑢2′ + ⋯ + 𝛼𝑛′ . 𝑢𝑛′ )𝐵𝐸 = 𝛼1′ 𝑢1′ 𝐵 + 𝛼2′ 𝑢2′ 𝐵 + ⋯ + 𝛼𝑛′ 𝑢𝑛′ 𝐵
𝐸 𝐸 𝐸

donde 𝑢𝑗′ son las componentes del vector de la base nueva 𝑢𝑗′ expresado en la base antigua 𝐵𝐸 . Para
𝐵
𝐸
obtener una expresión matricial, llamamos 𝑠𝑖𝑗 a la componente 𝑖-ésima de 𝑢𝑗′ en la base 𝐵𝐸 , es decir,
𝑠1𝑗
𝑠2𝑗
𝑢𝑗′ =[ ⋮ ]
𝐵𝐸
𝑠𝑛𝑗
Por tanto, reescribimos la anterior ecuación como
𝛼1 𝑠11 𝑠12 𝑠1𝑛
𝛼2 𝑠21 𝑠22 𝑠2𝑛
[ ⋮ ] = α1′ [ ⋮ ] + α′2 [ ⋮ ] + ⋯ + 𝛼𝑛′ [ ⋮ ]
𝛼𝑛 𝑠𝑛1 𝑠𝑛2 𝑠𝑛𝑛
que conduce a las ecuaciones del cambio de base
𝛼1 = 𝑠11 𝛼1′ + 𝑠12 α′2 + ⋯ + 𝑠1𝑛 α′𝑛
𝛼 = 𝑠21 𝛼1′ + 𝑠22 α′2 + ⋯ + 𝑠2𝑛 α′𝑛
{ 2

𝛼𝑛 = 𝑠𝑛1 𝛼1′ + 𝑠𝑛2 α′2 + ⋯ + 𝑠𝑛𝑛 α′𝑛
y en notación matricial
𝑥𝐵𝐸 = 𝑆𝑥𝐵𝐸′

donde la matriz
𝑠11 𝑠12 … 𝑠1𝑛
𝑠21 𝑠22 … 𝑠2𝑛
𝑆 = [𝑢1′ 𝐵 | 𝑢2′ 𝐵 | … |𝑢𝑛′ 𝐵 ] = [ ⋮ ⋮ ⋱ ⋮ ]
𝐸 𝐸 𝐸
𝑠𝑛1 𝑠𝑛2 … 𝑠𝑛𝑛
es la llamada matriz del cambio de base o matriz de paso. La matriz 𝑆 es regular porque el sistema de
ecuaciones del cambio de base tiene solución única (recuérdese la Proposición 4.14, en la que se probó
que las componentes de un vector en una base dada son únicas). Nótese que las columnas de 𝑆 son
precisamente las componentes de los vectores de la nueva base en la base antigua.

Ejemplo 4.39
En 𝑅3 se considera la base canónica 𝐵𝑐 y la nueva base 𝐵′ compuesta por los vectores
𝑢1′ = (1, 1, 1)
𝑢2′ = (0, 1, 1)
𝑢3′ = (0, 0, 1)
¿Qué valor tienen las componentes del vector 𝑥 = (3, 2, 1) en la nueva base 𝐵′ ?
En primer lugar se obtiene la matriz 𝑆 a partir de las componentes de los vectores nuevos en la base
antigua. Al tratarse de la base canónica, esto es muy sencillo:
1 0 0
𝑆 = [𝑢1′ 𝐵 | 𝑢2′ 𝐵 | 𝑢3′ 𝐵 ] = [1 1 0]
𝑐 𝑐 𝑐
1 1 1
La matriz 𝑆 relaciona las componentes nuevas y viejas:
𝑥𝐵𝑐 = 𝑆𝑥𝐵′

Suescun, Insausti, Flaquer (2022) 154 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.12 Cambio de base en un espacio vectorial

Las componentes en la base vieja se obtienen fácilmente por ser la base canónica. Las componentes
nuevas son desconocidas:

3 𝛼1′ 3 1 0 0 𝛼1

𝑥𝐵𝑐 = [ 2 ], 𝑥𝐵′ = [𝛼2′ ] → [ 2 ] = [1 1 0] [𝛼2′ ]


1 𝛼3′ 1 1 1 1 𝛼3′
Y resolviendo el correspondiente sistema de ecuaciones se obtiene
3
𝑥𝐵′ = [−1]
−1
En efecto,
𝑥 = 3(1, 1, 1) − 1(0, 1, 1) − 1(0, 0, 1) = (3, 2, 1)

Ejemplo 4.40
En 𝑅2 [𝑡] se considera la base canónica 𝐵𝑐 = 1, 𝑡, 𝑡 2 y la nueva base 𝐵′ = 𝑢1′ , 𝑢2′ , 𝑢3′ , siendo
𝑢1′ = 1 + 𝑡, 𝑢2′ = 1 − 𝑡 2 , 𝑢3′ = 𝑡 − 𝑡 2
Se quieren hallar las componentes del vector 𝑥 = 2 − 𝑡 + 𝑡 2 en la nueva base 𝐵′.
Se procede como en el ejemplo anterior. En primer lugar se obtiene la matriz de cambio de base 𝑆. Al
tratarse de la base canónica, en este caso resulta muy sencillo:
1 1 0
𝑆 = [𝑢1′ 𝐵 | 𝑢2′ 𝐵 | 𝑢3′ 𝐵 ] = [1 0 1]
𝑐 𝑐 𝑐
0 −1 −1
A continuación, se usa para determinar las componentes del vector 𝑥 en la base nueva:

2 1 1 0 𝛼1 1

𝑥𝐵𝑐 = 𝑆𝑥𝐵′ → [−1] = [1 0 1 ] [𝛼2 ] → 𝑥𝐵′ = [ 1 ]
1 0 −1 −1 𝛼3′ −2
En efecto,
𝑥 = 1(1 + 𝑡) + 1(1 − 𝑡 2 ) − 2(𝑡 − 𝑡 2 ) = 2 − 𝑡 + 𝑡 2

Ejemplo 4.41
En 𝑅2 se consideran las dos bases siguientes 𝐵 = (1, 1), (1, −1) y 𝐵′ = (4, 2), (3, −1) ¿Cúal es la matriz
de paso de la base 𝐵 a la base 𝐵′? ¿Qué componentes tiene el vector 𝑥 = (7, 1) en ambas bases?
En primer lugar se obtiene la matriz 𝑆 a partir de las componentes de los vectores nuevos en la base
antigua. A simple vista se ve que:
3
𝑢1′ = (4, 2) = 3(1, 1) + 1(1, −1) → 𝑢1′ 𝐵 = [ ]
1 3 1
→ 𝑆 =[𝑢1′ 𝐵 |𝑢2′ 𝐵 ] = [ ]
1 1 2
𝑢2′ = (3, −1) = 1(1, 1) + 2(1, −1) → 𝑢2′ 𝐵 = [ ]
2
Las componentes del vector 𝑥 en la base nueva se ven también a simple vista:
1
𝑥 = (7, 1) = 1(4, 2) + 1(3, −1) → 𝑥𝐵′ = [ ]
1
Y sus componentes en la base nueva son:
3 1 1 4
𝑥𝐵𝑐 = 𝑆𝑥𝐵′ = [ ][ ] = [ ]
1 2 1 3
En efecto, se comprueba que:
𝑥 = 4(1, 1) + 3(1, −1) = (7, 1)

Suescun, Insausti, Flaquer (2022) 155 Tecnun-Universidad de Navarra


4.13 Ejemplos de aplicación 4 Espacios Vectoriales

Ejemplos de aplicación

Ejemplo de aplicación 4.1


Se sabe que las funciones 𝑓(𝑥) reales y diferenciables en la recta real forman un espacio vectorial 𝑉 de
dimensión infinita respecto de las operaciones ordinarias suma de funciones reales y producto de un
número real por una función.
Vamos a ver que las soluciones ℎ(𝑥) de la ecuación diferencial homogénea de primer orden
𝑓 ′ (𝑥) + 𝑘𝑓(𝑥) = 0
forman un subespacio vectorial de dimensión unidad, donde 𝑘 es un parámetro real.
En primer lugar, se satisfacen las condiciones de subespacio vectorial. Nótese que la función nula satisface
la ecuación y que
1) La suma de dos soluciones ℎ1 (𝑥) y ℎ2 (𝑥) es otra solución pues
(ℎ1 + ℎ2 )′ (𝑥) + 𝑘(ℎ1 + ℎ2 )(𝑥) = (ℎ1 ′ (𝑥) + 𝑘ℎ1 (𝑥)) + (ℎ2 ′ (𝑥) + 𝑘ℎ2 (𝑥)) = 0 + 0 = 0
2) El producto del número real 𝛼 por la solución ℎ(𝑥) es otra solución pues
(𝛼ℎ)′ (𝑥) + 𝑘(𝛼ℎ)(𝑥) = 𝛼(ℎ′ (𝑥) + 𝑘ℎ(𝑥)) = 𝛼0 = 0
De otra parte está claro que la función 𝑒 −𝑘𝑥 es una solución ya que
(𝑒 −𝑘𝑥 )′ + 𝑘𝑒 −𝑘𝑥 = −𝑘𝑒 −𝑘𝑥 + 𝑘𝑒 −𝑘𝑥 = 0
Además si ℎ(𝑥) es una solución cualquiera, la nueva función
𝑔(𝑥) = ℎ(𝑥)𝑒 𝑘𝑥
es una constante 𝐶 pues
𝑔′(𝑥) = ℎ′ (𝑥)𝑒 𝑘𝑥 + ℎ(𝑥)(𝑒 𝑘𝑥 )′ = −𝑘ℎ(𝑥)𝑒 𝑘𝑥 + 𝑘ℎ(𝑥)𝑒 𝑘𝑥 = 0
Luego
𝐶 = ℎ(𝑥)𝑒 𝑘𝑥
Y de ahí
1 −𝑘𝑥
ℎ(𝑥) = 𝑒
𝐶
es decir, las soluciones de la ecuación diferencial se pueden generar por la función 𝑒 −𝑘𝑥 que hace el papel
de base del subespacio de soluciones.

Ejemplo de aplicación 4.2


El wronskiano de 𝑛 funciones reales 𝑓1 (𝑥), 𝑓2 (𝑥), … , 𝑓𝑛 (𝑥) suficientemente derivables en un intervalo 𝐼
de la recta real se define mediante el siguiente determinante
𝑓1 (𝑥) 𝑓2 (𝑥) ⋯ 𝑓𝑛 (𝑥)
𝑓′1 (𝑥) 𝑓′2 (𝑥) ⋯ 𝑓′𝑛 (𝑥)
𝑊(𝑓1 , 𝑓2 , … , 𝑓𝑛 ) = det

(𝑛−1) (𝑛−1) (𝑛−1)
[𝑓1 (𝑥) 𝑓2 (𝑥) ⋯ 𝑓𝑛 (𝑥)]
El wronskiano sirve para estudiar el carácter lineal de una lista de funciones polinómicas.
Se enuncia, sin demostrar, que la citada lista es linealmente independiente si y sólo si el wronskiano es
distinto de cero.
Por ejemplo, la lista de polinomios de 𝑅2 [𝑡]
1 + 𝑡 2 , 1 − 𝑡, 2 + 𝑡 + 3𝑡 2

Suescun, Insausti, Flaquer (2022) 156 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.13 Ejemplos de aplicación

es linealmente dependiente pues


1 + 𝑡2 1−𝑡 2 + 𝑡 + 3𝑡 2
𝑊 = det [ 2𝑡 −1 1 + 6𝑡 ] = 0
2 0 6

Ejemplo de aplicación 4.3


La inversa de una matriz regular 𝐴 de orden 𝑛 es una matriz que pertenece al subespacio generado por
las matrices 𝐼, 𝐴, 𝐴2 , … , 𝐴𝑛−1 .
El teorema de Cayley-Hamilton (véase §7.13) garantiza que la inversa de toda matriz cuadrada 𝐴 regular
de orden 𝑛 se puede escribir como combinación lineal de las 𝑛 potencias sucesivas de 𝐴 siguientes:
𝐼, 𝐴, 𝐴2 , … , 𝐴𝑛−1
Más concretamente, se denomina polinomio característico al polinomio en variable 𝜆 que se obtiene al
calcular el siguiente determinante:
det(𝐴 − 𝜆𝐼𝑛 ) = 𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2 + ⋯ + 𝑐𝑛−1 𝜆𝑛−1 + 𝑐𝑛 𝜆𝑛
El teorema de Cayley-Hamilton establece que, si 𝐴 es regular:
−1
𝐴−1 = (𝑐 𝐼 + 𝑐2 𝐴 + 𝑐3 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛−1 )
𝑐0 1 𝑛
siendo 𝑐0 = det 𝐴 ≠ 0, por ser 𝐴 regular.
Por ejemplo:
1 2 3
𝐴 = [0 4 5]
0 0 6
Se tiene
1−𝜆 2 3
det(𝐴 − 𝜆𝐼) = det [ 0 4−𝜆 5 ] = (1 − 𝜆)(4 − 𝜆)(6 − 𝜆) = 24 − 34𝜆 + 11𝜆2 − 𝜆3
0 0 6−𝜆
de donde
1 −1/2 −1/12
−1
𝐴−1 = (−34𝐼3 + 11𝐴 − 𝐴2 ) = [ 0 1/4 −5/24]
24
0 0 1/6
Se puede concluir en este ejemplo que la inversa de 𝐴 pertenece al subespacio generado por las tres
matrices
𝐼3 , 𝐴, 𝐴2

Suescun, Insausti, Flaquer (2022) 157 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

Ejercicios resueltos

Ejercicio 4.1
En el conjunto 𝑅2 se definen las operaciones suma de vectores (+) y producto escalar por vector (∗) de
la siguiente manera:
(𝛼1 , 𝛼2 ) + (𝛽1 , 𝛽2 ) = (𝛼1 + 𝛽1 , 𝛼2 + 𝛽2 )
𝛼 ∗ (𝛼1 , 𝛼2 ) = (𝛼𝛼1 , 0)
¿Es 𝑅2 con las citadas operaciones un espacio vectorial sobre 𝑅?

Solución
Se sabe que el conjunto 𝑅2 es un espacio vectorial real respecto de las operaciones ordinarias. En el
ejercicio propuesto, la primera operación es la ordinaria pero no así la segunda, denotada por un
asterisco. El conjunto 𝑅2 con las citadas operaciones no posee la estructura de espacio vectorial, pues
entre otras, no se cumple la propiedad octava de espacio vectorial:
1. 𝑥 = 𝑥 ∀𝑥 ∈𝐸
Esta propiedad falla para el escalar unidad y el vector (1, 1), como se muestra a continuación:
1 ∗ (1, 1) = (1, 0) ≠ (1, 1)

Ejercicio 4.2
Se consideran tres subconjuntos 𝐹, 𝐺 y 𝐻 de 𝑅3 formados por vectores 𝑥 = (𝛼1 , 𝛼2 , 𝛼3 ) que verifican:
𝑥∈𝐹 ⟺ 𝛼1 + 𝛼2 + 𝛼3 = 1
𝑥∈𝐺 ⟺ 𝛼1 + 𝛼2 + 𝛼3 = 0
𝑥∈𝐻 ⟺ 𝛼12 + 𝛼22 + 𝛼32 = 1
¿Son estos tres subconjuntos subespacios vectoriales de 𝑅3 sobre 𝑅 respecto de las operaciones
ordinarias?

Solución
Los conjuntos 𝐹 y 𝐻 no son subespacios vectoriales, pues si lo fueran deberían incluir al vector nulo de
𝑅3 , esto es, al vector (0, 0, 0). Obsérvese que 𝐹 y 𝐻 no lo incluyen.
El conjunto 𝐺 sí que posee la estructura de subespacio vectorial. Como es fácil de probar, 𝐺 verifica las
dos condiciones necesarias y suficientes para ser espacio vectorial.
Por una parte, se toman dos vectores cualesquiera de 𝐺:
𝑢 = (𝛼1 , 𝛼2 , 𝛼3 ), 𝑣 = (𝛽1 , 𝛽2 , 𝛽3 ) ∈ 𝐺
Sus coordenadas deben satisfacer la ecuación de pertenencia a 𝐺:
𝛼1 + 𝛼2 + 𝛼3 = 0
𝛽1 + 𝛽2 + 𝛽3 = 0
Y se verifica ahora que 𝑢 + 𝑣 ∈ 𝐺, pues sus coordenadas cumplen la ecuación de 𝐺:
𝑢 + 𝑣 = (𝛼1 + 𝛽1 , 𝛼2 + 𝛽2 , 𝛼3 + 𝛽3 ) → (𝛼1 + 𝛽1 ) + (𝛼2 + 𝛽2 ) + (𝛼3 + 𝛽3 ) = 0
Por otra parte, se toma un escalar y un vector cualesquiera:
𝛽 ∈ 𝑅, 𝑢 = (𝛼1 , 𝛼2 , 𝛼3 ) ∈ 𝐺
Y se verifica que el producto 𝛽𝑢 ∈ 𝐺, pues sus coordenadas cumplen también la ecuación de 𝐺:
𝛽𝑢 = ( 𝛽𝛼1 , 𝛽𝛼2 , 𝛽𝛼3 ) → 𝛽𝛼1 + 𝛽𝛼2 + 𝛽𝛼3 = 0

Suescun, Insausti, Flaquer (2022) 158 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.14 Ejercicios resueltos

Ejercicio 4.3
En el espacio vectorial 𝑅4 se considera el subespacio vectorial generado por los dos vectores
( 2, 3, 1, −5), ( 0, 2, −1, 3). Determinar los valores de los escalares 𝑝 y 𝑞 de modo que el vector ( 2, 𝑝,
3, −𝑞) pertenezca al citado subespacio.

Solución
El vector ( 2, 𝑝, 3, −𝑞) debe ser combinación lineal de los vectores generadores para que pertenezca al
subespacio generado por éstos.
( 2, 𝑝, 3, −𝑞) = 𝛼1 ( 2, 3, 1, −5) + 𝛼2 ( 0, 2, −1, 3)
Operando e igualando se obtienen las siguientes ecuaciones:
2 = 2𝛼1
𝑝 = 3𝛼1 + 2𝛼2
3= 𝛼1 − 𝛼2
−𝑞 = −5𝛼1 + 3𝛼2
De las ecuaciones primera y tercera de deduce que 𝛼1 = 1 y 𝛼2 = −2, y a partir de éstas, de las
ecuaciones segunda y cuarta se obtiene:
𝑝 = −1 𝑞 = 11

Ejercicio 4.4
Calcular para que qué valores de 𝛼 es linealmente independiente la siguiente lista de vectores de 𝑅3 :
(𝛼, 1, 0), (1, 𝛼, 1), (0, 1, 𝛼)

Solución
Se plantea la ecuación vectorial 4.7 y se analiza la existencia de soluciones:
(0,0,0) = 𝛼1 (𝛼, 1, 0) + 𝛼2 (1, 𝛼, 1) + 𝛼3 (0, 1, 𝛼)
La lista será linealmente independiente si sólo existe la solución trivial nula, esto es 𝛼1 = 𝛼2 = 𝛼3 = 0, y
será linealmente dependiente en caso contrario. Operando e igualando se obtiene el siguiente sistema de
ecuaciones lineales homogéneo:
𝛼𝛼1 + 𝛼2 = 0
{ 𝛼1 + 𝛼𝛼2 + 𝛼3 = 0
𝛼2 + 𝛼𝛼3 = 0
Resolviendo con el método de Gauss:
𝛼 1 0 1 𝛼 1 1 𝛼 1 1 𝛼 1
[1 𝛼 1] ~ [0 1 𝛼 ] ~ [0 1 𝛼 ] ~ [0 1 𝛼 ]
0 1 𝛼 𝛼 1 0 0 1 − 𝛼2 −𝛼 0 0 −2𝛼 + 𝛼 3
La existencia o no del tercer pívot determina cuántas soluciones tiene el sistema y por tanto el carácter
lineal de la lista:
−2𝛼 + 𝛼 3 ≠ 0 ⇔ 𝛼 ≠ {0, ±√2} ⇒ 𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜
−2𝛼 + 𝛼 3 = 0 ⇔ 𝛼 = {0, ±√2} ⇒ 𝐶𝑜𝑚𝑝𝑎𝑡𝑖𝑏𝑙𝑒 𝑖𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑑𝑜
Por tanto la lista es linealmente independiente si 𝛼 ≠ {0, ±√2}.

Ejercicio 4.5
Hállese una base del subespacio vectorial 𝐹 de 𝑅2×2 formado por las matrices de la forma
𝛼 𝛽
𝑋=[ ]
−𝛽 0
siendo 𝛼 y 𝛽 dos parámetros reales.

Suescun, Insausti, Flaquer (2022) 159 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

Solución
Está claro que 𝐹 es un subespacio vectorial de 𝑅2×2 y que las dos matrices siguientes generan 𝐹:
1 0 0 1
𝑋1 = [ ] 𝑋2 = [ ]
0 0 −1 0
ya que:
𝛼 𝛽 1 0 0 1
𝑋=[ ] = 𝛼[ ]+𝛽[ ] = 𝛼𝑋1 + 𝛽𝑋2
−𝛽 0 0 0 −1 0
De otra parte, las dos matrices generadoras 𝑋1 y 𝑋2 forman una lista linealmente independiente, pues
una no es múltiplo de la otra, y por consiguiente son base del subespacio 𝐹:
1 0 0 1
𝐵𝐹 = [ ],[ ]
0 0 −1 0

Ejercicio 4.6
Resolver el ejercicio 4.3 mediante la técnica de buscar una forma escalonada.

Solución
Se toma por sencillez la base canónica de 𝑅4 . Se escriben en columnas las componentes de los tres
vectores dados y, trabajando por columnas, se intenta anular la columna correspondiente al vector
( 2, 𝑝, 3, −𝑞), pues de este modo se garatiza que este vector es combinación lineal de los dos vectores
generadores:
2 0 2 2 0 0 2 0 0
3 2 𝑝 3 2 𝑝−3 3 2 0
→ → 1 −1 (1 + 𝑝)/2
1 −1 3 1 −1 2
−5 3 −𝑞 −5 3 −𝑞 + 5 −5 3 (19 − 2𝑞 − 3𝑝)/2
Obsérvese que los dos vectores generadores sólo proporcionan dos peldaños con los que se han logrado
dos ceros. Para anular completamente la tercera columna se deben imponer la siguientes condiciones a
𝑝 y 𝑞:
(1 + 𝑝)/2 = 0
(19 − 2𝑞 − 3𝑝)/2 = 0
Y, por tanto:
𝑝 = −1 𝑞 = 11

Ejercicio 4.7
Resolver el ejercicio 4.4 mediante la técnica de buscar una forma escalonada.

Solución
Se toma por sencillez la base canónica de 𝑅3 y se escriben en columnas las componentes de los tres
vectores dados. Tras operar por columnas para lograr una forma escalonada, se analiza si es posible anular
alguna columna:
𝛼 1 0 1 0 𝛼 1 0 0 1 0 0
1 𝛼 1 → 𝛼 1 1 → 𝛼 1 1 − 𝛼2 → 𝛼 1 0
0 1 𝛼 1 𝛼 0 1 𝛼 −𝛼 1 𝛼 −2𝛼 + 𝛼 3
La lista es linealmente independiente si y sólo si la última columna no se anula completamente. Esto es,
si:
−2𝛼 + 𝛼 3 ≠ 0
Por tanto, la lista es linealmente independiente si 𝛼 ≠ {0, ±√2}.

Suescun, Insausti, Flaquer (2022) 160 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.14 Ejercicios resueltos

Ejercicio 4.8
Pruébese que si 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑘 es una lista linealmente independiente de 𝐸, la lista formada por los vectores
𝑦1 , 𝑦2 , ⋯ , 𝑦𝑘
𝑖

𝑦𝑖 = ∑ 𝑥𝑗 ∀ 𝑖 = 1, 2, … , 𝑘
𝑗=1

también es linealmente independiente.

Solución
Por ser linealmente independiente, la lista 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑘 forma una base del subespacio vectorial 𝐹 de 𝐸
que genera. Este subespacio es de dimensión 𝑘.
Al escribir por columnas las componentes de los vectores 𝑦1 , 𝑦2 , ⋯ , 𝑦𝑘 en la base 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑘 se obtiene
una forma escalonada “invertida” que, mediante operaciones elementales por columnas, se puede
convertir en forma escalonada regular:
1 1 1 ⋯ 1 1 0 0 ⋯ 0
0 1 1 ⋯ 1 1 1 0 ⋯ 0
0 0 1 ⋯ 1 → ⋯ → 1 1 1 ⋯ 0
⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1 1 1 1 ⋯ 1
Por lo que se concluye que la lista de vectores 𝑦1 , 𝑦2 , ⋯ , 𝑦𝑘 es independiente.

Ejercicio 4.9
Hállese la matriz de paso 𝑆 de la base 𝐵 a la base 𝐵′ de 𝑅2 , siendo:
𝐵 = (1, 2), (3, 2) 𝐵′ = (−1, 2), (5, −2)
Obtenga también las componentes del vector 𝑥 = (4, 0) en ambas bases.

Solución
Tal como se ha visto en el desarrollo teórico, la matriz de paso 𝑆 se puede construir a partir de las
componentes de los vectores de la base nueva 𝐵′ expresados en la base antigua 𝐵. Por consiguiente, para
el primer vector de 𝐵′:
𝑠11 + 3𝑠21 = −1 𝑠 = 2
(−1, 2) = 𝑠11 (1, 2) + 𝑠21 (3, 2) → { → 11
2𝑠11 + 2𝑠21 = 2 𝑠21 = −1
Y para el segundo:
𝑠12 + 3𝑠22 = 5 𝑠 = −4
(5, −2) = 𝑠12 (1, 2) + 𝑠22 (3, 2) → { → 12
2𝑠12 + 2𝑠22 = −2 𝑠22 = 3
Y, en definitiva:
𝑠11 𝑠12 2 −4
𝑆 = [𝑠 𝑠22 ] = [−1 ]
21 3
Para encontrar las componentes del vector 𝑥 dado en la base 𝐵′, se plantea su combinación lineal con los
vectores de la base y se resuelve el sistema de ecuaciones lineales asociado:
−𝛼1′ + 5𝛼2′ = 4 𝛼′ = 1
(4, 0) = 𝛼1′ (−1, 2) + 𝛼2′ (5, −2) → { ′ ′ → 1′
2𝛼1 − 2𝛼2 = 0 𝛼2 = 1
Y, por tanto:
1
𝑥𝐵′ = [ ]
1
Se podría proceder de manera análoga para hallar las componentes del vector 𝑥 en la base 𝐵, o
alternativamente, hacer uso de las ecuaciones de cambio de base, dado que la matriz de paso 𝑆 es
conocida:

Suescun, Insausti, Flaquer (2022) 161 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

2 −4 1 −2
𝑥𝐵 = 𝑆𝑥𝐵′ = [ ][ ] = [ ]
−1 3 1 2
Es decir:
−2 1
𝑥 = (4, 0) → 𝑥𝐵 = [ ] 𝑥𝐵′ = [ ]
2 1

Ejercicio 4.10
En el espacio vectorial 𝑅3 se pide encontrar la matriz de paso 𝑆 de la base 𝐵 a la base 𝐵′, siendo:
𝐵 = (1, 0, 0), (1, 1, 0), (1, 0, 1) 𝐵′ = (3, −1, 0), (1, 5, 0), (1, 0, 1)

Solución
Se presenta a continuación un método de resolución alternativo al empleado en el problema 4.9, que
consiste en hacer uso de la base canónica de 𝑅3 y plantear las ecuaciones de cambio de base entre la base
canónica 𝐵𝑐 y las bases 𝐵 y 𝐵′ dadas.

𝐵 𝐵′
𝑃 −1

𝑃 𝑄
𝐵𝑐

Figura 4.14: Desde la base 𝐵 se puede pasar a la base 𝐵′ mediante la matriz 𝑆 o pasando primero a la base
canónica 𝐵𝑐 mediante 𝑃 −1 y después a la base 𝐵′ con la matriz 𝑄.

Sean 𝑃 y 𝑄 las matrices de paso de la base canónica a las bases 𝐵 y 𝐵′ respectivamente, según se muestra
en la figura. Sean 𝑥𝐵 , 𝑥𝐵′ y 𝑥𝐵𝑐 las componentes de un vector 𝑥 cualquiera del espacio expresado en las
bases 𝐵, 𝐵′ y 𝐵𝑐 respectivamente. Las ecuaciones de los tres cambios de base son:
𝑥𝐵 = 𝑆𝑥𝐵′
𝑥𝐵𝑐 = 𝑃𝑥𝐵
𝑥𝐵𝑐 = 𝑄𝑥𝐵′
Igualando las dos últimas y comparando con la primera, se obtiene:
𝑃𝑥𝐵 = 𝑄𝑥𝐵′ → 𝑥𝐵 = (𝑃 −1 𝑄)𝑥𝐵′ = 𝑆𝑥𝐵′ → 𝑆 = 𝑃−1 𝑄
Las matrices 𝑃 y 𝑄 son muy fáciles de obtener:
1 1 1 3 1 1
𝑃 = [0 1 0] 𝑄 = [−1 5 0 ]
0 0 1 0 0 1
Y, por consiguiente:
1 −1 −1 3 1 1 4 −4 0
𝑆 = 𝑃 −1 𝑄 = [0 1 0] [−1 5 0 ] = [−1 5 0 ]
0 0 1 0 0 1 0 0 1

Ejercicio 4.11
Hallar las componentes de los vectores de la base canónica de 𝑅3 en la siguiente base:
𝐵 = (1,0,0), (1,1,0), (1,0,1)

Solución
Una manera sencilla de resolver este problema se deduce al comparar el cambio de la base canónica de
𝑅3 a la base 𝐵 con el cambio inverso, esto es, de la base 𝐵 a la base canónica.

Suescun, Insausti, Flaquer (2022) 162 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.14 Ejercicios resueltos

Si 𝑆 es la matriz del cambio de la base 𝐵𝑐 a la base 𝐵, inmediatamente se deduce que 𝑆 −1 es la matriz del
cambio de la base 𝐵 a la base 𝐵𝑐 , ya que:
𝑥𝐵𝑐 = 𝑆𝑥𝐵 → 𝑥𝐵 = 𝑆 −1 𝑥𝐵𝑐
Nótese que la regularidad de las matrices de paso garantiza siempre la existencia de 𝑆 −1 .
La matriz 𝑆 es muy fácil de obtener cuando la base de partida es la canónica:
1 1 1
𝑆 = [0 1 0]
0 0 1
Por tanto:
1 −1 −1
𝑆 −1 = [0 1 0]
0 0 1
Y, por consiguiente, las componentes pedidas son:
1
𝑒1 = (1,0,0) → 𝑒1 𝐵 = [ 0 ]
0
−1
𝑒2 = (0,1,0) → 𝑒2 𝐵 = [ 1 ]
0
−1
𝑒3 = (0,0,1) → 𝑒3 𝐵 = [ 0 ]
1

Ejercicio 4.12
Sea F un subespacio vectorial de dimensión 2 en un espacio vectorial 𝐸. Hállese la matriz de paso del
cambio de base de una base de F, formada por los vectores 𝑢1 , 𝑢2 , a otra base de F formada por los
vectores 𝑣1 , 𝑣2 sabiendo que:
𝑢1 = 4𝑣1 + 3𝑣2 𝑢2 = 𝑣1 + 𝑣2

Solución
Se sabe que las componentes de los vectores de la base nueva en la base antigua conforman las columnas
de la matriz de paso 𝑆. Mediante operaciones elementales resulta sencillo despejar los vectores de la base
nueva en función de los de la base antigua. Por consiguiente:
𝑢1 = 4𝑣1 + 3𝑣2 𝑣1 = 𝑢1 − 3𝑢2 1 −1
{ → { → 𝑆= [ ]
𝑢2 = 𝑣1 + 𝑣2 𝑣2 = −𝑢1 + 4𝑢2 −3 4

Ejercicio 4.13
De un subespacio 𝐹 de dimensión 2 de 𝑅4 se conocen dos bases:
𝐵𝐹 = (1,1,0,0), (1,0,1,1)
𝐵𝐹′ = (3,1,2,2), (2,3, −1, −1)
Hallar la matriz de paso del cambio de la base 𝐵𝐹 a la base 𝐵𝐹′ .

Solución
Las componentes del primer vector base de 𝐵𝐹′ escrito en la base 𝐵𝐹 son:
(3,1,2,2) = 𝑠11 (1,1,0,0) + 𝑠21 (1,0,1,1)
𝑠11 + 𝑠21 =3
𝑠11 =1 𝑠11 = 1
→ { →
𝑠21 =2 𝑠21 = 2
𝑠21 =2

Suescun, Insausti, Flaquer (2022) 163 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

Y las del segundo vector de 𝐵𝐹′ :


(2,3, −1, −1) = 𝑠12 (1,1,0,0) + 𝑠22 (1,0,1,1)
𝑠12 + 𝑠22 = 2
𝑠12 = 3 𝑠12 = 3
→ { →
𝑠22 = −1 𝑠22 = −1
𝑠22 = −1
Y, en definitiva:
𝑠11 𝑠12 1 3
𝑆 = [𝑠 𝑠22 ] = [ 2 ]
21 −1
Nota: Obsérvese que estos sistemas de ecuaciones son necesariamente compatibles (los vectores de 𝐵𝐹′
pertenecen al mismo subespacio y son generados por los de 𝐵𝐹 ) y determinados (las bases son listas
linealmente independientes).

Ejercicio 4.14
En 𝑅4 se tiene un subespacio vectorial 𝐹 de dimensión 2. En este subespacio se consideran dos bases,
𝐵𝐹 = 𝑣1 , 𝑣2 y 𝐵𝐹′ = 𝑣1′ , 𝑣2′ de las que se sabe lo siguiente:
𝑣1 = (1, 1, 1, 1) , 𝑣2 = (0, 1, 1, 1)
y la matriz de paso de la base 𝐵𝐹 a la base 𝐵𝐹′ :
1 3
𝑆=[ ]
2 4
Hállense los vectores 𝑣1′ , 𝑣2′ de la base 𝐵𝐹′ .

Solución
Las columnas de la matriz de paso son las componentes de los vectores de la base nueva expresados en
la base antigua, luego:
𝑣1′ = 1. 𝑣1 + 2. 𝑣2 = 1. (1, 1, 1, 1) + 2. (0, 1, 1, 1) = (1, 3, 3, 3)
𝑣2′ = 3. 𝑣1 + 4. 𝑣2 = 3. (1, 1, 1, 1) + 4. (0, 1, 1, 1) = (3, 7, 7, 7)

Ejercicio 4.15
Verificar que el siguiente vector 𝑥 pertenece al subespacio 𝐹 del ejercicio 4.14 y hallar sus componentes
en las bases 𝐵𝐹 y 𝐵𝐹′ del citado ejercicio:
𝑥 = (2, 4, 4, 4)

Solución
Si el vector 𝑥 pertenece a 𝐹 se debe poder escribir como combinación lineal de los vectores de sus bases.
Para verificarlo se plantea la combinación lineal con los vectores de 𝐵𝐹′ y se discute y resuelve el sistema
de ecuaciones lineales asociado:
𝛼1′ + 3𝛼2′ =2
3𝛼1′ + 7𝛼2′ =4 𝛼 ′ = −1
(2, 4, 4, 4) = 𝛼1′ . (1, 3, 3, 3) + 𝛼2′ . (3, 7, 7, 7) → → 1′
3𝛼1′ + 7𝛼2′ =4 𝛼2 = 1
{ 3𝛼1′ + 7𝛼2′ =4
−1
→ 𝑥𝐵𝐹′ = [ ]
1
Como el sistema tiene solución, se concluye que 𝑥 ∈ 𝐹. Obsérvese que si el sistema de ecuaciones hubiera
sido incompatible, se concluiría que 𝑥 ∉ 𝐹. Nótese también que en ningún caso el sistema podría haber
sido indeterminado pues los vectores base son siempre linealmente independientes.
Para hallar las componentes del vector 𝑥 en la base 𝐵𝐹 se hace uso de las ecuaciones de cambio de base,
dado que la matriz de paso 𝑆 es conocida:

Suescun, Insausti, Flaquer (2022) 164 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.14 Ejercicios resueltos

1 3 −1 2
𝑥𝐵𝐹 = 𝑆𝑥𝐵𝐹′ = [ ][ ] = [ ]
2 4 1 2
Y, en definitiva:
2 −1
𝑥 = (2, 4, 4, 4) → 𝑥𝐵𝐹 = [ ] 𝑥𝐵𝐹′ = [ ]
2 1

Ejercicio 4.16
Sean 𝐹 y 𝐺 dos subespacios de 𝑅5 , definidos en la base canónica, el primero implícitamente por
𝛼 + 𝛼2 + 𝛼3 = 0
𝐹≡ { 1
𝛼1 + 𝛼2 + 𝛼4 = 0
y el segundo paramétricamente por
𝛼1 = 𝜆1
𝛼2 = 𝜆1 + 𝜆2
𝐺 ≡ 𝛼3 = 𝜆1 + 𝜆2
𝛼4 = 𝜆1 + 𝜆3
{𝛼 5 = 𝜆1 + 𝜆3
Hállense sendas bases de los subespacios 𝐹 y 𝐺, así como de los subespacios intersección y suma de 𝐹 y
𝐺.

Solución
Obsérvese que, aunque 𝛼5 no aparezca en las primeras ecuaciones, la citada componente existe.
Una base de 𝐹 se puede hallar resolviendo el sistema dado por sus ecuaciones implícitas. Se obtiene en
este caso de un modo sencillo el conjunto de soluciones (que son a su vez ecuaciones paramétricas del
subespacio):
𝛼1 = −𝜀1 − 𝜀2
𝛼2 = 𝜀1
𝐹 ≡ 𝛼3 = 𝜀2
𝛼4 = 𝜀2
{𝛼 5 = 𝜀3
de donde se deduce inmediatamente una base de 𝐹:
𝐵𝐹 = (−1, 1, 0, 0, 0), (−1, 0, 1, 1, 0), (0, 0, 0, 0, 1)
Una base de 𝐺 se deduce directamente también de sus ecuaciones paramétricas:
𝐵𝐺 = (1,1,1,1,1), (0,1,1,0,0), (0,0,0,1,1)
Una base de la intersección de 𝐹 y 𝐺 se puede hallar introduciendo las ecuaciones paramétricas de 𝐺 en
las ecuaciones implícitas de 𝐹, tal como se indica a continuación:
𝜆1 = −2𝛿/3
𝜆1 + (𝜆1 + 𝜆2 ) + (𝜆1 + 𝜆2 ) = 0 3𝜆1 + 2𝜆2 =0
→ → { 𝜆2 = 𝛿
𝜆1 + (𝜆1 + 𝜆2 ) + (𝜆1 + 𝜆3 ) = 0 3𝜆1 + 𝜆2 + 𝜆3 = 0
𝜆3 = 𝛿
Por consiguiente, los valores de 𝜆1 , 𝜆2 , 𝜆3 así calculados permiten generar vectores de 𝐺 que satisfacen
las ecuaciones implícitas de 𝐹 y son por tanto vectores que pertenecen al subespacio intersección 𝐹 ∩ 𝐺.
Las ecuaciones paramétricas de la intersección y una base vienen dadas por:
𝛼1 = −2𝛿/3
𝛼2 = 𝛿/3
𝐹 ∩ 𝐺 ≡ 𝛼3 = 𝛿/3 𝐵𝐹∩𝐺 = (−2, 1, 1, 1, 1)
𝛼4 = 𝛿/3
{𝛼 5 = 𝛿/3
Para hallar una base de 𝐹 + 𝐺 se unen las bases de 𝐹 y 𝐺 obtenidas y se eliminan los vectores que sean
combinación lineal de los demás, trabajando mediante formas escalonadas por columnas en la base
canónica de 𝑅5 :

Suescun, Insausti, Flaquer (2022) 165 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

−1 −1 0 1 0 0 −1 −1 0 3 0 1
1 0 0 1 1 0 1 0 0 0 1 0
0 1 0 1 1 0 → ⋯→ 0 1 0 0 1 −1 → ⋯
0 1 0 1 0 1 0 1 0 0 0 0
0 0 1 1 0 1 0 0 1 0 0 0
−1 −1 0 3 0 1 −1 −1 0 3 0 0
1 0 0 0 1 1 1 0 0 0 1 0
⋯→ 0 1 0 0 1 0 → ⋯→ 0 1 0 0 1 0
0 1 0 0 0 0 0 1 0 0 0 0
0 0 1 0 0 0 0 0 1 0 0 0
se llega a una forma escalonada invertida de la que se elimina el vector nulo, por lo que los vectores
(−1, 1, 0, 0, 0), (−1, 0, 1, 1, 0), (0, 0, 0, 0, 1), (3, 0, 0, 0, 0), (0, 1, 1, 0, 0)
forman una base de la suma 𝐹 + 𝐺. Obsérvese que la dimensión de la suma vale 5, valor que coincide con
la suma de dimensiones menos la dimensión de la intersección. Nótese también que por ser dim 𝑅5 = 5,
el subespacio suma llena el espacio:
𝑅5 = 𝐹 + 𝐺

Ejercicio 4.17
Determinar las ecuaciones implícitas del subespacio 𝐹 de 𝑅5 del que se conocen sus ecuaciones
parámetricas en la base natural del espacio:
𝛼1 = 𝜆1
𝛼2 = 𝜆1 + 𝜆2
𝐹 ≡ 𝛼3 = 𝜆1 − 𝜆2
𝛼4 = 2𝜆1 − 𝜆3
{𝛼 5 = 2𝜆1 + 𝜆3

Solución
Este problema puede resolverse por tres métodos distintos. Conviene, no obstante, realizar un análisis
previo de los datos para determinar cuántas ecuaciones implícitas se deben obtener. En este problemas
son 2:
𝑘 = 𝑑𝑖𝑚 𝑅5 − 𝑑𝑖𝑚 𝐹 = 5 − 3 = 2

Método 1
Consiste en eliminar los parámetros de las ecuaciones paramétricas hasta lograr un conjunto de
ecuaciones en las que sólo aparezcan las componentes. El primer paso es despejar los parámetros en
función de las componentes, teniendo la precaución de no usar más de una vez cada ecuación. En este
caso, las ecuaciones 1ª, 2ª y 4ª permiten despejar los tres parámetros independientes de 𝐹:
𝜆1 = 𝛼1
𝜆2 = 𝛼2 − 𝜆1 = 𝛼2 − 𝛼1
𝜆3 = −𝛼4 + 2𝜆1 = −𝛼4 + 2𝛼1
El segundo paso consiste en sustituir estos parámetros en las ecuaciones restantes y reescribirlas de forma
homogénea:
𝛼3 = 𝜆1 − 𝜆2 = 𝛼1 − (𝛼2 − 𝛼1 ) 2𝛼1 − 𝛼2 − 𝛼3 = 0
→ 𝐹≡ {
𝛼5 = 2𝜆1 + 𝜆3 = 2𝛼1 + (−𝛼4 + 2𝛼1 ) 4𝛼1 − 𝛼4 − 𝛼5 = 0
Nótese que efectivamente se obtienen 2 ecuaciones implícitas independientes.

Método 2
Se toma un vector del espacio y, operando hasta lograr una forma escalonada, se determinan las
condiciones que deben cumplir sus componentes para que este vector pertenezca al subespacio. Para
ello, se toma la base del subespacio encerrada en las ecuaciones paramétricas, escribiendo sus
componentes en columnas, y se amplía con una columna genérica. A continuación, se realizan

Suescun, Insausti, Flaquer (2022) 166 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.14 Ejercicios resueltos

operaciones elementales con el objetivo de verificar que esta columna es combinación lineal de las
columnas base. Por sencillez, habitualmente se trabaja en la base natural del espacio:
1 0 0 𝛼1 1 0 0 0
1 1 0 𝛼2 1 1 0 𝛼2 − 𝛼1
1 −1 0 𝛼3 → 1 −1 0 𝛼3 − 𝛼1 →
2 0 1 𝛼4 2 0 1 𝛼4 − 2𝛼1
2 0 −1 𝛼5 2 0 −1 𝛼5 − 2𝛼1
1 0 0 0 1 0 0 0
1 1 0 0 1 1 0 0
→ 1 −1 0 𝛼3 − 2𝛼1 +𝛼2 → 1 −1 0 𝛼3 − 2𝛼1 +𝛼2
2 0 1 𝛼4 − 2𝛼1 2 0 1 0
2 0 −1 𝛼5 − 2𝛼1 2 0 −1 𝛼5 − 4𝛼1 + 𝛼4
Nótese que, dado que sólo hay tres peldaños (dim 𝐹 = 3), las operaciones elementales sólo permiten
hacer tres ceros en la columna genérica. Para forzar que esta columna represente realmente a un vector
cualquiera del subespacio, los dos ceros pendientes se deben imponer desde el exterior. Estas condiciones
son las ecuaciones implícitas buscadas:
−2𝛼1 + 𝛼2 + 𝛼3 = 0
𝐹 ≡{
−4𝛼1 + 𝛼4 + 𝛼5 = 0
Obsérvese que también se obtienen dos ecuaciones independientes y que, pese a ser diferentes de las
obtenidas en el primer método, son igualmente correctas.

Método 3
Considere las ecuaciones parámetricas como un sistema de ecuaciones que depende de los parámetros
𝛼1 , 𝛼2 , … 𝛼5 y cuyas incógnitas son 𝜆1 , 𝜆2 y 𝜆3 . Este sistema debe tener solución necesariamente. Sus
soluciones describen los vectores que pertenecen al subespacio 𝐹. Por ello, será necesario imponer
condiciones a los parámetros para evitar la aparición de escalonamientos en la última columna al resolver
el sistema con el método de Gauss:
1 0 0 𝛼1 1 0 0 𝛼1 1 0 0 𝛼1
1 1 0 𝛼2 0 1 0 𝛼2 − 𝛼1 0 1 0 𝛼2 − 𝛼1
1 −1 0 || 𝛼3 ~ 0 −1 0 || 𝛼3 − 𝛼1 ~ 0 0 0 || 𝛼2 + 𝛼3 − 2𝛼1 = 0
2 0 −1 𝛼4 0 0 −1 𝛼4 − 2𝛼1 0 0 −1 𝛼4 − 2𝛼1
[2 0 1 𝛼5 ] [ 0 0 1 𝛼5 − 2𝛼1 ] [ 0 0 0 𝛼4 + 𝛼5 − 4𝛼1 ] = 0
Por lo tanto:
−2𝛼1 + 𝛼2 + 𝛼3 = 0
𝐹 ≡{
−4𝛼1 + 𝛼4 + 𝛼5 = 0

Ejercicio 4.18
Sean F y G dos subespacios vectoriales de 𝑅3 [t]. De ambos subespacios se conocen sus ecuaciones
implícitas en la base canónica de 𝑅3 [t].
𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 0
𝐹 ≡{ 𝐺 ≡ { 𝛼3 − 𝛼4 = 0
𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 = 0
Hallar una base de 𝐹, una de 𝐺 y otra de 𝐹 ∩ 𝐺.

Solución
Al resolver las ecuaciones implícitas de cada subespacio se obtienen las ecuaciones paramétricas y de
estas se deducen las correspondientes bases. Comenzando por el subespacio 𝐹:
1 −1 1 −1 1 −1 1 −1
[ ] → [ ] →
1 1 1 1 0 2 0 2

Suescun, Insausti, Flaquer (2022) 167 Tecnun-Universidad de Navarra


4.14 Ejercicios resueltos 4 Espacios Vectoriales

𝛼1 = −𝛿1
1 0 1 0 𝛼 = −𝛿2
[ ]→𝐹≡ { 2 → 𝐵𝐹 = −1 + t 2 , −𝑡 + 𝑡 3
0 1 0 1 𝛼3 = 𝛿1
𝛼4 = 𝛿2
En cuanto al subespacio 𝐺:
[0 0 1 −1] →
𝛼1 = 𝜌1
𝛼2 = 𝜌2
→ 𝐺≡{ 𝛼 = 𝜌3 → 𝐵𝐺 = 1, t, t2 + t3
3
𝛼4 = 𝜌3
Para resolver el subespacio intersección, se utilizan las ecuaciones implícitas de ambos subespacios.
Aquellos vectores que las cumplan simultáneamente, serán vectores del subespacio intersección:
𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 0
𝐹 ∩ 𝐺 ≡ {𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 = 0
𝛼3 − 𝛼4 = 0
1 −1 1 −1 1 −1 1 −1
[1 1 1 1] → [ 0 2 0 2]
0 0 1 −1 0 0 1 −1
1 −1 1 −1 1 0 0 1
→[0 1 0 1] → [ 0 1 0 1]
0 0 1 −1 0 0 1 −1
Finalmente, resolviendo el sistema, las ecuaciones paramétricas y una base del subespacio intersección
son:
𝛼1 = −𝜀1
𝛼2 = −𝜀1 2 3
F∩G≡ { 𝛼 = 𝜀1 → 𝐵𝐹∩𝐺 = −1 − t + t + t
3
𝛼4 = 𝜀1

Suescun, Insausti, Flaquer (2022) 168 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.15 Ejercicios propuestos

Ejercicios propuestos

Ejercicio 4.19
Demuéstrese que el conjunto 𝐹 de matrices de la forma
𝑎 − 3𝑏 4𝑏
𝐴=[ ] 𝑎, 𝑏 ∈ 𝑅
−4𝑏 𝑎 + 3𝑏
es un subespacio vectorial de 𝑅2×2 . Hállese una base de 𝐹 y sus ecuaciones paramétricas e implícitas de
𝐹 en la base canónica de 𝑅2×2 .

Ejercicio 4.20
Determinar si son linealmente independientes las siguientes listas de vectores en sus respectivos espacios
vectoriales.
1 2 1
[ 2],[ 1],[ 5 ]
3 0 9
(1, 2, 3), (0, 4, 5), (0, 0, 6), (1, 1, 1)
1 0 1 1 1 1 1 1
[ ],[ ],[ ],[ ]
0 0 0 0 1 0 1 1

Ejercicio 4.21
Hallar los valores de 𝑝 y 𝑞 para que la lista formada por los tres vectores siguientes de 𝑅3 sea linealmente
independiente:
(1, 𝑞 2 , 1), (0, 𝑝, 0), (𝑝, 1, q)

Ejercicio 4.22
¿Forman los vectores 𝑣1 y 𝑣2 una base del subespacio generado por los vectores 𝑥1 , 𝑥2 y 𝑥3 ? Justifique la
respuesta.
𝑣1 = (2, 3, 2), 𝑣2 = (1, 1, −1), 𝑥1 = (1, 2, 3), 𝑥2 = (5, 8, 7), 𝑥3 = (3, 4, 1)

Ejercicio 4.23
Encontrar el valor de 𝑞 para que el subespacio vectorial de 𝑅3 generado por los tres vectores siguientes
sea de dimensión 2:
(1, 1, 2 + 𝑞), (1, 2, 3 + 2𝑞), (1, 2 − 𝑞, 𝑞 − 1)

Ejercicio 4.24
¿Es cierto que si los vectores 𝑥, 𝑦, 𝑧 forman una lista linealmente independiente, también es linealmente
independiente la lista formada por los vectores
𝑦 + 𝑧, 𝑥 + 𝑧, 𝑥 + 𝑦
en un espacio vectorial real?

Ejercicio 4.25
Se sabe que las matrices 𝑋 cuadradas de orden 2 que conmutan con una matriz 𝐴 dada forman un
subespacio vectorial 𝐹 de 𝑅2×2 . Hállese una base de 𝐹, si la matriz 𝐴 es:
0 0
𝐴=[ ]
0 1

Ejercicio 4.26
Hállese una base, las ecuaciones paramétricas y las ecuaciones implícitas del subespacio de matrices
simétricas reales de orden 2 en la base canónica de 𝑅2×2 .

Suescun, Insausti, Flaquer (2022) 169 Tecnun-Universidad de Navarra


4.15 Ejercicios propuestos 4 Espacios Vectoriales

Ejercicio 4.27
Hállese una base, las ecuaciones paramétricas y las ecuaciones implícitas del subespacio de matrices
antisimétricas reales de orden 2 en la base canónica de 𝑅2×2 .

Ejercicio 4.28
¿Cómo son los subespacios suma e intersección de los subespacios de 𝑅2×2 formados por las matrices
simétricas reales y por las antisimétricas reales?

Ejercicio 4.29
Encuentre una base y las ecuaciones implícitas y paramétricas del subespacio 𝐹 de 𝑅3 que está generado
por los vectores (1, 2, 3) y (0, 1, 1). Nota: Utilice la base canónica de 𝑅3 para las ecuaciones implícitas y
paramétricas.

Ejercicio 4.30
Hallar una base del subespacio 𝐹 de 𝑅4 generado por los vectores
(1, 1, 1, 1), (2, 0, 1, 1), (1, −1, 0, 0), (3, −1, 1, 1)
¿Pertenece el vector (1, 2, 3, 4) al citado subespacio?

Ejercicio 4.31
Sean 𝐵 y 𝐵′ dos bases de 𝑅3 , constituidas como se indica a continuación:
𝐵 = (1, 1, 1), (1, 1, 0), (1, 0, 0) 𝐵′ = (2, 1, 2), (1, 0, 3), (−1, 4, −2)
▪ Hallar la matriz de paso 𝑆 de la base 𝐵 a la base 𝐵′.
▪ Escribir los vectores de la base canónica de 𝑅3 en la base 𝐵.
▪ Obtener las componentes del siguiente vector 𝑥 en ambas bases 𝐵 y 𝐵′:
𝑥 = (1, −2, 1)

Ejercicio 4.32
Hállese la matriz de paso 𝑆 de la base 𝐵 a la base 𝐵′ de 𝑅2 :
𝐵 = (1, 0), (1, 1) 𝐵′ = (1, 1), (1, −1)
Obtenga también las componentes del vector (1, 1) en ambas bases.

Ejercicio 4.33
En 𝑅2 se tienen las dos bases siguientes:
𝐵 = (1, 1), (0, 1) 𝐵′ = (1, 0), (−1, 1)
Hallar un vector 𝑥 de 𝑅2 del que se sabe que en la primera base 𝐵 tiene de componentes 3 y 4. Hallar
también las componentes del vector 𝑥 en la nueva base 𝐵’.

Ejercicio 4.34
Sea 𝐹 un subespacio vectorial de 𝑅4 de dimensión 2. Se considera un cambio de base dado por la matriz
de paso:
1 2
𝑆=[ ]
2 5
La base de partida 𝐵𝐹 = 𝑣1 , 𝑣2 es desconocida. De la base final 𝐵𝐹′ = 𝑣1′ , 𝑣2′ se conocen sus vectores:
𝑣1′ = (1, 1, 1, 1), 𝑣2′ = (0, 1, −1, 0)
Hallar los vectores 𝑣1 , 𝑣2 que forman la base 𝐵𝐹 . Hallar también las componentes del vector 𝑣 en la base
𝐵𝐹 .

Suescun, Insausti, Flaquer (2022) 170 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.15 Ejercicios propuestos

𝑣 = (1, 2, 0, 1)

Ejercicio 4.35
Hallar las ecuaciones paramétricas y una base del subespacio 𝐹 de 𝑅3 definido mediante las siguientes
ecuaciones implícitas (expresadas en la base canónica de 𝑅3 ):
𝛼1 + 𝛼2 + 𝛼3 = 0
{
𝛼1 − 𝛼2 + 𝛼3 = 0

Ejercicio 4.36
El subespacio vectorial 𝐹 de 𝑅3 se define en la base canónica por las siguientes ecuaciones implícitas:
𝐹 ≡ { 𝛼1 + 2𝛼2 + 3𝛼3 = 0
Se realiza un cambio de base en el espacio, pasando de la base canónica a la base 𝐵’, que está formada
por los siguientes vectores:
(1, 1, 1), (1, 1, 0), (1, 0, 0)
Se pide:
▪ Encontrar la matriz de cambio de base de la base canónica a la base 𝐵’
▪ Expresar las ecuaciones implícitas de 𝐹 en la base 𝐵’.
▪ Escribir las ecuaciones paramétricas de 𝐹 en la base 𝐵’.

Ejercicio 4.37
Hallar las ecuaciones implícitas del subespacio 𝐹 de 𝑅4 dado por
𝛼1 = 𝜀1 + 𝜀2
𝛼2 = 𝜀1 − 2𝜀2
𝐹 ≡
𝛼3 = −𝜀1 /2 + 𝜀2
{ 𝛼4 = 2𝜀1 + 2𝜀2

Ejercicio 4.38
Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝑅3 . 𝐹 está generado por los vectores:
(1, 2, 3), (3, 2, 1)
En la base canónica de 𝑅3 , 𝐺 está definido por su ecuación implícita:
𝐺 ≡ { 𝛼1 + 𝛼2 + 𝛼3 = 0
▪ Hallar una base y las ecuaciones paramétricas e implícitas de 𝐹.
▪ Hallar una base y las ecuaciones paramétricas de 𝐺.
▪ Hallar una base y las ecuaciones paramétricas del subespacio 𝐹 ∩ 𝐺.
▪ Hallar una base, las ecuaciones paramétricas e implícitas del subespacio suma 𝐹 + 𝐺.

Ejercicio 4.39
Sean 𝐹 y 𝐺 dos subespacios de 𝑅4 . De 𝐹 se conocen sus ecuaciones implícitas y de 𝐺 las ecuaciones
paramétricas, ambas en la base natural del espacio:
𝛼1 = 𝜆1
𝛼 − 𝛼2 + 𝛼3 − 𝛼4 = 0 𝛼 = 𝜆1 + 𝜆2
𝐹≡ { 1 𝐺≡ { 2
𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 = 0 𝛼3 = 𝜆1 + 𝜆2 + 𝜆3
𝛼4 = 𝜆2 + 𝜆3
▪ Hallar una base y las ecuaciones paramétricas de 𝐹.
▪ Hallar una base y las ecuaciones implícitas de 𝐺.

Suescun, Insausti, Flaquer (2022) 171 Tecnun-Universidad de Navarra


4.15 Ejercicios propuestos 4 Espacios Vectoriales

▪ Hallar una base, las ecuaciones paramétricas e implícitas del subespacio 𝐹 ∩ 𝐺.


▪ Hallar una base, las ecuaciones paramétricas e implícitas del subespacio 𝐹 + 𝐺.

Ejercicio 4.40
Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝑅4 . De 𝐹 se conocen sus ecuaciones paramétricas y de 𝐺 las
ecuaciones implícitas en la base natural:
𝛼1 = 𝜆1 − 𝜆2
𝛼 = 𝜆2 𝛼1 − 𝛼2 + 2𝛼3 = 0
𝐹≡{ 2 𝐺 ≡{
𝛼3 = 2𝜆1 + 𝜆2 2𝛼1 + 𝛼3 − 𝛼4 = 0
𝛼4 = −𝜆1 − 𝜆2
▪ Hallar una base y las ecuaciones implícitas de 𝐹.
▪ Hallar una base y las ecuaciones paramétricas de 𝐺.
▪ Hallar una base, las ecuaciones paramétricas e implícitas del subespacio 𝐹 ∩ 𝐺.
▪ Hallar una base, las ecuaciones paramétricas e implícitas del subespacio 𝐹 + 𝐺.

Ejercicio 4.41
Sea un cambio de base en 𝑅3 dado por las siguientes ecuaciones:
𝛼1 = 𝛼1′ + 𝛼2′
{𝛼2 = 𝛼2′ + 𝛼3′
𝛼3 = 𝛼3′
Los vectores de la base antigua son:
(1, 1, 0), (1, 0, 1), (0, 1, 1)
Se pide:
▪ Hallar la matriz del cambio de base.
▪ Hallar los vectores de la base nueva.
▪ Hallar las componentes del vector 𝑣 = (1, 1, 1) en la base antigua.
▪ Hallar las componentes del vector 𝑣 = (1, 1, 1) en la base nueva.

Ejercicio 4.42
En un espacio vectorial 𝐸 de dimensión 3, se tienen las siguientes ecuaciones dependen de un parámetro
real 𝜀:
𝛼1 + 𝜀𝛼2 − 𝛼3 = 0
{ 𝛼1 + (2𝜀 − 1)𝛼2 − 𝜀𝛼3 = 0
(2 − 𝜀)𝛼1 + 𝛼2 − 𝛼3 = 0
Si 𝜀 = 2 las ecuaciones describen el subespacio vectorial 𝐹 de 𝐸 y si 𝜀 = 1 las ecuaciones representan al
subespacio 𝐺 de 𝐸. Estúdiese si la suma 𝐹 + 𝐺 es directa y llena todo espacio 𝐸.

Ejercicio 4.43
Siendo 𝐹 y 𝐺 dos subespacios vectoriales de 𝑅4 dados en la base canónica por:
𝛼1 = 2𝜆1 + 2𝜆2
𝛼 = 3𝜆1 + 𝜆2 𝛼1 + 2𝛼2 − 2𝛼3 − 𝛼4 = 0
𝐹≡{ 2 𝐺 ≡{
𝛼3 = −𝜆1 − 3𝜆2 𝛼1 + 𝛼2 − 𝛼3 − 𝛼4 = 0
𝛼4 = 𝜆1 + 𝜆2
▪ Hallar una base de la intersección de 𝐹 y 𝐺.
▪ Hallar una base de 𝐺 que contenga la base de 𝐹 ∩ 𝐺 obtenida.

Suescun, Insausti, Flaquer (2022) 172 Tecnun-Universidad de Navarra


4 Espacios Vectoriales 4.15 Ejercicios propuestos

Ejercicio 4.44
¿Se puede escribir el espacio vectorial 𝐸 como suma directa de dos subespacios vectoriales 𝐹 y 𝐺 de 𝐸
que verifican dim 𝐹 > 𝑛/2 y dim 𝐺 > 𝑛/2, con 𝑛 la dimensión de 𝐸? Justifíquese la contestación.

Ejercicio 4.45
Se tienen dos subespacios vectoriales 𝐹 y 𝐺 de 𝑅4 dados en la base canónica por las siguientes ecuaciones:
𝛼1 = 2𝜆1 + 𝜆2
𝛼 = 𝜆1 − 𝜆2 2𝛼1 + 𝛼2 − 𝛼3 = 0
𝐹≡{ 2 𝐺≡ {
𝛼3 = 𝜆2 𝛼1 + 2𝛼2 − 𝛼4 = 0
𝛼4 = −𝜆1 − 𝜆2
Hallar una base de cada uno de los siguientes subespacios:
𝐹, 𝐺, 𝐹 + 𝐺, 𝐹 ∩ 𝐺

Ejercicio 4.46
Sean F y G dos subespacios vectoriales de 𝑅4 . De ambos subespacios se conocen sus ecuaciones
paramétricas:
𝛼1 = 𝜆1 − 𝜆2 𝛼1 = 𝜆1
𝛼2 = 𝜆1 + 𝜆2 𝛼 = 𝜆1 + 𝜆2 + 𝜆3
𝐹≡{ 𝐺≡{ 2
𝛼3 = 𝜆1 − 𝜆2 𝛼3 = −𝜆2
𝛼4 = 𝜆1 + 𝜆2 𝛼4 = 𝜆1 + 𝜆2 − 𝜆3
Hallar una base de 𝐹, una de G y otra de 𝐹 ∩ 𝐺.

Ejercicio 4.47
Obtener las componentes de las siguientes matrices en la base canónica de 𝑅2×2 :
1 2 −4 0 0 0 1 0
𝐴=[ ] 𝐵=[ ] 𝑂=[ ] 𝐼=[ ]
3 4 2 3 0 0 0 1

Ejercicio 4.48
Encontrar una base del subespacio vectorial de 𝑅3 formado por vectores de la forma:
(𝑎 + 𝑏, 𝑎 − 𝑏, 𝑏) ∀ 𝑎, 𝑏 ∈ 𝑅

Suescun, Insausti, Flaquer (2022) 173 Tecnun-Universidad de Navarra


4.15 Ejercicios propuestos 4 Espacios Vectoriales

Suescun, Insausti, Flaquer (2022) 174 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales

Las aplicaciones lineales son un caso particular muy importante de las aplicaciones entre conjuntos.
Muchas de las aplicaciones más relevantes entre espacios vectoriales son lineales. Cuando la
correspondencia que establece la aplicación lineal entre dos espacios vectoriales 𝐸 y 𝐹 es biunívoca, se
habla de isomorfismo entre espacios vectoriales. Los espacios que son isomorfos se comportan del mismo
modo y tienen las mismas propiedades.
De otra parte, las aplicaciones lineales están estrechamente vinculadas a las matrices, en espacios
vectoriales de dimensión finita, pues así como una matriz columna puede representar a un vector, una
matriz 𝐴 puede representar a una aplicación lineal 𝑓.
Se aprende a operar con aplicaciones lineales a través de las matrices que las representan.
Aparecerá en este Capítulo la noción de rango de una matriz que nos permitirá resolver la cuestión de la
existencia de inversas por la izquierda o por la derecha de una matriz 𝐴 y será de ayuda para discutir un
sistema de ecuaciones lineales. Se termina estudiando la proyección sobre un subespacio y las matrices
de proyección.

Suescun, Insausti, Flaquer (2022) 175 Tecnun-Universidad de Navarra


5.1 Introducción al concepto de aplicación 5 Aplicaciones Lineales

Introducción al concepto de aplicación

Una aplicación 𝑓 de un conjunto 𝐸 en otro conjunto 𝐹 (matemáticamente escrito como 𝑓: 𝐸 → 𝐹)


establece una relación particular entre los elementos de 𝐸 y de 𝐹, de modo que cada elemento 𝑥 de 𝐸
está relacionado con uno y sólo un elemento 𝑦 de 𝐹, llamado imagen de 𝑥 por 𝑓. Se suele escribir
𝑦 = 𝑓(𝑥)
A su vez, el elemento 𝑥 recibe el nombre de antiimagen del elemento 𝑦.

𝑓
𝐸 𝐹

𝑥 𝑦 = 𝑓(𝑥)

Figura 5.1: Elementos básicos de una aplicación entre dos conjuntos 𝐸 y 𝐹.

De la definición de aplicación se deduce que:


▪ A cada vector 𝑥 ∈ 𝐸 le corresponde una única imagen 𝑦 = 𝑓(𝑥) ∈ 𝐹.
▪ Un vector 𝑦 ∈ 𝐹 puede tener más de una antiimagen.
▪ Puede haber vectores 𝑦 ∈ 𝐹 que no sean imágenes, es decir que no tengan antiimágenes.
Una aplicación es:
Inyectiva cuando a los elementos del conjunto 𝐹 les corresponde solo una antiimagen en 𝐸. Es decir, a
distintas antiimágenes corresponden distintas imágenes y viceversa:
𝑥 ≠ 𝑥′ ⟺ 𝑓(𝑥) ≠ 𝑓(𝑥´) (∀ 𝑥, 𝑥 ′ ∈ 𝐸)
Suprayectiva cuando todo elemento de 𝐹 tiene al menos una antiimagen:
∀𝑦 ∈ 𝐹, ∃𝑥 ∈ 𝐸 | 𝑦 = 𝑓(𝑥)
Biyectiva cuando es a la vez inyectiva y suprayectiva; es decir, todo elemento de 𝐹 tiene una y sola una
antiimagen:
∀𝑦 ∈ 𝐹, ∃! 𝑥 ∈ 𝐸 | 𝑦 = 𝑓(𝑥)

Inyectiva Suprayectiva Biyectiva

Figura 5.2: Tipos de aplicaciones.

Aplicaciones lineales (I)

Una aplicación lineal 𝑓 entre dos espacios vectoriales 𝐸 y 𝐹, ambos definidos sobre el mismo cuerpo
conmutativo de escalares 𝐾
𝑓: 𝐸 → 𝐹
es una aplicación que cumple las dos condiciones siguientes

Suescun, Insausti, Flaquer (2022) 176 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.2 Aplicaciones lineales (I)

𝑓(𝑥 + 𝑥′) = 𝑓(𝑥) + 𝑓(𝑥 ′ )


𝑓(𝛼. 𝑥) = 𝛼. 𝑓(𝑥)

con 𝑥, 𝑥 ∈ 𝐸, 𝛼 ∈ 𝐾.
Esto es, la imagen de la suma de dos vectores es la suma de sus imágenes, y la imagen de un escalar por
un vector es el escalar multiplicado por la imagen del vector (Figura 5.3).

𝐸 𝐹
𝑛 𝑚
𝑥′ 𝑓(𝑥′)

𝑥 + 𝑥′ 𝑓(𝑥) + 𝑓(𝑥 ′ )

𝑥 𝑓(𝑥)

𝛼. 𝑥 𝛼. 𝑓(𝑥)

𝐾
0 1 𝛼

Figura 5.3: Condiciones de linealidad de una aplicación lineal.

Los siguientes ejemplos ayudan a entender estos conceptos:

Ejemplo 5.1
Para demostrar que la función
𝑓(𝑎, 𝑏) = (𝑎 + 𝑏, 𝑎 + 𝑏, 0)
es una aplicación lineal entre los espacios vectoriales 𝑅2 y 𝑅3 , se comprueban las condiciones de
linealidad.
Por un lado, sean 𝑥 = (𝑎, 𝑏) y 𝑥 ′ = (𝑎′ , 𝑏 ′ )
𝑓(𝑥 + 𝑥 ′ ) = 𝑓(𝑎 + 𝑎′ , 𝑏 + 𝑏 ′ ) = (𝑎 + 𝑎′ + 𝑏 + 𝑏 ′ , 𝑎 + 𝑎′ + 𝑏 + 𝑏 ′ , 0)
= (𝑎 + 𝑏, 𝑎 + 𝑏, 0) + (𝑎′ + 𝑏 ′ , 𝑎′ + 𝑏 ′ , 0) = 𝑓(𝑥) + 𝑓(𝑥 ′ )
Y, por otro lado
𝑓(𝛼𝑥) = 𝑓(𝛼𝑎, 𝛼𝑏) = (𝛼𝑎 + 𝛼𝑏, 𝛼𝑎 + 𝛼𝑏, 0)
= α(𝑎 + 𝑏, 𝑎 + 𝑏, 0) = 𝛼𝑓(𝑥)

Ejemplo 5.2
Toda matriz 𝐴𝑚×𝑛 define una aplicación lineal, tambien llamado operador lineal, entre los espacios
vectoriales de matrices columnas 𝐾 𝑛×1 y 𝐾 𝑚×1
𝐴: 𝐾 𝑛×1 → 𝐾 𝑚×1 (𝐴 ∈ 𝐾 𝑚×𝑛 )
La aplicación lineal es:
𝑦 = 𝐴𝑥
𝑛×1 𝑚×1
con 𝑥 ∈ 𝐾 e𝑦 ∈𝐾 .
Se demuestra fácilmente que se cumplen las condiciones de linealidad
𝐴(𝑥 + 𝑥 ′ ) = 𝐴𝑥 + 𝐴𝑥 ′

Suescun, Insausti, Flaquer (2022) 177 Tecnun-Universidad de Navarra


5.2 Aplicaciones lineales (I) 5 Aplicaciones Lineales

𝐴(𝛼𝑥) = 𝛼𝐴𝑥
Por lo tanto, el operador 𝐴 que transforma 𝑥 en 𝑦 = 𝐴𝑥 es una aplicación lineal.

Ejemplo 5.3
La traza matricial es una aplicación lineal entre el espacio 𝑅𝑛×𝑛 de las matrices cuadradas reales de orden
𝑛, y el espacio vectorial 𝑅 de los números reales:
traza: 𝑅𝑛×𝑛 → 𝑅
Esta aplicación es lineal pues cumple
traza(𝐴 + 𝐵) = traza(𝐴) + traza(𝐵)
traza(𝛼𝐴) = 𝛼 traza(𝐴)

Ejemplo 5.4
La función derivada de polinomios de grado 𝑛, es una aplicación lineal entre dos espacios vectoriales de
polinomios. Considérese por ejemplo los polinomios de coeficientes reales de grado a lo sumo 3
𝑑
: 𝑅3 [𝑡] → 𝑅2 [𝑡]
𝑑𝑡
Sus derivadas son polinomios de grado a lo sumo 2:
𝑑
(𝑎 + 𝑏𝑡 + 𝑐𝑡 2 + 𝑑𝑡 3 ) = 𝑏 + 2𝑐𝑡 + 3𝑑𝑡 2
𝑑𝑡
Nótese que se cumplen las dos condiciones de linealidad:
𝑑 𝑑 𝑑
(𝑝(𝑡) + 𝑞(𝑡)) = 𝑝(𝑡) + 𝑞(𝑡)
𝑑𝑡 𝑑𝑡 𝑑𝑡
𝑑 𝑑
(𝛼𝑝(𝑡)) = 𝛼 𝑝(𝑡)
𝑑𝑡 𝑑𝑡

Cuando el espacio de origen y destino coinciden se habla de transformaciones lineales. La representación


habitual se muestra en la Figura 5.4

𝑓
𝐸 𝑛
𝑦 = 𝑓(𝑥)

0 𝑥

Figura 5.4: Transformación lineal 𝑓: 𝐸 → 𝐸. El transformado del vector 𝑥 es el vector 𝑦. El efecto de la


transformación es un cambio de dirección y de tamaño.

Ejemplo 5.5
Considérese la siguiente transformación lineal entre vectores de 𝑅2
𝑓: 𝑅2 → 𝑅2
𝑓(𝑎, 𝑏) = (𝑏, 𝑎)
Véase que se cumplen las condiciones de linealidad

Suescun, Insausti, Flaquer (2022) 178 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.3 Aplicaciones lineales (II)

𝑓(𝑥 + 𝑥 ′ ) = 𝑓(𝑎 + 𝑎′ , 𝑏 + 𝑏 ′ ) = (𝑏 + 𝑏 ′ , 𝑎 + 𝑎′ ) = (𝑏, 𝑎) + (𝑏 ′ , 𝑎′ ) = 𝑓(𝑥9 + 𝑓(𝑥 ′ )


y
𝑓(𝛼𝑥) = 𝑓(𝛼𝑎, 𝛼𝑏) = (𝛼𝑏, 𝛼𝑎) = 𝛼(𝑏, 𝑎) = 𝛼𝑓(𝑥)

Del cumplimiento de las condiciones de linealidad se deducen los siguientes interesantes resultados, muy
fácilmente demostrables:
𝑓(0) = 0
𝑓(−𝑥) = −𝑓(𝑥)
así como las proposiciones que se presentan en el siguiente apartado.

Aplicaciones lineales (II)

Se prueban a continuación una serie de enunciados que ayudan a comprender el efecto de una aplicación
lineal sobre listas de vectores (listas generadoras y listas linealmente independientes o dependientes).

Proposición 5.1
Enunciado: La imagen de una combinación lineal es la combinación lineal de las imágenes, con los mismos
coeficientes.
Demostración: Es consecuencia inmediata de la definición de aplicación lineal. La imagen de una
combinación lineal de vectores 𝑥1 , 𝑥2 , … , 𝑥𝑝 de 𝐸, es la siguiente combinación lineal de sus imágenes
𝑓(𝑥1 ), 𝑓(𝑥2 ), … , 𝑓(𝑥𝑝 ):
𝑓(𝛼1 . 𝑥1 + 𝛼2 . 𝑥2 + ⋯ + 𝛼𝑝 . 𝑥𝑝 ) = 𝛼1 . 𝑓(𝑥1 ) + 𝛼2 . 𝑓(𝑥2 ) + ⋯ + 𝛼𝑝 . 𝑓(𝑥𝑝 )

Proposición 5.2
Enunciado: Si 𝐻 es un subespacio vectorial de 𝐸, entonces 𝑓(𝐻), el conjunto de todas las imágenes de los
vectores de 𝐻, es un subespacio vectorial de 𝐹.
Demostración: 𝑓(𝐻) es un subespacio generado: las imágenes de una lista generadora de 𝐻 generan
𝑓(𝐻). En consecuencia, 𝑓(𝐻) es subespacio vectorial.

Teorema 5.3 (de existencia y unicidad)


Enunciado: Dada una base 𝑢1 , 𝑢2 , … , 𝑢𝑛 de 𝐸 y una lista de 𝑛 vectores 𝑦1 , 𝑦2 , … , 𝑦𝑛 de 𝐹, existe una única
aplicación lineal 𝑓 de 𝐸 en 𝐹 tal que
𝑓(𝑢𝑖 ) = 𝑦𝑖 (𝑖 = 1,2, … , 𝑛)
Demostración: Se demuestra en primer lugar la existencia. Un vector cualquiera 𝑥 ∈ 𝐸 se puede escribir
en la base dada como sigue
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛
Se puede construir una aplicación 𝑓 de 𝐸 en 𝐹 asignando los vectores 𝑦𝑖 como imágenes de los vectores
de la base de 𝐸:
𝑓(𝑢𝑖 ) = 𝑦𝑖 (𝑖 = 1,2, … , 𝑛)
De modo que, en virtud de la proposición 5.1,
𝑓(𝑥) = 𝑓(𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 ) = 𝛼1 . 𝑦1 + 𝛼2 . 𝑦2 + ⋯ + 𝛼𝑛 . 𝑦𝑛
y es evidente que 𝑓 es una aplicación lineal.
Se estudia ahora la unicidad. Si existiera otra aplicación lineal 𝑔 que cumpliera
𝑔(𝑢𝑖 ) = 𝑦𝑖 (𝑖 = 1,2, … , 𝑛)

Suescun, Insausti, Flaquer (2022) 179 Tecnun-Universidad de Navarra


5.4 Núcleo de una aplicación lineal 5 Aplicaciones Lineales

se tendría que, para todo vector 𝑥:


𝑔(𝑥) = 𝑔(𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 )
= 𝛼1 . 𝑔(𝑢1 ) + 𝛼2 . 𝑔(𝑢2 ) + ⋯ + 𝛼𝑛 . 𝑔(𝑢𝑛 )
= 𝛼1 . 𝑦1 + 𝛼2 . 𝑦2 + ⋯ + 𝛼𝑛 . 𝑦𝑛 = 𝑓(𝑥)
Luego necesariamente, las aplicaciones son iguales:
𝑔=𝑓

Proposición 5.4
Enunciado: Las aplicaciones lineales transforman listas linealmente dependientes en listas linealmente
dependientes.
Demostración: Sea 𝑓: 𝐸 → 𝐹 una aplicación lineal y 𝑥1 , 𝑥2 , … , 𝑥𝑝 una lista linealmente dependiente de
vectores en 𝐸. Se tendrá
𝛼1 . 𝑥1 + ⋯ + 𝛼⏟𝑗 . 𝑥𝑗 + ⋯ + 𝛼𝑝 . 𝑥𝑝 = 0
≠0

con al menos un coeficiente 𝛼𝑗 ≠ 0. Aplicando 𝑓 miembro a miembro


𝑓(𝛼1 . 𝑥1 + ⋯ + 𝛼⏟𝑗 . 𝑥𝑗 + ⋯ + 𝛼𝑝 . 𝑥𝑝 ) = 𝑓(0)
≠0

Por linealidad
𝛼1 . 𝑓(𝑥1 ) + ⋯ + 𝛼⏟𝑗 . 𝑓(𝑥𝑗 ) + ⋯ + 𝛼𝑝 . 𝑓(𝑥𝑝 ) = 0
≠0

De donde se deduce que 𝑓(𝑥1 ), 𝑓(𝑥2 ), … , 𝑓(𝑥𝑝 ) es linealmente dependiente, por ser 𝛼𝑗 ≠ 0.

Núcleo de una aplicación lineal

El núcleo de la aplicación lineal 𝑓: 𝐸 → 𝐹 es el subespacio vectorial de 𝐸 formado por todas las


antiimágenes del vector nulo de 𝐹. Se denota por 𝑁𝑢𝑐𝑓 o también 𝐾𝑒𝑟𝑓:

𝑁𝑢𝑐𝑓 = {𝑥ℎ ∈ 𝐸 | 𝑓(𝑥ℎ ) = 0} (5.1)

𝐸 𝐹
𝑛 𝑚
𝑁𝑢𝑐𝑓 𝑥 𝑦 = 𝑓(𝑥)

0 0

𝑥ℎ

𝐾
0 1

Figura 5.5: 𝑁𝑢𝑐𝑓es el subespacio vectorial de 𝐸 que contiene las antiimágenes del vector nulo 0 de 𝐹.

Está claro que el núcleo de 𝑓 está formado por todas las soluciones de la ecuación vectorial:

Suescun, Insausti, Flaquer (2022) 180 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.4 Núcleo de una aplicación lineal

𝑓(𝑥) = 0 (5.2)

Se define la nulidad de una aplicación lineal como la dimensión del núcleo.

Ejemplo 5.6
El núcleo de la aplicación líneal del ejemplo 5.1 se calcula resolviendo la ecuación 𝑓(𝑥ℎ ) = 0
𝑓(𝑎, 𝑏) = (0, 0, 0)
(𝑎 + 𝑏, 𝑎 + 𝑏, 0) = (0, 0, 0)
Necesariamente 𝑎 + 𝑏 = 0 por lo que
𝑎 = −𝛽 𝑏=𝛽 ∀𝛽
Por lo tanto, los vectores 𝑥ℎ ∈ 𝑁𝑢𝑐𝑓 son de la forma
𝑥ℎ = (−𝛽, 𝛽)
Una base de 𝑁𝑢𝑐𝑓 es
𝐵𝑁𝑢𝑐𝑓 = (−1, 1)

A continuación, se presentan algunos resultados interesantes para comprender la importancia del núcleo
de una aplicación lineal.

Proposición 5.5
Enunciado: 𝑁𝑢𝑐𝑓 es un subespacio vectorial de E.
Demostración: Es patente que 𝑁𝑢𝑐𝑓 ⊂ 𝐸 y que 𝑁𝑢𝑐𝑓 ≠ ∅ pues 𝑓(0) = 0.
Nótese que se cumplen las condiciones de subespacio vectorial:
𝑥, 𝑥 ′ ∈ 𝑁𝑢𝑐𝑓 → 𝑓(𝑥 + 𝑥 ′ ) = 𝑓(𝑥) + 𝑓(𝑥 ′ ) = 0 + 0 = 0 → 𝑥 + 𝑥 ′ ∈ 𝑁𝑢𝑐𝑓
𝛼 ∈ 𝐾, 𝑥 ∈ 𝑁𝑢𝑐𝑓 → 𝑓(𝛼. 𝑥) = 𝛼. 𝑓(𝑥) = 𝛼. 0 = 0 → 𝛼. 𝑥 ∈ 𝑁𝑢𝑐𝑓

Proposición 5.6
Enunciado: La aplicación lineal 𝑓 es inyectiva si y sólo si 𝑁𝑢𝑐𝑓 = {0}.

𝑓𝑖𝑛𝑦𝑒𝑐𝑡𝑖𝑣𝑎 ⟺ 𝑁𝑢𝑐𝑓 = {0} (5.3)

Demostración: Si 𝑓 es inyectiva, la ecuación vectorial 𝑓(𝑥) = 0 solo puede tener una solución, el vector
nulo de 𝐸. Por lo tanto:
𝑓𝑖𝑛𝑦𝑒𝑐𝑡𝑖𝑣𝑎 ⟹ 𝑁𝑢𝑐𝑓 = {0}
Por otro lado, si 𝑁𝑢𝑐𝑓 = {0} la aplicación debe ser inyectiva, pues las imágenes de dos vectores distintos
𝑥, 𝑥 ′ ∈ 𝐸 deben ser también distintas. De no ser así, el vector (𝑥 − 𝑥 ′ ) ≠ 0 formaría parte del núcleo:
𝑓(𝑥) = 𝑓(𝑥 ′ ) → 𝑓(𝑥) − 𝑓(𝑥 ′ ) = 0 → 𝑓(𝑥 − 𝑥 ′ ) = 0
𝑥 − 𝑥 ′ ∈ 𝑁𝑢𝑐𝑓
lo que contradice la hipótesis de 𝑁𝑢𝑐𝑓 = {0}. Por lo tanto
𝑁𝑢𝑐𝑓 = {0} ⟹ 𝑓𝑖𝑛𝑦𝑒𝑐𝑡𝑖𝑣𝑎

Proposición 5.7
Enunciado: Las aplicaciones lineales inyectivas transforman listas linealmente independientes en listas
linealmente independientes:

Suescun, Insausti, Flaquer (2022) 181 Tecnun-Universidad de Navarra


5.4 Núcleo de una aplicación lineal 5 Aplicaciones Lineales

𝑓𝑖𝑛𝑦𝑒𝑐𝑡𝑖𝑣𝑎 ∶ 𝑥1 , 𝑥2 , … , 𝑥𝑘 𝐿𝐼 → 𝑓(𝑥1 ), 𝑓(𝑥2 ), … , 𝑓(𝑥𝑘 ) 𝐿𝐼


Enunciado: Sea 𝑓: 𝐸 → 𝐹 una aplicación lineal inyectiva y 𝑥1 , 𝑥2 , … , 𝑥𝑘 una lista linealmente
independiente de vectores en 𝐸.
Nótese que por ser 𝑓 inyectiva (𝑥𝑖 ≠ 𝑥𝑗 ⟺ 𝑓(𝑥𝑖 ) ≠ 𝑓(𝑥𝑗 ) ∀ 𝑖 ≠ 𝑗), el vector nulo de 𝐹 solo tiene una
antiimagen, que es el vector nulo de 𝐸:
∄ 𝑥ℎ ≠ 0 ∈ 𝐸 | 𝑓(𝑥ℎ ) = 0 ∈ 𝐹 ⟺ 𝑁𝑢𝑐𝑓 = {0}
Suponga que la lista 𝑓(𝑥1 ), 𝑓(𝑥2 ), … , 𝑓(𝑥𝑘 ) fuera linealmente dependiente. Existirá al menos un
coeficiente no nulo en la siguiente ecuación (𝛼𝑗 ≠ 0):
𝛼1 . 𝑓(𝑥1 ) + ⋯ + 𝛼⏟𝑗 . 𝑓(𝑥𝑗 ) + ⋯ + 𝛼𝑘 . 𝑓(𝑥𝑘 ) = 0
≠0

Por lo tanto:
𝑓(𝛼1 . 𝑥1 + ⋯ + 𝛼⏟𝑗 . 𝑥𝑗 + ⋯ +𝛼𝑘 . 𝑥𝑘 ) = 0
≠0

Pero por ser inyectiva, la antiimagen del vector nulo de 𝐹 es necesariamente el vector nulo de 𝐸:
𝛼1 . 𝑥1 + ⋯ + 𝛼⏟𝑗 . 𝑥𝑗 + ⋯ +𝛼𝑘 . 𝑥𝑘 = 0
≠0

Pero la independencia lineal de 𝑥1 , 𝑥2 , … , 𝑥𝑘 impide que 𝛼𝑗 ≠ 0, pues todos los coeficientes deben ser
nulos.
Por tanto, la hipótesis de partida es falsa: necesariamente 𝑓(𝑥1 ), 𝑓(𝑥2 ), … , 𝑓(𝑥𝑘 ) es linealmente
independiente.
Consecuencia: Las aplicaciones lineales inyectivas respetan el carácter lineal de cualquier lista de
vectores:
▪ Las imágenes de una lista linealmente independiente[dependiente] forman una lista linealmente
independiente[dependiente].

Ejemplo 5.7
Una aplicación lineal 𝑓: 𝑅2 → 𝑅3 se define como sigue:
𝑓(𝑎, 𝑏) = (𝑎, 𝑎 + 𝑏, 𝑎 + 𝑏)
La aplicación es inyectiva y para demostrarlo, basta con probar que 𝑁𝑢𝑐𝑓 = {0}.
Para ello, se comienza analizando cómo son los vectores del núcleo. Para ello se resuelve 𝑓(𝑥ℎ ) = 0
𝑓(𝑎, 𝑏) = (0, 0, 0)
(𝑎, 𝑎 + 𝑏, 𝑎 + 𝑏) = (0, 0, 0)
Se observa que, necesariamente, 𝑎 = 𝑏 = 0, por lo que el único vector del núcleo es el nulo. Esto es:
𝑁𝑢𝑐𝑓 = {0}
Queda pues demostrado que la aplicación es inyectiva.
Se ilustra ahora como la aplicación lineal convierte una lista linealmente independiente en otra que
también lo es. Los vectores siguientes forman una lista independiente:
𝑥1 = (1, 2) 𝑥2 = (2, 1)
Sus imágenes
𝑦1 = 𝑓(1, 2) = (1, 3, 3) 𝑦2 = 𝑓(2, 1) = (2, 3, 3)
forman también una lista independiente.

Suescun, Insausti, Flaquer (2022) 182 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.5 Imagen de una aplicación lineal

Imagen de una aplicación lineal

La imagen de la aplicación lineal 𝑓: 𝐸 → 𝐹 es el subespacio vectorial de 𝐹 formado por las imágenes de


todos los vectores de 𝐸 a través de 𝑓. Se utiliza la notación 𝐼𝑚𝑓.

𝐼𝑚𝑓 = { 𝑦 ∈ 𝐹 | 𝑦 = 𝑓(𝑥) ∀𝑥 ∈ 𝐸} (5.4)

𝐸 𝐹
𝑛 𝑚
𝐼𝑚𝑓

𝑥 𝑦 = 𝑓(𝑥)

0 0

𝑥ℎ
𝑣

𝐾
0 1

Figura 5.6: 𝐼𝑚𝑓, la imagen de 𝑓, es el subespacio vectorial de 𝐹 que contiene las imágenes de todos los vectores
del espacio 𝐸. Nótese que 𝐼𝑚𝑓 puede no llenar el espacio 𝐹, en cuyo caso existirán vectores como
por ejemplo 𝑣 sin antiimagen en 𝐸.

Se define rango de una aplicación lineal a la dimensión de la imagen (𝑟 = dim 𝐼𝑚𝑓).

Ejemplo 5.8
Retomando el ejemplo 5.7, función se puede expresar de la siguiente manera, separando la contribución
de 𝑎 y 𝑏:
𝑓(𝑎, 𝑏) = (𝑎, 𝑎 + 𝑏, 𝑎 + 𝑏) = 𝑎(1, 1, 1) + 𝑏(0, 1, 1)
Nótese que todas las imágenes se pueden generar a partir de dos vectores.
(1, 1, 1), (0, 1, 1) gen 𝐼𝑚𝑓
Por lo tanto, se ha obtenido una lista generadora de 𝐼𝑚𝑓, que por ser independiente, base de la imagen:
𝐵𝐼𝑚𝑓 = (1, 1, 1), (0, 1, 1)

Las siguientes proposiciones extienden el conocimiento sobre la imagen de una aplicación lineal.

Proposición 5.8
Enunciado: La imagen de una aplicación lineal 𝑓 de 𝐸 en 𝐹 está generada por las imágenes de los vectores
de una base cualquiera de 𝐸.
Demostración: Sea 𝑢1 , 𝑢2 , … , 𝑢𝑛 una base de 𝐸. Por cada vector 𝑦 ∈ 𝐼𝑚𝑓, debe existir un vector 𝑥 ∈ 𝐸 tal
que:
𝑦 = 𝑓(𝑥) = 𝑓(𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 )

Suescun, Insausti, Flaquer (2022) 183 Tecnun-Universidad de Navarra


5.5 Imagen de una aplicación lineal 5 Aplicaciones Lineales

Y, por lo tanto:
𝑦 = 𝛼1 . 𝑓(𝑢1 ) + 𝛼2 . 𝑓(𝑢2 ) + ⋯ + 𝛼𝑛 . 𝑓(𝑢𝑛 )
De lo que se deduce que los vectores 𝑓(𝑢1 ), 𝑓(𝑢2 ), … , 𝑓(𝑢𝑛 ) generan 𝐼𝑚𝑓.

Proposición 5.9
Enunciado: 𝐼𝑚𝑓 es un subespacio vectorial de 𝐹.
Demostración: 𝐼𝑚𝑓 es un subespacio generado y por tanto es subespacio vectorial.

Proposición 5.10
Enunciado: 𝑓: 𝐸 → 𝐹 es suprayectiva si y solo si 𝐼𝑚𝑓 = 𝐹.

𝑓𝑠𝑢𝑝𝑟𝑎𝑦𝑒𝑐𝑡𝑖𝑣𝑎 ⟺ 𝐼𝑚𝑓 = 𝐹 (5.5)

Demostración: Es evidente, pues si 𝐼𝑚𝑓 = 𝐹 todos los vectores de 𝐹 son imagen del algún vector de 𝐸.
Es decir, el subespacio imagen llena el espacio 𝐹.

Ejemplo 5.9
Retomando los ejemplo 5.1 y 5.6, la aplicación lineal
𝑓(𝑎, 𝑏) = (𝑎 + 𝑏, 𝑎 + 𝑏, 0) = (𝑎 + 𝑏)(1, 1, 0)
no es suprayectiva pues 𝐼𝑚𝑓 no llena el espacio 𝑅3 . Nótese que una base de 𝐼𝑚𝑓 es el vector (1, 1, 0).

Ejemplo 5.10
La aplicación lineal
𝑑
: 𝑅 [𝑡] → 𝑅𝑛−1 [𝑡]
𝑑𝑡 𝑛
es suprayectiva pues cualquier polinomio de grado a lo sumo 𝑛 − 1 es derivada de al menos un polinomio
de grado a lo sumo 𝑛.

En el caso particular de una transformación lineal, los subespacios núcleo e imagen se hallan en el mismo
espacio vectorial. La figura 5.6 ilustra esta nueva situación.

𝑓
𝐸
𝑛
𝑁𝑢𝑐𝑓

𝐼𝑚𝑓

0 𝑦

𝑥ℎ
𝑣

Figura 5.7: Subespacios núcleo e imagen de una transformación lineal. Ambos son subespacios de 𝐸. Nótese que
siempre tiene en común el vector nulo. Puede ocurrir también que 𝐼𝑚𝑓 no llene el espacio, en cuyo
caso existirán vectores como por ejemplo 𝑣 sin antiimagen.

Suescun, Insausti, Flaquer (2022) 184 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.5 Imagen de una aplicación lineal

El siguiente teorema establece la relación entre rango y nulidad.

Teorema 5.11
Enunciado: Toda aplicación lineal 𝑓: 𝐸 → 𝐹 cumple la siguiente identidad:

dim 𝐸 = dim 𝑁𝑢𝑐𝑓 + dim 𝐼𝑚𝑓 (5.6)

Demostración: Sea 𝑛 = 𝑑𝑖𝑚 𝐸, 𝑘 = dim 𝑁𝑢𝑐𝑓 y 𝑟 = dim 𝐼𝑚𝑓.


Se parte de una base del núcleo 𝐵𝑁𝑢𝑐𝑓 = 𝑢1 , 𝑢2 , … , 𝑢𝑘 y se amplía hasta formar una base de 𝐸
𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑘 , 𝑢𝑘+1 , 𝑢𝑘+2 , … , 𝑢𝑛
Ya se ha demostrado que las imágenes de estos vectores base generan 𝐼𝑚𝑓.
𝑓(𝑢1 ), 𝑓(𝑢2 ), … , 𝑓(𝑢𝑘 ), 𝑓(𝑢𝑘+1 ), 𝑓(𝑢𝑘+2 ), … , 𝑓(𝑢𝑛 ) gen 𝐼𝑚𝑓
Los primeros 𝑘 vectores de la lista se puede eliminar, pues
𝑓(𝑢1 ) = 𝑓(𝑢2 ) = ⋯ = 𝑓(𝑢𝑘 ) = 0
y los 𝑛 − 𝑘 imágenes restantes seguirán generando 𝐼𝑚𝑓:
𝑓(𝑢𝑘+1 ), 𝑓(𝑢𝑘+2 ), … , 𝑓(𝑢𝑛 ) gen 𝐼𝑚𝑓
Basta probar que estos 𝑛 − 𝑘 vectores forman una lista linealmente independiente para poder establecer
la identidad
dim 𝐼𝑚𝑓 = 𝑛 − 𝑘 = dim 𝐸 − dim 𝑁𝑢𝑐𝑓
y de ahí demostrar el teorema. La ecuación vectorial
𝛼𝑘+1 . 𝑓(𝑢𝑘+1 ) + 𝛼𝑘+2 . 𝑓(𝑢𝑘+2 ) + ⋯ + 𝛼𝑛 . 𝑓(𝑢𝑛 ) = 0
conduce a
𝑓(𝛼𝑘+1 . 𝑢𝑘+1 + 𝛼𝑘+2 . 𝑢𝑘+2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 ) = 0
y de ahí
𝛼𝑘+1 . 𝑢𝑘+1 + 𝛼𝑘+2 . 𝑢𝑘+2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 ∈ 𝑁𝑢𝑐𝑓
Este vector se puede expresar en la base del núcleo
𝛼𝑘+1 . 𝑢𝑘+1 + 𝛼𝑘+2 . 𝑢𝑘+2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 = 𝛽1 . 𝑢1 + 𝛽1 . 𝑢2 + ⋯ + 𝛽𝑘 . 𝑢𝑘
de ahí que, reordenando, se pueda expresar así:
𝛽1 . 𝑢1 + ⋯ + 𝛽𝑘 . 𝑢𝑘 − 𝛼𝑘+1 . 𝑢𝑘+1 − ⋯ − 𝛼𝑛 . 𝑢𝑛 = 0
La independencia lineal de los vectores de la base de 𝐸 obliga a que todos los coeficientes sean cero, en
particular:
𝑎𝑘+1 = 𝛼𝑘+2 = ⋯ = 𝛼𝑛 = 0
De lo que se concluye la independencia lineal de 𝑓(𝑢𝑘+1 ), 𝑓(𝑢𝑘+2 ), … , 𝑓(𝑢𝑛 ). Es decir:
dim 𝐼𝑚𝑓 = 𝑛 − 𝑘 ⟹ dim 𝐸 = dim 𝑁𝑢𝑐𝑓 + dim 𝐼𝑚𝑓

Ejemplo 5.11
Se retoma la aplicación lineal 𝑓: 𝑅2 → 𝑅3 de los ejemplo 5.1, 5.6 y 5.9:
𝑓(𝑎, 𝑏) = (𝑎 + 𝑏, 𝑎 + 𝑏, 0)
Se conocen ya una base del núcleo y otra de la imagen:
𝐵𝑁𝑢𝑐𝑓 = (−1, 1) 𝐵𝐼𝑚𝑓 = (1, 1, 0)

Suescun, Insausti, Flaquer (2022) 185 Tecnun-Universidad de Navarra


5.5 Imagen de una aplicación lineal 5 Aplicaciones Lineales

Se cumple por tanto el teorema 5.11:


dim 𝑅2 = dim 𝑁𝑢𝑐𝑓 + dim 𝐼𝑚𝑓 = 1 + 1 = 2

Ejemplo 5.12
La transformación lineal 𝑓: 𝑅3 → 𝑅3 definida mediante
𝑓(𝑎, 𝑏, 𝑐) = (𝑎 + 𝑏 + 𝑐, 𝑎 + 𝑏 + 𝑐, 𝑎 + 𝑏 + 𝑐)
tiene como base de la imagen el vector
𝐵𝐼𝑚𝑓 = (1, 1, 1)
y como base del núcleo a los vectores:
𝐵𝑁𝑢𝑐𝑓 = (−1, 1, 0), (−1, 0, 1)
Se verifica el cumplimiento del teorema 5.11
dim 𝑁𝑢𝑐𝑓 + dim 𝐼𝑚𝑓 = 2 + 1 = 3 = dim 𝑅3
Así mismo, al ser una transformación lineal, ambos subespacios se hallan en el mismo espacio vectorial y
por tanto cabría preguntarse por los subespacios suma e intersección. En este ejemplo se tiene:
𝑁𝑢𝑐𝑓 ⊕ 𝐼𝑚𝑓 = 𝑅3
𝑁𝑢𝑐𝑓 ∩ 𝐼𝑚𝑓 = {0}

Ejemplo 5.13
La transformación lineal 𝑓: 𝑅2 → 𝑅2 está definida así:
𝑓(𝑎, 𝑏) = (𝑎 − 𝑏, 𝑎 − 𝑏)
El subespacio imagen se calcula como sigue:
𝑓(𝑎, 𝑏) = (𝑎 − 𝑏, 𝑎 − 𝑏) = (𝑎 − 𝑏)(1, 1)
𝐵𝐼𝑚𝑓 = (1, 1)
El subespacio núcleo se obtiene resolviendo 𝑓(𝑥ℎ ) = 0
𝑓(𝑎, 𝑏) = (0, 0)
(𝑎 − 𝑏, 𝑎 − 𝑏) = (0, 0)
Necesariamente 𝑎 − 𝑏 = 0 por lo que
𝑎=𝑏=𝛽 ∀𝛽
y los vectores 𝑥ℎ ∈ 𝑁𝑢𝑐𝑓 son de la forma
𝑥ℎ = (𝛽, 𝛽)
Por lo tanto, una base de 𝑁𝑢𝑐𝑓 es
𝐵𝑁𝑢𝑐𝑓 = (1, 1)
Se verifica el cumplimiento del teorema 5.11
dim 𝑁𝑢𝑐𝑓 + dim 𝐼𝑚𝑓 = 1 + 1 = 2 = dim 𝑅2
En esta transformación lineal, los subespacios 𝑁𝑢𝑐𝑓 y 𝐼𝑚𝑓 son coincidentes y la imagen no llena el
espacio 𝑅2 :
𝑁𝑢𝑐𝑓 = 𝐼𝑚𝑓
𝑁𝑢𝑐𝑓 ⊕ 𝐼𝑚𝑓 ⊂ 𝑅2

Suescun, Insausti, Flaquer (2022) 186 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.6 Matriz de una aplicación lineal

Matriz de una aplicación lineal

A continuación se demuestra un resultado fundamental: cualquier aplicación lineal, fijadas sendas bases
en los espacios inicial y final, se puede representar mediante una matriz única.

𝐸 𝑓 𝐹
𝑛 𝑚
𝑦1 , 𝑦2 , … , 𝑦𝑛



𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 𝐵𝐹 = 𝑣1 , 𝑣2 , … , 𝑣𝑚
𝛼1 𝛼2 … 𝛼𝑛 …

𝑥 𝑦 = 𝑓(𝑥)

Figura 5.8: La aplicación lineal actúa sobre un vector cualquiera 𝑥 ∈ 𝐸 y también actúa sobre los vectores de la
base 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 .

En la Figura 5.8 se muestran dos espacios vectoriales 𝐸 y 𝐹, de dimensiones 𝑛 y 𝑚 respectivamente. En


cada uno de ellos, se ha elegido una base de trabajo: 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 y 𝐵𝐹 = 𝑣1 , 𝑣2 , … , 𝑣𝑚 . Se considera
también una aplicación lineal 𝑓: 𝐸 → 𝐹, de modo que a un vector cualquiera 𝑥 ∈ 𝐸 le hace corresponder
un vector imagen 𝑦 = 𝑓(𝑥) ∈ 𝐹. Las imágenes de los vectores de 𝐵𝐸 se denotan for 𝑦𝑖 = 𝑓(𝑢𝑖 ) con 𝑖 =
1, … , 𝑛.
A continuación se deduce la relación entre las componentes de los vectores de 𝐸 en la base 𝐵𝐸 con las
componentes de sus imágenes en 𝐹 en la base 𝐵𝐹 .
Se parte de un vector 𝑥 ∈ 𝐸 escrito como combinación lineal de los vectores de la base 𝐵𝐸 :
𝛼1
𝛼2
𝑥 = 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 → 𝑥𝐵𝐸 =[ ⋮ ]
𝛼𝑛
siendo 𝑥𝐵𝐸 la matriz columna de componentes del vector 𝑥 en la citada base.
Se calcula ahora su imagen:
𝑦 = 𝑓(𝑥)
= 𝑓(𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑛 . 𝑢𝑛 )
= 𝛼1 . 𝑓(𝑢1 ) + 𝛼2 . 𝑓(𝑢2 ) + ⋯ + 𝛼𝑛 . 𝑓(𝑢𝑛 )
= 𝛼1 . 𝑦1 + 𝛼2 . 𝑦2 + ⋯ + 𝛼𝑛 . 𝑦𝑛
donde 𝑦1 , 𝑦2 , … , 𝑦𝑛 son las imágenes de los 𝑛 vectores de la base 𝐵𝐸 :
𝑦𝑖 = 𝑓(𝑢𝑖 ) (𝑖 = 1,2, … , 𝑛)
La imagen de 𝑥 queda, por tanto:
𝑦 = 𝛼1 . 𝑦1 + 𝛼2 . 𝑦2 + ⋯ + 𝛼𝑛 . 𝑦𝑛
Si ahora se escriben todos los vectores 𝑦, 𝑦1 , 𝑦2 , … , 𝑦𝑛 en la base 𝐵𝐹 , resulta:
𝑦𝐵𝐹 = 𝛼1 . 𝑦1𝐵 + 𝛼2 . 𝑦2𝐵 + ⋯ + 𝛼𝑛 . 𝑦𝑛𝐵
𝐹 𝐹 𝐹

Esta última expresión se puede reescribir matricialmente como:


𝛼1
𝛼2
𝑦𝐵𝐹 = [𝑦1𝐵𝐹 𝑦2𝐵
𝐹
… 𝑦𝑛𝐵 ] [ ] = 𝐴 𝑥𝐵𝐸
𝐹 ⋮
𝛼𝑛

Suescun, Insausti, Flaquer (2022) 187 Tecnun-Universidad de Navarra


5.6 Matriz de una aplicación lineal 5 Aplicaciones Lineales

Se ha encontrado por tanto una ecuación matricial que relaciona las componentes de los vectores 𝑥 e
𝑦 en sus respectivas bases:

𝑦 = 𝑓(𝑥) ⟺ 𝑦𝐵𝐹 = 𝐴 𝑥𝐵𝐸 (5.7)

Fijadas las dos bases, la matriz 𝐴 representa de manera única a la aplicación lineal. Esta matriz se
denomina matriz de la aplicación lineal 𝑓 en las bases 𝐵𝐸 , 𝐵𝐹 , y se suele escribir:

𝐴 = [𝑓]𝐵𝐸 ,𝐵𝐹 (5.8)

Las columnas de 𝐴 están formadas por las componentes de las imágenes de los vectores de la base del
espacio inicial 𝐸, expresadas en la base del espacio final 𝐹.
𝑦𝑗 = 𝑓(𝑢𝑗 ) = 𝑎1𝑗 . 𝑣1 + 𝑎2𝑗 . 𝑣2 + ⋯ + 𝑎𝑚𝑗 . 𝑣𝑚 (∀𝑗 = 1 … 𝑛)
Nótese que la matriz 𝐴 es de tamaño 𝑚 × 𝑛. Este desarrollo es válido para cualquier aplicación lineal.
En el caso de una transformación lineal, al haber un solo espacio vectorial, la matriz 𝐴 es cuadrada de
orden 𝑛 y se escribe:

𝐴 = [𝑓]𝐵𝐸 (5.9)

Ejemplo 5.14
La matriz de la aplicación lineal 𝑓: 𝑅2 → 𝑅3 de los ejemplo 5.1, 5.6, 5.9 y 5.11:
𝑓(𝑎, 𝑏) = (𝑎 + 𝑏, 𝑎 + 𝑏, 0)
en las bases canónicas de ambos espacios se obtiene como sigue. En primer lugar se calculan las imágenes
de los vectores de la base canónica de 𝑅2 y se calculan sus componente en la base canónica de 𝑅3 :
1
𝑦1 = 𝑓(𝑒1 ) = 𝑓(1,0) = (1,1,0) → 𝑦1 𝐵 = [1]
𝑐
0
1
𝑦2 = 𝑓(𝑒2 ) = 𝑓(0,1) = (1,1,0) → 𝑦2 𝐵 = [1]
𝑐
0
A continuación, se construye la matriz, juntando las columnas:
1 1
𝐴 = [𝑓]𝐵𝑐,𝐵𝑐 = [1 1]
0 0
Nótese la utilización de esta matriz:
1 1 5
3 3
𝑥 = (3, 2) → 𝑥𝐵𝑐 = [ ] → 𝑦𝐵𝑐 = 𝐴𝑥𝐵𝑐 = [1 1] [ ] = [5] → 𝑦 = (5, 5, 0)
2 2
0 0 0

Ejemplo 5.15
La matriz de la siguiente aplicación lineal
𝑑
: 𝑅3 [𝑡] → 𝑅2 [𝑡]
𝑑𝑡
en las bases canónicas de ambos subespacios, se obtiene como sigue:

Suescun, Insausti, Flaquer (2022) 188 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.6 Matriz de una aplicación lineal

𝑑 0
𝑦1 = 𝑓(1) = (1) = 0 → 𝑦1 𝐵 = [0]
𝑑𝑡 𝑐
0
𝑑 1
𝑦2 = 𝑓(𝑡) = (𝑡) = 1 → 𝑦2 𝐵 = [0]
𝑑𝑡 𝑐
0
𝑑 0
𝑦3 = 𝑓(𝑡 2 ) = (𝑡 2 ) = 2𝑡 → 𝑦3 𝐵 = [2]
𝑑𝑡 𝑐
0
𝑑 0
𝑦4 = 𝑓(𝑡 3 ) = (𝑡 3 ) = 3𝑡 2 → 𝑦4 𝐵 = [0]
𝑑𝑡 𝑐
3
Y, por tanto:
0 1 0 0
𝐴 = [𝑓]𝐵𝑐 ,𝐵𝑐 = [0 0 2 0]
0 0 0 3
Por ejemplo, para calcular la derivada del polinomio 𝑥(𝑡) = 1 + 𝑡 + 𝑡 2 + 𝑡 3 se hace:
1 1
0 1 0 0 1
1 1
𝑥𝐵𝑐 = [ ] → 𝑦𝐵𝑐 = 𝐴𝑥𝐵𝑐 = [0 0 2 0] [ ] = [ 2]
1 1
0 0 0 3 3
1 1
y, en definitiva:
𝑑
𝑦(𝑡) = 𝑥(𝑡) = 1 + 2𝑡 + 3𝑡 2
𝑑𝑡

Ejemplo 5.16
La matriz de la transformación lineal 𝑓: 𝑅2 → 𝑅2 definida por
𝑓(𝛼1 , 𝛼2 ) = (𝛼2 , 𝛼1 )
en la base 𝐵 de 𝑅2 formada por los vectores 𝑢1 = (1,1) y 𝑢2 = (1,2) se calcula como sigue:
1
𝑦1 = 𝑓(𝑢1 ) = 𝑓(1,1) = (1,1) = 𝑢1 + 0𝑢2 → 𝑦1 𝐵 = [ ]
0
3
𝑦2 = 𝑓(𝑢2 ) = 𝑓(1,2) = (2,1) = 3𝑢1 − 𝑢2 → 𝑦2 𝐵 =[ ]
−1
Juntando las columnas:
1 3
𝐴 = [𝑓]𝐵 = [ ]
0 −1
Para usar esta matriz, hay que trabajar en la base 𝐵:
2
𝑥 = (3,4) = 2𝑢1 + 𝑢2 → 𝑥𝐵 = [ ] ⇢
1
1 3 2 5
⇢ 𝑦𝐵 = 𝐴𝑥𝐵 = [ ][ ] = [ ] → 𝑦 = 5𝑢1 − 𝑢2 = (4, 3)
0 −1 1 −1
Nótese que la matriz que representa a la transformación lineal en la base canónica de 𝑅2 es distinta:
0
𝑦1 = 𝑓(𝑒1 ) = 𝑓(1,0) = (0,1) = 𝑒2 → 𝑦1 𝐵 = [ ]
𝑐 1
1
𝑦2 = 𝑓(𝑒2 ) = 𝑓(0,1) = (1,0) = 𝑒1 → 𝑦2 𝐵 =[ ]
𝑐 0
Juntando las columnas, y llamando 𝐴′ a esta matriz para distinguirla de la anterior:
0 1
𝐴′ = [𝑓]𝐵𝑐 = [ ]
1 0
Nótese la utilización de esta matriz:

Suescun, Insausti, Flaquer (2022) 189 Tecnun-Universidad de Navarra


5.6 Matriz de una aplicación lineal 5 Aplicaciones Lineales

3 0 1 3 4
𝑥 = (3,4) → 𝑥𝐵𝑐 = [ ] → 𝑦𝐵𝑐 = 𝐴′𝑥𝐵𝑐 = [ ] [ ] = [ ] → 𝑦 = (4, 3)
4 1 0 4 3

Ejemplo 5.17
La Figura 5.9 muestra la rotación de un vector 𝑣 de 𝐸3 alrededor del eje vertical.
Rotar un vector de 𝐸3 un ángulo 𝜃 alrededor del eje 𝑍 es una transformación lineal 𝑅: 𝐸3 → 𝐸3 , que se
define como sigue:
⃗ → 𝑣 ′ = 𝑅(𝑣) = (𝑎 cos 𝜃 − 𝑏 sin 𝜃)𝑖 + (𝑎 sin 𝜃 + 𝑏 cos 𝜃)𝑗 + 𝑐𝑘
𝑣 = 𝑎𝑖 + 𝑏𝑗 + 𝑐𝑘 ⃗

𝑍
𝑣 ′ = 𝑅(𝑣 )

𝑣

𝑘

𝑖
𝑗 𝜃

Figura 5.9: El vector 𝑣 rota un ángulo 𝜃 alrededor del eje 𝑍, y se transforma en el vector 𝑣 ′ = 𝑅(𝑣 ).

⃗ ) de 𝐸3 es:
La matriz que la representa en la base canónica (𝐵𝑐 = 𝑖, 𝑗, 𝑘
𝑅( 𝑖 ) = cos 𝜃 𝑖 + sin 𝜃 𝑗
𝑐𝑜𝑠𝜃 −𝑠𝑖𝑛𝜃 0
𝑅( 𝑗 ) = − sin 𝜃 𝑖 + cos 𝜃 𝑗 → 𝐴 = [ 𝑠𝑖𝑛𝜃 𝑐𝑜𝑠𝜃 0]
⃗ )= 𝑘
𝑅( 𝑘 ⃗ 0 0 1

Por ejemplo, sea 𝜃 = 90º y 𝑣 = 𝑖 + 𝑘⃗ . Para girar el vector haciendo uso de la matriz 𝐴, primero se
obtienen sus componenetes en la base canónica:
1
⃗ → 𝑣𝐵 = [ 0 ]
𝑣 =𝑖+𝑘 𝑐
1
Y a continuación se ejecuta la rotación haciendo uso de la matriz 𝐴:
0 −1 0 1 0
𝑣𝐵′ 𝑐 = 𝐴 𝑣𝐵𝑐 = [1 0 0] [ 0 ] = [ 1 ]
0 0 1 1 1
Y por lo tanto, el vector rotado es:

𝑣 ′ = 𝑅(𝑣 ) = 𝑗 + 𝑘

Comentarios finales:
Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛 con elementos en 𝐾. Esta matriz se puede interpretar de dos maneras:
▪ Por un lado, de lo visto en este apartado, se puede considerar que la matriz 𝐴 representa a una
aplicación lineal 𝑓: 𝐸 → 𝐹 entre los espacios 𝐸, de dimensión 𝑛, y 𝐹, de dimensión 𝑚.
𝑓: 𝐸 → 𝐹
𝑥 𝑦 = 𝑓(𝑥)
↓ ↓
𝑥𝐵𝐸 𝑦𝐵𝐹 = 𝐴 𝑥𝐵𝐸 (𝐴 = [𝑓]𝐵𝐸 ,𝐵𝐹 )

Suescun, Insausti, Flaquer (2022) 190 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.7 Núcleo e imagen de una matriz

▪ Por otro lado, también se ha visto en los ejemplos que una matriz 𝐴𝑚×𝑛 es un operador
(aplicación) lineal que transforma la matriz columna (vector) 𝑥 ∈ 𝐾 𝑛×1 en la matriz columna
(vector) 𝑦 = 𝐴𝑥 ∈ 𝐾 𝑚×1 :
𝐴: 𝐾 𝑛×1 → 𝐾 𝑚×1
𝑥 𝑦 = 𝐴𝑥
En realidad, son dos interpretaciones de la matriz 𝐴 válidas simultáneamente, pues existen10 dos
isomorfismos11 (aplicaciones lineales biyectivas) que relacionan de manera unívoca los vectores de un
espacio vectorial con sus representaciones en una base dada y, por lo tanto:
𝑓
𝐸 → 𝐹
𝐵𝐸 ↓ ↓ 𝐵𝐹
𝐴
𝐾 𝑛×1 → 𝐾 𝑚×1
Y una conclusión práctica muy útil: Como la intuición sugiere, basta analizar la matriz 𝐴 = [𝑓]𝐵𝐸 ,𝐵𝐹 para
estudiar todas las características de la aplicación lineal 𝑓 representada por la matriz:
biyectividad/inyectividad/suprayectividad, 𝑁𝑢𝑐𝑓, 𝐼𝑚𝑓, rango, nulidad, etc.

Núcleo e imagen de una matriz

Ya sea porque 𝐴𝑚×𝑛 representa a una determinada aplicación lineal entre dos espacios vectoriales o
porque es un operador lineal entre dos espacios de matrices columna, interesa estudiar los subespacios
núcleo e imagen de la matriz.
El núcleo de una matriz 𝐴𝑚×𝑛 , denotado por 𝑁(𝐴), es el subespacio de 𝐾 𝑛×1 formado por todas las
columnas que son antiimágenes del vector nulo de 𝐾 𝑚×1 .

𝑁(𝐴) = {𝑥ℎ ∈ 𝐾 𝑛×1 | 𝐴𝑥ℎ = 0} (5.10)

𝐴𝑚×𝑛

𝐾 𝑛×1 𝐾 𝑚×1
𝑛 𝑚
𝑁(𝐴) 𝑥 𝑦 = 𝐴𝑥

0 0

𝑥ℎ

𝐾
0 1

Figura 5.10: 𝑁(𝐴) es el subespacio vectorial de 𝐾 𝑛×1 que contiene las antiimágenes del vector nulo 0 de 𝐾 𝑚×1 ,
esto es las columnas 𝑥ℎ tales que 𝐴𝑥ℎ = 0.

Está claro que el núcleo de 𝑓 está formado por todas las soluciones del sistema homogéneo:

𝐴𝑥 = 0 (5.11)

10 Se deja al lector la demostración.


11 Los isomorfismos se explican en el apartado 5.9.

Suescun, Insausti, Flaquer (2022) 191 Tecnun-Universidad de Navarra


5.7 Núcleo e imagen de una matriz 5 Aplicaciones Lineales

Por lo tanto, 𝑁(𝐴) = 𝑆ℎ .


Así mismo, la imagen de una matriz 𝐴𝑚×𝑛 , denotada por 𝑅(𝐴), es el subespacio vectorial de 𝐾 𝑚×1
formado por las matrices columnas imágenes de todas las columnas de 𝐾 𝑛×1 :

𝑅(𝐴) = { 𝑦 ∈ 𝐾 𝑚×1 | 𝑦 = 𝐴𝑥 ∀𝑥 ∈ 𝐾 𝑛×1 } (5.12)

𝐴𝑚×𝑛
𝐾 𝑛×1 𝐾 𝑚×1
𝑛 𝑚
𝑅(𝐴)

𝑥 𝑦 = 𝐴𝑥

0 0

𝑥ℎ

𝐾
0 1

Figura 5.11: 𝑅(𝐴) es el subespacio vectorial de 𝐹 que contiene las imágenes de todos los vectores del espacio 𝐸.

Obviamente, el núcleo 𝑁(𝐴) y la imágen 𝑅(𝐴) se corresponden con el núcleo 𝑁𝑢𝑐𝑓 y la imagen 𝐼𝑚𝑓 de
la aplicación lineal representada por 𝐴. Así mismo:
▪ 𝑟 = dim 𝑅(𝐴) = dim 𝐼𝑚𝑓
▪ nulidad = dim 𝑁(𝐴) = dim 𝑁𝑢𝑐𝑓

Proposición 5.12
Enunciado: El núcleo de 𝐴 es un subespacio vectorial de 𝐾 𝑛×1 .
Demostración: Es patente que 𝑁(𝐴) ⊂ 𝐾 𝑛×1 y que 𝑁(𝐴) ≠ ∅ pues 𝐴0 = 0.
Nótese que se cumplen las condiciones de subespacio vectorial:
𝑥ℎ , 𝑥ℎ′ ∈ 𝑁(𝐴) → 𝐴(𝑥ℎ + 𝑥ℎ′ ) = 𝐴𝑥ℎ + 𝐴𝑥ℎ′ = 0 + 0 = 0 → 𝑥ℎ + 𝑥ℎ′ ∈ 𝑁(𝐴)
𝛼 ∈ 𝐾, 𝑥ℎ ∈ 𝑁(𝐴) → 𝐴(𝛼. 𝑥ℎ ) = 𝛼. 𝐴𝑥ℎ = 𝛼. 0 = 0 → 𝛼. 𝑥ℎ ∈ 𝑁(𝐴)

Ejemplo 5.18
Una base del núcleo de la matriz
1 1 1
𝐴 = [1 1 1]
1 1 1
se obtiene resolviendo el sistema homogéneo de ecuaciones 𝐴𝑥 = 0, de donde se obtiene:
𝛼1 = −𝜀1 − 𝜀2
{ 𝛼2 = 𝜀1
𝛼3 = 𝜀2
De ésta se deduce que los vectores de 𝑁(𝐴) se pueden generar como

Suescun, Insausti, Flaquer (2022) 192 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.7 Núcleo e imagen de una matriz

𝛼1 −1 −1
[𝛼2 ] = 𝜀1 [ 1 ] + 𝜀2 [ 0 ]
𝛼3 0 1
−1 −1
Las columnas [ 1 ] y [ 0 ] generan 𝑁(𝐴) y son linealmente independientes, por lo que forman una base
0 1
de 𝑁(𝐴), cuya dimensión es dos.

Proposición 5.13
Enunciado: Las columnas de 𝐴 = [𝑢1 𝑢2 … 𝑢𝑛 ] están en 𝑅(𝐴)
Demostración: En efecto, las columnas de 𝐴 están en 𝑅(𝐴) por ser imágenes de las columnas básicas de
𝐾 𝑛×1 , i.e. la base natural 𝐾 𝑛×1, pues
𝐴𝑒𝑗 = [𝑢1 𝑢2 … 𝑢𝑛 ]𝑒𝑗 = 𝑢𝑗 , 𝑗 = 1,2, … , 𝑛

Proposición 5.14
Enunciado: Las columnas de 𝐴 generan 𝑅(𝐴).
Demostración: Sea 𝑦 ∈ 𝑅(𝐴) una columna cualquiera de la imagen de 𝐴
𝑦 ∈ 𝑅(𝐴) ⟹ ∃ 𝑥 = [𝛼1 𝛼2 … 𝛼𝑛 ]𝑇 ∈ 𝐾 𝑛×1 | 𝑦 = 𝐴𝑥
Considérese que la matriz 𝐴𝑚×𝑛 = [𝑢1 𝑢2 … 𝑢𝑛 ] está particionada por columnas. Por tanto:
𝛼1
𝛼2
𝑦 = 𝐴𝑥 = [𝑢1 𝑢2 … 𝑢𝑛 ] [ ⋮ ] = 𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑛 𝑢𝑛
𝛼𝑛
Es decir 𝑢1 , 𝑢2 , … , 𝑢𝑛 gen 𝑅(𝐴)

Proposición 5.15
Enunciado: 𝑅(𝐴) es un subespacio vectorial de 𝐾 𝑚×1 .
Demostración: Evidentemente, 𝑅(𝐴) es un subespacio vectorial por ser un subespacio generado:
𝑅(𝐴) = [𝑢1 , 𝑢2 , … , 𝑢𝑛 ]

Proposición 5.16
Enunciado: La dim 𝑅(𝐴) es igual al número de columnas linealmente independientes.
Demostración: Consecuencia inmediata de las proposiciones anteriores.

Ejemplo 5.19
Una base de la imagen de la matriz
1 1 1
𝐴 = [1 1 1]
1 1 1
1
se puede extraer de las columnas de 𝐴, por lo que la columna [1]
1
es una base de 𝑅(𝐴), cuya dimensión vale uno.

Suescun, Insausti, Flaquer (2022) 193 Tecnun-Universidad de Navarra


5.8 Operaciones con aplicaciones lineales 5 Aplicaciones Lineales

Proposición 5.17
Enunciado: 𝐴𝑥 = 𝑏 es compatible si y solo si 𝑏 ∈ 𝑅(𝐴)
Demostración: Se demuestra en los dos sentidos:
Por un lado:
Si 𝐴𝑥 = 𝑏 compatible ⟹ ∃ 𝑥0 | 𝐴𝑥0 = 𝑏 ⟹ 𝑏 ∈ 𝑅(𝐴)
Por otro lado:
Si 𝑏 ∈ 𝑅(𝐴) ⟹ ∃ 𝑥0 | 𝑏 = 𝐴𝑥0 ⟹ 𝐴𝑥 = 𝑏 compatible

Proposición 5.18
Enunciado: 𝐴𝑥 = 𝑏 es incompatible si y solo si 𝑏 ∉ 𝑅(𝐴)
Demostración: Consecuencia inmediata de la proposición anterior.

Operaciones con aplicaciones lineales

Se denota con 𝐿(𝐸, 𝐹) al conjunto de todas las aplicaciones lineales del espacio vectorial 𝐸 en el espacio
vectorial 𝐹, ambos definidos sobre el mismo cuerpo de escalares 𝐾. La dimensión de 𝐿(𝐸, 𝐹) es 𝑚 × 𝑛,
donde 𝑛 = dim 𝐸 y 𝑚 = dim 𝐹.

𝐿(𝐸, 𝐹)
𝐸 𝐹
𝑛 𝑚
𝑓

𝑓+𝑔

𝛼. 𝑓

𝐾
0 1 𝛼

Figura 5.12: El conjunto 𝐿(𝐸, 𝐹) de todas las aplicaciones lineales de 𝐸 a 𝐹 tiene estrucutura de espacio vectorial.

Se puede probar sencillamente que 𝐿(𝐸, 𝐹) es un espacio vectorial sobre 𝐾, con las dos operaciones suma
de aplicaciones lineales y producto de un escalar por una aplicación lineal:
La primera operación, (𝑓, 𝑔) → 𝑓 + 𝑔, es la suma de aplicaciones lineales, que se define así:

(𝑓 + 𝑔)(𝑥) = 𝑓(𝑥) + 𝑔(𝑥) (∀𝑥 ∈ 𝐸) (5.13)

La segunda operación, (𝛼, 𝑓) → 𝛼. 𝑓, es el producto escalar por aplicación lineal, y se define:

(𝛼. 𝑓)(𝑥) → 𝛼. 𝑓(𝑥) (∀𝑥 ∈ 𝐸) (5.14)

Con estas operaciones se cumplen las ocho propiedades de espacio vectorial.

Proposición 5.19
Enunciado: Dados los espacios vectoriales 𝐸, 𝐹, y fijadas sendas bases, una para cada espacio, siendo 𝑓 y
𝑔 aplicaciones lineales de 𝐸 en 𝐹, se cumple

Suescun, Insausti, Flaquer (2022) 194 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.8 Operaciones con aplicaciones lineales

[𝑓 + 𝑔]𝐵𝐸 ,𝐵𝐹 = [𝑓]𝐵𝐸 ,𝐵𝐹 + [𝑔]𝐵𝐸 ,𝐵𝐹 (5.15)

La matriz de la suma de dos aplicaciones lineales es suma de las correspondientes matrices.


Demostración: Se omite.

Proposición 5.20
Enunciado: Dados los espacios vectoriales 𝐸, 𝐹, y fijadas sendas bases, una para cada espacio, siendo 𝛼
un escalar de 𝐾 y 𝑓 una aplicación lineal de 𝐸 en 𝐹, se cumple

[𝛼. 𝑓]𝐵𝐸 ,𝐵𝐹 = 𝛼 [𝑓]𝐵𝐸 ,𝐵𝐹 (5.16)

esto es, la matriz de un escalar por una aplicación lineal es el escalar multiplicado por la matriz de la
aplicación lineal.
Demostración: Se omite.

Ejemplo 5.20
Si las matrices
1 3 1 2
𝐴 = [2 2] 𝐵 = [3 4]
3 1 5 6
representan respectivamente a las aplicaciones lineales 𝑓 y 𝑔 de 𝑅2 en 𝑅3 , en las bases canónicas,
entonces la matriz
2 5
𝐶 = 𝐴 + 𝐵 = [5 6]
8 7
representa a la aplicación lineal suma 𝑓 + 𝑔 en las citadas bases.
Así mismo, la matriz
2 6
𝐷 = 2𝐴 = [4 4]
6 2
representa a la aplicación lineal 2𝑓 en las bases canónicas de ambos espacios.

Existe una tercera operación muy útil que permite operar con aplicaciones lineales entre espacios
vectoriales diferentes: la composición de aplicaciones.

𝑔∘𝑓
𝐸 𝐺
𝑛 𝑝
𝐹
𝑚
𝑓 𝑔
𝑥 𝑦 = 𝑓(𝑥) 𝑧 = 𝑔(𝑦)

𝐾
0 1 𝛼

Figura 5.13: Composición de aplicaciones lineales.

Suescun, Insausti, Flaquer (2022) 195 Tecnun-Universidad de Navarra


5.8 Operaciones con aplicaciones lineales 5 Aplicaciones Lineales

Sean 𝐸, 𝐹, 𝐺 tres espacios vectoriales definidos sobre el mismo cuerpo conmutativo 𝐾 y sean 𝑓: 𝐸 → 𝐹 y
𝑔: 𝐹 → 𝐺 dos aplicaciones lineales (Figura 5.13). A partir de éstas dos, se puede construir una nueva
aplicación lineal 𝑔 ∘ 𝑓 denominada composición de 𝑓 con 𝑔:

𝑔 ∘ 𝑓: 𝐸 → 𝐺
(5.17)
(𝑔 ∘ 𝑓)(𝑥) = 𝑔(𝑓(𝑥)) ∀𝑥 ∈ 𝐸

Proposición 5.21
Enunciado: 𝑔 ∘ 𝑓 es una aplicación lineal de 𝐸 en 𝐺.
Demostración: En primer lugar, 𝑔 ∘ 𝑓 es una aplicación pues todo elemento del primer espacio 𝐸 tiene
una única imagen en 𝐺. Además, se cumplen las dos condiciones de aplicación lineal pues
(𝑔 ∘ 𝑓)(𝑥 + 𝑥 ′ ) = 𝑔(𝑓(𝑥 + 𝑥 ′ )) = 𝑔(𝑓(𝑥) + 𝑓(𝑥 ′ )) = 𝑔(𝑓(𝑥)) + 𝑔(𝑓(𝑥 ′ )) = (𝑔 ∘ 𝑓)(𝑥) + (𝑔 ∘ 𝑓)(𝑥 ′ )
y
(𝑔 ∘ 𝑓)(𝛼. 𝑥) = 𝑔(𝑓(𝛼. 𝑥)) = 𝑔(𝛼. 𝑓(𝑥)) =𝛼. 𝑔(𝑓(𝑥)) = 𝛼. (𝑔 ∘ 𝑓)(𝑥)

Proposición 5.22
Enunciado: Sean dos aplicaciones lineales 𝑓: 𝐸 → 𝐹 y 𝑔: 𝐹 → 𝐺. Sean [𝑓]𝐵𝐸 ,𝐵𝐹 la matriz que representa a
𝑓 en las bases 𝐵𝐸 y 𝐵𝐹 , y [𝑔]𝐵𝐹 ,𝐵𝐺 la matriz que representa a 𝑔 en las bases 𝐵𝐹 y 𝐵𝐺 .
La matriz

[𝑔 ∘ 𝑓]𝐵𝐸 ,𝐵𝐺 = [𝑔]𝐵𝐹 ,𝐵𝐺 [𝑓]𝐵𝐸 ,𝐵𝐹 (5.18)

representa a la aplicación 𝑔 ∘ 𝑓: 𝐸 → 𝐺 en las bases 𝐵𝐸 y 𝐵𝐺 .


Esto es, la matriz de la composición de dos aplicaciones lineales es el producto matricial de las matrices
que las representan.
Demostración: Se dan dos demostraciones.
Sean 𝐵𝐸 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 , 𝐵𝐹 = 𝑣1 , 𝑣2 , … , 𝑣𝑚 , 𝐵𝐺 = 𝑤1 , 𝑤2 , … , 𝑤𝑝 las bases de los espacios 𝐸, 𝐹 y 𝐺
respectivamente. Por sencillez, se denotan por 𝐴, 𝐵 y 𝐶 las matrices que representan a las aplicaciones 𝑓,
𝑔 y 𝑔 ∘ 𝑓 en las citadas bases:
𝐴 = [𝑓]𝐵𝐸 ,𝐵𝐹
𝐵 = [𝑔]𝐵𝐹,𝐵𝐺
𝐶 = [𝑔 ∘ 𝑓]𝐵𝐸 ,𝐵𝐺
La matriz 𝐶 se obtiene a partir de las imágenes por 𝑔 ∘ 𝑓 de los vectores de 𝐵𝐸 :
𝑚 𝑚

(𝑔 ∘ 𝑓)(𝑢𝑗 ) = 𝑔 (𝑓(𝑢𝑗 )) = 𝑔 (∑ 𝑎𝑘𝑗 . 𝑣𝑘 ) = ∑ 𝑎𝑘𝑗 . 𝑔(𝑣𝑘 )


𝑘=1 𝑘=1
𝑚 𝑝 𝑝 𝑚

= ∑ 𝑎𝑘𝑗 . (∑ 𝑏𝑖𝑘 . 𝑤𝑖 ) = ∑ (∑ 𝑏𝑖𝑘 𝑎𝑘𝑗 ) . 𝑤𝑖 (∀ 𝑗 = 1, … , 𝑛)


𝑘=1 𝑖=1 𝑖=1 𝑘=1

Por lo tanto, el elemento 𝑐𝑖𝑗 de la matriz 𝐶 es:


𝑚

𝑐𝑖𝑗 = ∑ 𝑏𝑖𝑘 𝑎𝑘𝑗


𝑘=1

De donde se deduce que 𝐶 = 𝐵𝐴. En definitiva:


[𝑔 ∘ 𝑓]𝐵𝐸 ,𝐵𝐺 = [𝑔]𝐵𝐹 ,𝐵𝐺 [𝑓]𝐵𝐸 ,𝐵𝐹

Suescun, Insausti, Flaquer (2022) 196 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.9 Isomorfismos

Otra forma de demostrarlo, más simple, consiste en analizar el problema representando los vectores
imagen y antiimagen en las bases de trabajo de las aplicaciones concernidas:
𝑦 = 𝑓(𝑥) → 𝑦𝐵𝐹 = 𝐴𝑥𝐵𝐸
𝑧 = (𝑔 ∘ 𝑓)(𝑥) = 𝑔(⏟
𝑓(𝑥) ) → } → 𝑧𝐵𝐺 = (𝐵𝐴)𝑥𝐵𝐸
𝑧 = 𝑔(𝑦) → 𝑧𝐵𝐺 = 𝐵𝑦𝐵𝐹
𝑦

Y, por tanto
[𝑔 ∘ 𝑓]𝐵𝐸 ,𝐵𝐺 = 𝐵𝐴 = [𝑔]𝐵𝐹 ,𝐵𝐺 [𝑓]𝐵𝐸 ,𝐵𝐹

Ejemplo 5.21
Si las matrices 𝐴 y 𝐵 representan en las correspondientes bases canónicas a las aplicaciones lineales
𝑓: 𝑅2 → 𝑅3 y 𝑔: 𝑅3 → 𝑅2
1 3
1 2 3
𝐴 = [−1 2] 𝐵 = [ ]
4 5 6
11 2
entonces la matriz
32 13
𝐶 = 𝐵𝐴 = [ ]
65 34
representa a la aplicación lineal 𝑔 ∘ 𝑓: 𝑅2 → 𝑅2 , también en la base canónica de 𝑅2 .

Si en lugar de aplicaciones lineales se tratara de transformaciones lineales de 𝐸, las afirmaciones y


resultados establecidos en este apartado seguirían siendo válidos con tal de mantener un único espacio
vectorial y una única base de referencia. Se denotará con 𝐿(𝐸) el conjunto de las transformaciones
lineales del espacio vectorial 𝐸 (también llamadas endomorfismos), que tiene estructura de anillo
unitario respecto de la suma y composición de transformaciones lineales.

Isomorfismos

Un isomorfismo 𝑓 de 𝐸 en 𝐹 es una aplicación lineal biyectiva. Por consiguiente, a cada elemento de 𝐸


le corresponde uno y sólo uno de 𝐹 y, recíprocamente, a cada elemento de 𝐹 le corresponde uno y sólo
uno de 𝐸.

Ejemplo 5.22
Los espacios vectoriales 𝑅2 , de pares de números reales, y 𝐸2 , de vectores planos con origen en el origen
del sistema de referencia, son isomorfos:
𝑌 𝑌
𝑅2 𝐸2

𝑏 𝐴 = (𝑎, 𝑏) 𝑏 ⃗⃗⃗⃗⃗
𝑣 = 𝑎𝑖 + 𝑏𝑗 = 𝑂𝐴

𝑋 𝑋
𝑂 𝑎 0 𝑎

▪ A cada elemento (𝑎, 𝑏) de 𝑅2 le corresponde un único vector 𝑎𝑖 + 𝑏𝑗 de 𝐸2 .


▪ A cada vector 𝑎𝑖 + 𝑏𝑗 de 𝐸2 le corresponde un único elemento (𝑎, 𝑏) de 𝑅2 .
Nótese también la correspondencia biunívoca entre los vectores de las respectivas bases canónicas:
(1, 0) ↔ 𝑖
(0, 1) ↔ 𝑗

Suescun, Insausti, Flaquer (2022) 197 Tecnun-Universidad de Navarra


5.9 Isomorfismos 5 Aplicaciones Lineales

Análogamente, 𝑅3 y 𝐸 3 son isomorfos.

Ejemplo 5.23
Otros ejemplos de espacios vectoriales isomorfos son:
▪ 𝑅 2 y 𝑅2×1
▪ 𝑅3 y 𝑅3×1
▪ 𝑅𝑛 y 𝑅𝑛×1

Ejemplo 5.24
Al trabajar en el espacio tridimensional ordinario, se plantean expresiones que mezclan puntos de 𝑅3 y
vectores de 𝐸3 . Al ser isomorfos, por sencillez, es usual escribir los vectores con la notación de 𝑅3 . Y al
referirlos a la base canónica, tanto puntos como vectores se escriben como columnas de 𝑅3×1 :
𝑎
𝑢
⃗ = 𝑎𝑖 + 𝑏𝑗 + 𝑐𝑘⃗ = (𝑎, 𝑏, 𝑐) → 𝑢 = [ 𝑏 ]
𝑐
𝑣 = ⃗⃗⃗⃗⃗
𝐵𝐴 = 𝐴 − 𝐵 = (𝑥𝐴 , 𝑦𝐴 , 𝑧𝐴 ) − (𝑥𝐵 , 𝑦𝐵 , 𝑧𝐵 ) = (𝑥𝐴 − 𝑥𝐵 , 𝑦𝐴 − 𝑦𝐵 , 𝑧𝐴 − 𝑧𝐵 )
𝑥𝐴 − 𝑥𝐵
→ 𝑣 = [ 𝐴 − 𝑦𝐵 ]
𝑦
𝑧𝐴 − 𝑧𝐵

Se define el inverso del isomorfismo 𝑓:𝐸 → 𝐹 como la aplicación 𝑓 −1 : 𝐹 → 𝐸 que cumple

𝑥 ∈ 𝐸, 𝑦 = 𝑓(𝑥) ∈ 𝐹 → 𝑥 = 𝑓 −1 (𝑦) (5.19)

𝐸 𝑓 𝐹
𝑛 𝑛

𝑓 −1

𝑓 −1 (𝑦) = 𝑥 𝑦 = 𝑓(𝑥)

0 0

Figura 5.14: 𝑓 es un isomorfismo que relaciona uno a uno los vectores de 𝐸 y 𝐹. Como se demuestra en la
proposición 5.26, necesariamente dim 𝐸 = dim 𝐹.

Proposición 5.23
Enunciado: El inverso de un isomorfismo es otro isomorfismo.
Demostración: Evidente.

Proposición 5.24
Enunciado: Dados dos espacios vectoriales 𝐸, 𝐹, y fijadas sendas bases, una para cada espacio, y un
isomorfismo 𝑓: 𝐸 → 𝐹 se cumple

[𝑓 −1 ]𝐵𝐹 ,𝐵𝐸 = [ 𝑓 ]−1


𝐵𝐸 ,𝐵𝐹 (5.20)

Suescun, Insausti, Flaquer (2022) 198 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.10 Cambios de base

esto es, la matriz del isomorfismo inverso es la inversa de la matriz del isomorfismo, fijadas las bases.
Demostración: Se deja como ejercicio.

Proposición 5.25
Enunciado: Las matrices que representan isomorfismos son regulares.
Demostración: Evidente.

Se dice que los espacios vectoriales de 𝐸 y 𝐹 son isomorfos si existe un isomorfismo 𝑓 de 𝐸 en 𝐹. Se suele
escribir 𝐸 ≅ 𝐹. Dos espacios isomorfos se comportan linealmente del mismo modo. Cualquier propiedad
que se cumpla donde intervengan vectores del primero, se cumple para las imágenes en el segundo de
los citados vectores.

Proposición 5.26
Enunciado: Los espacios vectoriales 𝐸, 𝐹, definidos sobre el mismo 𝐾, son isomorfos si y sólo si tienen la
misma dimensión.
Demostración: Elegidas una base de 𝐸 y otra base de 𝐹, la aplicación lineal que transforma los vectores
base de 𝐸 en los vectores base de 𝐹 es un isomorfismo.

Cuando el isomorfismo es de un espacio vectorial 𝐸 en sí mismo, se llama automorfismo. Todas las


afirmaciones y resultados de este apartado valen para los automorfismos, con tal de mantener un único
espacio vectorial y una única base de referencia.
Se denotará con 𝐺𝐿(𝐸) el conjunto de los automorfismos del espacio vectorial 𝐸, que tiene estructura de
grupo respecto de la composición de automorfismos.

Ejemplo 5.25
Se consideran los dos espacios vectoriales 𝐿(𝐸, 𝐹) y 𝐾 𝑚×𝑛 , siendo dim 𝐸 = 𝑛 y dim 𝐹 = 𝑚. El primero
está formado por todas las aplicaciones lineales de 𝐸 en 𝐹, siendo 𝐸 y 𝐹 espacios vectoriales sobre 𝐾, y
el segundo por todas las matrices de tamaño 𝑚 × 𝑛 con elementos en 𝐾. Ambos espacios son isomorfos
entre sí, pues existe un isomorfismo 𝛷 entre ellos que viene dado por

𝛷(𝑓) = [ 𝑓 ]𝐵𝐸 ,𝐵𝐹 = 𝐴𝑚×𝑛 (5.21)

el cual transforma una aplicación lineal 𝑓 en la matriz 𝐴 que la representa en sendas bases 𝐵𝐸 , 𝐵𝐹 , fijadas
de antemano. Como la dimensión de 𝐾 𝑚×𝑛 es 𝑚 × 𝑛 también será 𝑚 × 𝑛 la dimensión de 𝐿(𝐸, 𝐹).

Cambios de base

Se plantea aquí la cuestión de cómo varía la matriz que representa a una aplicación lineal 𝑓: 𝐸 → 𝐹, al pasar
de las bases 𝐵𝐸 , 𝐵𝐹 , a unas nuevas bases 𝐵𝐸′ , 𝐵𝐹′ .
Sean 𝐴 y 𝐴′ las matrices que representan respectivamente a la aplicación 𝑓 en las bases antiguas 𝐵𝐸 , 𝐵𝐹 y
nuevas 𝐵𝐸′ , 𝐵𝐹′ :
𝐴 = [ 𝑓 ]𝐵𝐸 ,𝐵𝐹 𝐴′ = [ 𝑓 ]𝐵𝐸′,𝐵𝐹′

En las bases antiguas se tiene la identidad


𝑦𝐵𝐹 = 𝐴𝑥𝐵𝐸
y en las bases nuevas

Suescun, Insausti, Flaquer (2022) 199 Tecnun-Universidad de Navarra


5.10 Cambios de base 5 Aplicaciones Lineales

𝑦𝐵𝐹′ = 𝐴′𝑥𝐵𝐸′

Si 𝑆 es la matriz regular del cambio de base en 𝐸 (i.e. paso de 𝐵𝐸 a 𝐵𝐸′ ) se tiene


𝑥𝐵𝐸 = 𝑆𝑥𝐵𝐸′

y si 𝑇 es la matriz regular del cambio de base en 𝐹 (paso de 𝐵𝐹 a 𝐵𝐹′ ) se tiene


𝑦𝐵𝐹 = 𝑇𝑦𝐵𝐹′

Por lo tanto

𝑇𝑦𝐵𝐹′ = 𝐴 (𝑆𝑥𝐵𝐸′ ) → ⏟ −1 𝐴𝑆) 𝑥𝐵𝐸′


𝑦𝐵𝐹′ = (𝑇
=𝐴′

Y finalmente

𝐴′ = 𝑇 −1 𝐴𝑆 (5.22)

La Figura 5.15 Ilustra lo explicado:

𝐸 𝐹
𝑛 𝑚

𝐵𝐸 : 𝑢1 , 𝑢2 , … , 𝑢𝑛 𝐵𝐹 : 𝑣1 , 𝑣2 , … , 𝑣𝑚
𝑆 𝑇
𝐵𝐸′ : 𝑢1′ , 𝑢2′ , … , 𝑢𝑛′ 𝐵𝐹′ : 𝑣1′ , 𝑣2′ , … , 𝑣𝑚

𝑓
𝑥 𝑦 = 𝑓(𝑥)

𝐾 𝑛×1 𝐾 𝑚×1
𝑛 𝑚

𝐴 = [ 𝑓 ]𝐵𝐸 ,𝐵𝐹
𝑥𝐵𝐸 𝑦𝐵𝐹 = 𝐴𝑥𝐵𝐸

𝐴′ = [ 𝑓 ]𝐵𝐸′,𝐵𝐹′
𝑥𝐵𝐸′ 𝑦𝐵𝐹′ = 𝐴′𝑥𝐵𝐸′

Figura 5.15: Cambios de base en los espacios de origen y destino de 𝑓: 𝐸 → 𝐹.

Se dice, en general, que dos matrices 𝐴 y 𝐵 del mismo tamaño son equivalentes12 si existen matrices
regulares 𝑃 y 𝑄 tales que

𝐵 = 𝑃−1 𝐴𝑄 (5.23)

Proposición 5.27
Enunciado: Las matrices que representan a una misma aplicación lineal son equivalentes entre sí.
Demostración: Evidente.

12 Una relación 𝑅 es de equivalencia si cumple las tres propiedades siguientes: reflexiva (𝑎 𝑅 𝑎), simétrica (𝑎 𝑅 𝑏 ⟺
𝑏 𝑅 𝑎) y transitiva (𝑎 𝑅 𝑏, 𝑏 𝑅 𝑐 ⟹ 𝑎 𝑅 𝑐). Se deja al lector demostrar que la equivalencia de matrices es una
relación de equivalencia.

Suescun, Insausti, Flaquer (2022) 200 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.11 Rango matricial

En el caso particular de ser 𝑓 una transformación lineal de 𝐸, todo lo anterior sigue siendo válido, con el
detalle de que sólo hay un cambio de base (de 𝐵𝐸 a 𝐵𝐸′ ) y por tanto una sola matriz de paso, que es 𝑆. Se
tiene en este caso:

𝐴′ = 𝑆 −1 𝐴 𝑆 (5.24)

Dos matrices cuadradas 𝐴 y 𝐵 del mismo orden son semejantes13 (𝐴~𝐵) si existe una matriz regular 𝑃 tal
que

𝐵 = 𝑃 −1 𝐴𝑃 (5.25)

Proposición 5.28
Enunciado: Matrices que representan a una misma transformación lineal son semejantes entre sí.
Demostración: Evidente.

Ejemplo 5.26
Se considera la transformación lineal 𝑓: 𝑅2×1 definida mediante
𝑓(𝑒1 ) = 𝑒1 + 2𝑒2
𝑓(𝑒2 ) = 3𝑒1 + 4𝑒2
Se pide hallar su matriz 𝐴 en la base canónica y su matriz 𝐴′ en la nueva base formada por los vectores:
𝑢1 = 𝑒1
𝐵 = 𝑢1 , 𝑢2 𝑢2 = −2𝑒1 + 𝑒2
La matriz 𝐴 de 𝑓 en la base canónica viene dada por:
1 3
[ 𝑓 ]𝐵𝑐 = 𝐴 = [ ]
2 4
La matriz 𝑆 del cambio de base de la base canónica a la base 𝐵 = 𝑢1 , 𝑢2 es
1 −2
𝑆=[ ]
0 1
Luego, la matriz 𝐴′ que representa a 𝑓 en la nueva base 𝐵 es
1 −2 −1 1 3 1 −2 5 1
[ 𝑓 ]𝐵 = 𝐴′ = 𝑆 −1 𝐴𝑆 = [ ] [ ][ ]=[ ]
0 1 2 4 0 1 2 0

Rango matricial

Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛 con elementos en 𝐾.


Se define el rango por columnas de 𝐴 como el número máximo de columnas de 𝐴 que pueden formar una
lista linealmente independiente, i.e., la dimensión del subespacio generado por las columnas de 𝐴:

𝑟𝑐 (𝐴) = dim 𝑅(𝐴) (5.26)

Análogamente, se define el rango por filas de 𝐴 como el número máximo de filas de 𝐴 que pueden formar
una lista linealmente independiente, i.e., la dimensión del subespacio generado por las filas de 𝐴:

13 La semejanza es también una relación de equivalencia. Se deja al lector su demostración.

Suescun, Insausti, Flaquer (2022) 201 Tecnun-Universidad de Navarra


5.11 Rango matricial 5 Aplicaciones Lineales

𝑟𝑓 (𝐴) = dim 𝑅(𝐴𝑇 ) (5.27)

En lo que sigue, se prueba que ambos rangos coinciden.

Proposición 5.29
Enunciado: Las operaciones elementales sobre las filas de 𝐴 respetan el carácter lineal de cualquier
colección de columnas de 𝐴.
Demostración: Sea 𝐴 = [𝑢1 𝑢2 … 𝑢𝑛 ] una matriz particionada por columnas y 𝐹 la matriz regular asociada
a una operación elemental por filas sobre 𝐴.
Sin pérdida de generalidad, se elige como colección de columnas la formada por las 𝑘 primeras columnas
de 𝑢1 , 𝑢2 , … , 𝑢𝑘 . El carácter lineal de esta lista depende de lo que suceda con las soluciones de la ecuación
vectorial

𝛼1 𝑢1 + 𝛼2 𝑢2 + ⋯ + 𝛼𝑘 𝑢𝑘 = 0 (5.28)

La matriz resultante tras hacer una operación elemental sobre las filas de 𝐴, es
𝐹𝐴 = 𝐹[𝑢1 𝑢2 … 𝑢𝑛 ] = [𝐹𝑢1 𝐹𝑢2 … 𝐹𝑢𝑛 ]
Las columnas originales 𝑢1 , 𝑢2 , … , 𝑢𝑘 se convierten en 𝐹𝑢1 , 𝐹𝑢2 , … , 𝐹𝑢𝑘 . Su carácter lineal se estudia
mediante la ecuación vectorial

𝛼1 (𝐹𝑢1 ) + 𝛼2 (𝐹𝑢2 ) + ⋯ + 𝛼𝑘 (𝐹𝑢𝑘 ) = 0 (5.29)

Nótese que se puede pasar de la ecuación (5.28) a la ecuación (5.29) multiplicando miembro a miembro
por 𝐹. Recíprocamente, se puede pasar de la ecuación (5.29) a la ecuación (5.28) multiplicando miembro
a miembro por 𝐹 −1 . Son por tanto dos sistemas equivalentes, y sus soluciones son las mismas. Si una es
determinada, la otra también; si una es indeterminada, la otra también.
Por tanto, la lista de vectores 𝑢1 , 𝑢2 , … , 𝑢𝑘 tiene el mismo carácter lineal que la lista de vectores
𝐹𝑢1 , 𝐹𝑢2 , … , 𝐹𝑢𝑘 .
Nota: Sin embargo, las operaciones elementales por filas sobre una matriz no respetan, en general, el
subespacio generado por las columnas de esa matriz.

Proposición 5.30
Enunciado: El rango por filas de 𝐴 coincide con el rango por columnas de 𝐴.
Demostración: Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛. Si se reduce a una forma escalonada por filas de Gauss,
con 𝑟 pívots, entonces las 𝑟 primeras filas (las que tienen pívot) forman una lista linealmente
independiente en número máximo (las demás filas son nulas), luego
𝑟𝑓 (𝐴) = 𝑛º 𝑑𝑒 𝑝í𝑣𝑜𝑡𝑠 = 𝑟
De otra parte, hay 𝑟 columnas pivotales que forman una lista linealmente independiente.
Los pívots son los peldaños de estas columnas. Hay por tanto 𝑟 peldaños. Las demás columnas dependen
de ellas (se pueden anular con operaciones elementales por columnas), aprovechando los 𝑟 peldaños.
Ya que las operaciones elementales por filas o por columnas respetan el carácter lineal de las columnas
podemos afirmar que
𝑟𝑐 (𝐴) = 𝑛º 𝑑𝑒 𝑝𝑒𝑙𝑑𝑎ñ𝑜𝑠 = 𝑟
Definitivamente,

𝑟𝑓 (𝐴) = 𝑟𝑐 (𝐴) (5.30)

Suescun, Insausti, Flaquer (2022) 202 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.11 Rango matricial

Nótese que las columnas pivotales de 𝐴 (no de la matriz final reducida) forman una base de 𝑅(𝐴).

Ejemplo 5.27
Trabajando sobre las filas de la matriz
−1 −1 2
𝐴 = [−1 2 −1 ]
2 −1 −1
se obtiene la matriz escalonada por filas
−1 −1 2
[ 0 3 −3 ]
0 0 0
El rango de la matriz es 2. Como las columnas pivotales son primera y segunda, las dos primeras columnas
de 𝐴 forman una base de 𝑅(𝐴):
−1 −1
𝐵𝑅(𝐴) = [−1] , [ 2]
2 −1

Se define el rango matricial de 𝐴 como el rango por filas o por columnas de 𝐴, indistintamente. Se usará
la notación 𝑟(𝐴). Está claro que si 𝐴 es de tamaño 𝑚 × 𝑛 se cumple

0 ≤ 𝑟(𝐴) ≤ 𝑚í𝑛{𝑚, 𝑛} (5.31)

Ejemplo 5.28
Se considera la matriz
1 −1 1 −1
𝐴 = [1 1 1 1]
2 0 2 0
y se pide hallar su rango.
Obviamente 𝑟(𝐴) = 2, porque si se acude a las filas hay dos filas formando una lista linealmente
independiente (por ejemplo, primera y segunda) y las tres filas forman una lista linealmente dependiente.
Se llega al mismo resultado acudiendo a las columnas: hay dos columnas formando una lista linealmente
independiente (por ejemplo, primera y segunda) y cualquier terna de columnas que se imagine forman
una lista linealmente dependiente (de ahí que las cuatro columnas de 𝐴 también lo sean).

Proposición 5.31
Enunciado: El rango de 𝐴 coincide con el rango de 𝐴𝑇 .
Demostración: Evidente.

Proposición 5.32
Enunciado: Las operaciones elementales por filas o por columnas respetan el rango matricial.
Demostración: Inmediata.

Proposición 5.33
Enunciado: La pre o post multiplicación por una matriz regular no altera el rango matricial.
Suponiendo que los productos indicados son posibles:
𝐴𝑟𝑒𝑔𝑢𝑙𝑎𝑟 ⟹ 𝑟(𝐴𝐵) = 𝑟(𝐵) 𝑟(𝐵𝐴) = 𝑟(𝐵)

Suescun, Insausti, Flaquer (2022) 203 Tecnun-Universidad de Navarra


5.12 Rango e inversas de una matriz 5 Aplicaciones Lineales

Demostración: Las matrices regulares se descomponen como un producto de matrices asociadas a


operaciones elementales, ya sea por filas o por columnas, que no alteran el rango al multiplicar.

Proposición 5.34
Enunciado: Las matrices equivalentes tienen el mismo rango, así como las matrices semejantes.
Demostración: Si 𝐴 es equivalente con 𝐵, se tiene 𝐵 = 𝑃 −1 𝐴𝑄, con 𝑃 y 𝑄 regulares, luego
𝑟(𝐵) = 𝑟(𝑃 −1 𝐴𝑄) = 𝑟(𝐴)
Análogamente, si 𝐴 es semejante con 𝐵, se tiene 𝐵 = 𝑃 −1 𝐴𝑃, con 𝑃 regular, luego
𝑟(𝐵) = 𝑟(𝑃 −1 𝐴𝑃) = 𝑟(𝐴)

Nótese que, de los resultados anteriores, se deduce que el rango del producto de dos matrices nunca será
mayor que el menor de los rangos de los factores:
𝑟(𝐴𝐵) ≤ min{𝑟(𝐴), 𝑟(𝐵)}
Es decir, el rango “no aumenta” con el producto matricial.

Rango e inversas de una matriz

Vamos a estudiar en este apartado la relación que hay entre la existencia de determinada clase de inversas
de una matriz y el rango de la misma.

Proposición 5.35
Enunciado: Sea 𝐴 de tamaño 𝑚 × 𝑛. Existe inversa por la derecha 𝑅 de 𝐴 si y sólo si 𝑟(𝐴) = 𝑚.
Demostración: Sabemos que cuando existe inversa por la derecha 𝑅 de 𝐴 el sistema 𝐴𝑥 = 𝑏 tiene
solución para cualquier columna 𝑏.
Si 𝑟(𝐴) = 𝑚, los 𝑚 sistemas 𝐴𝑥 = 𝑒𝑖 , 𝑖 = 1,2, … , 𝑚 tienen soluciones 𝑥𝑖 . Estas soluciones forman las
columnas de una inversa 𝑅 por la derecha de 𝐴, pues se tiene
𝐴𝑥𝑖 = 𝑒𝑖 (𝑖 = 1,2, … , 𝑚)
𝐴[𝑥1 𝑥2 … 𝑥𝑚 ] = [𝑒1 𝑒2 … 𝑒𝑚 ]
𝐴𝑅 = 𝐼𝑚
luego existe inversa por la derecha 𝑅 de 𝐴.
Si 𝑟(𝐴) < 𝑚, sea 𝑏 = 𝑃 −1 𝑒𝑚 , con P la matriz regular que transforma la matriz ampliada [𝐴 𝑏] en una
forma reducida de Gauss. Se tiene
𝑃[𝐴 𝑏] = [𝑃𝐴 𝑃(𝑃−1 𝑒𝑚 )] = [𝑃𝐴 𝑒𝑚 ]
Como la reducida de Gauss 𝑃𝐴 tiene que tener al menos una fila nula (con seguridad la última) pues el
rango de 𝐴 es menor que el número de filas y 𝑒𝑚 tiene el elemento unidad en la última posición, el
sistema inicial no tiene solución para esa columna 𝑏 (hay escalonamiento en la última columna), luego no
puede existir inversa por la derecha 𝑅 de 𝐴.

Proposición 5.36
Enunciado: Sea 𝐴 de tamaño 𝑚 × 𝑛. Existe inversa por la izquierda 𝐿 de 𝐴 si y sólo si 𝑟(𝐴) = 𝑛.
Demostración: 𝐿𝐴 = 𝐼𝑛 equivale a 𝐴𝑇 𝐿𝑇 = 𝐼𝑛 . Que 𝐿𝑇 sea inversa por la derecha de 𝐴𝑇 significa que el
rango de 𝐴𝑇 sea igual al número 𝑛 de filas de 𝐴𝑇 . Pero 𝑟(𝐴𝑇 ) = 𝑟(𝐴), luego equivale a que 𝑟(𝐴) = 𝑛.

Proposición 5.37
Enunciado: Sea 𝐴 una matriz cuadrada de orden 𝑛. Existe inversa 𝐴−1 de la matriz 𝐴 si y sólo si 𝑟(𝐴) = 𝑛.

Suescun, Insausti, Flaquer (2022) 204 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.12 Rango e inversas de una matriz

Demostración: El rango igual al orden equivale a que el rango coincide con el número de filas (existencia
de 𝑅) y también que el rango coincide con el número de columnas (existencia de 𝐿). La existencias de
ambas clases de inversa coincide con la existencia de la inversa 𝐴−1 de 𝐴.

Proposición 5.38
Enunciado: Si 𝐴 es una matriz de rango 𝑘, existe al menos una submatriz 𝐵 de 𝐴, regular de orden 𝑘, y
todas las submatrices cuadradas de 𝐴 de orden mayor que 𝑘 son singulares.
Demostración: Eligiendo 𝑘 filas y 𝑘 columnas de 𝐴, linealmente independientes, con ellas se forma la
submatriz 𝐵 regular de orden 𝑘. Como 𝑘 es el rango de 𝐴 no puede haber submatrices de 𝐴 de rango
mayor que 𝑘, en particular, las submatrices cuadradas de orden mayor que 𝑘, al no poder coincidir su
orden con su rango, serán necesariamente singulares.

La tabla siguiente resume gráficamente la situación descrita en las proposiciones anteriores:

𝑟(𝐴) = 𝑛
𝐴= 𝑳 = 𝑰
𝑨
∃ 𝐿, ∄ 𝑅

Matriz
rectangular
𝑟(𝐴) = 𝑚
𝐴= 𝑨 𝑹 = 𝑰
𝐴𝑚×𝑛
∄ 𝐿, ∃ 𝑅
(𝑚 ≠ 𝑛)

𝑟(𝐴) < 𝑚𝑖𝑛 {𝑚, 𝑛}


𝐴=
∄ 𝐿, ∄ 𝑅

𝑨−𝟏 𝑨 = 𝑰
𝑟(𝐴) = 𝑛 → ∃ 𝐿, 𝑅, 𝐴−1
𝐴=
𝐿 = 𝑅 = 𝐴−1 𝑨 𝑨−𝟏 = 𝑰
Matriz cuadrada

𝐴𝑛×𝑛
𝑟(𝐴) < 𝑛
𝐴=
∄ 𝐿, ∄ 𝑅, ∄ 𝐴−1

Tabla 5.1: Resumen de las condiciones de existencia de las inversas de una matriz. El cuadrado oscuro sobre
fondo claro indica la existencia de una submatriz cuadrada de rango máximo (véase la proposición
5.38). Solo cuando la matriz es de rango máximo, bien por filas, bien por columna, es cuando existen
inversas.

Ejemplo 5.29
La matriz
1 −1 1 −1
𝐴 = [1 1 1 1]
2 0 2 0

Suescun, Insausti, Flaquer (2022) 205 Tecnun-Universidad de Navarra


5.13 Rango y discusión de un sistema 5 Aplicaciones Lineales

es de rango 2 pues existe al menos una submatriz de orden 2 regular, p. ej. La formada con las filas y
columnas 1 y 2, y cualquier submatriz de orden 3 es singular.

Resumiendo:
Para una matriz rectangular 𝐴 de tamaño 𝑚 × 𝑛, con 𝑚 ≠ 𝑛
▪ Si 𝑟(𝐴) = 𝑛 < 𝑚, entonces existe 𝐿 pero no existe 𝑅.
▪ Si 𝑟(𝐴) = 𝑚 < 𝑛, entonces existe 𝑅 pero no existe 𝐿.
▪ Si 𝑟(𝐴) < min{𝑚, 𝑛}, entonces no existen ni 𝑅 ni 𝐿.
Para una matriz cuadrada 𝐴 de orden 𝑛
▪ Si 𝑟(𝐴) = 𝑛, existen 𝑅 y 𝐿 de modo que 𝐿 = 𝑅 = 𝐴−1 , por lo que 𝐴 es una matriz regular.
▪ Si 𝑟(𝐴) < 𝑛, no existe 𝑅 ni tampoco 𝐿, por lo que 𝐴 no tiene inversa. Se trata de una matriz
singular.

Rango y discusión de un sistema

El rango matricial coincide con el “número de pívots de la eliminación Gaussiana”. También coincide con
el rango, definido en el Capítulo 3, como “el orden del menor de mayor orden distinto de cero”.

Proposición 5.39: Teorema de Rouché-Frobenius


Enunciado: Sea 𝐴𝑥 = 𝑏 un sistema de 𝑚 ecuaciones lineales con 𝑛 incógnitas. El sistema:
• es compatible si y sólo si 𝑟(𝐴) = 𝑟([𝐴 | 𝑏]).
• y siendo compatible, es determinado si 𝑟(𝐴) = 𝑛, e indeterminado si 𝑟(𝐴) < 𝑛.
Demostración: Se deja como ejercicio.

Ejemplo 5.19
El sistema de ecuaciones 𝐴𝑥 = 𝑏, con

1 −1 1 −1 0
𝐴 = [1 1 1 1] , 𝑏 = [4]
2 0 2 0 4
es compatible pues
𝑟([𝐴 𝑏]) = 𝑟(𝐴) = 2
e indeterminado ya que
𝑟(𝐴) = 2 < nº de incógnitas = 4

Proyección sobre un subespacio vectorial

Sea 𝐹 un subespacio vectorial 𝑘-dimensional de 𝐸 y 𝐺 un subespacio complementario de 𝐹 en 𝐸, esto es,


𝐹⊕𝐺 = 𝐸
Ya que la suma de 𝐹 y 𝐺 es directa, un vector cualquiera 𝑥 de 𝐸, se puede escribir de modo único como
𝑥 =𝑢+𝑣 (𝑢 ∈ 𝐹, 𝑣 ∈ 𝐺)

Suescun, Insausti, Flaquer (2022) 206 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.15 Matriz de proyección

Se llama proyección de 𝐸 sobre 𝐹 paralela a 𝐺, a la transformación lineal 𝑓 de 𝐸 definida mediante


𝑓(𝑥) = 𝑢
La Figura 5.16 ilustra lo anterior.

𝑣 𝑥

𝑢 = 𝑓(𝑥)
𝐹

Figura 5.16: El vector 𝑥 se proyecta sobre el subespacio 𝐹 paralelalemte al subespacio 𝐺, que es complementario
de 𝐹.

Se prueba muy fácilmente que 𝑓 es una transformación lineal de 𝐸. Y obviamente:


𝐼𝑚𝑓 = 𝐹
𝑁𝑢𝑐𝑓 = 𝐺
La matriz que la representa en la base 𝐵𝐸 = 𝐵𝐹 , 𝐵𝐺 , formada a partir de una base de 𝐹 y otra de 𝐺, es
evidentemente:

𝐼𝑘 𝑂𝑘×(𝑛−𝑘)
𝐴=[ ] (5.32)
𝑂(𝑛−𝑘)×𝑘 𝑂𝑛−𝑘

Nótese que 𝐴 es idempotente, como toda matriz de proyección. Es decir, 𝐴2 = 𝐴.

Matriz de proyección

Se dice que una matriz 𝑃 cuadrada de orden 𝑛 es de proyección si


𝑃2 = 𝑃
Nótese que toda columna 𝑥 del espacio de columnas 𝐾 𝑛×1 se puede escribir

𝑥 = 𝑃𝑥 + (𝑥 − 𝑃𝑥) (5.33)

donde el vector 𝑃𝑥 ∈ 𝑅(𝑃) y el vector (𝑥 − 𝑃𝑥) ∈ 𝑁(𝑃) pues, 𝑃𝑥 es la imagen de 𝑥 y la imagen de (𝑥 −


𝑃𝑥) es el vector nulo:
𝑃(𝑥 − 𝑃𝑥) = 𝑃𝑥 − 𝑃2 𝑥 = 𝑃𝑥 − 𝑃𝑥 = 0
Este resultado prueba que 𝑅(𝑃) + 𝑁(𝑃) = 𝐾 𝑛×1 . Se demuestra ahora que la suma es directa:
𝑧 ∈ 𝑅(𝑃) ∩ 𝑁(𝑃) ⟹  𝑦 | 𝑃𝑧 = 0, 𝑃𝑦 = 𝑧
Se demuestra que 𝑧 no puede ser otro que el vector nulo
⏟2 𝑦 = 0 → 𝑃𝑦
𝑃(𝑃𝑦) = 𝑃𝑧 → 𝑃 ⏟ =0 → z=0
=𝑃 =𝑧

En definitiva, solo el vector nulo está en los dos subespacios y por tanto la suma es directa y llena el
espacio de columnas:

𝐾 𝑛×1 = 𝑅(𝑃)⨁ 𝑁(𝑃) (5.34)

Suescun, Insausti, Flaquer (2022) 207 Tecnun-Universidad de Navarra


5.15 Matriz de proyección 5 Aplicaciones Lineales

De todo lo afirmado se puede concluir que la transformación lineal definida por 𝑃 proyecta las columnas
del espacio de columnas 𝐾 𝑛×1 sobre 𝑅(𝑃) paralelamente a 𝑁(𝑃), como se ilustra en la Figura 5.17.

𝑁(𝑃)
𝑥 − 𝑃𝑥 𝑥

𝑃𝑥
𝑅(𝑃)

Figura 5.17: El vector 𝑥 se proyecta sobre el subespacio 𝑅(𝑃) paralelalemte al subespacio 𝑁(𝑃), que es
complementario de 𝑅(𝑃).

Suescun, Insausti, Flaquer (2022) 208 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.16 Ejemplos de aplicación

Ejemplos de aplicación

Ejemplo de aplicación 5.1


Un sistema tiene un comportamiento lineal de modo que a una entrada 𝑥 = (𝑝, 𝑞) el sistema responde
con una salida 𝑦 = (𝑎, 𝑏, 𝑐). Se sabe que la salida a la entrada (1, 2) es (1, 2, 3) y la salida a la entrada
(1, 1) es (3, 2, 1).

𝑎
𝑝
Sistema Lineal 𝑏
𝑞
𝑐

Se persigue investigar cuál es la salida de la entrada (4, 5).


Las entradas pertenecen al espacio vectorial 𝑅2 y las salidas al espacio vectorial 𝑅3 . El sistema se puede
modelar mediante una aplicación lineal 𝑓 que puede ser representada por la matriz 𝐴 de 𝑓 en las bases
canónicas.
Los vectores (1, 2), (1, 1) forman una base 𝐵 de 𝑅2 . La matriz 𝐴′ de 𝑓 en las bases 𝐵 de 𝑅2 y canónica de
𝑅3 es
1 3
𝐴′ = [2 2]
3 1
La matriz 𝐴 se relaciona con la matriz 𝐴′ mediante
𝐴′ = 𝐴𝑆
Siendo
1 1
𝑆=[ ]
2 1
Luego
5 −2
𝐴 = 𝐴′𝑆 −1 = [ 2 0]
−1 2
y la salida de (4,5) es (10,8,6) pues
5 −2 10
4
[2 0 ][ ] = [ 8 ]
5
−1 2 6

Ejemplo de aplicación 5.2


Vamos en este ejemplo a considerar el operador derivación 𝐷 actuando en el espacio de polinomios 𝑅3 [𝑡]
sobre polinomios de la forma
𝑝(𝑡) = 𝑎 + 𝑏(1 + 𝑡) + 𝑐(1 + 𝑡 + 𝑡 2 ) + 𝑑(1 + 𝑡 + 𝑡 2 + 𝑡 3 )
Los resultados de la derivación se hallan en el espacio de polinomios 𝑅2 [𝑡]. La matriz de 𝐷 en las bases
𝐵𝑅3[𝑡] = 1, 1 + 𝑡, 1 + 𝑡 + 𝑡 2 , 1 + 𝑡 + 𝑡 2 + 𝑡 3
y
𝐵𝑅2[𝑡] = 1, 𝑡, 𝑡 2

es

Suescun, Insausti, Flaquer (2022) 209 Tecnun-Universidad de Navarra


5.16 Ejemplos de aplicación 5 Aplicaciones Lineales

0 1 1 1
𝐴 = [0 0 2 2]
0 0 0 3
La derivada del polinomio 𝑝(𝑡) anterior se puede obtener matricialmente mediante el producto matricial
𝑎
0 1 1 1 𝑏+𝑐+𝑑
𝑏
[0 0 2 2 ] = [ 2𝑐 + 2𝑑 ]
𝑐
0 0 0 3 3𝑑
[𝑑 ]
De modo que
𝐷(𝑝(𝑡)) = 𝑏 + 𝑐 + 𝑑 + (2𝑐 + 2𝑑)𝑡 + (3𝑑)𝑡 2

Ejemplo de aplicación 5.3


⃗ ‖ = √𝑎2 + 𝑏 2 + 𝑐 2 = 1.
⃗ = 𝑎𝑖 + 𝑏𝑗 + 𝑐𝑘 un vector unitario del espacio 𝐸3 ; esto es, ‖𝑢
Sea 𝑢
El operador para girar un vector de 𝐸3 un ángulo 𝜃 entorno al eje definido por el vector unitario 𝑢
⃗ viene
representado en la base canónica por la matriz (Fórmula de Rodrigues)
𝐺 = 𝐼 + (𝑠𝑖𝑛𝜃)𝐾 + (1 − 𝑐𝑜𝑠𝜃)𝐾 2
siendo 𝐼 la matriz identidad y 𝐾 la matriz antisimétrica
0 −𝑐 𝑏
𝐾=[ 𝑐 0 −𝑎]
−𝑏 𝑎 0
⃗ un ángulo de 𝜃 = 𝜋 radianes en torno
Un ejemplo concreto: Se pretende rotar el vector 𝑣 = 𝑖 + 2𝑗 + 3𝑘
al eje definido por el vector unitario 𝑢 ⃗ ).
⃗ = (1/√3)(𝑖 + 𝑗 + 𝑘
Se trabaja en la base canónica, luego
1
⃗ → 𝑣 = [2]
𝑣 = 𝑖 + 2𝑗 + 3𝑘
3
Se construye la matriz 𝐾

1 0 −1 1
𝐾= [1 0 −1]
√3 −1 1 0
Y, mediante la fórmula de Rodrigues, se calcula la matriz 𝐺

1 −1 2 2
𝐺 = 𝐼 + 2𝐾 2 = [ 2 −1 2]
3
2 2 −1
Por tanto, de modo el vector rotado 𝑣 ′ se obtiene de la siguiente manera:

1 −1 2 2 1 3
𝑣 ′ = 𝐺𝑣 = [ 2 −1 ⃗
2 ] [2] = [2] → 𝑣 ′ = 3𝑖 + 2𝑗 + 𝑘
3
2 2 −1 3 1

Suescun, Insausti, Flaquer (2022) 210 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 5.1
Estúdiese la linealidad de las siguientes aplicaciones de 𝑅3 en 𝑅2 :
a) 𝑓(𝛼, 𝛽, 𝛾) = (𝛼 + 𝛽, 𝛽 + 𝛾)
b) 𝑓(𝛼, 𝛽, 𝛾) = (𝛼 + 𝛽, 2 + 𝛽 + 𝛾)

Solución
En el caso a) se trata de una aplicación lineal, pues se cumplen las propiedades de definición de aplicación
lineal; en el caso b) no se trata de una aplicación lineal, entre otras razones porque 𝑓(0,0,0) = (0,2)
distinto de (0,0).

Ejercicio 5.2
Estúdiese la linealidad de la siguiente aplicación
1
𝑓(𝑋) = (𝑋 + 𝑋 𝑇 )
2
en el espacio vectorial de las matrices cuadradas de orden 𝑛, hallando el núcleo y la imagen de 𝑓.

Solución
Se cumplen las propiedades de linealidad pues
1 1 1 𝑇
𝑓(𝑋 + 𝑋 ′ ) = ((𝑋 + 𝑋 ′ ) + (𝑋 + 𝑋′)𝑇 ) = (𝑋 + 𝑋 𝑇 ) + (𝑋 ′ + 𝑋 ′ ) = 𝑓(𝑋) + 𝑓(𝑋 ′ )
2 2 2
y
1 1
𝑓(𝛼𝑋) = (𝛼𝑋 + (𝛼𝑋)𝑇 ) = 𝛼 (𝑋 + 𝑋 𝑇 ) = 𝛼𝑓(𝑋)
2 2
Además, 𝑓 hace corresponder a cada matriz cuadrada su parte simétrica. Las imágenes serán por tanto
las matrices simétricas de orden 𝑛, esto es,
𝐼𝑚𝑓 = {𝐵𝑛×𝑛 ; 𝐵𝑇 = 𝐵}
El núcleo de 𝑓 está formado por matrices cuya parte simétrica es nula, esto es, las matrices antisimétricas
de modo que
𝑁𝑢𝑐𝑓 = {𝐶𝑛×𝑛 ; 𝐶 𝑇 = −𝐶}
Tanto el núcleo como la imagen de 𝑓 se hallan en el mismo espacio vectorial. La aplicación lineal 𝑓 es una
transformación lineal de dicho espacio.

Ejercicio 5.3
Estúdiese la inyectividad y suprayectividad de la siguiente aplicación lineal de 𝑅3 en 𝑅2 :
𝑓(𝛼, 𝛽, 𝛾) = (−𝛼 + 𝛽 − 𝛾, 𝛼 − 𝛽 + 𝛾)

Solución
La aplicación lineal 𝑓 no es inyectiva, pues el núcleo no se reduce al vector nulo ya que de
𝑓(𝛼, 𝛽, 𝛾) = (0,0)
se llega al sistema homogéneo indeterminado
−𝛼 + 𝛽 − 𝛾 = 0
𝛼−𝛽+𝛾 = 0
De otra parte, la aplicación lineal 𝑓 tampoco es suprayectiva, pues las imágenes son de la forma (𝛿, −𝛿)
y no llenan todo 𝑅2 .

Suescun, Insausti, Flaquer (2022) 211 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

Otra forma de responder a las cuestiones planteadas sería darse cuenta de que la dimensión de la imagen
es la unidad (distinta de la dimensión del segundo espacio: no suprayectividad) y que la dimensión del
núcleo es dos (distinta de cero: no inyectividad).

Ejercicio 5.4
Hállese la matriz del automorfismo 𝑔, inverso del automorfismo 𝑓, en la base (1,2), (3,4) de 𝑅2 ,
representado 𝑓 en la base canónica por la matriz
1 5
𝐵=[ ]
0 1

Solución
La matriz que representa a 𝑔 en la base canónica es la matriz 𝐴, inversa de 𝐵, siendo
1 −5
𝐴 = 𝐵 −1 = [ ]
0 1
La matriz de paso de la base canónica a la nueva base (1,2), (3,4) es
1 3
𝑆=[ ]
2 4
La matriz 𝐴′ que representa a 𝑔 en la base (1,2), (3,4) es
1 4 −3 1 −5 1 3 21 40
𝐴′ = 𝑆 −1 𝐴𝑆 = − [ ][ ][ ]=[ ]
2 −2 1 0 1 2 4 −10 −19

Ejercicio 5.5
Hállese la matriz 𝐴 de la transformación lineal 𝑓 de 𝑅3 en la base canónica sabiendo que se cumple
𝑓(𝑒1 + 𝑒2 + 𝑒3 ) = 𝑢
𝑓(𝑒1 + 𝑒2 ) =𝑢
𝑓(𝑒1 ) =𝑢
con 𝑢 = (1, 1, 1).

Solución
De las identidades del enunciado se obtienen las imágenes de los vectores de la base canónica del
siguiente modo:

𝑓(𝑒1 ) + 𝑓(𝑒2 ) + 𝑓(𝑒3 ) = 𝑢


𝑓(𝑒1 ) + 𝑓(𝑒2 ) =𝑢
𝑓(𝑒1 ) =𝑢
Deduciendo
𝑓(𝑒1 ) = 𝑢, 𝑓(𝑒2 ) = 0, 𝑓(𝑒3 ) = 0
Recordando que las columnas de 𝐴 son las componentes de los vectores 𝑓(𝑒1 ), 𝑓(𝑒2 ), 𝑓(𝑒3 ) en la base
canónica del espacio se llega finalmente a
1 0 0
𝐴 = [𝑓]𝑐 = [1 0 0]
1 0 0

Ejercicio 5.6
De una aplicación lineal 𝑓 de 𝑅3 en 𝑅2 se sabe que la imagen de 𝑒1 es 𝑒2 , la imagen de 𝑒2 es 𝑒1 y el núcleo
está generado por el vector 𝑒1 + 𝑒2 + 𝑒3 . Hállese:
a) La matriz de 𝑓 en las bases canónicas
b) El núcleo, la imagen y el rango de 𝑓

Suescun, Insausti, Flaquer (2022) 212 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

c) La matriz de 𝑓 en las nuevas bases 𝑒3 , 𝑒2 , 𝑒1 de 𝑅3 y 𝑒2 , 𝑒1 de 𝑅2 .

Solución
Se tiene 𝑓(𝑒1 ) = 𝑒2 , 𝑓(𝑒2 ) = 𝑒1 . De 𝑓(𝑒1 + 𝑒2 + 𝑒3 ) = 0 se deduce
𝑓(𝑒3 ) = −𝑓(𝑒1 ) − 𝑓(𝑒2 ) = −𝑒2 − 𝑒1
por lo que
0 1 −1
𝐴 = [𝑓]𝐵𝑐,𝐵𝑐 = [ ]
1 0 −1
Al núcleo pertenecen los vectores (𝛼1 , 𝛼2 , 𝛼3 ) que satisfacen la ecuación 𝑓(𝛼1 , 𝛼2 , 𝛼3 ) = (0,0). Esta
condición se expresa matricialmente con el sistema 𝐴𝑥 = 0, cuyas soluciones son de la forma
𝑥 = [𝜖 𝜖 𝜖]𝑇 . Por tanto, el núcleo de 𝑓 está formado por los vectores de 𝑅3 que son de la forma (𝜖, 𝜖, 𝜖).
Por lo que se refiere a la imagen de 𝑓, está formada por todos los vectores de la forma 𝑓(𝛼1 , 𝛼2 , 𝛼3 ) =
(𝛼2 − 𝛼3 , 𝛼1 − 𝛼3 ).
Matricialmente, las columnas 𝐴𝑥 representan a los vectores imagen, esto es
𝛼1
0 1 −1 𝛼 𝛼2 − 𝛼3 𝛿
𝐴𝑥 = [ ] [ 2 ] = [𝛼 − 𝛼 ] = [ 1 ]
1 0 −1 𝛼 1 3 𝛿2
3

En realidad, la imagen llena el segundo espacio. Su dimensión es dos, por lo que dos es el rango de 𝑓.
La matriz 𝑆 de cambio de base en 𝑅3 , de la base canónica a la base 𝑒3 , 𝑒2 , 𝑒1 es
0 0 1
𝑆 = [0 1 0]
1 0 0
y la matriz 𝑇 de cambio de base en 𝑅2 , de la base canónica a la base 𝑒2 , 𝑒1 es
0 1
𝑇=[ ]
1 0
Luego
−1 0 1
𝐴′ = 𝑇 −1 𝐴𝑆 = [ ]
−1 1 0
representa a 𝑓 en las nuevas bases.

Ejercicio 5.7
Se sabe que la matriz
𝑎 𝑏 𝑐
𝐴 = [𝑏 𝑐 𝑎]
𝑐 𝑎 𝑏
representa a una cierta transformación lineal 𝑓 de 𝑅3 en la base canónica. Al cambiar a la nueva base
𝑒1′ = 𝑒1
𝑒′2 = 𝑒1 + 𝑒2
𝑒′3 = 𝑒1 + 𝑒2 + 𝑒3
la matriz 𝐴′ que representa a 𝑓 pasa a ser
−1 ∗ 0
𝐴′ = [ ∗ ∗ 0]
3 ∗ 6
donde con * se quiere denotar elementos de valores desconocidos. Hállese la matriz 𝐴.

Solución
La matriz del cambio de base es

Suescun, Insausti, Flaquer (2022) 213 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

1 1 1
𝑆 =[0 1 1]
0 0 1
De 𝐴′ = 𝑆 −1 𝐴𝑆 se deduce que 𝐴 = 𝑆𝐴′𝑆 −1
𝑎 𝑏 𝑐 1 1 1 −1 𝑝 0 1 −1 0
[𝑏 𝑐 𝑎 ] = [0 1 1 ][ 𝑞 𝑟 0][ 0 1 −1]
𝑐 𝑎 𝑏 0 0 1 3 𝑠 6 0 0 1
2 + 𝑞 −2 + 𝑝 − 𝑞 + 𝑟 + 𝑠 6 − 𝑝 − 𝑟 − 𝑠
=[3+𝑞 −3 − 𝑞 + 𝑟 + 𝑠 6−𝑟−𝑠 ]
3 −3 + 𝑠 6−𝑠
Luego
2 + 𝑞 = −3 + 𝑠 = 6 − 𝑟 − 𝑠
−2 + 𝑝 − 𝑞 + 𝑟 + 𝑠 = 3 + 𝑞 = 6 − 𝑠
6 − 𝑝 − 𝑟 − 𝑠 = −3 − 𝑞 + 𝑟 + 𝑠 = 3
de donde
𝑝 = −2 𝑞 = −1 𝑟=1 𝑠=4
𝑎=1 𝑏=2 𝑐=3
1 2 3
por lo que 𝐴 = [ 2 3 1 ].
3 1 2

Ejercicio 5.8
Una aplicación lineal 𝑓 de 𝑅3 en 𝑅2 transforma el vector (𝑎, 𝑏, 𝑐) en el vector (𝑝, 𝑞), así:
(𝑝, 𝑞) = 𝑓(𝑎, 𝑏, 𝑐) = (𝑎 + 2𝑏 + 3𝑐 , 3𝑎 + 2𝑏 + 𝑐)
Hállese:
a) La matriz de 𝑓 en las bases (−1, 1, 1), (1, −1, 1), (1, 1, −1) de 𝑅3 y canónica de 𝑅2 .
b) Un vector de 𝑅3 cuya imagen en 𝑅2 sea la suma de las imágenes de los vectores de la base de 𝑅3
citada.

Solución
Denotemos con 𝐵 la base de 𝑅3 del enunciado. Se tiene
𝑓(−1,1,1) = (4,0)
𝑓(1, −1,1) = (2,2)
𝑓(1,1, −1) = (0,4)
Luego
4 2 0
[𝑓]𝐵,𝑐 = [ ]
0 2 4
El vector buscado lógicamente es la suma de los vectores base, esto es
(−1,1,1) + (1, −1,1) + (1,1, −1) = (1,1,1)
Recuérdese que la imagen de la suma de vectores es suma de sus imágenes.

Ejercicio 5.9
Una transformación lineal 𝑓 de 𝑅4 tiene un núcleo definido por la base
𝑥1 = (1, 1, 1, 1), 𝑥2 = (0, 1, 1, 1), 𝑥3 = (0, 0, 1, 1)
y una imagen generada por el vector

Suescun, Insausti, Flaquer (2022) 214 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

𝑦1 = (1, 2, 3, 4)
que es imagen del vector 𝑒4 . Hállese la matriz 𝐴 de 𝑓 en la base canónica.

Solución
Para encontrar la matriz 𝐴 hay que encontrar las imágenes de los vectores de la base canónica.
Del enunciado se deduce que
𝑓(𝑥1 ) = 𝑓(𝑒1 ) + 𝑓(𝑒2 ) + 𝑓(𝑒3 ) + 𝑓(𝑒4 ) = 0
𝑓(𝑥2 ) = 𝑓(𝑒2 ) + 𝑓(𝑒3 ) + 𝑓(𝑒4 ) = 0
𝑓(𝑥3 ) = 𝑓(𝑒3 ) + 𝑓(𝑒4 ) = 0
y
𝑓(𝑒4 ) = 𝑦1 = 𝑒1 + 2𝑒2 + 3𝑒3 + 4𝑒4
Conocido el vector 𝑓(𝑒4 ) se despejan los vectores 𝑓(𝑒3 ), 𝑓(𝑒2 ), 𝑓(𝑒1 ) de las primeras tres expresiones
obteniendo
𝑓(𝑒3 ) = −𝑓(𝑒4 ) = −𝑒1 − 2𝑒2 − 3𝑒3 − 4𝑒4
𝑓(𝑒2 ) = −𝑓(𝑒3 ) − 𝑓(𝑒4 ) = 0
𝑓(𝑒1 ) = −𝑓(𝑒2 ) − 𝑓(𝑒3 ) − 𝑓(𝑒4 ) = 0
Y la matriz 𝐴 de la transformación lineal 𝑓 en la base canónica es
0 0 −1 1
0 0 −2 2
𝐴=
0 0 −3 3
[0 0 −4 4]

Ejercicio 5.10
Una matriz regular 𝑆 representa al mismo tiempo:
▪ un cambio de base en un espacio vectorial 𝐸, de la base 𝐵 a la base 𝐵′
▪ y una transformación lineal 𝑓 de 𝐸 en la base 𝐵.
¿Qué relación hay entre las componentes de un vector 𝑥 de 𝐸 en la base 𝐵′ y las componentes de su
imagen 𝑦 = 𝑓(𝑥) en la base 𝐵?

Solución
Se tiene, de una parte
𝑥𝐵 = 𝑆𝑥𝐵′
y, de otra parte
𝑦𝐵 = 𝑆𝑥𝐵
Luego
𝑦𝐵 = 𝑆𝑥𝐵 = 𝑆(𝑆𝑥𝐵′ ) = 𝑆 2 𝑥𝐵′

Ejercicio 5.11
Las ecuaciones de una cierta transformación lineal f de R3 vienen dadas por
𝛽1 = 𝛼1 + 𝑎𝛼2 + 𝑏𝛼3
𝛽2 = 𝑎𝛼1 + 𝛼2 + 𝛼3
𝛽3 = 𝑏𝛼1 + 𝛼2 + 𝛼3

Suescun, Insausti, Flaquer (2022) 215 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

en la base canónica. ¿Qué relación debe existir entre los parámetros 𝑎 y 𝑏 para que la imagen de 𝑓 tenga
dimensión dos?

Solución
Basta con imponer que dos sea el rango de la matriz 𝐴 que representa a 𝑓 en la base canónica. Veamos
1 𝑎 𝑏
𝐴 = [𝑎 1 1]
𝑏 1 1
Debe anularse el determinante de 𝐴 que vale −(𝑏 − 𝑎)2 . Luego debe ser 𝑏 = 𝑎.Trabajando por columnas
1 𝑎 𝑎 1 0 0
[𝑎 1 1] → ⋯ → [𝑎 1 − 𝑎2 0]
𝑎 1 1 𝑎 1 − 𝑎2 0
por lor que debe ser 𝑎 ≠ ±1. Definitivamente
𝑏 = 𝑎 ≠ ±1

Ejercicio 5.12
¿Es posible que se produzca la identidad 𝐼𝑚𝑓 = 𝑁𝑢𝑐𝑓 para una transformación lineal 𝑓 en un espacio
vectorial de dimensión impar?

Solución
No es posible, pues dim(𝐼𝑚𝑓) + dim(𝑁𝑢𝑐𝑓) = 𝑑𝑖𝑚𝐸. Si 𝐼𝑚𝑓 = 𝑁𝑢𝑐𝑓 con 𝑘 la dimensión de cualquiera
de los sos subespacio, se tendría
𝑑𝑖𝑚𝐸 = 2𝑘
contrariamente al hecho de que la dimensión de 𝐸 es impar.

Ejercicio 5.13
Proyectar el vector 𝑥 = (−1,1,2) de 𝑅3 sobre el subespacio vectorial 𝐹 generado por los vectores
(0,1,1), (1,0,1) paralelamente al subespacio vectorial 𝐺 generado por el vector (1,1,0).

Solución
Se trata de descomponer el vector 𝑥 como suma de un vector 𝑢 de 𝐹 (la proyección buscada) y otro 𝑣 de
𝐺 (la proyección sobre 𝐺 paralela a 𝐹). Veamos:
𝑥 = (−1,1,2) = 𝑢 + 𝑣 = (𝑎(0,1,1) + 𝑏(1,0,1)) + 𝑐(1,1,0)
de donde 𝑎 = 2, 𝑏 = 0, 𝑐 = −1 y de ahí que
𝑢 = 𝑎(0,1,1) + 𝑏(1,0,1) = 2(0,1,1) + 0(1,0,1) = (0,2,2)
es la proyección buscada.

Ejercicio 5.14
Estúdiese el rango de la matriz
𝑝2 𝑝𝑞 𝑝𝑟
𝐴 = [𝑞𝑝 𝑞2 𝑞𝑟 ]
𝑟𝑝 𝑟𝑞 𝑟2
en función de los parámetros 𝑝, 𝑞, 𝑟, sabiendo que 𝑝 ≠ 0 y que
𝑝+ 𝑞+ 𝑟=1

Solución
Sumando a la primera fila las demás, se tiene

Suescun, Insausti, Flaquer (2022) 216 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

𝑝(𝑝 + 𝑞 + 𝑟) 𝑞(𝑝 + 𝑞 + 𝑟) 𝑟(𝑝 + 𝑞 + 𝑟) 𝑝 𝑞 𝑟


[ 𝑞𝑝 𝑞2 𝑞𝑟 ] ~ [𝑞𝑝 𝑞2 𝑞𝑟]
𝑟𝑝 𝑟𝑞 𝑟2 𝑟𝑝 𝑟𝑞 𝑟2
Restando a la segunda fila la primera multiplicada por 𝑞 y restando a la tercera fila la primera multiplicada
por 𝑟 se obtiene la matriz
𝑝 𝑞 𝑟
[ 0 0 0]
0 0 0
que tiene el mismo rango que la matriz inicial (se han hecho operaciones elementales, las cuales respetan
el rango matricial) y ese rango es la unidad (la primera fila es no nula por ser 𝑝 ≠ 0). En definitiva, el rango
vale siempre la unidad.

Ejercicio 5.15
Pruébese la siguiente propiedad del rango matricial
𝑟(𝐴 + 𝐵) ≤ 𝑟(𝐴) + 𝑟(𝐵)

Solución
Se supone que las matrices 𝐴 y 𝐵 se pueden sumar. Se tiene
𝑟(𝐴 + 𝐵) = 𝑑𝑖𝑚(𝑅(𝐴 + 𝐵))
Nótese que si
𝑦 ∈ 𝑅(𝐴 + 𝐵) → ∃𝑥; 𝑦 = (𝐴 + 𝐵)𝑥 = 𝐴𝑥 + 𝐵𝑥 → 𝑦 ∈ 𝑅(𝐴) + 𝑅(𝐵)
Luego
𝑑𝑖𝑚(𝑅(𝐴 + 𝐵)) ≤ 𝑑𝑖𝑚(𝑅(𝐴) + 𝑅(𝐵)) =
𝑑𝑖𝑚(𝑅(𝐴)) + 𝑑𝑖𝑚(𝑅(𝐵)) − 𝑑𝑖𝑚(𝑅(𝐴)⋂𝑅(𝐵))
Y de ahí que
𝑑𝑖𝑚(𝑅(𝐴 + 𝐵)) ≤ 𝑑𝑖𝑚(𝑅(𝐴)) + 𝑑𝑖𝑚(𝑅(𝐵))
esto es
𝑟(𝐴 + 𝐵) ≤ 𝑟(𝐴) + 𝑟(𝐵)

Ejercicio 5.16
Pruébese las siguientes propiedades del rango matricial:
𝑟(𝐵𝐴) ≤ 𝑟(𝐵)
𝑟(𝐵𝐴) ≤ 𝑟(𝐴)

Solución
Si
𝑧 ∈ 𝑅(𝐵𝐴) → ∃𝑥; 𝑧 = (𝐵𝐴)𝑥 → ∃𝑦 = 𝐴𝑥, 𝑧 = 𝐵𝑦 → 𝑧 ∈ 𝑅(𝐵)
luego
𝑅(𝐵𝐴) ⊂ 𝑅(𝐵)
Esto es
𝑟(𝐵𝐴) ≤ 𝑟(𝐵)
Pero como
𝑟(𝐵𝐴) = 𝑟(𝐵𝐴)𝑇 = 𝑟(𝐴𝑇 𝐵𝑇 ) ≤ 𝑟(𝐴𝑇 ) = 𝑟(𝐴)
(se ha aplicado el resultado de la expresión inmediatamente anterior)

Suescun, Insausti, Flaquer (2022) 217 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

En definitiva,
𝑟(𝐵𝐴) ≤ 𝑟(𝐵) y 𝑟(𝐵𝐴) ≤ 𝑟(𝐴)
Y en forma abreviada
𝑟(𝐵𝐴) ≤ 𝑚í𝑛{𝑟(𝐵), 𝑟(𝐴)}

Ejercicio 5.17
Pruébense las siguientes propiedades de la equivalencia matricial
▪ 𝐴 es equivalente con 𝐴
▪ Si 𝐴 es equivalente con 𝐵, entonces 𝐵 es equivalente con 𝐴
▪ Si 𝐴 es equivalente con 𝐵, y 𝐵 es equivalente con 𝐶, entonces 𝐴 es equivalente con 𝐶

Solución
Suponiendo 𝐴 de tamaño 𝑚 × 𝑛 se tiene 𝐴 = 𝐼𝑚 −1 𝐴𝐼𝑛
Si 𝐵 = 𝑃 −1 𝐴𝑄, con 𝑃 y 𝑄 regulares, entonces 𝐴 = (𝑃 −1 )−1 𝐵𝑄−1
Si 𝐵 = 𝑃 −1 𝐴𝑄, y 𝐶 = 𝑅 −1 𝐵𝑆 con 𝑃, 𝑄 ,𝑅 y 𝑆 regulares, entonces
𝐶 = 𝑅−1 (𝑃 −1 𝐴𝑄)𝑆 = (𝑃𝑅)−1 𝐴(𝑄𝑆)

Ejercicio 5.18
Pruébese que si 𝑢 y 𝑣 son columnas no nulas, el rango de la matriz 𝐴 = 𝑢𝑣 𝑇 vale la unidad.

Solución
Por ser columnas no nulas, los rangos de 𝑢 y 𝑣 valen la unidad. Sabemos que el rango del producto de
matrices es menor o igual al rango de cada uno de sus factores (ver ejercicio 5.16), luego
𝑟(𝐴) = 𝑟(𝑢𝑣 𝑇 ) ≤ 𝑚í𝑛{ 𝑟(𝑢), 𝑟(𝑣 𝑇 ) } = 1
De otra parte, la matriz 𝐴 es no nula, pues si 𝛼𝑖 es un elemento no nulo de 𝑢 y 𝛽𝑗 es un elemento no nulo
de 𝑣 𝑇 , el elemento 𝑎𝑖𝑗 de 𝐴 es 𝑎𝑖𝑗 = 𝛼𝑖 𝛽𝑗 y por tanto no nulo. Luego
0 < 𝑟(𝐴)
Se tiene
0 < 𝑟(𝐴) ≤ 1
luego
𝑟(𝐴) = 1

Ejercicio 5.19
Pruébese que si la matriz 𝐵 es de tamaño 𝑚 × 𝑘 y la matriz 𝐶 es de tamaño 𝑘 × 𝑛, cumpliéndose 𝑟(𝐵) =
𝑟(𝐶) = 𝑘, entonces la matriz 𝐴 = 𝐵𝐶, que es de tamaño 𝑚 × 𝑛, también es de rango 𝑘

Solución
La matriz 𝐵 se puede transformar por filas en la matriz
𝐼𝑘
𝐹𝐵 = [𝑂 ]
(𝑚−𝑘)×𝑘

mediante una matriz regular 𝐹; de otra parte, la matriz 𝐶 se puede transformar por columnas en la matriz
𝐶𝐺 = [𝐼𝑘 𝑂𝑘×(𝑛−𝑘) ]
mediante una matriz regular 𝐺. Como las operaciones elementales por filas y columnas respetan el rango
matricial se tiene

Suescun, Insausti, Flaquer (2022) 218 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

𝑟(𝐴) = 𝑟(𝐵𝐶) = 𝑟(𝐹𝐵𝐶𝐺)


𝐼𝑘 𝐼𝑘 𝑂𝑘×(𝑛−𝑘)
= 𝑟 ([𝑂 ] [𝐼𝑘 𝑂𝑘×(𝑛−𝑘) ]) = 𝑟 ([ ]) = 𝑘
(𝑚−𝑘)×𝑘 𝑂(𝑚−𝑘)×𝑘 𝑂(𝑚−𝑘)×(𝑛−𝑘)

Ejercicio 5.20
Se investiga si la matriz 𝐴𝑚×𝑛 = 𝑢𝑣 𝑇 , con 𝑢 y 𝑣 columnas no nulas, tiene inversas por la izquierda o por
la derecha suponiendo 𝑚 y 𝑛 mayores que la unidad.

Solución
La matriz 𝐴 no puede tener ninguna clase de inversa pues su rango vale la unidad (ver ejercicio 5.18) y es
menor que el número 𝑛 de columnas y que el número 𝑚 de filas.

Ejercicio 5.21
El sistema de ecuaciones 𝐴𝑥 = 𝑏 dado por
1−𝜆 1 1 𝛼1 1
[ 1 1−𝜆 1 ] [𝛼2 ] = [ 𝜆 ]
1 1 1 − 𝜆 𝛼3 𝜆2
depende del parámetro real 𝜆. Discutir el sistema usando la noción de rango matricial.

Solución
Se tiene 𝑟(𝐴) = 1 si 𝜆 = 0 y 𝑟(𝐴) = 2 si 𝜆 = 3. En el primer caso 𝑟([𝐴 𝑏]) = 1, luego se trata de un
sistema compatible indeterminado con dos parámetros libres en el conjunto de soluciones; en el segundo
caso 𝑟([𝐴 𝑏]) = 3, luego se trata de un sistema incompatible.

Ejercicio 5.22
Hallar la matriz de proyección 𝑃 de los vectores de 𝑅3 sobre 𝐹 paralelamente a 𝐺, con los datos del
problema 5.13.

Solución
Si hallamos las proyecciones de los vectores de la base canónica, siguiendo el modo de hacer del ejercicio
5.13, se obtienen los vectores
(0.5, −0.5, 0), (−0.5, 0.5, 0), (0.5, 0.5, 1)
luego

1 1 −1 1
𝑃 = [−1 1 1]
2
0 0 2

Ejercicio 5.23
Hállese la matriz 𝐴 de la transformación lineal 𝑓 de 𝑅3 en la base canónica sabiendo que se cumple
𝑓(𝑒1 ) = 𝑓(𝑒1 + 𝑒2 ) = 𝑓(𝑒1 + 𝑒2 + 𝑒3 ) = (1, 1, 1)

Solución
De las identidades del enunciado se obtienen las imágenes de los vectores de la base canónica del
siguiente modo:
𝑦1 = 𝑓(𝑒1 ) = (1, 1, 1)
𝑦2 = 𝑓(𝑒2 ) = 𝑓(𝑒1 + 𝑒2 ) − 𝑓(𝑒1 ) = (0, 0, 0)
𝑦3 = 𝑓(𝑒3 ) = 𝑓(𝑒1 + 𝑒2 + 𝑒3 ) − 𝑓(𝑒1 + 𝑒2 ) = (0, 0, 0)
Recordando que las columnas de 𝐴 son precisamente las componentes de las imágenes de los vectores
de la base canónica expresados en la misma base canónica, se llega finalmente a

Suescun, Insausti, Flaquer (2022) 219 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

1 0 0
𝐴 = [𝑓]𝐵𝑐 = [𝑦1 𝐵𝑐 𝑦2 𝐵
𝑐
𝑦3 𝐵 ] = [1
𝑐 0 0]
1 0 0

Ejercicio 5.24
De una aplicación lineal 𝑓: 𝑅2 → 𝑅3 se conoce:
𝑥1 = ( 1, 1 ) → 𝑓(𝑥1 ) = 𝑓( 1, 1 ) = (3,1,4)
𝑥2 = (1, −1) → 𝑓(𝑥2 ) = 𝑓(1, −1) = (−1,3,2)
Determinar la matriz 𝐴 que la representa en las bases canónicas de ambos espacios.

Solución
Se necesita encontrar las imágenes de los vectores 𝑒1 y 𝑒2 de 𝑅2 . Nótese que:
1 1 1 1
𝑥1 = 𝑒1 + 𝑒2 𝑒1 = 2𝑥1 + 2𝑥2 𝑓(𝑒1 ) = 2𝑓(𝑥1 ) + 2𝑓(𝑥2 ) = (1, 2, 3)
→ 1 1 → 1 1
𝑥2 = 𝑒1 − 𝑒2 𝑒1 = 2𝑥1 − 2𝑥2 𝑓(𝑒2 ) = 2𝑓(𝑥1 ) − 2𝑓(𝑥2 ) = (2, −1,1)

Y, por lo tanto
1 2
𝐴 = [2 −1]
3 1

Ejercicio 5.25
Sea 𝑓 la transformación lineal de 𝑅3 que cumple:
𝑓(𝑒1 ) = 𝑓(𝑒2 ) = 𝑓(𝑒3 ) = (2, 2, 1)
siendo 𝑒1 , 𝑒2 , 𝑒3 los vectores de la base canónica del 𝑅3 . Calcular la matriz 𝐴 que representa a la
transformación lineal 𝑓 en la siguiente base de 𝑅3 :
𝐵 = 𝑒1 , 𝑒1 + 𝑒2 , 𝑒2 + 𝑒3

Solución
De las identidades del enunciado se obtienen las imágenes de los vectores de la base 𝐵 del siguiente
modo:
1
𝑦1 = 𝑓(𝑒1 ) = (2, 2, 1) = 1(𝑒1 ) + 1(𝑒1 + 𝑒2 ) + 1(𝑒2 + 𝑒3 ) → 𝑦1 𝐵 = [1]
1
2
𝑦2 = 𝑓(𝑒1 + 𝑒2 ) = 𝑓(𝑒1 ) + 𝑓(𝑒2 ) = (4, 4, 2) → 𝑦2 𝐵 = [2]
2
2
𝑦3 = 𝑓(𝑒2 + 𝑒3 ) = 𝑓(𝑒2 ) + 𝑓(𝑒3 ) = (4, 4, 2) → 𝑦3 𝐵 = [2]
2
Recordando que las columnas de 𝐴 son precisamente las componentes de las imágenes de los vectores
de la base expresados en la misma base, se llega finalmente a
1 2 2
𝐴 = [𝑓]𝐵 = [𝑦1 𝐵 𝑦2 𝐵 𝑦3 𝐵 ] = [1 2 2]
1 2 2

Ejercicio 5.26
Dada la siguiente matriz
0 1 −1
𝐴=[ ]
1 0 −1
determinar una base de 𝑁(𝐴) otra de 𝑅(𝐴) y su rango.

Suescun, Insausti, Flaquer (2022) 220 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

Solución
Se observa a simple vista que las dos primeras columnas de 𝐴 son independientes por lo que
0 1
𝐵𝑅(𝐴) = [ ] , [ ]
1 0
Y, por tanto su rango
𝑟(𝐴) = 2
En cuanto al núcleo, basta con resolver 𝐴𝑥 = 0
𝛼1 = 𝜖
𝑁(𝐴) = { 𝛼2 = 𝜖
𝛼3 = 𝜖
y, por lo tanto
1
𝐵𝑁(𝐴) = [ 1 ]
1

Ejercicio 5.27
Determinar una base del núcleo y otra de la imagen de 𝐴 así como su rango:
−1 −1 2
𝐴 = [ −1 2 −1]
2 −1 −1

Solución
Aprovechando que las operaciones elementales por filas respetan el carácter lineal de las columnas de la
matriz, se resuelve 𝐴𝑥 = 0 para calcular todo lo pedido:

−1 −1 2 0 0 0 0 0 0 0 0 0
[ −1 2 −1 | 0 ] → [ −1 2 |
−1 0 ] → [ −1 2 −1 | 0 ] → ⋯
2 −1 −1 0 2 −1 −1 0 0 3 −3 0
𝛼1 = 𝜖 1
→ 𝑁(𝐴) = { 𝛼2 = 𝜖 → 𝐵𝑁(𝐴) = [ 1 ]
𝛼3 = 𝜖 1
Así mismo, el rango es 2, pues hay dos pívots, y las columnas primera y segunda de 𝐴 forman una base de
𝑅(𝐴):
−1 −1
𝐵𝑅(𝐴) = [ −1] , [ 2]
2 −1

Ejercicio 5.28
Determinar una base del núcleo y otra de la imagen de 𝐴 así como su rango:
1 1 −2
𝐴 = [1 −2 4]
1 1 −2

Solución
Aprovechando que las operaciones elementales por filas respetan el carácter lineal de las columnas de la
matriz, se resuelve 𝐴𝑥 = 0 para calcular todo lo pedido:
1 1 −2 0 1 1 −2 0 𝛼1 = 0 0
[1 −2 4|0] → [0 −3 6 | 0 ] → 𝑁(𝐴) = { 𝛼2 = 2𝜖 → 𝐵𝑁(𝐴) = [ 2 ]
1 1 −2 0 0 0 0 0 𝛼3 = 𝜖 1
Así mismo, el rango es 2, pues hay dos pívots, y las columnas primera y segunda de 𝐴 forman una base de
𝑅(𝐴):

Suescun, Insausti, Flaquer (2022) 221 Tecnun-Universidad de Navarra


5.17 Ejercicios resueltos 5 Aplicaciones Lineales

1 1
𝐵𝑅(𝐴) = [ 1] , [ −2]
1 1

Ejercicio 5.29
Determinar una base de la intersección de la imagen de la matriz 𝐴 con el núcleo de la matriz 𝐵, siendo
2 1
0 −1 1 −1 1 −1
𝐴=[ ] 𝐵=[ ]
2 1 −1 1 −1 1
0 −1

Solución
Ecuaciones paramétricas de 𝑅(𝐴) son:
2 1 𝛼1 = 2𝜆1 + 𝜆2
0 −1 𝛼 = −𝜆2
𝐵𝑅(𝐴) = [ ],[ ] → 𝑅(𝐴) ≡ { 2
2 1 𝛼3 = 2𝜆1 + 𝜆2
0 −1 𝛼4 = −𝜆2
Ecuaciones implícitas de 𝑁(𝐵) (eliminando la ecuación redundante):
𝐵𝑥 = 0 → 𝑁(𝐵) ≡ {𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 0
Para encontrar 𝑅(𝐴) ∩ 𝑁(𝐵) se introducen la paramétricas de 𝑅(𝐴) en las implícitas de 𝑁(𝐵)
(2𝜆1 + 𝜆2 ) − (−𝜆2 ) + (2𝜆1 + 𝜆2 ) − (−𝜆2 ) = 0
𝜆1 = −𝛿
4𝜆1 + 4𝜆2 = 0 → {
𝜆2 = 𝛿
Y, por tanto
𝛼1 = −𝛿 1
𝛼 = −𝛿 1
𝑅(𝐴) ∩ 𝑁(𝐵) ≡ { 2 → 𝐵𝑅(𝐴)∩𝑁(𝐵) = [ ]
𝛼3 = −𝛿 1
𝛼4 = −𝛿 1

Ejercicio 5.30
La matriz 𝐴 representa una transformación lineal:
0 0
𝐴=[ ]
0 1
Estúdiese si es directa la suma de los subespacios vectoriales 𝑁(𝐴) y 𝑅(𝐴) de la matriz 𝐴.

Solución
Una base del subespacio imagen 𝑅(𝐴), que está generado por las columnas de la matriz 𝐴, es:
0
𝐵𝑅(𝐴) = [ ]
1
Una base del subespacio 𝑁(𝐴) se obtiene resolviendo la ecuación 𝐴𝑥 = 0:
0 0 𝛼1 = 𝜀 1
[ ] → { 𝛼 = 0 → 𝐵𝑁(𝐴) = [ ]
0 1 2 0
Una base del subespacio suma 𝑁(𝐴) + 𝑅(𝐴) se obtiene uniendo las bases de los subespacios sumandos
y eliminando los vectores combinación lineal de los demás. En este caso no sobra ningún vector por lo
que:
0 1
𝐵𝑁(𝐴)+𝑅(𝐴) = 𝐵𝑁(𝐴) , 𝐵𝑅(𝐴) = [ ] , [ ]
1 0
y la suma es directa. Nótese que, al ser:
dim 𝑁(𝐴) ⊕ 𝑅(𝐴) = 2 = dim 𝑅2×1

Suescun, Insausti, Flaquer (2022) 222 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.17 Ejercicios resueltos

se concluye que la suma llena el espacio:


𝑅2×1 = 𝑁(𝐴) ⊕ 𝑅(𝐴)

Ejercicio 5.31
La siguiente matriz 𝐴 representa una transformación lineal.
1 −1 1
𝐴 = [−1 1 −1 ]
1 −1 1
¿Es directa la suma de los sus subespacios núcleo e imagen? i.e. ¿Es 𝑁(𝐴) ⊕ 𝑅(𝐴)?

Solución
Es evidente que
1
𝐵𝑅(𝐴) = [ −1 ]
1
Por otra lado, resolviendo 𝐴𝑥 = 0
1 −1 1 0 1 −1 1 0 𝛼1 = 𝜖1 − 𝜖2
[ −1 1 −1 | 0 ] → [ 0 0 0 | 0 ] → 𝑁(𝐴) = { 𝛼2 = 𝜖1
1 −1 1 0 0 0 0 0 𝛼3 = 𝜖 2
−1 1
𝐵𝑁(𝐴) = [ 0],[ 1]
1 0
La suma es directa ya que uniendo las bases se obtiene una base de la suma. Se demuestra que las dos
bases juntas forman una lista independiente:
1 −1 1 1 0 0 1 0 0 1 0 0
−1 0 1 → −1 −1 2 → −1 −1 2 → −1 −1 0
⏟ 1 ⏟1 0 1 2 −1 1 2 −1 ⏟1 2 3
⏟𝑅(𝐴)
𝐵 𝐵𝑁(𝐴) 𝐿𝐼
𝐵𝑁(𝐴)+𝑅(𝐴)

Suescun, Insausti, Flaquer (2022) 223 Tecnun-Universidad de Navarra


5.18 Ejercicios propuestos 5 Aplicaciones Lineales

Ejercicios propuestos

Ejercicio 5.32
Siendo 𝐹 y 𝐺 subespacios vectoriales de 𝐸, se define el espacio producto 𝐹 × 𝐺 como el espacio vectorial
formado por los pares de vectores (𝑢, 𝑣), donde 𝑢 pertenece a 𝐹 y 𝑣 pertenece a 𝐺. Las operaciones en
ese espacio están dadas por
(𝑢, 𝑣) + (𝑢′ , 𝑣 ′ ) = (𝑢 + 𝑢, 𝑣´ + 𝑣 ′ )
𝛼. (𝑢, 𝑣) = (𝛼. 𝑢, 𝛼. 𝑣)
Se considera la aplicación lineal 𝑓 de 𝐹 × 𝐺 en 𝐸, con 𝐹 ∩ 𝐺 = {0}, definida por
𝑓(𝑢, 𝑣) = 𝑢 + 𝑣
Demuéstrese que 𝑓 es un isomorfismo lineal de 𝐹 × 𝐺 en 𝐹⨁𝐺.

Ejercicio 5.33
Estúdiese el núcleo de la transformación lineal f de 𝑅2 definida por
𝑓(𝛼, 𝛽) = (𝑎𝛼 + 𝑏𝛽, 𝑏𝛼 + 𝑎𝛽)
en función de los parámetros reales 𝑎 y 𝑏. Indíquese cuándo 𝑓 es un automorfismo de 𝑅2 .

Ejercicio 5.34
Una transformación lineal 𝑓 de 𝑅2 transforma los vectores (1,1), (0,1) en los vectores (3,2), (4,6),
respectivamente. Hállese la matriz 𝐴 que representa a 𝑓 en la base (1,1), (2,3).

Ejercicio 5.35
Se considera el subespacio 𝐹 de 𝑅3×3 formado por las matrices de la forma
𝛼 0 𝛽
𝐴𝛼,𝛽 = [ 0 𝛼 0]
0 0 𝛼
y la transformación lineal 𝑓 de 𝐹 definida por
𝑓(𝐴𝛼,𝛽 ) = 𝐴𝛽,𝛼
Pruébese la linealidad de 𝑓 y hállese la matriz de 𝑓 en una base conveniente de 𝐹.

Ejercicio 5.36
¿Representan la misma transformación lineal de 𝑅3×1 , en bases diferentes, las matrices
1 1 1 0 1 0
𝐴 = [1 1 1] y 𝐵 = [0 0 1]?
1 1 1 0 0 0
Justifíquese la contestación.

Ejercicio 5.37
Estúdiese la dimensión del núcleo y de la imagen de la transformación lineal 𝑓 de 𝑅𝑛×1 definida por las
expresiones
𝑓(𝑒𝑖 ) = 𝑒1 + 𝑒𝑖 , 𝑖 = 1,2, … , 𝑛

Ejercicio 5.38
Hállese el rango de la matriz particionada por bloques
𝐼𝑛 𝑢
𝐴=[ ]
𝑢𝑇 𝛼
donde 𝑢 es una columna de 𝑛 unos y 𝛼 un número real.

Suescun, Insausti, Flaquer (2022) 224 Tecnun-Universidad de Navarra


5 Aplicaciones Lineales 5.18 Ejercicios propuestos

Ejercicio 5.39
Estúdiese, en función del parámetro real 𝛼, el rango de la matriz
1 𝛼 0
𝐴 = [𝛼 1 𝛼]
0 𝛼 1

Ejercicio 5.40
Partiendo de la desigualdad de Sylvester
𝑟(𝐴) + 𝑟(𝐵) − 𝑛 ≤ 𝑟(𝐴𝐵)
siendo 𝐴 y 𝐵 matrices cuadradas de orden 𝑛, pruébese que si 𝐶 es una matriz cuadrada de orden 𝑛 que
cumple 𝐶 2 = 𝑂𝑛 , entonces 𝑟𝑎𝑛𝑔𝑜(𝐶) ≤ 𝑛/2

Ejercicio 5.41
Pruébese que si dos matrices 𝐴 y 𝐵 son semejantes, también lo son sus traspuestas.

Ejercicio 5.42
Estúdiese, mediante el rango, si tiene alguna clase de inversa la matriz
1 0
𝐴 = [1 1]
1 1

Ejercicio 5.43
Mediante el estudio del rango, analizar si tiene solución y, en su caso, si la solución es única para el sistema
siguiente, con 𝑎 ≠ 0.
0 𝑎 𝑎 𝛼1 𝑎
[𝑎 0 𝑎 ] [𝛼2 ] = [𝑎]
𝑎 𝑎 0 𝛼3 𝑎

Ejercicio 5.44
Hállese en 𝑅3 la proyección del vector 𝑥 = (4, 5, 12) sobre el subespacio generado por el vector 𝑢 =
(1, 1, 1) paralelamente al subespacio generado por los dos vectores siguientes: 𝑣 = (3, 2, 1), 𝑤 =
(−1, 0, 3)

Ejercicio 5.45
Hállese la matriz de proyección del ejercicio anterior en las bases canónicas.

Ejercicio 5.46
Sea 𝑓 la transformación lineal de 𝑅2 que transforma los vectores (1,1), (0,1) en los vectores (3,2), (4,6),
respectivamente. Sea 𝑔 la transformación lineal de 𝑅2 definida por
𝑔(𝛼, 𝛽) = (𝛼 + 𝛽, 𝛼 − 𝛽)
Hállese la matriz que representa a la aplicación 𝑔 ∘ 𝑓 en la base canónica de 𝑅2 .

Suescun, Insausti, Flaquer (2022) 225 Tecnun-Universidad de Navarra


5.18 Ejercicios propuestos 5 Aplicaciones Lineales

Suescun, Insausti, Flaquer (2022) 226 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar

El producto escalar dota a los espacios vectoriales de una nueva operación que permite introducir, los
conceptos de ortogonalidad, norma, ángulo y distancia, tan vinculados a las cuestiones geométricas.

Se verá en este capítulo cómo trabajar con espacios con producto escalar, la importancia de referir los
vectores a una base ortonormal, cómo conseguir una base ortonormal, y cómo proyectar
ortogonalmente un vector sobre un subespacio vectorial. También se presentará el método de Gram-
Schmidt para obtener una base ortonormal.

Suescun, Insausti, Flaquer (2022) 227 Tecnun-Universidad de Navarra


6.1 Producto escalar 6 Espacios con Producto Escalar

Producto escalar

Sea 𝐸 un espacio vectorial sobre 𝐾, siendo 𝐾 el cuerpo 𝑅 de los números reales o bien el cuerpo 𝐶 de los
números complejos.
Se define una nueva operación, llamada producto escalar, que asocia a un par de vectores (𝑥, 𝑦)
cualesquiera, un escalar de 𝐾 denotado por 〈𝑥, 𝑦〉, y que se lee “producto escalar de 𝑥 por 𝑦”:
〈∙,∙〉 ∶ 𝐸 × 𝐸 → 𝐾

(𝑥, 𝑦) → 〈𝑥, 𝑦〉
La figura 6.1 ilustra esta definición.

𝐸
𝑛
𝑥

𝐾
0 1 〈𝑥, 𝑦〉

Figura 6.1: Producto escalar. El producto escalar de dos vectores 𝑥 e 𝑦 del espacio 𝐸 es un escalar de 𝐾.

cumpliéndose las siguientes propiedades:

Propiedades del producto escalar


1) 〈𝑥, 𝛼. 𝑦 + 𝛽. 𝑦′〉 = 𝛼〈𝑥, 𝑦〉 + 𝛽〈𝑥, 𝑦′〉 Sesquilinealidad
2) 〈𝑦, 𝑥〉 = ̅̅̅̅̅̅̅
〈𝑥, 𝑦〉 Simetría hermítica
3) 〈𝑥, 𝑥〉 ≥ 0, ∀𝑥 ∈ 𝐸 Definición positiva
4) 〈𝑥, 𝑥〉 = 0 ↔ 𝑥 = 0

Con la nueva operación, el espacio vectorial 𝐸 pasa a tener estructura de espacio con producto escalar.
Es importante destacar que la propiedad 3) indica que 〈𝑥, 𝑥〉 es siempre un número real no negativo.
Por otro lado, de la combinación de las propiedades 1) y 2) se deduce que
〈𝑦, 𝛼. 𝑥 + 𝛽. 𝑥 ′ 〉 = ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅
〈𝛼. 𝑥 + 𝛽. 𝑥 ′ , y〉 = ̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅̅ 𝛼〈𝑦, 𝑥〉 + ̅̅̅̅̅̅̅̅̅
𝛼〈𝑦, 𝑥〉 + 𝛽〈𝑦, 𝑥′〉 = ̅̅̅̅̅̅̅̅̅ 𝛽〈𝑦, 𝑥′〉 = 𝛼̅〈𝑥, 𝑦〉 + 𝛽̅ 〈𝑥′, 𝑦〉
es decir, el producto escalar es lineal por la derecha y lineal conjugado por la izquierda.
Obsérvese que si el espacio vectorial es real (𝐾 = 𝑅), la propiedad 2) indica que el producto escalar es
simétrico 〈𝑥, 𝑦〉 = 〈𝑦, 𝑥〉, y por tanto, es lineal tanto por la derecha como por la izquierda.
Por último, cabe destacar que en un mismo espacio vectorial pueden definirse múltiples productos
escalares y no uno único.

Suescun, Insausti, Flaquer (2022) 228 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.2 Ortogonalidad

Ejemplo 6.1
La expresión
〈𝑥, 𝑦〉 = 𝑥 𝐻 𝑦
define un producto escalar, llamado ordinario, en el espacio vectorial complejo de matrices columna
𝐶 𝑛×1 . Se deja como ejercicio probar que se cumplen las propiedades 1-4 de la definición.

Ejemplo 6.2
La expresión
〈𝑥, 𝑦〉 = 𝑥 𝑇 𝑦
define un producto escalar, llamado ordinario, en el espacio vectorial real de matrices columna 𝑅𝑛×1 . Se
deja como ejercicio probar que se cumplen las propiedades 1-4 de la definición.

Ejemplo 6.3
En el espacio vectorial real de polinomios de grado a lo sumo 𝑝, 𝑅𝑝 [𝑡], la expresión
𝑏
〈𝑞(𝑡), 𝑟(𝑡)〉 = ∫ 𝑞(𝑡)𝑟(𝑡)𝑑𝑡
𝑎

define un producto escalar para todo 𝑎 < 𝑏. Se deja como ejercicio probar que se cumplen las
propiedades 1-4 de la definición.

Ejemplo 6.4
En el espacio vectorial real de matrices de tamaño 𝑚 × 𝑛, 𝑅𝑚×𝑛 , la expresión
〈𝐴, 𝐵〉 = 𝑡𝑟𝑎𝑧𝑎(𝐴⊤ 𝐵)
define un producto escalar. Se deja como ejercicio probar que se cumplen las propiedades 1-4 de la
definición

Ortogonalidad

En un espacio vectorial 𝐸 con producto escalar, el vector 𝑥 es ortogonal al vector 𝑦, si


〈𝑥, 𝑦〉 = 0
y se denota con 𝑥 ⊥ 𝑦.

Propiedades de la ortogonalidad
1) Si 𝑥 ⊥ 𝑦, entonces 𝑦 ⊥ 𝑥, ∀𝑥, 𝑦 ∈ 𝐸.
2) Si 𝑥 ⊥ 𝑥, entonces 𝑥 = 0, es decir, el vector nulo es el único vector ortogonal a sí mismo.
3) 0 ⊥ 𝑥 ∀𝑥 ∈ 𝐸, es decir, el vector nulo es ortogonal a todos los vectores del espacio, incluido
él mismo.

Se dice que la lista 𝑢1 , 𝑢2 , … , 𝑢𝑘 de 𝐸 es una lista ortogonal si para todo 𝑖 ≠ 𝑗


〈𝑢𝑖 , 𝑢𝑗 〉 = 0,
esto es, si son ortogonales entre sí cualquier par de vectores de esa lista.

Suescun, Insausti, Flaquer (2022) 229 Tecnun-Universidad de Navarra


6.3 Norma inducida 6 Espacios con Producto Escalar

Proposición 6.1
Enunciado: Toda lista ortogonal de vectores no nulos es linealmente independiente.
Demostración: Sea 𝑢1 , 𝑢2 , … , 𝑢𝑘 una lista ortogonal de vectores no nulos de 𝐸. Planteada la ecuación
vectorial
𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 + ⋯ + 𝛼𝑘 . 𝑢𝑘 = 0
multiplicando escalarmente miembro a miembro por 𝑢𝑖 se tiene
〈𝑢𝑖 , 𝛼1 . 𝑢1 + 𝛼2 . 𝑢2 … + 𝛼𝑘 . 𝑢𝑘 〉 = 〈𝑢𝑖 , 0〉 = 0,
y, por tanto,
𝛼1 〈𝑢𝑖 , 𝑢1 〉 + 𝛼2 〈𝑢𝑖 , 𝑢2 〉 + ⋯ + 𝛼𝑖 〈𝑢𝑖 , 𝑢𝑖 〉 + ⋯ + 𝛼𝑘 〈𝑢𝑖 , 𝑢𝑘 〉 = 0,
es decir,
𝛼𝑖 〈𝑢𝑖 , 𝑢𝑖 〉 = 0.
Pero por ser 𝑢𝑖 no nulo, 〈𝑢𝑖 , 𝑢𝑖 〉 ≠ 0, luego 𝛼𝑖 = 0. Siendo esto verdad para todo valor de 𝑖, se concluye
que la lista 𝑢1 , 𝑢2 , … , 𝑢𝑘 es linealmente independiente.

Se llama base ortogonal a una base de un subespacio vectorial de 𝐸 cuyos vectores forman una lista
ortogonal.

Ejemplo 6.5
3 −4
Las columnas 𝑢1 = [ ] , 𝑢2 = [ ] forman una base ortogonal de 𝑅2×1 respecto del producto escalar
4 3
ordinario, pues siendo no nulas se cumple

〈𝑢1 , 𝑢2 〉 = 𝑢1 𝑇 𝑢2 = [3 −4
4] [ ] = 0.
3

Ejemplo 6.6
Los polinomios 𝑞1 (𝑡) = 𝑡, 𝑞2 (𝑡) = 2 − 3𝑡 definidos en el intervalo [0,1] forman una base ortogonal de
𝑅1 [𝑡] respecto del producto escalar ordinario entre polinomios, ya que

𝑏 1
〈𝑞1 (𝑡), 𝑞2 (𝑡)〉 = ∫𝑎 𝑞1 (𝑡)𝑞2 (𝑡)𝑑𝑡 = ∫0 𝑡(2 − 3𝑡)𝑑𝑡 = 0.

Norma inducida

Dado el espacio 𝐸 con producto escalar se define la norma ‖𝑥‖ de un vector 𝑥 cualquiera de 𝐸 inducida
por el producto escalar mediante

‖𝑥‖ = √〈𝑥, 𝑥〉.


Nótese que la norma inducida está siempre bien definida ya que 〈𝑥, 𝑥〉 ≥ 0, ∀𝑥 ∈ 𝐸. Habitualmente, se
emplea por conveniencia el cuadrado de la norma inducida
‖𝑥‖2 = 〈𝑥, 𝑥〉.

Proposición 6.2: Desigualdad de Cauchy -Schwarz


Enunciado: Sea 𝐸 un espacio vectorial con producto escalar y ‖⋅‖ la norma inducida por ese producto
escalar. Entonces,
|〈𝑥, 𝑦〉| ≤ ‖𝑥‖‖𝑦‖ ∀𝑥, 𝑦 ∈ 𝐸.

Suescun, Insausti, Flaquer (2022) 230 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.3 Norma inducida

Demostración: La desigualdad es evidente cuando 〈𝑥, 𝑦〉 = 0. Si 〈𝑥, 𝑦〉 ≠ 0 y 𝛼 es un escalar cualquiera,


se construye el vector 𝑧 = 𝑥 + 𝛼. 𝑦, dependiente de 𝛼, con el que se puede escribir
0 ≤ ‖𝑧‖2 = ‖𝑥 + 𝛼. 𝑦 ‖2 = 〈𝑥 + 𝛼. 𝑦 , 𝑥 + 𝛼. 𝑦 〉

= 〈𝑥, 𝑥〉 + 𝛼〈𝑥, 𝑦〉 + 𝛼
̅ 〈𝑦, 𝑥〉 + 𝛼̅ 𝛼〈𝑦, 𝑦〉

̅ ̅̅̅̅̅̅
= ‖𝑥‖2 + 𝛼〈𝑥, 𝑦〉 + 𝛼 〈𝑥, 𝑦〉 + 𝛼̅ 𝛼‖𝑦‖2

= ‖𝑥‖2 + 𝛼〈𝑥, 𝑦〉 + ̅̅̅̅̅̅̅̅ ̅ 𝛼‖𝑦‖2


𝛼〈𝑥, 𝑦〉 + 𝛼
Tomando como valor particular de 𝛼
‖𝑥‖2
𝛼=−
〈𝑥, 𝑦〉
se tiene
‖𝑥‖4
0 ≤ ‖𝑥‖2 − 2‖𝑥‖2 + ‖𝑦‖2
|〈𝑥, 𝑦〉|2
de donde dividiendo por ‖𝑥‖2 (Nótese que por ser 〈𝑥, 𝑦〉 ≠ 0 es 𝑥 ≠ 0 y, por tanto, ‖𝑥‖2 ≠ 0)
‖𝑥‖2
0 ≤ −1 + ‖𝑦‖2
|〈𝑥, 𝑦〉|2
y de ahí
|〈𝑥, 𝑦〉|2 ≤ ‖𝑥‖2 ‖𝑦‖2
y si se extrae la raíz cuadrada positiva miembro a miembro, se llega a la desigualdad pedida
|〈𝑥, 𝑦〉| ≤ ‖𝑥‖‖𝑦‖

Además de la desigualdad de Cauchy-Schwarz, la norma inducida verifica las siguientes propiedades:

Proposición 6.3: Propiedades de la norma inducida


Enunciado: Sea 𝐸 un espacio vectorial con producto escalar. La norma ‖⋅‖ inducida por ese producto
escalar verifica:
1) ‖𝑥‖ ≥ 0, ∀𝑥 ∈ 𝐸 Definición positiva
2) ‖𝑥‖ = 0 ↔ 𝑥 = 0
3) ‖𝛼. 𝑥‖ = |𝛼|‖𝑥‖ Norma del producto por un escalar
4) ‖𝑥 + 𝑥′‖ ≤ ‖𝑥‖ + ‖𝑥′‖ Desigualdad triangular

Demostración: Sean 𝑥, 𝑥 ∈ 𝐸 dos vectores cualesquiera y 𝛼 ∈ 𝐾 un escalar cualquiera.

1) ‖𝑥‖ = √〈𝑥, 𝑥〉 ≥ 0.
2) ‖𝑥‖ = 0 ↔ 〈𝑥, 𝑥〉 = 0 ↔ 𝑥 = 0.

3) ‖𝛼. 𝑥‖ = √〈𝛼. 𝑥, 𝛼. 𝑥〉 = √𝛼̅𝛼〈𝑥, 𝑥〉 = √|𝛼|2 ‖𝑥‖2 = |𝛼|‖𝑥‖.


4) Recuérdese que si 𝑧 ∈ 𝐶 es un número complejo cualquiera, se cumple que 𝑅𝑒(𝑧) ≤ |𝑧|.
Empleando la desigualdad de Cauchy-Schwarz se tiene

Suescun, Insausti, Flaquer (2022) 231 Tecnun-Universidad de Navarra


6.4 Ángulo entre dos vectores 6 Espacios con Producto Escalar

‖𝑥 + 𝑥 ′ ‖ = √〈𝑥 + 𝑥 ′ , 𝑥 + 𝑥 ′ 〉 = √〈𝑥, 𝑥〉 + 〈𝑥, 𝑥 ′ 〉 + 〈𝑥 ′ , 𝑥〉 + 〈𝑥 ′ , 𝑥 ′ 〉

= √‖𝑥‖2 + 〈𝑥, 𝑥 ′ 〉 + ̅̅̅̅̅̅̅̅


〈𝑥, 𝑥 ′ 〉 + ‖𝑥 ′ ‖2 = √‖𝑥‖2 + 2𝑅𝑒(〈𝑥, 𝑥 ′ 〉) + ‖𝑥 ′ ‖2

≤ √‖𝑥‖2 + 2|〈𝑥, 𝑥 ′ 〉| + ‖𝑥 ′ ‖2

≤ √‖𝑥‖2 + 2‖𝑥‖‖𝑥 ′ ‖ + ‖𝑥 ′ ‖2 = √(‖𝑥‖ + ‖𝑥 ′ ‖)2 = ‖𝑥‖ + ‖𝑥′‖


Ángulo entre dos vectores

Partiendo de la desigualdad de Cauchy-Schwarz


|〈𝑥, 𝑦〉| ≤ ‖𝑥‖‖𝑦‖
y teniendo en cuenta que Re(𝑧) ≤ |𝑧| ∀𝑧 ∈ 𝐶
|Re(〈𝑥, 𝑦〉)| ≤ |〈𝑥, 𝑦〉| ≤ ‖𝑥‖‖𝑦‖
se tiene
−‖𝑥‖‖𝑦‖ ≤ Re(〈𝑥, 𝑦〉) ≤ ‖𝑥‖‖𝑦‖
Para vectores no nulos 𝑥 e 𝑦
Re(〈𝑥, 𝑦〉)
−1 ≤ ≤1
‖𝑥‖‖𝑦‖
y por tanto, se define el ángulo 𝜃 entre dos vectores no nulos 𝑥 e 𝑦, en un espacio vectorial con producto
escalar, como

Re(〈𝑥, 𝑦〉)
cos 𝜃 = (𝜃 ∈ [0, 𝜋]) (6.1)
‖𝑥‖‖𝑦‖

Si el espacio vectorial es real, esta definición conduce a la conocida expresión del producto escalar:

〈𝑥, 𝑦〉 = ‖𝑥‖‖𝑦‖𝑐𝑜𝑠 𝜃 (6.2)

Ejemplo 6.7
En el espacio vectorial 𝑅1 [𝑡] con el producto escalar ordinario entre polinomios definidos en [0,1], el
ángulo que forman 𝑞1 (𝑡) = 1, y 𝑞2 (𝑡) = 𝑡 es
1
〈𝑞1 (𝑡), 𝑞2 (𝑡)〉 ∫0 𝑡𝑑𝑡 √3
𝑐𝑜𝑠 𝜃 = = =
‖𝑞1 (𝑡)‖‖𝑞2 (𝑡)‖ 1 1 2
√∫0 𝑑𝑡 √∫0 t 2 𝑑𝑡

y por lo tanto 𝜃 = 𝜋/6 radianes (30°).

Ejemplo 6.8
1+𝑖 −𝑖
El ángulo que forman las columnas 𝑢1 = [ ] , 𝑢2 = [ ] de 𝐶 2×1 respecto del producto escalar
1−𝑖 0
ordinario es
−𝑖
𝑅𝑒(〈𝑢1 , 𝑢2 〉) 𝑅𝑒 ([1 − 𝑖 1 + 𝑖 ] [ ]) 𝑅𝑒(−1 − 𝑖) −1
𝑐𝑜𝑠 𝜃 = = 0 = =
‖𝑢1 ‖‖𝑢2 ‖ 1+𝑖 −𝑖 √4√1 2
√[1 − 𝑖 1 + 𝑖] [ ] √[𝑖 0] [ ]
1−𝑖 0
y por lo tanto 𝜃 = 2𝜋/3 radianes (120°).

Suescun, Insausti, Flaquer (2022) 232 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.5 Bases ortonormales

Gracias a las propiedades geométricas que induce el producto escalar en un espacio vectorial, es posible
generalizar el teorema de Pitágoras del siguiente modo.

Proposición 6.4: Teorema de Pitágoras


Enunciado: Sea 𝐸 un espacio vectorial con producto escalar y ‖⋅‖ la norma inducida por ese producto
escalar. Si 𝑢1 , 𝑢2 , … , 𝑢𝑘 es una lista ortogonal, se verifica que
‖𝑢1 + 𝑢2 + ⋯ + 𝑢𝑘 ‖2 = ‖𝑢1 ‖2 + ‖𝑢2 ‖2 + ⋯ + ‖𝑢𝑘 ‖2
Demostración: Por la definición de norma inducida y las propiedades del producto escalar, se tiene,
𝑘 2 𝑘 𝑘 𝑘 𝑘 𝑘 𝑘

‖∑ 𝑢𝑖 ‖ = 〈∑ 𝑢𝑖 , ∑ 𝑢𝑗 〉 = ∑ ∑〈𝑢𝑖 , 𝑢𝑗 〉 = ∑〈𝑢𝑖 , 𝑢𝑖 〉 = ∑‖𝑢𝑖 ‖2


𝑖=1 𝑖=1 𝑗=1 𝑖=1 𝑗=1 𝑖=1 𝑖=1

Bases ortonormales

Un vector se dice normalizado si su norma vale la unidad. Normalizar un vector no nulo significa
multiplicar el vector por el inverso de su norma. Así, si 𝑥 es un vector no nulo, el vector 𝑤 = 𝑥/‖𝑥‖ es un
vector normalizado, ya que
1 1
‖𝑤‖ = ‖ 𝑥‖ = ‖𝑥‖ = 1
‖𝑥‖ ‖𝑥‖
Se llama base ortonormal a una base ortogonal de vectores normalizados. Así, la lista de vectores
𝑤1 , 𝑤2 , … , 𝑤𝑘 es una base ortonormal del subespacio 𝐹 que generan si:
1) 𝑤𝑖 ⊥ 𝑤𝑗 , con 𝑖 ≠ 𝑗 La lista es ortogonal
2) ‖𝑤𝑖 ‖ = 1, con 𝑖 = 1,2, … , 𝑘 Los vectores están normalizados
Ambas condiciones se pueden contraer en una sola
0 𝑖 ≠ 𝑗,
〈𝑤𝑖 , 𝑤𝑗 〉 = 𝛿𝑖𝑗 = {
1 𝑖 = 𝑗,
siendo 𝛿𝑖𝑗 la llamada delta de Kronecker.

Ejemplo 6.9
3/5 −4/5
Las columnas 𝑤1 = [ ] , 𝑤2 = [ ] forman una base ortonormal de 𝑅2×1 respecto del producto
4/5 3/5
escalar ordinario, pues
1 −4
〈𝑤1 , 𝑤2 〉 = 𝑤1 𝑇 𝑤2 = [3
4] [ ] = 0
25 3
1 3 25
〈𝑤1 , 𝑤1 〉 = [3 4] [ ] = =1
25 4 25
1 −4 25
〈𝑤2 , 𝑤2 〉 = [−4 3] [ ] = =1
25 3 25

Ejemplo 6.10
Los polinomios
1
𝑝1 (𝑡) = 1 𝑝2 (𝑡) = 2√3 (𝑡 − )
2
forman una base ortonormal de 𝑅1 [𝑡] respecto del producto escalar ordinario entre polinomios definidos
en [0,1], ya que

Suescun, Insausti, Flaquer (2022) 233 Tecnun-Universidad de Navarra


6.6 Expresión del producto escalar en una base cualquiera 6 Espacios con Producto Escalar

1 1
1
〈𝑝1 (𝑡), 𝑝2 (𝑡)〉 = ∫ 𝑝1 (𝑡)𝑝2 (𝑡) dt = ∫ 2√3 (𝑡 − ) dt = 0
2
0 0
1

〈𝑝1 (𝑡), 𝑝1 (𝑡)〉 = ∫ dt = 1


0
1
1 2
〈𝑝2 (𝑡), 𝑝2 (𝑡)〉 = ∫ 12 (𝑡 − ) 𝑑𝑡 = 1
2
0

Está claro que la base canónica 𝑒1 , 𝑒2 , … , 𝑒𝑛 de 𝐾 𝑛×1 es una base ortonormal respecto del producto escalar
ordinario.
Escribiremos en general 𝑏𝐹 = 𝑤1 , 𝑤2 , … , 𝑤𝑘 para indicar que 𝑤1 , 𝑤2 , … , 𝑤𝑘 es una base ortonormal del
subespacio 𝐹.

Expresión del producto escalar en una base cualquiera

Sea 𝐸 un espacio vectorial con producto escalar y 𝐵𝐸 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 una base cualquiera de 𝐸. Se va a


estudiar cómo se expresa el producto escalar de dos vectores 𝑥 e 𝑦 en función de sus componentes en
esa base, 𝑥𝐵 e 𝑦𝐵 respectivamente. Empleando la propiedad de sesquilinealidad se tiene
𝑛 𝑛 𝑛 𝑛

〈𝑥, 𝑦〉 = 〈∑ 𝛼𝑖 . 𝑥𝑖 , ∑ 𝛽𝑗 . 𝑥𝑗 〉 = ∑ ∑ 𝛼̅𝑖 𝛽𝑗 〈𝑥𝑖 , 𝑥𝑗 〉


𝑖=1 𝑗=1 𝑖=1 𝑗=1

Denotando 〈𝑥𝑖 , 𝑥𝑗 〉 con 𝑔𝑖𝑗 , se tiene

𝑛 𝑛
𝑔11 𝑔12 … 𝑔1𝑛 𝛽1
𝑔21 𝑔22 … 𝑔2𝑛 𝛽2 𝐻
̅̅̅1
〈𝑥, 𝑦〉 = ∑ ∑ 𝛼̅𝑖 𝛽𝑗 𝑔𝑖𝑗 = [𝛼 𝛼2
̅̅̅ … ̅𝛼̅̅𝑛̅] [
… … … … ] [ … ] = 𝑥𝐵 𝐺𝑦𝐵
𝑖=1 𝑗=1 𝑔𝑛1 𝑔𝑛2 … 𝑔𝑛𝑛 𝛽𝑛
donde
𝑔11 𝑔12 … 𝑔1𝑛 〈𝑥1 , 𝑥1 〉 〈𝑥1 , 𝑥2 〉 … 〈𝑥1 , 𝑥𝑛 〉
𝑔21 𝑔22 … 𝑔2𝑛 〈𝑥2 , 𝑥1 〉 〈𝑥2 , 𝑥2 〉 … 〈𝑥2 , 𝑥𝑛 〉
𝐺=[… … … … ]=[ … ]
… … …
𝑔𝑛1 𝑔𝑛2 … 𝑔𝑛𝑛 〈𝑥𝑛 , 𝑥1 〉 〈𝑥𝑛 , 𝑥2 〉 … 〈𝑥𝑛 , 𝑥𝑛 〉
es la llamada matriz de Gram.
Puesto que 𝑔𝑖𝑗 = 〈𝑥𝑖 , 𝑥𝑗 〉 = ̅̅̅̅̅̅̅̅
〈𝑥𝑗 , 𝑥𝑖 〉 = ̅̅̅̅
𝑔𝑗𝑖 para todo i, j ∈ {1,2, … , n}, la matriz de Gram es hermítica
(simétrica si el espacio vectorial es real).

Ejemplo 6.11
Se sabe que los vectores 𝑥1 , 𝑥2 de una base 𝐵 de un espacio real 𝐸 de dimensión dos cumplen
〈𝑥1 , 𝑥1 〉 = 2, 〈𝑥1 , 𝑥2 〉 = 3, 〈𝑥2 , 𝑥2 〉 = 5
Sean los vectores 𝑥 = 𝑥1 + 2𝑥2 e 𝑦 = 3𝑥1 + 4𝑥2 . El producto escalar 〈𝑥, 𝑦〉 puede calcularse como
〈𝑥1 , 𝑥1 〉 〈𝑥1 , 𝑥2 〉 3 2 3 3 18
〈𝑥, 𝑦〉 = 𝑥𝐵𝑇 𝐺𝑦𝐵 = [1 2] [ ] [ ] = [1 2] [ ] [ ] = [1 2] [ ] = 76
〈𝑥2 , 𝑥1 〉 〈𝑥2 , 𝑥2 〉 4 3 5 4 29

Suescun, Insausti, Flaquer (2022) 234 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.7 Expresión del producto escalar en una base ortonormal

Expresión del producto escalar en una base ortonormal

Cuando la base de referencia en el espacio es ortonormal, siendo válido todo lo explicado en el apartado
anterior, se simplifican notablemente las expresiones.
Sea 𝑏𝐸 = 𝑤1 , 𝑤2 , … , 𝑤𝑛 una base ortonormal de 𝐸. En este caso la matriz de Gram es la identidad 𝐼𝑛 ya
que,
𝑔𝑖𝑗 = 〈𝑤𝑖 , 𝑤𝑗 〉 = 𝛿𝑖𝑗
que es el elemento genérico de la matriz identidad. Luego,
𝑛

〈𝑥, 𝑦〉 = 𝑥𝑏𝐻 𝐼𝑛 𝑦𝑏 = 𝑥𝑏𝐻 𝑦𝑏 = ∑ 𝛼̅𝑖 𝛽𝑖


𝑖=1

Obsérvese que esta expresión indica que el cálculo del producto escalar se realiza “como si se tratara del
producto escalar ordinario en el espacio de matrices columna”. Por tanto, cuando se trabaja con las
componentes de los vectores expresados en una base ortonormal, cualquier producto escalar se calcula
como si fuera el ordinario en el espacio de matrices columna.
Por lo que respecta al cálculo de la norma de un vector en una base ortonormal se obtiene la expresión

𝑛 𝑛

‖𝑥‖ = √〈𝑥, 𝑥〉 = √𝑥𝑏𝐻 𝑥𝑏 = √∑ 𝛼̅𝑖 𝛼𝑖 = √∑|𝛼𝑖 |2


𝑖=1 𝑖=1

De nuevo, es “como si el producto escalar fuera el ordinario en el espacio de matrices columna”.


Si 𝐸 fuera un espacio vectorial real, las anteriores expresiones se convierten en
𝑛

〈𝑥, 𝑦〉 = 𝑥𝑏𝑇 𝑦𝑏 = ∑ 𝛼𝑖 𝛽𝑖
𝑖=1

‖𝑥‖ = √𝑥𝑏𝑇 𝑥𝑏 = √∑ 𝛼𝑖 2
𝑖=1

Ejemplo 6.12
3/5 −4/5
Se sabe que las columnas 𝑤1 = [ ] , 𝑤2 = [ ] forman una base ortonormal en 𝑅2×1 respecto del
4/5 3/5
producto escalar ordinario. Dados los vectores
𝑥 = 2𝑤1 − 3𝑤2 , 𝑦 = 𝑤1 + 4𝑤2
se tiene
〈𝑥, 𝑦〉 = 2 × 1 + (−3) × 4 = −10

‖𝑥‖ = √22 + (−3)2 = √13

‖𝑦‖ = √12 + 42 = √17

Ejemplo 6.13
En el espacio vectorial 𝑅1 [𝑡] de los polinomios de grado 1 se tiene la siguiente una base ortonormal:
𝑏 = 1 + 𝑡, 1 − 𝑡
Nótese que el producto escalar no es el ordinario del espacio de polinomios, y que tampoco es conocida
su expresión.
Para calcular el producto escalar entre los polinomios

Suescun, Insausti, Flaquer (2022) 235 Tecnun-Universidad de Navarra


6.8 Componentes de un vector en una base ortonormal 6 Espacios con Producto Escalar

𝑝(𝑡) = 2𝑡 𝑞(𝑡) = 3 + 𝑡
es necesario expresar ambos vectores en la base ortonormal dada:
1
𝑝(𝑡) = (1 + 𝑡) − (1 − 𝑡) → 𝑝𝑏 = [ ]
−1
2
𝑞(𝑡) = 2(1 + 𝑡) + (1 − 𝑡) → 𝑞𝑏 = [ ]
1
Trabajando con las matrices columnas de componentes en la base ortonormal, el producto escalar se
calcula “como si fuera el ordinario del espacio de matrices columna”:

〈𝑝(𝑡), 𝑞(𝑡)〉 = 𝑝𝑏⊤ 𝑞𝑏 = [1 2


−1] [ ]=1
1

Ejemplo 6.14
Consideramos un subespacio vectorial 𝐹 de 𝑅2×3 . En ese subespacio vectorial, hay definida una base
ortonormal:
1 −1 1 1 1 0
𝑏𝐹 = [ ], [ ]
0 1 0 2 0 1
Nótese que el producto escalar no es el ordinario en el espacio de matrices y que tampoco es conocida su
expresión. No obstante, dadas dos matrices 𝑋 e 𝑌 de 𝐹, se puede calcular el producto escalar entre ellas
si obtenemos sus componentes en la base ortonormal. Estas matrices son:
1 −3 2 0 2 −1
𝑋=[ ], 𝑌=[ ]
−2 2 −1 2 −1 1
Expresando ambas matrices en la base ortonormal se tiene
1 −1 1 1 1 0
𝑋 =2×[ ] + (−1) × [ ]
0 1 0 2 0 1
1 −1 1 1 1 0
𝑌 = (−1) × [ ]+1×[ ]
0 1 0 2 0 1
por lo que sus componentes en la base ortonormal son
2 −1
𝑋𝑏 𝐹 = [ ] , 𝑌𝑏 𝐹 = [ ]
−1 1
Luego

〈𝑋, 𝑌〉 = 𝑋𝑏 ⊤𝐹 𝑌𝑏 𝐹 = [2 −1
−1] [ ] = −3
1

Componentes de un vector en una base ortonormal

En general, para hallar las componentes de un vector en una base cualquiera, hay que resolver un sistema
de ecuaciones compatible determinado, con tantas ecuaciones e incógnitas como la dimensión del
espacio. Sin embargo, cuando la base del espacio es una base ortonormal, esas componentes también se
pueden calcular mediante productos escalares tal como se prueba en la siguiente proposición.

Proposición 6.5
Enunciado: Sea 𝑏𝐸 = 𝑤1 , 𝑤2 , … , 𝑤𝑛 una base ortonormal de 𝐸 y 𝑥 un vector de 𝐸. Las componentes 𝛼𝑖 de
𝑥 en la base 𝑏𝐸 se pueden obtener mediante el producto escalar 〈𝑤𝑖 , 𝑥〉.
Demostración: Como 𝑥 ∈ 𝐸, existen 𝛼1 , 𝛼2 , … , 𝛼𝑛 únicas tal que 𝑥 = ∑𝑛𝑗=1 𝛼𝑗 𝑤𝑗 . Empleando las
propiedades del producto escalar,
𝑛 𝑛 𝑛

〈𝑤𝑖 , 𝑥〉 = 〈𝑤𝑖 , ∑ 𝛼𝑗 𝑤𝑗 〉 = ∑ 𝛼𝑗 〈𝑤𝑖 , 𝑤𝑗 〉 = ∑ 𝛼𝑗 𝛿𝑖𝑗 = 𝛼𝑖 , 𝑖 = 1,2, … , 𝑛


𝑗=1 𝑗=1 𝑗=1

Suescun, Insausti, Flaquer (2022) 236 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.9 Distancia entre dos vectores

Ejemplo 6.15
3/5 −4/5
Se sabe que las columnas 𝑤1 = [ ] , 𝑤2 = [ ] forman una base ortonormal en 𝑅2×1 respecto del
4/5 3/5
1
producto escalar ordinario. Las componentes 𝛼1 , 𝛼2 del vector 𝑥 = [ ] en la citada base se pueden
2
obtener mediante
3 4 11
𝛼1 = 〈𝑤1 , 𝑥〉 = ×1+ ×2=
5 5 5
4 3 2
𝛼2 = 〈𝑤2 , 𝑥〉 = (− ) × 1 + × 2 =
5 5 5
Nótese que se habría llegado al mismo resultado resolviendo el sistema de ecuaciones
1 3/5 −4/5
[ ] = 𝛼1 [ ] + 𝛼2 [ ]
2 4/5 3/5

Distancia entre dos vectores

Sea 𝐸 un espacio vectorial con producto escalar y ‖⋅‖ la norma inducida por ese producto escalar.
Se define la distancia 𝑑(𝑥, 𝑦) entre los vectores 𝑥 e 𝑦 de 𝐸 como:
𝑑(𝑥, 𝑦) = ‖𝑥 − 𝑦‖

𝑦 𝑥−𝑦

Figura 6.2: La distancia entre dos vectores 𝑥, 𝑦 se defiene como la norma del vector 𝑥 − 𝑦.

Es fácil probar que la distancia así definida verifica que:


1) 𝑑(𝑥, 𝑦) = 𝑑(𝑦, 𝑥)
2) 𝑑(𝑥, 𝑦) > 0 ∀𝑥 ≠ 𝑦
3) 𝑑(𝑥, 𝑦) = 0 ∀𝑥 = 𝑦
4) 𝑑(𝑥, 𝑦) ≤ 𝑑(𝑥, 𝑧) + 𝑑(𝑧, 𝑦) ∀ 𝑥, 𝑦, 𝑧 ∈ 𝐸 (Desigualdad triangular)

Vector proyección ortogonal

Sea 𝐸 un espacio vectorial de dimensión 𝑛 con producto escalar y sea ‖⋅‖ la norma inducida por ese
producto escalar. Sea ahora 𝐹 un subespacio vectorial de 𝐸 de dimensión 𝑘, con 0 < 𝑘 < 𝑛, y sea 𝑥 un
vector de 𝐸.
Se llama proyección ortogonal de 𝑥 sobre 𝐹 a un vector 𝜋𝑥 de 𝐹 que cumple la condición de que el vector
diferencia 𝑥 − 𝜋𝑥 sea ortogonal a todos los vectores de 𝐹.
La Figura 6.3 ilustra el concepto de proyección ortogonal sobre un subespacio.

Suescun, Insausti, Flaquer (2022) 237 Tecnun-Universidad de Navarra


6.10 Vector proyección ortogonal 6 Espacios con Producto Escalar

𝑥 𝑥 − 𝜋𝑥

𝜋𝑥

𝐹 𝑣

Figura 6.3: Proyección ortogonal de un vector 𝑥 sobre un subespacio 𝐹. Nótese que el vector 𝑥, en general, no
pertenece al subespacio 𝐹. De entre todos los vectores de 𝐹, el vector proyección ortogonal 𝜋𝑥 es
el más cercano a 𝑥. Cualquier vector 𝑣 ∈ 𝐹 está más lejos de 𝑥 que 𝜋𝑥 . Nótese que el vector 𝑥 − 𝜋𝑥
es ortogonal a todos los vectores de 𝐹.

En las dos siguientes proposiciones se va a obtener una expresión del vector proyección ortogonal y se va
a probar que este vector siempre existe y que además es único.

Proposición 6.6: Existencia del vector proyección ortogonal


Enunciado: Sea 𝑤1 , 𝑤2 , … , 𝑤𝑘 una base ortonormal del subespacio 𝐹. El vector
𝜋𝑥 = 𝛼1 𝑤1 + 𝛼2 𝑤2 + … + 𝛼𝑘 𝑤𝑘
con
𝛼𝑖 = 〈𝑤𝑖 , 𝑥〉, 𝑖 = 1,2, … , 𝑘
es un vector proyección ortogonal de 𝑥 sobre el subespacio 𝐹.
Demostración: Hay que probar que 𝑥 − 𝜋𝑥 es ortogonal a todos los vectores de 𝐹. Si 𝑣 ∈ 𝐹, entonces
𝑣 = 𝛽1 𝑤1 + 𝛽2 𝑤2 + … + 𝛽𝑘 𝑤𝑘 . Luego,
〈𝑣, 𝑥 − 𝜋𝑥 〉 = 〈𝑣, 𝑥〉 − 〈𝑣, 𝜋𝑥 〉
𝑘 𝑘 𝑘

= 〈∑ 𝛽𝑖 𝑤𝑖 , 𝑥〉 − 〈∑ 𝛽𝑖 𝑤𝑖 , ∑ 𝛼𝑗 𝑤𝑗 〉
𝑖=1 𝑖=1 𝑗=1
𝑘 𝑘 𝑘

= ∑ 𝛽𝑖̅ 〈𝑤𝑖 , 𝑥〉 − ∑ 𝛽𝑖̅ ∑ 𝛼𝑗 〈𝑤𝑖 , 𝑤𝑗 〉


𝑖=1 𝑖=1 𝑗=1
𝑘 𝑘 𝑘

= ∑ 𝛽𝑖̅ 〈𝑤𝑖 , 𝑥〉 − ∑ ∑ 𝛽𝑖̅ 𝛼𝑗 𝛿𝑖𝑗


𝑖=1 𝑖=1 𝑗=1
𝑘 𝑘

= ∑ 𝛽𝑖̅ 〈𝑤𝑖 , 𝑥〉 − ∑ 𝛽𝑖̅ 𝛼𝑖


𝑖=1 𝑖=1
𝑘 𝑘

= ∑ 𝛽𝑖̅ 〈𝑤𝑖 , 𝑥〉 − ∑ 𝛽𝑖̅ 〈𝑤𝑖 , 𝑥〉 = 0


𝑖=1 𝑖=1

Proposición 6.7: Unicidad del vector proyección ortogonal


Enunciado: De todos los vectores 𝑣 de 𝐹 el vector 𝜋𝑥 es el único vector que dista menos de 𝑥.
Demostración: Hay que probar que
𝑑(𝑥, 𝑣) ≥ 𝑑(𝑥, 𝜋𝑥 ) ∀𝑣 ∈ 𝐹
Por un lado, sumando y restando 𝜋𝑥 se tiene
𝑑 2 (𝑥, 𝑣) = ‖𝑥 − 𝑣‖2 = ‖(𝑥 − 𝜋𝑥 ) + (𝜋𝑥 − 𝑣)‖2

Suescun, Insausti, Flaquer (2022) 238 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.10 Vector proyección ortogonal

Obsérvese que 𝜋𝑥 − 𝑣 ∈ 𝐹, ya que ambos 𝜋𝑥 y 𝑣 pertenecen a 𝐹 (ver Figura 6.3). Puesto que 𝑥 − 𝜋𝑥 es
ortogonal a todos los vectores de 𝐹, se llega a
(𝑥 − 𝜋𝑥 ) ⊥ (𝜋𝑥 − 𝑣)
por lo que puede aplicarse el teorema de Pitágoras. Se concluye, por tanto, que
𝑑 2 (𝑥, 𝑣) = ‖(𝑥 − 𝜋𝑥 ) + (𝜋𝑥 − 𝑣)‖2 = ‖𝑥 − 𝜋𝑥 ‖2 + ‖𝜋𝑥 − 𝑣‖2
Puesto que ‖𝜋𝑥 − 𝑣‖2 ≥ 0 para todo 𝑣 ∈ 𝐹, se llega a
𝑑 2 (𝑥, 𝑣) = ‖𝑥 − 𝜋𝑥 ‖2 + ‖𝜋𝑥 − 𝑣‖2 ≥ ‖𝑥 − 𝜋𝑥 ‖2 = 𝑑 2 (𝑥, 𝜋𝑥 ) ∀𝑣 ∈ 𝐹
y se demuestra la proposición tomando raíces cuadradas en ambos lados de la desigualdad.

Obsérvese que de esta última demostración se deduce que 𝑑(𝑥, 𝑣) = 𝑑(𝑥, 𝜋𝑥 ) sólo si 𝑣 = 𝜋𝑥 , lo que
prueba la unicidad del vector proyección ortogonal.
Desde un punto de vista práctico, para hallar la proyección ortogonal 𝜋𝑥 de 𝑥 sobre 𝐹 se requiere:
1. Una base ortonormal de 𝐹: 𝑤1 , 𝑤2 , … , 𝑤𝑘
2. Calcular los coeficientes 𝛼𝑖 = 〈𝑤𝑖 , 𝑥〉, para 𝑖 = 1,2, … , 𝑘.
3. Construir el vector proyección ortogonal: 𝜋𝑥 = 𝛼1 𝑤1 + 𝛼2 𝑤2 + … + 𝛼𝑘 𝑤𝑘 .

Ejemplo 6.16
La proyección ortogonal del vector
1
𝑥 = [ 2]
3
sobre el subespacio de 𝑅3×1 generado por los vectores

1 1 0
𝑤1 = [0] , 𝑤2 = [1]
√2 1 0
respecto del producto escalar ordinario, se halla fácilmente pues 𝑤1 , 𝑤2 ya es una base ortonormal: Basta
calcular

1 1 1 1
𝛼1 = 〈𝑤1 , 𝑥〉 = 〈 [0] , [2]〉 = 4
√2 1 3 √2
0 1
𝛼2 = 〈𝑤2 , 𝑥〉 = 〈[1] , [2]〉 = 2
0 3
y construir el vector

1 1 1 0 2
𝜋𝑥 = 𝛼1 𝑤1 + 𝛼2 𝑤2 = ( 4) × [0] + 2 × [1] = [2]
√2 √2 1 0 2

Ejemplo 6.17
La proyección ortogonal del polinomio 𝑝(𝑡) = 𝑡 2 sobre el subespacio 𝐹 ⊂ 𝑅1 [𝑡] generado por la base
ortonormal
1
𝑤1 (𝑡) = 1, 𝑤2 (𝑡) = 2√3 (𝑡 − )
2
Con respecto al producto escalar ordinario de polinomios definidos en [0,1] se halla de la siguiente
manera:

Suescun, Insausti, Flaquer (2022) 239 Tecnun-Universidad de Navarra


6.11 Método de Gram-Schmidt 6 Espacios con Producto Escalar

1 1
1
𝛼1 = 〈𝑤1 (𝑡), 𝑝(𝑡)〉 = ∫ 𝑤1 (𝑡)𝑝(𝑡) 𝑑𝑡 = ∫ t 2 𝑑𝑡 =
3
0 0
1 1
1 1
𝛼2 = 〈𝑤2 (𝑡), 𝑝(𝑡)〉 = ∫ 𝑤2 (𝑡)𝑝(𝑡) 𝑑𝑡 = ∫ 2√3 (𝑡 − ) t 2 𝑑𝑡 =
2 2√3
0 0

Por tanto,
1 1 1 1
𝜋𝑝(𝑡) = 𝛼1 𝑤1 (t) + 𝛼2 𝑤2 (𝑡) = .1+ . 2√3 (𝑡 − ) = 𝑡 −
3 2√3 2 6
Puesto que el subespacio 𝐹 es el subespacio de todos los polinomios de grado 1, obsérvese que lo que se
ha obtenido en este ejemplo es que en el intervalo [0,1], el polinomio de grado 1 más cercano a 𝑡 2 es el
1
polinomio 𝑡 − . Es decir, tal como se observa en la figura, no hay ninguna recta que se aproxime más a
6
𝑡 2 que la proyección calculada en este ejemplo, con la métrica que induce el producto escalar dado.

Figura 6.4: El polinomio 𝜋𝑝(𝑡) = 𝑡 − 16 (línea roja) es la proyección ortogonal del polinomio
𝑝(𝑡) = 𝑡 2 (línea negra) sobre el subespacio de polinomios de grado 1.

Método de Gram-Schmidt

Del apartado anterior se deduce la necesidad de contar con una base ortonormal para poder proyectar
un vector ortogonalmente sobre un subespacio vectorial. La siguiente proposición garantiza que todo
espacio vectorial de dimensión finita (o subespacio vectorial) tiene una base ortonormal y nos da un
procedimiento para obtenerla de modo recursivo:

Proposición 6.8 (Método de Gram-Schmidt)


Enunciado: Todo espacion vectorial de dimensión finita tiene al menos una base ortonormal.
Demostración: La demostración se basa en el método de ortogonalización de Gram-Schmidt. Se parte
de una base cualquiera 𝑢1 , 𝑢2 , … , 𝑢𝑛 . Denotamos con 𝐹i el subespacio vectorial de 𝐸 generado por
𝑢1 , 𝑢2 , … , 𝑢𝑖 para i = 1,2, … , 𝑛.
Este procedimiento es iterativo y consta de 𝑛 pasos:
Paso 1: Se crea una base ortonormal para el subespacio vectorial 𝐹1 (generado por 𝑢1 ). Es inmediato que
el vector
𝑣1
𝑣1 = 𝑢1 → 𝑤1 =
‖𝑣1 ‖
forma una base ortonormal de 𝐹1 . Se renombra el vector 𝑢1 como 𝑣1 por coherencia con los siguientes
pasos. Obsérvese que 𝑤1 está bien definido al ser 𝑢1 ≠ 0.

Suescun, Insausti, Flaquer (2022) 240 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.11 Método de Gram-Schmidt

𝑣1 = 𝑢1
𝑣1
𝑤1 =
‖𝑣1 ‖

Figura 6.5: Primer paso del método de ortogonalización de Gram-Schmidt: Basta con normalizar 𝑢1 .

Paso 2: Se crea una base ortonormal para el subespacio vectorial 𝐹2 (generado por 𝑢1 , 𝑢2 ). Si se resta a
𝑢2 su proyección sobre 𝐹1 , se obtiene un vector 𝑣2 que pertenece a 𝐹2 pero que es ortogonal a todos los
vectores de 𝐹1 . Es decir, el vector
𝑣2 = 𝑢2 − 𝜋𝑢2
con
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉𝑤1
es ortogonal a 𝑤1 . Para obtener el segundo vector ortonormal de 𝐹2 simplemente hay que normalizar 𝑣2
𝑣2
𝑤2 =
‖𝑣2 ‖
por lo que los vectores 𝑤1 , 𝑤2 ya forman una base ortonormal de 𝐹2 .
Obsérvese que 𝑤2 está bien definido porque 𝑣2 ≠ 0 (si 𝑣2 = 0 significaría que 𝑢2 = 𝜋𝑢2 lo que significaría
que 𝑢2 ∈ 𝐹1 y por tanto 𝑢1 y 𝑢2 serían linealmente dependientes, lo cual es imposible al pertenecer ambos
a la base de partida).

𝑢2
𝑣2 = 𝑢2 − 𝜋𝑢2

𝑣2
𝑤2 =
‖𝑣2 ‖
𝐹1
𝜋𝑢2
𝑤1

Figura 6.6: Segundo paso del método de ortogonalización de Gram-Schmidt: Restar a 𝑢2 su proyección
ortogonal sobre 𝐹1 y normalizar.

Paso 3: Se crea una base ortonormal para el subespacio vectorial 𝐹3 (generado por 𝑢1 , 𝑢2 , 𝑢3 ). Si se resta
a 𝑢3 su proyección sobre 𝐹2 , se obtiene un vector 𝑣3 que pertenece a 𝐹3 pero que es ortogonal a todos
los vectores de 𝐹2 . Es decir, el vector
𝑣3 = 𝑢3 − 𝜋𝑢3
con
𝜋𝑢3 = 〈𝑤1 , 𝑢3 〉𝑤1 + 〈𝑤2 , 𝑢3 〉𝑤2
es ortogonal a 𝑤1 y a 𝑤2 . Para obtener el tercer vector ortonormal de 𝐹3 se normaliza 𝑣3
𝑣3
𝑤3 =
‖𝑣3 ‖
por lo que los vectores 𝑤1 , 𝑤2 , 𝑤3 ya forman una base ortonormal de 𝐹3 .
Obsérvese que 𝑤3 está bien definido porque 𝑣3 ≠ 0 (si 𝑣3 = 0 significaría que 𝑢3 = 𝜋𝑢3 lo que significaría
que 𝑢3 ∈ 𝐹2 y por tanto 𝑢3 sería combinación lineal de 𝑢1 y 𝑢2 , lo cual es imposible al pertenecer los tres
vectores a la base de partida).

Suescun, Insausti, Flaquer (2022) 241 Tecnun-Universidad de Navarra


6.11 Método de Gram-Schmidt 6 Espacios con Producto Escalar

𝑣3 = 𝑢3 − 𝜋𝑢3 𝑢3

𝑣3
𝑤3 = 𝑤2
‖𝑣3 ‖ 𝐹2
𝜋𝑢3
𝑤1

Figura 6.7: Tercer paso del método de ortogonalización de Gram-Schmidt: Restar a 𝑢3 su proyección ortogonal
sobre 𝐹2 y normalizar.

Como se puede observar, este procedimiento es iterativo. Se describe a continuación un paso genérico:
Paso 𝑖: Se crea una base ortonormal para el subespacio vectorial 𝐹i (generado por 𝑢1 , 𝑢2 , … , 𝑢𝑖 ). Si se resta
a 𝑢𝑖 su proyección sobre 𝐹𝑖−1 , se obtiene un vector 𝑣𝑖 que pertenece a 𝐹i pero que es ortogonal a todos
los vectores de 𝐹𝑖−1 . Es decir, el vector
𝑣i = 𝑢i − 𝜋𝑢i
con
𝜋𝑢𝑖 = 〈𝑤1 , 𝑢𝑖 〉𝑤1 + 〈𝑤2 , 𝑢𝑖 〉𝑤2 + ⋯ + 〈𝑤𝑖−1 , 𝑢𝑖 〉𝑤𝑖−1
es ortogonal a 𝑤1 , 𝑤2 , … , 𝑤𝑖−1 . Para obtener el 𝑖-ésimo vector ortonormal de 𝐹i simplemente hay que
normalizar 𝑣i
𝑣i
𝑤i =
‖𝑣i ‖
por lo que los vectores 𝑤1 , 𝑤2 , … , 𝑤𝑖 ya forman una base ortonormal de 𝐹𝑖 .
Obsérvese que 𝑤i está bien definido porque 𝑣𝑖 ≠ 0 (si 𝑣𝑖 = 0 significaría que 𝑢𝑖 = 𝜋𝑢𝑖 lo que significaría
que 𝑢𝑖 ∈ 𝐹𝑖−1 y por tanto 𝑢i sería combinación lineal de 𝑢1 , 𝑢2 , … , 𝑢𝑖−1 , lo cual es imposible al pertenecer
todos ellos a la base de partida).

𝑣𝑖 = 𝑢𝑖 − 𝜋𝑢𝑖
𝑢𝑖

𝑣𝑖
𝑤𝑖 = 𝐹𝑖−1
‖𝑣𝑖 ‖

𝑤1
𝜋𝑢𝑖

𝑤2 𝑤𝑖−1

Figura 6.8: Paso 𝑖-ésimo del método de ortogonalización de Gram-Schmidt: Restar a 𝑢i su proyección ortogonal
sobre 𝐹𝑖−1 y normalizar.

Este procedimiento se repite para 𝑖 = 1,2, … , 𝑛 y así se obtiene la base ortonormal de 𝐸 formada por los
vectores 𝑤1 , 𝑤2 , … , 𝑤𝑛 .

Suescun, Insausti, Flaquer (2022) 242 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.12 Matrices unitarias y ortogonales reales

Ejemplo 6.18
2 3
Un sencillo ejemplo en 𝑅2×1 . Partiendo de la base 𝑢1 = [ ] , 𝑢2 = [ ] se deduce una nueva base
1 3
ortonormal siguiendo el método de Gram-Schmidt:
𝑢1 1 2
𝑤1 = = [ ]
‖𝑢1 ‖ √5 1
1 3 9
〈𝑤1 , 𝑢2 〉 = 𝑤1𝑇 𝑢2 = [2 1] [ ] =
√5 3 √5
9 1 2 9 2
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉𝑤1 = [ ]= [ ]
√5 √5 1 5 1
3 9 2 1 −3
𝑣2 = 𝑢2 − 𝜋𝑢2 = [ ] − [ ] = [ ]
3 5 1 5 6
𝑣2 1 −1
𝑤2 = = [ ]
‖𝑣2 ‖ √5 2
Y la nueva base ortonormal es:
1 2 1 −1
𝑤1 = [
], 𝑤2 = [ ]
√5 1 √5 2

Ejemplo 6.19
En este ejemplo se va a hallar una base ortonormal del espacio vectorial 𝑅1 [𝑡], el de los polinomios de
grado a lo sumo uno definidos en [0,1] trabajando con el producto escalar ordinario entre polinomios.
Una base de 𝑅1 [𝑡] está dada por los polinomios 𝑢1 (𝑡) = 1 y 𝑢2 (𝑡) = 𝑡. Se aplicará el procedimiento de
Gram-Schmidt para obtener una base ortonormal.
𝑢1 1
𝑤1 = = =1
‖𝑢1 ‖ 1
√∫0 𝑢12 (𝑡)dt
1 1
1
〈𝑤1 , 𝑢2 〉 = ∫ 𝑤1 (𝑡)𝑢2 (𝑡)𝑑𝑡 = ∫ 𝑡𝑑𝑡 =
2
0 0

1
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉𝑤1 =
2
1
𝑣2 = 𝑢2 − 𝜋𝑢2 = 𝑡 −
2
1
𝑣2 𝑡− 1
𝑤2 = = 2 = 2√3 (𝑡 − )
‖𝑣2 ‖ 2 2
√∫1 (𝑡 − 1) 𝑑𝑡
0 2
Y la base ortonormal obtenida es:
1
𝑏 = 1 , 2√3 (𝑡 − )
2

Matrices unitarias y ortogonales reales

En este apartado se presentan las propiedades más importantes de las matrices unitarias y ortogonales,
que como veremos guardan relación con las bases ortonormales.
Se recuerda que una matriz 𝑄 es unitaria si 𝑄 −1 = 𝑄𝐻 . Es decir, si verifica:

Suescun, Insausti, Flaquer (2022) 243 Tecnun-Universidad de Navarra


6.12 Matrices unitarias y ortogonales reales 6 Espacios con Producto Escalar

𝑄𝑄𝐻 = 𝑄𝐻 𝑄 = 𝐼
En el campo real, una matriz es ortogonal si 𝑄 −1 = 𝑄𝑇 . Es decir, si verifica:
𝑄𝑄𝑇 = 𝑄𝑇 𝑄 = 𝐼

Proposición 6.9
Enunciado: El producto de matrices unitarias (ortogonales reales) es otra matriz unitaria (ortogonal real).
Demostración: Es inmediata:
𝑈 −1 = 𝑈 𝐻 , 𝑉 −1 = 𝑉 𝐻 → (𝑈𝑉)−1 = 𝑉 −1 𝑈 −1 = 𝑉 𝐻 𝑈 𝐻 = (𝑈𝑉)𝐻

Proposición 6.10
Enunciado: Las columnas de una matriz unitaria (ortogonal real) forman una base ortonormal del espacio
de columnas 𝐶 𝑛×1 (𝑅𝑛×1 ) respecto del producto escalar ordinario.
Demostración: Sea 𝑄 = [𝑤1 𝑤2 … 𝑤𝑛 ] una matriz unitaria. Se tiene 𝑄𝐻 𝑄 = 𝐼, esto es,
𝑤1 𝐻 1 0 … 0
𝐻
𝑤2 [𝑤 𝑤 … 𝑤 ] = [ 0 1 … 0
]
1 2 𝑛
… … … … …
𝐻 0 0 … 1
[𝑤𝑛 ]
de donde
𝑤1 𝐻 𝑤1 𝑤1 𝐻 𝑤2 … 𝑤1 𝐻 𝑤𝑛 1 0 … 0
𝑤2 𝐻 𝑤1 𝑤2 𝐻 𝑤2 … 𝑤2 𝐻 𝑤𝑛 = [ 0 1 … 0
]
… … … … … … … …
[𝑤𝑛 𝐻 𝑤1 𝑤𝑛 𝐻 𝑤2 … 𝐻
𝑤𝑛 𝑤𝑛 ] 0 0 … 1
y de ahí
𝑤𝑖 𝐻 𝑤𝑗 = < 𝑤𝑖 , 𝑤𝑗 >𝑂𝑅𝐷 = 𝛿𝑖𝑗
Esto es, 𝑤1 𝑤2 … 𝑤𝑛 es una base ortonormal respecto del producto escalar ordinario.
Una demostración análoga sirve para las matrices ortogonales reales obteniéndose:
𝑤𝑖 𝑇 𝑤𝑗 =< 𝑤𝑖 , 𝑤𝑗 >𝑂𝑅𝐷 = 𝛿𝑖𝑗

Ejemplo 6.20
La matriz real
3/5 −4/5
𝑄=[ ]
4/5 3/5
es ortogonal, y por ello sus columnas
3/5 −4/5
[ ],[ ]
4/5 3/5
forman una base ortonormal de 𝑅2×1 .

Toda matriz unitaria (ortogonal real) 𝑄 define una transformación unitaria (o isometrías) en el espacio
de matrices columna 𝐶 𝑛×1 (𝑅𝑛×1 ).

Suescun, Insausti, Flaquer (2022) 244 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.13 Factorización 𝑸𝑹

Proposición 6.11
Enunciado: Las transformaciones unitarias respetan el producto escalar ordinario y su norma asociada.
Esto es, dada una matriz unitaria (ortogonal real) 𝑄, para cualquier pareja de columnas 𝑥, 𝑦 ∈ 𝐶 𝑛×1 (𝑅𝑛×1 )
se cumple:
〈𝑄𝑥, 𝑄𝑦〉 = 〈𝑥, 𝑦〉
〈𝑄𝑥, 𝑄𝑥〉 = 〈𝑥, 𝑥〉
‖𝑄𝑥‖ = ‖𝑥‖
Demostración: Sean 𝑄 una matriz unitaria y dos columnas 𝑥, 𝑦 ∈ 𝐶 𝑛×1 . Se cumple:
〈𝑄𝑥, 𝑄𝑦〉 = (𝑄𝑥)𝐻 𝑄𝑦 = (𝑥 𝐻 𝑄𝐻 )(𝑄𝑦) = 𝑥 𝐻 (𝑄𝐻 𝑄)𝑦 = 𝑥 𝐻 𝐼𝑦 = 𝑥 𝐻 𝑦 = 〈𝑥, 𝑦〉
Análogamente:
〈𝑄𝑥, 𝑄𝑥〉 = 〈𝑥, 𝑥〉

‖𝑄𝑥‖ = √〈𝑄𝑥, 𝑄𝑥〉 = √〈𝑥, 𝑥〉 = ‖𝑥‖


Una demostración análoga sirve con una matriz 𝑄 ortogonal real.

Ejemplos de transformaciones unitarias (isometrías) son las rotaciones y las simetrías en 𝑅3 .

Factorización 𝑸𝑹

La factorización 𝑄𝑅 es muy útil para resolver diversos problemas matemáticos. En capítulos posteriores
de este curso, se empleará dicha factorización para describir un método numérico para encontrar valores
y vectores propios y para resolver el problema de los mínimos cuadrados con un coste computacional
reducido.

Proposición 6.12: Factorización 𝑸𝑹


Enunciado: Sea 𝐴 una matriz real (compleja) cuadrada de orden 𝑛. Si 𝐴 es regular, existe una matriz
ortogonal (unitaria) 𝑄 y una matriz triangular superior 𝑅 de forma que
𝐴 = 𝑄𝑅
Demostración: La demostración se basa en el método de Gram-Schmidt e indica cómo obtener las
matrices 𝑄 y 𝑅.
Sean 𝑢1 , 𝑢2 , … , 𝑢𝑛 la columnas de 𝐴, es decir, 𝐴 = [𝑢1 𝑢2 … 𝑢𝑛 ]. Por ser 𝐴 regular, estas columnas forman
una base del espacio de columnas 𝐾 𝑛×1 . Con el método de Gram-Schmidt, esta base se puede convertir
en una base ortonormal 𝑤1 , 𝑤2 , … , 𝑤𝑛 :
𝑣1
𝑣1 = 𝑢1 → 𝑤1 =
‖𝑣1 ‖
𝑣2
𝑣2 = 𝑢2 − 𝛼12 𝑤1 → 𝑤2 =
‖𝑣2 ‖
𝑣3
𝑣3 = 𝑢3 − 𝛼13 𝑤1 − 𝛼23 𝑤2 → 𝑤3 =
‖𝑣3 ‖

𝑣𝑛
𝑣𝑛 = 𝑢𝑛 − 𝛼1𝑛 𝑤1 − 𝛼2𝑛 𝑤2 − ⋯ − 𝛼𝑛−1,𝑛 𝑤𝑛−1 → 𝑤𝑛 =
‖𝑣𝑛 ‖
donde 𝛼𝑖𝑗 =< 𝑤𝑖 , 𝑢𝑗 >= 𝑤𝑖𝐻 𝑢𝑗 .
Despejando las columnas 𝑢1 , 𝑢2 , … , 𝑢𝑛 en función de 𝑤1 , 𝑤2 , … , 𝑤𝑛 :

Suescun, Insausti, Flaquer (2022) 245 Tecnun-Universidad de Navarra


6.13 Factorización 𝑸𝑹 6 Espacios con Producto Escalar

𝑢1 = ‖𝑣1 ‖𝑤1

𝑢2 = 𝛼12 𝑤1 + ‖𝑣2 ‖𝑤2

𝑢3 = 𝛼13 𝑤1 + 𝛼23 𝑤2 + ‖𝑣3 ‖𝑤3

𝑢𝑛 = 𝛼1𝑛 𝑤1 + 𝛼2𝑛 𝑤2 + 𝛼3𝑛 𝑤3 + ⋯ + 𝛼𝑛−1,𝑛 𝑤𝑛−1 + ‖𝑣𝑛 ‖𝑤𝑛


Escrito matricialmente:
‖𝑣1 ‖ 𝛼12 𝛼13 … 𝛼1𝑛
0 ‖𝑣2 ‖ 𝛼23 … 𝛼2𝑛
𝐴 = [𝑢1 𝑢2 … 𝑢𝑛 ] = [𝑤1 𝑤2 𝑤3 … 𝑤𝑛 ] 0 0 ‖𝑣3 ‖ … 𝛼3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[ 0 0 0 … ‖𝑣𝑛 ‖]
Y por lo tanto 𝐴 = 𝑄𝑅 con
‖𝑣1 ‖ 𝛼12 𝛼13 … 𝛼1𝑛
0 ‖𝑣2 ‖ 𝛼23 … 𝛼2𝑛
𝑄 = [𝑤1 𝑤2 𝑤3 … 𝑤𝑛 ] 𝑅= 0 0 ‖𝑣3 ‖ … 𝛼3𝑛
⋮ ⋮ ⋮ ⋱ ⋮
[ 0 0 0 … ‖𝑣𝑛 ‖]

Nótese en la demostración anterior que 𝑅 es una matriz regular, pues al ser no nulos los vectores 𝑣𝑖 ,
tampoco son nulas sus normas.

Ejemplo 6.21
La descomposición 𝑄𝑅 de la matriz
2 1
𝐴=[ ]
1 1
se obtiene como sigue. En primer lugar se separa 𝐴 por columnas:
2 1
𝑢1 = [ ] 𝑢2 = [ ]
1 1
Ahora se aplica el método de Gram-Schmidt:
2 𝑣1 1 2
𝑣1 = 𝑢1 = [ ] → 𝑤1 = = [ ]
1 ‖𝑣1 ‖ √5 1
3 1 3 2 1 −1 𝑣2 1 −1
𝑎12 = 𝑤1𝑇 𝑢2 = → 𝑣2 = 𝑢2 − 𝑎12 𝑤1 = [ ]− [ ]= [ ] → 𝑤2 = = [ ]
√5 1 5 1 5 2 ‖𝑣2 ‖ √5 2
Y, por lo tanto:
1 2 −1
𝑄 = [𝑤1 𝑤2 ] = [ ]
√5 1 2
‖𝑣1 ‖ 𝛼12 √5 3/√5
𝑅=[ ]=[ ]
0 ‖𝑣2 ‖ 0 √5/5

Por último, se estudia aquí el coste computacional de la factorización 𝑄𝑅. En el paso 𝑘-ésimo del método
de Gram-Schmidt hay que realizar la siguiente operación

Suescun, Insausti, Flaquer (2022) 246 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.14 Complemento ortogonal

𝑣𝑘
𝑣𝑘 = 𝑢𝑘 − 𝛼1𝑘 𝑤1 − 𝛼2𝑘 𝑤2 − ⋯ − 𝛼𝑘−1,𝑘 𝑤𝑘−1 → 𝑤𝑘 =
‖𝑣𝑘 ‖
lo que implica:
• calcular los 𝑘 − 1 productos escalares 𝛼1𝑘 , … , 𝛼𝑘−1,𝑘 . Cada uno de ellos consiste en realizar una
multiplicación de una fila por una columna de tamaño 𝑛, por lo que se necesitan 𝑛
multiplicaciones para calcular cada uno. En total, 𝑛(𝑘 − 1) multiplicaciones.
• Para calcular 𝑣𝑘 hacen falta 𝑛(𝑘 − 1) multiplicaciones.
• Para calcular ‖𝑣𝑘 ‖ hacen falta 𝑛 multiplicaciones (y una raíz cuadrada que despreciamos).
• Para calcular 𝑤𝑘 hacen falta 𝑛 divisiones.
Por lo que el número total de operaciones es
𝑛 𝑛

∑ 2 𝑛(𝑘 − 1) + 2𝑛 = ∑ 2 𝑛𝑘 = 𝑛2 (𝑛 + 1) ≈ 𝑛3
𝑘=1 𝑘=1

Complemento ortogonal

Se llama complemento ortogonal de un subespacio vectorial 𝐹 de 𝐸 al subespacio vectorial 𝐹 ⊥ de 𝐸


formado por los vectores de 𝐸 que cumplen la condición de ser ortogonales a todos los vectores de 𝐹,
esto es,
𝐹 ⊥ = {𝑥 ∈ 𝐸 | 〈𝑥, 𝑦〉 = 0, ∀𝑦 ∈ 𝐹}
Se puede probar que la suma de 𝐹 con su complemento ortogonal 𝐹 ⊥ es directa y además cumple que
𝐹 ⊕ 𝐹 ⊥ = 𝐸,
por lo que
𝑑𝑖𝑚𝐹 + 𝑑𝑖𝑚𝐹 ⊥ = 𝑑𝑖𝑚𝐸.
Obviamente
(𝐹 ⊥ )⊥ = 𝐹

Ejemplo 6.22
En 𝑅3 , un plano que incluya al origen es un subespacio vectorial de dimensión 2. El complemento
ortogonal de este plano es precisamente la recta perpendicular al plano que pasa por el origen.
Análogamente, una recta que pasa por el origen es un subespacio vectorial de dimensión 1. Su
complemento ortogonal es precisamente el plano perpendicular a la recta que incluye al origen.

Se concluye este apartado con un resultado que resultará de utilidad más adelante.

Proposición 6.13: Teorema de la base ortonormal incompleta


Enunciado: Toda base ortonormal de un subespacio vectorial 𝐹 de un espacio 𝐸 de dimensión finita se
puede ampliar hasta formar una base ortonormal de 𝐸.
Demostración: Es consecuencia inmediata del teorema de la base incompleta y de Gram-Schmidt: Sea 𝑏𝐹
una base ortonormal de 𝐹. Se completa hasta formar una base 𝐵 de 𝐸. Con el método de Gram-Schmidt
sobre 𝐵 se obtiene una base ortonormal 𝑏𝐸 de E que completa la base 𝑏𝐹 de 𝐹.

Suescun, Insausti, Flaquer (2022) 247 Tecnun-Universidad de Navarra


6.14 Complemento ortogonal 6 Espacios con Producto Escalar

Ejemplo 6.23
En 𝑅3×1 , respecto del producto escalar ordinario, el complemento ortogonal del subespacio 𝐹 generado
por la base
1 1
𝑦1 = [1] , 𝑦2 = [1]
1 2
𝛼1
está formado por vectores 𝑥 = [𝛼2 ] que cumplen las dos condiciones
𝛼3
〈𝑥, 𝑦1 〉 = 0 〈𝑥, 𝑦2 〉 = 0
de ortogonalidad con los vectores de la base, esto es
𝛼1 + 𝛼2 + 𝛼3 = 0
𝛼1 + 𝛼2 + 2𝛼3 = 0
por lo que una base de 𝐹 ⊥ vendría dada por
−1
𝑥1 = [ 1 ]
0

Suescun, Insausti, Flaquer (2022) 248 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.15 Ejemplos de aplicación

Ejemplos de aplicación

Ejemplo de aplicación 6.1


Se considera un plano que pasa por el origen cuya ecuación es
𝑥 + 2𝑦 + 3𝑧 = 0
⃗ respecto del citado plano. El producto escalar es
Se busca el vector simétrico 𝑣 ′ del vector 𝑣 = 𝑖 + 𝑗 + 𝑘
el ordinario.

𝑣−𝜋
⃗𝑣
𝑣

𝑢

𝜋
⃗𝑣

𝑣′
De la figura se deduce que
𝑣 ′ = 𝑣 − 2(𝑣 − 𝜋
⃗ 𝑣)
Ahora bien el vector 𝑣 − 𝜋
⃗ 𝑣 es la proyección ortogonal de 𝑣 sobre el subespacio generado por el vector
1
𝑢
⃗ = ⃗
(𝑖 + 2𝑗 + 3𝑘 ), que es un vector unitario ortogonal al plano dado:
√14

3
𝑣−𝜋
⃗ 𝑣 =< 𝑢
⃗ ,𝑣 > 𝑢
⃗ = ⃗)
(𝑖 + 2𝑗 + 3𝑘
7
Por lo tanto:
1
𝑣 ′ = 𝑣 − 2(𝑣 − 𝜋
⃗ 𝑣) = ⃗)
(𝑖 − 5𝑗 − 11𝑘
7
Este ejemplo también puede resolverse mediante una matriz de Householder. Expresando los vectores
en la base canónica del espacio14:
𝑣 ′ = 𝑣 − 2(𝑢𝑇 𝑣)𝑢 = 𝑣 − 2𝑢(𝑢𝑇 𝑣) = 𝑣 − 2(𝑢𝑢𝑇 )𝑣 = ⏟
(𝐼 − 2𝑢𝑢𝑇 ) 𝑣 = 𝐻𝑣
=𝐻

La matriz de Householder 𝐻 = 𝐼 − 2𝑢𝑢𝑇 resuelve el problema de reflexión de cualquier vector respecto


al plano dado:
𝑣′ = 𝐻𝑣
En este caso concreto:

1 6 −2 −3 1 1 1
𝑣 ′ = 𝐻𝑣 = (𝐼 − 2𝑢𝑢𝑇 )𝑣 = [−2 3 −6] [ 1 ] = [ −5 ]
7 7
−3 −6 −2 1 −11
Es decir:
1
⃗)
𝑣 ′ = (𝑖 − 5𝑗 − 11𝑘
7

14 Fíjese en la notación empleada y el trabajo en la base canónica con el producto escalar ordinario:

1 𝐵𝑐 1 1 1 6
𝑢
⃗ = (𝑖 + 2𝑗 + 3𝑘⃗), 𝑣 = (𝑖 + 𝑗 + 𝑘⃗ ) → 𝑢= [ 2 ], 𝑣 = [ 1 ] → ⃗ , 𝑣 >= 𝑢𝑇 𝑣 =
<𝑢
√14 √14 3 1 √14

Suescun, Insausti, Flaquer (2022) 249 Tecnun-Universidad de Navarra


6.15 Ejemplos de aplicación 6 Espacios con Producto Escalar

Ejemplo de aplicación 6.2

En este ejemplo se pretende girar el vector 𝑣 = 𝑖 + 𝑗 + 2𝑘 ⃗ dos veces sucesivas. En primer lugar, girarlo
30° en torno al eje definido por el vector 𝑢 ⃗
⃗ 1 = 𝑖 + 𝑗 + 𝑘. A continuación, girar el resultado 60° alrededor
del eje definido por el vector 𝑢
⃗ 2 = 2𝑖 + 2𝑗 + 𝑘⃗.

Se quiere también hallar el ángulo que forman el vector 𝑢


⃗ original y el vector resultante tras las dos
rotaciones, 𝑣 ′ .
Recordemos la fórmula de Rodrigues: la transformación de giro de un vector un ángulo 𝜃, en sentido
positivo de giro, entorno al eje definido por el vector unitario 𝑢 ⃗ , viene representado en la
⃗ = 𝑎𝑖 + 𝑏𝑗 + 𝑐𝑘
base canónica por la siguiente matriz
𝐺 = 𝐼 + (𝑠𝑖𝑛𝜃)𝐾 + (1 − 𝑐𝑜𝑠𝜃)𝐾 2
siendo 𝐼 la matriz identidad y 𝐾 la siguiente matriz antisimétrica
0 −𝑐 𝑏
𝐾=[ 𝑐 0 −𝑎]
−𝑏 𝑎 0
Las matrices de giro de este ejemplo son:
0.9107 −0.2440 0.3333 0.7222 −0.0665 0.6885
𝐺1 = [ 0.3333 0.9107 −0.2440] 𝐺2 = [ 0.5109 0.7222 −0.4662]
−0.2440 0.3333 0.9107 −0.4662 0.6885 0.5556
Por lo tanto, al ejecutar sucesivamente los dos giros
0.4676 −0.0073 0.8839 1 −1.3075
𝑣′ = 𝐺2 𝐺1 𝑣 = [ 0.8198 0.3776 −0.4305] [ 1 ] = [ 2.0585 ]
−0.3307 0.9259 0.1825 2 0.2302
Y finalmente

𝑣 ′ = −1.3075𝑖 + 2.0585𝑗 + 0.2302𝑘
El ángulo 𝛼 entre los vectores 𝑣 y 𝑣 ′ verifica
< 𝑣, 𝑣 ′ >
cos 𝛼 = = 0.7475
‖𝑣 ‖‖𝑣 ′‖
donde se ha tenido en cuenta que, obviamente, ‖𝑣 ‖ = ‖𝑣′‖. Por lo tanto
𝛼 = 41,62°

Ejemplo de aplicación 6.3


Se considera el plano definido por la ecuación 𝑥 + 𝑦 + 𝑧 = 3 y se quiere encontrar el punto 𝑃 del plano
que menos dista del punto 𝐴 = (−1, 2, −2).
La figura ilustra el procedimiento a seguir:
𝑟
𝐴

𝑢

𝑃

Se traza la recta perpendicular al plano por el punto 𝐴 y se calcula su intersección con el plano. El vector
director de la recta perpendicular es precisamente el vector normal a plano 𝑢 ⃗ = (1, 1, 1).

Suescun, Insausti, Flaquer (2022) 250 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.15 Ejemplos de aplicación

Nótese la notación empleada15. Las ecuaciones paramétricas de la recta perpendicular permiten obtener
las coordenadas 𝑥, 𝑦, 𝑧 de cualquier punto 𝑃 de la recta:
𝑥 = −1 + 𝜆 𝑥 −1 1
{𝑦 = 2+𝜆 → [𝑦] = [ 2 ]+𝜆[1] → 𝑃 = 𝐴 + 𝜆𝑢
𝑧 −2 1
𝑧 = −2 + 𝜆
Las coordenadas 𝑥, 𝑦, 𝑧 de cualquier punto 𝑃 del plano deben cumplir la ecuación
𝑥
{ 𝑥 + 𝑦 + 𝑧 = 3 → [1 1 1] [ 𝑦 ] = 3 → 𝑢𝑇 𝑃 = 3
𝑧
El punto común entre recta y plano se obtiene remplazando 𝑃 en la ecuación del plano su expresión en la
ecuación de la recta:
𝑢𝑇 (𝐴 + 𝜆𝑢) = 3
𝑢𝑇 𝐴 + 𝜆𝑢𝑇 𝑢 = 3
de donde se obtiene el valor de 𝜆
3 − 𝑢𝑇 𝐴 3 − (−1) 4
𝜆= = =
𝑢𝑇 𝑢 3 3
Y a partir de 𝜆 se obtiene 𝑃
−1 1/3
4 1 1 10 −2
𝑃 = 𝐴 + 𝜆𝑢 = [ 2 ] + [ 1 ] = [ 10/3 ] → 𝑃 = ( 3 , 3 , 3 )
3
−2 1 −2/3

Ejemplo de aplicación 6. 4
Hallar la distancia de punto 𝐴 = (−1, 2, −2) al plano definido por la ecuación { 𝑥 + 𝑦 + 𝑧 = 3.
𝑟

𝐴
𝜋
⃗ 𝐵𝐴
𝑢
⃗ 𝑑 𝑢
⃗ 𝑢

𝜋
⃗ 𝐵𝐴 =< , ⃗⃗⃗⃗⃗
𝐵𝐴 >
‖𝑢
⃗‖ ‖𝑢
⃗‖
𝐵

La figura ilustra el procedimiento de resolución. Se elige un punto 𝐵 cualquiera del plano dado, por
ejemplo 𝐵 = (0, 3, 0), y se construye el vector ⃗⃗⃗⃗⃗
𝐵𝐴 = (−1, −1, −2). La distancia pedida es el módulo de
la proyección ortogonal 𝜋 ⃗⃗⃗⃗⃗ ⃗ = (1, 1, 1):
⃗ 𝐵𝐴 del vector 𝐵𝐴 sobre el vector normal al plano 𝑢

𝑢
⃗ 1 −1 4
𝑑 = |𝜋
⃗ 𝐵𝐴 | = |< , ⃗⃗⃗⃗⃗
𝐵𝐴 >| = | [1 1 1] [−1]| =
‖𝑢
⃗‖ √3 √3
−2

15 Notación: este ejemplo mezcla puntos de 𝑅3 y vectores de 𝐸3 en el espacio ordinario. Al ser isomorfos (§5.9) y por
sencillez, los vectores se escribirán con la notación de 𝑅3 , y como columnas de 𝑅3×1 al escribirlos en la base
canónica:
𝑎
⃗ = 𝑎𝑖 + 𝑏𝑗 + 𝑐𝑘⃗ = (𝑎, 𝑏, 𝑐)
𝑢 → 𝑢=[𝑏]
𝑐

Suescun, Insausti, Flaquer (2022) 251 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

Ejercicios resueltos

Ejercicio 6.1
Calcular el producto escalar y la norma de los siguientes vectores de 𝑅2
𝑥 = (1, 3) 𝑦 = (1, −2)
sabiendo que los vectores
𝑤1 = (3, 4) 𝑤2 = (2, 1)
forman una base ortonormal (evidentemente no con el producto escalar ordinario).

Solución
Aprovechando las ventajas de trabajar en una base ortonormal:
1
𝑥 = (1, 3) → 𝑥𝑏 = [ ]
𝑏 = 𝑤1 , 𝑤2 { −1
−1
𝑦 = (1, −2) → 𝑦𝑏 = [ ]
2
Y, por tanto:

〈𝑥, 𝑦〉 = 𝑥𝑏𝑇 𝑦𝑏 = [1 − 1] [ −1 ] = −3
2

‖𝑥‖ = √〈𝑥, 𝑥〉 = √𝑥𝑏𝑇 𝑥𝑏 = √2

‖𝑦‖ = √〈𝑦, 𝑦〉 = √𝑦𝑏𝑇 𝑦𝑏 = √5

Ejercicio 6.2
Hallar el producto escalar y la norma de los vectores de 𝑅3
𝑥 = (1, 2, 3) 𝑦 = (1, 1, 3)
sabiendo que la base formada por los tres vectores siguientes
𝑤1 = (1, 1, 2) 𝑤2 = (0, 0, 1) 𝑤3 = (0, 1, 1)
es ortonormal (evidentemente, no con el producto escalar ordinario).

Solución
En primer lugar, se escriben los vectores en la base ortonormal dada:
1
𝑥 = (1, 2, 3) → 𝑥𝑏 = [ 0 ]
1
1
𝑦 = (1, 1, 3) → 𝑦𝑏 = [ 1 ]
0
Y ahora:
1
〈𝑥, 𝑦〉 = 𝑥𝑏𝑇 𝑦 = [1 0 1] [ 1 ] = 1
0

Ejercicio 6.3
Deducir una base ortonormal para un espacio vectorial real de dimensión dos a partir de otra base
formada dos vectores 𝑢 y 𝑣 de igual norma.

Suescun, Insausti, Flaquer (2022) 252 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

Solución
Al tratarse de un espacio vectorial real y siendo 𝑢 y 𝑣 vectores de igual norma, los vectores 𝑢 + 𝑣 y 𝑢 − 𝑣
son ortogonales:
〈𝑢 + 𝑣, 𝑢 − 𝑣〉 = 〈𝑢, 𝑢〉 − 〈𝑢, 𝑣〉 + 〈𝑣, 𝑢〉 − 〈𝑣, 𝑣〉 = ‖𝑢‖2 − ‖𝑣‖2 = 0
Y, por tanto, una base formada por los vectores
𝑢+𝑣 𝑢−𝑣
𝑤1 = 𝑤2 =
‖𝑢 + 𝑣‖ ‖𝑢 − 𝑣‖
es ortonormal. Los vectores 𝑢 + 𝑣 y 𝑢 − 𝑣 forman una lista linealmente independiente, de ahí que
también lo sea la lista 𝑤1 , 𝑤2 .

Ejercicio 6.4
Los vectores 𝑢 y 𝑣 son de igual norma y forman una lista linealmente independiente en un espacio
vectorial real. Se suponen conocidas las normas ‖𝑢 + 𝑣‖ y ‖𝑢 − 𝑣‖. Hallar el producto escalar 〈𝑥, 𝑦〉
siendo:
𝑥 = 𝑢 + 3𝑣
𝑦 = 3𝑢 + 𝑣

Solución
Aprovechando el resultado del ejercicio anterior, se construye una base ortonormal con los vectores 𝑢 y
𝑣 y se trabaja en ella:
𝑢+𝑣 𝑢−𝑣
𝑤1 = 𝑤2 =
‖𝑢 + 𝑣‖ ‖𝑢 − 𝑣‖
Para poder expresar los vectores 𝑥 e 𝑦 en esta base, es necesario primero expresar los vectores 𝑢 y 𝑣 en
dicha base:
𝑎 𝑏
𝑢 + 𝑣 = 𝑎𝑤1 𝑢=
𝑤1 + 𝑤2
} → 2 2 }
𝑢 − 𝑣 = 𝑏𝑤2 𝑎 𝑏
𝑣 = 𝑤1 − 𝑤2
2 2
siendo 𝑎 = ‖𝑢 + 𝑣‖ y 𝑏 = ‖𝑢 − 𝑣‖.
Se escriben ahora los vectores 𝑥 e 𝑦 en la base ortornormal:
2𝑎
𝑥 = 𝑢 + 3𝑣 = 2𝑎𝑤1 − 𝑏𝑤2 → 𝑥𝑏 = [ ]
−𝑏
2𝑎
𝑦 = 3𝑢 + 𝑣 = 2𝑎𝑤1 + 𝑏𝑤2 → 𝑦𝑏 = [ ]
𝑏
Y finalmente:

〈𝑥, 𝑦〉 = 𝑥𝑏𝑇 𝑦𝑏 = [2𝑎 − 𝑏] [ 2𝑎 ] = 4𝑎2 − 𝑏 2


𝑏
〈𝑥, 𝑦〉 = 4‖𝑢 + 𝑣‖2 − ‖𝑢 − 𝑣‖2

Ejercicio 6.5
Se define en 𝑅2 [𝑡] el siguiente producto escalar real:
1
〈𝑞(𝑡), 𝑟(𝑡)〉 = ∫ 𝑞(𝑡)𝑟(𝑡)𝑑𝑡
0

Hallar la métrica del espacio en la base 𝐵 = 1, 𝑡, 𝑡 2 y utilizarla para obtener el producto escalar
〈1 + 𝑡, 1 − 𝑡〉 y la norma del polinomio 1 + 𝑡 + 𝑡 2 .

Suescun, Insausti, Flaquer (2022) 253 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

Solución
La métrica viene dada por la matriz de Gram
〈1,1〉 〈1, 𝑡〉 〈1,1〉 1 1/2 1/3
𝐺 = [ 〈𝑡, 1〉 〈𝑡, 𝑡〉 〈𝑡, 𝑡 2 〉 ] = [1/2 1/3 1/4]
〈𝑡 2 , 1〉 〈𝑡 2 , 𝑡〉 〈𝑡 2 ,𝑡 2〉 1/3 1/4 1/5
El producto escalar pedido se calcula de manera sencilla en función de la métrica:
〈𝑥, 𝑦〉 = 𝑥𝐵𝑇 𝐺𝑦𝐵
1 1/2 1/3 1
2
〈1 + 𝑡, 1 − 𝑡〉 = [1 1 0] [1/2 1/3 1/4] [−1] =
3
1/3 1/4 1/5 0
De manera similar, la norma de 1 + 𝑡 + 𝑡 2 se halla mediante:
1 1/2 1/3 1
2 2〉
37
〈1 + 𝑡 + 𝑡 , 1 + 𝑡 + 𝑡 = [1 1 1] [1/2 1/3 1/4] [ 1] =
10
1/3 1/4 1/5 1

37
‖1 + 𝑡 + 𝑡 2 ‖ = √
10

Ejercicio 6.6
Demostrar que las matrices de Gram que permiten expresar el producto escalar en una base cualquiera
son definido-positivas.

Solución
Sea 𝑥𝐵 la matriz columna con las componentes de un vector 𝑥 ≠ 0 cualquiera en la base en la que se ha
calculado la matriz de Gram 𝐺. En estas condiciones:
‖𝑥‖2 = 〈𝑥, 𝑥〉 = 𝑥𝐵 𝐻 𝐺 𝑥𝐵
Como ‖𝑥‖ > 0 (∀𝑥 ≠ 0), y al ser 𝑥 ≠ 0 ⟹ 𝑥𝐵 ≠ 0, entonces:
𝑥𝐵 𝐻 𝐺 𝑥𝐵 > 0 (∀𝑥𝐵 ≠ 0)
Por otra parte, si 𝑥 = 0, entonces ‖𝑥‖ = 0 y 𝑥𝐵 = 0 y por tanto:
𝑥𝐵 𝐻 𝐺 𝑥𝐵 = 0 (𝑥𝐵 = 0)
Lo que permite concluir que 𝐺 es definido-positiva.

Ejercicio 6.7
Hallar una base ortonormal del complemento ortogonal del subespacio 𝐹 de 𝑅4×1 , que se define en la
base canónica con las siguientes ecuaciones:
2𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 0
𝐹≡{
𝛼1 + 𝛼2 + 𝛼3 + 2𝛼4 = 0
Nota: el producto escalar que rige en el espacio es el ordinario.

Solución
La forma matricial de las ecuaciones implícitas de 𝐹 es 𝐴𝑥𝐵𝑐 = 0 siendo:
𝛼1
2 −1 1 −1 𝛼2
𝐴=[ ] 𝑥𝐵𝑐 = [𝛼 ]
1 1 1 2 3
𝛼4

Suescun, Insausti, Flaquer (2022) 254 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

Las filas de la matriz 𝐴 corresponden a dos columnas 𝑣1 y 𝑣2 de 𝑅4×1 :


2 1
𝑣1𝑇 −1 1
𝐴=[ ] → 𝑣1 = [ ] 𝑣2 = [ ]
𝑣2𝑇 1 1
−1 2
Obsérvese que los vectores de 𝐹 son ortogonales a las columnas 𝑣1 y 𝑣2 :
𝑣1𝑇 𝑥𝐵𝑐 0 〈𝑣1 , 𝑥𝐵𝑐 〉 = 0
𝐴𝑥𝐵𝑐 = 0 → [ 𝑇
]=[ ] → {
𝑣2 𝑥𝐵𝑐 0 〈𝑣2 , 𝑥𝐵𝑐 〉 = 0
La independencia lineal de las ecuaciones implícitas de 𝐴 garantiza la independencia lineal de 𝑣1 y 𝑣2 .
Como la dimensión de 𝐹 ⊥ es dos, los vectores 𝑣1 y 𝑣2 forman una base de 𝐹 ⊥ :
𝐵𝐹 ⊥ = 𝑣1 , 𝑣2
Casualmente, los vectores 𝑣1 y 𝑣2 son ortogonales pues:
〈𝑣1 , 𝑣2 〉 = 𝑣1𝑇 𝑣2 = 0
Por tanto, basta con normalizarlos para obtener una base ortonormal:
2 1
1−1 1 1
𝑏𝐹 ⊥ = [ ], [ ]
√7 1 √7 1
−1 2

Ejercicio 6.8
Sea 𝐹 un subespacio vectorial de 𝑅4×1 dado por sus ecuaciones implícitas en la base canónica:
𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 0
𝐹≡{
𝛼1 − 𝛼4 = 0
Hallar una base ortonormal del subespacio complemento ortogonal 𝐹 ⊥ .

Solución
Las filas de la matriz del sistema de las ecuaciones implícitas de 𝐹 corresponden a una base de su
complemento ortogonal:
𝑣1𝑇 𝑣1𝑇 𝑥 0 〈𝑣1 , 𝑥〉 = 0
𝐴=[ ] → 𝐴𝑥 = 0 → [ ]=[ ] → { (𝑥 ∈ 𝐹)
𝑣2𝑇 𝑇
𝑣2 𝑥 0 〈𝑣2 , 𝑥〉 = 0
Por tanto:
1 1
−1 0
𝐵𝐹 ⊥ =[ ],[ ]
1 0
−1 −1
Para convertirla en una base ortonormal, como alternativa al método de Gram-Schmidt, puede hacerse
lo siguiente. Nótese que restando ambas columnas se obtiene una columna ortogonal a la segunda:
1 1 0
−1 0 −1
[ ]−[ ]=[ ]
1 0 1
−1 −1 0
Y por tanto, una base ortonormal de 𝐹 ⊥ es:
0 1
1 −1 1 0
𝑏𝐹 ⊥ = [ ], [ ]
√2 1 √2 0
0 −1

Suescun, Insausti, Flaquer (2022) 255 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

Ejercicio 6.9
Demostrar que el subespacio de matrices antisimétricas reales de orden 2 es el complemento ortogonal
del subespacio de matrices simétricas reales de orden 2 respecto del siguiente producto escalar real:
〈𝑋, 𝑌〉 = traza (𝑋 𝑇 𝑌)

Solución
Una base del subespacio 𝒮 de matrices simétricas de orden 2 es:
1 0 0 1 0 0
[ ] ,[ ] ,[ ]
0 0 1 0 0 1
Y una base del subespacio 𝒜 de matrices antisimétricas de orden 2 es:
0 −1
[ ]
1 0
Para demostrar que 𝒜 = 𝒮 ⊥ , basta verificar que el vector de la base de 𝒜 es ortogonal a los vectores de
la base de 𝒮. Esto es:

〈[1 0 0 −1
],[ ]〉 = traza ([
1 0 0 −1
][ ]) = traza ([
0 −1
]) = 0
0 0 1 0 0 0 1 0 0 0
〈[0 1 0 −1
],[ ]〉 = traza ([
0 1 0 −1
][ ]) = traza ([
1 0
]) = 0
1 0 1 0 1 0 1 0 0 −1
〈[0 0 0 −1
],[ ]〉 = traza ([
0 0 0 −1
][ ]) = traza ([
0 0
]) = 0
0 1 1 0 0 1 1 0 1 0
Y por tanto 𝒜 = 𝒮 ⊥ . Recuérdese que en este caso 𝒜⨁𝒮 = 𝑅2×2

Ejercicio 6.10
Hallar la proyección ortogonal del vector 𝑥 de 𝑅4×1 sobre el subespacio 𝐹 del que se conoce que los
vectores 𝑤1 y 𝑤2 forman una base ortonormal con el producto escalar ordinario:
1 0 −1
2 1 −1 1 0
𝑥=[ ] 𝑤1 = [ ] 𝑤2 = [ ]
3 √2 1 √2 0
4 0 1

Solución
El vector proyección ortogonal se calcula fácilmente si se dispone de una base ortonormal:
𝜋𝑥 = 〈𝑤1 , 𝑥〉 𝑤1 + 〈𝑤2 , 𝑥〉 𝑤2 =
Se calculan en primer lugar los productores escalares involucrados:
1
1 2 1
〈𝑤1 , 𝑥〉 = [0 − 1 1 0] [ ] =
√2 3 √2
4
1
1 2 3
〈𝑤2 , 𝑥〉 = [−1 0 0 1] [ ] =
√2 3 √2
4
Y finalmente:
0 −1 −3
1 1 −1 3 1 0 1 −1
𝜋𝑥 = ( ) [ ]+( ) [ ]= [ ]
√2 √2 1 √2 √2 0 2 1
0 1 3

Suescun, Insausti, Flaquer (2022) 256 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

Ejercicio 6.11
Hallar la proyección ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), siendo:
1 1 2
𝑏 =[2] 𝐴=[1 2]
3 1 2

Solución
Obsérvese que dim 𝑅(𝐴) = 1 por lo que una base ortonormal del subespacio imagen es:
1
1
𝑏𝑅(𝐴) = 𝑤1 = [1]
√3
1
Y, asumiendo que el producto escalar es el ordinario, la proyección ortogonal de 𝑏 es:
1 1 2
1 1
𝜋𝑏 = 〈𝑤1 , 𝑏〉𝑤1 = ( [1 1 1] [ 2 ]) [1] =[2]
√3 √3
3 1 2

Ejercicio 6.12
Hallar la proyección ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), siendo:
1 1 −1
𝑏 =[1] 𝐴=[2 2]
1 0 0

Solución
En primer lugar se obtiene una base ortonormal del subespacio 𝑅(𝐴). Obsérvese que las dos columnas
de 𝐴 son independientes y de igual norma (se asume el producto escalar ordinario) por lo que a partir de
éstas se puede crear la base ortonormal:
0
𝑢1 + 𝑢2
𝑤1 = =[ 1 ]
1 −1 ‖𝑢1 + 𝑢2 ‖
𝐴 = [𝑢1 𝑢2 ] → 𝑢1 = [ 2 ] 𝑢2 = [ 2] → 0
1
0 0 𝑢1 − 𝑢2
𝑤2 = =[ 0 ]
‖𝑢1 − 𝑢2 ‖
{ 0
𝑢+𝑣 𝑢−𝑣
𝑤1 = 𝑤2 =
‖𝑢 + 𝑣‖ ‖𝑢 − 𝑣‖
Y finalmente, la proyección ortogonal de 𝑏 es:
1 0 1 1 1
𝜋𝑏 = 〈𝑤1 , 𝑏〉𝑤1 + 〈𝑤2 , 𝑏〉𝑤2 = ([0 1 0] [ 1 ]) [ 1 ] + ([1 0 0] [ 1 ]) [ 0 ] = [ 1 ]
1 0 1 0 0

Ejercicio 6.13
Sean 𝑥 y 𝑣 dos siguientes vectores de 𝑅4×1 y sea 𝐹 el subespacio vectorial generado por el vector 𝑣.
Calcular el vector proyección ortogonal de 𝑥 sobre 𝐹 y sobre su complemento ortogonal 𝐹 ⊥ . Datos:

Suescun, Insausti, Flaquer (2022) 257 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

3 1
−1 −1
𝑥=[ ] 𝑣=[ ]
3 1
−1 −1

Solución
Sea 𝜋𝑥𝐹 la proyección ortogonal de 𝑥 sobre 𝐹. Una base ortonormal de 𝐹 es:
1
1 −1
𝑏𝐹 = 𝑤1 = [ ]
2 1
−1
Y, por tanto:
3 1 2
1 −1 1 −1 −2
𝜋𝑥𝐹 = 〈𝑤1 , 𝑥〉 𝑤1 = ( [1 − 1 1 − 1] [ ]) [ ] = [ ]
2 3 2 1 2
−1 −1 −2
Sea ahora 𝜋𝑥 la proyección ortogonal de 𝑥 sobre 𝐹 ⊥ . Se sabe que:
𝐹⊥

𝑅4×1 = 𝐹 ⨁ 𝐹 ⊥
es decir, la suma es directa y llena el espacio. La propiedad de descomposición única de la suma directa,
determina que:
𝑥 = 𝜋𝑥𝐹 + 𝜋𝑥
𝐹⊥

De donde:
3 2 1
−1 −2 1
𝜋𝑥 = 𝑥 − 𝜋𝑥𝐹 =[ ]−[ ]=[ ]
𝐹⊥ 3 2 1
−1 −2 1

Ejercicio 6.14
Hallar un vector de 𝑅2×1 del que se sabe que su proyección ortogonal sobre el subespacio generado por
el vector 𝑢 = [ 2 1 ]𝑇 vale 2𝑢 y que su proyección ortogonal sobre el subespacio generado por el vector
𝑣 = [−2 1]𝑇 vale 2𝑣. El producto escalar que rige en el espacio es el ordinario.

Solución
Sea 𝑥 = [𝑎 𝑏]𝑇 el vector buscado. La siguiente figura ilustra los datos que se proporcionan en el
enunciado:

2𝑣 𝑎
𝑥=[ ]
𝑏

2𝑢
𝑢

Los vectores 𝑢 y 𝑣 generan sendos subespacios vectoriales unidimensionales. En estos dos subespacios,
los vectores

Suescun, Insausti, Flaquer (2022) 258 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

𝑢 1 2 𝑣 1 −2
= [ ] = [ ]
‖𝑢‖ √5 1 ‖𝑣‖ √5 1
forman las respectivas bases ortonormales.
Teniendo una base ortonormal en cada subespacio y conociendo las proyecciones ortogonales del vector
𝑥 sobre cada uno de ellos, se puede escribir:
𝑢 𝑢
2𝑢 = 〈 , 𝑥〉 → 2‖𝑢‖2 = 𝑢𝑇 𝑥 → 10 = 2𝑎 + 𝑏
‖𝑢‖ ‖𝑢‖
𝑣 𝑣
2𝑣 = 〈 , 𝑥〉 → 2‖𝑣‖2 = 𝑣 𝑇 𝑥 → 10 = −2𝑎 + 𝑏
‖𝑣‖ ‖𝑣‖
Y, por tanto, el vector buscado es:
0
𝑎 = 0 𝑏 = 10 → 𝑥 =[ ]
10

Ejercicio 6.15
Hallar la proyección ortogonal de la matriz
2 2
𝐴=[ ]
2 2
de 𝑅2×2 sobre el subespacio generado por la matriz
0 1
𝐵=[ ]
1 0
usando el producto escalar siguiente:
〈𝑋, 𝑌〉 = 𝑡𝑟𝑎𝑧𝑎 (𝑋 𝑇 𝑌)

Solución
Una base ortonormal del subespacio viene dada por el vector:
𝐵 1 0 1
𝑊1 = = [ ]
‖𝐵‖ √2 1 0
ya que:

‖𝐵‖ = √〈𝐵, 𝐵〉 = √𝑡𝑟𝑎𝑧𝑎 (𝐵𝑇 𝐵) = √2


Por tanto, la proyección ortogonal de la matriz 𝐴 es:
0 2
𝜋𝐴 = 〈𝑊1 , 𝐴〉 𝑊1 = [ ]
2 0

Ejercicio 6.16
Determinar una base ortonormal de 𝑅3×1 a partir de la siguiente base:
1 1 1
𝐵 = [ 0 ] , [ 0 ] , [−1 ]
−1 0 0
Nota: el producto escalar es el ordinario.

Solución
Se usa el método de Gram-Schmidt. Primera etapa:
1 𝑣1 1 1
𝑣1 = 𝑢1 = [ 0 ] → 𝑤1 = = [ 0]
‖𝑣1 ‖ √2
−1 −1
Segunda etapa:

Suescun, Insausti, Flaquer (2022) 259 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

1 1 1
〈𝑤1 , 𝑢2 〉 = [1
−1] [ 0 ] =
0
√2 0 √2

1 1 1 1 1
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉 𝑤1 = ( ) [ 0]= [ 0]
√2 √2 −1 2
−1
1 1 1 1 1 𝑣2 1 1
𝑣2 = 𝑢2 − 𝜋𝑢2 = [ 0 ] − [ 0 ] = [ 0 ] → 𝑤2 = = [ 0]
2 2 ‖𝑣2 ‖ √2
0 −1 1 1
Tercera etapa:

1 1 1
〈𝑤1 , 𝑢3 〉 = [1 0−1] [−1 ] =
√2 0 √2

1 1 1
〈𝑤2 , 𝑢3 〉 = [1 0 1] [−1 ] =
√2 0 √2
11 11 1 1 1
𝜋𝑢3 = 〈𝑤1 , 𝑢3 〉 𝑤1 + 〈𝑤2 , 𝑢3 〉 𝑤2 = [ 0]+ [ 0] =[ 0]
√2 √2 −1 √2 √2 1 0
1 1 0 𝑣3 0
𝑣3 = 𝑢3 − 𝜋𝑢3 = [−1 ] − [ 0 ] = [−1 ] → 𝑤3 = = [ −1 ]
‖𝑣3 ‖
0 0 0 0
Por tanto, la base ortonormal buscada es:

1 1 1 1 0
𝑤1 = [ 0 ] 𝑤2 = [ 0 ] 𝑤3 = [ −1 ]
√2 −1 √2 1 0

Ejercicio 6.17
Los vectores 𝑢1 , 𝑢2 , 𝑢3 forman una base de un subespacio 𝐹 de 𝑅4×1 . A partir de ésta, determinar una
base ortonormal para este subespacio.
1 0 0
−1 1 0
𝑢1 = [ ] 𝑢2 = [ ] 𝑢3 = [ ]
1 −1 1
−1 1 −1
Nota: el producto escalar es el ordinario.

Solución
Se usa el método de Gram-Schmidt. Primera etapa:
1 1
−1 𝑣1 1 −1
𝑣1 = 𝑢1 = [ ] → 𝑤1 = = [ ]
1 ‖𝑣1 ‖ 2 1
−1 −1
Segunda etapa:
0
1 1 3
〈𝑤1 , 𝑢2 〉 = [ 1 −1 1 −1] [ ]=−
2 −1 2
1
1 1
3 1 −1 3 −1
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉 𝑤1 = (− ) [ ]=− [ ]
2 2 1 4 1
−1 −1

Suescun, Insausti, Flaquer (2022) 260 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

0 1 3
1 3 −1 1 1
𝑣2 = 𝑢2 − 𝜋𝑢2 = [ ]+ [ ]= [ ]
−1 4 1 4 −1
1 −1 1
3
𝑣2 1 1
→ 𝑤2 = = [ ]
‖𝑣2 ‖ 2√3 −1
1
Tercera etapa:
0
1 0
〈𝑤1 , 𝑢3 〉 = [ 1 −1 1 −1] [ ]=1
2 1
−1
0
1 0 1
〈𝑤2 , 𝑢3 〉 = [3 1 −1 1] [ ]=−
2√3 1 √3
−1
1 3 0 0
1 −1 1 1 1 −4 2 −1
𝜋𝑢3 = 〈𝑤1 , 𝑢3 〉 𝑤1 + 〈𝑤2 , 𝑢3 〉 𝑤2 = [ ]− [ ]= [ ]= [ ]
2 1 6 −1 6 4 3 1
−1 1 −4 −1
0 0 0
0 2 −1 1 2
𝑣3 = 𝑢3 − 𝜋𝑢3 = [ ]− [ ]= [ ]
1 3 1 3 1
−1 −1 −1
0
𝑣3 1 2
→ 𝑤3 = = [ ]
‖𝑣3 ‖ √6 1
−1
Por tanto, la base ortonormal buscada es:
1 3 0
1 −1 1 1 1 2
𝑤1 = [ ] 𝑤2 = [ ] 𝑤3 = [ ]
2 1 2√3 −1 √6 1
−1 1 −1

Ejercicio 6.18
Hallar una base ortonormal del subespacio 𝐹 de 𝑅4×1 dado por sus ecuaciones implícitas en la base
canónica:
𝛼1 + 𝛼2 + 𝛼3 =0
{
−𝛼1 + 𝛼3 + 𝛼4 = 0

Solución
En primer lugar se resuelven las ecuaciones implícitas para obtener las paramétricas y de éstas una base
de 𝐹:
𝛼1 = 𝑘1 1 0
1 1 1 0 𝛼 = 𝑘2 0 1
[ ] → { 2 → 𝐵𝐹 = [ ] , [ ]
−1 0 1 1 𝛼3 = −𝑘1 − 𝑘2 −1 −1
𝛼4 = 2𝑘1 + 𝑘2 2 1
Ahora se usa el método de Gram-Schmidt para convertir la base dada en una ortonormal:
1 1
0 𝑣1 1 0
𝑣1 = 𝑢1 = [ ] → 𝑤1 = = [ ]
−1 ‖𝑣1 ‖ √6 −1
2 2

Suescun, Insausti, Flaquer (2022) 261 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

Segunda etapa:
0
1 1 3
〈𝑤1 , 𝑢2 〉 = [1 0 − 1 2] [ ] =
√6 −1 √6
1
1 1
30 1
1 0
𝜋𝑢2 = 〈𝑤1 , 𝑢2 〉 𝑤1 = ( ) [ ]= [ ]
√6 √6 −1 2 −1
2 2
0 1 −1 −1
1 1 0 1 2 𝑣2 1 2
𝑣2 = 𝑢2 − 𝜋𝑢2 = [ ] − [ ] = [ ] → 𝑤2 = = [ ]
−1 2 −1 2 −1 ‖𝑣2 ‖ √6 −1
1 2 0 0
Por tanto, una base ortonormal es:
1 −1
01 1 2
𝑏𝐹 = [ ], [ ]
√6 −1 √6 −1
2 0

Ejercicio 6.19
Demostrar la desigualdad de Bessel
𝑘

∑|〈𝑤𝑖 , 𝑥〉|2 ≤ ‖𝑥‖2


𝑖=1

en un espacio vectorial 𝐸, 𝑛-dimensional con producto escalar, siendo 𝑥 un vector de 𝐸 y 𝑤1 , 𝑤2 , … 𝑤𝑘


una base ortonormal de un subespacio vectorial 𝐹 de 𝐸.

Solución
Nótese que el primer miembro de la desigualdad de Bessel es el cuadrado de la norma de la proyección
ortogonal 𝜋𝑥 del vector 𝑥 sobre 𝐹, pues la base es ortonormal:
𝑘 𝑘

𝜋𝑥 = ∑〈𝑤𝑖 , 𝑥〉 𝑤𝑖 → ‖𝜋𝑥 ‖2 = ∑|〈𝑤𝑖 , 𝑥〉|2


𝑖=1 𝑖=1

Ya se sabe que:
‖𝜋𝑥 ‖ ≤ ‖𝑥‖
de donde se concluye inmediatamente la desigualdad de Bessel.

Ejercicio 6.20
Demostrar la identidad de Parseval,
𝑛

∑|〈𝑤𝑖 , 𝑥〉|2 = ‖𝑥‖2


𝑖=1

en un espacio vectorial 𝐸, 𝑛-dimensional con producto escalar, siendo 𝑥 un vector de 𝐸 y 𝑤1 , 𝑤2 , … 𝑤𝑛


una base ortonormal de 𝐸.

Solución
Nótese que el primer miembro de la identidad de Parseval es el cuadrado de la norma del vector 𝑥, pues
〈𝑤𝑖 , 𝑥〉, ∀𝑖 son sus componentes en la base ortonormal dada del espacio, luego

Suescun, Insausti, Flaquer (2022) 262 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

𝑛 𝑛

𝑥 = ∑〈𝑤𝑖 , 𝑥〉 𝑤𝑖 → ‖𝑥‖2 = ∑|〈𝑤𝑖 , 𝑥〉|2


𝑖=1 𝑖=1

Ejercicio 6.21
Demuéstrese que en un espacio con producto escalar se cumple la identidad:
‖𝑥 + 𝑦‖2 + ‖𝑥 − 𝑦‖2 = 2(‖𝑥‖2 + ‖𝑦‖2 )

Solución
De una parte, se tiene que:
‖𝑥 + 𝑦‖2 = 〈𝑥 + 𝑦, 𝑥 + 𝑦〉 = 〈𝑥, 𝑥〉 + 〈𝑥, 𝑦〉 + 〈𝑦, 𝑥〉 + 〈𝑦, 𝑦〉 =
= ‖𝑥‖2 + 〈𝑥, 𝑦〉 + ̅̅̅̅̅̅̅
〈𝑥, 𝑦〉 + ‖𝑦‖2
Por otra parte:
‖𝑥 − 𝑦‖2 = 〈𝑥 − 𝑦, 𝑥 − 𝑦〉 = 〈𝑥, 𝑥〉 − 〈𝑥, 𝑦〉 − 〈𝑦, 𝑥〉 + 〈𝑦, 𝑦〉 =
= ‖𝑥‖2 − 〈𝑥, 𝑦〉 − ̅̅̅̅̅̅̅
〈𝑥, 𝑦〉 + ‖𝑦‖2
Y finalmente:
‖𝑥 + 𝑦‖2 + ‖𝑥 − 𝑦‖2 = 2(‖𝑥‖2 + ‖𝑦‖2 )

Ejercicio 6.22
Demostrar la siguiente afirmación: "El vector nulo es ortogonal a todos los vectores del espacio, y,
recíprocamente, el único vector ortogonal a todos los vectores del espacio es el vector nulo".

Solución
Directo:
𝑥 = 0 ⇒ 𝑥 ⊥ 𝑢 ∀𝑢 ∈ 𝐸
〈𝑢, 𝑥〉 = 〈𝑢, 0〉 = 〈𝑢, 0. 𝑢〉 = 0〈𝑢, 𝑢〉 = 0 ∀𝑢 ∈ 𝐸
Recíproco:
𝑥 ⊥ 𝑢 ∀𝑢 ∈ 𝐸 ⇒ 𝑥 = 0
〈𝑢, 𝑥〉 = 0 ∀𝑢 ∈ 𝐸 ⇒ 〈𝑥, 𝑥〉 = 0 ⇒ 𝑥 = 0

Ejercicio 6.23
Demostrar que, en la desigualdad de Cauchy-Schwarz, la igualdad se obtiene si y sólo si los vectores son
dependientes.

Solución
La desigualdad de Cauchy-Schwarz establece que:
|〈𝑥, 𝑦〉| ≤ ‖𝑥‖‖𝑦‖
La igualdad se cumple si uno de los vectores o los dos son el vector nulo. En este caso, es obvio que los
vectores forman una lista linealmente dependiente.
Se analiza a continuación el caso en que los dos vectores son no nulos. Supóngase que 𝑥 e 𝑦 son
linealmente dependientes (directo): uno de los vectores debe ser múltiplo escalar del otro, por ejemplo
𝑦 = 𝛼𝑥. Entonces, dado que
‖𝑦‖2 = 𝛼 2 ‖𝑥‖2

Suescun, Insausti, Flaquer (2022) 263 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

se obtiene:
‖𝑦‖2
〈𝑥, 𝑦〉2 = (〈𝑥, 𝛼𝑥〉)2 = 𝛼 2‖𝑥‖4 = ‖𝑥‖4 = ‖𝑦‖2 ‖𝑥‖2
‖𝑥‖2
Y, por tanto:
|〈𝑥, 𝑦〉| = ‖𝑥‖‖𝑦‖
Se supone ahora que se cumple la igualdad (recíproco):
|〈𝑥, 𝑦〉| = ‖𝑥‖‖𝑦‖
De la ecuación que permite estudiar la dependencia o independencia lineal de vectores:
𝛼𝑥 + 𝛽𝑦 = 0
〈𝑥, 𝛼𝑥 + 𝛽𝑦〉 = 〈𝑥, 0〉 → 𝛼〈𝑥, 𝑥〉 + 𝛽〈𝑥, 𝑦〉 = 0
|𝛽| |〈𝑥, 𝑦〉| = |𝛼| ‖𝑥‖2
|𝛽| ‖𝑥‖‖𝑦‖ = |𝛼| ‖𝑥‖2
|𝛽| ‖𝑦‖ = |𝛼| ‖𝑥‖
Obsérvese que, al ser los vectores no nulos, es posible encontrar valores no nulos de 𝛼 y 𝛽 que cumplan
la relación anterior de donde se deduce que 𝑥 e 𝑦 son linealmente dependientes.

Ejercicio 6.24
Probar que el complemento ortogonal de la suma de dos subespacios vectoriales es la intersección de sus
complementos ortogonales.
(𝐹 + 𝐺)⊥ = 𝐹 ⊥ ∩ 𝐺 ⊥

Solución
Directo:
𝑦 ∈ (𝐹 + 𝐺)⊥ → 〈𝑥, 𝑦〉 = 0 ∀𝑥 ∈ 𝐹 + 𝐺
En particular 𝐹 y 𝐺 están contenidos en 𝐹 + 𝐺, luego:
〈𝑢, 𝑦〉 = 0 ∀𝑢 ∈ 𝐹 → 𝑦 ∈ 𝐹 ⊥
} → 𝑦 ∈ 𝐹⊥ ∩ 𝐺 ⊥
〈𝑣, 𝑦〉 = 0 ∀𝑣 ∈ 𝐺 → 𝑦 ∈ 𝐺 ⊥
Recíproco:

⊥ ⊥
𝑦 ∈ 𝐹⊥ → 〈𝑢, 𝑦〉 = 0 ∀𝑢 ∈ 𝐹
𝑦∈𝐹 ∩𝐺 → {
𝑦 ∈ 𝐺⊥ → 〈𝑣, 𝑦〉 = 0 ∀𝑣 ∈ 𝐺
→ 〈𝑢 + 𝑣, 𝑦〉 = 0 → 𝑢 + 𝑣 ∈ 𝐹 + 𝐺 → 𝑦 ∈ (𝐹 + 𝐺)⊥

Ejercicio 6.25
Probar la siguiente identidad:
𝑁(𝐴) = 𝑅(𝐴𝑇 )⊥
Siendo 𝐴 una matriz real de tamaño 𝑚 × 𝑛.

Solución
Se asume que el producto escalar es el ordinario de los espacios vectoriales de matrices columna 𝑅𝑛×1 y
𝑅𝑚×1 .
Se comienza considerando la matriz 𝐴 particionada por filas

Suescun, Insausti, Flaquer (2022) 264 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.16 Ejercicios resueltos

𝑣1𝑇
𝑣2𝑇
𝐴= → 𝐴𝑇 = [𝑣1 𝑣2 ⋯ 𝑣𝑚 ]
𝑇
[𝑣𝑚 ]
Sea 𝑥 ∈ 𝑁(𝐴). Se cumple:
𝐴𝑥 = 0𝑚×1 → 𝑥 𝑇 𝐴𝑇 = 0𝑇 1×𝑚
𝑥 𝑇 𝐴𝑇 = 𝑥 𝑇 [𝑣1 𝑣2 ⋯ 𝑣𝑚 ] = [𝑥 𝑇 𝑣1 𝑥 𝑇 𝑣2 ⋯ 𝑥 𝑇 𝑣𝑚 ] = [0 0 ⋯ 0]
→ 𝑥 ⊥ 𝑣𝑖 ∀𝑥 ∈ 𝑁(𝐴)
Es decir, las columnas 𝑥 de 𝑁(𝐴) son ortogonales a las columnas de 𝐴𝑇 que generan 𝑅(𝐴𝑇 ) y
recíprocamente. Por tanto:
𝑁(𝐴) = 𝑅(𝐴𝑇 )⊥
Obsérvese que de forma inmediata se deduce también:
𝑁(𝐴𝑇 ) = 𝑅(𝐴)⊥
así como:
𝑅(𝐴) = 𝑁(𝐴𝑇 )⊥
𝑅(𝐴𝑇 ) = 𝑁(𝐴)⊥

Ejercicio 6.26
Probar que, en cualquier espacio métrico, se cumple que:
|𝑑(𝑥, 𝑧) − 𝑑(𝑦, 𝑧)| ≤ 𝑑(𝑥, 𝑦)

Solución
Tomando la desigualdad triangular
𝑑(𝑥, 𝑧) ≤ 𝑑(𝑥, 𝑦) + 𝑑(𝑦, 𝑧)
por lo que
𝑑(𝑥, 𝑧) − 𝑑(𝑦, 𝑧) ≤ 𝑑(𝑥, 𝑦)
Intercambiando los papeles de 𝑥 e 𝑦, se tiene:
𝑑(𝑦, 𝑧) − 𝑑(𝑥, 𝑧) ≤ 𝑑(𝑦, 𝑥) = 𝑑(𝑥, 𝑦)
Y reordenando:
−(𝑑(𝑥, 𝑧) − 𝑑(𝑦, 𝑧)) ≤ 𝑑(𝑦, 𝑥)
Reuniendo los dos resultados:
|𝑑(𝑥, 𝑧) − 𝑑(𝑦, 𝑧)| ≤ 𝑑(𝑥, 𝑦)

Ejercicio 6.27
Conocida la descomposición 𝑄𝑅 de una matriz cuadrada 𝐴, ¿cómo se puede aprovechar eficientemente
para resolver el sistema 𝐴𝑥 = 𝑏?

Solución
De la siguiente manera:
𝐴𝑥 = 𝑏 → 𝑄𝑅𝑥 = 𝑏 → 𝑅𝑥 = 𝑄𝑇 𝑏
Por lo tanto, basta con resolver mediante la vuelta atrás del método de Gauss el sistema triangular
resultante.

Suescun, Insausti, Flaquer (2022) 265 Tecnun-Universidad de Navarra


6.16 Ejercicios resueltos 6 Espacios con Producto Escalar

Suescun, Insausti, Flaquer (2022) 266 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.17 Ejercicios propuestos

Ejercicios propuestos

Ejercicio 6.28
Calcular el producto escalar y la norma de los siguientes vectores de un subespacio 𝐹 de 𝑅2 [𝑡]
𝑝(𝑡) = 1 + 3𝑡 2 𝑞(𝑡) = 1 − 2𝑡 2
sabiendo que los vectores
𝑤1 (𝑡) = 3 + 4𝑡 2 𝑤2 (𝑡) = 2 + 𝑡 2
forman una base ortonormal de 𝐹 respecto al producto escalar que rige en el espacio.

Ejercicio 6.29
Se sabe de los vectores 𝑤1 y 𝑤2 que forman una base ortonormal en un espacio vectorial real con producto
escalar. Hallar el producto escalar de los vectores 𝑥 e 𝑦, así como sus respectivas normas, sabiendo:
𝑤1 = 𝑥 + 𝑦
𝑤2 = 𝑥 − 𝑦

Ejercicio 6.30
Se sabe que los vectores 𝑤1 , 𝑤2 y 𝑤3 forman una base ortonormal de un espacio vectorial real con
producto escalar. Sabiendo que:
𝑤1 = 𝑥 −𝑧
𝑤2 = −𝑦 + 𝑧
𝑤3 = −𝑥 + 𝑦 + 𝑧
hállense los productos escalares 〈𝑥, 𝑦〉, 〈𝑥, 𝑧〉 y la norma de los vectores 𝑥, 𝑦, 𝑧.

Ejercicio 6.31
Siendo 𝛼1 , 𝛼2 y 𝛽1 , 𝛽2 las componentes de dos vectores 𝑥, 𝑦 en una base determinada, demostrar que la
expresión
𝛼1 𝛽1 + 𝛼1 𝛽2 + 𝛼2 𝛽1 + 𝛼2 𝛽2
2
no define un producto escalar en 𝑅 .

Ejercicio 6.32
Demostrar que
〈𝐴, 𝐵〉 = 𝑡𝑟𝑎𝑧𝑎(𝐴𝑇 𝐵)
define un producto escalar en 𝑅𝑚×𝑛 .

Ejercicio 6.33
Demostrar que
𝑏
〈𝑞(𝑡), 𝑟(𝑡)〉 = ∫ 𝑞(𝑡)𝑟(𝑡)𝑑𝑡
𝑎

define un producto escalar en 𝑅𝑝 [𝑡].

Ejercicio 6.34
¿Existe algún valor del parámetro real 𝛼 para el que la matriz
𝛼 1 1
𝐺 = [1 0 0]
1 0 0
defina una métrica euclídea en 𝑅3×1 ?

Suescun, Insausti, Flaquer (2022) 267 Tecnun-Universidad de Navarra


6.17 Ejercicios propuestos 6 Espacios con Producto Escalar

Ejercicio 6.35
Hállese, mediante Gram-Schmidt, una base ortonormal del subespacio de matrices 𝑋 reales de orden 2
que verifican 𝐴𝑋 − 𝑋𝐴 = 𝑂, donde
1 2
𝐴=[ ]
2 4
y respecto del producto escalar siguiente:
〈𝐵, 𝐶〉 = traza (𝐵𝑇 𝐶)

Ejercicio 6.36
Pruébese la falsedad de la siguiente afirmación en un espacio vectorial con producto escalar complejo:
“Dos vectores 𝑥, 𝑦 son ortogonales si y sólo si se cumple el teorema de Pitágoras, esto es ‖𝑥 + 𝑦‖2 =
‖𝑥‖2 + ‖𝑦‖2 ”

Ejercicio 6.37
Se define la distancia entre dos vectores 𝑥, 𝑦 como la norma del vector (𝑦 − 𝑥), esto es:
𝑑(𝑥, 𝑦) = ‖𝑦 − 𝑥‖
Hállese la distancia entre dos vectores 𝑤1 , 𝑤2 que forman una base ortonormal.

Ejercicio 6.38
Pruébese que si en un espacio vectorial con producto escalar real existen dos vectores 𝑥, 𝑦 que verifican
la identidad:
‖𝑥 + 𝑦‖ = ‖𝑥‖ + ‖𝑦‖
entonces se cumple la identidad:
‖𝛼𝑥 + 𝛽𝑦‖ = 𝛼‖𝑥‖ + 𝛽‖𝑦‖, ∀𝛼, 𝛽

Ejercicio 6.39
Sean 𝑥, 𝑦 dos matrices columnas cualesquiera de 𝑛 elementos (𝑥, 𝑦 ∈ 𝐶 𝑛×1 ). Probar la siguiente
identidad:
〈𝐴𝑥, 𝑦〉 = 〈𝑥, 𝐴𝑦〉
siendo 𝐴 una matriz hermítica de orden 𝑛 y el producto escalar el ordinario.

Ejercicio 6.40
Siendo 𝐴 una matriz de tamaño 𝑚 × 𝑛 cualquiera, probar que para cualesquiera matrices columna 𝑥 ∈
𝐶 𝑛×1 , 𝑦 ∈ 𝐶 𝑚×1 , se verifica la siguiente identidad:
〈𝐴𝑥, 𝑦〉 = 〈𝑥, 𝐴𝐻 𝑦〉
con el producto escalar ordinario.

Ejercicio 6.41
Demostrar las siguientes identidades:
𝜋𝑥+𝑦 = 𝜋𝑥 + 𝜋𝑦
𝜋𝛼𝑥 = 𝛼𝜋𝑥

Ejercicio 6.42
Hallar una base ortonormal del espacio vectorial euclídeo ordinario 𝑅𝑛 partiendo de la base
𝑒1 , 𝑒1 + 𝑒2 , 𝑒1 + 𝑒2 + 𝑒3 , ⋯ , 𝑒1 + 𝑒2 + ⋯ 𝑒𝑛

Suescun, Insausti, Flaquer (2022) 268 Tecnun-Universidad de Navarra


6 Espacios con Producto Escalar 6.17 Ejercicios propuestos

y utilizando el método de Gram-Schmidt.

Ejercicio 6.43
Sea 𝐹 un subespacio vectorial de 𝑅4×1 . Mediante el método de Gram-Schmidt, obtener una base
ortonormal de 𝐹 a partir de la siguiente:
1 1 3
0 2 1
𝐵𝐹 = [ ] ,[ ] ,[ ]
0 0 1
−1 −1 −1

Ejercicio 6.44
Determinar una base ortonormal de 𝑅4×1 a partir de la siguiente base:
0 1 1 1
0 0 0 −1
𝐵=[ ],[ ],[ ],[ ]
0 −1 0 0
−1 1 1 1
El producto escalar es el ordinario.

Ejercicio 6.45
Hallar la proyección ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), con el producto
escalar ordinario, siendo:
1 1 −1 1
𝑏=[ ] 𝐴=[ ]
2 −1 1 −1

Ejercicio 6.46
Usando el producto escalar ordinario, hallar la proyección ortogonal de la columna 𝑏 sobre el subespacio
generado por las columnas 𝑢 y 𝑣, siendo:
1 1 1
𝑏 =[2] 𝑢 = [1] 𝑣 = [−1]
3 1 1

Ejercicio 6.47
Sean 𝐹 y 𝐺 dos subespacios vectoriales de 𝑅3×1 . Los vectores 𝑤1 y 𝑤2 forman una base ortonormal de 𝐹.
El vector 𝑤3 es una base ortonormal de 𝐺:

1 1 1 −1 1 1
𝑤1 = [ 1 ] 𝑤2 = [ −1 ] 𝑤3 = [ −1 ]
√6 2 √3 1 √3 1
El producto escalar es el ordinario. Al proyectar un vector 𝑥 de 𝑅3×1 sobre 𝐹 se obtiene un vector cuyas
componentes en la citada base de 𝐹 valen √6 y √3 respectivamente. Si se proyecta el mismo vector 𝑥
sobre el subespacio 𝐺 se obtiene un vector cuya componente en la citada base de 𝐺 vale √3. Hallar 𝑥.

Ejercicio 6.48
Probar que la base canónica de 𝐶 𝑛×1 es ortonormal respecto del producto escalar ordinario.

Ejercicio 6.49
En el espacio vectorial 𝑅3×1 se sabe que los siguientes vectores
1 −1 1
𝑤1 = [ 0 ] , 𝑤2 = [ 1] , 𝑤3 = [−1]
0 0 1

Suescun, Insausti, Flaquer (2022) 269 Tecnun-Universidad de Navarra


6.17 Ejercicios propuestos 6 Espacios con Producto Escalar

forman una base ortonormal, con un producto escalar no ordinario. Determinar la norma del vector 𝑥 =
[1 1 1]𝑇 y su proyección ortogonal sobre el subespacio generado por los vectores 𝑤1 , 𝑤2 .

Ejercicio 6.50
Obtener la descomposición 𝑄𝑅 de la siguiente matriz:
1 1 1
𝐴 = [1 1 −1]
1 −1 1

Ejercicio 6.51
Utilice la matriz 𝐴 siguiente para deducir la factorización 𝑄𝑅 de una matriz rectangular 𝐴𝑚×𝑛 , con 𝑚 > 𝑛
y de rango máximo por columnas.
0 1
𝐴 = [1 1]
1 0
¿Cómo se podría encontrar la factorización 𝑄𝑅 de 𝐴𝑇 ?

Ejercicio 6.52
Sea 𝐹 un subespacio vectorial de 𝑅4 definido por las siguientes ecuaciones implícitas en la base canónica:
𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 = 0
𝐹≡ {
𝛼1 + 𝛼4 = 0
Hallar la proyección ortogonal de 𝑥 = (1, 2, 3, 4) sobre el complemento ortogonal de 𝐹.

Ejercicio 6.53
Probar las siguientes dos identidades:
𝑁(𝐴𝐻 ) = 𝑅(𝐴)⊥
𝑅(𝐴𝐻 ) = 𝑁(𝐴)⊥
siendo 𝐴 una matriz de tamaño 𝑚 × 𝑛.

Ejercicio 6.54
Probar que el complemento ortogonal de la intersección de dos subespacios vectoriales es la suma de sus
complementos ortogonales.
(𝐹 ∩ 𝐺)⊥ = 𝐹 ⊥ + 𝐺 ⊥

Suescun, Insausti, Flaquer (2022) 270 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios

Los valores y vectores propios de una matriz cuadrada aparecen con mucha frecuencia en las
aplicaciones prácticas del Álgebra Lineal. Los conceptos de valor propio, vector propio, ecuación
característica, subespacio propio son de capital importancia.

Los valores y vectores propios facilitan la comprensión del comportamiento de las transformaciones
lineales, que, como se ha visto en el capítulo anterior, se representan mediante matrices cuadradas al
fijar una base del espacio. Cuando es posible encontrar una base del espacio formada unicamente por
vectores propios, la transformación se representa mediante una matriz diagonal. Los criterios de
diagonalización establecen las condiciones de existencia de la citada base de vectores propios.

Se termina el Capítulo con el teorema de Cayley-Hamilton, las fórmulas de Vieta y el polinomio mínimo.

Suescun, Insausti, Flaquer (2022) 271 Tecnun-Universidad de Navarra


7.1 Notación 7 Valores y Vectores Propios

Notación

En este capítulo se profundiza varias propiedades clave de las transformaciones lineales.


Ya se ha visto previamente que toda transformación lineal 𝑓 en un espacio vectorial 𝐸 de dimensión 𝑛 se
puede representar en una base dada 𝐵𝐸 mediante una matriz cuadrada 𝐴 de orden 𝑛. De manera
resumida:
𝑓: 𝐸 → 𝐸
𝑥 𝑦 = 𝑓(𝑥)
↓ ↓
𝑥𝐵𝐸 𝑦𝐵𝐸 = 𝐴𝑥𝐵𝐸 (𝐴 = [ 𝑓 ]𝐵𝐸 ∈ 𝐾 𝑛×𝑛 )
También se ha visto anteriormente que toda matriz cuadrada 𝐴𝑛×𝑛 define una transformación lineal en
el espacio de matrices columnas 𝐾 𝑛×1
𝐴: 𝐾 𝑛×1 → 𝐾 𝑛×1
𝑥 𝑦 = 𝐴𝑥
Por estas razones, y en aras de la sencillez, en este capítulo se trabajará únicamente con la transformación
lineal 𝑦 = 𝐴𝑥 definida en el espacio de matrices columnas 𝐾 𝑛×1 por la matriz cuadrada 𝐴 de orden 𝑛
(Figura 7.1).
Así mismo, se asumirá que la base de trabajo en el espacio de columnas es precisamente la base canónica,
por lo que no se distinguirá entre los vectores del espacio y sus representaciones en la base canónica16,
pues en ambos casos son matrices columnas con los mismos elementos.

Valores y vectores propios

Sin pérdida de generalidad, sea 𝐴 una matriz cuadrada de orden 𝑛 que representa una transformación
lineal en la base canónica del espacio de columnas 𝐾 𝑛×1 , de modo que el vector 𝑥 se transforma en el
vector 𝑦 = 𝐴𝑥, que, en general, se distingue de 𝑥 tanto en dirección como en magnitud (véase la Figura
7.1).

𝐴
𝐾 𝑛×1
𝑛

𝑦 = 𝐴𝑥

𝑥
0

𝐵𝑐 = 𝑒1 , 𝑒2 , … , 𝑒𝑛

Figura 7.1: La matriz 𝐴 define una transformación lineal en el espacio vectorial de matrices columna 𝐾 𝑛×1 . El
vector (matriz columna) 𝑥 se transforma en el vector (matriz columna) 𝑦 = 𝐴𝑥. Los vectores
aparecen representados por flechas, cuyo origen es el vector nulo. El efecto de la transformación
lineal es doble: un cambio de dirección y un escalado. La base de trabajo es la canónica 𝐵𝑐 .

Se plantea la cuestión importante de si es posible encontrar vectores no nulos que no cambien de


dirección al transformarse. La respuesta es sí. Son los denominados vectores propios (Figura 7.2):

16 Si fuera necesario trabajar en otra base, la matriz en la nueva base sería 𝐴′ = 𝑆 −1 𝐴𝑆, siendo 𝑆 la matriz del cambio
de base de la base canónica a la nueva base. Es este caso, sí se diferenciarían los vectores de sus representaciones
en la nueva base.

Suescun, Insausti, Flaquer (2022) 272 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.3 Obtención de los valores propios

▪ Un vector propio de 𝐴 es un vector no nulo que no cambia de dirección al transformase, aunque


sí puede cambiar su magnitud. Es decir, es un vector 𝑥0 que cumple:
𝐴𝑥0 = 𝜆0 𝑥0
▪ El escalar 𝜆0 se denomina valor propio de 𝐴. Es decir, es el factor de escala que sufre vector 𝑥0
al transformarse por 𝐴.

𝐴
𝐾 𝑛×1
𝑛

𝐴𝑥0 = 𝜆0 𝑥0
0
𝑥0

𝐵𝑐 = 𝑒1 , 𝑒2 , … , 𝑒𝑛

Figura 7.2: El vector no nulo 𝑥0 es un vector propio de 𝐴, pues se transforma en el vector 𝜆0 𝑥0 . Esto es, el vector
transformado mantiene la dirección y solo sufre un escalado.

Nótese que cualquier múltiplo de un vector propio es también un vector propio:


𝐴𝑥0 = 𝜆0 𝑥0 → 𝐴(𝛽𝑥0 ) = 𝛽𝐴𝑥0 = 𝛽(𝜆0 𝑥0 ) = 𝜆0 (𝛽𝑥0 ) (∀𝛽 ≠ 0)
Una matriz puede tener valores propios nulos. Es el caso de las matrices singulares. Nótese que un
sistema homogéneo construido con una matriz singular es siempre compatible indeterminado, es decir,
posee soluciones distintas de la trivial nula:
𝐴𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟 ⟹ ∃ 𝑥ℎ ≠ 0 | 𝐴𝑥ℎ = 0
Por lo tanto, cualquier 𝑥ℎ ≠ 0 solución del sistema 𝐴𝑥 = 0 es un vector propio de 𝐴 asociado al valor
propio 0:
𝐴𝑥ℎ = 0𝑥ℎ

Obtención de los valores propios

Los valores propios de una matriz cuadrada 𝐴 ∈ 𝐾 𝑛×𝑛 son los valores del escalar 𝜆 ∈ 𝐾 que hacen posible
que la ecuación matricial 𝐴𝑥 = 𝜆𝑥 tenga soluciones no nulas, las cuales son precisamente los vectores
propios de 𝐴.
La ecuación 𝐴𝑥 = 𝜆𝑥 se puede transformar en un sistema de ecuaciones homogéneo equivalente:
𝐴𝑥 = 𝜆𝐼𝑛 𝑥 → 𝐴𝑥 − 𝜆𝐼𝑛 𝑥 = 0

(𝐴 − 𝜆𝐼𝑛 )𝑥 = 0 (7.1)

La matriz (𝐴 − 𝜆𝐼𝑛 ) se llama matriz característica de 𝐴. El sistema homogéneo (7.1) tendrá soluciones
no nulas si y sólo si la matriz del sistema es singular, lo que se traduce en que su determinante debe
valer cero. Por lo tanto:

det(𝐴 − 𝜆𝐼𝑛 ) = 0 (7.2)

Ésta es la llamada ecuación característica de la matriz 𝐴. Los valores propios de 𝐴 son las soluciones de la
ecuación característica que pertenezcan al cuerpo de escalares 𝐾. El primer miembro de la ecuación
característica (7.2) es un polinomio 𝜑𝐴 (𝜆) de grado 𝑛 en la variable 𝜆, llamado polinomio característico
de 𝐴:

Suescun, Insausti, Flaquer (2022) 273 Tecnun-Universidad de Navarra


7.4 Obtención de los vectores propios 7 Valores y Vectores Propios

𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼𝑛 ) (7.3)

Una matriz puede tener valores propios repetidos si el polinomio característico tiene raíces repetidas. La
multiplicidad de estas raíces se denomina multiplicidad algebraica.
Se llama espectro de 𝐴, y se denota 𝜎(𝐴), al conjunto de todos los valores propios de la matriz 𝐴.

Ejemplo 7.1
Los valores propios de la matriz real
0 1
𝐴=[ ]
1 0
se obtienen resolviendo det(𝐴 − 𝜆𝐼2 ) = 0
−𝜆 1
𝑑𝑒𝑡 [ ]=0
1 −𝜆
esto es, la ecuación característica es:
𝜆2 − 1 = 0
Existen dos soluciones reales que son los valores propios de 𝐴, ambos con multiplicidad algebraica unidad:
𝜆1 = 1 (𝑚1 = 1)
𝜆2 = −1 (𝑚2 = 1)
El espectro de 𝐴 es:
𝜎(𝐴) = {−1, 1}

Obtención de los vectores propios

Una vez identificados los valores propios, los vectores propios asociados a un valor propio 𝜆𝑗 se obtienen
resolviendo el sistema homogéneo

(𝐴 − 𝜆𝑗 𝐼𝑛 )𝑥 = 0 (7.4)

Las soluciones de (7.4) forman un subespacio vectorial17, al que se denomina subespacio propio de 𝐴
asociado al valor propio 𝜆𝑗 y se denota por 𝐸𝑗 .
El vector nulo pertenece a ese subespacio, pero no es un vector propio. La dimensión del subespacio
propio, que no puede ser 0, recibe el nombre de multiplicidad geométrica y se denota por 𝑠𝑗 :

𝜆𝑗 → 𝐸𝑗 = { 𝑥 | (𝐴 − 𝜆𝑗 𝐼)𝑥 = 0 } (7.5)

1 ≤ 𝑠𝑗 = dim 𝐸𝑗 (7.6)

Cada valor propio distinto define un subespacio propio distinto.

Ejemplo 7.2
Conocidos los valores propios 𝜆1 = 1 y 𝜆2 = −1 de la matriz
0 1
𝐴=[ ]
1 0

17 𝐸𝑗 es un subespacio vectorial pues es precisamente el núcleo de la matriz 𝐴 − 𝜆𝑗 𝐼, esto es:


𝐸𝑗 = 𝑁(𝐴 − 𝜆𝑗 𝐼)

Suescun, Insausti, Flaquer (2022) 274 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.5 Los subespacios propios

del ejemplo anterior, se calculan ahora los vectores propios de asociados a cada valor propio.
El subespacio propio asociado al valor propio 𝜆1 = 1 es
−1 1 0 𝛼1 = 𝜖
(𝐴 − 𝐼)𝑥 = 0 → [ | ] → 𝐸1 = { 𝛼 = 𝜖 ∀𝜖
1 −1 0 2

de modo que una base del subespacio propio 𝐸1 es


1
𝐵1 = [ ]
1
El subespacio propio asociado al valor propio 𝜆2 = −1 es
1 1 0 𝛼1 = −𝜇
(𝐴 + 𝐼)𝑥 = 0 → [ | ] → 𝐸2 = { 𝛼 = 𝜇 ∀𝜇
1 1 0 2

y una base del subespacio propio 𝐸2 es


−1
𝐵2 = [ ]
1
Ambos subespacios propios son de multiplicidad geométrica la unidad (𝑠1 = 𝑠2 = 1).

Ejemplo 7.3
Los valores propios de la matriz
3 −2
𝐴=[ ]
3 −4
se obtienen resolviendo det(𝐴 − 𝜆𝐼2 ) = 0
3−𝜆 −2 𝜆 = 2 (𝑚1 = 1)
det [ ] = 𝜆2 + 𝜆 − 6 = 0 → { 1
3 −4 − 𝜆 𝜆2 = −3 (𝑚2 = 1)
Se calculan ahora los subespacio propios de asociados a los valores propios:
1 −2 0 𝛼 = 2𝜖
𝜆1 = 2 → (𝐴 − 2𝐼)𝑥 = 0 → [ | ] → 𝐸1 = { 1 ∀𝜖 𝑠1 = 1
3 −6 0 𝛼2 = 𝜖
6 −2 0 𝛼1 = 𝜇
𝜆2 = −3 → (𝐴 + 3𝐼)𝑥 = 0 → [ | ] → 𝐸2 = { 𝛼 = 3𝜇 ∀𝜇 𝑠2 = 1
3 −1 0 2

Las bases de los subespacios propios son:


2 1
𝐵1 = [ ] 𝐵2 = [ ]
1 3

Los subespacios propios

Las siguientes proposiciones que ayudan a comprender los subespacios propios.

Proposición 7.1
Enunciado: Subespacios propios 𝐸𝑖 , 𝐸𝑗 asociados a valores propios distintos 𝜆𝑖 ≠ 𝜆𝑗 sólo tienen en común
el vector nulo:

𝐸𝑖 ∩ 𝐸𝑗 = {0} (𝜆i ≠ 𝜆𝑗 ) (7.7)

Demostración: Es evidente que un vector propio 𝑥 no puede estar en dos subespacios propios
distinto𝑠 (𝜆i ≠ 𝜆𝑗 ). El único vector común de ambos subespacios es el nulo:
𝐴𝑥 = 𝜆𝑖 𝑥, 𝐴𝑥 = 𝜆𝑗 𝑥 → (𝜆
⏟ 𝑖 − 𝜆𝑗 ) 𝑥 = 0 → 𝑥=0
≠0

Suescun, Insausti, Flaquer (2022) 275 Tecnun-Universidad de Navarra


7.5 Los subespacios propios 7 Valores y Vectores Propios

Consecuencia: La suma de dos subespacios propios distinto𝑠 (𝜆i ≠ 𝜆𝑗 ) es directa:

𝐸𝑖 ∩ 𝐸𝑗 = {0} ⟺ 𝐸𝑖 ⊕ 𝐸𝑗 (𝜆i ≠ 𝜆𝑗 ) (7.8)

Proposición 7.2
Enunciado: Una lista formada por vectores propios 𝑥1 , 𝑥2 , … , 𝑥𝑘 de 𝐴, asociados a valores propios

𝜆1 , 𝜆2 , … , 𝜆𝑘 distintos entre sí dos a dos es siempre linealmente independiente.
Demostración: Por reducción al absurdo.
Si 𝑥1 , 𝑥2 , … , 𝑥𝑘 es una lista linealmente dependiente, sea 𝑠 el valor más pequeño tal que 𝑥1 , 𝑥2 , … , 𝑥𝑠 es
una lista linealmente dependiente pero 𝑥1 , 𝑥2 , … , 𝑥𝑠−1 es una lista linealmente independiente. Debe ser
𝑠 > 1, pues 𝑥1 ≠ 0 por ser propio. La dependencia lineal de 𝑥1 , 𝑥2 , … , 𝑥𝑠 obliga a la existencia de escalares
no todos cero tal que

𝛼1 𝑥1 + 𝛼2 𝑥2 + ⋯ + 𝛼𝑠−1 𝑥𝑠−1 + 𝛼𝑠 𝑥𝑠 = 0 (7.9)

Debe ser 𝛼𝑠 distinto de cero, pues de ser cero la independencia lineal de la lista 𝑥1 , 𝑥2 , … , 𝑥𝑠−1 obligaría a
que todas los demás coeficientes fueran cero. Ahora bien, también algún 𝛼𝑗 , con 𝑗 < 𝑠 debe ser distinto
de cero; de lo contrario se llegaría al absurdo 𝛼𝑠 𝑥𝑠 = 0, con 𝛼𝑠 ≠ 0 y 𝑥𝑠 ≠ 0.
Multiplicando (7.9) miembro a miembro por 𝐴 se llega fácilmente a

(𝛼1 𝜆1 )𝑥1 + (𝛼2 𝜆2 )𝑥2 + ⋯ + (𝛼𝑠−1 𝜆𝑠−1 )𝑥𝑠−1 + (𝛼𝑠 𝜆𝑠 )𝑥𝑠 = 0 (7.10)

Razonando de modo análogo se concluye que el valor propio 𝜆𝑠 y algún producto 𝛼𝑖 𝜆𝑖 , con 𝑖 < 𝑠 deben
ser distintos de cero. Restando a (7.10) la identidad (7.9) multiplicada previamente por 𝜆𝑠 se obtiene

𝛼1 (𝜆1 − 𝜆𝑠 )𝑥1 + 𝛼2 (𝜆2 − 𝜆𝑠 )𝑥2 + ⋯ + 𝛼𝑠−1 (𝜆𝑠−1 − 𝜆𝑠 )𝑥𝑠−1 = 0 (7.11)

con el coeficiente 𝛼𝑖 (𝜆𝑖 − 𝜆𝑠 ) de 𝑥𝑖 distinto de cero, lo que es absurdo. Luego la lista inicial debe ser
linealmente independiente.

Proposición 7.3
Enunciado: La suma de subespacios propios asociados a valores propios distintos entre sí es directa.
Demostración: Basta con demostrar que la suma de subespacios propios goza de la propiedad de
descomposición única para probar que su suma es directa.

Sean 𝜆1 , 𝜆2 , … , 𝜆𝑘 valores propios distintos de 𝐴 y 𝐸1 , 𝐸2 , … , 𝐸𝑘 sus respectivos subespacios propios.
Sea 𝑥 un vector de la suma de estos subespacios propios:
𝑥 ∈ 𝐸1 + 𝐸2 + ⋯ + 𝐸𝑘
Una descomposición posible de 𝑥 es:
𝑥 = 𝑥1 + 𝑥2 + ⋯ + 𝑥𝑘 (𝑥𝑖 ∈ 𝐸𝑖 ∀𝑖 = 1, … , 𝑘)
Otra descomposición de 𝑥 sería
𝑥 = 𝑥1′ + 𝑥2′ + ⋯ + 𝑥𝑘′ (𝑥𝑖′ ∈ 𝐸𝑖 ∀𝑖 = 1, … , 𝑘)
Restando ambas expresiones se obtiene

0 = (𝑥1 − 𝑥1′ ) + ( 𝑥2 − 𝑥2′ ) + ⋯ + (𝑥𝑘 − 𝑥𝑘′ ) (7.12)

con (𝑥𝑖 − 𝑥𝑖′ ) ∈ 𝐸𝑖 ∀ 𝑖 = 1, … , 𝑘.


Nótese que todos los vectores (𝑥𝑖 − 𝑥𝑖′ ) deben ser nulos. Si algunos no lo fueran, serían vectores propios
y, en consecuencia, formarían una lista linealmente independiente lo que impide que su suma sea el
vector nulo (7.12). Por lo tanto, se cumple la propiedad de descomposición única:

Suescun, Insausti, Flaquer (2022) 276 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.5 Los subespacios propios

𝑥𝑖 − 𝑥𝑖′ = 0 → 𝑥𝑖 = 𝑥𝑖′ (∀ 𝑖 = 1, … , 𝑘)
Y, en consecuencia, la suma de subespacios propios es directa:
𝐸1 ⊕ 𝐸2 ⊕ ⋯ ⊕ 𝐸𝑘

Proposición 7.4
Enunciado: La multiplicidad geométrica de un valor propio es menor o igual que su multiplicidad
algebraica:

𝜆𝑘 → 1 ≤ 𝑠𝑘 ≤ 𝑚𝑘 ∀𝑘 (7.13)

Demostración: Sea 𝜆𝑘 un valor propio de 𝐴 de multiplicidad geométrica 𝑠𝑘 = dim 𝐸𝑘 (la dimensión del
subespacio propio 𝐸𝑘 ) y multiplicidad algebraica 𝑚𝑘 (el número de veces que aparece 𝜆𝑘 como solución
de la ecuación característica). Se trata de probar que 𝑠𝑘 ≤ 𝑚𝑘 .
Sea 𝑥1 , 𝑥2 , … , 𝑥𝑠𝑘 una base de 𝐸𝑘 y la ampliamos hasta formar una base 𝑥1 , 𝑥2 , … , 𝑥𝑠𝑘 , 𝑥𝑠𝑘 +1 , … , 𝑥𝑛 de todo
el espacio 𝐾 𝑛×1 . La matriz que representa a la misma transformación lineal en esta nueva base es
𝐵 = 𝑆 −1 𝐴𝑆
donde
𝑆 = [𝑥1 𝑥2 ⋯ 𝑥𝑠𝑘 𝑥𝑠𝑘+1 ⋯ 𝑥𝑛 ]
es la matriz del cambio de base o matriz de paso. La matriz 𝐵 es de la forma
𝜆𝑘 𝐼𝑠𝑘 𝐽
𝐵=[ ]
𝑂 𝐶
donde 𝐶 es un bloque cuadrado de orden (𝑛 − 𝑠𝑘 ) y 𝐽 es un bloque de tamaño 𝑠𝑘 × (𝑛 − 𝑠𝑘 ).
Como se demostrará en la Proposición 7.5, los valores propios de 𝐵 coinciden con los valores propios de
𝐴, y por tanto
(𝜆𝑘 − 𝜆)𝐼𝑠𝑘 𝐽
𝜑𝐴 (𝜆) = 𝜑𝐵 (𝜆) = det(𝐵 − 𝜆𝐼) = det [ ] = (𝜆𝑘 − 𝜆) 𝑠𝑘 det (𝐶 − 𝜆𝐼𝑛−𝑠𝑘 )
𝑂 𝐶 − 𝜆𝐼𝑛−𝑠𝑘
Esta factorización asegura que la multiplicidad algebraica de 𝜆𝑘 es como poco igual a 𝑠𝑘 . Si además
det(𝐶 − 𝜆𝐼𝑛−𝑠0 ) tuviera también factores lineales de la forma (𝜆𝑘 − 𝜆), la multiplicidad algebraica de 𝜆𝑘
sería mayor que 𝑠𝑘 . Así mismo, 𝐸𝑘 ≠ {0} pues contiene vectores propios. Luego:
1 ≤ 𝑠𝑘 ≤ 𝑚𝑘
Consecuencia inmediata: En los valores propios simples, la multiplicidad algebraica coincide siempre con
la geométrica pues ambas valen la unidad.

Ejemplo 7.4
La siguiente matriz solo tiene un valor propio doble:
1 3
𝐴=[ ] → 𝜆1 = 1 (𝑚1 = 2)
0 1
Su multiplicidad geométrica vale 1:
0 3 0 𝛼1 = 𝜖
𝜆1 = 1 → (𝐴 − 𝐼)𝑥 = 0 → [ | ] → 𝐸1 = { 𝛼 = 0 ∀𝜖 (𝑠1 = 1)
0 0 0 2

Por lo tanto, se cumple 1 ≤ 𝑠𝑘 ≤ 𝑚𝑘 .


Suescun, Insausti, Flaquer (2022) 277 Tecnun-Universidad de Navarra


7.6 Ventaja de trabajar en una base de vectores propios 7 Valores y Vectores Propios

Ventaja de trabajar en una base de vectores propios

Sea 𝐴 una matriz cuadrada de orden 𝑛. Supóngase que existe una base 𝐵 de 𝐾 𝑛×1
𝐵 = 𝑥1 , 𝑥2 , … , 𝑥𝑛
siendo 𝑥1 , 𝑥2 , … , 𝑥𝑛 vectores propios de 𝐴, asociados respectivamente a los valores propios 𝜆1 , 𝜆2 , … , 𝜆𝑛 ,
esto es, 𝐴𝑥𝑖 = 𝜆𝑖 𝑥𝑖 ∀𝑖.
Sean 𝛼1 , 𝛼2 , … , 𝛼𝑛 las componentes de un vector cualquiera 𝑥 ∈ 𝐾 𝑛×1 en la base de vectores propios:
𝑥 = 𝛼1 𝑥1 + 𝛼2 𝑥2 + ⋯ + 𝛼𝑛 𝑥𝑛
Y sea 𝑦 el vector transformado de 𝑥 Por lo tanto:
𝑦 = 𝐴𝑥
= 𝐴(𝛼1 𝑥1 + 𝛼2 𝑥2 + ⋯ + 𝛼𝑛 𝑥𝑛 )
= 𝛼1 𝐴𝑥1 + 𝛼2 𝐴𝑥2 + ⋯ + 𝛼𝑛 𝐴𝑥𝑛
= (𝛼1 𝜆1 )𝑥1 + (𝛼2 𝜆2 )𝑥2 + ⋯ + (𝛼𝑛 𝜆𝑛 )𝑥𝑛
Es decir, trabajando en la base de vectores propios, las componentes del vector 𝑦0 se obtienen
simplemente multiplicando las componentes del vector 𝑥0 por los correspondientes valores propios:

𝛼1 𝛼1 𝜆1
𝛼2 𝛼 2 𝜆2
𝑥𝐵 = [ ⋮ ] → 𝑦𝐵 = [ ] (7.14)

𝛼𝑛 𝛼 𝑛 𝜆𝑛

Nótese que los valores propios actúan escalando la contribución de cada vector propio en el vector
original para producir el vector transformado.
Por lo tanto, cuando existe, conviene trabajar en la base de vectores propios de 𝐴 del espacio de matrices
columna 𝐾 𝑛×1, ya que simplifica notablemente la obtención del transformado de un vector.

Ejemplo 7.5
Juntando las bases de los subespacios propios de la matriz
3 −2
𝐴=[ ]
3 −4
se consigue una base de vectores propios de para el espacio de matrices columna 𝑅2×1 :
𝜆1 = 2 → 𝐵1 = 𝑥1 2 1
{ 𝑥1 = [ ] , 𝑥2 = [ ] → 𝐵 = 𝑥1 , 𝑥2
𝜆2 = −3 → 𝐵2 = 𝑥2 1 3
Considérese a modo de ejemplo el siguiente vector:
3
𝑥0 = [ ]
−1
Sus componentes en la base de vectores propios 𝐵 son 2 y −1:
3 2 1 2
𝑥0 = [ ] = 2 [ ] − 1 [ ] → 𝑥0𝐵 = [ ]
−1 1 3 −1
Por lo tanto, 𝑦0 , el transformado de 𝑥0 será
2 λ1 2×2 4 2 1 11
𝑦0𝐵 = [ ]=[ ] = [ ] → 𝑦0 = 4 [ ] + 3 [ ] = [ ]
(−1)λ2 (−1) × (−3) 3 1 3 13

En los apartados siguientes se estudian las condiciones de existencia de la citada base de vectores propios,
para una matriz cuadrada 𝐴.

Suescun, Insausti, Flaquer (2022) 278 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.7 Matrices semejantes

Matrices semejantes

Dos matrices 𝐴 y 𝐵 son semejantes si existe una matriz regular 𝑃 tal que 𝐵 = 𝑃 −1 𝐴𝑃. Esto es:

𝐴~𝐵 ⟺ ∃ 𝑃𝑟𝑒𝑔𝑢𝑙𝑎𝑟 | 𝐵 = 𝑃 −1 𝐴 𝑃 (7.15)

Proposición 7.5
Enunciado: Dos matrices semejantes 𝐴 y 𝐵 tienen los mismos valores propios. El recíproco no es cierto.
Demostración: Si 𝐴 es semejante con 𝐵 existe una matriz regular 𝑃 tal que 𝑃 −1 𝐴𝑃 = 𝐵.
Nótese que 𝐴 y 𝐵 tienen el mismo polinomio característico
𝜑𝐵 (𝜆) = det(𝐵 − 𝜆𝐼𝑛 )
= det(𝑃 −1 𝐴𝑃 − 𝜆𝐼𝑛 ) = det(𝑃 −1 𝐴𝑃 − 𝑃 −1 (𝜆𝐼𝑛 )𝑃) = det(𝑃−1 (𝐴 − 𝜆𝐼𝑛 )𝑃)
= det 𝑃 −1 det(𝐴 − 𝜆𝐼𝑛 ) det 𝑃
= det(𝐴 − 𝜆𝐼𝑛 ) = 𝜑𝐴 (𝜆)
Al tener el mismo polinómio característico, sus valores propios serán los mismos.

Proposición 7.6
Enunciado: Los valores propios de una matriz diagonal 𝐷 son los elementos de su diagonal principal.
Demostración: Sea
𝜆1 𝑂 … 𝑂
𝑂 𝜆2 … 𝑂
𝐷=[ ]
… … … …
𝑂 𝑂 … 𝜆𝑛
Para hallar los valores propios de 𝐷 se plantea la ecuación det(𝐷 − 𝜆𝐼𝑛 ) = 0 ,esto es,
𝜆1 − 𝜆 𝑂 … 𝑂
𝑂 𝜆2 − 𝜆 … 𝑂
det [ ] = (𝜆1 − 𝜆)(𝜆2 − 𝜆) … (𝜆𝑛 − 𝜆) = 0
… … … …
𝑂 𝑂 … 𝜆𝑛 − 𝜆
cuyas soluciones 𝜆1 , 𝜆2 , … , 𝜆𝑛 son los valores propios de 𝐷.

Proposición 7.7
Enunciado: Si una matriz cuadrada 𝐴 es semejante a una matriz diagonal 𝐷, los elementos 𝜆1 , 𝜆2 , … , 𝜆𝑛
de la diagonal principal de 𝐷 son los valores propios de 𝐴.
Demostración: Consecuencia inmediata de las proposiciones 6.2 y 6.3, pues si 𝐴 y 𝐷 son semejantes,
tendrán los mismos valores propios y por lo tanto, si los elementos diagonales 𝜆1 , 𝜆2 , … , 𝜆𝑛 de 𝐷 son sus
valores propios, también lo serán de 𝐴.

Diagonalización por semejanza

Una matriz cuadrada 𝐴 de orden 𝑛 es diagonalizable si es semejante a una matriz diagonal 𝐷 de orden
𝑛.

𝐴𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑎𝑏𝑙𝑒 ⟺ 𝐴~𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 ⟺ ∃𝑆𝑟𝑒𝑔𝑢𝑙𝑎𝑟 | 𝐷 = 𝑆 −1 𝐴 𝑆 (7.16)

Nótese que los tres enunciados son equivalentes.


Se analiza a continuación qué relación existe entre las matrices 𝑆, 𝐷 y 𝐴 para que 𝐴 sea diagonalizable.

Suescun, Insausti, Flaquer (2022) 279 Tecnun-Universidad de Navarra


7.8 Diagonalización por semejanza 7 Valores y Vectores Propios

Proposición 7.8
Enunciado: Una matriz cuadrada 𝐴 ∈ 𝐾 𝑛×𝑛 es diagonalizable si y sólo si existe una base de vectores
propios de 𝐴 para 𝐾 𝑛×1 .
Demostración: Se demuestra en primer lugar que si 𝐴 es diagonalizable, entonces existe una base de
vectores propios de 𝐴.
Sea 𝐴 una matriz diagonalizable, esto es:
𝐴~𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 ⟺ ∃𝑆𝑟𝑒𝑔𝑢𝑙𝑎𝑟 | 𝐷 = 𝑆 −1 𝐴 𝑆
Considérese en lo que sigue que:
𝜆1 0 ⋯ 0
𝑂 𝜆2 0
𝑆𝑟𝑒𝑔𝑢𝑙𝑎𝑟 = [𝑥1 𝑥2 … 𝑥𝑛 ] 𝐷=[ ]
⋮ ⋱ ⋮
0 0 ⋯ 𝜆𝑛
Reescribiendo la relación de semejanza, y remplazando 𝑆 y 𝐷, se obtiene:
𝑆 −1 𝐴 𝑆 = 𝐷
𝐴𝑆 = 𝑆𝐷
𝜆1 0 ⋯ 0
𝑂 𝜆2 0
𝐴[𝑥1 𝑥2 … 𝑥𝑛 ] = [𝑥1 𝑥2 … 𝑥𝑛 ] [ ]
⋯ ⋱ ⋯
0 0 ⋯ 𝜆𝑛
[𝐴𝑥1 𝐴𝑥2 ⋯ 𝐴𝑥𝑛 ] = [𝜆1 𝑥1 𝜆2 𝑥2 ⋯ 𝜆𝑛 𝑥𝑛 ]
Por lo que:
𝐴𝑥1 = 𝜆1 𝑥1
𝐴𝑥2 = 𝜆2 𝑥2

𝐴𝑥𝑛 = 𝜆𝑛 𝑥𝑛
De estas igualdades se extraen las siguientes conclusiones:
1. Las columnas 𝑥1 , 𝑥2 , … , 𝑥𝑛 de la matriz 𝑆 son 𝑛 vectores propios de 𝐴.
2. Los elementos 𝜆1 , 𝜆2 , … , 𝜆𝑛 de la matriz de la diagonal principal de 𝐷 son 𝑛 valores propios de 𝐴.
3. La regularidad de la matriz 𝑆 garantiza que los 𝑛 vectores propios 𝑥1 , 𝑥2 , … , 𝑥𝑛 son linealmente
independientes.
Y finalmente:
4. Los 𝑛 vectores 𝑥1 , 𝑥2 , … , 𝑥𝑛 , por ser independientes y por haber un total de 𝑛, forman una base
de vectores propios de 𝐴 para el espacio de matrices columna 𝐾 𝑛×1 .
La demostración recíproca es inmediata. Si existiera una base de 𝐾 𝑛×1 formada por 𝑛 vectores propios de
𝐴, se podrían usar estos 𝑛 vectores linealmente independientes para construir una matriz regular 𝑆. Es
evidente que esta matriz 𝑆 diagonalizaría 𝐴 y la matriz diagonal 𝐷 resultante contendría los
correspondiente valores propios en la diagonal principal.
Por lo tanto, la existencia de la matriz regular 𝑆 implica la existencia de la citada base 𝐵 de vectores propios
de 𝐴, y viceversa.

Otro punto de vista de la misma cuestión es el siguiente. Nótese que la matriz 𝐴 cuadrada de orden 𝑛
representa a una transformación lineal en la base canónica del espacio de columnas 𝐾 𝑛×1 :

Suescun, Insausti, Flaquer (2022) 280 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.8 Diagonalización por semejanza

𝐴 = [ 𝑓 ]𝐵𝑐 (7.17)

Al cambiar de la base canónica 𝐵𝑐 = 𝑒1 , 𝑒2 , … , 𝑒𝑛 a una base 𝐵 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 formada por vectores


propios de 𝐴, la matriz que representa a la transformación lineal en la nueva base 𝐵 será una matriz
diagonal 𝐷 (7.16):

𝐷 = 𝑆 −1 𝐴 𝑆 = [ 𝑓 ]𝐵 (7.18)

Esta matriz diagonal 𝐷 será precisamente la matriz que guarda los valores propios de 𝐴 en la diagonal
principal
Nótese también que 𝑆 es la matriz de paso, que se construye escribiendo los vectores de la base nueva
(i.e. los vectores propios) en la base canónica. Esto es:
𝑆 = [𝑥1 𝑥2 … 𝑥𝑛 ]
Resumiendo, la matriz 𝑆 representa el cambio de base de la base canónica 𝐵𝑐 a la base de vectores propios
𝐵. En esta nueva base, la transformación lineal 𝑓 se representa por la matriz diagonal 𝐷:
𝑦 = 𝐴𝑥 𝐴 = [ 𝑓 ]𝐵𝑐
𝑆𝑦𝐵 = 𝐴 (𝑆𝑥𝐵 )
𝑦𝐵 = 𝑆 −1 𝐴 𝑆𝑥𝐵
𝑦𝐵 = 𝐷𝑥𝐵 𝐷 = [ 𝑓 ]𝐵
Este último resultado es una reiteración de la ventaja de trabajar en una base de vectores propios de 𝐴,
véase la ecuacón (7.14) en el apartado §7.6,:
𝛼1 𝜆1 0 ⋯ 0 𝛼1 𝛼1 𝜆1
𝛼2 𝑂 𝜆2 0 𝛼2 𝛼 𝜆
𝑥𝐵 = [ ⋮ ] → 𝑦𝐵 = 𝐷𝑥𝐵 = [ ] [ ⋮ ] = [ 2 2]
⋯ ⋱ ⋯ ⋮
𝛼𝑛 0 0 ⋯ 𝜆𝑛 𝛼 𝑛 𝛼 𝑛 𝜆𝑛

Proposición 7.9
Enunciado: Dada una matriz cuadrada 𝐴 de orden 𝑛, los siguientes enunciados son equivalentes:

𝐴𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑎𝑏𝑙𝑒
𝐴~𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙
∃ 𝑆𝑟𝑒𝑔𝑢𝑙𝑎𝑟 | 𝐷 = 𝑆 −1 𝐴 𝑆 (7.19)
∃ 𝐵 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 (𝐴𝑥𝑖 = 𝜆𝑖 𝑥𝑖 ∀ 𝑖 = 1, … , 𝑛)
∃ 𝐵 | 𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 = [ 𝑓 ]𝐵 (𝐴 = [ 𝑓 ]𝐵𝑐 )

con 𝐷 una matriz diagonal de orden 𝑛.


Demostración: Evidente.

Se trabajan a continuación un par de ejemplos para ilustrar estas ideas.

Ejemplo 7.6
La matriz
0 1
𝐴=[ ]
1 0
es diagonalizable, pues los vectores propios

Suescun, Insausti, Flaquer (2022) 281 Tecnun-Universidad de Navarra


7.9 Criterios de diagonalización 7 Valores y Vectores Propios

1 −1
𝑥1 = [ ] 𝑥2 = [ ]
1 1
forman una base de 𝑅2×1 .
Se comprueba fácilmente que 𝑥1 y 𝑥2 son vectores propios de 𝐴 asociados a los valores propios 1 y −1,
respectivamente:
0 1 1 1
𝐴𝑥1 = [ ] [ ] = [ ] = 𝑥1 → 𝜆1 = 1
1 0 1 1
0 1 −1 1
𝐴𝑥2 = [ ] [ ] = [ ] = −𝑥2 → 𝜆2 = −1
1 0 1 −1
Nótese que, en este caso, se tiene
1 −1 𝜆 0 1 0
𝑆 = [ 𝑥1 𝑥2 ] = [ ] 𝐷=[ 1 ]=[ ]
1 1 0 𝜆2 0 −1
Se deja al lector verificar que, efectivamente, 𝐷 = 𝑆 −1 𝐴 𝑆.

Ejemplo 7.7
Retomando el ejemplo 7.3, obsérvese que, juntando las bases de los dos subespacios propios, es posible
construir una base de vectores propios para el espacio de matrices columnas 𝑅2×1 :
2 1
𝐵=[ ] ,[ ]
1 3
La matriz de paso de la base canónica a la base de vectores propios es:
2 1
𝑆=[ ]
1 3
Esta matriz 𝑆 diagonaliza la matriz 𝐴:
1 3 −1 3 −2 2 1 2 0
𝐷 = 𝑆 −1 𝐴 𝑆 = [ ][ ][ ]=[ ]
5 −1 2 3 −4 1 3 0 −3
Nótese que, como era de esperar, 2 y −3 son los valores propios de 𝐴.

Criterios de diagonalización

Las proposiciones siguientes resultan útiles para determinar si una matriz cuadrada 𝐴 de orden 𝑛 es
diagonalizable o no.

Proposición 7.10 (Condición Necesaria)


Enunciado: Una condición necesaria (no suficiente) de diagonalización de la matriz cuadrada 𝐴 de orden
𝑛 es que 𝐴 posea 𝑛 valores propios (repetidos o no).

Si 𝜆1 , 𝜆2 , … , 𝜆𝑘 son los 𝑘 valores propios distintos de 𝐴, de multiplicidades algebraicas 𝑚1 , 𝑚2 , … , 𝑚𝑘
respectivamente, se cumple:

𝑚1 + 𝑚2 + ⋯ + 𝑚𝑘 = 𝑛 (7.20)

Demostración: Hacen falta 𝑛 valores propios para formar la matriz 𝐷.


Recuérdese que los valores propios de una matriz 𝐴 de orden 𝑛, semejante con una matriz diagonal 𝐷,
son precisamente los 𝑛 elementos de la diagonal principal de 𝐷.

Proposición 7.11 (Condición Suficiente )


Enunciado: Una condición suficiente (no necesaria) de diagonalización de la matriz cuadrada 𝐴 de orden

𝑛 es que 𝐴 posea 𝑛 valores propios 𝜆1 , 𝜆2 , … , 𝜆𝑛 distintos entre sí, dos a dos.

Suescun, Insausti, Flaquer (2022) 282 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.9 Criterios de diagonalización

Demostración: Tomando un vector propio de cada uno de los 𝑛 subespacios propios, se puede formar
una lista de 𝑛 vectores propios 𝑥1 , 𝑥2 , … , 𝑥𝑛 en el espacio de columnas 𝐾 𝑛×1 , que es de dimensión 𝑛. Por
ser linealmente independiente, esta lista es una base de vectores propios y por consiguiente, la matriz 𝐴
es diagonalizable.

Proposición 7.12 (Condición Necesaria y Suficiente )


Enunciado: Una condición necesaria y suficiente de diagonalización de una matriz cuadrada 𝐴 de orden 𝑛
es que, habiendo un total de 𝑛 valores propios, repetidos o no, todas las multiplicidades geométricas
coincidan con sus correspondientes multiplicidades algebraicas:

𝐴~𝐷 ⟺ 𝑠𝑖 = 𝑚𝑖 (𝑖 = 1,2, … , 𝑘) (7.21)


Demostración: Sean 𝜆1 , 𝜆2 , … , 𝜆𝑘 son los 𝑘 valores propios distintos de 𝐴, de multiplicidades algebraicas
𝑚1 , 𝑚2 , … , 𝑚𝑘 respectivamente. Como hay un total de 𝑛 valores propios, se cumple la condición
necesaria:
𝑚1 + 𝑚2 + ⋯ + 𝑚𝑘 = 𝑛
Sean 𝐸1 , 𝐸2 , … , 𝐸𝑘 los subespacios propios asociados, y sean 𝑠1 , 𝑠2 , … , 𝑠𝑘 sus respectivas multiplicidades
geométricas. Se ha demostrado previamente que la suma de subespacios propios es directa:
𝐹 = 𝐸1 ⊕ 𝐸2 ⊕ ⋯ ⊕ 𝐸𝑘
Por lo tanto, juntando las bases de los 𝑘 subespacios propios se obtiene una base del subespacio suma
de todos ellos. Esta base será la más grande que se puede construir con vectores propios. La dimensión
de la suma indica el número de vectores de esta base:
dim 𝐹 = dim 𝐸1 + dim 𝐸2 + ⋯ + dim 𝐸𝑘 = 𝑠1 + 𝑠2 + ⋯ + 𝑠𝑘
Al ser 1 ≤ 𝑠𝑖 ≤ 𝑚𝑖 (𝑖 = 1,2, … , 𝑘) y cumplirse la condición necesaria se tiene:
𝑠1 + 𝑠2 + ⋯ + 𝑠𝑘 ≤ 𝑚1 + 𝑚2 + ⋯ + 𝑚𝑘 = 𝑛
Pueden darse dos situaciones:
▪ 𝑠1 + 𝑠2 + ⋯ + 𝑠𝑘 < 𝑛
En este caso, juntando las bases de todos los subespacios propios no se logra tener los 𝑛 vectores
propios necesarios para formar una base del espacio de columnas 𝐾 𝑛×1 . Por lo tanto, la matriz
𝐴 no es diagonalizable.
Esta situación ocurre cuando existe al menos un subespacio propio 𝐸𝑗 cuya dimensión es menor
que la multiplicidad algebraica del valor propio asociado:
∃𝑗 | 𝑠𝑗 < 𝑚𝑗 ⇔ 𝐴𝑛𝑜 𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑎𝑏𝑙𝑒
▪ 𝑠1 + 𝑠2 + ⋯ + 𝑠𝑘 = 𝑛
En este caso, juntando las bases de todos los subespacios propios se tienen los 𝑛 vectores propios
necesarios para formar una base del espacio de columnas 𝐾 𝑛×1 y, por lo tanto, la matriz 𝐴 sí es
diagonalizable.
Nótese que esta situación se produce cuando las dimensiones de todos los subespacios propios
coinciden con las multiplicidades algebraicas de los correspondientes valores propios:
𝑠𝑖 = 𝑚𝑖 (∀𝑖 = 1,2, … , 𝑘) ⇔ 𝐴𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙𝑖𝑧𝑎𝑏𝑙𝑒
En este caso la suma de subespacios propios llena el espacio de matrices columna:
𝐸1 ⊕ 𝐸2 ⊕ ⋯ ⊕ 𝐸𝑘 = 𝐾 𝑛×1
Nota: Basta que no se cumpla una de las identidades (7.21) para poder afirmar que la matriz 𝐴 no es
diagonalizable, lo que sólo puede suceder para los valores propios múltiples. Nótese que en los valores
propios sencillos siempre se cumple que 𝑠𝑖 = 𝑚𝑖 = 1.

Suescun, Insausti, Flaquer (2022) 283 Tecnun-Universidad de Navarra


7.9 Criterios de diagonalización 7 Valores y Vectores Propios

Una vez estudiados los criterios de diagonalización, la cuestión práctica que se plantea es cómo hallar las
matrices 𝑆 y 𝐷, caso de existir, tal que 𝐷 = 𝑆 −1 𝐴 𝑆.
Se puede proceder del siguiente modo:
1. Hallar los valores propios de 𝐴 resolviendo la ecuación característica y aceptando como tales las
soluciones pertenecientes al cuerpo de escalares 𝐾. Debe haber un total de 𝑛 valores propios
para que 𝐴 sea diagonalizable. Si eso no fuera así, se para el proceso pues la matriz no es
diagonalizable.
2. Para cada valor propio distinto 𝜆𝑗 , 𝑗 = 1,2, … , 𝑘, de multiplicidad algebraica 𝑚𝑗 , hallar la
dimensión 𝑠𝑗 del subespacio propio 𝐸𝑗 . Si en algún caso se cumpliera 𝑠𝑗 < 𝑚𝑗 , se para el proceso
pues la matriz no es diagonalizable.
3. Hallar la bases 𝐵1 , 𝐵2 , … , 𝐵𝑘 de los 𝑘 subespacios propios 𝐸1 , 𝐸2 , … , 𝐸𝑘 y juntarlas para obtener
una base 𝑥1 , 𝑥2 , … , 𝑥𝑛 de vectores propios en 𝐾 𝑛×1 .
4. La matriz regular 𝑆 buscada es 𝑆 = [𝑥1 𝑥2 ⋯ 𝑥𝑛 ]. La matriz diagonal 𝐷 almacena los valores
propios d𝑒 𝐴 su diagonal principal, manteniendo el orden, esto es, 𝜆1 repetido 𝑚1 veces, 𝜆2
repetido 𝑚2 veces, hasta 𝜆𝑘 repetido 𝑚𝑘 veces.

Ejemplo 7.8
Si la matriz 𝐴 cuadrada de orden 3 tiene de valores propios, 5, −1 𝑦 2 , la matriz será diagonalizable, pues
se cumple la condición suficiente: hay un total de tres valores propios distintos entre sí, y tres es el orden
de la matriz.

Ejemplo 7.9
La matriz
1 3
𝐴=[ ]
0 1
no es diagonalizable, pues sólo tiene un valor propio 𝜆1 = 1 doble (𝑚1 = 2) cuyo subespacio propio
asociado es de dimensión 1, i.e. (𝑠1 = 1).
Se cumple la condición necesaria (existen dos valores propios) pero no se cumplen ni la condición
suficiente (no existen dos valores propios distintos), ni la condición necesaria y suficiente (no coinciden la
multiplicidades geométrica y algebraica, 𝑠1 ≠ 𝑚1 ).

Ejemplo 7.10
La matriz
1 1 1
𝐴 = [1 1 1]
1 1 1
tiene un total de tres valores propios en total, dos distintos:
𝜆1 = 0 (𝑚1 = 2)
𝜑𝐴 (𝜆) = −𝜆3 + 3𝜆 = 0 → {
𝜆2 = 3 (𝑚2 = 1)
La multiplicidad geométrica del segundo valor propio es 𝑠2 = 1, por ser simple.
La multiplicidad geométrica del primer valor propio se puede hallar determinando la dimensión del
correspondiente subespacio propio. Para ello, se resuelve el sistema homogéneo:
1 1 1 0 𝛼1 = −𝜖1 − 𝜖2
(𝐴 − 0𝐼)𝑥 = 0 → [1 1 1 | 0 ] → 𝐸1 = { 𝛼2 = 𝜖1 ∀𝜖1 , 𝜖2 → 𝑠1 = 2
1 1 1 0 𝛼3 = 𝜖2
Por lo tanto, la matriz 𝐴 es diagonalizable, pues se cumple la condición necesaria y suficiente:
𝑠1 = 𝑚1 = 2
𝑠2 = 𝑚2 = 1

Suescun, Insausti, Flaquer (2022) 284 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.10 El polinomio característico

Para construir la matriz 𝑆 que diagonaliza 𝐴 hay que encontrar una base de vectores propios para el
espacio de matrices columna 𝑅3×1 . Para ello, se elige una base en cada subespacio propio.
Para el primer subespacio propio, resuelto más arriba, se tiene:
−1 −1
𝐵1 = 𝑥1 , 𝑥2 𝑥1 = [ 1 ] , 𝑥2 = [ 0 ]
0 1
Para el segundo subespacio:
−2 1 1 0 𝛼1 = 𝜖3
(𝐴 − 3𝐼)𝑥 = 0 → [ 1 −2 1 | 0 ] → 𝐸2 = { 𝛼2 = 𝜖3 ∀𝜖3 → 𝑠2 = 1
1 1 −2 0 𝛼3 = 𝜖 3
1
𝐵2 = 𝑥3 𝑥3 = [ 1 ]
1
Por lo tanto, la base buscada es:
−1 −1 1
𝐵 = 𝐵1 , 𝐵2 = 𝑥1 , 𝑥2 , 𝑥3 = [ 1 ] , [ 0 ] , [ 1 ]
0 1 1
Y la matriz 𝑆 es:
−1 −1 1
𝑆 = [𝑥1 𝑥2 𝑥3 ] = [ 1 0 1]
0 1 1
Se puede comprobar que 𝑆 diagonaliza 𝐴:
𝜆1 0 0 0 0 0
𝐷 = 𝑆 −1 𝐴 𝑆 = [ 0 𝜆1 0] = [ 0 0 0 ]
0 0 𝜆2 0 0 3

El polinomio característico

El polinomio característico de una matriz cuadrada 𝐴 de orden 𝑛 es:

𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼𝑛 ) (7.22)

esto es
𝑎11 − 𝜆 𝑎12 … 𝑎1𝑛
𝑎 𝑎22 − 𝜆 … 𝑎2𝑛
𝜑𝐴 (𝜆) = det [ 21 ]
… … … …
𝑎𝑛1 𝑎𝑛2 … 𝑎𝑛𝑛 − 𝜆
El desarrollo completo de un determinante de orden 𝑛 es la suma de 𝑛! sumandos. Cada sumando es el
producto de 𝑛 elementos de la matriz que no pertenecen simultáneamente a la misma fila y a la misma
columna, afectados por un factor +1 o −1. Como algunos elementos son polinomios en la variable 𝜆, los
productos en los que intervienen son también polinomios en 𝜆, de grado a lo sumo 𝑛. Por lo tanto, el
resultado del determinante es un polinomio de grado 𝑛 en la variable 𝜆.
Los coeficientes de orden 𝑛 y 𝑛 − 1 del polinomio característico se obtienen del producto de los
elementos de la diagonal principal, que son los únicos que incluyen a 𝜆:
(𝑎11 − 𝜆)(𝑎22 − 𝜆) ⋯ (𝑎𝑛𝑛 − 𝜆) = (−1)𝑛 𝜆𝑛 + (−1)𝑛−1 ⏟
(𝑎11 + 𝑎22 + ⋯ + 𝑎𝑛𝑛 ) 𝜆𝑛−1 + ⋯
traza(𝐴)

Los demás productos del desarrollo del determinante no producen términos en 𝜆𝑛 ni en 𝜆𝑛−1 pues pierden
al menos dos factores de la diagonal principal. Por ejemplo, un producto del desarrollo del determinante
con el factor 𝑎12 no puede contener los factores (𝑎11 − 𝜆) y (𝑎22 − 𝜆).

Suescun, Insausti, Flaquer (2022) 285 Tecnun-Universidad de Navarra


7.10 El polinomio característico 7 Valores y Vectores Propios

El término independiente de un polinomio es siempre el valor que toma cuando se anula la variable. En
este caso:
𝜑𝐴 (0) = det(𝐴 − 0𝐼𝑛 ) = det 𝐴
Por lo tanto, y con la información obtenida hasta ahora, se puede escribir:

𝜑𝐴 (𝜆) = (−1)𝑛 𝜆𝑛 + (−1)𝑛−1 traza(𝐴)𝜆𝑛−1 + ⋯ + det 𝐴 (7.23)

Ejemplo 7.11
1 2
La traza y determinante de la matriz 𝐴 = [ ] son
3 4
traza(𝐴) = 1 + 4 = 5
det 𝐴 = 4 − 6 = −2
Y su polinomio característico es:
𝜑𝐴 (𝜆) = 𝜆2 − traza(𝐴)𝜆 + det 𝐴 = 𝜆2 − 5𝜆 − 2

Los coeficientes del resto de términos del polinomio se determinan también a partir de los elementos de
la matriz, aunque no de forma sencilla.
La fórmula general del polinomio característico de una matriz cuadrada 𝐴 de orden 𝑛 es la siguiente:

𝜑𝐴 (𝜆) = (−1)𝑛 𝜆𝑛 + (−1)𝑛−1 𝜎1 𝜆𝑛−1 + ⋯ + (−1)𝑛−𝑘 𝜎𝑘 𝜆𝑛−𝑘 + ⋯ − 𝜎𝑛−1 𝜆 + 𝜎𝑛 (7.24)

siendo 𝜎𝑘 la suma de menores principales de 𝐴 de orden 𝑘. De forma más compacta:


𝑛

𝜑𝐴 (𝜆) = ∑(−1)𝑛−𝑘 𝜎𝑘 𝜆𝑛−𝑘 (7.25)


𝑘=0

Con 𝜎0 = 1 por convenio. Nótese que:

𝜎1 = traza(𝐴)
(7.26)
𝜎𝑛 = det 𝐴

Ejemplo 7.12
El polinomio característico de la matriz
1 2 3
𝐴 = [4 5 6]
7 8 9
se obtiene a partir de la suma de menores principales:
𝜎0 = 1

𝜎1 = det[1] + det[5] + det[9] = 1 + 5 + 9 = 15


1 2 1 3 5 6
𝜎2 = det [ ] + det [ ] + det [ ] = (−3) + (−12) + (−3) = −18
4 5 7 9 8 9
1 2 3
𝜎3 = det [4 5 6] = 0
7 8 9
y, en definitiva:
𝜑𝐴 (𝜆) = −𝜎0 𝜆3 + 𝜎1 𝜆2 − 𝜎2 𝜆 + 𝜎3 = −𝜆3 + 15𝜆2 + 18𝜆

Suescun, Insausti, Flaquer (2022) 286 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.11 Fórmulas de Vieta

Nótese que la matriz es singular (det 𝐴 = 0) por lo que el polinomio característico no tiene término
independiente y, en consecuencia, 𝜆 = 0 es valor propio de 𝐴.

Se sabe, por el Teorema Fundamental del Álgebra18, que toda ecuación polinomial de grado 𝑛 posee 𝑛
raíces reales o complejas, repetidas o no. Dada una ecuación característica 𝜑𝐴 (𝜆) = 0, polinomial de
grado 𝑛 en la variable 𝜆, se dice que 𝜆0 es una raíz o solución de multiplicidad algebraica 𝑚0 si

𝜑𝐴 (𝜆) = (𝜆 − 𝜆0 )𝑚0 𝜓(𝜆) (7.27)

con 𝜓(𝜆) un polinomio de grado (𝑛 − 𝑚0 ) que cumple 𝜓(𝜆0 ) ≠ 0.


Nota: Recuérdese los valores propios de una matriz 𝐴 ∈ 𝐾 𝑛×𝑛 deben estar en 𝐾, por lo que, en rigor, sólo
serán valores propios las raíces en 𝐾 de la ecuación:
𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼𝑛 ) = 0
Es decir, solo las raíces reales serán valores propios trabajando en un espacio vectorial real. En un espacio
vectorial complejo, todas las raíces (reales y complejas) serían valores propios.

Ejemplo 7.13
El polinomio característico de una cierta matriz cuadrada 𝐴 de orden 7 es
𝜑𝐴 (𝜆) = (𝜆 − 3)2 𝜆3 (𝜆 + 𝑖)(𝜆 − 𝑖)
Por lo tanto,
▪ 𝜆1 = 3 es una raíz real doble (𝑚1 = 2)
▪ 𝜆2 = 0 es una raíz real triple (𝑚2 = 3)
▪ 𝜆3 = 𝑖 es una raíz imaginaria simple (𝑚3 = 1)
▪ 𝜆4 = −𝑖 es una raíz imaginaria simple (𝑚4 = 1), conjugada de la anterior.
Existen un total de 7 raíces de la ecuación característica, pero solo 4 son distintas.
Si se estuviera trabajando en un espacio vectorial real, entonces la matriz 𝐴 tendría solo 5 valores propios
(𝜆1 y 𝜆2 ).
Por el contrario, trabajando en un espacio vectorial complejo, la matriz 𝐴 tendría 7 valores propios, 4
distintos (𝜆1 , 𝜆2 , 𝜆3 y 𝜆4 ).

Fórmulas de Vieta

Sean 𝜆1 , 𝜆2 , … , 𝜆𝑛 las 𝑛 raíces del polinomio característico de una matriz cuadrada 𝐴 de orden 𝑛:
𝜑𝐴 (𝜆) = (−1)𝑛 𝜆𝑛 + (−1)𝑛−1 𝜎1 𝜆𝑛−1 + ⋯ + (−1)𝑛−𝑘 𝜎𝑘 𝜆𝑛−𝑘 + ⋯ − 𝜎𝑛−1 𝜆 + 𝜎𝑛
Las fórmulas de Vieta relacionan los coeficientes del polinomio característico con sus raíces:

18 El Teorema Fundamental del Álgebra afirma que todo polinomio con coeficientes complejos tiene al menos una
raíz compleja (que podría ser real). Una consecuencia inmediata de este enunciado es que un polinomio de grado
𝑛 con coeficientes complejos tiene exactamente 𝑛 raíces complejas. La demostración por inducción es sencilla: el
teorema garantiza la existencia de una raíz en 𝑥 = 𝑎. Al dividir el polinomio por (𝑥 − 𝑎), se obtiene un nuevo
polinomio de grado 𝑛 − 1, que a su vez tendrá también una raíz.

Suescun, Insausti, Flaquer (2022) 287 Tecnun-Universidad de Navarra


7.12 𝝀-matrices y polinomios matriciales 7 Valores y Vectores Propios

𝜎1 = ∑ 𝜆𝑖
𝑖

𝜎2 = ∑ 𝜆𝑖 𝜆𝑗
𝑖<𝑗 (7.28)

𝜎3 = ∑ 𝜆𝑖 𝜆𝑗 𝜆𝑘
𝑖<𝑗<𝑘

𝜎𝑛 = 𝜆1 𝜆2 𝜆3 ⋯ 𝜆𝑛

Recuérdese que 𝜎1 = traza(𝐴) y 𝜎𝑛 = det 𝐴 por lo que:

𝜎1 = traza(𝐴) = 𝜆1 + 𝜆2 + 𝜆3 + ⋯ + 𝜆𝑛
(7.29)
𝜎𝑛 = det 𝐴 = 𝜆1 𝜆2 𝜆3 ⋯ 𝜆𝑛

Ejemplo 7.14
Los valores propios de una matriz real cuadrada de orden 3 son
𝜆1 = 5, 𝜆2 = 1, 𝜆3 = −2
Mediante las fórmulas de Vieta se puede obtener su polinomio característico
𝜎1 = 𝜆1 + 𝜆2 + 𝜆3 = 4
𝜎2 = 𝜆1 𝜆2 + 𝜆1 𝜆3 + 𝜆2 𝜆3 = −7 } 𝜑𝐴 (𝜆) = −𝜆3 + 34 + 7𝜆 − 10
𝜎3 = 𝜆1 𝜆2 𝜆3 = −10
Así mismo, también se sabe que:
traza(𝐴) = 𝜎1 = 4 det 𝐴 = 𝜎3 = −10

𝝀-matrices y polinomios matriciales

Una 𝜆-matriz es una matriz cuyos elementos son polinomios en la variable 𝜆:


𝐵(𝜆) = [𝑏𝑖𝑗 (𝜆)]
donde cada elemento 𝑏𝑖𝑗 (𝜆) es un polinomio en 𝜆.
Un polinomio matricial en la variable 𝜆 es una expresión de la forma:
𝐵(𝜆) = 𝐵0 + 𝐵1 𝜆 + 𝐵2 𝜆2 + ⋯ + 𝐵𝑝 𝜆𝑝
donde las matrices 𝐵𝑖 son cuadradas constantes del mismo orden.

Proposición 7.13
Enunciado: Toda 𝜆-matriz se puede escribir como un polinomio matricial en 𝜆 y recíprocamente.
Demostración: Evidente.

Ejemplo 7.15
La 𝜆-matriz siguiente se puede escribir como un polinomio matricial en 𝜆:

Suescun, Insausti, Flaquer (2022) 288 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.13 Teorema de Cayley-Hamilton

1 + 2𝜆 − 𝜆2 3 − 𝜆2 1 3 2 0 −1 −1
𝐵(𝜆) = [ ]=[ ]+[ ]𝜆 + [ ] 𝜆2
−𝜆 + 3𝜆2 1 + 2𝜆 + 𝜆2 0 1 −1 2 3 1

Ejemplo 7.16
La matriz característica 𝐴 − 𝜆𝐼 se puede ver de dos maneras:
▪ como una 𝜆-matriz, con sus elementos polinomios constantes, salvo los elementos de la diagonal
principal que son polinomios de primer grado en la variable 𝜆.
▪ como el polinomio matricial 𝐴 − 𝐼𝜆.

Teorema de Cayley-Hamilton

Proposición 7.14 (Teorema de Cayley-Hamilton)


Enunciado: Toda matriz cuadrada es raíz de su ecuación característica.
Más precisamente, lo que afirma el teorema de Cayley-Hamilton es que si

𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼𝑛 ) = 𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2 + ⋯ + 𝑐𝑛 𝜆𝑛 (7.30)

es el polinomio característico de una matriz 𝐴𝑛×𝑛 , entonces se cumple que :

𝑐0 𝐼 + 𝑐1 𝐴 + 𝑐2 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛 = 𝑂𝑛 (7.31)

Demostración: Se sabe (§3.3, proposición 3.3) que

(𝐴 − 𝜆𝐼𝑛 ) 𝐴𝑑𝑗(𝐴 − 𝜆𝐼𝑛 ) = det(𝐴 − 𝜆𝐼𝑛 ) 𝐼𝑛 (7.32)

Los elementos de la matriz 𝐴𝑑𝑗(𝐴 − 𝜆𝐼) son polinomios19 en 𝜆 de grado a lo sumo (𝑛 − 1), por lo que se
puede escribir:

𝐴𝑑𝑗(𝐴 − 𝜆𝐼) = 𝐵0 + 𝐵1 𝜆 + 𝐵2 𝜆2 + ⋯ + 𝐵𝑛−1 𝜆𝑛−1 (7.33)

Así:
(𝐴 − 𝜆𝐼𝑛 )(𝐵0 + 𝐵1 𝜆 + 𝐵2 𝜆2 + ⋯ + 𝐵𝑛−1 𝜆𝑛−1 ) = (𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2 + ⋯ + 𝑐𝑛 𝜆𝑛 )𝐼𝑛
Deshaciendo los paréntesis:
𝐴𝐵0 + 𝐴𝐵1 𝜆 + 𝐴𝐵2 𝜆2 + 𝐴𝐵3 𝜆3 + ⋯ + 𝐴𝐵𝑛−1 𝜆𝑛−1 +
− 𝐵0 𝜆 − 𝐵1 𝜆2 − 𝐵2 𝜆3 − ⋯ − 𝐵𝑛−2 𝜆𝑛−1 − 𝐵𝑛−1 𝜆𝑛 = (𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2 + ⋯ + 𝑐𝑛 𝜆𝑛 )𝐼𝑛
Identificando los coeficientes matriciales del primer miembro de esta expresión con los correspondientes
del segundo miembro, se tiene

19 Los elementos de la adjunta de una matriz de orden 𝑛 son adjuntos; esto es, son determinantes de orden 𝑛 − 1.
En el cálculo de estos adjuntos intervienen factores de la forma (𝑎𝑗𝑗 − 𝜆) por lo que sus resultados serán polinomios
en 𝜆 de grado a lo sumo 𝑛 − 1.

Suescun, Insausti, Flaquer (2022) 289 Tecnun-Universidad de Navarra


7.14 Obtención de la inversa de una matriz regular 7 Valores y Vectores Propios

𝐴𝐵0 = 𝑐0 𝐼𝑛
𝐴𝐵1 − 𝐵0 = 𝑐1 𝐼𝑛
𝐴𝐵2 − 𝐵1 = 𝑐2 𝐼𝑛

𝐴𝐵𝑛−1 − 𝐵𝑛−2 = 𝑐𝑛−1 𝐼𝑛
−𝐵𝑛−1 = 𝑐𝑛 𝐼𝑛
Multiplicando miembro a miembro por la izquierda la primera identidad por 𝐴0 , la segunda por 𝐴1 , la
tercera por 𝐴2 , y así sucesivamente hasta la última por 𝐴𝑛 se tienen las nuevas identidades:
(𝐴0 ∙) → 𝐴𝐵0 = 𝑐0 𝐼𝑛
(𝐴1 ∙) → 𝐴2 𝐵1 − 𝐴𝐵0 = 𝑐1 𝐴
(𝐴2 ∙) → 𝐴3 𝐵2 − 𝐴2 𝐵1 = 𝑐2 𝐴2
⋮ ⋮
(𝐴𝑛−1 ∙) → 𝐴𝑛 𝐵𝑛−1 − 𝐴𝑛−1 𝐵𝑛−2 = 𝑐𝑛−1 𝐴𝑛−1
(𝐴𝑛 ∙) → −𝐴𝑛 𝐵𝑛−1 = 𝑐𝑛 𝐴𝑛
Sumando ahora todas estas expresiones, miembro a miembro, se cancelan todos los términos del lado
izquierdo y se obtiene definitivamente
𝑂𝑛 = 𝑐0 𝐼 + 𝑐1 𝐴 + 𝑐2 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛
que es lo que se pretendía probar.

Ejemplo 7.17
1 2
Dada la matriz 𝐴 = [ ] cuyo polinomio característico es 𝜑𝐴 (𝜆) = 𝜆2 − 5𝜆 − 2 se cumple
3 4
0 0
𝐴2 − 5𝐴 − 2𝐼 = [ ]
0 0
como es fácil comprobar.

Obtención de la inversa de una matriz regular

El teorema de Cayley-Hamilton sirve para calcular la inversa de una matriz regular.


Sea 𝐴 una matriz cuadrada de orden 𝑛 regular. Si el polinomio característico de 𝐴 es
𝜑𝐴 (𝜆) = 𝑐0 + 𝑐1 𝜆 + 𝑐2 𝜆2 + ⋯ + 𝑐𝑛 𝜆𝑛
El teorema de Cayley-Hamilton establece que:
𝑐0 𝐼 + 𝑐1 𝐴 + 𝑐2 𝐴2 + 𝑐3 𝐴3 + ⋯ + 𝑐𝑛 𝐴𝑛 = 𝑂𝑛
Multiplicando miembro a miembro por 𝐴−1 se llega a:
𝑐0 𝐴−1 + 𝑐1 𝐼𝑛 + 𝑐2 𝐴 + 𝑐3 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛−1 = 𝑂𝑛
Nótese que debe ser 𝑐0 ≠ 0, por ser 𝑐0 = det 𝐴 y 𝐴 regular, por lo que se puede despejar 𝐴−1 :

−1
𝐴−1 = (𝑐 𝐼 + 𝑐2 𝐴 + 𝑐3 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛−1 )
𝑐0 1 𝑛
⏟ (7.34)
≠0

Suescun, Insausti, Flaquer (2022) 290 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.15 Polinomio mínimo

Ejemplo 7.18
1 2
Se trata de hallar la inversa de la matriz regular 𝐴 = [ ] del ejemplo anterior.
3 4
Su polinomio característico es 𝜆2 − 5𝜆 − 2. Se cumple:
𝐴2 − 5𝐴 − 2𝐼 = 𝑂
Multiplicando por 𝐴−1 :
𝐴 − 5𝐼 − 2𝐴−1 = 𝑂
De donde:
1 −2 1
𝐴−1 = (𝐴 − 5𝐼) = [3 −1⁄ ]
2 ⁄2 2

Comentario final: Obsérvese que también es posible calcular la matriz 𝐴𝑑𝑗𝐴 de una matriz regular:

𝐴𝑑𝑗𝐴 = −(𝑐1 𝐼𝑛 + 𝑐2 𝐴 + 𝑐3 𝐴2 + ⋯ + 𝑐𝑛 𝐴𝑛−1 ) (7.35)

Polinomio mínimo

Un polinomio 𝜌(𝜆) es anulador de 𝐴𝑛×𝑛 si 𝜌(𝐴) = 𝑂𝑛 . El polinomio característico 𝜑𝐴 (𝜆) es un polinomio


anulador de 𝐴. Existen otros polinomios anuladores además de éste.
Se denomina polinomio mínimo, y se denota por 𝜇(𝜆), al polinomio anulador de 𝐴 no nulo de menor
grado y con coeficiente principal la unidad.

Teorema 7.15 (de existencia y unicidad )


Enunciado: El polinomio mínimo 𝜇(𝜆) de 𝐴 existe, es único y divide a cualquier polinomio anulador de 𝐴.
Demostración:
Existencia: A falta de otros de menor grado, 𝜇(𝜆) coincide con el polinomio característico 𝜑𝐴 (𝐴)
multiplicado por (−1𝑛 ).
Unicidad: Si hubiera dos polinomios mínimos 𝜇(𝜆) y 𝜇′(𝜆), el polinomio diferencia 𝑑(𝜆) = 𝜇(𝜆) − 𝜇′(𝜆)
sería o bien anulador de menor grado que los mínimos (lo que no es posible) o bien sería el polinomio
nulo, en cuyo caso debe ser 𝜇(𝜆) = 𝜇′(𝜆).
Divisibilidad: De otra parte, si 𝜌(𝜆) es un polinomio anulador cualquiera de 𝐴:
𝜌(𝐴) = 𝑂𝑛
Dividiendo 𝜌(𝜆) por 𝜇(𝜆) se tiene:
𝜌(𝜆) = 𝑞(𝜆)𝜇(𝜆) + 𝑟(𝜆)
de ahí que
𝜌(𝐴) = 𝑞(𝐴)𝜇(𝐴) + 𝑟(𝐴)
𝑂𝑛 = 𝑞(𝐴)𝑂𝑛 + 𝑟(𝐴)
𝑂𝑛 = 𝑟(𝐴)
Es decir, 𝑟(𝜆) es también un anulador de 𝐴, pero su grado debe ser menor que el grado del polinomio
mínimo, lo que solo es posible si 𝑟(𝜆) es el polinomio nulo. Por lo tanto:
𝜌(𝜆) = 𝑞(𝜆)𝜇(𝜆)
Y por consiguiente, 𝜇(𝜆) divide a cualquier polinomio anulador de 𝐴.

Suescun, Insausti, Flaquer (2022) 291 Tecnun-Universidad de Navarra


7.16 Método de la potencia 7 Valores y Vectores Propios

Ejemplo 7.19
Se calcula el polinomio mínimo de la matriz
1 0 0
𝐴 = [1 1 1]
0 0 1
Para ello, se parte del polinomio característico de 𝐴:
𝜑𝐴 (𝜆) = (1 − 𝜆)3
El polinomio mínimo debe ser divisor de 𝜑𝐴 (𝜆), con coeficiente principal 1 y anulador de 𝐴. Se tienen tres
polinomios candidatos entre los divisores de 𝐴:
(𝜆 − 1) , (𝜆 − 1)2 , (𝜆 − 1)3
Se analiza si son anuladores y se elige el de menor grado:
0 0 0
(𝜆 − 1) → 𝐴 − 𝐼 = [1 0 1] ≠ 𝑂3
0 0 0
0 0 0 2
(𝜆 − 1) 2 2
→ (𝐴 − 𝐼) = [1 0 1] = 𝑂3
0 0 0
Luego 𝜇(𝜆) = (𝜆 − 1)2 = 𝜆2 − 2𝜆 + 1 es el polinomio mínimo.

Método de la potencia

Hasta ahora se ha visto cómo calcular los valores y vectores propios de forma manual. Para los valores
propios, se obtiene el polinomio característico y se hallan sus raíces. Para los vectores propios, se resuelve
el sistema de ecuaciones indeterminado resultante de la definición. Sin embargo, esta manera de trabajar
es altamente ineficiente cuando se tienen matrices grandes, ya que el coste computacional es muy
elevado. El método de la potencia (y sus variantes) permiten conocer algunos valores y vectores propios
de una matriz con un coste computacional moderado.

Proposición 7.16 (Método de la potencia )


Enunciado: Sea 𝐴 una matriz diagonalizable de orden 𝑛 con valores propios 𝜆1 , 𝜆2 , … , 𝜆𝑛 ordenados de
manera decreciente en módulo (es decir, |𝜆1 | ≥ |𝜆2 | ≥ ⋯ ≥ |𝜆𝑛 |). Si |𝜆1 | > |𝜆2 | de manera estricta,
entonces para cualquier columna 𝑢0 de tamaño 𝑛 × 1 se tiene
𝑢𝑘𝑇 𝐴𝑢𝑘
lim 𝑇 = 𝜆1
𝑘→∞ 𝑢𝑘 𝑢𝑘
donde
𝑢𝑘 = 𝐴𝑢𝑘−1 𝑘 ∈ 1,2, …
Demostración: Como 𝐴 es una matriz diagonalizable, admite una base de vectores propios 𝑥1 , 𝑥2 , … , 𝑥𝑛
asociados a 𝜆1 , 𝜆2 , … , 𝜆𝑛 respectivamente. Sea 𝑢0 una columna de 𝑅𝑛×1 cualquiera. Puesto que
𝑥1 , 𝑥2 , … , 𝑥𝑛 es una base de 𝑅𝑛×1 , existen escalares α1 , 𝛼2 , … , 𝛼𝑛 tales que
𝑢0 = 𝛼1 𝑥1 + 𝛼2 𝑥2 + ⋯ + 𝛼𝑛 𝑥𝑛
Entonces,
𝑛 𝑛 𝑛 𝑛 𝑘
𝜆𝑗
𝑘 𝑘
𝑢𝑘 = 𝐴𝑢𝑘−1 = 𝐴 𝑢0 = 𝐴 ∑ 𝛼𝑗 𝑥𝑗 = ∑ 𝛼𝑗 𝐴 𝑥𝑗 = 𝑘
∑ 𝛼𝑗 𝜆𝑗𝑘 𝑥𝑗 = 𝜆𝑘1 ∑ 𝛼𝑗 ( ) 𝑥𝑗
𝜆1
𝑗=1 𝑗=1 𝑗=1 𝑗=1
𝑛 𝑘
𝜆𝑗
= 𝜆𝑘1 (𝛼1 𝑥1 + ∑ 𝛼𝑗 ( ) 𝑥𝑗 )
𝜆1
𝑗=2

Suescun, Insausti, Flaquer (2022) 292 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.16 Método de la potencia

λj
Obsérvese que | | < 1 para 𝑗 ∈ 2,3, … , 𝑛, por lo que
𝜆1
𝑛 𝑘
𝜆𝑗
lim ∑ 𝛼𝑗 ( ) 𝑥𝑗 = 0
𝑘→∞ 𝜆1
𝑗=2

Suponiendo que α1 ≠ 0, se concluye que


𝑢𝑘𝑇 𝐴𝑢𝑘 𝑢𝑘𝑇 𝑢𝑘+1
lim 𝑇 = lim 𝑇
𝑘→∞ 𝑢 𝑢𝑘 𝑘→∞ 𝑢 𝑢𝑘
𝑘 𝑘
𝑇
𝜆𝑗 𝑘 𝜆𝑗 𝑘+1
𝜆𝑘1 (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 ) 𝜆𝑘+1
1 (𝛼 𝑥
1 1 + ∑ 𝑛
𝑗=2 𝑗 𝜆 )
𝛼 ( 𝑥𝑗 )
𝜆1 1
= lim 𝑇
𝑘→∞
𝜆𝑗 𝑘 𝜆𝑗 𝑘
𝜆𝑘1 (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 ) 𝜆𝑘1 (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 )
𝜆1 𝜆1
𝑇
𝜆𝑗 𝑘 𝜆𝑗 𝑘+1
𝜆𝑘1 (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 ) (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 )
𝜆1 𝜆1 (𝛼1 𝑥1 )𝑇 (𝛼1 𝑥1 )
= 𝜆1 lim 𝑇 = 𝜆1 = 𝜆1
𝑘→∞
𝜆𝑗 𝑘 𝜆𝑗 𝑘 (𝛼1 𝑥1 )𝑇 (𝛼1 𝑥1 )
𝜆𝑘1 (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 ) (𝛼1 𝑥1 + ∑𝑛𝑗=2 𝛼𝑗 ( ) 𝑥𝑗 )
𝜆1 𝜆1

Al cociente
𝑢𝑘𝑇 𝐴𝑢𝑘
𝑠𝑘 =
𝑢𝑘𝑇 𝑢𝑘
se le llama cociente de Rayleigh y tiene diversas aplicaciones en álgebra lineal numérica. Desde un punto
de vista práctico, la proposición anterior indica que si se calculan suficientes iteraciones (𝑘 grande) del
cociente de Rayleigh, se puede obtener una aproximación tan buena como se desee del valor propio 𝜆1 .
Conocer el número de iteraciones necesarias para una obtener precisión deseada es sencillo, pero queda
fuera del alcance de este curso.
Una vez obtenido 𝜆1 , es sencillo calcular un vector propio asociado al valor propio 𝜆1 , ya que
𝑛 𝑘
1 𝜆𝑗
lim 𝑘 𝑢𝑘 = lim (𝛼1 𝑥1 + ∑ 𝛼𝑗 ( ) 𝑥𝑗 ) = 𝛼1 𝑥1
𝑘→∞ 𝜆
1
𝑘→∞ 𝜆1
𝑗=2

y, obviamente, 𝛼1 𝑥1 es un vector propio de 𝐴 asociado a 𝜆1 .

Ejemplo 7.20
Consideramos la matriz
2 1 0
𝐴 = [1 1 1]
0 1 2
Se puede calcular analíticamente que esta matriz tiene valores propios 𝜆1 = 3, 𝜆2 = 2, λ3 = 0. También
es fácil comprobar que un vector propio asociado a 𝜆1 es 𝑥1 = [1 1 1]𝑇 . Tomamos como columna inicial
1
𝑢0 = [ 2 ]
3
y tras 10 iteraciones del método de la potencia se obtiene
117074
𝑢10 = [ 118098 ]
119122
por lo que

Suescun, Insausti, Flaquer (2022) 293 Tecnun-Universidad de Navarra


7.17 El método 𝑸𝑹 7 Valores y Vectores Propios

𝑇
𝑢10 𝐴𝑢10
𝑠10 = 𝑇 = 2,999949881068730 …
𝑢10 𝑢10
Por otra parte,

𝑢10 1,9830
≈ [ 2,0003 ]
𝜆10
1 2,0177
Si se hacen más iteraciones, mejora la precisión. Por ejemplo, con 25 iteraciones 𝑠25 =
2,999999999738612 y

𝑢25 1,99996
≈ [ 2,00000 ]
𝜆25
1 2,00004

Existen distintas variantes del método de la potencia, tanto para prevenir errores numéricos como para
hallar otros valores propios aparte de 𝜆1 , pero no se verán en este curso.

El método 𝑸𝑹

El método 𝑄𝑅 es un método iterativo para obtener todos los valores propios de una matriz. Como su
propio nombre sugiere, este método está basado en la factorización 𝑄𝑅.

Proposición 7.17 (Método 𝑸𝑹)


Enunciado: Sea 𝐴 una matriz cuadrada de orden 𝑛 con todos sus valores propios distintos (en valor
absoluto). Entonces,
𝜆1 ∗ ⋯ ∗
0 𝜆2 ⋱ ⋮
lim 𝐴𝑘 = [ ]
𝑘→∞ 0 ⋱ ∗
0 0 𝜆𝑛
donde 𝜆1 , 𝜆2 , … , 𝜆𝑛 son los valores propios de 𝐴,
𝐴𝑘+1 = 𝑅𝑘 𝑄𝑘 𝑘 ∈ {1,2, … },
𝑄𝑘 𝑅𝑘 es la factorización 𝑄𝑅 de la matriz 𝐴𝑘 y 𝐴1 = 𝐴.
Demostración: Sin demostrar.

Desde un punto de vista práctico, el algoritmo consiste en calcular sucesivamente la factorización 𝑄𝑅 de


la matriz 𝐴𝑘 , y la matriz 𝐴𝑘+1 se obtiene simplemente invirtiendo el orden del producto de los factores.
Si el número de iteraciones 𝑘 es suficientemente grande, los valores propios aparecen en la diagonal
principal de la matriz 𝐴𝑘 .
Al igual que en el método de la potencia, conocer el número de iteraciones necesarias para obtener una
precisión deseada es sencillo, pero dicha explicación queda fuera del alcance de este curso.

Ejemplo 7.21
Consideramos la matriz
−2 −4 2
𝐴 = [−2 1 2]
4 2 5
Se puede calcular analíticamente que esta matriz tiene valores propios 𝜆1 = 6, 𝜆2 = −5, λ3 = 3. Se
calcula con Matlab la sucesión de matrices 𝐴2 , 𝐴3 , 𝐴4 , … siguiendo el algoritmo del método 𝑄𝑅. Tras 20
iteraciones se obtiene

Suescun, Insausti, Flaquer (2022) 294 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.17 El método 𝑸𝑹

6,0663 1,7091 1,4807


𝐴20 = [−0,4290 −5,0663 1,1115]
0,0000 −0,0004 3,0001
y, como se puede apreciar, en la diagonal principal se obtienen las aproximaciones de los valores propios.

Suescun, Insausti, Flaquer (2022) 295 Tecnun-Universidad de Navarra


7.18 Ejemplos de aplicación 7 Valores y Vectores Propios

Ejemplos de aplicación

Ejemplo de aplicación 7.1: Crecimiento de poblaciones (Extraído de Poole 20)


Una especie de escarabajo vive hasta 3 años. La población de hembras se puede clasificar en tres grupos,
según su edad: pequeñas (0 a 1 año), jóvenes (1 a 2 años) y adultas (2 a 3 años). Las pequeñas no depositan
huevos. Cada joven produce un promedio de 4 nuevas hembras al año y cada adulta produce un promedio
de 3 nuevas hembras al año. La tasa de supervivencia anual de las pequeñas es del 50% (es decir, la
probabilidad de que sobreviva una pequeña para convertirse en joven es de 0.5), mientras que la tasa de
supervivencia de las jóvenes es del 25% (solo una de cada cuatro se convierte en adulta).
Se denota con 𝑝𝑛 , 𝑗𝑛 y 𝑎𝑛 la población de hembras pequeñas, jóvenes y adultas respectivamente en el
año 𝑛. Aplicando los datos de reproducción y supervivencia, se obtienen las siguientes expresiones para
calcular la población en el año 𝑛 + 1.
Por reproducción:
0 𝑝𝑛 + 4 𝑗𝑛 + 3 𝑎𝑛 = 𝑝𝑛+1
Por supervivencia:
0.5 𝑝𝑛 = 𝑗𝑛+1
0.25 𝑗𝑛 = 𝑎𝑛+1
Matricialmente:
0 4 3 𝑝𝑛 𝑝𝑛+1
[0.5 0 0] [ 𝑛 ] = [ 𝑗𝑛+1 ] →
𝑗 𝐿 𝑥𝑛 = 𝑥𝑛+1
0 0.25 0 𝑎𝑛 𝑎𝑛+1
La matriz 𝐿 se denomina matriz de Leslie y se utiliza para el estudio de poblaciones. Las matrices columna
𝑥𝑛 y 𝑥𝑛+1 almacenan los datos de población de los años 𝑛 y 𝑛 + 1 respectivamente.
Al cabo de los años, se alcanza una tasa de crecimiento estable y una distribución relativa constante de la
población, que vienen determinados por los valores y vectores propios de la matriz de Leslie.
La tasa de crecimiento estable 𝜆 y la distribución relativa constante de la población se puede expresar
matemáticamente con la siguiente ecuación:
𝑥𝑛+1 = 𝜆 𝑥𝑛
Esto es:
𝐿 𝑥𝑛 = 𝜆 𝑥𝑛
Por lo tanto, 𝜆 debe ser un valor propio positivo de 𝐿:
det(𝐿 − 𝜆𝐼) = 0 → −𝜆3 + 2𝜆 + 0.375 = 0
El único valor propio positivo es 𝜆 = 1.5. Los otros dos (−1.309 y −0.191) son negativos.
El vector propio asociado a 𝜆 = 1.5 proporciona la distribución relativa de la población en el estado
estacionario:
(𝐿 − 1.5 𝐼)𝑥𝑛 = 0
−1.5 4 3 0 1 0 −18 0 𝑝𝑛 = 18𝜖
[ 0.5 −1.5 0 | 0] → [0 1 −6 | 0] → { 𝑗𝑛 = 6𝜖
0 0.25 −1.5 0 0 0 0 0 𝑎𝑛 = 𝜖
Es decir, en el estado estacionario, por cada hembra adulta, existen 6 jóvenes y 18 pequeñas. O, dicho de
otra forma:
𝑝𝑛 = 72% 𝑗𝑛 = 24% 𝑎𝑛 = 4%

20 David Poole, “Álgebra lineal. Una introducción moderna”, International Thomson Editores (2004) ISBN: 970-686-
272-2

Suescun, Insausti, Flaquer (2022) 296 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.18 Ejemplos de aplicación

Se puede demostrar que las matrices de Leslie solo tienen un valor propio positivo, cuyo vector propio
asociado también es el único vector propio con todas sus componentes positivas.
Una pregunta para el lector: ¿Qué importancia tienen los valores propios negativos?

Ejemplo de aplicación 7.2: Ventas de marcas competidoras


Se estudia a continuación la evolución anual de los clientes de dos marcas competidoras en una
determinada población 𝑁, que se supone constante en el tiempo. Tras una encuesta a los consumidores,
se ha determinado que el 80% de los clientes de la primera marca permanece fiel a su marca y solo el 20%
decide cambiar de un año al siguiente. Por su parte, el 60% de los clientes de la segunda marca permanece
fiel y el 40% decide cambiar de un año al siguiente.
Sean 𝛼 y 𝛽 los clientes de cada marca. En el año 𝑛, se almacenan en la matriz columna 𝑥𝑛 :
𝛼𝑛
𝑥𝑛 = [ ]
𝛽𝑛
donde el subíndice indica el año. De acuerdo a la encuesta de consumo:
𝛼𝑛+1 = 0.8 𝛼𝑛 + 0.4 𝛽𝑛
𝛽𝑛+1 = 0.2 𝛼𝑛 + 0.6 𝛽𝑛
De manera matricial, se tiene una ecuación recursiva que permite actualizar el número de clientes de cada
marca de un año al siguiente:
𝑥𝑛+1 = 𝐴 𝑥𝑛
donde 𝐴 es la siguiente matriz de Markov.
0.8 0.4
𝐴=[ ]
0.2 0.6
Las preguntas a responder en este estudio son dos:
1) ¿es posible que, conforme pasen los años, el número de clientes de cada marca se estabilice,
i.e. se vuelva constante?
2) ¿Qué porcentaje de clientes retiene cada marca al cabo de muchos años?
A continuación, se responde a ambas preguntas usando dos enfoques de resolución distintos.

Enfoque 1
Que el número de clientes de cada marca se estabilice (𝑥𝑛 ≈ 𝑥𝑛+1 ≈ ⋯ = 𝑥) implica que 𝐴 debe tener
un valor propio unidad, de modo que:
𝐴𝑥 = 𝑥
Efectivamente, la matriz 𝐴 tiene un valor propio unidad, y el otro es positivo pero menor que uno:
𝜆1 = 1
𝜑𝐴 (𝜆) = 𝜆2 − 1.4𝜆 + 0.4 = 0 → {
𝜆2 = 0.4
Por lo tanto, el vector propio asociado al valor propio unidad proporciona el número de clientes de cada
marca en el estacionario:
−0.2 0.4 0 𝛼 = 2𝜖
𝜆1 = 1 → 𝐸1 : (𝐴 − 𝐼)𝑥 = 0 → [ | ] → {
0.2 −0.4 0 𝛽= 𝜖
Eligiendo 𝜖 = 𝑁/3 para que 𝛼 + 𝛽 = 𝑁, se obtiene los valores estacionarios:
𝛼 = 2𝑁/3 = 66.7% de 𝑁
𝛽 = 𝑁/3 = 33.3% de 𝑁

Suescun, Insausti, Flaquer (2022) 297 Tecnun-Universidad de Navarra


7.18 Ejemplos de aplicación 7 Valores y Vectores Propios

Enfoque 2
Aplicando repetidamente la ecuación recursiva a partir de una distribución inicial de clientes 𝑥0 se obtiene
lo siguiente:
𝑥1 = 𝐴 𝑥0
𝑥2 = 𝐴 𝑥1 = 𝐴2 𝑥0
𝑥3 = 𝐴 𝑥2 = 𝐴3 𝑥0

𝑥𝑛 = 𝐴𝑛 𝑥0

Por lo tanto, caso de existir una distribución de clientes estacionaria 𝑥, ésta se podría calcular con el
siguiente límite:

𝑥 = lim 𝑥𝑛 = ( lim 𝐴𝑛 ) 𝑥0 = 𝐴∞ 𝑥0
𝑛→∞ 𝑛→∞
𝑛
Para calcular 𝐴 se utiliza la diagonalización de 𝐴. Fácilmente se obtiene que:
1 0 2 −1
𝐷=[ ] 𝑆=[ ] → 𝐷 = 𝑆 −1 𝐴 𝑆 → 𝐴 = 𝑆𝐷𝑆 −1
0 0.4 1 1
Nótese que:
𝐴𝑛 = (𝑆𝐷𝑆 −1 )𝑛 = 𝑆𝐷𝑛 𝑆 −1
y
1𝑛 0 1 0
𝐷𝑛 = [ ] → lim 𝐷𝑛 = [ ]
0 0.4𝑛 𝑛→∞ 0 0
Por lo tanto:
1 2 −1 1 0 1 1 1 2 2
𝐴∞ = lim 𝐴𝑛 = 𝑆 ( lim 𝐷𝑛 ) 𝑆 −1 = [ ][ ][ ]= [ ]
𝑛→∞ 𝑛→∞ 3 1 1 0 0 −1 2 3 1 1
Y, en definitiva:
1 2 2 𝛼0 1 2𝛼0 + 2𝛽0 2𝑁/3
𝑥 = 𝐴∞ 𝑥0 = [ ][ ]= [ ]=[ ]
3 1 1 𝛽0 3 𝛼0 + 𝛽0 𝑁/3
ya que 𝛼0 + 𝛽0 = 𝑁. Se obtienen por tanto los mismos valores estacionarios para el número de clientes
de cada marca que con el procedimiento anterior:
𝛼 = 2𝑁/3 = 66.7% de 𝑁
𝛽 = 𝑁/3 = 33.3% de 𝑁
Nótese que:
▪ El número de clientes de cada marca en el estacionario no depende del número inicial de clientes
de cada marca.
▪ El número de clientes de cada marca se estabiliza al cabo de los años porque los dos valores
propios de 𝐴 son positivos y no mayores que uno y, en consecuencia, 𝐴∞ es una matriz finita.

Suescun, Insausti, Flaquer (2022) 298 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 7.1
Obtener los valores propios de la siguiente matriz en función de los parámetros reales 𝑎 y 𝑏:
𝑎 0 𝑏
𝐴 = [0 5 0]
𝑏 0 𝑎

Solución
En primer lugar, se determina el polinomio característico:
𝑎−𝜆 0 𝑏
𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼) = det [ 0 5−𝜆 0 ]
𝑏 0 𝑎−𝜆
𝑎−𝜆 𝑏
= (5 − 𝜆)det [ ] = (5 − 𝜆)((𝑎 − 𝜆)2 − 𝑏 2 )
𝑏 𝑎−𝜆
A continuación, se obtienen los ceros del polinomio:
𝜆1 = 5
(5 − 𝜆)((𝑎 − 𝜆)2 − 𝑏 2 ) = 0 → { 𝜆2 = 𝑎 + 𝑏
𝜆3 = 𝑎 − 𝑏

Ejercicio 7.2
Obtener los valores propios de la siguiente matriz:
3 0 0
𝐴=[0 −5 0]
0 0 7

Solución
Los valores propios son precisamente los elementos de la diagonal principal:
3−𝜆 0 0
𝜑𝐴 (𝜆) = det(𝐴 − 𝜆𝐼) = det [ 0 −5 − 𝜆 0 ]
0 0 7−𝜆
𝜆1 = 3
= (3 − 𝜆)(−5 − 𝜆)(7 − 𝜆) = 0 → { 𝜆2 = −5
𝜆3 = 7

Ejercicio 7.3
Demostrar que una matriz regular 𝐴 no puede tener valores propios nulos.

Solución (Primer procedimiento)


Si 𝜆0 es un valor propio de 𝐴, debe cumplirse que:
det(𝐴 − 𝜆0 𝐼𝑛 ) = 0
Una matriz con un valor propio nulo es necesariamente singular, pues:
𝜆0 = 0 → det(𝐴 − 0𝐼𝑛 ) = det 𝐴 = 0
Por tanto, la existencia de valores propios nulos implica que la matriz es singular y, consecuentemente,
una matriz regular no puede tener valores propios nulos.

Suescun, Insausti, Flaquer (2022) 299 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

Solución (Segundo procedimiento)


Sea 𝑥0 un vector propio asociado al valor propio 𝜆0 = 0:
𝐴𝑥0 = 0𝑥0 → 𝐴𝑥0 = 0
La existencia de vectores propios, que son no nulos, implica que el sistema homogéneo 𝐴𝑥0 = 0 es
indeterminado y, por consiguiente, la matriz 𝐴 es singular.
Recíprocamente, si la matriz 𝐴 fuera regular, el sistema homogéneo no tendría soluciones distintas de la
columna nula y por tanto no existirían vectores propios tales que 𝐴𝑥0 = 0𝑥0 .

Ejercicio 7.4
Si 𝜆0 es un valor propio de la matriz regular 𝐴 y 𝑥0 un vector propio asociado, demuestre que 1/𝜆0 es un
valor propio de 𝐴−1 con el mismo vector propio asociado.

Solución
Sean 𝜆0 un valor propio de la matriz regular 𝐴 y 𝑥0 un vector propio asociado. Se cumple por tanto que:
𝐴𝑥0 = 𝜆0 𝑥0
Por ser 𝐴 regular, se puede multiplicar ambos miembros de la expresión anterior por 𝐴−1 :
𝐴−1 𝐴𝑥0 = 𝜆0 𝐴−1 𝑥0
𝑥0 = 𝜆0 𝐴−1 𝑥0
Como además las matrices regulares no tienen valores propios nulos:
1
𝜆0 ≠ 0 → 𝐴−1 𝑥0 = 𝑥
𝜆0 0
Y se concluye que 1/𝜆0 es valor propio de 𝐴−1 , con 𝑥0 un vector propio de 𝐴−1 asociado a 1/𝜆0.

Ejercicio 7.5
Sean 𝐴 y 𝐵 dos matrices cuadradas reales de orden 𝑛. Con ellas se construye la matriz 𝑅 de la siguiente
manera:
𝐵 𝐴
]𝑅=[
−𝐴 𝐵
𝑢
Demostrar que si 𝜆0 es un valor propio de 𝑅 y 𝑥0 = [ ] un vector propio asociado, entonces −𝜆0 es
𝑣
también un valor propio de 𝑅.

Solución
Se cumple que 𝑅𝑥0 = 𝜆0 𝑥0 por lo que:
𝐴 𝐵 𝑢 𝑢 𝐴𝑢 + 𝐵𝑣 = 𝜆0 𝑢
[ ][ ] = 𝜆0 [ ] →
𝐵 −𝐴 𝑣 𝑣 𝐵𝑢 − 𝐴𝑣 = 𝜆0 𝑣
Intercambiando de orden las identidades y trabajando sobre ellas:
𝐵𝑢 − 𝐴𝑣 = 𝜆0 𝑣 −𝐴𝑣 + 𝐵𝑢 = 𝜆0 𝑣 𝐴(−𝑣) + 𝐵𝑢 = −𝜆0 (−𝑣)
→ → →
𝐴𝑢 + 𝐵𝑣 = 𝜆0 𝑢 −𝐵𝑣 − 𝐴𝑢 = −𝜆0 𝑢 𝐵(−𝑣) − 𝐴𝑢 = −𝜆0 𝑢
o en forma matricial:
𝐴 𝐵 −𝑣 −𝑣
[ ][ ] = −𝜆0 [ ]
𝐵 −𝐴 𝑢 𝑢
−𝑣
Por tanto se verifica que −𝜆0 es un valor propio de 𝑅 y que su vector propio asociado es [ ] pues 𝑢 y 𝑣
𝑢
no pueden ser simultáneamente nulos.

Suescun, Insausti, Flaquer (2022) 300 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

Ejercicio 7.6
Demostrar que la matriz
1 1
𝐴=[ ]
0 1
no puede ser semejante con la matriz identidad 𝐼2 .

Solución
Si hubiera semejanza se tendría que
𝐴 ~ 𝐼2 ⇒ ∃ 𝑆𝑅𝑒𝑔𝑢𝑙𝑎𝑟 | 𝑆 −1 𝐴 𝑆 = 𝐼2
por lo que
𝐴 = 𝑆 𝐼2 𝑆 −1 = 𝐼2
lo que es manifiestamente absurdo, pues 𝐴 no es la matriz identidad.

Ejercicio 7.7
Hallar los valores propios de la matriz
𝑎 𝑏 𝑐
𝐴 = [𝑐 𝑏 𝑎]
𝑎 𝑏 𝑐
siendo 𝑎, 𝑏 y 𝑐 parámetros reales y cumpliéndose 𝑎 + 𝑏 + 𝑐 ≠ 0.

Solución
Se calcula en primer lugar el polinomio característico:
𝑎−𝜆 𝑏 𝑐
det(𝐴 − 𝜆𝐼) = det [ 𝑐 𝑏−𝜆 𝑎 ]
𝑎 𝑏 𝑐−𝜆
𝑎+𝑏+𝑐−𝜆 𝑏 𝑐
= det [𝑎 + 𝑏 + 𝑐 − 𝜆 𝑏−𝜆 𝑎 ]
𝑎+𝑏+𝑐−𝜆 𝑏 𝑐−𝜆
1 𝑏 𝑐
= (𝑎 + 𝑏 + 𝑐 − 𝜆)det [1 𝑏−𝜆 𝑎 ]
1 𝑏 𝑐−𝜆
1 0 0
= (𝑎 + 𝑏 + 𝑐 − 𝜆)det [1 −𝜆 𝑎 − 𝑐]
1 0 −𝜆
= (𝑎 + 𝑏 + 𝑐 − 𝜆)𝜆2
Los valores propios son, por tanto:
𝜆1 = 𝑎 + 𝑏 + 𝑐 ≠ 0 (𝑚1 = 1)
𝜆2 = 0 (𝑚2 = 2)

Ejercicio 7.8
Hallar los valores propios de la matriz ortogonal
cos 𝜃 − sin 𝜃 0
𝑄 = [ sin 𝜃 cos 𝜃 0] (0 < 𝜃 < 𝜋)
0 0 1

Suescun, Insausti, Flaquer (2022) 301 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

En el cuerpo 𝐶 de los números complejos.


En el cuerpo 𝑅 de los números reales.

Solución
La ecuación característica es:
cos 𝜃 − 𝜆 − sin 𝜃 0
cos 𝜃 − 𝜆 − sin 𝜃
det [ sin 𝜃 cos 𝜃 − 𝜆 0 ] = (1 − 𝜆)det [ ]
sin 𝜃 cos 𝜃 − 𝜆
0 0 1−𝜆
= (1 − 𝜆)(𝜆2 − 2 cos 𝜃 𝜆 + 1) = 0
cuyas soluciones son:
1, 𝑒 𝜃𝑖 , 𝑒 −𝜃𝑖
(se recuerda la identidad 𝑒 𝜃𝑖 = cos 𝜃 + 𝑖 sin 𝜃).
Trabajando en el cuerpo de los números complejos 𝐶, entonces las tres soluciones son valores propios:
𝜆1 = 1 𝜆2 = 𝑒 𝜃𝑖 𝜆3 = 𝑒 −𝜃𝑖
Por el contrario, en el cuerpo de los números reales 𝑅, la matriz 𝑄 sólo tiene un valor propio real (pues
0 < 𝜃 < 𝜋):
𝜆1 = 1

Ejercicio 7.9
Hallar el polinomio característico y los valores propios de la matriz de permutación siguiente:
0 0 0 0 1
0 0 1 0 0
𝑃= 0 1 0 0 0
1 0 0 0 0
[0 0 0 1 0]

Solución
Las operaciones elementales no respetan, en general, los valores propios ni los vectores propios de una
matriz. El cálculo directo del polinomio característico de la matriz 𝑃 conduce (desarrollando por la primera
columna) a:
−𝜆 0 0 0 1
0 −𝜆 1 0 0
𝜑𝑃 (𝜆) = det 0 1 −𝜆 0 0
1 0 0 −𝜆 0
[ 0 0 0 1 −𝜆]
−𝜆 1 0 0 0 0 0 1
1 −𝜆 0 0 −𝜆 1 0 0
= −𝜆det − det
0 0 −𝜆 0 1 −𝜆 0 0
[ 0 0 1 −𝜆] [ 0 0 1 −𝜆]
−𝜆 1 0 0 1 −𝜆 0 0
1 −𝜆 0 0 −𝜆 1 0 0
= −𝜆det + det
0 0 −𝜆 0 0 0 0 1
[ 0 0 1 −𝜆] [ 0 0 1 −𝜆]
= −𝜆(𝜆2 − 1)𝜆2 − (1 − 𝜆2 )
= −𝜆(𝜆2 − 1)𝜆2 + (𝜆2 − 1) = −(𝜆2 − 1)(𝜆3 − 1)

Suescun, Insausti, Flaquer (2022) 302 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

= −(𝜆2 − 1)(𝜆 − 1)(𝜆2 + 𝜆 + 1)


= −(𝜆 + 1)(𝜆 − 1)2 (𝜆2 + 𝜆 + 1)
Si se trabaja en 𝑅, los valores propios de 𝑃 son:
𝜆1 = −1 (𝑠𝑖𝑚𝑝𝑙𝑒)
𝜆2 = 1 (𝑑𝑜𝑏𝑙𝑒)
Si se trabaja en 𝐶, se añaden también:
1 √3
𝜆3 = − 2 + 𝑖 2
1 √3
𝜆4 = − 2 − 𝑖 2

Ejercicio 7.10
Hallar los valores y vectores propios de 𝐴𝑝 en función de los valores y vectores propios de 𝐴, siendo 𝐴 una
matriz cuadrada cualquiera.

Solución
Sean 𝜆 un valor propio cualquiera de 𝐴 y 𝑥 un vector propio asociado a 𝜆:
𝐴𝑥 = 𝜆𝑥
Se tiene:
𝐴1 𝑥 = 𝜆1 𝑥,
𝐴2 𝑥 = 𝐴(𝐴𝑥) = 𝐴(𝜆𝑥) = 𝜆(𝐴𝑥) = 𝜆(𝜆𝑥) = 𝜆2 𝑥
𝐴3 𝑥 = ⋯ = 𝜆3 𝑥
lo que sugiere:
𝐴𝑝 𝑥 = 𝜆𝑝 𝑥
Esta expresión puede demostrarse fácilmente por inducción matemática sobre 𝑝. En primer lugar se
supone que la ley que queremos demostrar es cierta para 𝑝 − 1:
𝐴𝑝−1 𝑥 = 𝜆𝑝−1 𝑥
A continuación se prueba que también es cierta para 𝑝:
𝐴𝑝 𝑥 = 𝐴(𝐴𝑝−1 𝑥) = 𝐴(𝜆𝑝−1 𝑥) = 𝜆𝑝−1 (𝐴𝑥) = 𝜆𝑝−1 (𝜆𝑥) = 𝜆𝑝 𝑥
Por tanto, 𝜆𝑝 es un valor propio de 𝐴𝑝 y 𝑥 es también un vector propio de 𝐴𝑝 , asociado al valor propio 𝜆𝑝 .

Ejercicio 7.11
Demostrar que todos los valores propios de una matriz nilpotente valen cero.

Solución
Sea 𝐴 una matriz nilpotente de índice 𝑘:
𝐴𝑘 = 𝑂 (𝐴𝑘−1 ≠ 𝑂)
Sean 𝜆 un valor propio cualquiera de 𝐴 y 𝑥 un vector propio asociado a 𝜆:
𝐴𝑥 = 𝜆𝑥
Obsérvese que, por una parte:
𝐴𝑘 𝑥 = 𝑂𝑥 = 0
Y, por otra parte, del ejercicio 7.10 se sabe que:
𝐴𝑘 𝑥 = 𝜆𝑘 𝑥

Suescun, Insausti, Flaquer (2022) 303 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

Es decir:
𝜆𝑘 𝑥 = 0
Como 𝑥 ≠ 0 se concluye que 𝜆 = 0. Por tanto, todos los valores propios de una matriz nilpotente deben
ser nulos pues 𝜆 es un valor propio cualquiera.

Ejercicio 7.12
Estudiar si la siguiente matriz es diagonalizable:
2 0 0
𝐴 =[0 1 1]
0 1 1
y en caso positivo, indicar una matriz regular 𝑆 que la diagonaliza y la correspondiente matriz diagonal 𝐷.

Solución
En primer lugar, se determinan los valores propios:
2−𝜆 0 0
det(𝐴 − 𝜆𝐼3 ) = det [ 0 1−𝜆 1 ] = (2 − 𝜆)[(1 − 𝜆)2 − 1]
0 1 1−𝜆
𝜆1 = 2 (𝑚1 = 2)
= −𝜆(2 − 𝜆)2 → {
𝜆2 = 0 (𝑚2 = 1)
Para determinar si una matriz es diagonalizable o no, basta estudiar la dimensión de los subespacios
propios asociados a valores propios repetidos. Para la matriz de este ejercicio, basta analizar el primer
subespacio propio:
𝐸𝜆1 ≡ (𝐴 − 2𝐼3 )𝑥 = 0
0 0 0 0 0 0 𝛼1 = 𝜀1 1 0
[ 0 −1 1] → [ 0 −1 1 ] → {𝛼2 = 𝜀2 → 𝐵𝐸𝜆1 = [0] , [1]
0 1 −1 0 0 0 𝛼3 = 𝜀2 0 1
Como 𝐸𝜆1 es de dimensión dos, se concluye que la matriz es diagonalizable, ya que:
𝑚1 = 𝑠1 = 2
Se resuelve a continuación el segundo subespacio propio:
𝐸𝜆2 ≡ (𝐴 − 0𝐼3 )𝑥 = 0
2 0 0 2 0 0 𝛼1 = 0 0
[0 1 1 ] → [0 1 1] → {𝛼2 = −𝜀 → 𝐵𝐸𝜆2 = [−1]
0 1 1 0 0 0 𝛼3 = 𝜀 1
Uniendo las bases de vectores propios de ambos subespacios se consigue una base del espacio de
columnas 𝑅3×1 con la que se puede construir la matriz 𝑆 que diagonaliza la matriz dada:
1 0 0 2 0 0
−1
𝐷=𝑆 𝐴𝑆, 𝑆=[ 0 1 −1 ] 𝐷 = [0 2 0]
0 1 1 0 0 0

Ejercicio 7.13
Indique si las siguientes matrices:

Suescun, Insausti, Flaquer (2022) 304 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

1 1 1 1 0 1
𝐴 = [0 1 1] 𝐵 = [0 1 1]
0 0 3 0 0 3
son diagonalizables o no. Justifique su respuesta.

Solución
Nótese que ambas matrices tienen los mismos valores propios:
𝜆1 = 1 (𝑚1 = 2)
𝜆2 = 3 (𝑚2 = 1)
Para saber si son o no diagonalizables, se debe analizar la dimensión del subespacio propio asociado al
valor propio 𝜆1 = 1. Empezando por la matriz 𝐴, se comprueba que no es diagonalizable:
0 1 1
𝐸𝜆1 ≡ (𝐴 − 𝐼)𝑥 = 0 → [0 0 1] → 𝑠1 = 1 < 𝑚1
0 0 2
Por el contrario, la matriz 𝐵 sí es diagonalizable:
0 0 1
𝐸𝜆1 ≡ (𝐵 − 𝐼)𝑥 = 0 → [0 0 1] → 𝑠1 = 2 = 𝑚1
0 0 2

Ejercicio 7.14
Estudiar en función del parámetro real 𝑎 la diagonalización de la matriz
𝑎 0 0
𝐴=[1 𝑎 1]
1 0 1

Solución
Se empieza calculando los valores propios de la matriz:
𝑎−𝜆 0 0
det [ 1 𝑎−𝜆 1 ] = (𝑎 − 𝜆)(𝑎 − 𝜆)(1 − 𝜆) = 0
1 0 1−𝜆
Se presentan varios casos:
Por un parte, si 𝑎 = 1, la matriz no es diagonalizable. La matriz tiene un solo valor propio triple cuyo
subespacio propio asociado no tiene dimensión 3:
𝜆1 = 1 (𝑚1 = 3)
0 0 0
𝐸𝜆1 ≡ (𝐴 − 𝐼)𝑥 = 0 → [1 0 1] → 𝑠1 = 1 < 𝑚1
1 0 0
De otra parte, si 𝑎 ≠ 1, la matriz tiene un valor propio simple y otro doble:
𝜆1 = 1 (𝑚1 = 1)
𝜆2 = 𝑎 (𝑚2 = 2)
Se analiza la dimensión del subespacio propio asociado al segundo valor propio:

Suescun, Insausti, Flaquer (2022) 305 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

0 0 0
𝐸𝜆2 ≡ (𝐴 − 𝑎𝐼)𝑥 = 0 → [ 1 0 1 ]
1 0 1−𝑎
Aparecen dos nuevos casos:
Si 𝑎 = 0, la matriz sí es diagonalizable:
0 0 0
~ [1 0 1] → 𝑠2 = 2 = 𝑚2
1 0 1
Por el contrario, si 𝑎 ≠ 0, la matriz no es diagonalizable:
0 0 0
~ [ 1 0 1 ] → 𝑠2 = 1 < 𝑚2
1 0 1−𝑎
Se concluye por tanto que 𝐴 es diagonalizable si y sólo si 𝑎 = 0.

Ejercicio 7.15
Encontrar los valores propios de la siguiente matriz:
1+𝑎 1+𝑎
𝐴=[ ]
1−𝑎 1−𝑎
y estudiar la diagonalización de dicha matriz.

Solución
Los dos valores propios de la matriz 𝐴 no dependen de 𝑎 pues
𝜆1 = 0
det(𝐴 − 𝜆𝐼) = 𝜆2 − 𝑇𝑟𝑎𝑧𝑎 𝐴 𝜆 + 𝑑𝑒𝑡 𝐴 = 𝜆2 − 2 𝜆 + 0 = 0 → {
𝜆2 = 2
y son distintos, luego 𝐴 es diagonalizable para cualquier valor de 𝑎.

Ejercicio 7.16
¿Para qué valor real de 𝛼 es diagonalizable en 𝑅 la siguiente matriz 𝐴?:
1 𝛼√2 3

2 2 2
√2 √2
𝐴= − 1
2 2
1 𝛼√2 1
[ 2 2 2]

Solución
En primer lugar, se determina el polinomio característico y se calculan sus raíces:
det(𝐴 − 𝜆𝐼) = −𝜆3 + 𝜎1 𝜆2 − 𝜎2 𝜆 + 𝜎3
𝜎1 = 𝑡𝑟𝑎𝑧𝑎(𝐴) = 1
1 𝛼√2 1 3 √2
− − 1
𝜎2 = det 2 2 + det [ 2 2] + det 2 = −1
√2 1 1 𝛼√2 1
[− 2 1 ] 2 2 [ 2 2]
𝜎3 = det 𝐴 = −1

Suescun, Insausti, Flaquer (2022) 306 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

Y, por tanto:
𝜆1 = 1 (𝑚1 = 2)
det(𝐴 − 𝜆𝐼) = −𝜆3 + 𝜆2 + 𝜆 − 1 = 0 → {
𝜆2 = −1 (𝑚2 = 1)
Nótese que los valores propios no dependen de 𝛼. Se comienza analizando el primer subespacio propio:
𝐸𝜆1 ≡ (𝐴 − 𝐼)𝑥 = 0

3 𝛼√2 3

2 2 2 −3 𝛼√2 3 −3 𝛼√2 3 0 0 0
√2 √2
− 0 ~ [−1 0 1] ~ [−1 0 1] ~ [−1 0 1]
2 2
1 𝛼√2 1 1 𝛼√2 −1 0 𝛼√2 0 0 𝛼√2 0
[ 2 − ]
2 2
Se observa que el subespacio propio 𝐸𝜆1 tiene dimensión 2 si y sólo si 𝛼 = 0. En este caso:
0 0 0
~ [−1 0 1] → 𝑠1 = 2 = 𝑚1
0 0 0
Y por consiguiente 𝐴 solo es diagonalizable si 𝛼 = 0.

Ejercicio 7.17
Estudiar la diagonalización por semejanza de la matriz
𝑎 𝑎+1 0
𝐴 = [0 −1 0]
0 0 1
en función de los valores del parámetro real 𝑎.

Solución
El polinomio característico de 𝐴 es:
𝑎−𝜆 𝑎+1 0
𝜑𝐴 (𝜆) = det [ 0 −1 − 𝜆 0 ] = −(𝑎 − 𝜆)(1 + 𝜆)(1 − 𝜆)
0 0 1−𝜆
Y por tanto se obtienen tres soluciones reales:
𝑎, −1, 1
Se pueden dar varias situaciones:
Si 𝑎 ∉ {−1, 1} la matriz tiene tres valores propios distintos entre sí:
𝜆1 = 𝑎, 𝜆2 = −1, 𝜆3 = 1
Como 𝐴 es de orden 3, se verifica la condición suficiente de diagonalización. Existen tres subespacios
propios 1−dimensionales, uno para cada valor propio.
Las bases para estos subespacios se obtienen como sigue:
𝐸𝜆1 ≡ (𝐴 − 𝑎𝐼)𝑥 = 0
0 𝑎+1 0 𝛼1 = 𝜀 1
[0 −1 − 𝑎 0 ] → { 𝛼2 = 0 → 𝐵𝐸𝜆1 = [ 0 ]
0 0 1−𝑎 𝛼3 = 0 0

Suescun, Insausti, Flaquer (2022) 307 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

𝐸𝜆2 ≡ (𝐴 + 𝐼)𝑥 = 0
𝑎+1 𝑎+1 0 𝛼1 = 𝜀 1
[ 0 0 0] → { 𝛼2 = −𝜀 → 𝐵𝐸𝜆2 = [−1]
0 0 2 𝛼3 = 0 0
𝐸𝜆3 ≡ (𝐴 − 𝐼)𝑥 = 0
𝑎−1 𝑎+1 0 𝛼1 = 0 0
[ 0 −2 0] → { 𝛼 2 = 0 → 𝐵𝐸𝜆 = [ 0 ]
3

0 0 0 𝛼3 = 𝜀 1
Si 𝑎 = −1, la matriz tiene dos valores propios uno doble y el otro simple:
𝜆1 = −1 (𝑚1 = 2)
𝜆2 = 1 (𝑚2 = 1)
En este caso la matriz tiene dos subespacios propios:
𝐸𝜆1 ≡ (𝐴 + 𝐼)𝑥 = 0
0 0 0 𝛼1 = 𝜀1 1 0
[0 0 0] → { 𝛼2 = 𝜀2 → 𝐵𝐸𝜆 = [ 0 ] , [ 1 ]
1

0 0 2 𝛼3 = 0 0 0
𝐸𝜆2 ≡ (𝐴 − 𝐼)𝑥 = 0
−2 0 0 𝛼1 = 0 0
[ 0 −2 0] → { 𝛼2 = 0 → 𝐵𝐸𝜆2 = [ 0 ]
0 0 0 𝛼3 = 𝜀 1
Se cumple la condición necesaria y suficiente pues 𝐸𝜆1 es de dimensión dos (𝑚1 = 𝑠1 = 2) y en
consecuencia, la matriz es diagonalizable cuando 𝑎 = −1.
Finalmente, si 𝑎 = 1, la matriz tiene también dos valores propios uno simple y el otro doble:
𝜆1 = −1 (𝑚1 = 1)
𝜆2 = 1 (𝑚2 = 2)
𝐸𝜆1 ≡ (𝐴 + 𝐼)𝑥 = 0
2 2 0 𝛼1 = 𝜀 1
[0 0 0] → { 𝛼2 = −𝜀 → 𝐵𝐸𝜆 = [−1]
1

0 0 2 𝛼3 = 0 0
𝐸𝜆2 ≡ (𝐴 − 𝐼)𝑥 = 0
0 2 0 𝛼1 = 𝜀1 1 0
[0 −2 0] → { 𝛼2 = 0 → 𝐵𝐸𝜆2 = [ 0 ] , [ 0 ]
0 0 0 𝛼3 = 𝜀2 0 1
El subespacio propio 𝐸𝜆2 es de dimensión dos (𝑚2 = 𝑠2 = 2) por lo que la matriz también es
diagonalizable cuando 𝑎 = 1.

Ejercicio 7.18
Hallar una matriz cuadrada 𝐴 de orden 3 de la que se conoce lo siguiente:
▪ 𝑥 = [2 2 1]𝑇 es un vector propio de 𝐴 asociado al valor propio 10 y es base de su subespacio
propio.

Suescun, Insausti, Flaquer (2022) 308 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

▪ 𝑦 = [−1 1 0]𝑇 y 𝑧 = [−1/2 0 1]𝑇 son dos vectores propios de 𝐴 asociados a un valor
propio doble.
▪ La traza de 𝐴 vale 12.

Solución
Dado que existen en total tres vectores propios linealmente independientes en el espacio de columnas
𝑅3×1 , se concluye que la matriz buscada es diagonalizable. Existen por tanto dos matrices 𝐷 y 𝑆 tales que:
𝐷 = 𝑆 −1 𝐴𝑆 → 𝐴 = 𝑆𝐷𝑆 −1
Por tanto, basta encontrar las matrices 𝑆, 𝐷 y 𝑆 −1 para determinar la matriz 𝐴.
La matriz 𝑆 se construye directamente a partir de los datos del enunciado:
2 −1 −1/2
𝑆=[ 2 1 0]
1 0 1
y de ella se calcula
2 2 1
−1
1
𝑆 = [−4 5 −2].
9
−2 −2 8
Para construir la matriz 𝐷 es necesario encontrar el segundo valor propio, que es doble. Para ello se hace
uso de la primera fórmula de Vieta:
𝜎1 = 𝜆1 + 𝜆2 + 𝜆3 = Traza (𝐴)
con 𝜆3 = 𝜆2 , luego
10 + 2𝜆2 = 12
𝜆2 = 1
10 0 0
𝐷=[ 0 1 0]
0 0 1
Y por tanto la matriz 𝐴 es:
5 4 2
𝐴 = 𝑆𝐷𝑆 −1 = [ 4 5 2]
2 2 2

Ejercicio 7.19
Demostrar que el polinomio
𝜑(𝜆) = (−1)𝑛 (𝑎0 + 𝑎1 𝜆 + 𝑎2 𝜆2 + ⋯ + 𝑎𝑛−1 𝜆𝑛−1 + 𝜆𝑛 )
es el polinomio característico de la matriz
0 1 0 ⋯ 0
0 0 1 ⋯ 0
0 0 0 ⋯ 0
𝐴=
⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1
[−𝑎0 −𝑎1 −𝑎2 ⋯ −𝑎𝑛−1 ]
y que si 𝜆0 es un valor propio de 𝐴, entonces
𝑥0 = [1 𝜆0 𝜆20 ⋯ 𝜆𝑛−1
0 ]
𝑇

es un vector propio de 𝐴 asociado al valor propio 𝜆0 .

Suescun, Insausti, Flaquer (2022) 309 Tecnun-Universidad de Navarra


7.19 Ejercicios resueltos 7 Valores y Vectores Propios

Solución
La primera parte del ejercicio se puede probar desarrollando por la última fila:
−𝜆 1 0 ⋯ 0
0 −𝜆 1 ⋯ 0
0 0 −𝜆 ⋯ 0
𝐷𝑛 = det(𝐴 − 𝜆𝐼) = det
⋯ ⋯ ⋯ ⋯ ⋯
0 0 0 ⋯ 1
[−𝑎0 −𝑎1 −𝑎2 ⋯ −𝑎𝑛−1 − 𝜆]
= (−𝑎0 )(−1)𝑛+1 1 + (−𝑎1 )(−1)𝑛+2 (−𝜆)1 + (−𝑎2 )(−1)𝑛+3 (−𝜆)2 1 + ⋯
+ (−𝑎𝑛−1 − 𝜆)(−1)2𝑛 (−𝜆)𝑛−1
= (−1) (𝑎0 + 𝑎1 𝜆 + 𝑎2 𝜆2 + 𝑎𝑛−1 𝜆𝑛−1 + 𝜆𝑛 )
𝑛

La segunda parte del ejercicio se demuestra fácilmente sin más que comprobar que efectivamente se
cumple:
𝐴𝑥0 = 𝜆0 𝑥0
esto es
0 1 0 ⋯ 0 1 𝜆0 1
0 0 1 ⋯ 0 𝜆0 𝜆20 𝜆0
0 0 0 ⋯ 0 𝜆20 𝜆30 𝜆20
= = 𝜆0
⋯ ⋯ ⋯ ⋯ ⋯ … … …
0 0 0 ⋯ 1 𝜆𝑛−2
0 𝜆𝑛−1
0
𝜆𝑛−2
0
[−𝑎0 −𝑎1 −𝑎2 ⋯ −𝑎𝑛−1 ] [𝜆𝑛−1
0 ] [ 𝜆𝑛0 ] [𝜆𝑛−1
0 ]

Nótese que se ha usado la identidad


−𝑎0 − 𝑎1 𝜆0 − 𝑎2 𝜆0 2 − 𝑎𝑛−1 𝜆0 𝑛−1 = 𝜆0 𝑛

Ejercicio 7.20
¿Cómo es el polinomio característico de una matriz 𝐴 involutiva de orden 𝑛?

Solución
Si 𝐴 es involutiva, sus 𝑛 valores propios deben ser 1 o −1, como es muy sencillo probar. Luego su polinomio
característico debe ser de la forma:
𝜑(𝜆) = (−1)𝑛 (𝜆 − 1)𝑝 (𝜆 + 1)𝑛−𝑝
con 𝑝 ∈ 𝑁 y 0 ≤ 𝑝 ≤ 𝑛.

Ejercicio 7.21
De una matriz cuadrada real 𝐴 de orden tres se sabe que el valor de su determinante es 30, que uno de
sus valores propios vale 2, y que la suma de los otros valores propios vale 8. Hallar el polinomio
característico de 𝐴 y los valores propios desconocidos.

Solución
Los valores propios desconocidos se pueden determinar a partir de los datos:
𝜆2 + 𝜆3 = 8
} → 𝜆2 = 3 𝜆3 = 5
det 𝐴 = 𝜆1 𝜆2 𝜆3 = 2𝜆2 𝜆3 = 30
Y con las fórmulas de Vieta se deducen los coeficientes del polinomio característico:
𝜑𝐴 (𝜆) = −𝜆3 + 𝜎1 𝜆2 − 𝜎2 𝜆 + 𝜎3
𝜎1 = 𝜆1 + 𝜆2 + 𝜆3 = 2 + 3 + 5 = 10
𝜎2 = 𝜆1 𝜆2 + 𝜆1 𝜆3 + 𝜆2 𝜆3 = 6 + 10 + 15 = 31
𝜎3 = 𝜆1 𝜆2 𝜆3 = 30

Suescun, Insausti, Flaquer (2022) 310 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.19 Ejercicios resueltos

En definitiva:
𝜑𝐴 (𝜆) = −𝜆3 + 10𝜆2 − 31𝜆 + 30

Ejercicio 7.22
Hállese la matriz 𝐴 del ejercicio 7.21 y su inversa, sabiendo además que las tres columnas siguientes:
1 0 0
[ 0] , [ 1] , [ 0 ]
1 0 1
forman una base de vectores propios de 𝐴, asociados a los valores propios de 𝐴 ordenados de menor a
mayor valor.

Solución
De los datos del enunciado se deduce que la matriz 𝐴 es diagonalizable:
2 0 0 1 0 0
𝐴~𝐷 =[0 3 0] ⇔ ∃ 𝑆𝑟𝑒𝑔𝑢𝑙𝑎𝑟 = [ 0 1 0] 𝐷 = 𝑆 −1 𝐴 𝑆
0 0 5 1 0 1
Por tanto, la matriz 𝐴 se puede calcular como sigue:
2 0 0
𝐴 = 𝑆𝐷𝑆 −1 = [ 0 3 0]
−3 0 5
Y su inversa se puede determinar con la siguiente expresión:
1/2 0 0
𝐴−1 = 𝑆𝐷 −1 𝑆 −1 = [ 0 1/3 0 ]
3/10 0 1/5

Ejercicio 7.23
Hállese la matriz inversa de la matriz 𝐴 siguiente empleando el teorema de Cayley-Hamilton:
3 2 1
𝐴=[0 −2 0]
0 0 1

Solución
Nótese que 𝐴 es una matriz triangular regular:
𝜑𝐴 (𝜆) = (3 − 𝜆)(−2 − 𝜆)(1 − 𝜆) = −𝜆3 + 2𝜆2 + 5𝜆 − 6 = 0
Por tanto:
−𝐴3 + 2𝐴2 + 5𝐴 − 6𝐼 = 𝑂
−𝐴2 + 2𝐴 + 5𝐼 − 6𝐴−1 = 𝑂
1
𝐴−1 = (−𝐴2 + 2𝐴 + 5𝐼)
6
Y finalmente:
1/3 1/3 −1/3
𝐴−1 = [ 0 −1/2 0 ]
0 0 1

Suescun, Insausti, Flaquer (2022) 311 Tecnun-Universidad de Navarra


7.20 Ejercicios propuestos 7 Valores y Vectores Propios

Ejercicios propuestos

Ejercicio 7.24
Sin calcular los valores y vectores propios de la matriz 𝐴
14 3 12
𝐴 = [−18 −1 −18 ]
−9 −3 −7
determinar si las siguientes matrices columna
−1 1 1 1
𝑥1 = [ 1 ] 𝑥2 = [ 2 ] 𝑥3 = [ −3 ] 𝑥4 = [ 0 ]
1 −1 0 −1
son vectores propios de la citada matriz, identificando en su caso los valores propios correspondientes.

Ejercicio 7.25
Determinar los valores propios de la matriz 𝐵 = 𝐴 − 𝛽𝐼 en función de los valores propios de 𝐴. Además,
¿qué relación existe entre los vectores propios de 𝐴 y de 𝐵?

Ejercicio 7.26
Para todo 𝛽 ∉ 𝜎(𝐴), demostrar que 𝑥 es un vector propio de 𝐴 si y sólo si 𝑥 es un vector propio de la
matriz (𝐴– 𝛽𝐼)−1 .

Ejercicio 7.27
Demostrar que 𝐴 y 𝐴𝑇 tienen los mismos valores propios, siendo 𝐴 una matriz cuadrada.

Ejercicio 7.28
Siendo 𝐵 = 𝑆 −1 𝐴 𝑆, demostrar que 𝐵𝑘 = 𝑆 −1 𝐴𝑘 𝑆, siendo 𝑆 una matriz regular.

Ejercicio 7.29
Sea 𝐴 una matriz cuadrada de orden 𝑛 tal que la suma de los elementos de cada fila es constante y vale
𝛽. Demostrar que 𝛽 es un valor propio de la matriz 𝐴 y que 𝑥0 = [1 1 ⋯ 1]𝑇 es un vector propio asociado.

Ejercicio 7.30
Determinar el polinomio característico de las matrices nilpotentes.

Ejercicio 7.31
Demostrar que, siendo 𝐴 y 𝐵 matrices cuadradas del mismo orden y 𝐴 una matriz regular, las matrices
𝐴𝐵 y 𝐵𝐴 tienen los mismos valores propios.

Ejercicio 7.32
Supuesto que 𝐴 y 𝐵 son matrices cuadradas de orden 𝑛 y 𝐴 es una matriz regular, ¿qué relación guardan
entre sí un vector propio 𝑥0 de 𝐴𝐵 y un vector propio 𝑦0 de 𝐵𝐴, asociados ambos al mismo valor propio
𝜆0 ?

Ejercicio 7.33
1 −1
Calcular 𝐴100 , siendo 𝐴 = [ ].
−1 1

Ejercicio 7.34
Hallar la expresión general de una matriz real y simétrica de orden 2, cuyos valores propios son 𝑎 y 𝑏.

Suescun, Insausti, Flaquer (2022) 312 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.20 Ejercicios propuestos

Ejercicio 7.35
Hallar las ecuaciones paramétricas y una base del subespacio propio asociado al valor propio no nulo de
la matriz:
1 1 1 1
1 1 1 1
𝐴=[ ]
1 1 1 1
1 1 1 1

Ejercicio 7.36
Determinar los valores y los subespacios propios de las siguientes matrices:
2 16 8 3 −2 5
−10 −7
𝐴=[ ] 𝐵= [ 4 14 8] 𝐶 = [0 1 4]
14 11
−8 −32 −18 0 −1 5
0 6 3 3 0 0
𝐷 = [−1 5 1] 𝐸 = [0 3 0]
−1 2 4 0 0 3

Ejercicio 7.37
Estudiar si la siguiente matriz es diagonalizable:
−4 −3 −3
𝐴= [ 0 −1 0]
6 6 5
y en caso positivo, indicar la matriz regular 𝑆 que la diagonaliza y la matriz diagonal 𝐷.

Ejercicio 7.38
Estudiar si la siguiente matriz es diagonalizable:
𝑎 𝑏 𝑎+𝑏
𝐴=[ 𝑎 𝑏 𝑎+𝑏]
−1 −1 −2
en función de los parámetros reales 𝑎 y 𝑏.

Ejercicio 7.39
Hallar los vectores propios de la matriz del ejercicio anterior correspondiente al valor propio cero, cuando
𝑎 + 𝑏 ≠ 2 y 𝑎 = 𝑏.

Ejercicio 7.40
Determinar si las siguientes matrices son diagonalizables:
−1 −1 −2 1 −4 −4
𝐴= [ 8 −11 −8 ] 𝐵= [ 8 −11 −8 ]
−10 11 7 −8 8 5

Ejercicio 7.41
Efectuar la diagonalización de la siguiente matriz cuadrada de orden 𝑛:
1 1 ⋯ 1
1 1 ⋯ 1
𝐴=[ ]
⋯ ⋯ ⋯ ⋯
1 1 ⋯ 1

Ejercicio 7.42
Demostrar que la matriz cuadrada no nula 𝐴 = 𝑢𝑣 𝑇 se puede diagonalizar si y sólo si el escalar 𝑢𝑇 𝑣 es
distinto de cero.

Suescun, Insausti, Flaquer (2022) 313 Tecnun-Universidad de Navarra


7.20 Ejercicios propuestos 7 Valores y Vectores Propios

Ejercicio 7.43
Estudiar en 𝑅 la diagonalización por semejanza de la matriz
0 𝑎 0 0
𝑏 0 0 0
𝐴=[ ]
0 0 0 𝑏
0 0 𝑎 0
en función de los parámetros reales 𝑎 y 𝑏, con 𝑎𝑏 > 0.

Ejercicio 7.44
Dada la siguiente matriz real
𝑎 𝑏
𝐴=[ ]
𝑐 𝑑
hallar 𝑝 y 𝑞, en función de los elementos de 𝐴, de modo que 𝐴2 = 𝑝𝐼 + 𝑞𝐴.

Ejercicio 7.45
Probar que, si 𝐴 es una matriz real y antisimétrica, entonces las matrices (𝐴 + 𝐼) y (𝐴 − 𝐼) son regulares.

Ejercicio 7.46
El polinomio característico de una matriz es 𝜑(𝜆) = −(𝜆 + 2)2 (𝜆 − 5). Deducir y justificar la traza y el
determinante de la matriz.

Ejercicio 7.47
Sea 𝑥 un vector propio de 𝐴 asociado al valor propio 𝜆. Demostrar que 𝑥 es también vector propio de la
matriz 𝐵 = 5𝐼 − 3𝐴 + 𝐴2 y deducir el valor propio correspondiente.

Ejercicio 7.48
Sea 𝐴 una matriz cuadrada de orden 𝑛 diagonalizable cuyos valores propios son 0 y 1. Demostrar que
𝐴2 = 𝐴.

Ejercicio 7.49
Sea A una matriz cuadrada de orden 4 cuyo polinomio característico es φ(λ) = λ4 − 3λ3 + 2λ2 − λ + 7.
¿Es (A + 𝐼) una matriz regular? Justificar la respuesta.

Ejercicio 7.50
Sea 𝐴 una matriz cuadrada de orden 𝑛 de la que se conoce una lista de 𝑛 vectores propios linealmente
independiente. ¿Es 𝐴 una matriz regular? Justificar la respuesta.

Ejercicio 7.51
Sea A una matriz cuadrada de orden 4 cuyos valores propios distintos son 5, 3 y −2. Se sabe también que
dim(𝐸𝜆3 ) = 2. ¿Es 𝐴 una matriz diagonalizable?

Ejercicio 7.52
Los valores propios de una matriz cuadrada 𝐴 de orden 3 son −2, 2 y 4.
Hallar los valores propios de las siguientes matrices: 𝐴2 , 𝐴3 , −3𝐴 y 𝐴 + 3𝐼.

Ejercicio 7.53
¿Pueden existir matrices cuadradas reales cuyos valores propios sean todos complejos? Justifique su
respuesta e ilustrar con algún ejemplo.

Suescun, Insausti, Flaquer (2022) 314 Tecnun-Universidad de Navarra


7 Valores y Vectores Propios 7.20 Ejercicios propuestos

Ejercicio 7.54
Obténgase la inversa de la matriz
1 0 2
𝐴=[0 1 0]
2 0 −1
aprovechando el teorema de Cayley-Hamilton.

Ejercicio 7.55
Pruébese que si 𝛽 ∉ 𝜎(𝐴), la matriz 𝐵 = 𝐴 − 𝛽𝐼 no es singular.

Suescun, Insausti, Flaquer (2022) 315 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales

Es objetivo de este capítulo el estudio de las propiedades más relevantes de las matrices normales, que
son aquellas que comuntan con su transpuesta hermítica. Se estudian en detalle las matrices
ortogonales y unitarias. Se trabaja la diagonalización de las matrices normales mediante una matriz
unitaria y se revisan particularmente las matrices hermíticas y las matrices reales y simétricas.

Suescun, Insausti, Flaquer (2022) 316 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.1 Matrices normales

Matrices normales

Una matriz cuadrada 𝐴 es normal si conmuta con su transpuesta hermítica:


𝐴𝐻 𝐴 = 𝐴 𝐴𝐻
Las matrices normales tienen propiedades muy útiles y son muy frecuentes en física e ingeniería.

Proposición 8.1
Enunciado: Una matriz cuadrada 𝐴 de orden 𝑛 es normal si y solo si ‖𝐴𝑥‖ = ‖𝐴𝐻 𝑥‖ ∀𝑥 ∈ 𝐾 𝑛×1 .
𝐴𝐴𝐻 = 𝐴𝐻 𝐴 ⟺ ‖𝐴𝑥‖ = ‖𝐴𝐻 𝑥‖ ∀𝑥 ∈ 𝐾 𝑛×1
Demostración: Se demuestra la doble implicación.
Sea 𝐴 normal, i.e. 𝐴𝐴𝐻 = 𝐴𝐴𝐻 . Se cumple:
‖𝐴𝑥‖2 = 〈𝐴𝑥, 𝐴𝑥〉 = 𝑥 𝐻 𝐴𝐻 𝐴𝑥 = 𝑥 𝐻 𝐴𝐴𝐻 𝑥 = 〈𝐴𝐻 𝑥, 𝐴𝐻 𝑥〉 = ‖𝐴𝐻 𝑥‖2
En cuanto al recíproco, sea ‖𝐴𝑥‖ = ‖𝐴𝐻 𝑥‖ para todo 𝑥 ∈ 𝐾 𝑛×1 . Se cumple:
‖𝐴𝑥‖2 = ‖𝐴𝐻 𝑥‖2 ∀ 𝑥 ∈ 𝐾 𝑛×1
〈𝐴𝑥, 𝐴𝑥〉 = 〈𝐴𝐻 𝑥, 𝐴𝐻 𝑥〉 ∀ 𝑥 ∈ 𝐾 𝑛×1
〈𝑥, 𝐴𝐻 𝐴𝑥〉 = 〈𝑥, 𝐴𝐴𝐻 𝑥〉 ∀ 𝑥 ∈ 𝐾 𝑛×1
〈𝑥, 𝐴𝐻 𝐴𝑥〉 − 〈𝑥, 𝐴𝐴𝐻 𝑥〉 = 0 ∀ 𝑥 ∈ 𝐾 𝑛×1
〈𝑥, (𝐴𝐻 𝐴 − 𝐴𝐴𝐻 )𝑥〉 = 0 ∀ 𝑥 ∈ 𝐾 𝑛×1
Es decir
𝑥 ⊥ (𝐴𝐻 𝐴 − 𝐴𝐴𝐻 )𝑥 ∀ 𝑥 ∈ 𝐾 𝑛×1
Como el vector nulo es el único ortogonal a todos los demás, deber ser:
(𝐴𝐻 𝐴 − 𝐴𝐴𝐻 )𝑥 = 0 ∀ 𝑥 ∈ 𝐾 𝑛×1
Por lo que tiene que ser:
𝐴𝐻 𝐴 − 𝐴𝐴𝐻 = 0 → 𝐴𝐻 𝐴 = 𝐴𝐴𝐻

El siguiente resultado es necesario para abordar más adelante la demostración del teorema espectral.

Proposición 8.2
Enunciado: Una matriz triangular 𝑈 es normal si y solo si es diagonal:
𝑈 𝐻 𝑈 = 𝑈𝑈 𝐻 ⟺ 𝑈𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙
Demostración: Se demuestra la doble implicación. Sin pérdida de generalidad, sea 𝑈 una matriz cuadrada
triangular superior y supóngase que 𝑈 es normal:
𝑈 𝐻 𝑈 = 𝑈𝑈 𝐻
Se igualan ahora los elementos de la diagonal principal de las matrices 𝑈 𝐻 𝑈 y 𝑈𝑈 𝐻 , teniendo en cuenta
que 𝑢𝑖𝑗 = 0 ∀𝑖 > 𝑗:
𝑛 𝑛
𝐻
𝑈𝑈 → (𝑈𝑈 )𝑖𝑖 = ∑ 𝑢𝑖𝑘 𝑢̅𝑖𝑘 = ∑|𝑢𝑖𝑘 |2
𝐻
𝑛 𝑖
𝑘=1 𝑘=𝑖
𝑛 𝑖 → ∑|𝑢𝑖𝑘 |2 = ∑|𝑢𝑘𝑖 |2
𝑘=𝑖 𝑘=1
𝑈 𝐻 𝑈 → (𝑈 𝐻 𝑈)𝑖𝑖 = ∑ 𝑢̅𝑘𝑖 𝑢𝑘𝑖 = ∑|𝑢𝑘𝑖 |2
𝑘=1 𝑘=1

Nótese que:

Suescun, Insausti, Flaquer (2022) 317 Tecnun-Universidad de Navarra


8.2 Teorema de Schur 8 Diagonalización de Matrices Normales

𝑖=1 |𝑢11 |2 + |𝑢12 |2 + |𝑢13 |2 + ⋯ + |𝑢1𝑛 |2 = |𝑢11 |2


𝑖=2 |𝑢22 |2 + |𝑢23 |2 + ⋯ + |𝑢2𝑛 |2 = |𝑢12 |2 + |𝑢22 |2
⋮ ⋮
𝑖=𝑛 |𝑢𝑛𝑛 |2 = |𝑢1𝑛 |2 + |𝑢2𝑛 |2 + |𝑢3𝑛 |2 + ⋯ + |𝑢𝑛𝑛 |2
de donde se deduce inmediatamente que 𝑢𝑖𝑗 = 0 ∀ 𝑖 ≠ 𝑗, y por lo tanto se concluye que 𝑈 debe ser una
matriz diagonal.
El recíproco es evidente.
Consecuencia inmediata: Es obvio que, estrictamente hablando, no existen matrices triangulares
normales. Necesariamente toda matriz triangular normal es simplemente diagonal.

Teorema de Schur

Se demuestra a continuación un último resultado necesario para demostrar el teorema espectral en el


siguiente apartado.

Teorema 8.3 (Teorema de Schur)


Enunciado: Toda matriz cuadrada se puede transformar en una matriz triangular superior mediante una
transformación unitaria:
𝐴 ∈ 𝐾 𝑛×𝑛 → ∃𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 | 𝑈 = 𝑄𝐻 𝐴𝑄 (𝑢𝑖𝑗 = 0 ∀𝑖 > 𝑗)
Demostración: Se demuestra por inducción:
1. Para demostrar el resultado por inducción, supóngase que el enunciado es cierto para matrices
cuadradas 𝐴𝑛−1 de orden 𝑛 − 1 (𝑛 > 1), esto es, supóngase que existe una matriz unitaria 𝑄𝑛−1 que
triangulariza 𝐴𝑛−1 de la siguiente manera:
𝐻
𝑈𝑛−1 = 𝑄𝑛−1 𝐴𝑛−1 𝑄𝑛−1
con 𝑈𝑛−1 triangular superior de orden 𝑛 − 1.
2. Sea 𝐴𝑛 una matriz cuadrada de orden 𝑛. Sea 𝑤1 un vector propio de 𝐴𝑛 normalizado asociado al valor
propio 𝜆1 de 𝐴𝑛 . Se cumple:
𝐴𝑛 𝑤1 = 𝜆1 𝑤1 (𝑤1 𝐻 𝑤1 = 1)
A partir de este vector se puede completar una base ortonormal 𝑤1 , 𝑤′2 , … , 𝑤′𝑛 de 𝐾 𝑛×1 (proposición
6.9). Y con estos vectores columna, se puede formar una matriz unitaria 𝑅:
𝑅 = [ 𝑤1 𝑤2′ … 𝑤𝑛′ ] = [ 𝑤1 𝑊 ]
con
𝑤1𝐻 𝑊 = 0
Esta matriz 𝑅 transforma 𝐴𝑛 en una matriz triangular superior por bloques 𝐵:
𝑤1𝐻 𝑤1𝐻
𝐵 = 𝑅 𝐻 𝐴𝑛 𝑅 = [ ] 𝐴 𝑛 [ 𝑤1 𝑊 ] = [ ] [ 𝐴𝑛 𝑤1 𝐴𝑛 𝑊 ]
𝑊𝐻 𝑊𝐻
𝐻
𝑤 𝐻 𝑤 𝜆 𝑤 𝑤1𝐻 𝐴𝑛 𝑊 𝜆1 𝑏𝑇
= [ 1𝐻 ] [ 𝜆1 𝑤1 𝐴𝑛 𝑊 ] = [ 1𝐻 1 1 ] = [ ]
𝑊 𝑊 𝜆1 𝑤1 𝑊 𝐻 𝐴𝑛 𝑊 0 𝐴𝑛−1
donde 𝐴𝑛−1 es una matriz cuadrada de orden 𝑛 − 1 y 𝑏 es una columna con 𝑛 − 1 filas. Nótese que:
𝑊 𝐻 𝜆1 𝑤1 = 𝜆1 𝑊
⏟𝐻 𝑤1 = 0
=0

Por hipótesis, 𝐴𝑛−1 es triangularizable mediante una matriz unitaria 𝑄𝑛−1. Esta matriz permite
construir una nueva matriz unitaria de orden 𝑛

Suescun, Insausti, Flaquer (2022) 318 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.3 Teorema espectral

1 0𝐻
𝑆=[ ]
0 𝑄𝑛−1
capaz de triangularizar la matriz 𝐵:
1 0𝐻 𝜆1 𝑏 𝑇 1 0𝐻 𝜆 𝑏𝑇 1 0𝐻
𝑆 𝐻 𝐵𝑆 = [ 𝐻 ][ ][ ]=[ 1 𝐻 ][ ]
0 𝑄𝑛−1 0 𝐴𝑛−1 0 𝑄𝑛−1 0 𝑄𝑛−1 𝐴𝑛−1 0 𝑄𝑛−1
𝜆 𝑏 𝑇 𝑄𝑛−1 𝜆 𝑏 𝑇 𝑄𝑛−1
=[ 1 𝐻 ]=[ 1 ] = 𝑈𝑛
0 𝑄𝑛−1 𝐴𝑛−1 𝑄𝑛−1 0 𝑈𝑛−1
siendo 𝑈𝑛 una matriz triangular superior de orden 𝑛.
Así pues, supuesto que 𝐴𝑛−1 es triangularizable mediante una matriz unitaria 𝑄𝑛−1 , la matriz 𝐴𝑛 es
triangularizable mediante una matriz unitaria 𝑄𝑛 = 𝑅𝑆:
𝑈𝑛 = 𝑆 𝐻 𝐵𝑆 = 𝑆 𝐻 (𝑅𝐻 𝐴𝑛 𝑅)𝑆 = (𝑅𝑆)𝐻 𝐴𝑛 (𝑅𝑆) = 𝑄𝑛𝐻 𝐴𝑛 𝑄𝑛
3. Como el enunciado se cumple trivialmente para 𝑛 = 1, el teorema queda demostrado por inducción
sobre 𝑛.

Teorema espectral

Teorema 8.4 (Teorema Espectral)


Enunciado: Una matriz cuadrada es normal si y solo si es diagonalizable mediante una matriz unitaria:
𝐴𝐻 𝐴 = 𝐴𝐴𝐻 ⟺ ∃𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 | 𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 = 𝑄𝐻 𝐴𝑄
Demostración: Se demuestra la doble implicación.
En primer lugar, se demuestra que:
𝐴𝐻 𝐴 = 𝐴𝐴𝐻 ⟹ ∃𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 | 𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 = 𝑄𝐻 𝐴𝑄
Si 𝐴 es normal, por el teorema de Schur se pude afirmar que existe una matriz unitaria 𝑄 que transforma
𝐴 en una matriz triangular superior 𝑈:
𝑈 = 𝑄𝐻 𝐴𝑄
Nótese que esta matriz triangular 𝑈 también es normal:
𝑈 𝐻 𝑈 = (𝑄𝐻 𝐴𝑄)𝐻 𝑄𝐻 𝐴𝑄 = 𝑄𝐻 𝐴𝐻 𝐴𝑄 = 𝑄𝐻 𝐴𝐴𝐻 𝑄 = 𝑄𝐻 𝐴𝑄(𝑄𝐻 𝐴𝑄)𝐻 = 𝑈𝑈 𝐻
Pero, tal como se ha probado previamente, 𝑈 debe ser diagonal, matriz que se denota con 𝐷 en lo que
sigue.
En definitiva, existe una matriz unitaria 𝑄 que diagonaliza 𝐴:
𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 = 𝑄𝐻 𝐴𝑄
Finalmente se demuestra el recíproco:
∃𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 | 𝐷𝑑𝑖𝑎𝑔𝑜𝑛𝑎𝑙 = 𝑄𝐻 𝐴𝑄 ⟹ 𝐴𝐻 𝐴 = 𝐴𝐴𝐻
Nótese que 𝐴 = 𝑄𝐷𝑄𝐻 por lo que:
𝐴𝐴𝐻 = (𝑄𝐷𝑄𝐻 )(𝑄𝐷𝑄𝐻 )𝐻 = (𝑄𝐷𝑄𝐻 )𝐻 (𝑄𝐷𝑄𝐻 ) = 𝐴𝐻 𝐴
Y en definitiva, 𝐴 es normal.

Suescun, Insausti, Flaquer (2022) 319 Tecnun-Universidad de Navarra


8.4 Tipos de matrices normales 8 Diagonalización de Matrices Normales

Este teorema tiene cuatro consecuencias fundamentales:


1. Una matriz 𝐴 normal siempre es diagonalizable.
2. Por ser 𝐴 diagonalizable, siempre se puede encontrar una base de vectores propios de 𝐴 para el
espacio de matrices columnas.
3. Por ser 𝐴 diagonalizable mediante una matriz unitaria, siempre es posible además encontrar una
base ortonormal de vectores propios de 𝐴 para el espacio de matrices columnas.
4. La existencia de una base ortonormal de vectores propios 𝐴 implica que vectores propios
asociados a valores propios distintos son siempre ortogonales entre sí.

Tipos de matrices normales

Del teorema espectral se deduce la existencia de diversos tipos de matrices normales, según las
características de sus valores propios:

Tipo Subtipo Valores propios

Todas Reales

Definido-positiva 𝜆𝑖 > 0

Semidefinido-positiva 𝜆𝑖 ≥ 0
Hermítica 𝐴𝐻 = 𝐴
(Simétrica) (𝐴𝑇 = 𝐴)
Indefinida 𝜆𝑖 ⋛ 0

Semidefinido-negativa 𝜆𝑖 ≤ 0

Definido-negativa 𝜆𝑖 < 0

Antihermítica 𝐴𝐻 = −𝐴
Todas Imaginarios puros
(Antisimétrica) (𝐴𝑇 = −𝐴)

Unitaria 𝐴𝐻 = 𝐴−1
Todas |𝜆𝑖 | = 1, (𝜆𝑖 ∈ 𝐶 ∀ 𝑖)
(Ortogonal) (𝐴𝑇 = 𝐴−1 )

Tabla 8.1: Algunos tipos frecuentes de matrices normales, según las características de sus valores propios.

Matrices de estos tipos se pueden generar fácilmente a partir de una matriz diagonal, que almacene los
correspondientes valores propios, y una matriz unitaria (ortogonal en el caso real), cuyas columnas
formen una base ortonormal de vectores propios de 𝐴:
𝜆1 0 ⋯ 0
𝑂 𝜆2 0
𝐷=[ ] [𝑤1 𝑤2 … 𝑤𝑛 ]
𝑄𝑢𝑛𝑖𝑡𝑎𝑟𝑖𝑎 = ⏟ → 𝐴 = 𝑄𝐷𝑄𝐻
⋮ ⋱ ⋮ 𝑏𝑎𝑠𝑒 𝑜𝑟𝑡𝑜𝑛𝑜𝑟𝑚𝑎𝑙
0 0 ⋯ 𝜆𝑛 𝑑𝑒 𝑣𝑒𝑐𝑡𝑜𝑟𝑒𝑠 𝑝𝑟𝑜𝑝𝑖𝑜𝑠

Suescun, Insausti, Flaquer (2022) 320 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.5 Descomposición espectral

Descomposición espectral

Proposición 8.5
Enunciado: Toda matriz normal 𝐴 de orden 𝑛 se puede descomponer de la siguiente manera:
𝑛

𝐴= 𝜆1 𝑤1 𝑤1𝐻 + 𝜆2 𝑤2 𝑤2𝐻 +⋯+ 𝜆𝑛 𝑤𝑛 𝑤𝑛𝐻 = ∑ 𝜆𝑖 𝑤𝑖 𝑤𝑖𝐻


𝑖=1

donde 𝑤1 , 𝑤2 , … , 𝑤𝑛 forman una base ortonormal de vectores propios de 𝐴 asociados a los valores
propios 𝜆1 , 𝜆2 , … , 𝜆𝑛 de 𝐴 respectivamente. Es la descomposición espectral de una matriz normal.
Demostración: Toda matriz normal 𝐴 es diagonalizable mediante una matriz unitaria 𝑄:
𝐷 = 𝑄𝐻 𝐴 𝑄 ↔ 𝐴 = 𝑄𝐷𝑄𝐻
Considerando
𝜆1 0 𝑤1𝐻
𝜆2 𝑤2𝐻
𝐷= 𝑄 = [ 𝑤1 𝑤2 … 𝑤𝑛 ] → 𝑄𝐻 =

[0 𝜆𝑛 ] [ 𝑤𝑛𝐻 ]
Por lo tanto:
𝜆1 0 𝑤1𝐻
𝜆2 𝑤2𝐻
𝐴 = [ 𝑤1 𝑤2 … 𝑤𝑛 ] = 𝜆1 𝑤1 𝑤1𝐻 + 𝜆2 𝑤2 𝑤2𝐻 + ⋯ + 𝜆𝑛 𝑤𝑛 𝑤𝑛𝐻

[0 𝜆𝑛 ] [ 𝑤𝑛𝐻 ]

Nótese que los productos 𝑤𝑖 𝑤𝑖𝐻 son matrices cuadradas de orden 𝑛 y de rango unidad:
𝑟(𝑤𝑖 𝑤𝑖𝐻 ) = 1 ∀𝑖
Así mismo, nótese que cada una de estas matrices 𝑃𝑖 = 𝑤𝑖 𝑤𝑖𝐻 es una matriz de proyección ortogonal
sobre el correspondiente vector propio:
𝑃𝑖 = 𝑤𝑖 𝑤𝑖𝐻
𝜋𝑥𝑤 = 𝑃𝑖 𝑥 = (𝑤𝑖 𝑤𝑖𝐻 )𝑥 = (𝑤𝑖𝐻 𝑥)𝑤𝑖 = 〈𝑤𝑖 , 𝑥〉𝑤𝑖
𝑖

Nótese que son matrices idempotentes:


𝑃𝑖2 = (𝑤𝑖 𝑤𝑖𝐻 )(𝑤𝑖 𝑤𝑖𝐻 ) = 𝑤𝑖 ⏟
𝑤𝑖𝐻 𝑤𝑖 𝑤𝑖𝐻 = 𝑤𝑖 𝑤𝑖𝐻 = 𝑃𝑖 ∀𝑖
=1

En el caso de un valor propio múltiple, la matriz de proyección ortogonal sobre el subespacio propio
correspondiente sería la suma de las matrices de proyección sobre los vectores propios de la base
ortonormal correspondiente:
𝜆𝑗 (𝑚𝑗 = 𝑝) → dim 𝐸𝑗 = 𝑝 → 𝑏𝑗 = 𝑤𝑗1 , 𝑤𝑗2 , … , 𝑤𝑗𝑝
𝑝
𝐻 𝐻 𝐻 𝐻
𝑃𝑗 = 𝑤𝑗1 𝑤𝑗1 + 𝑤𝑗2 𝑤𝑗2 + ⋯+ 𝑤𝑗𝑝 𝑤𝑗𝑝 = ∑ 𝑤𝑗𝑘 𝑤𝑗𝑘
𝑘=1

Se puede demostrar fácilmente que 𝑃𝑗 es idempotente.

Ejemplo 8.1
La matriz simétrica real 𝐴 tiene un valor propio doble y dos distintos:

Suescun, Insausti, Flaquer (2022) 321 Tecnun-Universidad de Navarra


8.6 Diagonalización de matrices hermíticas 8 Diagonalización de Matrices Normales

2 3 0 0 𝜆1 = 𝜆2 = −1
3 2 0 0
𝐴=[ ] → { 𝜆3 = 5
0 0 4 5
0 0 5 4 𝜆4 = 9
La matriz ortogonal real 𝑄 = [ 𝑤1 𝑤2 𝑤3 𝑤4 ] diagonaliza 𝐴, con
0 −1 1 0
1 0 1 1 1 1 1 0
𝑤1 = [ ] 𝑤2 = [ ] 𝑤3 = [ ] 𝑤4 = [ ]
√2 −1 √2 0 √2 0 √2 1
1 0 0 1
La descomposición espectral de la matriz es:
𝐴 = −𝑤1 𝑤1𝑇 − 𝑤2 𝑤2𝑇 + 5𝑤3 𝑤3𝑇 + 9𝑤4 𝑤4𝑇
Las matrices de proyección ortogonal sobre los tres subespacios propios son:
0.5 −0.5 0 0
−0.5 0.5 0 0
𝜆1 = 𝜆2 = −1 → 𝑃1 = 𝑤1 𝑤1𝑇 + 𝑤2 𝑤2𝑇 =[ ]
0 0 0.5 −0.5
0 0 −0.5 0.5
0.5 0.5 0 0
0.5 0.5 0 0
𝜆3 = 5 → 𝑃3 = 𝑤3 𝑤3𝑇
=[ ]
0 0 0 0
0 0 0 0
0 0 0 0
𝑇 0 0 0 0
𝜆4 = 9 → 𝑃4 = 𝑤4 𝑤4 = [ ]
0 0 0.5 0.5
0 0 0.5 0.5

Diagonalización de matrices hermíticas

Una matriz cuadrada 𝐴 es hermítica si 𝐴 = 𝐴𝐻 .


Se enuncian a continuación dos proposiciones relevantes para las matrices hermíticas.

Proposición 8.6
Enunciado: Los valores propios de una matriz 𝐴 hermítica son números reales.
Demostración: Sea 𝜆 un valor propio de 𝐴 y 𝑥 un vector propio asociado:
𝐴𝑥 = 𝜆𝑥
Se calcula ahora el cuadrado de la norma de 𝐴𝑥
‖𝐴𝑥‖2 = 〈𝐴𝑥, 𝐴𝑥〉 = (𝐴𝑥)𝐻 (𝐴𝑥) = 𝑥 𝐻 𝐴𝐻 (𝐴𝑥) = 𝑥 𝐻 𝐴(𝜆𝑥) = 𝜆𝑥 𝐻 𝐴𝑥 = 𝜆2 𝑥 𝐻 𝑥 = 𝜆2 ‖𝑥‖2
Nótese que 𝜆2 debe ser positivo, al ser un cociente de números positivos (i.e. reales y no negativos):
‖𝐴𝑥‖2
𝜆2 = ≥0
‖𝑥‖2
Y por tanto 𝜆 es necesariamente un número real.

La siguiente proposición es una consecuencia inmediata del teorema espectral, por lo que no es necesario
demostrarla. No obstante, se incluye aquí una demostración específica para matrices hermíticas.

Suescun, Insausti, Flaquer (2022) 322 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.7 Diagonalización de matrices reales y simétricas

Proposición 8.7
Enunciado: Vectores propios asociados a valores propios distintos de una matriz hermítica 𝐴 son
ortogonales entre sí.
Demostración: Sean 𝜆 y 𝜇 dos valores propios distintos (𝜆 ≠ 𝜇) de la matriz hermítica 𝐴. Sean 𝑥 e 𝑦
vectores propios asociados a 𝜆 y 𝜇 respectivamente.
𝐴𝑥 = 𝜆𝑥
𝐴𝑦 = 𝜇𝑦
Multiplicando la primera identidad por 𝑦 𝐻 y la segunda por 𝑥 𝐻 se obtiene:
𝑦 𝐻 𝐴𝑥 = 𝜆𝑦 𝐻 𝑥
𝑥 𝐻 𝐴𝑦 = 𝜇𝑥 𝐻 𝑦
Se traspone ahora la segunda y se resta de la primera (recuérdese que 𝐴 es hermítica y sus valores propios
son reales):
𝑦 𝐻 𝐴𝑥 = 𝜆𝑦 𝐻 𝑥
(𝜆 − 𝜇) 𝑦 𝐻 𝑥
→ 0=⏟
𝑦 𝐻 𝐴𝑥 = 𝜇𝑦 𝐻 𝑥 ≠0

Por lo tanto, los vectores propios 𝑥 e 𝑦 son ortogonales:


𝑦𝐻 𝑥 = 0 → 〈𝑥, 𝑦〉 = 0 → 𝑥⊥𝑦

Diagonalización de matrices reales y simétricas

Se estudia a continuación el caso particular de las matrices reales y simétricas, que son hermíticas y por
tanto normales. Se cumple que:
• Sus valores propios son reales.
• Vectores propios asociados a valores propios distintos son ortogonales entre sí.
Se demuestra a continuación que se pueden diagonalizar mediante una matriz ortogonal real.

Teorema 8.8 (Teorema espectral para matrices reales y simétricas)


Enunciado: Toda matriz real y simétrica 𝐴 es diagonalizable mediante una matriz ortogonal real 𝑄.
Demostración: Se demuestra por inducción:
1. Para demostrar el resultado por inducción, supóngase cierto el enunciado para matrices reales y
simétricas 𝐴𝑛−1 de orden 𝑛 − 1 (𝑛 > 1), esto es, supóngase que existe una matriz ortogonal real
𝑄𝑛−1 que diagonaliza 𝐴𝑛−1 de la siguiente manera:
𝑇
𝐷𝑛−1 = 𝑄𝑛−1 𝐴𝑛−1 𝑄𝑛−1
con 𝐷𝑛−1 una matriz diagonal de orden 𝑛 − 1.
2. Sea 𝐴𝑛 una matriz real y simétrica de orden 𝑛. Sea 𝑤1 un vector propio de 𝐴𝑛 normalizado asociado
al valor propio 𝜆1 . Se cumple:
𝐴𝑛 𝑤1 = 𝜆1 𝑤1 𝑤1𝑇 𝑤1 = 1
A partir de este vector se puede completar una base ortonormal 𝑤1 , 𝑤′2 , … , 𝑤′𝑛 de 𝑅𝑛×1 (proposición
6.9). Y con estos vectores columna, se puede formar una matriz ortogonal real 𝑅:
𝑅 = [ 𝑤1 𝑤2′ … 𝑤𝑛′ ] = [𝑤1 𝑊]
Nótese que:
𝑤1𝑇 𝑊 = 0𝑇 𝑊 𝑇 𝑤1 = 0
y también:

Suescun, Insausti, Flaquer (2022) 323 Tecnun-Universidad de Navarra


8.8 Obtención de las matrices 𝑸 y 𝑫 8 Diagonalización de Matrices Normales

𝑊 𝑇 𝐴𝑛 𝑤1 = 𝑊 𝑇 (𝜆1 𝑤1 ) = 𝜆1 𝑊 𝑇 𝑤1 = 0
𝑤1𝑇 𝐴𝑛 𝑊 = 𝑤1𝑇 𝐴𝑇𝑛 𝑊 = (𝑊 𝑇 𝐴𝑛 𝑤1 )𝑇 = 0𝑇
Transformando 𝐴𝑛 mediante 𝑅 se obtiene una matriz 𝐵 que es simétrica y diagonal por bloques:
𝑤𝑇 𝑤𝑇 𝐴 𝑤 𝑤1𝑇 𝐴𝑛 𝑊 𝜆 0𝑇
𝐵 = 𝑅𝑇 𝐴𝑛 𝑅 = [ 1𝑇 ] 𝐴𝑛 [𝑤1 𝑊] = [ 1𝑇 𝑛 1 ]=[ 1 ]
𝑊 𝑊 𝐴𝑛 𝑤1 𝑊 𝑇 𝐴𝑛 𝑊 0 𝐴𝑛−1
donde 𝐴𝑛−1 es una matriz cuadrada de orden 𝑛 − 1 y 𝑏 es una columna con 𝑛 − 1 filas. Pero por
hipótesis, 𝐴𝑛−1 es diagonalizable mediante una matriz ortogonal real 𝑄𝑛−1 . Con esta última, se puede
construir una matriz ortogonal real de orden 𝑛
1 0𝑇
𝑆=[ ]
0 𝑄𝑛−1
capaz de diagonalizar la matriz 𝐵 del siguiente modo:
1 0𝑇 𝜆1 0𝑇 1 0𝑇 𝜆 0𝑇 𝜆1 0𝑇
𝑆 𝑇 𝐵𝑆 = [ 𝑇] [ ][ ]=[ 1 𝑇 ] =[ ] = 𝐷𝑛
0 𝑄𝑛−1 0 𝐴𝑛−1 0 𝑄𝑛−1 0 𝑄𝑛−1 𝐴𝑛−1 𝑄𝑛−1 0 𝐷𝑛−1
siendo 𝐷𝑛 una matriz diagonal de orden 𝑛.
Así pues, supuesto que 𝐴𝑛−1 es diagonalizable mediante una matriz ortogonal real 𝑄𝑛−1 , queda
probado que 𝐴𝑛 es diagonalizable mediante una matriz ortogonal real 𝑄𝑛 = 𝑅𝑆:
𝐷𝑛 = 𝑆 𝑇 𝐵𝑆 = 𝑆 𝑇 (𝑅𝑇 𝐴𝑛 𝑅)𝑆 = (𝑅𝑆)𝑇 𝐴𝑛 (𝑅𝑆) = 𝑄𝑛𝑇 𝐴𝑛 𝑄𝑛
3. Puesto que el enunciado se cumple trivialmente para 𝑛 = 1, el teorema queda demostrado por
inducción sobre 𝑛.

Obtención de las matrices 𝑸 y 𝑫

Se explica a continuación como resolver en la práctica la matriz ortogonal real 𝑄 y la matriz diagonal 𝐷
que permiten la diagonalización de una matriz real y simétrica 𝐴 de orden 𝑛.
Si el orden de la matriz es pequeño o si ésta tiene una estructura especial, se puede resolver el problema
analíticamente. Para ello, se siguen los siguientes pasos:
1. El punto de partida es como siempre la obtención de los valores propios.
2. A continuación, se resuelven los subespacios propios, eligiendo una base de vectores propios en
cada uno de ellos. Tal como se ha explicado en teoría, la matriz siempre es diagonalizable por lo
que, juntando todas estas bases se obtienen una base de 𝑅𝑛×1 formada por 𝑛 vectores propios.
3. Se recorren los subespacios propios transformando las bases obtenidas previamente en bases
ortonormales. La unión de estas bases constituye una base ortonormal de 𝑅𝑛×1 .
4. Con los vectores propios de esta base ortonormal escritos en columnas se construye la matriz
ortogonal real 𝑄 que diagonaliza 𝐴.
El siguiente ejemplo ilustra el procedimiento anterior.

Ejemplo 8.2
La matriz real y simétrica
1 1 0 0
1 1 0 0
𝐴=[ ]
0 0 −1 1
0 0 1 −1

tiene los siguientes valores propios y subespacios propios asociados:

Suescun, Insausti, Flaquer (2022) 324 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.8 Obtención de las matrices 𝑸 y 𝑫

0 1
0 1
𝜆1 = −2 → 𝐵1 = 𝑥1 𝑥1 = [ ] 𝜆2 = 2 → 𝐵2 = 𝑥2 𝑥2 = [ ]
−1 0
1 0
−1 0
1 0
𝜆3 = 0 → 𝐵3 = 𝑥3 , 𝑥4 𝑥3 = [ ] 𝑥4 = [ ]
0 1
0 1
La matriz 𝑆 = [𝑥1 𝑥2 𝑥3 𝑥4 ] diagonaliza 𝐴 por semejanza:
−2 0 0 0
−1 0 2 0 0
𝐷=𝑆 𝐴𝑆=[ ]
0 0 0 0
0 0 0 0
Se busca ahora una matriz ortogonal real 𝑄 que también diagonalice 𝐴. Nótese que, como se ha visto en
la exposición teórica, los valores propios son reales y los subespacios propios son ortogonales entre sí:
𝐸1 ⊥ 𝐸2 ⟺ 𝑥1 ⊥ 𝑥2
𝐸1 ⊥ 𝐸3 ⟺ 𝑥1 ⊥ 𝑥3 𝑥1 ⊥ 𝑥4
𝐸2 ⊥ 𝐸3 ⟺ 𝑥2 ⊥ 𝑥3 𝑥2 ⊥ 𝑥4
Para encontrar las columnas de 𝑄 se recorren los subespacios propios y se buscan bases ortonormales en
ellos. En el caso de los subespacios unidimensionales, basta con normalizar los vectores base:
0
𝑥1 1 0
𝑏1 = 𝑤1 𝑤1 = = [ ]
‖𝑥1 ‖ √2 −1
1
1
𝑥2 1 1
𝑏2 = 𝑤2 𝑤2 = = [ ]
‖𝑥2 ‖ √2 0
0
Para los subespacios propios no unidimensionales se usa, en general, el método ortogonalización de
Gram-Schmidt. En este caso no es necesario pues casualmente 𝑥3 ⊥ 𝑥4 y por lo tanto, basta con
normalizarlos:
−1 0
𝑥3 1 1 𝑥4 1 0
𝑏3 = 𝑤3 , 𝑤4 𝑤3 = = [ ] 𝑤4 = = [ ]
‖𝑥3 ‖ √2 0 ‖𝑥4 ‖ √2 1
0 1
Por lo tanto, la matriz ortogonal real buscada es:
−1 0 1 0
11 0 1 0
𝑄 = [𝑤1 𝑤2 𝑤3 𝑤4 ] = [ ]
√2 0 1 0 −1
0 1 0 1
Y la matriz diagonal es obviamente la misma:
−2 0 0 0
𝑇 0 2 0 0
𝐷 =𝑄 𝐴𝑄 =[ ]
0 0 0 0
0 0 0 0

Sin embargo, en la práctica suelen aparecer matrices simétricas de orden elevado que hacen inviable la
resolución de este problema de forma analítica. Para esos casos, se recurre a métodos numéricos que son
capaces de obtener aproximaciones suficientemente buenas de la diagonalización que se busca. El
método más habitual para ello es el método 𝑄𝑅 visto en la sección 7.17. La siguiente proposición muestra
cómo puede hacerse.

Suescun, Insausti, Flaquer (2022) 325 Tecnun-Universidad de Navarra


8.9 Descomposición en valores singulares (SVD) 8 Diagonalización de Matrices Normales

Proposición 8.9 (Método 𝑸𝑹 para matrices simétricas )


Enunciado: Sea 𝐴 una matriz real y simétrica de orden 𝑛 con todos sus valores propios distintos (en valor
absoluto). Entonces,
𝜆1 0
𝜆2
lim 𝐴𝑘 = =𝐷
𝑘→∞ ⋱
[0 𝜆𝑛 ]
donde 𝜆1 , 𝜆2 , … , 𝜆𝑛 son los valores propios de 𝐴,
𝐴𝑘+1 = 𝑅𝑘 𝑄𝑘 𝑘 ∈ {1,2, … },
𝑄𝑘 𝑅𝑘 es la factorización 𝑄𝑅 de la matriz 𝐴𝑘 y 𝐴1 = 𝐴.
Demostración: Sin demostrar.

La diferencia de esta última proposición con la vista en la sección 7.17 es que cuando la matriz 𝐴 es
simétrica, el método 𝑄𝑅 converge a una matriz diagonal (si la matriz no es simétrica, el método converge
a una matriz triangular superior). Esta proposición es por tanto un caso particular de la vista en la sección
7.17.
De la proposición anterior, obsérvese que
𝐴𝑘+1 = 𝑅𝑘 𝑄𝑘 = (𝑄𝑘𝑇 𝐴𝑘 )𝑄𝑘 = 𝑄𝑘𝑇 𝐴𝑘 𝑄𝑘 𝑘 ∈ {1,2, … },
y por tanto, recursivamente se obtiene
𝑇 𝑇
⏟𝑘 𝑄𝑘−1 … 𝑄2 𝑄1𝑇 𝐴 𝑄
𝐴𝑘+1 = 𝑄 ⏟1 𝑄2 … 𝑄𝑘−1 𝑄𝑘 𝑘 ∈ {1,2, … },
𝑄𝑇 𝑄

es decir,
𝐴𝑘+1 = 𝑄𝑇 𝐴𝑄
donde la matriz 𝑄 = 𝑄1 𝑄2 … 𝑄𝑘−1 𝑄𝑘 es ortogonal. Como la sucesión de matrices 𝐴𝑘+1 converge a una
matriz diagonal, para 𝑘 suficientemente grande se tiene
𝐷 = 𝑄𝑇 𝐴𝑄
lo que implica que las columnas de 𝑄 convergen a una base ortonormal de vectores propios.
Desde un punto de vista práctico, es importante recalcar que existen algoritmos eficientes y
numéricamente estables para el método 𝑄𝑅. Calcular en cada paso del algoritmo la ortogonalización de
Gram-Schmidt no es una buena estrategia, ya que tiene un elevadísimo coste computacional (𝑂(𝑛3 )) y
una estabilidad numérica deficiente. El estudio de esas implementaciones eficientes queda fuera del
alcance de este curso.

Descomposición en valores singulares (SVD)

La descomposición de una matriz en valores singulares es posiblemente la factorización más general (sirve
para cualquier matriz) y la que tiene mayor número de aplicaciones prácticas. Esta descomposición se
conoce por sus siglas en inglés, SVD (Singular Value Decomposition).

Proposición 8.10 (SVD)


Enunciado: Toda matriz 𝐴 real de tamaño 𝑚 × 𝑛 puede factorizarse como
𝐴 = 𝑈Σ𝑉 𝑇

Suescun, Insausti, Flaquer (2022) 326 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.9 Descomposición en valores singulares (SVD)

donde 𝑈 y 𝑉 son dos matrices ortogonales de orden 𝑚 y 𝑛 respectivamente, y Σ es una matriz “diagonal”
de tamaño 𝑚 × 𝑛 con la siguiente estructura:
𝜎1 0 ⋯ 0 0 ⋯ 0
0 𝜎2 0 0 0
⋮ ⋱ ⋮ ⋮ ⋮
Σ𝑟 𝑂𝑟×(𝑛−𝑟)
Σ=[ ]= 0 0 ⋯ 𝜎𝑟 0 ⋯ 0
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
0 0 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
[0 0 ⋯ 0 0 ⋯ 0]𝑚×𝑛
Los elementos 𝜎1 , 𝜎2 , … , 𝜎𝑟 del bloque cuadrado diagonal Σ𝑟 se denominan valores singulares de 𝐴, son
estrictamente positivos y se organizan de mayor a menor, es decir
𝜎1 ≥ 𝜎2 ≥ ⋯ ≥ 𝜎𝑟 > 0
Demostración: Sin demostrar.

Nótese que el rango de 𝐴 es 𝑟, pues claramente Σ𝑟 es de rango 𝑟 y el producto por las matrices ortogonales
𝑈 y 𝑉 𝑇 no lo altera. Consecuentemente, el núcleo de 𝐴 tendrá dimensión 𝑛 − 𝑟:
𝑟 = 𝑟𝑎𝑛𝑔𝑜(𝐴) = dim 𝑅(𝐴)
𝑛 − 𝑟 = 𝑛𝑢𝑙𝑖𝑑𝑎𝑑(𝐴) = dim 𝑁(𝐴)
De la descomposición en valores singulares 𝐴 = 𝑈Σ𝑉 𝑇 se tiene que
𝐴𝑉 = 𝑈Σ
Considerando:
𝑉 = [ 𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ] 𝑈 = [ 𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ]
Se tiene:
𝜎1 0 ⋯ 0 0 ⋯ 0
0 𝜎2 0 0 0
⋮ ⋱ ⋮ ⋮ ⋮
𝐴[ 𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ] = [ 𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ] 0 0 ⋯ 𝜎𝑟 0 ⋯ 0
0 0 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
[0 0 ⋯ 0 0 ⋯ 0]
Por tanto:
𝐴𝑣𝑖 = 𝜎𝑖 𝑢𝑖 (𝑖 = 1, … , 𝑟) → 𝑈 =[⏟
𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ]
𝑏𝑅(𝐴)
𝐴𝑣𝑖 = 0 (𝑖 = 𝑟 + 1, … , 𝑛) → 𝑉 = [ 𝑣1 𝑣2 … 𝑣𝑟 𝑣
⏟𝑟+1 … 𝑣𝑛 ]
𝑏𝑁(𝐴)

Se observa que las columnas 𝑢1 𝑢2 … 𝑢𝑟 son una base ortonormal de 𝑅(𝐴), ya que son una lista
independiente (𝑈 es ortogonal) y los valores singulares son no nulos por definición. Asimismo, cuando
𝑟 < 𝑛, las últimas 𝑛 − 𝑟 columnas de 𝑉 constituyen una base ortonormal de 𝑁(𝐴), ya que se transforman
en el vector nulo y son una lista independiente (𝑉 es ortogonal).
Al trasponer la descomposición, se puede expresar 𝐴𝑇 en función de las matrices 𝑈, Σ y 𝑉:
𝐴𝑇 = (𝑈Σ𝑉 𝑇 )𝑇 = 𝑉Σ 𝑇 𝑈 𝑇

Suescun, Insausti, Flaquer (2022) 327 Tecnun-Universidad de Navarra


8.9 Descomposición en valores singulares (SVD) 8 Diagonalización de Matrices Normales

Cuando 𝑚 ≠ 𝑛, la matriz Σ no es cuadrada y, extrictamente hablando, no se la puede llamar simétrica,


pese a que solo existan elementos no nulos en su diagonal principal. Por el contrario el bloque Σ𝑟 sí es
cuadrado, diagonal y por tanto, simétrico:
Σ𝑟 𝑂𝑟×(𝑛−𝑟) Σ𝑟 𝑂𝑟×(𝑚−𝑟)
Σ=[ ] Σ𝑇 = [ ]
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑚×𝑛
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑛×𝑚

De manera análoga a lo anterior:


𝐴𝑇 𝑈 = 𝑉Σ 𝑇
𝜎1 0 ⋯ 0 0 ⋯ 0
0 𝜎2 0 0 0
⋮ ⋱ ⋮ ⋮ ⋮
𝐴[ 𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ] = [ 𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ] 0 0 ⋯ 𝜎𝑟 0 ⋯ 0
0 0 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
[0 0 ⋯ 0 0 ⋯ 0]
de donde:
𝐴𝑇 𝑢𝑖 = 𝜎𝑖 𝑣𝑖 (𝑖 = 1, … , 𝑟) → 𝑉 =[⏟
𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ]
𝑏𝑅(𝐴𝑇 )

𝐴𝑇 𝑢𝑖 = 0 (𝑖 = 𝑟 + 1, … 𝑚) → 𝑈 = [ 𝑢1 𝑢2 … 𝑢𝑟 ⏟
𝑢𝑟+1 … 𝑢𝑚 ]
𝑏𝑁(𝐴𝑇 )

Por lo tanto, las matrices 𝑈 y 𝑉 almacenan bases ortonormales de los cuatro subespacios fundamentales
asociados a la matriz 𝐴, que son 𝑅(𝐴), 𝑁(𝐴), 𝑅(𝐴𝑇 ) y 𝑁(𝐴𝑇 ):
𝑈 = [⏟ 𝑢𝑟+1 … 𝑢𝑚 ]
𝑢1 𝑢2 … 𝑢𝑟 ⏟
𝑏𝑅(𝐴) 𝑏𝑁(𝐴𝑇 )

𝑉=[ ⏟ 𝑣𝑟+1 … 𝑣𝑛 ]
𝑣1 𝑣2 … 𝑣𝑟 ⏟
𝑏𝑅(𝐴𝑇 ) 𝑏𝑁(𝐴)

Las matrices 𝑈, 𝑆 y 𝑉 pueden obtenerse resolviendo el problema de valores y vectores propios de las
matrices 𝐴𝐴𝑇 y 𝐴𝑇 𝐴. Ambas matrices son simétricas y, de acuerdo con el teorema espectral, son
diagonalizables mediante matrices ortogonales. Así mismo, las dos matrices comparten valores propios21.

Proposición 8.11
Enunciado: Los valores singulares de 𝐴 son las raíces cuadradas positivas de los valores propios no nulos
de la matriz 𝐴𝐴𝑇 (o de 𝐴𝑇 𝐴), ordenados de mayor a menor. La matrices ortogonales 𝑈 y 𝑉 diagonalizan
𝐴𝐴𝑇 y 𝐴𝑇 𝐴 respectivamente.
Demostración: Nótese que la matriz ortogonal que diagonaliza 𝐴𝐴𝑇 es precisamente 𝑈:
𝐴𝐴𝑇 = (𝑈Σ𝑉 𝑇 )(𝑉Σ 𝑇 𝑈 𝑇 ) = 𝑈(ΣΣ 𝑇 )𝑈 𝑇 = 𝑈𝐷𝑈 𝑇
Asimismo, se observa que los valores singulares de 𝐴 son las raíces cuadradas positivas de los valores
propios no nulos de 𝐴𝐴𝑇 :

21 Los valores propios no nulos de 𝐴𝑇 𝐴 y 𝐴𝐴𝑇 son idénticos, en valor y en multiplicidad respectiva. No obstante, la
multiplicidad algebraica asociada al valor propio nulo, caso de existir, podría ser diferente en 𝐴𝑇 𝐴 y 𝐴𝐴𝑇 .

Suescun, Insausti, Flaquer (2022) 328 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.9 Descomposición en valores singulares (SVD)

𝜎12 0 ⋯ 0 0 ⋯ 0
0 𝜎22 0 0 0
⋮ ⋱ ⋮ ⋮ ⋮
𝐷 = ΣΣ 𝑇 = 0 0 ⋯ 𝜎𝑟2 0 ⋯ 0
0 0 0 0 ⋯ 0
⋮ ⋮ ⋱ ⋮
[0 0 ⋯ 0 0 ⋯ 0]𝑚×𝑚
Nótese también que la matriz ortogonal que diagonaliza 𝐴𝑇 𝐴 es 𝑉:
𝐴𝑇 𝐴 = (𝑉Σ 𝑇 𝑈 𝑇 )(𝑈Σ𝑉 𝑇 ) = 𝑉(Σ 𝑇 Σ)𝑉 𝑇

Una alternativa a resolver dos problemas de valores y vectores propios es resolver solo uno, el más
pequeño de los dos. Supóngase por ejemplo que ya se ha resuelto 𝐴𝐴𝑇 . A partir de 𝑈 se resuelven las
primeras columnas de 𝑉:
1 𝑇
𝐴𝑇 𝑢𝑖 = 𝜎𝑖 𝑣𝑖 (𝑖 = 1, … , 𝑟) → 𝑣𝑖 = 𝐴 𝑢𝑖 (𝑖 = 1, … , 𝑟)
𝜎𝑖
Las restantes columnas de 𝑉 se calculan ampliando la base ortonormal 𝑣1 , 𝑣2 , … 𝑣𝑟 hasta completar una
base ortonormal de 𝑅𝑛×1 .

Ejemplo 8.3
Obtener la SVD de la matriz siguiente:
3√2 √2 2√2
𝐴=[ ]
√2 3√2 2√2
Se resuelve en primer lugar la diagonalización de 𝐴𝐴𝑇 , que es de menor tamaño que 𝐴𝑇 𝐴:
28 20 𝜆1 = 48
𝐴𝐴𝑇 = [ ] → 𝜑𝐴 (𝜆) = 𝜆2 − 56𝜆 + 384 = 0 → {
20 28 𝜆2 = 8
Por lo tanto, los valores singulares de 𝐴 son:
𝜎1 = 4√3 𝜎2 = 2√2
Y en consecuencia, la matriz Σ es:
4√3 0 0
Σ=[ ]
0 2√2 0
Para resolver 𝑈 se obtienen las bases de los subespacios propios de 𝐴𝐴𝑇 :
−20 20 0
𝛼1 = 𝜖1 1
𝜆1 = 48 → 𝐸1 : (𝐴𝐴𝑇 − 48𝐼)𝑥 = 0 → [ |
] → { 𝛼 = 𝜖 → 𝐵1 = [ ]
20 −20 0 2 1 1
20 20 0 𝛼1 = −𝜖2 −1
𝜆2 = 8 → 𝐸2 : (𝐴𝐴𝑇 − 8𝐼)𝑥 = 0 → [ | ] → { 𝛼 = 𝜖 → 𝐵2 = [ ]
20 20 0 2 2 1
𝑇
Por ser 𝐴𝐴 simétrica y ser distintos sus valores propios, y solo es necesario normalizar los vectores de
las bases obtenidas para obtener la matriz 𝑈.

1 1 1 −1 1/√2 −1/√2
𝑢1 = [ ] 𝑢2 = [ ]→ 𝑈=[ ]
√2 1 √2 1 1/√2 1/√2
Las columnas de la matriz 𝑉 pueden obtenerse a partir de los vectores 𝑢1 y 𝑢2 y resolviendo el subespacio
nulo de 𝐴𝑇 𝐴, esto es el subespacio propio asociado al valor propio nulo:

Suescun, Insausti, Flaquer (2022) 329 Tecnun-Universidad de Navarra


8.9 Descomposición en valores singulares (SVD) 8 Diagonalización de Matrices Normales

4 1/√3 −2 −1/√2
1 𝑇 1 1 𝑇 1
𝑣1 = 𝐴 𝑢1 = [ 4 ] = 1/√3 𝑣2 = 𝐴 𝑢2 = [ 2 ] = [ 1/√2 ]
𝜎1 4√3 𝜎2 2√2
4 [1/√3 ] 0 0
El tercer vector, 𝑣3 , está en el subespacio nulo de 𝐴𝑇 𝐴:
20 12 16 0 𝛼1 = −𝜖 −1 −1
1
𝑇
𝐴 𝐴𝑥 = 0 → [12 20 16 | 0 ] → { 𝛼2 = −𝜖 → 𝐵3 = [−1] → 𝑣3 = [−1]
√6
16 16 16 0 𝛼3 = 2𝜖 2 2
Por lo tanto:
1/√3 −1/√2 −1/√6
𝑉 = 1/√3 1/√2 −1/√6
[ 1/√3 0 2/√6]
Se puede verificar fácilmente que 𝐴 = 𝑈Σ𝑉 𝑇 :
1/√3 1/√3 1/√3
3√2 √2 2√2 1/√2 −1/√2 4√3 0 0
[ ]=[ ][ ] −1/√2 1/√2 0
√2 3√2 2√2 1/√2 1/√2 0 2√2 0
[−1/√6 −1/√6 2/√6]

La SVD se puede escribir de forma reducida como sigue:


𝑣1𝑇
𝑣2𝑇
Σ𝑟 𝑂𝑟×(𝑛−𝑟) ⋮
𝐴 = [𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ] [ ] 𝑣𝑟𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑇
𝑣𝑟+1

[ 𝑣𝑛𝑇 ]
𝑣1𝑇
𝑇
= [𝑢1 𝑢2 … 𝑢𝑟 ][ Σ𝑟 ] 𝑣2

[𝑣𝑟𝑇 ]
𝑟

= ∑ 𝜎𝑖 𝑢𝑖 𝑣𝑖𝑇
𝑖=1

Ejemplo 8.4
La forma reducida de la descomposición en valores singulares de la matriz
3√2 √2 2√2
𝐴=[ ]
√2 3√2 2√2
está dada por 𝐴 = ∑𝑟𝑖=1 𝜎𝑖 𝑢𝑖 𝑣𝑖𝑇 :

3√2 √2 2√2 1/√2 −1/√2 4√3 0 1/√3 1/√3 1/√3


[ ]=[ ][ ][ ]
√2 3√2 2√2 1/√2 1/√2 0 2√2 −1/√2 1/√2 0
1 −1
1 1 1 −1 1
= 4√3 √2 [ ] + 2√2 √2 [ 0]
1 √3 √3 √3 1 √2 √2
[ √2 ] [ √2 ]

Suescun, Insausti, Flaquer (2022) 330 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.9 Descomposición en valores singulares (SVD)

La SVD tiene múltiples aplicaciones en matemáticas y en ingeniería. Por poner algunos ejemplos, la SVD
es un elemento fundamental en Big data, machine learning, compresión de datos, predicción, reducción
y simplificación de modelos matemáticos, sistemas de recomendación para predecir gustos (por ejemplo,
Netflix), y un largo etcétera. La mayoría de estas aplicaciones están basadas en el siguiente resultado:

Proposición 8.12: Teorema de Eckart -Young


Enunciado: Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛, rango 𝑟, y cuya SVD en forma reducida es 𝐴 =
∑𝑟𝑖=1 𝜎𝑖 𝑢𝑖 𝑣𝑖𝑇 . Fijado 𝑘 < 𝑟, sea
𝑘

𝐴𝑘 = ∑ 𝜎𝑖 𝑢𝑖 𝑣𝑖𝑇
𝑖=1

Entonces,
‖𝐴 − 𝐴𝑘 ‖ ≤ ‖𝐴 − 𝐵‖
para toda matriz 𝐵 de tamaño 𝑚 × 𝑛 y rango 𝑘.
Demostración: Sin demostrar

Lo que indica el Teorema de Eckart-Young es que la mejor aproximación de una matriz 𝐴 (de rango 𝑟)
mediante una matriz de rango 𝑘 (𝑘 < 𝑟) es, precisamente, la matriz 𝐴𝑘 .

Ejemplo 8.5
La mejor aproximación de la matriz
3√2 √2 2√2
𝐴=[ ]
√2 3√2 2√2
mediante una matriz de rango 1 es:
1
1 1 1 2√2 2√2 2√2
𝐴1 = 𝜎1 𝑢1 𝑣1𝑇 = 4√3 √2 [ ]=[ ]
1 √3 √3 √3 2√2 2√2 2√2
[ √2 ]

Suescun, Insausti, Flaquer (2022) 331 Tecnun-Universidad de Navarra


8.10 Ejemplos de aplicación 8 Diagonalización de Matrices Normales

Ejemplos de aplicación

Ejemplo de aplicación 8.1: Vibraciones de un s istema mecánico


En la figura se muestran dos masas 𝑚1 y 𝑚2 unidas entre sí por un muelle de rigidez 𝑘2 y unidas a la base
fija mediante sendos muelles de rigidez 𝑘1 . Arriba se representa la posición en reposo y abajo, la posición
deformada en un instante de tiempo 𝑡.

k1 m1 k2 m2 k1
Posición en reposo

x1(t) x2(t)
Posición deformada en t

Las masas solo pueden desplazarse horizontalmente. Sus desplazamientos se describen con 𝑥1 (𝑡) para la
masa 𝑚1 , y con 𝑥2 (𝑡) para la masa 𝑚2 .
En 𝑡 = 0, las dos masas se desplazan lateralmente desde la posición de reposo, deformando los muelles,
e inmediatamente se sueltan. Se desea determinar el movimiento de estas dos masas a lo largo del
tiempo.
Se conocen las condiciones iniciales del problema, que son las posiciones y velocidades en 𝑡 = 0:

𝑥1 (0) = 𝑑1 𝑥̇1 (0) = 𝑣1


𝑡=0 → (8.1)
𝑥2 (0) = 𝑑2 𝑥̇ 2 (0) = 𝑣2

Las ecuaciones del movimiento del sistema se pueden obtener de manera análoga al ejemplo de
aplicación 1.2. Por sencillez se supone que ambas masas son de valor unidad. En este caso, las ecuaciones
del movimiento son:
1 0 𝑥̈ 2 𝑘1 + 𝑘2 −𝑘2 𝑥2 0
[ ][ ]+[ ][ ]=[ ]
0 1 𝑥̈1 −𝑘2 𝑘2 + 𝑘1 𝑥1 0
Esto es

𝑥̈ + 𝐾𝑥 = 0 (8.2)

con
𝑥2 (𝑡)
𝑥(𝑡) = [ ]
𝑥1 (𝑡)
Por lo tanto se busca encontrar la expresión de 𝑥(𝑡) que cumple tanto la ecuación (8.2) como las
condiciones iniciales indicadas (8.1).
Se conoce, por experiencias previas, que estos sistemas muestran respuestas oscilatorias, por lo que se
indagan soluciones basadas en funciones trigonométricas:
𝑥(𝑡) = 𝑥0 sin(𝜔𝑡 + 𝜑)
Siendo 𝑡 el tiempo y 𝑥0 una matriz columna constante de tamaño 2 × 1, 𝜔 la frecuencia de oscilación y 𝜑
un ángulo de desfase, constantes que habrá que calcular. Nótese que,
𝑥̇ (𝑡) = 𝑖𝜔𝑥0 sin(𝜔𝑡 + 𝜑) → 𝑥̈ (𝑡) = −𝜔2 𝑥0 sin(𝜔𝑡 + 𝜑)
Substituyendo en las ecuaciones del movimiento:
−𝜔2 𝑥0 sin(𝜔𝑡 + 𝜑) + 𝐾𝑥0 sin(𝜔𝑡 + 𝜑) = 0

Suescun, Insausti, Flaquer (2022) 332 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.10 Ejemplos de aplicación

La igualdad anterior debe ser cierta para todo 𝑡, por lo que se puede simplificar el termino sin(𝜔𝑡 + 𝜑).
Es decir:
𝐾𝑥0 = 𝜔2 𝑥0
O lo que es lo mismo:
(𝐾 − 𝜔2 𝐼)𝑥0 = 0
Este resultado permite sacar las siguientes conclusiones:
• Las ecuaciones del movimiento admiten soluciones del tipo 𝑥(𝑡) = 𝑥0 sin(𝜔𝑡 + 𝜑).
• Para que la solución sea válida, 𝜔2 debe ser un valor propio de la matriz 𝐾.
• Así mismo, 𝑥0 debe ser un vector propio de la matriz 𝐾 asociado al valor propio 𝜔2 .
Así pues, es necesario resolver el problema de valores y vectores propios de 𝐾. Esta matriz es simétrica
por lo que es diagonalizable mediante una matriz ortogonal y sus valores propios son reales.
det(𝐾 − 𝜔2 𝐼) = 0
𝜔12 = 𝑘1
𝜔 − 2(𝑘1 + 𝑘2 )𝜔2 + (𝑘12 + 2𝑘1 𝑘2 ) = 0 → {
4
𝜔22 = 𝑘1 + 2𝑘2
Los subespacios propios son fáciles de resolver:
1
𝐸1 : (𝐾 − 𝜔12 𝐼)𝑥 = 0 → 𝐵1 = 𝑢1 𝑢2 = [ ]
1
−1
𝐸2 : (𝐾 − 𝜔22 𝐼)𝑥 = 0 → 𝐵2 = 𝑢2 𝑢2 = [ ]
1
Antes de proseguir, nótese que se verifican las propiedades de las matrices simétricas: valores propios
reales y subespacios propios ortogonales. Nótese también que, al ser positivos los valores de rigidez, los
valores propios son positivos y se puede afirmar que la matriz de rigidez 𝐾 es definido positiva.
La siguiente figura ilustra gráficamente los dos vectores propios, que en Mecánica reciben en el nombre
de modos de vibración. Así mismo, se denominan frecuencias naturales de vibración a las raíces
cuadradas positivas de los valores propios. El vector 𝑢 supone una oscilación en fase de las dos masas y
mientras que el vector 𝑣 es una vibración en contrafase.

1 −1
𝑢1 =𝑢[ = [] 1
→ 𝑥(𝑡) = 𝑢 sin(𝜔1 𝑡 + 𝜑 ) 𝑢2 = 𝑣[ = []−1
→ 𝑥(𝑡)(=) 𝑢 sin(𝜔( 𝑡 + )𝜑 )
1 1 ] → 𝑥(𝑡) =1 𝑢 cos(𝜔 1 𝑡) 1 1 1 ] → 𝑥 𝑡 =2 𝑣 cos 2𝜔2 𝑡 2

𝑥1 (𝑡) 𝑥2 (𝑡) 𝑥1 (𝑡) 𝑥2 (𝑡)

𝑡 𝑡 𝑡 𝑡

Figura 8.1: Modos de vibración del sistema mecánico. Izquierda: primer modo 𝑢, las dos masas oscilan en fase.
Derecha: segundo modo 𝑣, las dos masas oscilan en contrafase.

Por lo tanto, se han encontrado dos posibles soluciones de las ecuaciones del movimiento:
𝑢1 sin(𝜔1 𝑡 + 𝜑1 ) , 𝑢2 sin(𝜔2 𝑡 + 𝜑2 )

Suescun, Insausti, Flaquer (2022) 333 Tecnun-Universidad de Navarra


8.10 Ejemplos de aplicación 8 Diagonalización de Matrices Normales

En realidad, cualquier combinación lineal (o superposición) de estas dos soluciones también lo será. La
solución tiene pues la siguiente expresión general:
𝑥(𝑡) = 𝛼1 𝑢1 sin(𝜔1 𝑡 + 𝜑1 ) + 𝛼2 𝑢2 sin(𝜔2 𝑡 + 𝜑2 )

Los coeficientes 𝛼1 , 𝜑1 , 𝛼2 , 𝜑2 se determinan obligando a que se cumplan las condiciones iniciales:


𝛼1 sin(𝜑1 ) − 𝛼2 sin(𝜑2 ) = 𝑑2
𝑥(0) = 𝛼1 𝑢1 sin(𝜑1 ) + 𝛼2 𝑢2 sin(𝜑2 ) → {
𝛼1 sin(𝜑1 ) + 𝛼2 sin(𝜑2 ) = 𝑑1
𝛼1 𝜔1 cos(𝜑1 ) − 𝛼2 𝜔2 cos(𝜑2 ) = 𝑣2
𝑥̇ (0) = 𝛼1 𝜔1 𝑢1 cos(𝜑1 ) + 𝛼2 𝜔2 𝑢2 cos(𝜑2 ) → {
𝛼1 𝜔1 cos(𝜑1 ) + 𝛼2 𝜔2 cos(𝜑2 ) = 𝑣1
Este sistema se resuelve muy fácilmente: se suman y restan la primera y segunda ecuación,
𝑑1 + 𝑑2 𝑑1 − 𝑑2
𝛼1 sin(𝜑1 ) = 𝛼2 sin(𝜑2 ) =
2 2
y la tercera y cuarta ecuación,
𝑣1 + 𝑣2 𝑣1 − 𝑣2
𝛼1 cos(𝜑1 ) = 𝛼2 cos(𝜑2 ) =
2𝜔1 2𝜔2
Y por lo tanto

𝑑1 + 𝑑2 2 𝑣1 + 𝑣2 2 𝑑1 + 𝑑2
𝛼1 = √( ) +( ) 𝜑1 = atan ( 𝜔 )
2 2𝜔1 𝑣1 + 𝑣2 1

𝑑1 − 𝑑2 2 𝑣1 − 𝑣2 2 𝑑1 − 𝑑2
𝛼2 = √ ( ) +( ) 𝜑2 = atan ( 𝜔 )
2 2𝜔2 𝑣1 − 𝑣2 2

Finalmente, nótese la ventaja de trabajar en una base ortonormal de vectores propios 𝑏 = 𝑤1 , 𝑤2


𝑢1 1 1 𝑢2 1 −1
𝑤1 = = [ ] 𝑤2 = = [ ]
‖𝑢1 ‖ √2 1 ‖𝑢2 ‖ √2 1
La matriz ortogonal
1 1 −1
𝑄 = [𝑤1 𝑤2 ] = [ ]
√2 1 1
diagonaliza la matriz de rigidez:
𝜔12 0 𝑘1 0
𝐷 = 𝑄𝑇 𝐾𝑄 = [ 2] =[ 0 ]
0 𝜔2 𝑘1 + 2𝑘2
Y al cambiar de la base canónica a la base ortonormal de vectores propios, las ecuaciones del movimiento
se simplifican claramente:
𝑥 = 𝑄𝑦 𝑇
⏟ 𝑄
⏟ ∙
𝑥̈ + 𝐾𝑥 = 0 → 𝑄𝑦̈ + 𝐾𝑄𝑦 = 0 → 𝑄𝑇 𝑄𝑦̈ + 𝑄𝑇 𝐾𝑄𝑦 = 0 → 𝑦̈ + 𝐷𝑦 = 0

Es decir:
𝑦̈ 2 + 𝜔22 𝑦2 = 0
𝑦̈1 + 𝜔12 𝑦1 = 0
Se observa que al expresar los desplazamientos de las masas en la base ortonormal de vectores propios,
que se denominan coordenadas modales, las ecuaciones del movimiento se desacoplan (en cada
ecuación solo aparece una coordenada), lo que facilita mucho su resolución tanto analítica como
computacional.

Suescun, Insausti, Flaquer (2022) 334 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.11 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 8.1
Diagonalizar mediante una matriz ortogonal la siguiente matriz:
3 1 −1
𝐴=[ 1 3 −1]
−1 −1 3
Nota: se sabe que los valores propios de 𝐴 son números enteros.

Solución
El polinomio característico de 𝐴 es:
det(𝐴 − 𝜆𝐼) = −𝜆3 + 9𝜆2 − 24𝜆 + 20 = 0
Según el enunciado, los valores propios son números enteros. Tanteando los divisores enteros del término
independiente (±1, ±2, ±4, ±5, ±10, ±20), se descubre que 2 es un valor propio. Dividiendo por 𝜆 − 2,
aplicando la regla de Ruffini por ejemplo, se descubren los otros dos. Por tanto, los valores propios de 𝐴
son:
𝜆1 = 2 (𝑚1 = 2)
{
𝜆2 = 5 (𝑚2 = 1)
Se resuelve ahora el primer subespacio propio:
1 1 −1 1 1 −1
𝐸1 ≡ (𝐴 − 𝜆1 𝐼)𝑥 = 0 → [ 1 1 −1 ] ~ [ 0 0 0]
−1 −1 1 0 0 0
𝛼1 = −𝜖1 + 𝜖2 −1 1
→ { 𝛼2 = 𝜖1 → 𝐵𝐸1 = 𝑥1 = [ 1 ] , 𝑥2 = [ 0]
𝛼3 = 𝜖 2 0 1
Para transformar la base obtenida en una base ortonormal, se aprovecha que los dos vectores propios
son de igual norma:

𝑥1 + 𝑥2 1 0 𝑥1 − 𝑥2 1 −2
𝑤1 = = [ 1 ] 𝑤2 = = [ 1]
‖𝑥1 + 𝑥2 ‖ √2 ‖𝑥1 − 𝑥2 ‖ √6
1 −1
→ 𝑏𝐸1 = 𝑤1 , 𝑤2
El segundo subespacio propio es de dimensión unidad:
−2 1 −1 0 0 0
𝐸2 ≡ (𝐴 − 𝜆2 𝐼)𝑥 = 0 → [ 1 −2 −1 ] ~ [ 1 0 1 ]
−1 −1 −2 0 1 1
𝛼1 = −𝜖3 −1 1 −1
→ { 𝛼2 = −𝜖3 → 𝐵𝐸2 = 𝑥3 = [−1 ] → 𝑏𝐸2 = 𝑤3 = [−1 ]
𝛼3 = 𝜖3 1 √3 1
Y por tanto las matrices 𝐷 y 𝑄 son:
−2 −1
0
√6 √3
2 0 0 1 1 −1
𝐷 = [0 2 0] 𝑄 = [𝑤1 𝑤2 𝑤3 ] =
0 0 5 √2 √6 √3
1 −1 1
[ √2 √6 √3 ]

Suescun, Insausti, Flaquer (2022) 335 Tecnun-Universidad de Navarra


8.11 Ejercicios resueltos 8 Diagonalización de Matrices Normales

Ejercicio 8.2
Diagonalizar mediante una matriz ortogonal real la siguiente matriz:
1 −1 −1
𝐴 = [−1 1 −1]
−1 −1 1

Solución
Hallamos primero los valores propios:
1−𝜆 −1 −1 −1 − 𝜆 −1 − 𝜆 −1 − 𝜆
det(𝐴 − 𝜆𝐼) = det [ −1 1−𝜆 −1 ] = det [ −1 1−𝜆 −1 ]
−1 −1 1−𝜆 −1 −1 1−𝜆
1 1 1 1 1 1
= −(1 + 𝜆)det [−1 1 − 𝜆 −1 ] = −(1 + 𝜆)det [ 0 2 − 𝜆 0 ]
−1 −1 1−𝜆 0 0 2−𝜆
𝜆 = 2 (𝑑𝑜𝑏𝑙𝑒)
= −(1 + 𝜆)(2 − 𝜆)2 = 0 → { 1
𝜆2 = −1
Para encontrar la matriz ortogonal se determina una base ortonormal de vectores propios en cada
subespacio.
−1 −1 −1 1 1 1
𝐸1 ≡ (𝐴 − 𝜆1 𝐼)𝑥 = 0 → [ −1 −1 −1 ] ~ [ 0 0 0]
−1 −1 −1 0 0 0
𝛼1 = −𝜖1 − 𝜖2 −1 −1
→ { 𝛼2 = 𝜖1 → 𝐵𝐸1 = 𝑥1 = [ 1 ] , 𝑥2 = [ 0]
𝛼3 = 𝜖 2 0 1
Para transformar la base obtenida en una base ortonormal, se puede usar Gram-Schmidt obteniendo

1 −1 1 −1
𝑤1 = [ 1 ] , 𝑤2 = [−1 ]
√2 0 √6 2
→ 𝑏𝐸1 = 𝑤1 , 𝑤2
El segundo subespacio propio es de dimensión unidad:
2 −1 −1 0 0 0
𝐸2 ≡ (𝐴 − 𝜆2 𝐼)𝑥 = 0 → [ −1 2 −1 ] ~ [ 1 0 −1 ]
−1 −1 2 0 1 −1
𝛼1 = 𝜖3 1 1 1
→ { 𝛼2 = 𝜖3 → 𝐵𝐸2 = 𝑥3 = [ 1 ] → 𝑏𝐸2 = 𝑤3 = [1]
𝛼3 = 𝜖 3 1 √3 1
Por tanto la matriz 𝑄 ortogonal que diagonaliza 𝐴 y la matriz diagonal 𝐷 son:
−1 −1 1
√2 √6 √3
1 −1 1 2 0 0
𝑄 = [𝑤1 𝑤2 𝑤3 ] = 𝐷 =[0 2 0]
√2 √6 √3 0 0 −1
2 1
0
[ √6 √3 ]

Ejercicio 8.3
Hallar una matriz cuadrada real y simétrica de orden 2 de la que se sabe que su determinante vale 6 y que
𝑥1 es un vector propio asociado al valor propio 𝜆1 , siendo:
1
𝑥1 = [ ], 𝜆1 = 2
2

Suescun, Insausti, Flaquer (2022) 336 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.11 Ejercicios resueltos

Solución
Por ser 𝐴 real y simétrica, la matriz 𝐴 es diagonalizable mediante una matriz ortogonal y se puede calcular
con la siguiente fórmula
𝐴 = 𝑄𝐷𝑄𝑇
Para construir las matrices 𝐷 y 𝑄 se deben resolver los dos subespacios propios de la matriz 𝐴. El segundo
valor propio se calcula así:
det 𝐴 = 6 = 𝜆1 𝜆2 → 𝜆2 = 3
Y, por tanto:
2 0
𝐷=[ ]
0 3
El segundo subespacio propio es ortogonal al primero, siendo ambos de dimensión unidad. Por tanto
cualquier vector ortogonal a 𝑥1 es un vector propio del segundo subespacio propio:
−2
𝑥2 = [ ] ∈ 𝐸2
1
Dividiendo ambos vectores por sus normas, se obtienen las bases ortonormales en ambos subespacios:
1 1 1 −2
𝑏𝐸1 = 𝑤1 = [ ] 𝑏𝐸2 = 𝑤2 = [ ]
√5 2 √5 1
y la matiz 𝑄:
1
1 −2
𝑄 = [𝑤1 𝑤2 ] = [ ]
√5 2 1
Finalmente:
1 14 −2
𝐴 = 𝑄𝐷𝑄𝑇 = [ ]
5 −2 11
Nota: La matriz 𝐴 también se puede calcular con la fórmula 𝐴 = 𝑆𝐷𝑆 −1, siendo 𝑆 = [𝑥1 𝑥2 ].

Ejercicio 8.4
Hallar la matriz singular, real y simétrica 𝐴 de orden 2 de la que se conoce que su traza vale 2 y un vector
propio asociado a su valor propio mayor es:
1
[ ]
1

Solución
Al ser singular, un valor propio vale 0. El otro se deduce de la traza:
𝜆1 = 0 𝑡𝑟𝑎𝑧𝑎(𝐴) = 𝜆1 + 𝜆2 = 2 → 𝜆2 = 2
Comenzando por el segundo subespacio propio, el siguiente vector es una base ortonormal:
1 1
𝑤2 = [ ]
√2 1
El primer subespacio propio es ortogonal al segundo y también de dimensión unidad por lo que el
siguiente vector es una base ortonormal:
11
𝑤1 = [ ]
√2 −1
La matriz 𝐴 se puede calcular mediante la fórmula 𝐴 = 𝑄𝐷𝑄𝑇 , construyendo las matrices

Suescun, Insausti, Flaquer (2022) 337 Tecnun-Universidad de Navarra


8.11 Ejercicios resueltos 8 Diagonalización de Matrices Normales

1 1
√2 √2 0 0
𝑄 = [𝑤1 𝑤2 ] = 𝐷=[ ]
−1 1 0 2
[ √2 √2 ]
1 1
La matriz 𝐴 es finalmente 𝐴 = [ ].
1 1

Ejercicio 8.5
Hallar la matriz real y simétrica 𝐴 de orden tres de la que se sabe que los siguientes tres
vectores
1 −1 1
𝑥1 = [ 1 ] 𝑥2 = [ −1 ] 𝑥3 = [ −1 ]
2 1 0
son vectores propios asociados a los valores propios 3, 6 y 9 respectivamente.

Solución
La matriz buscada se puede calcular con la siguiente fórmula 𝐴 = 𝑄𝐷𝑄𝑇 , siendo 𝐷 la matriz diagonal de
los valores propios
3 0 0
𝐷 =[0 6 0]
0 0 9
y 𝑄 una matriz ortogonal cuyas columnas son una base ortonormal de vectores propios. Los vectores del
enunciado deben ser, lógicamente, ortogonales y de hecho lo son, aunque no de norma unidad.
Dividiéndolos por sus respectivas normas se obtiene una base ortonormal:

𝑥1 1 1
𝑤1 = = [ 1 ]
‖𝑥1 ‖ √6
2
𝑥2 1 −1
𝑤2 = = [ −1 ]
‖𝑥2 ‖ √3
1
𝑥3 1 1
𝑤3 = = [ −1 ]
‖𝑥3 ‖ √2
0
La matriz ortogonal 𝑄 es por tanto:
1 −1 1
√6 √3 √2
1 −1 −1
𝑄 = [𝑤1 𝑤2 𝑤3 ] =
√6 √3 √2
2 1
0
[ √6 √3 ]
Y, tras hacer las operaciones, la matriz buscada es:
7 −2 −1
𝐴 = 𝑄𝐷𝑄𝑇 = [ −2 7 −1 ]
−1 −1 4

Ejercicio 8.6
De una matriz 𝐴 singular y simétrica de orden 4 se conoce que posee un valor propio 𝜆1 = 1. Del
subespacio propio asociado a este valor propio se conoce la siguiente base:
1 −1 −1
1 1 1
𝐵𝐸1 = [ ] ,[ ] ,[ ]
1 1 −1
1 −1 1

Suescun, Insausti, Flaquer (2022) 338 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.11 Ejercicios resueltos

Hallar la matriz 𝐴.

Solución
Para poder calcular 𝐴 usando la fórmula 𝐴 = 𝑄𝐷𝑄𝑇 , es necesario averiguar el otro valor propio de la
matriz y encontrar una base ortonormal de vectores propios para construir las matrices 𝐷 y 𝑄
respectivamente.
Por ser singular, el otro valor propio de la matriz 𝐴 es 𝜆2 = 0.
La matriz diagonal 𝐷 es :
1 0 0 0
0 1 0 0
𝐷=[ ]
0 0 1 0
0 0 0 0
Los vectores base del primer subespacio son ortogonales entre sí, por lo que una base ortonormal se
obtiene sin más que dividirlos por su norma:
1 −1 −1
1 1 1 1 1 1
𝑤1 = [ ] 𝑤2 = [ ] 𝑤3 = [ ]
2 1 2 1 2 −1
1 −1 1
El segundo subespacio propio es necesariamente de dimensión unidad y es el complemento ortogonal del
primero. Los vectores de 𝐸2 deben ser ortogonales a todos los vectores de la base de 𝐸1 :
𝛼1
〈𝑥, 𝑥1 〉 = 0 𝛼1 + 𝛼2 + 𝛼3 + 𝛼4 = 0
𝛼2
𝑥 = [𝛼 ] ∈ 𝐸2 ⟹ { 〈𝑥, 𝑥2 〉 = 0 − 𝛼1 + 𝛼2 + 𝛼3 − 𝛼4 = 0
3
𝛼4 〈𝑥, 𝑥3 〉 = 0 − 𝛼1 + 𝛼2 − 𝛼3 + 𝛼4 = 0

1 11 1 1 1 1 1 1 0 0 1
[−1 11 −1 ] ~ [ 0 1 1 0 ]~[ 0 1 0 1]
−1 1
−1 1 0 1 0 1 0 0 1−1
𝛼1 = −𝜖 −1 −1
𝛼2 = −𝜖 −1 1 1
→ 𝐸2 ≡ { 𝛼 = 𝜖 → 𝐵𝐸2 = 𝑥4 = [ ] → 𝑏𝐸2 = 𝑤4 = [ ]
3 1 2 −1
𝛼4 = 𝜖 1 1
Y por tanto la matriz 𝑄 es:
1 −1 −1 −1
1 1 1 1 −1
𝑄 = [𝑤1 𝑤2 𝑤3 𝑤4 ] = [ ]
2 1 1 −1 1
1 −1 1 1
Y la matriz buscada es:
3 −1 1 1
1 −1 3 1 1
𝐴= [ ]
4 1 1 3 −1
1 1 −1 3

Ejercicio 8.7
De una matriz simétrica 𝐴 de orden cuatro se sabe que su traza vale 8 y que tiene sólo dos subespacios
propios. De uno de ellos, el que está asociado al valor propio 𝜆1 = 1, se concoce una lista generadora:
1 1
1 0
𝑥1 = [ ] 𝑥2 = [ ]
1 −1
0 1
Hallar la matriz 𝐴.

Suescun, Insausti, Flaquer (2022) 339 Tecnun-Universidad de Navarra


8.11 Ejercicios resueltos 8 Diagonalización de Matrices Normales

Solución
Se trabaja el primer subespacio propio. Para encontrar una base ortonormal, se aprovecha que los
vectores propios 𝑥1 y 𝑥2 son linealmente independientes y de igual norma:
2 0
𝑥1 + 𝑥2 1 1 𝑥1 − 𝑥2 1 1
𝑤1 = = [ ] 𝑤2 = = [ ]
‖𝑥1 + 𝑥2 ‖ √6 0 ‖𝑥1 − 𝑥2 ‖ √6 2
1 −1
Se resuelve ahora el segundo subespacio. Del valor de la traza, y sabiendo que solo existen dos
subespacios propios, se deduce el otro valor propio:
𝑡𝑟𝑎𝑧𝑎 (𝐴) = 2𝜆1 + 2𝜆2 = 8 → 𝜆2 = 3
El segundo subespacio propio tiene dimensión dos y es el complemento ortogonal del primero:
𝛼1
𝛼2 〈𝑥, 𝑥1 〉 = 0 → 𝛼1 + 𝛼2 + 𝛼3 = 0
𝑥 = [𝛼 ] ∈ 𝐸2 ⟹ {
3 〈𝑥, 𝑥2 〉 = 0 → 𝛼1 − 𝛼3 + 𝛼4 = 0
𝛼4
1 1 1 0 1 1 1 0 1 0 −1 1
[ ]~[ ]~[ ]
1−1 0 1 0 −1 −2 1 0 1 2 −1
𝛼1 = −𝜖1 + 𝜖2 −1 1
𝛼 = 𝜖1 − 2𝜖2 1 −2
→ 𝐸2 ≡ { 2 → 𝐵𝐸2 = 𝑥3 = [ ], 𝑥4 = [ ]
𝛼3 = 𝜖2 0 1
𝛼4 = 𝜖1 1 0
Para convertir esta base en una ortonormal se aplica el método de Gram-Schmidt y se obtiene
−1 0
𝑢3 1 1 𝑢4 1 −1
𝑤3 = = [ ] 𝑤4 = = [ ]
‖𝑢3 ‖ √3 0 ‖𝑢4 ‖ √3 1
1 1
La matriz 𝐴 se puede calcular mediante la fórmula 𝐴 = 𝑄𝐷𝑄𝑇 , construyendo las matrices 𝑄 y 𝐷:
2 1
0 − 0
√6 √3
1 1 1 1

𝑄 = [𝑤1 𝑤2 𝑤3 𝑤4 ] = √6 √6 √3 √3
2 1
0 0
√6 √3
1 1 1 1

[ √6 √6 √3 √3 ]
1 0 0 0
0 1 0 0
𝐷=[ ]
0 0 3 0
0 0 0 3
La matriz 𝐴 es finalmente:
5 −2 0 −2
1 −2 7 −2 0
𝐴= [ ]
3 0 −2 5 2
−2 0 2 7

Ejercicio 8.8
Hallar los valores propios y una base ortonormal de 𝐶 2×1 formada por vectores propios de la matriz
hermítica siguiente:
1 2+𝑖
𝐴=[ ]
2−𝑖 −3

Suescun, Insausti, Flaquer (2022) 340 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.11 Ejercicios resueltos

Solución
Se calculan en primer lugar los valores propios:
1−𝜆 2+𝑖 𝜆 = −4
det(𝐴 − 𝜆𝐼) = det [ ] = 𝜆2 + 2𝜆 − 8 = 0 → { 1
2−𝑖 −3 − 𝜆 𝜆2 = 2
Se resuelven ahora los subespacios propios:
5 2+𝑖 0 0 𝛼1 = −𝜖1
𝐸1 ≡ (𝐴 − 𝜆1 𝐼)𝑥 = 0 → [ ]~[ ] → { 𝛼 = (2 − 𝑖)𝜖
2−𝑖 1 2−𝑖 1 2 1

−1 1 −1
𝐵𝐸1 = 𝑥1 = [ ] → 𝑏𝐸1 = 𝑤1 = [ ]
2−𝑖 √6 2 − 𝑖
−1 2+𝑖 −1 2+𝑖 𝛼 = (2 + 𝑖)𝜖2
𝐸2 ≡ (𝐴 − 𝜆2 𝐼)𝑥 = 0 → [ ]~[ ]→ { 1
2−𝑖 −5 0 0 𝛼2 = 𝜖 2
2+𝑖 1 2+𝑖
𝐵𝐸2 = 𝑥2 = [ ] → 𝑏𝐸2 = 𝑤2 = [ ]
1 √6 1
Por tanto, la base ortonormal de vectores propios para 𝐶 2×1 la componen los vectores:
1 −1 1 2+𝑖
𝑤1 = [ ] 𝑤2 = [ ]
√6 − 𝑖
2 √6 1

Ejercicio 8.9
Hallar la matriz hermítica 𝐴 de orden tres de la que se sabe que los tres vectores siguientes:
−𝑖 𝑖 −𝑖
𝑥1 = [ 𝑖 ] 𝑥2 = [ 0 ] 𝑥3 = [−2𝑖 ]
1 1 1
son vectores propios asociados respectivamente a sus tres valores propios 𝜆1 = 6, 𝜆2 = 0, 𝜆3 = −6.

Solución
La matriz buscada se puede calcular con la siguiente fórmula 𝐴 = 𝑈𝐷𝑈 𝐻 , siendo 𝐷 la matriz diagonal de
los valores propios
6 0 0
𝐷=[ 0 0 0]
0 0 −6
y 𝑈 una matriz unitaria cuyas columnas son una base ortonormal de vectores propios. Lógicamente, los
vectores del enunciado son ortogonales, pero no de norma unidad. Dividiéndolos por sus respectivas
normas se obtiene la base ortonormal buscada:

𝑥1 1 −𝑖
𝑤1 = = [ 𝑖 ]
‖𝑥1 ‖ √3
1
𝑥2 1 𝑖
𝑤2 = = [ 0 ]
‖𝑥2 ‖ √2
1
𝑥3 1 −𝑖
𝑤3 = = [−2𝑖 ]
‖𝑥3 ‖ √6
1
La matriz 𝑈 es por tanto:
𝑈 = [𝑤1 𝑤2 𝑤3 ]
Y, tras hacer las operaciones, la matriz hermítica buscada es:
1 −4 −𝑖
𝐴 = 𝑈𝐷𝑈 𝐻 = [−4 −2 4𝑖 ]
𝑖 −4𝑖 1

Suescun, Insausti, Flaquer (2022) 341 Tecnun-Universidad de Navarra


8.12 Ejercicios propuestos 8 Diagonalización de Matrices Normales

Ejercicios propuestos

Ejercicio 8.10
Diagonalizar mediante una matriz ortogonal real la siguiente matriz:
1 1 0
𝐴 = [1 0 −1]
0 −1 −1

Ejercicio 8.11
Diagonalizar mediante una matriz ortogonal real la siguiente matriz:
−1 0 2
𝐴=[ 0 1 0]
2 0 −1

Ejercicio 8.12
Diagonalizar mediante una matriz ortogonal real la siguiente matriz:
1 1 1 1
1 1 1 1
𝐴=[ ]
1 1 1 1
1 1 1 1

Ejercicio 8.13
Diagonalizar mediante una matriz ortogonal la siguiente matriz cuadrada de orden 𝑛:
1 1 ⋯ 1
1 1 ⋯ 1
𝐴=[ ]
⋯ ⋯ ⋯ ⋯
1 1 ⋯ 1

Ejercicio 8.14
Hállese una matriz 𝐴 real y simétrica de orden dos que tenga como valores propios distintos los escalares
reales no nulos 𝑝 y 𝑞, a los que les corresponde como vectores propios las columnas 𝑥1 y 𝑥2
respectivamente, siendo:
𝑝 −𝑞
𝑥1 = [ ] 𝑥2 = [ ]
𝑞 𝑝

Ejercicio 8.15
Hallar una matriz cuadrada real y simétrica de orden 3 cuyos valores propios sean 1, 2 y 3 y tenga los
siguiente vectores propios asociados a sus dos primeros valores propios:
1 1
𝑥1 = [ 1 ] 𝑥2 = [−1]
0 0

Ejercicio 8.16
Los valores propios de una matriz 𝐴 real y simétrica de orden 3 tres valen 3, 1 y 1. Hallar 𝐴, sabiendo que
los vectores
1 0
[1] , [1]
0 1
generan un subespacio propio de 𝐴.

Suescun, Insausti, Flaquer (2022) 342 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.12 Ejercicios propuestos

Ejercicio 8.17
Hallar la matriz 𝐴 real y simétrica de orden 4 de la que se sabe que sus valores propios son dobles y valen
−2 y 4. Se conocen también dos vectores generadores del subespacio propio asociado al valor propio −2:
0 1
0 1
𝑥1 = [ ] 𝑥2 = [ ]
1 0
1 0

Ejercicio 8.18
Hallar una matriz real y simétrica cuyos valores propios sean 0, 1, 2 y tenga como vectores propios
asociados a los dos primeros valores propios:
1 1
𝑥1 = [ 1 ] , 𝑥2 = [−1 ]
0 0

Ejercicio 8.19: De una matriz cuadrada real y simétrica 𝑨 de orden tres se sabe que el valor de su determinante
es 30, que uno de sus valores propios vale 2, y que la suma de los otros valores propios vale 8. Hallar los
valores propios desconocidos de 𝑨 y su polinomio característico.

Ejercicio 8.20
Demostrar que los valores propios de una matriz antihermítica son números imaginarios puros.

Ejercicio 8.21
Determinar cómo son los valores propios de una matriz ortogonal real de orden 𝑛.

Ejercicio 8.22
¿Cómo son los valores propios de una matriz unitaria de orden 𝑛? Justifique su respuesta.

Ejercicio 8.23
Demostrar que el determinante de una matriz definido-positiva no puede ser negativo.

Ejercicio 8.24
Demostrar que el determinante de una matriz antisimétrica real no puede ser negativo.

Ejercicio 8.25
Demostrar que el determinante de una matriz semidefinido-positiva o semidefinido-negativa es nulo.

Ejercicio 8.26
Dar un ejemplo de matriz hermítica con determinante negativo.

Ejercicio 8.27
Describir los valores propios de una matriz de Householder.

Ejercicio 8.28
Calcular el determinante de una matriz ortogonal real y el de una matriz unitaria.

Ejercicio 8.29
Obtener la descomposición 𝑆𝑉𝐷 de la siguiente matriz:
0 1 1
𝐴=[ ]
1 1 0

Suescun, Insausti, Flaquer (2022) 343 Tecnun-Universidad de Navarra


8.12 Ejercicios propuestos 8 Diagonalización de Matrices Normales

Ejercicio 8.30
Obtener la descomposición 𝑆𝑉𝐷 de la siguiente matriz:
−4 −6
𝐴=[ ]
3 −8

Ejercicio 8.31
Obtener la descomposición 𝑆𝑉𝐷 de la siguiente matriz:
0 3 4
𝐴 = [3 0 0]
4 0 0

Ejercicio 8.32
Se conoce la descomposición en valores singulares de una cierta matriz 𝐴:
1 0 0 0
1 −1
0 0 1 0 0
√2 √2 2 0 0 0 1 −1
𝑈= 0 0 1 , Σ = [0 1 0 0] , 𝑉= 0 0
1 1 √2 √2
0 0 0 0 1 1
0
[√2 √2 ] 0 0
[ √2 √2 ]
Sin calcular la matriz 𝐴, se pide hallar:
▪ El rango de 𝐴.
▪ Todos los valores propios de 𝐴⊤ 𝐴, con su correspondiente multiplicidad algebraica.
▪ Una base ortonormal del núcleo de 𝐴.
▪ La mejor aproximación de 𝐴 mediante una matriz de rango 1.

Ejercicio 8.33
Se conoce la descomposición en valores singulares de una cierta matriz 𝐴:
1 −1
0 0
√2 √2
1 −1
0 1 1
√2 √2 2 0 0 0 0 0
𝑈= 0 0 1 , Σ = [0 1/3 0 0] , 𝑉 = √2 √2
1 1 1 −1
0 0 0 0 0 0
0 √2 √2
[√2 √2 ]
1 1
0 0
[ √2 √2 ]
Sin calcular la matriz 𝐴, se pide hallar:
▪ El rango de 𝐴.
▪ El tamaño de 𝐴.
▪ Todos los valores propios de 𝐴⊤ 𝐴, con su correspondiente multiplicidad algebraica.
▪ Una base ortonormal de la imagen de 𝐴.
▪ La mejor aproximación de 𝐴 mediante una matriz de rango 1.

Ejercicio 8.34
Sea 𝐴 la siguiente matriz:
3 2 2
𝐴=[ ]
2 3 −2

Suescun, Insausti, Flaquer (2022) 344 Tecnun-Universidad de Navarra


8 Diagonalización de Matrices Normales 8.12 Ejercicios propuestos

De la descomposición en valores singulares de 𝐴 se conoce que 𝜎1 = 5 y 𝜎2 = 3 son valores singulares de


𝐴 y que
1 1

𝑈 = √2 √2 .
1 −1
[√2 √2 ]
Se pide calcular lo siguiente:
▪ Matriz Σ.
▪ Mejor aproximación de 𝐴 mediante una matriz de rango 1.
▪ Base ortonormal de la imagen de 𝐴⊤ .
▪ Matriz 𝑉.

Ejercicio 8.35
Sea 𝐴 la siguiente matriz:
3 2 2
𝐴=[ ]
2 3 −2
De la descomposición en valores singulares de 𝐴 se conoce que 𝜎1 = 5 y 𝜎2 = 3 son valores singulares de
𝐴 y que las dos primeras columnas de 𝑉 son

1 1 11
[ 1] , [−1]
√2 0 3√2 4
Se pide calcular lo siguiente:
▪ Matriz V.
▪ Mejor aproximación de 𝐴 mediante una matriz de rango 1.
▪ Base ortonormal de la imagen de 𝐴.

Ejercicio 8.36
Demostrar que los valores propios no nulos de 𝐴𝑇 𝐴 coinciden con los de 𝐴𝐴𝑇 , siende 𝐴 una matriz
cualquiera de tamaño 𝑚 × 𝑛.

Ejercicio 8.37
Sea 𝐴 una matriz real y simétrica de orden 𝑛. Demostrar que sus valores propios en valor absoluto
coinciden con sus valores singulares.

Suescun, Insausti, Flaquer (2022) 345 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙 = 𝒃

Cuando 𝐴 es una matriz regular, el sistema de ecuaciones lineales 𝐴𝑥 = 𝑏 es siempre compatible y


determinado, y su única solución se expresa elegantemente como 𝑥0 = 𝐴−1 𝑏, aunque, en la práctica,
es siempre más eficiente hallar la solución con el método de Gauss. No obstante, cuando se lleva a la
práctica, el propio método de Gauss presenta varios problemas numéricos que se estudian en este
capítulo.

Además, se plantea la cuestión de encontrar una fórmula similar para sistemas de ecuaciones cuya
matriz 𝐴 no sea regular o ni siquiera cuadrada. Tal sistema de ecuaciones podría ser compatible
determinado, pero también podría ser incompatible o compatible indeterminado. Cuando un sistema
no tenga solución, será interesante encontrar la columna 𝑥 que menos incumpla las ecuaciones en una
determinada métrica. Es lo que se conoce como la mejor no solución, o solución de mínimos cuadrados.
Cuando un sistema tiene infinitas soluciones, encontrar la menor de ellas (en una determinada métrica)
resulta de gran utilidad en muchos problemas prácticos de optimización.

El capítulo termina con la matriz pseudoinversa 𝐴+ , que permite encontrar la solución de mínimos
cuadrados y/o de mínima norma con la sorprendente fórmula 𝑥 ∗ = 𝐴+ 𝑏.

Suescun, Insausti, Flaquer (2022) 346 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.1 Norma espectral

Norma espectral

Sea 𝐴 una matriz cualquiera de tamaño 𝑚 × 𝑛. La norma espectral de 𝐴 se define como


‖𝐴𝑥‖
‖𝐴‖2 = max
𝑥≠0 ‖𝑥‖
Obsérvese que la norma espectral de una matriz columna 𝑦 ∈ 𝑅𝑛×1 coincide con la norma inducida por
el producto escalar ordinario (norma Euclídea). En efecto,

‖𝑦𝑥‖ 𝑥 𝑇 𝑦 𝑇 𝑦𝑥 𝑥 2𝑦𝑇 𝑦
‖𝑦‖2 = max = max√ 𝑇 = max√ 2 = √𝑦 𝑇 𝑦 = ‖𝑦‖
𝑥≠0 ‖𝑥‖ 𝑥≠0 𝑥 𝑥 𝑥≠0 𝑥

Se muestra a continuación que la norma espectral cumple las condiciones para ser una norma en el
espacio de matrices.

Proposición 9.1
Enunciado: Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛. Entonces ‖𝐴‖2 cumple las condiciones para ser una
norma:
1) ‖𝐴‖2 ≥ 0
2) ‖𝐴‖2 = 0 si y sólo si 𝐴 = 0
3) ‖𝛼𝐴‖2 = |𝛼|‖𝐴‖2 para todo escalar 𝛼
4) ‖𝐴 + 𝐵‖2 ≤ ‖𝐴‖2 + ‖𝐵‖2 para toda matriz 𝐵 de tamaño 𝑚 × 𝑛.
Demostración:
1) Trivial, por la definición.
2) Por un lado, si 𝐴 = 0 entonces ‖𝐴𝑥‖ = 0 para cualquier columna 𝑥, y por tanto, ‖𝐴‖2 = 0. Por
otro lado, si ‖𝐴‖2 = 0, ‖𝐴𝑥‖ = 0 para toda columna 𝑥 y esto implica que 𝐴 = 0.
‖𝛼𝐴𝑥‖ ‖𝐴𝑥‖ ‖𝐴𝑥‖
3) ‖𝛼𝐴‖2 = max ‖𝑥‖
= max |𝛼| ‖𝑥‖
= |𝛼| max = |𝛼|‖𝐴‖2 .
𝑥≠0 𝑥≠0 𝑥≠0 ‖𝑥‖
‖(𝐴+𝐵)𝑥‖ ‖𝐴𝑥+𝐵𝑥‖ ‖𝐴𝑥‖ ‖𝐵𝑥‖ ‖𝐴𝑥‖ ‖𝐵𝑥‖
4) ‖𝐴 + 𝐵‖2 = max ‖𝑥‖
= max ‖𝑥‖
≤ max ( ‖𝑥‖ + ‖𝑥‖
) ≤ max + max
𝑥≠0 𝑥≠0 𝑥≠0 𝑥≠0 ‖𝑥‖ 𝑥≠0 ‖𝑥‖

= ‖𝐴‖2 + ‖𝐵‖2 .

La norma espectral cumple además con la propiedad submultiplicativa que se muestra a continuación.

Proposición 9.2 (Propiedad submultiplicativa)


Enunciado: Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛 y 𝐵 una matriz de tamaño 𝑛 × 𝑝 Entonces
‖𝐴𝐵‖2 ≤ ‖𝐴‖2 ‖𝐵‖2
Demostración: En primer lugar, para cualquier matriz columna 𝑦 ∈ 𝑅𝑛×1 se tiene
‖𝐴𝑥‖ ‖𝐴𝑦‖
‖𝐴‖2 = max ≥ → ‖𝐴𝑦‖ ≤ ‖𝐴‖2 ‖𝑦‖
𝑥≠0 ‖𝑥‖ ‖𝑦‖
Entonces,
‖𝐴𝐵𝑥‖ ‖𝐴‖2 ‖𝐵𝑥‖ ‖𝐵𝑥‖
‖𝐴𝐵‖2 = max ≤ max = ‖𝐴‖2 max = ‖𝐴‖2 ‖𝐵‖2
𝑥≠0 ‖𝑥‖ 𝑥≠0 ‖𝑥‖ 𝑥≠0 ‖𝑥‖

Suescun, Insausti, Flaquer (2022) 347 Tecnun-Universidad de Navarra


9.1 Norma espectral 9 Dificultades al resolver 𝑨𝒙=𝒃

Desde un punto de vista práctico, calcular la norma espectral de una matriz partiendo de la definición no
resulta práctico. La siguiente proposición nos da una forma práctica para calcular la norma espectral y se
basa en la descomposición en valores singulares

Proposición 9.3
Enunciado: Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛. Entonces
‖𝐴‖2 = 𝜎1 (𝐴)
donde 𝜎1 (𝐴) es el valor singular más grande de 𝐴.
Demostración: Se muestra en primer lugar que la norma inducida por el producto escalar ordinario es
unitariamente invariante. Es decir, si 𝑈 es una matriz ortogonal real, entonces para cualquier matriz
columna 𝑥

‖𝑈𝑥‖ = √(𝑈𝑥)𝑇 (𝑈𝑥) = √𝑥 𝑇 𝑈 𝑇 𝑈𝑥 = √𝑥 𝑇 𝐼𝑥 = √𝑥 𝑇 𝑥 = ‖𝑥‖


Sea 𝐴 = 𝑈𝑆𝑉 𝑇 la descomposición en valores singulares de 𝐴. Entonces, por un lado
‖𝐴𝑥‖ ‖𝑈𝑆𝑉 𝑇 𝑥‖ ‖𝑆𝑉 𝑇 𝑥‖ ‖𝑆𝑦‖ ‖𝑆𝑦‖
‖𝐴‖2 = max = max = max = max = max
𝑥≠0 ‖𝑥‖ 𝑥≠0 ‖𝑥‖ 𝑥≠0 ‖𝑥‖ 𝑦≠0 ‖𝑉𝑦‖ 𝑦≠0 ‖𝑦‖
(𝑆𝑦)𝑇 (𝑆𝑦) 𝑦 𝑇 𝑆 𝑇 𝑆𝑦 𝜎12 𝑦12 + ⋯ + 𝜎𝑛2 𝑦𝑛2
= max √ = max √ = max √
𝑦≠0 𝑦𝑇 𝑦 𝑦≠0 𝑦𝑇 𝑦 𝑦≠0 𝑦12 + ⋯ + 𝑦𝑛2

𝜎12 (𝑦12 + ⋯ + 𝑦𝑛2 )


≤ max √ = √𝜎12 = 𝜎1
𝑦≠0 𝑦12 + ⋯ + 𝑦𝑛2

donde se ha considerado 𝑦 = [𝑦1 𝑦2 … 𝑦𝑛 ]𝑇 . Obsérvese que por otro lado 𝑦 = [1 0 … 0]𝑇 hace que
‖𝑆𝑦‖
‖𝑦‖
= 𝜎1 , y por tanto,

‖𝐴𝑥‖
‖𝐴‖2 = max = 𝜎1 (𝐴)
𝑥≠0 ‖𝑥‖

Empleando la última proposición, es sencillo el cálculo de la norma espectral como se muestra en el


siguiente ejemplo.

Ejemplo 9.1
Se pretende calcular la norma espectral de la matriz
1 1
𝐴 = [0 1]
0 1
En primer lugar se deben calcular los valores singulares de la matriz. Para ello, se obtiene la matriz 𝐴𝑇 𝐴 y
se calculan sus valores propios:
1 1
𝐴𝑇 𝐴 = [ ] → 𝜆1 = 2 + √2, 𝜆2 = 2 − √2
1 3
Como los valores singulares de 𝐴 son las raíces cuadradas de los valores propios de 𝐴𝑇 𝐴, se tiene que
𝜎1 = √2 + √2 y 𝜎2 = √2 − √2. Por último, la norma espectral coincide con el valor singular más grande
y, por tanto,

‖𝐴‖2 = 𝜎1 = √2 + √2

Suescun, Insausti, Flaquer (2022) 348 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.2 Análisis de estabilidad en sistemas de ecuaciones lineales

Análisis de estabilidad en sistemas de ecuaciones lineales

En esta sección suponemos que queremos resolver el sistema de ecuaciones de Cramer 𝐴𝑥 = 𝑏, donde 𝐴
es una matriz regular de orden 𝑛 y, por tanto, el sistema tiene una única solución.
Aunque los métodos de resolución de sistemas de ecuaciones (en particular el método de Gauss)
resuelven los sistemas de manera exacta, si realizamos las operaciones con una aritmética de coma
flotante en un ordenador (donde aparecen errores de redondeo) se llega a una solución aproximada. Se
va a estudiar en esta sección qué condiciones debe cumplir el sistema de ecuaciones para que los
pequeños errores de redondeo que comete un ordenador no alteren sustancialmente la solución del
sistema de ecuaciones.
Para visualizar mejor la problemática que puede surgir a la hora de resolver un sistema de ecuaciones en
un ordenador, se plantea el siguiente ejemplo.

Ejemplo 9.2
Sea el sistema de ecuaciones 𝐴𝑥 = 𝑏 con
1,2969 0,8648 0,8642
𝐴=[ ], 𝑏=[ ]
0,2161 0,1441 0,1440
Supongamos que nos dan una solución aproximada 𝑥̂:
0,9911
𝑥̂ = [ ]
−0,4870
Para saber si esta aproximación es adecuada, calculamos el residuo 𝑟 como
−0,00000001
𝑟 = 𝑏 − 𝐴𝑥̂ = [ ]
0,00000001
Puesto que el residuo es muy pequeño, 𝐴𝑥̂ es prácticamente igual a 𝑏 y, por tanto, da la impresión de que
la solución 𝑥̂ es una aproximación muy buena de la solución exacta. Sin embargo, la solución exacta de
ese sistema de ecuaciones es
2
𝑥=[ ]
−2
por lo que la solución aproximada era realmente mala, a pesar de producir un residuo muy pequeño.

El ejemplo anterior plantea un sistema de ecuaciones en el que un pequeño error de redondeo produce
un error enorme en la solución. Los sistemas de ecuaciones que sufren de este problema se dice que están
mal condicionados, y son muy problemáticos en la práctica.
En esta sección vamos a estudiar qué condiciones tiene que cumplir un sistema de ecuaciones para no
estar mal condicionado.
Comenzamos estudiando el efecto que tiene en la solución de un sistema una pequeña perturbación en
la columna de términos independientes. Es decir, suponemos una pequeña perturbación 𝛿𝑏 en la columna
de términos independientes 𝑏, y estudiamos la perturbación 𝛿𝑥 que se produce en la solución 𝑥:
𝐴(𝑥 + 𝛿𝑥 ) = 𝑏 + 𝛿𝑏
Como el sistema tiene solución única, 𝐴𝑥 = 𝑏 y de la ecuación anterior se obtiene 𝛿𝑥 = 𝐴−1 𝛿𝑏 . Tomando
la norma espectral en ambos lados de la igualdad y aplicando la propiedad submultiplicativa, se llega a
‖𝛿𝑥 ‖2 = ‖𝐴−1 𝛿𝑏 ‖2 ≤ ‖𝐴−1 ‖2 ‖𝛿𝑏 ‖2
Además, como 𝑏 = 𝐴𝑥, tenemos que ‖𝑏‖2 = ‖𝐴𝑥‖2 ≤ ‖𝐴‖2 ‖𝑥‖2 , y por tanto,
‖𝛿𝑥 ‖2 ‖𝐴−1 ‖2 ‖𝛿𝑏 ‖2 ‖𝐴−1 ‖2 ‖𝛿𝑏 ‖2 ‖𝛿𝑏 ‖2
≤ ≤ = ‖𝐴‖2 ‖𝐴−1 ‖2
‖𝑥‖2 ‖𝑥‖2 ‖𝑏‖2 ‖𝑏‖2
‖𝐴‖2

Suescun, Insausti, Flaquer (2022) 349 Tecnun-Universidad de Navarra


9.2 Análisis de estabilidad en sistemas de ecuaciones lineales 9 Dificultades al resolver 𝑨𝒙=𝒃

Si denotamos con 𝜅(𝐴) = ‖𝐴‖2 ‖𝐴−1 ‖2 y tenemos en cuenta que la norma espectral de una matriz
columna coincide con la norma Euclídea, concluimos que
‖𝛿𝑥 ‖ ‖𝛿𝑏 ‖
≤ 𝜅(𝐴)
‖𝑥‖ ‖𝑏‖
El número 𝜅(𝐴) = ‖𝐴‖2 ‖𝐴−1 ‖2 se conoce como el número de condición de la matriz 𝐴 y representa la
amplificación que tiene una pequeña perturbación en la columna de términos independientes en la
solución del sistema. Si 𝜅(𝐴) es cercano a 1, se dice que la matriz (y el sistema de ecuaciones) está bien
condicionado ya que una pequeña variación en 𝑏 produce una variación también pequeña en la solución.
Sin embargo, si 𝜅(𝐴) es un número mucho mayor que 1, significa que una pequeña variación en 𝑏 puede
producir una gran variación en la solución. En este caso decimos que la matriz (y el sistema de ecuaciones
asociado) están mal condicionados.
Ahora vamos a estudiar el efecto que tiene en la solución una pequeña perturbación Δ𝐴 producida sobre
la matriz de coeficientes del sistema 𝐴:
(𝐴 + Δ𝐴 )(𝑥 + 𝛿𝑥 ) = 𝑏
De aquí se obtiene 𝛿𝑥 = −𝐴−1 Δ𝐴 (𝑥 + 𝛿𝑥 ) y por la propiedad submultiplicativa de la norma espectral
‖𝛿𝑥 ‖2 = ‖−𝐴−1 Δ𝐴 (𝑥 + 𝛿𝑥 )‖2 ≤ ‖𝐴−1 ‖2 ‖Δ𝐴 ‖2 ‖𝑥 + 𝛿𝑥 ‖2
que podemos reescribir como
‖𝛿𝑥 ‖2 ‖Δ𝐴 ‖2
≤ ‖𝐴−1 ‖2 ‖Δ𝐴 ‖2 = ‖𝐴‖2 ‖𝐴−1 ‖2
‖𝑥 + 𝛿𝑥 ‖2 ‖𝐴‖2
es decir,
‖𝛿𝑥 ‖ ‖Δ𝐴 ‖2
≤ 𝜅(𝐴)
‖𝑥 + 𝛿𝑥 ‖ ‖𝐴‖2
Por tanto, las perturbaciones que tenemos en la solución debidas a una perturbación en la matriz de
coeficientes también se cuantifican con el número de condición.

Ejemplo 9.3
Vamos a analizar el número de condición de la matriz del ejemplo anterior. La matriz del sistema era
1,2969 0,8648
𝐴=[ ]
0,2161 0,1441
El número de condición de la matriz es 𝜅(𝐴) = 2,497 · 108 , por lo que la matriz (y el sistema de
ecuaciones asociado) están mal condicionados. Esto justifica el resultado obtenido en el ejemplo anterior.

Si se observa la expresión del número de condición, 𝜅(𝐴) = ‖𝐴‖2 ‖𝐴−1 ‖2 , parece que para calcularlo hay
que obtener primero la inversa de 𝐴. Si esto fuera así, habría serias dificultades para calcular el número
de condición de matrices mal condicionadas. La siguiente proposición muestra una forma práctica y
numéricamente estable de calcular el número de condición. En particular, se demuestra que el número
de condición de una matriz es el cociente entre el valor singular más grande y más pequeño de esa matriz.

Proposición 9.4
Enunciado: Sea 𝐴 una matriz regular de orden 𝑛. Entonces
𝜎1 (𝐴)
𝜅(𝐴) =
𝜎𝑛 (𝐴)
donde 𝜎1 (𝐴) y 𝜎𝑛 (𝐴) son los valores singulares más grande y más pequeño de 𝐴, respectivamente.
Demostración: Sea 𝐴 = 𝑈𝑆𝑉 𝑇 la descomposición en valores singulares de 𝐴. Por ser 𝐴 regular, 𝑆 es
también regular y, por tanto, 𝐴−1 = 𝑉𝑆 −1 𝑈 𝑇 es la descomposición en valores singulares de 𝐴−1 , donde

Suescun, Insausti, Flaquer (2022) 350 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃9.3 Resolución numérica de sistemas de ecuaciones lineales bien condicionados: El método de Gauss
con pivotamiento parcial

1
0 ⋯ 0
𝜎1 (𝐴)
1
𝑆 −1 = 0 ⋯ 0
𝜎2 (𝐴)
⋮ ⋮ ⋱ ⋮
1
0 0 ⋯
[ 𝜎𝑛 (𝐴)]
1 1 1 1
Entonces ‖𝐴−1 ‖2 = 𝜎1 (𝐴−1 ) = max ( , ,…, )= . Por tanto,
𝜎1 (𝐴) 𝜎2 (𝐴) 𝜎𝑛 (𝐴) 𝜎𝑛 (𝐴)

𝜎1 (𝐴)
𝜅(𝐴) = ‖𝐴‖2 ‖𝐴−1 ‖2 = 𝜎1 (𝐴)𝜎1 (𝐴−1 ) =
𝜎𝑛 (𝐴)

Aunque no es una frontera estricta, decimos que el sistema de ecuaciones 𝐴𝑥 = 𝑏 está bien condicionado
cuando su número de condición 𝜅(𝐴) < 1000. Cuando un sistema de ecuaciones está mal condicionado,
significa que algunas ecuaciones son casi linealmente dependientes del resto y, por ello, al intentar
resolver estos sistemas mediante el método de Gauss aparecen pívots muy pequeños que, al dividir por
ellos, comprometen la estabilidad de la solución. El estudio concreto de las técnicas que se pueden
emplear para trabajar con sistemas mal condicionados daría por sí mismo como para un capítulo entero
y queda fuera del alcance de este curso.

Resolución numérica de sistemas de ecuaciones lineales bien condicionados: El método de Gauss con
pivotamiento parcial

En esta sección vamos a estudiar cómo se resuelven en la práctica los sistemas de ecuaciones compatibles
determinados bien condicionados.
Aunque un sistema de ecuaciones esté bien condicionado, cuando éste se resuelve con ordenador
empleando el método de Gauss, los errores de redondeo en el pivotamiento pueden llevarnos a
soluciones inestables numéricamente. Esto ocurre sobre todo si se seleccionan pívots cercanos a cero.
Este efecto se muestra en el siguiente ejemplo.

Ejemplo 9.4
En primer lugar resolvemos a mano con el método de Gauss el siguiente sistema de ecuaciones:
0.0001 𝛼1 + 𝛼2 = 1
{
𝛼1 + 𝛼2 = 2

0.0001 1 1 0.0001 1 1
[𝐴|𝑏]= [ | ]→[ | ]
1 1 2 0 −9999 −9998
𝛼1 ≈ 1
Obsérvese que la solución correcta del sistema es aproximadamente { .
𝛼2 ≈ 1
Supongamos ahora que lo resolvemos con un ordenador que solo es capaz de almacenar 3 dígitos
significativos de un número (es decir, sólo es capaz de representar un número con 3 dígitos, sin contar el
exponente). Este ordenador no es capaz de almacenar los números −9999 y −9998 de forma exacta.
Como ambos números tienen los mismos dígitos significativos, tras el redondeo el sistema que considera
y resuelve el ordenador es

0.0001 1 1 𝛼1 = 0
→[ | ]→{
𝛼2 = 1
0 −9990 −9990
y, como se puede observar, llega a una solución errónea. Esto no se debe a que el sistema esté mal
condicionado (en efecto, 𝜅(𝐴) = 2,6184 ≪ 1000) sino que se ha seleccionado un pívot demasiado
pequeño.

Suescun, Insausti, Flaquer (2022) 351 Tecnun-Universidad de Navarra


9.3 Resolución numérica de sistemas de ecuaciones lineales bien condicionados: El método de Gauss con pivotamiento parcial 9
Dificultades al resolver 𝑨𝒙=𝒃

Para evitar los problemas numéricos del ejemplo anterior, suele emplearse una estrategia conocida como
pivotamiento parcial. Esta estrategia consiste en seleccionar como pívot el elemento más grande en valor
absoluto de todos los candidatos a pívot de cada columna.

Ejemplo 9.5
Vamos a emplear la estrategia del pivotamiento parcial en el sistema del ejemplo anterior. Tenemos dos
candidatos a pívot en la primera columna, 10−4 y 1. Como |1| > |10−4 |, tomamos el 1 como pívot:
0.0001 1 1 1 1 2 1 1 2
[𝐴|𝑏]=[ | ]→[ | ]→[ | ]
1 1 2 0.0001 1 1 0 0,9999 0,9998
Una vez más, el ordenador con el que estamos trabajando no es capaz de almacenar los números 0,9999
y 0,9998. Como ambos números tienen los mismos dígitos significativos, tras el redondeo el sistema que
considera y resuelve el ordenador es

1 1 2 𝛼1 = 1
→[ | ]→{
𝛼2 = 1
0 0,999 0,999
y esta vez el ordenador obtiene una solución razonablemente correcta.

Se muestra a continuación otro ejemplo del método de Gauss con pivotamiento parcial

Ejemplo 9.6
Se pretende resolver el siguiente sistema de ecuaciones empleando el método de Gauss con pivotamiento
parcial
3 15 1 19 −9 −11 9 −11 −9 −11 9 −11
[𝐴|𝑏] =[ 6 0 4 | 10 ] → [ 6 0 4 | 10 ] → 0 −22/3 10 | 8/3
−9 −11 9 −11 3 15 1 19 [ 0 34/3 4 46/3]
−9 −11 9 −11 −9 −11 9 −11
→ 0 −22/3 10 | 8/3 → [ 0 34/3 4 | 46/3]
[ 0 34/3 4 46/3] 0 −22/3 10 8/3
−9 −11 9 −11
𝛼1 = 1
→[ 0 34/3 4 | 46/3 ] → { 𝛼2 = 1
𝛼3 = 1
0 0 214/17 214/17

El método de Gauss con pivotamiento parcial es la técnica por excelencia para resolver sistemas de
ecuaciones lineales bien condicionados. Se recuerda que para resolver un sistema con 𝑛 ecuaciones y 𝑛
incógnitas se necesitan 𝑂(𝑛3 ) operaciones. En los ordenadores comerciales actuales se pueden resolver
en un tiempo razonable sistemas con varias decenas de miles de ecuaciones e incógnitas. Sin embargo,
hoy en día es cada vez más habitual tener que resolver sistemas con miles de millones de ecuaciones e
incógnitas, especialmente al resolver numéricamente ecuaciones diferenciales en derivadas parciales y
también en el campo de la inteligencia artificial (y más en particular en redes neuronales). Estos sistemas
de ecuaciones tan grandes no se pueden resolver mediante el método de Gauss debido al elevadísimo
coste computacional. Si el tamaño de los sistemas es grande, pero razonable, se emplean métodos
iterativos como el método de Jacobi, Gauss-Seidel o Krylov. Si el tamaño del sistema de ecuaciones es tan
grande que ni siquiera se pueden aplicar los métodos iterativos (principalmente porque no es posible
almacenar en memoria la matriz de coeficientes) se emplean técnicas probabilísticas para obtener

Suescun, Insausti, Flaquer (2022) 352 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.4 Sistemas de ecuaciones incompatibles e indeterminados

soluciones aproximadas. Esta rama del cálculo numérico se llama álgebra lineal aleatoria (randomized
linear algebra) y queda fuera del alcance de este curso.

Sistemas de ecuaciones incompatibles e indeterminados

En las siguientes secciones se van a tratar los sistemas de ecuaciones incompatibles e indeterminados. En
particular, se van a resolver dos problemas de gran importancia práctica en ingeniería:
▪ Encontrar la mejor no solución de un sistema 𝐴𝑥 = 𝑏 incompatible (véase el apartado §9.5).
Este problema se conoce como el problema de los mínimos cuadrados.
▪ Encontrar la solución de mínima norma, la solución óptima, de un sistema 𝐴𝑥 = 𝑏 compatible
indeterminado (véase §9.6).
Los apartados §9.5 y §9.6 presentan las soluciones a los problemas citados cuando la matriz 𝐴 es de rango
máximo. En el apartado §9.7 completa la solución estudiando el caso general en que la matriz 𝐴 es
deficiente en rango. En el apartado §9.8 se presenta la matriz pseudoinversa 𝐴+ que permite unificar la
solución de mínimos cuadrados y de norma mínima para toda matriz 𝐴, cualquiera que sea su rango. La
matriz 𝐴+ permite también deducir la matriz de proyección sobre el subespacio 𝑅(𝐴), tal como se
presenta en el apartado §9.9.
Se trabajará exclusivamente con el producto escalar ordinario y matrices reales. La generalización para
matrices complejas u otros productos escalares es inmediata.

Sistemas de ecuaciones incompatibles: La solución de residuo mínimo

Sea 𝐴𝑥 = 𝑏 un sistema de ecuaciones incompatible, con 𝐴 una matriz de tamaño 𝑚 × 𝑛. Usualmente,


estos sistemas tienen más ecuaciones que incógnitas (𝑚 > 𝑛).
Ya se sabe que en un sistema incompatible, 𝑏 ∉ 𝑅(𝐴). Dado que el sistema no tiene solución, se propone
como alternativa encontrar una no solución 𝑥0 de modo de 𝐴𝑥0 esté lo más cercano a 𝑏. También se sabe
que 𝜋𝑏 , la proyección ortogonal de 𝑏 sobre 𝑅(𝐴), es el vector de 𝑅(𝐴) más cercano a 𝑏. En consecuencia,
la no solución 𝑥0 buscada debe cumplir:
𝐴𝑥0 = 𝜋𝑏
La siguiente figura ilustra estas ideas:

𝑏 ∉ 𝑅(𝐴)

𝜋𝑏 − 𝑏 = 𝐴𝑥0 − 𝑏

𝜋𝑏 = 𝐴𝑥0
𝑅(𝐴)
𝐴𝑥

Figura 9.1: Representación gráfica de un sistema 𝐴𝑥 = 𝑏 incompatible. El subespacio imagen 𝑅(𝐴) alberga
todas las columnas de la forma 𝐴𝑥. Como el sistema no tiene solución, no hay ninguna columna 𝑥
que cumpla 𝐴𝑥 = 𝑏, luego 𝑏 ∉ 𝑅(𝐴). Se muestra también 𝜋𝑏 , que es el vector de 𝑅(𝐴) más cercano
a 𝑏. Debe existir alguna columna 𝑥0 tal que 𝐴𝑥0 = 𝜋𝑏 . Nótese que el vector 𝜋𝑏 − 𝑏 = 𝐴𝑥0 − 𝑏 es el
más pequeño posible.

Por lo tanto, la estrategia del método de los mínimos cuadrados consiste en reemplazar el sistema
incompatible 𝐴𝑥 = 𝑏 por el sistema 𝐴𝑥0 = 𝜋𝑏 , que siempre es compatible y cuya solución 𝑥0 es la mejor
no solución del sistema original:

Suescun, Insausti, Flaquer (2022) 353 Tecnun-Universidad de Navarra


9.5 Sistemas de ecuaciones incompatibles: La solución de residuo mínimo 9 Dificultades al resolver 𝑨𝒙=𝒃

𝐴𝑥 = 𝑏 Incompatible (∄ solución)

𝐴𝑥0 = 𝜋𝑏 Compatible (𝑥0 es solución)
Se denomina residuo al vector 𝑟 = 𝐴𝑥 − 𝑏, que evalúa el incumplimiento de las ecuaciones para una 𝑥
dada. El cuadrado de la norma del residuo es:
‖𝑟‖2 = ‖𝐴𝑥 − 𝑏‖2
La propiedades del vector proyección ortogonal, garantizan que la solución 𝑥0 minimiza la norma del
residuo. Es por ello que 𝑥0 se denomina solución de residuo mínimo:
‖𝜋𝑏 − 𝑏‖2 = ‖𝐴𝑥0 − 𝑏‖2 ≤ ‖𝐴𝑥 − 𝑏‖2 ∀𝑥 ∈ 𝑅𝑛×1
El sistema 𝐴𝑥0 = 𝜋𝑏 siempre es compatible, aunque podría tener una o infinitas soluciones 𝑥0 . Que haya
una o infinitas depende del rango de 𝐴𝑚×𝑛 :
▪ Cuando 𝑟(𝐴) = 𝑛, solo existe una solución de residuo mínimo.
▪ Cuando 𝑟(𝐴) < 𝑛, existen infinitas soluciones de residuo mínimo.
Deducción de las Ecuaciones Normales
Se ha visto anteriormente (§6.10) que el cálculo de 𝜋𝑏 requiere conocer una base ortonormal de 𝑅(𝐴),
cuya obtención necesita con frecuencia muchas operaciones. Por ello, desde un punto de vista
computacional, no es conveniente plantear el sistema 𝐴𝑥 = 𝜋𝑏 . En su lugar, se utilizan las Ecuaciones
Normales22.
Se cumple (véase la figura 9.1) que
𝐴𝑥 ⊥ (𝜋𝑏 − 𝑏) ∀𝑥

𝐴𝑥 ⊥ (𝐴𝑥0 − 𝑏) ∀𝑥

〈𝐴𝑥, 𝐴𝑥0 − 𝑏〉 = 0 ∀𝑥
y aplicando el producto escalar ordinario
(𝐴𝑥)𝑇 (𝐴𝑥0 − 𝑏) = 0 ∀𝑥

(𝑥 𝑇 𝐴𝑇 )(𝐴𝑥0 − 𝑏) = 0 ∀𝑥

𝑥 𝑇 (𝐴𝑇 𝐴𝑥0 − 𝐴𝑇 𝑏) = 0 ∀𝑥

〈𝑥, 𝐴𝑇 𝐴𝑥0 − 𝐴𝑇 𝑏〉 = 0 ∀𝑥

𝑥 ⊥ (𝐴𝑇 𝐴𝑥0 − 𝐴𝑇 𝑏) ∀𝑥
La última expresión indica que el vector (𝐴𝑇 𝑇
𝐴𝑥0 − 𝐴 𝑏) es ortogonal a cualquier vector 𝑥, por lo que
necesariamente debe ser el vector nulo:
𝐴𝑇 𝐴𝑥0 − 𝐴𝑇 𝑏 = 0 → 𝐴𝑇 𝐴𝑥0 = 𝐴𝑇 𝑏
Es decir, la no solución buscada 𝑥0 debe cumplir las siguientes ecuaciones, que reciben el nombre de
Ecuaciones Normales:
𝐴𝑇 𝐴𝑥0 = 𝐴𝑇 𝑏

22 Desde un punto de vista computacional, la resolución directa de las ecuaciones normales tampoco es recomendable

cuando la matriz 𝐴 está mal condicionada. En estos casos, la matriz 𝐴𝑇 𝐴 siempre estará peor condicionada que 𝐴 y
podría dar problemas numéricos al resolver con un computador. Alternativamente, es preferible emplear métodos
numéricos más robustos, como por ejemplo la descomposición 𝑄𝑅 de 𝐴 o su descomposición en valores singulares.
No obstante, las ecuaciones normales tienen un importante valor teórico y por ello se explican en este apartado.

Suescun, Insausti, Flaquer (2022) 354 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.5 Sistemas de ecuaciones incompatibles: La solución de residuo mínimo

Las ecuaciones normales son equivalentes a 𝐴𝑥0 = 𝜋𝑏 , esto es, tienen las mismas soluciones, y por lo
tanto, todas sus soluciones minimizan la norma del residuo. Sin embargo, tienen la ventaja de que no
requieren conocer 𝜋𝑏 .
Caso particular: matriz de rango máximo por columnas
En el caso particular en el que 𝐴 sea de rango máximo por columnas, 𝑟(𝐴) = 𝑛, se obtiene el siguiente
resultado:

Proposición 9.5
Enunciado: Si 𝑟(𝐴) = 𝑛, la matriz 𝐴𝑇 𝐴 es una matriz regular de orden 𝑛.
Demostración: Como 𝑟(𝐴) = 𝑛,
Σ𝑛
𝐴 = 𝑈[ ] 𝑉𝑇
𝑂(𝑚−𝑛)×𝑛
es la descomposición en valores singulares de 𝐴, entonces
Σ𝑛 Σ𝑛
𝐴𝑇 𝐴 = 𝑉[Σ𝑛⊤ 𝑂𝑛×(𝑚−𝑛) ]𝑈 𝑇 𝑈 [ ] 𝑉 𝑇 = 𝑉[Σ𝑛 𝑂𝑛×(𝑚−𝑛) ] [ ] 𝑉 𝑇 = 𝑉(Σ𝑛2 + 𝑂𝑛×𝑛 )𝑉 𝑇
𝑂(𝑚−𝑛)×𝑛 𝑂(𝑚−𝑛)×𝑛
= 𝑉Σ𝑛2 𝑉 𝑇 ,
que es regular por ser producto de tres matrices regulares.

Por lo tanto, las ecuaciones normales tienen una sola solución 𝑥0 :


𝐴𝑇 𝐴 𝑥 = 𝐴𝑇 𝑏
⏟ → 𝑥0 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑏
𝑟𝑒𝑔𝑢𝑙𝑎𝑟

La solución de mínimos cuadrados del sistema incompatible 𝐴𝑥 = 𝑏 es en este caso:


𝑥0 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑏

Ejemplo 9.7
El sistema de ecuaciones lineales
𝛼1 − 𝛼2 = 1
{ 𝛼1 + 𝛼2 = 2
𝛼1 + 𝛼2 = 3
carece de solución. No obstante se pretende encontrar la matriz columna 𝑥0 más cercana a una solución.
Se tiene que
1 −1 1
𝐴 = [1 1 ],𝑏 = [2 ]
1 1 3
Las ecuaciones normales 𝐴𝑇 𝐴𝑥 = 𝐴𝑇 𝑏 son en este caso
1 −1
1 1 1 3 1
𝐴𝑇 𝐴 = [ ] [1 1 ] = [ ]
−1 1 1 1 3
1 1
1
1 1 1 6
𝐴𝑇 𝑏 = [ ][ 2 ] = [ ]
−1 1 1 4
3
Nótese que 𝑟𝑎𝑛𝑔𝑜(𝐴𝑇 𝐴) = 2 por lo que se trata de un sistema de solución única. Su solución es la
solución mínimos cuadrados que minimiza el residuo, esto es minimiza el incumplimiento de las
ecuaciones. Se calcula así:

Suescun, Insausti, Flaquer (2022) 355 Tecnun-Universidad de Navarra


9.6 Sistemas de ecuaciones indeterminados: La solución de norma mínima 9 Dificultades al resolver 𝑨𝒙=𝒃

7/4
𝑥0 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑏 = [ ]
3/4
La proyección ortogonal de 𝑏 sobre 𝑅(𝐴) es:
1 −1 7/4 1
𝜋𝑏 = 𝐴𝑥0 = [1 1 ][ ] = [5/2]
3/4
1 1 5/2
Y el vector residuo mínimo es:
1 1 0
𝑟0 = 𝜋𝑏 − 𝑏 = 𝐴𝑥0 − 𝑏 = [5/2] − [2] = [ 1/2 ]
5/2 3 −1/2

Sistemas de ecuaciones indeterminados: La solución de norma mínima

Cuando el sistema de ecuaciones 𝐴𝑥 = 𝑏 es compatible indeterminado, existen infinitas soluciones y


suele ser habitual querer encontrar la solución de norma mínima. Es decir, si 𝑆𝑔 es el conjunto de todas
las soluciones del sistema 𝐴𝑥 = 𝑏, estamos interesados en hallar la solución 𝑥 ∗ ∈ 𝑆𝑔 que verifica
‖𝑥 ∗ ‖ ≤ ‖𝑥‖ ∀𝑥 ∈ 𝑆𝑔
Aunque la solución a este problema requiere el conocimiento de la matriz pseudoinversa (se abordará en
la siguiente sección), hay un caso particular que permite obtener una expresión elegante para la solución
de mínima norma:

Proposición 9.6
Enunciado: Si 𝑟(𝐴) = 𝑚, la solución de mínima norma 𝑥 ∗ del sistema de ecuaciones 𝐴𝑥 = 𝑏 es
𝑥 ∗ = 𝐴𝑇 (𝐴𝐴𝑇 )−1 𝑏
Demostración: La demostración tiene 4 pasos:
1) Probamos que 𝐴𝐴𝑇 es una matriz regular: la demostración es análoga a la demostración de la
Proposición 9.5.
2) Probamos que 𝑥 ∗ es solución de 𝐴𝑥 = 𝑏:
𝐴𝑥 ∗ = 𝐴(𝐴𝑇 (𝐴𝐴𝑇 )−1 𝑏) = (𝐴𝐴𝑇 )(𝐴𝐴𝑇 )−1 𝑏 = 𝑏
3) Probamos que 𝑥 − 𝑥 ∗ es ortogonal a 𝑥 ∗ , siendo 𝑥 una solución cualquiera de 𝐴𝑥 = 𝑏:
〈𝑥 − 𝑥 ∗ , 𝑥 ∗ 〉 = (𝑥 − 𝑥 ∗ )⊤ 𝑥 ∗ = (𝑥 − 𝑥 ∗ )⊤ 𝐴𝑇 (𝐴𝐴𝑇 )−1 𝑏
= (𝐴𝑥 − 𝐴𝑥 ∗ )⊤ (𝐴𝐴𝑇 )−1 𝑏 = (𝑏 − 𝑏)⊤ (𝐴𝐴𝑇 )−1 𝑏
=0
4) Probamos que ‖𝑥 ∗ ‖ ≤ ‖𝑥‖, siendo 𝑥 una solución cualquiera de 𝐴𝑥 = 𝑏. Para ello, se emplea el
Teorema de Pitágoras:
‖𝑥‖2 = ‖𝑥 − 𝑥 ∗ + 𝑥 ∗ ‖2 = ‖𝑥 − 𝑥 ∗ ‖2 + ‖𝑥 ∗ ‖2 ≥ ‖𝑥 ∗ ‖2

Se muestran a continuación dos ejemplos.

Ejemplo 9.8
La ecuación con tres incógnitas
{ 𝛼1 + 𝛼2 + 𝛼3 = 3
tiene infinitas soluciones. La solución que tiene menor norma es:

Suescun, Insausti, Flaquer (2022) 356 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.7 La matriz pseudoinversa o inversa generalizada

1 1 −1 1 1 1
∗ 𝑇 (𝐴𝐴𝑇 )−1
𝑥 =𝐴 𝑏 = [1] ([1 1 1] [1]) (3) = [1] 3 = [1]
3
1 1 1 1
Su norma es:
‖𝑥 ∗ ‖ = √3
Cualquier otra solución, tiene mayor norma. Por ejemplo, la columna 𝑥1 también es solución, pero tiene
mayor norma:
2
𝑥1 = [1] → ‖𝑥1 ‖ = √5
0

Ejemplo 9.9
El sistema de ecuaciones siguiente
𝛼1 − 𝛼2 + 𝛼3 = 1
{
𝛼1 + 𝛼2 − 𝛼3 = 2
tiene infinitas soluciones. La matriz del sistema es de rango dos, igual al número de filas por lo que la
solución de norma mínima viene dada por
𝑥 ∗ = 𝐴𝑇 (𝐴𝐴𝑇 )−1 𝑏
con
1 −1 1 1
𝐴=[ ] 𝑏=[ ]
1 1 −1 2
Por ser 𝐴 de rango dos, la matriz 𝐴𝐴𝑇 es regular:
1 1 1 3
1 −1 1 3 −1 1
𝐴𝐴𝑇 = [ ] [−1 1] = [ ] → (𝐴𝐴𝑇 )−1 = [ ]
1 1 −1 −1 3 8 1 3
1 −1
Y, por lo tanto, la solución de norma mínima es:
1 1 1 3/2
3 1 1 1 6
𝑥 ∗ = [−1 1] [ ] [ ] = [ 1 ] = [ 1/4 ]
8 1 3 2 4
1 −1 −1 −1/4

La matriz pseudoinversa o inversa generalizada

La matriz 𝐴+ , llamada inversa generalizada de 𝐴𝑚×𝑛 , es una matriz de tamaño 𝑛 × 𝑚 que cumple las
siguientes cuatro propiedades

Propiedades de la matriz inversa generalizada (condiciones de Penrose)


1) 𝐴 𝐴+ 𝐴 = 𝐴
2) 𝐴+ 𝐴 𝐴+ = 𝐴+
3) (𝐴+ 𝐴)𝐻 = 𝐴+ 𝐴 (𝐴+ 𝐴 es hermítica)
4) (𝐴 𝐴+ )𝐻 = 𝐴𝐴+ (𝐴𝐴+ es hermítica)

La matriz 𝐴+ recibe también el nombre de pseudoinversa o pseudoinversa de Moore-Penrose.


Sea 𝐴 una matriz real de tamaño 𝑚 × 𝑛 y rango 𝑟. Si

Suescun, Insausti, Flaquer (2022) 357 Tecnun-Universidad de Navarra


9.7 La matriz pseudoinversa o inversa generalizada 9 Dificultades al resolver 𝑨𝒙=𝒃

Σ𝑟 𝑂𝑟×(𝑛−𝑟)
𝐴 = 𝑈[ ] 𝑉𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
es la descomposición en valores singulares de 𝐴, entonces definimos 𝐴+ como
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
𝐴+ = 𝑉 [ ] 𝑈𝑇
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
El siguiente teorema muestra que 𝐴+ así definida cumple las condiciones de Penrose. También se
demuestra que no hay ninguna otra matriz que las cumpla.

Teorema 9.7 de Existencia y Unicidad


Enunciado: Para toda matriz 𝐴𝑚×𝑛 real, la única matriz 𝐴+ que cumple las cuatro condiciones de
Penrose es
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
𝐴+ = 𝑉 [ ] 𝑈𝑇
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
Demostración: En primer lugar, se comprueba que la matriz 𝐴+ satisface las cuatro condiciones de
Penrose:
Σ𝑟 𝑂𝑟×(𝑛−𝑟) Σ𝑟−1 𝑂𝑟×(𝑚−𝑟) Σ𝑟 𝑂𝑟×(𝑛−𝑟)
1) 𝐴 𝐴+ 𝐴 = 𝑈 [ ][ ][ ] 𝑉𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
Σ𝑟 𝑂𝑟×(𝑛−𝑟)
= 𝑈[ ] 𝑉𝑇 = 𝐴
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟) Σ𝑟 𝑂𝑟×(𝑛−𝑟) Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
2) 𝐴+ 𝐴 𝐴+ = 𝑉 [ ][ ][ ] 𝑈𝑇
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
= 𝑉[ ] 𝑈 𝑇 = 𝐴+
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
𝑇
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟) Σ𝑟 𝑂𝑟×(𝑛−𝑟)
3) (𝐴+ 𝐴)𝑇 = (𝑉 [ ][ ]𝑉 ) 𝑇
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
𝑇
Σ𝑟 𝑂𝑟×(𝑛−𝑟) 𝑇 Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
= 𝑉[ ] [ ] 𝑉𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
𝑇 𝑇
Σ𝑟 𝑂𝑟×(𝑛−𝑟) Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
= 𝑉[ 𝑇 𝑇
] [ 𝑇 𝑇
] 𝑉𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟) Σ𝑟 𝑂𝑟×(𝑛−𝑟)
= 𝑉[ ][ ] 𝑉 𝑇 = 𝐴+ 𝐴
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
4) Análogo a 3).
En segundo lugar, se comprueba que la matriz 𝐴+ es la única que satisface las cuatro condiciones de
Penrose. Para ello, suponemos que existe una matriz real 𝐵 que también satisface las condiciones de
Penrose. Entonces,

𝐵 = 𝐵𝐴𝐵 = 𝐵(𝐴𝐵)⊤ = 𝐵𝐵⊤ 𝐴⊤ = 𝐵𝐵⊤ (𝐴𝐴+ 𝐴)⊤ = 𝐵𝐵⊤ 𝐴⊤ 𝐴+ 𝐴⊤ = 𝐵(𝐴𝐵)⊤ (𝐴𝐴+ )⊤

= 𝐵𝐴𝐵𝐴𝐴+ = 𝐵𝐴𝐴+ = (𝐵𝐴)⊤ 𝐴+ = 𝐴⊤ 𝐵⊤ 𝐴+ = (𝐴𝐴+ 𝐴)⊤ 𝐵⊤ 𝐴+ = 𝐴⊤ 𝐴+ 𝐴⊤ 𝐵⊤ 𝐴+
+ ⊤ ⊤ + + + + + +
= (𝐴 𝐴) (𝐵𝐴) 𝐴 = 𝐴 𝐴𝐵𝐴𝐴 = 𝐴 𝐴𝐴 = 𝐴

La matriz 𝐴+ se usa tanto para resolver el problema de los mínimos cuadrados como para resolver el
problema de mínima norma. Esto se demuestra a continuación.

Suescun, Insausti, Flaquer (2022) 358 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.7 La matriz pseudoinversa o inversa generalizada

Proposición 9.8
Enunciado: Sean 𝐴𝑚×𝑛 y 𝑏𝑚×1 dos matrices reales. Entonces la columna 𝑥0∗ = 𝐴+ 𝑏 es la solución de
mínima norma de las ecuaciones normales.
Demostración: La demostración tiene 3 pasos:
1) Probamos que 𝑥0∗ es una solución de mínimos cuadrados, es decir, es solución de las ecuaciones
normales:
𝐴⊤ 𝐴𝑥0∗ = 𝐴⊤ 𝐴𝐴+ 𝑏 = 𝐴⊤ (𝐴𝐴+ )⊤ 𝑏 = (𝐴𝐴+ 𝐴)⊤ 𝑏 = 𝐴⊤ 𝑏
2) Probamos que 𝑥0 − 𝑥0∗ es ortogonal a 𝑥0∗ , siendo 𝑥0 una solución cualquiera de 𝐴⊤ 𝐴𝑥0 = 𝐴⊤ 𝑏:
〈𝑥0 − 𝑥0∗ , 𝑥0∗ 〉 = (𝑥0 − 𝑥0∗ )⊤ 𝑥0∗ = (𝑥0 − 𝑥0∗ )⊤ 𝐴+ 𝑏 = (𝑥0 − 𝑥0∗ )⊤ 𝐴+ 𝐴𝐴+ 𝑏 = (𝑥0 − 𝑥0∗ )⊤ (𝐴+ 𝐴)⊤ 𝐴+ 𝑏
⊤ ⊤
= (𝑥0 − 𝑥0∗ )⊤ 𝐴⊤ 𝐴+ 𝐴+ 𝑏 = (𝑥0 − 𝑥0∗ )⊤ 𝐴⊤ (𝐴+ 𝐴𝐴+ )⊤ 𝐴+ 𝑏 = (𝑥0 − 𝑥0∗ )⊤ 𝐴⊤ (𝐴𝐴+ )⊤ 𝐴+ 𝐴+ 𝑏
∗ ⊤ ⊤ + + ⊤ + ∗ ⊤ ⊤ ⊤ + + ⊤ +
= (𝑥0 − 𝑥0 ) 𝐴 𝐴𝐴 𝐴 𝐴 𝑏 = (𝑥0 − 𝑥0 ) (𝐴 𝐴) 𝐴 𝐴 𝐴 𝑏
⊤ ⊤ ⊤
= (𝐴⊤ 𝐴(𝑥0 − 𝑥0∗ )) 𝐴+ 𝐴+ 𝐴+ 𝑏 = (𝐴⊤ 𝑏 − 𝐴⊤ 𝑏)⊤ 𝐴+ 𝐴+ 𝐴+ 𝑏 = 0
3) Probamos que ‖𝑥0∗ ‖ ≤ ‖𝑥0 ‖, siendo 𝑥0 una solución cualquiera de 𝐴⊤ 𝐴𝑥0 = 𝐴⊤ 𝑏. Para ello, se
emplea el Teorema de Pitágoras:
‖𝑥0 ‖2 = ‖𝑥0 − 𝑥0∗ + 𝑥0∗ ‖2 = ‖𝑥0 − 𝑥0∗ ‖2 + ‖𝑥0∗ ‖2 ≥ ‖𝑥0∗ ‖2

El siguiente esquema resume la utilidad de la pseudoinversa:


• Si 𝐴𝑥 = 𝑏 es compatible determinado, entonces 𝐴+ 𝑏 es la solución del sistema.
• Si 𝐴𝑥 = 𝑏 es compatible indeterminado, entonces 𝐴+ 𝑏 es la solución del sistema con menor
norma.
• Si 𝐴𝑥 = 𝑏 es incompatible, entonces 𝐴+ 𝑏 es la columna de mínima norma que minimiza el
residuo.
Como se puede observar, gracias a la matriz pseudoinversa, se obtiene una expresión cerrada para los 3
problemas planteados: resolución de un sistema de ecuaciones, resolución del problema de mínimos
cuadrados, y obtención de la solución de mínima norma.

Expresión en forma cerrada del problema de mínimos cuadrados y mínima norma


Se recuerda que la descomposición en valores singulares de una matriz 𝐴 de rango 𝑟 se escribe como
Σ𝑟 𝑂𝑟×(𝑛−𝑟)
𝐴 = 𝑈[ ] 𝑉𝑇
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟)
Denotamos las columnas de 𝑈 y 𝑉 como
𝑉 = [ 𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ] 𝑈 = [ 𝑢1 𝑢2 … 𝑢𝑟 𝑢𝑟+1 … 𝑢𝑚 ]
Entonces, la solución de mínimos cuadrados y mínima norma está dada por
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
𝑥0∗ = 𝐴+ 𝑏 = 𝑉 [ ] 𝑈𝑇 𝑏
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
𝑢1𝑇
𝑢2𝑇
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟) ⋮
= [ 𝑣1 𝑣2 … 𝑣𝑟 𝑣𝑟+1 … 𝑣𝑛 ] [ ] 𝑢𝑟𝑇 𝑏
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟) 𝑇
𝑢𝑟+1

𝑇
[ 𝑢𝑚 ]

Suescun, Insausti, Flaquer (2022) 359 Tecnun-Universidad de Navarra


9.7 La matriz pseudoinversa o inversa generalizada 9 Dificultades al resolver 𝑨𝒙=𝒃

𝑢1𝑇 𝑟
𝑇 1
= [𝑣1 𝑣2 … 𝑣𝑟 ][ Σ𝑟−1 ] 𝑢2 𝑏 = ∑ 𝑣𝑖 𝑢𝑖𝑇 𝑏
⋮ 𝜎𝑖
𝑖=1
[𝑢𝑟𝑇 ]
Obsérvese que si la SVD es conocida, obtener la solución de mínimos cuadrados y de mínima norma
consiste en calcular esta última expresión. Este cálculo es muy poco costoso para un ordenador, ya que
en esencia se trata de calcular los productos escalares 𝑢𝑖𝑇 𝑏 para 𝑖 ∈ {1,2, … , 𝑟}.

Ejemplo 9.10
La solución de mínimos cuadrados y solución de norma mínima, del sistema 𝐴𝑥 = 𝑏 con

3√2 √2 2√2 6√2


𝐴=[ ] 𝑏=[ ]
√2 3√2 2√2 6√2
se obtiene aprovechando la descomposición en valores singulares de 𝐴, ya calculada en el ejemplo 8.4:
1/√3 −1/√2 1
1 1 1 6√2 1 −1 1 6√2
𝑥0∗ = ([ ][ ]) 1/√3 + ([ ][ ]) [ 1/√2 ] = [ 1 ]
4√3 ⏟ √2 √2 6√2 2√2 ⏟ √2 √2 6√2
=12 [ 1/√3 ] =0 0 1
La matriz 𝐴+ es:
𝑢1𝑇
𝑇
𝐴+ = [𝑣1 𝑣2 … 𝑣𝑟 ][ Σ𝑟−1 ] 𝑢2

[𝑢𝑟𝑇 ]
1/√3 −1/√2 4 −2
+
1/4√3 0 1/√2 1/√2 1
𝐴 = 1/√3 1/√2 [ ][ ]= [−2 4]
0 1/2√2 −1/√2 1/√2 12√2
[ 1/√3 0 ] 1 1

Caso particular: Expresiónes particulares de la matriz pseudoinversa


Se recuerda que la pseudoinversa de una matriz 𝐴 de rango 𝑟 se escribe como
Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
𝐴+ = 𝑉 [ ] 𝑈𝑇
𝑂(𝑛−𝑟)×𝑟 𝑂(𝑛−𝑟)×(𝑚−𝑟)
En el caso particular en el que la matriz tenga rango completo bien por filas o por columnas, se puede
encontrar una expresión alternativa de la pseudoinversa:
Caso 𝒓 = 𝒏:
Cuando el rango de la matriz 𝑟 coincide con el número de columnas 𝑛, 𝐴+ = (𝐴⊤ 𝐴)−1 𝐴⊤ . La demostración
se deja como ejercicio.

Caso 𝒓 = 𝒎:
Cuando el rango de la matriz 𝑟 coincide con el número de filas 𝑚, 𝐴+ = 𝐴⊤ (𝐴𝐴⊤ )−1 . La demostración se
deja como ejercicio.

Caso 𝒓 = 𝒏 = 𝒎:
Cuando la matriz es cuadrada y regular, 𝐴+ = 𝐴−1 . La demostración se deja como ejercicio.

Suescun, Insausti, Flaquer (2022) 360 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.8 Matriz de proyección ortogonal sobre 𝑹(𝑨)

Matriz de proyección ortogonal sobre 𝑹(𝑨)

La matriz 𝐴+ sirve también para hallar la proyección ortogonal de la columna 𝑏 sobre 𝑅(𝐴), el subespacio
imagen de 𝐴 (véanse la Figura 9.1 y la Figura 9.2).

𝑏 ∉ 𝑅(𝐴)

𝜋𝑏 = 𝐴𝑥0 = 𝐴𝑥0∗ = 𝐴𝐴+ 𝑏


𝑅(𝐴)

Figura 9.2: Al ser 𝐴𝑥 = 𝑏 un sistema incompatible, 𝑏 ∉ 𝑅(𝐴). Se sabe que 𝜋𝑏 , la proyección ortogonal de 𝑏
sobre 𝑅(𝐴), es el vector de 𝑅(𝐴) más cercano a 𝑏. Cualquier solución 𝑥0 de las ecuaciones normales,
y en particular 𝑥0∗ , lo que permite expresar 𝜋𝑏 en función de 𝐴, 𝐴+ y 𝑏.

Cualquier solución 𝑥0 de las ecuaciones normales, en particular la solución 𝑥0∗ de mínima norma, permite
calcular 𝜋𝑏 , en función de la pseudoinversa 𝐴+
𝜋𝑏 = 𝐴𝑥0 = 𝐴𝑥0∗ = 𝐴𝐴+ 𝑏
La matriz
𝑃 = 𝐴𝐴+
recibe el nombre de matriz de proyección ortogonal sobre 𝑅(𝐴). Dada la columna 𝑏 se obtiene la
proyección ortogonal de 𝑏 sobre 𝑅(𝐴) mediante
𝜋𝑏 = 𝑃𝑏
Obviamente, por ser una matriz de proyección, la matriz 𝑃 es idempotente, esto es, 𝑃2 = 𝑃. Otras
propiedades interesantes de esta matriz se investigan en los problemas del final de este capítulo.

Ejemplo 9.11
1
La proyección ortogonal de la columna 𝑏 = [2] sobre 𝑅(𝐴) siendo 𝐴 la matriz
3
1 −1
𝐴 = [1 1]
1 1
cuyo rango es 2, se puede obtener hallando primero la inversa generalizada
𝐴+ = (𝐴𝑇 𝐴)−1 𝐴𝑇
1 −1 −1
1 1 1 1 1 1
= ([ ] [1 1]) [ ]
−1 1 1 −1 1 1
1 1
1 3 −1 1 1 1
= [ ][ ]
8 −1 3 −1 1 1
1 2 1 1
= [ ]
4 −2 1 1
y luego la matriz de proyección ortogonal

1 1 −1 1 0 0
2 1 1
𝑃 = 𝐴𝐴+ = [1 1] [ ] = [0 1/2 1/2]
4 −2 1 1
1 1 0 1/2 1/2
de modo que

Suescun, Insausti, Flaquer (2022) 361 Tecnun-Universidad de Navarra


9.8 Matriz de proyección ortogonal sobre 𝑹(𝑨) 9 Dificultades al resolver 𝑨𝒙=𝒃

1 0 0 1 1
𝜋𝑏 = 𝑃𝑏 = [0 1/2 1/2] [2] = [5/2]
0 1/2 1/2 3 5/2

Desde el punto de vista numérico, el cálculo de la proyección ortogonal también se simplifica mucho si se
emplea la descomposición en valores singulares de la matriz 𝐴. Empleando la notación de la sección
anterior se tiene
Σ𝑟 𝑂𝑟×(𝑛−𝑟) Σ𝑟−1 𝑂𝑟×(𝑚−𝑟)
𝜋𝑏 = 𝑃𝑏 = 𝐴𝐴+ 𝑏 = 𝑈 [ ] 𝑉𝑇𝑉 [ ] 𝑈𝑇 𝑏
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑛−𝑟) 𝑂(𝑛−𝑟)×𝑟
𝑂(𝑛−𝑟)×(𝑚−𝑟)
𝑢1𝑇 𝑟
𝐼𝑟 𝑂𝑟×(𝑚−𝑟) 𝑇
= 𝑈[ ] 𝑈 𝑇 𝑏 = [𝑢1 𝑢2 … 𝑢𝑟 ][ 𝐼𝑟 ] 𝑢2 𝑏 = ∑ 𝑢𝑖 𝑢𝑖𝑇 𝑏
𝑂(𝑚−𝑟)×𝑟 𝑂(𝑚−𝑟)×(𝑚−𝑟) ⋮
𝑖=1
[𝑢𝑟𝑇 ]
Este cálculo es de muy baja complejidad para un ordenador, ya que se trata esencialmente de calcular 𝑟
productos escalares. Obsérvese que la proyección así calculada no depende de los valores singulares de
la matriz, ni de las columnas de la matriz 𝑉.

Suescun, Insausti, Flaquer (2022) 362 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.9 Ejemplos de aplicación

Ejemplos de aplicación

Ejemplo de aplicación 9.1


Se intenta posicionar un punto 𝑃 en el plano mediante la intersección de tres rayos luminosos. Debido a
dificultades experimentales, los tres rayos no se cortan en un punto, tal como se indica en la figura:

𝛼2,0 𝑃

X
1 2 𝛼1,0 3

Se intenta elegir como punto 𝑃 el más cercano a los tres rayos.


Las trayectorias de los tres rayos están definidas por las siguientes ecuaciones:
3 1 6
− 𝛼1 + 𝛼2 = −
√10 √10 √10
2 3
− 𝛼1 + 𝛼2 = 0
√13 √13
2 3 9
𝛼1 + 𝛼2 =
√13 √13 √13
Nótese que los vectores normales de las tres rectas son unitarios. De esta manera al sustituir en la
ecuación de una recta las coordenadas de un punto (𝛼1 , 𝛼2 ) que no pertenezca a ella, el incumplimiento
de la ecuación (el residuo en valor absoluto) será precisamente la distancia del punto a la recta que
representa esta ecuación.
Reescribiendo el sistema de ecuaciones de forma matricial 𝐴𝑥 = 𝑏, se tiene:
−0.9487 0.3162 −1.8974
𝛼1
𝐴 = [−0.5547 0.8321] 𝑥=[ ] 𝑏=[ 0 ]
𝛼2
0.5547 0.8321 2.4962
El sistema de ecuaciones es incompatible pues no existe ningún punto común a las tres rectas: los rayos
se cortan dos a dos. Por tanto, se plantea el problema de encontrar el punto más cercano a las tres rectas.
La solución del método de los mínimos cuadrados es aquélla que minimiza ‖𝐴𝑥 − 𝑏‖2 , es decir son las
coordenadas del punto (𝛼1,0 , 𝛼2,0 ) que hacen mínima la suma de los cuadrados de las distancias del punto
a las tres rectas.
La solución de mínimos cuadrados se obtiene a partir de la matriz pseudoinversa 𝐴+ . Como el rango de la
matriz 𝐴 coincide con su número de columnas, se tiene:
−0.6082 −0.2657 0.4969
𝐴+ = (𝐴𝑇 𝐴)−1 𝐴𝑇 = [ ]
0.0901 0.5068 0.6609
Y la solución de mínimos cuadrados es:

Suescun, Insausti, Flaquer (2022) 363 Tecnun-Universidad de Navarra


9.9 Ejemplos de aplicación 9 Dificultades al resolver 𝑨𝒙=𝒃

2.3942
𝑥0 = 𝐴+ 𝑏 = [ ]
1.4786
Es decir, la mejor estimación de la posición del punto 𝑃 es:
𝑃 = ( 2.3942 , 1.4786)
Este punto 𝑃 es el más cercano a las tres rectas y su distancia a cada una de ellas viene dada por el valor
absoluto del residuo:
0.0936
|𝐴𝑥0 − 𝑏| = [0.0978]
0.0622

Ejemplo de aplicación 9.2


La siguiente función lineal de tres variables 𝑥, 𝑦, 𝑧 modela un fenómeno físico real mediante cuatro
parámetros reales 𝑝, 𝑞, 𝑟, 𝑠 desconocidos, que se desea determinar:
𝑣 = 𝑝 + 𝑞𝑥 + 𝑟𝑦 + 𝑠𝑧
𝐸𝑥𝑝
Para ello, se han realizado diez medidas experimentales (𝑣𝑖 𝑖 = 1, … 10) de la variable escalar 𝑣, para
diferentes valores de 𝑥, 𝑦, 𝑧, que se recogen en la siguiente tabla:
𝐸𝑥𝑝
𝑖 𝑥𝑖 𝑦𝑖 𝑧𝑖 𝑣𝑖
1 1 1 0 3.8
2 2 1 0 5.5
3 3 1 0 6.2
4 3 2 1 7.4
5 2 2 2 8.5
6 1 2 1 5.9
7 1 0 3 5.9
8 2 0 1 5.1
9 3 0 0 4.8
10 0 1 1 3.9

Se pretende estimar los valores de 𝑝, 𝑞, 𝑟, 𝑠 minimizando la siguiente suma de cuadrados:


10
𝐸𝑥𝑝 2
∑[𝑣𝑖 − (𝑝 + 𝑞𝑥𝑖 + 𝑟𝑦𝑖 + 𝑠𝑧𝑖 )]
𝑖=1

Este problema es equivalente a resolver por mínimos cuadrados el siguiente sistema de ecuaciones
incompatible:
1 1 1 0 3.8
1 2 1 0 5.5
1 3 1 0 6.2
𝑝 1 3 2 1 𝑝 7.4
⋮ ⋮ ⋮ ⋮ ⋮
𝑞 1 2 2 2 𝑞 8.5
[1 𝑥𝑖 𝑦𝑖 𝑧𝑖 ] [ ] = [ 𝑣𝑖𝐸𝑥𝑝 ] → [ ]= → 𝐴𝑥 = 𝑏
𝑟 1 1 2 1 𝑟 5.9
⋮ ⋮ ⋮ ⋮ ⋮
𝑠 1 1 0 3 𝑠 5.9
1 2 0 1 5.1
1 3 0 0 4.8
[1 0 1 1] [ 3.9 ]
Nótese que la función a minimizar es el cuadrado de la norma del residuo 𝑟 = 𝑏 − 𝐴𝑥:

Suescun, Insausti, Flaquer (2022) 364 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.9 Ejemplos de aplicación

10

‖𝑟‖2 = ‖𝑏 − 𝐴𝑥‖2 = ∑[𝑣𝑖𝐸 − (𝑝 + 𝑞𝑥𝑖 + 𝑟𝑦𝑖 + 𝑠𝑧𝑖 )]2


𝑖=1

La matriz 𝐴 es de rango máximo por columnas, 𝑟(𝐴) = 4, y la solución de mínimos cuadrados se calcula
como:
𝑥0 = (𝐴𝑇 𝐴)−1 𝐴𝑇 𝑏
Operando se obtiene la solución:
𝑝 2
𝑞 1
𝑥0 = [ ] = [ ]
𝑟 1
𝑠 1
Con esta solución, el modelo matemático se puede escribir
𝑣 = 2+𝑥+𝑦+𝑧
y los valores de 𝑣 que predice el modelo (𝜋𝑏 de acuerdo con la teoría) son los más cercanos (producen el
residuo mínimo) a las medidas experimentales de 𝑣:
4 −0.2
5 0.5
6 0.2
8 −0.6
8 0.5
𝜋𝑏 = 𝐴𝑥0 = → 𝑟𝑚𝑖𝑛 = 𝑏 − 𝐴𝑥0 = → ‖𝑟𝑚𝑖𝑛 ‖ = 1.01
6 −0.1
6 −0.1
5 0.1
5 −0.2
[4] [−0.1 ]

Ejemplo de aplicación 9.3


La función 𝑦 = 𝑝 cos 𝜃 + 𝑞 sin 𝜃 modela el comportamiento de un cierto fenómeno físico mediante dos
parámetros reales 𝑝 y 𝑞.
Se quiere hallar los valores de los parámetros reales 𝑝, 𝑞, partiendo de tres parejas de datos
experimentales (𝜃𝐸𝑥𝑝 , 𝑦 𝐸𝑥𝑝 ) de las magnitudes 𝜃 e 𝑦:
𝐸𝑥𝑝 𝐸𝑥𝑝
𝑖 𝜃𝑖 𝑦𝑖
1 𝜋/4 3.5
2 𝜋/2 3.0
3 3𝜋/4 0.7

Se plantea el siguiente sistema de ecuaciones incompatible:


𝜋 𝜋 √2 √2
𝑝 cos + 𝑞 sin = 3.5 → 𝑝 +𝑞 = 3.5
4 4 2 2
𝜋 𝜋
𝑝 cos + 𝑞 sin = 3.0 → 𝑞 = 3.0
2 2
3𝜋 3𝜋 √2 √2
𝑝 cos + 𝑞 sin = 0.7 → −𝑝 +𝑞 =3
4 4 2 2
Matricialmente

Suescun, Insausti, Flaquer (2022) 365 Tecnun-Universidad de Navarra


9.9 Ejemplos de aplicación 9 Dificultades al resolver 𝑨𝒙=𝒃

√2 √2
3.5
2 2 𝑝
0 1 [ ] = 3.0
𝑞
−√2 √2 [0.7]
[ 2 2 ]
Por mínimos cuadrados (el rango es 2) se obtiene la solución aproximada
𝑝0 = 1.98
𝑞0 = 2.98
que corresponde al modelo
𝑦 = 1.98 cos 𝜃 + 2.98 sin 𝜃

Suescun, Insausti, Flaquer (2022) 366 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.10 Ejercicios resueltos

Ejercicios resueltos

Ejercicio 9.1
Obtener la solución de mínimos cuadrados del sistema de ecuaciones 𝐴𝑥 = 𝑏, siendo
1 0 0 1
−1 1 0 1
𝐴=[ ] 𝑏=[ ]
1 −1 1 1
−1 1 −1 1
deduciendo previamente la matriz pseudoinversa de 𝐴.

Solución
El rango de 𝐴 es tres por lo que la matriz pseudoinversa de 𝐴 se obtiene con la siguiente fórmula:
𝐴+ = (𝐴𝑇 𝐴)−1 𝐴𝑇
Previamente se calculan:
4 −3 2 1 1 0
𝐴𝑇 𝐴 = [−3 3 −2] → (𝐴𝑇 𝐴)−1 = [ 1 2 1]
2 −2 2 0 1 1.5
1 0 0 0
𝐴+ = [ 1 1 0 0 ]
0 1 0.5 −0.5
Y la solución de mínimos cuadrados es:
1
1 0 0 0 1
+ 1
𝑥0 = 𝐴 𝑏 = [ 1 1 0 0 ][ ] = [2 ]
1
0 1 0.5 −0.5 1
1

Ejercicio 9.2
Siendo 𝐴 y 𝑏 las matrices del ejercicio 9.1, hallar la proyección ortogonal de la columna 𝑏 sobre el
subespacio 𝑅(𝐴), previo cálculo de la matriz de proyección ortogonal sobre 𝑅(𝐴).

Solución
Disponiendo de la matriz 𝐴+ , la proyección ortogonal se calcula así:
𝜋𝑏 = 𝐴𝐴+ 𝑏 = 𝑃𝑏
La matriz de proyección ortogonal sobre 𝑅(𝐴) es:
1 0 0 0
0 1 0 0
𝑃 = 𝐴𝐴+ = [ ]
0 0 1/2 −1/2
0 0 −1/2 1/2
Y finalmente:
1 0 0 0 1 1
0 1 0 0 1 1
𝜋𝑏 = 𝑃𝑏 = [ ][ ] = [ ]
0 0 1/2 −1/2 1 0
0 0 −1/2 1/2 1 0

Ejercicio 9.3
Hallar la solución de norma mínima del siguiente sistema de ecuaciones indeterminado:
𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 = 4
{
𝛼1 + 𝛼2 − 𝛼3 + 𝛼4 = −2

Suescun, Insausti, Flaquer (2022) 367 Tecnun-Universidad de Navarra


9.10 Ejercicios resueltos 9 Dificultades al resolver 𝑨𝒙=𝒃

Solución
Las matrices 𝐴 y 𝑏 del sistema de ecuaciones son:
1 −1 1 −1 4
𝐴=[ ] 𝑏=[ ]
1 1 −1 1 −2
La matriz 𝐴 es de rango 2 y, por consiguiente, la solución de mínima norma 𝑥 ∗ se calcula con la siguiente
fórmula:
𝑥 ∗ = 𝐴+ 𝑏 = 𝐴𝑇 (𝐴𝐴𝑇 )−1 𝑏
Se calcula en primer lugar (𝐴𝐴𝑇 )−1 :
1 1
1 −1 1 −1 −1 1 4 −2
𝐴𝐴𝑇 = [ ] =[ ]
1 1 −1 1 1 −1 −2 4
[ −1 1]
1 4 2
(𝐴𝐴𝑇 )−1 = [ ]
12 2 4
Y, por tanto:
1 1 6 6
−1 1
1 4 2 1 −2 2
𝐴+ = 𝐴𝑇 (𝐴𝐴𝑇 )−1 = [ ]=
1 −1 12 2 4 12 2 −2
[ −1 1] [ −2 2]
6 6 1
1 −2 2 4 −1
𝑥 ∗ = 𝐴+ 𝑏 = [ ]=
12 2 −2 −2 1
[ −2 2] [ −1 ]

Ejercicio 9.4
Hallar todas las soluciones del sistema de ecuaciones del ejercicio 9.3 y determinar la solución de norma
mínima.

Solución
Se obtienen las soluciones del sistema indeterminado del ejercicio 9.3 aplicando el método de Gauss:
1 −1 1 −1 4 1 −1 1 −1 4 1 0 0 0 1
[𝐴 𝑏] ~ [ | ] ~[ | ] ~[ | ]
1 1 −1 1 −2 0 2 −2 2 −6 0 1 −1 1 −3
𝛼1 = 1
𝛼 = −3 + 𝜀1 − 𝜀2
→ { 2 (∀ 𝜀1 , 𝜀2 )
𝛼3 = 𝜀1
𝛼4 = 𝜀2
Las columnas solución del sistema 𝐴𝑥 = 𝑏 son de la forma:
1
−3 + 𝜀1 − 𝜀2
𝑥=[ ] (∀ 𝜀1 , 𝜀2 )
𝜀1
𝜀2
Se puede comprobar que la solución de mínima norma 𝑥 ∗ se obtiene cuando 𝜀1 = 1 y 𝜀2 = −1. Su norma
vale 2:

Suescun, Insausti, Flaquer (2022) 368 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.10 Ejercicios resueltos

1
𝜀1 = 1 −1
→ 𝑥∗ = → ‖𝑥 ∗ ‖ = 2
𝜀2 = −1 1
[ −1 ]
Las normas de las demás soluciones del sistema son siempre mayores. Se comprueba fácilmente mediante
el Cálculo que el mínimo de la norma ocurre con los citados valores de los parámetros.

Ejercicio 9.5
Hallar la solución de mínimos cuadrados y de mínima norma del siguiente sistema de ecuaciones
incompatible:
𝛼1 + 𝛼2 = 1
{
𝛼1 + 𝛼2 = 3

Solución
Las matrices 𝐴 y 𝑏 del sistema de ecuaciones son:
1 1 1
𝐴=[ ] 𝑏=[ ]
1 1 3
La matriz 𝐴 es de rango 1 y se puede obtener la solución de residuo mínimo y mínima norma 𝑥0∗ usando
la descomposición en valores singulares de 𝐴 como:
𝑟
1 1
𝑥0∗ =∑ 𝑣𝑖 𝑢𝑖𝑇 𝑏 = 𝑣1 𝑢1𝑇 𝑏
𝜎𝑖 𝜎1
𝑖=1

Para obtener 𝜎1 y 𝑣1 se calcula de descomposición en valores propios de 𝐴⊤ 𝐴, que es


2 2
𝐴⊤ 𝐴 = [ ] → 𝜆1 (𝐴⊤ 𝐴) = 4 → 𝜎1 = 2
2 2
Nótese que el otro valor propio es nulo. El vector propio de 𝐴⊤ 𝐴 asociado al valor propio 4 es
1 1
𝑣1 = [ ]
√2 1
Como 𝐴𝑣1 = 𝜎1 𝑢1 se concluye
1 1 1 1 1 1 1 1
𝑢1 = 𝐴𝑣1 = [ ] [ ]= [ ]
𝜎1 2 1 1 √2 1 √2 1
Por tanto:
1 1 1 1 1 1 1
𝑥0∗ = 𝑣 𝑢𝑇 𝑏 = [ ] [1 1] [ ]=[ ]
𝜎1 1 1 2 √2 1 √2 3 1

Ejercicio 9.6
Hallar todas las soluciones de las ecuaciones normales correspondientes al sistema incompatible de
ecuaciones del ejercicio 9.5.

Solución
Las ecuaciones normales son:
2 2 4
𝐴𝑇 𝐴𝑥 = 𝐴𝑇 𝑏 𝐴𝑇 𝐴 = [ ] 𝐴𝑇 𝑏 = [ ]
2 2 4
Resolviendo:

Suescun, Insausti, Flaquer (2022) 369 Tecnun-Universidad de Navarra


9.10 Ejercicios resueltos 9 Dificultades al resolver 𝑨𝒙=𝒃

2 2 4 1 1 2 𝛼 =2−𝜀
[𝐴𝑇 𝐴 𝐴𝑇 𝑏] ~ [ | ] ~ [ | ] → { 1 (∀𝜀)
2 2 4 0 0 0 𝛼2 = 𝜀
Todas las soluciones de las ecuaciones normales son:
2−𝜀
𝑥0 = [ ] (∀𝜀)
𝜀
Se puede comprobar que la solución de norma mínima corresponde a 𝜀 = 1:
1
𝜀 = 1 → 𝑥0∗ = [ ] → ‖𝑥0∗ ‖ = √2
1
Las demás soluciones de las ecuaciones normales son de mayor norma. Se comprueba fácilmente
mediante el Cálculo que el mínimo de la norma se obtiene con 𝜖 = 1.

Ejercicio 9.7
Retomando las matrices 𝐴 y 𝑏 y los resultados de los ejercicios 9.5 y 9.6, hallar la proyección ortogonal de
la columna 𝑏 sobre el subespacio 𝑅(𝐴). Verificar la unicidad del vector proyección ortogonal cuando las
ecuaciones normales tienen más de una solución.

Solución
La proyección ortogonal sobre 𝑅(𝐴) se calcula como sigue:
1 1 1 2
𝜋𝑏 = 𝐴𝑥0∗ = [ ][ ] = [ ]
1 1 1 2
La unicidad del vector 𝜋𝑏 se verifica comprobando que todas las soluciones 𝑥0 de las ecuaciones normales
conducen al mismo vector de proyección ortogonal:
1 1 2−𝜀 2
𝜋𝑏 = 𝐴𝑥0 = [ ][ ]=[ ] (∀𝜀)
1 1 𝜀 2

Ejercicio 9.8
Resolver con el método de los mínimos cuadrados, el sistema de 𝑛 ecuaciones (𝑛 > 2) con dos incógnitas
reales 𝛼1 y 𝛼2 , dado por:
𝛼1 + 𝛼2 = 𝑖 (𝑖 = 1,2, … 𝑛)

Solución
Las matrices 𝐴 y 𝑏 del sistema de ecuaciones son:
1 1 1
1 1 2
𝐴=[ ], 𝑏 = [ ]
⋮ ⋮ ⋮
1 1 𝑛

La matriz 𝐴 es de rango 1 y se puede obtener la solución de residuo mínimo y mínima norma 𝑥0∗ usando
la descomposición en valores singulares de 𝐴 como:
𝑟
1 1
𝑥0∗ =∑ 𝑣 𝑢𝑇 𝑏 = 𝑣1 𝑢1𝑇 𝑏
𝜎𝑖 𝑖 𝑖 𝜎1
𝑖=1

Para obtener 𝜎1 y 𝑣1 se calcula de descomposición en valores propios de 𝐴⊤ 𝐴, que es


𝑛 𝑛
𝐴⊤ 𝐴 = [ ] → 𝜆1 (𝐴⊤ 𝐴) = 2𝑛 → 𝜎1 = √2𝑛
𝑛 𝑛
Y el vector propio de 𝐴⊤ 𝐴 asociado al valor propio 2𝑛 es

Suescun, Insausti, Flaquer (2022) 370 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.10 Ejercicios resueltos

1 1
𝑣1 = [ ]
√2 1
Como 𝐴𝑣1 = 𝜎1 𝑢1 se concluye
1 1 1
1 1 1 1 1 1 1 1
𝑢1 = 𝐴𝑣1 = [ ] [ ]= [ ]
𝜎1 √2𝑛 ⋮ ⋮ √2 1 √𝑛 ⋮
1 1 1
Por tanto:
1
1 1 1 1 1 2 1 1 𝑛+1 1
𝑥0∗ = 𝑣1 𝑢1𝑇 𝑏 = [ ] [1 1 ⋯ 1] [ ] = (1 + 2 + ⋯ + 𝑛) [ ] = [ ]
𝜎1 √2𝑛 √2 1 √𝑛 ⋮ 2𝑛 1 4 1
𝑛

Ejercicio 9.9
Sea 𝑃 = 𝐴𝐴+ la matriz de proyección sobre el subespacio imagen 𝑅(𝐴), siendo 𝐴 una matriz real de
tamaño 𝑚 × 𝑛. Demostrar que 𝑃 es simétrica e idempotente.

Solución
Empleando la cuarta condición de Penrose, se comprueba que 𝑃 es simétrica:
𝑃𝑇 = (𝐴𝐴+ )𝑇 = 𝐴𝐴+ = 𝑃
Asímismo, se demuestra que P es idempotente empleando la segunda condición de Penrose:
𝑃2 = (𝐴𝐴+ )2 = (𝐴𝐴+ )(𝐴𝐴+ ) = 𝐴𝐴+ 𝐴𝐴+ = 𝐴(𝐴+ 𝐴𝐴+ ) = 𝐴𝐴+ = 𝑃

Ejercicio 9.10
Hallar la inversa generalizada de la matriz siguiente:
1 1
𝐴= [1 −1]
1 1

Solución
El rango de la matriz es dos por lo que la pseudoinversa se calcula con la fórmula:
𝐴+ = (𝐴𝑇 𝐴)−1 𝐴𝑇
1 1
𝑇
1 1 1 3 1 1 3 −1
𝐴 𝐴=[ ][ 1 −1] = [ ] → (𝐴𝑇 𝐴)−1 = [ ]
1 −1 1 1 3 8 −1 3
1 1
1 3 −1 1 1 1 1 2 4 2
𝐴+ = [ ][ ]= [ ]
8 −1 3 1 −1 1 8 2 −4 2
1 1 2 1
𝐴+ = [ ]
4 1 −2 1

Ejercicio 9.11
Usando el método de los mínimos cuadrados, hallar la proyección ortogonal de la columna 𝑏 sobre el
subespacio generado por las columnas 𝑢 y 𝑣, siendo:
1 1 1
𝑏 =[2] 𝑢 = [1] 𝑣 = [−1]
3 1 1

Suescun, Insausti, Flaquer (2022) 371 Tecnun-Universidad de Navarra


9.10 Ejercicios resueltos 9 Dificultades al resolver 𝑨𝒙=𝒃

Solución
Para poder resolver este problema por mínimos cuadrados, se construye la matriz:
1 1
𝐴 = [𝑢 𝑣] =[1 −1]
1 1
cuya imagen es precisamente el subespacio generado por los vectores 𝑢 y 𝑣. La matriz pseudoinversa de
𝐴 está calculada en el ejercicio 9.10.
Por tanto:
1 1 11 1 2
1 1 2 1 1 8
𝜋𝑏 = 𝑃𝑏 = 𝐴𝐴+ 𝑏 = [ 1 −1] [ ][2 ] = [1 −1] [ ] = [ 2 ]
4 1 −2 1 4 0
1 1 3 1 1 2

Ejercicio 9.12
Hallar la inversa generalizada de la matriz
1 1 1
1 0 1
𝐴=[ ]
1 −1 1
1 0 1

Solución
La matriz 𝐴 es de rango 2 y se puede obtener la matriz pseudoinversa 𝐴+ usando la descomposición en
valores singulares de 𝐴 como:
2
1
𝐴 =∑+
𝑣 𝑢𝑇
𝜎𝑖 𝑖 𝑖
𝑖=1

Para obtener 𝜎1 , 𝜎2 y 𝑣1 , 𝑣2 se calcula de descomposición en valores propios de 𝐴⊤ 𝐴, que es


4 0 4 𝜆 (𝐴⊤ 𝐴) = 8 → 𝜎1 = √8
𝐴⊤ 𝐴 = [ 0 2 0]→ 1 ⊤
4 0 4 𝜆2 (𝐴 𝐴) = 2 → 𝜎1 = √2
Y los vectores propio de 𝐴⊤ 𝐴 asociados a los dos valores propios no nulos son
1 0
1
𝑣1 = [ 0 ], 𝑣2 = [ 1 ]
√2
1 0
Como 𝐴𝑣1 = 𝜎1 𝑢1 y 𝐴𝑣2 = 𝜎2 𝑢2 se concluye
1 1 1 1 1
1 1 1 0 1 1 1 1
𝑢1 = 𝐴𝑣1 = [ ] [0] = [ ]
𝜎1 √8 1 −1 1 √2 2 1
1 0 1 1 1
1 1 1 0 1
1 1 1 0 1 1 0
𝑢2 = 𝐴𝑣2 = [ ][ 1] = [ ]
𝜎2 √2 1 −1 1 √2 −1
1 0 1 0 0

Por tanto:

1 1 1 1 1 1 1 1 0 0 0 0 1 1 1 1 1
𝐴+ = 𝑣1 𝑢1𝑇 + 𝑣2 𝑢2𝑇 = [0 0 0 0] + [1 0 −1 0] = [4 0 −4 0]
𝜎1 𝜎2 8 2 8
1 1 1 1 0 0 0 0 1 1 1 1

Suescun, Insausti, Flaquer (2022) 372 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.10 Ejercicios resueltos

Ejercicio 9.13
Hallar la matriz de proyección ortogonal sobre el subespacio 𝑅(𝐴) siendo 𝐴 la matriz del ejercicio 9.12.
Aprovechando este resultado, calcular la proyección ortogonal de la columna siguiente:
1
0
𝑏=[ ]
1
1

Solución
La matriz de proyección ortogonal es:
1 1 1 3 1 −1 1
1 1 1 1
+ 1 0 1 1 1 1 1 1 1
𝑃 = 𝐴𝐴 = [ ] [4 0 −4 0] = [ ]
1 −1 1 8 4 −1 1 3 1
1 1 1 1
1 0 1 1 1 1 1
Y en función de ésta:
3 1 −1 1 1 1
1 1 1 1 1 0 3 1
𝜋𝑏 = 𝑃𝑏 = [ ][ ] = [ ]
4 −1 1 3 1 1 4 1
1 1 1 1 1 1

Ejercicio 9.14
Probar que la matriz 𝐼 − 𝐴𝐴+ es la matriz de proyección ortogonal sobre 𝑅(𝐴)⊥ , es decir, sobre el
complemento ortogonal de 𝑅(𝐴).

Solución
Sean 𝐴 una matriz de tamaño 𝑚 × 𝑛 y 𝑏 una columna cualquiera de 𝐾 𝑚×1 . Su proyección ortogonal sobre
𝑅(𝐴) es:
𝜋𝑏 = 𝐴𝐴+ 𝑏
Sea 𝜋𝑏⊥ la proyección de 𝑏 sobre el complemento ortogonal de 𝑅(𝐴). Por la propiedad de descomposición
única asociada a la suma directa, se puede escribir:
𝐾 𝑚×1 = 𝑅(𝐴) ⨁ 𝑅(𝐴)⊥ ⟹ 𝑏 = 𝜋𝑏 + 𝜋𝑏⊥
Y, por tanto:
𝜋𝑏⊥ = 𝑏 − 𝜋𝑏 = 𝑏 − 𝐴𝐴+ 𝑏 = (𝐼 − 𝐴𝐴+ )𝑏

Ejercicio 9.15
Deduzca cómo aplicar la descomposición 𝑄𝑅 de una matriz rectangular 𝐴𝑚×𝑛 , con 𝑚 > 𝑛 y de rango
máximo por columnas, para determinar la solución de residuo mínimo en un sistema incompatible 𝐴𝑥 =
𝑏 mediante el método de los mínimos cuadrados. Nota consulte el ejercicio 6.51.

Solución
La solución de mínimos cuadrados 𝑥0 minimiza el cuadrado de la norma del residuo 𝑟 = 𝐴𝑥 − 𝑏 con que
se evalúa el incumplimiento de la ecuaciones:
‖𝐴𝑥0 − 𝑏‖2 ≤ ‖𝐴𝑥 − 𝑏‖2 ∀ 𝑥
Se analiza la expresión general del residuo multiplicado por 𝑄𝑇 . Recuérdese que multiplicar una columna
por una matriz ortogonal no altera su norma:
‖𝑟‖2 = ‖𝑄𝑇 𝑟‖2 = ‖𝑄𝑇 𝐴𝑥 − 𝑄𝑇 𝑏‖2 = ‖𝑅𝑥 − 𝑄𝑇 𝑏‖2

Suescun, Insausti, Flaquer (2022) 373 Tecnun-Universidad de Navarra


9.10 Ejercicios resueltos 9 Dificultades al resolver 𝑨𝒙=𝒃

Teniendo en cuenta que, por ser 𝑟 (𝐴) = 𝑛 y 𝑚 > 𝑛, las matrices 𝑅 y 𝑄𝑇 𝑏 tienen el siguiente aspecto:
𝑅1 𝑢
𝑅=[ ] 𝑄𝑇 𝑏 = [ ]
𝑂 𝑣
siendo 𝑅1 una matriz cuadrada triangular superior regular, y 𝑢 y 𝑣 matrices columnas. Sustituyendo:
𝑅1 𝑢 2 𝑅 𝑥−𝑢 2
‖𝑄𝑇 𝑟‖2 = ‖[ ] 𝑥 − [ ]‖ = ‖ [ 1 ] ‖ = ‖𝑅1 𝑥 − 𝑢‖2 + ‖𝑣‖2 ≥ ‖𝑣‖2
𝑂 𝑣 −𝑣
En definitiva, el mínimo de ‖𝑄𝑇 𝑟‖2 , que coincide con el mínimo de la norma del residuo, se obtiene
cuando 𝑥 satisface
‖𝑅1 𝑥 − 𝑢‖2 = 0

Por ser 𝑅1 regular, necesariamente, 𝑅1 𝑥 = 𝑢 tiene una sola solución. Esta solución es 𝑥0 :
𝑥0 ∶ 𝑅1 𝑥0 = 𝑢
Nótese que 𝑥0 se obtiene muy eficientemente mediante una sustitución hacia atrás.

Suescun, Insausti, Flaquer (2022) 374 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.11 Ejercicios propuestos

Ejercicios propuestos

Ejercicio 9.16
Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛. Demuestre que si el rango de 𝐴 es 𝑛, entonces la pseudoinversa de
𝐴 coincide con 𝐴+ = (𝐴⊤ 𝐴)−1 𝐴⊤ .

Ejercicio 9.17
Sea 𝐴 una matriz de tamaño 𝑚 × 𝑛. Demuestre que si el rango de 𝐴 es 𝑚, entonces la pseudoinversa de
𝐴 coincide con 𝐴+ = 𝐴⊤ (𝐴𝐴⊤ )−1 .

Ejercicio 9.18
Sea 𝐴 una matriz cuadrada y regular. Demuestre que la pseudoinversa de 𝐴 coincide con la inversa de 𝐴,
es decir, demuestre que 𝐴+ = 𝐴−1 .

Ejercicio 9.19
Obtener la solución de mínimos cuadrados del sistema de ecuaciones 𝐴𝑥 = 𝑏 y hallar la proyección
ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), siendo:
1 1 −1
𝑏 =[1] 𝐴=[2 2]
1 0 0

Ejercicio 9.20
Obtener la solución de mínimos cuadrados de mínima norma del sistema de ecuaciones 𝐴𝑥 = 𝑏 y hallar
la proyección ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), siendo:
1 1 −1 1
𝑏=[ 2 ] 𝐴 = [ −1 1 −1 ]
−3 1 −1 1

Ejercicio 9.21
Obtener la solución de mínimos cuadrados de mínima norma del sistema de ecuaciones 𝐴𝑥 = 𝑏 y hallar
la proyección ortogonal de la matriz columna 𝑏 sobre el subespacio imagen 𝑅(𝐴), siendo:
2 1 2
𝐴=[2 1] 𝑏 =[3]
2 1 4

Ejercicio 9.22
Obtener la solución de mínimos cuadrados del sistema de ecuaciones 𝐴𝑥 = 𝑏 y hallar la proyección
ortogonal de la columna 𝑏 sobre el subespacio 𝑅(𝐴), siendo:
1 0 1
𝐴=[1 1] 𝑏 =[1]
0 1 1

Ejercicio 9.23
Determinar la matriz de proyección ortogonal 𝑃 sobre el subespacio 𝑅(𝐴), y usando esta matriz, hallar la
proyección ortogonal de la columna 𝑏, siendo:
1 1 1 1
0 0 −1 2
𝐴=[ ] 𝑏=[ ]
−1 0 0 3
1 1 1 4

Suescun, Insausti, Flaquer (2022) 375 Tecnun-Universidad de Navarra


9.11 Ejercicios propuestos 9 Dificultades al resolver 𝑨𝒙=𝒃

Ejercicio 9.24
Hallar la solución de mínimos cuadrados de mínima norma del sistema de ecuaciones lineales 𝐴𝑥 = 𝑏
siendo:
1 2 0 1
𝐴 = [2 4 1] 𝑏 = [1]
1 2 0 1

Ejercicio 9.25
Obtener la solución de mínimos cuadrados de mínima norma del sistema de ecuaciones 𝐴𝑥 = 𝑏 y hallar
la proyección ortogonal de la columna 𝑏 sobre el subespacio 𝑅(𝐴), siendo:
1 1 1 1 1
1 1 1 1 −2
𝐴=[ ] 𝑏=[ ]
1 1 1 1 3
1 1 1 1 −4

Ejercicio 9.26
Demostrar las siguientes propiedades de la inversa generalizada:
▪ ( 𝐴+ )+ = 𝐴
▪ (𝐴𝑇 )+ = ( 𝐴+ )𝑇
▪ 𝑟(𝐴) = 𝑟( 𝐴+ ) = 𝑟(𝐴 𝐴+ ) = 𝑟( 𝐴+ 𝐴)
▪ 𝑟(𝐴) = 𝑛 → 𝐴+ 𝐴 = 𝐼𝑛
▪ 𝑟(𝐴) = 𝑚 → 𝐴 𝐴+ = 𝐼𝑚
▪ (𝑅𝐴𝑆)+ = 𝑆 𝑇 𝐴+ 𝑅𝑇 , siendo 𝑆 y 𝑅 matrices ortogonales.

Ejercicio 9.27
Probar que 𝑅(𝐴) = 𝑅(𝑃) siendo 𝑃 = 𝐴𝐴+ la matriz de proyección ortogonal sobre 𝑅(𝐴).

Ejercicio 9.28
Probar la siguiente identidad:
𝑁(𝐴) = 𝑅(𝐼 − 𝐴+ 𝐴)
siendo 𝐴 una matriz cualquiera de tamaño 𝑚 × 𝑛.

Suescun, Insausti, Flaquer (2022) 376 Tecnun-Universidad de Navarra


9 Dificultades al resolver 𝑨𝒙=𝒃 9.11 Ejercicios propuestos

Suescun, Insausti, Flaquer (2022) 377 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales

Es objetivo de este capítulo el estudio de las formas cuadráticas reales. Se trata de polinomios
homogéneos de segundo grado en 𝑛 variables con coeficientes reales. Interesa efectuar un cambio de
variables que permita escribirlas como una suma de cuadrados. Para ello se presentan dos métodos.

Una vez reducida a suma de cuadrados, resulta sencillo clasificar la forma cuadrática. Existen varios
criterios de clasificación: por su definición, i.e. el signo de los valores que devuelve, por su rango y por
su signatura.

Suescun, Insausti, Flaquer (2022) 378 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.1 Formas bilineales reales y simétricas

Formas bilineales reales y simétricas

Una forma bilineal real y simétrica definida sobre un espacio vectorial real 𝐸 es una función
𝑓: 𝐸 × 𝐸 → 𝑅
que hace corresponder a cualquiera pareja de vectores (𝑥, 𝑦) el número real 𝑓(𝑥, 𝑦), de modo que se
cumplan las siguientes propiedades:

Propiedades de la forma bilineal real y simétrica


1) 𝑓(𝛼. 𝑥 + 𝛽. 𝑦, 𝑧) = 𝛼 𝑓(𝑥, 𝑧) + 𝛽 𝑓(𝑦, 𝑧) (Bilinealidad)
2) 𝑓(𝑥, 𝛽. 𝑦 + 𝛾. 𝑧) = 𝛽 𝑓(𝑥, 𝑦) + 𝛾 𝑓(𝑥, 𝑧) (Bilinealidad)
3) 𝑓(𝑥, 𝑦) = 𝑓(𝑦, 𝑥) (Simetría)

Si 𝐵 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 es una base cualquiera de 𝐸, la forma bilineal real y simétrica 𝑓 se puede expresar


matricialmente con la ayuda de una matriz real y simétrica 𝐴:
𝑛 𝑛 𝑛 𝑛 𝑛 𝑛

𝑓(𝑥, 𝑦) = 𝑓 (∑ 𝛼𝑖 . 𝑢𝑖 , ∑ 𝛽𝑗 . 𝑢𝑗 ) = ∑ ∑ 𝛼𝑖 𝛽𝑗 𝑓(𝑢𝑖 , 𝑢𝑗 ) = ∑ ∑ 𝛼𝑖 𝛽𝑗 𝑎𝑖𝑗


𝑖=1 𝑖=1 𝑖=1 𝑗=1 𝑖=1 𝑗=1

𝑎11 … 𝑎1𝑛 𝛽1
= [𝛼1 … 𝛼𝑛 ] [ … … … ][…]
𝑎𝑛1 … 𝑎𝑛𝑛 𝛽𝑛
Siendo 𝑥𝐵 e 𝑦𝐵 las componentes de los vectores 𝑥 e 𝑦 en la base 𝐵
𝛼1 𝛽1
𝑥𝐵 = [ … ] 𝑦𝐵 = [ … ]
𝛼𝑛 𝛽𝑛
y 𝐴 una matriz real y simétrica cuyo elemento genérico es 𝑎𝑖𝑗 = 𝑓(𝑢𝑖 , 𝑢𝑗 ).
En consecuencia:
𝑓(𝑥, 𝑦) = 𝑥𝐵𝑇 𝐴𝑦𝐵
Nótese que 𝐴 es una matriz simétrica pues 𝑎𝑖𝑗 = 𝑓(𝑢𝑖 , 𝑢𝑗 ) = 𝑓(𝑢𝑗 , 𝑢𝑖 ) = 𝑎𝑗𝑖 . Se dice que la matriz 𝐴
representa a la forma bilineal real y simétrica 𝑓 en la base dada:
𝐴 = [𝑓(𝑥, 𝑦)]𝐵

Ejemplo 10.1
La matriz real y simétrica
1 −1 2
𝐴 = [−1 0 0]
2 0 5
representa, en una cierta base, a la forma bilineal real y simétrica
𝑓(𝑥, 𝑦) = 𝛼1 𝛽1 − 𝛼1 𝛽2 + 2𝛼1 𝛽3 − 𝛼2 𝛽1 + 2𝛼3 𝛽1 + 5𝛼3 𝛽3
Nótese que puede escribirse:
1 −1 2 𝛽1
𝑓(𝑥, 𝑦) = [𝛼1 𝛼2 𝛼3 ] [−1 0 0] [𝛽2 ] = 𝑥𝐵𝑇 𝐴𝑦𝐵
2 0 5 𝛽3

Suescun, Insausti, Flaquer (2022) 379 Tecnun-Universidad de Navarra


10.2 Formas cuadráticas reales 10 Formas Cuadráticas Reales

Formas cuadráticas reales

Toda forma bilineal real y simétrica 𝑓 definida sobre 𝐸 permite definir una forma cuadrática real como
una función
𝜑: 𝐸 → 𝑅
que hace corresponder a un vector 𝑥 cualquiera el número real 𝜑(𝑥) definido mediante
𝜑(𝑥) = 𝑓(𝑥, 𝑥)
La expresión matricial de la forma cuadrática es evidentemente

𝜑(𝑥) = 𝑥𝐵𝑇 𝐴𝑥𝐵 (10.1)

siendo 𝐴 la matriz real y simétrica que representa a 𝑓 en la base 𝐵 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 elegida de 𝐸.


Es útil analizar el aspecto de la forma cuadrática en función de las componentes 𝛼1 , 𝛼2 , … 𝛼n del vector 𝑥
en la base de trabajo 𝐵, también llamadas variables. Para ello, se desarrolla la expresión matricial:

𝜑(𝑥) = 𝑎11 (𝛼1 )2 + 𝑎12 (𝛼1 𝛼2 ) + 𝑎13 (𝛼1 𝛼3 ) + ⋯ + 𝑎1𝑛 (𝛼1 𝛼𝑛 )


+ 𝑎21 (𝛼2 𝛼1 ) + 𝑎22 (𝛼2 )2 + 𝑎23 (𝛼3 𝛼2 ) + ⋯ + 𝑎2𝑛 (𝛼2 𝛼𝑛 )
+ 𝑎31 (𝛼3 𝛼1 ) + 𝑎32 (𝛼3 𝛼2 ) + 𝑎33 (𝛼3 )2 + ⋯ + 𝑎3𝑛 (𝛼3 𝛼𝑛 ) (10.2)

+ 𝑎𝑛1 (𝛼𝑛 𝛼1 ) + 𝑎𝑛2 (𝛼𝑛 𝛼2 ) + 𝑎𝑛3 (𝛼𝑛 𝛼3 ) + ⋯ + 𝑎𝑛𝑛 (𝛼𝑛 )2

Y teniendo en cuenta que 𝑎𝑖𝑗 = 𝑎𝑗𝑖 por ser 𝐴 una matriz simétrica:

𝜑(𝑥) = 𝑎11 (𝛼1 )2 + 2𝑎12 (𝛼1 𝛼2 ) + 2𝑎13 (𝛼1 𝛼3 ) + ⋯ + 2𝑎1𝑛 (𝛼1 𝛼𝑛 )


+ 𝑎22 (𝛼2 )2 + 2𝑎23 (𝛼3 𝛼2 ) + ⋯ + 2𝑎2𝑛 (𝛼2 𝛼𝑛 )
+ 𝑎33 (𝛼3 )2 + ⋯ + 2𝑎3𝑛 (𝛼3 𝛼𝑛 ) (10.3)
⋯ ⋯
+ 𝑎𝑛𝑛 (𝛼𝑛 )2

Nótese que las formas cuadráticas pueden estar formadas por dos clases de sumandos (10.3):
▪ Cuadráticos, en los que aparecen los cuadrados de las variables y son de la forma 𝑎𝑖𝑖 (𝛼𝑖 2 )
▪ Aquellos con productos cruzados de las variables y son de la forma 2𝑎𝑖𝑗 (𝛼𝑖 𝛼𝑗 ), con 𝑖 < 𝑗.
Así mismo, la ecuación (10.2) da la clave para encontrar la matriz 𝐴 a partir de la expresión desarrollada
de la forma cuadrática y recíprocamente.

Ejemplo 10.2
La forma cuadrática real representada por la matriz real y simétrica
1 −1 2
𝐴 = [−1 0 0]
2 0 5
es
𝜑 = (𝛼1 )2 + 5(𝛼3 )2 − 2 𝛼1 𝛼2 + 4𝛼1 𝛼3

Ejemplo 10.3
En un espacio vectorial real 𝐸 con producto escalar, el cuadrado de la norma de un vector
𝜑(𝑥) = ‖𝑥‖2 =< 𝑥, 𝑥 >
es una forma cuadrática real.

Suescun, Insausti, Flaquer (2022) 380 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.3 Diagonalización de una forma cuadrática real

Recuérdese que, fijada una base 𝐵 = 𝑢1 , 𝑢2 , … , 𝑢𝑛 , cualquier producto escalar puede escribirse
matricialmente por medio de la matriz de Gram:
< 𝑥, 𝑦 >= 𝑥𝐵𝑇 𝐺𝐵 𝑦𝑏
Como el producto escalar es real, la matriz de Gram es real y simétrica:
𝑔𝑖𝑗 =< 𝑢𝑖 , 𝑢𝑗 >=< 𝑢𝑗 , 𝑢𝑖 > ∈ 𝑅
y se puede afirmar que cualquier producto escalar real es una forma bilineal real y simétrica.
Consecuentemente, el cuadrado de la norma de un vector se escribe matricialmente exactamente igual
que una forma cuadrática real:
‖𝑥‖2 =< 𝑥, 𝑥 >= 𝑥𝐵𝑇 𝐺𝐵 𝑥𝐵
Por ejemplo, considerando el espacio vectorial 𝑅𝑛 con el producto escalar ordinario, la forma cuadrática
en cuestión tiene la siguiente expresión matricial
𝜑(𝑥) = ‖𝑥‖2 = 𝑥 𝑇 𝑥
y la matriz que la representa es precisamente la matriz identidad, que cumple la exigencia de ser simétrica.

Proposición 10.1
Enunciado: En cualquier forma cuadrática 𝜑(𝑥) se cumple que 𝑥 = 0 → 𝜑(0) = 0. El recíproco no es
cierto.
Demostración: En cualquier base, el vector nulo se expresa mediante la columna 0 por lo que:
𝜑(0) = 0𝑇 𝐴 0 = 0
Para demostrar que el recíproco no es cierto, basta con dar un contraejemplo: la forma cuadrática de 𝑅2
en la base canónica 𝜑(𝑥) = 𝛼12 − 𝑎22 se anula con el vector nulo ( 0, 0) pero también con otros vectores
como por ejemplo ( 1, 1).

Diagonalización de una forma cuadrática real

Un cambio de variables admisibles es un cambio de base 𝐸. En la nueva base, la forma cuadrática adopta
una expresión diferente en las nuevas variables (i.e. componentes).
Un cambio de base o cambio de variables admisible se expresa matricialmente mediante una matriz
regular 𝑆
𝑥𝐵 = 𝑆𝑥𝐵´
Substituyendo en (10.1) se obtiene
𝑇 𝑇 ′
𝜑(𝑥) = 𝑥𝐵𝑇 𝐴𝑥𝐵 = (𝑆𝑥𝐵´ )𝑇 𝐴(𝑆𝑥𝐵´ ) = 𝑥𝐵´ (𝑆 𝑇 𝐴 𝑆)𝑥𝐵´ = 𝑥𝐵´ 𝐴 𝑥𝐵´
siendo 𝐴 la matriz de la forma cuadrática en la variables iniciales (base inicial) y 𝐴′ la matriz
correspondiente a las nuevas variables (base nueva). La relación entre ambas es:
𝐴′ = 𝑆 𝑇 𝐴 𝑆
Se dice que las matrices 𝐴 y 𝐴′ son congruentes.
Diagonalizar o reducir a suma de cuadrados una forma cuadrática significa efectuar un cambio de
variables admisible (i.e. un cambio de base en el espacio) de modo que desaparezcan los productos
cruzados (si los hubiera) quedando solamente los cuadrados.
Si la nueva matriz 𝐴′ fuera diagonal, entonces la expresión de la forma cuadrática en la nuevas variables
no contendría productos cruzados, solo aparecerían los cuadrados de las variables.

Suescun, Insausti, Flaquer (2022) 381 Tecnun-Universidad de Navarra


10.4 El método de la matriz ortogonal 10 Formas Cuadráticas Reales

Existen muchos cambios de variables admisibles para diagonalizar una misma forma cuadrática. Y son
varios los métodos que se pueden emplear para encontrarlos. En los próximos apartados, se presentan
dos métodos muy populares.

Ejemplo 10.4
La forma cuadrática en dos variables 𝜑 = 2𝛼1 𝛼2 se puede diagonalizar mediante el cambio de variables
admisible dado por
𝛼1 = 𝛼1′ + 𝛼2′
{
𝛼2 = 𝛼1′ − 𝛼2′
de modo que
𝜑 = 2𝛼1 𝛼2 = 2(𝛼1′ + 𝛼2′ )(𝛼1′ − 𝛼2′ ) = 2(𝛼1′ )2 − 2(𝛼2′ )2
La matriz del cambio de variables es la matriz regular
1 1
𝑆=[ ]
1 −1
La matriz 𝐴 que representa a la forma cuadrática en las variables 𝛼1 , 𝛼2 es
0 1
𝐴=[ ]
1 0
Y en las nuevas variables 𝛼1′ , 𝛼2′
2 0
𝐴′ = [ ]
0 −2

El método de la matriz ortogonal

El teorema espectral (Teorema 8.12) garantiza que toda matriz real y simétrica 𝐴 se puede diagonalizar
mediante una matriz ortogonal real 𝑄 de manera que
𝑄𝑇 𝐴𝑄 = 𝐷
con 𝐷 una matriz diagonal con los valores propios de 𝐴 en la diagonal principal, y 𝑄 una matriz cuyas
columnas forman un base ortonormal de vectores propios de 𝐴.
Al realizar el cambio de variables mediante la matriz ortogonal 𝑄 que diagonaliza 𝐴
𝑥𝐵 = 𝑄𝑥𝐵´
la forma cuadrática real 𝜑 = 𝑥𝐵𝑇 𝐴𝑥𝐵 en las nuevas variables queda:
𝑇 𝑇
𝜑 = 𝑥𝐵𝑇 𝐴𝑥𝐵 = (𝑄𝑥𝐵´ )𝑇 𝐴(𝑄𝑥𝐵´ ) = 𝑥𝐵´ (𝑄𝑇 𝐴 𝑄)𝑥𝐵´ = 𝑥𝐵´ 𝐷𝑥𝐵´
Por lo tanto, denotando por 𝜆1 , 𝜆2 , … , 𝜆𝑛 los valores propios de 𝐴, la forma cuadrática se expresa en las
nuevas variables como una suma de cuadrados:
𝑇
𝜑 = 𝑥𝐵´ 𝐷𝑥𝐵´ = 𝜆1 (𝛼1′ )2 + 𝜆2 (𝛼2′ )2 + ⋯ + 𝜆𝑛 (𝛼𝑛′ )2

Ejemplo 10.5
La forma cuadrática en dos variables 𝜑 = 2𝛼1 𝛼2 se puede reducir a suma de cuadrados mediante la matriz
ortogonal 𝑄 que diagonaliza su matriz
0 1
𝐴=[ ]
1 0
Resolviendo el problema de valores y vectores propios de la matriz 𝐴 se obtienen los valores propios y la
matriz ortogonal 𝑄:
1 1 −1
𝜆1 = 1, 𝜆2 = −1, 𝑄 = [ ]
√2 1 1

Suescun, Insausti, Flaquer (2022) 382 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.5 El método de Lagrange

El cambio de variables admisible asociado a 𝑄 es


1 1
𝛼1 = 𝛼1′ − 𝛼2′
√2 √2
1 1
𝛼2 = 𝛼1′ + 𝛼2′
{ √2 √2
y la forma cuadrática reducida a suma de cuadrados queda:
2 𝛼1 𝛼2 = (𝛼1′ )2 − (𝛼2′ )2

El método de Lagrange

Este método consiste en eliminar los productos cruzados mediante sucesivos cambios de variables,
comenzando con la primera variable hasta la última. Para eliminar los productos cruzados de una variable
se requiere que exista el cuadrado de la citada variable, que siempre se puede lograr partiendo de un
producto cruzado en que aparezca esa variable, como quedará explicado en lo que sigue.
Se presenta a continuación el proceso para la primera variable 𝛼1 . El tratamiento de las demás es análogo.
Supóngase que existe el sumando con el cuadrado de 𝛼1 (𝑎11 ≠ 0) y algún producto cruzado.
Si agrupamos en 𝐸 todos los términos de la forma cuadrática en los que aparece 𝛼1 , y en 𝐹 aquellos en
los que no aparece 𝛼1 se tiene
𝜑 = 𝐸(𝛼1 , 𝛼2 , … , 𝛼𝑛 ) + 𝐹(𝛼2 , … , 𝛼𝑛 )
con
𝐸 = 𝑎11 (𝛼1 )2 + 2𝑎12 𝛼1 𝛼2 + 2𝑎13 𝛼1 𝛼3 + ⋯ + 2𝑎1𝑛 𝛼1 𝛼𝑛
Nótese que 𝐸 se puede escribir como una diferencia de cuadrados tal como se indica
1 1
𝐸= (𝑎11 𝛼1 + 𝑎12 𝛼2 + ⋯ + 𝑎1𝑛 𝛼𝑛 )2 − (𝑎 𝛼 + ⋯ + 𝑎1𝑛 𝛼𝑛 )2
𝑎11 𝑎11 12 2
1
= (𝑎 𝛼 + 𝑎12 𝛼2 + ⋯ + 𝑎1𝑛 𝛼𝑛 )2 − 𝐺
𝑎11 11 1
Siendo 𝐺 una expresión donde no aparece 𝛼1 :
1
𝐺= (𝑎 𝛼 + ⋯ + 𝑎1𝑛 𝛼𝑛 )2
𝑎11 12 2
La forma cuadrática se podrá reescribir del siguiente modo:
1
𝜑= (𝑎 𝛼 + 𝑎12 𝛼2 + ⋯ + 𝑎1𝑛 𝛼𝑛 )2 − 𝐺 + 𝐹
𝑎11 11 1
Haciendo ahora el cambio de variables dado por las ecuaciones
𝛼1′ = 𝑎11 𝛼1 + 𝑎12 𝛼2 + ⋯ + 𝑎1𝑛 𝛼𝑛
𝛼2′ = 𝛼2
𝛼3′ = 𝛼3
⋯ ⋯
{ 𝛼𝑛′ = 𝛼𝑛
se obtiene una expresión en las nuevas variables
1
𝜑= (𝛼 ′ )2 + 𝐻(𝛼2′ , 𝛼3′ , … , 𝛼𝑛′ )
𝑎11 1
en la que han desaparecido los productos cruzados de la primera variable. Habría que proceder ahora de
la misma manera con 𝐻 trabajando los sumandos en los que interviene 𝛼2′ , y así sucesivamente.

Suescun, Insausti, Flaquer (2022) 383 Tecnun-Universidad de Navarra


10.6 Invariantes de una forma cuadrática 10 Formas Cuadráticas Reales

Nota: Si la forma cuadrática no tiene el término en 𝛼12 (𝑎11 = 0) se procede de la siguiente manera. Se
parte de producto cruzado, por ejemplo 2𝑎12 (𝛼1 𝛼2 ) con 𝑎12 ≠ 0, y se hace siguiente cambio de variables
𝛼1 = 𝛼1′ + 𝛼2′
𝛼2 = 𝛼1′ − 𝛼2′
𝛼3 = 𝛼3′
⋯ ⋯
{ 𝛼𝑛 = 𝛼𝑛′
Obteniéndose una nueva expresión de la forma cuadrática
𝜑 = 2(𝛼1′ )2 − 2(𝛼2′ )2 + ⋯
en la que ya aparece el cuadrado de la primera variable, por lo que se puede usar el procedimiento
explicado en el inicio de este apartado. Se procede de manera análoga con el resto de variables.

Ejemplo 10.6
La forma cuadrática en dos variables
𝜑 = 2(𝛼1 )2 − 2 𝛼1 𝛼2
se reduce a suma de cuadrados como sigue
1 1 1 1
𝜑 = 2(𝛼1 )2 − 2 𝛼1 𝛼2 = (𝛼 − 𝛼2 )2 − (−𝛼2 )2 = (𝛼′1 )2 − (𝛼′2 )2
2 1 2 2 2
habiendo hecho el cambio de variables
𝛼1′ = 𝛼1 − 𝛼2
{
𝛼2′ = 𝛼2
que se puede expresar también como
𝛼1 = 𝛼1′ + 𝛼2′
{
𝛼2 = 𝛼2′

Invariantes de una forma cuadrática

Se estudia ahora qué invariantes se mantienen cuando se efectúa un cambio de variables admisible en
una forma cuadrática real.
Las matrices 𝐴 y 𝐴′ que representan a una misma forma cuadrática tras un cambio de variables definido
mediante una matriz regular 𝑆 se llaman congruentes, esto es:
𝐴′ = 𝑆 𝑇 𝐴𝑆
Es patente que 𝐴 y 𝐴′ tienen el mismo rango. El rango de la forma cuadrática es un invariante y es, por
definición, el rango de la matriz que la representa en cualquiera de las bases que se utilice.
Hay más magnitudes de la forma cuadrática real que son invariantes tras un cambio de variables
admisible.
Al diagonalizar una forma cuadrática real se obtiene una suma de términos cuadráticos cuyos coeficientes
dependen del método de diagonalización. Existen infinitos métodos, se han visto dos en los apartados
precedentes, y es infinito el número de cambios de variables posibles para diagonalizar una misma forma
cuadrática. No obstante, en todas las posibles expresiones diagonales de una misma forma, el número de
coeficientes positivos, negativos y nulos es invariante.

Suescun, Insausti, Flaquer (2022) 384 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.7 Clasificación de las formas cuadráticas reales

Proposición 10.2 (Ley de Inercia de Sylvester)


Enunciado: El número de términos positivos y el número de términos negativos de una forma cuadrática
diagonalizada no depende del método utilizado para la diagonalización.
Demostración: Se omite.

Si 𝑝 es el número de coeficientes positivos y 𝑞 es el número de términos negativos de una forma


cuadrática real 𝜑 de rango 𝑟 se tiene:
𝑟=𝑝+𝑞
De otra parte, se define signatura de la forma cuadrática y se denota con 𝜎 a
𝜎 =𝑝−𝑞
Tanto el rango 𝑟 como la signatura 𝜎 son también invariantes de cada forma cuadrática.

Ejemplo 10.7
Los ejemplos anteriores reducen la misma forma cuadrática 𝜑 = 2𝛼1 𝛼2 a suma de cuadrados, pero con
dos métodos distintos:
▪ El primero conduce a los coeficientes 2 y −2
▪ El segundo conduce a los coeficientes 1 y −1
En ambos casos se obtiene dos coeficientes distintos de cero: uno positivo (𝑝 = 1) y el otro negativo (𝑞 =
1). Esto se expresa simbólicamente por "+, −".
La forma cuadrática es de rango 𝑟 = 𝑝 + 𝑞 = 2 y signatura 𝜎 = 𝑝 − 𝑞 = 0.

Clasificación de las formas cuadráticas reales

Las formas cuadráticas reales se clasifican en atención a su valor al operar sobre los vectores del espacio
vectorial donde actúan.
El análisis de los posibles valores que puede dar una forma cuadrática se realiza fácilmente a partir de su
expresión reducida a suma de cuadrados. Sea
𝜑(𝑥) = 𝑐1 (𝛽1 )2 + 𝑐2 (𝛽2 )2 + ⋯ + 𝑐𝑛 (𝛽𝑛 )2
una expresión diagonalizada de una forma cuadrática 𝜑(𝑥), en una cierta base, en la que solo aparecen
términos cuadráticos. Para un vector 𝑥 dado, el valor de la forma cuadrática –ya sea positivo, negativo o
nulo– solo depende del valor –positivo, negativo o nulo– de los coeficientes 𝑐𝑖 de la forma diagonalizada.
Aparecen cinco casos posibles. Una forma cuadrática 𝜑(𝑥) se dice:
▪ Definido positiva si 𝜑(𝑥) > 0, ∀𝑥 ≠ 0. Esto sucede cuando los coeficientes de la forma
diagonalizada son todos estrictamente positivos. Es decir:
𝑐𝑖 > 0 (∀𝑖)
Nótese que este caso, 𝜑(𝑥) = 0 ⇒ 𝑥 = 0.
▪ Semidefinido positiva si 𝜑(𝑥) ≥ 0, ∀𝑥 ≠ 0. Esto sucede cuando los coeficientes de la forma
diagonalizada son todos positivos o nulos. Es decir:
𝑐𝑖 ≥ 0 (∀𝑖) ∧ ∃𝑗 | 𝑐𝑗 = 0
Nótese que este caso, puede ser 𝜑(𝑥 ≠ 0) = 0.
▪ Definido negativa si 𝜑(𝑥) < 0, ∀𝑥 ≠ 0. Esto sucede cuando los coeficientes de la forma
diagonalizada son todos estrictamente negativos:

Suescun, Insausti, Flaquer (2022) 385 Tecnun-Universidad de Navarra


10.7 Clasificación de las formas cuadráticas reales 10 Formas Cuadráticas Reales

𝑐𝑖 < 0 (∀𝑖)
Nótese que este caso, 𝜑(𝑥) = 0 ⇒ 𝑥 = 0.
▪ Semidefinido negativa si 𝜑(𝑥) ≤ 0, ∀𝑥 ≠ 0. Esto sucede cuando los coeficientes de la forma
diagonalizada son negativos o nulos. Es decir
𝑐𝑖 ≤ 0 (∀𝑖) ∧ ∃𝑗 | 𝑐𝑗 = 0
Nótese que este caso, puede ser 𝜑(𝑥 ≠ 0) = 0.
▪ Indefinida cuando la forma puede producir valores positivos, negativos y nulos, es decir 𝜑(𝑥) ⋚
0, ∀𝑥 ≠ 0. Otra forma de verlo es que ∃ 𝑥1 , 𝑥2 tales que 𝜑(𝑥1 )𝜑(𝑥2 ) < 0. Esto sucede cuando
en la forma diagonalizada coexisten coeficientes con signos distintos.
∃𝑗 | 𝑐𝑗 > 0 ∧ ∃𝑘 | 𝑐𝑘 < 0
La siguiente tabla resume la situación:

Clasificación Valores de la forma Coeficientes Rango y sign.

𝑟=𝜎=𝑝=𝑛
Definido positiva 𝜑(𝑥) > 0 ∀𝑥 ≠ 0 𝑐𝑖 > 0 (∀𝑖) 𝑞=0

𝑟=𝜎=𝑝<𝑛
Semidefinido positiva 𝜑(𝑥) ≥ 0 ∀𝑥 ≠ 0 𝑐𝑖 ≥ 0 (∀𝑖) ∧ ∃𝑗 | 𝑐𝑗 = 0
𝑞=0

𝑟 = −𝜎 = 𝑞 = 𝑛
Definido negativa 𝜑(𝑥) < 0 ∀𝑥 ≠ 0 𝑐𝑖 < 0 (∀𝑖) 𝑝=0

𝑟 = −𝜎 = 𝑞 < 𝑛
Semidefinido negativa 𝜑(𝑥) ≤ 0 ∀𝑥 ≠ 0 𝑐𝑖 ≤ 0 (∀𝑖) ∧ ∃𝑗 | 𝑐𝑗 = 0
𝑝=0

0<𝑟<𝑛
Indefinida 𝜑(𝑥) ⋚ 0 → ∃ 𝑥1 , 𝑥2 | 𝜑(𝑥1 )𝜑(𝑥2 ) < 0 ∃𝑗| 𝑐𝑗 > 0 ∧ ∃𝑘| 𝑐𝑘 < 0
−𝑛 < 𝜎 < 𝑛

Tabla 10.1: Clasificación de las formas cuadráticas según sus valores. La columna coeficientes se refiere a los
coeficientes de la forma cuadrática reducida a suma de cuadrados.

Ejemplo 10.8
La forma cuadrática real
𝜑(𝑥) = 2(𝛼1 )2 − 2 𝛼1 𝛼2
es indefinida, pues se reduce a la forma diagonalizada
1 1
𝜑(𝑥) = (𝛼1′ )2 − (𝛼2′ )2
2 2
que presenta dos coeficientes con signos cambiados (𝑝 = 𝑞 = 1).
La matriz que representa a la forma cuadrática en la base inicial es
2 −1
𝐴=[ ]
−1 0
Como garantiza la ley de inercia de Sylvester, esta matriz tiene dos valores propios, uno positivo (1 + √2)
y otro negativo (1 − √2). De haber usado el método de la matriz ortogonal, se habría obtenido la siguiente
expresión de la forma reducida a suma de cuadrados:
′′ 2 ′′ 2
⏟ + √2) (𝛼1 ) + (1
𝜑(𝑥) = (1 ⏟ − √2) (𝛼2 )
>0 <0

Finalmente, se indica el rango y la signatura:


𝑟 =𝑝+𝑞 =2
𝜎 =𝑝−𝑞 =0

Suescun, Insausti, Flaquer (2022) 386 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.7 Clasificación de las formas cuadráticas reales

La clasificación de las formas cuadráticas indicada en la Tabla 10.1 se utiliza también para clasificar las
matrices reales y simétricas23 según el signo del resultado de 𝑥 𝑇 𝐴 𝑥, tal como se recoge en la Tabla 10.2:

Clasificación Valor de 𝒙𝑻 𝑨 𝒙 Valores propios de 𝑨

Definido positiva 𝑥 𝑇 𝐴 𝑥 > 0 ∀𝑥 ≠ 0 𝜆𝑖 > 0 (∀𝑖)

Semidefinido positiva 𝑥 𝑇 𝐴 𝑥 ≥ 0 ∀𝑥 ≠ 0 𝜆𝑖 ≥ 0 (∀𝑖) ∧ ∃𝑗 | 𝜆𝑗 = 0

Definido negativa 𝑥 𝑇 𝐴 𝑥 < 0 ∀𝑥 ≠ 0 𝜆𝑖 < 0 (∀𝑖)

Semidefinido negativa 𝑥 𝑇 𝐴 𝑥 ≤ 0 ∀𝑥 ≠ 0 𝜆𝑖 ≤ 0 (∀𝑖) ∧ ∃𝑗 | 𝜆𝑗 = 0

Indefinida 𝑥𝑇𝐴 𝑥 ⋚ 0 ∃𝑗| 𝜆𝑗 > 0 ∧ ∃𝑘| 𝜆𝑘 < 0

Tabla 10.2: Clasificación de las matrices reales y simétricas según sus valores propios.

23 Está clasificación se extiende también a las matrices hermíticas, de las que las matrices reales y simétricas son un
caso particular. Recuérdese que los valores propios de las matrices hermíticas son siempre reales. Al tratar con
matrices complejas, p.e. 𝑥, las matrices hermíticas se clasifican por el signo del resultado de 𝑥 𝐻 𝐴 𝑥.

Suescun, Insausti, Flaquer (2022) 387 Tecnun-Universidad de Navarra


10.8 Ejemplos de aplicación 10 Formas Cuadráticas Reales

Ejemplos de aplicación

Ejemplo de aplicación 10.1


Se conoce la ecuación de una cónica en el plano en un sistema de referencia cartesiano y es
5𝛼12 − 4𝛼1 𝛼2 + 5𝛼12 = 21
Se pretende hacer un cambio de variables dado por una matriz ortogonal 𝑄 (que respeta la métrica del
plano) de modo que se pueda determinar de qué tipo de cónica se trata. La matriz
5 −2
𝐴=[ ]
−2 5
representa la parte cuadrática. Sus valores propios son 𝜆1 = 3, 𝜆2 = 7. Una base ortonormal de vectores
propios es
1 1 1 −1
𝑤1 = [ ], 𝑤2 = [ ]
√2 1 √2 1
los cuales forman las columnas de 𝑄. Haciendo el cambio de variables
1 1
𝛼1 = 𝛼1′ − 𝛼2′
√2 √2
1 1
𝛼2 = 𝛼1′ + 𝛼2′
√2 √2
la ecuación de la cónica pasa a ser
2 2
3𝛼1′ + 7𝛼2′ = 21
esto es
2 2
𝛼1′ 𝛼2′
( ) +( ) =1
√7 √3
lo que representa una elipse de semiejes √7, √3 centrada en el origen del sistema de referencia, con los
ejes de simetría direccionados por los vectores propios de 𝐴.

Ejemplo de aplicación 10.2


Se buscan los puntos de intersección de la elipse del ejemplo de aplicación 10.1 con la circunferencia de
ecuación 𝛼12 + 𝛼22 = 4. Nótese que la circunferencia también está centrada en el origen.
En realidad, se trata de resolver el sistema no lineal de dos ecuaciones y dos incógnitas siguientes
5𝛼12 − 4𝛼1 𝛼2 + 5𝛼12 = 21
{
𝛼12 + 𝛼22 = 4
Haciendo el cambio de variables de la aplicación 9.1 dado por la matriz 𝑄 se llega al nuevo sistema
2 2
3𝛼1′ + 7𝛼2′ = 21
{ 2 2
𝛼1′ + 𝛼2′ = 4
Es obvio que la ecuación de la circunferencia centrada en el origen no se altera por cambiar de variables.
El nuevo sistema se resuelve muy fácilmente
√7 3
𝛼1′ = ± 𝛼2′ = ±
2 2
Esto es, en la base de vectores propios de 𝐴, los cuatro puntos de intersección entre la elipse y la
circunferencia tienen las siguientes coordenadas:

Suescun, Insausti, Flaquer (2022) 388 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.8 Ejemplos de aplicación

√7 3 √7 3 √7 3 √7 3
(+ , + ) , (+ , − ) , (− , + ) , (− ,− )
2 2 2 2 2 2 2 2

Suescun, Insausti, Flaquer (2022) 389 Tecnun-Universidad de Navarra


10.9 Ejercicios resueltos 10 Formas Cuadráticas Reales

Ejercicios resueltos

Ejercicio 10.1
Reducir a suma de cuadrados la siguiente forma cuadrática real, identificando un cambio de variables
admisible, y clasificarla.
𝛼12 + 𝛼22 + 𝛼33 − 2𝛼1 𝛼2 − 2𝛼2 𝛼3 − 2𝛼1 𝛼3

Solución
La matriz de la forma cuadrática es:
1 −1 −1
𝐴 = [−1 1 −1]
−1 −1 1
Su diagonalización mediante una matriz ortogonal (𝐷 = 𝑄𝑇 𝐴𝑄) ya ha sido resuelta en un ejercicio de
capítulos anteriores
−1 −1 1
√2 √6 √3
1 −1 1
𝑄=
√2 √6 √3
2 1
0
[ √6 √3 ]
2 0 0
𝐷 = [0 2 0]
0 0 −1
Haciendo el cambio de variables
𝑥 = 𝑄𝑥 ′
la forma reducida a suma de cuadrados es:
2 2 2
𝜙 = 2𝛼1′ + 2𝛼2′ − 𝛼3′
La forma cuadrática es indefinida. Su rango es 𝑟 = 3 y su signatura 𝜎 = 1.

Ejercicio 10.2
Clasificar la siguiente forma cuadrática de 𝑅2 :
(𝑎 + 𝑏)𝛼12 + (𝑎 + 𝑏)𝛼22 + 2(𝑎 − 𝑏)𝛼1 𝛼2
en función de los valores de los parámetros reales no nulos 𝑎 y 𝑏.

Solución
La matriz de la forma cuadrática es:
𝑎+𝑏 𝑎−𝑏
𝐴=[ ]
𝑎−𝑏 𝑎+𝑏
Sus valores propios se calculan mediante:
𝜆1 = 2𝑎
det(𝐴 − 𝜆𝐼) = 𝜆2 − 2(𝑎 + 𝑏)𝜆 + 4𝑎𝑏 = 0 → {
𝜆2 = 2𝑏

Suescun, Insausti, Flaquer (2022) 390 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.9 Ejercicios resueltos

Y la clasificación de la forma cuadrática es:

𝑎<0 𝑎<0 𝑎>0 𝑎>0


𝑏<0 𝑏>0 𝑏<0 𝑏>0

𝜆1 − − + +

𝜆2 − + − +

𝑟 2 2 2 2

𝜎 −2 0 0 2

Definido Definido
𝜙 Indefinida Indefinida
negativa positiva

Ejercicio 10.3
Clasificar la forma cuadrática real, dependiente del parámetro real 𝑏, dada por:
𝜙 = 𝑏(𝛼12 + 𝛼22 + 𝛼32 ) + 2(𝛼1 𝛼2 + 𝛼2 𝛼3 + 𝑏𝛼1 𝛼3 )

Solución
La matriz de la forma cuadrática es:
𝑏 1 𝑏
𝐴 = [1 𝑏 1]
𝑏 1 𝑏
Sus valores propios se calculan mediante:
𝜆1 = 0
3𝑏 + √𝑏 2 + 8
2 2 𝜆2 =
det(𝐴 − 𝜆𝐼) = −𝜆(𝜆 − 3𝑏𝜆 + 2(𝑏 − 1)) = 0 → 2
3𝑏 − √𝑏 2 + 8
{ 𝜆3 = 2
Obsérvese que:

3𝑏 ± √𝑏 2 + 8 = 0 → 9𝑏 2 = 𝑏 2 + 8 → 𝑏 = ±1
Según los distintos valores de 𝑏 la forma cuadrática se clasifica así:

𝑏 < −1 𝑏 = −1 −1 < 𝑏 < 1 𝑏=1 𝑏>1

𝜆1 0 0 0 0 0

𝜆2 − 0 + + +

𝜆3 − − − 0 +

𝑟 2 1 2 1 2

𝜎 −2 −1 0 1 2

Semidefinido Semidefinido Semidefinido Semidefinido


𝜙 Indefinida
negativa negativa positiva positiva

Suescun, Insausti, Flaquer (2022) 391 Tecnun-Universidad de Navarra


10.9 Ejercicios resueltos 10 Formas Cuadráticas Reales

Ejercicio 10.4
Reducir a suma de cuadrados y clasificar la siguiente forma cuadrática:
𝜙 = (𝛼1 − 𝛼2 + 𝛼3 − 𝛼4 )2 + (𝛼1 + 𝛼2 − 𝛼3 − 𝛼4 )2

Solución
Un cambio de variables que reduce la forma cuadrática a suma de cuadrados es el siguiente:
𝛼1′ = 𝛼1 − 𝛼2 + 𝛼3 − 𝛼4
𝛼2′ = 𝛼1 + 𝛼2 − 𝛼3 − 𝛼4
𝛼3′ = 𝛼3
{ 𝛼4′ = 𝛼4
Las ecuaciones del cambio de variables son en este caso
1 1
𝛼1 = 𝛼1′ + 𝛼2′ 𝛼4′
2 2
1 1
𝛼2 = − 𝛼1′ + 𝛼2′ + 𝛼3′
2 2
𝛼3 = 𝛼3′

{ 𝛼4 = 𝛼4′
Tras aplicar el cambio anterior, la forma reducida a suma de cuadrados es:
2 2
𝜙 = 𝛼1′ + 𝛼2′
La forma es semidefinido positiva, con rango y signatura iguales a dos.

Ejercicio 10.5
¿Puede la expresión
3𝛼12 + 3𝛼22 + 3𝛼33 + 2𝛼1 𝛼2 − 2𝛼2 𝛼3 − 2𝛼1 𝛼3
representar el cuadrado de la norma procedente de un producto escalar?

Solución
La expresión dada es una forma cuadrática. Para que esta forma cuadrática corresponda al cuadrado de
la norma inducida por un producto escalar, la forma cuadrática debe ser definido positiva.
Llamando 𝐺 a la matriz de la forma cuadrática, se tiene:
3 1 −1
𝐺=[ 1 3 −1]
−1 −1 3
Los valores propios de 𝐺 se obtienen mediante:
𝜆1 = 2 (𝑑𝑜𝑏𝑙𝑒)
det(𝐺 − 𝜆𝐼) = −𝜆3 + 9𝜆2 − 24𝜆 + 20 = 0 → {
𝜆2 = 5
Los tres valores propios son estrictamente positivos, luego la forma y la matriz, son definido positivas. La
matriz 𝐺 puede servir como matriz de Gram para definir el producto escalar
〈𝑥, 𝑦〉 = 𝑥 𝑇 𝐺𝑦
de modo que
‖𝑥‖2 = 〈𝑥, 𝑥〉 = 𝑥 𝑇 𝐺𝑥 = 3𝛼12 + 3𝛼22 + 3𝛼33 + 2𝛼1 𝛼2 − 2𝛼2 𝛼3 − 2𝛼1 𝛼3

Suescun, Insausti, Flaquer (2022) 392 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.9 Ejercicios resueltos

Ejercicio 10.6
Estudiar cuándo es definido positiva la forma cuadrática siguiente, en función de los parámetros reales
𝑎, 𝑏:
𝜙 = 𝑎𝛼12 + 𝑏𝛼22 + 𝑎𝛼32 + 2𝛼1 𝛼3

Solución
La matriz de la forma cuadrática dada, en la base de referencia, es:
𝑎 0 1
𝐴 = [0 𝑏 0]
1 0 𝑎
Los valores propios de 𝐴 son 𝑏, 𝑎 + 1 y 𝑎 − 1. Luego la forma cuadrática es definido positiva para
𝑏 > 0, 𝑎 > 1.

Suescun, Insausti, Flaquer (2022) 393 Tecnun-Universidad de Navarra


10.10 Ejercicios propuestos 10 Formas Cuadráticas Reales

Ejercicios propuestos

Ejercicio 10.7
Demostrar que si 𝐴 es una matriz regular, real y simétrica, entonces 𝐴−1 representa una forma cuadrática
de la misma clase que la representada por 𝐴.

Ejercicio 10.8
Reducir a suma de cuadrados la siguiente forma cuadrática real identificando un cambio de variables
admisible. Calcular también su rango y signatura, y clasificarla.
𝜙 = 2𝛼1 𝛼2 + 2𝛼1 𝛼3 − 2𝛼1 𝛼4

Ejercicio 10.9
Reducir a suma de cuadrados la siguiente forma cuadrática real mediante el método de la matriz
ortogonal:
1 2 1 2 1
𝛼2 + 𝛼3 + 𝛼1 𝛼2 + 𝛼1 𝛼3 + 𝛼2 𝛼3
4 4 2
Hallar también su rango y signatura, y clasificarla.

Ejercicio 10.10
Reducir a suma de cuadrados la siguiente forma cuadrática real identificando un cambio de variables
admisible. Calcular también su rango y signatura y clasificar la forma cuadrática.
𝜙(𝑥) = 𝑥 𝑇 𝐴𝑥 = 2𝛼1 𝛼2 + 2𝛼2 𝛼3 + 2𝛼3 𝛼4 + 2𝛼1 𝛼4

Ejercicio 10.11
¿Para qué valores del parámetro real 𝑏 es semidefinida la siguiente forma cuadrática real de tres
variables?
𝛼12 + 𝑏𝛼22 + 2𝛼2 𝛼3 + 𝑏𝛼32

Ejercicio 10.12
Clasificar las siguientes dos formas cuadráticas:
𝜙1 (𝑥) = −𝛼22 + 𝛼32 + 4𝛼1 𝛼3 + 2𝛼2 𝛼3 𝜙2 (𝑥) = 2𝛽1 𝛽2 − 2𝛽2 𝛽3 − 2𝛽1 𝛽3

Ejercicio 10.13
Reducir a suma de cuadrados la siguiente forma cuadrática real, identificando un cambio de variables
adecuado. Calcular también su rango y signatura y clasificar la forma cuadrática.
𝜙(𝑥) = 2𝛼1 𝛼3 + 2𝛼2 𝛼3 − 𝛼32

Ejercicio 10.14
Clasificar la siguiente forma cuadrática real de 2 variables
𝜙(𝑥) = (5𝑏 − 1)𝛼12 − 4𝛼1 𝛼2 + (5𝑏 − 4)𝛼22
en función de los posibles valores del parámetro real 𝑏.

Ejercicio 10.15
Reducir a suma de cuadrados y clasificar la forma cuadrática cuya matriz, en una cierta base, es la siguiente
matriz:
1 1 0 0
𝐴 = [1 1 0 0]
0 0 1 1
0 0 1 1

Suescun, Insausti, Flaquer (2022) 394 Tecnun-Universidad de Navarra


10 Formas Cuadráticas Reales 10.10 Ejercicios propuestos

Suescun, Insausti, Flaquer (2022) 395 Tecnun-Universidad de Navarra


Bibliografía

Juan Flaquer, Javier Olaizola, Juan Olaizola, “Curso de Álgebra Lineal”, EUNSA 2004 (3ª edición)
Carl D. Meyer, “Matrix Analysis and Applied Linear Algebra”, SIAM 2005
David C. Lay, “Linear Algebra and its Applications”, Pearson International Edition 2006 (3 rd edition)
David Poole, “Álgebra lineal. Una introducción moderna”, International Thomson Editores (2004) ISBN:
970-686-272-2
David Poole, “Linear Algebra. A Modern Introduction”, Brooks/Cole-Thomson Learning (2003) ISBN: 0-
534-34174-8
Gilbert Strang, “Linear Algebra and Its Applications”, Thomson, Brooks/Cole, 2006, ISBN: 0030105676,
9780030105678

Suescun, Insausti, Flaquer (2022) 397 Tecnun-Universidad de Navarra

También podría gustarte