Está en la página 1de 262

Apuntes de Matemáticas II

Grado en Ingeniería en Tecnologías Industriales


Grado en Ingeniería de Organización Industrial
Escuela Técnica Superior de Ingeniería Industrial

Milagros Arroyo, Paz Arroyo y Cristina Corral


Departamento de Matemática Aplicada
Índice
Tema 1: Matrices. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1

Tema 2: Espacios Vectoriales. . . . . . . . . . . . . . . . . . . . . . 55

Tema 3: Aplicaciones Lineales. . . . . . . . . . . . . . . . . . . . . 95

Tema 4: Espacios Euclídeos. . . . . . . . . . . . . . . . . . . . . . . 125

Tema 5: Diagonalización de matrices cuadradas. . . . . . . . . . 171

Tema 6: Formas Cuadráticas. . . . . . . . . . . . . . . . . . . . . . 201

Tema 7: Forma canónica de Jordan de una matriz cuadrada. . 229

Bibliografía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257
Tema 1: Matrices

1.1. Generalidades sobre matrices.

1.1.1 Matrices.
1.1.2 Operaciones con matrices.
1.1.3 Matriz Traspuesta. Matriz traspuesta conjugada.

1.2. Proceso de escalonamiento de una matriz.

1.2.1 Matrices en forma escalonada por filas.


1.2.2 Operaciones elementales y matrices elementales.
1.2.3 El método de Gauss y el método de Gauss-Jordan.

1.3. Rango de una matriz.

1.4. Sistemas de ecuaciones lineales.

1.5. Matrices no singulares.

1.5.1 Matriz no singular.


1.5.2 Criterios de no singularidad.
1.5.3 Cálculo de la inversa de una matriz no singular.

1.6. Determinantes.

1.6.1 Determinantes.
1.6.2 Cálculo de determinantes.
1.6.3 Interpretación geométrica del determinante de una matriz.
1.6.4 Algunas aplicaciones de los determinantes.

1.7. Factorizaciones LU y LDU de una matriz no singular.

1.7.1 Factorización LU de una matriz no singular.


1.7.2 Factorización LDU de una matriz no singular.
1.7.3 Aplicación de la factorización LDU.

1.8. Partición de matrices en bloques.

1.8.1 Matrices en bloques.


1.8.2 Operaciones con matrices en bloques.
1.8.3 Aplicaciones de las matrices en bloques.

1
1.1. GENERALIDADES SOBRE MATRICES.

Aunque el uso de tablas para representar datos de características comunes es antiguo, estando
documentado desde la época egipcia y babilónica y también en la matemática china se encuentran
ejemplos de cuadrados mágicos con una antigüedad superior a los dos mil años, el concepto de
matriz como tal no fué introducido hasta mediados del siglo XIX por el matemático inglés James
J. Sylvester. Pero desde entonces, la Teoría de Matrices se ha extendido de forma prodigiosa y
ha encontrado aplicaciones en numerosas áreas. Las matrices se han convertido en herramienta
cotidiana en innumerables campos de la ciencia y de la técnica, desde la Mecánica Cuántica hasta la
Estadística pasando por la Física Atómica, la Economía, la Teoría de Grafos, las Redes Eléctricas,
el Cálculo de Estructuras, la Mecánica de Fluidos, etc. Ello se debe a la gran cantidad de modelos y
aplicaciones de naturaleza lineal que se pueden representar con una matriz. Citemos, por ejemplo,
los sistemas de ecuaciones lineales, las aplicaciones lineales, el producto escalar, las matrices de
rigidez y elasticidad en Cálculo de Estructuras, la matriz jacobiana y la matriz hessiana en Cálculo,
las matrices de incidencia y de adyacencia de un grafo, etc.
Las matrices constituyen una herramienta adecuada para tratar de un modo sistemático compli-
cados cálculos numéricos y algebraicos que deben manejar un gran número de datos, tanto de un
modo simbólico como programando algoritmos en el ordenador. El estudio del problema lineal de
mínimos cuadrados, la reducción de superficies cuádricas o la resolución de sistemas de ecuacio-
nes diferenciales son algunas de las aplicaciones que veremos en la propia asignatura Matemáticas
II donde las matrices juegan un papel fundamental.
1.1.1 Matrices.
En todo el documento K denota indistintamente al conjunto de los números reales R o al de los
números complejos C.
Definición 1. Se llama matriz de tamaño m × n con entradas en K a una colección de mn elementos
de K distribuidos ordenadamente en m filas y en n columnas de la siguiente forma
 
 a11 a12 . . . a1n 
 a21 a22 . . . a2n 
A =  .. .. . .

.. 
 . . . . 
 
am1 am2 . . . amn

Escribiremos de forma abreviada la matriz A como A = (ai j )m×n , o simplemente A = (ai j ) si no


hace falta especificar el tamaño de la matriz.
Cada elemento ai j va provisto de dos subíndices que indican su posición dentro de la matriz: ai j
se encuentra en la fila i-ésima y en la columna j-ésima de la matriz A. A este elemento de K lo
llamaremos entrada (i, j) de A.
Usaremos letras mayúsculas para denotar las matrices y la misma letra en minúscula para sus
entradas.
Definición 2. Diremos que dos matrices A y B son iguales si son matrices del mismo tamaño y las
entradas que ocupan la misma posición coinciden. Es decir, dos matrices A y B de tamaño m × n
son iguales si ai j = bi j , para i = 1, 2, . . . , m y j = 1, 2, . . . , n.
Al conjunto de todas las matrices de tamaño m × n con entradas en K lo denotaremos por Mm×n (K).

2
Se dice que A es una matriz real si todas sus entradas son números reales. Análogamente, se dice
que A es una matriz compleja si las entradas de A son números complejos. Es evidente que toda
matriz real es también una matriz compleja, pero el recíproco no es cierto.
Ejemplo 3. !
−1 0 1
A= es una matriz real 2 × 3, lo que podemos escribir A = (ai j ) ∈ M2×3 (R), y, por
5 2 −3
ejemplo, la entrada (2, 1) de A es a21 = 5.
 
 1 − 3i −1 2 − i 
 
B =  0 2i 1 + 2i  es una matriz compleja 3 × 3, lo que podemos escribir B = (bi j ) ∈
 
−2 1 + i 0
M3×3 (C), y, por ejemplo, la entrada (3, 2) de B es b32 = 1 + i.
Las matrices C y D siguientes no son iguales, ya que no son matrices del mismo tamaño.
 
!  2 −1 1/2 
2 −1 1/2  
C= D =  −1 4 1  .
−1 4 1  
0 0 0
Las matrices E y F siguientes son iguales si, y sólo si, p = −2 y q = −3.
   
 1 3 −2   1 3 p 
   
E =  2 −2 −1  F =  2 −2 −1  .
   
0 5 1 0 2−q 1

Definición 4. Una matriz de tamaño 1 × n se llama matriz fila y una matriz de tamaño m × 1 se
llama matriz columna.
Así, dada una matriz A = (ai j ) ∈ Mm×n (K), podemos considerar la matriz 1 × n Ai = (ai1 . . . ain ) a
la que llamaremos matriz fila i-ésima de A, para cada i = 1, 2, . . . , m. También podemos considerar
 
 a1 j 
 
la matriz m × 1 A j =  ...  a la que llamaremos matriz columna j-ésima de A, para cada
 
am j
j = 1, 2, . . . , n.
Nótese que una matriz columna m × 1 con entradas en K se puede identificar con un vector de Km .
Teniendo en cuenta estas definiciones, podemos expresar la matriz A de distintas formas según nos
 

 A1 
   
interese A = A1 . . . An , o bien, A =  ... .
 
Am
Definición 5. A la matriz de tamaño m × n que tiene todas sus entradas nulas la llamaremos matriz
nula de tamaño m × n y la denotaremos por Om×n , o simplemente O si no hace falta especificar su
tamaño.
Definición 6. Una matriz de tamaño m × n se dice que es cuadrada si m = n, es decir, si tiene el
mismo número de filas que de columnas.
En una matriz cuadrada A = (ai j ) ∈ Mn×n (K), se llama diagonal principal al conjunto de
entradas {a11 , a22 , . . . , ann }.

3
Definición 7. Una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es triangular superior si
ai j = 0 siempre que i > j, 1 ≤ i, j ≤ n, es decir, si todas las entradas por debajo de la diagonal
principal son nulas.
Análogamente, una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es triangular inferior si
ai j = 0 siempre que i < j, 1 ≤ i, j ≤ n, es decir, si todas las entradas por encima de la diagonal
principal son nulas.
Definición 8. Una matriz cuadrada A = (ai j ) ∈ Mn×n (K) diremos que es diagonal si ai j = 0
siempre que i , j, 1 ≤ i, j ≤ n y escribiremos abreviadamente A = diag(a11 , a22 , . . . , ann ).
Observa que una matriz diagonal es también una matriz triangular superior y triangular inferior.
La matriz diagonal más importante es la matriz identidad. Se llama matriz identidad n × n a
la matriz diagonal que tiene todos sus entradas diagonales iguales a 1 y la denotaremos por In×n , o
simplemente I si no hace falta especificar su tamaño.
Ejemplo 9.
 
 1 −3 −1 
 
A =  0 −3 1  es una matriz triangular superior cuya diagonal principal es {1, −3, 4}.
 
0 0 4
 
 −2 0 0 0 
 2 −1 0 0 
B =   es una matriz triangular inferior cuya diagonal principal es {−2, −1, 0, −1}.

 1 −1 0 0 
3 1 5 −1
 
 1 0 0  !
  0 0
I3×3 =  0 1 0  es la matriz identidad 3 × 3 y O2×2 = es la matriz nula 2 × 2. Estas dos
  0 0
0 0 1
matrices son diagonales, triangulares superiores y también triangulares inferiores.
Definición 10. Dada una matriz A ∈ Mm×n (K), se llama submatriz de A a toda matriz que se obtiene
eliminando de A ciertas filas y/o columnas.
Dada una matriz A = (ai j ) ∈ Mm×n (K), Ai es una submatriz 1 × n de A, para cada i = 1, 2, . . . , m, y
A j es una submatriz m × 1 de A, para cada j = 1, 2, . . . , n.
Si consideramos matrices cuadradas, dada una matriz A ∈ Mn×n (K), se llama submatriz prin-
cipal de A a toda matriz que se obtiene eliminando de A ciertas filas y las mismas columnas.
 
!  1 − 3i −1 2 − i 
−1 0 1  
Ejemplo 11. Consideremos de nuevo las matrices A = y B =  0 2i 1 + 2i 
5 2 −3  
−2 1 + i 0
del ejemplo 3. Podemos escribir
  ! ! !
1 2 3 1 −1 2 0 3 1
A = A A A , siendo A = , A = yA =
5 2 −3

o bien, !
A1    
A= , siendo A1 = −1 0 1 y A2 = 5 2 −3
A2

4
!
0 1
La matriz P = es una submatriz 2 × 2 de A (que se obtiene eliminando la primera
2 −3
 
columna) y la matriz Q = 2 es una submatriz 1 × 1 de A (que se obtiene eliminando la fila 1a y
las columnas 1a y 3a ).
! !  
1 − 3i −1 1 − 3i 2 − i
Las matrices R = ,S = y T = 2i son submatrices principales
0 2i −2 0
de B y se obtienen eliminando la 3 fila y la 3 columna para la matriz R; la 2a fila y la 2a columna
a a

para la matriz S ; y las filas 1a y 3a y las columnas 1a y 3a para la matriz T .

1.1.2 Operaciones con Matrices.


Vamos a recordar a continuación las operaciones básicas con matrices: la suma de matrices, el
producto de un escalar por una matriz y el producto de matrices, y sus propiedades.
∗ Suma de matrices
Para sumar dos matrices A y B, sumaremos las entradas que ocupan la misma posición. Por tanto,
necesitamos que las dos matrices sean del mismo tamaño para poder sumarlas.
Definición 12. Dadas dos matrices A = (ai j ) y B = (bi j ) ∈ Mm×n (K), se define la suma de A y B
como la matriz A + B = (ai j + bi j ) ∈ Mm×n (K).
! !
2 3 −1 −3 0 4
Ejemplo 13. Si consideramos las matrices A = yB = ∈ M2×3 (R),
5 7 1 −1 2 6
entonces la matriz suma es
! !
2 + (−3) 3 + 0 −1 + 4 −1 3 3
A+B= = .
5 + (−1) 7 + 2 1 + 6 4 9 7

Propiedades. La suma de matrices verifica las siguientes propiedades:

• Asociativa: A + (B + C) = (A + B) + C, ∀A, B, C ∈ Mm×n (K)

• Conmutativa: A + B = B + A, ∀A, B ∈ Mm×n (K)

• Elemento neutro: La matriz nula Om×n es el elemento neutro de la suma de matrices, ya que
A + Om×n = A = Om×n + A, ∀A ∈ Mm×n (K)

• Elemento opuesto: ∀ A = (ai j ) ∈ Mm×n (K) existe −A = (−ai j ) ∈ Mm×n (K) tal que
A + (−A) = Om×n = (−A) + A.

Observa que si A = diag(a11 , a22 , . . . , ann ) y B = diag(b11 , b22 , . . . , bnn ) son dos matrices diagonales,
entonces A + B = diag(a11 + b11 , a22 + b22 , . . . , ann + bnn ) es otra matriz diagonal. Análogamente,
la suma de dos matrices triangulares inferiores es otra matriz triangular inferior. Y la suma de dos
matrices triangulares superiores es otra matriz triangular superior.

∗ Producto de un escalar por una matriz


Para multiplicar un escalar (un número real o complejo) por una matriz, multiplicaremos cada una
de las entradas de la matriz por dicho escalar.

5
Definición 14. Dada una matriz A = (ai j ) ∈ Mm×n (K) y un escalar α ∈ K, se define el producto de
α por A como la matriz αA = (αai j ) ∈ Mm×n (K).
 
 3 −1 
 
Ejemplo 15. Si se considera la matriz A =  0 1  ∈ M3×2 (C) y α = 1 − i ∈ C, entonces
 
−2 2
 
 3 − 3i −1 + i 
 
αA =  0 1 − i  ∈ M3×2 (C).
 
−2 + 2i 2 − 2i

Propiedades.

• La propiedad distributiva respecto de la suma de matrices:


α(A + B) = αA + αB, ∀A, B ∈ Mm×n (K), ∀α ∈ K.

• La propiedad distributiva respecto de la suma de escalares:


(α + β)A = αA + βA, ∀A ∈ Mm×n (K), ∀α, β ∈ K.

• Asociativa mixta:
(αβ)A = α(βA), ∀A ∈ Mm×n (K), ∀α, β ∈ K.

• Elemento neutro del producto por un escalar:


1A = A ∀A ∈ Mm×n (K) con 1 ∈ K.

• A ∈ Mm×n (K), α ∈ K y αA = Om×n =⇒ A = Om×n ó α = 0.

• A, B ∈ Mm×n (K), α ∈ K − {0} y αA = αB =⇒ A = B.

• A ∈ Mm×n (K) − {Om×n }, α, β ∈ K y αA = βA =⇒ α = β.

∗ Producto de matrices
Para calcular la entrada (i, j) del producto de dos matrices A y B tomaremos la fila i-ésima de A y
la columna j-ésima de B e iremos multiplicando entrada a entrada y sumando (de hecho, cuando
las matrices son reales se trata del producto escalar de los dos vectores (ver tema de espacios
euclídeos)). Por tanto, es necesario que el número de entradas de la fila i-ésima de A y el número de
entradas de la columna j-ésima de B coincidan. Es decir, para poder multiplicar las matrices A y B
necesitamos que el número de columnas de A coincida con el número de filas de B.
Definición 16. Si A = (ai j ) ∈ Mm×n (K) y B = (bi j ) ∈ Mn×p (K), se define el producto de A y B
n
X
como la matriz A · B = (ci j ) ∈ Mm×p (K), siendo ci j = aik bk j = ai1 b1 j + ai2 b2 j + · · · + ain bn j .
k=1

La definición del producto de matrices puede parecer, de momento, artificiosa, pero nos va a per-
mitir escribir un sistema de ecuaciones lineales como el producto de la matriz de coeficientes del
sistema por el vector de incógnitas igual al vector de términos independientes (ver sección 1.4).

6
   
 2 3 −1   1 4 
Ejemplo 17. Si consideramos las matrices A =   ∈ M2×3 (R) y B =  −1 2  ∈
5 7 1 
0 6

M3×2 (R), entonces
! !
2 · 1 + 3 · (−1) + (−1) · 0 2 · 4 + 3 · 2 + (−1) · 6 −1 8
A·B= = ∈ M2×2 (R).
5 · 1 + 7 · (−1) + 1 · 0 5·4+7·2+1·6 −2 40
 
 22 31 3 
 
En este caso, también podemos calcular B · A y resulta B · A =  8 11 3  ∈ M3×3 (R).
 
30 42 6
! !
1 1 1 1
Análogamente, si se consideran las matrices C = yD= , entonces
1 1 −1 −1
! !
0 0 2 2
C·D= = O2×2 y D·C =
0 0 −2 −2

Nota 18. En general, el producto de matrices NO es conmutativo, es decir, no se verifica que A · B


coincide con B · A, como se pone de manifiesto si observamos las matrices A y B, o las matrices C
y D, del ejemplo anterior.
Asimismo, tampoco se satisface que si un producto de matrices es nulo, deba ser nulo alguno
de los factores. Es decir, que si A y B son matrices y A· B = O esto NO implica que A = O o B = O.
Por ejemplo, las matrices C y D del ejemplo 17 son matrices no nulas tales que CD = O2×2 .
Otras propiedades que sí que verifica el producto de matrices son las siguientes.
Propiedades.

• Asociativa: A · (B · C) = (A · B) · C, ∀A ∈ Mm×n (K), B ∈ Mn×p (K), C ∈ M p×q (K).

• Distributiva por la izquierda del producto respecto de la suma:


A · (B + C) = A · B + A · C, ∀A ∈ Mm×n (K), B, C ∈ Mn×p (K).

• Distributiva por la derecha del producto respecto de la suma:


(B + C) · D = B · D + C · D, ∀B, C ∈ Mn×p (K), D ∈ M p×q (K).

• La matriz identidad es el elemento neutro del producto de matrices, tanto por la izquierda
como por la derecha, aunque hay que considerar la matriz identidad del tamaño adecuado,
es decir,
A · In×n = A y Im×m · A = A, ∀A ∈ Mm×n (K).

• A · On×p = Om×p , O s×m · A = O s×n , ∀A ∈ Mm×n (K).

Observa que si A = diag(a11 , a22 , . . . , ann ) y B = diag(b11 , b22 , . . . , bnn ) son dos matrices diagonales,
entonces A· B = diag(a11 b11 , a22 b22 , . . . , ann bnn ) es otra matriz diagonal. Análogamente, el producto
de dos matrices triangulares inferiores es otra matriz triangular inferior. Y el producto de dos
matrices triangulares superiores es otra matriz triangular superior.

7
1.1.3 Matriz Traspuesta. Matriz Traspuesta Conjugada.
Definición 19. Sea A = (ai j ) ∈ Mm×n (K).
Se llama matriz traspuesta de A a la matriz AT = (a ji ) ∈ Mn×m (K).
Se llama matriz traspuesta conjugada de A a la matriz A∗ = (a ji ) ∈ Mn×m (K).
Recordemos que si z = x + yi ∈ C, entonces su conjugado es el número complejo z = x − yi.
 
 −3 0  !
  T −3 5 −4
Ejemplo 20. Si A =  5 −1  ∈ M3×2 (R), entonces A = ∈ M2×3 (R) y
  0 −1 2
−4 2
A∗ = AT . ! ! !
3 + 2i 1 T 3 + 2i −5i ∗ 3 − 2i 5i
Y si B = ∈ M2×2 (C), entonces B = yB = ∈
−5i 1 + 3i 1 1 + 3i 1 1 − 3i
M2×2 (C).

Propiedades de la traspuesta y traspuesta conjugada de una matriz.


Si A, B ∈ Mm×n (K), C ∈ Mn×p (K) y α ∈ K, entonces se verifican las siguientes propiedades:
(i) (AT )T = A (i0 ) (A∗ )∗ = A
(ii) (αA)T = αAT (ii0 ) (αA)∗ = αA∗
T T T
(iii) (A + B) = A + B (iii0 ) (A + B)∗ = A∗ + B∗
(iv) (AC)T = C T AT (iv0 ) (AC)∗ = C ∗ A∗ .

Definición 21. Sea A = (ai j ) ∈ Mn×n (K) una matriz cuadrada.

• Diremos que A es una matriz simétrica si ai j = a ji , para todo i, j = 1, 2, . . . , n.

• Diremos que A es una matriz antisimétrica si ai j = −a ji , para todo i, j = 1, 2, . . . , n.

• Diremos que A es una matriz hermítica si ai j = a ji , para todo i, j = 1, 2, . . . , n.

• Diremos que A es una matriz antihermítica si ai j = −a ji , para todo i, j = 1, 2, . . . , n.

Teniendo en cuenta los conceptos de matriz traspuesta y traspuesta conjugada de A, se tiene la


siguiente proposición.
Proposición 22. Si A = (ai j ) ∈ Mn×n (K), entonces

• A es simétrica ⇐⇒ AT = A

• A es antisimétrica ⇐⇒ AT = −A

• A es hermítica ⇐⇒ A∗ = A

• A es antihermítica ⇐⇒ A∗ = −A

Observa que para matrices reales los conceptos de matriz simétrica y matriz hermítica son equi-
valentes, es decir, toda matriz real simétrica es hermítica y toda matriz real hermítica es simétrica.
Esto mismo ocurre con las matrices reales antisimétricas y antihermíticas. En cambio, si las ma-
trices son complejas, los conceptos de matriz simétrica y matriz hermítica, matriz antisimétrica

8
y matriz antihermítica son distintos, ya que existen matrices simétricas que no son hermíticas,
hermíticas no simétricas, etc.
Ejemplo 23. Si consideramos las siguientes matrices
   
 3 1 −4   0 5 −1  !
    2 1 − 4i
A =  1 −1 2  , B =  −5 0 7  , C= ,
    1 + 4i −1
−4 2 5 1 −7 0
! ! !
−3i 5 − i i 1 + 2i 0 −1 − i
D= , E= y F=
−5 − i 0 1 + 2i −6 1+i 0
A es una matriz simétrica (y hermítica), ya que AT = A; B es una matriz antisimétrica (y antiher-
mítica), ya que BT = −B; C es una matriz hermítica, ya que C ∗ = C, y no es simétrica, ya que
C T , C; D es una matriz antihermítica, ya que D∗ = −D, y no es antisimétrica, ya que DT , −D;
E es una matriz simétrica, ya que E T = E, y no es hermítica, ya que E ∗ , E; F es una matriz
antisimétrica, ya que F T = −F, y no es antihermítica, ya que F ∗ , −F.

Observa además que una matriz antisimétrica tiene todas sus entradas diagonales nulas; una
matriz hermítica tiene todas sus entradas diagonales reales; y una matriz antihermítica tiene todas
sus entradas diagonales con parte real nula.

1.2. PROCESO DE ESCALONAMIENTO DE UNA MATRIZ.

En esta sección vamos a transformar una matriz en su forma escalonada reducida mediante ope-
raciones elementales. Veamos primero qué entendemos por forma escalonada y forma escalonada
reducida.
1.2.1 Matrices en Forma Escalonada Por Filas.
Definición 24. Una matriz A ∈ Mm×n (K) se dice que está en forma escalonada por filas si verifica
las siguientes condiciones:

1. las filas nulas (si existen) se encuentran en la parte inferior de la matriz;

2. la primera entrada no nula de la fila i-ésima (i ∈ {2, . . . , m}) se encuentra a la derecha de la


primera entrada no nula de la fila anterior.

Diremos que A ∈ Mm×n (K) está en forma escalonada reducida por filas si además de estar en
forma escalonada por filas verifica:

3. la primera entrada no nula de cada fila no nula es 1;

4. la primera entrada no nula de cada fila no nula es la única entrada no nula de su columna.

A los unos que son primeras entradas no nulas de la forma escalonada reducida por filas los llama-
remos unos principales.

9
Ejemplo 25. Considerando las matrices
   
 −1 1 5 0 2     2 1 i   
 0 1 −2 2 1   0 1 0 2   0 1 −1   1 1 0 −1 
A =   , B =  0 0 1 −1  , C =   y D =  0 0 1 1  ,
 0 0 −3 7 0     0 −3 4i   
0 0 0 0 0 0 0 0
0 0 0 0 0 0 0 −1
A está en forma escalonada por filas pero no en forma escalonada reducida por filas; B y D están
en forma escalonada reducida por filas; y la matriz C no está en forma escalonada por filas, luego
tampoco está en forma escalonada reducida por filas.
1.2.2 Operaciones Elementales y Matrices Elementales.
Para buscar la forma escalonada y la forma escalonada reducida por filas de una matriz utiliza-
remos las operaciones siguientes, que llamaremos operaciones elementales.
Definición 26. Sea A ∈ Mm×n (K).
• Llamaremos operación elemental de tipo I sobre filas a la operación que permuta la fila
i-ésima y la fila j-ésima de A. Escribiremos abreviadamente Fi ↔ F j .
• Llamaremos operación elemental de tipo II sobre filas a la operación que multiplica la fila
i-ésima de A por un escalar α ∈ K − {0}. Escribiremos abreviadamente αFi .
• Llamaremos operación elemental de tipo III sobre filas a la operación que suma a la fila i-
ésima de A, la fila la j-ésima de A multiplicada por α ∈ K−{0}. Escribiremos abreviadamente
Fi + αF j .

Definición 27. Diremos que una matriz E ∈ Mn×n (K) es una matriz elemental si se obtiene al
aplicar una operación elemental sobre la matriz identidad In×n . La matriz elemental será del mismo
tipo que la operación elemental que se haya realizado.
 
 1 0 0 
 
Ejemplo 28. E1 =  0 0 1  es una matriz elemental de tipo I que se obtiene permutando las
 
0 1 0
filas 2 y 3 de I3×3 .
√ !
2 0 √
E2 = es una matriz elemental de tipo II que se obtiene multiplicando por 2 la fila 1
0 1
de I2×2 .
 
 1 0 0 
 
E3 =  0 1 0  es una matriz elemental de tipo III que se obtiene realizando la operación ele-
 
0 −3 1
mental de tipo III F3 + (−3)F2 a la matriz I3×3 .
 
 1 0 2 
E4 =  0 1 0  es una matriz elemental de tipo III que se obtiene realizando la operación ele-
 
0 0 1
mental de tipo III F1 + 2F3 a la matriz I3×3 .

Observemos que las matrices elementales de tipo I y las de tipo II son simétricas. Además, las ma-
trices elementales de tipo II son diagonales y las matrices elementales de tipo III son triangulares.

10
Realizar una operación elemental sobre las filas de una matriz A ∈ Mm×n (K) equivale a Premulti-
plicar A por la matriz elemental que resulta de aplicar dicha operación elemental sobre Im×m , como
se pone de manifiesto en el siguiente ejemplo.
 
 a b 
 
Ejemplo 29. Considera A =  c d  ∈ M3×2 (K) y la operación elemental de tipo III F3 + 2F1 , en-
 
e f
 
 a b 
 .
tonces si se realiza esta operación sobre las filas de A se obtiene la matriz B =  c d 

e + 2a f + 2b
Si realizamos la operación elemental sobre las filas de I3×3 para obtener la matriz elemental E y
multiplicamos E por A se obtiene
    
 1 0 0   a b   a b 
    
E · A =  0 1 0   c d  =  c d .
   
2 0 1 e f e + 2a f + 2b
Los dos resultados coinciden. Por tanto, es equivalente realizar la operación elemental sobre las
filas de A que premultiplicar A por la matriz elemental correspondiente.
Nota 30. Análogamente, se pueden definir operaciones elementales sobre las columnas de una
matriz A ∈ Mm×n (K) y las correspondientes matrices elementales.
Se puede comprobar que realizar una operación elemental por columnas sobre A equivale a Post-
multiplicar A por la matriz que resulta de aplicar dicha operación elemental sobre las columnas
de In×n .
De momento, nosotros sólo vamos a utilizar operaciones elementales sobre filas.
1.2.3 El Método de Gauss y el Método de Gauss-Jordan.
Dada una matriz A ∈ Mm×n (K), mediante operaciones elementales realizadas sobre sus filas (o de
forma equivalente, premultiplicando por matrices elementales) se puede transformar A en una ma-
triz que está en forma escalonada por filas o, en una matriz que está en forma escalonada reducida
por filas.
Ejemplo 31. Vamos a transformar la matriz A en una matriz en forma escalonada y en su forma
escalonada reducida por filas R.
     
 0 2 1 4   1 5 2 1   1 5 2 1 
  F1 ↔F2   F3 +F1  
A =  1 5 2 1  −−−−−→  0 2 1 4  −−−−→  0 2 1 4  →

     
−1 −3 −1 −2 −1 −3 −1 −2 0 2 1 −1
 
 1 5 2 1 
F3 −F2  
−−−−→  0 2 1 4  = B es una forma escalonada por filas de A
 
0 0 0 −5
Las entradas marcadas con un recuadro en B se llaman pivotes del proceso de escalonamiento.
       
 1 5 2 1  (− 1 )F  1 5 2 1  FF1−−4F
F3
 1 5 2 0  1 F  1 5 2 0 
  5 3   2 3   2 2 
B =  0 2 1 4  −−−−−→  0 2 1 4  −−−−−−−−→  0 2 1 0  −−−→  0 1 1/2 0  →

       
0 0 0 −5 0 0 0 1 0 0 0 1 0 0 0 1

11
 
 1 0 −1/2 0 
F1 −5F2   
−−−−−→  0 1 1/2 0  = R es la forma escalonada reducida por filas de A.
 
0 0 0 1
Las entradas marcadas con un recuadro en R son los unos principales.
Utilizando otras operaciones elementales sobre A obtenemos otra forma escalonada:
     
 0 2 1 4   −1 −3 −1 −2   −1 −3 −1 −2 
  F1 ↔F3   F2 +F1  
A =  1 5 2 1  −−−−−→  1 5 2 1  −−−−→  0 2 1 −1  →−
     
−1 −3 −1 −2 0 2 1 4 0 2 1 4
 
 −1 −3 −1 −2 
F3 −F2   
−−−−→  0 2 1 −1  = C es otra forma escalonada por filas de A con pivotes − 1, 2 y 5.
 
0 0 0 5
     
 −1 −3 −1 −2  1 F  −1 −3 −1 −2  FF1 ++2F F
3
 −1 −3 −1 0 
  3   2 3  
C =  0 2 1 −1  −−−→  0 2 1 −1  −−−−−−−−→  0 2 1 0  →
5

     
0 0 0 5 0 0 0 1 0 0 0 1
     
1  −1 −3 −1 0   −1 0 1/2 0   1 0 −1/2 0 
F   F1 +3F2   (−1)F1  
1 1/2 0  −−−−−→  0 1 1/2 0  −−−−→  0 1
2
−−−→  0
2

     1/2 0  = R
0 0 0 1 0 0 0 1 0 0 0 1
Vemos con este ejemplo que a partir de una matriz A podemos obtener distintas formas escalonadas
por filas. Sin embargo, la forma escalonada reducida por filas en ambos procesos coincide.
Vamos a continuación a escribir los pasos del método que hemos seguido.
∗Método de Gauss para la obtención de una forma escalonada por filas.
Partimos de una matriz A ∈ Mm×n (K) que no esté en forma escalonada por filas. Así, A será no
nula, ya que si A fuese la matriz nula ya estaría en forma escalonada:

Paso 1 Con una operación elemental de tipo I (permutando dos filas), si fuese necesaria, llevar a
la primera fila de la matriz una fila con la primera entrada no nula. Si no hubiese ninguna,
llevar a la primera fila una fila cuya segunda entrada sea no nula. Y así sucesivamente. Esta
primera entrada no nula se llama pivote.

Paso 2 Con operaciones elementales de tipo III sobre filas (sumar a una fila un múltiplo de la fila
del pivote) hacer ceros por debajo de la entrada pivote.

Paso 3 Aplicar los Pasos 1 y 2 a la submatriz que se obtiene al eliminar la primera fila.

De esta forma, mediante operaciones elementales de tipo I y III sobre filas se obtiene una forma
escalonada por filas a partir de la matriz A. Este procedimiento se conoce como método de Gauss.
∗ Método de Gauss-Jordan para la obtención de la forma escalonada reducida de una matriz.
Partimos de una matriz A ∈ Mm×n (K) no nula que no está en forma escalonada reducida por filas:

Paso 1’ Aplicar el método de Gauss a la matriz A para obtener una forma escalonada por filas.

12
Paso 2’ Con operaciones elementales de tipo III sobre filas (sumar a una fila un múltiplo de la fila
del pivote) hacer ceros por encima de las entradas pivote. En este paso conviene hacer las
operaciones elementales empezando por el último pivote porque de esta forma se realizan
menos cálculos.
Paso 3’ Con operaciones elementales de tipo II (multiplicar la fila por el inverso del pivote) hacer
uno la entrada pivote.
De esta forma, mediante operaciones elementales de tipo I, II y III sobre filas se obtiene la forma
escalonada reducida por filas de la matriz A. Este procedimiento se conoce como método de Gauss-
Jordan.
Teorema 32. (Teorema de existencia de la forma escalonada reducida de una matriz)
Dada una matriz A ∈ Mm×n (K) existen operaciones elementales sobre filas que transforman A en
una única matriz en forma escalonada reducida por filas R.
La matriz R recibe el nombre de forma escalonada reducida de A.
Corolario 33. Si A ∈ Mm×n (K) y R es su forma escalonada reducida, entonces existen matrices
elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R.
Observa que si A es una matriz en forma escalonada reducida, entonces R = A. En particular, si A
es la matriz nula, entonces la forma escalonada reducida de A es también la matriz nula.
Observa también que, aunque la forma escalonada reducida de una matriz es única, podemos ob-
tenerla por distintos caminos (ver ejemplo 31).
Ejemplo 34.  Aplica el método deGauss-Jordan para obtener la forma escalonada reducida de la
 0 0 2 2 −2 
 0 1 2 2 −1 
matriz A =  .

 0 5 2 −2 1 
0 −1 4 2 1
Como no hay ninguna fila que tenga la primera entrada no nula, buscamos una fila que tenga la
segunda entrada no nula y hacemos que ésta sea la primera fila de la matriz.
     
 0 0 2 2 −2   0 1 2 2 −1   0 1 2 2 −1 
 0 1 2 2 −1  Paso 1    

 
 
 0 0 2 2 −2  Pasos 2, 3 y 1  0 0 2 2 −2 
A =   −−−−−→   −−−−−−−−−→  →−
 0 5 2 −2 1  F1 ↔F2  0 5 2 −2 1  F3 − 5F1  0 0 −8 −12 6 
 
0 −1 4 2 1 0 −1 4 2 1 F4 + F1
0 0 6 4 0
   
 0 1 2 2 −1   0 1 2 2 −1 
   
Pasos 2, 3 y 1  0 0 2 2 −2  Pasos 2, 3 y 1   0 0 2 2 −2 
−−−−−−−−−→   −−−−−−−−−→ 
  
F3 + 4F2  0 0 0 −4 −2  F4 − F3  0 0 0 −4 −2 
  1 
F4 − 3F2 2  
0 0 0 −2 6 0 0 0 0 7
Ya tenemos una forma escalonada, es decir, ya hemos concluido el método de Gauss, o bien el
paso 1’ del método de Gauss-Jordan. Ahora a partir de esta matriz buscamos la forma escalonada
reducida.
     
 0 1 2 2 −1   0 1 2 2 0   0 1 2 0 0 
 0 0 2 2

−2  Paso 2’

0 0 2 2 0

 Paso 2’

0 0 2 0 0


  −−−−−−−−−−−−→   −−−−−−−−−−−−→  
 0 0 0 −4 −2  F1 + (1/7)F4  0 0 0 −4 0  F1 + (1/2)F3  0 0 0 −4 0 
  F2 + (2/7)F4   F2 + (1/2)F3  
0 0 0 0 7 F + (2/7)F
0 0 0 0 7 0 0 0 0 7
3 4

13
   
 0 1 0 0 0   0 1 0 0 0 
 
Paso 2’  0 0 2 0 0  Paso 3’  0 0 1 0 0 
−−−−−−−−→   −−−−−−−−−→   = R

F1 − F2  0 0 0 −4 0  (1/2)F2  0 0 0 1 0 
  (−1/4)F3 0 0 0 0 1
0 0 0 0 7 (1/7)F4

La matriz R es la forma escalonada reducida de la matriz A.

1.3. RANGO DE UNA MATRIZ.

Definición 35. Dada una matriz A ∈ Mm×n (K) llamaremos rango de A al número de unos princi-
pales de la forma escalonada reducida de la matriz A y lo denotaremos por ρ(A).
Es evidente que ρ(Om×n ) = 0.
Además, claramente el número de unos principales de la forma escalonada reducida de A coincide
con el número de filas no nulas de una forma escalonada obtenida a partir de A. Esto significa que
para calcular el rango de A podemos aplicar el método de Gauss a la matriz A y contar el número
de filas no nulas de una forma escalonada de A.
Ejemplo 36. Si nos fijamos en la matriz del ejemplo 31 vemos que ρ(A) = 3, mientras que para la
matriz del ejemplo 34 se tiene que ρ(A) = 4.
Propiedad 37. Si A ∈ Mm×n (K), entonces ρ(A) ≤ mı́n(m, n).

1.4. SISTEMAS DE ECUACIONES LINEALES.

Consideremos el sistema de m ecuaciones lineales con n incógnitas:



a11 x1 + a12 x2 + · · · + a1n xn = b1 


a21 x1 + a22 x2 + · · · + a2n xn = b2 


.. .. ..  ,
. . . 




am1 x1 + am2 x2 + · · · + amn xn = bm 
siendo ai j ∈ K, bi ∈ K, i = 1, 2, . . . , m, j = 1, 2, . . . , n. Gracias al producto de matrices podemos
escribir el sistema de la siguiente forma:
     
 a11 a12 · · · a1n   x1   b1 
 a21 a22 · · · a2n   x2   b2 
     
 .. .. .. ..  ·  ..  =  ..  =⇒ A · x = b
 . . . .   .   . 
    
am1 am2 · · · amn xn bm

donde A = (ai j ) es una matriz m × n con entradas en K, x = (x1 , x2 , . . . , xn )T es el vector de


incógnitas y b = (b1 , b2 , . . . , bm )T es el vector de los términos independientes.
Si b es el vector nulo, se dice que el sistema es homogéneo.
Llamaremos matriz ampliada del sistema a la matriz de tamaño m × (n + 1) con entradas en K que
se obtiene añadiendo a A la columna b y la denotaremos por (A|b).
Resolver el sistema consiste en hallar todos los posibles valores de (x1 , x2 , . . . , xn ) (si existen) que
verifican simultáneamente las m ecuaciones.
En función del número de soluciones que tiene el sistema presentamos la siguiente clasificación.

14
Clasificación: Dado un sistema de ecuaciones lineales A x = b

• diremos que el sistema es incompatible si no tiene solución.

• diremos que el sistema es compatible si tiene solución.

Si la solución es única, se dice que el sistema es compatible determinado.


Si tiene infinitas soluciones, se dice que el sistema es compatible indeterminado.

Para resolver un sistema de ecuaciones lineales vamos a aplicar operaciones elementales para
transformarlo en otro sistema que se resuelva fácilmente. Dado un sistema de ecuaciones linea-
les A x = b, se puede comprobar que si hacemos operaciones elementales sobre las filas de la
matriz ampliada (A|b) se obtiene la matriz ampliada de un nuevo sistema que tiene las mismas
soluciones que A x = b. Podemos entonces aplicar el método de Gauss, o mejor aún, el método
de Gauss-Jordan a la matriz (A|b) para obtener su forma escalonada reducida y resolver el sistema
resultante. Veamos algunos ejemplos.

2y + z = 4  


Ejemplo 38. Resuelve el sistema x + 5y + 2z = 1  .


−x − 3y − z = −2
Considerando la matriz ampliada y aplicando el método de Gauss se obtiene la siguiente forma
escalonada (ver ejemplo 31):
    
 0 2 1 4   1 5 2 1  x + 5y + 2z = 1 

  Método de   

(A|b) =  1 5 2 1 −−−−→  0 2 1 4
 −−−Gauss  =⇒ 2y + z = 4 

  

−1 −3 −1 −2 0 0 0 −5 0 = −5

Por tanto, la tercera ecuación implica que el sistema es incompatible.


Observa que para que el sistema sea compatible deben coincidir el número de filas no nulas de la
forma escalonada de A y de la forma escalonada de (A|b), es decir, si ρ(A) = ρ(A|b) el sistema será
compatible.

x + y + z = −3  


Ejemplo 39. Resuelve el sistema 2x + 3y + 4z = −9   .

x + y + 2z = −5 
Consideremos la matriz ampliada del sistema y apliquemos el método de Gauss-Jordan:
    F2 − 2F3  
 1 1 1 −3  FF2 −−2F
F1
1


 1 1 1 −3 

 F1 − F3  
 1 1 0 −1 
  3 
(A|b) =  2 3 4 −9  −−−−−−−−→  0 1 2 −3  −−−−−−−−→  0 1 0 1  → −
     
1 1 2 −5 0 0 1 −2 0 0 1 −2
  
F1 − F2
 1 0 0 −2  x = −2 


  
−−−−−−−→  0 1 0 1  =⇒ y = 1 

 
0 0 1 −2 z = −2 
Por tanto, el sistema es compatible determinado y la única solución es el vector (−2, 1, −2)T .
Observa que, en este caso, ρ(A) = ρ(A|b) = 3 =número de incógnitas del sistema.

15

−2x + y + z = 0  


Ejemplo 40. Resuelve el sistema homogéneo x − 2y + z = 0  .

x + y − 2z = 0 
Consideremos la matriz ampliada y apliquemos el método de Gauss-Jordan:

  FF12 ↔ F3
− F1    
 −2 1 1 0  F + 2F  1 1 −2 0  F + F  1 1 −2 0 
  3 1   3 2  
(A|b) =  1 −2 1 0  −−−−−−−−→  0 −3 3 0  −−−−−−−→  0 −3 3 0  →

     
1 1 −2 0 0 3 −3 0 0 0 0 0
1
F1 + F2   
3
(−1/3)F2
 1 0 −1 0  x −z = 0  
 x=z 


   
−−−−−−−−→  0 1 −1 0  =⇒ y − z = 0 
 =⇒ y =z 

 
 

0 0 0 0 0 = 0 z∈R
Por tanto, el sistema es compatible indeterminado y las infinitas soluciones del sistema forman el
conjunto S = {x = λ, y = λ, z = λ : λ ∈ R}.
Observa que, en este caso, ρ(A) = ρ(A|b) = 2 < 3 =número de incógnitas. El número de parámetros
necesarios para escribir la solución coincide con la diferencia entre el número de incógnitas y el
rango de A.
El siguiente teorema resume las situaciones posibles.
Teorema 41. (Teorema de existencia y unicidad de soluciones de Rouché-Frobenius).
Si se considera el sistema A x = b y (A|b) es su matriz ampliada, entonces

1. ρ(A|b) > ρ(A) ⇐⇒ el sistema es incompatible

2. ρ(A|b) = ρ(A) ⇐⇒ el sistema es compatible

• si además, ρ(A) = n =número de incógnitas =⇒ el sistema tiene solución única

• si ρ(A) < n =número de incógnitas =⇒ el sistema tiene infinitas soluciones, que se


pueden escribir en función de n − ρ(A) parámetros.

Ejemplo 42. Discutir el siguiente sistema de ecuaciones en función de los parámetros α y β:



2x − αy + βz = 4  


x + z = 2   .


x+ y+ z = 2

Aplicamos el método de Gauss a la matriz ampliada del sistema:


  F1 ↔ F2    
 2 −α β 4  F ↔ F  1 0 1 2  FF2−−2FF1
 1 0 1 2 
  2 3   3 1  
(A|b) =  1 0 1 2  −−−−−−−−→  1 1 1 2  −−−−−−−−→  0 1 0 0  →

   
1 1 1 2 2 −α β 4 0 −α β − 2 0
 
F3 + αF2
 1 0 1 2 
 
−−−−−−−−→  0 1 0 0 
α,0  
0 0 β−2 0

16
Teniendo en cuenta el teorema anterior se obtiene que, independientemente del valor de α, si β = 2
entonces ρ(A) = ρ(A|b) = 2 y el sistema es compatible indeterminado, mientras que si β , 2
entonces ρ(A) = ρ(A|b) = 3 y el sistema es compatible determinado.

∗El Método de Sustitución Regresiva.


Consideremos un sistema de ecuaciones lineales T · x = c compatible determinado, siendo T
una matriz triangular superior n × n con entradas diagonales no nulas.
Es muy fácil resolver este tipo de sistemas usando el método de substitución regresiva, que
consiste en, dado el sistema
     
 t11 t12 . . . t1n   x1   c1 
     
 0 t22 . . . t2n   x2   c2 
 .. .. . . . · . = . 
 . . . ..   ..   .. 
     
0 0 . . . tnn xn cn

donde t11 , t22 , . . . , tnn son no nulos, de la última ecuación obtenemos el valor de xn
cn
tnn xn = cn =⇒ xn = .
tnn
Sustituyendo xn en la penúltima ecuación y despejando obtenemos el valor de xn−1 :
!
1 cn
tn−1,n−1 xn−1 + tn−1,n xn = cn−1 =⇒ xn−1 = cn−1 − tn−1,n
tn−1,n−1 tnn
 n

1  X 
y así, conocidos xn , xn−1 , . . . , xi+1 =⇒ xi = ci − ti j x j  , i = n − 2, n − 3, . . . , 1.
tii j=i+1

Esta técnica es la que se usa para resolver el sistema una vez hemos aplicado el método de Gauss.
Así, si consideramos un sistema de ecuaciones lineales A · x = b compatible determinado y apli-
camos el método de Gauss a la matriz ampliada (A|b), se obtiene una matriz en forma escalonada
(T |c) tal que T es triangular superior con entradas diagonales no nulas. Finalmente aplicaremos el
método de sustitución regresiva para resolver el sistema T · x = c.
    
 3 4 2   x   16 
    
Ejemplo 43. Resuelve el sistema  0 1 5   y  =  −8 .
    
0 0 −3 z 9
ρ(A) = ρ(A|b) = 3, luego el sistema es compatible determinado. Aplicando el método de
sustitución regresiva obtenemos

−3z = 9 =⇒ z = −3
y + 5z = −8 =⇒ y = −8 − 5z = 7
1
3x + 4y + 2z = 16 =⇒ x = (16 − 4y − 2z) = −2
3
luego la única solución del sistema es x = −2, y = 7, z = −3.

17
∗El Método de Sustitución Progresiva.
Consideremos un sistema de ecuaciones lineales L · x = c compatible determinado, siendo L
una matriz triangular inferior n × n con entradas diagonales no nulas.
Es muy fácil resolver este tipo de sistemas usando el método de substitución progresiva, que
consiste en, dado el sistema
     
 l11 0 . . . 0   x1   c1 
 l21 l22 . . . 0   x2   c2 
     
 .. .. . . ..  ·  ..  =  .. 
 . . . .   .   . 
    
ln1 ln2 . . . lnn xn cn
donde l11 , l22 , . . . , lnn son no nulos, de la primera ecuación obtenemos el valor de x1
c1
l11 x1 = c1 =⇒ x1 = .
l11
Sustituyendo x1 en la segunda ecuación y despejando obtenemos el valor de x2 :
!
1 c1
l21 x1 + l22 x2 = c2 =⇒ x2 = c2 − l21
l22 l11
 i−1

1  X 
y así, conocidos x1 , x2 , . . . , xi−1 =⇒ xi = ci − li j x j  , i = 3, 4, . . . , n.
lii j=1

    
 −2 0 0   x   −6 
    
Ejemplo 44. Resuelve el sistema  1 3 0   y  =  0 .
    
−1 2 −1 z 10
ρ(A) = ρ(A|b) = 3, luego el sistema es compatible determinado. Aplicando el método de
sustitución progresiva obtenemos
−2x = −6 =⇒ x = 3
1
x + 3y = 0 =⇒ y = (−x) = −1
3
−x + 2y − z = 10 =⇒ z = −x + 2y − 10 = −15
luego la única solución del sistema es x = 3, y = −1, z = −15.

1.5. MATRICES NO SINGULARES.

1.5.1 Matriz No Singular.


Definición 45. Sea A = (ai j ) ∈ Mn×n (K). Diremos que A es una matriz no singular (o invertible) si
existe una matriz B ∈ Mn×n (K) tal que

AB = In×n = BA.

En caso contrario, se dice que A es singular (o no invertible).


Si existe una matriz B que verifica la relación anterior, entonces esta matriz será única. La denota-
remos por A−1 y la llamaremos matriz inversa de A.

18
Nota 46. Si A y B ∈ Mn×n (K), entonces se cumple que
AB = In×n ⇐⇒ BA = In×n
por lo que no es necesario comprobar que se verifican las dos igualdades para probar que B es la
inversa de A.
Los siguientes resultados se comprueban fácilmente utilizando la definición de matriz no singular.
Proposición 47. (No singularidad de la inversa y la traspuesta de una matriz no singular)
Si A ∈ Mn×n (K) es no singular, entonces se verifica
• A−1 es no singular y (A−1 )−1 = A.
• AT es no singular y (A−1 )T = (AT )−1 .

Proposición 48. (Inversa de una matriz diagonal no singular)


Si D = diag(a11 , a22 , . . . , ann ) es una matriz diagonal.
D es no singular ⇐⇒ aii , 0, para i = 1, 2, . . . , n
En este caso, D−1 = diag(a−1 −1 −1
11 , a22 , . . . , ann ).
Veamos que todas las matrices elementales son matrices no singulares y además las inversas
son también matrices elementales del mismo tipo.
Proposición 49. (Inversas de las matrices elementales)
Todas las matrices elementales son matrices no singulares. Además:
• si E es una matriz elemental de tipo I, entonces E−1 = E;
• si E es una matriz elemental de tipo II que se obtiene multiplicando la fila i-ésima de In×n
por α, con α , 0, entonces E−1 es la matriz elemental que se obtiene multiplicando la fila
1
i-ésima de In×n por ;
α
• si E es una matriz elemental de tipo III que se obtiene sumando a la fila i-ésima de In×n la
fila j-ésima multiplicada por α, entonces E−1 es la matriz elemental que se obtiene restando
a la fila i-ésima de In×n la fila j-ésima multiplicada por α.

Proposición 50. (Producto de matrices no singulares) Sean A, B ∈ Mn×n (K). Entonces,


AB es no singular ⇐⇒ A y B son no singulares,
y, en este caso, (AB)−1 = B−1 A−1 .
Este producto puede generalizarse a un número finito de matrices. Así, el producto de k matri-
ces n × n será no singular si, y sólo si, cada una de las k matrices es no singular.
1.5.2 Criterios de No Singularidad.
Veamos resultados que nos aseguran que una matriz es no singular.
Si una matriz cuadrada A tuviese una fila nula, por ejemplo la primera fila, entonces al multiplicar
A por una matriz cualquiera B, la primera fila de A · B sería nula, o sea que A · B , In×n para
cualquier matriz B y A sería singular.
Si consideramos ahora R la forma escalonada reducida de una matriz cuadrada A, para que R sea
no singular no debe contener ninguna fila nula, es decir, R debe coincidir con In×n .

19
Teniendo en cuenta el Corolario 33, si A ∈ Mn×n (K) y R es la forma escalonada reducida de A,
existen matrices elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R. Como las matrices
elementales son no singulares y el producto de matrices no singulares es también no singular, se
tiene el siguiente criterio de no singularidad. Además, como las inversas de las matrices elemen-
tales son también matrices elementales, si A es no singular, despejando en la igualdad anterior se
obtiene una expresión de A como producto de matrices elementales.
Teorema 51. (Caracterización de la no singularidad por la forma escalonada reducida)
Si A ∈ Mn×n (K) y R es la forma escalonada reducida de A, entonces
A es no singular ⇐⇒ R = In×n .

Corolario 52. Toda matriz no singular se puede escribir como producto de matrices elementales.
 
 1 3 0 
 
Ejemplo 53. Descomponer la matriz A =  −2 −3 −1 , si es posible, como producto de matri-
 
3 9 1
ces elementales.
Para que sea posible la descomposición de A como producto de matrices elementales A debe ser
una matriz no singular. Vamos a calcular su forma escalonada reducida mediante el método de
Gauss-Jordan.
     
 1 3 0  FF2 +− 2F 3F
1
 1 3 0  F + F  1 3 0 
  3 1   2 3  
A =  −2 −3 −1  −−−−−−−−→  0 3 −1  −−−−−−−→  0 3 0  → −
     
3 9 1 0 0 1 0 0 1
  1  
F1 − F2


 1 0 0 

 3 F 2


 1 0 0 

−−−−−−−→  0 3 0  −−−−−→  0 1 0  = R
   
0 0 1 0 0 1
Luego, la forma escalonada reducida de A es R = I3×3 , lo que nos asegura que A es una matriz no
singular. Aplicando el Corolario 33, tenemos que
E5 · E4 · E3 · E2 · E1 · A = R = I3×3
siendo E1 , . . . , E5 las matrices elementales correspondientes a las operaciones elementales realiza-
das. Puesto que estas matrices son no singulares, podemos despejar la matriz A y obtenemos
A = E−1 · E−1 −1 −1 −1
2 · E 3 · E4 · E5
1     
 1 0 0   1 0 0   1 0 0   1 1 0   1 0 0 
     
=  −2 1 0   0 1 0   0 1 −1   0 1 0   0 3 0 
     
0 0 1 3 0 1 0 0 1 0 0 1 0 0 1
con lo que tenemos descompuesta A como producto de matrices elementales.
Teniendo en cuenta que el rango de A es el número de unos principales de la forma escalonada
reducida de A, es evidente el siguiente resultado.
Teorema 54. (Caracterización de la no singularidad por el rango) Si A ∈ Mn×n (K), entonces
A es no singular ⇐⇒ ρ(A) = n.

20
Además, puesto que para obtener la forma escalonada reducida aplicamos operaciones elementales
sobre la matriz, es evidente que si aplicamos operaciones elementales sobre una matriz el rango no
varía. Esto es equivalente a que si E es una matriz elemental, entonces ρ(EA) = ρ(A). El Corolario
52 permite generalizar este resultado a matrices no singulares.
Proposición 55. Si A ∈ Mm×n (K) y P ∈ Mm×m (K) no singular, entonces ρ(PA) = ρ(A).
Finalmente, si tenemos en cuenta el Teorema de Rouché-Frobenius, obtenemos otro criterio de no
singularidad de matrices.
Teorema 56. (Caracterización de la no singularidad por la compatibilidad de sistemas de
ecuaciones) Si A ∈ Mn×n (K), entonces
A es no singular ⇐⇒ el sistema A x = b es compatible determinado, para cualquier b ∈ Kn

1.5.3 Cálculo de la Inversa de una Matriz No Singular.


Veamos cómo podemos calcular la inversa de una matriz no singular aplicando operaciones ele-
mentales.
Sabemos que si A es una matriz no singular, existen matrices elementales E1 , E2 , . . . , E p tales que

E p · . . . · E2 · E1 A = R = In×n

Por tanto, B = E p · . . . · E2 · E1 es una matriz tal que B · A = In×n , luego B = A−1 .


Puesto que B recoge las operaciones elementales que se hacen en el método de Gauss-Jordan sobre
las filas de A para llegar a R = In×n , una forma cómoda de calcular A−1 es aplicar el método de
Gauss-Jordan a la matriz ( A | In×n ).
Método de
( A | In×n ) −−−−−−−−−→ ( In×n | A−1 )
Gauss-Jordan

Este método se puede interpretar también como la resolución del sistema matricial AX = In×n
(sistemas de ecuaciones con múltiples términos independientes (cada columna de In×n ) y la misma
matriz de coeficientes).
 
 2 1 1 
 
Ejemplo 57. Aplica el método de Gauss-Jordan para calcular la inversa de la matriz A =  1 −1 0 .
 
1 1 1
     
 2 1 1 1 0 0   1 −1 0 0 1 0  FF2 −−2F 1

 1 −1 0 0 1 0 
  F1 ↔F2   3 F1  
(A | I3×3 ) =  1 −1 0 0 1 0  −−−−−→  2 1 1 1 0 0  −−−−−−−−→  0 3 1 1 −2 0  →
     
1 1 1 0 0 1 1 1 1 0 0 1 0 2 1 0 −1 1
   
 1 −1 0 0 1 0   1 −1 0 0 1 0 
F3 − 23 F2 
  F2 −3F3  
−−−−−→  0 3 1 1 −2 0  −−−−−→  0 3 0 3 −3 −3  →
   
0 0 1/3 −2/3 1/3 1 0 0 1/3 −2/3 1/3 1
   
F1 + 13 F2 
 1 0 0 1 0 −1  (1/3)F 3F
2
 1 0 0 1 0 −1 
  3  
−−−−−→  0 3 0 3 −3 −3  −−−−−−−→  0 1 0 1 −1 −1 
   
0 0 1/3 −2/3 1/3 1 0 0 1 −2 1 3

21
 
 1 0 −1 
 
Por tanto, A−1 =  1 −1 −1  y se comprueba que A · A−1 = I3×3 .
 
−2 1 3

1.6. DETERMINANTES.

1.6.1 Determinantes.
En toda esta sección consideraremos matrices cuadradas. El determinante es una aplicación del
conjunto de las matrices cuadradas en K que a cada matriz A le asocia un escalar, que verifica
ciertas propiedades que veremos con detalle más adelante. Pero primero vamos a dar una definición
recursiva del determinante basada en los determinantes de tamaño inferior.

• Si A es una matriz 1 × 1 con entradas en K, entonces det(A) = a11 .

• Si A es una matriz 2 × 2 con entradas en K, entonces det(A) = a11 a22 − a12 a21 .

• Si A es una matriz 3 × 3 con entradas en K, entonces podemos aplicar la “archiconocida”


Regla de Sarrus para obtener el determinante de A, regla nemotécnica que tiene varias ver-
siones, por ejemplo: añadir a la derecha de la matriz las dos primeras columnas y después
sumar los productos de las diagonales que están marcadas en la figura con línea continua y
restar los productos de las diagonales marcadas con linea discontinua.

Así,
 
 a11 a12 a13 
 
det  a21 a22 a23  = a11 a22 a33 + a12 a23 a31 + a13 a21 a32 − a13 a22 a31 − a11 a23 a32 − a12 a21 a33

a31 a32 a33

Nota muy importante: La Regla de Sarrus solo sirve para calcular determinantes de matri-
ces 3 × 3.

Observa que en la expresión anterior podemos sacar factor común y escribir

det(A) = a11 (a22 a33 − a23 a32 ) − a12 (a21 a33 − a23 a31 ) + a13 (a21 a32 − a22 a31 ) =
! ! !
a22 a23 a21 a23 a21 a22
= a11 det − a12 det + a13 det
a32 a33 a31 a33 a31 a32

Si denotamos por A1 j a la submatriz 2 × 2 de A que se obtiene eliminando la primera fila y


la columna j-ésima, entonces

22
3
X
det(A) = a11 det(A11 ) − a12 det(A12 ) + a13 det(A13 ) = (−1)1+ j a1 j det(A1 j )
j=1

Esto nos permite generalizar la definición de determinante para matrices n × n.


Denotaremos por Ai j a la submatriz de A de tamaño (n − 1) × (n − 1) que se obtiene eliminando la
fila i-ésima y la columna j-ésima.
Definición 58. Sea A = (ai j ) ∈ Mn×n (K). Llamaremos determinante de A y escribiremos det(A) al
elemento de K que obtenemos del siguiente modo

• Si n = 1, entonces det(A) = a11 .


n
X
• Si n ≥ 2, entonces det(A) = (−1)1+ j a1 j det(A1 j ) (desarrollo del determinante por la fila 1a )
j=1

Se puede demostrar que si se utiliza cualquier otra fila para desarrollar el determinante en lugar
de la primera fila, el resultado es el mismo. Y lo mismo ocurre si se utilizan columnas para el
desarrollo en lugar de filas, por lo que se verifican las siguientes igualdades.
Proposición 59. Si A = (ai j ) ∈ Mn×n (K), entonces se verifica
n
X
• det(A) = (−1)i+ j ai j det(Ai j ) (desarrollo por la fila i-ésima), para cualquier i = 1, 2, . . . , n
j=1

n
X
• det(A) = (−1)i+ j ai j det(Ai j ) (desarrollo por la columna j-ésima), para cualquier
i=1
j = 1, 2, . . . , n

Estas expresiones se conocen como fórmulas del desarrollo del determinante por adjuntos o por
cofactores, ya que se llama adjunto o cofactor de la entrada (i, j) a (−1)i+ j det(Ai j ). Así, el cálculo
del determinante de una matriz consiste en elegir una fila o una columna y sumar los productos de
cada entrada de esa fila o columna por su adjunto.
Teniendo en cuenta la definición de determinante y las expresiones anteriores, se tiene:
Proposición 60.

• Si A = (ai j ) ∈ Mn×n (K), entonces det(A) = det(AT ).

• Si A = (ai j ) ∈ Mn×n (K) es una matriz triangular, entonces det(A) = a11 · a22 · · · ann .

• En particular, det(In×n ) = 1.

Observa que, para minimizar el número de operaciones necesarias para calcular el determinante,
conviene elegir para desarrollar el determinante una fila o una columna que tenga pocas entradas
no nulas, a ser posible sólo una.

23
 
 3 −7 8 9 −6 
 
0 2 −5 7 3 
 
Ejemplo 61. Calcula el determinante de la matriz A =  0 0 1 5 0 .
 
0 0 2 4 −1 
 
0 0 0 −2 0
Desarrollando el determinante por la primera columna se tiene
 
 2 −5 7 3 
 0 1 5 0 
det(A) = 3 det(A11 ) − 0 det(A21 ) + 0 det(A31 ) − 0 det(A41 ) + 0 det(A51 ) = 3 det  

 0 2 4 −1 
0 0 −2 0

Desarrollamos el determinante 4 × 4 también por la primera columna


 
 1 5 0 
 
det(A) = 3 · 2 · det  2 4 −1 
 
0 −2 0

y desarrollando el determinante 3 × 3 por la tercera columna


!
5 1 5
det(A) = 3 · 2 · (−1)(−1) det = 3 · 2 · (−2) = −12.
0 −2

Si la matriz no tiene ninguna fila ni columna con muchas entradas nulas, vamos a aplicar operacio-
nes elementales sobre las filas o las columnas de la matriz para conseguir anular entradas. Veamos
entonces qué efecto produce en el determinante hacer operaciones elementales sobre la matriz.
Proposición 62. (Efecto de las operaciones elementales sobre el determinante)
Dada una matriz A ∈ Mn×n (K) se verifican las siguientes propiedades:

1. si hacemos una operación elemental de tipo I sobre las filas o las columnas de A para obtener
la matriz B (permutamos dos filas o permutamos dos columnas), entonces det(B) = − det(A).
Como consecuencia, si una matriz tiene dos filas o dos columnas iguales entonces su deter-
minante vale cero.

2. si hacemos una operación elemental de tipo II que multiplica por α una fila o una columna
de A para obtener la matriz B, entonces det(B) = α det(A).

3. si hacemos una operación elemental de tipo III sobre las filas o las columnas de A para
obtener la matriz B (sumamos a una fila o a una columna un múltiplo de otra), entonces
det(B) = det(A).

Consecuencias 63. (Determinantes de las matrices elementales)


Aplicando esto sobre la matriz In×n se obtiene el valor del determinante de las matrices elementales.
Así:

• si E es una matriz elemental de tipo I, entonces det(E) = −1.

24
• si E es una matriz elemental de tipo II que multiplica por α una fila o una columna, entonces
det(E) = α.

• si E es una matriz elemental de tipo III, entonces det(E) = 1.

Estos resultados nos permiten demostrar que el determinante del producto de dos matrices es
igual al producto de sus determinantes.
Teorema 64. (Teorema de Binet). Sean A y B ∈ Mn×n (K). Entonces

det(AB) = det(A) det(B).

Veamos el comportamiento del determinante con respecto a las otras dos operaciones con ma-
trices: suma y producto por un escalar. Con respecto a la suma, en general no se satisface que
det(A + B) coincide con det(A) + det(B), como se pone de manifiesto en el siguiente ejemplo.
! !
1 −1 −1 3
Ejemplo 65. Si consideramos las matrices A = yB= ∈ M2×2 (R) se tiene
2 2 −2 3
que !
0 2
det(A + B) = det = 0 , 7 = det(A) + det(B)
0 5

Con respecto al producto por un escalar, si observamos que αA se obtiene aplicando n operaciones
elementales de tipo II sobre la matriz A, entonces se tiene:
Proposición 66. Si A ∈ Mn×n (K), entonces det(αA) = αn det(A), con α ∈ K.
Finalmente, observemos que la definición de determinante solamente involucra sumas y produc-
tos, por lo que es posible definir determinantes de matrices cuyas entradas no sean números. Por
ejemplo, se pueden calcular determinantes de matrices cuyas entradas sean polinomios, cosa que
haremos en el tema de diagonalización de matrices cuadradas (ver ejemplo 71).
1.6.2 Cálculo de Determinantes.
Teniendo en cuenta las propiedades del determinante, si aplicando operaciones elementales
sobre las filas y las columnas de A podemos transformarla en una matriz triangular T entonces

F p · · · F2 · F1 · A · C1 · C2 · · · Cr = T

donde F1 , F2 , . . . , F p son las matrices elementales correspondientes a las operaciones realizadas


sobre las filas y C1 , C2 , . . . , Cr son las matrices elementales correspondientes a las operaciones
realizadas sobre las columnas.
Como T es una matriz triangular sabemos que det(T ) = t11 · t22 · · · tnn . Aplicando el Teorema 64 y
despejando se obtiene
t11 · t22 · · · tnn
det(A) =
det(F1 ) · · · det(F p ) · det(C1 ) · · · det(Cr )

o equivalentemente, para calcular el determinante de A, cada vez que hacemos una operación
elemental debemos aplicar el efecto inverso sobre el determinante de la matriz resultante.

25
 
 1 −1 3 0 
 0 1 5 4 
Ejemplo 67. Calcula el determinante de la matriz A =  .

 −1 2 2 5 
3 −1 −2 3
   
F3 + F1  1 −1 3 0  F3 − F2  1 −1 3 0 
F4 − 3F1
 0 1 5 4  F4 − 2F2
 0 1 5 4 
det(A) = det  
 = det   =

 0 1 5 5   0 0 0 1 
0 2 −11 3 0 0 −21 −5
 
 1 −1 3 0 
F3 ↔ F4
 0 1 5 4 
= (−1) det   = (−1)(−21) = 21
 0 0 −21 −5 
0 0 0 1
 
 a − b − c 2a 2a 
 
Ejemplo 68. Si a, b, c ∈ R tales que a + b + c , 0, calcula det  2b b−c−a 2b .

2c 2c c−a−b

   
 a − b − c 2a 2a  F1 + F2
F1 + F3
 a + b + c a + b + c a + b + c 
   
det  2b b−c−a 2b  = det  2b b−c−a 2b  =
 
2c 2c c−a−b 2c 2c c−a−b
 
1
F1  1 1 1 
a+b+c  
= (a + b + c) det  2b b − c − a 2b  =

2c 2c c−a−b
 
C2 − C1
C3 − C1
 1 0 0 
  3
= (a + b + c) det  2b −(a + b + c) 0  = (a + b + c)

2c 0 −(a + b + c)

Tenemos entonces dos métodos para calcular el determinante de una matriz A: aplicando el
desarrollo por adjuntos o haciendo operaciones elementales sobre A para convertirla en triangu-
lar. Para ver cuál de los dos métodos es más eficiente vamos a contar el número de operaciones
necesarias con cada uno de ellos para calcular el determinante de una matriz n × n.
Suponiendo que A no tiene entradas nulas, se puede comprobar que para calcular el determinante
n(n − 1)(4n + 1)
de A triangularizando la matriz por operaciones elementales son necesarias n−1+
3
operaciones.
Por otro lado, si llamamos xn al número de operaciones necesarias para calcular con el desarrollo
por adjuntos el determinante de una matriz n × n, se cumple la siguiente relación de recurrencia
xn = n(2 + xn−1 ) − 1, siendo x2 = 3. Se prueba fácilmente que xn > n!.
El cuadro 1 muestra el número de operaciones necesarias con los dos métodos para calcular el
determinante de matrices hasta 20 × 20. Viendo los resultados es evidente que es necesario usar
operaciones elementales para calcular el determinante de una matriz.

26
n Por operac. elementales Desarrollo por adjuntos
2 4 3
3 15 (con la Regla de Sarrus: 17) 14
4 37 63
5 74 324
6 130 1 955
7 209 13 698
8 315 109 599
9 452 986 408
10 624 9 864 099
11 835 108 505 110
12 1 089 1 302 061 343
13 1 390 16 926 797 484
14 1 742 236 975 164 803
15 2 149 3 554 627 472 074
16 2 615 56 874 039 553 215
17 3 144 966 858 672 404 688
18 3 740 17 403 456 103 284 419
19 4 407 330 665 665 962 403 998
20 5 149 6 613 313 319 248 079 999

Cuadro 1: Número de operaciones en el cálculo del determinante de una matriz n × n.

Aunque, en la práctica, lo más eficiente es combinar los dos métodos y buscar cada vez la fila
o columna más conveniente para el desarrollo por adjuntos, aplicando si hace falta operaciones
elementales para hacer ceros en la matriz.
 
 2 5 4 1 
 4 7 6 2 
Ejemplo 69. Calcula el determinante de la matriz A =  .
 6 −2 −4 0 
−6 7 7 0
 
 2 5 4 1   
   0 −3 −2 
F2 − 2F1 0 −3 −2 0  = (−1)5 det  6 −2 −4  =
det(A) = det    
 6 −2 −4 0  −6 7 7
−6 7 7 0
 
 0 −3 −2  !
F3 + F2   3 −3 −2
= (−1) det  6 −2 −4  = (−1)(−1) · 6 det =6
  5 3
0 5 3
!
2 −2
Ejercicio. Consideremos la matriz A = , tal que det(A) = 14.
3 4
!
2 −2
Si se realiza sobre A la operación 2F2 − 3F1 se obtiene det = 28,
0 14

27
!
3 2 −2
mientras que si se realiza sobre A la operación F2 − F1 se obtiene det = 14.
2 0 7
¿Por qué realizando sobre A la operación 2F2 − 3F1 el resultado del determinante es incorrecto y
3
realizando sobre A la operación F2 − F1 el resultado del determinante sí es correcto?
2
Nota muy importante. Teniendo en cuenta el ejercicio anterior, evita hacer operaciones del tipo
αFi + βF j que te llevarán a resultados incorrectos.
1.6.3 Interpretación Geométrica del Determinante de una Matriz.
La idea de determinante de una matriz cuadrada real proviene del cálculo de áreas y volúmenes y,
en general, cuando la matriz es n × n del cálculo de hipervolúmenes. Veamos el caso más sencillo,
n = 2. Consideremos la figura:

G
H C

I a22
B
2)
a2

A a12
2,

F
1

a 21)
(a

(a 11,
=

u1 = a21 a21
u2

a11 a12
O E
D

El área del paralelogramo OACB se obtiene restando al área del rectángulo OECH la suma de las
áreas de los cuatro triángulos y de los dos rectángulos dibujados en la figura.
a a  a a  !
11 21 12 22 a11 a12
Área OACB = (a11 +a12 )(a21 +a22 )−2 −2 −2a12 a21 = a11 a22 −a21 a12 = det
2 2 a21 a22
En ciertas situaciones el determinante puede ser negativo, con lo que el área coincide con su valor
absoluto. Por tanto, en general, si se considera el paralelogramo de vértices A(a1 , a2 ), B(b1 , b2 ),
C(c1 , c2 ), D(d1 , d2 ) entonces

4
C

3
D
2
!
b1 − a1 d1 − a1 1
Área ABCD = det
b2 − a2 d2 − a2
−2 −1 1 2 3 4 5 6
−1
B
A −2

Análogamente, se puede comprobar que el valor absoluto del determinante de una matriz 3 × 3

28
coincide con el volumen del paralelepípedo que generan los vectores columna de la matriz (o bien
los vectores fila, ya que det(A) = det(AT )).
1.6.4 Algunas Aplicaciones de los Determinantes.
Aunque los determinantes nos interesan sobre todo como herramienta teórica y evitaremos su uso
en la práctica por su alto coste computacional, vamos a ver en esta subsección algunas de sus
aplicaciones, no recomendando su utilización a no ser que se trate de ejemplos simples o con
matrices pequeñas 2 × 2 o a lo sumo 3 × 3.
∗ Criterio de no singularidad de matrices.
Teniendo en cuenta el Corolario 33, si A ∈ Mn×n (K) y R es su forma escalonada reducida,
entonces existen matrices elementales E1 , E2 , . . . , E p tales que E p · . . . · E2 · E1 A = R. Aplicando
los Teoremas 51 y 64 y que los determinantes de las matrices elementales son no nulos, se tiene el
siguiente resultado.
Teorema 70. (Caracterización de la no singularidad por el determinante)
Si A ∈ Mn×n (K) , entonces

A es no singular ⇐⇒ det(A) , 0.
 
 2 − x 1 1 
 
Ejemplo 71. Calcula los valores de x ∈ R para los que la matriz A =  1 2−x 1  es
 
1 1 2−x
singular.
Aplicando el teorema anterior A será singular si, y sólo si, det(A) = 0. Calculemos entonces el
determinante de A.
   
F1 + F2
F1 + F3
 4 − x 4 − x 4 − x  CC2 −− CC1  4 − x 0 0 
  3 1  
det(A) = det  1 2−x 1  = det  1 1−x 0  = (4 − x)(1 − x)2 .
   
1 1 2−x 1 0 1−x

Luego para x = 4 y x = 1 la matriz A es singular. Observa que si hubiésemos aplicado la regla


de Sarrus directamente para calcular el determinante habríamos obtenido un polinomio de grado
3 y después tendríamos que haber calculado sus ceros.(Recuerda que calcular los ceros de un
polinomio no siempre es un problema fácil de resolver).
∗ Resolución de sistemas de ecuaciones lineales compatibles determinados: Regla de Cramer.
Consideremos el sistema de ecuaciones lineales A x = b, con A ∈ Mn×n (K) y b ∈ Kn , y supongamos
que el sistema es compatible determinado, es decir, ρ(A) = ρ(A|b) = n. Entonces, la matriz A es
no singular, lo que implica que det(A) , 0, y se puede probar que la única solución del sistema
x = (x1 , x2 , . . . , xn ) viene dada por

det(A1 , . . . , A j−1 , b, A j+1 , . . . , An )


xj = , j ∈ {1, 2, . . . , n}
det(A)
Este método se conoce como Regla de Cramer.
)
x1 − x2 = 1
Ejemplo 72. Resuelve el sistema .
2x1 + 3x2 = 0

29
! !
1 −1 1 −1 1
Como ρ(A) = ρ = 2 = ρ(A|b) = ρ = número de incógnitas, el sistema es
2 3 2 3 0
compatible determinado. Aplicando la Regla de Cramer se obtiene:
! !
1 −1 1 1
det det
0 3 3 2 0 2
x1 = != x2 = ! =−
1 −1 5 1 −1 5
det det
2 3 2 3

∗ Cálculo de la inversa de una matriz no singular por adjuntos.


Dada una matriz A = (ai j ) ∈ Mn×n (K), recordemos que llamamos adjunto de la entrada ai j a
(−1)i+ j det(Ai j ). Llamaremos adjunta de A a la matriz n × n
 
adj(A) = (−1)i+ j det(Ai j )
cuyas entradas son los adjuntos de las entradas de A. Se puede probar que se verifica la siguiente
relación:
A · adj(A)T = det(A) · In×n
Así, si A es no singular, det(A) , 0 y se obtiene
1
A· adj(A)T = In×n
det(A)
1
Hemos encontrado una matriz B = adj(A)T tal que AB = In×n , luego B = A−1 ,es decir,
det(A)
1
A−1 = adj(A)T
det(A)
Se comprueba que adj(AT ) = adj(A)T , por lo que la siguiente expresión para A−1 es también co-
rrecta.
1
A−1 = adj(AT )
det(A)
Observa que esta expresión para la inversa de A se puede obtener si aplicamos la Regla de Cramer
j
a la resolución de los sistemas AB j = In×n para calcular cada una de las columnas de la inversa de
A.
 
 2 1 −1 
 
Ejemplo 73. Calcula la inversa de la matriz A =  −1 2 1 .
 
1 1 −1
Como det(A) = −3 , 0, A es no singular. Calcularemos la inversa por adjuntos:
! ! !
2 1 −1 1 −1 2
det(A11 ) = det = −3 det(A12 ) = det = 0 det(A13 ) = det = −3
1 −1 1 −1 1 1
! ! !
1 −1 2 −1 2 1
det(A21 ) = det =0 det(A22 ) = det = −1 det(A23 ) = det =1
1 −1 1 −1 1 1
! ! !
1 −1 2 −1 2 1
det(A31 ) = det =3 det(A32 ) = det = 1 det(A33 ) = det =5
2 1 −1 1 −1 2

30
Así,  
   −3 0 −3 
adj(A) = (−1)i+ j det(Ai j ) =  0 −1 −1 
 
3 −1 5
   
 −3 0 3   1 0 −1 
1 1   
A−1 = adj(A)T = −  0 −1 −1  =  0 1/3 1/3 
det(A) 3   
−3 −1 5 1 1/3 −5/3

1.7. FACTORIZACIONES LU y LDU DE UNA MATRIZ NO SINGULAR.


En esta sección vamos a tratar de descomponer una matriz no singular en producto de una matriz
triangular inferior con entradas diagonales iguales a 1, una matriz diagonal y una matriz triangular
superior con entradas diagonales iguales a 1. Esta descomposición se conoce como factorización
LDU de una matriz.
Esta factorización es muy interesante desde el punto de vista práctico porque permite resolver
múltiples sistemas de ecuaciones con la misma matriz de coeficientes y distintos términos in-
dependientes aplicando el método de Gauss solamente una vez y resolviendo después sistemas
triangulares. Veremos después esto con más detalle.
Aunque es posible definir una factorización LDU para matrices en general, incluso no cuadradas,
daremos aquí una versión simplificada de esta factorización solo para matrices no singulares y
sin permitir permutaciones de filas. Veamos primero la factorización LU de una matriz no singu-
lar: descomponer la matriz en producto de una matriz triangular inferior con entradas diagonales
iguales a 1 y una matriz triangular superior.
1.7.1 Factorización LU de una Matriz No Singular.
Sea A ∈ Mn×n (K) una matriz no singular. Supongamos que mediante operaciones elementales
de tipo III de la forma Fi +αF j , con i > j, podemos transformar A en una matriz triangular superior
U (forma escalonada por filas de A). Sabemos que cada operación elemental de tipo III sobre las
filas de una matriz equivale a premultiplicarla por la matriz elemental de tipo III correspondiente.
Entonces existen matrices elementales de tipo III E1 , E2 , . . . , Ek tales que
 
 a11 a12 a13 . . . a1n 
 (2) 

 0 a(2) 22 a (2)
23 . . . a2n 

 
Ek · . . . · E2 · E1 A = U =  0 0 a(3)
33 a(3)
3n

 . 
 .. .
.. ..
. .. 
.
 
0 0 0 . . . a(n)nn

donde a(l)i j denota las nuevas entradas que se van obteniendo al aplicar las operaciones elementales.
Observemos que, puesto que A es una matriz no singular, las entradas diagonales de la matriz U
(a11 , a(2) (n)
22 , . . . , ann ) serán todas no nulas y, de hecho, son los pivotes del proceso de escalonamiento
de A.
Como las matrices elementales son no singulares, podemos despejar A en la expresión anterior
para obtener
A = E−1 −1 −1
1 · E2 · . . . · Ek · U = L · U

31
siendo L = E−1 −1 −1
1 · E2 · . . . · Ek .
Recuerda que si E es la matriz elemental de tipo III que corresponde a la operación Fi + αF j , con
i > j, entonces E es una matriz triangular inferior con entradas diagonales iguales a 1. Además,
E−1 es la matriz elemental de tipo III que corresponde a la operación Fi − αF j y, por tanto, también
es una matriz triangular inferior con entradas diagonales iguales a 1.
Así, dado que todas las operaciones elementales que realizamos para obtener la matriz U son
operaciones elementales de tipo III de la forma Fi + αF j , con i > j, entonces L = E−1 −1 −1
1 · E2 · . . . · Ek
es una matriz triangular inferior con entradas diagonales iguales a 1, por ser producto de matrices
de este tipo.
De esta forma, hemos escrito A como producto de una matriz L triangular inferior con diagonal de
unos y una matriz U triangular superior. Esta factorización es conocida como factorización LU de
A.
 
 2 4 −4 
 
Ejemplo 74. Calcula una factorización LU de la matriz no singular A =  −2 −5 3 .
 
4 8 −5
Recuerda que tenemos que aplicar operaciones elementales de tipo III de la form Fi + αF j , con
i > j, sobre A, sin usar permutaciones de filas, para transformarla en una matriz triangular superior.
  F2 + F1  
 2 4 −4  F − 2F  2 4 −4 
  3 1  
A =  −2 −5 3  −−−−−−−−→  0 −1 −1  = U

4 8 −5 0 0 3

Entonces, E2 · E1 A = U y despejando, A = E−1 −1


1 · E2 · U = L · U, siendo
     
 1 0 0   1 0 0   1 0 0 
L = E−1 −1  −1 1 0  ·  0 1 0  =  −1 1 0 
1 · E2 =       
0 0 1 2 0 1 2 0 1
  
 1 0 0   2 4 −4 
  
A = LU =  −1 1 0   0 −1 −1  es la factorización LU de A.
  
2 0 1 0 0 3
1.7.2 Factorización LDU de una Matriz No Singular.
Sea A ∈ Mn×n (K) una matriz no singular. Supongamos que A admite factorización LU, A = LU,
entonces la matriz U, a su vez se puede factorizar como producto de una matriz D diagonal, donde
las entradas diagonales son los pivotes, y una matriz U triangular superior con entradas diagonales
iguales a 1. Para obtener las entradas de U situadas encima de la diagonal principal dividimos cada
fila de U por su entrada diagonal.
Así, hemos descompuesto A como producto de una matriz triangular inferior con diagonal de
unos, una matriz diagonal y una matriz triangular superior con diagonal de unos: A = L · D · U.
Llamaremos a esta descomposición factorización LDU de A.
 
 2 4 −4 
 
Ejemplo 75. Calcula una factorización LDU de la matriz no singular A =  −2 −5 3 .
 
4 8 −5

32
Una vez calculada la factorización LU de A (ver ejemplo 74), descomponemos la matriz U
como el producto D · U:
  
 2 0 0   1 2 −2 
   0 1 1 
U = D · U =  0 −1 0   

0 0 3 0 0 1

donde U se ha obtenido dividiendo cada fila de U por la entrada diagonal.


   
 1 0 0   2 0 0   1 2 −2 
   
A = LDU =  −1 1 0   0 −1 0   0 1 1  es la factorización LDU de A.
   
2 0 1 0 0 3 0 0 1

Si A ∈ Mn×n (K) no singular, ¿qué debe suceder para que A admita factorización LU y LDU?
Bastará que en el proceso de escalonamiento descrito anteriormente (usando exclusivamente ope-
raciones elementales de tipo III de la forma Fi + αF j , con i > j) las entradas a11 , ..., a(n−1)
n−1,n−1 sean
no nulas, para que se puedan usar como pivotes para el escalonamiento.
Para saber si las entradas a11 , ..., a(n−1)
n−1,n−1 van a ser no nulas y así poder calcular una factorización
LDU de A podemos utilizar las siguientes submatrices principales.
Definición. Dada una matriz A = (ai j ) ∈ Mn×n (K), para cada k = 1, 2, . . . , n, llamaremos submatriz
principal líder de orden k y la denotaremos por A[k] a la submatriz principal de A de tamaño k × k
formada por las entradas ai j , 1 ≤ i, j ≤ k. Es decir,
 
   a11 a12 ... a1,n−1 
!  a11 a12 a13   
a11 a12    a21 a22 ... a2,n−1  [n]
A[1] = (a11 ), A[2] = , A[3] =  a21 a22 a23  , . . . , A[n−1] =  .. .. ..  , A = A
a21 a22    . . ... . 
a31 a32 a33  
an−1,1 an−1,2 . . . an−1,n−1

Teorema 76. (Teorema de los pivotes)


Sean A = (ai j ) ∈ Mn×n (K) y t ∈ N, tal que 1 ≤ t ≤ n. Entonces, en el proceso de escalonamiento
de A se tiene que

las entradas diagonales a11 , a(2) (t)


22 , . . . , at,t ⇐⇒
las submatrices A[k] son no singulares,
son no nulas para k = 1, 2, . . . , t

Nota 77. Si las operaciones para el cálculo de la factorización LDU se hacen eligiendo siempre
como pivote el elemento diagonal y haciendo ceros por debajo de él, es muy fácil obtener la matriz
L. Basándonos en que L es el producto de las inversas de las matrices elementales de tipo III que
se han utilizado para triangular la matriz, partiendo de la matriz identidad In×n , se van sustituyendo
las entradas por debajo de la diagonal según la siguiente regla: si hacemos la operación elemental
Fi + αF j , entonces li j = −α. Si nos fijamos en el ejemplo 74, se han realizado las operaciones
elementales F2 + F1 y F3 − 2F1 para llegar a la matriz triangular superior U. Observa que l21 = −1,
l31 = 2 y el resto de entradas de L coinciden con las correspondientes de I3×3 .

33
Ejemplo 78. Calcula, si es posible, una factorización LDU de las matrices no singulares
   
 1 2 −1   1 −1 2 
   
A =  −1 −2 0  y B =  2 3 −1  .
   
3 5 1 3 2 3

Teniendo en cuenta el teorema 76, para ver si A admite factorización LDU comprobaremos si las
submatrices A[1] y A[2] son no singulares.

det(A[1] ) = 1 , 0 =⇒ A[1] es no singular 


! 

1 2  A no admite factorización LDU.
[2]
det(A ) = det = 0 =⇒ A es singular 
[2] 


−1 −2

Puedes comprobar que si intentas calcular la factorización de A, el segundo pivote es nulo y no se


puede llegar a una matriz triangular superior utilizando solamente operaciones elementales de tipo
III de la forma Fi + αF j , con i > j.
Veamos qué ocurre con la matriz B.

det(B[1] ) = 1 , 0 =⇒ B[1] es no singular 


! 

1 −1  B admite factorización LDU.
[2]
det(B ) = det = 5 , 0 =⇒ B es no singular 
[2] 


2 3

Vamos entonces a calcular la factorización LDU de B. Recuerda que sólo se pueden usar operacio-
nes elementales de tipo III sobre filas Fi + αF j , con i > j.
     
 1 −1 2  FF2 −− 2F
3F
1
 1 −1 2  F − F  1 −1 2 
  3 1   3 2  
B =  2 3 −1  −−−−−−−−→  0 5 −5  −−−−−−−→  0 5 −5  = U.
     
3 2 3 0 5 −3 0 0 2

Teniendo en cuenta las operaciones elementales realizadas,


 la matriz L se obtiene con el método
 1 0 0 
 
indicado anteriormente sin realizar cálculos: L =  2 1 0 .
 
3 1 1
    
 1 −1 2   1 0 0   1 −1 2 
    
U =  0 5 −5  = D · U =  0 5 0   0 1 −1 
    
0 0 2 0 0 2 0 0 1

donde U es triangular superior con entradas diagonales iguales a uno y las entradas situadas encima
de la diagonal principal
 se obtienen
 a partir
  de U dividiendo
 cada fila por la entrada diagonal.
 1 0 0   1 0 0   1 −1 2 
   
Así, B = LDU =  2 1 0   0 5 0   0 1 −1  es una factorización LDU de B.
   
3 1 1 0 0 2 0 0 1
El siguiente teorema nos indica que, en este caso, la factorización LDU es única.

34
Teorema 79. (Unicidad de la factorización LDU) Si A ∈ Mn×n (K) es no singular y admite una
factorización LDU, entonces la factorización LDU es única.
Si además A es simétrica, entonces U = LT .
Ejemplo 80. Calcula, si es posible, una factorización LDU de la matriz no singular
 
 1 4 3 0 
 4 12 10 −4 
A =   .
 3 10 10 −4 
0 −4 −4 −3

Comprobaremos primero si las submatrices A[1] , A[2] y A[3] son no singulares.



det(A[1] ) = 1 , 0 =⇒ A[1] es no singular 


! 


[2] 1 4 [2]



det(A ) = det = −4 , 0 =⇒ A es no singular 


4 12 
A admite factorización LDU.
  

 1 4 3  


  
det(A[3] ) = det  4 12 10  = −8 , 0 =⇒ A[3] es no singular 




  

3 10 10
Calculamos entonces la factorización:
     
 1 4 3 0  F2 − 4F1  1 4 3 0  F3 − 12 F2  1 4 3 0 
 4 12 10 −4  F3 − 3F1  0 −4 −2 −4  F4 − F2  0 −4 −2 −4 
A =   −−−−−−−−→   −−−−−−−−→  →
 3 10 10 −4  
 0 −2 1 −4 
  0 0 2 −2 

0 −4 −4 −3 0 −4 −4 −3 0 0 −2 1
 
 1 4 3 0 
F4 + F3  0 −4 −2 −4 
−−−−−−−→   = U.

 0 0 2 −2 
0 0 0 −1

Teniendo en cuenta las operaciones elementales  realizadas, la matriz L se obtiene fácilmente sin
1 0
 0 0 
4 1 0 0 
realizar cálculos: L =  .
3 1/2 1 0 
 
0 1 −1 1
Como A es una matriz no singular que admite factorización LDU, por el teorema anterior, la fac-
torización LDU es única. Además, como la matriz A es simétrica tenemos que U = LT y así,
   
 1 0 0 0   1 0 0 0   1 4 3 0 
 4 1 0 0   0 −4 0 0   0 1 1/2 1 
T  
A = LDL =     es la factorización LDU de A.
 3 1/2 1 0   0 0 2 0   0 0 1 −1 
0 1 −1 1 0 0 0 −1 0 0 0 1

Nota. Si no exigimos que la matriz sea no singular, podemos encontrar ejemplos de matrices singu-
lares que admiten una factorización del tipo LU (como producto de una matriz triangular inferior

35
con diagonal de unos y una matriz triangular superior), pero que no admiten una factorización
del tipo LDU (como producto de una matriz triangular inferior con diagonal de unos, una matriz
diagonal y una matriz triangular superior con diagonal de unos). Por ejemplo, la matriz singular
siguiente se puede factorizar como
    
 0 1 2   1 0 0   0 1 2 
    
A =  0 5 6  = LU =  5 1 0   0 0 −4  ,
    
0 0 0 0 0 1 0 0 0
pero se comprueba que A no se puede descomponer como producto de una matriz triangular inferior
con diagonal de unos, una matriz diagonal y una matriz triangular superior con diagonal de unos.
1.7.3 Aplicación de la Factorización LDU.
En la práctica nos encontramos en ocasiones con problemas en los que tenemos que resolver varios
sistemas de ecuaciones lineales con la misma matriz de coeficientes y distintos términos indepen-
dientes. Podríamos resolverlos simultáneamente considerando el método de Gauss sobre la matriz
ampliada con todos los vectores columna de términos independientes distintos (A|b1 b2 . . . bk ), aun-
que si estamos tratando problemas grandes esto puede que no sea posible porque el ordenador no
tenga suficiente memoria para almacenar tantos datos. En otros casos lo que ocurre es que no dis-
ponemos de todos los vectores de términos independientes porque se van generando en un cierto
período de tiempo o, como ocurre en el siguiente ejemplo, cada vector es la solución del sistema
anterior. En todos estos casos será muy eficiente el uso de una factorización LDU de la matriz de
coeficientes para la resolución de los sistemas.
Ejemplo 81. La matriz A puede servir para calcular la conducción de calor no estacionaria en una
barra para la cual las temperaturas en los puntos p1 , . . . , p5 de la barra cambian con el tiempo. La
constante C de la matriz depende de la naturaleza física de la barra, de la distancia ∆x entre los
puntos de la barra y del tiempo ∆t entre mediciones sucesivas de temperatura. Supongamos que
para k = 0, 1, 2, . . . el vector tk ∈ R5 contiene las temperaturas en cada punto en el tiempo k∆t.
Si ambos extremos de la barra se mantienen a 0o , entonces se satisface la ecuación Atk+1 = tk ,
k = 0, 1, 2, . . ., siendo
 
 (1 + 2C) −C 0 0 0 
 −C (1 + 2C) −C 0 0 
  ∆x ∆x
A =  0 −C (1 + 2C) −C 0 

  p1 p2 p3 p4 p5
 0 0 −C (1 + 2C) −C 
0 0 0 −C (1 + 2C)
Suponiendo que C = 1 y t0 = (10, 12, 12, 12, 10)T , calcular las distribuciones de temperatura
t1 , t2 , t3 y t4 .
Para calcular los valores de t1 , t2 , t3 y t4 tenemos que resolver cuatro sistemas de ecuaciones que
tienen la misma matriz de coeficientes pero distintos términos independientes. Pero como la solu-
ción de cada sistema es el término independiente del siguiente sistema, estos cuatro sistemas no
se pueden resolver simultáneamente. Si utilizamos el método de Gauss o Gauss-Jordan para resol-
ver cada uno de estos sistemas repetiremos cuatro veces las mismas operaciones elementales para
escalonar la matriz A sobre cada una de las matrices ampliadas. En lugar de hacer esto, es mucho
más eficiente calcular una factorización LU o LDU de A y usarla después para resolver los cuatro
sistemas de la siguiente forma.

36
Si A = LDU, llamando y1 = Ut1 y x1 = Dy1 , se tiene que

Lx1 = LDy1 = LDUt1 = At1 = t0

Comenzamos resolviendo el sistema triangular inferior Lx1 = t0 por sustitución progresiva y ob-
tenemos el vector x1 , después resolvemos el sistema diagonal Dy1 = x1 para obtener el vector
y1 y finalmente resolvemos el sistema triangular superior Ut1 = y1 por sustitución regresiva para
obtener la solución del sistema At1 = t0 .
Una vez calculado t1 , utilizamos esta misma técnica para resolver el sistema At2 = t1 , usando la
factorización LDU de A que ya tenemos calculada. Por tanto, para calcular t2 resolveremos dos
sistemas triangulares y uno diagonal de muy fácil resolución. Y así sucesivamente, calcularemos
los otros vectores de distribución de temperaturas.
Si C = 1, entonces la factorización LDU de A es:
   
 1 0 0 0 0   3 0 0 0 0   1 
     1 − 0 0 0 
 1  8  3
 − 1 0 0 0   0 0 0 0   3 
 3   3   0 1 − 0 0 
 3   21   8 
A = LDU =  0 − 1 0 0   0 0 0 0   8 
 8   8   0 0 1 − 0 
 8   55   21 
 0 0 − 1 0   0 0 0 0   21 
 21   21   0 0 0 1 − 
 21   144   55 
0 0 0 − 1  0 0 0 0 0 0 0 0 1
55 55
Resolviendo los sistemas Lxi = ti−1 , Dyi = xi y Uti = yi , para i = 1, 2, 3, 4 se obtiene
x1 = (10, 15.33, 17.75, 18.76, 17.16)T y1 = (3.33, 5.75, 6.76, 7.16, 6.55)T t1 = (6.55, 9.66, 10.44, 9.66, 6.55)T
T T
x2 = (6.55, 11.84, 14.88, 15.33, 12.40) y2 = (2.18, 4.44, 5.67, 5.85, 4.74) t2 = (4.73, 7.66, 8.59, 7.66, 4.74)T
x3 = (4.73, 9.24, 12.05, 12.25, 9.42)T y3 = (1.58, 3.46, 4.59, 4.68, 3.60)T t3 = (3.60, 6.05, 6.90, 6.05, 3.60)T
x4 = (3.60, 7.25, 9.62, 9.71, 7.31)T y4 = (1.20, 2.72, 3.66, 3.71, 2.79)T t4 = (2.79, 4.77, 5.48, 4.77, 2.79)T

1.8. PARTICIÓN DE MATRICES EN BLOQUES


En muchos problemas de ingeniería aparecen matrices de gran tamaño con muchas entradas nulas
que generalmente están agrupadas marcando una estructura en la matriz. Muchas veces es el propio
problema el que marca la división en bloques de la matriz, como ocurre en el siguiente ejemplo.
Si un tablero de circuitos de un microcomputador consiste principalmente en tres microcircuitos
VLSI (very large scale integrated), entonces la matriz para el tablero de circuitos puede tener la
siguiente forma  
 Λ11 Λ12 Λ13 
 
A =  Λ21 Λ22 Λ23 
 
Λ31 Λ32 Λ33
donde las submatrices de la diagonal principal Λ11 , Λ22 y Λ33 se refieren a cada uno de los microcir-
cuitos VLSI y el resto de submatrices dependen de las interconexiones entre los tres microcircuitos.

Vamos entonces a partir una matriz en submatrices (bloques) y trabajaremos con estos bloques
como si fuesen las entradas de la matriz.

37
1.8.1 Matrices en Bloques.
Definición 82. Dada una matriz A ∈ Mm×n (K), si trazamos p − 1 líneas horizontales entre ciertas
filas de A y q − 1 líneas verticales entre ciertas columnas de A, se tiene una partición en bloques
de A de la forma:  
 Λ11 Λ12 · · · Λ1q 
 
 Λ21 Λ22 · · · Λ2q 
A =  .. .. .. .. 
 . . . . 
 
Λ p1 Λ p2 · · · Λ pq
donde cada Λi j es una submatriz de A. Por tanto, diremos que A es una matriz en bloques p × q.
Si p = q, entonces diremos que A es una matriz en bloques cuadrada.
Dada una matriz A = (Λi j ) en bloques cuadrada, diremos que
• A es diagonal en bloques si Λi j = O, para i , j, y escribiremos A = diag(Λ11 , Λ22 , . . . , Λ pp ).
• A es triangular superior en bloques si Λi j = O, para i > j
• A es triangular inferior en bloques si Λi j = O, para i < j
Si consideramos un sistema de ecuaciones lineales A · x = b, la matriz ampliada del sistema (A|b)
es un ejemplo de matriz en bloques.
 
 1 5 0 0 
 3 1 0 0 
 
Ejemplo 83. Consideremos la matriz A =  0 1 5 0  ∈ M4×5 (R).
 
 0 2 −1 0 
0 1 −1 2
Podemos considerar distintas particiones en bloques de A, por ejemplo
 
 1 5 0 0 
 3 1 0 0 
 
A =  0 1 5 0  =⇒ A es una matriz triangular inferior en bloques.
 
 0 2 −1 0 
0 1 −1 2
 
 1 5 0 0 
 3 1 0 0 
 
A =  0 1 5 0  =⇒ A es una matriz triangular superior en bloques.
 
 0 2 −1 0 
0 1 −1 2
Observa que aunque A no es una matriz cuadrada, con estas dos particiones en bloques A es una
matriz en bloques cuadrada 2 × 2.
Sin embargo, si consideramos en A la siguiente partición en bloques
 
 1 5 0 0 
 3 1 0 0 
 
A =  0 1 5 0  =⇒ A es una matriz 2 × 3 en bloques.
 
 0 2 −1 0 
0 1 −1 2

38
1.8.2 Operaciones con Matrices en Bloques.
∗ Suma de matrices en bloques.
Si A = (Λi j ) y B = (Ωi j ) son matrices en bloques p × q, donde los bloques Λi j y Ωi j son del mismo
tamaño para cada i, j con 1 ≤ i ≤ p y 1 ≤ j ≤ q, entonces

A + B = (Λi j + Ωi j )

Ejemplo 84.
   
 1 5 0 0   −2 1 3 −1 
 3 1 0 0  !  4 1 0 2  !
  Λ11 Λ12   Ω11 Ω12
Si A =  0 1 5 0  =
 y B =  0 0 2 1  =
 Λ21 Λ22   Ω21 Ω22
 0 2 −1 0 
  0 0 3 −2 
0 1 −1 2 0 0 1 1

 
 −1 6 3 −1 
!  7 2 0 2 
Λ11 + Ω11 Λ12 + Ω12  
=⇒ A+B= =  0 1 7 1  .
Λ21 + Ω21 Λ22 + Ω22  
 0 2 2 −2 
0 1 0 3

∗ Producto de matrices en bloques.


Si A = (Λi j ) es una matriz en bloques p × q y B = (Ω jk ) es una matriz en bloques q × t, donde cada
bloque Λi j es de tamaño mi × n j y cada bloque Ω jk es de tamaño n j × sk , entonces
q
X
A · B = (Γik ), siendo Γik = Λi j · Ω jk
j=1

Ejemplo 85.
   
 1 0 0 1 −1   1 2 4 
 
 0 1 0 2 1  !  5 1
 2 
 !
 I3×3 Λ12 Ω11
Si A =  0 0 1 0 1  = y B =  −1 3 0  =

  O2×3 Λ22  Ω21
 0 0 0 2 2   2 −1 0 
 
0 0 0 5 −1 0 1 1
 
 3 0 3 
!  9 0 3 

Ω11 + Λ12 Ω21 
=⇒ A·B= =  −1 4 1  .

Λ22 Ω21 
 4 0 2 

10 −6 −1

39
1.8.3 Aplicaciones de las Matrices en Bloques.
• Cálculo de inversas.
!
P O
Si T = es una matriz en bloques diagonal y P y R son no singulares, entonces
O R
!
−1 P−1 O
T es no singular y T = .
O R−1
!
P Q
Si T = es una matriz en bloques triangular superior y P y R son no singulares,
O R
entonces !
−1 P−1 −P−1 QR−1
T es no singular y T = .
O R−1
!
P O
Análogamente, si T = es una matriz en bloques triangular inferior y P y R son no
Q R
singulares, entonces
!
−1 P−1 O
T es no singular y T = .
−R QP−1 R−1
−1

 
 2 0 1 0 3 0 0 0 
 0 8 1 1 1 0 0 0 
 
 0 0 1 2 3 0 0 0 
 
 0 0 1 0 0 0 0 0 
Ejemplo 86. Calcula la inversa de la matriz A =  .
0 0 2
 1 5 0 0 0 
 
0 0 0
 0 0 1 2 3 

0 0 0 0 0 1 0 0 
 
0 0 0 0 0 2 1 5
Si consideramos en A la siguiente partición en bloques
 
 2 0 1 0 3 0 0 0 
 0 8 1 1 1 0 0 0 
 
 0 0 1 2 3 0 0 0 
  ! !
 0 0 1 0 0 0 0 0  P O −1 P−1 O
A =  = =⇒ A =
 0 0 2 1 5 0 0 0  O R O R−1
 
 0 0 0 0 0 1 2 3 
 0 0 0 0 0 1 0 0 
 
0 0 0 0 0 2 1 5
ya que P y R son matrices no singulares. Además, la submatriz P también puede ser dividida en
bloques de la siguiente forma:
 
 2 0 1 0 3 
 0 8 1 1 1  ! !
  S Q −1 S −1 −S −1 QR−1
P =  0 0 1 2 3  = =⇒ P =
  O R O R−1
 0 0 1 0 0 
0 0 2 1 5

40
Por tanto,
 
 1/2 0 3/14 1/7 −3/7 0 0 0 

 0 1/8 −1/14 −5/56 1/56 0 0 0 
 
 −1   0 
 S −S −1 QR−1 O   0 0 0 1 0 0 0

   0 0 5/7 1/7 −3/7 0 0 0 
A−1 =  O R−1 O  =  
 
 

 0 0 −1/7 −3/7 2/7 0 0 0 
O O R−1  0 0 0 0 0 0 1 0 

 
 0 0 0 0 0 5/7 1/7 −3/7 

0 0 0 0 0 −1/7 −3/7 2/7

• Cálculo de determinantes.
 
 Λ11 Λ12 . . . Λ1k 
 
 O Λ22 . . . Λ2k 
Si A =  .. .. . . .  es una matriz triangular en bloques y Λ11 , Λ22 , . . . , Λkk son
 . . . .. 
 
O O . . . Λkk
matrices cuadradas, entonces det(A) = det(Λ11 ) det(Λ22 ) · · · det(Λkk ).
 
 1 2 3 2 
 5 −1 4 7 
Ejemplo 87. Calcula el determinante de la matriz A =  .

 0 0 −2 3 
0 0 1 −1
Si consideramos en A la siguiente partición en bloques
 
 1 2 3 2  ! !
 5 −1 4 7  1 2 −2 3
det(A) = det   
 = det det = (−11)(−1) = 11.
 0 0 −2 3  5 −1 1 −1
0 0 1 −1

PROBLEMAS
Generalidades sobre matrices.  
! !  1 
2 −5 1 −3  
(P.1) Sean A = , B = (3 − 1 2), C = y D =  2 . Hallar (A · B + C) · D.
0 1 0 1  
3
   
 −1 0  !  1 0  !
  0 −1   −1
(P.2) Dadas las matrices A =  20 2 , B = , C =  −2 −3  y D = .
  1 2   1
3 −1 1 3
Calcula 2A · B + 3C y (A + C) · (3B · D).
! ! !
1 2 3 −8 5 2
(P.3) Sean A = ,B= yC = . Comprueba que AB = AC y que sin
3 6 2 3 1 −2
embargo B , C .

41
(P.4) Se dice que dos matrices A y B ∈ Mn×n (K) conmutan si AB = BA y se dice que A y B
anticonmutan si AB = −BA. ! ! !
1 1 3 1 1 1
Dadas las matrices A = ,B= yC = , comprueba si las matrices
0 −1 0 1 −2 −1
A y B conmutan o anticonmutan y si las matrices A y C conmutan o anticonmutan.
(P.5) Considera las matrices A y B ∈ Mn×n (K). Prueba si son verdaderas o falsas las siguientes
propiedades:

• (A + B)2 = A2 + 2AB + B2 si, y sólo si, A y B conmutan

• (A + B)(A − B) = A2 − B2 si, y sólo si, A y B conmutan

• (AB)k = Ak Bk , k ∈ N si, y sólo si, A y B conmutan


!
1 1
(P.6) Hallar las matrices 2 × 2 reales que conmutan con la matriz A = .
0 1
!
1 a
(P.7) Dada la matriz A = , calcular An , ∀n ∈ N.
0 1
Ayuda: Para demostrar la expresión de An utiliza el principio de inducción matemática (ver el
documento Preliminares.pdf que encontrarás en Recursos de PoliformaT).
(P.8) Se dice que una matriz cuadrada A es involutiva si A2 = In×n .
   
 0 1 −1   4 3 3 
   
(i) Prueba que las matrices A =  4 −3 4  y B =  −1 0 −1  son involutivas.
   
3 −3 4 −4 −4 −3
(ii) Si A es una matriz involutiva, calcula An , para n ∈ N.
(P.9) Se dice que una matriz cuadrada A es idempotente si A2 = A.
   
 2 −2 −4   2 −3 −5 
   
(i) Prueba que las matrices A =  −1 3 4  y B =  −1 4 5  son idempotentes.
   
1 −2 −3 1 −3 −4
(ii) Si A es una matriz idempotente, prueba que B = In×n − A es también idempotente y que
AB = BA = On×n .
(P.10) Se dice que una matriz cuadrada A es nilpotente si existe un k ∈ N tal que Ak = On×n .
Si Ak = On×n y Ak−1 , On×n se dice que k es el índice de nilpotencia de A.
   
 0 1 −1   0 0 0 
   
(i) Prueba que las matrices A =  0 0 4  y B =  −1 0 0  son nilpotentes.
   
0 0 0 −4 2 0
 
 0 1 0 0 0 
 0 0 1 0 0 
 
(ii) Calcula An , para n ∈ N, siendo A =  0 0 0 1 0 .
 
 0 0 0 0 1 
0 0 0 0 0

42
 
 1 0 1 
 
(P.11) Dada la matriz A =  0 1 0 , calcular An , ∀n ∈ N.
 
0 0 1
Ayuda: Para demostrar la expresión de An utiliza el principio de inducción matemática (ver el
documento Preliminares.pdf que encontrarás en Recursos de PoliformaT).
   
 2 −1 0   3 0 4 
   
(P.12) Sean A =  0 3 −2  y B =  1 −2 5 . Calcula 2A − 3BT .
   
1 −1 2 0 1 2
!
T T 1 2 0
(P.13) (i) Calcula AA y A A para A = y comprueba que son matrices distintas.
3 −1 4
 
 1 + i 1 − i 
 
(ii) Halla las matrices traspuesta y traspuesta conjugada de B =  2 1/2  y comprueba
 
3 + i −3 − i
que BT , B∗ .
(P.14) La traza tr(A) de una matriz cuadrada A se define como la suma de todas sus entradas
diagonales. Prueba que tr(A + C) = tr(A) + tr(C) y tr(αA) = α tr(A), ∀A, C ∈ Mn×n (K) y ∀α ∈ K.
(P.15) Estudia si las siguientes matrices son simétricas, antisimétricas, hermíticas o antiher-
míticas.
 
 i 2 − i  ! !
  0 2+i 0 3+i
A =  0 3i  , B= , C= ,
  −2 + i 2i 3−i 2
2 4
   
 2 3 −1   0 i 1 + 2i 
   
D =  3 1 5  , E =  −i 0 −4  .
  
−1 5 0 −1 − 2i 4 0

(P.16) Prueba que si A ∈ Mn×n (K) es una matriz antisimétrica, entonces las entradas diago-
nales de A son nulas.
(P.17) Prueba que si A ∈ Mn×n (K) es una matriz hermítica, entonces las entradas diagonales
de A son reales.
(P.18) Prueba que si A ∈ Mn×n (K) es una matriz antihermítica, entonces las entradas diago-
nales de A son números complejos con parte real nula.
(P.19) (i) Si A, B ∈ Mn×n (K) son simétricas, prueba que la suma A + B es una matriz simétrica.
(ii) Justifica que el producto de dos matrices simétricas no es una matriz simétrica en general.
(iii) Si A, B ∈ Mn×n (K) son simétricas, prueba que AB es simétrica si, y sólo si, A y B conmutan.

(P.20) (i) Prueba que si A ∈ Mn×n (K), entonces A + AT es simétrica y A − AT es antisimétrica.


(ii) Prueba que toda matriz cuadrada se puede descomponer como suma de una matriz simé-
trica y una antisimétrica.

43
 
 3 3 −1 
 
(P.21) Expresa la matriz  0 3 2  como suma de una matriz simétrica y de otra antisi-
 
−1 2 2
métrica.
 
 6 6 1 
 
(P.22) Escribe la matriz A =  4 −4 3 
 
7 1 2
(i) como suma de una matriz triangular superior y de una triangular inferior con las mismas
entradas diagonales
(ii) como suma de una matriz simétrica y otra antisimétrica.

Proceso de escalonamiento de una matriz. Rango de matrices.


(P.23) Señala qué tipo de operaciones elementales sobre filas hay que efectuar sobre I3×3
para obtener las siguientes matrices elementales.

         
 0 1 0   1 0 0   1 0 0   1 0 0   0 0 1 
         
(i)  1 0 0  (ii)  0 1 0  (iii)  0 1/3 0  (iv)  0 1 4  (v)  0 1 0 
         
0 0 1 −2 0 1 0 0 1 0 0 1 1 0 0
Repite el ejercicio considerando operaciones elementales sobre columnas.
(P.24) Considera las siguientes parejas de matrices y encuentra en cada caso la matriz ele-
mental por la que hay que premultiplicar la primera matriz para obtener la segunda y la matriz
elemental por la que hay que premultiplicar la segunda matriz para obtener la primera:
   
 1 3 −1   1 3 −1 
   
(i) A1 =  0 2 −4  , A2 =  0 1 −2 
   
0 −3 4 0 −3 4
   
 0 5 −3   1 5 −2 
   
(ii) B1 =  1 5 −2  , B2 =  0 5 −3 
   
2 1 8 2 1 8
   
 1 3 −1 5   1 3 −1 5 
   
(iii) C1 =  0 1 −4 2  , C2 =  0 1 −4 2 
  
0 2 −5 −1 0 0 3 −5
   
 1 0 3   1 0 3 
 −2 3 −4   
(iv) D1 =   , D =  −2 3 −4 
 0 5 7   0 5 7 
2
 
3 1 2 0 1 −7
(P.25) Determina cuáles de las siguientes matrices están en forma escalonada reducida por
filas y cuáles están en forma escalonada por filas (pero no en forma escalonada reducida por
filas):
       
 1 0 0 0   1 0 0 0   0 1 1   0 0 0 
       
A =  0 1 0 0  , B =  0 1 1 0  , C =  0 0 1  , D =  1 0 0  ,
      
0 0 1 0 0 0 0 1 0 0 0 0 1 0

44
       
 1 1 1 0   1 0 1 0   1 0 1   1 1 1 
       
E =  0 0 0 1  , F =  0 0 1 1  , G =  0 0 0  , H =  0 0 0  ,
       
0 0 0 0 0 0 0 1 0 1 0 0 0 0
     
 1 0 1 0   1 0 0 0   0 2 3 4 5 
 0 1 1 0  
  1 1 0 0   0 0 3 4 5 
J =   , K =  , M =  .
 0 0 0 1   0 1 1 0   0 0 0 0 5 
  
0 0 0 0 0 0 1 1 0 0 0 0 0

(P.26) (i) Aplica el método de Gauss para calcular una forma escalonada por filas de la matriz
 
 1 2 3 1 3 
 3 2 1 1 7 
A =   .
 0 2 4 1 1 
6 3 2 9 1
(ii) Aplica el método de Gauss-Jordan para calcular la forma escalonada reducida por filas de
la matriz A. Calcula el rango de A.
 
 0 6 13 
 
(P.27) Considera la matriz C =  0 2 4 . Calcula cuatro matrices elementales E1 , . . . , E4
 
1 0 0
tales que E4 E3 E2 E1C = I3×3 .
(P.28) Calcula una forma escalonada por filas, la forma escalonada reducida y el rango de las
siguientes matrices:
       
 1 2 3   0 1 2   0 1 2   2 −2 4 
       
A =  4 5 6  , B =  −1 0 3  , C =  1 0 3  , D =  −1 3 4  ,
      
7 8 9 −2 −3 0 2 3 0 1 −2 −3
   
     1 −1 1   1 0 0 1 
 1 2 3 4   3 6 5 9   
  
    2 1 7  0 1 1 0
E =  5 6 7 8  , F =  1 1 2 4  , G =   , H =   ,
     0 1 2   1 0 1 0 

6 7 8 7 1 −2 3 7 
1 0 3 0 1 0 1
   
 1 2 10 6     0 −3 −6 4 9 
   0 3 −6 6 4 −5   −1 −2
2 1 2 3  
   −1 3 1 
J =   , K =  3 −7 8 −5 8 9  , M =  .
 2 2 5 5   −2 −3
 0 3 −1 
 3 −9 12 −9 6 15 
−1 1 5 2 1 4 5 −9 −7

Sistemas de ecuaciones lineales.


    
 1 0 −3   x   0 
    
(P.29) Resuelve el sistema  0 0 0   y  =  0 .
    
−3 0 1 z 0
(P.30) Estudiar si los siguientes sistemas tienen solución y, en caso afirmativo, resolverlos:
  


 x − 2y + z = 0 

 y − 4z = 8 

 2x + y + z = 1
  
(i) 
 2y − 8z = 8 (ii) 
 2x − 3y + 2z = 1 (iii) 
 x + 2y + z = 2

 −4x + 5y + 9z = −9 
 5x − 8y + 7z = 1 
 x + y + 2z = 3

45
 ( 


 x + y + 2z = 2 

 x − 2y − z + 3t = 0
 x − 3y − 5z = 0 
(iv) 
 y+ z = 1 (v) (vi) 
 −2x + 4y + 5z − 5t = 3

 2x y+ z = 3 
 3x − 6y − 6z + 8t = 2
+ 2z = 2

2x + y + z = a 


(P.31) Prueba que el sistema de ecuaciones lineales x + y + z = b   es compatible si, y


3x + y + z = c
sólo si, c − 2a + b = 0.
 
 1 1 2 a 
 
(P.32) Considera el sistema cuya matriz ampliada es  −2 0 −1 b .
 
1 3 5 c
Da condiciones sobre a, b y c para que el sistema sea compatible.
 
 2 5 −1 4 −1 −5 
 −6 1 3 2 4 9 
(P.33) Resuelve el sistema de matriz ampliada (A|b) =  .

 −16 −8 8 −4 6 3 
−4 6 2 6 3 5
 
 1 −5 3 3 −3 0 
 1 −3 2 4 −2 0 
 
(P.34) Resuelve el sistema de matriz ampliada (A|b) =  −2 6 −4 −3 2 0 .
 
 3 −7 5 8 −3 0 
−2 8 −5 −2 3 0
(P.35) Discutir el siguiente sistema de ecuaciones en función de los parámetros a y b:

2x − ay + bz = 4  


x + z = 2  

x+ y+ z = 2 

(P.36) Resuelve en función del parámetro a el sistema de matriz ampliada


 
 1 −2 3 5 −4 2 
 2 −5 7 7 −a −7 
 
(A|b) =  2 −4 6 5 2 −6  .
 
 −1 1 −2 −3 5 −3 
1 −3 4 2 7 −9

Matrices no singulares.
(P.37) Suponiendo que todas las matrices que intervienen son no-singulares, despeja la matriz
D en cada una las siguientes igualdades:

(i) ADB = C, (ii) ACDB = C, (iii) CADB = C, (iv) (AB)−1 AD = I, (v) A(B + D) = (B−1 )−1 .

46
   
 2 −3 1   3 0 −1 
   
(P.38) Si A =  4 −5 3  y B =  −2 1 1 , halla una matriz X 3×3 tal que AX + B = O3×3 .
   
2 −2 1 −1 2 2
   
 0 −1 0   1 2 
   
(P.39) Halla una matriz 3 × 2 tal que X = AX + B, donde A =  0 0 −1  y B =  2 1 .
   
0 0 0 3 3
(P.40) Halla una matriz X tal que (AX T + C)T = B, siendo
   
 1 1 1  !  3 −2 
  2 1 −1  
A =  1 1 2  , B= y C =  0 1  .
  0 −2 1  
1 2 3 0 1

(P.41) (i) Prueba que si A es no singular y simétrica, entonces A−1 es simétrica.


(ii) Si A ∈ Mn×n (K) es una matriz no singular y α ∈ K, α , 0, prueba que αA es no singular y
1
(αA)−1 = A−1 .
α
(P.42) Sea A ∈ Mn×n (K). Prueba que si A es una matriz idempotente no singular, entonces
A = In×n .
(P.43) Si B es una matriz n × n que verifica B7 − 3B + In×n = On×n , prueba que B es no singular
y calcula B−1 .
(P.44) Estudia cuál de las siguientes matrices es no singular y, en caso afirmativo, calcula la
inversa:
       
 1 −1 1   1 2 3   0 1 2   0 1 2 
       
A =  −1 1 2  , B =  2 3 4  , C =  −1 0 3  , D =  1 0 3  ,

2 −1 −2 3 4 6 −2 −3 0 2 3 0
     
 1 2 3 4   1 0 0 0   0 0 0 −2 
 2 3 5 
  1   1 0 
E = 
−2 
 , F = 
2 0 0  , G =  0 0
,
 3 5 1 1   2 1 3 0   0 3 1 0 
   
1 1 −5 −7 1 2 1 4 5 1 0 1
     
 1 0 0 1   1 2 10 6   1 2 3 1 
 0 1 1 0   2 1 2 3   1 3 3 2 
H =   , J =   , K =  .
 0 0 1 0   2 2 5 5   2 4 3 3 
  
0 1 0 1 −1 1 5 2 1 1 1 1

(P.45) Escribe las siguientes matrices como producto de matrices elementales:


 
       1 0 0 1 
 1 1 0   2 −3 1   1 3 3   0 1 1 
      0
A =  0 1 1  , B =  4 −5 3  , C =  1 4 3  , D =   .


0 0 1
 
2 −2 1
 
1 3 4
  0 0 1 0

0 1 0 1

47
Determinantes.
(P.46) Calcula el determinante de las siguientes matrices:
 
       1 2 3 4 
 8 7 −3   −4 −6 7   0 −2 1   0 1 2 4 
     
A =  1 1 2  , B =  8 −2 −5  , C =  7 5 2  , D =   ,

      
 2 3 4 5 
1 1 3 −1 1 1 5 −2 6
2 0 1 2
 
     −4 1 1 1 1 
 1 1 1 1   4 −2 5 1   1 −4 1 1 1 
 1 2 3 4   −4 1 0 −1   
E =   , F =   , G =  1 1 −4 1 1  .
 
 1 3 6 10   2 1 −1 1 
   1 1 1 −4 1 
1 4 10 20 1 0 1 −2  
1 1 1 1 −4
 
 x y z 
 
(P.47) Sabiendo que det  3 0 2  = 5, calcula sin desarrollar, los determinantes :
 
1 1 1
     
 2x 2y 2z   x y z   x − 1 y − 1 z − 1 
     
det  3/2 0 1  , det  3x + 3 3y 3z + 2  , det  4 1 3 
     
1 1 1 x+1 y+1 z+1 1 1 1

(P.48) Calcula el determinante de las matrices siguientes:


     
 a a a a   x a a a   a 0 a 0 
 a b b b     
A =   , B =  a x a a  , C =  0 b 0 a  ,
 a b c c   a a x a 
 
 a 0 b 0 
 
a b c d a a a x 0 a 0 a
 
 1 1 0 0 ··· 0 0 
   −1 
 1 1 1 −1 1   1 2 0 ··· 0 0 
 1 −1 −1 1 1  
 0 −2 
   1 3 ··· 0 0 

D =  1 1 1 −1 −1  , E =  0 0 −3 1 · · · 0 0  .
   · · · · · · · · · · · · · · · 
 1 −1 1 1 1   ··· · · · 
 0 
1 1 −1 1 −1  0 0 0 ··· 1 n − 1 

0 0 0 0 · · · −(n − 1) 1
 
 1 2 3 4 5 
 2 3 4 5 1 
 
(P.49) Calcula el determinante de C =  3 4 5 1 2 . (Circulante)
 
 4 5 1 2 3 
5 1 2 3 4
(P.50) Si a1 , a2 , a3 , a4 ∈ R, calcula los determinantes (de Vandermonde):
 
   1 1 1 1 
1 1
!  1 1 1   a1 a2 a3 a4 
V2 = det , V3 = det  1 2 3  y V4 = det  2 2 2 2  .

 a a a 

a1 a2  2 2 2   a1 a2 a3 a4 
a1 a2 a3  3 3 3 3 
a1 a2 a3 a4

48
(P.51) Sea S una matriz n × n antisimétrica. Si n es impar, prueba que det(S ) = 0.
(P.52) (i) Prueba que una matriz nilpotente es singular.
(ii) Calcula los posibles valores del determinante de una matriz idempotente.
(P.53) Sea A una matriz n × n sobre K tal que A3 = A. ¿Cuáles son los posibles valores de
det(A)?
(P.54) Sea A ∈ Mn×n (R) tal que 3A2 − 2A = On×n . Calcula los posibles valores del determinante
de A.
 
 x 2 −1 
 
(P.55) Calcula los valores de x para los que la matriz A =  2 x −1  es singular.
 
2 −1 x
 
 −2 1 p 
 
(P.56) Considera la matriz A =  0 −1 1 .
 
1 2 0
(a) Halla los valores de p para los que A es no singular.
(b) Calcula la inversa de A para p = −4 y expresa A como producto de matrices elementales.

(P.57) Resuelve los siguientes sistemas aplicando la Regla de Cramer:


( (
x − 2y = 1 3x + y = 5
(i) (ii)
3x + 4y = 3 2x + y = 0

(P.58) Resuelve los siguientes sistemas aplicando la Regla de Cramer:


 


 5x − 2y + z = 1 

 5x − 2y + z = 1
 
(i) 
 y + z = 0 (ii) 
 3x + 2y = 3

 x + 6y − z = 4 
 x+ y−z = 0

Factorizaciones LU y LDU de una matriz no singular.


(P.59) Calcula la factorización LU y la factorización LDU de las siguientes matrices no singu-
lares:
 
       3 −7 −2 2 
 1 3 −1   1 1 1   1 1 1   −3 5 1 0 
     
A =  2 8 4  , B =  1 −1 −1  , C =  2 3 9  , D =  

      
 6 −4 0 −5 
−1 3 4 1 −1 2 1 1 2
−9 5 −5 12

 
 1 0 3 
 
(P.60) Calcula la factorización LU de la matriz no singular A =  3 1 −1 . Teniendo en
 
0 2 1
cuenta la factorización anterior:

49
1. Calcula det(A).

2. Calcula A−1 .
 
 4 
 
3. Resuelve el sistema Ax = b siendo b =  3 .
 
−1

(P.61) Averigua si las siguientes matrices no singulares admiten factorización LDU y en caso
afirmativo calcula dicha factorización:
 
       1 −2 −4 −3 
 1 1 1   1 1 −1   2 2 0   2 −7 −7 −6 
       
A =  1 1 −1  , B =  1 −1 −1  , C =  1 −1 2  , D =  −1 2 6 4  ,
      
1 −1 2 1 −1 0 4 5 9
−4 −1 9 8
     
 1 1 1 1   1 3 4 0   1 0 −1 2 
 0 2 1 −1   −3 −6 −7 2   
E =   , F =   , G =  0 −3 6 −3  .
 1 5 3 0 
  3 3 0 −4   −1 6 −9 2 
 
1 −1 2 2 −5 −3 2 6 2 −3 2 1

Partición de matrices en bloques.


   
 0  1 0 0 0  2 −3 
   4 7 
 0  0 1 0 0  

(P.62) Considera las matrices A =  0  y B =  3 5
0 −1 2 0 . Calcula el producto

  
0 
 1 0 0 1  −2 0 
 
1 2 1 0 0 −3 −2
AB, tomando particiones en bloques adecuadas en A y en B.
!
B C
(P.63) Supongamos que establecemos una partición por bloques de una matriz A.
O O
Prueba que !
n Bn Bn−1C
A =
O O

(P.64) Sea la matriz cuadrada A = diag(Λ11 , Λ22 , . . . , Λkk ) diagonal en bloques. Prueba que A
es nilpotente si, y sólo si, cada bloque diagonal es nilpotente.
!−1 !
1 1 4 −1
(P.65) Sabiendo que = , calcula la inversa de las siguientes matrices
3 4 −3 1
estableciendo los bloques convenientes
 
 3 0 0 1 1 
   
 1 1 0   0 2 0 1 1 
 
 3 4 0  ; 
 0 0 1 1 1 

0 0 4  0 0 0 1 1 
 
0 0 0 3 4

50
 
 1 0 −1 1 1 0 0 0 
 2 −1 −2 1 1 0 0 0 
 0 −2 1 1 1 0 0 0 

 
 0 0 0 3 0 0 0 0 
(P.66) Calcula la inversa de la matriz A =  0 0 0 0 −5 0 0 0 
.
 
 0 0 0 0 0 −1 0 1 
 
 0 0 0 0 0 −2 1 2 
0 0 0 0 0 0 2 −1
 
 −1 0 0 0 0 0 0 0 
 0 3 0 0 0 0 0 0 
 1 −1 1 2 3 0 0 0 

 
 1 −1 2 3 4 0 0 0 
(P.67) Calcula la inversa de la matriz A =  1 −1 3 4 6 0 0 0 
.
 

 0 0 0 0 0 1 2 3 

 0 0 0 0 0 2 3 4 

0 0 0 0 0 3 4 6
 
 1 1 0 0 0 0 0 0 
 −1 −1 1 0 0 0 0 0 
 2 1 2 0 0 0 0 0 

 
 1 1 1 −2 0 0 0 0 
(P.68) Halla la inversa de la matriz A =  1 1 1 0 3 0 0 0 
.
 
 0 0 0 0 0 1 1 0 
 
 0 0 0 0 0 −1 −1 1 
0 0 0 0 0 2 1 2
¿Admite la matriz A descomposición LDU? Justifica tu respuesta.
 
 1 3 −1 2 3 
 
 1 2 1 −3 4 

(P.69) Calcula el determinante de A =  0 0 1 0 0 .
 
 0 0 −2 5 0 

0 0 3 2 7
 
 1 −1 0 0 0 0 
 2 0 0 0 0 0 
 
 3 −1 3 4 0 0 
(P.70) Calcula el determinante de A =  .
 2 1 1 −2 0 0 
 
 7 3 −1 4 2 5 
6 −2 −3 −1 0 1
(P.71) Calcula el determinante de An siendo
 
 −2 −1 1 1 0 0 0 0 
 1 3 1 2 0 0 0 0 
 
 −1 0 0 2 0 0 0 0 
 
 3 0 0 0 0 0 0 0 
A =   .
 0 0 0 0 1 −1 −2 1 
 
 0 0 0 0 2 3 1 1 
 0 0 0 0 2 0 −1 0 
 
0 0 0 0 0 0 3 0

51
CUESTIONES
(C1) Una de las siguientes matrices está en forma escalonada reducida por filas
     
 1 0 4 0   1 −12 2 0   1 1 1 0 1 
 0 1 2 0   0 1 0 0   0 0 1 0 −1 
(a) A =  
 

 (b) B =  
  (c) C =  
0 0 0 1 0 0 1 0 0 0 0 1 2 
     
0 0 0 0 0 0 0 0 0 0 0 0 1

(C2) Una de las siguientes matrices NO es una matriz elemental:


 √     
 1 0 π/3   1 0 0   0 1 0 
     
(a) A =  0 1 0  (b) B =  0 0 1  (c) C =  0 0 1 
     
0 0 1 0 1 0 1 0 0

(C3) Sólo una de las siguientes afirmaciones es correcta.


(a) La suma de matrices elementales es otra matriz elemental.
(b) El producto de matrices elementales es otra matriz elemental.
(c) Si A es una matriz elemental de tipo III, entonces AT es también una matriz elemental de
tipo III.

(C4) Si A y B son antisimétricas, entonces AB − BA es


(a) antisimétrica; (b) simétrica; (c) triangular superior.

(C5) Si A ∈ Mn×n (K), entonces una de las siguientes afirmaciones es verdadera.


(a) Si A es idempotente, entonces 8A es idempotente.
(b) Si A es antisimétrica, entonces 8A es antisimétrica.
(c) Si A está en forma escalonada reducida, entonces 8A está en forma escalonada reducida.

 
 1 0 2 
 
(C6) La inversa de A =  0 1 0  es
 
0 0 1
     
 1 0 0   1 0 0   1 0 −2 
     
(a) B =  0 1 0  (b) C =  0 1 0  (c) D =  0 1 0 
     
−2 0 1 2 0 1 0 0 1

(C7) Sean A, B y C ∈ Mn×n (K), tales que B(A + X T ) = C , con B no singular. Entonces:
(a) X = (CB−1 − A)T .
(b) X = C T (BT )−1 − AT .
(c) X = (BT )−1C T − AT .

(C8) Si A es una matriz n × n no singular satisfaciendo A2 − 4A + In×n = On×n , entonces


(a) A−1 = 4In×n − A (b) A−1 = A − 4In×n (c) A−1 = 4In×n + A

52
(C9) Si A, B y C son matrices n × n, entonces
(a) det(ABC) = det(A) det(B) det(C).
(b) det(A + B) = det(A) + det(B).
(c) det(λA) = λ det(A).
 
 λ λ λ 
 
(C10) det  λ λ λ  =
 
λ λ λ
(a) 0 (b) λ (c) λ3
(C11) Sean A y B matrices n × n, con B no singular. Entonces, det(B−1 ABT ) =
(a) det(B)2 det(A) (b) det(A) (c) 1/ det(A)
(C12) Sea A una matriz 3 × 3 con det(A) = 5. Entonces NO es cierto que:
(a) det(2A−1 ) = 8/5.
(b) det((2A)−1 ) = 1/40.
(c) det(3A) = 125.
(C13) Sea A ∈ M3×3 (K). Supongamos que se hacen las siguientes operaciones elementales
sobre A para obtener la matriz B:
 
F1 ↔ F2
1
F2 F 2F
 1 2 3 
4 3 + 2  
A −−−−−−−−→ −−−−−→ −−−−−−−−→ B =  0 1 0  ,
 
0 0 −6
entonces una de las siguientes afirmaciones es verdadera:
(a) det(A) = 6 (b) det(A) = 24 (c) det(A) = −6

(C14) Sea A ∈ Mn×n (K) no singular. Si A es simétrica y admite factorización LDU , entonces
(a) A = LDL−1 (b) A = LDLT (c) A = LT DL
(C15) Una de las siguientes afirmaciones es INCORRECTA:
(a) Si A es no singular, entonces A es producto de matrices elementales.
(b) Si A es no singular, entonces su forma escalonada reducida es la identidad.
(c) Si A es no singular, entonces A admite factorización LDU .
(C16) Una de las siguientes afirmaciones es correcta:
! !
I A I −A−1
(a) la inversa de es
O I O I
! −1
!
I A I A
(b) la inversa de es
O I O I
! !
I A I −A
(c) la inversa de es
O I O I

53
Tema 2: Espacios Vectoriales

2.1. Generalidades sobre espacios vectoriales.

2.1.1 Espacio vectorial.


2.1.2 Subespacio vectorial.
2.1.3 Operaciones con subespacios: intersección de subespacios, suma de subespa-
cios y suma directa de subespacios.

2.2. Dependencia e independencia lineal.

2.2.1 Combinaciones lineales. Envoltura lineal.


2.2.2 Dependencia e independencia lineal.
2.2.3 Sistema generador.

2.3. Base y dimensión de un espacio vectorial finitamente generado.

2.3.1 Base de un espacio vectorial finitamente generado.


2.3.2 Dimensión de un espacio vectorial finitamente generado.
2.3.3 Coordenadas de un vector respecto de una base.

2.4. Aplicación: Interpolación polinómica.

2.5. Anexo.

55
2.1. GENERALIDADES SOBRE ESPACIOS VECTORIALES.

K denota a R ó C indistintamente.

2.1.1 Espacio Vectorial.


En esta sección introduciremos la noción de espacio vectorial abstracto. Este concepto aparece
en numerosas ramas de las Matemáticas y de materias científicas, se distingue por su gran utili-
dad. La disciplina que estudia los espacios vectoriales y las aplicaciones entre ellos (aplicaciones
lineales) se llama Álgebra Lineal.
Antes de presentarlo, analizaremos el comportamiento de distintos conjuntos conocidos res-
pecto de determinadas operaciones y, posteriormente, extraeremos coincidencias entre ellos.
Ejemplo I. Consideremos V el conjunto de los vectores libres del plano. Se define la suma de un
par de vectores libres ~u y ~v del siguiente modo: se elige un punto arbitrario O y los representantes
~ y UV
de clase OU ~ de los vectores libres ~u y ~v respectivamente, el vector suma ~u + ~v es el vector
libre cuyo representante de clase OV, ~ es el resultado de aplicar la regla del paralelogramo.

V
= −→

U−−→
OV
V −

V
+ U−→
U −

−−→ U
−→

OU
O−

La definición no depende del punto O elegido. Denotaremos con ~0 al vector libre nulo. Si ~v ∈
V, al vector libre con la misma longitud, la misma dirección y sentido opuesto a ~v, lo denotaremos
mediante −~v y le llamaremos opuesto de ~v. Si ~u, ~v, w
~ ∈ V, entonces se verifica:

(1) ~u + (~v + w
~ ) = (~u + ~v) + w
~ (2) ~u + ~v = ~v + ~u
(3) ~v + ~0 = ~v = ~0 + ~v (4) ~v + (−~v) = ~0 = (−~v) + ~v.

Definimos una nueva operación por la cual a cada elemento ~v de V y α de R le asignamos un


vector libre α~v que coincidirá con el vector nulo si α = 0 ó, en otro caso, con aquel cuya longitud es
|α| por la longitud de ~v, posee la misma dirección que ~v y el mismo sentido si α > 0 o el contrario
si α < 0.

→0
−−− U U’
O
→ =
−−OU U
2
−−→
O
U
O

56
No resulta complicado comprobar que si ~u, ~v ∈ V y α, β ∈ R, entonces se verifican las siguien-
tes propiedades:

(5) α(~u + ~v) = α~u + α~v (6) (α + β)~v = α~v + β~v


(7) α(β~v) = (αβ)~v (8)1~v = ~v.

Ejemplo II. Consideremos Mm×n (K) el conjunto de todas las matrices de tamaño m×n con entradas
en K. En el Tema 1 se definió la suma de matrices: si A = (ai j ), B = (bi j ) ∈ Mm×n (K), entonces
A + B = (ai j + bi j ) ∈ Mm×n (K). Recordemos que Om×n denotaba una matriz m × n con todas
las entradas nulas. Si A = (ai j ) ∈ Mm×n (K), entonces llamábamos matriz opuesta de A y la
denotábamos por −A, a la matriz: −A = (−ai j ) ∈ Mm×n (K). Si A, B, C ∈ Mm×n (K), entonces se
verifica:

(1) A + (B + C) = (A + B) + C (2) A + B = B + A
(3) A + Om×n = A = Om×n + A (4) A + (−A) = Om×n = (−A) + A.

Asimismo, se definió el producto de un escalar por una matriz: si A = (ai j ) ∈ Mm×n (K) y
α ∈ K, entonces αA = (αai j ) ∈ Mm×n (K). Si A, B ∈ Mm×n (K) y α, β ∈ K, entonces se cumple:

(5) α(A + B) = αA + αB (6) (α + β)A = αA + βA


(7) α(βA) = (αβ)A (8)1A = A.

Ejemplo III. Consideremos S el conjunto de todas las sucesiones de números reales. En la asig-
natura Matemáticas I se definió la suma de sucesiones de números reales: si x = (xn )n∈N , y =
(yn )n∈N ∈ S, entonces x + y = (xn + yn )n∈N ∈ S. Recordemos que 0 denota la sucesión cuyo término
general es 0. Si x = (xn )n∈N ∈ S, entonces se llama sucesión opuesta y se denota por −x, a la
sucesión: −x = (−xn )n∈N ∈ S. Si x, y, z ∈ S, entonces se cumple:

(1) x + (y + z) = (x + y) + z (2) x + y = y + x
(3) x + 0 = x = 0 + x (4) x + (−x) = 0 = (−x) + x.

También se definió el producto de un escalar por una sucesión de números reales: si x =


(xn )n∈N ∈ S y α ∈ R, entonces αx = (αxn )n∈N ∈ S. Si x, y ∈ S y α, β ∈ R, entonces se verifica:

(5) α(x + y) = αx + αy (6) (α + β)x = αx + βx


(7) α(βx) = (αβ)x (8)1x = x.

Conclusión. Si analizamos los 3 ejemplos anteriores, encontramos ciertas coincidencias:

(i) Se trabaja con conjuntos no vacíos que contienen un elemento “cero”.

(ii) Se ha definido un modo de sumar elementos del conjunto obteniendo como resultado un
elemento del mismo conjunto.

57
(iii) Se ha definido un modo de multiplicar un número por un elemento del conjunto obteniendo
como resultado un elemento del conjunto.
(iv) Se verifica una colección de propiedades ((1)-(8)) respecto de las operaciones mencionadas
en (ii) y (iii).
Se observa que sólo las operaciones definidas y sus propiedades son relevantes, no la naturaleza
de los elementos. Este hecho motiva la definición abstracta de espacio vectorial y el desarrollo de
una teoría general.
Definición 1. Un espacio vectorial sobre K es un conjunto no vacío E junto con dos operaciones
+ : E × E −→ E ·K : K × E −→ E
(x, y) 7−→ x + y (α, x) 7−→ α ·K x
llamadas suma y producto por un escalar que verifican las siguientes condiciones:
+ Suma:
(1) Asociativa: x + (y + z) = (x + y) + z, ∀x, y, z ∈ E.
(2) Conmutativa: x + y = y + x, ∀x, y ∈ E.
(3) Existencia de elemento neutro: ∃ 0 ∈ E tal que x + 0 = x = 0 + x, ∀x ∈ E.
(4) Existencia de elemento opuesto: ∀x ∈ E ∃ −x ∈ E tal que
x + (−x) = 0 = (−x) + x.
·K Producto por un escalar:
(5) Distributiva respecto de la suma de elementos de E:
α ·K (x + y) = α ·K x + α ·K y, ∀α ∈ K, ∀x, y ∈ E.
(6) Distributiva respecto de la suma de elementos de K:
(α + β) ·K x = α ·K x + β ·K x, ∀α, β ∈ K, ∀x ∈ E.
(7) Asociativa mixta:
α ·K (β ·K x) = (αβ) ·K x, ∀α, β ∈ K, ∀x ∈ E.
(8) Existencia de elemento neutro: ∃ 1 ∈ K tal que 1 ·K x = x, ∀x ∈ E.
Los elementos de E son llamados vectores y los elementos de K reciben el nombre de escalares.
Observaciones 2. (a) El neutro de la ley suma es único y cada vector de un espacio vectorial tiene
un único vector opuesto.
(b) Queremos destacar que un espacio vectorial sobre K es un conjunto no vacío E dotado de
dos operaciones + y ·K , esto es, una terna (E, +, ·K ) que verifica determinadas propiedades, aunque
para simplificar la notación escribiremos E en lugar de (E, +, ·K ) y prescindiremos de ·K cuando rea-
licemos el producto por un escalar. Estas simplificaciones se harán siempre que se sobrentiendan
los elementos que se omiten.

58
Proposición 3. Sea E un espacio vectorial sobre K. Se verifican las siguientes afirmaciones:
(i) Productos nulos: Si x ∈ E y α ∈ K, entonces α x = 0 ⇐⇒ α = 0 ó x = 0.
(ii) Regla de signos: Si x ∈ E y α ∈ K, entonces (−α) x = −(α x) = α (−x).
(iii) Reglas de simplificación: Si x ∈ E − {0}, α, β ∈ K y α x = β x, entonces α = β.
Si x, y ∈ E, α ∈ K − {0} y α x = α y, entonces x = y.

Ejemplos 4.
(a) (V, +, ·) (ver Ejemplo I) es un ejemplo de un espacio vectorial sobre R.
(b) (Mm×n (K), +, ·) (ver Ejemplo II) es un ejemplo de un espacio vectorial sobre K. Destacar
que si n = 1, obtenemos que (Km , +, ·) es un ejemplo de un espacio vectorial sobre K y si
m = n = 1, entonces podemos afirmar que (K, +, ·) es un ejemplo de un espacio vectorial
sobre K.
(c) (S, +, ·) (ver Ejemplo III) es un ejemplo de un espacio vectorial sobre R.
(d) Consideremos Pn (K) el conjunto de todos los polinomios con coeficientes en K en la inde-
terminada x de grado menor o igual a n. Recordemos que si p(x) = a0 + a1 x + . . . + an xn ,
q(x) = b0 + b1 x + . . . + bn xn ∈ Pn (K), entonces se define la suma de p(x) y q(x) del siguiente
modo: (p+q)(x) = (a0 +b0 )+(a1 +b1 )x+. . .+(an +bn )xn . Observemos que (p+q)(x) ∈ Pn (K).
Si α ∈ K y p(x) = a0 + a1 x + . . . + an xn ∈ Pn (K), definimos el producto de un escalar α
por el polinomio p(x) como sigue: (αp)(x) = (αa0 ) + (αa1 )x + . . . + (αan )xn . Es claro que
(αp)(x) ∈ Pn (K). Se comprueba fácilmente que (Pn (K), +, ·) es un espacio vectorial sobre
K.
(e) Sean a, b ∈ R tales que a < b. Consideremos C([a, b]) el conjunto de todas las funciones
reales continuas en el intervalo cerrado [a, b]. Si f : [a, b] −→ R y g : [a, b] −→ R ∈
C([a, b]), entonces se define su suma mediante ( f + g)(x) = f (x) + g(x) para todo x ∈ [a, b].
Si α es un número real y f es una función continua en [a, b], entonces definimos el producto
del escalar α por la función f como la función α f que asigna a cada x ∈ [a, b] el número real
α( f (x)). En la asignatura Matemáticas I se estudió que f + g y α f son funciones continuas
en [a,b]. Es sencillo comprobar que (C([a, b]), +, ·) es un ejemplo de un espacio vectorial
sobre R.

2.1.2 Subespacios Vectoriales.

Si (E, +, ·K ) es un espacio vectorial sobre K, es posible encontrar determinados subconjun-


tos de E que con las operaciones suma + y producto por un escalar ·K tienen también estructura
de espacio vectorial. Podríamos decir que en un espacio vectorial “residen” otros espacios vec-
toriales. Por ejemplo, (M2×2 (K), +, ·) es un espacio vectorial sobre K y D = {A ∈ M2×2 (K) :
A matriz diagonal } es un subconjunto! de M2×2 (K). Observemos
! que la matriz nula O2×2 es una
a11 0 b11 0
matriz diagonal y si A = yB= son dos matrices diagonales con entradas
0 a22 0 b22
en K y α es un elemento de K, entonces

59
! ! ! !
a11 0 b11 0 a11 + b11 0 αa11 0
A+B= + = y α·A= .
0 a22 0 b22 0 a22 + b22 0 αa22

Por tanto, A + B y α · A ∈ D. En la medida que los elementos de D son elementos de M2×2 (K),
las propiedades (1)-(8) de la definición de espacio vectorial se verifican también para las matrices
diagonales. Por tanto, (D, +, ·) es un espacio vectorial sobre K.

A continuación daremos nombre a este tipo de espacios vectoriales.

Definición 5. Sea (E, +, ·K ) un espacio vectorial sobre K y sea F un subconjunto no vacío de E.


Diremos que F es un subespacio vectorial de E si al considerar las operaciones suma y producto
por un escalar de E restringidas a F:

+ : F × F −→ F ·K : K × F −→ F
(x, y) 7−→ x + y (α, x) 7−→ α ·K x

(F, +, ·K ) tiene estructura de espacio vectorial sobre K.

Teorema 6. (Caracterización de subespacio vectorial)


Sea E un espacio vectorial sobre K. Si ∅ , F ⊆ E, entonces

 x + y ∈ F, ∀ x, y ∈ F


F es subespacio vectorial de E ⇐⇒  
 α x ∈ F, ∀ x ∈ F, ∀ α ∈ K
o, equivalentemente,
F es subespacio vectorial de E ⇐⇒ α x + β y ∈ F, ∀ x, y ∈ F, ∀ α, β ∈ K.

Nota 7. (a) Si E es un espacio vectorial sobre K y F es un subconjunto no vacío de E, entonces


para comprobar si F es o no es un subespacio de E se recomienda comenzar comprobando que
0 ∈ F. En caso afirmativo, se utiliza el Teorema 6 y, en caso negativo, F no es un subespacio de E.
(b) Si E es un espacio vectorial sobre K, entonces E es un subespacio de E. Fijamos ahora
nuestra atención sobre {0}, el conjunto cuyo único elemento es 0. Se trata de un subespacio vecto-
rial de E, llamado subespacio nulo.

Ejemplos 8.
(a) D = {A ∈ M2×2 (K) : A matriz diagonal } es un subespacio de M2×2 (K).
!
2 t
(b) Sea T el subconjunto de R formado por los elementos de la forma con t ∈ R. El
4t
!
0
vector nulo es un elemento de T , basta considerar t = 0. Elegimos ahora dos ele-
0
! !
a b
mentos de T : y con a, b ∈ R. Si los sumamos obtenemos un elemento de T :
4a 4b
! ! ! !
a b (a + b) t
+ = . Si consideramos α ∈ R y un elemento de T , entonces
4b 4b 4(a + b) 4t

60
! !
t (α t)
es fácil observar que α · = es un elemento de T . Del Teorema 6 deduci-
4t 4(α t)
( ! ) ( ! )
t x
mos que T = : t∈R = : 4x − y = 0 es un subespacio vectorial de R2 .
4t y
Geométricamente T es una recta de R2 que pasa por el origen.
( !)
2 0
De hecho, se puede afirmar que los subespacios de R son: , las rectas que pasan por
0
el origen y R2 .

(c) Consideremos un sistema de m ecuaciones lineales con n incógnitas homogéneo con coefi-
cientes en K: Ax = 0. Denotamos con S al conjunto de todas las soluciones de dicho sistema
de ecuaciones lineales, esto es, S = {x ∈ Kn : Ax = 0}. Es claro que 0 ∈ S . Tomemos
x0 , x1 ∈ S y α ∈ K, entonces

A(x0 + x1 ) = Ax0 + Ax1 = 0 + 0 = 0 y A(αx0 ) = α(Ax0 ) = α 0 = 0.

Por tanto, x0 + x1 y αx0 son soluciones del sistema de ecuaciones lineales Ax = 0 y, por
tanto, pertenecen a S . Del Teorema 6 se sigue que S es un subespacio de Kn .

(d) Sea P = {p(x) ∈ P2 (K) : p(1) = 0}. Observemos que P = {p(x) = a + bx + cx2 ∈
P2 (K)) : a + b + c = 0}. Claramente el polinomio nulo p(x) = 0 pertenece a P. Elegimos
dos polinomios de P: p(x) = a0 + a1 x + a2 x2 donde a0 + a1 + a2 = 0 y q(x) = b0 + b1 x + b2 x2
donde b0 +b1 +b2 = 0 y los sumamos: (p+q)(x) = (a0 +b0 )+(a1 +b1 )x+(a2 +b2 )x2 ∈ P2 (K).
Veamos que este polinomio pertenece a P

(a0 + b0 ) + (a1 + b1 ) + (a2 + b2 ) = (a0 + a1 + a2 ) + (b0 + b1 + b2 ) = 0 + 0 = 0 =⇒ (p + q)(x) ∈ P.

Consideremos ahora α ∈ K y p(x) = a0 + a1 x + a2 x2 ∈ P, luego a0 + a1 + a2 = 0. Calculamos


(αp)(x): (αp)(x) = (αa0 ) + (αa1 )x + (αa2 )x2 . Comprobemos que es un elemento de P

(αa0 ) + (αa1 ) + (αa2 ) = α(a0 + a1 + a2 ) = α0 = 0 =⇒ (αp)(x) ∈ P.

Por tanto, aplicando el Teorema 6 podemos concluir que P es un subespacio de P2 (K).

Observación 9. Sin embargo, no todo subconjunto de un espacio vectorial con la operación + y


la operación ·K es un subespacio vectorial,  incluso
 si contiene al  vector nulo, como veremos en

  x  

 
 3


el siguiente ejemplo. Consideremos L =   

 y 

 ∈ R : xyz = 0
 un subconjunto de R3 . Es claro

 z  

     
 0   0   2 
     
que el vector nulo  0  pertenece a L. Los vectores x =  1  , y =  0  son elementos de L, pues
     
0 2 3
     
 0   2   2 
     
el producto de sus componentes es cero. Ahora bien, x + y =  1  +  0  =  1  y el producto
     
2 3 5
de sus componentes es 10 , 0. Por tanto, x + y no pertenece a L. Esto significa que L no es un
subespacio de R3 .

61
2.1.3 Operaciones con Subespacios: Intersección de Subespacios, Suma de Subespacios y Suma
Directa de Subespacios.

Sea R2 espacio vectorial sobre R. Consideremos los subconjuntos de R2


( ! ) ( ! )
x 2 x 2
F= ∈R : y=0 y G= ∈R : x=0 .
y y
!
2 a
Se comprueba fácilmente que F y G son subespacios de R . Elegimos un vector de F ∩ G:
b
 !

 a
!


 ∈ F −→ b = 0


 b
a 
∈ F ∩ G =⇒ 
 !
b 



 a

 ∈ G −→ a = 0.
b
( !)
0
Deducimos que F ∩G = es el subespacio nulo. Así pues la intersección de los subespacios
0
F y G ha resultado un subespacio de R2 . Podemos plantearnos si sucederá lo mismo con F ∪ G. !Es
1
claro que F ∪ G es un subconjunto de R2 que contiene al vector nulo de R2 . Tomemos x = ∈
0
! !
0 1
F ⊆ F ∪G ey = ∈ G ⊆ F ∪ G y sumemos estos dos vectores: x + y = . Observemos
1 1
que x + y no pertenece a F ∪ G, pues x + y < F y x + y < G. En consecuencia, F ∪ G no es un
subespacio de R2 . Por tanto, hemos construido un contraejemplo sencillo que pone de manifiesto
que la unión de dos subespacios, en!general, no es un subespacio.
a
Sin embargo, si tomamos ∈ R2 , podemos escribir dicho vector del siguiente modo:
b
! ! !
a a 0
= + , esto es, como suma de un vector de F más un vector de G. Por tanto,
b 0 b
R2 = {z + w : z ∈ F y w ∈ G}.

Después de haber analizado esta situación nos preguntamos

• ¿La intersección de dos subespacios es de nuevo un subespacio?

• En la medida que la unión de subespacios, en general, no es un subespacio ¿qué tipo de


subconjunto con la operación + y la operación ·K será el menor subespacio que contiene a
dos subespacios dados?

Las siguientes proposiciones responderán las cuestiones planteadas:

Proposición 10. Sea E un espacio vectorial sobre K. Si F y G son dos subespacios vectoriales de
E, entonces
F ∩ G = {x ∈ E : x ∈ F y x ∈ G}

62
es el mayor subespacio de E contenido en F y en G y es llamado subespacio intersección de F y
G.

Proposición 11. Sea E un espacio vectorial sobre K. Si F y G son dos subespacios vectoriales de
E, entonces
F + G = { h ∈ E : h = x + y con x ∈ F, y ∈ G}
es el menor subespacio de E que contiene a F y a G y es llamado suma de los subespacios F y G.
Definición 12. Sea E un espacio vectorial sobre K y sean F, G y H subespacios vectoriales de E.
Diremos que H es suma directa de F y G y escribiremos H = F ⊕ G, si todo elemento de H se
puede expresar de forma única como suma de un vector de F y otro de G.
Teorema 13. (Caracterización de suma directa)
Sea E un espacio vectorial sobre K. Si F y G son subespacios vectoriales de E, entonces

F + G es suma directa de F y G ⇐⇒ F ∩ G = {0}.

Definición 14. Sea E un espacio vectorial sobre K. Si F es un subespacio vectorial de E, entonces


llamaremos complemento de F a todo subespacio vectorial G de E tal que E = F ⊕ G.
Ejemplos 15.
( ! ) ( ! )
x 2 x 2
(a) Tomamos de nuevo los subespacios F = ∈ R : y = 0 yG = ∈R : x=0
y y
( !)
0 
de R2 . Vimos que F ∩ G = y que R2 = z + w : z ∈ F y w ∈ G = F + G. Por
0
tanto, tenemos que R = F ⊕ G y G complementa a F en R2 . También podemos afirmar que
2

F complementa a G en R2 .

(b) Sea M2×2 (R) espacio vectorial sobre R. Consideremos los subespacios de M2×2 (R):
( ! )
a b
F = { A ∈ M2×2 (R) : A simétrica } = ∈ M2×2 (R) : b = c
c d
( ! )
a b
G = { A ∈ M2×2 (R) : A antisimétrica } = ∈ M2×2 (R) : b = −c; a = d = 0
c d
( ! )
a b
H= ∈ M2×2 (R) : a = d; c = 0 .
c d
(b.1) Calculemos F ∩ G, F + G y decidamos si la suma es o no directa.
En primer lugar estudiamos que forma tiene un elemento del subespacio F ∩ G:
! ( ) !
a b A ∈ F −→ b = c 0 0
A= ∈ F ∩ G =⇒ =⇒ A = .
c d A ∈ G −→ a = 0 = d; b = −c 0 0
( !)
0 0
En consecuencia, tenemos que F ∩ G = .
0 0

63
Para obtener F + G, comenzamos observando que F + G ⊆ M2×2 (R). Es conocido que
toda matriz cuadrada se puede expresar como suma de una matriz simétrica más otra
antisimétrica (ver Ejercicio 20(ii) Tema 1). En nuestro caso tenemos
simétrica antisimétrica
z }| {! z }| {!
1 1
A ∈ M2×2 (R) =⇒ A = (A + AT ) + (A − AT ) ∈ F + G,
2 2

esto es, M2×2 (R) ⊆ F + G. En consecuencia, obtenemos


( que
!) M2×2 (R) = F + G. Como
0 0
hemos comprobado anteriormente que F ∩ G = , podemos concluir por el
0 0
Teorema 13 que M2×2 (R) = F ⊕ G y G complementa a F en M2×2 (R).
(b.2) Calculemos F ∩ H, F + H y decidamos si la suma es directa o no.
En primer lugar estudiamos que forma tiene un elemento del subespacio F ∩ H:
! ( ) !
a b A ∈ F −→ b = c a 0
A= ∈ F ∩ H =⇒ =⇒ A = .
c d A ∈ H −→ a = d; c = 0 0 a
( ! )
a b
Por tanto, concluimos que F ∩ H = ∈ M2×2 (R) : c = b = 0; a = d .
c d
!
a b
Obtengamos F + H. Es claro que F + H ⊆ M2×2 (R). Tomemos ahora A = un
c d
vector cualquiera de M2×2 (R). Podemos ver fácilmente que A se puede expresar como
suma de un vector de F más otro de H:
! ! !
a b 0 c a b−c
= + ∈ F + H.
c d c d−a 0 a

Por lo tanto, hemos probado (


que M2×2!)
(R) ⊆ F + H y, con ello, tenemos M2×2 (R) = F +
0 0
H. En esta ocasión F ∩ H , , luego la suma no es directa. En consecuencia,
0 0
un vector de M2×2 (R) no se puede expresar de forma única como suma de un vector de
F y otro de H. Por ejemplo:
vector de F vector de H vector de F vector de H
! z }| {! z }| {! z }| {! z }| {!
a b 0 c a b−c a c 0 b−c
= + = + .
c d c d−a 0 a c d 0 0

(b.3) Calculemos H ∩ G, H + G y decidamos si la suma es o no directa.


En primer lugar estudiamos que forma tiene un elemento del subespacio H ∩ G:
! ( ) !
a b A ∈ G −→ a = 0 = d; b = −c 0 0
A= ∈ G ∩ H =⇒ =⇒ A = .
c d A ∈ H −→ a = d; c = 0 0 0
( !)
0 0
En consecuencia, tenemos que H ∩ G = .
0 0

64
( ! )
a b
Calculemos G+H, para ello comprobaremos que G+H = ∈ M2×2 (R) : a = d .
c d
!
a b
En efecto, tomamos ∈ G + H. Así pues, este vector se puede escribir como
c d
suma de un elemento de G más un elemento de H:
! ! !
a b 0 −β α γ
= +
c d β 0 0 α
( ! )
a b
de donde deducimos que a = d. Hemos probado que G+H ⊆ ∈ M2×2 (R) : a = d .
c d
! ( ! )
a b a b
Elegimos ahora un vector de ∈ M2×2 (R) : a = d y veamos que
c a c d
también es un vector G + H:
! ! !
a b 0 −c a b+c
= + ∈ G + H.
c a c 0 0 a
( ! )
a b
Por tanto, podemos afirmar que ∈ M2×2 (R) : a = d ⊆ G + H y, con ello,
c d
( ! )
a b
tenemos G + H = ∈ M2×2 (R) : a = d . Anteriormente, hemos comprobado
c d
( !)
0 0
que G ∩ H = , luego podemos escribir T = G ⊕ H y H es un complemento
0 0
!
0 0
de G en T . Observemos que M2×2 (R) , G ⊕ H, pues < G ⊕ H.
0 1

2.2. DEPENDENCIA E INDEPENDENCIA LINEAL.

2.2.1 Combinaciones Lineales. Envoltura Lineal.


   
 1   1 
   
Consideremos R espacio vectorial sobre R y los vectores de R x =  1  e y =  0 .
3 3
A partir
   
1 1
de estos dos vectores podemos construir otros, por ejemplo:
             
 1   2   1   −5   1   1   −3 
             
2x = 2  1  =  2  , −5y = (−5)  0  =  0  , 2x − 5y = 2  1  − 5  0  =  2  .
            
1 2 1 −5 1 1 −3
De forma más general, podemos escribir
     
 1   1   α + β 
     
αx + βy = α   + β  0  =  α
1  ∀α, β ∈ R.
    
1 1 α+β
De este modo tenemos un método para construir “infinitos” vectores nuevos como suma de múlti-
plos escalares de los vectores x e y.

65
Definición 16. Sea E un espacio vectorial sobre K y A un subconjunto no vacío de E. Diremos
que un vector x ∈ E es una combinación lineal de los vectores de A si
x = α1 x1 + α2 x2 + · · · + αk xk
donde α1 , . . . , αk ∈ K y x1 , . . . , xk ∈ A (distintos).
Se llama envoltura lineal de A al conjunto formado por todas las combinaciones lineales de los
vectores de A y lo denotaremos por L(A).
Proposición 17. (Propiedades de la envoltura lineal)
Sean E un espacio vectorial sobre K y A y B dos subconjuntos no vacíos de E. Se verifican las
siguientes afirmaciones:
(1) L(A) es el menor subespacio de E que contiene a A.
(2) Si A ⊆ B, entonces L(A) ⊆ L(B).
(3) L(L(A)) = L(A).
(4) L(A ∪ B) = L(A) + L(B).

Ejemplo 18.
    


  1   1  
     
(a) Consideremos el subconjunto A = 
 x = 1
  , y = 0
 
 de R3 , entonces

 
1 1 
L(A) = {z ∈ R3 : z = αx + βy con α, β ∈ R, x, y ∈ A} =
       


  α + β  

 

  a  


       3 
=  z = 
 α 
 : α, β ∈ R
 = 
z = 
 b 
 ∈ R : a = c
 .

   
 
   

α+β c
   
 7   2 
   
Tomamos ahora los vectores h =  3  y w =  8  de R3 . Es claro que h ∈ L(A), pues
   
7 1
h = 3x + 4y. Sin embargo, w < L(A), ya que la primera y tercera componente son distintas.
(b) Consideremos un sistema de m ecuaciones lineales con n incógnitas y coeficientes en K:

a11 x1 + a12 x2 + · · · + a1n xn = b1  


a21 x1 + a22 x2 + · · · + a2n xn = b2  


.. .. .. .. .. 
. . . . = .  




am1 x1 + am2 x2 + · · · + amn xn = bm 
Este sistema también puede escribirse del siguiente modo
A1 A2 An b
z  }| { z
 }| { z
 }| { z}|{  
 a11   a12   a1n   b1 
       
 a21   a22   a2n   b2 
x1  ..  +x2  ..  + · · · + xn  .. = ..  =⇒ x1 A1 + x2 A2 + · · · + xn An = b.
 .   .   .   . 
       
am1 am2 amn bm

66
Por tanto, el sistema será compatible si b ∈ L({A1 , A2 , . . . , An }) y será incompatible si b <
L({A1 , A2 , . . . , An }).

2.2.2 Dependencia e Independencia Lineal.


Si consideramos E un espacio vectorial sobre K y x1 , x2 , . . . , xk son vectores distintos de E,
entonces el vector nulo siempre se puede expresar como combinación lineal de dichos vectores
0 = 0 x1 + 0 x2 + . . . + 0 xk .
Cabe plantearse si esta es la única forma posible de expresar el vector  nulo  como combinación

 1   1 
   
lineal de los vectores x1 , x2 , . . . , xk . Por ejemplo, si consideramos x1 =  1  y x2 =  0  vectores
   
1 1
3
de R , entonces
       
 0   1   1   α1 + α2 
 0  = 0 = α1 x1 + α2 x2 = α1  1  + α2  0  =  α1 
       
0 1 1 α1 + α2
de donde deducimos que α1 = 0 y α1 + α2 = 0 y de aquí afirmamos que α1 = α2 = 0. En
consecuencia, existe una única forma de expresar el vector nulo como combinación lineal de los 
 7 
 
vectores x1 y x2 : 0 = 0 x1 + 0 x2 . Sin embargo, si consideramos también los vectores x3 =  3  y
 
7
 
 1 
 
x4 =  2 , podemos expresar de varias formas el vector nulo como combinación de los vectores
 
3
x1 , x2 , x3 y x4
0 = 0 x1 + 0 x2 + 0 x3 + 0 x4 =
       
 1   1   7   1 
       
= (−3) x1 + (−4) x2 + 1 x3 + 0 x4 = (−3)  1  + (−4)  0  +  3  + 0  2  .
    
1 1 7 3

A continuación introducimos los conceptos de dependencia e independencia lineal.

Definición 19. Sea E un espacio vectorial sobre K y sea A un subconjunto no vacío de vectores
de E. Diremos que A es linealmente dependiente (LD) si existen vectores x1 , x2 , . . . , xk ∈ A
(distintos) y existen escalares α1 , α2 , . . . , αk ∈ K no todos nulos tales que
α1 x1 + α2 x2 + · · · + αk xk = 0.
Esto significa que al menos un vector del conjunto {x1 , x2 , . . . , xk } puede ser expresado como com-
binación lineal de los otros. Veamos esta afirmación con más detalle. Supongamos que αi , 0,
entonces
X n !
αi ,0 αj
−αi xi = α1 x1 + . . . + αi−1 xi−1 + αi+1 xi+1 + . . . + αn xn −→ xi = − x j.
j=1, j,i
αi

67
Observemos que si A es LD el vector nulo puede expresarse de diferentes formas como combi-
nación lineal de ciertos elementos de A.
Diremos que A es linealmente independiente (LI) si no es LD, es decir, si siempre que encon-
tremos
α1 x1 + α2 x2 + · · · + αk xk = 0
con α1 , . . . , αk ∈ K y x1 , . . . , xk ∈ A (distintos), entonces necesariamente

α1 = 0, α2 = 0, . . . , αk = 0.

Ahora observamos que existe una única forma de expresar el vector nulo como una combinación
lineal finita de elementos de A.

Lema 20. (Lema de la dependencia lineal) Sea E un espacio vectorial sobre K y sea A un
subconjunto no vacío de E.
1. Si A = {v1 }, entonces
A = {v1 } es LD ⇐⇒ v1 = 0.
2. Si A posee más de un elemento, entonces

A es LD ⇐⇒ ∃ v ∈ A tal que v ∈ L(A − {v}).

En particular, si A = {v1 , v2 }, entonces

A = {v1 , v2 } es LD ⇐⇒ v1 y v2 son proporcionales.

Ejemplos 21.
   
 1   1 
   
(a) Sea R3 un espacio vectorial real. Tomamos de nuevo los vectores x1 =  1 , x2 =  0 ,
   
1 1
   
 7   1 
   
x3 =  3  y x4 =  2  de R3 . Según hemos visto anteriormente A = {x1 , x2 } es LI y
   
7 3
B = {x1 , x2 , x3 , x4 } es LD.
(b) Sea E un espacio vectorial sobre K. Si A es un subconjunto de E y 0 ∈ A, entonces A es
LD.
(c) Sea M2×2 (R) espacio vectorial sobre R. Consideremos el subconjunto de M2×2 (R):
( ! ! ! !)
1 −1 1 1 0 2 1 1
A= A= ,B = ,C = ,D = .
−1 1 1 1 2 0 0 0
Veamos si este conjunto de vectores es LD o LI.
! ! ! ! !
1 −1 1 1 0 2 1 1 0 0
α +β +γ +δ = (*)
−1 1 1 1 2 0 0 0 0 0

68

! !


 α+β+δ=0



α + β + δ −α + β + 2γ + δ 0 0  −α + β + 2γ + δ = 0
= =⇒ 

−α + β + 2γ α+β 0 0 

 −α + β + 2γ = 0

 α+β=0
resolviendo el sistema de ecuaciones lineales homogéneo se obtiene: α = γ, β = −γ y δ = 0.
Nótese que dicho sistema es compatible indeterminado. Por tanto, A es una familia LD. Si
elegimos, por ejemplo, como valor del parámetro γ = 1 y sustituimos en la combinación
lineal (*), observamos que A − B + C = O2×2 . Así B = A + C ∈ L(A − {B}) = L({A, C, D}).

(d) Sea M2×2 (R) espacio vectorial sobre R. Consideremos el subconjunto de M2×2 (R):
( ! ! !)
1 −1 0 2 1 1
B= A= ,C = ,D = .
−1 1 2 0 0 0

Veamos si este conjunto de vectores es LD o LI.


! ! ! !
1 −1 0 2 1 1 0 0
 +ζ +λ =
−1 1 2 0 0 0 0 0

! !


 +λ=0



 + λ − + 2ζ + λ 0 0  − + 2ζ + λ = 0
= =⇒ 

− + 2ζ  0 0 

 − + 2ζ = 0

 =0
En este caso, el sistema de ecuaciones lineales homogéneo es compatible determinado y, la
única solución del sistema de ecuaciones homogéneo es  = ζ = λ = 0. Por tanto, B es LI.

La dependencia e independencia lineal son conceptos básicos en el estudio de los espacios


vectoriales. Presentamos a continuación algunas propiedades elementales que nos ayudarán a
comprender estos conceptos y nos serán de utilidad.
Proposición 22. Sea E un espacio vectorial sobre K. Si A y B son dos subconjuntos no vacíos de
E, entonces se verifican las siguientes afirmaciones:

(i) Si A ⊆ B y A es LD, entonces B es LD.

(ii) Si A ⊆ B y B es LI, entonces A es LI.

(iii) Si A = { x1 , . . . , xk } es LI y x ∈ E − A, entonces

A ∪ {x} es LD ⇐⇒ x ∈ L(A).

A ∪ {x} es LI ⇐⇒ x < L(A).

69
2.2.3 Sistema Generador de E.
!
2 a
Consideremos de nuevo R espacio vectorial sobre R. Tomamos un elemento de R2 . Es
b
claro que este vector puede escribirse como sigue:
! ! !
a 1 0
=a +b
b 0 1
! ! !
a 1 0
esto es, aparece como suma de múltiplos escalares de los vectores y . Así cualquier
b 0 1
( ! !)
2 1 0
vector de R se construye o se genera a partir del conjunto C2 = , . Por tanto, afir-
0 1
2
mamos que R = L(C2 ).

Fijamos ahora nuestra atención en Pn (R) espacio vectorial sobre R. Elegimos p(x) ∈ Pn (R) y
a ∈ R. En la asignatura Matemáticas I se presentó el desarrollo limitado de Taylor de una función
en un punto. Por tanto, podemos escribir p(x) del siguiente modo
1 00 1
p(x) = p(a) + p0 (a)(x − a) + p (a)(x − a)2 + . . . + p(n) (a)(x − a)n
2! n!
esto es, p(x) puede expresarse como suma de múltiplos escalares de los vectores 1, (x − a), (x − a)2 ,
. . . , (x − a)n . En consecuencia, cualquier polinomio de grado menor o igual a n con coeficientes
reales puede generarse a partir del conjunto A = {1, (x − a), (x − a)2 , . . . , (x − a)n }, es decir,
Pn (R) = L(A).
En ambos casos, ha sido posible construir cualquier vector del espacio como suma de múltiplos
escalares de un conjunto finito de vectores. A continuación daremos nombre a estos conjuntos de
vectores.

Definiciones 23. Sea E un espacio vectorial sobre K. Diremos que ∅ , A ⊆ E es un sistema


generador de E si L(A) = E.
E es un espacio finitamente generado si tiene un sistema generador finito.
Ejemplos 24.
( ! !)
1 0
(a) C2 = , es un sistema generador de R2 , pues L(C2 ) = R2 .
0 1

(b) A = {1, (x−a), (x−a)2 , . . . , (x−a)n } es un sistema generador de Pn (R), pues L(A)) = Pn (R).

Proposición 25. Sea E un espacio vectorial sobre K. Se verifican las siguientes afirmaciones:
• Si ∅ , A ⊆ E, entonces A es un sistema generador de su envoltura, L(A).

• Si A es un sistema generador de E y A ⊆ B ⊆ E, entonces B es un sistema generador de E.

• Si A es un sistema generador del subespacio F de E y B es un sistema generador del subes-


pacio G de E, entonces A ∪ B es un sistema generador de F + G.

70
• Si S = {v1 , . . . , vi , . . . , v j , . . . , vn } es un sistema generador de E, entonces también son sis-
temas generadores los siguientes conjuntos:

1. El conjunto que se obtiene de S al realizar una permutación en la posición de dos


vectores de S , {v1 , . . . , v j , . . . , vi , . . . , vn }.
2. El conjunto que se obtiene de S multiplicando por un escalar α no nulo uno de los
vectores de S , {v1 , . . . , αvi , . . . , vn }.
3. El conjunto que se obtiene de S sumando a uno de sus vectores otro multiplicado por
un escalar α no nulo, {v1 , . . . , vi , . . . , v j + αvi , . . . , vn }.

2.3. BASE Y DIMENSIÓN DE UN ESPACIO VECTORIAL FINITAMENTE GENERADO.

El objetivo de esta sección es demostrar que en todo espacio vectorial sobre K no nulo finita-
mente generado se puede encontrar un subconjunto de n vectores, de modo que cualquier vector
de dicho espacio se puede expresar de forma única como combinación lineal de ellos. Este hecho
nos permitirá representar los vectores de un espacio vectorial “abstracto” como vectores de Kn .
2.3.1 Base de un Espacio Vectorial Finitamente Generado.
Si A = {x1 , . . . , xn } es un sistema generador finito de un espacio vectorial E sobre K no nulo,
sabemos que cualquier vector de E se puede expresar como combinación lineal de los elementos
de A. Veamos qué condición debemos imponer a un sistema generador para garantizar la unicidad
a la hora de escribir un vector como combinación lineal de los elementos de A. Tomamos x ∈ E
y supongamos que x se puede expresar como combinación lineal de los elementos de A de dos
formas:
x = α1 x1 + . . . + αn xn
x = β1 x1 + . . . + βn xn .
Si restamos ambas expresiones, obtenemos 0 = (α1 − β1 )x1 + . . . + (αn − βn )xn . En consecuencia, la
condición que debemos imponer para garantizar la unicidad, equivale a la condición que debemos
imponer para que el vector 0 se pueda expresar de forma única como combinación lineal de los
vectores de A. Por tanto, la condición que estamos buscando es que A sea LI.

Definición 26. Sea E un espacio vectorial sobre K y ∅ , A ⊆ E. Diremos que A es base de E si


es sistema generador de E y LI.
Centraremos nuestro estudio en espacios vectoriales finitamente generados.
Si ordenamos los elementos de una base A de un espacio vectorial finitamente generado E con
algún criterio: A = {x1 , . . . , xn }, entonces la llamaremos base ordenada de E.
Por convenio, la base del espacio vectorial {0} es ∅.

Consecuencia 27. Sea E un espacio vectorial sobre K. Si A = {x1 , . . . , xn } es base de E y x ∈ E,


entonces x se puede expresar de forma única como combinación de los elementos de A, esto es,
existen escalares α1 , . . . , αn (únicos) tales que

x = α1 x1 + . . . + αn xn .

71
Ejemplos 28.
( ! !)
1 0
(a) C2 = , es una base de R2 , pues C2 es sistema generador de R2 y LI. En gene-
0 1
     


  1   0   0  


    
 0   1    

    n)  
 0 

ral, podemos afirmar que Cn =   

 .
. 

 , 

 .
. 

 , . . ., 

 .
. 


 es una base de Kn , llamada base


  .  
    .   . 

 

 0   0 
 

1 
canónica de Kn .

(b) Es fácil comprobar que {1, x, x2 , . . . , xn } es una base de Pn (R) y es llamada base canónica de
Pn (R).
     


  1 0 . . . 0   0 1 . . . 0   0 0 . . . 0  


      


 0 0 . . . 0   0 0 . . . 0  nm)  0 0 . . . 0 
 

(c) Es sencillo comprobar que    .. .. . . ..  ,  .. .. . . ..  , . . .,  .. .. . . ..  es


  . . . .   . . . .   . . . .  



 0 0 . . . 0   0 0 . . . 0 
  

0 0 ... 1 
una base de Mm×n (K) y se le llama base canónica de Mm×n (K).

Teorema 29. Si E es un espacio vectorial sobre K no nulo el cual está generado por m elementos,
entonces cualquier subconjunto de E con m + 1 o más vectores es LD.
Observación 30. Como consecuencia del teorema anterior, podemos deducir que si E es un es-
pacio vectorial sobre K no nulo de modo que E = L({y1 , . . . , ym }) y C = {x1 , . . . , xk } ⊂ E es LI,
entonces k ≤ m.

Teorema 31. (Teorema de existencia de base) Sea E un espacio vectorial sobre K no nulo finita-
mente generado. Si A = {x1 , . . . , xn } es un sistema generador de E, entonces ∃ B ⊆ A tal que B
es base de E.

Teorema 32. (Teorema de prolongación a una base) Sea E un espacio vectorial sobre K no nulo
finitamente generado. Si A es LI, entonces existe una base B de E tal que A ⊆ B.

Consecuencia 33. A partir de la Consecuencia 27 y del teorema anterior se deduce una forma
sencilla de construir complementos a un subespacio de un espacio vectorial. Veámoslo: sea E
un espacio vectorial sobre K no nulo finitamente generado y H un subespacio de E. Si A =
{x1 , . . . , xk } es una base de H, entonces por el Teorema 32 podemos hallar xk+1 , . . . , xn vectores de
E de modo que {x1 , . . . , xk , xk+1 , . . . , xn } es una base de E. Por tanto, obtenemos que

E = L({x1 , . . . , xk }) ⊕ L({xk+1 , . . . , xn }) = H ⊕ L({xk+1 , . . . , xn })

y afirmamos que L({xk+1 , . . . , xn }) es un complemento al subespacio H en E.

72
Ejemplos 34.
(a) Consideremos P2 (R) espacio vectorial sobre R y

H = L({p1 (x) = 1 + x2 , p2 (x) = 1 − 2x + x2 , p3 (x) = 1 + 2x + x2 })

un subespacio de P2 (R). A continuación pretendemos hallar una base del subespacio H. Es


claro que A = {p1 (x), p2 (x), p3 (x)} es un sistema generador de H. Veamos si A es LI:

0 = α1 p1 (x) + α2 p2 (x) + α3 p3 (x) =⇒ 0 = α1 (1 + x2 ) + α2 (1 − 2x + x2 ) + α3 (1 + 2x + x2 )


(
2 α1 + α2 + α3 = 0
=⇒ 0 = (α1 + α2 + α3 ) + (2α3 − 2α2 )x + (α1 + α2 + α3 )x =⇒ =⇒
2α3 − 2α2 = 0
α1 = −2α3 , α2 = α3 =⇒ 0 = −2α3 p1 (x) + α3 p2 (x) + α3 p3 (x) (*).

Hemos obtenido que A es LD, pues existen combinaciones lineales de {p1 (x), p2 (x), p3 (x)}
igualadas al vector 0 con no todos los escalares nulos. Así por ejemplo tomando como valor
del parámetro α3 = 1 y sustituyendo en la combinación lineal (*), podemos expresar p3 (x)
en función de los otros dos vectores: p3 (x) = 2p1 (x) − p2 (x).

H = L({p1 (x), p2 (x), p3 (x)}) = L({p1 (x), p2 (x), 2p1 (x) − p2 (x)}) = L({p1 (x), p2 (x)}).

De este modo podemos eliminar del conjunto A el vector p3 (x) y el subconjunto B =


{p1 (x), p2 (x)} sigue siendo un sistema generador de H. Además, B es LI, pues p1 (x) y p2 (x)
no son proporcionales. Por tanto, podemos afirmar que B es una base de H. Observemos
que hemos eliminado un vector del sistema generador A de H para conseguir una base B de
este subespacio: B = A − {p3 (x)} ⊆ A.
( ! ! !)
1 1 0 1 1 0
(b) Sea A = A = ,B = ,C = un conjunto LI del espacio vectorial
0 0 0 1 0 0
real M2×2 (R). Nos proponemos encontrar una base de M2×2 (R) partiendo del subconjunto
A. Hemos comentado en el Ejemplo 28 que M2×2 (R) está generado por
( ! ! ! !)
1 0 0 1 0 0 0 0
C= , , , .
0 0 0 0 1 0 0 1

Del Teorema 29 deducimos que M2×2 (R) no posee conjuntos LI con más de cuatro vectores.
Determinemos ahora la envoltura lineal de A:
( ! ! ! ) ( ! )
1 1 0 1 1 0 α+δ α+β
L(A) = α +β +δ : α, β, δ ∈ K = : α, β, δ ∈ K .
0 0 0 1 0 0 0 β
!
0 0
Observemos que D = no pertenece a L(A), luego A no es un sistema generador
1 0
de M2×2 (R). Ahora por la Proposición 22 (iii) podemos afirmar que {A, B, C, D} es LI.
Como no existen conjuntos LI con más de 4 vectores en M2×2 (R), entonces M2×2 (R) =
L({A, B, C, D}). En consecuencia, tenemos que B = {A, B, C, D} es un sistema generador de
M2×2 (R) y es LI, por tanto B es una base de M2×2 (R). Observemos que hemos añadido un
vector al subconjunto A para conseguir una base B de M2×2 (R): B = A ∪ {D}.

73
2.3.2 Dimensión de un Espacio Vectorial Finitamente Generado.
Teorema 35. (Teorema de la cardinalidad de la base)
Sea E un espacio vectorial sobre K no nulo finitamente generado. Si A = {x1 , . . . , xn } y B =
{y1 , . . . , ym } son dos bases de E, entonces n = m.

Conclusión 36. Todas las bases de un espacio vectorial E sobre K no nulo finitamente generado
poseen el mismo número de elementos.

Definición 37. Sea E un espacio vectorial sobre K no nulo finitamente generado. Llamaremos
dimensión de E y escribiremos dimK E, al número de elementos de una base cualquiera de E.
Por convenio, la dimensión del espacio nulo es cero.

Ejemplo 38.
(a) dimK Kn = n (ver Ejemplo 28).

(b) dimK Mm×n (K) = mn (ver Ejemplo 28).

(c) dimK Pn (K) = n + 1 (ver Ejemplo 28).

Si conocemos la dimensión del espacio vectorial, el siguiente resultado nos permitirá reducir
el trabajo necesario para justificar que un conjunto es una base de dicho espacio vectorial.
Teorema 39. Si E es un espacio vectorial sobre K de dimensión n, entonces se verifica:
(i) Si A = {x1 , . . . , xn } ⊂ E es LI, entonces A es base de E.

(ii) Si A = {x1 , . . . , xn } ⊂ E es sistema generador de E, entonces A es base de E.


A continuación, presentamos una fórmula que relaciona la dimensión del subespacio suma y
del subespacio intersección de dos subespacios vectoriales de un espacio vectorial de dimensión
finita.
Teorema 40. (Fórmula de Grassman) Sea E un espacio vectorial sobre K de dimensión n. Si F
y G son dos subespacios vectoriales de E, entonces se verifica:

dimK (F + G) = dimK F + dimK G − dimK (F ∩ G).

2.3.3 Coordenadas de un Vector Respecto de una Base.


En un espacio vectorial E sobre K de dimensión n la unicidad de la expresión de un vector
como combinación lineal de los elementos de una base de dicho espacio, nos permite introducir el
concepto de coordenadas de un vector respecto de una base. Este será utilizado para identificar un
vector de E con un vector de Kn .
Definición 41. Sea E un espacio vectorial sobre K de dimensión n. Si A = { x1 , . . . , xn } es base
de E y x ∈ E, entonces a la n-tupla formada por los coeficientes (únicos) de la combinación lineal

x = α1 x1 + . . . + αn xn

74
 
 α1 
 
 α2 
se le llama coordenadas de x respecto de la base A y escribiremos [x]A =  .. .
 . 
 
αn

Ejemplos 42.

(a) Consideremos P2 (R) espacio vectorial real y las bases ordenadas de P2 (R):

C = {1, x, x2 }, B = {x2 , 1, x} y A = {1, x − 2, (x − 2)2 }.

Calculemos las coordenadas de p(x) = 2 − 5x + x2 respecto de las bases C, B y A:


 
 2 
 
p(x) = 2 · 1 + (−5) · x + 1 · x2 =⇒ [p(x)]C =  −5 
 
1
 
 1 
 
p(x) = 1 · x2 + 2 · 1 + (−5) · x =⇒ [p(x)]B =  2 
 
−5


p(x) = 2 − 5 x + x2 = α · 1 + β · (x − 2) + γ · (x − 2)2 = 

 α − 2β + 4γ = 2
2 
= α + β(x − 2) + γ(x − 4x + 4) = =⇒ 
 β − 4γ = −5 =⇒


= (α − 2β + 4γ) + (β − 4γ)x + γ · x2 γ=1
 
 −4 
 
=⇒ [p(x)]A =  −1  .
 
1

(b) Consideremos H = L({p1 (x), p2 (x)}) subespacio de P2 (R). Según demostramos en el Ejem-
plo 34(a) B = {p1 (x), p2 (x)} es una base de H y dimR H = 2. Calculemos las coordenadas
de q(x) = 4x ∈ H respecto de la base B de H:
( !
4x = α(1 + x2 ) + β(1 − 2x + x2 ) α+β=0 2
=⇒ =⇒ [q(x)]B = .
= (α + β) + (−2β)x + (α + β)x2 −2β = 4 −2
Ahora bien q(x) = 4x es un vector de P2 (R) y, por tanto, también se puede expresar de forma
única como combinación lineal de cualquier base de P2 (R). Consideremos, por ejemplo, la
2
base canónica de P2 (R): C = {1, x, x }. Las coordenadas de q(x) respecto de la base C son:
 0 
 
[q(x)]C =  4 .
 
0
Observa que el número de componentes de las coordenadas de un vector respecto de una base
de un espacio vectorial depende de la dimensión del mismo. Por esta razón las coordenadas
de q(x) respecto de B tienen dos componentes (dimR H = 2) y las coordenadas de q(x)
respecto de C tienen tres componentes (dimR P2 (R) = 3).

75
2.4. APLICACIÓN: POLINOMIO INTERPOLADOR DE LAGRANGE.

Consideremos el siguiente conjunto de medidas tomadas de una culata de un cilindro de un


nuevo motor que está siendo probado para su uso en un coche:

Tiempo, s Temperatura, F
0.0 0.0
1.0 20.0
2.0 60.0
3.0 68.0
4.0 77.0
5.0 110.0

Supongamos que estamos interesados en conocer la temperatura correspondiente a los 4.2 se-
gundos.

Desconocemos la función que describe “la temperatura” de la culata del motor, sólo disponemos
de la tabla de datos. Para dar una respuesta al problema sería interesante disponer de una curva que
pasase por los puntos recogidos en la tabla e interpretarla como la función que describe el com-
portamiento de la temperatura que estamos estudiando. De este modo podríamos dar una solución
aproximada al problema planteado. Las funciones polinómicas disfrutan de buenas propiedades,
pues son funciones continuas, derivables, integrables y fácilmente evaluables. Así nos pregunta-
mos si es posible encontrar un polinomio que pase por todos los puntos.

Interpolación polinómica. En general, si tenemos 2n + 2 números reales z0 , . . . , zn , ω0 , ω1 , . . . , ωn


donde z0 , . . . , zn son DISTINTOS, nos planteamos si es posible hallar un polinomio L(x) de grado
menor o igual que n con coeficientes reales en la indeterminada x que pase por los puntos (z0 , ω0 ),
(z1 , ω1 ), . . . , (zn , ωn ), esto es,
L(zi ) = ωi , 0 ≤ i ≤ n.
Utilizamos z0 , z1 , . . . , zn números reales DISTINTOS, para construir los polinomios L0 (x), L1 (x), . . . ,
Ln (x) de la siguiente forma
n
Y (x − zi )
(x − z0 ) · · · (x − zk−1 )(x − zk+1 ) · · · (x − zn )
Lk (x) = =
(zk − z0 ) · · · (zk − zk−1 )(zk − zk+1 ) · · · (zk − zn ) i=0 (zk − zi )
i,k

con k ∈ {0, . . . , n}. Observemos que


(
0 si k , j
grado (Lk (x)) = n y Lk (z j ) = δk j = , 0 ≤ k, j ≤ n.
1 si k = j

Consideramos la combinación lineal de L0 (x), L1 (x), . . . , Ln (x) donde los coeficientes son ω0 , ω1 , . . . , ωn

L(x) = ω0 L0 (x) + ω1 L1 (x) + · · · + ωn Ln (x).

76
Observemos que L(x) es un polinomio de grado menor o igual que n y que verifica:
n
X
L(z j ) = ωk Lk (z j ) = ω j L j (z j ) = ω j , 0 ≤ j ≤ n.
k=0

Se puede probar, utilizando el Teorema Fundamental del Álgebra (Matemáticas I), que el poli-
nomio L(x) es el único polinomio de Pn (R) tal que L(zi ) = ωi , 0 ≤ i ≤ n. Dicho polinomio recibe
el nombre de polinomio interpolador de Lagrange.

Proposición 43. Si z0 , z1 , . . . , zn son números reales distintos y construimos los polinomios


Yn
(x − zi )
Lk (x) = k = 0, 1, . . . , n,
i=0
(zk − zi )
i,k

entonces

1. A = {L0 (x), L1 (x), . . . , Ln (x)} es una base de Pn (R).

2. Si q(x) ∈ Pn (R), las coordenadas de q(x) respecto a la base A son:


 
 q(z0 ) 
 
 q(z1 ) 
[q(x)]A =  ..  .
 . 
 
q(zn )

Ejemplo 44. Construye el polinomio interpolador de Lagrange que pasa por los puntos: (0, 1),
(1, 3) y (−1, −1).
Apuntamos que z0 = 0, z1 = 1, z2 = −1 y ω0 = 1, ω1 = 3 y ω2 = −1. Comenzamos
determinando L0 (x), L1 (x) y L2 (x):

(x − 1)(x + 1) x(x + 1) x2 + x x(x − 1) x2 − x


L0 (x) = = 1 − x2 , L1 (x) = = , L2 (x) = = .
(0 − 1)(0 + 1) (1 − 0)(1 + 1) 2 (−1 − 0)(−1 − 1) 2
Construimos ahora el polinomio interpolador de Lagrange:

L(x) = L0 (x) + 3L1 (x) + (−1)L2 (x) = 2x + 1

Observa que en este caso el polinomio interpolador de Lagrange tiene grado 1.

77
Ahora podemos resolver el problema inicial planteado:

Ejemplo 45. Consideremos el siguiente conjunto de medidas tomadas de una culata de cilindro de
un nuevo motor que está siendo probado para un posible uso en un coche de carreras:

Tiempo, s Temperatura, F
0.0 0.0
1.0 20.0
2.0 60.0
3.0 68.0
4.0 77.0
5.0 110.0

Supongamos que estamos interesados en conocer la temperatura correspondiente a los 4.2 se-
gundos.
Construiremos el polinomio interpolador de Lagrange correspondiente a dichos puntos. Pre-
viamente calcularemos los polinomios L0 (x), L1 (x), . . . , L5 (x):
(x − 1)(x − 2)(x − 3)(x − 4)(x − 5) x(x − 2)(x − 3)(x − 4)(x − 5)
L0 (x) = ; L1 (x) =
(0 − 1)(0 − 2)(0 − 3)(0 − 4)(0 − 5) (1 − 0)(1 − 2)(1 − 3)(1 − 4)(1 − 5)
x(x − 1)(x − 3)(x − 4)(x − 5) x(x − 1)(x − 2)(x − 4)(x − 5)
L2 (x) = ; L3 (x) =
(2 − 0)(2 − 1)(2 − 3)(2 − 4)(2 − 5) (3 − 0)(3 − 1)(3 − 2)(3 − 4)(3 − 5)
x(x − 1)(x − 2)(x − 3)(x − 5) x(x − 1)(x − 2)(x − 3)(x − 4)
L4 (x) = ; L5 (x) =
(4 − 0)(4 − 1)(4 − 2)(4 − 3)(4 − 5) (5 − 0)(5 − 1)(5 − 2)(5 − 3)(5 − 4)
El polinomio interpolador de Lagrange es:

L(x) = 0 L0 (x) + 20 L1 (x) + 60 L2 (x) + 68 L3 (x) + 77 L4 (x) + 110 L5 (x) =

78
1
=− (19x5 − 275x4 + 1383x3 − 2749x2 + 1142x).
24
Observa, en este caso, que para la construcción de L(x) no es necesario calcular L0 (x), pues ω0 = 0.

Si admitimos que la función polinómica L(x) describe el problema que estamos analizando,
entonces la estimación que estamos buscando es L(4.2) = 82.1901.

2.5. ANEXO.

A continuación presentamos algunos resultados que son útiles a nivel práctico.


Dependencia lineal y coordenadas. Las coordenadas de un vector respecto de una base nos
permiten obtener un método sencillo para determinar la dependencia o independencia lineal de un
conjunto de vectores de un espacio vectorial.
Sean E un espacio vectorial sobre K de dimensión n y A una base de E. Tal y como hemos
comentado anteriormente el concepto de coordenadas de un vector de E respecto de la base A,
nos permite representar dicho vector como un vector de Kn . Consideremos C = {v1 , . . . , vk } ⊂ E
y calculemos las coordenadas de tales vectores respecto de la base A. Construyamos una matriz
A ∈ Mn×k (K) haciendo coincidir las columnas de A con las coordenadas de los vectores de C
respecto de la base A. Para determinar la dependencia o independencia lineal de C estudiamos la
combinación lineal:
α1 A1 + . . . + αk Ak = 0.
Gracias a la interpretación vectorial de un sistema de ecuaciones lineales (ver Ejemplo 18(b)), la
expresión anterior representa a un sistema de ecuaciones lineales homogéneo cuya matriz de coefi-
cientes es A. Por el teorema de Rouché-Frobenius si ρ(A) = k, entonces el sistema de ecuaciones es
compatible determinado, en consecuencia C es LI. Si ρ(A) < k, entonces el sistema es compatible
indeterminado y, por tanto, C es LD.

79
Método práctico.
Para comprobar si un conjunto de vectores C = {v1 , . . . , vk } de un espacio vectorial E, es LI o
LD, se siguen los siguientes pasos:

1. Calcular [vi ]A , ∀i ∈ {1, . . . , k}, con A base de E.

2. Construir una matriz A cuyas columnas sean las coordenadas de los vectores de C respecto
de la base A.

3. Aplicar el método de Gauss para obtener una forma escalonada por filas de A.

4. Calcular ρ(A).

• Si ρ(A) = k, entonces C es LI.


• Si ρ(A) < k, entonces C es LD.

Ejemplo 46.
! ( ! !)
1 2 1 1 2 0
Consideremos los conjuntos de M2×2 (R) : H = A = ,B = ,C =
3 4 −1 1 5 3
( ! ! !)
1 2 1 1 −1 1
yG= A= ,B = ,D = . Decide si estos conjuntos son o no
3 4 −1 1 9 5
son LI.
Las coordenadas de los vectores de H respecto de la base canónica C de M2×2 (R) son:
     
 1   1   2 
 2   1   
 , [C] =  0  .
[A]C =   , [B]C = 
 −1   5 
C
 3   
4 1 3

Construimos la matriz H haciendo coincidir las columnas con las coordenadas obtenidas:
 
 1 1 2 
 2 1 0 
H =   .
 3 −1 5 
4 1 3

Calculemos una forma escalonada por filas de H:


       
 1 1 2  FF2 −− 2F 1 

 1 1 2  F − 4F  1 1 2   1 1 2 
 2 1 0  F34 − 3F
4F1 
1
 0 −1 −4  F4 − 3F2
3 2  0 −1 −4  F −(7/15)F  0 −1 −4 

 
    4 3  
H =   −→ 
 3 −1 5   0 −4 −1 
 −→  0 0 15  −→  0 0 15  .
   
4 1 3 0 −3 −5 0 0 7 0 0 0

Por tanto, ρ(H) = 3 y, con ello, H es LI.

80
Las coordenadas de los vectores de G respecto de la base canónica C de M2×2 (R) son:
     
 1   1   −1 
 2   1   
[A]C =   , [B]C =   , [D]C =  1  .
 3   −1   9 
 
4 1 5
Construimos la matriz G haciendo coincidir las columnas con las coordenadas obtenidas:
 
 1 1 −1 
 2 1 1 
G =   .
 3 −1 9 
4 1 5

Calculemos una forma escalonada por filas de G:


     
 1 1 −1  FF2 −− 2F 1  1 1 −1  F − 4F  1 1 −1 
 2 1 1  F4 − 4F1  0 −1 3  F4 − 3F2  0 −1 −3 
3 3F 1 3 2

G =   −→    


 0 −4 12  −→  0 0 0  .
 3 −1 9     
4 1 5 0 −3 9 0 0 0

Por tanto, ρ(G) = 2 y, consecuentemente, G es LD.

Independencia lineal y rango de una matriz.


Consideramos Om×n , A ∈ Mm×n (K) y B la matriz que resulta de realizar una operación
elemental por filas sobre A, o equivalentemente, B = FA siendo F una matriz elemental. Si
interpretamos las filas de A y de B como vectores de Kn , entonces utilizando la Proposición 25,
L({A1 , . . . , Am }) = L({B1 , . . . , Bm }). Por tanto, obtenemos
no de filas LI de A = dimK L({A1 , . . . , Am }) = dimK L({B1 , . . . , Bm }) =no de filas LI de B.
De forma análoga, consideramos D la matriz que resulta de realizar una operación elemental
por columnas sobre A, o equivalentemente, D = AC siendo C una matriz elemental. Si inter-
pretamos las columnas de A y de B como vectores de Km , entonces utilizando la Proposición 25,
L({A1 , . . . , An }) = L({D1 , . . . , Dn }). Por tanto, se obtiene
no de columnas LI de A = dimK L({A1 , . . . , An }) = dimK L({D1 , . . . , Dn }) =no de columnas LI de D.
El cálculo del rango de la matriz A lo realizamos a través del cálculo del número de unos
principales de su forma escalonada reducida R. Utilizando el argumento anterior, el número de
filas LI de A coincide con el número de filas LI de R. Es fácil comprobar que el conjunto formado
por las filas que contienen los unos principales de R es LI. Por tanto,

ρ(A) = número de filas LI de A .

Desarrollando un proceso paralelo sobre columnas se puede probar que

ρ(A) = número de columnas LI de A .

81
Obtención de las ecuaciones implícitas de un subespacio vectorial.
Sea E un espacio vectorial sobre K de dimensión n y F un subespacio de E de dimensión
k. Se puede describir el subespacio F como el conjunto de soluciones de un sistema de ecua-
ciones lineales homogéneo de n − k ecuaciones con n incógnitas. Tales ecuaciones son llamadas
ecuaciones implícitas de F. Para su obtención utilizaremos la interpretación vectorial de un sis-
tema de ecuaciones lineales (ver Ejemplo 18 (b)). Consideramos B = {e1 , . . . , en } una base de E,
A = {v1 , . . . , vk } una base de F y v un vector de F. Calculemos las coordenadas de v1 , . . . , vk y v
respecto de la base B:
       
 a11   a12   a1k   x1 
       
 a21   a22   a2k   x2 
[v1 ]B =  ..  , [v2 ]B =  ..  , . . . , [vk ]B =  ..  y [v]B =  ..  .
 .   .   .   . 
       
an1 an2 ank xn

Construimos una matriz haciendo coincidir sus columnas con tales coordenadas:
 
 a11 a12 . . . a1k x1 
 a21 a22 . . . a2k x2 
 
 .. .. .. .. ..  .
 . . . . . 

an1 an2 . . . ank xn

Como v es combinación lineal de los vectores de A, una forma escalonada por filas de la matriz
anterior tiene n − k filas nulas.
 
 t11 t12 . . . t1k−1 t1k α11 x1 + α12 x2 + . . . + α1n xn 
 0 t22 . . . t2k−1 t2k α21 x1 + α22 x2 + . . . + α2n xn 
 
 .. .. .. .. .. .. 
 . . . . . . 
 
 0 0 . . . 0 tkk αk1 x1 + αk2 x2 + . . . + αkn xn  .
 0 0 ... 0 0 αk+11 x1 + αk+12 x2 + . . . + αk+1n xn 
 
 .. .. .. .. .. .. 
 . . . . . . 
0 0 ... 0 0 αn1 x1 + αn2 x2 + . . . + αnn xn
Por tanto, aparece el sistema de ecuaciones lineales homogéneo de n − k ecuaciones con n
incógnitas

αk+11 x1 + αk+12 x2 + . . . + αk+1n xn = 0  

.. .. ..  
.
. . .  



αn1 x1 + αn2 x2 + . . . + αnn xn = 0
 


 αk+11 x1 + αk+12 x2 + . . . + αk+1n xn = 0  


 .. .. .. 

En definitiva, F = 
 v = x e
1 1 + . . . + x e
n n ∈ E : . . . .


 


αn1 x1 + αn2 x2 + . . . + αnn xn = 0
En la práctica conocer las ecuaciones implícitas resulta útil en la obtención del subespacio
intersección de dos subespacios, pues si F y G son dos subespacios de E

82
 


 ecuaciones implícitas de F 


F = {v ∈ E : ecuaciones implícitas de F }  
=⇒ F∩G = 
 u∈E: + 
 .
G = {w ∈ E : ecuaciones implícitas de G } 
 

ecuaciones implícitas de G

Ejemplo 47.

Considera los subespacios de M2×2 (R):

( ! !)! ( ! )
1 2 2 2 a b
F=L , y G= ∈ M2×2 (R) : a + b = 0, c = 0 .
−1 1 0 1 c d

Obtener F ∩ G.
Como las ecuaciones implícitas de G vienen dadas en el enunciado, ( sólo necesitamos
! obtener
!)
1 2 2 2
las ecuaciones implícitas de F. Es sencillo probar que A = v1 = , v2 =
−1 1 0 1
!
a b
es una base de F y, por tanto, dimR F = 2. Sea v = ∈ F. Las coordenadas de los
c d
vectores A y de v respecto de la base canónica C de M2×2 (R) son:
     
 1   2   a 
 2   2   
[v1 ]C =   , [v2 ]C =   , [v]C =  b  .
 −1   0   c 
   
1 1 d

Una forma escalonada por filas de la matriz que resulta de hacer coincidir las columnas con
las coordenadas anteriores es:
     
 1 2 a   1 2 a   1 2 a 
 2 2 b  F −2F ;F +F ;F −F  0 −2 b − 2a  F ↔F  0 −1 d − a 
  2 1 −→3 1 4 1   −→ 2 4  
 −1 0 c   0 2 c + a   0 2 c + a 
     
1 1 d 0 −1 d − a 0 −2 b − 2a
 
 1 2 a 
F3 +2F2 ;F4 −2F2
 0 −1 d − a 
−→   .
 0 0 c + 2d − a 
 
0 0 b − 2d
( ! )
a b
En consecuencia, F = ∈ M2×2 (R) : c + 2d − a = 0, b − 2d = 0 . Ahora podemos
c d
obtener F ∩ G:
 ! implícitas F implícitas G
 ( !)


 z }| { z }| {


 a b  0 0
F ∩G =  ∈ M2×2 (R) :c + 2d − a = 0, b − 2d = 0, a + b = 0, c = 0  = .
 c d
 
 0 0

83
PROBLEMAS
Espacio vectorial sobre K. Subespacios vectoriales.

(P.1) Sea E un espacio vectorial sobre K. Demuestra que para todo α, β ∈ K y para todo
x, y ∈ E se verifican las siguientes afirmaciones:

1. −(αx) = (−α)x = α(−x).

2. Si αx = αy con α , 0, entonces x = y.

3. Si αx = βx con x , 0, entonces α = β.

(P.2) Considera C el conjunto de los números complejos junto con las operaciones + y ·R :

+: C×C −→ C ·R : R × C −→ C
(a + ib, c + id) 7−→ (a + c) + i(b + d) (α, a + ib) 7−→ (αa) + i(αb)

Demuestra que (C, +, ·R ) es un espacio vectorial sobre R.


( ! )
2 x 2
(P.3) Considera R espacio vectorial sobre R. Determina si V = ∈ R : x ≥ 0, y ≥ 0 y
y
( ! )
x
W= ∈ R : xy ≥ 0 son o no son subespacios vectoriales de R2 .
2
y
  


 
 x 
 


3   3 
(P.4) Considera R espacio vectorial sobre R. Determina si V =   

 y 

 ∈ R : 3x + 4y + z − 2 = 0 


 z  

  

  x  

 
 3


yW =  

 y 

 ∈ R : x − 2y + 7z = 0
 son o no son subespacios vectoriales de R3 .

 z  

(P.5) Considera M2×2 (R) espacio vectorial sobre R. Determina si los siguientes subconjuntos
de M2×2 (R) son subespacios vectoriales:
( ! ) ( ! )
a b a a+1
H1 = : a, b, c ∈ R H2 = : a∈R
−b c 0 0
( ! ) ( ! )
a b 0 b
H3 = ∈ M2×2 (R) : a d − b c = 0 H4 = : a, b ∈ R
c d a 0
( ! ! ) ( ! )
a b a b 0 a2
H5 = ∈ M2×2 (R) : tr =0 H6 = : a∈R .
c d c d 0 0

(P.6) Decide cuáles de los siguientes subconjuntos de P3 (R) son subespacios vectoriales:

H = {a + x2 : a ∈ R} F = {ax2 + (b − a) : a, b ∈ R}
G = {p(x) ∈ P3 (R) : p(0) = 0} J = {p(x) ∈ P3 (R) : p(0) = 1}.

84
(P.7) Considera R3 espacio vectorial sobre R y los subespacios vectoriales de R3 :
     


  x  

 

  x  


  3    3 
V1 = 
 

 y 

 ∈ R : 3x + 2y − z = 0 
 y V2 = 
 

 y 

 ∈ R : −4x − y + z = 0 
 .

 z   
 
 z   

Determina los subespacios V1 ∩ V2 y V1 + V2 .


(P.8) Sea E un espacio vectorial sobre K y sean F y G dos subespacios de E . Demuestra
que:

1. F ∩ G es un subespacio de E .

2. F ∪ G es un subespacio de E ⇐⇒ F ⊆ G ó G ⊆ F .

3. F + G es un subespacio de E .

(P.9) Sea E un espacio vectorial sobre K. Decide si son verdaderas o falsas las siguientes
afirmaciones:

1. Si F ⊆ E y 0 ∈ F , entonces F es un subespacio de E .

2. Si F es un subespacio de E , entonces 0 ∈ F .

3. Existe x ∈ R2 no nulo tal que el conjunto {x, 0} es un subespacio de R2 .

4. Si F ⊆ G ⊆ E y F es subespacio de E , entonces G es subespacio de E .

5. Si F y G son subespacios de E , entonces todo elemento de F + G se puede expresar


de forma única como suma de un elemento de F y otro de G.

Dependencia e independencia lineal. Envoltura lineal. Sistema generador.


( ! ! ! )
−1 1 2
(P.10) 1. Demuestra que , , , es un subconjunto LD de R2 .
2 2 −4
( ! !)
1 2
2. Demuestra que , es un subconjunto LI de R2 .
−1 −1
(P.11) Proporciona un ejemplo de un subconjunto LI de R4 y otro subconjunto LD de R4 . En
cada caso, justifica tus respuestas.
(P.12) ¿Cuál de los siguientes subconjuntos de R3 son LI?
                   


 
 1 
 
 0 
 
 0 
 
 1 

 
 
 1 
 
 2 
 
 4   
 
 1 
 
 −3 
 
 3  
       
 
     
 
     

1. 
 
 0 
 , 
 1 
 , 
 0 
 , 
 2 

 , 2. 
 
 1 
 , 
 3 
 , 
 9  , 3.  
 2 
 , 
 8 
 , 
 −1  .
     
 0   1   1   3 
    1   4   16 
      
  1   1   −1 

      

(P.13) Determina si los siguientes subconjuntos de R3 son LI o LD, en caso de ser LD expresa
un vector de dicho conjunto como combinación lineal del resto de vectores:

85
           


  1   2   0 

  1  
 3   11 
 

    

 −3  ,    

1. 
 
 −2 2. 
, 
 −2  ,  1 
 0  ,  −6  .

 3 
 
 

 

 0   
 
   

0 7  4 12 
     

  1   2   p  
  
    
(P.14) 1. Estudia la independencia lineal de A = 
  2  ,  6  ,  2 
 ⊂ R3 para los distintos
 3   9

4


valores de p real.
       

  1   1   1   2  
    
    
2. Demuestra que B = 
  2  ,  3  ,  3
, 3
  
 ⊂ R3 es LD y expresa un elemento de B
 3   5   6

4 

como combinación lineal del resto de vectores de B.
(P.15) Sea M2×2 (R) espacio vectorial sobre R. Determina si los siguientes subconjuntos de
M2×2 (R) son LI:
( ! ! !) ( ! ! !)
1 2 0 1 1 −2 1 1 3 3 2 2
1. , , 2. , , .
2 0 3 0 −2 −1 1 2 3 2 2 0
     


  1   1   1  
   2   2 

(P.16) Halla todos los elementos a ∈ R de modo que   
 1 
 , 
 a + 1  ,  a + 1  sea un
 1   a + 1   2a 
      

subconjunto LI de R3 .
       
 1   1   1   1 
       
(P.17) Considera los vectores de R : u =  2 , v =  3 , w =  1  y z =  0  . Comprueba
3
       
1 2 0 0
que w ∈ L({u, v}) y que z < L({u, v}). ¿Cuál de los siguientes subconjuntos de R3 es LI
{u, v, w} ó {u, v, z}? .
 
 a 
 
(P.18) Considera R3 espacio vectorial sobre R. Halla la condición para que el vector  b  ∈ R3
 
c
      

  1   2   −3   

       
pertenezca a L  v1 = 
 −2  , v
 2 =  −1  , v =
 3   0 
 . ¿{v1 , v2 , v3 } es un sistema gene-


 

 
1 3 −5
rador de R3 ?
(P.19) Considera P2 (R) espacio vectorial sobre R. Demuestra que L({1, x}) = L({2 + 3x, x}).
       
 1   1   1   3 
       
(P.20) En R3 se consideran los vectores u =  2 , v =  3 , x =  1  e y =  8 . Prueba
       
1 2 0 5
que L({u, v}) = L({x, y}).
(P.21) Considera el vector p(x) = 1 − 2x + x2 de P3 (R) y los subespacios vectoriales de P3 (R):
H = L({1+ x2 , −x+ x2 , 3−2x}) y K = L({1+ x2 , −x+ x2 , −2−2x}). ¿Pertenece p(x) al subespacio
H ? ¿Pertenece p(x) al subespacio K ?
!
4 3
(P.22) Determina si la matriz pertenece al subespacio de M2×2 (R) generado por las
1 −2

86
! ! !
3 4 0 2 0 2
matrices , y .
1 2 −1/3 4 6 1
(P.23) Considera el espacio vectorial P3 (R) sobre R.
1. Estudia si el subconjunto {p1 (x) = 1 + 3x + 5x2 , p2 (x) = −1 + 2x2 , p3 (x) = 3 + 3x + x2 } es o
no linealmente independiente.
2. Sean q1 (x) = 1 + x2 , q2 (x) = 1 − x2 y U el subespacio generado por ellos. ¿Pertenecen los
polinomios r(x) = 1 + x y p(x) = 1 + 5x2 al subespacio U ?
(P.24) Sea E un espacio vectorial sobre K. Si el subconjunto de vectores {v1 , v2 , . . . , vn } de E
es LI, prueba que el subconjunto de vectores {v1 , v1 + v2 , . . . , v1 + v2 + · · · + vn } de E es también
LI.
(P.25) Si {v1 , v2 } es un subconjunto de Rn LI y A ∈ Mn×n (R) es no singular, demuestra que
{u1 = Av1 , u2 = Av2 } es también LI.
(P.26) Sea E espacio vectorial sobre K. Estudia si son verdaderas o falsas las siguientes
afirmaciones:

1. Un subconjunto LI de E es un sistema generador de E .

2. Si {x1 , x2 , . . . , xk } es LD, entonces existe i ∈ {1, 2, . . . , k} tal que xi = 0.

3. Si A, B son subconjuntos no vacíos de E tales que B ⊆ A y B es LD, entonces A es


LD.

4. Si A, B son subconjuntos no vacíos de E tales que B ⊆ A y B es LI, entonces A es LI.

(P.27) Sea E espacio vectorial sobre K y sean A y B subconjuntos no vacíos de E . Demuestra


las siguientes afirmaciones:

1. Si A ∩ B , ∅, entonces L(A ∩ B) ⊆ L(A) ∩ L(B).

2. Si B ⊆ L(A) y A ⊆ L(B), entonces L(A) = L(B).

(P.28) Obtén un sistema generador para cada uno de los siguientes subespacios:
   ( )


 
 x 
 


Z 1
  3 
1. F = 
  y  ∈ R : x + z = 0
 ; 2. G = p ∈ P3 (R) : p(x) dx = 0 ;
 z 
 
 0

( ! )
a+b a−b
3. H = : a, b ∈ R ; 4. J = {A = (ai j ) ∈ M2×2 (R) : 3a12 + a21 = 0}.
0 3b

(P.29) Sea E espacio vectorial sobre K. Supongamos que {v1 , v2 } ⊂ E es LI. Si v = a1 v1 + a2 v2


con a1 , a2 ∈ K, encuentra la condición para que {v1 − v, v2 − v} sea LI.

87
Bases y dimensión de un espacio vectorial.
      


  1   0   2  


 

 −1 

 

 1 

  1 



4       
(P.30) Considera el subconjunto de R : B =  v 1 = 

 

 , v2 = 

 

 , v3 = 

 


.





 2 

 

 0 

 

 4 





      
−1 1 1 
(1) ¿B es una base de F = L({v1 , v2 , v3 })? En caso negativo, obtén una base de F contenida
en B.
(2) ¿B es una base de R4 ? En caso negativo, obtén una base de R4 a partir de los elementos
que necesites de B.
(P.31) Justifica si los siguientes subconjuntos son o no bases de los espacios vectoriales co-
rrespondientes. En caso negativo, obtén una base de dichos espacios vectoriales a partir de
los elementos que necesites tales conjuntos.

1. A = {x2 − x, x2 + x, 1} ⊂ P2 (R).
( ! ! ! !)
1 −1 −1 0 1 1 4 1
2. B = , , , ⊂ M2×2 (R).
0 6 3 1 −1 2 −5 9

(P.32) Se consideran los siguientes subespacios vectoriales de R4 :


      


  x  

    1   1   

  y  
  
    2  
 
V1 = 

 
  ∈ R4
: x + y + z = 0


y V = L  1
  ,   .


  z  

 2   1   3 
 

   
 

     
 

 t 
  1

4 

 
 1 
 0 
¿Pertenece el vector v =  
 −1  a tales subespacios? En caso afirmativo, calcula las coorde-
 
2
nadas de v respecto de una base de dicho subespacio.
(P.33) En el espacio vectorial P2 (R) consideramos los vectores v1 = x2 + x + 1, v2 = 2x + 1,
v3 = x2 − 3x + 1 y v4 = 2x2 + 1.

1. Expresa v3 y v4 como combinación lineal de v1 y v2 , si es posible.

2. Halla una base y la dimensión del subespacio generado por los vectores v1 , v2 , v3 y v4 .

3. Calcula las coordenadas de 2x2 + 1 respecto de la base hallada en el apartado 2.

(P.34) Si {v1 , . . . , vn } es una base de un espacio vectorial E sobre K, demuestra que

1. si αi , 0 ∀i ∈ {1, . . . , n}, entonces {α1 v1 , . . . , αn vn } es una base de E .

2. {v1 , v2 , . . . , vi−1 , vi + αv j , vi+1 , . . . , vn } es una base de E con i , j, siendo α ∈ K.

88
     

  1   1      2 

   
   
(P.35) Considera los subespacios vectoriales de R : F = L 
3  0 ,
  −1   y G = L   1  ,

 −1
 

 

  
0 0
 
 −2   
  
 0 
  .

 
1
1. Halla una base y la dimensión de F + G.
2. Halla una base y la dimensión de F ∩ G. ¿Es F + G una suma directa?

(P.36) Considera en R4 los subespacios vectoriales:


      


 
 x 
 

  
 1 1 

   
 
 
 0 1 
 
F=

y
  ∈ R 4
: y − t = 0


y G = L    ,    .
 
 


  z  

  
0 1 

   
 

     
 

 t 
  1 1 
 

Calcula una base y la dimensión de F + G. ¿Es la suma de F y G una suma directa?


      


  x  

   1   1   

   
  
  0   2  
 

 y  ∈ R4 : x − y + z = 0 y G = L   ,   dos subespacios vecto-
  
(P.37) Sean F = 
   
   0   1 
 


  z  

 

     
 


t

 
 1 0 

riales de R4 .
1. Halla una base y la dimensión de F + G.
2. Halla una base y la dimensión de F ∩ G. ¿Es F + G una suma directa?

(P.38) Considera en R3 los subespacios:


      

  x  
    1   1  
  
  3

    
 

U=  
 y 
 ∈ R : x + y + z = 0 
 y W = L   1  ,  1   .
 
 z   
 
 1   0 
 

Halla una base y la dimensión de U ∩ W .


(P.39) Considera en R4 los subespacios:
        


  x  

    0   0   0   

  y  
  
    1   1  
 

  4

 
 
 2  ,   ,   .

V=   
 z  ∈ R : x = z = 0
 y W = L      −1   1 
 

  
 
  1 


 t

 
 

 

      



0 0 0
Halla una base y la dimensión de V + W .
(P.40) Considera los subespacios de R4 :
     


  x  

 

  x + y  




  x + y  

 

  z  


 
   
 
F=  
 
 : x, y, z ∈ R 
 y G=
 
 
 : x, y, z ∈ R
 .




 x + z 
 

 



 y + 2z 
 



 
 
 

z z

89
1. Calcula una base y la dimensión de F y G.

2. Calcula una base y la dimensión de F ∩ G y de F + G ¿ La suma de F y G es directa ?

3. Calcula dos subespacios distintos H1 y H2 tal que

R4 = F ⊕ H1 y R4 = F ⊕ H2 .

(P.41) Considera los subespacios de M2×2 (R):


( ! ) ( ! )
a b c d
V1 = : a, b ∈ R y V2 = : c, d, e ∈ R .
−b a e −c

1. Calcula una base y la dimensión de V1 , V2 , V1 ∩ V2 y V1 + V2 . ¿La suma de V1 y V2 es


directa?

2. Extiende la base B1 de V1 calculada en el apartado 1 hasta obtener una base B2 de


M2×2 (R).
!
1 2
3. Calcula las coordenadas de respecto de B1 y respecto de B2 .
−2 1

(P.42) Considera el espacio vectorial real P3 (R).

1. Demuestra que F = {p(x) ∈ P3 (R) : p(1) = 0, p0 (1) = 0} es un subespacio vectorial de


P3 (R).

2. Halla una base y la dimensión de F .

3. Sea G = L({1 + x, 2 − 4x + 2x2 , 3 − 5x + x2 + x3 , 1 − x − x2 + x3 }). Calcula una base y la


dimensión de G.

4. Calcula una base y la dimensión de F ∩ G y F + G.

Interpolación polinómica.

(P.43) Calcula el polinomio de Lagrange que pasa por los puntos: (2, 0), (−2, 0), (0, 4) y (−1, 6).
(P.44) Calcula el polinomio de Lagrange que pasa por los puntos: (1, −3), (0, −1), (−1, −9) y
(2, 9).
(P.45) Calcula el polinomio de Lagrange que pasa por los puntos: (1, 0), (−1, 2), (0, 3) y (2, 1).
(P.46) Realiza los siguientes apartados:
Y3
(x − zi )
1. Construye los polinomios Li (x) = para los puntos (−1, 1), (1, 0), (2, 1) y (3, 2).
i=0
(zk − zi )
i,k

90
2. Calcula las coordenadas de polinomio interpolador de Lagrange que pasa por los pun-
tos del apartado 1 respecto de la base A = {L0 (x), L1 (x), L2 (x), L3 (x)} de P3 (R).

3. Calcula las coordenadas del polinomio p(x) = 1 + x + x2 + x3 respecto de la base A =


{L0 (x), L1 (x), L2 (x), L3 (x)} de P3 (R).

(P.47) Realiza los siguientes apartados:


1. Estima el logaritmo neperiano de 10 por medio de interpolación lineal conociendo log(8) =
2.079441541 y log(11) = 2.397895272.

2. Estima el logaritmo neperiano de 10 por medio de interpolación polinómica conociendo


log(8) = 2.079441541, log(9) = 2.197224577 y log(11) = 2.397895272.

(P.48) En un experimento de túnel de viento, la fuerza sobre un proyectil debida a la resistencia


del aire a diferentes velocidades esta recogida en la siguiente tabla:

Velocidad (100pies/seg) 0 2 4 6 8 10
Fuerza (100lb) 0 2.9 14.8 39.6 74.3 119

Halla el polinomio interpolador para estos datos y estima la fuerza sobre el proyectil cuando
éste viaja a 750pies/seg.
(P.49) Se mide la caída de voltaje V a través de un resistor para cierto número de valores
distintos de corriente i. Los resultados son
i 0.25 0.75 1.25 1.5 2.0
V -0.45 -0.6 0.7 1.88 6.0

Utiliza interpolación polinómica para estimar la caída del voltaje para i=1.15.
(P.50) Se realiza un experimento para determinar la elongación porcentual de un material con-
ductor de electricidad como función de la temperatura. Los datos que resultan se presentan
en la siguiente tabla. Estima la elongación porcentual para una temperatura de 400o C.

Temperatura, o C 200 250 300 375 425 475 600


elongación porcentual 7.5 8.6 8.7 10 11.3 12.7 15.3

CUESTIONES

(C1) Si E es un espacio vectorial sobre K, entonces se verifica:


(
x + 01 = x = 01 + x
(a) Existen 01 , 02 ∈ E con 01 , 02 tal que para todo x ∈ E .
x + 02 = x = 02 + x
(b) Si x, y ∈ E y α, β ∈ K, entonces (α + β) · (x + y) = α · x + β · y.
(c) Si x, y ∈ E y α ∈ K, entonces α · (x − y) = α · x − α · y.

91
(C2) Sea E un espacio vectorial sobre K y F un subconjunto no vacío de E . Una de las
siguientes afirmaciones es FALSA:
(a) Si x ∈ F y x ∈ L(F − {x}), entonces F es LD.
(b) Si 0 < F , entonces F es un conjunto linealmente independiente.
(c) Si 0 ∈ F , entonces existen escalares α1 , . . . , αk ∈ K no todos nulos y vectores x1 , . . . xk ∈ F
distintos tales que α1 x1 + . . . + αk xk = 0.

(C3) Uno de los siguientes subconjuntos de R3 es un subespacio de R3 :


     

  x  
 
  x  


  3

 
  3 2 2 2


(a) F = 
  y  ∈ R : 2x + 2y + 2z = 2
 ; (b) G = 
 
 y 
 ∈ R : x + y + z ≤ 1 
;
 z
 
  
 z   

     

  1   1  

 
    

(c) H = 
 α  1  + β  0  : α, β ∈ R .
 

1
 
−1
 

(C4) Uno de los siguientes subconjuntos de R3 es un subespacio de R3 .


     

  x  
 
  x  


  3

 
  3


(a) F = 
  y  ∈ R : x + 2y + 3z = 1
 ; (b) H = 
 
 y 
 ∈ R : x + y = 0; x + y + z = 0
;


z

 
 z 
 
 

  

  x  


  3


(c) G = 
  y  ∈ R : x + yz = 0 


z
 

  


  x  


3   3 
(C5) Considera los siguientes subespacios vectoriales de R : G =   

 y 

 ∈ R : x + y + z = 0 
,

 z  

   
   1  
  
  1  
 
 
 
 
 
 

F = L   −2  y H = L   1 . Una de las siguientes afirmaciones es FALSA:

 1 
 
 
 1 
 

(a) F ∩ G, F + G y F ∪ G son subespacios de R3 .
(b) H ∩ G, H + G y H ∪ G son subespacios de R3 .
(c) (F + H) ∩ G y (F ∩ G) + H son subespacios de R3 .
(
! ) ( !)!
a b 1 1
(C6) Sean F = : a, b ∈ R y G = L dos subespacios vectoriales de
0 a 1 1
!
5 3
M2×2 (R). El vector pertenece a
2 5
(a) F ∩ G (b) F ∪ G (c) F + G.

(C7) Si E es un espacio vectorial sobre K, A es un subconjunto no vacío de E y v1 , v2 ∈ E .


Una de las siguientes afirmaciones es verdadera:
(a) Si A es LI, entonces A ∪ {v1 , v2 } es LI.
(b) Si A es LD, entonces A ∪ {v1 , v2 } es LD.
(c) Si A ∪ {v1 , v2 } es LD, entonces A es LD.

92
(C8) Si A y B son dos subconjuntos no vacíos de un espacio vectorial E sobre K, entonces
es INCORRECTO que:
(a) L(A ∪ B) = L(A) + L(B).
(b) L(A) = A.
(c) L(L(A) + L(B)) = L(A) + L(B).

(C9) Si E es un espacio vectorial sobre K de dimensión n, entonces:


(a) todo sistema generador de E tiene n vectores.
(b) existen sistemas generadores de E con menos de n vectores.
(c) existen sistemas generadores de E con más de n vectores.
  


  x  


  3 
(C10) Considera el subespacio vectorial V =   

 y 

 ∈ R : x + y = 0 
 de R3 . Uno de los

 z   

siguientes subconjuntos de R3 NO es un sistema generador de V :
             


  1   0   3  
 

  1   2  
 

  −2   1  
             

(a) A = 

  −1  ,  0  ,  −3 
 

; (b) B = 

  −1  ,  0 
 

; (c) C =  
  2  ,  −1 
 

.
 0 1 5   0 1   0 2 
(C11) Sean F y G dos subespacios vectoriales de un espacio vectorial E sobre K de dimensión
finita. Una de las siguientes afirmaciones es FALSA:
(a) Si F ⊆ G y A es una base de F , entonces existe una base B de G tal que A ⊆ B.
(b) Sean A una base de F y B una base de G. Si A ⊆ B, entonces F ⊆ G.
(c) Si A es una base de F y B es una base de G, entonces A ∪ B es una base de F + G.

(C12) Sea E un espacio vectorial sobre K de dimensión finita. Una de las siguientes afirma-
ciones es FALSA:
(a) Si A es una base de E , entonces todo subconjunto no vacío de A es LI.
(b) Si A es una base de E , entonces todo subconjunto B de E tal que A ⊆ B es sistema
generador de E .
(c) Todo subconjunto de E que contenga más de n vectores es un sistema generador de E .

(C13) Sea E un espacio vectorial sobre K de dimensión finita n. Si A = {v1 , . . . , vk } ⊂ E con


k ≤ n es LI, entonces se verifica:
(a) Si A = {v1 , . . . , vk } ⊂ B ⊆ E , entonces B es LI.
(b) Si v < L(A), entonces {v1 , . . . , vk , v} es LD.
(c) Existen vectores {y1 , . . . , yn−k } ⊂ E tal que {v1 , . . . , vk , y1 , . . . , yn−k } es una base de E .

(C14) Si E es un espacio vectorial sobre K de dimensión n, entonces es cierto que:


(a) Si C = {y1 , . . . y s } ⊂ L({x1 , . . . , xk }) ⊆ E y C es LI , entonces s > k.
(b) Si B = {v1 , . . . , vm } es una base de E , entonces m = n.
(c) Si A = {w1 , . . . , wn } es una base de E , entonces existe y ∈ E \ L(A) tal que A ∪ {y} es LI.

93
(C15) Considera E un espacio vectorial sobre K de dimensión 3. Si A = {v1 , v2 , v3 } es una
base de E , entonces es FALSO que:
(a) {v1 , v2 + αv1 , v3 } es base de E , ∀α ∈ K.
(b) {v1 , αv2 , v3 } es base de E , ∀α ∈ K.
(c) {v1 , v3 , v2 } es sistema generador.

(C16) Sea E un espacio vectorial sobre K de dimensión n y sea A = {x1 , . . . , xn } una base de
E . Una de las siguientes afirmaciones es verdadera:
(a) si x ∈ L({x1 , . . . , xk }), entonces {x1 , . . . , xk , x} es linealmente independiente.
(b) F = L({x1 , . . . , xk }) tiene dimensión k, con k ≤ n.
(c) Todo vector x ∈ E se puede expresar como x = α1 x1 + · · · + αn xn y x = β1 x1 + · · · + βn xn con
αi , βi ∈ K con αi , βi , esto es, x se puede expresar como combinación lineal de la base A de
dos formas distintas.

(C17) Sean W y V dos subespacios vectoriales de R4 . Si dimR W = 3 y dimR V = 2, entonces


una de las siguientes afirmaciones es FALSA:
(a) Si dimR W + V = 4, entonces R4 = W ⊕ V .
(b) Si dimR W ∩ V = 2, entonces V ⊆ W .
(c) Si A es una base de W y B es una base de V , entonces A ∪ B es un sistema generador
de W + V .

(C18) Considera el espacio vectorial real P2 (R) y el vector p(x) = 1 + 2x. Una de las siguientes
afirmaciones es correcta:
(a) Las coordenadas de p(x) respecto de la base canónica B = {1, x, x2 } de P2 (R) son
[p(x)]B = (0, 2, 1)T .
(b) Las coordenadas de p(x) respecto de la base A = {1, 1 + x, 1 + x + x2 } de P2 (R) son
[p(x)]A = (−1, 2, 0)T
(c) Las coordenadas de p(x) respecto de la base C = {1, 1 + x, 1 + x2 } de P2 (R) son [p(x)]C =
(−1, 1, 1)T .

(C19) Si z0 = 1, z1 = 2 , z2 = 3 y w0 = 8, w1 = 5 y w2 = −4, entonces el polinomio interpolador


de Lagrange es:
(a) L(x) = 8 + 5x − 4x2 ; (b) L(x) = 5 + 6x − 3x2 ; (c) L(x) = 1 − 3x.

(C20) Considera z0 , z1 , . . . , zn números reales distintos y w0 , w1 , . . . , wn números reales. Una


de las siguientes afirmaciones es verdadera:
(a) Existe un único polinomio L(x) de grado exactamente n, llamado polinomio interpolador de
Lagrange tal que L(zi ) = wi , ∀i ∈ {0, 1, . . . , n}
Yn
(x − zi )
(b) {L0 (x), L1 (x), . . . , Ln (x)} es una base de Pn (R), siendo Lk (x) = con k ∈ {0, 1, . . . , n}.
i=0
(z k − z i )
i,k
(c) Los ceros del polinomio interpolador de Lagrange L(x) son: z0 , z1 , . . . , zn .

94
Tema 3: Aplicaciones Lineales

3.1. Generalidades sobre aplicaciones lineales.

3.2. Núcleo e imagen de una aplicación lineal.

3.3. Matrices y aplicaciones lineales.

3.3.1 Construcción de la matriz asociada a una aplicación lineal. Matrices cambio de base.
3.3.2 Construcción de una aplicación lineal a partir de una matriz.

3.4. Operaciones con aplicaciones lineales.

3.4.1 Operaciones con aplicaciones lineales y sus matrices asociadas.


3.4.2 Algunas caracterizaciones de isomorfismos.
3.4.3 Caracterización de matrices que representan a una misma aplicación lineal.

95
Este tema está dedicado al estudio de las aplicaciones entre espacios vectoriales que
respetan la estructura vectorial, esto es, que transforman una combinación lineal de vectores
en la combinación lineal de sus imágenes. Son muchos los ejemplos de diferente naturaleza de
este tipo de aplicaciones. Citemos por ejemplo: el producto de una matriz A ∈ Mm×n (K) por
cualquier matriz columna X ∈ Mn×1 (K), la aplicación que calcula la derivada de una función
derivable de variable real, la aplicación que calcula la integral de una función integrable en
[a, b], etc. El estudio de las aplicaciones lineales, como así se denominan a tales aplicaciones,
está justificado por la condición de linealidad asociada a gran parte de modelos matemáticos
claves en muchos problemas de ingeniería.

3.1. GENERALIDADES SOBRE APLICACIONES LINEALES.


A continuación presentamos la definición de aplicación lineal.
Definición 1. Sean E y F dos espacios vectoriales sobre K y sea T : E −→ F una aplicación.
Diremos que T es una aplicación lineal si verifica:

(a) T (u + v) = T (u) + T (v), ∀u, v ∈ E.

(b) T (αu) = αT (u), ∀α ∈ K, ∀u ∈ E.

Ejemplos 2.

Determina si las siguientes aplicaciones entre espacios vectoriales son o no aplicaciones


lineales:

(1) La aplicación nula, O : E −→ F definida por O(x) = 0 ∀x ∈ E, verifica claramente


las condiciones (a) y (b) de la definición, luego O es una aplicación lineal.

(2) La aplicación identidad, IdE : E −→ E definida por IdE (x) = x ∀x ∈ E, verifica


claramente las condiciones (a) y (b) de la definición, luego IdE una aplicación lineal.

(3) Consideremos T : Mn×m (K) −→ Mm×n (K) definida por T (A) = AT , ∀A ∈


Mn×m (K). Veamos si T es una aplicación lineal:

(a) T (A + B) = (A + B)T = AT + B T = T (A) + T (B), ∀A, B ∈ Mn×m (K).


(b) T (αA) = (αA)T = αAT = αT (A), ∀A ∈ Mn×m (K), ∀α ∈ K.

Por tanto, T es una aplicación lineal.

(4) Consideremos T : M3×3 (K) −→ K definida por T (A) = tr(A) = a11 + a22 + a33 ,
∀A = (aij ) ∈ M3×3 (K). Veamos si T es una aplicación lineal:

(a) T (A + B) = tr(A + B) = (a11 + b11 ) + (a22 + b22 ) + (a33 + b33 ) = (a11 + a22 + a33 ) +
(b11 + b22 + b33 ) = tr(A) + tr(B) = T (A) + T (B), ∀A, B ∈ M3×3 (K).
(b) T (αA) = tr(αA) = (αa11 ) + (αa22 ) + (αa33 ) = α(a11 + a22 + a33 ) = α tr(A) =
αT (A), ∀A ∈ M3×3 (K), ∀α ∈ K.

96
Por tanto, T es una aplicación lineal.
     
x x+y x
(5) T : R −→ R definida por T
2 2
= 2 ,∀ ∈ R2 .
y y y
 
1
No es una aplicación lineal, pues si consideramos, por ejemplo, el vector u = y
1
el escalar α = 2, tenemos que
          
1 4 4 2 1
T (αu) = T 2 = 6= =2 = 2T = αT (u).
1 4 2 1 1

(6) T : P2 (R) −→ P2 (R) definida por T (a0 + a1 x + a2 x2 ) = a0 + (a2 + 3a1 )x + x2 ,


∀a0 + a1 x + a2 x2 ∈ P2 (R) .
No es una aplicación lineal, basta considerar, por ejemplo, los vectores p(x) = 1+x+x2
y q(x) = 1 + 2x + 3x2 y comprobar que el vector
T (p(x) + q(x)) = T ((1 + x + x2 ) + (1 + 2x + 3x2 )) = T (2 + 3x + 4x2 ) = 2 + 13x + x2
no coincide con el vector
T (p(x))+T (q(x)) = T (1+x+x2 )+T (1+2x+3x2 ) = (1+4x+x2 )+(1+9x+x2 ) = 2+13x+2x2 .

(7) T : R2 −→ R2 definida por:


 1 1 
       √2 x − √ y
2   
x cos(π/4) − sin(π/4) x   x
T = = ,∀ ∈ R2 .
y sin(π/4) cos(π/4) y  1 1  y
√ x+ √ y
2 2
Veamos que T es una aplicación lineal:
 1 1 
     √
  2 1 (x + x 2 ) − √ (y 1 + y 2 )
2 
x1 x2 x1 + x2  
(a) T + =T = =
y1 y2 y1 + y2  1 1 
√ (x1 + x2 ) − √ (y1 + y2 )
2 2
 1 1   1 1 
√ x 1 − √ y1 √ x 2 − √ y2        
 2 2   2 
   2  x1 x2 x x
= + =T +T , ∀ 1 , 2 ∈ R2 .
 1 1   1 1  y1 y 2 y 1 y2
√ x 1 + √ y1 √ x 2 + √ y2
2 2 2 2
 1 1 
      √2 αx1 − √ αy1
2     
x αx1   x1 x
(b) T α 1 =T =  = αT , ∀ 1 ∈ R2 ,
y1 αy1  1 1  y1 y1
√ αx1 + √ αy1
2 2
∀α ∈ R.

97
Por tanto, T es una aplicación lineal. Geométricamente, esta aplicación supone una
rotación en R2 de centro el origen y ángulo de π/4 en sentido contrario a las agujas
del reloj.

Antes de presentar una clasificación de las aplicaciones lineales, necesitamos recordar


las siguientes definiciones que fueron presentadas en Matemáticas I: Sea f : A −→ B una
aplicación entre los conjuntos A y B.

• Se dice que f es inyectiva si a elementos distintos de A le corresponden imágenes


mediante f distintas, o equivalentemente, si a1 , a2 ∈ A y f (a1 ) = f (a2 ), entonces
a1 = a2 .

• Se dice que f es suprayectiva si todo elemento de B es imagen mediante f de un


elemento de A, esto es, ∀b ∈ B, ∃a ∈ A tal que f (a) = b.

• Se dice que f es biyectiva si f es inyectiva y suprayectiva.

Definiciones 3.
Clasificación de aplicaciones lineales: Sean E y F dos espacios vectoriales sobre K.

∗ Si T : E −→ E es una aplicación lineal, diremos que T es un endomorfismo sobre E.

∗ Si T : E −→ K es una aplicación lineal, diremos que T es una forma lineal.

∗ Si T : E −→ F es una aplicación lineal inyectiva, diremos que T es un monomorfismo.

∗ Si T : E −→ F es una aplicación lineal suprayectiva, diremos que T es un epimorfismo.

∗ Si T : E −→ F es una aplicación lineal biyectiva, diremos que T es un isomorfismo.

∗ Si T : E −→ E es un endomorfismo biyectivo, diremos que T es un automorfismo.

Las siguientes propiedades se deducen fácilmente de la definición de aplicación lineal.


Propiedades 4. Si T : E −→ F es una aplicación lineal, entonces

(1) T (0) = 0.

(2) T (−x) = −T (x), ∀x ∈ E.


k
! k
X X
(3) T αi xi = αi T (xi ), ∀αi ∈ K, ∀xi ∈ E, con 1 ≤ i ≤ k.
i=1 i=1

En definitiva las aplicaciones lineales verifican que la imagen de una combinación lineal
de vectores resulta ser una combinación lineal de las imágenes de estos vectores.

98
Observación 5.
• La Propiedad 4.(1) establece una condición necesaria para que una aplicación sea lineal,
pero no es suficiente (ver Ejemplo 2.(5)). Dicha propiedad se puede emplear para
determinar de forma rápida la no linealidad de algunas aplicaciones. Por ejemplo, si
consideramos la aplicación T : Mn×n (K) −→ Mn×n (K) dada por T (A) = A + In×n
∀A ∈ Mn×n (K), podemos concluir que no es una aplicación lineal, pues T (On×n ) =
In×n 6= On×n .
• Si T : E −→ F es una aplicación lineal, B = {x1 , . . . , xn } es una base ordenada de E y
conocemos T (xi ), ∀i ∈ {1, . . . , n}, entonces la Propiedad 4.(3) nos permite determinar
dicha aplicación lineal. En efecto, si x ∈ E,

x = α1 x1 + . . . + αn xn −→ T (x) = α1 T (x1 ) + . . . + αn T (xn ).

En consecuencia, podemos conseguir la imagen de cualquier vector de E mediante T .

A continuación daremos un ejemplo: consideramos la aplicación lineal T : R2 −→ R3


de la que sólo conocemos la
imagen que proporciona
 a losvectores de la base canónica
  3   1
1   0 
de R , esto es, T
2
= 4 yT = −5 . A partir de aquí podemos
0 1
1 0  
x
conseguir la imagen que T proporciona a un vector cualquiera de R2 .
y
   
           3 1
x 1 0 1 0
T =T x +y = xT +yT = x  4 +y  −5  =
y 0 1 0 1
1 0
 
3x + y
=  4x − 5y .
x
 
  3x + y  
x   x
En definitiva, T = 4x − 5y , ∀ ∈ R2 .
y y
x

3.2. NÚCLEO E IMAGEN DE UNA APLICACIÓN LINEAL.


Asociados a una aplicación lineal tenemos un subespacio del espacio vectorial inicial,
llamado núcleo, y otro del espacio vectorial final, llamado imagen, que desempeñarán un
papel relevante. Con tales subespacios podremos determinar de forma sencilla la inyectividad
y la suprayectividad de una aplicación lineal.
Definiciones 6. Sea T : E −→ F una aplicación lineal.

• Se llama núcleo de T al conjunto de vectores de E que tienen imagen nula.

N(T ) = { x ∈ E : T (x) = 0 }.

99
• Se llama imagen de T al conjunto de vectores de F que son imagen mediante T de
algún vector de E

Im(T ) = { y ∈ F : ∃x ∈ E tal que T (x) = y }

o, equivalentemente,

Im(T ) = T (E) = { T (x) : x ∈ E }.

En el siguiente resultado se expone que el subconjunto núcleo de una aplicación lineal


junto con la operación suma y producto por un escalar definido sobre E es un subespacio del
espacio vectorial E. Paralelamente, el subconjunto imagen de una aplicación lineal junto con
la operación suma y producto por un escalar definido sobre F es un subespacio del espacio
vectorial F .
Proposición 7. Si T : E −→ F es una aplicación lineal, entonces

(1) N(T ) es un subespacio de E.

(2) Im(T ) es un subespacio de F .

Observación 8. Si T : E −→ F es una aplicación lineal y {x1 , . . . , xn } es un sistema


generador de E, utilizando la Propiedad 4(3) se obtiene que {T (x1 ), . . . , T (xn )} es un sistema
generador de Im(T ). Esta observación proporciona un método para obtener Im(T ), ya que

Im(T ) = T (E) = T (L({x1 , . . . , xn })) = L({T (x1 ), . . . , T (xn )}).

Si T es una aplicación lineal, las dimensiones de los subespacios N(T ) e Im(T ) están
relacionadas como muestra el próximo teorema.
Teorema 9. (Teorema de las dimensiones) Si T : E −→ F es una aplicación lineal y E
y F son espacios vectoriales sobre K de dimensión finita, entonces

dimK E = dimK N(T ) + dimK Im(T ).

Ejemplos 10.
Halla el núcleo e imagen de las siguientes aplicaciones lineales. Calcula la dimensión
de tales subespacios.

(1) T : P2 (R) −→ P2 (R) definida por T (a0 +a1 x+a2 x2 ) = a0 +(a2 +3a1 )x+(a1 +a0 )x2 ,
∀a0 + a1 x + a2 x2 ∈ P2 (R).

2 2
N(T ) = {a0 + a1 x + a2 x ∈ P2 (R) : T (a0 + a1 x + a2 x ) = 0} =
= {a0 + a1 x + a2 x2 ∈ P2 (R) : a0 = 0, a2 + 3a1 = 0, a1 + a0 = 0} =
= {a0 + a1 x + a2 x2 ∈ P2 (R) : a0 = a1 = a2 = 0} = {0} −→ dimR N(T ) = 0.

100
Utilizando el Teorema de las dimensiones obtenemos que dimK Im(T ) = 3. Como
Im(T ) ⊆ P2 (R) y dimR P2 (R) = 3, tenemos que Im(T ) = P2 (R).
   
a   a
  a − b 3a − 3b 
(2) G : C −→ M2×2 (C) dada por G
3
b = ,∀ b  ∈ C3 .
2a + 5b 0
c c
       
 a a    a 
0 0 a−b=0
N (G) =  b  ∈ C3 : G  b  = =  b  ∈ C3 : =
 0 0   2a + 5b = 0 
c c c
         
 a   0   0 
=  b  ∈C :a=b=0 =
3  0  :c∈C =L   0  .
     
c c 1

Por tanto, dimC N(G) = 1.


Por el Teorema de las dimensiones, sabemos que dimC Im(G) = dimC C3 −dimC N(G) =
= 3 − 1 = 2. Para
obtener
  Im(G) utilizaremos
  la Observación 8. Consideramos la base
 1 0 0 
canónica de C3 :  0  ,  1  ,  0  , así
 
0 0 1
       
 1 0 0 
3
Im(G) = G(C ) = L  G 0 ,G 1 ,G 0   =
    
 
0 0 1
         
1 3 −1 −3 0 0 1 3 −1 −3
=L , , =L , .
2 0 5 0 0 0 2 0 5 0
 
  x+y  
x   x
(3) H : R −→ R definida por H
2 3
= 2x ,∀ ∈ R2 .
y y
0
  
    0    
x x x x + y = 0
N(H) = ∈R :H
2
= 0  = ∈R :
2
=
 y y  y 2x = 0
0
    
x 0
= ∈ R2 : x = y = 0 = .
y 0

Por el Teorema de las dimensiones sabemos que dimR Im(H) = dimR R2 −dimR N(H) =
2 − 0 = 2. Consideremos la base canónica de R2 y calculemos el subespacio Im(H):
     
      1 1 
1 0  
2
Im(H) = H(R ) = L H ,H =L 2 , 0  .
 
0 1  
0 0

101

0
Observa que Im(H) 6= R3 , pues  0  ∈
/ Im(H) .
1

Conocer los subespacios núcleo e imagen de una aplicación lineal nos permitirá determinar
el carácter inyectivo y suprayectivo de dicha aplicación lineal.
Proposición 11. (Primera caracterización de inyectividad y suprayectividad)
Sea T : E −→ F una aplicación lineal. Se verifican las siguientes afirmaciones:
(1) T es inyectiva ⇐⇒ N(T ) = {0}
(2) T es suprayectiva ⇐⇒ Im(T ) = F .

Ejemplos 12.
Clasifica las aplicaciones que aparecen en el Ejemplo 10.
(1) Como N(T ) = {0}, T es inyectiva (monomorfismo). Además, T es suprayectiva (epi-
morfismo), ya que Im(T ) = P2 (R). En consecuencia, T es un endomorfismo biyectivo
(automorfismo).
      
 0   0 
(2) G no es inyectiva, pues N(G) = L   0   6=  0  . Como Im(G) 6=
   
1 0
M2×2 (C), concluimos que T no es suprayectiva.
 
0
(3) H es una aplicación inyectiva, pues N(H) = . Como Im(H) 6= R3 , se
0
sigue que H no es suprayectiva.

Podemos caracterizar a las aplicaciones lineales inyectivas y suprayectivas en función de su


comportamiento respecto de conjuntos linealmente independientes y de sistemas generadores,
respectivamente:
Proposición 13. (Segunda caracterización de inyectividad y suprayectividad)
Sea T : E −→ F una aplicación lineal, con E y F espacios vectoriales sobre K de dimensión
finita. Se verifican las siguientes afirmaciones:
(1) T es inyectiva ⇐⇒ para cada subconjunto {x1 , . . . , xk } linealmente independiente de
E, el subconjunto {T (x1 ), . . . , T (xk )} de F es linealmente independiente.
(2) T es suprayectiva ⇐⇒ para cada sistema generador {x1 , . . . , xk } de E , el subconjunto
{T (x1 ), . . . , T (xk )} de F es un sistema generador de F .
(3) T es biyectiva ⇐⇒ si {x1 , . . . , xn } es base de E, entonces {T (x1 ), . . . , T (xn )} es una
base de F .

Corolario 14. Sea T : E −→ F una aplicación lineal. Si dimK E = dimK F = n, entonces


T es inyectiva ⇐⇒ T es suprayectiva.

102
3.3. MATRICES Y APLICACIONES LINEALES.
En este apartado construiremos matrices a partir de aplicaciones lineales y recíprocamen-
te, obtendremos aplicaciones lineales a partir de matrices. Esta relación entre el concepto
de matriz y el de aplicación lineal será una útil herramienta, pues permitirá resolver un
determinado problema algebraico desde el punto de vista matricial o desde el prisma de las
aplicaciones lineales, según convenga, con el fin de proporcionar una respuesta más sencilla
del mismo.

3.3.1 Construcción de la Matriz Asociada a una Aplicación Lineal.


Matrices Cambio de Base.

Con anterioridad hemos expuesto que una aplicación lineal T : E −→ F , siendo E y


F espacios vectoriales sobre K de dimensión finita, queda caracterizada cuando conocemos
cómo actúa sobre una base ordenada de E. Si fijamos una base ordenada A de E y una
base ordenada B de F , entonces es posible expresar de forma única la imagen mediante T de
cada vector de la base A como combinación lineal de los vectores de la base B y calcular sus
coordenadas. Almacenaremos esta información en una matriz, a la que llamaremos matriz
asociada a T respecto de las bases ordenadas A y B. Una consecuencia inmediata será calcular
las coordenadas de la imagen mediante T de un vector de E.

Definición 15. Sean E y F espacios vectoriales sobre K con dimK E = n y con dimK F = m,
respectivamente. Consideremos T : E −→ F una aplicación lineal, A = {x1 , . . . , xn } una
base ordenada de E y B = {y1 , . . . , ym } una base ordenada de F . Observemos que T (xi ) ∈ F
∀i ∈ {1, . . . , n}, luego este vector se puede expresar como combinación lineal de la base B
(de forma única):
 
a1i
 a2i 
 
T (xi ) = a1i y1 + a2i y2 + . . . + ami ym −→ [T (xi )]B =  ..  .
 . 
ami
La matriz m × n sobre K que construimos haciendo coincidir la columna i-ésima con las
coordenadas de T (xi ) respecto de B, ∀i ∈ {1, . . . , n}, es llamada matriz asociada a T respecto
de A y B y escribiremos TAB :
 
a11 a12 . . . a1n
 a21 a22 . . . a2n 
 
TAB =  .. .. . . ..  ∈ Mm×n (K).
 . . . . 
am1 am2 . . . amn

Observemos que el número de filas de TAB coincide con la dimensión de F y el número


de columnas de TAB coincide con la dimensión de E.

Consecuencia. Sean E y F espacios vectoriales sobre K con dimK E = n y con dimK F = m.


Consideremos T : E −→ F una aplicación lineal, A una base ordenada de E y B una base
ordenada de F . Si x ∈ E, entonces se verifica

103
TAB [x]A = [T (x)]B

Si conocemos las coordenadas de un vector respecto de una base ordenada y utilizamos


la consecuencia anterior con T = Id, es posible obtener las coordenadas de dicho vector
respecto de otra base ordenada distinta.
Definición 16. Consideremos E espacio vectorial sobre K con dimK E = n, IdE : E −→ E
la aplicación identidad y A y B bases ordenadas de E, entonces

(IdE )AB [x]A = [x]B .

Observemos que la matriz (IdE )AB transforma las coordenadas del vector x ∈ E en la base
A en las coordenadas del vector x en la base B. La matriz (IdE )AB es llamada matriz cambio
de base de A a B.

Observación 17. Sean E es un espacio vectorial sobre K con dimK E = n y B = {e1 , . . . , en }


una base ordenada de E. Como IdE (ei ) = ei = 0e1 + . . . + 1ei + . . . + 0en , ∀i ∈ {1, . . . , n},
tenemos que [Id(ei )]B = (0 . . . 1 . . . 0)T . En consecuencia, (IdE )BB = In×n .

Ejemplos 18.

(1) Considera la aplicación lineal T : P3 (R) −→ P2 (R) definida por T (p(x)) = p0 (x) ,
∀p(x) ∈ P3 (R) y las bases canónicas de P3 (R) y de P2 (R), esto es, B1 = {1, x, x2 , x3 }
y B2 = {1, x, x2 }, respectivamente. Calcula TB1 B2 y consigue a partir de ella las coor-
denadas de T (7 + 3x + 6x2 + 9x3 ) en la base B2 .

Calculemos en primer lugar TB1 B2 . Para ello debemos obtener las imágenes que T
proporciona a los elementos de B1 y calcular las coordenadas de tales vectores respecto
de la base B2 .
 
0
2
T (1) = 0 = 0 · 1 + 0 · x + 0 · x → [T (1)]B2 =  0 
0
 
1
2
T (x) = 1 = 1 · 1 + 0 · x + 0 · x → [T (x)]B2 =  0 
0
 
0
2 2 2
T (x ) = 2 · x = 0 · 1 + 2 · x + 0 · x → [T (x )]B2 =  2 
0
 
0
T (x3 ) = 3 · x2 = 0 · 1 + 0 · x + 3 · x2 → [T (x3 )]B2 =  0 
3
 
0 1 0 0
Así, la matriz asociada a T respecto de B1 y B2 es TB1 B2 =  0 0 2 0  ∈ M3×4 (R).
0 0 0 3

104
Para obtener las coordenadas de T (7 + 3x + 6x2 + 9x3 ) respecto B2 a partir de TB1 B2 ,
utilizaremos que TB1 B2 [p(x)]B1 = [T (p(x))]B2 , ∀p(x) ∈ P3 (R).
 
7
 3 
Las coordenadas de p(x) = 7 + 3x + 6x2 + 9x3 respecto de B1 son: [p(x)]B1 =  
 6 .
9
Por tanto, obtenemos que
 
 
7  
0 1 0 0   3
3  
[T (p(x))]B2 = TB1 B2 [p(x)]B1 =  0 0 2 0 
 6 = 12  = [p0 (x)]B2 .
0 0 0 3 27
9

(2) Considera la aplicación lineal T : M2×2 (R) −→ R3 dada por


 
  a+b  
a b a b
T =  b + 2c  ∀ ∈ M2×2 (R),
c d c d
c − 4d

las bases ordenadas de M2×2 (R):


       
1 0 0 1 0 0 0 1
A= , , ,
0 0 1 0 0 1 2 0
       
1 0 0 1 0 0 0 0
B= , , , ,
0 0 0 0 1 0 0 1

y las bases ordenadas de R3 :


             
 1 1 1   1 0 0 
C=    
1 , 1 , 0   yD=     
0 , 1 , 0  .
   
1 0 0 0 0 1

1. Calcula TAC y TBD .


2. Calcula IdAB y IdDC .
3. Comprueba que IdDC TBD IdAB = TAC .

1. En primer lugar calcularemos la imagen que T proporciona a los elementos de la


base ordenada A y, después, calcularemos las coordenadas de tales vectores respecto
de la base ordenada C:
         
  1 1 1 1    0
1 0 1 0
T =  0  = 0 1 +0 1 +1 0  → T = 0 
0 0 0 0
0 1 0 0 C 1
         
  1 1 1 1    1
0 1 0 1
T =  3  = 1  1 +2  1 −2  0  → T = 2 
1 0 1 0
1 1 0 0 C −2

105
         
  0 1 1 1    −4
0 0 0 0
T =  0  = −4  1  + 4  1  + 0  0  → T = 4 
0 1 0 1
−4 1 0 0 C 0
         
  1 1 1 1    2
0 1         0 1 
T = 5 =2 1 +3 1 −4 0 → T = 3 .
2 0 2 0
2 1 0 0 C −4

Por tanto, la matriz asociada a T respecto de las bases ordenadas A y C es:


 
0 1 −4 2
TAC = 0 2 4 3  ∈ M3×4 (R).
1 −2 0 −4

Obtengamos ahora TBD


         
  1 1 0 0    1
1 0 1 0
T =  0  = 1 0  + 0 1  + 0 0  → T = 0 
0 0 0 0 D
0 0 0 1 0
         
  1 1 0 0    1
0 1         0 1 
T = 1 =1 0 +1 1 +0 0 → T = 1 
0 0 0 0 D
0 0 0 1 0
         
  0 1 0 0    0
0 0 0 0
T =  2  = 0 0  + 2 1  + 1 0  → T = 2 
1 0 1 0 D
1 0 0 1 1
         
  0 1 0 0    0
0 0 0 0
T =  0  = 0 0  + 0 1  − 4 0  → T =  0 .
0 1 1 0
−4 0 0 1 D −4

Por tanto, la matriz asociada a T respecto de las bases ordenadas B y D es:


 
1 1 0 0
TBD = 0 1 2 0  ∈ M3×4 (R).
0 0 1 −4

2. Calculemos en primer lugar IdAB . Trabajaremos con la siguiente notación:

       
1 0 0 1 0 0 0 0
I11 = , I12 = , I21 = y I22 =
0 0 0 0 1 0 0 1

 
       1
1 0 1 0 1 0  0 
Id = = 1I11 + 0I12 + 0I21 + 0I22 → Id = 
 0 
0 0 0 0 0 0 B
0

106

       0
0 1 0 1 0 1  1 
Id = = 0I11 + 1I12 + 1I21 + 0I22 → Id = 
 1 
1 0 1 0 1 0 B
0
 
       0
0 0 0 0 0 0  0 
Id = = 0I11 + 0I12 + 0I21 + 1I22 → Id = 
 0 
0 1 0 1 0 1 B
1
 
       0
0 1 0 1 0 1  1 
Id = = 0I11 + 1I12 + 2I21 + 0I22 → Id =

.
2 0 2 0 2 0 B
2 
0

Por tanto, la matriz asociada a Id respecto de las bases ordenadas A y B es:


 
1 0 0 0
 0 1 0 1 
IdAB =
 0
 ∈ M4×4 (R).
1 0 2 
0 0 1 0

Calculemos IdDC .
             
1 1 1 1 1 1 0

Id 0  =  0  = 0 1  + 0 1  + 1 0  → Id  0  =  0 
0 0 1 0 0 0 C
1
              
0 0 1 1 1 0 0
Id  1  =  1  = 0 1  + 1 1  − 1 0  → Id  1  =  1 
0 0 1 0 0 0 C
−1
              
0 0 1 1 1 0 1

Id 0  =  0  = 1 1  − 1 1  + 0 0  → Id  0  =  −1  .
1 1 1 0 0 1 C
0

Por tanto, la matriz asociada a Id respecto de las bases ordenadas D y C es:


 
0 0 1
IdDC = 0 1 −1  ∈ M3×3 (R).
1 −1 0

 
  
1 0 0 0
0 0 1 1 1 0 0 
0 1 0 1 
3. IdDC TBD IdAB =  0 1 −1   0 1 2 0 
 0
=
1 0 2 
1 −1 0 0 0 1 −4
0 0 1 0
 
0 1 −4 2
=  0 2 4 3  = TAC .
1 −2 0 −4

107
3.3.2 Construcción de una Aplicación Lineal a partir de una Matriz.

El proceso que a continuación presentamos podríamos considerarlo como el recíproco del


3.3.1. Nuestro punto de partida será una matriz A de tamaño m × n con entradas en K y
dos bases ordenadas A y B, A base ordenada de un espacio vectorial E de dimensión n y B
base ordenada de un espacio vectorial F de dimensión m. Veremos cómo construir la única
aplicación lineal T : E −→ F cuya matriz asociada respecto de las bases ordenadas A y
B sea exactamente A. De este modo las matrices, que hasta este punto eran básicamente
una simple ordenación de escalares, adquiere aquí significado, una matriz representa a una
aplicación lineal entre dos espacios vectoriales.

Proposición 19. (Construcción de una Aplicación Lineal a partir de una Matriz)


Sea A = (aij ) ∈ Mm×n (K). Consideremos E un espacio vectorial sobre K de dimK E = n
y F un espacio vectorial sobre K de dimK F = m. Elegimos B = {x1 , x2 , . . . , xn } una base
ordenada de E y C = {y1 , y2 , . . . , ym } una base ordenada de F . Si se define T : E −→ F tal
que
T (xi ) = a1i y1 + a2i y2 + · · · + ami ym , ∀i ∈ {1, . . . , n},
entonces T es la única aplicación lineal de E en F tal que TBC = A.

Ejemplo 20.
 
1 2    
  1 0
Consideremos la matriz A = 0 2 ∈ M3×2 (K), B = , la base
0 1
   1 1   
 1 1 1 
canónica de R2 y C =  0  ,  −1  ,  0  base ordenada de R3 . Constru-
 
0 0 −1
yamos la única aplicación lineal T : R2 −→ R3 tal que TBC = A.
Sabemos que una aplicación lineal queda determinada cuando conocemos como actúa
sobre los elementos de una base ordenada del espacio vectorial inicial. Así pues asig-
naremos la imagen que T proporciona a cada vector de la base ordenada B de modo
que la matriz asociada a T respecto de las bases ordenadas B y C sea precisamente la
matriz A.
       
  1 1 1 2
1
T = 1  0  + 0  −1  + 1  0  =  0 
0
0 0 −1 −1
       
  1 1 1 5
0
T = 2  0  + 2  −1  + 1  0  =  −2  .
1
0 0 −1 −1

Con esta información hallaremos la descripción de la aplicación buscada T


     
      2 5 2a + 5b
a 1 0
T = aT + bT = a  0  + b  −2  =  −2b .
b 0 1
−1 −1 −a − b

108
 
  2a + 5b  
a a
En definitiva tenemos que T =  −2b  , ∀ ∈ R2 .
b b
−a − b

Rango de una matriz y subespacio imagen de una aplicación lineal.


El rango de una matriz A de tamaño m×n con entradas en K coincide con la dimensión del
subespacio imagen de T , siendo T : Kn −→ Km la única aplicación lineal tal que TCn Cm = A
con Cn = {e1 , . . . , en } y Cm = {v1 , . . . , vm } bases canónicas de Kn y Km , respectivamente.
En efecto, por la Observación 8 y por la Proposición 19

Im(T ) = L({T (e1 ), . . . , T (en )}) = L({A1 , . . . , An }).

Por tanto, dimK Im(T ) =número de columnas LI de A. Según vimos en el Tema 2, este
número coincide con ρ(A). En consecuencia,

ρ(A) = dimK Im(T ) .

Esta definición no depende de las bases elegidas de Kn y Km , respectivamente.

3.4. OPERACIONES CON APLICACIONES LINEALES.

3.4.1 Operaciones con Aplicaciones Lineales y sus Matrices Asociadas.


En cuanto a las operaciones con aplicaciones lineales es natural plantearse si las operacio-
nes básicas de aplicaciones como son la suma, el producto por un escalar y la composición,
heredan la condición de “linealidad”.
Proposición 21.

• Suma de aplicaciones lineales


Si T : E −→ F y S : E −→ F son aplicaciones lineales, la aplicación T + S : E −→ F ,
definida por
(T + S)(x) = T (x) + S(x), ∀x ∈ E
es una aplicación lineal.

• Producto por un escalar


Si T : E −→ F es una aplicación lineal y λ ∈ K, la aplicación λT : E −→ F , definida
por
(λT )(x) = λT (x), ∀x ∈ E
es una aplicación lineal.

• Composición de aplicaciones lineales


Si T : E −→ F y S : F −→ G son aplicaciones lineales, la aplicación S ◦ T : E −→ G,
definida por
(S ◦ T )(x) = S(T (x)), ∀x ∈ E,
es una aplicación lineal.

109
Ejemplos 22.

Considera las aplicaciones lineales:


   
a a
∗ T : R −→ P2 (R) dada por T
3  b  = (a+b)+(2b+c)x+(8b)x , ∀2  b  ∈ R3 ,
c c
 
a b − 4c
∗ G : P2 (R) −→ M2×2 (R) dada por G(a + bx + cx2 ) = ,
0 a+b+c
∀ a + bx + cx2 ∈ P2 (R),
   
a a
∗ H : R3 −→ P2 (R) dada por H  b  = (a + 5c) + (b + 2c)x2 , ∀  b  ∈ R3 .
c c
Calcula T + 2H y G ◦ T :
 
a
Calculemos en primer lugar (T + 2H)  b .
c
     
a a a
(T + 2H)  b  = T  b  + (2H)  b =
c c c
= ((a + b) + (2b + c)x + 8bx2 ) + 2((a + 5c) + (b + 2c)x2 ) =
= (3a + b + 10c) + (2b + c)x + (10b + 4c)x2
   
a a
esto es, (T + 2H)  b  = (3a + b + 10c) + (2b + c)x + (10b + 4c)x2 , ∀  b  ∈ R3 .
c c
 
a
Calculemos ahora (G ◦ T )  b :
c
    
a a
(G ◦ T )  b  = G T  b  = G((a + b) + (2b + c)x + (8b)x2 ) =
c c
 
a+b (2b + c) − 4(8b)
= .
0 (a + b) + (2b + c) + 8b
   
a   a
  a + b −30b + c 
En definitiva, (G ◦ T ) b = ,∀ b  ∈ R3 .
0 a + 11b + c
c c

En la Proposición 21 vimos que la suma de aplicaciones lineales, multiplicar por un


escalar una aplicación lineal y la composición de aplicaciones lineales proporcionaban nuevos
ejemplos de aplicaciones lineales. Evaluemos el comportamiento de las matrices asociadas a

110
estas aplicaciones lineales con respecto a las matrices asociadas de las aplicaciones lineales
que las han originado.
Veamos el siguiente ejemplo:
Ejemplos 23.

Considera las aplicaciones del Ejemplo 22:


   
a a
∗ T : R −→ P2 (R) dada por T
3  b  = (a+b)+(2b+c)x+(8b)x , ∀
2  b  ∈ R3 ,
c c
 
a b − 4c
∗ G : P2 (R) −→ M2×2 (R) dada por G(a + bx + cx2 ) = ,
0 a+b+c
∀a + bx + cx2 ∈ P2 (R),
   
a a
∗ H : R −→ P2 (R) dada por H  b  = (a + 5c) + (b + 2c)x , ∀  b  ∈ R3 .
3 2

c c
     
 1 0 0 
yA=  0 , 1 , 0  la base canónica de R3 , B = {1, x, x2 } la base ca-
   
 
0 0  1       
1 0 0 1 0 0 0 0
nónica de P2 (R) y C = , , , la base canónica
0 0 0 0 1 0 0 1
de M2×2 (R).

1. Calcula TAB , HAB , (T + 2H)AB y TAB + 2HAB . ¿Hay alguna relación entre ellas?
2. Calcula GBC , (G ◦ T )AC y GBC TAB . ¿Hay alguna relación entre ellas?

Utilizando el procedimiento descrito en el Ejemplo 18 obtenemos que:


     
1 1 0 1 0 5 3 1 10
1. TAB =  0 2 1  HAB =  0 0 0  (T + 2H)AB =  0 2 1 
0 8 0 0 1 2 0 10 4
     
1 1 0 2 0 10 3 1 10
TAB + 2HAB =  0 2 1  +  0 0 0  =  0 2 1 .
0 8 0 0 2 4 0 10 4

Por tanto, (T + 2H)AB = TAB + 2HAB .

2. Calculemos las siguientes matrices asociadas:


   
1 0 0 1 1 0
 0 1 −4   0 −30 1 
GBC =
 0
 (G ◦ T )AC = 
0 0   0 0 0 
1 1 1 1 11 1

111
   
1 0 0   1 1 0
 0  1 1 0  
1 −4   0 −30 1
GBC TAB =
 0 0 2 1 = .
0 0   0 0 0 
0 8 0
1 1 1 1 11 1

Por tanto, (G ◦ T )AC = GBC TAB .

El ejemplo anterior es un caso particular del resultado que presentamos a continuación:


Proposición 24. (Matrices asociadas y operaciones)

• Sean E un espacio vectorial sobre K de dimK E = n y F un espacio vectorial sobre K


de dimK F = m. Si T : E −→ F y S : E −→ F son aplicaciones lineales, entonces se
verifica
(T + S)AC = TAC + SAC
siendo A y C bases ordenadas de E y F , respectivamente.

• Sean E un espacio vectorial sobre K de dimK E = n y F un espacio vectorial sobre K


de dimK F = m. Si T : E −→ F es una aplicación lineal y λ ∈ K, entonces se verifica

(λ T )AC = λ TAC

siendo A y C bases ordenadas de E y F , respectivamente.

• Sean E un espacio vectorial sobre K de dimK E = n, F un espacio vectorial sobre K


de dimK F = m y G un espacio vectorial sobre K de dimK G = t. Si T : E −→ F y
S : F −→ G son aplicaciones lineales, entonces se verifica

(S ◦ T )AH = SCH TAC

siendo A, C y H bases ordenadas de E, F y G, respectivamente. Esto es, la matriz


asociada a la composición de aplicaciones lineales coincide con el producto de las ma-
trices asociadas, este resultado justifica el modo en que se definió el producto de dos
matrices.

3.4.2 Algunas Caracterizaciones de Isomorfismos.

Lo interesante de los isomorfismos radica en el siguiente hecho: si entre dos espacios


vectoriales de dimensión finita hay definido un isomorfismo, desde el punto de vista de los
espacios vectoriales no hay diferencia entre ellos.
Una primera caracterización de isomorfismos la obtuvimos en la Proposición 13(3): una
aplicación lineal es biyectiva si, y sólo si, transforma una base del espacio vectorial inicial en
una base del espacio vectorial final.
Otra caracterización se consigue al garantizar la existencia de otro isomorfismo al que
llamaremos inverso.

112
Teorema 25. (Caracterización de isomorfismo mediante la aplicación inversa)
Sean E, F dos espacios vectoriales sobre K de dimensión n y sea T : E −→ F una aplicación
lineal. Se verifica:
∃! S : F −→ E aplicación lineal tal que
T es isomorfismo ⇐⇒
S ◦ T = IdE y T ◦ S = IdF .

S es un isomorfismo al que llamaremos isomorfismo inverso de T y escribiremos T −1 .


También es posible caracterizar a las aplicaciones lineales biyectivas por la no singularidad
de sus matrices asociadas.
Teorema 26. (Caracterización matricial de isomorfismo) Sean E, F dos espacios
vectoriales sobre K de dimensión n y sea T : E −→ F una aplicación lineal. Se verifica:

TAC es no singular, para cualquier


T es isomorfismo ⇐⇒
par de bases ordenadas A de E y C de F.

Nota 27. Sean E, F dos espacios vectoriales sobre K de dimensión n. Si la aplicación lineal
T : E −→ F es un isomorfismo, A es una base ordenada de E y C es una base ordenada de
F , entonces
(T −1 )CA = (TAC )−1 .
En particular, si A y C son bases ordenadas de E y consideramos el automorfismo IdE ,
entonces
(IdE )AC es no singular y (IdE )CA = ((IdE )AC )−1 .

Ejemplo 28.

Decide si la aplicación lineal H del Ejemplo 22 es o no un isomorfismo


   
a a
∗ H : R −→ P2 (R) dada por H
3  b  = (a + 5c) + (b + 2c)x , ∀
2  b  ∈ R3 .
c c

En el Ejemplo 23 calculamos la matriz asociada a H respecto de las bases ordenadas


A y B:

 
1 0 5
HAB =  0 0 0 .
0 1 2

Como HAB es una matriz singular, podemos concluir que H no es un isomorfismo.

113
3.4.3 Caracterización de Matrices que Representan a una misma Apli-
cación Lineal.

Nuestro próximo objetivo consiste en estudiar si las matrices asociadas a una misma
aplicación lineal están o no relacionadas.
Sean E un espacio vectorial sobre K de dimK E = n, F un espacio vectorial sobre K de
dimK F = m y T : E −→ F una aplicación lineal. Consideramos A y C bases ordenadas de
E y, B y D bases ordenadas de F .
Las aplicaciones lineales T y IdF ◦T ◦ IdE coinciden, pues tienen el mismo conjunto inicial
E, el mismo conjunto final F y el mismo criterio de asignación. Por tanto, las matrices
asociadas respecto de las bases ordenadas C de E y D de F son iguales, TCD = (IdF ◦T ◦
IdE )CD . Utilizando la Proposición 24, tenemos que TCD se puede conseguir a través del
siguiente producto de matrices:

TCD = (IdF )BD TAB (IdE )CA .

Véase Ejemplo 18.(2.3).


Según hemos visto en la Nota 27, las matrices cambio de base, (IdF )BD y (IdE )CA , son
matrices no singulares.
En definitiva si A y B ∈ Mm×n (K) representan a la aplicación lineal T : E −→ F respecto
de parejas de bases ordenadas A y C de E y B y D de F , esto es, A = TAB y B = TCD ,
entonces existen P ∈ Mm×m (K) y Q ∈ Mn×n (K) no singulares tales que B = P AQ.

Definición 29. Sean A y B ∈ Mm×n (K). Diremos que A es equivalente a B si existen


P ∈ Mm×m (K) y Q ∈ Mn×n (K) no singulares tal que P AQ = B.

Un caso particular de matrices equivalentes ocurre cuando m = n y Q = P −1 :


Definición 30. Sean A y B ∈ Mn×n (K). Diremos que A es similar a B si existe P ∈
Mn×n (K) no singular tal que P AP −1 = B.

La relación entre matrices que representan a la misma aplicación lineal viene dada en
términos de equivalencia de matrices.
Teorema 31. (Caracterización de matrices equivalentes) Consideremos E un espacio
vectorial sobre K de dimK E = n y F un espacio vectorial sobre K de dimK F = m. Si A y
B ∈ Mm×n (K), entonces se verifica:
A y B representan a la misma aplicación lineal T : E −→ F , respecto de parejas de bases
ordenadas de E y F (A = TAB , B = TCD ) si, y sólo si A es equivalente a B.

Teorema 32. (Caracterización de matrices similares) Consideremos E espacio vec-


torial sobre K de dimensión n. Si A y B ∈ Mn×n (K), entonces se verifica:
A y B representan al mismo endomorfismo T : E −→ E, respecto de bases ordenadas de E
(A = TCC , B = TDD ) si, y sólo si A es similar a B.

114
PROBLEMAS

(P.1) Estudia cuáles de las siguientes aplicaciones son lineales. En caso afirmativo, calcula el
núcleo e imagen de tales aplicaciones lineales y clasifícalas.

1. T1 : R3 −→ R3 , T1 (u) = u + u0 , ∀u ∈ R3 , con u0 un vector fijo no nulo de R3 .


     
x x2 x
2. T2 : R3 −→ R3 , T2  y  =  0 , ∀  y  ∈ R3 .
z y+z z
 
  3x + y  
x   x
3. T3 : R −→ R , T3
2 3
= −x + 2y , ∀ ∈ R2 .
y y
x−y

4. T4 : P3 (R) −→ P3 (R), T4 (p(x)) = xp0 (x), ∀p(x) ∈ P3 (R).

(P.2) Sea T : R4 −→ R3 definida por:


   
x   x
 y  y−x  y 
T z =
  z − y , ∀ 
 z
 ∈ R4 .

t−z
t t

1. Prueba que T es una aplicación lineal.

2. Calcula una base de los subespacios núcleo e imagen de T y clasifica la aplicación.

(P.3) Considera la aplicación T : R3 −→ P2 (R) definida del siguiente modo:


   
a a
T  b  2
= (a + 2b + 3c) + (a + 2b)x + cx , ∀  b  ∈ R3 .
c c

1. Prueba que T es una aplicación lineal.

2. Calcula una base y la dimensión de los subespacios núcleo e imagen de T . Clasifica la


aplicación.

(P.4) Sea T : R3 −→ R2 una aplicación lineal tal que


     
1   0   0  
−1 2 3
T 0 = , T 1 = , T 0 = .
0 1 3
0 0 1

Determina la aplicación lineal T y calcula una base y la dimensión de N(T ) y de Im(T ).

115
(P.5) Considera la aplicación lineal T : R3 −→ R4 que verifica

e1 + 2e2 − 3e3 ∈ N(T ), T (e2 ) = v1 + v2 + v4 , T (3e3 ) = 3v1 + v3 ,

siendo B = {e1 , e2 , e3 } una base de R3 y C = {v1 , v2 , v3 , v4 } una base de R4 . Calcula una base
y la dimensión de N(T ) y de Im(T ).
(P.6) Sea T : R3 −→ R2 la aplicación lineal definida por:
   
x   x
  x+y
T y = 
, ∀ y  ∈ R3 .
x+z
z z

1. Obtén TB1 B2 , siendo B1 y B2 , las bases canónicas de R3 y R2 respectivamente.


 
    1
1 1
2. Sea A = , una base de R2 . Calcula TB1 A y las coordenadas de T  2 
1 2
2
respecto de la base A a partir de la matriz anterior.

(P.7) Sean T : E −→ F , G : E −→ F y H : F −→ V tres aplicaciones lineales. Demuestra


que T + G y H ◦ T son aplicaciones lineales.
   
x   x
 y  x + y  
(P.8) Sean T : R4 −→ R2 la aplicación lineal definida por: T  = , ∀  y ∈
 z  z+t  z 
t   t
  x+y  
x   x
R y G : R −→ R la aplicación lineal definida por: G
4 2 3
= x + 2y , ∀ ∈ R2 .
y y
3y
Halla G ◦ T .
(P.9) Sea T : M2×2 (R) → M2×2 (R) una aplicación lineal definida T (A) = AT ∀A
 ∈
a b
M2×2 (R) y sea G : M2×2 (R) → M2×2 (R) una aplicación lineal definida G =
    c d
c−a b a b
∀ ∈ M2×2 (R). Halla T + G, T ◦ G y G ◦ T .
0 c−d c d
(P.10) Considera la aplicación lineal T : P3 (R) −→ M2×3 (R) definida por:
 
2 3 a+b a+b c+d
T (a + bx + cx + dx ) = , ∀a + bx + cx2 + dx3 ∈ P3 (R).
d 0 a+b+c

1. Calcula una base y la dimensión de los subespacios núcleo e imagen de T . Clasifica la


aplicación.

2. Calcula TAB , siendo A = {1 − x, x, x2 , x3 } y B la base canónica de M2×3 (R).

116
 
  a+d
a b c
3. Sea G : M2×3 (R) −→ R3 la aplicación lineal tal que G =  b + e .
d e f
c+f
Calcula (G ◦ T ) y la matriz asociada a la composición (G ◦ T ), (G ◦ T )CD , siendo C y D,
las bases canónicas de P3 (R) y R3 , respectivamente.

(P.11) Considera el endomorfismo T : M2×2 (R) −→ M2×2 (R) definido por:


     
a b a + d 2b + 2c a b
T = ,∀ ∈ M2×2 (R).
c d 3b − 3c 4a + 4d c d

1. Calcula una base y la dimensión de los subespacios núcleo e imagen de T . Clasifica el


endomorfismo.
       
1 0 1 1 1 1 1 1
2. Calcula TBB y TAA , siendo A = , , , base de
0 0 0 0 1 0 1 1
M2×2 (R) y B la base canónica de M2×2 (R).

3. Sea G : M2×2 (R) −→ M2×2 (R) la aplicación lineal tal que G(A) = −AT . Calcula GBB ,
siendo B la base canónica de M2×2 (R). ¿Es G un automorfismo?

4. Si T y G son los endomorfismos anteriores, justifica la veracidad o falsedad de la siguiente


afirmación: N (T + G) = N (T ) + N (G).

(P.12) Considera las aplicaciones lineales


 
  a + b  
a b  a + 2b + c  a b
T : M2×2 (R) −→ R dada por T
4
=   ,∀ ∈ M2×2 (R)
c d c−d  c d
d
   
x   x
 y  x + y  
G : R4 −→ R2 dada por G    y 
 z  = y + z , ∀ z  ∈ R .
4

t t

1. Calcula N (G ◦ T ). ¿ N (T ) = N (G ◦ T )? Clasifica las aplicaciones lineales T y G ◦ T .

2. Calcula TAB y (G AC , 
◦ T ) siendoAy C las
 bases
 canónicas
 de M2×2 (R) y R2 , respectiva-

 1 1 1 1 

       
1   1   1   0
mente, y B =   1 , 1 , 0 , 0
 base de R4 . Obtén las coordenadas


 
 
  1 0 0 0
1 1
de T respecto de la base B.
2 2

117
   
a b 2a − 2d b
(P.13) Sea T el endomorfismo sobre M2×2 (R) dado por T = ,
  c d 0 2a − 2d
a b
∀ ∈ M2×2 (R).
c d

1. Calcula una base y la dimensión de los subespacios núcleo e imagen de T . Clasifica la


aplicación.

2. Calcula T ◦ T . ¿Qué relación hay entre Im(T ) e Im(T ◦ T )?


       
1 0 0 1 0 0 0 1
3. Calcula TAA , siendo A = , , , una base de
0 0 1 0 0 1 −1 0
M2×2 (R).

(P.14) Si G : M2×2 (R) −→ R4 es una aplicación lineal, H = {E1 , E2 , E3 , E4 } es una base de


M2×2 (R), D = {x1 , x2 , x3 , x4 } es una base de R4 y G está definida por:
G(E1 ) = x2 + x3 G(E1 + E2 ) = x1 + x2 + 2x3

G(E1 + E2 + E3 + E4 ) = ax1 + 2x2 + 3x3 G(E4 ) = x4 .


halla GHD y determina para qué valor de a G es un isomorfismo.
(P.15) Sean E y F dos espacios vectoriales sobre R y sean T y S dos endomorfismos de E y F
respectivamente, representados por las matrices
 
a 1 1 1  
 1 a 1 1  λ−1 2 0
TAC =  
 1 1 a 1  SDH =
 −1 λ + 1 0 
0 0 1
1 1 1 a

(donde A y C son dos bases ordenadas de E y D y H son dos bases ordenadas de F ). Halla los
valores de a y de λ para los que T y S son isomorfismos.
(P.16) Considera la aplicación lineal T : P2 (R) −→ M2×2 (R) definida del siguiente modo:
 
p(1) p0 (1)
T (p(x)) = , ∀p(x) ∈ P2 (R).
0 p00 (0)

1. Calcula el núcleo de T . ¿T es un monomorfismo? Justifica tu respuesta.

2. Calcula una base de Im(T ). ¿T es un epimorfismo? Justifica tu respuesta.

3. 
Calcula la matriz
 cambio
 de baseIdCA , siendo
 C la base canónica de M2×2 (R) y A =
1 0 0 1 1 0 0 0
, , , otra base de M2×2 (R). Calcula también
1 0 1 0 0 1  0 1
1 2
las coordenadas de la matriz respecto de la base A.
2 1

4. Calcula TDA , siendo D la base canónica de P2 (R) y A la base del apartado anterior.

118
(P.17) Sea T : P2 (R) −→ P2 (R) definida por:

T (a + bx + cx2 ) = (a + b + c) + (a + b)x + ax2 , ∀a + bx + cx2 ∈ P2 (R).

1. Prueba que es una aplicación lineal.

2. Describe los subespacios núcleo e imagen de T y clasifica la aplicación.

3. ¿Existe un endomorfismo S tal que S ◦ T = T ◦ S = Id? Justifica tu respuesta. En caso


afirmativo, calcula la matriz asociada a S respecto de la base canónica.
Z x
4. Sea H : P2 (R) −→ P3 (R) la aplicación lineal definida por H(p) = p(s)ds. Calcula la
1
imagen del polinomio p(x) = 3 + x − 5x2 mediante la aplicación H ◦ T .

(P.18) Considera la aplicación lineal T : R4 → R4 definida por


     
a a+b a
 b   2a + c  b
T     
 c  = 4a + d, ∀  c  ∈ R .
4

d a+b d

(1) Calcula una base y la dimensión de los subespacios imagen y núcleo de T y clasifica la
aplicación lineal.

(2) Calcula una aplicación lineal G : R4 → R4 tal que T + G sea biyectiva.

(P.19) Considera la aplicación lineal T : R3 → P2 (R) definida por


   
a0 a0
 
T a1 = (−a2 + a1 ) + (a2 − a0 )x + (−a1 + a0 )x , ∀ a1  ∈ R3 .
2 
a2 a2
 R y
3
Calcula la matriz asociada a la aplicación lineal T respecto de las bases canónicas
  de P2 
(R).

 1 0 2 
¿Es dicha matriz antisimétrica?¿Y no singular? Calcula TAB , siendo A = 1 , 1 , 0
 
0 1 1
base de R3 y B la base canónica de P2 (R).
(P.20) Considera la aplicación lineal T : R3 → R3 definida por
     
x 2y + z x

T y =   2x + z  , ∀ y  ∈ R3 .

z x+y+z z

1. Calcula TBB , siendo B la base canónica de R3 .

2. Calcula una base del núcleo y de la imagen de T . Clasifica la aplicación lineal.

119
CUESTIONES

(C1) Una de las siguientes aplicaciones es lineal:


   
x   x
x−y+5
(a) T : R3 −→ R2 definida por T  y  = , ∀  y  ∈ R3 .
−x + y + 3z
z z

(b) H : Mn×n (C) −→ Mn×n (C) definida por H(A) = A , ∀A ∈ Mn×n (C).
(c) G : Mn×n (R) −→ Mn×n (R) definida por G(A) = −AT , ∀A ∈ Mn×n (R).

(C2) Una de las siguientes aplicaciones es lineal:


     
x x+y x
(a) T : R −→ R definida por T
2 2
= 2 ,∀ ∈ R2 .
y x y
     
x x−3 x
(b) T : R −→ R definida por T
2 2
= ,∀ ∈ R2 .
y y−5 y
     
x 2x − 3y x
(c) T : R −→ R definida por T
2 2
= ,∀ ∈ R2 .
y −5x + 2y y

(C3) Sólo una de las siguientes aplicaciones T : R2 −→ R es una aplicación lineal:


   
x x
(a) T 2
=x −y , ∀ 2
∈ R2 .
y y
   
x x
(b) T = 3x − 7y , ∀ ∈ R2 .
y y
   
x x
(c) T = x − y − 2, ∀ ∈ R2 .
y y

(C4) Sea T : R4 −→ M2×2 (R) la aplicación lineal definida por


   
a   a
 b  a − b a − c  b 
T 
 c  = 2a − 2b , ∀ c
 ∈ R4 .

0
d d

Uno de los siguientes vectores no pertenece a N(T ) :


     
1 1 1
 1   1   1 
(a) 
 1 
 (b) 
 1 
 (c) 
 0 .

1 0 0

(C5) Sea T : R4 −→ M2×2 (R) la aplicación lineal definida por:


   
a   a
 b  a−b a−c  
T = , ∀  b  ∈ R4 .
 c  2a − 2b 0  c 
d d

120
Uno de los siguientes vectores pertenece a Im(T ) :
     
1 1 −1 −1 0 0
(a) (b) (c) .
3 0 −2 0 0 1

(C6) Sean T : E −→ E un endomorfismo y B = {e1 , e2 , e3 } una base de E. Si T (e1 ) = e1 ,


T (e2 ) = e3 y T (e3 ) = −e3 , entonces una de las siguientes afirmaciones es cierta:
(a) T (e1 + e2 + e3 ) = 2e1 (b) e2 + e3 ∈ N(T ) (c) e2 ∈ Im(T ).

(C7) Sea T : M2×2 (R) −→ R5 una aplicación lineal. Una de las siguientes afirmaciones es
verdadera:
(a) T no es suprayectiva.
(b) dimR Im(T ) = 3, entonces T es inyectiva.
(c) dimR N(T ) = 2, entonces dimR Im(T ) = 3 .
 
0 1 1
(C8) Sean T : R3 −→ R3 un endomorfismo y B la base canónica de R3 . Si TBB =  0 1 1 ,
0 0 0
entonces una de las siguientes afirmaciones es verdadera:
(a) dimR N(T ) = 1 y dimR Im(T ) = 2.
(b) dimR N(T ) = 2 y dimR Im(T ) = 1.
(c) dimR N(T ) = 0 y dimR Im(T ) = 3.

(C9) Sea T : E −→ V una aplicación lineal. Si dimR E = n y dimR V = m, entonces:


(a) dimR Im(T ) ≤ min(n, m).
(b) Si m > n, entonces T es biyectiva.
(c) Si m = n, entonces T es inyectiva.

(C10) Sea T : C2 −→ C3 una aplicación lineal. Una de las siguientes afirmaciones es verdadera:
(a) Si A es una base de C2 y B es una base de C3 , entonces la matriz asociada TAB es una
matriz de tamaño 2 × 3.
(b) Si v1 , v2 ∈ C2 y α1 , α2 ∈ C, entonces T (α1 v1 + α2 v2 ) = α1 T (v1 ) + α2 T (v2 ).
(c) 2 = dimC N(T ) + dimC Im(T ).

(C11) Sean T : E −→ E un endomorfismo y A = {e1 , e2 , e3 } y B = {v1 , v2 , v3 } bases de E.


Si T (e1 ) = 2v2 + 5v3 , T (e2 ) = v2 y T (e3 ) = 2v3 , entonces una de las siguientes afirmaciones
es FALSA: 
0 0 0
(a) TAB =  2 1 0  , (b) T es inyectiva, (c) Im(T ) = L({v2 , v3 }).
5 0 2

(C12) Sean T y S dos endomorfismos sobre un espacio vectorial E sobre K. Si A, B y C son


bases E, entonces una de las siguientes afirmaciones es verdadera:
(a) (S + T )AC = SBC + TAB y (S ◦ T )AC = SBC TAB .

121
(b) (S + T )AC = SAC + TAC y (S ◦ T )AC = SBC TAB .
(c) (S + T )AC = SAC + TAC y (S ◦ T )AC = TBC SAB .

(C13) Sea T : R2 −→ R3 la aplicación lineal definida por


 
  x + 2y  
x x
T =  2x − 3y  , ∀ ∈ R2 .
y y
−x − 2y

La matriz asociada a T respecto de las bases canónicas de R2 y R3 es:


   
  −1 −2 1 2
1 2 −1
(a) TBB = (b) TBB =  −2 3  (c) TBB =  2 −3  .
2 −3 −2
1 2 −1 −2

(C14) Sea T : P2 (R) −→ M2×2 (R) una aplicación lineal definida por:
 
2 a + b + c 2b
T (a + bx + cx ) = , ∀a + bx + cx2 ∈ P2 (R),
−a + b − c 0

entonces la matriz asociada a T respecto de C1 base canónica de P2 (R) y C2 base canónica de


M2×2 (R) es:
   
  1 1 1 1 1 1
1 1 1  0 2 0   −1 1 −1 
(a) TC1 C2 =  0 2 0  (b) TC1 C2 =
 −1
. (c) TC1 C2 = .
1 −1   0 2 0 
−1 1 −1
0 0 0 0 0 0

(C15) Sea T : R3 −→ R3 un endomorfismo y sean A = {v1 , v2 , v3 } y B = {e1 , e2 , e3 } bases or-


denadas de R3 . Si T (v1 ) = 2e1 +5e2 −e3 , T (v2 ) = e1 −e2 −e3 y T (v3 ) = e1 −2e2 +e3 , entonces
     
2 1 1 2 5 −1 2 1 1
(a) TBA =  5 −1 −2  (b) TAB =  1 −1 −1  (c) TAB =  5 −1 −2 .
−1 −1 1 −1 −2 1 −1 −1 1

(C16) Sean A = {x1 , x2 } una base ordenada de un espacio vectorial E  sobre K y T un


a11 a12
endomorfismo de E tal que la matriz asociada a T respecto de A es TAA = . Si
a21 a22
B = {8x1 , 2x2 }, entonces una de las siguientes afirmaciones es verdadera:
     
8a11 a12 8a11 2a12 8a11 8a12
(a) TBA = (b) TBA = (c) TBA = .
a21 2a22 8a21 2a22 2a21 2a22
 
1 2 0
(C17) Si T y G son dos endomorfismos sobre R3 tales que TBB =  0 1 2  y GBB =
  0 0 1
1 0 0
 0 1 0 , siendo B la base canónica de R3 , entonces una de las siguientes afirmaciones es
0 0 0

122
verdadera:
(a) G ◦ T es biyectiva. (b) T + G es biyectiva. (c) T y G son biyectivas.

(C18) Si T y G son dos endomorfismos biyectivos sobre un espacio vectorial E sobre K de


dimensión n, entonces una de las siguientes afirmaciones es FALSA:
(a) dimK N(T ) = dimK N(G) y dimK Im(T ) = dimK Im(G).
(b) dimK N(T ) = 0 y dimK Im(T ) = n.
(c) dimK N(T ) = n y dimK Im(T ) = 0.
   
1 2 2i 0
(C19) Sean T y G dos endomorfismos de C tales que TBB =
2
y GBB = ,
0 3 0 −i
siendo B la base canónica de C2 . Una de las siguientes afirmaciones es verdadera:
 
∗ 2 + 3i 0
(a) (2 + 3i)TBB = .
4 + 6i 6 + 9i
 
1 − 2i 0
(b) (T + G)BB )∗ = .
2 3+i
 
∗ 2i −2i
(c) (T ◦ G)BB = .
0 −3i
 
2 5 −1
(C20) Sea T : R3 −→ R3 un endomorfismo tal que TBB =  0 3 4 , siendo B la base
0 0 −1
canónica de R3 , entonces es FALSO que:
(a) si C = {v1 , v2 , v3 } es una base de R3 , entonces T (C) = {T (v1 ), T (v2 ), T (v3 )} es una base
de R3 .
(b) existen A y C bases de R3 tales que TAC es singular.
(c) existe un endomorfismo S : R3 −→ R3 tal que T ◦ S = S ◦ T = Id.

123
Tema 4: Espacios Euclídeos

4.1. Generalidades sobre espacios euclídeos.

4.1.1 Producto escalar. Espacio euclídeo.


4.1.2 Norma de un vector. Ángulo entre dos vectores (K = R).

4.2. Ortogonalidad.

4.2.1 Vectores ortogonales. Conjuntos ortogonales y ortonormales.


4.2.2 Proyecciones ortogonales. Distancias.
4.2.3 Construcción de bases ortonormales. Método de ortogonalización de Gram-Schmidt.
4.2.4 Ortogonal de un subespacio. Descomposiciones ortogonales.

4.3. Aplicaciones.

4.3.1 Factorización QR de una matriz.


4.3.2 Problema lineal de los mínimos cuadrados.

125
4.1. GENERALIDADES SOBRE ESPACIOS EUCLÍDEOS.

4.1.1 Producto Escalar. Espacio Euclídeo.


En el proceso de abstracción llevado a cabo en la obtención de la definición de espacio
vectorial se han perdido destacadas nociones geométricas de los vectores libres del plano o del
espacio como, por ejemplo, la longitud, la distancia y la perpendicularidad. En este tema
dotaremos a la estructura algebraica de espacio vectorial con un nuevo elemento llamado
producto escalar, gracias al cual será posible trasladar las nociones antes referenciadas al
terreno de lo abstracto. La ortogonalidad resulta ser una herramienta de gran utilidad y con
un gran número de aplicaciones, entre las que destacamos el Problema Lineal de los Mínimos
Cuadrados. En la asignatura Matemáticas I utilizábamos el producto escalar para calcular
la derivada direccional de un campo escalar diferenciable en un punto interior y, presentar
la regla de la cadena de forma más sencilla.

Definición 1. Sea E un espacio vectorial sobre K. Llamaremos producto escalar o producto


interior a toda aplicación (·|·) : E × E −→ K que verifica las condiciones:

(1) (x + y|z) = (x|z) + (y|z), ∀x, y, z ∈ E.

(2) (λx|y) = λ(x|y), ∀x, y ∈ E, ∀λ ∈ K.

(3) (x|y) = (y|x), ∀x, y ∈ E.

(4) (x|x) ≥ 0, ∀x ∈ E.

(5) (x|x) = 0 ⇐⇒ x = 0.

Si E es un espacio vectorial sobre K y tenemos definido un producto escalar sobre E, entonces


diremos que E es un espacio euclídeo sobre K.

Observación 2.

• Si K = R, entonces la condición (3) se enuncia: (x|y) = (y|x), ∀x, y ∈ E.

• Si K = C, la condición (3) no puede ser sustituida por la expresión (x|y) = (y|x), ∀x, y ∈
E, pues en tal caso las condiciones serían incompatibles. En efecto, por las condiciones
(4) y (5) si 0 6= x ∈ E, entonces (x|x) > 0. Si cambiamos la condición (3) por la
expresión anterior y tomamos el vector y = ix con 0 6= x ∈ E, entonces tendríamos
(y|y) = i(x|ix) = i(ix|x) = i2 (x|x) = −(x|x) < 0, lo que nos conduce a contradicción.

De las condiciones de la definición de producto escalar se puede deducir que en un espacio


euclídeo se cumplen las siguientes propiedades:
Proposición 3. Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido
sobre E. Se verifican las siguientes propiedades:

• (x|y + z) = (x|y) + (x|z), ∀x, y, z ∈ E.

• (x|λy) = λ(x|y), ∀x, y ∈ E, ∀λ ∈ K.

126
• (x|0) = (0|x) = 0, ∀x ∈ E.

• (x|x) ∈ R, ∀x ∈ E.

Como consecuencia inmediata de la definición de producto escalar obtenemos que los


subespacios vectoriales de un espacio euclídeo, también son espacios euclídeos.
Corolario 4. Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre
E. Si F es un subespacio de E, entonces la aplicación

(·|·) : F × F −→ K
(u, v) −→ (u|v)

es un producto escalar en F . En consecuencia, todo subespacio de un espacio euclídeo es un


espacio euclídeo con dicho producto escalar.

Ejemplos 5.

(a) Sea E un espacio vectorial sobre K de dimensión n. Consideramos A = {v1 , . . . , vn }


una base ordenada de E. En tal caso si u, v ∈ E, entonces u = α1 v1 + . . . + αn vn y
v = β1 v1 + . . . + βn vn . Veamos que el criterio de asignación:

(u|v) = α1 β1 + . . . + αn βn

define un producto escalar en E y, con él, E se convierte en un espacio euclídeo.

(1) Sean u, v, w ∈ E. Las coordenadas de estos vectores respecto de la base A son:


[u]A = (α1 . . . αn )T , [v]A = (β1 . . . βn )T y [w]A = (δ1 . . . δn )T . Calculemos el producto
escalar (u + v|w)

(u + v|w) = (α1 + β1 )δ1 + . . . + (αn + βn )δn = (α1 δ1 + . . . + αn δn ) + (β1 δ1 + . . . + βn δn ) =


= (u|w) + (v|w).
Por tanto, (u + v|w) = (u|w) + (v|w), ∀u, v, w ∈ E.

(2) Sean u, v ∈ E y λ ∈ K. Las coordenadas de estos vectores respecto de la base A


son: [u]A = (α1 . . . αn )T y [v]A = (β1 . . . βn )T . Calculemos (λu|v)

(λu|v) = (λα1 )β1 + . . . + (λαn )βn = λ(α1 β1 ) + . . . + λ(αn βn ) = λ(α1 β1 + . . . + αn βn ) =


= λ(u|v).
En consecuencia, (λu|v) = λ(u|v), ∀u, v ∈ E y ∀λ ∈ K.

(3) Sean u, v ∈ E. Las coordenadas de estos vectores respecto de la base A son:


[u]A = (α1 . . . αn )T y [v]A = (β1 . . . βn )T . Utilizando propiedades del conjugado de un
número complejo obtenemos

(v|u) = β1 α1 + . . . + βn αn = β1 α1 + . . . + βn αn = α1 β1 + . . . + αn βn = (u|v).

127
En consecuencia, (u|v) = (v|u), ∀u, v ∈ E.

(4) Sea u ∈ E. Las coordenadas de u respecto de la base A son [u]A = (α1 . . . αn )T .

(u|u) = α1 α1 + . . . + αn αn = |α1 |2 + . . . + |αn |2 ≥ 0.


Por tanto, (u|u) ≥ 0, ∀u ∈ E.

(5) Sea u ∈ E. Las coordenadas de este vector respecto de la base A son [u]A =
(α1 . . . αn )T .

(u|u) = α1 α1 + . . . + αn αn = |α1 |2 + . . . + |αn |2 = 0 ⇔ |αi | = 0, ∀i ∈ {1, . . . , n} ⇔


⇔ αi = 0, ∀i ∈ {1, . . . , n} ⇔ u = 0.
En consecuencia, podemos concluir que el criterio de asignación

(u|v) = α1 β1 + . . . + αn βn , ∀u, v ∈ E

define un producto escalar en E y, por tanto, E es un espacio euclídeo.

A continuación presentamos como casos particulares los siguientes productos escalares:


     

 1 0 0  

 0   1   0 
     
Consideramos Rn y la base canónica de Rn , B =  ..  ,  ..  , . . . ,  ..  .

  .   .   . 

 0 
0 1 
   
x1 y1
 x2   y2 
   
Si x =  ..  e y =  ..  son vectores de Rn , entonces la asignación
 .   . 
xn yn

(x|y) = x1 y1 + x2 y2 + . . . + xn yn

es un producto escalar, al que llamaremos producto escalar estándar de Rn .


     

 1 0 0  

 0   1   0 
     
Consideramos Cn y la base canónica de Cn , B =  ..  ,  ..  , . . . ,  ..  .

  .   .   . 

 0 
0 1 
   
x1 y1
 x2   y2 
   
Si x =  ..  e y =  ..  son vectores de Cn , entonces la asignación
 .   . 
xn yn

(x|y) = x1 y1 + x2 y2 + . . . + xn yn

es un producto escalar, al que llamaremos producto escalar estándar de Cn .

128
Consideramos Pn (R) y la base canónica de Pn (R), B = {1, x, . . . , xn }. Si p(x) =
a0 + a1 x + . . . + an xn , q(x) = b0 + b1 x + . . . + bn xn ∈ Pn (R), entonces la asignación

(p(x)|q(x)) = a0 b0 + a1 b1 + . . . + an bn

es un producto escalar, al que llamaremos producto escalar estándar de Pn (R).


Consideramos Pn (C) y la base canónica de Pn (C), B = {1, x, . . . , xn }. Si p(x) =
a0 + a1 x + . . . + an xn , q(x) = b0 + b1 x + . . . + bn xn ∈ Pn (C), entonces la asignación

(p(x)|q(x)) = a0 b0 + a1 b1 + . . . + an bn

es un producto escalar, al que llamaremos producto escalar estándar de Pn (C).


Consideramos Mn×n (R) y la base canónica de Mn×n (R), B = {Iij : i, j ∈
{1, . . . , n}} donde Iij denota a la matriz de tamaño n × n cuyas entradas son
nulas salvo la entrada (i, j) que es 1. Si A = (aij ), B = (bij ) ∈ Mn×n (R), en-
tonces la asignación

(A|B) = a11 b11 + a12 b12 + . . . + a1n b1n + a21 b21 + a2n b2n + . . . + an1 bn1 + . . . + ann bnn

es un producto escalar, al que llamaremos producto escalar estándar de Mn×n (R).


Se puede probar que el número (A|B) coincide con la traza de la matriz B T A, así
(A|B) = tr(B T A), ∀A, B ∈ Mn×n (R).
Consideramos Mn×n (C) y la base canónica de Mn×n (C), B = {Iij : i, j ∈
{1, . . . , n}} donde Iij denota a la matriz de tamaño n × n cuyas entradas son
nulas salvo la entrada (i, j) que es 1. Si A = (aij ), B = (bij ) ∈ Mn×n (C), en-
tonces la asignación

(A|B) = a11 b11 + a12 b12 + . . . + a1n b1n + a21 b21 + a2n b2n + . . . + an1 bn1 + . . . + ann bnn

es un producto escalar, al que llamaremos producto escalar estándar de Mn×n (C).


Se puede probar que el número (A|B) coincide con la traza de la matriz B ∗ A, así
(A|B) = tr(B ∗ A), ∀A, B ∈ Mn×n (C).

(b) Sea V el espacio vectorial de los vectores libres del plano. Si ~u, ~v ∈ V , entonces la
asignación (~u|~v ) = |~u||~v | cos(~u, ~v ) (producto de sus módulos por el coseno del ángulo
que forman) verifica las 5 condiciones del producto escalar.

Consecuencias 6. El Ejemplo 5 (a) nos permite extraer dos importantes consecuencias.


En primer lugar, podemos afirmar que en todo espacio vectorial E de dimensión finita es
posible definir un producto escalar y, por tanto, el espacio vectorial E puede convertirse en
un espacio euclídeo. En segundo lugar, como en un espacio vectorial E de dimensión finita
hay más de una base, entonces es posible definir más de un producto escalar sobre E.
Cuando trabajamos en espacios euclídeos es necesario indicar con qué producto escalar
estamos trabajando.

129
A continuación obtendremos la expresión matricial de un producto escalar definido en
un espacio vectorial de dimensión finita, gracias a las propiedades y a las condiciones del
producto escalar.

Definición 7. Sean E un espacio vectorial sobre K de dimensión n, (·|·) un producto escalar


definido en E y A = {v1 , . . . , vn } una base ordenada de E. Tomamos los vectores x e y de E
y los expresamos como combinación lineal de los elementos de la base A: x = α1 v1 +. . .+αn vn
e y = β1 v1 + . . . + βn vn . Así pues tenemos:
n
X
(x|y) = (α1 v1 + . . . + αn vn |β1 v1 + . . . + βn vn ) = (vi |vj )αi βj =
i,j=1
  
(v1 |v1 ) (v1 |v2 ) . . . (v1 |vn ) β1

 (v2 |v1 ) (v2 |v2 ) . . . (v2 |vn ) 
 β2 

= α1 α2 . . . αn  .. .. .. ..  .. .
 . . . .  . 
(vn |v1 ) (vn |v2 ) . . . (vn |vn )
βn
   
α1 β1
 α2   β2 
   
Si X = [x]A =  .. , Y = [y]A =  ..  y G = (aij ) ∈ Mn×n (K) con aij = (vi |vj ),
 .   . 
αn βn
∀i, j ∈ {1, . . . , n}, entonces
(x|y) = X T GY .
Esta fórmula es conocida como expresión matricial del producto escalar (·|·) respecto de la
base A. La matriz G es conocida como matriz del producto escalar (·|·) respecto de la base
A. Debido a las condiciones del producto escalar, G es una matriz hermítica.
Una consecuencia importante que podemos deducir es: basta conocer la matriz del pro-
ducto escalar (·|·) respecto de una base, para calcular el producto escalar de dos vectores
cualesquiera del espacio euclídeo. Además, conviene destacar que el producto escalar aparece
como un producto matricial. Así, por ejemplo, si consideramos Rn dotado del producto es-

x1
 x2 
 
calar estándar y C es la base canónica de R , entonces G = In×n . Por tanto, si x =  .. 
n
 . 
xn
 
y1
 y2 
 
e y =  ..  ∈ Rn , entonces tenemos que
 . 
yn
 
y1
  y2 
 
(x|y) = x1 y1 + x2 y2 + . . . + xn yn = x1 x2 . . . xn In×n  ..  = xT y.
 . 
yn

130
De este modo el producto escalar de dos vectores x e y ∈ Rn , se indentifica con el
producto matricial de una matriz fila xT por una matriz columna y.

Ejemplos 8.
      
 1 1 1 
(1) Consideremos A = v1 =  
1 , v2 =  
1 , v3 =  0  una base de R3 y el
 
1 0 0
producto escalar estándar de R3 . Calcula la matriz del producto escalar respecto de la
base A.

Como estamos trabajando en un espacio vectorial real, la matriz del producto escalar
es simétrica. Por tanto, sólo necesitamos calcular:

(v1 |v1 ) = 3, (v1 |v2 ) = 2, (v1 |v3 ) = 1, (v2 |v2 ) = 2, (v2 |v3 ) = 1 y (v3 |v3 ) = 1.

En consecuencia, la matriz del producto escalar respecto de la base A es:


 
3 2 1
G =  2 2 1 .
1 1 1

      
 1 0 0 
(2) Consideremos la base canónica de R3 : B =  0  ,  1  ,  0  . Si la matriz
 
0 0 1
2 1 −1
del producto escalar respecto de la base B es  1 1 0 , obtén el producto
−1 0 2
escalar correspondiente.
   
x1 y1
Sean x =  x2 , y =  y2  ∈ R3 . Utilizando la expresión matricial del producto
x3 y3
escalar respecto de B
  
 2 1 −1 y 1
(x|y) = x1 x2 x3  1 1 0   y2  = 2x1 y1 + x1 y2 − x1 y3 + x2 y1 + x2 y2 −
−1 0 2 y3
x3 y1 + 2x3 y3

Así obtenemos

(x|y) = 2x1 y1 + x1 y2 − x1 y3 + x2 y1 + x2 y2 − x3 y1 + 2x3 y3 , ∀x, y ∈ R3 .

131
4.1.2 Norma de un Vector. Ángulo entre dos Vectores (K = R).

Sea V el conjunto de los vectores libres del plano. Consideremos el vector libre del plano
~x. Elegimos el origen O = (0, 0)T y el representante de clase OX~ del vector libre ~x, donde
X = (x1 , x2 ) .
T

x2
−→X
O
O x1

Aplicando el Teorema q de Pitágoras, se obtiene que el módulo o longitud del vector ~x


viene dada por: |~x| = x21 + x22 , esta magnitud mide la distancia del origen O al punto X.
Si trabajamos con el producto escalar definido en V (ver Ejemplo 5 (b)), entonces
p
(~x|~x) = |~x||~x|cos(~x, ~x) = |~x|2 =⇒ |~x| = (~x|~x).

Apoyándonos en esta última relación y gracias a la condición (4) de la definición de producto


escalar, es posible definir la norma de un vector cualquiera de un espacio euclídeo del siguiente
modo:

Definición 9. Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido


sobre E. Si x ∈ E, se llama norma de x ( o módulo de x) al número real no negativo
p
k x k= (x|x).

Definición 10. Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido
sobre E. Diremos que el vector x ∈ E es unitario si k x k= 1.

Ejemplo 11.

Considera el espacio vectorial P2 (R) dotado con los siguientes productos escalares:

(1) Si p(x) = a0 + a1 x + a2 x2 y q(x) = b0 + b1 x + b2 x2 ∈ P2 (R), entonces

(p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 .

(2) Si p(x) = a0 + a1 x + a2 x2 y q(x) = b0 + b1 x + b2 x2 ∈ P2 (R), entonces


Z 1
(p(x)|q(x))2 = p(x)q(x)dx.
0

132
Si p(x) = 1 + 4x + x2 , calcula k p(x) k respecto de ambos productos escalares.

Con respecto al primer producto escalar, obtenemos


√ √
(p(x)|p(x))1 = 1 + 16 + 1 = 18 =⇒ k p(x) k= 18 = 3 2.

Con respecto al segundo producto escalar, obtenemos


Z 1 Z 1
r
2 2 2 3 4 66 66
(p(x)|p(x))2 = (1+4x+x ) dx = (1+8x+18x +8x +x )dx = =⇒ k p(x) k= .
0 0 5 5

Consecuencia 12. La norma de un vector depende del producto escalar empleado como se
pone de manifiesto en el ejemplo anterior. Por tanto, es necesario indicar con que producto
escalar estamos trabajando.

Consideremos de nuevo V el espacio vectorial de los vectores libres del plano y el producto
escalar presentado en Ejemplo 5 (b). A continuación recordaremos algunas igualdades y
desigualdades fundamentales de este espacio euclídeo:

1. |~v | ≥ 0 ∀~v ∈ V .

2. |~v | = 0 ⇐⇒ ~v = 0.

3. |αv|
~ = |α| |~v | ∀~v ∈ V, ∀α ∈ R.

4. La ley del paralelogramo: |~u + ~v |2 + |~u − ~v |2 = 2 |~u|2 + |~v |2 ∀~u, ~v ∈ V .

−−→V
V O
−→U +
− O
OU→
−→

− −−→
O−V

OV
U
−→
OU
O

Observamos que la suma de los cuadrados de las longitudes de las diagonales de un


paralelogramo es igual al doble de la suma de los cuadrados de las longitudes de sus
lados.

133
5. Desigualdad de Cauchy-Schwarz: |(~u|~v )| ≤ |~u||~v | ∀~u, ~v ∈ V .
Por todos es conocido que la función coseno es acotada: −1 ≤ cos(x) ≤ 1 ∀x ∈ R.
De aquí podemos deducir que el valor absoluto del producto escalar de dos vectores es
menor o igual que el producto de los módulos, esto es,

|(~u|~v )| = | |~u||~v | cos(~u, ~v ) | ≤ |~u||~v |.

6. Desigualdad triangular: |~u + ~v | ≤ |~u| + |~v | ∀~u, ~v ∈ V .

V
U−−→

+ −−→
V

UV
OU→

−→ U
OU

Si utilizamos el teorema de la desigualdad triangular, el cual afirma que la longitud


de uno de los lados del triángulo no puede superar a la suma de las longitudes de los
otros dos lados, se deduce la desigualdad que lleva el nombre del citado teorema.

Utilizando las propiedades y las condiciones del producto escalar es posible obtener gene-
ralizaciones de las propiedades estudiadas anteriormente en un espacio euclídeo cualquiera:
Proposición 13. (Propiedades del módulo de un vector)
Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Se verifica:
1. k x k ≥ 0 ∀x ∈ E.
2. k x k = 0 ⇐⇒ x = 0.
3. k αx k = | α | · k x k ∀x ∈ E, ∀α ∈ K.
4. k x + y k2 + k x − y k2 = 2 k x k2 + 2 k y k2 ∀x, y ∈ E (ley del paralelogramo).
5. | (x|y) | ≤k x k k y k ∀x, y ∈ E (desigualdad de Cauchy-Schwarz ).
6. k x + y k ≤ k x k + k y k ∀x, y ∈ E (desigualdad triangular ).

En este contexto podemos plantearnos ¿cómo se pueden conseguir vectores unitarios?


¿bajo qué condiciones se puede garantizar que las desigualdades las anteriores se conviertan
en igualdades? El siguiente resultado presenta la respuesta a tales preguntas:
Corolario 14. Si E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre
E, entonces se verifican las siguientes afirmaciones:

134
1
1. Si 0 6= x ∈ E, entonces x es un vector unitario.
kxk
2. Si x, y ∈ E, entonces | (x|y) | =k x k k y k⇐⇒ {x, y} es LD .

3. Si x, y ∈ E, entonces k x + y k =k x k + k y k ⇐⇒ y = 0 ó x = λy con y 6= 0 y
λ ∈ [0, ∞).
Ejemplo 15.

Con los productos escalares del Ejemplo 11:

(1) (p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 ;
Z 1
(2) (p(x)|q(x))2 = p(x)q(x)dx;
0

con p(x) = a0 + a1 x + a2 x2 y q(x) = b0 + b1 x + b2 x2 ∈ P2 (R).


Comprobemos si q(x) = x es o no un vector unitario.
Con respecto al producto escalar (·|·)1 tenemos: (q(x)|q(x))1 = (x|x)1 = 1, luego
k q(x) k= 1. Por tanto, afirmamos que q(x) = x es un vector unitario con respecto al
primer producto escalar.
Z 1
Utilizando el producto escalar (·|·)2 tenemos: (q(x)|q(x))2 = (x|x)2 = x2 dx =
 1 0
1 3 1 1
x = . En consecuencia, k q(x) k= √ . Así el vector q(x) = x no es unitario
3 0 3 3
1 √
con respecto al segundo producto escalar, pero h(x) = q(x) = 3x es un
k q(x) k
vector unitario con respecto al segundo producto escalar.

Consideremos V el espacio vectorial de los vectores libres del plano y el producto escalar
presentado en Ejemplo 5 (b). Si ~u y ~v son dos vectores no nulos de V , entonces se tiene:
(~u|~v ) = |~u||~v | cos(~u, ~v ) y de aquí

(~u|~v ) (~u|~v )
cos(~u, ~v ) = =⇒ −1 ≤ cos(~u, ~v ) = ≤ 1.
|~u||~v | |~u||~v |
Esta expresión nos permite relacionar el ángulo que forman los vectores ~u y ~v con el producto
escalar de dichos vectores.
¿De qué modo podemos definir el ángulo entre dos vectores de un espacio euclídeo
cualquiera? Si trabajamos con un espacio vectorial real E, (·|·) es un producto escalar en E y
x e y son dos vectores no nulos de E, entonces utilizando la desigualdad de Cauchy-Schwarz
(x|y)
obtenemos que −1 ≤ ≤ 1. Por otra parte, la función coseno es biyectiva en el
k x kk y k
(x|y)
intervalo [0, π], por tanto, es posible hallar un único θ ∈ [0, π] tal que cos(θ) = .
k x kk y k

135
Teniendo como referente el espacio vectorial V y los argumentos desarrollados en E parece
natural presentar la siguiente definición.

Definición 16. Sea E un espacio vectorial real y (·|·) un producto escalar definido sobre
E. Si x, y ∈ E son vectores no nulos, entonces llamaremos ángulo entre los vectores x e y
al número θ ∈ [0, π] que verifique
(x|y)
cos(θ) = .
kxk kyk

Observación 17. La definición de ángulo depende del producto escalar utilizado, tal y
como ocurría con la norma de un vector.

Ejemplo 18.
Consideremos el producto escalar estándar de M2×2 (R):
(A|B) = a11 b11 + a12 b12 + a21 b21 + a22 b22 ∀A = (aij ), B = (bij ) ∈ M2×2 (R).
   
1 1 1 1
Calculemos el ángulo que forman A = yB= . Para ello necesita-
1 1 1 0
mos calcular: (A|B), k A k y k B k.

(A|B) = 3, (A|A) = 4, k A k= 2, (B|B) = 3 y k B k= 3.

Por tanto, el ángulo θ ∈ [0, π] entre los vectores A y B es:


√ √ !
(A|B) 3 3 3 π
cos(θ) = = √ = =⇒ θ = arccos = .
kAk kB k 2 3 2 2 6

4.2. ORTOGONALIDAD.

4.2.1 Vectores Ortogonales. Conjuntos Ortogonales y Ortonormales.

Sea V el espacio de los vectores libres del plano dotado con el producto escalar (·|·)
presentado en el Ejemplo 5 (b). Recordemos que dos vectores ~u y ~v de V se dicen ortogonales
si el ángulo entre ellos es recto. En tal caso, se sigue que
(~u|~v ) = |~u||~v | cos(~u, ~v ) = |~u||~v | cos(π/2) = 0, esto es, (~u|~v ) = 0.
Tomaremos esta última relación para definir en un espacio euclídeo cualquiera el concepto
de ortogonalidad.

Definición 19. Sean E un espacio vectorial sobre K y (·|·) un producto escalar definido
sobre E. Se dice que x e y ∈ E son ortogonales si (x|y) = 0. Escribiremos x ⊥ y.

Definiciones 20. Sean E un espacio vectorial sobre K, (·|·) un producto escalar definido
sobre E y S un subconjunto no vacío de E.

136
• Diremos que S es ortogonal si (x|y) = 0, ∀x, y ∈ S, con x 6= y.

• Diremos que S es ortonormal si S es ortogonal y k x k= 1, ∀x ∈ S.

• Si A = {x1 , x2 , . . . , xn } es una base de E, se dice que es una base ortogonal de E si A


es un conjunto ortogonal.

• Si A = {x1 , x2 , . . . , xn } es una base de E, se dice que es una base ortonormal de E si


A es un conjunto ortonormal.
No es difícil comprobar que los espacios euclídeos disfrutan de las siguientes propiedades:
Proposición 21. (Propiedades de la ortogonalidad de vectores)
Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Se verifica:
1. Si x, y ∈ E, entonces x ⊥ y si, y sólo si, y ⊥ x.

2. x ⊥ 0 ∀ x ∈ E.

3. Si x ∈ E y x ⊥ x , entonces x = 0.

4. Si x, y ∈ E y x ⊥ y, entonces k x + y k2 = k x k2 + k y k2 (Teorema de Pitágoras).

5. Si x, h, z ∈ E, x ⊥ h y x ⊥ z, entonces x ⊥ (h + z).

6. Si x, y ∈ E, x ⊥ y y α, β ∈ K, entonces x ⊥ (αy), (αx) ⊥ y y (αx) ⊥ (βy).


Los conjuntos ortogonales de un espacio vectorial de dimensión finita que no contienen
al vector nulo son conjuntos linealmente independientes.
Proposición 22. (Relación entre ortogonalidad e independencia lineal)
Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto escalar definido sobre
E. Se verifica:
1. Si S ⊂ E, S = {x1 , . . . , xk } es ortogonal y 0 6∈ S, entonces S es linealmente indepen-
diente.

2. Si S ⊂ E y S = {x1 , . . . , xk } es ortonormal, entonces S es linealmente independiente.


Una de las ventajas de trabajar con una base ortogonal radica en la obtención de las
coordenadas de un vector respecto de dicha base a través del cálculo de unos determinados
productos escalares. Además, la matriz del producto escalar respecto de una base ortogonal
es diagonal.
Proposición 23. (Coeficientes de Fourier) Sea E un espacio vectorial sobre K de
dimensión n y (·|·) un producto escalar definido sobre E. Se verifica:
1. Si B = {x1 , . . . , xn } es una base ortogonal de E y x ∈ E, entonces la matriz del
(x|x1 ) (x|xn )
producto escalar respecto de B es diagonal y x = x1 + . . . + xn . (Se
(x1 |x1 ) (xn |xn )
(x|xi )
denominan coeficientes de Fourier a , con i ∈ {1, . . . , n}).
(xi |xi )

137
2. Si B = {x1 , . . . , xn } es una base ortonormal de E y x ∈ E, entonces la matriz del
producto escalar respecto de B es In×n y x = (x|x1 )x1 + . . . + (x|xn )xn .

Ejemplos 24.

(1) Consideremos el espacio vectorial real M2×2 (R) dotado con el producto escalar (A|B) =
a11 b11 + a12 b12 + a21 b21 + a22 b22 . Veamos si los siguientes pares de matrices son o no
ortogonales:
       
1 2 0 1 1 1 0 1
(a) A = yB= (b) C = yD= .
3 1 −1 1 1 1 1 1
Para ello calculamos: (A|B) = 0 y (C|D) = 3. Por tanto, A es ortogonal a B y, con ello,
{A, B} es un conjunto ortogonal. De la Proposición 22 deducimos que dicho conjunto
es LI. Sin embargo, C no es ortogonal a D y el conjunto {C, D} es LI, este ejemplo
pone de manifiesto que el recíproco de la Proposición 22 no es cierta, en general.

(2) Consideremos el espacio vectorial real P2 (R) dotado con los productos escalares definidos
en el Ejemplo 11:
Z 1
(1) (p(x)|q(x))1 = a0 b0 + a1 b1 + a2 b2 ; (2) (p(x)|q(x))2 = p(x)q(x)dx;
0

con p(x) = a0 + a1 x + a2 x2 , q(x) = b0 + b1 x + b2 x2 ∈ P2 (R).


Comprobemos si la base canónica B = {1, x, x2 } es o no ortonormal respecto de tales
productos escalares.

Observemos que si utilizamos la condición (3) del producto escalar sólo es necesario
calcular:

(1|1)1 = 1, (1|x)1 = 0, (1|x2 )1 = 0, (x|x)1 = 1, (x|x2 )1 = 0 y (x2 |x2 )1 = 1.

Por tanto, la base canónica es ortonormal con respecto al producto escalar (·|·)1 , pues
los vectores que forman parte de ella son ortogonales dos a dos y k 1 k=k x k=k x2 k= 1.
Nótese que en este caso la matriz del producto escalar (·|·)1 respecto de la base B es
I3×3 .

Trabajando con producto escalar (·|·)2 obtenemos

1 1 1 1 1
(1|1)2 = 1, (1|x)2 = , (1|x2 )2 = , (x|x)2 = , (x|x2 )2 = y (x2 |x2 )2 = .
2 3 3 4 5

Por tanto, B no es ortogonal con respecto al producto escalar (·|·)2 , pues (1|x)2 6= 0. En

1 1/2 1/3
este caso, la matriz del producto escalar (·|·)2 respecto a la base B,  1/2 1/3 1/4 ,
1/3 1/4 1/5
no es diagonal.

138
(3) Consideremos el espacio vectorial 
R3 dotado
 con
 el producto
 escalar estándar.
 De-
 1 −1 −1 
mostraremos que el conjunto A = v1 =  
1 , v2 =  
1 , v3 =  1  es
 
0 2  −1
2
una base ortogonal y calcularemos las coordenadas del vector v =  1  en la base
−3
A.

Comprobemos que los tres vectores son ortogonales dos a dos:

(v1 |v2 ) = 0, (v1 |v3 ) = 0 y (v2 |v3 ) = 0.

Por tanto, A es un conjunto ortogonal. Como A es ortogonal y no contiene al vector


0, se sigue de la Proposición 22 que A es linealmente independiente. En definitiva, A
es un conjunto LI que contiene 3 vectores y dimR R3 = 3, consecuentemente A es una
base ortogonal de R3 con el producto escalar estándar.
Sabemos que si trabajamos con una base ortogonal, el cálculo de coordenadas de un
vector respecto de la misma queda reducido al cálculo de ciertos productos escalares:

(v|v1 ) (v|v2 ) (v|v3 ) 3 7 2


v= v1 + v2 + v3 = v1 − v2 + v3 .
(v1 |v1 ) (v2 |v2 ) (v3 |v3 ) 2 6 3
 
3/2
Por tanto, [v]A =  −7/6 . Este método ha resultado más sencillo que el utilizado
2/3
en el Tema 2, donde la obtención de las coordenadas dependía de la resolución de un
sistema de ecuaciones lineales.

Observación 25. De nuevo el concepto de ortogonalidad depende del producto escalar que
se utilice, como se pone de manifiesto con el ejemplo anterior (2).

4.2.2 Proyecciones Ortogonales. Distancias.


Fijamos de nuevo nuestra atención en V , el espacio vectorial de los vectores libres del
plano dotado con el producto escalar del Ejemplo 5 (b). Tomamos ~u y ~v dos vectores no
nulos de V , fijamos O = (0, 0)T como origen y trabajamos con los representantes de clase
~ y OV
OU ~ .
El vector ~u se puede escribir de forma única como ~u = ~u 0 +~u 00 donde ~u 0 tiene la dirección
del vector ~v y ~u 00 es un vector ortogonal a ~v . El vector ~u 0 es llamado proyección ortogonal
de ~u sobre ~v . En otras palabras, ~u 0 es por definición el único vector de V tal que ~u − ~u 0 es
ortogonal a ~v .

139
U

−→
O
U −−0→
UU

−−→ −−→
O 0 U’ OV V
OU

− −→ − 0 −−→ − 00 −−→
u = [OU ] → u = [OU 0 ] →
u = [U 0 U ]

1
La longitud del vector ~u 0
es |~u| cos(~u, ~v ) y posee la dirección del vector unitario ~v ,
|~v |
luego la proyección ortogonal de ~u sobre ~v es

1 |~v | |~u||~v | cos(~u, ~v ) (~u|~v )


~u 0 = |~u| cos(~u, ~v ) ~v = |~u| cos(~u, ~v ) 2 ~v = 2
~v = ~v .
|~v | |~v | |~v | (~v |~v )

La distancia entre los vectores ~u y ~v se define como el módulo del vector diferencia:
d(~u, ~v ) = |~u − ~v |.

En Física y en Ingeniería hay muchas aplicaciones en las que interesa descomponer un


vector dado como suma de otros dos que sean ortogonales. Por ejemplo, consideremos un
coche en una rampa inclinada como se muestra en el dibujo.



w 1



w2


F

La fuerza F~ debida a la gravedad tira del coche hacia abajo por la rampa y contra la
rampa. Estas fuerzas w~1 y w~2 son ortogonales y se conocen como componentes vectoriales
de F~

F~ =w~1 +w~2

donde w~1 es la proyección ortogonal de F~ sobre ~v , siendo ~v el vector de la trayectoria del


móvil descendiendo sobre la rampa, y w~2 = F~ − w~1 . Las fuerzas w~1 y w~2 ayudan a analizar
el efecto de la gravedad sobre el coche. Así w~1 indica la fuerza necesaria para evitar que el
coche ruede hacia abajo y, por otro lado, w~2 indica la fuerza que deben soportar las ruedas.

140
De nuevo, teniendo presente lo expuesto en el espacio vectorial V de los vectores libres
del plano podemos presentar las siguientes definiciones:
Definiciones 26. Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto
escalar definido sobre E.

• Si x, y ∈ E, con y 6= 0, se llama proyección ortogonal de x sobre y al vector

(x|y)
proyy (x) = y.
(y|y)

• Si F es un subespacio de E y {x1 , x2 , . . . , xk } es una base ortogonal de F , se llama


proyección ortogonal de x sobre F al vector

(x|x1 ) (x|x2 ) (x|xk )


proyF (x) = x1 + x2 + · · · + xk .
(x1 |x1 ) (x2 |x2 ) (xk |xk )

• Si x, y ∈ E, entonces se llama distancia de x a y

d(x, y) =k x − y k .

• Si x ∈ E y F es un subespacio de E, entonces se llama distancia de x a F

d(x, F ) = min{k x − v k: v ∈ F }.

Observaciones 27.

(i) La proyección ortogonal de un vector x sobre un subespacio F de un espacio euclídeo


E de dimensión finita coincide con la suma de las proyecciones del vector sobre cada
vector de una base ortogonal {x1 , x2 , . . . , xk } de F .

proyF (x) = proyx1 (x) + proyx2 (x) + . . . + proyxk (x).

(ii) De nuevo las distancias y proyecciones dependen del producto escalar utilizado.

El siguiente resultado nos proporciona un método para calcular la distancia de un vector


a un subespacio.
Proposición 28. (Propiedades de la proyección ortogonal) Sea E un espacio vectorial
sobre K de dimensión n y (·|·) un producto escalar definido sobre E. Si F es un subespacio
vectorial de E y x ∈ E, entonces se verifican las siguientes afirmaciones:

1. (x − proyF (x) | v) = 0 ∀v ∈ F .

2. k x − proyF (x) k≤k x − v k ∀v ∈ F .

3. d(x, F ) =k x − proyF (x) k.

141
Ejemplo 29.

Considera
 el espacio
  euclídeo
 R con
4
elproducto escalar estándar y el subespacio
 −1
 1 1  
  1   1   1  
       
F = L 
 0  ,  2  ,  −1 .

 

0 0 3
 
1
 −1 
1. Calcula la proyección ortogonal del vector v =  
 0  sobre F .
1
2. Calcula la distancia de v a F .

Para calcular la proyección ortogonal de v sobre F necesitamos una base ortogonal de


F.
     

 −1 1 1  
   1   1 
1
El conjunto A =      
 0  ,  2  ,  −1  es ortogonal respecto del producto

 
 
0 0 3
 
0
 0 
escalar estándar y  
 0  6∈ A, de la Proposición 22 se sigue que A es LI. Como A es
0
un sistema generador de F , tenemos que A es una base de F . En definitiva, A es una
base ortogonal de F .
La proyección ortogonal de v sobre F es

(v|x1 ) (v|x2 ) (v|x3 )


proyF (v) = x1 + x2 + x3 =
(x1 |x1 ) (x2 |x2 ) (x3 |x3 )
       
−1 1 1 5
2 1  0 1  3  1  1  −3 
= −  +  +  =  .
2  0  6  2  12  −1  4  −1 
0 0 3 3

Finalmente, la distancia de v a F coincide con la distancia de v a la proyección orto-


gonal de v a F . Así,
   
−1/4 −1
 −1/4  1   1
d(v, F ) = k v − proyF (v) k =   =  −1  = .
 1/4  4  1  2
1/4 1

142
4.2.3 Construcción de Bases Ortonormales. Método de Ortogonali-
zación de Gram-Schmidt.

Hemos visto anteriormente que en un espacio euclídeo resulta de gran utilidad disponer
de una base ortonormal. Por ejemplo, la matriz del producto escalar respecto de dicha base
será la matriz identidad In×n y, en consecuencia, la expresión analítica del producto escalar
es la más sencilla posible. Esta simplicidad se transmite a las fórmulas que proporcionan
longitudes y ángulos. Además, trabajando con este tipo de bases el cálculo de coordenadas
respecto de las mismas queda reducido al cálculo de determinados productos escalares. La
pregunta que debemos plantearnos es ¿existen bases ortonormales en un espacio euclídeo? y
si existen ¿cómo podemos calcularlas?
A continuación abordaremos la cuestión sobre una situación particular. Consideremos el
espacio vectorial V de los vectores libres del plano dotado con el producto escalar introducido
en el Ejemplo 5 (b). Sea {~v1 , ~v2 } una base de V y supongamos que (~v1 |~v2 ) 6= 0. Nuestro
objetivo es construir una base ortogonal de V partiendo de la base {~v1 , ~v2 } de V . Fijamos el
(~v2 |~v1 )
vector ~v1 , en 4.2.2 vimos que la proyección ortogonal de ~v2 sobre ~v1 , proy~v1 (~v2 ) = ~v1 ,
(~v1 |~v1 )
era el único vector de V de modo que ~v2 − proy~v1 (~v2 ) es ortogonal a ~v1 .



v2 − proy− →

−v 2
→ v1 ( v2 )

O →

v1

Por tanto, si consideramos el conjunto


 
(~v2 |~v1 )
w ~ 2 = ~v2 −
~ 1 = ~v1 , w ~v1
(~v1 |~v1 )
podemos afirmar que se trata de un conjunto ortogonal. Además, como w ~1 y w~ 2 son vectores
no nulos, pues {~v1 , ~v2 } es LI. Se sigue de la Proposición 22 que {w ~ 2 } es un conjunto LI
~ 1, w
y del hecho que dimR V = 2, concluimos que {w ~ 2 } es una base ortogonal de V . Ahora
~ 1, w
para conseguir una base ortonormal bastará considerar
 
1 1
w
~ 1, w
~2 .
|w
~ 1| |w
~ 2|
La generalización de este argumento da lugar al método de ortogonalización de Gram-
Schmidt, que presentamos a continuación.
Teorema 30. (Método de ortogonalización de Gram-Schmidt) Sea E un espa-
cio vectorial sobre K de dimensión n y sea (·|·) un producto escalar definido sobre E. Si
{y1 , y2 , . . . , yn } es una base de E, entonces {x1 , x2 , . . . , xn } es una base ortogonal de E
siendo

143

 x1 = y1



 (y2 |x1 )

 x2 = y2 − x1

 (x1 |x1 )

 ..

 .

(yi |x1 ) (yi |xi−1 )

 xi = yi − x1 − · · · − xi−1

 (x1 |x1 ) (xi−1 |xi−1)

 ..

 .



 (yn |x1 ) (yn |xn−1 )

 xn = yn − x1 − · · · − xn−1
(x1 |x1 ) (xn−1 |xn−1)
En definitiva, el método de ortogonalización de Gram-Schmidt permite obtener una base
ortogonal a partir de una base cualquiera del espacio euclídeo.
Si además, pretendemos hallar una base ortonormal de E deberemos considerar:
 
1 1 1
x1 , x2 , . . . , xn .
k x1 k k x2 k k xn k

Ejemplo 31.
Calcula
una base
  ortonormal
 de R
3
con el producto escalar estándar a partir de la base
 1 2 0 
A =  −1  ,  0  ,  1  .
 
0 −1 2
Aplicando el método de ortogonalización de Gram-Schmidt obtenemos:
 
1
x1 = y1 =  −1 
0
     
2 1 1
(y2 |x1 ) 2
x2 = y2 − x1 =  0  −  −1  =  1 
(x1 |x1 ) 2
−1 0 −1
       
0 1 1 1
(y3 |x1 ) (y3 |x2 ) 1 1 5
x3 = y3 − x1 − x2 =  1  +  −1  +  1  =  1 
(x1 |x1 ) (x2 |x2 ) 2 3 6
2 0 −1 2
       
1  1 1 1 
Podemos considerar, por simplicidad,  1  y así,  −1  ,  1  ,  1 
 
2 0 −1 2
forma una base ortogonal de R3 con el producto escalar estándar. Para obtener una
base ortonormal multiplicaremos cada vector por el inverso de su norma:
      
 1 1 1 1
  1   1  
B= √ −1 , √ 1 ,√ 1 .
 2 3 6 
0 −1 2
Por tanto, B es una base ortonormal de R3 con el producto escalar estándar.

144
4.2.4 Ortogonal de un Subespacio. Descomposiciones Ortogonales.
Es conocido que el vector nulo de un espacio euclídeo E es ortogonal a todo vector del
espacio E. En particular, el vector nulo es ortogonal a todos los vectores de un subespacio
F de E. Nos preguntamos si existen más vectores de E que sean ortogonales a todo vector
de F y, en tal caso, como se puede obtener el conjunto formado por tales vectores.
Definición 32. Sea E un espacio vectorial sobre K y sea (·|·) un producto escalar definido
sobre E. Si F es un subespacio de E, se llama ortogonal de F al conjunto
F ⊥ = {x ∈ E | (x|y) = 0, ∀y ∈ F }.

Observación 33. Sea E un espacio vectorial sobre K de dimensión n y sea (·|·) un producto
escalar definido sobre E. Si F es un subespacio de E y {v1 , v2 , . . . , vr } es una base de F ,
entonces

F ⊥ = {x ∈ E | (x|vi ) = 0, 1 ≤ i ≤ r}.
Ejemplo 34.
Considera
 elespacio euclídeo R con
4
 el producto escalar estándar y el subespacio

 x 

  
 y 
F =   ∈ R : x + y = z + t . Calcula el ortogonal de F , F ⊥ .
4

 z 

 
t

Según la Observación 33, para calcular F ⊥ podemos utilizar cualquier base de F .


Obtengamos una base de F .

     

 x 
  x 
   
 


y  y 
F =  ∈R : x+y =z+t = 
 4
∈ R : x = −y + z + t =
4

 z 
  z  
  
 

t t
         

 −y + z + t 
 
 −1 1 1  
    1   0   0 
 y         
= 
 z  : y, z, t ∈ R = L  0  ,  1  ,  0  .

 
 
 

t 0 0 1
     

 −1 1 1  
     
1 0 0
Por tanto, A =      
 0  ,  1  ,  0  es un sistema generador de F . Además

 
 
0 0 1
A es LI, pues:
       
−1 1 1 0
 1   0   0   0 
α1        
 0  + α2  1  + α3  0  =  0  =⇒ α1 = α2 = α3 = 0.
0 0 1 0

145
En consecuencia, A es una base del subespacio F .
Ahora podemos obtener F ⊥ :
              

 x x −1 x 1 x 1 

               0 
F⊥ = y  ∈ R4 : y   1  = 0, y  0 = 0, y    = 0 =
 z    z   0     z   1   z 0 

 

 t  t 0 t 0 t 1

 x 

  
 y  4
= z  ∈ R : −x + y = 0, x + z = 0, x + t = 0 =

 

 
 t    

 x 
 
 1 
      
=  x  : x ∈ R = L  1  .
−x  −1

 
 
 

−x −1
Observemos
  que F ⊥ es un subespacio de R4 . Además, es sencillo comprobar que
1
 1 
 
 −1  6∈ F , pues no cumple la ecuación x + y = z + t. Por tanto,
−1
       

 −1 1 1 1 

   0   0   1 
 1       
 ,  1  ,  0  ,  −1  es LI y dimR R = 4, de aquí se sigue
4
H= 

 0 
 
0 0 1 −1
que H es una base de R4 . Finalmente, obtenemos:
          

 −1 1 1 
 
 1 

           
  1   0   0     1   ⊥
R = L(H) = L  
4
, ,
  1   0  + L  −1  = F + F

 0   
   
0 0 1 −1
  

 0 
   
0 
Nótese que F ∩ F ⊥ =  0 . Por tanto, se tiene R = F ⊕ F .
4 ⊥

 
 
0

El próximo resultado muestra que si F es un subespacio de E, las propiedades observadas


en el Ejemplo 34 se mantiene en general, es decir, el ortogonal de F es a su vez un subespacio
de E que complementa a F .
Teorema 35. (Teorema de la descomposición ortogonal de un espacio euclídeo)
Sea E un espacio vectorial sobre K y (·|·) un producto escalar definido sobre E. Si F es un
subespacio de E, entonces se verifica que:

• F ⊥ es un subespacio de E.

146
• Si dimK E = n, entonces F ⊕ F ⊥ = E, es decir, E = F + F ⊥ y F ∩ F ⊥ = {0}.

Se puede demostrar que, como consecuencia de que F ⊕ F ⊥ = E, los vectores en que se


descompone un vector x ∈ E como suma de un vector de F y un vector de F ⊥ de forma
única, son precisamente la proyección ortogonal de x sobre F y la proyección ortogonal de
x sobre F ⊥ , es decir, x = proyF (x) + proyF ⊥ (x).

El siguiente resultado muestra el comportamiento del ortogonal de un subespacio con


respecto a las operaciones básicas entre subespacios:
Proposición 36. (Relación del subespacio ortogonal con las operaciones de con-
juntos) Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto escalar
definido sobre E. Si F y G son dos subespacios de E, entonces

(1) F ⊆ G =⇒ G⊥ ⊆ F ⊥ (2) (F ⊥ )⊥ = F
(3) (F + G)⊥ = F ⊥ ∩ G⊥ (4) (F ∩ G)⊥ = F ⊥ + G⊥ .

Como consecuencia del Teorema 35 es posible obtener una base ortonormal de un espacio
euclídeo de dimensión finita a partir de un conjunto ortonormal de vectores cualquiera.
Teorema 37. (Teorema de prolongación a una base ortonormal)
Sea E un espacio vectorial sobre K de dimensión n y (·|·) un producto escalar definido
sobre E. Si A = {x1 , . . . , xk } es un conjunto ortonormal de E, entonces existe B =
{xk+1 , . . . , xn } ⊂ E tal que A ∪ B es base ortonormal de E.

Ejemplo 38.

Considera
 elespacio euclídeo R con
4
 el producto escalar estándar y el subespacio

 x 

  
y
F =   z 
∈R : x+y =z+t .
4

 

 
t

(1) Calcula una base ortonormal de F .


(2) Calcula una base ortonormal de R4 a partir de la base de F obtenida en (1).
      

 −1 1 1  
  1   0   0 
(1) En el Ejemplo 34 vimos que A = y1 =    ,y =   ,y =  

 0  2  1  3  0  
 
0 0 1
es una base de F . Como no es una base ortogonal de F , pues (y1 |y2 ) = −1 6= 0,
aplicamos el método de Gram-Schmidt para conseguir una base ortogonal de F .
 
−1
 1 
x1 = y1 = 
 0 

147
       
1 −1 1/2 1
(y2 |x1 )  0  1  1   1/2  1  1 
x2 = y2 − x1 =     
 1 + 2 0 = 1 = 2 2 
  
(x1 |x1 )
0 0 0 0
 
1
 1 
tomaremos  
 2  por simplicidad.
0
       
1 −1 1 1
(y3 |x1 ) (y3 |x2 )  0  1 1  1 1  1 1 
x3 = y3 − x1 − x2 =        
 0  + 2  0  − 6  2  = 3  −1 
(x1 |x1 ) (x2 |x2 )
1 0 0 3
 
1
 1 
tomaremos  
 −1  por simplicidad.
3
     

 −1 1 1  
   1   1 
1
Así,      
 0  ,  2  ,  −1  es una base ortogonal de F . Para conseguir una

 
 
0 0 3
base ortonormal, multiplicamos cada vector por el inverso de su norma:
      

 −1 1 1  
 1   1  1  1  1 
1
B= √      
 0  , √6  2  , 2√3  −1  es una base ortonormal de F.

 2 
 
0 0 3
    

 1 
 
 1 

 1   
1 
(2) En el Ejemplo 34 calculamos F ⊥ = L 
 −1
 . Por tanto, 
 

 −1 
  
 
   
−1   −1


 1 
1  
 1  es una base
es una base ortogonal de F ⊥ y dimR F ⊥ = 1. Además, C =

 2  −1 

 
−1
ortonormal de F ⊥ .
Por el Teorema 35, tenemos que F ⊕ F ⊥ = R4 . Para obtener una base ortonormal de
R4 solo hay que unir una base ortonormal de F y una base ortonormal de F ⊥ . Así,
        

 −1 1 1 1 

 1        
1  1  1  1  1  1 1
B∪C = √   , √  , √  , 
 0  2 −1  2  −1 
 2
 6 2 3 

0 0 3 −1
es una base ortonormal de R4 que se obtiene completando la base ortonormal de F .

148
4.3. APLICACIONES.

4.3.1 Factorización QR de una Matriz.


Según vimos, el método de ortogonalización de Gram-Schmidt (Teorema 30) garantiza
que todo espacio euclídeo de dimensión finita posee bases ortogonales y, por tanto, bases
ortonormales. Una posible aplicación de este método consiste en la obtención de la llamada
factorización QR de una matriz A ∈ Mm×n (K) con rango n. Dicha factorización es usada
en algoritmos de ordenador para diversos cálculos, como por ejemplo en la resolución del
llamado Problema Lineal de los Mínimos Cuadrados.
Centraremos nuestra atención en la obtención de la factorización QR de una matriz
A ∈ Mm×n (K) con rango n. Denotamos con F al subespacio de Km generado por las
columnas de A, esto es, F = L({x1 = A1 , . . . , xn = An }). Consideramos F como un espacio
euclídeo dotado con el producto escalar estándar de Km . Por hipótesis ρ(A) = n, luego el
conjunto A = {x1 , . . . , xn } es LI y, por tanto, A es una base de F . Aplicamos el método
de Gram-Schmidt al conjunto A con el objetivo de conseguir una base ortogonal de F y, a
partir de aquí, una base ortonormal de F : B = {y1 , . . . , yn }. Observemos que cada vector
de B se expresa como una combinación lineal de los vectores de A:

y1 = b11 x1
y2 = b12 x1 + b22 x2
..
.
yn = b1n x1 + b2n x2 + . . . + bnn xn

con bij ∈ K, i, j ∈ {1, . . . , n} y bii un número real positivo, ∀i ∈ {1, . . . , n}. Despejando
por sustitución progresiva expresamos los elementos de A como combinación lineal de los
elementos de B:
x1 = r11 y1
x2 = r12 y1 + r22 y2
..
.
xn = r1n y1 + r2n y2 + . . . + rnn yn
con rij ∈ K, i, j ∈ {1, . . . , n} y de nuevo rii es un número real positivo, ∀i ∈ {1, . . . , n}.
Estas ecuaciones pueden ser escritas del siguiente modo
 
r11 r12 . . . r1n
 0 r22 . . . r2n 
 
A = (x1 x2 . . . xn ) = (y1 y2 . . . yn )  .. .. .. ..  = QR.
 . . . . 
0 0 . . . rnn

En definitiva, si A ∈ Mm×n (K) con ρ(A) = n, entonces puede factorizarse como producto
de dos matrices: A = QR, siendo Q ∈ Mm×n (K) cuyas columnas forman un conjunto
ortonormal de Km y R ∈ Mn×n (K) matriz triangular superior con entradas diagonales
positivas.
Debido a la construcción de la matriz Q podemos deducir que Q posee la siguiente
propiedad: Q∗ Q = In×n . En la práctica este hecho puede ser utilizado para obtener la

149
matriz R, ya que si Q es conocida

A = QR =⇒ Q∗ A = Q∗ (QR) = (Q∗ Q)R =⇒ Q∗ A = R.

Definición 39. Sea P ∈ Mn×n (K).

• Si K = R, entonces se dice que P es ortogonal si P T P = P P T = In×n .

• Si K = C, entonces se dice que P es unitaria si P ∗ P = P P ∗ = In×n .

Consecuentemente, si A es una matriz no singular la matriz Q de la factorización QR es


ortogonal en el caso K = R o unitaria en el caso K = C.

Ejemplo 40.
 
1 1 2
Realiza la factorización QR de la matriz A =  1 2 3  ∈ M3×3 (R).
1 1 1
La matriz A es no singular, pues det(A)  6= 0. Enconsecuencia,
 podemos
 afirmar
  que

 1 1 2 
el rango de A es 3 y que el conjunto A = x1 =  1  , x2 =  2  , x3 =  3 
 
1 1 1
es una base de R3 . Si utilizamos el producto escalar estándar, entonces A no es una
base ortogonal, pues (x1 |x2 ) = 4 6= 0. A continuación aplicamos el método de Gram-
Schmidt a la base A:
      
 1 −1 1 
1 1
C = h1 =  1  , h2 =  2  , h3 =  0  .
 3 2 
1 −1 −1

Trabajaremos con el conjunto ortogonal D = {h1 , 3h2 , 2h3 }, seguidamente multipli-


camos cada vector por el inverso de su norma
      
 1 −1 1 
1 1 1
B = y 1 = √  1  , y 2 = √  2  , y3 = √  0 
 3 6 2 
1 −1 −1

y conseguimos una base ortonormal de R3 . La obtención de tales vectores nos permite


expresar los vectores de la base B como combinación lineal de los vectores de la base
A:
√ √ √
1 6 6 2 √
y1 = √ x 1 , y2 = −2 x1 + x2 , y3 = −3 x2 + 2x3 .
3 3 2 2

Utilizando sustitución progresiva, expresamos ahora los vectores de la base A como


combinación lineal de los vectores de B

150
√ √ √ √
√ 3 6 √ 6 2
x1 = 3y1 , x2 = 4 y1 + y2 , x3 = 2 3y1 + y2 + y3 .
3 3 2 2
 √ √ √  √ √ √ 
1/√3 −1/√ 6 1/ 2 3 4/
√ 3 √ 2 3
Por tanto, A = QR =  1/√3 2/ √6 0√   0 6/3 √6/2  .
1/ 3 −1/ 6 −1/ 2 0 0 2/2
Nótese que Q es una matriz ortogonal, pues
 √ √ √  √ √ √   
1/ √3 1/√3 1/ √3 1/√3 −1/√ 6 1/ 2 1 0 0
QT Q =  −1/√ 6 2/ 6 −1/√6   1/√3 2/ √6 0√  =  0 1 0  .
1/ 2 0 −1/ 2 1/ 3 −1/ 6 −1/ 2 0 0 1

Otra forma de calcular R una vez conocida Q es utilizando que QT Q = I3×3 , así R = QT A.
Por tanto,
√ √ √    √ √ √ 
1/ √3 1/√3 1/ √3 1 1 2 3 4/
√ 3 √ 3
2
T
R=Q A=  −1/√ 6 2/ 6 −1/√6   1 2 3  =  0 6/3 √6/2  .
1/ 2 0 −1/ 2 1 1 1 0 0 2/2

4.3.2 Problema Lineal de los Mínimos Cuadrados.


Consideremos el siguiente conjunto de medidas realizadas en el laboratorio correspondien-
tes a una viga apoyada en dos pivotes por sus extremos y sometida a una fuerza perpendicular
a su centro.

Flexión viga

Es sabido que las deformaciones sufridas dependen linealmente de la fuerza a la que se


la somete.

Fuerzas, KiloNewtons Deformaciones, mm


0 0
0, 1 0, 11
0, 2 0, 22
0, 3 0, 26
0, 4 0, 43
0, 5 0, 47
0, 6 0, 69
0, 7 0, 69

151
Estamos interesados en conocer la deformación previsible al aplicar 0, 65 KiloNewtons.

La deformación de la viga depende linealmente de la fuerza aplicada, por lo que los datos
recogidos en la tabla deben verificar la ecuación de una recta y = mx+n, donde x representa
a la fuerza aplicada e y la deformación sufrida. Disponemos de un sistema de ocho ecuaciones
lineales con dos incógnitas.
   
m 0+ n = 0 0 1 0
m 0, 1 + n = 0, 11  0, 1 1   0, 11 
   
m 0, 2 + n = 0, 22  0, 2 1   0, 22 
    
m 0, 3 + n = 0, 26  0, 3 1  m  0, 26 
=⇒   = 
m 0, 4 + n = 0, 43 0, 4 1  n 0, 43 
  | {z }  
m 0, 5 + n = 0, 47  0, 5 1   0, 47 
  x  
m 0, 6 + n = 0, 69  0, 6 1   0, 69 
m 0, 7 + n = 0, 69 0, 7 1 0, 69
| {z } | {z }
A b

En ausencia de errores en las mediciones este sistema debería ser compatible y se resolvería
aplicando, por ejemplo, el método de Gauss. Ahora bien, si calculamos el rango de A y de la
matriz ampliada (A|b) obtenemos: ρ(A) = 2 < ρ(A|b) = 3. Por tanto, se trata de un sistema
incompatible. Sin embargo, necesitamos dar una respuesta al problema planteado. Por tanto,
debemos buscar una “solución” aproximada al sistema de ecuaciones lineales incompatible
cometiendo el menor error posible.
Descripción del Problema Lineal de los Mínimos Cuadrados.
Consideremos el espacio euclídeo Rm con el producto escalar estándar.
Supongamos que Ax = b es un sistema de ecuaciones lineales incompatible, donde A ∈
Mm×n (R), x ∈ Rn y b ∈ Rm .
Pretendemos abordar el cálculo de soluciones aproximadas de un sistema incompatible
de modo que el error cometido sea mínimo. En definitiva buscamos vectores x0 ∈ Rn tal que
la distancia del vector b al vector Ax0 : d(b, Ax0 ) =k b − Ax0 k sea mínima. Así Ax0 puede
ser interpretado como una aproximación a b. Nótese que para sistemas compatibles, si x0
es solución del sistema Ax = b, entonces la distancia entre Ax0 y b es cero.
Definición 41. Dado Ax = b un sistema de m ecuaciones lineales con n incógnitas. Se llama
problema lineal de mínimos cuadrados (PLMC) asociado al sistema Ax = b, al problema de
hallar aquellos vectores x0 ∈ Rn tales que minimicen

k b − Ax0 k2 .

El término mínimos cuadrados surge del hecho que k b−Ax0 k2 es una suma de cuadrados.

En este contexto, es natural plantearse si el PLMC asociado a un sistema Ax = b tiene


solución o soluciones y bajo qué condiciones la solución es única.

Utilizaremos la siguiente notación:

152
Dada una matriz A ∈ Mm×n (R), denotaremos por

N(A) = {x ∈ R | Ax = 0} Núcleo de A
n

Im(A) = {Ax | x ∈ Rn } = L({A1 , . . . , An }) Imagen de A

Nos será de ayuda conocer los siguientes resultados sobre matrices:


Proposición 42. Si A ∈ Mm×n (R), entonces

(1) Im(A)⊥ = N(AT ).

(2) N (A) = N (AT A) y ρ(A) = ρ(AT A).

(3) ρ(A) = n ⇐⇒ AT A es no singular.

(4) Im(AT ) = Im(AT A).

Definición 43. Sea Ax = b un sistema de ecuaciones lineales con A ∈ Mm×n (R). Llamare-
mos ecuaciones normales asociadas al sistema Ax = b a

AT Ax = AT b.

Nótese que la matriz de coeficientes de las ecuaciones normales es una matriz simétrica
de tamaño n × n. Además, la proposición anterior nos permite afirmar que las ecua-
ciones normales siempre tienen solución, pues AT b ∈ Im(AT ) = Im(AT A) y, con ello,
ρ(AT A|AT b) = ρ(AT A). Por otra parte, si tenemos en cuenta que Rm = Im(A) ⊕ Im(A)⊥ ,
entonces b puede expresarse de forma única como sigue: b = b1 + b2 con b1 ∈ Im(A) y
b2 ∈ Im(A)⊥ . En consecuencia, utilizando que Ax − b1 y b2 son vectores ortogonales y el
Teorema de Pitágoras, tenemos que k Ax − b k2 =k Ax − b1 k2 + k b2 k2 . Observemos
que k b2 k2 es una cantidad fija, si pretendemos minimizar k Ax − b k2 , lo conseguiremos
minimizando k Ax − b1 k2 .
Veamos la relación existente entre una solución de las ecuaciones normales asociadas al
sistema Ax = b y una solución al problema lineal de los mínimos cuadrados asociados al
sistema Ax = b.
x0 es solución del AT Ax = AT b ⇐⇒ AT Ax0 = AT b
⇐⇒ Ax0 − b ∈ N(AT )
⇐⇒ Ax0 − b = (Ax0 − b1 ) − b2 ∈ Im(A)⊥
⇐⇒ Ax0 − b1 ∈ Im(A)⊥
⇐⇒ Ax0 − b1 ∈ Im(A)⊥ ∩ Im(A) = {0}
⇐⇒ k Ax0 − b k2 =k b2 k2
⇐⇒ x0 es solución del PLMC asociado a Ax = b .

En definitiva el resultado anterior garantiza que siempre es posible conseguir una solu-
ción “aproximada” con error lo más pequeño posible para un sistema de ecuaciones lineales
incompatible. Así podemos enunciar el siguiente teorema:

153
Teorema 44. Sea Ax = b un sistema de ecuaciones lineales con A ∈ Mm×n (R). El
problema lineal de los mínimos cuadrados asociado al sistema Ax = b siempre tiene solución.
La solución o soluciones al problema lineal de los mínimos asociado al sistema Ax = b son
exactamente la solución o soluciones de las ecuaciones normales asociadas al sistema Ax = b.
Además, la solución es única si, y sólo si, N(A) = {0} si, y sólo si ρ(A) = n.

Definición 45. Si x0 es una solución al problema lineal de los mínimos cuadrados asociado
al sistema Ax = b, se llama error cuadrático a k Ax0 − b k2 .

Es conocido que la solución única y0 de un sistema de ecuaciones lineales compatible


determinado Cx = d con C ∈ Mn×n (R) viene dada por y0 = C −1 d. En el caso que el
problema lineal de los mínimos cuadrados asociado a Ax = b tenga solución única también es
posible obtener una expresión similar. Para ello debemos introducir la matriz pseudoinversa
de A.
Definición 46. Si A ∈ Mm×n (R) con ρ(A) = n, entonces llamaremos matriz pseudoinversa
de A a la matriz A+ = (AT A)−1 AT .
Teorema 47. Si el problema lineal de los mínimos cuadrados asociado al sistema de ecua-
ciones lineales Ax = b tiene solución única, entonces la solución vendrá dada por

x0 = (AT A)−1 AT b = A+ b.

A continuación resolveremos el problema inicial planteado:


Ejemplo 48.

Consideremos el siguiente conjunto de medidas realizadas en el laboratorio correspon-


dientes a una viga apoyada en dos pivotes por sus extremos y sometida a una fuerza
perpendicular a su centro. Es sabido que las deformaciones sufridas dependen lineal-
mente de la fuerza a la que se la somete.

Fuerzas, KiloNewtons Deformaciones, mm


0 0
0, 1 0, 11
0, 2 0, 22
0, 3 0, 26
0, 4 0, 43
0, 5 0, 47
0, 6 0, 69
0, 7 0, 69

Estamos interesados en conocer la deformación previsible al aplicar 0, 65 KiloNewtons.

Pretendemos encontrar una recta y = m x + n que pasa por los puntos recogidos en la
tabla:

154
   
m 0+ n = 0 0 1 0
m 0, 1 + n = 0, 11    
 0, 1 1   0, 11 
m 0, 2 + n = 0, 22  0, 2 1   0, 22 
    
m 0, 3 + n = 0, 26  0, 3 1  m  0, 26 
=⇒ 
 0, 4 1

 = 



m 0, 4 + n = 0, 43  n
 | {z }  0, 43 
m 0, 5 + n = 0, 47  0, 5 1   0, 47 
  x  
m 0, 6 + n = 0, 69  0, 6 1   0, 69 
m 0, 7 + n = 0, 69 0, 7 1 0, 69
| {z } | {z }
A b

Observemos que ρ(A) = 2 < ρ(A|b) = 3. Por tanto, se trata de un sistema incompa-
tible. Calculemos las ecuaciones normales: AT Ax = AT b.
    
1, 4000 2, 8000 m 1, 4370
=
2, 8000 8, 000 n 2, 8700

Como ρ(A) = 2 =no de columnas de A, entonces el problema lineal de los mínimos


cuadrados asociado a Ax = b tiene solución única: m = 1, 0298 y n = −0, 0017. Por
tanto, la recta que mejor se ajusta a los puntos de la tabla es

y = 1, 0298 x − 0, 0017

En consecuencia, podemos predecir una deformación de 0, 67 milímetros al aplicar una


fuerza de 0, 65 KiloNewtons.

155
Cuando los datos no están cercanos a ninguna recta es posible aplicar el método del
problema lineal de los mínimos cuadrados realizando ajustes con otro tipo de curvas.

Resolución del problema lineal de los mínimos cuadrados cuando la solución no


es única.
Consideremos un sistema de ecuaciones lineales Ax = b, donde A ∈ Mm×n (R) tal que
ρ(A) < n. Sabemos que el sistema proporcionado por las ecuaciones normales asociadas al
sistema Ax = b: AT Ax = AT b tiene solución, pero en este caso, se trata de un sistema
compatible indeterminado. Las infinitas soluciones de las ecuaciones normales son solución
del PLMC asociado al sistema Ax = b, todas ellas con el mismo error cuadrático.
En muchos casos prácticos es habitual considerar como solución óptima la solución de norma
mínima.
Definición 49. Consideremos el sistema de ecuaciones lineales Ax = b, donde A ∈
Mm×n (R) y b ∈ Rm . Diremos que un vector x0 ∈ Rn es una solución óptima del pro-
blema lineal de los mínimos cuadrados asociado al sistema Ax = b, si x0 es una solución de
las ecuaciones normales AT Ax = AT b tal que kx0 k ≤ kxk, siendo x cualquier otra solución
de las ecuaciones normales.
El siguiente teorema muestra cómo calcular la única solución óptima del problema lineal de
los mínimos cuadrados.
Teorema 50. Consideremos el sistema de ecuaciones lineales Ax = b, donde A ∈ Mm×n (R)
y b ∈ Rm . Entonces, x0 ∈ Rn es la única solución óptima del problema lineal de los mínimos
cuadrados asociado al sistema Ax = b, si y sólo si, x0 es una solución de las ecuaciones
normales AT Ax = AT b y x0 ∈ N(A)⊥ (o, equivalentemente, x0 ∈ Im(AT )).
Esta misma técnica se emplea para hallar la solución de mínima norma en sistemas compa-
tibles indeterminados. Veamos un ejemplo.
Ejemplo 51.
Se desea realizar una nivelación de una
parcela y se han medido experimentalmente
desde un punto E las diferencias de cotas en-
tre el punto E y los puntos A, B y C. Se
obtienen que las siguientes diferencias ZEA =
4.83m, ZEB = −6.29m y ZEC = 15.92m. Por
otro lado, se realizan también mediciones de
las diferencias de nivel entre el punto B y los
puntos A y C y se obtiene que ZBA = 11.08m
y ZBC = 22.26m. Realizar una compensación
por mínimos cuadrados y calcular tras dicha
compensación las altitudes de los puntos A, B
y C sabiendo que el punto E está situado a
120.81m del nivel del mar.

156
Observemos que ZEB + ZBA 6= ZEA . Realizamos una compensación con correcciones
ε1 , ε2 y ε3 tales que

(ZEB + ε1 ) + (ZBA + ε2 ) = (ZEA + ε3 )

Luego,
ε1 + ε2 − ε3 = −0.04
Análogamente, tenemos que ZEB + ZBC 6= ZEC . Realizamos una nueva compensación
y tenemos que

(ZEB + ε1 ) + (ZBC + ε4 ) = (ZEC + ε5 )


Por tanto, tenemos que
ε1 + ε4 − ε5 = −0.05
El problema se reduce pues a calcular la solución o soluciones del problema lineal de
los mínimos cuadrados asociado al siguiente sistema de ecuaciones lineales

ε1 + ε2 − ε3 = −0.04
ε1 + ε4 − ε5 = −0.05
Escribiendo el sistema en forma matricial tenemos
 
ε1
   ε2   
1 1 −1 0 0  
 ε3  = −0.04
1 0 0 1 −1   −0.05
| {z }  ε4  | {z }
A ε5 b
| {z }
x

Si calculamos el rango de A y de la matriz ampliada (A|b) obtenemos: ρ(A) = ρ(A|b) =


2 < número de incógnitas. Por tanto, se trata de un sistema compatible indeterminado.
Vamos a hallar de las infinitas soluciones que tiene el sistema, aquella que tiene norma
mínima. Aplicamos entonces el problema lineal de los mínimos cuadrados al sistema
Ax = b.
Calculamos el sistema de ecuaciones normales AT Ax = AT b:
     
1 1 ε1 1 1
 1 0    ε2   1 0  
  1 1 −1 0 0     −0.04
 −1 0    
ε3  =  −1 0 
 1 0 0 1 −1   −0.05
 0 1   ε4   0 1 
0 −1 ε5 0 −1
Se obtiene     
2 1 −1 1 −1 ε1 −0.09
 1 −1 0     
 1 0   ε2   −0.04 
 −1 −1 1 0 0     
   ε3  =  0.04 
 1 0 0 1 −1   ε4   −0.05 
−1 0 0 −1 1 ε5 0.05

157
El sistema anterior tiene infinitas soluciones ya que el rango de la matriz AT A es igual
a 2. Buscamos la solución del sistema inicial que tenga norma mínima (esto es, tal
que ε21 + ε22 + ε23 + ε24 + ε25 sea mínimo), luego consideramos una solución del sistema
de ecuaciones normales que pertenezca al subespacio Im(AT ), subespacio vectorial
generado por las filas de la matriz A, es decir,
       
ε1 1 1 α+β
 ε2  1 0  α 
       
ε3  = α −1 + β  0  =  −α 
       
 ε4  0 1  β 
ε5 0 −1 −β
tal que
    
2 1 −1 1 −1 α+β −0.09
 1 −1 0     
 1 0   α   −0.04 
 −1 −1 0     
 1 0   −α  =  0.04 
 1 0 0 1 −1   β   −0.05 
−1 0 0 −1 1 −β 0.05

Resolviendo el sistema obtenemos que α = −0.00875 y β = −0.1375 y

(ε1 , ε2 , ε3 , ε4 , ε5 )T = (−0.14625, −0.00875, 0.00875, −0.1375, 0.1375)T

Luego las altitudes de los puntos A, B y C son respectivamente: hA = 120, 81 + ZEA +


ε3 = 125, 649m, hB = 120, 81 + ZEB + ε1 = 114, 374m y hC = 120, 81 + ZEC + ε5 =
136, 867m.

Resolución del problema lineal de los mínimos cuadrados utilizando la factoriza-


ción QR.
Consideremos un sistema de ecuaciones lineales Ax = b donde A ∈ Mm×n (R). Supon-
gamos que ρ(A) = n, por tanto, el PLMC asociado a dicho sistema tiene solución única.
Si disponemos de la factorización QR de la matriz A, esto es, A = QR con Q matriz
de tamaño m × n cuyas columnas forman un conjunto ortonormal y R matriz de tamaño
n × n triangular superior con entradas diagonales positivas (no singular). Del hecho que
QT Q = In×n , se sigue que AT A = RT QT QR = RT R. Así la única solución al problema
lineal de los mínimos cuadrados asociado al sistema Ax = b queda en los siguientes términos

x0 = (AT A)−1 AT b = (RT R)−1 RT QT b = R−1 QT b.


En la práctica, para obtener x0 resolveremos el sistema Rx = QT b, de este modo evitamos
el cálculo de R−1 . La resolución de este sistema es inmediata, pues R es una matriz triangular
superior.

Ejemplo 52. Calcula la solución del problema lineal de los mínimos cuadrados asociada al
sistema Ax = b con

158
   
1 3 5 3
 1 1 
0   5 
A=
 1 yb= .
1 2   7 
1 3 3 −3
En primer lugar calcularemos la factorización
   QRdeA,  pues
 ρ(A) = 3. Aplicamos

 1 3 5 
       
 1   1   0 
el método de Gram-Schmidt a A =   ,   ,   y, obtenemos una base

 1 1 2  
 
   1 3  3
  

 1 1 1  
     −1 
1 −1
ortogonal de L(A): B =      
 1  ,  −1  ,  1 . Por tanto, utilizando que todos

 
 
1 1 −1
 
1/2 1/2 1/2
 1/2 −1/2 −1/2 
los vectores tienen norma 2, la matriz Q es: Q =  1/2 −1/2
. Obtengamos ahora
1/2 
1/2 1/2 −1/2
 
  1 3 5  
1/2 1/2 1/2 1/2   2 4 5
1 1 0  
la matriz R: R = QT A =  1/2 −1/2 −1/2 1/2   1 1 2 = 0 2 3 . En
1/2 −1/2 1/2 −1/2 0 0 2
1 3 3
consecuencia,
 
1/2 1/2 1/2  
 1/2 −1/2 −1/2  2 4 5
A = QR =   1/2 −1/2
 0 2 3 .
1/2 
0 0 2
1/2 1/2 −1/2
Conocidas Q y R, calculamos la solución al problema lineal de los mínimos cuadrados
asociado al sistema Ax = b resolviendo el sistema Rx = QT b, esto es
        
2 4 5 x 6 x 10
 0 2 3   y  =  −6  =⇒  y  =  −6  .
0 0 2 z 4 z 2

PROBLEMAS

Espacio euclídeo. Matriz del producto escalar. Norma de un vector. Ángulo


entre vectores.

(P.1) Comprueba que la aplicación (·|·) : R2 × R2 −→ R definida por


   
y1 z1
(y|z) = y1 z1 + 2y1 z2 + 2y2 z1 + 5y2 z2 , ∀y = ,z = ∈ R2
y2 z2
es un producto escalar sobre R2 .

159
(P.2) Comprueba que la aplicación (·|·) : R2 × R2 −→ R definida por
   
y1 z1
(y|z) = 3y1 z1 − 2y1 z2 − 2y2 z1 + 2y2 z2 , ∀y = ,z = ∈ R2
y2 z2

es un producto escalar sobre R2 .


(P.3) Demuestra que la aplicación (·|·) : R2 × R2 −→ R definida por
      
 1 −1 z1 y1 z1
(y|z) = y1 y2 , ∀y = ,z = ∈ R2
−1 4 z2 y2 z2

es un producto escalar sobre R2 .


(P.4) Considera R3 dotado con el producto escalar estándar. Calcula la matriz del producto
escalar respecto de las bases R3 :
           
 1 3 −2   1 2 1 
A=   
1 , 1 , −1    y B=    
1 , 1 , 0  . 
   
2 1 2 0 0 3

(P.5) Comprueba que si x, y y z son vectores de un espacio euclídeo real E, se verifica:

k x + y + z k2 =k x k2 + k y k2 + k z k2 +2(x|y) + 2(x|z) + 2(y|z)

(P.6) Sea E un espacio euclídeo sobre C y sean a y b dos vectores de E. Prueba que

(a + b|a − b) =k a k2 −2i Im(a|b)− k b k2 .

(P.7) Sea E un espacio euclídeo sobre R. Prueba que

(1) k a + b k2 − k a − b k2 = 4(a|b), ∀a, b ∈ E.

(2) α2 k a k2 =k αa k2 , ∀α ∈ R y ∀a ∈ E.

(P.8) Demuestra que en un espacio euclídeo E se verifica:


1 1
Re(x|y) = k x + y k2 − k x − y k2 , ∀x, y ∈ E.
4 4
   
1 6
(P.9) En R con el producto escalar estándar, sean x =
2
,y = . Calcula k x k, k y k
2 4
y el coseno del ángulo formado por x e y.
(P.10) 
Considera M2×2 (R)
 con el producto
 escalar (X|Y ) = tr(Y T X), ∀X, Y ∈ M2×2 (R).
1 −1 1 0
Si A = ,B = ∈ M2×2 (R), calcula k A k, k B k y el coseno del ángulo
1 2 −1 1
formado por A y B.

160
(P.11) Considera P2 (R) con el producto escalar (p|q) = a0 b0 + a1 b1 + a2 b2 ∀p(x) = a0 + a1 x +
a2 x2 , q(x) = b0 + b1 x + b2 x2 ∈ P2 (R). Si p(x) = 1 + 2x − x2 y q(x) = 2 − 3x2 ∈ P2 (R) , calcula
k p k, k q k y el coseno del ángulo formado por p e q.
(P.12) En un espacio euclídeo real E se consideran dos vectores unitarios u y v que forman un
ángulo de 60 grados. Calcula k 2u + v k.
(P.13) En un espacio euclídeo real E se consideran dos vectores u y v. Si k u k= 2 y k v k= 7,
calcula (u − 4v|u + 4v).
(P.14) Sean E un espacio euclídeo y x e y dos vectores de E.
1. Si z =k x k2 y − (y|x)x, demuestra que k z k2 =k x k2 (k x k2 k y k2 −|(x|y)|2 ).
2. Demuestra que |(x|y)| ≤k x kk y k (desigualdad de Cauchy-Schwarz).
3. Comprueba que |(x|y)| =k x kk y k si, y sólo si x e y son proporcionales.

Ortogonalidad. Método de ortogonalización de Gram-Schmidt. Subespacio or-


togonal.

(P.15) Sea E un espacio euclídeo real y x e y dos vectores de E. Prueba


x⊥y ⇔ k x + y k2 =k x k2 + k y k2

(P.16) Probar que si u y v son dos vectores de un espacio euclídeo real tales que k u k=k v k,
entonces u + v y u − v son ortogonales.

(P.17) Considera el espacio euclídeo M2×2 (C) con el producto escalar (A|B) =  tr(B A),
i i
∀A, B ∈ M2×2 (C). Calcula k A k, k B k y la distancia entre A y B, siendo A = y
  2 0
2 i
B= . ¿Es {A, B} un conjunto ortogonal?
−i 2
(P.18) Considera el espacio
 euclídeo
 R3 con el producto escalar
estándar.
  Calcula la proyección
1  x 
ortogonal del vector v =  2  de R sobre el subespacio F =
3  y  ∈R :x+y+z =0 .
3
 
3 z
  
 x 
(P.19) Calcula una base ortogonal de F = y  ∈ R3 : 2x + y − z = 0 con el producto
 
z  
1
escalar estándar de R3 . Calcula la proyección ortogonal de v = 0 ∈ R3 sobre F .
1
(P.20) Considera el espacio  R con el producto escalar estándar.
 euclídeo
4
  Calcula la proyección

1 
 a 

 1    
   b 
ortogonal del vector v =  de R 4
sobre el subespacio F = ∈ R 4
: a, b ∈ R .
1  

 b  

 
−1 a

161
(P.21) Considera el espacio euclídeo M2×2 (R) con el producto escalar (A|B) = tr(B T A),
∀A, B ∈ M2×2 (R).    
2 −1 1 −1
1. Calcula la proyección ortogonal del vector A = sobre el el vector B = .
  1 1    1 1

3 −2 1 0 0 1
2. Calcula la proyección de C = sobre el subespacio F = L , .
1 1 1 1 1 1

(P.22) Considera el espacio euclídeoZ P2 (R) dotado con el producto escalar


1
(p|q) = p(x)q(x) dx, ∀p, q ∈ P2 (R)
0
1. Calcula el ángulo entre los vectores x + 3 y 2x + 4.
2. Calcula un vector no nulo que sea ortogonal a x + 3.
3. Calcula la proyección ortogonal de x + 3 sobre el subespacio U = L({x2 + 2}).
(P.23) Considera el espacio euclídeo R3 dotado con el producto escalar
       
a x a x
 b   y  = ax + (a + b)(x + y) + (a + b + c)(x + y + z), ∀  b  ,  y  ∈ R3
c z c z
      
1  0 1 
1. Calcula la proyección ortogonal de v =  2  sobre F = L    
1 , −1  .
 
1 2 0
2. Calcula la distancia de v a F .
   
 −1 1 
3. ¿Es el conjunto  −1  ,  −1  ortogonal?
 
1 0
(P.24) Sea E un espacio euclídeo y {v1 , v2 , v3 } una base ortonormal de E. Prueba que
3
X
(x|y) = (x|vi )(y|vi ).
i=1

(P.25) Sea E un espacio vectorial euclídeo sobre K de dimensión finita. Decide si son verdaderas
o falsas las siguientes afirmaciones:
1. Todo conjunto LI de E es ortogonal.
2. Todo conjunto ortonormal es LI.
3. Todo conjunto ortogonal que no contenga al vector cero es ortonormal.
4. La proyección ortogonal de y sobre v coincide con la proyección ortogonal de y sobre αv,
con α ∈ K, α 6= 0.

(P.26) Sea E un espacio euclídeo de dimensión n y F es un subespacio vectorial de E. Si x ∈ E


y denotamos con p la proyección ortogonal de x sobre F , prueba que

162
1. (x − p | v) = 0 ∀v ∈ F.

2. k x − p k≤k x − v k ∀v ∈ F .

(P.27) Considera
 el espacio   R con
 vectorial
3
el producto
escalar
  estándar,
  ortonormaliza
 las bases
 1 1 1   1 1 0 
de R3 : B =  1  ,  −1  ,  1  , C =  1  ,  0  ,  1  y
   
  1  1 −1
 1 1 1
 2 1 −1 
D =  1  ,  −1  ,  1  .
 
−1 1 1

(P.28) Considera el espacio vectorial M2×2 (R) con el producto escalar (A|B) = tr(B T A),
∀A, B ∈ M2×2 (R). Ortonormaliza los subconjuntos de M2×2 (R):
   
−1 1 2 −1
1. , .
1 0 1 1
     
2 1 1 3 −1 0
2. , , .
1 0 −1 1 0 1
(P.29) Considera el espacio euclídeoZ P2 (R) dotado con el producto escalar
1
(p|q) = p(x)q(x) dx, ∀p, q ∈ P2 (R) .
0
Ortonormaliza los subconjuntos de P2 (R):
1. {1 − x2 , 1 + 2x2 }
2. {1 + x, x + x2 , 1 + x2 }.
(P.30) Sea el espacio vectorial R3 . Considera los producto escalares definidos en R3 : (·|·)1 el
producto escalar estándar y el producto escalar (·|·)2 :
       
a x a x
 b   y  = ax + (a + b)(x + y) + (a + b + c)(x + y + z), ∀  b  ,  y  ∈ R3 .
c z 2
c z
  
 a 
Calcula el subespacio ortogonal a F =  b  ∈ R : a + b + c = 0 respecto de cada uno
3
 
c
de los dos productos escalares definidos.
  

 x 

  y  
 
(P.31) Considera H =   ∈ R : x + y = 0, x − y + 2z = 0 subespacio de R4 con el
4

 z 

 
t
producto escalar estándar. Construye una base ortonormal A de H y una base ortonormal B de
H ⊥ . ¿A ∪ B es una base ortonormal de R4 ? Justifica tu respuesta.

163
(P.32) Calcula una base y la dimensión de F ∩ G y (F ∩ G)⊥ , siendo:
     

 x 
 
 x 

     
y y x−y+z =0
F =    ∈ R4 : x − y = 0 y G=    ∈ R4 : .

 z 
 
 z t=0 

   
t t

Completa la base obtenida anteriormente de F ∩ G hasta conseguir una base de R4 .


(P.33)    el espacio vectorial Rdotado con el producto escalar estándar.
Considera 4


 x 

  
y
Si U =   z 
 ∈ R : x + y + z = 0 , calcula una base ortonormal de R4 que contenga una
4

 

 
t
base ortonormal de U .
(P.34) Considera
 el espacio C2 dotado con el producto escalar estándar. Transforma
 vectorial
−1 + i 2
la base A = , de C2 en una base ortonormal de C2 .
1 1−i
Z 1
(P.35) Considera el espacio vectorial P2 (R) dotado con el producto escalar (p | q) = p(x)q(x)dx.
−1
 
3 2 1
1. Prueba que A = 1, x, x − (polinomios de Legendre) es una base ortogonal de
2 2
P2 (R).
2. Consigue una base ortonormal de P2 (R) a partir de A.
3. Si F = L({1 + x + x2 }) es un subespacio de P2 (R), calcula una base y la dimensión del
subespacio ortogonal de F , F ⊥ .

(P.36) Considera
 el espacio
  vectorial
 R4 dotado con el producto escalar estándar.

 1 1  
 1   1 
Si W = L      
 −1  ,  1  un subespacio R , entonces:
4


 

2 −2
1. halla una base ortonormal de W ;
2. calcula el subespacio ortogonal de W , W ⊥ ;
3. halla una base ortonormal de W ⊥ ;
4. obtén una base ortonormal de R4 que contenga una base de W ;
 
1
 0 
5. calcula la proyección ortogonal de   ⊥
 0  sobre W y sobre W ¿Qué se obtiene al sumar
0
las dos proyecciones?

164
(P.37) Considera el espacio vectorial M2×2 (R) dotado con el producto escalar
(A | B) = tr(B T A) y el subespacio de M2×2 (R)
  
a + b −b
V = | a, b, c ∈ R
−c a − b

Calcula una base ortonormal de V y una base ortonormal de V ⊥ .


(P.38) Sean V y W dos subespacios de un espacio euclídeo E. Prueba que

(i) (F + G)⊥ = F ⊥ ∩ G⊥ (ii) (F ∩ G)⊥ = F ⊥ + G⊥ .

Ajuste por mínimos cuadrados. Factorización QR.


 
−2 3
 5 7 
(P.39) Considera la matriz A =  
 2 −2  ∈ M4×2 (R).
4 6
1. Aplica el método de ortogonalización de Gram-Schmidt a las columnas de la matriz A y
construye con ellas la matriz Q de la factorización QR de A.

2. Obtener una matriz triangular superior con entradas diagonales positivas R tal que A = QR.
 
1 0 0
 1 1 0 
(P.40) Calcular la factorización QR de la matriz A = 
 1
 ∈ M4×3 (R).
1 1 
1 1 1
 
1 1 0
(P.41) Calcular la factorización QR de la matriz A =  0 −1 1  ∈ M3×3 (R).
1 0 −1
(P.42) Halla la recta que mejor ajusta a las siguientes mediciones:
(i) (0, 1.2), (1, 2.4) y (2, 3.6).

(ii) (0, 10.1), (1, 12.3), (2, 14.3) y (3, 16.4).

(P.43) Dados los puntos (−1, −2), (1, 0), (2, 1) y (3, 0), halla la recta y la parábola que mejor
ajustan por el método de los mínimos cuadrados. Calcula el error cuadrático.
(P.44) La siguiente tabla indica la estatura media en centímetros para niños de 0, 1, 2, 3 y 4
semestres de vida:

x 0 1 2 3 4
y 50 66, 5 75 81 86, 5

165
Ajusta una recta. Calcula el error cuadrático.
(P.45) Un objeto se suspende en un túnel de viento y se mide la fuerza para varios niveles de
velocidad del viento. Los datos obtenidos están tabulados en la siguiente tabla:
v, m/s 10 20 30 40 50 60 70 80
F, N 25 70 380 550 610 1120 830 1450
Obtén la recta que mejor ajusta a estos datos.
(P.46) En el laboratorio de electricidad los estudiantes de la materia de circuitos eléctricos
intentan encontrar una relación entre la variación de una resistencia con su temperatura. Las
mediciones han sido recogidas en la siguiente tabla:
T ◦C 20.22 32.65 52 73.3 95.6
R (omhs) 765 826 872 941 1032.3
1. Representa los datos de la tabla para conjeturar que la relación entre la resistencia y la
temperatura es lineal: es decir, R = m T + b. Ajusta esos datos utilizando el método de los
mínimos cuadrados para determinar m y b.
2. Estima la resistencia que corresponde a una temperatura de 90◦ C.
(P.47) Un objeto se deja caer desde un acantilado y se registra su posición, s, desde ese
nivel(considerando positiva la dirección hacia abajo), y resultan los datos de la tabla siguiente:
t 1 2 3 4
s 4.85 19.55 44.04 78.35
donde t, el tiempo, se mide en segundos y s en metros. Realiza un ajuste por mínimos cuadrados
a un polinomio de segundo grado para estimar s(t) en cualquier instante t. Escribe el resultado
final redondeando a una cifra decimal.
(P.48) Desde los puntos A, B, C y D se miden experimentalmente los siguientes ángulos:
ν1 = 51o , ν2 = 73o , ν3 = 18o , ν4 = 40o , ν5 = 60o y ν6 = 119o . Hallar las correcciones εi , con
i = 1, ..., 6, por el método de mínimos cuadrados que compensen las medidas observadas.

(P.49) Dado el siguiente sistema de ecuaciones:



 x + y + z + t = 20
x + y + z + t = 32

x + y + z + t = 40

166
aplicar el método de mínimos cuadrados para obtener la solución con error cuadrático mínimo
que tiene a su vez norma mínima.
(P.50) Calcular la solucíón del sistema:

 ε1 + ε2 − ε4 + 3 =0
ε2 + ε3 − ε5 − 2 =0

ε1 + ε 2 + ε3 − ε6 − 1 = 0
que tiene norma mínima.

CUESTIONES

(C1) Sean u, v y w tres vectores de un espacio euclídeo E sobre C y α, β y δ ∈ C. Una de las


siguientes afirmaciones es verdadera:
(a) (αu + βv|δw) = αδ(u|w) + βδ(v|w).
(b) (αu + βv|δw) = αδ(u|w) + βδ(v|w).
(c) (αu + βv|δw) = αδ(u|w) + βδ(v|w).

(C2)Consideramos R2 con el producto


  escalar
  estándar.
 Los coeficientes de Fourier del vector
1 1 1
respecto de la base A = , son:
2 −1 1
1 3 2
(a) α1 = −1 y α2 = 3 (b) α1 = − y α2 = (c) α1 = −2 y α2 = .
2 2 3
(C3) Sea E un espacio euclídeo sobre K de dimensión n y sea F un subespacio vectorial de E.
Una de las siguientes afirmaciones es verdadera:
(a) Si {x1 , x2 , . . . , xk } es una base de F , entonces aplicando el método de Gram-Schmidt
obtenemos una base de F ⊥ .
(b) Todo conjunto ortogonal {y1 , y2 , . . . , yk } de E, con k < n, puede extenderse a una base de
E.
(c) Si x ∈ E, entonces x se escribe de forma única como suma de un vector de F y un vector
de F ⊥ .

(C4) Sea E un espacio euclídeo sobre K de dimensión finita y sean x, y ∈ E vectores no nulos
tales que y = 3x. Una de las siguientes afirmaciones es verdadera:
(a) |(x|y)| <k x k · k y k.
(b) |(x|y)| >k x k · k y k.
(c) |(x|y)| =k x k · k y k.

(C5) Sea E un espacio euclídeo sobre K de dimensión finita. Una de las siguientes afirmaciones
es verdadera:
(a) Si x, y ∈ E tal que |(x|y)| <k x k · k y k, entonces {x, y} es una base de F = L({x, y}).
(b) Si x, y ∈ E tal que |(x|y)| =k x k · k y k, entonces x es ortogonal a y.
(c) La desigualdad de Cauchy-Schwarz afirma |(x|y)| >k x k · k y k ∀x, y ∈ E.

167
(C6) Si E es un espacio euclídeo sobre K de dimensión n, entonces una de las siguientes
afirmaciones es verdadera:
(a) k x + y k2 =k x k2 + k y k2 , ∀x, y ∈ E.
(b) Si x, y ∈ E, entonces k x + y k2 + k x − y k2 = 2 k x k2 +2 k y k2 ⇔ x ⊥ y.
(c) Si x, y ∈ E − {0} y x ⊥ y, entonces |(x|y)| <k x k · k y k.

(C7) Si E es un espacio euclídeo sobre C de dimensión n, entonces es cierto que:


(a) Si x, y ∈ E tales que x ⊥ y, entonces {x, y} es LI.
(b) Si x, y ∈ E tales que x ⊥ y, x ⊥ z y α, β ∈ C, entonces x ⊥ (αy + βz).
(c) Si x, y ∈ E tales que x ⊥ y y k x k=k y k= 1, entonces k x + y k= 2.

(C8) Sea E un espacio euclídeo sobre C de dimensión n. La proyección ortogonal de un vector


x ∈ E sobre un vector no nulo y de E es:
(x|y) (x|y) (y|x)
(a) y, (b) x, (c) y.
(y|y) (x|x) (y|y)

(C9) Sea E un espacio euclídeo sobre K de dimensión n y sea x ∈ E. Si F es un subespacio


vectorial de E y proyF (x) denota a la proyección ortogonal del vector x sobre F , entonces se
verifica:
(a) (proyF (x)|y) = 0, ∀y ∈ F .
(x|x1 ) (x|xk )
(b) proyF (x) = x1 + . . . + xk , siendo {x1 , . . . , xk } una base de F .
(x1 |x1 ) (xk |xk )
(c) La distancia de x a F es d(x, F ) =k x − proyF (x) k.

(C10) Sea E un espacio euclídeo sobre K de dimensión n y sea S un subconjunto no vacío de


E. Una de las siguientes afirmaciones es INCORRECTA:
(a) Si S es ortonormal, entonces S no posee más de n vectores.
(b) Si S es ortonormal y contiene n vectores, entonces S es una base de E.
(c) Si S es ortogonal, entonces S no posee más de n vectores.

(C11) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es cierta:
(a) La norma de un vector de E no depende del producto escalar definido en E.
(b) Si los vectores de la base B = {v1 , . . . , vn } verifican k vi k= 1, ∀i ∈ {1, . . . , n}, entonces
B es una base ortonormal.
(c) El método de ortogonalización de Gram-Schmidt garantiza la existencia de bases ortogonales.

(C12) Sea E un espacio euclídeo sobre K de dimensión n. Si F es un subespacio vectorial de


E y A = {x1 , . . . , xk } es una base de F , entonces se verifica:
(a) Al aplicar el método de Gram-Schmidt a la base A conseguimos una base ortonormal de F .
(x|x1 ) (x|xk )
(b) Si x ∈ E, entonces la proyección ortogonal de x sobre F es x1 + . . . + xk .
(x1 |x1 ) (xk |xk )

168
(c) Si (y|xi ) = 0, ∀i ∈ {1, . . . , k}, entonces y ∈ F ⊥ .

(C13) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es verdadera:
(a) Si A = {x1 , . . . , xn } es un subconjunto ortogonal de E, entonces A es una base de E.
(b) Si U es un subespacio vectorial de E, v ∈ E y B = {w1 , . . . , wk } es una base ortonormal
de U , entonces la proyección ortogonal de v sobre U es (v|w1 )w1 + . . . + (v|wk )wk .
(c) Si C = {y1 , . . . , yn } es una base ortogonal de E, entonces D = {k y1 k y1 , . . . , k yn k yn }
es una base ortonormal de E.

(C14) Sea E un espacio euclídeo sobre K de dimensión n. Una de las siguientes afirmaciones
es verdadera:
(a) Si F y G son dos subespacios vectoriales de E, entonces (F + G)⊥ = F ⊥ + G⊥ .
(b) Si F es un subespacio vectorial de E, entonces E = F ⊥ ⊕ (F ⊥ )⊥ .
(c) Si F y G son dos subespacios vectoriales de E tales que F ⊆ G, entonces F ⊥ ⊆ G⊥ .

(C15) Sean A ∈ Mm×n (R) y Ax = b un sistema de ecuaciones lineales. Una de las siguientes
afirmaciones es cierta:
(a) Si ρ(A) = n, entonces det(A+ ) 6= 0.
(b) Si ρ(A) < n, entonces la solución a las ecuaciones normales asociadas al sistema Ax = b es
única.
(c) Si ρ(A) = n, entonces ρ(A+ ) = n.

(C16) Si Ax = b es un sistema de ecuaciones lineales incompatible con A ∈ Mm×n (R), entonces


una de las siguientes afirmaciones es FALSA:
(a) Si x0 es una solución del PLMC asociado al sistema Ax = b, entonces k b − Ax0 k2 = 0.
(b) Si x0 es una solución del PLMC asociado al sistema Ax = b, entonces k b − Ax0 k2 ≤
k b − Ax k2 , ∀x ∈ Rn .
(c) Si x0 es una solución del PLMC asociado al sistema Ax = b, entonces k b−Ax0 k2 =k b2 k2 ,
con b = b1 + b2 , b1 ∈ Im(A) y b2 ∈ Im(A)⊥ .

(C17) Considera el sistema de ecuaciones lineales Ax = b con A ∈ Mm×n (R), b = b1 + b2 ,


siendo b1 ∈ Im(A), 0 6= b2 ∈ Im(A)⊥ y x0 ∈ Rn . Una de las siguientes afirmaciones es
verdadera:
(a) Si k Ax0 − b k2 =k b2 k2 , entonces el sistema es compatible determinado.
(b) Si ρ(A) < n, entonces el PLMC asociado a Ax = b tiene solución y, además, es única.
(c) Si x0 es una solución de las ecuaciones normales relativas al sistema Ax = b, entonces x0
es una solución del PLMC asociado a dicho sistema.

(C18) Sea A ∈ Mm×n (R) y Ax = b un sistema de ecuaciones lineales incompatible. Una de


las siguientes afirmaciones es verdadera:
(a) Si x0 es la única solución al PLMC asociado al sistema de ecuaciones lineales Ax = b,
entonces k Ax0 − b k2 = 0.

169
(b) Si x0 es la única solución al PLMC asociado al sistema de ecuaciones lineales Ax = b,
entonces ρ(AT A) = n
(c) Si x0 es la única solución al PLMC asociado al sistema de ecuaciones lineales Ax = b,
entonces x0 = (AT A)−1 b.

170
Tema 5: Diagonalización de Matrices Cuadradas

5.1. Diagonalización de matrices cuadradas.

5.1.1 Valores y vectores propios de una matriz. El polinomio característico de una


matriz cuadrada.
5.1.2 Matrices diagonalizables.
5.1.3 Resolución de la ecuación matricial f (X) = A.

5.2. Aplicación: Cadenas de Markov.

5.3. Diagonalización de matrices hermíticas y de matrices simétricas reales.

171
5.1. DIAGONALIZACIÓN DE MATRICES CUADRADAS.

En la sección 3.4.3. del tema de aplicaciones lineales vimos que dos matrices asociadas a una
misma aplicación lineal respecto de parejas de bases distintas son matrices equivalentes, es decir,
A y B ∈ Mm×n (K) representan a la aplicación lineal T : E −→ F respecto de parejas de bases
ordenadas A y C de E y B y D de F ( A = T AB y B = T CD ), si y sólo si, existen P ∈ Mm×m (K) y
Q ∈ Mn×n (K) no singulares tales que B = PAQ.
Si T es un endomorfismo, se tiene que A y B ∈ Mn×n (K) representan al endomorfismo T : E −→ E
respecto de parejas de bases ordenadas A y B de E ( A = T BB y B = T AA ), si y sólo si, existe
P ∈ Mn×n (K) no singular tal que B = PAP−1 . Las matrices que cumplen esta relación se dice que
son matrices similares.
Puesto que las matrices más simples son las matrices diagonales, nos preguntamos si es posible
encontrar una base A de E tal que la matriz asociada al endomorfismo T respecto de esta base sea
una matriz diagonal D. Si esta base existe y consideramos A la matriz asociada al endomorfismo
T respecto de la base canónica B, entonces las matrices A = T BB y D = T AA son similares. Éste
será el objetivo de este tema: dada una matriz A ∈ Mn×n (K) ver si es posible encontrar una matriz
P ∈ Mn×n (K) no singular y una matriz D ∈ Mn×n (K) diagonal tales que A = PDP−1 .
Este tema es uno de los de mayor aplicación del Álgebra Lineal. La diagonalización de matrices se
usa en varias áreas de las Matemáticas, en Física, en Mecánica, en Ingeniería eléctrica y nuclear,
en Teoría de estructuras, en Hidrodinámica y Aerodinámica, en Genética, en Economía, etc. Pen-
semos, por ejemplo, en el tensor de inercia estudiado en Física: al calcular los ejes principales del
tensor de inercia se está diagonalizando una matriz real simétrica de tamaño 3 × 3.

5.1.1. Valores y Vectores Propios de una Matriz. El Polinomio Característico de una Matriz
Cuadrada.

Dada una matriz A ∈ Mn×n (K) queremos encontrar, si es posible, una matriz P ∈ Mn×n (K)
no singular y una matriz D ∈ Mn×n (K) diagonal tales que A = PDP−1 . Supongamos que P es
una matriz cuyas columnas son los vectores v1 , v2 , . . . , vn ∈ Kn y que D = diag(α1 , α2 , . . . , αn ).
Imponiendo que A y D sean similares, se obtiene que
   
A = PDP−1 =⇒ AP = PD =⇒ A v1 v2 . . . vn = v1 v2 . . . vn diag(α1 , α2 , . . . , αn )
   
=⇒ Av1 Av2 . . . Avn = α1 v1 α2 v2 . . . αn vn =⇒ Avi = αi vi , 1 ≤ i ≤ n.

Tenemos entonces que buscar vectores v que verifiquen que Av = αv, con α ∈ K, es decir, vectores
v de forma que el vector Av resulte ser proporcional a v. Esto nos conduce a la siguiente definición.

Definición 1. Sea A ∈ Mn×n (K). Diremos que α ∈ K es un valor propio o autovalor de A si existe
x ∈ Kn no nulo tal que Ax = αx.
En tal caso, al vector x se le llama vector propio o autovector de A asociado a α.
Al conjunto formado por los valores propios de A se le llama espectro de A y lo denotaremos por
σ(A).

172
En muchos textos de física y de ingeniería a los valores propios se les llama valores principales y
a los vectores propios se les llama direcciones principales.
! !
2 2 2
Ejemplo 2. Considera la matriz A = ∈ M2×2 (R). Comprueba que v = yu =
2 −1 1
!
1
son vectores propios de A.
−2
Si calculamos el producto de A por el vector v, se
tiene
! ! ! Au = −2u 4
2 2 2 6
Av = = = 3v
2 −1 1 3 Av = 3v
3
luego, 3 es un valor propio de A y v es un vector 2
propio de A asociado a 3.
1 v
Análogamente, multiplicando A por el vector u
se obtiene
! ! ! −2 −1 1 2 3 4 5 6
2 2 1 −2 −1
Au = = = −2u u
2 −1 −2 4 −2

luego, −2 es un valor propio de A y u es un vector


propio de A asociado a −2.
Si x es un vector propio de A asociado a α, entonces x es un vector no nulo tal que
Ax = αx =⇒ Ax − αx = 0 =⇒ (A − αIn×n )x = 0 (1)
Luego x debe ser una solución no nula del sistema homogéneo (1). Para que exista esta solución no
nula, la matriz de coeficientes del sistema, A − αIn×n , debe ser singular y, por tanto, su determinante
debe ser nulo.
Definición 3. Sea A una matriz n × n con entradas en K. Llamaremos polinomio característico de
A, y lo denotaremos por dA (λ), al polinomio en λ que se obtiene al calcular el determinante de la
matriz A − λIn×n :
dA (λ) = det(A − λIn×n )
Si A es una matriz n × n con entradas en K, entonces dA (λ) es un polinomio de grado n con
coeficientes en K cuyo coeficiente director es (−1)n .
Por tanto, los valores propios de una matriz son los ceros de su polinomio característico que
pertenezcan a K. Como los ceros de un polinomio pueden repetirse, conviene introducir la siguiente
definición.
Definición 4. Si α es un valor propio de una matriz A, llamaremos multiplicidad algebraica de α a
la multiplicidad de α como cero del polinomio característico de A y la denotaremos por MA(α).
!
1 1
Ejemplo 5. Considera la matriz A = ∈ M2×2 (R). Calcula el polinomio característico y
1 1
los valores propios de A.
!
1−λ 1
dA (λ) = det(A − λI2×2 ) = det = (1 − λ)2 − 1 = 1 − 2λ + λ2 − 1 = λ2 − 2λ = λ(λ − 2)
1 1−λ

173
Por tanto, el espectro de A es σ(A) = {0, 2}, es decir, los valores propios de A son 0 y 2, con
MA(0) = 1, MA(2) = 1.
Como ejemplos de matrices cuyo polinomio característico se calcula fácilmente podemos en-
contrar las matrices triangulares y, en particular, las matrices diagonales. Claramente, si A es una
matriz diagonal, A = diag(a11 , . . . , ann ), entonces

dA (λ) = det(A − λIn×n ) = (a11 − λ) · · · (ann − λ) y σ(A) = {a11 , . . . , ann }.

Análogamente, si A es una matriz triangular, entonces dA (λ) = det(A−λIn×n ) = (a11 −λ) · · · (ann −λ)
y σ(A) = {a11 , . . . , ann }.
Como consecuencia de que el determinante de una matriz coincide con el de su traspuesta, se
obtiene que A y AT tiene el mismo polinomio característico.
Proposición 6. Si A ∈ Mn×n (K), entonces dAT (λ) = dA (λ).
Por tanto, A y AT tienen los mismos valores propios (con las mismas multiplicidades algebraicas).
Por otra parte, si x es un vector propio de A podemos plantearnos si será vector propio de A2 , o
en general de Ak , con k ∈ N. Y si lo es, ¿a qué valor propio está asociado?
Sea A ∈ Mn×n (K) y sean α un valor propio de A y x un vector propio de A asociado a α. Entonces,

Ax = αx =⇒ A2 x = A(Ax) = A(αx) = α(Ax) = α2 x

luego x es vector propio de A2 asociado a α2 . Y así, en general, para k ∈ N, Ak x = αk x y, por tanto,


x es vector propio de Ak asociado a αk . Se tiene entonces el siguiente resultado.
Teorema 7. (Teorema de Frobenius) Sea A ∈ Mn×n (K). Si p(λ) = c0 + c1 λ + · · · + ck λk es un
polinomio con coeficientes en K no constante y σ(A) = {α1 , . . . , αn }, entonces

σ(p(A)) = {p(α1 ), . . . , p(αn )},

siendo p(A) = c0 In×n + c1 A + · · · + ck Ak ∈ Mn×n (K).


Si 0 es un valor propio de una matriz A, entonces existirá un vector x no nulo tal que Ax = 0 y,
por tanto, A debe ser singular.
Proposición 8. (Relación entre la no singularidad y el espectro de una matriz)
Sea A ∈ Mn×n (K).
• A es no singular si, y sólo si, 0 no es valor propio de A.
( )
−11 1
• Si A es no singular y σ(A) = {α1 , . . . , αn }, entonces σ(A ) = ,..., .
α1 αn

Además, se puede probar que la traza de una matriz coincide con la suma de sus valores propios
y el determinante coincide con el producto de sus valores propios.
Proposición 9. Si A ∈ Mn×n (K) y σ(A) = {α1 , . . . , αn }, entonces

tr(A) = α1 + · · · + αn y det(A) = α1 · · · αn .

174
 
 5 4 3 
 
Ejemplo 10. Calcula los valores propios de la matriz A =  −1 0 −3  y los valores propios
 
1 −2 1
de la matriz B = A3 − 2A2 − 11A + 12I3×3 .
¿Son no singulares las matrices A y B? En caso afirmativo, calcula los valores propios de la matriz
inversa.
Calculamos el polinomio característico de A:
   
 5 − λ 4 3  F + F  5 − λ 4 3  C − C
  2 1   1 2
dA (λ) = det(A − λI3×3 ) = det  −1 −λ −3  = det  4 − λ 4 − λ 0  =
   
1 −2 1 − λ 1 −2 1 − λ
 
 1 − λ 4 3 
 
= det  0 4−λ 0  = (4 − λ)[(1 − λ)2 − 9] = (4 − λ)(1 − λ + 3)(1 − λ − 3) =
 
3 −2 1 − λ
= (4 − λ)2 (−2 − λ)

Luego σ(A) = {4, 4, −2}, es decir, los valores propios de A son 4 y −2, con MA(4) = 2 y MA(−2) =
1. Se comprueba que tr(A) = 6 = 4 + 4 + (−2) y det(A) = −32 = 4 · 4 · (−2).
Si consideramos el polinomio p(λ) = λ3 − 2λ2 − 11λ + 12, entonces B = p(A) y aplicando el
Teorema de Frobenius se obtiene

σ(B) = {p(4), p(4), p(−2)} = {0, 0, 18},con MA(0) = 2 y MA(18) = 1.


( )
−1 1 1 1
Como los valores propios de A son no nulos, A es una matriz no singular y σ(A ) = , ,− ,
! ! 4 4 2
1 1
con MA = 2 y MA − = 1. Como 0 es valor propio de B, B es singular.
4 2

Podemos plantearnos si existe alguna relación entre los valores propios o entre los polinomios
característicos de dos matrices similares.
Si A y B son matrices similares, entonces existe una matriz P no singular tal que B = PAP−1 . Si
calculamos el polinomio característico de B se tiene que

dB (λ) = det(B−λI) = det(PAP−1 −λI) = det(PAP−1 −λPIP−1 ) = det(P) det(A−λI) det(P−1 ) = dA (λ)

Proposición 11. Sean A, B ∈ Mn×n (K). Si A y B son matrices similares, entonces A y B tienen el
mismo polinomio característico y, como consecuencia, A y B tienen los mismos valores propios.

Veamos cómo calcular los vectores propios de una matriz. Si x es un vector propio de A aso-
ciado a α, x debe ser una solución no nula del sistema homogéneo (A − αIn×n )x = 0, o equiva-
lentemente, x debe ser un vector no nulo de N(A − αIn×n ). Así, una vez calculados los valores
propios, para calcular los vectores propios asociados a cada uno de ellos, resolveremos el sistema
homogéneo (A − αIn×n )x = 0, para cada valor propio α. Como N(A − αIn×n ) es un subespacio de
Kn , introducimos la siguiente definición.

175
Definición 12. Si A ∈ Mn×n (K) y α es un valor propio de A, se llama subespacio propio o autoes-
pacio asociado a α al subespacio que contiene todos los vectores propios de A asociados a α junto
con el vector 0:

E(α) = N(A − αIn×n ) = {x ∈ Kn : x , 0 tal que Ax = αx} ∪ {0}

Llamaremos multiplicidad geométrica de α a la dimensión del subespacio E(α) y la denotaremos


por MG(α).
 
 5 4 3 
 
Ejemplo 13. Calcula los subespacios propios de la matriz A =  −1 0 −3  ∈ M3×3 (R) del
 
1 −2 1
Ejemplo 10.
Ya sabemos que los valores propios de A son 4 y −2 (ver Ejemplo 10). Para calcular el subes-
pacio propio asociado a 4 debemos resolver el sistema homogéneo (A − 4I3×3 )x = 0:
         
 1 4 3   x   0   1 −2 −3   x   0  (
      Método de       x=z
 −1 −4 −3   y  =  0  −−−Gauss
−−−−→  0 1 1   y  =  0  =⇒
     y = −z
1 −2 −3 z 0 0 0 0 z 0
    

  z  
 
  1  

  
 
 
 

Por tanto, E(4) =   −z : z ∈ R  = L  −1 y la multiplicidad geométrica de 4 es MG(4) =
 z 
 
 
 1 
 

dimR E(4) = 1.
Análogamente, para calcular el subespacio propio asociado a −2 debemos resolver el sistema ho-
mogéneo (A + 2I3×3 )x = 0:
         
 7 4 3   x   0   1 −2 3   x   0  (
      Método de       x = −z
 −1 2 −3   y  =  0  −−−Gauss
−−−−→  0 1 −1   y  =  0  =⇒
     y=z
1 −2 3 z 0 0 0 0 z 0
    

  −z  
 
 −1 
 
   
 
 
 

Por tanto, E(−2) = 
  z  : z ∈ R
 = L   1  y la multiplicidad geométrica de −2 es MG(−2) =
 z 
 
 
 1 
 

dimR E(−2) = 1.
Nota 14. Si α es un valor propio de A, debe existir un vector propio de A asociado a α, por lo que
el subespacio propio E(α) debe ser de dimensión mayor o igual que 1, es decir, MG(α) ≥ 1.
Aplicando el Teorema de las dimensiones,

n = dimK Kn = dimK N(A − αIn×n ) + dimK Im(A − αIn×n ) = MG(α) + ρ(A − αIn×n )

de donde se deduce una fórmula para calcular la multiplicidad geométrica de α sin tener que
calcular los vectores propios:
MG(α) = n − ρ(A − αIn×n ). (2)
Además, se verifica la siguiente relación entre las multiplicidades algebraica y geométrica.

176
Teorema 15. (Relación entre la multiplicidad geométrica y la multiplicidad algebraica)
Si A ∈ Mn×n (K) y α es un valor propio de A, entonces MG(α) ≤ MA(α).

5.1.2. Matrices Diagonalizables.

Definición 16. Sea A una matriz n × n con entradas en K.


Diremos que A es una matriz diagonalizable en K si A es similar a una matriz diagonal, es decir,
si existen P ∈ Mn×n (K) no singular y D ∈ Mn×n (K) matriz diagonal tales que A = PDP−1 .
Teniendo en cuenta la introducción, es evidente que para que A sea diagonalizable es necesario
que las columnas de P sean n vectores propios de A, que deberán ser linealmente independientes
para que P sea no singular.
Teorema 17. (Primer teorema de caracterización de matrices diagonalizables)
Sea A una matriz n × n con entradas en K.
A es diagonalizable en K si, y sólo si, existe una base de Kn formada por vectores propios de A.
Nota 18. Consideremos B la base canónica de Kn y a partir de la matriz A construyamos el único
endomorfismo T : Kn −→ Kn tal que A = T BB . Si A es diagonalizable en K, entonces existe una
base A de Kn formada por vectores propios de A, de forma que D = T AA es diagonal. Si llamamos
P a la matriz de cambio de base de A a B, P = IdAB es no singular y se tiene que

A = T BB = IdAB T AA IdBA = PDP−1

luego A es similar a una matriz diagonal.


Por tanto, para resolver el problema solo nos falta encontrar un método para calcular una base
de Kn formada por vectores propios de A. El siguiente resultado afirma que los vectores propios de
una matriz que estén asociados a valores propios distintos son linealmente independientes.
Proposición 19. Sea A una matriz n × n con entradas en K.
Si x1 , . . . , xk son vectores propios de A asociados a distintos valores propios α1 , . . . , αk , respectiva-
mente, entonces el conjunto {x1 , . . . , xk } es linealmente independiente.
Teniendo en cuenta este último resultado, si calculamos una base de cada uno de los subespa-
cios propios, la unión de estas bases proporciona un conjunto linealmente independiente. Si este
conjunto contiene n vectores será una base de Kn formada por vectores propios y la matriz será
diagonalizable.
El siguiente teorema caracteriza las matrices diagonalizables en función del polinomio carac-
terístico y de las multiplicidades de los valores propios.
Teorema 20. (Segundo teorema de caracterización de matrices diagonalizables)
Sea A una matriz n × n con entradas en K.
(
(i) dA (λ) es producto de factores lineales en K[λ]
A es diagonalizable en K ⇐⇒
(ii) MA(α) = MG(α), para cada valor propio α de A
donde K[λ] denota el conjunto de polinomios con coeficientes en K en la indeterminada λ.
La condición (i) es equivalente a que todas las raíces del polinomio característico de A estén en
K. Teniendo en cuenta el Teorema Fundamental del Álgebra, esta condición se cumplirá siempre
para matrices complejas, pero puede no cumplirse si consideramos matrices reales.

177
Si A es una matriz n × n con n valores propios distintos en K, verificará la condición (i) y,
además, 1 ≤ MG(α) ≤ MA(α) = 1, luego también verifica la condición (ii). Se tiene entonces el
siguiente corolario.
Corolario 21. Sea A una matriz n × n con entradas en K.
Si A tiene n valores propios distintos en K, entonces A es diagonalizable en K.
Resumamos los pasos que hay que seguir para diagonalizar (si es posible) una matriz.
? Método práctico para diagonalizar (si es posible) una matriz cuadrada.
Dada una matriz A n × n con entradas en K.

Paso 1 Calcula el polinomio característico de A: dA (λ) = det(A − λIn×n ).

Paso 2 Calcula los valores propios de A (los ceros en K de dA (λ)) y sus multiplicidades algebrai-
cas.
Si dA (λ) no tiene n ceros en K, entonces A NO es diagonalizable en K.
Si dA (λ) tiene n ceros en K ( no necesariamente distintos), entonces ir al Paso 3

Paso 3 Calcula la multiplicidad geométrica de cada valor propio: MG(α) = n − ρ(A − αIn×n ), para
cada α ∈ σ(A).
Si MG(α) , MA(α), para algún valor propio de A, entonces A NO es diagonalizable en K.
Si MG(α) = MA(α), para cada valor propio de A, entonces A es diagonalizable en K. Seguir
con los Pasos 4 y 5.

Paso 4 Si A es diagonalizable en K, calcula una base de cada subespacio propio E(α), resolviendo
el sistema homogéneo (A − αIn×n )x = 0, para cada α ∈ σ(A).

Paso 5 Obtén la base A de Kn uniendo las bases de los subespacios propios.


La matriz del cambio de base P = IdAB , que cambia coordenadas de la base A a la base
canónica B, es una matriz no singular. Esta matriz contiene en sus columnas las coordenadas
de los vectores de la base A respecto de la base canónica.
Además, se verifica que A = PDP−1 , siendo D la matriz diagonal que contiene los valores
propios de A.

Nota 22. El orden de las columnas de P debe corresponder con el orden de los valores propios en
la diagonal de D, es decir, la columna i-ésima de P debe ser un vector propio asociado al valor
propio que ocupa la entrada i-ésima en la diagonal de D, para i = 1, 2, . . . , n.
Veamos algunos ejemplos.
Ejemplo 23. Estudia si cada una de las siguientes matrices es o no diagonalizable en R y en C y,
en caso afirmativo, diagonalízala.
   
 5 4 3  !  2 2 1 
  0 1  
A =  −1 0 −3  , B = , C =  1 3 1 
  −1 0  
1 −2 1 1 2 2

178
En el Ejemplo 10 hemos visto que dA (λ) = (4 − λ)2 (−2 − λ), luego el polinomio característico es
producto de factores lineales en R[λ] y en C[λ]. Además, en el Ejemplo 13 hemos calculado los
subespacios propios asociados a los valores propios de A, obteniéndose que
 
   1  
 
 

E(4) = L  −1
   y MG(4) = 1 , 2 = MA(4)

 1 
 

 
 −1 
  

E(−2) = L   1
    y MG(−2) = 1 = MA(−2)
 1 
 

Como la multiplicidad algebraica del valor propio 4 no coincide con la multiplicidad geométrica,
A NO es diagonalizable en R, ni tampoco en C.
Veamos qué ocurre con la matriz B. Calculemos en primer lugar su polinomio característico.
!
−λ 1
dB (λ) = det(B − λI2×2 ) = det = λ2 + 1 = (λ − i)(λ + i)
−1 −λ

Si consideramos B como una matriz real, como el polinomio característico de B no tiene 2 ceros
reales, entonces B NO es diagonalizable en R.
Sin embargo, si consideramos B como matriz compleja, los valores propios de B son i y −i con
MA(i) = 1 y MA(−i) = 1. Como B tiene todos sus valores propios distintos en C, B es diagonali-
zable en C.
Calculemos la matriz P ∈ M2×2 (C) no singular y la matriz diagonal D tales que B = PDP−1 .
Para ello debemos calcular una base de cada uno de los dos subespacios propios de B y unir las
dos bases. Así, para obtener el subespacio propio asociado a i resolvemos el sistema homogéneo
(B − iI2×2 )x = 0: ! ! !
−i 1 x 0
= =⇒ y = ix
−1 −i y 0
( ! ) ( !)!
x 1
Por tanto, E(i) = : x∈C =L .
ix i
Análogamente, para obtener el subespacio propio asociado a −i resolvemos el sistema homogéneo
(B + iI2×2 )x = 0: ! ! !
i 1 x 0
= =⇒ x = iy
−1 i y 0
( ! ) ( !)!
iy i
Por tanto, E(−i) = : y∈C =L .
y 1
( ! !)
1 i
Así, A = , es una base de C2 formada por vectores propios de B. Si B denota la base
i 1
canónica de C2 , entonces
! !
1 i i 0
P = IdAB = , D= y PDP−1 = B.
i 1 0 −i

179
En el caso de la matriz C, si calculamos el polinomio característico se obtiene
   
 2 − λ 2 1  F − F  2 − λ 2 1  C2 + C3

  3 2
 
 
dC (λ) = det(C − λI3×3 ) = det  1 3−λ 1  = det  1 3−λ 1  =
  
1 2 2−λ 0 λ−1 1−λ
 
 2 − λ 3 1 
 
= det  1 4−λ 1  = (1 − λ)[(2 − λ)(4 − λ) − 3] = (1 − λ)2 (5 − λ)
 
0 0 1−λ

Por tanto, el polinomio característico de C es producto de factores lineales en R[λ] y en C[λ].


Además, los valores propios de C son 1 y 5, con MA(1) = 2 y MA(5) = 1. Calculemos sus
multiplicidades geométricas.

1 ≤ MG(5) ≤ MA(5) = 1 =⇒ MG(5) = 1 = MA(5)


 
 1 2 1 
 
MG(1) = 3 − ρ(C − I3×3 ) = 3 − ρ  1 2 1  = 3 − 1 = 2 =⇒ MG(1) = 2 = MA(1)
 
1 2 1

luego C es diagonalizable en R y en C. Calculemos la matriz P ∈ M3×3 (K) no singular y la matriz


diagonal D tales que C = PDP−1 . Para calcular el subespacio propio asociado a 5 resolvemos el
sistema homogéneo (C − 5I3×3 )x = 0:
         
 −3 2 1   x   0   1 −2 1   x   0  (
 1 −2 1   y  =  0  −−−−−−−→  0 1 −1   y  =  0  =⇒ x = z
Método de
      Gauss       y=z
1 2 −3 z 0 0 0 0 z 0
    

  z  
 
 1 
 
  
 
 
 

Por tanto, E(5) =   z : z ∈ K  = L 
 1 .
z
 
 1
 

Análogamente, para calcular el subespacio propio asociado a 1 debemos resolver el sistema homo-
géneo (C − I3×3 )x = 0:
    
 1 2 1   x   0 
    
 1 2 1   y  =  0  =⇒ x = −2y − z
1 2 1 z 0
      

 −2y − z 
   −2 −1 

  
     


Por tanto, E(1) =    y  : y, z ∈ K
  = L 
  1  ,  0 
    .
 z 
 
  0   1 
 

     

 1 −2 −1
     
 

Así, A =   1 ,  1  ,  0   es una base de K3 formada por vectores propios de C. Si B denota la

 1      
0 1 
base canónica de K3 , entonces
   
 1 −2 −1   5 0 0 
   
P = IdAB =  1 1 0  , D =  0 1 0  y PDP−1 = C.
   
1 0 1 0 0 1

180
 
 2 0 0 
 
Ejemplo 24. Estudia para qué valores de los parámetros a y b la matriz A =  0 1 a − 4  es

3 0 b
diagonalizable en R.
Calculemos en primer lugar el polinomio característico de A:
 
 2 − λ 0 0 
 
dA (λ) = det(A − λI3×3 ) = det  0 1−λ a−4  = (2 − λ)(1 − λ)(b − λ)

3 0 b−λ

luego los valores propios de A son 2,1 y b. Distinguiremos tres casos:

• Si b , 1 y b , 2, la matriz A tiene los tres valores propios distintos y entonces A es diagona-


lizable en R.

• Si b = 1, entonces los valores propios de A son 1 y 2, con MA(1) = 2 y MA(2) = 1.


Calculemos sus multiplicidades geométricas.

1 ≤ MG(2) ≤ MA(2) = 1 =⇒ MG(2) = 1 = MA(2)


 
 1 0 0   
   3 − 1 = 2 = MA(1), si a = 4
MG(1) = 3 − ρ(A − I3×3 ) = 3 − ρ  0 0 a − 4  = 
    3 − 2 = 1 , MA(1), si a , 4
3 0 0

luego si b = 1 y a = 4, la matriz A es diagonalizable en R, mientras que si b = 1 y a , 4, la


matriz A NO es diagonalizable en R.

• Si b = 2, entonces los valores propios de A son 1 y 2, con MA(1) = 1 y MA(2) = 2.


Calculemos sus multiplicidades geométricas.

1 ≤ MG(1) ≤ MA(1) = 1 =⇒ MG(1) = 1 = MA(1)


 
 0 0 0 
 
MG(2) = 3 − ρ(A − 2I3×3 ) = 3 − ρ  0 −1 a − 4  = 3 − 2 = 1 , MA(2)
 
3 0 0

independientemente del valor de a. Luego si b = 2, la matriz A NO es diagonalizable en R.

Nota 25. Una de las aplicaciones inmediatas de la diagonalización es al cálculo de las potencias de
una matriz, ya que si A ∈ Mn×n (K) es diagonalizable, entonces existen P ∈ Mn×n (K) no singular y
D = diag(α1 , . . . , αn ) ∈ Mn×n (K) diagonal tales que A = PDP−1 y entonces, para cualquier k ∈ N,
se tiene que

Ak = (PDP−1 )k = (PDP−1 )(PDP−1 ) · · · (PDP−1 ) = PDk P−1 = P diag(αk1 , . . . , αkn )P−1


| {z }
k−veces

181
5.1.3 Resolución de la Ecuación Matricial f (X) = A.

Dada A ∈ Mn×n (C) y f (λ) un polinomio con coeficientes en C no constante, queremos ver si
existe matriz X tal que f (X) = A.
Vamos a dar soluciones a este problema en el caso en que A sea una matriz diagonalizable.
Así, si A es diagonalizable, entonces existe P no singular tal que A = PDP−1 , siendo

D = diag(α1 , α2 , . . . , αn )

Supongamos que f (λ) = c0 + c1 λ + c2 λ2 + · · · + ck λk ∈ C[λ] y que X = P diag(β1 , β2 , . . . , βn )P−1 y


veamos qué deben verificar β1 , β2 , . . . , βn para que f (X) = A. Así,

f (X) = c0 I + c1 X + c2 X 2 + · · · + ck X k =
= c0 PIP−1 +c1 P diag(β1 , β2 , ..., βn )P−1 +c2 P diag(β21 , β22 , ..., β2n )P−1 +· · ·+ck P diag(βk1 , βk2 , ..., βkn )P−1 =
= P diag( f (β1 ), f (β2 ), ..., f (βn ))P−1

y de aquí,
f (X) = A = P diag(α1 , α2 , ..., αn )P−1 =⇒ f (βi ) = αi , 1 ≤ i ≤ n.
Por tanto, si elegimos β1 , β2 , . . . , βn ∈ C tales que f (βi ) = αi , 1 ≤ i ≤ n y definimos

X = P diag(β1 , β2 , . . . , βn )P−1

entonces X es una solución de f (X) = A.


Este método permite calcular raíces k-ésimas de una matriz diagonalizable A, con k ∈ N, ya
que si X es una raíz k-ésima de A, entonces X es una solución de la ecuación matricial f (X) = A,
con f (λ) = λk .
 
 2 2 1 
 
Ejemplo 26. (i) Calcula una raíz cuadrada de la matriz C =  1 3 1  ∈ M3×3 (C).
 
1 2 2
(ii) Calcula una matriz X ∈ M3×3 (C) tal que X 2 − X − I3×3 = C.
(i) En el Ejemplo 23 hemos diagonalizado la matriz C obteniéndose
   
 1 −2 −1   5 0 0 
   
C = PDP , siendo P =  1 1 0  y D =  0 1 0
−1    .
  
1 0 1 0 0 1

Para calcular una raíz cuadrada de C no tenemos más que resolver la ecuación x2 = αi para cada
uno de los valores propios αi de C. En este caso,
√ 
x2 = 5 =⇒ x = ± 5  
 √
2 
 =⇒ R = P diag( 5, 1, 1)P−1
x = 1 =⇒ x = ±1 

y la matriz R es una √ raíz cuadrada de C. Otras posibles


√ raíces cuadradas son, por ejemplo, las
matrices R2 = P diag( 5, 1, −1)P ó R3 = P diag(− 5, −1, 1)P−1 . Con este método encontramos,
−1

en este caso, ocho raíces cuadradas de C diferentes.

182
(ii) Para encontrar una matriz X que resuelva la ecuación matricial, procedemos como en el caso
anterior, pero ahora debemos resolver la ecuación x2 − x − 1 = αi para cada uno de los valores
propios αi de C.
)
x2 − x − 1 = 5 =⇒ x2 − x − 6 = 0 =⇒ x = 3 ó x = −2
=⇒ X = P diag(3, 2, 2)P−1
x2 − x − 1 = 1 =⇒ x2 − x − 2 = 0 =⇒ x = 2 ó x = −1

y así, la matriz X es una solución de la ecuación matricial. Otras posibles soluciones son, por
ejemplo, X2 = P diag(3, 2, −1)P−1 ó X3 = P diag(−2, −1, 2)P−1 . También en este caso podemos
encontrar ocho soluciones distintas para la ecuación matricial.

5.2. APLICACIÓN: CADENAS DE MARKOV.

Otra aplicación interesante de la diagonalización son las llamadas cadenas de Markov. Se trata
de un modelo matemático que se usa para describir un proceso que se realiza varias veces de la
misma manera y cuyo resultado en cada realización depende linealmente de la realización inmedia-
tamente anterior del proceso. Las cadenas de Markov se usan para describir una amplia variedad
de situaciones en Biología, Estadística, Economía, Química, Ingeniería, Física, etc.
Por ejemplo, supongamos que en una zona geográfica, los habitantes realizan sus compras en
una de las dos cadenas de alimentación existentes A y B. Considerando un determinado período
de tiempo, observamos que por diferentes razones como el precio, la calidad, la publicidad . . . ,
algunos de los habitantes deciden cambiar de cadena.
Deseamos construir un modelo matemático que represente la variación mensual del mercado. Para
ello se sabe que la proporción de clientes de la cadena A que sigue comprando mensualmente en
la misma cadena es 8/10, mientras que la proporción de clientes que sigue comprando mensual-
mente en la cadena B es 7/10. Como hipótesis general suponemos que el número total de clientes
permanece constante.
Si denotamos por x0 e y0 la proporción de clientes de las cadenas A y B, respectivamente, en el
mes inicial, y x1 e y1 representan la proporción de clientes de las cadenas A y B, respectivamente,
en el mes siguiente, podemos plantear las siguientes ecuaciones

x1 = 0.8x0 + 0.3y0
y1 = 0.2x0 + 0.7y0

sistema de ecuaciones lineales que se puede escribir matricialmente como


! ! !
x1 0.8 0.3 x0
z1 = = = Mz0
y1 0.2 0.7 y0
| {z }
M

Razonando análogamente para el mes siguiente obtenemos


z2 = Mz1 o, equivalentemente, z2 = M 2 z0
Por recurrencia se obtiene que en el k-ésimo mes el vector zk , cuyas componentes representan
la proporción de clientes que compran en la cadena A y en la cadena B, se puede escribir como
zk = Mzk−1 o, equivalentemente, zk = M k z0

183
Se tiene entonces que el porcentaje de clientes que compra en cada una de las cadenas en el k-
ésimo mes depende linealmente del porcentaje de clientes que compraron en las cadenas en el mes
anterior y la dependencia es siempre la misma para cualquier k y viene dada por la matriz M. Ade-
más la matriz M es una matriz con todas sus entradas no negativas y las entradas de cada columna
suman 1. Los vectores zk también tienen sus entradas no negativas y suman 1. Este problema es un
ejemplo de cadena de Markov de 2 estados (comprar en la cadena A y comprar en la cadena B).
Definición 27. Diremos que z ∈ Rn es un vector estocástico o vector de probabilidad si sus com-
ponentes son no negativas y suman 1.
Diremos que M ∈ Mn×n (R) es una matriz estocástica si todas las entradas de M son no nega-
tivas y la suma de las entradas de cada columna vale 1, es decir, una matriz cuyas columnas son
vectores estocásticos.
Definición 28. Se llama cadena de Markov a un proceso en el que los estados del proceso en un
instante dependen linealmente de los estados en el instante inmediatamente anterior, es decir,

zk = Mzk−1 , k = 1, 2, . . .

siendo z0 un vector estocástico y M una matriz estocástica.


Los vectores zk se llaman vectores de estados y la matriz M se conoce como matriz de transi-
ción de la cadena de Markov.
Si M = (ai j ) es la matriz de transición de una cadena de Markov, la entrada ai j representa la
probabilidad de pasar del estado j al estado i en el instante siguiente.

El aspecto más interesante de las cadenas de Markov es la posibilidad de predecir qué va a


ocurrir con el proceso en un futuro, es decir, el estudio del comportamiento a largo plazo de la
cadena.
Volvamos al ejemplo de las cadenas de alimentación y veamos si la matriz M es diagonalizable.
Calculemos su polinomio característico.
!
0.8 − λ 0.3
d M (λ) = det(M − λI2×2 ) = det = (λ − 1)(λ − 0.5)
0.2 0.7 − λ

Como M tiene los dos valores propios distintos es diagonalizable. Calculemos los subespacios
propios asociados a los valores propios de M.
• Para α = 1
! ! ! ! ( !)!
x −0.2 0.3 x 0 3
(M − I) = = =⇒ E(1) = L u1 =
y 0.2 −0.3 y 0 2

• Para α = 0.5
! ! ! ! ( !)!
x 0.3 0.3 x 0 −1
(M − 0.5I) = = =⇒ E(0.5) = L u2 =
y 0.2 0.2 y 0 1

Por tanto,

184
! ! !−1
−1 3 −1 1 0 3 −1
M = PDP =
2 1 0 0.5 2 1

Observemos que, en este


! caso, 1 es un valor propio de la matriz de transición M de la cadena
3
de Markov y u1 = es un vector propio de M asociado a 1 que tiene todas sus entradas
2
no negativas. Estas propiedades las van a cumplir todas las matrices de transición de cadenas de
Markov.
Teorema 29. Si M ∈ Mn×n (R) la matriz de transición de una cadena de Markov, entonces:

(i) 1 es valor propio de M.

(ii) Todos los valores propios de M tiene módulo menor o igual que 1.

(iii) Existe un vector propio de M asociado a 1 con todas sus entradas no negativas.

Una vez diagonalizada la matriz, podemos calcular fácilmente las potencias de M y, se tiene
entonces

zk = M k z0 = (PDP−1 )k z0 = PDk P−1 z0


! ! ! !
1 3 −1 1 0 1 1 x0
=
5 2 1 0 (0.5)k −2 3 y0
 k k 
1  3(x0 + y0 ) + 2(0.5) x0 − 3(0.5) y0 

= 
5  2(x0 + y0 ) − 2(0.5)k x0 + 3(0.5)k y0

Si hacemos que k tienda a infinito, podemos ver lo que sucederá a largo plazo. Teniendo en cuenta
además que z0 es un vector estocástico (x0 + y0 = 1), se tiene
 3 
!  
1 3  5 
z∞ = lı́m zk = (x0 + y0 ) =  
k→∞ 5 2  2 
5
Como conclusión podemos afirmar que, a largo plazo, 3/5 del número de clientes comprará en la
cadena de alimentación A y 2/5 del número de clientes comprará en la cadena de alimentación B.
Observemos que el vector z∞ es proporcional al vector u1 y, por tanto, es también un vector propio
de M asociado a 1, por tanto, Mz∞ = z∞ . Este vector se conoce como vector estacionario. Además,
en este caso, el vector estacionario no depende del vector de estados inicial considerado.
Definición 30. Dada una cadena de Markov con vectores de estados zk ∈ Rn , k = 0, 1, 2, . . . y
matriz de transición M ∈ Mn×n (R), llamaremos vector estacionario de la cadena de Markov al
límite cuando k tiende a infinito ( si existe) de los vectores de estados zk y lo denotaremos por z∞ .
Un vector estacionario de una cadena de Markov es un vector estocástico tal que Mz∞ = z∞ , esto es,
es un vector estocástico que es un vector propio de M asociado a 1. El Teorema 29 (iii) nos asegura
la existencia de vectores propios estocásticos asociados a 1 para toda matriz estocástica. Pero

185
no toda cadena de Markov tiene vector estacionario, como podemos comprobar con el siguiente
ejemplo.
!
0 1
Ejemplo 31. Si consideramos la cadena de Markov definida por la matriz estocástica M =
1 0
!
1/3
tomando como vector de estados inicial z0 = , entonces
2/3
!
2/3
z1 = z3 = z5 = . . . = z2k−1 =
1/3
! , k∈N
1/3
z2 = z4 = z6 = . . . = z2k =
2/3
y no existe el límite de los vectores zk cuando k tiende a infinito. Por tanto, la cadena de Markov
no tiene vector estacionario. Esto mismo ocurre! si cambiamos el vector inicial z0 por otro vector
1/2
estocástico, salvo que elijamos z0 = , ya que en este caso la cadena está formada por la
1/2
sucesión de vectores contante zk = z0 , para todo k ∈ N.
La siguiente definición introduce un tipo de matrices estocásticas para las que tenemos asegu-
rada la existencia de un vector estacionario en la cadena de Markov correspondiente, independien-
temente del vector inicial de estados considerado.
Definición 32. Diremos que una matriz M ∈ Mn×n (R) estocástica es regular si existe r ∈ N tal que
M r tiene todas las entradas estrictamente positivas.
Teorema 33. Si M ∈ Mn×n (R) es una matriz estocástica regular, entonces existe un único vector
estocástico q tal que Mq = q.
Además, si z0 es un vector de estados inicial cualquiera y zk = Mzk−1 , para k = 1, 2, . . . , entonces
la cadena de Markov converge al vector estacionario q cuando k −→ ∞, independientemente del
vector inicial z0 elegido.
Aunque no siempre es necesario que la matriz M sea regular para que la cadena de Markov
converja para cualquier vector inicial z0 , como muestra el siguiente ejemplo.
!
1/2 0
Ejemplo 34. Considera la cadena de Markov definida por la matriz de transición M = ,
1/2 1
tomando un vector de estados inicial cualquiera z0 .
M es una matriz triangular inferior, luego todas sus potencias son también matrices triangulares
inferiores y, por tanto, M no es regular. Diagonaliza la! matriz M y comprueba que el límite de zk
0
cuando k −→ ∞ existe y es el vector estacionario .
1
Los valores propios de M son 1 y 1/2. Como M tiene 2 valores propios distintos es diagonalizable.
Calculamos el subespacio propio asociado a cada uno de los valores propios de M.
• Para α = 1/2
! ! ! ! ( !)!
x 0 0 x 0 1
(M − (1/2)I) = = =⇒ E(1/2) = L
y 1/2 1/2 y 0 −1

186
• Para α = 1
! ! ! ! ( !)!
x −1/2 0 x 0 0
(M − I) = = =⇒ E(1) = L
y 1/2 0 y 0 1

Por tanto,
! ! !−1
−1 1 0 1/2 0 1 0
M = PDP =
−1 1 0 1 −1 1
Así,

zk = M k z0 = (PDP−1 )k z0 = PDk P−1 z0


! ! ! !
1 0 (1/2)k 0 1 0 x0
=
−1 1 0 1 1 1 y0
! ! !
(1/2)k x0 k−→∞ 0 0
= −−−−→ =
−(1/2)k x0 + (x0 + y0 ) x0 + y0 1
!
0
luego la cadena de Markov converge al vector estacionario para cualquier elección del vector
1
de estados inicial z0 .

De hecho, se puede probar el siguiente resultado.


Teorema 35. Sea M ∈ Mn×n (R) la matriz de transición de una cadena de Markov. Si M es diago-
nalizable y 1 es el único valor propio de M de módulo 1, entonces la cadena de Markov tiene un
vector estacionario.

5.3. DIAGONALIZACIÓN DE MATRICES HERMÍTICAS Y DE MATRICES SIMÉTRI-


CAS REALES.

Las matrices simétricas reales y hermíticas surgen en las aplicaciones con mayor frecuencia que
otros tipos de matrices. Por ejemplo, el tensor de inercia estudiado en Física, la matriz de tensiones
que aparece en Teoría de Estructuras o la matriz de rigidez que surge en problemas de Ingeniería
mecánica son matrices simétricas reales; las matrices de Pauli que aparecen en Mecánica cuántica
son matrices hermíticas. Vamos a ocuparnos de forma especial de la diagonalización de este tipo de
matrices. La diagonalización de las matrices simétricas reales nos dará la herramienta fundamental
para la reducción de las formas cuadráticas y las superficies cuádricas en el próximo tema.
Para entender mejor qué va a ocurrir al diagonalizar estas matrices vamos a estudiar el siguiente
ejemplo.
!
0 −i
Ejemplo 36. Diagonaliza la matriz hermítica A = ∈ M2×2 (C).
i 0
Calculemos en primer lugar su polinomio característico.
!
−λ −i
dA (λ) = det(A − λI2×2 ) = det = λ2 − 1 = (λ − 1)(λ + 1)
i −λ

187
Por tanto, los valores propios de A son 1 y −1 con MA(1) = 1 y MA(−1) = 1. Como A tiene todos
sus valores propios distintos en C, A es diagonalizable en C. Observamos que todos los valores
propios de A son reales.
Para obtener el subespacio propio asociado a 1 resolvemos el sistema homogéneo (A − I2×2 )x = 0:
! ! !
−1 −i x 0
= =⇒ y = ix
i −1 y 0
( ! ) ( !)!
x 1
Por tanto, E(1) = : x∈C =L .
ix i
Análogamente, para obtener el subespacio propio asociado a −1 resolvemos el sistema homogéneo
(A + I2×2 )x = 0: ! ! !
1 −i x 0
= =⇒ x = iy
i 1 y 0
( ! ) ( !)!
iy i
Por tanto, E(−1) = : y∈C =L .
y 1
( ! !)
1 i
Así, C = u1 = , u2 = es una base de C2 formada por vectores propios de A. Pero ade-
i 1
más, en este caso, la base es ortogonal con respecto al producto escalar estándar de C2 , ya que el
producto escalar de los vectores u1 y u2 es cero:
! !!
1 i
(u1 |u2 ) = = 1 · i + i · 1 = −i + i = 0
i 1
Cualquier vector no nulo proporcional a u1 es un vector propio de A asociado a 1 y cualquier vector
no nulo proporcional a u2 es un vector propio de A asociado a −1. Así, multiplicando cada vector
por el inverso de su módulo podemos obtener a partir de C una base ortonormal de C2 formada por
vectores propios de A.
( ! !)
1 1 1 i
A = v1 = √ , v2 = √ base ortonormal de C2
2 i 2 1

Si B denota la base canónica de C2 , entonces


! !
1 1 i 1 0
P = IdAB = √ , D= y PDP−1 = A.
2 i 1 0 −1
El hecho de que las columnas de P sean vectores ortonormales con respecto al producto escalar
estándar de C2 implica que
!
∗ (v1 |v1 ) (v2 |v1 )
P ·P= = I2×2
(v1 |v2 ) (v2 |v2 )

y, por tanto, P−1 = P∗ . Recordemos que a las matrices que verifican esta propiedad se les llama
matrices unitarias.
Todas las observaciones que hemos anotado en el ejemplo anterior se van a cumplir para cual-
quier matriz hermítica. Se tienen los siguientes resultados trabajando con el producto escalar es-
tándar.

188
Teorema 37. Sea A ∈ Mn×n (C). Si A es una matriz hermítica, entonces
(i) Todos los valores propios de A son reales.
(ii) Los vectores propios asociados a valores propios distintos son ortogonales.
(iii) Existe una base ortonormal de Cn formada por vectores propios de A, o equivalentemente, A
es diagonalizable en C con respecto a una base ortonormal.

Recordemos la definición de matriz unitaria y enumeremos algunas de sus propiedades.


Definición 38. Sea P ∈ Mn×n (C). Diremos que P es una matriz unitaria si PP∗ = P∗ P = In×n .
Proposición 39. (Propiedades de la matrices unitarias)
Sea P ∈ Mn×n (C). Si P es una matriz unitaria, entonces se verifica que
• P es no singular y P−1 = P∗ .
• Las columnas de P forman una base ortonormal de Cn .
• Las filas de P forman una base ortonormal de Cn .
• k Px k=k x k, ∀x ∈ Cn , es decir, las matrices unitarias conservan las longitudes.

Por tanto, si A es una matriz hermítica, entonces es diagonalizable y podemos encontrar una
base ortonormal A de Cn formada por vectores propios de A. Si consideramos la base canónica B
de Cn y llamamos P a la matriz de cambio de base de A a B, entonces P = IdAB es una matriz
unitaria y se verifica que A = PDP−1 = PDP∗ , siendo D la matriz diagonal que contiene los valores
propios de A que son todos reales. En resumen, se tiene el siguiente teorema.
Teorema 40. (Teorema de diagonalizabilidad de las matrices hermíticas)
Sea A ∈ Mn×n (C).
existe P ∈ Mn×n (C) unitaria tal que A = PDP∗ ,
A es hermítica ⇐⇒
siendo D una matriz diagonal real.
El problema que nos falta por resolver es cómo encontrar la base ortonormal formada por vec-
tores propios. Si A tiene todos los valores propios distintos, aplicando el Teorema 37 (ii), podremos
encontrar una base ortonormal de Cn formada por vectores propios de A simplemente tomando un
vector propio unitario asociado a cada uno de los valores propios de A.
Pero si A tuviese algún valor propio α con multiplicidad algebraica mayor que 1, debemos asegu-
rarnos que los vectores propios que tomamos asociados a α sean ortonormales. Para ello, basta con
que apliquemos el método de ortogonalización de Gram-Schmidt a la base del subespacio propio
de A asociado a α, lo que nos proporcionará una base ortogonal del subespacio propio y, por tanto,
vectores propios ortogonales asociados a α.
Uniendo una base ortonomal de cada uno de los subespacios propios asociados a los valores pro-
pios de A obtendremos una base ortonormal de Cn formada por vectores propios de A. Y con esta
base construímos la matriz P unitaria.
En el caso real, para matrices simétricas reales se obtienen resultados totalmente análogos.
Simplemente hay que trasladar los resultados de C a R y tener en cuenta que las matrices unitarias
reales se llaman matrices ortogonales.

189
Teorema 41. Sea A ∈ Mn×n (R). Si A es una matriz simétrica, entonces
(i) A tiene n valores propios (no necesariamente distintos).
(ii) Los vectores propios asociados a valores propios distintos son ortogonales.
(iii) Existe una base ortonormal de Rn formada por vectores propios de A, o equivalentemente, A
es diagonalizable en R con respecto a una base ortonormal.

Definición 42. Sea P ∈ Mn×n (R). Diremos que P es una matriz ortogonal si PPT = PT P = In×n .
Proposición 43. (Propiedades de las matrices ortogonales)
Sea P ∈ Mn×n (R). Si P es una matriz ortogonal, entonces se verifica que
• P es no singular y P−1 = PT .
• Las columnas de P forman una base ortonormal de Rn .
• Las filas de P forman una base ortonormal de Rn .
• k Px k=k x k, ∀x ∈ Rn , es decir, las matrices ortogonales conservan las longitudes.

Nota 44. Para que una matriz n × n real sea ortogonal, sus filas y/o sus columnas deben ser vectores
ortonormales de Rn con el producto escalar estándar. Si solamente son vectores ortogonales pero
no son unitarios, entonces PPT , In×n y PT P , In×n , y por tanto, P NO es ortogonal.
Volviendo a la diagonalización, se tiene como consecuencia que, si A es una matriz simétrica
real, entonces es diagonalizable y podemos encontrar una base ortonormal A de Rn formada por
vectores propios de A. Si consideramos la base canónica B de Rn y llamamos P a la matriz de
cambio de base de A a B, entonces P = IdAB es una matriz ortogonal y se verifica que A =
PDP−1 = PDPT , siendo D la matriz diagonal que contiene los valores propios. Resumiendo se
tiene el siguiente teorema.
Teorema 45. (Teorema de la diagonalizabilidad de las matrices simétricas reales)
Sea A ∈ Mn×n (R).
existe P ∈ Mn×n (R) ortogonal tal que A = PDPT ,
A es simétrica ⇐⇒
siendo D una matriz diagonal.
Veamos un último ejemplo.
 
 3 2 4 
 
Ejemplo 46. Diagonaliza la matriz real simétrica A =  2 0 2  con respecto a una base orto-
 
4 2 3
normal.
Si calculamos el polinomio característico se obtiene
   
 3 − λ 2 4  F − F  3 − λ 2 4  C1 + C3
  3 1  
dA (λ) = det(A − λI3×3 ) = det  2 −λ 2  = det  2 −λ 2  =

4 2 3−λ 1 + λ 0 −1 − λ
 
 7 − λ 2 4 
  = (−1 − λ)[(7 − λ)(−λ) − 8] = (−1 − λ)2 (8 − λ)
= det  4 −λ 2 

0 0 −1 − λ

190
Por tanto, los valores propios de A son −1 y 8, con MA(−1) = 2 y MA(8) = 1. Si calculamos
sus multiplicidades geométricas, comprobaremos que A es diagonalizable, aunque esto no sería
necesario ya que al ser una matriz real simétrica sabemos que será diagonalizable.

1 ≤ MG(8) ≤ MA(8) = 1 =⇒ MG(8) = 1 = MA(8)


 
 4 2 4 
 
MG(−1) = 3 − ρ(A + I3×3 ) = 3 − ρ  2 1 2  = 3 − 1 = 2 =⇒ MG(−1) = 2 = MA(−1)
 
4 2 4

luego A es diagonalizable en R. Calculemos la matriz P ∈ M3×3 (R) ortogonal y la matriz diagonal


D tales que A = PDPT . Para calcular el subespacio propio asociado a 8 resolvemos el sistema
homogéneo (A − 8I3×3 )x = 0:
         
 −5 2 4   x   0   1 −4 1   x   0  (
      Método de       x = 2y
 2 −8 2   y  =  0  −−−Gauss
−−−−→  0 2 −1   y  =  0  =⇒
     z = 2y
4 2 −5 z 0 0 0 0 z 0
    

 2y 
 
 2 

  
 
 
 

Por tanto, E(8) = 
  y  : y ∈ R  = L 

1.
2y
 
 2
 

Análogamente, para calcular el subespacio propio asociado a −1 debemos resolver el sistema ho-
mogéneo (A + I3×3 )x = 0:
    
 4 2 4   x   0 
    
 2 1 2   y  =  0  =⇒ y = −2x − 2z
4 2 4 z 0
       

 
 x 
 
 
 
 
 1 
  0 
 

  
 
   
 


Por tanto, E(−1) =  −2x − 2z : x, z ∈ R  = L  u1 = −2 , u2 = −2 .

 
 

     
 
z 0 1
Como u1 y u2 no son ortogonales, aplicamos el método de ortogonalización de Gram-Schmidt a
estos dos vectores:
 
 1 
 
v1 = u1 = −2
 
0
   
 0   1 
   
  −2 −2        
(u2 |v1 )  0   1   0   1   0  4  1  −4/5
v2 = u2 − v1 = −2 −     −2 = −2 − −2 = −2/5
(v1 |v1 )    1   1      5    
1     0 1 0 1
−2 −2
   
0 0
 
−4
 
Por simplicidad podemos tomar v2 = −2.
 
5

191
      

 2  1  −4
 1   1   1  
 

Así, A =  

1 

 , √ 

−2 

 , √ 

−2 


 es una base ortonormal de R3 formada por vectores pro-
3 2
   5 0  
45 5  
pios de A. Si B denota la base canónica de R3 , entonces
 √ √   
 2/3 1/ 5 −4/ 45  
 8 0 0 
 √ √   
P = IdAB =  1/3 −2/ 5 −2/ 45  es ortogonal, D =  0 −1 0  y PDPT = A.
 √   
2/3 0 5/ 45 0 0 −1

Nota 47. Una matriz simétrica compleja no podemos asegurar que es diagonalizable.
!
1 i
Por ejemplo, A = es una matriz simétrica compleja no nula y σ(A) = {0, 0}. Si A
i −1
fuese diagonalizable, entonces A = P diag(0, 0)P−1 debería ser nula. Por tanto, A no es diagonali-
zable.

PROBLEMAS
Diagonalización de matrices cuadradas.
(P.1) Estudia si α es un valor propio de la matriz A en cada uno de los siguientes casos:
! !
3 2 7 3
(i) si α = 2 y A = ; (ii) si α = −3 y A = ;
3 8 3 −1
 
 3 0 −1 
 
(iii) si α = 4 y A =  2 3 1 .
 
−3 4 5
(P.2) Estudia si v es un vector propio de la matriz A en cada uno de los siguientes casos, y si
lo es, encuentra el valor propio al que está asociado:
   
! !  4   3 7 9 
1 −3 1    
(i) si v = yA= ; (ii) si v =  −3  y A =  −4 −5 1 ;
4 −3 8   
1 2 4 4
   
 1   3 6 7 
   
(iii) si v =  −2  y A =  3 3 7 .
   
1 5 6 5
(P.3) Sean A y B ∈ Mn×n (K). Prueba que si v es un vector propio de A asociado a λ y v es un
vector propio de B asociado a µ, entonces v es vector propio de A + B asociado a λ + µ y v es
vector propio de A · B asociado a λ · µ.
(P.4) Halla el polinomio característico y los valores propios de las matrices:
   √ 
 4 −5 −2   3 2 2 0 
   √ 
A =  −5 4 −2  y B =  2 2 5 0  .
   
−2 −2 −8 0 0 2

192
 
 −2 4 1 1 
 0 1 0 0 
(P.5) Halla el polinomio característico y los valores propios de A =  .

 0 0 1 0 
−1 0 −1 0
(P.6) Calcula los valores propios de la matriz B = A3 − 8A2 + 18A − 12I3×3 , siendo
 
 3 1 −1 
 
A =  3 5 −3  .
 
3 3 −1

(P.7) Sea A ∈ M3×3 (R) cuyos valores propios son −1, 1 y 2.


(i) Calcula la traza y el determinante de la matriz B = A2 − 5A + 2I3×3 .
(ii) ¿Son A y B matrices no singulares? En caso afirmativo, calcula los valores propios de la
matriz inversa.
 
 1 0 0 1 
 0 1 0 0 
(P.8) Dada la matriz A =   ∈ M (R), prueba que 1 es un valor propio de A.
 0 0 1 −2 
4×4

1 0 −2 5
Calcula sus multiplicidades algebraica y geométrica y halla una base del subespacio propio
asociado a 1.
(P.9) Calcula el polinomio característico y los valores y vectores propios de las matrices
   
 5 −7 −3   1 2 −1  !
    i 1
A =  4 −6 −3  , B =  1 0 1  , C =
    2 −i
−1 1 1 4 −4 5

(P.10) Estudia si cada una de las matrices del problema (P.9) es o no diagonalizable en R y en
C y, en caso afirmativo, diagonalízala.
(P.11) Estudia si cada una de las siguientes matrices es o no diagonalizable en R y en C y, en
caso afirmativo, diagonalízala.
       
 4 0 1   3 1 0   1 −2 0   4 2 1 
       
A =  2 3 2  , B =  0 3 0  , C =  −2 1 0  , E =  −2 0 −1 
      
1 0 4 0 0 4 0 0 −1 −1 −1 1
 
 1 0 0 0 0 
 0 1 0 0 0 
 
(P.12) Dada la matriz A =  0 0 1 0 0 ,


 0 0 0 1 1 

0 0 0 1 1
1. Calcula el polinomio característico y los valores propios de A. ¿Es A no singular?

2. Calcula los subespacios propios y estudia si A es diagonalizable.

193
3. En caso de ser diagonalizable obtén una matriz no singular P y una matriz diagonal D
tales que A = PDP−1 .
 
 1 1 1 1 
 1 1 −1 −1 
(P.13) Se considera la matriz A =  .
 1 −1 1 −1 
1 −1 −1 1
1. Diagonaliza la matriz A y determina una matriz no singular P tal que A = PDP−1 donde
D es una matriz diagonal.
2. Diagonaliza A2 y A−1 .
 
 0 −2 −3 
 
(P.14) Calcula Ak siendo A =  1 3 3  ∈ M3×3 (R), con k ∈ N.
 
0 0 1
(P.15) Prueba que si A es una matriz n × n diagonalizable y si sus valores propios son 0 y 1,
entonces A es idempotente.
(P.16 ) Estudiar para qué valores de los parámetros a y b la matriz A es diagonalizable.
 
 a b 0 
 
A =  0 1 0  .
 
0 0 2

(P.17) Estudia para qué valores de los parámetros a y b la siguiente matriz es diagonalizable
 
 5 0 0 
 0 −1 a  .
 
3 0 b
 
 2 0 0 
 
(P.18) Estudia para qué valores de a y b es diagonalizable la matriz A =  0 a b  y

1 0 −1
diagonalízala en los casos en que sea posible.
 
 9 5 −4 
 
(P.19)(i) Halla una raíz cuadrada de la matriz A =  −8 −4 4 .
 
2 2 0
!
2 1 2
(ii) Halla una matriz X tal que 4X − 5X + 3I2×2 = B, siendo B = .
−1 4
 
 0 1 0 
 
(P.20) Halla una raíz cúbica de la matriz A =  −1 0 0 .
 
0 0 8
 
 5 1 −1 
 
(P.21) Encontrar una matriz X tal que X 2 − 8I3×3 = A, siendo A =  2 4 −2 .
 
1 −1 3

194
Aplicación: Cadenas de Markov.
(P.22) Un estudio acerca de los hábitos de fumar en un grupo de personas muestra que la
probabilidad de que un fumador continúe fumando un año después es de 65 %, mientras que
la probabilidad de que un no fumador continúe sin fumar es de 85 %. Supongamos que estas
probabilidades se mantienen a largo plazo. Si cuando comenzó el estudio en el año 1990 el
70 % de los miembros del grupo eran fumadores y el 30 % eran no fumadores. ¿Cuáles son
los porcentajes de fumadores y no fumadores dentro del grupo de estudio en 1991, en 1992
y en 1994? ¿Cuáles serán los porcentajes de fumadores y no fumadores dentro del grupo de
estudio a largo plazo?
(P.23) Supogamos que en un país la evolución de las migraciones internas a lo largo de un
cierto periodo de tiempo ha sido la siguiente:

• Cada año, el 10 % de la población de la capital se traslada a vivir a otra ciudad, y el 5 %


de esta población se va al medio rural.
• De los habitantes de las otras ciudades, el 15 % emigra a la capital y otro 10 % al medio
rural.
• El 12 % de los habitantes del medio rural emigran todos los años a la capital y el 15 % a
otra ciudad.

En este contexto, nos planteamos las siguientes cuestiones:

• Si en un momento determinado la población de la capital es el 20 % del total, la de las


otras ciudades el 45 % y el resto de los habitantes del país, es decir, el 35 %, viven en
el medio rural, ¿cuál será la distribución al cabo de un año? ¿Y después de 5, 10, 20
años?
• ¿Hay alguna tendencia a la estabilidad, de manera que en un futuro la distribución de la
población no sufra cambios significativos?
• Si la distribución de la población inicial fuera otra, por ejemplo, 30 %, 20 %, 50 %, ¿cuáles
serían los resultados en un futuro?

(P.24) En la actualidad hay tres planes de inversión, A, B y C , disponibles para los empleados
de una empresa. Un empleado sólo puede usar un plan a la vez, y puede cambiar de uno
a otro sólo al final de cada año. La probabilidad de que alguien en el plan A continúe con él
es del 20 %; de que elija el plan B es 50 % y de que elija el plan C es 50 %. La matriz M de
probabilidades de transición del proceso de Markov es la siguiente:
 
 0.2 0.5 0.5 
 
M =  0.2 0.5 0 
 
0.6 0 0.5

Demuestra que M es regular y calcula el vector estacionario. ¿A largo plazo, cuál es el plan
más popular y cuál es el plan menos popular?

195
(P.25) Dos compañías ofrecen televisión por cable a una ciudad con 100000 viviendas. El
cambio anual en la suscripción viene dado en el siguiente diagrama.

20 %
8 AZ l Bf
70 % , 80 %
9
15 %
10 % 15 %

15 % 5%
 z
NY

70 %

Inicialmente la compañía A tiene 15000 suscriptores, la compañía B 20000, y hay 65000 vi-
viendas sin suscripción (N ). Calcula cuántos suscriptores tendrá cada compañía después de
2, 3 y 5 años. ¿Cuántos suscriptores tendrá cada compañía a largo plazo?

Diagonalización de matrices hermíticas y simétricas reales.


(P.26) Estudia si las siguientes matrices son unitarias:
 √ √ 
 5 i 5  !

 1 0 0 

 − 
A =  √5 √5  B = 1 i C =



0 0 −i 
 i2 5 2 5  0 i 

0 i 0


5 5

(P.27) Estudia si las siguientes matrices son ortogonales:


   √ √ 
 3 3 3 3   
  
 0 1/ 5 2/ 5   0 1 2 
1  3 −5 1 1     
A =   B =  1 0 0  C =  1 0 0 
6  3 1 −5 1   √ √  
0 2/ 5 −1/ 5 0 2 −1
3 1 1 −5
   
 0 0 1   −2/3 1/3 2/3 
   
D =  1 0 0  E =  1/3 −2/3 2/3  .
   
0 1 0 2/3 2/3 1/3

(P.28) Sea A ∈ Mn×n (C) una matriz unitaria. Prueba que los valores propios de A son números
complejos de módulo 1.
(P.29) (a) Sea A ∈ Mn×n (R). Si A es una matriz ortogonal, ¿cuáles son los posibles valores del
determinante de A?
(b) Si A y B ∈ Mn×n (R) son matrices ortogonales, prueba que AB es también una matriz
ortogonal.
(P.30) Sea A ∈ Mn×n (R).
(i) Prueba que si A es ortogonal y α es un valor propio de A, entonces 1/α es también valor
propio de de A.

196
(ii) Prueba que si A es ortogonal y x es un vector propio de A asociado a α, entonces x es
vector propio de AT asociado a 1/α.
(P.31) Diagonaliza las siguientes matrices con respecto a una base ortonormal de vectores
propios:  
!  5 −3i 0 
1 i  
A= , B =  3i 5 0  .
−i 1  
0 0 2

(P.32) Diagonaliza las siguientes matrices con respecto a una base ortonormal de vectores
propios:      
 0 2 1   1 1 1   2 3 0 
     
A =  2 0 1  , B =  1 0 0  , C =  3 5 −1  .
     
1 1 1 1 0 0 0 −1 2
 
 2 0 0 
 
(P.33) (a) Considera la matriz A =  0 3 −1  ∈ M3×3 (R). Diagonaliza la matriz A respecto
 
0 −1 3
de una base ortonormal de vectores propios de A.
(b) Calcula una matriz X ∈ M3×3 (R) tal que X 2 − X + 2I3×3 = A.
 
 1 2 2 
 
(P.34) Encuentra una matriz real simétrica X tal que X 2 −5X+5I3×3 = A, siendo A =  2 1 2  .
 
2 2 1
 
 1 2 1 
 
(P.35) (a) Diagonaliza la matriz A =  2 0 2  respecto de una base ortonormal de vectores
 
1 2 1
propios y obtén una matriz P tal que A = PDPT .
(b) Calcula una solución de la ecuación matricial −X 2 − 4X = A.
 
 0 1 2 
 
(P.36) (a) Diagonaliza la matriz A =  1 1 1  respecto de una base ortonormal de vectores
 
2 1 0
propios y obtén una matriz P tal que A = PDPT .
(b) Calcula los valores propios de la matriz B = A2 − 4A + 3I3×3 .

CUESTIONES
 
 3 1 1 
 
(C1) Dada la matriz A =  1 3 1  ∈ M3×3 (R), uno de los siguientes vectores es un vector
 
1 1 3
propio de la matriz A asociado al valor propio 2:
     
 1   1   1 
     
(a) u =  1  (b) v =  1  (c) w =  1 .
     
1 0 −2

197
(C2) Sean x, y vectores propios de una matriz A asociados al mismo valor propio. Entonces,
(a) x + y también es vector propio de A.
(b) x + y no es vector propio de A, pues {x, y, x + y} es LD.
(c) x + y también es vector propio de A si x + y , 0.

(C3) Sea A ∈ M3×3 (C) cuyos valores propios son: −1, 1 y 2.


Si B = A2 − 5A + 2I3×3 , entonces
(a) det(B) = −64.
(b) σ(B) = {2, 4, 8}.
(c) tr(B) = 2.

(C4) Una de las siguientes afirmaciones es correcta: sea A una matriz n×n compleja. Entonces
(a) A es no singular si, y sólo si, algún valor propio de A es nulo.
(b) A y AT pueden tener distinto polinomio característico.
(c) la traza de A es la suma de sus valores propios.

(C5) Si λ es un valor propio de una matriz antisimétrica, entonces


(a) 1/λ también es valor propio de A.
(b) −λ también es valor propio de A.
(c) λ = 1.
 
 4 −1 6 
 
(C6) Considera A =  2 1 6  ∈ M3×3 (C). Sabiendo que 2 es un valor propio de A, decide
 
2 −1 8
cuál de las siguientes afirmaciones es verdadera:
(a) MG(2) = 2 (b) MG(2) = 1 (c) MG(2) = 3

(C7) Sea A una matriz 3 × 3 tal que σ(A) = {1, 2, −2}. Entonces,
(a) ρ(A) = 1 + 2 + (−2) = 1
(b) ρ(A − I3×3 ) = 1
(c) ρ(A) = 3.

(C8) Sea A una matriz n × n. Sólo una de las siguientes afirmaciones es correcta:
(a) si A es no singular, entonces A es diagonalizable.
(b) si A es no singular, entonces A es similar a la matriz identidad In×n .
(c) si A es diagonalizable, entonces An es diagonalizable, ∀n ∈ N.

(C9) Sean A ∈ Mn×n (K) y v un vector propio de A asociado a α. Una de las siguientes afirma-
ciones es FALSA:
(a) Si β ∈ K \ {0}, entonces βv es un vector propio de A asociado a α.
(b) Si w es un vector propio de A asociado a β, con β , α, entonces v y w son vectores
ortogonales.

198
(c) Si w es un vector propio de A asociado a β, con β , α, entonces {v, w} es LI.
 
 2 1 0 
 
(C10) Sea A =  −1 0 0  ∈ M3×3 (R). Una de las siguientes afirmaciones es verdadera:
 
0 0 1
(a) σ(A) = {2, 0, 1}
(b) MG(1) = 2
(c) A es diagonalizable.

(C11) Sea A una matriz 3 × 3 tal que dA (λ) = (−1)3 (λ − 3)2 (λ − 5), entonces
(a) si dimK E(3) = 2, entonces A es diagonalizable.
(b) si ρ(A − 3I3×3 ) = 2, entonces A es diagonalizable.
(c) si u y v son vectores propios asociados a 3 y w es vector propio asociado a 5, entonces
{u, v, w} es L.I. y A es diagonalizable.

(C12) Si A−1 es similar a diag(1, 2, −1), entonces el espectro de A es


(a) σ(A) = {1, 1/2, −1} (b) σ(A) = {1, 2, −1} (c) σ(A) = {1, −1/2, −1}.
   
 2 3 3  
  0  
   
 

(C13) Sea A =  3 −1 0  donde σ(A) = {−1, −4, 5} y E(−1) = L   1 
  ,
  

 

 
3 0 −1 −1
   
  −1
    2 
 
   
 

E(−4) = L  1
   y E(5) = L  1
    los subespacios propios correspondientes. Una de

 1 
 
 
1
 

las siguientes afirmaciones es verdadera:
   −1
 0 −1 2   −4 0 0   0 −1 2 
   
(a) A =  1 1 1   0 −1 0   1 1 1 
   
−1 1 1 0 0 5 −1 1 1
   −1
 0 −1 2   −1 0 0   0 −1 2 
   
(b) A =  1 1 1   0 −4 0   1 1 1 
   
−1 1 1 0 0 5 −1 1 1
 −1   
 0 −1 2   −1 0 0   0 −1 2 
    
(c) A =  1 1 1   0 −4 0   1 1 1 
    
−1 1 1 0 0 5 −1 1 1

(C14) Una de las siguientes matrices es estocástica:


   
!  1 1/2 1/3   1 −1 1 
1 −1    
(a) A = (b) B =  0 1/2 1/3  (c) C =  1 1 −1 
1 −1    
0 0 1/3 −1 1 1

(C15) Sea M ∈ Mn×n (R) la matriz de transición de una cadena de Markov. Una de las siguien-
tes afirmaciones es verdadera:
(a) Todos los valores propios de M son positivos.

199
(b) M es no singular.
(c) 1 ∈ σ(M).

(C16) Sea A ∈ Mn×n (C). Si A es hermítica, entonces


(a) todos sus vectores propios son ortogonales entre sí
(b) todos sus vectores propios son LI
(c) todos sus valores propios son reales.

(C17) Sea A ∈ Mn×n (R). Una de las siguientes afirmaciones es verdadera:


(a) Si A es simétrica, entonces los valores propios de A son reales positivos.
(b) Si A es simétrica y x e y son vectores propios de A, entonces x e y son vectores ortogo-
nales.
(c) Si A es simétrica, existe una base ortonormal de Rn formada por vectores propios de A.

(C18) Una de las siguientes matrices es ortogonal:


 
 1 −1 −1 1     

 
  1 −2 2   1 −1 1 
1  1 −1 1 −1  1   
(a) A =   (b) B =  2 −1 −2  (c) C =  0 1 1 
4  1 1 −1 −1  3  
2 2 1 1 1 −1
1 1 1 1

(C19) Sea A una matriz real n × n. Entonces, una de las siguientes afirmaciones es FALSA:
(a) Si A es ortogonal, entonces (A−1 )T = A.
(b) Si A es ortogonal y si α es un valor propio de A, entonces 1/α también es un valor propio
de A.
(c) Si A es ortogonal, entonces A es diagonalizable.

200
Tema 6: Formas Cuadráticas.

6.1. Generalidades sobre formas cuadráticas.

6.1.1 Formas cuadráticas. Reducción de formas cuadráticas.


6.1.2 Formas cuadráticas definidas. Matrices definidas.

6.2. Superficies cuádricas. Reducción y clasificación.

201
6.1. GENERALIDADES SOBRE FORMAS CUADRÁTICAS.
6.1.1 Formas Cuadráticas. Reducción de Formas Cuadráticas.
Comenzamos el tema presentando una de las aplicaciones más frecuentes del Álgebra
Lineal, las denominadas formas cuadráticas. Aparecen en Ingeniería (en criterios de diseño y
optimización y en el procesamiento de señales); en Física (como energías potencial y cinética);
en Economía (como funciones de ganancia), en Cálculo (en el proceso de determinar máximos
y mínimos locales de campos escalares); en Estadística (en elipsoides de confianza), entre
otros. Este nuevo concepto está estrechamente relacionado con las matrices reales simétricas
y con las matrices ortogonales. Según vimos en el Tema 5 las primeras son diagonalizables
respecto de una base ortonormal de vectores propios asociados a valores propios reales, y las
segundas conservan las longitudes y los ángulos.
Definición 1. Una función Q : Rn −→ R es llamada forma cuadrática en Rn si para cada
base B = {v1 , . . . , vn } de Rn existe A = (aij ) ∈ Mn×n (R) tal que
n X
X n
Q(x) = Q(x1 v1 + . . . + xn vn ) = aij xi xj = X T AX, ∀x ∈ Rn ,
i=1 j=1
 
x1
 x2 
 
siendo X = [x]B =  .. .
 . 
xn
Diremos que A es la matriz de la forma cuadrática Q respecto de la base B.
Una forma cuadrática en Rn , puede ser interpretada como un polinomio en las variables
x1 , x2 , . . ., xn con coeficientes reales en el que cada término tiene grado 2.
Nota 2. (I) Sin pérdida de generalidad podemos suponer que la matriz de la forma
cuadrática Q para una base B es una matriz real simétrica. En efecto, del hecho que Q(x) =
X T AX es un escalar, con X = [x]B , tenemos que Q(x) = Q(x)T = (X T AX)T = X T AT X.
Por tanto, se verifica
2Q(x) = X T AX + X T AT X = X T (A + AT )X
y así  
1
Q(x) = X T
(A + A ) X, ∀x ∈ Rn .
T
2
1
Observemos que la matriz (A+AT ) es simétrica (ver Ejercicio 20(ii) Tema 1). Consecuente-
2
mente, siempre podemos encontrar una matriz simétrica para describir la forma cuadrática
respecto de una base B. A partir de ahora, trabajaremos con la matriz de la forma cuadrática
Q que sea simétrica.
(II) Si consideramos el espacio vectorial real Rn dotado con el producto escalar estándar
y B una base de Rn , entonces podemos describir la forma cuadrática a través del producto
escalar del siguiente modo:
Q(x) = X T AX = (X|AX), ∀x ∈ Rn , con X = [x]B .

202
Ejemplos 3.
 
x1
 x2 
 
(1) Consideremos Rn dotado con el producto escalar estándar. Si A = In×n , x =  .. ∈
 . 
xn
R y B es la base canónica de R , entonces x = X = [x]B y
n n

Q(x) = xT In×n x = (x|x) =k x k2 = x21 + x22 + . . . + x2n


es una forma cuadrática en Rn . La forma cuadrática Q(x) = xT Ax aparece como un
polinomio en las variables x1 , x2 , . . ., xn con coeficientes reales en el que cada término
tiene grado 2.
   
a11 a12 x1
(2) Si A = ∈ M2×2 (R), x = ∈ R2 y B es la base canónica de R2 ,
a12 a22 x2
entonces x = X = [x]B y
    
T
 a11 a12 x1  a11 x1 + a12 x2
Q(x) = x Ax = x1 x2 = x1 x2 =
a12 a22 x2 a12 x1 + a22 x2

= a11 x21 + 2a12 x1 x2 + a22 x22


es una forma cuadrática en R2 . Dicha forma cuadrática Q(x) = xT Ax aparece como
un polinomio en las variables x1 y x2 con coeficientes reales en el que cada término
tiene grado 2.
   
a11 a12 a13 x1
(3) Si A =  a12 a22 a23  ∈ M3×3 (R), x =  x2  ∈ R3 y B es la base canónica de
a13 a23 a33 x3
R , entonces x = X = [x]B y
3

  
 a 11 a 12 a 13 x 1
Q(x) = xT Ax = x1 x2 x3  a12 a22 a23   x2  =
a13 a23 a33 x3

= a11 x21 + a22 x22 + a33 x23 + 2a12 x1 x2 + 2a13 x1 x3 + 2a23 x2 x3


es una forma cuadrática en R3 . La forma cuadrática Q(x) = xT Ax aparece como un
polinomio en las variables x1 , x2 y x3 con coeficientes reales en el que cada término
tiene grado 2.

Ejemplos 4.
 
x1
(1) Obtén la matriz de la forma cuadrática Q en R3 dada por Q  x2  = x22 + 2x1 x3
  x3
x1
∀  x2  ∈ R3 , respecto de la base canónica B de R3 .
x3

203
Según lo expuesto en el Ejemplo 3(3) la matriz
 simétrica
 de la forma cuadrática Q
0 0 1
respecto de base canónica B de R es: C =
3  0 1 0 .
1 0 0

(2) Obtén la forma cuadráticaH en R3 , sabiendo


 que la matriz de H respecto de base
2 0 0
canónica B de R3 es: L =  0 −7 0  .
0 0 3
    
x1  2 0 0 x 1
H  x2  = x1 x2 x3  0 −7 0   x2  = 2x21 − 7x22 + 3x23 .
x3 0 0 3 x3

(3) Obtén la forma cuadráticaQ en R3 , sabiendo


 que la matriz de Q respecto de la base
4 2 2
canónica B de R3 es: A =  2 3 0  .
2 0 5
    
x1  4 2 2 x 1
Q  x2  = x1 x2 x3  2 3 0   x2  = 4x21 + 3x22 + 5x23 + 4x1 x2 + 4x1 x3 .
x3 2 0 5 x3

Observación 5. Si nos fijamos en el ejemplo anterior, podemos observar que la forma


cuadrática H respecto de la base canónica B aparece como suma de cuadrados:

2x21 − 7x22 + 3x23 .

Este hecho es debido a que la matriz que define la forma cuadrática respecto de la base fijada
es una matriz diagonal. Sin embargo, la forma cuadrática Q respecto de la base canónica B
aparece como un polinomio en las variables x1 , x2 y x3 con términos cruzados:

4x21 + 3x22 + 5x23 + 4x1 x2 + 4x1 x3 .

Esta expresión es más complicada que la de H, nos preguntamos si sería posible encontrar
otra base C de R3 de forma que la expresión de la forma cuadrática Q respecto de C fuese lo
más sencilla posible, esto es, fuese una suma de cuadrados. La matriz A que representa la
forma cuadrática Q respecto de la base canónica B es una matriz real simétrica y, por tanto,
es diagonalizable respecto de una base ortonormal A de R3 formada por vectores propios
de A o, equivalentemente, existe una matriz P ortogonal tal que P T AP = D donde D es
una matriz diagonal real. En efecto, el espectro de A es: σ(A) = {1, 4, 7} y los subespacios
propios asociados
  a los valores
 propios de  Ason:
      
 2   1   2 
E(1) = L   −2   , E(4) = L   2   y E(7) = L   1  .
     
−1 −2 2

204
      
1 2 1 2
  1  1  
Por tanto, A = −2 , 2 , 1 es una base ortonormal de R3
3 3 3 
−1 −2 2
formada por vectores propios de A. Como la base canónica B y la base A son bases ortonor-
males de R3 , la matriz cambio de base P = IdAB es una matriz ortogonal. Así D = P T AP ,
siendo
        
1 0 0 2 −2 −1 4 2 2 2 1 2
1 1
D= 0 4 0 =  1 2 −2   2 3 0    −2 2 1  = P T AP.
3 3
0 0 7 2 1 2 2 0 5 −1 −2 2

En consecuencia, es posible definir una transformación ortogonal: X = P Y , esto es,


[x]B = IdAB [x]A , que nos permitirá expresar la forma cuadrática Q respecto de la base A
como una suma de cuadrados:

Q(x) = X T AX = (P Y )T AP Y = Y T (P T AP )Y = Y T DY =

  
 1 0 0 y1
= y1 y2 y3  0 4 0   y2  = y12 + 4y22 + 7y32 .
0 0 7 y3
Por tanto, ha sido posible encontrar una base A de R3 de modo que la matriz que
representa la forma cuadrática Q respecto de dicha base es una matriz diagonal real y la
expresión de la forma cuadrática respecto de la citada base aparece como una suma de
cuadrados (se ha logrado eliminar los términos cruzados). Este hecho es un caso particular
del resultado que presentamos a continuación.

Teorema 6. (Teorema de la reducción ortogonal de una forma cuadrática)


Sea Q una forma cuadrática en Rn que respecto de la base canónica B de Rn viene dada
por Q(x) = X T AX ∀x ∈ Rn , con X = [x]B . Si la matriz A de la forma cuadrática Q
tiene rango r, entonces existe una transformación ortogonal X = P Y , siendo P = IdAB
con A base ortonormal de Rn formada por vectores propios de A, B base canónica de Rn e
Y = [x]A = (y1 y2 . . . yn )T , que transforma Q en una suma de cuadrados

α1 y12 + α2 y22 + · · · + αr yr2 ,

donde α1 , α2 , . . . , αr son los valores propios no nulos de A.


A los vectores de la base A se les denomina direcciones principales.

En la Observación 5 se pone de manifiesto que las matrices A y D representan a la misma


forma cuadrática Q respecto de bases ortonormales distintas, dígase B y A. En este contexto
podemos plantearnos si existe alguna relación entre las matrices que representan a la misma
forma cuadrática.
Proposición 7. Dos matrices A y B ∈ Mn×n (R) simétricas representan la misma forma
cuadrática respecto de bases ortonormales distintas si, y sólo si, existe una matriz ortogonal
P ∈ Mn×n (R) tal que A = P BP T .

205
6.1.2 Formas Cuadráticas Definidas. Matrices Definidas.
Las imágenes que una forma cuadrática Q proporciona a los vectores de Rn son números
reales y en R tenemos una relación de orden. Estos hechos nos permiten dar las siguientes
definiciones con las que conseguiremos clasificar a las formas cuadráticas en función del signo
de sus imágenes. Dado que la forma cuadrática nula transforma todos los vectores de Rn en
cero, excluimos este caso de la clasificación. Recordemos que en la asignatura Matemáticas
I, la clasificación de las formas cuadráticas jugó un papel destacado en la determinación de
la condición suficiente para que un punto crítico de un campo escalar fuese un extremo local.
Definición 8. Sea Q una forma cuadrática no nula en Rn . Diremos que Q es
• definida positiva si Q(x) > 0, ∀x ∈ Rn − {0};

• definida negativa si Q(x) < 0, ∀x ∈ Rn − {0};

• semidefinida positiva si Q(x) ≥ 0, ∀x ∈ Rn y ∃ x ∈ Rn − {0} tal que Q(x) = 0;

• semidefinida negativa si Q(x) ≤ 0, ∀x ∈ Rn y ∃ x ∈ Rn − {0} tal que Q(x) = 0;

• indefinida si Q toma valores positivos y negativos.

Como la matriz que representa a una forma cuadrática es una matriz simétrica real,
podemos a su vez obtener las siguientes definiciones:
Definición 9. Diremos que la matriz simétrica A ∈ Mn×n (R) no nula es definida posi-
tiva, definida negativa, semidefinida positiva, semidefinida negativa o indefinida si lo es,
respectivamente, la forma cuadrática Q asociada a la matriz A respecto de la base canónica
de Rn .

Ejemplos 10.
Clasifica las siguientes formas cuadráticas:
   
    x x
x x
(1) Q = 7x2 +8y 2 , ∀ ∈ R2 , (2) Q  y  = −3x2 −y 2 −7z 2 , ∀  y  ∈ R3 ,
y y
z z
   
    x x
x x
(3) Q = 4x2 +y 2 +4xy, ∀ ∈ R2 , (4) Q  y  = 3x2 +y 2 −5z 2 , ∀  y  ∈ R3 ,
y y
z z
   
x x
(5) Q = −x2 − y 2 − 2xy, ∀ ∈ R2 .
y y

(1) Es claro que 7x2 +


 8y = 0 si, 
2
y sólo si x
= y = 0. Por tanto, Q es definida
x x 0
positiva, pues Q > 0, ∀ ∈ R2 − . Asimismo, la matriz de la
y y 0  
7 0
forma cuadrática respecto de la base canónica de R : A =
2
es una matriz
0 8
definida positiva.

206
(2) Es sencillo comprobar que −3x2 −y 2 −7z 2 = 0 si,  y sólo
 si x = y
=z =0. Por
x x  0 
tanto, Q es definida negativa, pues Q y   
< 0, ∀ y  ∈ R −  0  . Del
3
 
z z 0
mismo modo la matriz  de la forma cuadrática respecto de la base canónica de R :
3

−3 0 0
A=  0 −1 0  es una matriz definida negativa.
0 0 −7
 
x
(3) Observemos que 4x +y +4xy = (2x+y) . Por tanto, Q
2 2 2
= 4x2 +y 2 +4xy ≥ 0,
   y 
x 1
∀ ∈ R y existe, por ejemplo, el vector no nulo
2
∈ R2 de modo que
 y  −2
1
Q = 0. En consecuencia, Q es una forma cuadrática semidefinida positiva. La
−2  
4 2
matriz de la forma cuadrática respecto de la base canónica de R : A = 2
es
2 1
una matriz semidefinida positiva.
   
1 0
(4) Q es indefinida, pues es posible encontrar dos vectores de R3 :  0  y  0  de
    0 1
1 0
modo que Q  0  = 3 > 0 y Q  0  = −5 < 0. La matriz de la forma cuadrática
0 1  
3 0 0
respecto de la base canónica de R3 : A =  0 1 0  es una matriz indefinida.
0 0 −5
   
x x
(5) Como Q 2 2
= −x − y − 2xy = −(x + y) ≤ 0, ∀ 2
∈ R2 y existe, por
y     y
1 1
ejemplo, el vector no nulo ∈ R tal que Q
2
= 0, podemos afirmar que
−1 −1
Q es una forma cuadrática semidefinida negativa.
 Así lamatriz de la forma cuadrática
−1 −1
respecto de la base canónica de R2 : A = es una matriz semidefinida
−1 −1
negativa.

En el ejemplo anterior las formas cuadráticas (1), (2) y (4) han sido fáciles de clasificar,
ya que aparecían como suma de cuadrados. Las formas cuadráticas (3) y (5) han podido
ser interpretadas como desarrollos de un binomio al cuadrado y, por tanto, ha sido sencillo
determinar su naturaleza. Sin embargo, abordar el problema de la clasificación de una forma
cuadrática en general, puede ser complicado a partir de la definición. Ahora bien, dado
que una matriz real simétrica es diagonalizable respecto de una base ortonormal de vectores
propios asociados a valores propios reales, el signo de tales valores propios jugará un papel
determinante en la clasificación.

207
Teorema 11. (Caracterización de matrices definidas mediante los valores propios)
Sea A ∈ Mn×n (R) simétrica no nula.
1. A es definida positiva ⇐⇒ todos los valores propios son positivos.

2. A es definida negativa ⇐⇒ todos los valores propios son negativos.

3. A es semidefinida positiva ⇐⇒ todos los valores propios son no negativos y, al menos,


uno de ellos es cero y otro positivo.

4. A es semidefinida negativa ⇐⇒ todos los valores propios son no positivos y, al menos,


uno de ellos es cero y otro negativo.

5. A es indefinida ⇐⇒ posee, al menos, un valor propio positivo y otro negativo.

Ejemplo 12.

Clasifica las siguientes matrices simétricas reales:


     
4 2 2 1 0 −1 1 2 −2
(a) A =  2 3 0  (b) B =  0 3 3  (c) C =  2 1 2 
2 0 5 −1 3 4 −2 2 1

Calculamos los valores propios de tales matrices y obtenemos:


√ √
σ(A) = {7, 4, 1}, σ(B) = {0, 4 + 7, 4 − 7} y σ(C) = {3, 3, −3}.

Por tanto, A es definida positiva, B es semidefinida positiva y C es indefinida.

Las matrices simétricas reales definidas también pueden caracterizarse por el signo del
determinante de ciertas submatrices principales (ver Tema 1).
Teorema 13. (Caracterización de matrices definidas mediante determinantes de
submatrices principales)
Sea A ∈ Mn×n (R) simétrica no nula.
1. A es definida positiva ⇐⇒ det(A[k] ) > 0, ∀k ∈ {1, . . . , n}.

2. A es definida negativa ⇐⇒ (−1)k det(A[k] ) > 0, ∀k ∈ {1, . . . , n}.

3. A es semidefinida positiva ⇐⇒ el determinante de todas las submatrices principales es


no negativo y det(A) = 0.

4. A es semidefinida negativa ⇐⇒ el determinante de todas las submatrices principales


es no positivo si es de tamaño impar, no negativo si es de tamaño par y det(A) = 0.

5. A es indefinida ⇐⇒ existe una submatriz principal de tamaño par con determinante


negativo o dos de tamaño impar tienen determinantes de signos distintos.

208
Ejemplo 14.

Clasifica las siguientes matrices simétricas reales utilizando la caracterización anterior:


     
4 2 2 1 0 −1 1 2 −2
(a) A =  2 3 0  (b) B =  0 3 3  (c) C =  2 1 2 
2 0 5 −1 3 4 −2 2 1

(a) Comenzaremos calculando el determinante de las submatrices A[1] , A[2] y A[3] = A.


 
4 2
[1] [2]
det(A ) = det(4) = 4 > 0, det(A ) = det = 8 > 0 y det(A[3] ) = 28 > 0.
2 3

Por tanto, A es una matriz definida positiva.


(b) Observemos que B es singular, pues det(B) = 0. Por tanto, no puede ser ni definida
positiva ni definida negativa. Obtengamos las submatrices principales de tamaño 1 × 1
y 2 × 2:

(4) (eliminando 1a fila, 1a columna, 2a fila y 2a columna), (3) (eliminando 1a fila,


1a columna, 3a fila y 3a columna) y B [1] = (1) (eliminando 2a fila, 2a columna, 3a
fila y 3a columna).
   
3 3 a a 1 −1
(eliminando 1 fila y 1 columna), (eliminando 2a fila, 2a
3 4   −1 4
1 0
columna) y B = [2]
(eliminando 3a fila, 3a columna).
0 3

Como estas submatrices tienen determinante positivo y det(B) = 0, podemos concluir


que B es una matriz semidefinida positiva.
(c) C no puede ser ni semidefinida positiva, ni semidefinida negativa y ni definida
positiva, pues det(C) = −27. En primer lugar, calculemos el determinante de las
submatrices C [1] , C [2] y C [3] = C:
 
1 2
[1]
det(C ) = det(1) = 1 > 0, det(C ) = det[2]
= −3 < 0 y det(C [3] ) = −27 < 0.
2 1

Con esta información es suficiente para concluir que C es una matriz indefinida, pues
tiene una submatriz principal de tamaño par con determinante negativo o dos de
tamaño impar cuyo determinante posee diferente signo.

La factorización matricial es un potente instrumento a la hora de simplificar cálculos.


Citemos por ejemplo: la factorización LU ( resolución de sistemas de ecuaciones lineales), la
diagonalización (cálculo de potencias de una matriz cuadrada),... A continuación presenta-
mos otra factorización matricial que va ligada a las matrices definidas positivas.
Aplicación: Factorización de Cholevski. Consideramos A ∈ Mn×n (R) definida positiva.
Como consecuencia del Teorema 13 podemos afirmar que A es una matriz no singular,

209
det(A) = det(A[n] ) > 0, y que A admite factorización LDU, ya que det(A[k] ) > 0, ∀k ∈
{1, . . . , n − 1}. Debido al Teorema 72 del Tema 1 esta factorización es única y L = U T .
Además, se puede comprobar que los pivotes del proceso de escalonamiento π1 , π2 , . . . , πn
de la matriz A son positivos. Observemos que:
A = LDU = L diag(π1 , . . . , πn )LT =
√ √ √ √
= L (diag( π1 , . . . , πn ) diag( π1 , . . . , πn )) LT =
√ √ √ √ 
= (L diag( π1 , . . . , πn )) diag( π1 , . . . , πn )T LT =
√ √ √ √
= (L diag( π1 , . . . , πn )) (L diag( π1 , . . . , πn ))T =
= ∆∆T .
√ √
Notemos que ∆ = L diag( π1 , . . . , πn ) es una matriz triangular inferior con entradas diago-
nales positivas. Por tanto, hemos factorizado la matriz A como el producto de una matriz
triangular inferior con entradas diagonales positivas por su traspuesta: A = ∆∆T . Esta
factorización es conocida como factorización de Cholevski.
 
2 −1 1
Ejemplo 15. Estudia si la matriz A =  −1 1 0  es definida positiva y, en caso
1 0 3
afirmativo, calcula la factorización de Cholevski de A.
Veamos si A es definida positiva:
 
[1]
 [2] 2 −1
det(A ) = det 2 = 2 > 0, det(A ) = det = 1 > 0, det(A[3] ) = det(A) = 2 > 0.
−1 1

Por tanto, A es una matriz definida positiva y, en consecuencia, A admite factorización de


Cholevski.
Observemos que A admite factorización LDU, pues det(A[1] ) 6= 0 y det(A[2] ) 6= 0. Además,
A es no singular (det(A) 6= 0) y simétrica, luego esta factorización LDU es única y L =
U T . Comenzamos triangulando la matriz A (sólo se pueden utilizar ciertas operaciones
elementales de tipo III por filas):
     
2 −1 1 2 −1 1 2 −1 1
1 ;F3 −(1/2)F1
 −1 1 0  F2 +(1/2)F−→ 3 −F2
 0 1/2 1/2  F−→  0 1/2 1/2 
1 0 3 0 1/2 5/2 0 0 2
La factorización LDU de A es
   
1 0 0 2 0 0 1 −1/2 1/2
A = LDU = LDLT = −1/2 1 0 0 1/2 0 0 1 1 .
1/2 1 1 0 0 2 0 0 1
Así tenemos:
A = LDU = L diag(2, 1/2, 2)LT =
 √ p √ √ p √ 
= L diag( 2, 1/2, 2) diag( 2, 1/2, 2) LT =
 √ p √  √ p √ 
= L diag( 2, 1/2, 2) diag( 2, 1/2, 2)T LT =
  √  √  
1 0 0 2 0√ 0 2 0√ 0 1 −1/2 1/2
= −1/2 1 0  0 1/ 2 √0   0 1/ 2 √0  0 1 1  =
1/2 1 1 0 0 2 0 0 2 0 0 1

210
 √  √ √ √ 
√2 √0 0 2 −√ 2/2 √2/2
= −√ 2/2 √2/2 √0   0 2/2 √2/2 = ∆∆T .
2/2 2/2 2 0 0 2
Por tanto, la factorización de Cholevski es:
 √  √ √ √ 
√ 2 √ 0 0 2 −
√ 2/2 √ 2/2
A = ∆∆T = −√ 2/2 √2/2 √0   0 2/2 √2/2 .
2/2 2/2 2 0 0 2

6.2. SUPERFICIES CUÁDRICAS. REDUCCIÓN Y CLASIFICACIÓN.


Definición 16. Llamaremos superficie cuádrica al subconjunto S de Rn de la forma

S = {x ∈ Rn : Q(x) + L(x) + c = 0},

donde Q es una forma cuadrática en Rn , L es una forma lineal en Rn y c es un número real.


Consideremos una base B1 = {v1 , . . . , vn } de Rn y el sistema de referencia (O1 , B1 ). La superficie
cuádrica S puede escribirse respecto de dicho sistema de referencia como sigue:
 
  Xn Xn n
X 
S = x ∈ Rn : X T AX + bT X + c = 0 = x ∈ Rn : aij xi xj + bk xk + c = 0
 
i=1 j=1 k=1
 
x1
 x2 
 
donde X = [x]B =  .. , A = (aij ) es una matriz simétrica real de tamaño n × n que representa
 . 
xn
a la forma cuadrática respecto de la base B1 , b ∈ Rn y c ∈ R.

Presentamos a continuación las expresiones más sencillas que una superficie cuádrica S de Rn
puede tener respecto de un sistema de referencia (O, B).

Definiciones 17. Clasificación de superficies cuádricas de Rn .

(I) Si la expresión de una superficie cuádrica S de Rn respecto de un sistema de referencia (O, B)


es

r
X
αi x2i + e = 0 (I)
i=1

entonces se dice que S es una superficie cuádrica centrada. Además,

si r = n, entonces S es una superficie cuádrica centrada no degenerada,


si r < n, entonces S es una superficie cuádrica centrada degenerada,
si e 6= 0, entonces S es una superficie cuádrica centrada propia,
si e = 0, entonces S es una superficie cuádrica centrada impropia.

211
(II) Si la expresión de una superficie cuádrica S de Rn respecto de un sistema de referencia (O, B)
es

r
X
αi x2i − M xr+1 = 0 con M > 0 (II)
i=1

entonces se dice que S es una superficie cuádrica no centrada. Además,

si r + 1 = n, entonces S es una superficie cuádrica no centrada no degenerada,


si r + 1 < n, entonces S es una superficie cuádrica no centrada degenerada.

Presentamos la clasificación de algunas superficies en R2 y en R3 :

Superficies cuádricas en R2 (Cónicas)

x2 y 2
• − 2 =1 hipérbola.
a2 b
x2 y 2
• + 2 =1 elipse.
a2 b
x2 y 2
• − 2 =0 par de rectas que se cortan.
a2 b
• x2 = a2 y parábola.

212
Superficies cuádricas en R3

x2 y 2 z 2 x2 y 2 z 2 x2 y 2 z 2
− − 2 + 2 =1 + 2 − 2 =1 + 2 + 2 =1
a2 b c a2 b c a2 b c
hiperboloide de dos hojas. hiperboloide de una hoja. elipsoide.

x2 y 2 z 2 x2 y 2 x2 y 2
+ 2 − 2 =0 − 2 =1 + 2 =1
a2 b c a2 b a2 b
cono. cilindro hiperbólico. cilindro elíptico.

x2 = a2 y x2 y 2 x2 y 2
− + 2 =z + 2 =z
a2 b a2 b
cilindro parabólico. paraboloide hiperbólico. paraboloide elíptico.

a2 z 2 − b2 y 2 = 0 z 2 − a2 = 0 z2 = 0
planos que se cortan. planos paralelos. plano doble.

213
Método práctico para la reducción y clasificación de superficies cuádricas en Rn
Consideremos el espacio vectorial Rn dotado con el producto escalar estándar.
Si la expresión de la superficie cuádrica S = {x ∈ Rn : Q(x) + L(x) + c = 0} respecto de un
sistema de referencia (O, B), formado por el origen O y la base canónica B de Rn (base ortonormal),
no coincide con las expresiones dadas en (I) o en (II), entonces nuestro objetivo será encontrar un
sistema de referencia (Õ, B̃), respecto del cual la superficie cuádrica adquiera una expresión del tipo
(I) o del tipo (II) que nos permita obtener su clasificación. Para conseguir tal fin seguiremos los
siguientes pasos:

Paso 1. Simplificar la expresión de la forma cuadrática.


Partimos de la expresión matricial de la superficie cuádrica

S = {x ∈ Rn : Q(x) + L(x) + c = 0},

respecto del sistema de referencia (O, B), siendo O el origen y B = {e1 , . . . , en } la base
canónica de Rn :
X T AX + bT X + c = 0,
donde X = [x]B . Para simplificar la forma cuadrática Q que aparece en S, aplicamos el
Teorema 6 que nos garantiza la existencia de una transformación ortogonal X = P Y , siendo
P = IdAB con A base ortonormal de Rn formada por vectores propios de A, B base canónica
de Rn (base ortonormal) e Y = [x]A , mediante la cual la forma cuadrática Q aparece como
suma de variables al cuadrado, permitiendo de este modo eliminar los términos cruzados. Geo-
métricamente esta transformación se corresponde con una rotación de los ejes coordenados:

X=P Y
X T AX + bT X + c = 0 =⇒ Y T (P T AP )Y + bT P Y + c = 0.

Si α1 , α2 , . . . , αr son los valores propios no nulos de A, se puede suponer sin pérdida de genera-
lidad que α1 ≥ α2 ≥ . . . ≥ αr , entonces P T AP = D = diag(α  1 , . . . , αr , 0, . . . , 0). Realizamos
el producto matricial bT P = dT = d1 d2 . . . dn . Así la expresión de la superficie
cuádrica respecto del sistema de referencia (O, A) queda en los siguientes términos:

r
X n
X
T T
Y DY + d Y + c = 0 =⇒ αi yi2 + di yi + c = 0.
i=1 i=1

Paso 2. Eliminar algunos términos lineales.


Consideramos las variables y1 , y2 , . . . , yr y realizamos la completación de cuadrados:

     
di di d2i d2i di 2 d2
αi yi2 2
+ di yi = αi yi + 2 2
yi = αi yi + 2 yi + 2 − 2 = αi yi + − i ,
2αi 2αi 4αi 4αi 2αi 4αi
1 ≤ i ≤ r.

De este modo incorporamos a la parte cuadrática y1 , y2 , . . . , yr :

r n r   n r
!
X X X di 2 X X d2i
αi yi2 + di yi + c = αi yi + + di yi + c− = 0.
2αi 4αi
i=1 i=1 i=1 i=r+1 i=1

214
Si llamamos

d1
z1 = y1 +
2α1
.. .. ..
. . .
dr
zr = yr +
2αr
zr+1 = yr+1
.. .. ..
. . .
zn = yn

entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del


sistema de referencia (O1 , A) queda de la siguiente forma:

r
X n
X r
X d2i
αi zi2 + di zi + e = 0, siendo e = c − .
4αi
i=1 i=r+1 i=1

Geométricamente este cambio ha supuesto una traslación de los ejes coordenados.

En este punto podemos distinguir tres situaciones:

1. Si dr+1 = dr+2 = . . . = dn = 0, entonces S es una superficie cuádrica centrada. Si


r = n será una superficie cuádrica centrada no degenerada y si r < n será una superficie
cuádrica centrada degenerada. Además, si e 6= 0 será una superficie cuádrica centrada
propia y si e = 0 será una superficie cuádrica centrada impropia.
2. Si existe un único j ∈ {r + 1, . . . , n} tal que dj < 0, di = 0 ∀i ∈ {r + 1, . . . , n} con
r
X
i 6= j y e = 0: αi zi2 + dj zj = 0, entonces S es una superficie cuádrica no centrada.
i=1
Si r + 1 = n, entonces será no degenerada y si r + 1 < n, entonces será degenerada.
3. Si no estamos en el caso 1 ni en el caso 2, entonces debemos aplicar el Paso 3.

Paso 3. Simplificar forma lineal.


A continuación definiremos una transformación ortogonal que nos permita escribir

dr+1 zr+1 + . . . + dn zn = −M wr+1 con M > 0,

La transformación que necesitamos es:

w1 = z 1
.. .. ..
. . .
wr = z r    
n
X w1 z1
1
−→  ...  = P1  .. 
wr+1 = − di zi   
M . 
i=r+1
wn zn
wr+2 = cr+11 z1 + . . . + cr+1n zn
.. .. ..
. . .
wn = cn1 z1 + . . . + cnn zn

215
donde M y el resto de entradas de la matriz P1 se eligen de modo que esta matriz sea
n
ortogonal. En particular, como las filas de P1 entendidas
q como vectores de R deben formar
una base ortonormal de Rn , la constante M es: M = d2r+1 + . . . + d2n . Esta transformación
convierte la base ortonormal A en una base ortonormal C y después de aplicarla obtenemos
que la expresión de la superficie cuádrica S respecto del sistema de referencia (O1 , C) es:

r
X
αi wi2 − M wr+1 + e = 0 con M > 0.
i=1
Geométricamente esta transformación se corresponde con una rotación de los ejes coor-
denados.
En este punto podemos distinguir dos situaciones:

1. Si e = 0, entonces S es una superficie cuádrica no centrada. Además, si r + 1 = n,


entonces será una superficie cuádrica no centrada no degenerada y si r + 1 < n, entonces
S será una superficie cuádrica no centrada y degenerada.
2. Si e 6= 0, entonces debemos aplicar el Paso 4.

Paso 4. Eliminar la constante.


En este caso, la ecuación de la superficie cuádrica S respecto del sistema de referencia (O1 , C)
es:
X r Xr  e 
2
αi wi − M wr+1 + e = αi wi2 − M wr+1 − =0
M
i=1 i=1
y pretendemos llegar a una expresión de tipo (II). Si llamamos

t 1 = w1
.. .. ..
. . .
tr = wr
tr+1 = wr+1 − e/M
tr+2 = wr+2
.. .. ..
. . .
t n = wn

entonces O1 se desplaza a O2 y la expresión de la superficie cuádrica respecto del sistema de


referencia (O2 , C) queda de la siguiente forma:
r
X
αi t2i − M tr+1 = 0.
i=1

Geométricamente este cambio ha supuesto una traslación de los ejes coordenados.


Por tanto, S es una superficie cuádrica no centrada. Si r + 1 = n, entonces será una superficie
cuádrica no centrada y no degenerada. Si r + 1 < n, entonces será una superficie cuádrica no
centrada y degenerada.

Ejemplo 18. Clasifica la cónica que respecto del sistema de referencia (O, B), siendo O el origen
y B la base canónica de R2 tiene la siguiente expresión: x2 + 4xy + y 2 + 3x + y − 1 = 0.

216
La expresión matricial de la cónica respecto del sistema de referencia (O, B) es
    
 1 2 x  x
x y + 3 1 − 1 = 0.
2 1 y y
 
T T x
De forma abreviada, escribimos X AX + b X − 1 = 0 donde X = [x]B = con x ∈ R2 ,
y
 
1 2 
A= matriz real simétrica y bT = 3 1 .
2 1
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R2 formada
 por vectores propios de A, B base canónica de R2 (base ortonormal) e Y =
0
x
[x]A = , mediante la cual la forma cuadrática aparecerá como suma de variables al cuadrado.
y0
Comenzamos calculando la base A.

• dA (λ) = (3 − λ)(−1 − λ), luego σ(A) = {3, −1}.

• Los subespacios propios asociados a 3 y a −1 son:


    
1 1 1
E(3) = L −→ A1 = √ es una base ortonormal de E(3)
1 2 1
    
−1 1 −1
E(−1) = L −→ A2 = √ es una base ortonormal de E(−1).
1 2 1
    
1 1 1 −1
Por tanto, A = A1 ∪ A2 = √ ,√ es una base ortonormal de R2 formada por
2 1 2 1
 √ √ 
T 1/√2 −1/√ 2
vectores propios de A. Así A = P DP con P = IdAB = matriz ortogonal y
1/ 2 1/ 2
 
3 0
D= matriz diagonal.
0 −1
 0 
x
Realizamos la transformación ortogonal X = P Y con Y = [x]A = , esto es, [x]B =
y0
IdAB [x]A :

X T AX + bT X − 1 = (P Y )T A(P Y ) + bT (P Y ) − 1 = Y T (P T AP )Y + (bT P )Y − 1 = 0

217
y obtenemos la expresión de la cónica en el nuevo sistema de referencia (O, A):
  0   
T T 0 0
 3 0 x √ √  x0
Y DY + b P Y − 1 = 0 −→ x y + 2 2 − 2 −1=0
0 −1 y0 y0
√ √
3(x0 )2 − (y 0 )2 + 2 2x0 − 2y 0 − 1 = 0.
Geométricamente, lo que hemos hecho ha sido girar los ejes de coordenados un ángulo de π/4
en sentido contrario a la agujas del reloj, ya que
 √ √   
1/√2 −1/√2 cos(π/4) − sin(π/4)
P = IdAB = =
1/ 2 1/ 2 sin(π/4) cos(π/4)

(esta matriz es llamada matriz de giro). Así los nuevos ejes coordenados son: x + y = 0, x − y = 0.

Paso 2. Eliminar algunos términos lineales.


Las variables x0 y y 0 están repetidas en la forma cuadrática y en la forma lineal. Realizamos las
siguientes completaciones de cuadrados:
√ ! √ ! √ !2
0 2
√ 0 0 2 2 0 0 2 2 0 2 2 0 2 2
3(x ) + 2 2x = 3 (x ) + 2 x = 3 (x ) + 2 x + − =3 x + −
3 3 9 9 3 3
√ ! √ !  
0 2
√ 0 0 2 2 0 0 2 2 0 1 1 0 1 2 1
−(y ) − 2y = (−1) (y ) + 2 y = (−1) (y ) + 2 y + − = (−1) y + √ +
2 2 2 2 2 2
Así tenemos
√ !2  
0 2 0 2
√ 0
√ 0 2 02 0 1 2 1
0 = 3(x ) − (y ) + 2 2x − 2y − 1 = 3 x + − − y +√ + −1=
3 3 2 2
√ !2  
0 2 0 1 2 7
=3 x + − y +√ − .
3 2 6
Si llamamos √
00 0 2
x = x +
3
1
y 00 = y0 + √
2

218
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del sistema
de referencia (O1 , A) queda de la siguiente forma:
7
3(x00 )2 − (y 00 )2 = .
6
Se trata de una superficie cuádrica centrada no degenerada propia, llamada hipérbola.
Geométricamente, en este paso hemos realizado una traslación que nos ha permitido establecer
la forma estándar de la cónica. Se trata de una hipérbola cuyo centro es (1/6, −5/6) y los ejes de
la hipérbola son x + y = −2/3 y x − y = 1.

Ejemplos 19. Clasifica las siguientes superficies cuádricas de R3 que respecto del sistema de
referencia (O, B), siendo O el origen y B la base canónica de R3 , tienen las siguientes expresiones:
13
(1) 3x2 + 6y 2 + 3z 2 − 4xy − 2xz + 4yz + x − z − = 0.
16
La expresión matricial de la superficie cuádrica respecto del sistema de referencia (O, B) es
    
 3 −2 −1 x  x
x y z  −2 6 2  y  + 1 0 −1  y  − 13 = 0.
16
−1 2 3 z z
 
x
13
De forma abreviada, escribimos X T AX + bT X − = 0 donde X = [x]B =  y  con
16
z
 
3 −2 −1 
x ∈ R3 , A =  −2 6 2  y bT = 1 0 −1 .
−1 2 3
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R3 formada 3
 0 por vectores propios de A, B base canónica de R (base ortonormal) e
x
Y = [x]A =  y 0 , mediante la cual la forma cuadrática aparece como suma de variables
z0
al cuadrado. Comenzamos obteniendo A.

219
dA (λ) = (2 − λ)2 (8 − λ), luego σ(A) = {8, 2, 2}.
Los subespacios propios asociados a 8 y 2 son:
    
 1   1 1 
E(8) = L   −2   → A1 = √  −2  es una base ortonormal de E(8).
   6 
−1 −1
        
 1 1   1 1
1
1 
E(2) = L   
0 ,  1   → A2 = √  0  , √  1  es una
   2 3 
1 −1 1 −1
base ortonormal de E(2).

Por tanto,       
 1 1 1 1 
1 1
A = A1 ∪ A2 = √  −2  , √  0  , √  1 
 6 2 3 
−1 1 −1
3
es una base ortonormal
√ de R√ formada
√ por vectores propios de A. Así A = P DP T con
   
1/√6 1/ 2 1/√3 8 0 0
P = IdAB =  −2/√6 0√ 1/√3  matriz ortogonal y D =  0 2 0  matriz
−1/ 6 1/ 2 −1/ 3 0 0 2
diagonal.
Realizamos la transformación ortogonal X = P Y , esto es, [x]B = IdAB [x]A :
13 13 13
X T AX + bT X − = (P Y )T A(P Y ) + bT (P Y ) − = Y T (P T AP )Y + (bT P )Y − =0
16 16 16
y obtenemos la expresión de la superficie cuádrica en el nuevo sistema de referencia (O, A):
13
Y T DY + bT P Y − = 0.
16
  0   
 8 0 0 x   x0
2 2
0 0 0
x y z  0 2 0   y 0 
+ √ 0 √  y 0  − 13 = 0
6 3 16
0 0 2 z0 z0
Así, la expresión de la superficie cuádrica es:

2 2 13
8(x0 )2 + 2(y 0 )2 + 2(z 0 )2 + √ x0 + √ z 0 − = 0.
6 3 16
Paso 2. Eliminar algunos términos lineales.
Las variables x0 y z 0 están repetidas en la forma cuadrática y en la forma lineal. Realizamos
las siguientes completaciones de cuadrados:
     2
0 2 2 0 0 2 1 0 0 2 1 0 1 1 0 1
8(x ) + √ x = 8 (x ) + 2 √ x = 8 (x ) + 2 √ x + − =8 x + √ −
6 8 6 8 6 384 384 8 6
1
48      2
0 2 2 0 0 2 1 0 0 2 1 0 1 1 0 1 1
2(z ) + √ z = 2 (z ) + 2 √ z = 2 (z ) + 2 √ z + − =2 z + √ −
3 2 3 2 3 12 12 2 3 6
Así tenemos
 2  2
2 2 13 1 1 1 1 13
0 = 8(x0 )2 +2(y 0 )2 +2(z 0 )2 + √ x0 + √ z 0 − = 8 x0 + √ − +2 z 0 + √ − − .
6 3 16 8 6 48 2 3 6 16

220
Si llamamos
1
x00 = x0 + √
8 6
y 00 = y 0
1
z 00 = z 0 + √
2 3
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del
sistema de referencia (O1 , A) queda de la siguiente forma:

8(x00 )2 + 2(y 00 )2 + 2(z 00 )2 − 1 = 0.

Se trata de una superficie cuádrica


centrada no degenerada propia,
llamada elipsoide.

√ √ 13 √
(2) 4x2 + y 2 + z 2 − 4xy − 4xz + 2yz − 30x + 30y + =0 30z +
3
La expresión matricial de la superficie cuádrica respecto del sistema de referencia (O, B) es

    
 4 −2 −2 x √ √ √  x
 −2 13
x y z 1 1  y  + − 30 30 30  y  + = 0.
3
−2 1 1 z z
 
x
13
De forma abreviada, X T AX + bT X + = 0, donde X = [x]B =  y  con x ∈ R3 ,
3
z
 
4 −2 −2 √ √ √ 
A =  −2 1 1  y bT = − 30 30 30 .
−2 1 1
Paso 1. Simplificar la expresión de la forma cuadrática.
Debemos realizar la transformación ortogonal X = P Y , siendo P = IdAB con A base ortonor-
mal de R3 formada 3
 0 por vectores propios de A, B base canónica de R (base ortonormal) e
x
Y = [x]A =  y 0 , mediante la cual la forma cuadrática aparece como suma de variables
z0
al cuadrado. Comenzamos obteniendo A.
dA (λ) = (6 − λ)λ2 , luego σ(A) = {6, 0, 0}.
Los subespacios propiosasociados a 6y 0 son:
    
 −2   1 −2 
E(6) = L   1   → A1 = √  1  es una base ortonormal de E(6)
   6 
1 1
        
 1 2   1 1
1
2 
E(0) = L   0  ,  5   → A2 = √  0  , √  5  es una
   5 30 
2 −1 2 −1
base ortonormal de E(0).

221
Por tanto,
      
 1 −2 1 2 
1 1
A = A1 ∪ A 2 = √  1  , √  0  , √  5 
 6 5 30 
1 2 −1

es una base ortonormal


√ de √ R3 formada
√ por vectores propios de A. Así A = P DP T con
   
−2/√ 6 1/ 5 2/√30 6 0 0
P = IdAB =  1/√6 0√ 5/ √30  matriz ortogonal y D =  0 0 0  matriz
1/ 6 2/ 5 −1/ 30 0 0 0
diagonal.
Realizamos la transformación ortogonal X = P Y , esto es, [x]B = IdAB [x]A :
13 13 13
X T AX + bT X + = (P Y )T A(P Y ) + bT (P Y ) + = Y T (P T AP )Y + (bT P )Y + =0
3 3 3
y obtenemos la expresión de la superficie cuádrica en el nuevo sistema de referencia (O, A):
13
Y T DY + bT P Y + = 0.
3
  0   0 
 6 0 0 x √ √  x0 13
x0 y 0 z 0  0 0 0   y0  + 4 5 6 2  y + =0
3
0 0 0 z0 z0
Así, la expresión de la superficie cuádrica es:

√ √ 13
6(x0 )2 + 4 5x0 + 6y 0 + 2z 0 + = 0.
3
Paso 2. Eliminar algunos términos lineales.
La variable x0 está repetida en la forma cuadrática y en la forma lineal. Realizamos la siguiente
completación de cuadrados:
√ ! √ ! √ !2
√ 5 5 5 5 5 10
6(x0 )2 + 4 5x0 = 6 (x0 )2 + 2 x0 = 6 (x0 )2 + 2 x0 + − = 6 x0 + −
3 3 9 9 3 3
Así tenemos
√ !2
0 2
√ 0
√ 0 013 0 5 10 √ 0 13
0 = 6(x ) + 4 5x + 6y + 2z + =6 x + − + 6y + 2z 0 + .
3 3 3 3

Si llamamos √
00 0 5
x = x +
3
y 00 = y 0
z 00 = z 0
entonces el origen O se desplaza a O1 y la expresión de la superficie cuádrica respecto del
sistema de referencia (O1 , A) queda de la siguiente forma:
√ 10 13 √
6(x00 )2 + 6y 00 + 2z 00 − + = 0 −→ 6(x00 )2 + 6y 00 + 2z 00 + 1 = 0.
3 3

222
Paso 3. Simplificar forma lineal.
En
√ este caso necesitamos realizar una transformación ortogonal que nos permita escribir
000
6y 00 + 2z 00 = −M y con M > 0, esto lo conseguimos con:

x000 = x00 000     00 


x 1 √0 0 x
−1 √ 00 000 
y 000 = 00
( 6y + 2z ) −→  y =  0 − 6/M −2/M   y 00  .
M 00 z 000
z 00
z 000 = 00
ax + by + cz 00 a b c

Debemos escoger los parámetros M , a, b y c para que la matriz de la transformación anterior


sea ortogonal. Nos apoyaremos en el hecho que las filas de una matriz ortogonal interpretadas
como vectores de R3 constituyen una base ortonormal de R3 .

√ !2   √
6 2 2 √ 2 6
1= − + − −→ M = 10, a = 0, b = √ y c = −√ .
M M 10 10
 
1 0
√ √ 0

Con esta elección la matriz  0 − 6/
√ 10 −2/
√ √10
 es una matriz ortogonal.
0 2/ 10 − 6/ 10
Esta transformación ortogonal transforma la base ortonormal A en la base ortonormal C. La
expresión de la superficie cuádrica respecto del sistema de referencia (O1 , C) es


6(x000 )2 − 10y 000 + 1 = 0.

Paso 4. Eliminar constante.


 
000 2
√ 000 000 2
√ 000
√ 1
000
6(x ) − 10y + 1 = 0 −→ 6(x ) = 10y − 1 = 10 y − √ .
10
Si llamamos:
x̃ = x000
1
ỹ = y 000 − √
10
z̃ = z 000
entonces O1 se desplaza a O2 y la expresión de la superficie cuádrica respecto del sistema de
referencia (O2 , C) es:


6(x̃)2 = 10ỹ.

Se trata de una superficie cuádrica


no centrada degenerada,
llamada cilindro parabólico.

223
PROBLEMAS

(P.1) Encuentra la matriz de las siguientes formas cuadráticas en R2 , R3 y R4 respecto de las bases
canónicas correspondientes:

1. 5x21 − 7x1 x2 + 3x22 .

2. 8x21 − 5x22 .

3. 9x21 + 7x22 + 11x23 − 8x1 x2 + 8x1 x3 .

4. 5x1 x2 + 8x1 x3 + 9x2 x3 .

5. 2x21 + 2x22 + 2x23 + 2x1 x2 + 2x1 x3 + 2x2 x3 .

6. 11x21 − x22 − 12x1 x2 − 12x1 x3 − 12x1 x4 − 2x3 x4 .

(P.2) Calcula la forma cuadrática Q(x) = xT Ax respecto de la base canónica en los siguientes casos:
   
x1 2 3
1. x = yA= .
x2 3 1
   
x1 4 3 0
2. x =  x2  y A =  3 2 1 .
x3 0 1 1

(P.3) Realiza una transformación ortogonal para que las siguientes formas cuadráticas estén expresadas
como suma de cuadrados:

1. 5x21 − 4x1 x2 + 5x22 .

2. 3x21 + 3x22 + 3x23 + 2x1 x2 + 2x1 x3 + 2x2 x3 .

3. −2x21 − 6x22 − 9x23 − 9x24 + 4x1 x2 + 4x1 x3 + 4x1 x4 + 6x3 x4 .

(P.4) Clasifica las siguientes matrices simétricas reales:


   √ 
3 1 1 −3
√ 2 2 0
1. A =  1 3 1  2. B =  2 2 −5 0 
1 1 3 0 0 −3
   
0 1 2 −2 1 1
3. C =  1 1 1  4. D =  1 −2 1 
2 1 0 1 1 −2
   
6 0 3 1 1 2
5. E =  0 6 −3  6. F =  1 3 2 .
3 −3 3 2 2 7
(P.5) Clasifica en función del parámetro a la forma cuadrática:

x2 + ay 2 + az 2 + 2yz.

224
(P.6) Sea A ∈ Mn×n (R) simétrica. Demuestra que A es definida positiva si, y sólo si, existe una matriz
∆ triangular inferior con entradas diagonales positivas tal que A = ∆∆T (factorización de Cholevski).
(P.7) Obtén la factorización de Cholevski de las matrices definidas positivas de (P.4).
 
1 1 2 0  
 1 2 4 0  0 2 2
(P.8) Considera A =  
 2 4 10 0  y B =
 2 0 2  matrices reales simétricas. Determina
2 2 0
0 0 0 2
si A y B admiten factorización de Cholevski. En caso afirmativo calcúlala.
(P.9) Estudia si las siguientes matrices admiten o no factorización de Cholevski y, en caso afirmativo,
calcula dicha factorización.    
0 2 7 1 2 0
1. A = 2 4 3 2. B = 2 6 1 .
7 3 1 0 1 3
 
1 1 2
(P.10) Justifica si la matriz A = 1 5 −2 ∈ M3×3 (R) es definida positiva y, en caso afirmativo,
2 −2 17
calcula su factorización de Cholevski.
(P.11) Justifica si las siguientes matrices son definidas positivas. En caso afirmativo, calcula la factori-
zación de Cholevski.    
5 −2 0 2 −2 4
1. A = −2 1 0 2. B = −2 3 −4 .
0 0 3 4 −4 12
(P.12) Considera B ∈ Mn×n (R). Si B es no singular, prueba que B T B es definida positiva.
(P.13) Sea A ∈ Mn×n (R) simétrica. Si la forma cuadrática X T AX es definida positiva, prueba que la
forma cuadrática X T A−1 X es definida positiva.
(P.14) Decide si las siguientes sentencias son verdaderas o falsas. Justifica tu respuesta. En todas ellas
A es una matriz simétrica real de tamaño n × n.

1. Si A tiene todas sus entradas positivas, entonces A es una matriz definida positiva.

2. Si P es una matriz ortogonal de tamaño n × n, entonces la transformación ortogonal X = P Y


transforma X T AX en una forma cuadrática cuya matriz es P T AP .

3. Si X T AX < 0 para algún X, entonces A es una matriz definida negativa.

(P.15) Reduce y clasifica las siguientes superficies cuádricas de R3 , especificando las transformaciones
que realices:
3
1. x2 + y 2 + z 2 + 2xy + 2xz + 2yz − 3x − 3y + 3z − = 0.
4
2. 2x2 + 5y 2 + 2z 2 + 6xy − 2yz + 3x − 2y − z + 14 = 0.

3. 2x2 − 7y 2 + 2z 2 − 10xy − 8xz − 10yz + 6x + 12y − 6z + 5 = 0.


5
4. 5x2 + 2y 2 + 5z 2 − 4xy − 2xz − 4yz + 4x − 3y + 2z + = 0.
24

225
5. x2 + 2xy + 2xz + 2y − 2z − 2 = 0.

6. z 2 + 4xy + 2xz + 2yz + 2x + 2y − 4z = 0.


1
7. z 2 + 4xy + 2xz + 2yz + 3x + y + 2z − = 0.
4
3
8. 2xy + 2xz + 2yz − x + z − = 0.
2
3
9. x2 + z 2 + 4xy + 2xz + 4yz + x − y − = 0.
16
√ √ 3
10. 2x2 + 3y 2 + 3z 2 − 2yz + 2y + 2z − = 0.
4
11. 3x2 + 3y 2 − 2xy + 2x − 2y − 3 = 0.
1
12. 4x2 − 2x + y + 3z + = 0.
4
1
13. z 2 + 2xy + x + y − = 0.
2
14. 2x2 − y 2 + 5x − 2y − 3z = 1.
7
15. x2 + z 2 + 4xy + 2xz + 4yz − x + 2y − z − = 0.
4
16. x2 − 7x + 3y − 2z + 8 = 0.

17. z 2 + 4xy + 2xz + 2yz + x − y − 5/4 = 0.

18. 2x2 + 3y 2 + 3z 2 − 2yz + x = 7/8.


63
19. 2x2 − 4y 2 + 8x − 7y − 5z + = 0.
16

(P.16) Reduce y clasifica la superficie cuádrica de R4 : x2 + 5y 2 − 4x − 2z + 5t − 1 = 0, especificando


las transformaciones que realices.

CUESTIONES

(C1) La expresión matricial respecto del sistema de referencia (O, B), siendo O el origen de R3 y B la
base canónica de R3 ,
    
 3 0 0 x  x
x y z  0 2 1   y  + 4 2 −5  y  + 7 = 0
0 1 2 z z
corresponde a la superficie cuádrica:
1
(a) 3x2 + 2y 2 + 2z 2 + yz + 4x + 2y − 5z + 7 = 0.
2
(b) 3x2 + 2y 2 + 2z 2 + yz + 4x + 2y − 5z + 7 = 0.
(c) 3x2 + 2y 2 + 2z 2 + 2yz + 4x + 2y − 5z + 7 = 0.

226
(C2) Una de las siguientes expresiones representa matricialmente, respecto del sistema de referencia
3 3 3 2
2 2
√ R y B la base canónica de R , a la superficie cuádrica de R : 5x + 4xy −
(O, B) siendo O el origen de
y − 8xz − 5z + 2yz − 7 2x − 3y + 2z + 4 = 0:
    
 5 2 −4 x √  x
(a) x y z  −2 −1 1   y  + −7 2 −3 2  y  + 4 = 0.
4 −1 −5 z z
    
 5 2 −4 x √  x
(b) x y z  2 −1 1   y  + −7 2 −3 2  y  + 4 = 0.
−4 1 −5 z z
    
 5 2 1 x √  x
(c) x y z  2 −1 −4   y  + −7 2 −3 2  y  + 4 = 0.
1 −4 −5 z z

(C3) Considera la forma cuadrática F (x, y) = x2 + 4xy + y 2 . Una de las siguientes afirmaciones es
verdadera:
(a) La superficie cuádrica F (x, y) = 1 es una elipse.
(b) La superficie cuádrica F (x, y) = 1 es una hipérbola.
(c) La superficie cuádrica F (x, y) = 1 es una parábola.

(C4) Una de las siguientes cuádricas de R3 representa a un elipsoide:


(a) x2 + y 2 = z, (b) 2x2 + 6y 2 + 3z 2 = 1, (c) x2 + 7y 2 = 1.

(C5) Una de las siguientes superficies cuádricas de R3 es no centrada y degenerada:


(a) x2 + 2y 2 + z 2 = 1, (b) x2 = y, (c) x2 + y 2 = z.

(C6) La superficie cuádrica de R3 cuya ecuación es (1/4)x2 + y 2 = 1 recibe el nombre de:


(a) elipse, (b) cilindro elíptico, (c) paraboloide elíptico.

(C7) La superficie cuádrica de R3 cuya ecuación es 3x2 − 5y 2 = 6z es:


(a) centrada y no degenerada, (b) no centrada y degenerada, (c) no centrada y no degenerada.

(C8) Sean A y B ∈ Mn×n (R) simétricas. Una de las siguientes afirmaciones es verdadera:
(a) Si A es una matriz definida positiva y A es similar a B, entonces B es definida positiva.
(b) Si A es una matriz definida positiva y ρ(A) = ρ(B), entonces B es definida positiva.
(c) Si A es una matriz definida positiva y B = f (A) con f (λ) ∈ R[λ], entonces B = f (A) es una
matriz definida positiva.

(C9) Sea A una matriz real simétrica n × n. Una de las siguientes afirmaciones es verdadera:
(a) Si A es definida negativa, entonces det(A[k] ) < 0 ∀k ∈ {1, . . . , n}.
(b) Si A es definida negativa, entonces A3 es definida negativa.
(c) Si A es definida negativa, entonces todas las entradas de A son negativas.

227
(C10) Sea A una matriz real simétrica n × n. Una de las siguientes afirmaciones es verdadera:
(a) Si A es definida negativa, entonces Ak es definida negativa ∀k ∈ N.
(b) Si A es indefinida, entonces Ak es indefinida ∀k ∈ N.
(c) Si A es semidefinida positiva, entonces Ak es semidefinida positiva ∀k ∈ N.

(C11) Sea A una matriz real simétrica n × n con valores propios α1 , . . . , αr 6= 0 y αr+1 = . . . = αn = 0.
Una de las siguientes afirmaciones es FALSA:
(a) B ∈ Mn×n (R) simétrica representa la misma forma cuadrática que A respecto de bases ortonormales
distintas si, y sólo si, existe una matriz ortogonal P ∈ Mn×n (R) tal que A = P BP T .
(b) existe una transformación ortogonal que transforma X T AX en α1 y12 + . . . + αr yr2 .
(c) ρ(A) > r.

(C12) Una de las siguientes matrices es definida positiva:


     
−1 0 3 2 1 1 2 1 0
(a) A =  0 3 2  (b) B =  1 0 3  (c) C =  1 1 0 .
3 2 5 1 3 3 0 0 3
 
7 7
(C13) Dada la matriz real simétrica A = . Una de las siguientes afirmaciones es cierta:
7 7
(a) A es indefinida, (b) A es semidefinida positiva, (c) A es semidefinida negativa.

(C14) Sea A una matriz real simétrica 3 × 3 tal que σ(A) = {1, −2, 4}. Una de las siguientes matrices
admite factorización de Cholevski:
(a) B = A − A2 , (b) C = A−1 , (c) D = A2 + 2I3×3 .

(C15) Una de las siguientes formas cuadráticas F : R2 −→ R es definida positiva:


     
x 2 2 x 2 2 x
(a) F = x + y + 2xy, (b) F = 4x + 2y − 2xy, (c) F = x2 − y 2 + 4xy.
y y y

(C16) Sea A ∈ M3×3 (R) una matriz simétrica y P ∈ M3×3 (R) una matriz ortogonal. Una de las
siguientes afirmaciones es verdadera:
 
2 0 0
(a) Si A = P  0 8 0  P T , entonces X T AX = 1 es un elipsoide.
0 0 0
 
2 0 0
(b) Si A = P  0 8 0  P T , entonces X T AX = 1 es un hiperboloide de una hoja.
0 0 −1
 
2 0 0
(c) Si A = P  0 −8 0  P T , entonces X T AX = 1 es un cilindro parabólico.
0 0 0

(C17) Sea A ∈ Mn×n (R) una matriz simétrica. Entonces A es una matriz definida positiva si, y sólo si
(a) existe una matriz triangular inferior ∆ con entradas diagonales no negativas tal que A = ∆∆T .
(b) existe una matriz triangular inferior ∆ con entradas diagonales positivas tal que A = ∆∆T .
(c) existe una matriz diagonal ∆ con entradas diagonales positivas tal que A = ∆∆T .

228
Tema 7: Forma Canónica de Jordan de una Matriz Cuadrada

7.1 Vectores propios generalizados. Cadenas de Jordan.

7.2 Polinomios anuladores. El polinomio mínimo de una matriz.

7.3 Forma canónica de Jordan de una matriz cuadrada.

7.4 Aplicación: Introducción a las ecuaciones y sistemas de ecuaciones diferenciales linea-


les.

7.4.1. La ecuación diferencial lineal de primer orden.


7.4.2. Sistemas de ecuaciones diferenciales lineales homogéneos con coeficientes
constantes.

229
7.1. VECTORES PROPIOS GENERALIZADOS. CADENAS DE JORDAN.

Ya hemos visto que no todas las matrices son diagonalizables. Incluyendo estos casos no diagona-
lizables, dada A ∈ Mn×n (C), vamos a tratar de encontrar una matriz J similar a A que sea “casi”
diagonal. Veremos que esto siempre es posible y a la matriz J la llamaremos forma canónica de
Jordan de A. Esta matriz J será una matriz diagonal en bloques.
Otro problema será encontrar una base para poder construir la matriz no singular P y que se veri-
fique que A = PJP−1 . Esto nos llevará a la búsqueda de las llamadas cadenas de Jordan.
Es más fácil tratar este tema sobre matrices complejas, así que, a la hora de buscar la forma ca-
nónica de Jordan de una matriz, consideraremos todas las matrices complejas, aunque todas sus
entradas sean números reales.
!
3 1
Consideremos, por ejemplo, la matriz A = ∈ M2×2 (C), cuyo polinomio característico es
−1 1
dA (λ) = (λ − 2)2 . Por tanto, σ(A) = {2} y MA(2) = 2.
Si calculamos la multiplicidad geométrica de 2, se tiene
!
1 1
MG(2) = 2 − ρ(A − 2I2×2 ) = 2 − ρ = 2 − 1 = 1 , MA(2)
−1 −1

lo que implica que A no es diagonalizable. No podemos encontrar una matriz P no singular y


una matriz D diagonal tales que A = PDP−1 , porque no hay suficientes vectores propios de A
linealmente independientes para formar una base de C2 .
!
a 1
Vamos a ver si podemos encontrar una matriz no singular P y una matriz J de la forma J =
0 a
−1
tales que A = PJP . De esta forma, aunque A no sea diagonalizable, las potencias de A se podrán
calcular también fácilmente ya que
!
r −1 r r −1 r ar rar−1
A = (PJP ) = PJ P , siendo J = , ∀r ∈ N
0 ar

Como queremos que A = PJP−1 , es decir, que A y J sean similares, los valores
! propios de A y J
2 1
deben ser iguales, de donde obtenemos que a = 2 y entonces J = .
0 2
Veamos qué deben cumplir las columnas de P. Si P contiene en sus columnas los vectores v1 y v2 ,
tenemos que
    2 1 ! (
Av1 = 2v1
(
(A − 2I2×2 )v1 = 0
AP = PJ =⇒ A v1 v2 = v1 v2 =⇒ =⇒
0 2 Av2 = 2v2 + v1 (A − 2I2×2 )v2 = v1

de donde se deduce que v1 es un vector propio de A asociado a 2 y el vector v2 verifica

(A − 2I2×2 )v2 = v1 , 0 y (A − 2I2×2 )2 v2 = (A − 2I2×2 )v1 = 0

Por tanto, debemos elegir un vector v2 tal que v2 ∈ N((A − 2I2×2 )2 ) y v2 < N(A − 2I2×2 ). A un vector
de este tipo lo llamaremos vector propio generalizado de orden 2.

230
A continuación introducimos la definición de vector propio generalizado de orden k.
Definición 1. Sean A ∈ Mn×n (C) , b un vector no nulo de Cn y α ∈ C un escalar. Diremos que
b es un vector propio generalizado de orden k de A asociado a α si b ∈ N((A − αIn×n )k ), pero
b < N((A − αIn×n )k−1 ), es decir,

(A − αIn×n )k−1 b , 0 y (A − αIn×n )k b = 0.

Consecuencias 2. Sea A ∈ Mn×n (C) y sea b un vector no nulo de Cn .

• Si b es un vector propio generalizado de orden k de A asociado a α, entonces es evidente que


(A − αIn×n ) p b = 0, ∀p ≥ k.

• Los vectores propios generalizados de orden 1 de A asociados a α son vectores propios de A


asociados a α.

• Si b es un vector propio generalizado de orden k de A asociado a α, entonces

(A − αIn×n )k−1 b , 0 y (A − αIn×n )k b = (A − αIn×n )((A − αIn×n )k−1 b) = 0

de donde se deduce que α es valor propio de A y (A − αIn×n )k−1 b es un vector propio de A


asociado a α.
 
 0 
 
Ejemplo 3. Comprueba que el vector b3 =  2  es un vector propio generalizado de orden 3 de

−1
 
 −1 1 1 
 
la matriz A =  0 −1 −1  asociado a −1.
 
0 0 −1
Basta comprobar que (A − (−1)I3×3 )2 b3 , 0 y (A − (−1)I3×3 )3 b3 = 0.
         
 0 1 1   0   1   0 1 1   1   1 
         
(A+I3×3 )b3 =  0 0 −1   2  =  1  , 0, (A+I3×3 )2 b3 =  0 0 −1   1  =  0  , 0,
      
0 0 0 −1 0 0 0 0 0 0
|{z} |{z}
b2 b1

    
 0 1 1   1   0 
    
(A + I3×3 )3 b3 =  0 0 −1   0  =  0  .
 
0 0 0 0 0
Por tanto, b3 es un vector propio generalizado de orden 3 de A asociado a −1. Observemos que b1
es un vector propio de A asociado a −1.
Veamos cómo a partir de un vector propio generalizado de orden k podemos generar una cadena
de vectores.

231
Definición 4. Sea bk un vector propio generalizado de orden k de A ∈ Mn×n (C) asociado a α. A
partir de bk se definen los vectores {bk−1 , bk−2 , . . . , b1 } de la siguiente forma:
 
(A − αIn×n )bk = bk−1 

 Ab1 = αb1 



 

(A − αIn×n )bk−1 = bk−2 

 Ab2 = αb2 + b1 


.. 
 

.  ⇐⇒ Ab3 = αb3 + b2 


 .. 


(A − αIn×n )b2 = b1 

 . 




 


(A − αIn×n )b1 = 0 Abk = αbk + bk−1

A la cadena de vectores {bk , bk−1 , . . . , b2 , b1 } así definida se le llama cadena de Jordan de longitud
k de A asociada a α, de forma abreviada CDJ(k).
Al vector b1 se le llama vector terminal de la cadena de Jordan.
Nota 5. (1) El vector terminal de una cadena de Jordan de A asociada a α es siempre un vector
propio de A asociado a α. Sin embargo, no todo vector propio de A asociado a α es vector terminal
de cadenas de Jordan de longitud mayor que 1, como se verá en el Ejemplo 23.
(2) En una cadena de Jordan {bk , bk−1 , . . . , b2 , b1 } de A asociada a α, cada vector bi es un vector
propio generalizado de orden i de A asociado a α, para i = 1, 2, . . . , k.
Ejemplo
  6. Repasando los cálculos realizados en el Ejemplo 3 para comprobar
 que el vector b3 =
 0   −1 1 1 
   
 2  es un vector propio generalizado de orden 3 de la matriz A =  0 −1 −1  asociado al
−1 0 0 −1
valor propio −1, obtenemos que
   
 1   1 
   
b2 = (A + I)b3 =  1  , b1 = (A + I)b2 = (A + I) b3 =  0  , (A + I)b1 = (A + I)3 b3 = 0.
2
   
0 0

Por tanto, {b3 , b2 , b1 } es una cadena de Jordan de longitud 3 de A asociada a −1.


Aunque ésta no es la mejor forma de buscar las cadenas de Jordan de una matriz, porque lo
difícil es encontrar los vectores propios generalizados de orden superior. Así que empezaremos
buscando el vector terminal b1 , que sabemos que debe ser un vector propio, y a partir de él busca-
mos un vector generalizado de orden 2 resolviendo el sistema (A − αI)b2 = b1 . Una vez calculado
b2 , para obtener un vector propio generalizado de orden 3 resolveremos el sistema (A − αI)b3 = b2
y así sucesivamente obtenemos la cadena de Jordan en orden inverso.
Los siguientes resultados nos aseguran la independencia lineal de las cadenas de Jordan y de la
unión de varias cadenas.
Teorema 7. (Independencia lineal de la cadena de Jordan) Sea bk un vector propio generali-
zado de orden k de A ∈ Mn×n (C) y consideremos {bk , bk−1 , . . . , b2 , b1 } la CDJ(k) que genera bk .
Entonces, {bk , bk−1 , . . . , b2 , b1 } es LI.
Teorema 8. (Independencia lineal de la unión de cadenas de Jordan) Sea {bk , bk−1 , . . . , b2 , b1 }
una CDJ(k) de A asociada a α y sea {c s , c s−1 , . . . , c2 , c1 } una CDJ(s) de A asociada a τ.
Si {b1 , c1 } es LI, entonces el conjunto de vectores {bk , bk−1 , . . . , b2 , b1 , c s , c s−1 , . . . , c2 , c1 } es LI.

232
La unión de cadenas de Jordan en orden inverso nos va a proporcionar la base que necesitamos
para construir la matriz P no singular, tal que A = PJP−1 . Pero para saber qué estructura tiene
la matriz J y cuántas cadenas de Jordan y de qué longitud son necesarias para formar la base, es
conveniente conocer primero el polinomio mínimo de la matriz A.

7.2. POLINOMIOS ANULADORES. EL POLINOMIO MÍNIMO DE UNA MATRIZ CUA-


DRADA.

Veamos primero qué entendemos por polinomio anulador de una matriz cuadrada.
Definición 9. Sea A ∈ Mn×n (K). Diremos que un polinomio f (λ) ∈ K[λ] no nulo es un polinomio
anulador de A si f (A) = On×n .
!
1 0
Ejemplo 10. Dada la matriz A = , comprueba que el polinomio f (λ) = λ3 + 2λ2 − λ − 2
1 −1
es un polinomio anulador de A.
! ! ! ! !
3 2 1 0 1 0 1 0 1 0 0 0
f (A) = A + 2A − A − 2I2×2 = +2 − −2 =
1 −1 0 1 1 −1 0 1 0 0

luego f (λ) es un polinomio anulador de A.

Dada una matriz A n × n con entradas en K, veamos que siempre existe al menos un polinomio
anulador de A.
Sabemos que Mn×n (K) es un espacio vectorial de dimensión n2 , por lo que n2 + 1 matrices n × n
formarán un conjunto linealmente dependiente.
2
Así, {A0 = In×n , A, A2 , . . . , An } es un conjunto LD. Por tanto, existen a0 , a1 , a2 , . . . , an2 ∈ K no
todos nulos tales que
2
a0 In×n + a1 A + a2 A2 + · · · + an2 An = On×n
2
de donde se deduce que el polinomio f (λ) = a0 + a1 λ + a2 λ2 + · · · + an2 λn es un polinomio anulador
de A.
El siguiente teorema nos muestra otro polinomio anulador de A, pero en este caso de grado n.
Teorema 11. (Teorema de Cayley-Hamilton) El polinomio característico de A ∈ Mn×n (K) es un
polinomio anulador de A, es decir, dA (A) = On×n .
Existen entonces distintos polinomios anuladores de una matriz A. De hecho, si f (λ) es un
polinomio anulador de A y q(λ) es otro polinomio cualquiera es evidente que ( f · q)(λ) es también
un polinomio anulador de A. Vamos entonces a buscar entre los polinomios anuladores de A los
que sean de menor grado y, entre éstos, aquel polinomio que sea mónico (con coeficiente director
igual a 1).
Definición 12. Sea A ∈ Mn×n (K). Llamaremos polinomio mínimo de A al único polinomio mónico
de grado mínimo que anula la matriz A. Lo denotaremos mediante mA (λ).
Veamos qué propiedades verifica el polinomio mínimo de una matriz.

233
Proposición 13. (Propiedades del polinomio mínimo) Si A ∈ Mn×n (K), entonces:
(1) El polinomio mínimo de A divide a cualquier polinomio anulador de A.
En particular, mA (λ) divide a dA (λ).

(2.a) Si A ∈ Mn×n (C), entonces los factores lineales distintos de mA (λ) y de dA (λ) coinciden.

(2.b) Si A ∈ Mn×n (R), entonces los factores irreducibles distintos de mA (λ) y de dA (λ) coinciden.

Teniendo en cuenta estas propiedades, parece deducirse que el polinomio mínimo será el pro-
ducto de los factores lineales (o irreducibles) distintos del polinomio característico. El siguiente
ejemplo muestra que esto no siempre es cierto.
 
 2 0 0 
 
Ejemplo 14. Sea la matriz triangular superior A =  1 2 0 , cuyo polinomio característico es
 
0 0 5
dA (λ) = (2 − λ)2 (5 − λ). Comprueba que el polinomio f (λ) = (λ − 2)(λ − 5) no es el polinomio
mínimo de A porque no es anulador de A.
    
 0 0 0   −3 0 0   0 0 0 
    
f (A) = (A − 2I3×3 )(A − 5I3×3 ) =  1 0 0   1 −3 0  =  −3 0 0  , O3×3
    
0 0 3 0 0 0 0 0 0

luego f (λ) no es un polinomio anulador de A.


Pero analizando las propiedades anteriores podemos obtener un método para calcular el poli-
nomio mínimo.
∗ Método para Calcular el Polinomio Mínimo de una Matriz Cuadrada.
Si A ∈ Mn×n (K), seguiremos los siguientes pasos:
1. Calcular dA (λ) y factorizarlo como producto de factores irreducibles en K[λ].

2. Construir todos los polinomios con las siguientes propiedades: mónico, divisor de dA (λ) y
que contenga todos los factores irreducibles en K[λ] distintos de dA (λ).

3. Encontrar entre ellos el polinomio de menor grado que anula a la matriz. Ese polinomio será
el polinomio mínimo de A: mA (λ).
 
   2 −2 0 −1 
 2 0 0   0 2 0 1 
 
Ejemplo 15. Calcula el polinomio mínimo de las matrices A =  1 2 0  y B =  .

  
 0 0 2 0 
0 0 5
0 0 0 2

Como la matriz A es triangular inferior, dA (λ) = (2 − λ)2 (5 − λ). Construímos los polinomios
mónicos, divisores de dA (λ) y que contienen todos los factores lineales distintos de dA (λ). Tenemos
entonces dos posibles polinomios:

m1 (λ) = (λ − 2)(λ − 5) y m2 (λ) = (λ − 2)2 (λ − 5)

234
Comprobamos cuál de los dos es el polinomio anulador de A de menor grado. En el Ejemplo 14
hemos comprobado que m1 (λ) = (λ − 2)(λ − 5) no es un polinomio anulador de A.
Por el Teorema de Cayley-Hamilton, el polinomio m2 (λ) = −dA (λ) es un polinomio anulador de A,
así que éste es el polinomio mínimo de A. Por tanto, mA (λ) = (λ − 2)2 (λ − 5).
En el caso de la matriz B, al ser una matriz triangular superior dB (λ) = (2 − λ)4 . Construímos los
polinomios mónicos, divisores de dB (λ) y que contienen todos los factores lineales distintos de
dB (λ). Tenemos entonces cuatro posibles polinomios:

m1 (λ) = (λ − 2), m2 (λ) = (λ − 2)2 , m3 (λ) = (λ − 2)3 y m4 (λ) = (λ − 2)4

Y comprobamos cuál de ellos es el polinomio anulador de B de menor grado:


   
 0 −2 0 −1   0 0 0 −2 
 0 0 0 1  2
 0 0 0 0 
m1 (B) = B − 2I4×4 =   m2 (B) = (B − 2I4×4 ) = 
 
 0 0 0 0   0 0 0 0 
 
0 0 0 0 0 0 0 0
m3 (B) = (B − 2I4×4 )3 = O4×4

luego el polinomio mínimo de B es mB (λ) = (λ − 2)3 .

7.3. FORMA CANÓNICA DE JORDAN DE UNA MATRIZ CUADRADA.

Una vez obtenido el polinomio mínimo de la matriz, el siguiente teorema nos asegura la existencia
y unicidad de la forma canónica de Jordan para cualquier matriz cuadrada compleja. Además,
muestra la estructura de esta matriz.
Teorema 16. (Teorema de Jordan) Sea A ∈ Mn×n (C). Supongamos que
dA (λ) = (−1)n (λ − α1 )n1 (λ − α2 )n2 · · · (λ − αk )nk
mA (λ) = (λ − α1 )m1 (λ − α2 )m2 · · · (λ − αk )mk
son los polinomios característico y mínimo de A, respectivamente, y sea B la base canónica de Cn ,
entonces existe una base A de Cn tal que la matriz P = IdAB no singular verifica que P−1 AP = J
es una matriz en bloques diagonal, donde cada bloque diagonal Ji j es de la forma
 
 αi 1 0 ··· 0 0

 0 αi 1 ··· 0 
0
 
 .. .. .. .. .. 
Ji j =  . . . ··· . .  bloque o caja de Jordan
 
 0 0 0 ··· αi 1 
 
0 0 0 ··· 0 αi

Ji j es el bloque j-ésimo de los asociados al valor propio αi .


Además, para cada valor propio αi se cumple que:
(i) existe al menos un bloque de Jordan asociado a αi de tamaño mi (la multiplicidad de αi como
cero de mA (λ)) y el resto de los bloques asociados a αi son de tamaño menor o igual que mi

235
(ii) el número de bloques de Jordan asociados al valor propio αi coincide con MG(αi )
(iii) la suma de los tamaños de los bloques asociados a αi coincide con MA(αi )
(iv) el número de bloques de cada posible tamaño viene determinado únicamente por la matriz A.

A la matriz J se le llama forma canónica de Jordan de A y es única salvo reordenaciones de los


bloques diagonales.
Observaciones 17.
(1) La base A es una base formada por la unión de cadenas de Jordan de A en orden inverso.

(2) Si B es la base canónica de Cn y a partir de la matriz A construímos el único endomorfismo


T : Cn −→ Cn tal que A = T BB , entonces J = T AA .

(3) La matriz P no singular, tal que A = PJP−1 , contiene en sus columnas las coordenadas de
los vectores de la base A con respecto a la base B.

Teorema 18. (Teorema de la similaridad de matrices)


Si A es una matriz compleja n × n, entonces A es similar a su forma canónica de Jordan.
Teorema 19. (Caracterización de matrices similares)
Si A y B son matrices complejas n × n, entonces
A y B son similares ⇐⇒ tienen la misma forma canónica de Jordan.

Como consecuencia del Teorema de Jordan se obtiene un nuevo teorema de caracterización de


matrices diagonalizables mediante el polinomio mínimo.
Teorema 20. (Caracterización de matrices diagonalizables mediante el polinomio mínimo)
Si A ∈ Mn×n (K), entonces
A es K-diagonalizable ⇔ mA (λ) es producto de factores lineales DISTINTOS en K[λ].

Veamos algunos ejemplos de cálculo de la forma canónica de Jordan de una matriz.


 
 5 4 3 
 
Ejemplo 21. Reduce a la forma canónica de Jordan la matriz A =  −1 0 −3  ∈ M3×3 (C).
 
1 −2 1
Calculamos el polinomio característico de A:
   
 5 − λ 4 3  F + F  5 − λ 4 3  C − C
  2 1   1 2
dA (λ) = det(A − λI3×3 ) = det  −1 −λ −3  = det  4 − λ 4 − λ 0  =
   
1 −2 1 − λ 1 −2 1 − λ
 
 1 − λ 4 3 
 
= det  0 4−λ 0  = (4 − λ)[(1 − λ)2 − 9] = (4 − λ)(1 − λ + 3)(1 − λ − 3) =
 
3 −2 1 − λ
= (4 − λ)2 (−2 − λ)

236
Luego los valores propios de A son 4 y −2, con MA(4) = 2 y MA(−2) = 1. Si calculamos sus
multiplicidades geométricas:

1 ≤ MG(−2) ≤ MA(−2) = 1 =⇒ MG(−2) = 1 −→ hay un bloque de Jordan asociado a − 2


 
 1 4 3  hay un bloque de Jordan
MG(4) = 3 − ρ(A − 4I3×3 ) = 3 − ρ  −1 −4 −3  = 3 − 2 = 1 −→
  asociado a 4
1 −2 −3

Luego, en este caso, no necesitamos calcular el polinomio mínimo de A para saber cómo es la
forma canónica de Jordan de A. Como ya sabemos que tenemos un bloque de Jordan asociado a
cada valor propio, entonces la forma canónica de Jordan de A es la matriz
 
 −2 0 0 
 
J =  0 4 1 
 
0 0 4

Teniendo en cuenta la estructura de la matriz J, necesitamos una cadena de Jordan de longitud


1 asociada a −2 y una cadena de Jordan de longitud 2 asociada a 4 para formar la base de C3 y
construir la matriz P no singular tal que A = PJP−1 . Comencemos calculando los vectores propios
de A asociados a −2, resolviendo el sistema homogéneo (A + 2I3×3 )x = 0.
         
 7 4 3   x   0   1 −2 3   x   0  (
      Método de       x = −z
 −1 2 −3   y  =  0  −−−Gauss
−−−−→  0 1 −1   y  =  0  =⇒
     y=z
1 −2 3 z 0 0 0 0 z 0
     

 −z 
   −1 

  
 
 
 
Por tanto, E(−2) =    z  : z ∈ C
   = L  v1 =  1  . Así, una cadena de Jordan de longitud 1
 z 
 
 

   
 
1
asociada a −2 es {v1 }.
Análogamente, para calcular los vectores propios asociados a 4 debemos resolver el sistema
homogéneo (A − 4I3×3 )x = 0:
         
 1 4 3   x   0   1 −2 −3   x   0  (
      Método de       x=z
 −1 −4 −3   y  =  0  −−−Gauss
−−−−→  0 1 1   y  =  0  =⇒
     y = −z
1 −2 −3 z 0 0 0 0 z 0
     

  z  
 
  1 
 

  
 


 
 


Por tanto, E(4) =  −z : z ∈ C = L  b1 = −1 .

 z 
 

 

   
1 
Busquemos una CDJ(2) cuyo vector terminal sea b1 , es decir, busquemos un vector b2 ∈ C3 tal que
(A − 4I3×3 )b2 = b1 ,
         
 1 4 3   x   1   1 4 3   x   1  (
      Método de       x=1+z
−−−−→  0 1 1   y  =  0  =⇒
 −1 −4 −3   y  =  −1  −−−Gauss      y = −z
1 −2 −3 z 1 0 0 0 z 0

237
 T
Luego, para cada valor de z ∈ C, el vector b2 = 1 + z −z z es un vector propio generalizado
de orden 2 tal que {b2 , b1 } forman una cadena de Jordan de longitud 2 de A asociada a 4. Si
 T
tomamos por ejemplo z = 0, entonces b2 = 1 0 0 .
La base A de C3 formada por cadenas de Jordan de A en orden inverso será A = {v1 , b1 , b2 }. Por
tanto,  
 −1 1 1 
 
P = IdAB =  1 −1 0  es no singular y PJP−1 = A.
 
1 1 0
 
 2 −2 0 −1 
 0 2 0 1 
Ejemplo 22. Reduce a la forma canónica de Jordan la matriz A =   ∈ M (C).
 4×4
 0 0 2 0 
0 0 0 2
Claramente, dA (λ) = (2 − λ)4 , luego 2 es valor propio de A con MA(2) = 4. Si calculamos su
multiplicidad geométrica:
 
 0 −2 0 −1 
 0 0 0 1 
MG(2) = 4 − ρ(A − 2I4×4 ) = 4 − ρ   = 4 − 2 = 2 −→ hay 2 bloques de Jordan
 0 0 0 0  asociados a 2
0 0 0 0
La suma de los tamaños de los dos bloques de Jordan asociados a 2 debe coincidir con MA(2) = 4,
así que tenemos dos posibilidades: un bloque 3 × 3 y un bloque 1 × 1, o bien, dos bloques 2 × 2.
Para saber cuál de las dos posibilidades es la correcta debemos calcular el polinomio mínimo de
A. En el Ejemplo 15 hemos obtenido que el polinomio mínimo de A es mA (λ) = (λ − 2)3 . Esto
significa que debe haber al menos un bloque de Jordan 3 × 3 asociado a 2 y el resto de los bloques
de Jordan asociados a 2 son de tamaño menor o igual que 3. Por tanto, tenemos un bloque 3 × 3 y
un bloque 1 × 1 y la forma canónica de Jordan de A es la matriz
 
 2 1 0 0 
 0 2 1 0 
J =  

 0 0 2 0 
0 0 0 2
Teniendo en cuenta la estructura de la matriz J, necesitamos una cadena de Jordan de longitud 3 y
una cadena de Jordan de longitud 1 asociadas a 2 para formar la base de C4 y construir la matriz P
no singular tal que A = PJP−1 . Comencemos calculando los vectores propios de A asociados a 2,
resolviendo el sistema homogéneo (A − 2I4×4 )x = 0.
    
 0 −2 0 −1   x   0  (
 0 0 0 1   y   0 
    =   =⇒ y = 0
 0 0 0 0   z   0  t=0
     
0 0 0 0 t 0
       


  x 

  
 1 0  

 0 
   0 0 
 

  
  
    

Por tanto, E(2) =    : x, z ∈ C  = L  
v1 =   , u1 =  
   
 .



  z  


 


 0 1


 
0   0 0 

238
Busquemos un vector v2 ∈ C4 tal que (A − 2I4×4 )v2 = v1 :
    
 0 −2 0 −1   x   1  
 0 0 0 1   y   0   y = −1


    =   =⇒ 
 2
 0 0 0 0   z   0  

 t=0
    
0 0 0 0 t 0
 T
Luego, v2 = x −1/2 z 0 es un vector propio generalizado de orden 2 tal que {v2 , v1 }
forman una CDJ(2) asociada a 2, para cada x, z ∈ C. Tomando, por ejemplo x = z = 0, tenemos
 T
v2 = 0 −1/2 0 0 .
Busquemos un vector v3 ∈ C4 tal que (A − 2I4×4 )v3 = v2 :
     
 0 −2 0 −1   x   0   1
 0 0 0 1   y   −1/2  

 y=
     =⇒  4
 0 0 0 0   z  =  0  

 1
      
 t=−
0 0 0 0 t 0 2
 T
Luego, v3 = x 1/4 z −1/2 es un vector propio generalizado de orden 3 tal que {v3 , v2 , v1 }
forman una CDJ(3) asociada a 2, para cada x, z ∈ C. Tomando, por ejemplo x = z = 0, v3 =
 T
0 1/4 0 −1/2 y ya tenemos la cadena de Jordan de longitud 3 que necesitamos. La otra
cadena de Jordan de longitud 1 que necesitamos puede ser, por ejemplo, {u1 }.
Por tanto, la base A de C4 formada por cadenas de Jordan de A en orden inverso será A =
{v1 , v2 , v3 , u1 }. Así,
 
 1 0 0 0 
 
 0 − 1 1
0 
 2 4 
P = IdAB =   es no singular y PJP−1 = A.
 0 0 0 1 
 
 1 
0 0 − 0 
2

Recordemos que no todo vector propio de A es vector terminal de cadenas de Jordan de longitud
mayor que 1. El siguiente ejemplo pone de manifiesto este hecho y qué hacer en estos casos.
 
 0 1 0 1 
 0 1 0 0 
Ejemplo 23. Reduce a la forma canónica de Jordan la matriz A =   ∈ M4×4 (C).
 −1 1 1 1 
−1 1 0 2
Calculamos el polinomio característico de A
 
 −λ 1 0 1   
 0 1 − λ   −λ 0 1 
0 0  = (1 − λ) det  −1 1 − λ 
dA (λ) = det    1  =
 −1 1 1 − λ 1  −1 0 2−λ
−1 1 0 2−λ
= (1 − λ)2 ((−λ)(2 − λ) + 1) = (1 − λ)4

239
luego σ(A) = {1}, MA(1) = 4. Si calculamos la multiplicidad geométrica de 1
 
 −1 1 0 1 
 0 0 0 0 
MG(1) = 4 − ρ(A − I4×4 ) = 4 − ρ   = 4 − 1 = 3 , MA(4)
 −1 1 0 1 
−1 1 0 1

Como MG(1) = 3, ya sabemos que la forma canónica de Jordan de A debe tener 3 bloques de
Jordan asociados a 1. Además, la suma de los tamaños de estos 3 bloques debe coincidir con
MA(1) = 4. Por tanto, J tendrá un bloque 2 × 2 y dos bloques 1 × 1 asociados a 1, es decir,
 
 1 1 0 0 
 0 1 0 0 
J =  
 0 0 1 0 
0 0 0 1

y, en este caso no es necesario calcular el polinomio mínimo de A.


Teniendo en cuenta la estructura de la matriz J, necesitamos una cadena de Jordan de longitud 2
y dos cadenas de Jordan de longitud 1 para formar la base y construir la matriz P no singular tal
que A = PJP−1 . Comencemos calculando los vectores propios de A asociados a 1, resolviendo el
sistema homogéneo (A − I4×4 )x = 0.
    
 −1 1 0 1   x   0 
 0 0 0 0   y   0 
     
 −1 1 0 1   z  =  0  =⇒ −x + y + t = 0 =⇒ x = y + t
    
−1 1 0 1 t 0
         


  y + t  

  
  1   1   0   

  y  
    1   0   0  
 

  
  
       

luego E(1) =   
 : y, z, t ∈ C  = L 
 u =   , v 
  1   1  
=  , w =   .
 z 
  1

  
 

  0   0   1 
 


 

 

 

t 0 1 0 
Busquemos una CDJ(2) cuyo vector terminal sea u1 , es decir, busquemos un vector u2 ∈ C4 tal que
(A − I4×4 )u2 = u1 , entonces
    
 −1 1 0 1   x   1 
 0 0 0 0   y   1 
    
 −1 1 0 1   z  =  0  =⇒ Sistema Incompatible
    
−1 1 0 1 t 0

Por tanto, no existen cadenas de Jordan de longitud mayor que 1 cuyo vector terminal sea u1 .
Busquemos ahora una CDJ(2) cuyo vector terminal sea v1 , es decir, busquemos v2 ∈ C4 tal que
(A − I4×4 )v2 = v1 , entonces
    
 −1 1 0 1   x   1 
 0 0 0 0   y   0 
    
 −1 1 0 1   z  =  0  =⇒ Sistema Incompatible
     
−1 1 0 1 t 1

240
Tampoco existen cadenas de Jordan de longitud mayor que 1 cuyo vector terminal sea v1 . Y pode-
mos comprobar que esto mismo ocurre si buscamos una CDJ(2) cuyo vector terminal es w1 . Tene-
mos entonces que usar un vector propio genérico, en función de parámetros, y averiguar qué deben
 T
cumplir los parámetros para que el sistema sea compatible. Si tomamos b1 = α + β α γ β ,
entonces     
 −1 1 0 1   x   α + β  
 0 0 0 0   y   α  −x + y + t = α + β 


    =   =⇒ 
0 = α 

 −1 1 0 1   z   γ  

     −x + y + t = γ
−1 1 0 1 t β
Por tanto, para que el sistema sea compatible debemos elegir α = 0 y γ = β, lo que implica que
 T  T
b1 = β 0 β β , con β ∈ C − {0}. Si tomamos β = 1, entonces b1 = 1 0 1 1 y
resolvemos el sistema para buscar un vector b2 :
    
 −1 1 0 1   x   1 
 0 0 0 0   y   0 
    
 −1 1 0 1   z  =  1  =⇒ −x + y + t = 1 =⇒ x = y + t − 1
     
−1 1 0 1 t 1
 T
de donde b2 = y + t − 1 y z t , con y, z, t ∈ C. Si elegimos y = z = t = 0, entonces
 T
b2 = −1 0 0 0 y así, {b2 , b1 } es una CDJ(2) asociada a 1.
4
La base A de C formada por cadenas de Jordan de A en orden inverso será A = {b1 , b2 , u1 , v1 }.
Por tanto,  
 1 −1 1 1 
 0 0 1 0 
P = IdAB =   es no singular y PJP−1 = A
 1 0 0 0 
1 0 0 1

Otro tipo de problemas que nos podemos plantear es encontrar las posibles formas canónicas
de Jordan de una matriz que verifica ciertas condiciones.
Ejemplo 24. Halla las posibles formas canónicas de Jordan de una matriz A ∈ M5×5 (C) tal que
dA (λ) = (3 − λ)4 (1 − λ), en función del polinomio mínimo.
Recordemos que, por el Teorema de Jordan, si mi es la multiplicidad del valor propio αi como
cero del polinomio mínimo mA (λ), entonces existe al menos un bloque de Jordan asociado a αi de
tamaño mi y el resto de los bloques asociados a αi son de tamaño menor o igual que mi . Además,
el número de bloques de Jordan asociados al valor propio αi coincide con MG(αi ) y la suma de los
tamaños de los bloques asociados a αi coincide con MA(αi ).
Claramente, como 1 es un valor propio con MA(1) tendremos un único bloque 1 × 1 asociado a
1. Pero para el valor propio 3 se tienen distintas posibilidades. Teniendo en cuenta los posibles
polinomios mínimos, se tienen las siguientes posibles formas canónicas de Jordan de A:

• Si mA (λ) = (λ − 3)(λ − 1), entonces A es una matriz diagonalizable, ya que el polinomio


mínimo es producto de factores lineales distintos y, por tanto, J = diag(3, 3, 3, 3, 1).

241
• Si mA (λ) = (λ − 3)2 (λ − 1), entonces al menos hay un bloque 2 × 2 asociado a 3 y el resto de
los bloques asociados a 3 son de tamaño menor o igual que 2. Luego se tienen dos posibles
formas canónicas de Jordan de A:
   
 3 1 0 0 0   3 1 0 0 0 
 0 3 0 0 0   0 3 0 0 0 
   
J =  0 0 3 1 0  o bien, J =  0 0 3 0 0 
   
 0 0 0 3 0   0 0 0 3 0 
0 0 0 0 1 0 0 0 0 1
Si MG(3) = 2 Si MG(3) = 3

• Si mA (λ) = (λ − 3)3 (λ − 1), entonces al menos hay un bloque 3 × 3 asociado a 3 y el resto de


los bloques asociados a 3 son de tamaño menor o igual que 3. Luego la forma canónica de
Jordan de A en este caso es:  
 3 1 0 0 0 
 0 3 1 0 0 
 
J =  0 0 3 0 0 
 
 0 0 0 3 0 
0 0 0 0 1

• Si mA (λ) = (λ − 3)4 (λ − 1), entonces hay un bloque 4 × 4 asociado a 3. Luego la forma


canónica de Jordan de A en este caso es:
 
 3 1 0 0 0 
 0 3 1 0 0 
 
J =  0 0 3 1 0 


 0 0 0 3 0 

0 0 0 0 1

7.4. APLICACIÓN: INTRODUCCIÓN A LAS ECUACIONES Y SISTEMAS DE ECUA-


CIONES DIFERENCIALES LINEALES.

Una ecuación diferencial es una igualdad que relaciona una función y sus derivadas.
Por ejemplo,

y0 + y = 7x
y00 − y0 + 3(cos x)y = 0
y000 + y00 y − log x = exp x2

son ecuaciones diferenciales. La derivada de mayor orden que aparece en la ecuación determina el
orden de ésta. Así, las tres ecuaciones anteriores son, respectivamente, de primer, segundo y tercer
orden.
Un sistema de ecuaciones diferenciales es un conjunto de ecuaciones que involucran diversas
funciones y sus derivadas.

242
Aquí nos vamos a ocupar únicamente de las ecuaciones y sistemas del tipo lineal.

7.4.1. La Ecuación Diferencial Lineal de Primer Orden.

Una ecuación diferencial de primer orden es lineal si tiene esta forma:

y0 = f (x) y + g(x) (1)

donde f y g son funciones continuas en un intervalo I de la recta real (que puede ser todo R). Por
ejemplo, la primera ecuación de los ejemplos anteriores es lineal, puesto que podemos escribirla
como y0 = −y + 7x.
Una solución de la ecuación (1) es una función y, derivable en I, que verifica la ecuación. Por
ejemplo, la función y = 7x − 7 es una solución de la ecuación y0 = −y + 7x, porque

y = 7x − 7 ⇒ −y + 7x = −7x + 7 + 7x = 7 = y0

Ahora bien, ésta no es la única solución de la ecuación, porque cualquiera de las siguientes funcio-
nes también satisface la ecuación:
3
y = 7x − 7 + e−x , y = 7x − 7 + 4e−x , y = 7x − 7 − e−x
2
En realidad, el conjunto de todas las soluciones de esta ecuación es

S = y = 7x − 7 + Ce−x : C ∈ R

Para abreviar, a la expresión y = 7x − 7 + Ce−x la llamaremos solución general de la ecuación; para


cada valor concreto de la constante arbitraria C tendremos una solución particular.
En muchos problemas prácticos lo que se necesita es encontrar (o al menos demostrar que
existe) una solución particular de la ecuación que cumple una determinada condición inicial, es
decir, que buscamos una solución de la ecuación tal que y(x0 ) = y0 , donde x0 ∈ I e y0 son números
reales dados.
Cuando la función f es constante, es decir, cuando la ecuación tiene la forma y0 = ky + g(x),
con k ∈ C, el siguiente teorema resuelve el problema de encontrar las soluciones que cumplen
determinadas condiciones iniciales.
Teorema 25. (Existencia, unicidad y solución)
Supongamos que la función g es continua en el intervalo I, y sean x0 ∈ I, y0 ∈ R.
La ecuación diferencial y0 = ky+g(x), con k ∈ C, tiene una única solución que cumple la condición
inicial y(x0 ) = y0 . Esta solución es
Z x !
k(x−x0 ) −k(t−x0 )
y=e y0 + g(t)e dt (2)
x0

Corolario 26. Supongamos que la función g es continua en el intervalo I.


La solución general de la ecuación diferencial y0 = ky + g(x), con k ∈ C, es
Z !
kx −kx
y = e C + g(x)e dx , siendo C ∈ R una constante arbitraria. (3)

243
Corolario 27. Si además g(x) = 0, entonces la solución general de la ecuación diferencial lineal
homogénea y0 = ky, con k ∈ C, es y = Cekx , siendo C ∈ R una constante arbitraria.
Utilizaremos estos resultados para el estudio de los sistemas de ecuaciones diferenciales lineales.
Ejemplo 28. Calcula la solución de la ecuación

y0 = −2y + 2x

que verifica la condición inicial y(0) = 1.


Teniendo en cuenta el Corolario 26, se obtiene que
Z x !
−2x 2t
y=e 1+ 2te dt
0

Resolviendo la integral por partes, tomando u = t y dv = 2e2t dt, se obtiene que la única solución
de la ecuación es Z x !
x
y = e−2x 1 + te2t 0 − e2t dt
0
1 1
= e−2x + x − + e−2x
2 2
3 −2x 1
= e +x−
2 2

Ejemplo 29. Calcula la solución general de la ecuación y0 = −2y + 2x.


Teniendo en cuenta el Corolario 27, se obtiene que
Z !
−2x 2x
y=e C + 2xe dx

Resolviendo la integral por partes, tomando u = x y dv = 2e2x dx, se obtiene que la solución general
de la ecuación es Z !
y = e−2x C + xe2x − e2x dx
!
1
= e−2x C + xe2x − e2x
2
1
= Ce−2x + x −
2

7.4.1.1 La estructura algebraica de las soluciones.


El estudio de las ecuaciones diferenciales en general es más propio del Análisis Matemático que
del Álgebra Lineal. Sin embargo, en este apartado justificaremos el carácter lineal de las ecuaciones
lineales, interpretándolas desde el punto de vista de los espacios vectoriales y las aplicaciones
lineales.
En primer lugar fijaremos los espacios donde se encuentran las soluciones de las ecuaciones
diferenciales lineales. Consideraremos los siguientes conjuntos:

244
(a) C0 (I) es el conjunto de todas las funciones continuas en el intervalo I.

(b) C1 (I) es el conjunto de todas las funciones derivables con derivada continua en el intervalo I.

De las propiedades conocidas del cálculo se deduce que estos dos conjuntos tienen estructura
de espacio vectorial, pero no son de dimensión finita.
A la ecuación diferencial lineal homogénea con coeficiente constante y0 = ky, con k ∈ C, le
asociaremos una aplicación lineal.
Proposición 30. La aplicación Φ: C1 (I) −→ C0 (I) es lineal
0
y { Φ(y) = y − ky
y el conjunto de todas las soluciones de la ecuación y0 = ky es el núcleo de Φ, N(Φ).
Corolario 31. El conjunto de todas las soluciones de la ecuación homogénea y0 = ky es un espacio
vectorial de dimensión 1.
Además, si y es una solución particular de la ecuación completa, y0 = ky+g(x), entonces la solución
general de la ecuación completa es y + N(Φ).
Comprobemos este corolario en el caso del Ejemplo 29:

• La solución general de la ecuación homogénea y0 = −2y es y = Ce−2x


(el núcleo de Φ es L({e−2x }) ).

• La función y = x − 1/2 es una solución particular de la ecuación completa y0 = −2y + 2x.

• La solución general de la ecuación completa es y = x − 1/2 + Ce−2x .

7.4.2. Sistemas de Ecuaciones Diferenciales Lineales Homogéneos con Coeficientes Constantes.

Un sistema lineal de ecuaciones diferenciales lineales de primer orden es el que tiene esta
forma:
y01 = f11 (x)y1 + f12 (x)y2 + · · · + f1n (x)yn + g1 (x)
y02 = f21 (x)y1 + f22 (x)y2 + · · · + f2n (x)yn + g2 (x)
...
y0n = fn1 (x)y1 + fn2 (x)y2 + · · · + fnn (x)yn + gn (x)
donde todas las funciones fi j y gi son continuas en un intervalo I de la recta real.
Escribiremos el sistema, en forma matricial, como

y0 = F(x)y + g(x) (4)

Por analogía con los sistemas de ecuaciones algebraicas, a este sistema de ecuaciones le podemos
asociar el sistema homogéneo
y0 = F(x)y (5)
Si la matriz de coeficientes F(x) es constante, decimos que se trata de un sistema de ecuaciones
diferenciales lineales homogéneo con coeficientes constantes y escribiremos y0 = Ay, siendo A ∈
Mn×n (C).

245
Por ejemplo,

y01 = 4y1 − y2
y02 = 2y1 + y2

es un sistema de dos ecuaciones de primer orden homogéneo con coeficientes constantes. Este
sistema puede escribirse, en forma matricial, como
!
0 4 −1
y = y
2 1
Centraremos nuestro estudio en este tipo de sistemas. El teorema más importante es el siguiente:
Teorema 32. (Existencia y unicidad)
Si x0 ∈ I, y0 ∈ Rn y A ∈ Mn×n (C), entonces el sistema de ecuaciones diferenciales y0 = Ay tiene
una única solución que cumple las condiciones iniciales y(x0 ) = y0 .
En primer lugar estudiaremos muy brevemente la estructura algebraica del conjunto de solu-
ciones y, a continuación, aprenderemos a resolver sistemas de ecuaciones diferenciales lineales
homogéneos con coeficientes constantes.
De modo análogo al caso de la ecuación lineal de primer orden homogénea, se obtiene la
siguiente proposición.
Proposición 33. El conjunto de todas las soluciones del sistema de ecuaciones diferenciales linea-
les homogéneo de n ecuaciones y0 = Ay es un espacio vectorial de dimensión n.
Por lo tanto, la solución general se puede expresar en la forma

y = C1 y1 + C2 y2 + · · · + Cn yn (6)

donde {y1 , y2 , . . . , yn } es una base de dicho espacio.


El sistema lineal homogéneo con coeficientes constantes y0 = Ay se puede resolver explícita-
mente, porque la reducción de A a su forma canónica de Jordan permite desacoplar las funciones
incógnitas.
Supongamos que J es la forma canónica de Jordan de A y que P es una matriz cuyas columnas
son una base formada por cadenas de Jordan de A en orden inverso, de modo que

A = PJP−1

Sustituyendo en el sistema lineal tendremos

y0 = PJP−1 y

o bien,
P−1 y0 = JP−1 y
Si llamamos z = P−1 y tendremos
z0 = Jz
que es otro sistema lineal con coeficientes constantes, pero al ser J una matriz triangular se puede
resolver ecuación a ecuación por un proceso análogo al de sustitución regresiva. En el caso ideal

246
en que la matriz A es diagonalizable, ni siquiera es necesaria esta sustitución regresiva. Veamos un
par de ejemplos, uno en el que la matriz es diagonalizable y otro en el que no lo es.
Ejemplo 34. Calcula la solución general del sistema
!
4 −1
0
y = y
2 1
!
4 −1
Los valores propios de la matriz A = son λ1 = 2 y λ2 = 3, de modo que la matriz es
2 1
diagonalizable. Calculando los vectores propios correspondientes llegamos a la factorización
! ! ! !
4 −1 1 1 2 0 −1 1
=
2 1 2 1 0 3 2 −1
| {z } | {z } | {z } | {z }
A P D P−1

Así pues, llamando z a P−1 y tendremos el nuevo sistema


!
0 2 0
z = z
0 3
que se reduce a dos ecuaciones lineales de primer orden:
z01 = 2z1
z02 = 3z2
cuyas soluciones generales son
z1 = C1 e2x
z2 = C2 e3x
Puesto que habíamos hecho el cambio z = P−1 y tendremos
y = Pz
! !
1 1 C1 e2x
=
2 1 C2 e3x
! !
2x 1 3x 1
= C1 e + C2 e
2 1

Observemos que si A = PDP−1 , con D = diag(α1 , α2 , . . . , αn ), entonces la solución general del


sistema homogéneo y0 = Ay es

y = P diag(eα1 x , eα2 x , . . . , eαn x )C

Ejemplo 35. Calcula la solución del sistema


!
0 8 −9
y = y
4 −4

247
!
8 −9
En este caso la matriz A = no es diagonalizable. Calculando su forma canónica de Jordan,
4 −4
la podemos factorizar como
! ! ! !−1
8 −9 3 2 2 1 3 2
=
4 −4 2 1 0 2 2 1
| {z } | {z } | {z } | {z }
A P J P−1

y el cambio z = P−1 y transforma el sistema en


!
0 2 1
z = z
0 2

es decir,
z01 = 2z1 + z2
z02 = 2z2
Ahora podemos resolver la segunda ecuación (en la que no interviene z1 )

z02 = z2 ⇐⇒ z2 = C2 e2x

y sustituyendo el resultado en la primera ecuación, obtenemos la ecuación z01 = 2z1 + C2 e2x , que
resolvemos aplicando el Corolario 26
Z !
2x 2x −2x
z1 = e C1 + C2 e e dx
Z !
2x
z1 = e C1 + C2 dx

z1 = e2x (C1 + xC2 )


!
e2x xe2x
de modo que z = C
0 e2x
La solución del sistema original será
! ! ! ! !!
3 2 e2x xe2x 2x 3 2x 2 3
y = Pz = C = C1 e + C2 e +x
2 1 0 e2x 2 1 2

Observaciones:
1. Para resolver el sistema homogéneo y0 = Ay, con A = PJP−1 no necesitamos hallar explíci-
tamente la inversa de P.

2. Para cada cadena de Jordan en orden inverso b1 , b2 , . . . , bm correspondiente al valor propio


α obtendríamos las soluciones particulares
! !
x2 xm−1
e b1 , e (b2 + xb1 ) , e b3 + xb2 + b1 , . . . , e bm + xbm−1 + · · · +
αx αx αx αx
b1
2 (m − 1)!

248
Por ejemplo, si la forma canónica de Jordan de la matriz A es
 
 α1 0 0 0 0 
 0 α1 0 0 0 
 
J =  0 0 α2 1 0 


 0 0 0 α2 1 

0 0 0 0 α2

entonces la solución general de la ecuación homogénea será


!
α1 x α1 x α2 x α2 x α2 x x2
y = C1 e u1 + C2 e v1 + C 3 e b1 + C4 e (b2 + xb1 ) + C5 e b3 + xb2 + b1
2

donde {u1 , v1 , b1 , b2 , b3 } es una base formada por cadenas de Jordan en orden inverso.

PROBLEMAS
Vectores propios generalizados. Cadenas de Jordan.
(P.1) Comprueba
 que el vector
 (0, 0, 0, 1)T es un vector propio generalizado de orden 2 de la
 1 1 0 0 
 0 1 0 0 
matriz A =  
 0 0 1 1 .
 
0 0 0 1
(P.2) Comprueba
 que el vector (2, 0, 1)T es un vector propio generalizado de orden 3 de la
 0 1 0 
 
matriz A =  0 0 1 .
 
0 0 0
(P.3) Sea α ∈ σ(A). Si u es un vector propio generalizado de A de orden k y v es un vector
propio generalizado de A de orden p, con p < k asociados a α, prueba que entonces u + v es
un vector propio generalizado de A de orden k.
(P.4) Halla cadenas de Jordan de longitud 2 y de longitud 3, si existen, para las matrices:
 
   
!  −1 0 0 0 
 1 1 0   1 1 0   0 −1 0 1 
    3 1
A =  0 1 0  , B =  0 1 1  , C = , E =  

    2 2  0 0 −1 0
1 2 −1 0 0 1 
3 0 0 −1

Polinomios anuladores. El polinomio mínimo de una matriz.


!
−1 −2
(P.5) Comprueba que se verifica el Teorema de Cayley-Hamilton para la matriz A = .
4 5

(P.6) Si el polinomio característico de una matriz A es −λ3 + 2λ2 + λ − 2, ¿cuál es su polinomio


mínimo?

249
(P.7) Si el polinomio mínimo de una matriz 3 × 3 es λ3 + 2λ2 − 4λ − 8, ¿cuál es su polinomio
característico?
(P.8) ¿Cuál es el polinomio mínimo de la matriz βIn×n , con β ∈ C? Justifica tu respuesta.
(P.9) Calcula el polinomio mínimo de las matrices
   
     3 1 −1 −1   5 0 0 2 
 0 0 2   0 −1 1   0
    2 0 1   4 5 −1 4 
A =  1 0 −1  , B =  1 1 0  , C =  , D =  .
     1 1 1 0   8 4 1 8 
0 1 1 −1 0 1  
0 0 0 2 −2 0 0 1

(P.10) Calcula el polinomio característico y el polinomio mínimo de la matriz


 
 2 0 0 1 0 
 0 2 0 0 1 
 
A =  0 0 2 0 0  .
 
 0 0 0 2 0 
0 0 0 0 1

(P.11) Calcula el polinomio característico y el polinomio mínimo de la matriz A = (ai j ), tal que
ai j = 2, para i, j = 1, 2, 3, 4. ¿La matriz A es diagonalizable? Justifica la respuesta.
Forma canónica de Jordan de una matriz cuadrada.
 
 5 0 0 
 
(P.12) Reduce a la forma canónica de Jordan la matriz A =  −2 5 2 , obteniendo una
 
3 0 5
matriz P tal que A = PJA P−1 .
 
 0 0 −1 
 
(P.13) Reduce la matriz A =  0 −1 0  a su forma canónica de Jordan J , indicando la
 
1 0 −2
matriz P tal que A = PJP−1 .
 
 −1 −1 0 
 
(P.14) Reduce la matriz A =  0 −2 1  a la forma canónica de Jordan y calcula una
 
1 −1 −3
matriz no singular P tal que A = PJP−1 .
 
 2 1 0 
 
(P.15) Reduce la matriz A =  1 −1 −1  a su forma canónica de Jordan y encuentra una
 
0 1 2
matriz P no singular tal que A = PJP−1 .
(P.16) Reduce a la forma canónica de Jordan las siguientes matrices:
 
       2 0 0 1 0 
 3 1 −1 −1   0 −4 0 −1   3 1 0 0   0 
 0 2 0 0 1 
2 0 1   0 2 0 0   0 3 0 0   
A =  , B =  
 , C =  , E =  0 0 2 0 0  ,
 1 1 1 0   0 0 0 0   0 0 2 1   
    0 0 0 2 0 
0 0 0 2 4 8 −12 4 0 0 1 2 
0 0 0 0 1

250
     
 5 0 0 2   2 0 0 0   5 0 1 −1 
 4 5 −1 4   1 2 0 0   
F =   , G =   , H =  0 5 0 0  .
 8 4 1 8   1 −1 2 0   0 −2 5 2 
  
−2 0 0 1 4 −2 −1 2 0 3 0 5
 
 1 1 0 0 
 0 1 1 0 
(P.17) Reduce la matriz A =   a su forma canónica de Jordan J , indicando la
 0 0 1 0 

0 6 0 1
−1
matriz P tal que A = PJP .
!
a b
(P.18) Probar que si b , 0, entonces la matriz A = no es diagonalizable.
0 a
Calcular la forma canónica de Jordan de A y una matriz no singular P tal que A = PJP−1 .
Calcular An , ∀n ∈ N.
(P.19) Sea A ∈ M6×6 (C) una matriz tal que dA (λ) = (λ − 3)2 (λ − 2)4 . Escribe las posibles
formas canónicas de Jordan de A especificando en cada caso el polinomio mínimo y las
multiplicidades algebraicas y geométricas.
(P.20) Escribe todas las posibles formas canónicas de Jordan de una matriz A tal que:
(i) dA (λ) = (2 − λ)3 (7 − λ)4 y mA (λ) = (λ − 2)(λ − 7)2
(ii) dA (λ) = (4 − λ)6 , mA (λ) = (λ − 4)3 y dim(E(4)) = 3
(P.21) Escribe todas las posibles formas canónicas de Jordan de las siguientes matrices:

1. A una matriz compleja tal que dA (λ) = (λ − 8)6 y MG(8) = 3.

2. B una matriz compleja 5 × 5 tal que mB (λ) = (λ − 7)2 .

(P.22) (i) Si A ∈ M4×4 (C) tal que dA (λ) = (−1)4 (λ − 2)2 (λ + 1)2 , calcula todas las posibles formas
canónicas de Jordan, indicando en cada caso las multiplicidades algebraicas y geométricas.
(ii) Si A ∈ M4×4 (C) tal que dA (λ) = (−1)4 (λ − 2)2 (λ + 1)2 , MG(2) = 1 y MG(−1) = 2 ¿cuál de
los siguientes polinomios son anuladores de A?
(1) f (λ) = 3(λ + 1)3 (λ − 2)(λ + 5), (2) g(λ) = (λ + 1)(λ − 2)4 (λ − 7)
(3) h(λ) = (λ)(λ + 1)2 (λ − 2)2
(P.23) Dadas las siguientes parejas de matrices estudiar si son o no similares:
! !
1 1 1 0
1. A = y B=
1 −1 1 −1
! !
1 −1 −1 1
2. A = y B=
4 −3 0 −1
   
 2 1 0   1 0 0 
   
3. A =  0 2 1  y B =  0 1 1  .
   
0 −1 0 0 0 2

251
(P.24) (i) Construye dos matrices reales 2 × 2 con el mismo polinomio característico que no
sean similares.
(ii) Construye dos matrices reales 3×3 con el mismo polinomio mínimo que no sean similares.

(P.25) Sea A ∈ Mn×n (R) tal que A3 = A. Prueba que A es diagonalizable.


(P.26) Halla todas las matrices 2 × 2 A tales que A2 − 3A + 2I2×2 = O2×2 .
Aplicación: Introducción a las ecuaciones y sistemas de ecuaciones diferenciales lineales.
(P.27) Calcula la solución de la ecuación diferencial lineal y0 = 3y tal que y(0) = 5.
(P.28) Calcula la solución de la ecuación diferencial lineal y0 = y + x tal que y(0) = 1.
(P.29) Calcula la solución de la ecuación diferencial lineal y0 = 3y + x tal que y(0) = 5.
(P.30) Calcula la solución de la ecuación diferencial lineal y0 + 5y = 20 tal que y(0) = 2.
(P.31) Calcula la solución general de las siguientes ecuaciones diferenciales lineales:

2y0 + y = 0, y0 − 2y = e3x , y0 + y = sen x

(P.32) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = − y1 − 2y2
y02 = 4y1 + 5y2

(P.33) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = 3y1 + y2
y02 = − y1 + y2

(P.34) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = − y3
y02 = − y2
y03 = y1 − 2y3

(P.35) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = −y1 − y2
y02 = − 2y2 + y3
0
y3 = y1 − y2 − 3y3

252
(P.36) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = y1 − y2 + 4y3
y02 = 3y1 + 2y2 − y3
y03 = 2y1 + y2 − y3

(P.37) Resuelve el sistema de ecuaciones diferenciales lineales

y01 = 2y1 + y2 + 3y3


y02 = 2y2 − y3
0
y3 = 2y3

CUESTIONES
(C1) Una de las siguientes afirmaciones es INCORRECTA:
(a) si b es un vector propio generalizado de orden k, entonces se cumple que (A − σI)k b , 0
y (A − σI)k−1 b = 0.
(b) si b es un vector propio generalizado de orden k y si k ≤ n, entonces (A − σI)n b = 0.
(c) si b es un vector propio generalizado de orden 1, entonces b es un vector propio de A.

(C2) Si {z, y, x} es una cadena de Jordan de longitud 3 asociada al valor propio λ, entonces
(a) (A − λI)x = 0, (A − λI)y = x, (A − λI)z = x
(b) Ax = λx, Ay = λx + y, Az = λy + z
(c) Ax = λx, Ay = λy + x, Az = λz + y.
 
(C3) Si dA (λ) = (−1)3 λ3 + 3λ2 − λ + 2 es el polinomio característico de una matriz A, enton-
ces es FALSO que
(a) A = A3 + 3A2 + 2I3×3
(b) A es no singular y A−1 = A2 + 3A + I3×3
1
(c) A es no singular y A−1 = (−A2 − 3A + I3×3 )
2
(C4) Considera A ∈ Mn×n (C). Una de las siguientes afirmaciones es verdadera.
(a) El teorema de Cayley-Hamilton afirma que el polinomio característico de A es el único
polinomio anulador de A.
(b) Si {α1 , . . . , αn } son los valores propios de A, entonces los valores propios de B = A2 + In×n
son {α21 + 1, . . . , α2n + 1}.
(c) El polinomio característico de A divide al polinomio mínimo de A.

(C5) Sea dA (λ) = (λ − 2)4 (λ + 5)2 (λ − 1) el polinomio característico de una matriz A. Entonces,
un posible polinomio mínimo de A es

253
(a) (λ − 2)2 (λ + 5)2 (λ − 1); (b) (λ − 2)(λ + 5); (c) (λ + 5)2 (λ − 1).

(C6) Sólo una de las siguientes afirmaciones es correcta:


(a) si los valores propios de A son distintos entre sí, los polinomios característico y mínimo
coinciden, salvo posiblemente en el signo.
(b) el polinomio mínimo es el producto de los factores lineales distintos de su polinomio ca-
racterístico.
(c) para matrices diagonales, los polinomios mínimo y característico coinciden.
 
0 0 1 0 0 

1 0 0 0 0 
 
(C7) Sea la matriz A =  0 1 0 1 0 . Entonces, las multiplicidades algebraica MA y


0 0  0 1 0 

0 0 0 0 2
geométrica MG del autovalor 1 son
(a) MA(1) = 4 y MG(1) = 2.
(b) MA(1) = 3 y MG(1) = 3.
(c) MA(1) = 4 y MG(1) = 3.

(C8) Sea A ∈ Mn×n (K). Una de las siguientes afirmaciones es verdadera:


(a) Si α es un valor propio de A, entonces dimK E(α) = n − ρ(A − αIn×n ).
(b) Si α es un valor propio de A, entonces la multiplicidad algebraica de α coincide con la
multiplicidad de α como cero del polinomio mínimo de A.
(c) Si α es un valor propio de A, entonces la multiplicidad geométrica de α coincide con el
máximo tamaño que tiene un bloque asociado a α en la forma canónica de Jordan de A.

(C9) Si A es una matriz tal que d(λ) = (5 − λ)4 y tal que dimC E(5) = 2, entonces sus posibles
formas canónicas de Jordan son:
       
 5 1 0 0   5 0 0 0   5 1 0 0   5 0 0 0 
 0 5 0 0   0 5 1 0   0 5 0 0   0 5 1 0 
(a)  
 (b)  
 (c)   y 
  0 0 5
.

 0 0 5 1   0 0 5 1   0 0 5 1
 
1

0 0 0 5 0 0 0 5 0 0 0 5 0 0 0 5

(C10) Sea A ∈ M3×3 (C). Una de las siguientes afirmaciones es verdadera:


(a) Si {b3 , b2 , b1 } es una cadena de Jordan de longitud 3 asociada a 8, entonces {b3 , b2 , b1 } es
una base del subespacio E(8) = N(A − 8I3×3 ).
(b) Si {b3 , b2 , b1 } es una cadena de Jordan de longitud 3 asociada a 8, entonces L({b3 , b2 , b1 })
es un subespacio 1-dimensional.
(c) Si {b3 , b2 , b1 } es una cadena de Jordande longitud 3 asociada a 8, entonces la forma
 8 1 0 
 
canónica de Jordan de A es JA =  0 8 1 .
 
0 0 8

254
 
 −1 0 0 
 
(C11) Considera la matriz A =  2 −1 0  ∈ M3×3 (C). Una de las siguientes matrices es
 
5 0 −1
similar a A:
     
 −1 0 0   −1 1 0   −1 1 0 
     
(a) B =  0 −1 0  (b) C =  0 −1 0  (c) D =  0 −1 1 .
     
0 0 −1 0 0 −1 0 0 −1
 
 5 1 0 0 0 
 0 5 1 0 0 
 
(C12) Considera la matriz A =  0 0 5 0 0  ∈ M5×5 (C). Una de las siguientes afirmacio-
 
 0 0 0 5 0 
0 0 0 0 7
nes es verdadera:
(a) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ), MG(5) = 2 y MG(7) = 1, entonces A es
similar a B.
(b) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ) y mB (λ) = (λ − 5)3 (λ − 7), entonces A es
similar a B.
(c) Si B ∈ M5×5 (C) tal que dB (λ) = (5 − λ)4 (7 − λ), MA(5) = MG(5) y MA(7) = MG(7),
entonces A es similar a B.

(C13) Sea A ∈ M5×5 (R). Si dA (λ) = (−1)5 (λ2 − 1)(λ + 7)2 (λ + 1) y A es diagonalizable, entonces
el polinomio mínimo de A es
(a) mA (λ) = (λ + 1)(λ + 7)
(b) mA (λ) = (λ − 1)(λ + 1)(λ + 7)
(c) mA (λ) = (−1)5 (λ + 1)(λ + 7)

(C14) Sea A una matriz n × n. Entonces, es cierto que


(a) si dA (λ) = mA (λ), entonces A es diagonalizable.
(b) si mA (λ) divide a dA (λ), entonces A es diagonalizable.
(c) si todos los ceros de mA (λ) son distintos, entonces A es diagonalizable.

(C15) Sea A ∈ Mn×n (K). Una de las siguientes afirmaciones es verdadera:


(a) A es K-diagonalizable ⇐⇒ A es no singular.
(b) A es K-diagonalizable ⇐⇒ los factores lineales distintos de dA (λ) y mA (λ) coinciden.
(c) A es K-diagonalizable ⇐⇒ A = PDP−1 con P ∈ Mn×n (K) no singular y D ∈ Mn×n (K)
diagonal.

(C16) Si A ∈ M3×3 (R) tal que A3 − 4A2 + 3A = O3×3 , entonces


(a) dA (λ) = (1 − λ)(3 − λ)(−λ).
(b) mA (λ) = (λ − 1)(λ − 3)2 .
(c) 7 no es un valor propio de A.

(C17) Sea A una matriz real n × n tal que A2 − 5A + 6In×n = On×n . Entonces,

255
(a) σ(A) = {3, 2}, con MA(3) = MA(2) = 1.
(b) A es R-diagonalizable.
(c) det(A) = 3 · 2 = 6.

(C18) Si A ∈ M5×5 (R) simétrica y σ(A) = {0, 1, 2}, entonces


(a) mA (λ) = λ(λ − 1)2 (λ − 2)2 .
(b) mA (λ) = λ(λ − 1)(λ − 2).
(c) mA (λ) = (−1)5 λ(λ − 1)2 (λ − 2)2 .

(C19) Si A ∈ M3×3 (R) simétrica tal que σ(A) = {1, 1, −1}, entonces la forma canónica de
Jordan de A es la matriz:
     
 1 1 0   1 1 0   1 0 0 
     
(a) J =  0 1 1  (b) J =  0 1 0  (c) J =  0 1 0 .
    
0 0 −1 0 0 −1 0 0 −1

256
Bibliografía

• Bru, Rafael, Climent Coloma, Joan Josep, Mas, Josep, Urbano, Ana. Álgebra lineal.
México, Alfaomega, 2a ed. act., 2004.

• Lay, David C. Álgebra lineal y sus aplicaciones. México, Pearson Educación, 2007.

• Merino González, Luis M., Santos Aláez, Evangelina. Álgebra lineal con métodos
elementales. Madrid, Thomson, 2006.

• Pérez Carreras, Pedro. Introducción al álgebra lineal II: curso práctico. Valencia,
Universidad Politécnica de Valencia, D.L. 1994.

• Robinson, Derek J.S. A course in linear algebra with applications. Singapore, World
Scientific, 2nd ed., cop. 2006.

• Rojo García, Jesús. Álgebra lineal. Aravaca, Madrid, McGraw-Hill/Interamericana de


España, 2a ed., D.L. 2007.

• Spindler, Karlheinz. Abstract algebra with applications, volume I, Vector spaces and
groups. New York, Marcel Dekker, Inc., 1994.

También podría gustarte