Está en la página 1de 46

Tema 4.- El espacio vectorial Rn.

1. Subespacios vectoriales de Rn .
2. Bases de un subespacio.
3. Rango de una matriz.
4. Bases de Rn . Cambios de base.
5. Ejercicios.

En este tema estudiamos la estructura vectorial del espacio Rn , de las n−uplas ordenadas de números reales, es
decir, la estructura relacionada con las operaciones suma (de vectores) y multiplicación de un número (real) por un
vector. El espacio Rn es uno de los modelos para el estudio de los denominados espacios vectoriales (generales). Sin
entrar en más detalles y definiciones, un espacio vectorial es un conjunto de elementos sobre el que hay definida una
operación suma (de dichos elementos) y una operación producto de un número por uno de dichos elementos. Por
ejemplo, son espacios vectoriales:

el conjunto de las matrices de unas dimensiones dadas, con la operación suma de matrices y producto de un
escalar (real, complejo) por una matriz,
el conjunto de todos los polinomios en una variable, con las operaciones suma de polinomios y producto de un
escalar por un polinomio,
el conjunto de todos los polinomios en una variable y con grado menor o igual que un cierto valor prefijado. Por
ejemplo, el conjunto de todos los polinomios de grado menor o igual que 3.

Para finalizar, daremos la definición formal de base y consideraremos los resultados fundamentales asociados a
dicho concepto.

1. Subespacios vectoriales de Rn .

Los subespacios vectoriales de Rn serán los subconjuntos de Rn que se pueden caracterizar mediante ecuaciones
lineales homogéneas (ecuaciones implı́citas en las n variables dadas por las coordenadas de un vector genérico). Como
ya hemos visto, cualquier conjunto de vectores descrito como el conjunto de todas las combinaciones lineales de ciertos
vectores también puede caracterizarse mediante ecuaciones lineales homogéneas. A la hora de manipular subespacios
vectoriales recurriremos, de forma habitual, a su expresión mediante ecuaciones implı́citas o a su expresión mediante
ecuaciones paramétricas. Una de las cuestiones que trataremos es el número mı́nimo de ecuaciones implı́citas mediante
las que se puede caracterizar un subespacio y el número mı́nimo de vectores que permiten generar dicho subespacio. En
el espacio tridimensional R3 , los subespacios vectoriales son, además del subespacio nulo {0} y del total R3 , las rectas
y los planos que pasan por el origen de coordenadas. Recordemos que cualquier recta o plano se puede caracterizar
mediante ecuaciones implı́citas y mediante ecuaciones paramétricas. En R3 , para caracterizar una recta que pasa por
el origen de coordenadas necesitamos dos ecuaciones (no redundantes) o un vector, y para caracterizar un plano que
pasa por el origen de coordenadas necesitamos una ecuación o dos vectores linealmente independientes (una base de
dicho plano).

1.1. Subespacios vectoriales.

Definición. Se llama subespacio vectorial de Rn a todo subconjunto no vacı́o S ⊂ Rn que verifica:

(1) Si un vector está en S, también lo está cualquiera de sus múltiplos, es decir,

v ∈ S =⇒ αv ∈ S, ∀ α ∈ R,

(2) Si dos vectores están en S, también lo está la suma de ambos, es decir,

v1 , v2 ∈ S =⇒ v1 + v2 ∈ S.

79
La propiedad (1) nos dice que si tenemos un vector no nulo de un subespacio vectorial, la recta determinada por
dicho vector está contenida en el subespacio. La propiedad (2) nos dice que si tenemos dos vectores (no colineales) de
un subespacio vectorial, el plano determinado por dichos vectores está contenido en el subespacio.
Las dos propiedades anteriores se pueden expresar de forma conjunta: Si dos vectores están en S, también lo
está cualquiera de sus combinaciones lineales:
 
v1 , v2 ∈ S
∀ =⇒ αv1 + βv2 ∈ S.
α, β ∈ R

En particular el vector nulo pertenece a cualquier subespacio vectorial.

n o
Obviamente S = ~0 y S = Rn son subespacios vectoriales (a veces llamados subespacios triviales).
En el espacio bidimensional, R2 , además de esos dos subespacios triviales, cualquier recta que pase por el origen
es un subespacio vectorial. Sin embargo, los vectores de posición determinados por los puntos de una parábola NO
forman un subespacio vectorial. n o
En el espacio tridimensional, R3 , además de los dos subespacios triviales ( ~0 y R3 ), cualquier recta o plano que
pase por el origen es un subespacio vectorial.

Ejercicio resuelto
Encontrar unas ecuaciones implı́citas del subespacio de R4

E = Gen{(1, 1, 1, 0)T , (2, 0, 1, 2)T , (0, 2, 1, −2)T , (0, −2, −1, 2)T , (−1, 1, 0, −2)T }.

Dado un conjunto generador {v1 , v2 , v3 , v4 , v5 } de un subespacio E ⊂ R4 , encontrar las ecuaciones implı́citas de E


es hallar las condiciones que deben verificar las componentes de un vector de R4 , x = (x1 , x2 , x3 , x4 )T , para que
pertenezca a E, es decir, para que se pueda escribir como combinación lineal del conjunto generador x = c1 v1 + c2 v2 +
c3 v3 + c4 v4 + c5 v5 , es decir, para que existan esos escalares ci , o lo que es equivalente, para que el sistema

(v1 |v2 |v3 |v4 |v5 )c = x, con c = (c1 , c2 , c3 , c4 , c5 )T

sea compatible. Para exigir esto construimos la matriz ampliada (v1 |v2 |v3 |v4 |v5 |x):
   
1 2 0 0 −1 x1 1 2 0 0 −1 x1
 1 0 2 −2 1 x2  F 2 − F1
 0 −2 2 −2 2 x2 − x1 
   
 1 1 1 −1 0 x3  F3 − F1  0 −1 1 −1 1 x3 − x1 
0 2 −2 2 −2 x4 - 0 2 −2 2 −2 x4
 
1 2 0 0 −1 x1
F3 − F2 /2 
 0 −2 2 −2 2 x2 − x1

,
F4 + F2  0 0 0 0 0 x3 − x1 /2 − x2 /2 
- 0 0 0 0 0 x4 + x2 − x1
es decir, el sistema es compatible cuando
 
x3 − x1 /2 − x2 /2 = 0, x1 + x2 − 2x3 = 0,

x4 + x2 − x1 = 0, x1 − x2 − x4 = 0,

que son unas ecuaciones implı́citas de E.


Observemos que podı́amos haber buscado primero una base de E, aplicando eliminación gaussiana a la matriz
(v1 |v2 |v3 |v4 |v5 ):
     
1 2 0 0 −1 1 2 0 0 −1 1 2 0 0 −1
 1 0 2 −2 1  F2 − F1  0 −2 2 −2 2  F3 − F2 /2  0 −2 2 −2 2 

   ,
 1 1 1 −1 0  F3 − F1  0 −1 1 −1 1  F4 + F2  0 0 0 0 0 
0 2 −2 2 −2 - 0 2 −2 2 −2 - 0 0 0 0 0

de donde deducimos que E = Gen{v1 , v2 }, es decir, una base de E es BE = {v1 , v2 }. Dada una base {v1 , v2 } de
un subespacio E ⊂ R4 , encontrar las ecuaciones implı́citas de E es hallar las condiciones que deben verificar las
componentes de un vector de R4 , x = (x1 , x2 , x3 , x4 )T , para que pertenezca a E, es decir, para que se pueda escribir
como combinación lineal de los vectores de la base x = c1 v1 + c2 v2 , es decir, para que existan esos escalares ci , o lo
que es equivalente, para que el sistema

(v1 |v2 )c = x, con c = (c1 , c2 )T

80
sea compatible. Para exigir esto construimos la matriz ampliada (v1 |v2 |x):
     
1 2 x1 1 2 x1 1 2 x1
 1 0 x2   F2 − F1  0 −2 x2 − x1  F3 − F2 /2  0 −2 x2 − x1
   
 ,
 1 1 x3  F3 − F1  0 −1 x3 − x1  F4 + F2  0 0 x3 − x1 /2 − x2 /2 
0 2 x4 - 0 2 x4 - 0 0 x4 + x2 − x1

es decir, el sistema es compatible cuando


 
x3 − x1 /2 − x2 /2 = 0, x1 + x2 − 2x3 = 0,

x4 + x2 − x1 = 0, x1 − x2 − x4 = 0,

que son unas ecuaciones implı́citas de E.


La garantı́a de que el resultado al que hemos llegado es correcto se obtiene comprobando que todos los vectores vi
verifican todas las ecuaciones implı́citas obtenidas.

1.2. Espacio nulo y espacio columna de una matriz.

Asociados a una matriz A, m × n,


 
a11 a12 ··· a1n

 a21 a22 ··· a2n 

A = [v1 |v2 |...|vn ] =  .. .. .. .. 
 . . . . 
am1 am2 · · · amn

hemos considerado los denominados

Espacio nulo de la matriz A, esto es, el conjunto de vectores reales x ∈ Rn caracterizados por las ecuaciones
implı́citas  

 a11 x1 + a12 x2 + · · · + a1n xn = 0  
 
 a21 x1 + a22 x2 + · · · + a2n xn = 0 

 

Ax = 0 −→ .
.. . .
.. .. .

 

 a x + am2 x2 + · · · + amn xn = 0  
 m1 1

 

Espacio columna de la matriz A, subespacio generado por las columnas de A, esto es, el conjunto de vectores
y que se pueden escribir como combinación lineal de dichas columnas

y = α1 v1 + α2 v2 + · · · + αn vn ,

caracterizado por las ecuaciones paramétricas




 y1 = α1 a11 + α2 a12 + · · · + αn a1n

 y2 = α1 a21 + α2 a22 + · · · + αn a2n


.. .. .. , con α1 , α2 , . . . , αn ∈ R.
 . . .

 y = α1 am1 + α2 am2 + · · · + αn amn
 m

Resolviendo el sistema homogéneo Ax = 0 podemos obtener los vectores del espacio nulo de A como el conjunto
de vectores que se pueden expresar como combinación lineal (arbitraria) de determinados vectores, es decir, como el
subespacio generado por ciertos vectores o como el espacio columna de la matriz que tiene a dichos vectores como
vectores columna. Por otra parte, puesto que el espacio columna de una matriz A está formado por los vectores y tales
que el sistema de ecuaciones Ax = y es compatible, obteniendo las condiciones de compatibilidad de este sistema (en
función del término independiente y), tendremos unas ecuaciones lineales homogéneas que permiten expresar el citado
espacio columna como espacio nulo de otra matriz.
Por tanto, hablar de espacio nulo o espacio columna de una matriz (o subespacio generado por ciertos vectores)
no es hablar de conjuntos de vectores con caracterı́sticas distintas, sino que es hablar de un mismo tipo de conjunto
de vectores, que son los denominados subespacios vectoriales, pero expresados en forma distinta:

cuando uno de dichos conjuntos de vectores viene dado como espacio nulo de una matriz tenemos una descripción
implı́cita (ecuaciones implı́citas) de dicho conjunto (un vector está en el conjunto considerado si, y sólo si,
sus coordenadas verifican el sistema homogéneo asociado a la matriz),

81
cuando uno de dichos conjuntos de vectores viene dado como espacio columna de una matriz tenemos una des-
cripción paramétrica (ecuaciones paramétricas) de dicho conjunto (un vector está en el conjunto considerado
si, y sólo si, puede expresarse como combinación lineal de determinados vectores).

Entre las descripciones paramétricas de un subespacio vectorial unas serán mejores que otras en el sentido de que
unas involucren menos vectores que otras. Es decir, si tenemos el espacio columna de una cierta matriz A, m × n,
y los vectores columna de A son linealmente dependientes, suprimiendo vectores que sean combinación lineal de los
que quedan, tendremos que el espacio columna de la matriz original también es el espacio columna de la matriz que
resulta de la matriz anterior suprimiendo algunas columnas. Si nos quedamos con un conjunto de vectores linealmente
independiente, tendremos que dichos vectores generan el espacio columna de la matriz original y cada vector de
dicho espacio se puede expresar de forma única como combinación lineal de los vectores linealmente independientes
obtenidos. Dichos vectores constituyen lo que se denomina una base (es decir, un conjunto de vectores linealmente
independiente que genera el subespacio) del subespacio vectorial considerado, el espacio columna de la matriz original.
Si en la representa-ción paramétrica eliminamos los parámetros, llegaremos a unas ecuaciones homogéneas que darán
una descripción implı́cita del subespacio considerado.
De forma paralela, entre las descripciones implı́citas de un subespacio vectorial también habrá unas mejores que
otras, en el sentido de que una puede tener ecuaciones redundantes y otra no. Si mediante operaciones fila reducimos
una matriz A a forma escalonada y obtenemos la matriz U , las soluciones del sistema U x = 0 coinciden con las del
sistema Ax = 0, es decir los espacios nulos de la matriz A y de la matriz U coinciden. Si de la matriz U eliminamos las
filas nulas, que proceden de ecuaciones originales redundantes en el sistema Ax = 0, tendremos un sistema de ecuaciones
sin ecuaciones redundantes y cuyas soluciones forman el espacio nulo de la matriz A original. Si resolvemos el
sistema homogéneo tendremos una descripción paramétrica del conjunto solución, es decir, del subespacio dado.
Podemos caracterizar las matrices invertibles en términos de sus espacios nulo y columna.
Teorema.- Consideremos una matriz cuadrada de orden n.
(1) La matriz A tiene inversa si, y sólo si, Col (A) = Rn .
(2) La matriz A tiene inversa si, y sólo si, Nul (A) = {0}.

Cuando se consideran las transformaciones lineales sin hacer referencia a la matriz asociada, se suele utilizar la
siguiente terminologı́a:

Definición. Consideremos una aplicación lineal T : Rn −→ Rm .


(1) Se denomina núcleo de T y se denota por ker(T ) al conjunto (subespacio)

ker(T ) = {x ∈ Rn : T (x) = 0} .

(2) Se denomina conjunto o espacio imagen de T al conjunto de vectores de Rm que tienen anti-imagen, es decir,

Imagen(T ) = T (Rn ) = {T (x) : x ∈ Rm } = {y ∈ Rm : ∃x ∈ Rn , y = T (x)} .

Si consideramos la matriz A asociada a T , tenemos


ker(T ) = {x ∈ Rn : Ax = 0} = Nul (A)
Imagen(T ) = T (Rn ) = {Ax : x ∈ Rm } = {y ∈ Rm : ∃x ∈ Rn , y = Ax} =
= {y ∈ Rm : Ax = y es un S.C.} = Col (A).

Ejemplo.- Consideremos el espacio nulo de la matriz


 
−1 2 0 3
A= 3 0 1 −1  ,
1 4 1 5

es decir, estamos considerando el conjunto S de los vectores x ∈ R4 cuyas coordenadas (x1 , x2 , x3 , x4 ) verifican las
ecuaciones (implı́citas) 
−x1 + 2x2 + 3x4 = 0 
3x1 + x3 − x4 = 0 .

x1 + 4x2 + x3 + 5x4 = 0
Haciendo operaciones fila sobre la matriz A (que se corresponden con operaciones sobre las ecuaciones del sistema)
tenemos
     
−1 2 0 3 F2 + 3F1 −1 2 0 3 F3 − F2 −1 2 0 3
A =  3 0 1 −1  -  0 6 1 8  - U =  0 6 1 8 .
1 4 1 5 F3 + F1 0 6 1 8 0 0 0 0

82
De hecho, refiriéndonos a la matriz original tenemos que F3 (A) = F2 (A) + 2F1 (A). Equivalentemente, la tercera
ecuación del sistema original es combinación lineal de las dos primeras con lo cual si un vector es solución de las dos
primeras también lo es de la tercera. Resumiendo, tenemos que
   
−1 2 0 3 −1 2 0 3
S = Nul (A) = Nul = Nul (U ) = Nul
3 0 1 −1 0 6 1 8

con lo cual nuestro conjunto S de vectores está caracterizado por las ecuaciones (no redundantes)
 
 −x1 + 2x2 + 3x4 = 0 
−x1 + 2x2 + 3x4 = 0 o por 3x1 + x3 + x4 = 0 .
6x2 + x3 + 8x4 = 0 

Resolviendo el sistema U x = 0 tenemos


 
  Variables libres
-1 2 0 3 0  x3 y x4 . 
 0 6 1  Variables fijas  =⇒
8 0  =⇒  
0 0 0 0 0 x1 y x2 .

 x2 = 16 (−x3 − 8x4 )

x1 = 2x2 + 3x4 = 26 (−x3 − 8x4 ) + 3x4 = − 31 x3 + 31 x4

     1 
x1 − 31 3
 x2   − 61   4
 + x4  − 3

⇒ 
 x3  = x3 
  .
1   0 
x4 0 1

Por tanto,
  1  
 1
    

 −3 
 3 
 −2 1 

  −1    − 34
  −1   −4 
Nul (A) = Gen v1 =  6 , v2 =   = Gen 6v1 =  , 3v2 =  
  1   0    6   0 

 
 
 

0 1 0 3
  

− 31 1
3 −2 1
 −1 − 68
 = Col  −1 −4 .
  
= Col  6
 1 0   6 0 
0 1 0 3

Los vectores {v1 , v2 } forman una base de S = Nul (A). Los vectores de Nul (A) son los que pueden expresarse como
combinación lineal de v1 y v2 y, como consecuencia de la independencia lineal, cada vector de S sólo puede expresarse
de una única forma como combinación lineal de v1 y v2 . Los coeficientes que aparezcan en dicha combinación lineal
son las coordenadas del vector de S respecto a la base {v1 , v2 } (de S). El vector v = [−8 5 18 − 6] está en S y sus
coordenadas respecto a {v1 , v2 } son la solución de
 1 1

   
  −3 3 −8
λ  −1 −4 5 
v = λv1 + µv2 ≡  v  =  v1 v2  ≡  6 3 ,
µ  1 0 18 
0 1 −6

es decir, λ = 18, µ = −6 (v = 18v1 − 6v2 ).

Ejemplo.- Vamos a utilizar la misma matriz A del ejemplo anterior. El espacio columna de dicha matriz es, por
definición de espacio columna, el conjunto de vectores y que se pueden expresar como combinación lineal de las
columnas de A, es decir los vectores y (¡con 3 coordenadas!) que se pueden expresar mediante
         
y1 −1 2 0 3
y =  y2  = α 3  + β  0  + γ  1  + δ  −1 
y3 1 4 1 5

para ciertos α, β, γ, δ ∈ R. Esto es lo mismo que decir que el espacio columna está formado por los vectores y ∈ R3
para los que el sistema de ecuaciones Ax = y tiene solución. En dicho caso, cada solución del sistema Ax = y nos
darı́a una forma de expresar y como combinación lineal de las columnas de A. Obtengamos, para un vector genérico

83
y ∈ R3 las condiciones de compatibilidad del sistema Ax = y, reduciendo la matriz ampliada del sistema [A|y] a forma
escalonada. Haciendo las mismas operaciones fila que hemos hecho cuando hemos obtenido el espacio nulo tenemos
   
−1 2 0 3 y1 F2 + 3F1 −1 2 0 3 y1
[A|y] =  3 0 1 −1 y2  -  0 6 1 8 y2 + 3y1 
1 4 1 5 y3 F3 + F1 0 6 1 8 y3 + y1
 
F3 − F2 -1 2 0 3 y1
- U = 0 6 1 8 y2 + 3y1 .
0 0 0 0 y3 − y2 − 2y1

Por tanto, el sistema Ax = y es compatible (determinado o indeterminado) ⇐⇒ y3 − y2 − 2y1 = 0. Es decir, el espacio


columna de A está formado por los vectores y ∈ R3 cuyas coordenadas verifican la ecuación (lineal homogénea)
y3 − y2 − 2y1 = 0. Se trata, por tanto, de un plano (en R3 ) que pasa por el origen de coordenadas. Además, teniendo
la forma escalonada U que hemos obtenido, puesto que:

Las columnas 1 y 2 de U son linealmente independientes y


Las columnas 3 y 4 son combinación lineal de las columnas 1 y 2,

lo mismo sucede con las columnas correspondientes de la matriz A con lo cual, el espacio columna de A (generado por
las 4 columnas) coincide con el espacio generado por las columnas 1 y 2 de A (¡no de U !). Los vectores dados por las
columnas 1 y 2 de A forman una base de Col (A) puesto que son linealmente independientes y generan dicho espacio.
Si denotamos por v1 , v2 , v3 y v4 a los vectores columna de A, cada vector y ∈ Col (A) se puede expresar de infinitas
formas distintas como combinación lineal de v1 , v2 , v3 y v4 puesto que el sistema de ecuaciones Ax = y es compatible
(puesto que y ∈ Col (A)) indeterminado (puesto que hay 2 variables libres). Sin embargo, dicho vector y ∈ Col (A)
sólo puede expresarse de una única forma como combinación lineal de v1 y v2 puesto que el sistema de ecuaciones
   
  y1
 v1 v2  λ =  y2 
µ
y3
tendrá solución única. Para discutir, y resolver, este sistema basta con suprimir las columnas 3 y 4 de la reducción
que hemos hecho del sistema Ax = y con lo cual tenemos
   
−1 2 y1 -1 2 y1
 3 0 y2  -···  0 6 y2 + 3y1 .
1 4 y3 0 0 y3 − y2 − 2y1

La solución única (λ, µ) de este sistema (compatible cuando y ∈ R3 ) nos dará los coeficientes para los cuales se verifica

y = λv1 + µv2 .

Estos coeficientes (λ, µ) (únicos para cada vector y ∈ Col (A)) se denominan coordenadas de y respecto de la base
{v1 , v2 }. Por ejemplo, las coordenadas del vector
 
1
y= 1  (∈ Col (A) puesto que y3 − y2 − 2y1 = 3 − 1 − 2 = 0)
3

respecto a la base {v1 , v2 } de Col (A) vienen dadas por la solución del sistema
     
  1 -1 2 1    1

 v1 v2  λ =  1  −→  0 6 4  =⇒
λ
= 3
4 .
µ µ 6
3 0 0 0

Ejercicio resuelto
Dada la matriz  
0 1 1
 1 −1 −3 
A=
 −2 0
, a ∈ R,
4 
−1 2 a
encontrar, según los valores del parámetro a, unas ecuaciones implı́citas del espacio columna de A, Col(A). Para
a = 1, escribir razonadamente, si es que existe, una matriz C, 4 × 5, tal que Col(C) = Col(A).

84
Si llamamos vi a las columnas de A, A = [v1 |v2 |v3 ], entonces su espacio columna, Col(A) = Gen {v1 , v2 , v3 }, que
está contenido en R4 .
Dado un conjunto generador {v1 , v2 , v3 } de un subespacio E ⊂ R4 , encontrar las ecuaciones implı́citas de E es hallar
las condiciones que deben verificar las componentes de un vector de R4 , x = (x1 , x2 , x3 , x4 )T , para que pertenezca a
E, es decir, para que se pueda escribir como combinación lineal del conjunto generador, x = c1 v1 + c2 v2 + c3 v3 , es
decir, para que existan esos escalares ci , o lo que es equivalente, para que el sistema
(v1 |v2 |v3 )c = x, con c = (c1 , c2 , c3 )T
sea compatible. Para exigir esto construimos la matriz ampliada (v1 |v2 |v3 |x):
     
0 1 1 x1 1 −1 −3 x2 1 −1 −3 x2
 1 −1 −3 x2 
 F2 ↔ F1  0 1 1 x1   F3 + 2F1  0 1 1 x1
  
 
 −2 0 4 x3   −2 0 4 x F + F 0 −2 −2 x3 + 2x2 
- 3  4 1 
−1 2 a x4 −1 2 a x4 - 0 1 a − 3 x4 + x2
   
1 −1 −3 x2 1 −1 −3 x2
F3 − 2F2   0 1 1 x1  F4 ↔ F3  0 1
  1 x1 
,
F4 − F2  0 0 0 x3 + 2x2 + 2x1  - 0 0
 a − 4 x4 + x2 − x1 
- 0 0 a − 4 x4 + x2 − x1 0 0 0 x3 + 2x2 + 2x1
es decir, si a 6= 4 aparecen tres pivotes y el sistema es compatible cuando
2x1 + 2x2 + x3 = 0
(si a 6= 4, Col(A) ⊂ R4 tiene una sola ecuación implı́cita pues al ser las tres columnas linealmente independientes,
dim(Col(A)) = 3). Sin embargo, si a = 4, sólo aparecen dos pivotes (sólo hay dos columnas linealmente independientes,
con lo que dim(Col(A)) = 2 y ese subespacio tendrá dos ecuaciones implı́citas) y, por tanto, el sistema es compatible
cuando 
2x1 + 2x2 + x3 = 0,
x1 − x2 − x4 = 0,
que son unas ecuaciones implı́citas de Col(A) cuando a = 4.
La garantı́a de que el resultado al que hemos llegado es correcto se tiene comprobando que todos los vectores vi
verifican todas las ecuaciones implı́citas obtenidas (una en el caso a 6= 4 y dos cuando a = 4).
Nos piden después que, para a = 1, encontremos si es posible alguna matriz C, 4 × 5, tal que Col(C) = Col(A).
Es decir, C = [u1 |u2 |u3 |u4 |u5 ] y como los ui ∈ R4 , entonces Col(C) ⊂ R4 con lo que sı́ puede darse Col(C) = Col(A).
(Si C no tuviera 4 filas, entonces los ui ∈ / R4 y no existirı́a C tal que Col(C) = Col(A)).
Para escribir una matriz C, 4 × 5, cuyo espacio columna coincida con Col(A) basta con que sus cinco columnas
sean combinación lineal de v1 , v2 y v3 (columnas de A) y que tres de ellas sean linealmente independientes (pues las
tres columnas de A lo son para a = 1). Por ejemplo, nos sirven las matrices siguientes (por comodidad repetimos las
tres primeras columnas de A, aunque basta con que las cinco columnas verifiquen la ecuación implı́cita de Col(A),
2x1 + 2x2 + x3 = 0, y que haya tres linealmente independientes):
     
0 1 1 0 0 0 1 1 0 0 0 1 1 1 1
 1 −1 −3 0 0   1 −1 −3 1 1  ,  1 −1 −3 −1 −3  ,
 
 , 
 −2 0 4 0 0   −2 0 4 −2 −2   −2 0 4 0 4 
−1 2 1 0 0 −1 2 1 −1 −1 −1 2 1 2 1
   
0 1 1 0 3 0 1 1 0 0
 1 −1 −3 2 −3   1 −1 −3 1 1 
 ,   , ...
 −2 0 4 −4 0   −2 0 4 −2 −2 
−1 2 1 −2 6 −1 2 1 27 0
Observemos que para las matrices B1 = [v1 |v1 |v1 |v1 |v1 ], B2 = [v1 |v2 |v1 −v2 |0|2v1 −3v2 ], B3 = [v2 |v2 |v3 −v2 |v3 |4v2 −
5v3 ], se verifica Col(Bi ) ⊂ Col(A) pero no se da la igualdad Col(Bi ) = Col(A) (que es lo que nos pide el enunci-
ado; por tanto, tres columnas deben ser linealmente independientes) ya que dim(Col(B1 )) = 1, dim(Col(B2 )) =
dim(Col(B3 )) = 2, mientras que dim(Col(A)) = 3.

Ejercicio resuelto
Dada la matriz  
1 −1 1 1
B= 1 2 0 −1  , b ∈ R,
0 b −1 −2
encontrar, según los valores del parámetro b, un conjunto generador linealmente independiente del espacio nulo de
B, N ul(B).

85
El espacio nulo de B está formado por los vectores x ∈ R4 tales que Bx = 0. Nos piden que encontremos un conjunto
generador linealmente independiente (una base) de dicho espacio nulo, en función del parámetro b. Para ello basta con
resolver el sistema Bx = 0 (homogéneo, de tres ecuaciones y cuatro incógnitas):

     
1 −1 1 1 1 −1 1 1 1 −1 1 1
 1 2 0 −1  F2 − F1  0 3 −1 −2  F3 − 3b F2  0 3 −1 −2 .
0 b −1 −2 - 0 b −1 −2 - 0 0 b b
3 − 1 2( 3 − 1)

Entonces, cuando b = 3, la matriz que representa al sistema es


 
1 −1 1 1
 0 3 −1 −2 
0 0 0 0

con lo que tomando x3 , x4 como variables libres (al ser las columnas tercera y cuarta columnas no pivote) obtenemos
     
 x1 −2/3 −1/3
x3 , x4 ∈ R   x2 
 = x3  1/3  + x4  2/3  ,
   
x2 = 31 (x3 + 2x4 ) →x=  x3   1   0 
x1 = x2 − x3 − x4 = − 23 x3 − 31 x4

x4 0 1

con lo que        

 −2/3 −1/3  
 −2 −1 

  2/3   
1/3  1   2
N ul(B) = Gen 
  ,   = Gen  3 , 0
   

 1   0   



   
0 1 0 3
y una base de N ul(B), para b = 3, es {(−2, 1, 3, 0)T , (−1, 2, 0, 3)T }. Conviene comprobar que estos vectores verifican
el sistema Bx = 0.
Si b 6= 3, la matriz que representa el sistema (hemos dividido la tercera fila por 3b − 1 6= 0) es
 
1 −1 1 1
 0 3 −1 −2 
0 0 1 2

con lo que, tomando x4 como variable libre (al ser la cuarta columna no pivote), obtenemos
      
x4 ∈ R 
 x1 1 
 1 

   0 
x3 = −2x4  x2   0 
→x=  x3  = x4  −2
   → N ul(B) = Gen  
x2 = 31 (x3 + 2x4 ) = 0 

 

 −2 

  
x1 = x2 − x3 − x4 = x4 x4 1 1

y una base de N ul(B), para b 6= 3, es {(1, 0, −2, 1)T }. Conviene comprobar que este vector verifica el sistema Bx = 0.

Ejercicio resuelto  
1 2 1
Dada la matriz A = , escribir, si es posible, dos matrices cuadradas de orden 3 y dos matrices
−2 −4 −2
3 × 4 cuyo espacio columna coincida con el espacio nulo de A, N ul(A).

Vamos a calcular, en primer lugar el espacio nulo de A, N ul(A), es decir vamos a encontrar los vectores x tales que
Ax = 0. Puesto que A es una matriz 2 × 3, para que se pueda hacer el producto Ax, debe verificarse que x ∈ R3 . Ası́,
Ax = 0 nos proporciona las ecuaciones implı́citas de N ul(A):
    
  −2 −1 
x1 + 2x2 + x3 = 0
N ul(A) ≡ → N ul(A) = Gen v1 =  1  , v2 =  0  .
−2x1 − 4x2 − 2x3 = 0  
0 1

Por tanto, una base de N ul(A) es {v1 , v2 }. Para escribir matrices 3 × 3 cuyo espacio columna coincida con N ul(A)
basta con que sus tres columnas sean combinación lineal de v1 y v2 (o, equivalentemente, que verifiquen su ecuación
implı́cita x1 + 2x2 + x3 = 0) y que dos sean linealmente independientes:
         
−2 −1 0 −2 −1 −2 −2 −1 −1 −1 −2 −3 1 2 4
 1 0 0 , 1 0 1 , 1 0 0 , 0 1 1  ,  0 −1 0  , ...
0 1 0 0 1 0 0 1 1 1 0 1 −1 0 −4

86
Observemos que para la matriz B = [v1 |v1 |v1 ] se verifica Col(B) ⊂ N ul(A) pero no se da la igualdad Col(B) = N ul(A)
(que es lo que nos pide el enunciado). Por tanto, dos columnas deben ser linealmente independientes.
Si las matrices son 3 × 4, se aplica el mismo razonamiento sobre las cuatro columnas: todas deben ser combinación
lineal de v1 y v2 y, simultáneamente, dos deben ser linealmente independientes:
       
−2 −1 0 0 −2 −1 −2 −4 −2 −1 2 −7 −1 −2 −2 −2
 1 0 0 0 , 1 0 1 0 , 1 0 −1 0  ,  0 1 1 1  , ...
0 1 0 0 0 1 0 4 0 1 0 7 1 0 0 0

2. Bases de un subespacio.

Definición. Dado un subespacio S de Rn distinto del subespacio nulo S 6= {0}, se dice que un conjunto de vectores

{v1 , v2 , . . . , vr }

de S es una base de S si:

(a) {v1 , v2 , . . . , vr } es linealmente independiente,


(b) {v1 , v2 , . . . , vr } genera S,
S = Gen {v1 , v2 , . . . , vr } .

Las anteriores condiciones se pueden expresar de forma matricial: Si denotamos por A a la matriz cuyas columnas
son los vectores dados  
.. .. .
 . . · · · .. 
A =  v1 v2 . . . vr
 

 
.. .. .
. . · · · ..
las columnas de A forman una base de un subespacio vectorial S si:

(a) El sistema homogéneo Ax = 0 tiene solución única (condición equivalente a que los vectores sean linealmente
independientes) y
(b) S = Col (A), es decir S está formado por los vectores y ∈ Rm para los que el sistema de ecuaciones Ax = y es
compatible.

Ejemplo. Los vectores canónicos de Rn ,


      

 1 0 0  

  0   1   .. 

     . 
e1 =  ..  , e2 =  .. , . . . , en =  



 .   .  0 

 
0 0 1
forman una base de Rn . Los vectores

{e1 , e1 + e2 , · · · , e1 + e2 + · · · + en }

también forman una base de Rn .

Definición/Teorema. (Coordenadas respecto de una base) Dada una base {v1 , v2 , . . . , vr } de un subespacio vectorial
S, cada vector v de S se puede expresar de forma única como combinación lineal de los vectores de la base dada,

v = c1 v1 + c2 v2 + · · · + cr vr .

Los coeficientes que aparecen en dicha expresión (c1 , . . . , cr ) se denominan coordenadas de v respecto a la base dada
B = {v1 , v2 , . . . , vr } y se suelen denotar por  
c1
[v]B =  ... .
 

cr
Definición/Teorema. Consideremos un subespacio vectorial S de Rm distinto del subespacio nulo S 6= {0}. Se
verifican:

87
(a) S tiene base.
(b) Todas las bases de S tienen el mismo número de elementos.

Al número de elementos de una base de S se le denomina dimensión de S. Por definición, la dimensión del
subespacio formado por el vector nulo es cero.

Si, al igual que antes, denotamos por A a la matriz cuyas columnas son los vectores dados
 
.. .. ..
 . . · · · . 
A =  v1 v2 . . . vr ,
 
 
.. .. .
. . · · · ..

para cada vector v (vector columna) de S se verifica que

v = Ac

para algún vector de coeficientes c.

Teorema (El Teorema de la Base). Consideremos un subespacio vectorial S de Rm de dimensión p (p ≤ m) y un


conjunto de vectores {u1 , . . . , uq } ⊂ S.

(a) Si {u1 , . . . , uq } generan S, entonces q ≥ p. Además, q = p ⇐⇒ {u1 , . . . , uq } es una base de S.


(b) Si {u1 , . . . , uq } es linealmente independiente, entonces q ≤ p. Además, q = p ⇐⇒ {u1 , . . . , uq } es una base de S.

En particular, si tenemos un conjunto de n vectores de Rm :

Si n > m, los n vectores no pueden ser linealmente independientes,


Si m > n, los n vectores no pueden generar Rm .

3. Rango de una matriz.

Definición. Dada una matriz A, m × n, se llama rango de A a la dimensión de su espacio columna, es decir, a la
dimensión del subespacio vectorial (de Rm )

Col (A) = {combinaciones lineales de las columnas de A}


= {Ax : x ∈ Rn } = {y ∈ Rm : Ax = y es compatible} .

Teniendo en cuenta la relación entre la dimensión del espacio columna de A y la reducción de A a forma escalonada
tenemos que
rango(A) = número de pivotes de A.

Para una matriz cuadrada A de orden n, teniendo en cuenta los resultados sobre la existencia de la inversa
obtenemos que:

A tiene inversa ⇐⇒ rango(A) = n.

Teorema. Consideremos una matriz A, m × n. Se verifican:

(a) rango(A) = rango(AT ). Es decir, la dimensión del subespacio vectorial (de Rn ) generado por las m filas de A
coincide con la dimensión del espacio columna de A (subespacio vectorial de Rm generado por las n columnas
de A): 
dim (Col (A)) = dim Col (AT ) .
Es decir, si por un lado reducimos la matriz A a forma escalonada por filas (mediante operaciones fila) y por
otro reducimos a forma escalonada por columnas (mediante operaciones columna), el número de pivotes que se
tienen en ambas reducciones es el mismo.

88
(b) Teorema del rango.
dim (Col (A)) + dim (Nul (A)) = n.

(c) En términos de la reducción por filas de A a forma escalonada, el Teorema del rango se puede expresar mediante:
(número de pivotes) + (número de variables libres) = n.

Si consideramos la transformación lineal T : Rn −→ Rm , asociada a una matriz real A, m × n, el espacio imagen


de la transformación es el espacio columna de la matriz A,

Imagen(T ) = T (Rn ) = {T (x) ∈ Rm : x ∈ Rn } =


= {y ∈ Rm : y = T (x) para algún x ∈ Rn } = Col (A).

Se trata, por tanto, de un subespacio vectorial de Rm cuya dimensión es rango(A).

La imagen, mediante T , de cualquier subespacio vectorial S de Rn será un subespacio vectorial T (S) de Rm


contenido en el espacio imagen (columna) y por tanto la dimensión de dicho subespacio T (S) será menor o igual que
el rango de A (y menor o igual que la dimensión del subespacio S original).

Por otra parte, si consideramos un subespacio vectorial H de Rm , el conjunto de los vectores x ∈ Rn cuyos
transformados T (x) = Ax pertenecen a H forman un subespacio vectorial de Rn . En particular, si H es el subespacio
nulo de Rm , es decir, H = {0} ⊆ Rm entonces, obtenemos el núcleo de la transformación T o lo que es lo mismo, el
espacio nulo de A,
ker(T ) = {x ∈ Rn : T (x) = 0} = {x ∈ Rn : Ax = 0} = Nul (A).

Ejercicio resuelto
Considera la transformación lineal T que verifica
     
  1   0   1
1 1 1
 −1   −3   −4 
T  2  =   , T  1  =  , T  0  = 
 −1  .

 −1   0 
0 0 1
2 3 5

(a) Calcula la matriz A tal que T (x) = Ax para todo x ∈ R3 .


(b) Calcula unas ecuaciones implı́citas del espacio columna de A.
(c) Calcula un conjunto linealmente independiente de vectores S que genere el subespacio nulo de A.

(a) La aplicación lineal T : R3 → R4 tiene asociada, respecto de las bases canónicas, la matriz A en cuyas columnas
aparecen los transformados de la base canónica del espacio de partida, es decir, A = [T (e1 )|T (e2 )|T (e3 )].
Una posibilidad es plantear el sistema de ecuaciones vectoriales, donde, por comodidad llamamos a = (1, −1, −1, 2)T ,
b = (0, −3, 0, −3)T , c = (1, −4, −1, 5)T ,
 
T ([1, 2, 0]T ) = T (e1 + 2e2 ) = T (e1 ) + 2T (e2 ) = a  T (e2 ) = a − b = (1, 2, −1, −1)T 
T ([1, 1, 0]T ) = T (e1 + e2 ) = T (e1 ) + T (e2 ) = b −→ T (e1 ) = b − T (e2 ) = (−1, −5, 1, 4)T
T ([1, 0, 1]T ) = T (e1 + e3 ) = T (e1 ) + T (e3 ) = c T (e3 ) = c − T (e1 ) = (2, 1, −2, 1)T
 

que en este caso se resuelve trivialmente (en general, lo resolveremos mediante eliminación de Gauss).
Por tanto,  
−1 1 2
 −5 2 1 
A = [T (e1 )|T (e2 )|T (e3 )] = 
 1
.
−1 −2 
4 −1 1
Antes de seguir, podemos asegurarnos de que la matriz encontrada es la correcta comprobando que

A[1, 2, 0]T = (1, −1, −1, 2)T , A[1, 1, 0]T = (0, −3, 0, −3)T A[1, 0, 1]T = (1, −4, −1, 5)T .

Otra forma de encontrar A es escribir matricialmente las igualdades que nos dan:
       
  1   0   1   1 0 1
1  −1  1 1 1 1 1
 −3 

 0  =  −4  → A  2
   −1 −3 −4 
A 2  =   −1  , A 1 = 
    , A 1 0 = ,
0   −1   −1 0 −1 
0 0 1 0 0 1
2 3 5 2 3 5

89
de donde deducimos
     
1 0 1  −1 1 0 1   −1 1 2
 −1 −3 −4  1 1 1  −1 −3 −4  −1 1 1  −5 2 1 
 −1 0 −1  2 1 0 
A= =  2 −1 −2  = 
 1 −1 −2  .
 
 −1 0 −1 
0 0 1 0 0 1
2 3 5 2 3 5 4 −1 1
La matriz inversa que aparece la hemos calculado aplicando el método de Gauss–Jordan:
     
1 1 1 1 0 0 1 1 1 1 0 0 1 1 0 1 0 −1
 2 1 0 0 1 0  ∼  0 −1 −2 −2 1 0  ∼  0 −1 0 −2 1 2 
0 0 1 0 0 1 0 0 1 0 0 1 0 0 1 0 0 1
   
1 0 0 −1 1 1 1 0 0 −1 1 1
∼  0 −1 0 −2 1 2  ∼  0 1 0 2 −1 −2  .
0 0 1 0 0 1 0 0 1 0 0 1

(b) Puesto que      



 −1 1 2 

   1 
−5   2
Col(A) = Gen  1  ,  −1
  ,  ,
  −2 

 
 
4 −1 1
dado un conjunto generador {v1 , v2 , v3 } del subespacio Col(A) ⊂ R4 , encontrar las ecuaciones implı́citas de Col(A) es
hallar las condiciones que deben verificar las componentes de un vector de R4 , x = (x1 , x2 , x3 , x4 )T , para que pertenezca
a Col(A), es decir, para que se pueda escribir como combinación lineal del conjunto generador x = c1 v1 + c2 v2 + c3 v3 ,
es decir, para que existan esos escalares ci , o lo que es equivalente, para que el sistema

(v1 |v2 |v3 )c = x, con c = (c1 , c2 , c3 )T

sea compatible. Para exigir esto construimos la matriz ampliada (v1 |v2 |v3 |x):
     
−1 1 2 x1 −1 1 2 x1 −1 1 2 x1
 −5 2 1 x 2
  0 −3 −9 x2 − 5x1   0 −3 −9 x 2 − 5x1 
 1 −1 −2 x3  ∼  0
   ∼ ,
0 0 x3 + x1   0 0 0 x3 + x1 
4 −1 1 x4 0 3 9 x4 + 4x1 0 0 0 x4 − x1 + x2

es decir, las coordenadas de los vectores que pertenezcan a Col(A) deben verificar

x1 + x3 = 0, x1 − x2 − x4 = 0.

Merece la pena emplear unos segundos, para estar seguros de que el resultado obtenido es correcto, en comprobar que
los tres vectores que generan el espacio columna verifican todas (dos en nuestro caso) las ecuaciones obtenidas.
Observemos que dim(Col(A)) = 2 (pues la tercera columna de A es combinación lineal de las dos primeras) y al
estar ese subespacio en R4 lo definen dos ecuaciones implı́citas.

(c) El espacio nulo de A está formado por los vectores x ∈ R3 tales que Ax = 0. Al aplicar el método de eliminación
para resolverlo vamos a obtener el mismo resultado (en las tres primeras columnas) que el conseguido al buscar las
ecuaciones implı́citas en el apartado anterior:
     
−1 1 2 −1 1 2 −1 1 2 
 −5 2 1   ∼  0 −3 −9  ∼  0 −3 −9  → x1 = x2 + 2x3 = −3x3 + 2x3 = −x3 ,
   

 1 −1 −2   0 0 0   0 0 0  x2 = −3x3 ,
4 −1 1 0 3 9 0 0 0
 
 −1 
con lo que N ul(A) = Gen {v = (−1, −3, 1)T }, es decir, S =  −3  . Es fácil comprobar que v verifica Av = 0,
 
1
es decir, que pertenece a N ul(A). Además, sabiendo que, en nuestro caso, T está definida en R3 , la igualdad

dim(Col(A)) + dim(N ul(A)) = 3

nos permitı́a saber, antes de comenzar este apartado, que

dim(N ul(A)) = 3 − dim(Col(A)) = 3 − 2 = 1.

90
4. Bases de Rn . Cambios de base.

4.1. Bases de Rn .

Todas las bases de Rn están formadas por n vectores. Puesto que en ese caso tendremos n vectores linealmente
independientes con n coordenadas cada uno, la matriz cuadrada formada por dichos vectores como vectores columna
tiene inversa (y los vectores columna de dicha matriz inversa formarán otra base de Rn ). Por otra parte, también los
vectores fila de las dos matrices citadas serán una base de Rn . Para comprobar si n vectores forman una base de Rn
bastará con reducir a forma escalonada la matriz formada por dichos vectores como vectores columna y comprobar si
se obtienen n pivotes. Notemos que, el orden de los vectores no influye en si éstos forman base o no.

Ejemplo. Siendo e1 , e2 , . . . , en los vectores de la base canónica de Rn , los vectores

e1 , e1 + e2 , e1 + e2 + e3 , . . . , e1 + e2 + · · · + en

forman una base de Rn y para calcular las coordenadas de un vector genérico x ∈ Rn respecto de esta base basta con
resolver el sistema (con término independiente x)
    
1 1 ··· 1 α1 x1
 0 1 ··· 1  α2   x2 
    
 .. .. . . .  .. = .. .
 . . . ..  .   . 
0 0 ··· 1 αn xn

Resolvemos el sistema
 
  1 0 0 ··· 0 x1 − x2
1 1 · · · 1 x1  0 1 0 ··· 0 x2 − x3 
 0 1 · · · 1 x2  
.. .. .. ..


.. .. . . . ..
 
 −→  .. .. 
.
 . . . . . .
 . . . .. .   
 0 0 · · · 1 0 xn−1 − xn 
0 0 · · · 1 xn
0 0 ··· 0 1 xn

Por tanto, las coordenadas de x respecto a la base dada son


   
α1 x1 − x2
 α2   x2 − x3 
   
 ..   .. 
 . = . .
   
 αn−1   xn−1 − xn 
αn xn

4.2. Cambios de base.


Dada una base B = {v1 , v2 , . . . , vn } de Rn , las coordenadas de un vector x ∈ Rn respecto a dicha base son los
coeficientes (únicos) α1 , α2 , . . . , αn para los cuales se verifica
    
.. .. . α1 x1
 . . · · · ..  α2   x2 
α1 v1 + α2 v2 + · · · + αn vn = x ≡  v1 v2
 .. 
..
 
=x= ..

. vn  

.. .. .
 .   . 
. . · · · .. αn xn
 
x1

 x2 

con x =  ..  las coordenadas de x respecto de la base canónica.
 . 
xn
Dadas dos bases
U = {u1 , u2 , . . . , un } y B = {v1 , v2 , . . . , vn }
de Rn se trata de hallar la relación entre las coordenadas de un vector x ∈ Rn respecto de ambas bases. Hallemos
primero, la relación entre las coordenadas del vector x en la base U y la base canónica C. Las coordenadas de un vector

91
x ∈ Rn respecto a U vienen dadas por un vector [x]U que verifica que
   
x1 α1
 x2   α2 
   
x =  . , [x]U =  .  ⇔ x = α1 u1 + α2 u2 + · · · + αn un
 ..   .. 
xn αn
    
x1 .. .. . α1
  . . · · · ..
 x2  α2 

⇔ ..
 
 =  u1 .. 
..

. (∗)
u2 . un 
 .  
.. .. .
 . 
xn . . · · · .. αn
La matriz  
.. .. .
 . . · · · .. 
 .. 
 u1
 u2 . un 

.. .. .
. . · · · ..
que relaciona las coordenadas de un mismo vector x respecto a la base canónica con las coordenadas del mismo vector
x respecto a la base U se denomina matriz del cambio de base U −→ C de U a la base canónica C = {e1 , e2 , . . . , en }
y se denota por  
.. .. ..
 . . ··· . 
P
=  u1 u2 . . . un ,
 
x = [x]C = P [x]U
C←U  
.. .. .. C←U
. . ··· .
Puesto que la igualdad (∗) es equivalente a
   −1  
α1 .. .. .. x1
 α2   . . · · · .   x2   −1
P
 ..  =  u1 u2 . . . un   ..  ≡ [x]U =
     
[x]C
 .     .  C←U
.. .. .
αn . . · · · .. xn
 −1
P
la matriz es la matriz del cambio de base C → U con lo cual
C←U
 −1
P P
= .
U ←C C←U
De forma análoga, si consideramos ahora las bases de Rn ,
B = {v1 , v2 , . . . , vn } y U = {u1 , u2 , . . . , un }
podrı́amos obtener las matrices de cambio de base B −→ U y U −→ B de la misma forma que lo que acabamos de
hacer si conociéramos las coordenadas de los vectores de una base respecto a la otra. Si, en cambio, conocemos las
coordenadas de los vectores de ambas bases respecto, por ejemplo, a la base canónica, tenemos un planteamiento
similar.
Denotemos las coordenadas de un vector genérico x ∈ Rn respecto de ambas bases B y U mediante
   
α1 β1
[x]B =  ... , [x]U =  ... .
   

αn βn
Tenemos entonces que x = α1 v1 + · · · + αn vn = β1 u1 + · · · + βn un y expresando estas igualdades en forma matricial
tenemos que   
x1  α    β 
1 1
 ..    ..    .. 
x =  .  = v1 v2 · · · vn  .  = u1 u2 · · · un  . 
 
x3 αn βn
es decir, siendo B la matriz cuyas columnas son los vectores de la base B en la base canónica y siendo U la matriz
cuyas columnas son los vectores de la base U en la base canónica, se verifica que
x = B[x]B = U [x]U .

92
Por tanto,

[x]B = B −1 U [x]U =⇒ P = B −1 U,
B←U

[x]U = U −1 B[x]B =⇒ P = U −1 B.
U ←B

Ejemplos.

(1) Vamos a calcular las matrices de cambio de base entre la base canónica de R3 y la base
n o
T T T
B = v1 = [−2 1 0] , v2 = [1 − 2 3] , v3 = [−1 0 − 1] .

Siendo las coordenadas de un vector genérico x ∈ R3 respecto a B y respecto a la base canónica


   
α1 x1
[x]B =  α2 , x =  x2  ,
α3 x3

respectivamente, se verifica que


    
x1 α1
x = α1 v1 + α2 v2 + α3 v3 ≡  x2  =  v1 v2 v3  α2 .
x3 α3

Por tanto, la matriz    


−2 1 −1
P =  v1 v2 v3  =  1 −2 0 
0 3 −1
P
(cuyas columnas son las coordenadas de los vectores de la base B respecto a la base C es la matriz del
C←B
cambio de base B −→ C puesto que
x = [x]C = P [x]B , ∀x ∈ R3 .
Puesto que la inversa P −1 verifica
[x]B = P −1 [x]C , ∀x ∈ R3
dicha matriz es la del cambio de base C −→ B. Resumiendo,
   
−2 1 −1 2 −2 −2
1
P = P =  1 −2 0 , P = P −1 = −  1 2 −1 .
6
C←B 0 3 −1 B←C 3 6 3

(2) Calculemos las matrices de cambio de base entre las bases


      
 −2 1 −1 
B = v1 =  1  , v2 =  −2  , v3 =  0  y
 
0 3 −1
      
 1 −1 −1 
U = u1 =  2  , u2 =  −2  , u3 =  3  .
 
1 2 2
Denotemos las coordenadas de un vector genérico x ∈ R3 respecto de ambas bases B y U mediante
   
α1 β1
[x]B =  α2 , [x]U =  β2 .
α3 β3

Tenemos entonces que x = α1 v1 + α2 v2 + α3 v3 = β1 u1 + β2 u2 + β3 u3 . Escribiendo estas igualdades en forma


matricial        
x1 −2 1 −1 α1 1 −1 −1 β1
 x2  =  1 −2 0  α2  =  2 −2 3  β2 
x3 0 3 −1 α3 1 2 2 β3

93
obtenemos    −1   
α1 −2 1 −1 1 −1 −1 β1
 α2  =  1 −2 0   2 −2 3  β2 
α3 0 3 −1 1 2 2 β3
y, por tanto,
 −1     
−2 1 −1 1 −1 −1 2 −2 −2 1 −1 −1
P =  1 −2 0   2 −2 3  = − 16  1 2 −1  2 −2 3 
B←U 0 3 −1 1 2 2 3 6 3 1 2 2
 
4 2 12
1
= 6
−4 7 −3 .
−18 9 −21

Análogamente podrı́amos obtener


 −1  
−20 25 −15
1
P = P  = −5 22 −6 .
15
U ←B B←U 15 −12 6

Ejercicio resuelto       


2 −5 2 −3 −4
Dadas las bases de R , B1 = , y B2 = , , encontrar, con la ayuda
2 −1 1 1
de la matriz correspondiente, las coordenadas en la base B2 del vector v cuyas coordenadas en la base B1 son
[v]B1 = (2, 1)B1 .

Sabemos que dada una base de R2 , B1 = {v1 , v2 }, la matriz PB1 = [v1 |v2 ] relaciona las coordenadas que un vector v
tiene en la base canónica, [v]BC , y las que tiene en la base B1 , [v]B1 , de forma que

[v]BC = PB1 [v]B1 .

Análogamente, dada una base B2 = {u1 , u2 }, la matriz PB2 = [u1 |u2 ] relaciona las coordenadas que un vector v tiene
en la base canónica, [v]BC , y las que tiene en la base B2 , [v]B2 , de forma que

[v]BC = PB2 [v]B2 .

Combinando ambas expresiones obtenemos



[v]B2 = PB−1 PB1 [v]B1 = PB2 ←B1 [v]B1 ,
PB1 [v]B1 = PB2 [v]B2 → 2
−1
[v]B1 = PB1 PB2 [v]B2 = PB1 ←B2 [v]B2 .

Como el enunciado nos da [v]B1 , usaremos [v]B2 = PB−1


2
PB1 [v]B1 . Puesto que
        
−5 2 −3 −4 1 4 −5 2 3 −2
PB1 = , PB2 = → PB−1 PB1 = =
2 −1 1 1 2 −1 −3 2 −1 −1 1
   
3 −2 2 4
obtenemos [v]B2 = PB−1 PB1 [v]B1 = = .
2 −1 1 1 −1
Es fácil comprobar que el resultado es correcto. Teniendo en cuenta las coordenadas obtenidas en ambas bases
v = 2v1 + v2 = 4u1 − u2 con lo que debe ser cierto
       
−5 2 −3 −4
2 + =4 − .
2 −1 1 1

De aquı́ deducimos además (sin más que sumar los vectores) que, en la base canónica, v = (−8, 3)T .

Ejercicio resuelto
Consideremos una transformación lineal f : R3 −→ R3 .
Hallar la matriz A que representa a f cuando se trabaja con la base canónica B = {e1 , e2 , e3 }, sabiendo que A es
simétrica, que f (e1 ) = e2 + e3 , f (e1 + e2 + e3 ) = 2(e1 + e2 + e3 ) y que f (e2 ) pertenece al subespacio E de ecuación
x − z = 0.

94
La aplicación lineal dada f : R3 → R3 tiene asociada, respecto de las bases canónicas, la matriz A en cuyas columnas
aparecen los transformados de la base canónica del espacio de partida, es decir,
 
a1 b 1 c1
A = [f (e1 )|f (e2 )|f (e3 )] =  a2 b2 c2  .
a3 b 3 c3
 
a1 a2 a3
Al ser A simétrica, AT = A, debe ser b1 = a2 , c1 = a3 y c2 = b3 , con lo que A =  a2 b2 b3  . Puesto que
a3 b 3 c3
f (e1 ) = Ae1 = e2 + e3 = (0, 1, 1)T la matriz A será
 
0 1 1
A =  1 b2 b3  .
1 b 3 c3
Puesto que f (e2 ) pertenece al subespacio E de ecuación x − z = 0, los elementos de la segunda columna de A deben
verificar dicha ecuación, es decir, 1 − b3 = 0, con lo que b3 = 1 y tenemos
 
0 1 1
A =  1 b2 1 .
1 1 c3

Finalmente, usando f (e1 + e2 + e3 ) = f (e1 ) + f (e2 ) + f (e3 ) = (2, 2, 2)T , obtenemos que la tercera columna de A debe
verificar
f (e3 ) = (2, 2, 2)T − f (e1 ) − f (e2 ) = (2, 2, 2)T − (0, 1, 1)T − (1, b2 , 1)T = (1, 1 − b2 , 0)T .
Por tanto, debe ser (1, 1, c3 )T = (1, 1 − b2 , 0)T , con lo que b2 = 0, c3 = 0, y la matriz pedida es
 
0 1 1
A= 1 0 1 .
1 1 0
Es recomendable emplear un minuto en comprobar que la matriz calculada satisface todas las condiciones del enunciado,
es decir, que no nos hemos equivocado al calcularla.

5. Ejercicios.

Ejercicio 1. Determinar si los siguientes conjuntos son subespacios vectoriales de R2 y R3 , respectivamente:


  
x 2
(a) H = ∈ R : x ≥ 0, y ≥ 0 .
y
  
 x 
(b) H =  y  ∈ R3 : x + y = 0 .
 
z

Ejercicio 2. Sea E el conjunto de vectores de R4 cuyas dos primeras coordenadas suman cero.
(a) Probar que E es un subespacio vectorial de R4 .
(b) Calcular un sistema generador linealmente independiente para dicho subespacio.
(c) Hallar unas ecuaciones implı́citas del subespacio E.

Ejercicio 3. Probar que el espacio nulo y columna de una matriz A de orden m × n son subespacios vectoriales de
Rn y Rm respectivamente.

Ejercicio 4. Dados la matriz A y el vector b por


   
1 2 3
A= 1 1 , b =  2 .
0 2 2

95
(a) Determinar si el vector b pertenece al espacio columna de la matriz A.
(b) Obtener los vectores pertenecientes al espacio nulo de la matriz A.

Ejercicio 5. Sean las matrices A, B y el vector b dados por


  
1 0 1 1   3
 1 1 1 0
1 2 0  , B =  0
 0 
A=  1 1 2 , b = 
 1 .

0 1 1 
1 1 3
1 1 2 0 0

(a) Determinar unas ecuaciones implı́citas y paramétricas del espacio columna de las matrices A y B.
(b) Determinar unas ecuaciones implı́citas linealmente independientes y unas ecuaciones paramétricas del espacio
nulo de A y B.

(c) Hallar un sistema generador linealmente independiente para el espacio nulo y columna de dichas matrices.
(d) Razonar si el vector b pertenece al espacio nulo de la matriz A. ¿Y al espacio nulo de la matriz B?

Ejercicio 6. (a) Determinar el rango de las siguientes matrices:


   
0 1 −1 2 0 −1 1 −1 2
 0 2 1 2 −2   3 2 3 2 
A=  0
, B =  .
1 −1 2 0   2 1 2 2 
0 0 −1 −2 3 0 1 0 −2

(b) Sea A una matriz 20 × 15 cuyo rango es 12. Determinar la dimensión de los siguientes subespacios vectoriales,

Col (A), Nul (A), Col (AT ) y Nul (AT ).

Ejercicio 7. Siendo e1 , e2 , e3 los vectores de la base canónica de R3 y sabiendo que los vectores de la base B verifican
e1 = 2u1 + 2u2 + u3 , e2 = u1 − 2u2 + 2u3 , e3 = −2u1 + u2 + 2u3 , señalar la relación correcta entre las siguientes
(considerando a los vectores como vectores-columna)
 
2 2 1
(a) [e1 e2 e3 ] =  1 −2 2  [u1 u2 u3 ] .
−2 1 2
 −1  
2 2 1 2 1 −2
(b) [u1 u2 u3 ] =  1 −2 2  = 19  2 −2 1  .
−2 1 2 1 2 2
 −1  
2 1 −2 2 2 1
(c) [u1 u2 u3 ] =  2 −2 1  = 19  1 −2 2  .
1 2 2 −2 1 2

Ejercicio 8. Consideremos la base B = {(2, 1)T , (−3, −1)T } de R2 . R4 :


(a) Obtener, en dicha base, las ecuaciones implı́citas y las paramétricas de los subespacios que, en la base canónica,
vienen definidos mediante

E ≡ x1 + x2 = 0, F ≡ x1 − 2x2 = 0, G = Gen {(1, 1)T }, H = Gen {(3, 1)T }.

(b) Obtener, en la base canónica, las ecuaciones implı́citas y las paramétricas de los subespacios que, en la base B,
vienen definidos mediante

E ≡ y1 + 5y2 = 0, F ≡ y2 = 0, G = Gen {(1, 0)TB }, H = Gen {(2, 4)TB }.

96
Tema 5.- Ortogonalidad. Mı́nimos cuadrados
1. Producto escalar. Norma, distancia, ángulos y ortogonalidad.
2. El complemento ortogonal de un subespacio.
3. Bases ortonormales de un subespacio. Matrices ortogonales.
4. Proyección ortogonal sobre un subespacio. El teorema de la mejor aproximación.
5. El método de Gram-Schmidt.
6. Problemas de mı́nimos cuadrados. Ecuaciones normales de Gauss.
7. Ajuste de curvas, regresión lineal.
8. Ejercicios.

En este tema estudiamos la estructura métrica de los espacios Rn , es decir, las cuestiones relacionadas con distancias
y ángulos. Al contrario de lo que sucede con el estudio de la resolución de sistemas de ecuaciones lineales, el álgebra de
matrices, etc., el hecho de considerar aquı́ vectores reales es esencial. Para poder considerar conceptos métricos en Cn ,
es decir, con vectores de coordenadas complejas, habrı́a que considerar la definición apropiada (coherente) de producto
escalar de vectores complejos, que se suele denominar producto hermı́tico. Al aplicar dicha definición a vectores reales
nos darı́a la definición usual que vemos a continuación y que los alumnos conocen en dimensión 2 y en dimensión 3.
Finalmente, estudiaremos el problema del ajuste por mı́nimos cuadrados, de gran interés en las aplicaciones.

1. Producto escalar. Norma, distancia, ángulos y ortogonalidad.

Definición. (Producto escalar, norma, ortogonalidad) Consideremos dos vectores x, y ∈ Rn


Se denomina Producto escalar de dos vectores x, y ∈ Rn al número real
x · y = xT y = y T x = x1 y1 + x2 y2 + · · · + xn yn ∈ R.

Se denomina Norma de un vector x ∈ Rn al número real no-negativo


q
2 2 √
||x|| = |x1 | + · · · + |xn | = x · x ≥ 0.

Se denomina Distancia entre dos vectores x, y ∈ Rn al número real no-negativo


d(x, y) = ||x − y|| .

Ortogonalidad

(a) Se dice que dos vectores x, y ∈ Rn son ortogonales (x ⊥ y) si


x · y = 0.

(b) Se dice que un conjunto de vectores {v1 , . . . , vm } de Rn es un conjunto ortogonal si cada uno de los
vectores vk es ortogonal a todos los demás,
vk · vj = 0, j 6= k.

(c) Se dice que un conjunto de vectores {v1 , . . . , vm } de Rn es un conjunto ortonormal si es un conjunto


ortogonal y cada uno de los vectores vk tiene norma igual a 1,
vk · vj = 0, j 6= k; ||v1 || = · · · = ||vm || = 1.

Las propiedades del producto escalar, la norma, la distancia y la ortogonalidad son conocidas por el alumno
para vectores en R2 y en R3 . En los espacios Rn , las propiedades son esencialmente las mismas. Notemos que si
considerásemos dichos conceptos de forma independiente de un sistema de referencia, en cada uno de ellos aparecen
involucrados uno o dos vectores. Algunas de las propiedades del producto escalar pueden obtenerse directamente
del hecho de que el producto escalar de dos vectores puede expresarse como un producto matricial, vector-fila por
vector-columna
   
y1 x1
x · y = [x1 , x2 , . . . , xn ]  ...  = xT y = y T x = [y1 , y2 , . . . , yn ]  ...  = y · x.
   

yn xn

97
Propiedades. Sean x, y ∈ Rn , α ∈ R.

(1) ||x|| = 0 ⇐⇒ x = 0.
(2) ||αx|| = |α| ||x||.
(3) Desigualdad triangular: ||x + y|| ≤ ||x|| + ||y|| , (||x − y|| ≤ ||x|| + ||y||).
(1) Desigualdad de Cauchy-Schwartz: |x · y| ≤ ||x|| ||y||.
(4) Teorema de Pitágoras:
2 2 2
x ⊥ y ⇐⇒ ||x + y|| = ||x|| + ||y|| .

El ángulo (los ángulos) determinado por dos vectores no-nulos x, y ∈ Rn puede caracterizarse (definirse) mediante
la igualdad
x · y = ||x|| ||y|| cos(θ).

2. El complemento ortogonal de un subespacio.


Definición. (El complemento ortogonal de un subespacio) Dado un subespacio vectorial S de Rn se denomina com-
plemento ortogonal de S al conjunto
S ⊥ = {v ∈ Rn : v ⊥ u , ∀u ∈ S} .
Es decir, S ⊥ está formado por todos losnvectores
o que son ortogonales a todos los vectores de S. Por tanto, el com-
~ n
plemento ortogonal del subespacio nulo 0 es R puesto que cualquier vector es ortogonal al vector nulo. Por otra
parte, el complemento ortogonal del espacio total Rn es el subespacio nulo, puesto que el vector nulo (de Rn ) es el
único que es ortogonal a todos los vectores de Rn .

Ejemplos. A la hora de trabajar con el complemento ortogonal de un subespacio es conveniente tener presente cómo se
puede caracterizar, el complemento ortogonal de un subespacio, cuando el subespacio viene dado en forma paramétrica
o cuando viene dado en forma implı́cita. En R2 , un subespacio vectorial de dimensión 1 es una recta que pasa por el
origen y su complemento ortogonal será (como es natural) la recta que pasa por el origen (es un subespacio vectorial)
y es perpendicular a la recta dada. En R3 , un subespacio vectorial de dimensión 1 es una recta que pasa por el origen.
Su complemento ortogonal será el plano que pasa por el origen (es un subespacio vectorial) y es perpendicular a la
recta dada. Un subespacio vectorial de dimensión 2 es un plano que pasa por el origen. Su complemento ortogonal
será la recta que pasa por el origen (es un subespacio vectorial) y es perpendicular al plano dado.

(1) Consideremos un subespacio de dimensión 1 en R2 , dado en forma paramétrica, es decir, una recta que pasa por
el origen de coordenadas, dada por un vector dirección v1 . Por ejemplo, para v1 = [2, −1]T

x1 = 2α
S = Gen {v1 } = {αv1 : α ∈ R} ≡ ,
x2 = −α
T
su complemento ortogonal estará formado por los vectores v = [x1 , x2 ] ∈ R2 que son ortogonales a todos los
vectores de la forma αv1 , α ∈ R

v ∈ S ⊥ ⇔ (αv1 ) · v = 0, ∀α ∈ R ⇐⇒ v1 · v = 0 ⇔ 2x1 − x2 = 0.
T
Es decir, el complemento ortogonal S ⊥ está formado por todos los vectores v = [x1 , x2 ] ∈ R2 cuyas coordenadas
verifican la ecuación
2x1 − x2 = 0,
con lo cual S ⊥ es un subespacio vectorial (de dimensión 1) que viene dado en forma implı́cita y los coeficientes
de la ecuación implı́cita son las coordenadas del vector dirección de S. Si hubiéramos considerado otro vector
dirección de S (que será un múltiplo no-nulo de v1 ), habrı́amos obtenido una ecuación equivalente.
(2) Si consideramos un subespacio vectorial S de dimensión 1 en Rn , es decir una recta que pasa por el origen,
generada por un vector no-nulo v1 ∈ Rn
  

 a1  
S = Gen v1 =  ...  ,
 

 

an

98
T
su complemento ortogonal estará formado por los vectores v = [x1 , . . . , xn ] ∈ Rn cuyas coordenadas verifican
la ecuación
v1 · v = 0 ≡ a1 x1 + · · · + an xn = 0,
con lo cual S ⊥ es un subespacio vectorial (de dimensión n − 1) que viene dado mediante una ecuación implı́cita
y los coeficientes de dicha ecuación son las coordenadas del vector dirección de S.

Teorema. Dado un subespacio vectorial S de Rn se verifica:

(1) S ⊥ es un subespacio vectorial de Rn .


⊥
(2) S ⊥ = S.
(3) Se verifica la siguiente relación entre S y S ⊥ .
(a) S ∩ S ⊥ = {0}. Por tanto, todo vector v de Rn se puede expresar de forma única como suma
de un vector de S y un vector de S ⊥ . (Esto será consecuencia del teorema de
⊥ n
(b) S + S = R . la proyección ortogonal que veremos más adelante).
(5) Si S = Gen {v1 , . . . , vp }, entonces
v ∈ S ⊥ ⇐⇒ v ⊥ v1 , . . . , v ⊥ vp .

Ejemplo. Antes hemos obtenido el complemento ortogonal de un subespacio de Rn de dimensión 1, que era un
subespacio vectorial de dimensión n−1 (estos subespacios se suelen denominar hiperplanos). Las propiedades anteriores
permiten obtener fácilmente el complemento ortogonal de un subespacio, de dimensión n − 1, cuya ecuación implı́cita
es
W ≡ a1 x1 + · · · + an xn = 0.
Como hemos visto antes,  

 a1  
W = S ⊥,

siendo S = Gen  ..  ,
 . 

 
an
⊥
tenemos que W ⊥ = S ⊥ = S. Es decir, de manera inmediata obtenemos, W ⊥ , en forma paramétrica.

El hecho de expresar el complemento ortogonal de una u otra forma paramétrica/implı́cita dependiendo de como
venga expresado el subespacio vectorial:
S en forma paramétrica −→ S ⊥ en forma implı́cita
S en forma implı́cita −→ S ⊥ en forma paramétrica

queda reflejado con el siguiente Teorema.

Teorema. (Los cuatro subespacios asociados a una matriz) Sea A una matriz real m × n. Se verifica:

[Col (A)]⊥ = Nul (AT ), [Nul (A)]⊥ = Col (AT )

El espacio Col (AT ) se suele denominar espacio fila de la matriz A.

Notemos que en lo que se refiere a las dimensiones de los complementos ortogonales tenemos
  

dim [Col (A)] = dim Nul (AT ) = m − pivotes de AT = m − rango (A) = m − dim (Col (A)) .

Puesto que cualquier subespacio vectorial se puede expresar como el espacio columna de una matriz tenemos que para
cualquier subespacio vectorial S de Rm , se verifica

dim S ⊥ = m − dim (S).

99
3. Bases ortonormales de un subespacio. Matrices ortogonales.
Proposición. Si {u1 , u2 , . . . , ur } es un conjunto de vectores no-nulos ortogonales dos a dos, entonces son linealmente
independientes.
Demostración.- Si tenemos una combinación lineal de los vectores dados igual al vector nulo

α1 u1 + α2 u2 + · · · + αp up = ~0 (∗)

al multiplicar escalarmente por el vector u1 tenemos

(α1 u1 + α2 u2 + · · · + αp up ) · u1 = ~0 · u1 = 0.

Desarrollando el primer miembro de la igualdad


 
usando la
α1 u1 · u1 + α2 u2 · u1 + · · · + αp up · u1 =  condición de  =
ortogonalidad
 
puesto
= α1 ||u1 ||2 + α2 0 + · · · + αp 0 = 0 =⇒ α1 = 0.
que u1 6= 0

De manera análoga, al multiplicar escalarmente la igualdad (∗) por un vector

uk , k = 1, 2, . . . , p,

se obtiene  
puesto
α1 0 + α2 0 + · · · + αk ||uk ||2 + · · · + αn 0 = 0 ⇒ ⇒ αk = 0.
que uk 6= 0
Por tanto, la única combinación lineal que es igual al vector nulo es la combinación lineal idénticamente nula (todos los
coeficientes son nulos). Es decir, los vectores dados son linealmente independientes. 2

Proposición. Sea {u1 , u2 , . . . , ur } una base ortogonal de un subespacio S de Rn . Entonces:


u · uk
Las coordenadas de un vector u ∈ S respecto de dicha base vienen dadas por 2 , es decir, se verifica que
||uk ||
u · u1 u · ur
u= 2 u1 + ···+ 2 ur .
||u1 || ||ur ||

La expresión anterior se suele denominar desarrollo de Fourier de v respecto a la base {u1 , u2 , . . . , ur }.


Antes de pasar a estudiar la proyección ortogonal de un vector sobre un subespacio, vamos a considerar las
propiedades de las matrices cuyas columnas son ortonormales. En particular, vamos a considerar las matrices cuadradas
cuyas columnas son ortonormales. Cuando se tiene un conjunto ortogonal de vectores no-nulos y se normalizan (se
divide cada uno por su norma), obtenemos un conjunto ortonormal de vectores que formarán una base ortonormal del
subespacio vectorial que generan. En términos de computación numérica, las matrices cuyas columnas son ortonormales
juegan un papel importante por ser matrices que transmiten los errores de redondeo de manera controlada.

Proposición. Sea U = [u1 , . . . , un ] una matriz real m × n.

(1) U tiene columnas ortonormales ⇐⇒ U T U = I.


(2) Si U tiene columnas ortonormales, la transformación lineal asociada

U : x ∈ Rn −→ y = U x ∈ Rm

conserva ángulos y distancias, es decir

(a) ||U x|| = ||x|| , ∀x ∈ Rn .


(b) (U x) · (U y) = x · y, ∀x, y ∈ Rn y en particular,
(c) U x ⊥ U y ⇐⇒ x ⊥ y.

Un caso particularmente importante lo constituyen las matrices cuadradas con columnas ortonormales.

Definición. (Matriz ortogonal) Se denomina matriz ortogonal a toda matriz Q real cuadrada no-singular cuya
inversa coincide con su traspuesta, Q−1 = QT .

100
Proposición. Se verifica:

(1) Si Q es ortogonal =⇒ det(Q) = ±1.


(2) Q es ortogonal ⇐⇒ QT es ortogonal.
(3) Si Q1 y Q2 son ortogonales, entonces Q1 Q2 es ortogonal.

Proposición. Sea Q una matriz real cuadrada n × n. Son equivalentes:

(1) Q es una matriz ortogonal.


(2) Las n columnas de Q son ortonormales (y por tanto forman una base ortonormal de Rn ).
(3) Las n filas de Q son ortonormales (y por tanto forman una base ortonormal de Rn ).

4. Proyección ortogonal sobre un subespacio. El teorema de la mejor


aproximación.

Si consideramos el subespacio vectorial S, de dimensión uno (una recta), generado por un vector, u1 , no-nulo,
S = Gen {u1 }, la proyección ortogonal de un vector v ∈ Rn sobre S será el vector u = αu1 ∈ S que verifica que

v − u = v − αu1

es ortogonal a S, es decir, tenemos que determinar α con la condición que v − αu1 sea ortogonal a u1 ,
2 v·u1
(v − αu1 ) · u1 = v · u1 − α ||u1 || = 0 ⇐⇒ α = ||u1 ||2

v·u1
=⇒ u = proy S (v) = u .
||u1 ||2 1

Para un subespacio de dimensión arbitraria puede darse una expresión de la proyección ortogonal de un vector sobre
dicho subespacio cuando disponemos de una base ortogonal de dicho subespacio. Considerando una base ortonormal
puede darse una expresión cómoda de la matriz de la proyección ortogonal.

Teorema (de la descomposición ortogonal). Sea S un subespacio vectorial de Rn . Dado cualquier vector v ∈
Rn existe un único vector u ∈ S (llamado proyección ortogonal de v sobre S) tal que v − u ∈ S ⊥ . De hecho, si
{u1 , u2 , . . . , ur } es una base ortogonal de S, entonces la proyección ortogonal de v sobre S es
v · u1 v · ur
u := proy S (v) = 2 u1 + ···+ 2 ur ,
||u1 || ||ur ||

y la proyección ortogonal de v sobre S ⊥ es


w = v − u.

Notemos que:

Cada sumando de la expresión


v · u1 v · ur
2 u1 + ···+ 2 ur
||u1 || ||ur ||
nos da la proyección ortogonal del vector v sobre el subespacio generado por el correspondiente vector uk .
2 2
El vector u = proy S (v) verifica que ||u|| ≤ ||v|| .

Corolario. (Matriz de una proyección ortogonal) Sea S un subespacio vectorial de Rn .

(a) Si {u1 , u2 , . . . , ur } es una base ortonormal de S, la proyeción ortogonal de un vector v ∈ Rn sobre S es

u := proy S (v) = (v · u1 ) u1 + · · · + (v · ur ) ur .

101
(b) Siendo U una matriz cuyas columnas forman una base ortonormal de S, la matriz de la proyección ortogonal
sobre S es PS = U U T , es decir
proy S (v) = U U T v, ∀v ∈ Rn .

Aunque puedan considerarse distintas matrices U como en el enunciado, la matriz PS = U U T que representa
a la proyección ortogonal, respecto a la base canónica, es única. Las propiedades caracterı́sticas de las matrices de
proyección ortogonal son
2
PS2 = PS , U U T = U (U T U )U T = U IU T = U U T , y
T
PS es simétrica, U U T = (U T )T U T = U U T .

Teorema (de la mejor aproximación). Sea S un subespacio vectorial de Rn y consideremos un vector x ∈ Rn y


un vector y ∈ S. Son equivalentes:
(a) y es la proyección ortogonal de x sobre S,
S⊥ es decir,

y ∈ S, x − y ∈ S⊥.
x

(b) y es la mejor aproximación de x desde S,


es decir,

y y ∈ S, ||x − y|| ≤ ||x − w|| para todo w ∈ S.


O
Sea y = proy S (x) y sea w ∈ S. Puesto que
w
S
x−w = (x−y)+(y−w), x−y ∈ S ⊥ , y−w ∈ S,

aplicando el Teorema de Pitágoras tenemos

||x − w||2 = ||x − y||2 + ||y − w||2 ≥ ||x − y||2 .

5. El método de Gram-Schmidt.
En el Tema 4 hemos visto cómo obtener una base de un subespacio vectorial a partir de un conjunto de vectores
que genera el subespacio vectorial. En los epı́grafes anteriores hemos visto que el cálculo de las coordenadas de un
vector respecto de una base ortogonal es muy simple (desarrollo de Fourier) y que éstas permiten dar la expresión
de la proyección ortogonal sobre el subespacio que generan dichos vectores. El método de ortogonalización de Gram-
Schmidt, que vamos a describir, permite construir de manera progresiva una base ortogonal de un subespacio vectorial
a partir de una base de dicho subespacio e incluso de un conjunto de vectores que genere el subespacio.
Partiendo de una base {v1 , v2 , . . . , vp } de un subespacio S, el método consiste en generar uno a uno vectores que
son ortogonales a los construidos. Denotamos por S1 , S2 , . . . , los subespacios vectoriales definidos por

S1 = Gen {v1 } , S2 = Gen {v1 , v2 } , . . . , Sp = Gen {v1 , v2 , . . . , vp } = S.

El método de Gram-Schmidt consiste en generar los vectores:

u1 = v1 ∈ S1 ,
u2 = v2 − proy S1 (v2 ) ∈ S2 , es decir, u2 es el único vector de la forma u2 = v2 + αu1 que es ortogonal a u1 ,
u3 = v3 − proy S2 (v3 ) ∈ S3 , es decir, u3 es el único vector de la forma u3 = v3 + αu1 + βu2 que es ortogonal a
u1 y a u2 ,
...

Notemos que, puesto que los vectores {v1 , v2 , . . . , vp } son linealmente independientes, necesariamente los subespacios

S1 ⊂ S2 ⊂ · · · ⊂ Sp = S

102
son todos distintos (dim (Sk ) = k, k = 1, 2, . . . , p), los vectores u1 , u2 , . . . , up son todos no-nulos y linealmente inde-
pendientes y se verifica que
S1 = Gen {v1 } = Gen {u1 },
S2 = Gen {v1 , v2 } = Gen {u1 , u2 } ,
S3 = Gen {v1 , v2 , v3 } = Gen {u1 , u2 , v3 } = Gen {u1 , u2 , u3 } ,
.. ..
. .
Sp = Gen {v1 , . . . , vp } = . . . = Gen {u1 , · · · , up } .

Teorema (Método de ortogonalización de Gram-Schmidt). Consideremos una base {v1 , v2 , . . . , vp } de un


subespacio vectorial S de Rn . Entonces, los siguientes vectores están bien definidos
u1 = v1

v2 · u1
u2 = v2 − 2 u1
||u1 ||
v3 · u1 v3 · u2
u3 = v3 − 2 u1 − u2
||u1 || ||u2 ||2
..
.
vp · u1 vp · up−1
up = vp − 2 u1 − · · · 2 up−1
||u1 || ||up−1 ||
y son no-nulos y ortogonales dos a dos.
(a) {u1 , u2 , . . . , up } es una base ortogonal de S = Gen {v1 , v2 , . . . , vp }.
(b) Para cada k = 1, . . . , p, {u1 , u2 , . . . , uk } es una base ortogonal de Sk = Gen {v1 , v2 , . . . , vk }.

Observaciones.
(a) Si el objetivo es obtener una base ortonormal de S, una vez que se ha obtenido una base ortogonal basta normalizar
los vectores obtenidos.
(b) En cada paso del método de Gram-Schmidt que acabamos de describir podrı́amos multiplicar (o dividir) el vector
obtenido por un coeficiente no-nulo y seguir los cálculos con dicho vector.
(c) Si el vector vk es combinación lineal de los anteriores, v1 , v2 , ..., vk−1 , al aplicar el método de Gram-Schmidt
obtenemos uk = 0. Es decir, el método de Gram-Schmidt devuelve el vector nulo cuando se aplica a un conjunto
de vectores linealmente dependientes.

Ejercicio resuelto
Consideremos la matriz  
1 0 b a
 0 1 a b 
A=
 1
, a, b ∈ R.
0 b a 
0 1 a b
Si a = 0 y b = 1, la matriz B = 21 A es la matriz de la proyección ortogonal sobre un cierto subespacio S ⊂ R4 .
(a) Encontrar una base ortonormal del subespacio S.
(b) Calcular la proyección ortogonal del vector (1, 1, 1, 1)T sobre S ⊥ .
Si a = 0 y b = 1 la matriz B es  
1 0 1 0
1 1 0 1 0 1 
B= A=  .
2 2 1
 0 1 0 
0 1 0 1
(a) Nos dicen que B es la matriz PS de la proyección ortogonal sobre un cierto subespacio S ⊂ R4 , es decir, que la
proyección ortogonal de cualquier vector x ∈ R4 sobre S es Bx. Los vectores v que pertenecen a S son aquéllos que
coinciden con su proyección ortogonal sobre S, es decir, los que verifican Bv = v. Resolviendo este sistema
         
1 0 1 0 v1 v1 −1 0 1 0 v1 0 
1 0 1 0 1   v2  =  v2  → 1  0 −1 0
     1   v2  =  0  →
    v1 − v3 = 0,
2  1 0 1 0   v3   v3  2 1 0 −1 0   v3   0  v2 − v4 = 0,
0 1 0 1 v4 v4 0 1 0 −1 v4 0

103
obtenemos         
1 0 
 1 0 
 0   
 1   0
 , u2 =  1  .
 
v = α
 1 +β
   , α, β ∈ R → S = Gen u1 = 
0  

 1   0 

 
0 1 0 1
Como la base encontrada ya es ortogonal (u1 · u2 = 0), basta con dividir por la norma de cada vector para encontrar
una base ortonormal de S:     

 1 0  
 1   1  1 
0
√   1
, √   .


 2  2  0 

0 1
(b) Para calcular la proyección ortogonal del vector w = (1, 1, 1, 1)T sobre S ⊥ , usamos que la matriz de la proyección
ortogonal sobre S ⊥ , PS ⊥ , vale
     
1 0 0 0 1 0 1 0 1 0 −1 0
− 1  = 1
 0 1 0 0   0 1 0 1   0 1 0 −1 
PS ⊥ = I − PS =   0 0 1

0  2 1 0 1 0  2 −1 0 1 0 
0 0 0 1 0 1 0 1 0 −1 0 1

con lo que     
1 0 −1 0 1 0
1 0 1 0 −1  1   0 
P royS ⊥ w = PS ⊥ w =  
  0 ,
= 
2  −1 0 1 0  1
0 −1 0 1 1 0
resultado lógico ya que w ∈ S, pues verifica sus ecuaciones implı́citas (halladas en el apartado anterior), x1 − x3 = 0,
x2 − x4 = 0 (en particular, podemos ver que w = u1 + u2 ).

Ejercicio resuelto
Dados el subespacio E de R4 y la matriz A
      


 1 0 0  a1 b 1
  0   1 
 , u3 =  0  ,
   a2 2 
E = Gen u1 =    ,u = 
 a3 b 2  .
A= 

 0  2  0   1 

 
1 2 1 −2 b3

(a) Encontrar la matriz de la proyección ortogonal sobre E.


(b) Calcular A sabiendo que Col(A) está contenido en E ⊥ .

(a) Para calcular la matriz de la proyección ortogonal PE sobre un subespacio E necesitamos una base ortonormal
de E. Pero teniendo en cuenta que PE + PE ⊥ = I, puede ser más fácil calcular primero PE ⊥ a partir de una base
ortonormal de E ⊥ . Por tanto, lo más conveniente es trabajar con el espacio que tenga menor dimensión entre E y E ⊥ .
Por un lado, dim(E) = 3 pues los tres vectores que lo generan son linealmente independientes
       
1 0 0 1 0 0 1 0 0 1 0 0
 0 1 0   0 1 0   0 1 0   0 1 0 
 0 0 1  ∼  0 0 1  ∼  0 0 1  ∼  0 0 1 .
       

1 2 1 0 2 1 0 0 1 0 0 0

De esta forma, al estar en R4 , dim(E ⊥ ) = 4 − dim(E) = 4 − 3 = 1, con lo que es trivial encontrar una base ortonormal
de E ⊥ y muy tedioso hallarla para E.
Para trabajar con E ⊥ podemos escribir sus ecuaciones implı́citas (a partir de un conjunto generador de E; si se
trata de una base de E, entonces tenemos garantı́a de que no nos sobra ninguna ecuación en ese conjunto de ecuaciones
implı́citas):   
  x4 ∈ R  1 
 x1 + x4 = 0 
 
 

⊥ x1 = −x 4 ⊥ 2 
E ≡ x2 + 2x4 = 0 −→ −→ E = Gen    .
  x2 = −2x4  1 
x3 + x4 = 0 
 
 

x3 = −x4 −1
Otra forma de encontrar una base de E ⊥ es a partir de las ecuaciones implı́citas de E, y éstas son fáciles de calcular

104
(repetimos la primera eliminación que hicimos para ver la dimensión de E, añadiendo una cuarta columna):
 
      1 0 0 x1
1 0 0 x1 1 0 0 x1 1 0 0 x1
  0 1 0 x2
 
 0 1 0 x2   0 1 0 x2   0 1 0 x2 
 ∼ ∼ ∼ 0 0 1 x3 ,
 0 0 1 x3   0 0 1 x3   0 0 1 x3   
 0 0 0 x4 − x1 
1 2 1 x4 0 2 1 x4 − x1 0 0 1 x4 − x1 − 2x2
−2x2 − x3

de donde deducimos que x1 + 2x2 + x3 − x4 = 0 es una ecuación implı́cita de E (es recomendable emplear unos
segundos en comprobar que todos los vectores que generan E satisfacen todas las ecuaciones implı́citas obtenidas;
en nuestro caso, que los tres vectores verifican la ecuación). Observemos que obtenemos una sola ecuación implı́cita
pues E tiene dimensión 3 y es un subespacio de R4 . A partir de dicha ecuación implı́cita de E deducimos que
E ⊥ = Gen{(1, 2, 1, −1)T }.
La ventaja de trabajar con E ⊥ es que la base obtenida ya es ortogonal (al tener un único vector) y, por tanto, una
base ortonormal es BE ⊥ = {v1 = √17 (1, 2, 1, −1)T }. Construyendo la matriz U = [v1 ] podemos ya calcular la matriz
de la proyección ortogonal sobre E ⊥ que viene dada por
   
1 1 2 1 −1
1  2   √1
  1 2 4 2 −2 
PE ⊥ = U U T = √  1 2 1 −1 =  .
7  1  7 7  1 2 1 −1 
−1 −1 −2 −1 1

Es muy fácil obtener entonces la matriz de la proyección ortogonal sobre E


 
6 −2 −1 1
1 −2 3 −2 2 
PE = I − PE ⊥ =  .
7  −1 −2 6 1 
1 2 1 6

Para estar seguros de que las matrices encontradas son las correctas es recomendable comprobar que, al proyectar cada
vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector de la base del subespacio
ortogonal obtenemos el vector nulo. Además, hay dos comprobaciones inmediatas que si no las satisface una matriz
de proyección seguro que está mal calculada: es siempre una matriz cuadrada, en este caso al estar el subespacio en
R4 es 4 × 4 y debe ser simétrica al ser (U U T )T = (U T )T U T = U U T .
Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los
cálculos) para calcular PE consiste en buscar una base de E, {z1 , z2 , z3 }, aplicarle el método de Gram–Schmidt para
conseguir una base ortogonal, {t1 , t2 , t3 }, dividir por las normas de los vectores para conseguir una base ortonormal y
construir la matriz  
t1 t2 t3
U= ,
||t1 || ||t2 || ||t3 ||
con lo que, finalmente, PE = U U T .

(b) Si Col(A) está contenido en E ⊥ , quiere decir que cada columna de A se puede escribir como combinación lineal
de los vectores de cualquier base de E ⊥ . Como una base de E ⊥ es {(1, 2, 1, −1)T }, debe verificarse
         
a1 1 
 α = 2, b1 1 
 β = 1,
 a2   2   
a 1 = 2,  2   2  b 1 = 1,
 a3  = α  1  →  a2 = 4, ;  b2  = β  1  →  b2 = 1,
       

 

−2 −1 a3 = 2, b3 −1 b3 = −1,
   
a1 b1 2 1
 a2 2 
= 4 2 

con lo que la matriz A buscada resulta ser A = 
 .
a3 b2   2 1 
−2 b3 −2 −1
Un planteamiento equivalente consiste en exigir que la matriz siguiente tenga rango uno
 
     a2 − 2a1 = 0,





a1 = 2,
1 a1 b 1 1 a1 b1 

 a 3 − a 1 = 0, 

 a2 = 4,
 2  
a 2 2   0 a2 − 2a1 2 − 2b1 
 a1 − 2 = 0, a3 = 2,
r
 1
 = r = 1 −→ −→
a3 b 2   0 a3 − a1 b2 − b1  
 2 − 2b1 = 0, 
 b1 = 1,
 
−1 −2 b3 0 a1 − 2 b3 + b1 

 b 2 − b 1 = 0, 

 b2 = 1,
 
b3 + b1 = 0, b3 = −1.

105
Otra posibilidad es exigir que las columnas de A verifiquen las tres ecuaciones implı́citas de E ⊥ obtenidas en el primer
apartado.
Ejercicio resuelto
Consideremos el subespacio E de R3 definido mediante x − z = 0 y la aplicación lineal f : R3 −→ R3 representada
(en la base canónica de R3 ) por la matriz
 
3 −2 1
A =  0 −1 2 .
2 −1 0

(a) Hallar la proyección ortogonal del vector (−1, 1, 1)T sobre el subespacio f (E).
(b) Encontrar la matriz de la proyección ortogonal sobre el subespacio [f (E)]⊥ .

(a) A partir de las ecuaciones implı́citas de E, x − z = 0, es inmediato deducir (resolviendo la ecuación que define a
E) que:     
 1 0 
E = Gen v1 =  0  , v2 =  1  .
 
1 0
Si x es un vector de E, x ∈ E, entonces se podrá escribir como x = α1 v1 + α2 v2 y su transformado, mediante la
transformación lineal f , será f (x) = f (α1 v1 + α2 v2 ) = α1 f (v1 ) + α2 f (v2 ) es decir, que si E = Gen {v1 , v2 } entonces,
f (E) = Gen {f (v1 ), f (v2 )}. Calculamos pues
    
3 −2 1 1 4
f (v1 ) = Av1 =  0 −1 2   0  =  2  ,
2 −1 0 1 2
    
3 −2 1 0 −2
f (v2 ) = Av2 =  0 −1 2   1  =  −1  ,
2 −1 0 0 −1

con lo que f (E) = Gen {(4, 2, 2)T , (−2, −1, −1)T } = Gen {w = (2, 1, 1)T }.
Puesto que dim(f (E)) = 1 y se trata de un subespacio de R3 , entonces dim([f (E)]⊥ ) = 2, con lo que es más fácil
proyectar sobre f (E) que sobre [f (E)]⊥ .
Cuidado, no hay que confundir [f (E)]⊥ con f (E ⊥ ). Este último viene generado por f [(1, 0, −1)T ] = (2, −2, 2)T , ya
que E ⊥ = Gen {(1, 0, −1)T }, mientras que una ecuación implı́cita que define [f (E)]⊥ es 2x + y + z = 0 y, por tanto,
resolviendo esta ecuación, [f (E)]⊥ = Gen {u1 = (1, −2, 0)T , u2 = (0, −1, 1)T }.
Para proyectar sobre un subespacio necesitamos conocer una base ortogonal suya. Puesto que una base de f (E) es
w = (2, 1, 1)T (que es ortogonal al estar formada por un único vector) ya podemos proyectar el vector u = (−1, 1, 1)T
sobre f (E)  
0
u·w 0
P royf (E) u = w = w =  0 .
w·w 6
0
Este resultado indica que el vector u que hemos proyectado sobre f (E) pertenece a [f (E)]⊥ .
Si preferimos proyectar mediante la matriz de la proyección Pf (E) , la calculamos construyendo U = (w/||w||) de
forma que    
√ 2 √ 4 2 2
6  6  1
Pf (E) = U U T = 1 2 1 1 =  2 1 1 .
6 6 6
1 2 1 1
Conviene emplear unos segundos en comprobar que la matriz Pf (E) calculada es correcta (hay dos comprobaciones
inmediatas que si no las satisface seguro que está mal: es siempre una matriz cuadrada, en este caso al estar el
subespacio en R3 es 3 × 3; además debe ser simétrica al ser (U U T )T = (U T )T U T = U U T ). Para tener garantı́a de que
está bien calculada, vemos que Pf (E) w = w (como la proyección de cualquier vector de f (E) sobre f (E) es el propio
vector, basta con comprobarlo con todos los vectores de su base) y que Pf (E) u1 = Pf (E) u2 = 0 (como la proyección de
cualquier vector de [f (E)]⊥ sobre f (E) es el vector nulo, lo verificamos con todos los vectores de la base de [f (E)]⊥ ).
De esta forma     
4 2 2 −1 0
1
P royf (E) u = Pf (E) u =  2 1 1   1  =  0  .
6
2 1 1 1 0

106
(b) Por la consideración de las dimensiones f (E) y de [f (E)]⊥ , la manera más fácil de calcular P[f (E)]⊥ es teniendo
en cuenta que Pf (E) + P[f (E)]⊥ = I. Puesto que ya hemos calculado Pf (E) , es inmediato que
     
1 0 0 4 2 2 2 −2 −2
1 1
P[f (E)]⊥ = I − Pf (E) = 0 1 0 −  2 1 1  =  −2 5 −1  .
6 6
0 0 1 2 1 1 −2 −1 5

Veamos que si no recurrimos al subespacio ortogonal, es decir, si trabajamos directamente con [f (E)]⊥ los cálculos
serán más engorrosos. Para calcular la matriz de la proyección necesitamos una base ortonormal del subespacio. Como
una ecuación implı́cita de [f (E)]⊥ es 2x + y + z = 0, resolviendo esta ecuación, obtenemos una base B[f (E)]⊥ = {u1 =
(1, −2, 0)T , u2 = (0, −1, 1)T }. Para obtener una base ortogonal vamos a aplicar el método de Gram–Schmidt a esos
dos vectores
       
1 0 1 −2/5
u2 · w1 2
w1 = u1 =  −2  ; w2 = u2 − w1 =  −1  −  −2  =  −1/5  .
w1 · w1 5
0 1 0 1

Conviene comprobar, para detectar posibles errores, que w1 y w2 son ortogonales, es decir, que w1 · w2 = 0.
Por tanto, una base ortogonal de [f (E)]⊥ viene dada por {w1 , w2 }. Por comodidad, en vez de w2 podemos tomar
un múltiplo suyo para evitar la aparición de fracciones, obteniendo la base ortogonal

{w1 = (1, −2, 0)T , w2′ = (2, 1, −5)T }.


n o
w1 w2′
Dividiendo por su norma conseguimos una base ortonormal de [f (E)]⊥ , B[f (E)]⊥ = ||w1 || , ||w2′ || , a partir de la cual
 ′ 
w1 w2
construimos la matriz U = ||w ′
1 || ||w ||
con lo que
2

 √ √   
5 30 √ √ !
5 2 −2 −2
5√ √15 −√2 5 5 0 1
P[f (E)]⊥ = U U T = 
 2 5 30  √5
− 5 30  30 30

30
=  −2 5 −1  .
√ − 6
0 − 630 15 30 6 −2 −1 5

Observemos que una alternativa a aplicar el método de Gram-Schmidt es buscar con cuidado una base ortogonal
de [f (E)]⊥ . Como su ecuación implı́cita es 2x + y + z = 0, elegimos un primer vector cualquiera (cuanto más sencillo
mejor, pues en la solución aparecen dos parámetros) que verifique esa ecuación, por ejemplo, z1 = (1, −2, 0)T . Ahora
un segundo vector, z2 = (a, b, c)T , lo determinamos exigiendo que verifique la ecuación anterior y que sea perpendicular
a z1 , es decir, debe verificar 2a + b + c = 0, a − 2b = 0. Elegimos un vector cualquiera (en la solución aparece un
parámetro) que verifique este sistema, por ejemplo, z2 = (2, 1, −5)T . La base ortogonal encontrada es {z1 , z2 }.

Ejercicio resuelto
Hallar la proyección ortogonal del vector (3, −4, 5)T sobre el subespacio f (E) siendo f la aplicación lineal dada
por la matriz  
1 0 1
A =  −1 1 0 
0 1 −1
y E el subespacio de R3 dado por x − y − z = 0.
A partir de las ecuaciones implı́citas de E, x − y − z = 0, es inmediato deducir (resolviendo la ecuación que define a
E) que:     
 1 1 
E = Gen v1 =  1  , v2 =  0  .
 
0 1
Si x es un vector de E, x ∈ E, entonces se podrá escribir como x = α1 v1 + α2 v2 y su transformado, mediante la
transformación lineal f , será f (x) = f (α1 v1 + α2 v2 ) = α1 f (v1 ) + α2 f (v2 ) es decir, que si E = Gen {v1 , v2 } entonces,
f (E) = Gen {f (v1 ), f (v2 )}. Calculamos pues
    
1 0 1 1 1
f (v1 ) = Av1 =  −1 1 0   1  =  0  ,
0 1 −1 0 1
    
1 0 1 1 2
f (v2 ) = Av2 =  −1 1 0   0  =  −1  .
0 1 −1 1 −1

107
Puesto que dim(f (E)) = 2 (pues f (v1 ) y f (v2 ) son linealmente independientes) y estamos en R3 entonces dim([f (E)]⊥ ) =
1, con lo que es más fácil proyectar sobre [f (E)]⊥ . Cuidado, no hay que confundir [f (E)]⊥ con f (E ⊥ ). Este último
viene generado por f [(1, −1, −1)T ] = (0, −2, 0)T , ya que E ⊥ = Gen {(1, −1, −1)T }.
Si hallamos las ecuaciones implı́citas de f (E) (debe ser una ecuación, pues es un subespacio de dimensión 2 en R3 )
     
1 2 x 1 2 x 1 2 x
 0 −1 y  ∼  0 −1 y  ∼  0 −1 y  −→ f (E) ≡ x + 3y − z = 0,
1 −1 z 0 −3 z − x 0 0 z − x − 3y

podemos deducir inmediatamente que [f (E)]⊥ = Gen {w = (1, 3, −1)T }. Observemos que, por estar en R3 , podemos
encontrar un vector de [f (E)]⊥ calculando el producto vectorial de f (v1 ) con f (v2 ), f (v1 ) × f (v2 ) = (1, 3 − 1)T .
Puesto que w es una base ortogonal de [f (E)]⊥ , ya podemos proyectar ortogonalmente
 
1
u·w 14 
P roy[f (E)]⊥ u = w=− 3 .
w·w 11
−1
De esta forma,      
3 1 47
14 1
P royf (E) u = u − P roy[f (E)]⊥ u =  −4  +  3 =  −2  .
11 11
5 −1 41
Mencionemos otros caminos que podı́amos haber seguido, aunque sean menos aconsejables pues son más largos.
Conocida una base ortogonal de f (E), {w1 , w2 } (para lo que tenemos que aplicar el método de Gram–Schmidt
a f (v1 ), f (v2 ) o bien, buscar con cuidado, a partir de la ecuación implı́cita de f (E), x + 3y − z = 0, dos vectores
ortogonales) podemos aplicar
u · w1 u · w2
P royf (E) u = w1 + w2 .
w1 · w1 w2 · w2
Si preferimos proyectar sobre f (E) usando la matriz de la proyección, lo más fácil es calcular mediante una base
ortonormal de [f (E)]⊥ (como sólo tiene un vector, w, basta con dividir por su norma, w/|w|) la matriz P[f (E)]⊥ y
luego Pf (E) = I − P[f (E)]⊥ con lo que P royf (E) u = Pf (E) u. Notemos que si pretendemos calcular la matriz Pf (E)
directamente, necesitamos una base ortonormal de f (E) por lo que tenemos que aplicar el método de Gram–Schmidt
a f (v1 ), f (v2 ) o bien, buscaremos con cuidado, a partir de la ecuación implı́cita de f (E), x + 3y − z = 0, dos vectores
ortogonales.

Ejercicio resuelto
Considera el siguiente subespacio de R4 :
F ≡ x1 + x3 + x4 = 0.
(a) Determina las matrices de la proyección ortogonal sobre F y sobre F ⊥ .
(b) Sea v = [5 3 4 − 6]T . Halla unos vectores u1 ∈ F y u2 ∈ F ⊥ tales que v = u1 + u2 .

(a) Para calcular las matrices de la proyección ortogonal sobre F , PF , y sobre F ⊥ , PF ⊥ , lo más conveniente es trabajar
con el espacio de menor dimensión. Por un lado, dim(F ) = 3 pues F ⊂ R4 y está definido por una ecuación implı́cita.
De esta forma, dim(F ⊥ ) = 4 − dim(F ) = 4 − 3 = 1. Con lo que es trivial encontrar una base ortonormal de F ⊥ y muy
muy tedioso hallarla para F .
Como F ≡ x1 + x2 + x4 = 0 entonces
   √ 

 1   
 1/ 3  
   
⊥ 0  0√ 
F = Gen   = Gen 
   .

 1   
 1/√3  
   
1 1/ 3

Usando esta base ortonormal, la matriz de la proyección ortogonal sobre F ⊥ viene dada por
 √     
1/ 3 1/3 0 1/3 1/3 1 0 1 1
 0  √ √ √   0 0 0 0  1  0 0 0 0 
PF ⊥ =  √ 
 1/ 3  1/ 3 0 1/ 3 1/ 3 =  1/3 0 1/3
 =  .
√ 1/3  3  1 0 1 1 
1/ 3 1/3 0 1/3 1/3 1 0 1 1

Es muy fácil obtener entonces la matriz de la proyección ortogonal sobre F


   
2/3 0 −1/3 −1/3 2 0 −1 −1
 0 1 0 0  1 0 3 0 0 
PF = I − PF ⊥ =  −1/3 0 2/3 −1/3  = 3  −1
  .
0 2 −1 
−1/3 0 −1/3 2/3 −1 0 −1 2

108
Para estar seguros de que las matrices encontradas son correctas es recomendable comprobar que, al proyectar cada
vector de la base de ese espacio obtenemos el mismo vector, y que, al proyectar cada vector del subespacio ortogonal
obtenemos el vector nulo.
Observemos que un camino no recomendable (pues nos puede llevar mucho tiempo y seguramente con errores en los
cálculos) para calcular PF consiste en buscar una base de F , {z1 , z2 , z3 }, aplicarle el método de Gram–Schmidt para
conseguir una base ortogonal, {t1 , t2 , t3 }, dividir por las normas de los vectores para conseguir una base ortonormal y
construir la matriz  
t1 t2 t3
U= ,
||t1 || ||t2 || ||t3 ||
con lo que, finalmente, PF = U U T .
(b) Dado el vector v, pedirnos unos vectores u1 ∈ F y u2 ∈ F ⊥ tales que v = u1 + u2 , es demandarnos las proyecciones
ortogonales de v sobre F y F ⊥ :
v = u1 + u2 = P royF v + P royF ⊥ v.
Estas proyecciones las calculamos fácilmente
      
2 0 −1 −1 5 4 1
1 0 3 0 0  
= 3
3  
 ; u2 = P royF ⊥ v = v · s1 s1 = 3 s1 =  0  .
  
u1 = PF v =  
3 −1 0 2 −1 
  4   3  s1 · s1 3  1 
−1 0 −1 2 −6 −7 1
Obviamente, podemos calcular primero P royF v o P royF ⊥ v y después encontrar el otro vector aplicando que v =
P royF v + P royF ⊥ v.
Ejercicio resuelto
Siendo α ∈ R, consideremos el subespacio H ≡ α x1 + x2 + 4 α x3 = 0 de R3 y los vectores
   
1 1
v1 =  1  y v2 =  0  .
2 2

Determina α para que la proyección ortogonal de v1 sobre H sea perpendicular a v2 .


Nos piden que hallemos α exigiendo que P royH v1 · v2 = 0. Necesitamos pues calcular la proyección ortogonal de v1
sobre el subespacio H, P royH v1 . Como dim(H) = 2 y H ⊂ R3 , entonces dim(H ⊥ ) = 1, con lo que es más sencillo
calcular la proyección sobre H ⊥ = Gen{u = (α, 1, 4α)T }:
   
α 9α2 + α
v1 · u 9α + 1  1
P royH ⊥ v1 = u= 1 =  9α + 1  .
u·u 17α2 + 1 17α2 + 1
4α 36α2 + 4α
Ası́,  
8α2 − α + 1
1
P royH v1 = v1 − P royH ⊥ v1 =  17α2 − 9α  ,
17α2 + 1
−2α2 − 4α + 2
con lo que podemos hallar los valores de α pedidos exigiendo
   
8α2 − α + 1 1
1  17α2 − 9α  ·  0  = 0 → 4α2 − 9α + 5 = 0 → α = 1, 5 .
P royH v1 · v2 =
17α2 + 1 4
−2α2 − 4α + 2 2

Vamos a comentar un procedimiento alternativo y menos engorroso que el anterior. Como H ⊥ = Gen{u}, entonces
P royH ⊥ v1 = ku siendo k un número que desconocemos. Con esto
 
1 − kα
P royH v1 = v1 − P royH ⊥ v1 = v1 − ku =  1 − k  ,
2 − 4kα
y como P royH v1 ∈ H debe verificar su ecuación implı́cita, lo que nos proporciona la siguiente condición para k y α:
α(1 − kα) + (1 − k) + 4α(2 − 4kα) = 0 → 17kα2 − 9α + k − 1 = 0. (7)
Esta ecuación junto con la que obtenemos al exigir
   
1 − kα 1
P royH v1 · v2 = 0 →  1 − k  ·  0  = 5 − 9kα = 0,
2 − 4kα 2

109
forma un sistema de dos ecuaciones con dos incógnitas

17kα2 − 9α + k − 1 = 0
9kα = 5
que podemos resolver despejando k de la segunda ecuación, k = 5/9α (notemos que α no puede anularse porque la
segunda ecuación serı́a incompatible, 0 = 5) y sustituyendo en la primera con lo que llegamos a la misma ecuación de
segundo grado para α
5
4α2 − 9α + 5 = 0 → α = 1, .
4

Ejercicio resuelto
Dado el subespacio
E = Gen{(a, 0, 0, 0)T , (a, a, b, 0)T , (a, b, −a, 1)T }, a, b ∈ R.

(a) Hallar una base ortonormal del subespacio E según los valores de los parámetros a y b.
(b) Para a = 0, hallar la matriz de la proyección ortogonal sobre E, según los valores de b.

 x1 = 0,
(c) Dado el subespacio F ≡ 5x1 + x2 + 3x3 = 0, determinar los valores de a y b para que F sea

−2x1 + 3x2 − x3 + x4 = 0,
ortogonal a E, F = E ⊥ .
(a) Como nos piden una base ortonormal, primero buscamos una base de E, luego encontramos una base ortogonal
aplicando el método de Gram–Schmidt y, finalmente, dividiendo por la norma de cada vector, una base ortonormal.
Al darnos un conjunto generador de E, para encontrar una base debemos estudiar qué vectores son linealmente
independientes. Ası́, para a 6= 0 obtenemos
     
a a a a a a a a a
 0 a b  b
 0 a b   0 a b 
 0 b −a  F3 − a F2  0 0 −a − b2  ∼  0 0 1 
     
- a
0 0 1 0 0 1 0 0 0
es decir, los tres vectores son linealmente independientes para cualquier valor de b, con lo que una base de E, en este
caso, es {(a, 0, 0, 0)T , (a, a, b, 0)T , (a, b, −a, 1)T }.
Observemos que si lo preferimos, en el primer  paso del proceso
 de eliminación podemos dividir por a 6= 0 las
1 1 1
 0 1 b/a 
tres primeras filas y trabajar con la matriz   0 b/a
 . Podemos entonces, si queremos, tomar como base
−1 
0 0 1
T T T
{(1, 0, 0, 0) , (1, 1, b/a, 0) , (1, b/a, −1, 1) }.  
0 0 0
 0 0 b 
Cuando a = 0, formamos, con los vectores que generan E, la siguiente matriz   0 b 0  , con lo que es inmediato

0 0 1
obtener que {(0, 0, b, 0)T , (0, b, 0, 1)T } es una base si b 6= 0 (las dos últimas columnas son linealmente independientes)
y que {(0, 0, 0, 1)T } forma una base cuando b = 0 (el único vector no nulo es el tercero).
Hemos visto pues que: si a 6= 0 la dimensión de E es tres, independientemente del valor de b; si a = 0 y b 6= 0 E
tiene dimensión dos; si a = b = 0, la dimensión de E es uno.
Comenzamos con el caso más sencillo. Si a = b = 0 la base {(0, 0, 0, 1)T } ya es ortogonal (pues sólo tiene un vector)
y casualmente también es ortonormal (pues el vector tiene norma uno).
La segunda situación aparece cuando a = 0 y b 6= 0. La base encontrada, {(0, 0, b, 0)T , (0, b, 0, 1)T }, coincide
que es ortogonal (el producto escalar de sus dos vectores es nulo)√ pero no es ortonormal. Basta con dividir ca-
da vector por su norma. La del primero es |b| y la del segundo b2 + 1. Una base ortonormal es, por ejemplo,
{(0, 0, 1, 0)T , √b21+1 (0, b, 0, 1)T }. Observemos, como anécdota, que para obtener el primer vector (0, 0, 1, 0)T tenemos
que dividir por |b| si b > 0 y por −|b| si b < 0.
La última posibilidad aparece cuando a 6= 0 (y cualquier valor de b). En este caso la base obtenida, {v1 =
(a, 0, 0, 0)T , v2 = (a, a, b, 0)T , v3 = (a, b, −a, 1)T }, no es ortogonal. Aplicamos el método de Gram–Schmidt para en-
contrar una base ortogonal:
       
a a a 0
 0  v2 · x1  a  a2  0   a 
x1 = v1 =   0 ,
 x2 = v2 −  b  − a2  0  =  b  ,
x1 =      
x1 · x1
0 0 0 0

110
       
a a 0 0
v3 · x1 v3 · x2  b  a2  0  0  a   b 
x3 = v3 − x1 −  −a  − a2
x2 =  
 0  − a2 + b 2
 
 b  =  −a
   .
x1 · x1 x2 · x2 
1 0 0 1
Recordemos que siempre que se aplica el método de Gram–Schmidt conviene comprobar, en cada paso, que el vector
obtenido es ortogonal a todos los anteriores. Ası́, tras el primer paso comprobamos que x2 · x1 = 0 y tras el segundo
que x3 · x1 = 0 y x3 · x2 = 0. Hemos encontrado una base ortogonal de E cuando a 6= 0, {x1 , x2 , x3 }. Normalizando
cada vector llegamos a la base ortonormal
1 1
{(1, 0, 0, 0)T , √ (0, a, b, 0)T , √ (0, b, −a, 1)T }.
2
a +b 2 a + b2 + 1
2

(b) Para calcular la matriz de la proyección sobre un subespacio necesitamos una base ortonormal suya (que hemos
calculado en el apartado anterior), formamos una matriz U colocando en sus columnas los vectores de dicha base y la
matriz de la proyección buscada se obtiene multiplicando U U T .
Nos piden en el caso a = 0, con lo que hay que distinguir entre b = 0 y b 6= 0. Ası́, para b = 0 obtenemos
     
0 0 0 0 0 0
 0  T
 0    0 0 0 0 
U =  0  → PE = U U =  0  0 0 0 1 =  0 0 0 0  ,
    

1 1 0 0 0 1
mientras que para b 6= 0 llegamos a
     
0 0 0 0 0 0 0 0
 
 0 √ 2b   0 √ b  0 0 1 0  0 b2
0 b 
U = b +1  → P = U U T =  b2 +1  = b2 +1 b2 +1 .
 1 0  E  1 0  0 √ b 0 √ 1  0 0 1 0 
b2 +1 b2 +1
0 √b21+1 0 √ 1
b2 +1
0 b
b2 +1 0 1
b2 +1

Una comprobación inmediata que permite detectar errores en los cálculos es verificar que la matriz de la proyección
ortogonal obtenida es simétrica, pues PET = (U U T )T = U T U = PE .

(c) Una forma de resolver este apartado es buscar una base de F y exigir que todos los vectores de dicha base sean
perpendiculares a todos los de cualquier base de E. Resolviendo el sistema de ecuaciones implı́citas obtenemos
     
 x1 0 0
 x1 = 0,  x2 
 = x3  −3  , x3 ∈ R −→ u ∼  −3  ,
   
F ≡ 5x1 + x2 + 3x3 = 0, −→ 
  x3   1   1 
−2x1 + 3x2 − x3 + x4 = 0,
x4 10 10

con lo que el vector u es una base de F , BF = {u}. Por tanto, exigiendo perpendicularidad entre todos los vectores
de las bases, BF y BE = {v1 , v2 , v3 }, llegamos a
  
u ⊥ v1 = 0  u · v1 = 0  0=0  
a = 1,
u ⊥ v2 = 0 −→ u · v2 = 0 −→ −3a + b = 0 −→
   b = 3.
u ⊥ v3 = 0 u · v3 = 0 −3b − a + 10 = 0

Ejercicio resuelto
Sea V ⊂ R5 el subespacio formado por los vectores cuyas componentes suman cero. Encontrar el vector de V más
próximo a w = (1, 2, 3, 4, 5)T .

Del enunciado deducimos que V viene definido por la ecuación implı́cita x1 + x2 + x3 + x4 + x5 = 0. Sabemos que el
vector de V más próximo a w es la proyección ortogonal de w sobre V , P royV w. Como V ⊂ R5 y viene definido por
una ecuación implı́cita, deducimos que dim(V ) = 4 y que dim(V ⊥ ) = 5 − dim(V ) = 5 − 4 = 1. Ante esta diferencia
entre las dimensiones de V y V ⊥ , es obvio que resulta mucho más fácil proyectar ortogonalmente sobre V ⊥ que sobre
V.
Recordemos que para proyectar ortogonalmente sobre un subespacio necesitamos una base ortogonal suya. En
nuestro caso, de la ecuación implı́cita de V deducimos que

V ⊥ = Gen {u = (1, 1, 1, 1, 1)T },

es decir, ya tenemos una base ortogonal (pues sólo tiene un vector) de V ⊥ , BV ⊥ = {u}. Por tanto,
w·u 15
P royV ⊥ w = u= u = 3u = (3, 3, 3, 3, 3)T ,
u·u 5

111
es decir, el vector que nos piden es

P royV w = w − P royV ⊥ w = (1, 2, 3, 4, 5)T − (3, 3, 3, 3, 3)T = (−2, −1, 0, 1, 2)T .

Conviene comprobar que el vector encontrado pertenece a V , es decir, que verifica su ecuación implı́cita: −2 − 1 + 0 +
1 + 2 = 0.
Si elegimos el camino de proyectar directamente sobre V (cosa totalmente desaconsejable, como podemos ver a
continuación, por los cálculos tan tediosos que aparecen) procederemos de la siguiente forma. Primero encontramos
una base de V resolviendo su ecuación implı́cita, con lo que llegamos a

V = Gen {v1 = (−1, 1, 0, 0, 0)T , v2 = (−1, 0, 1, 0, 0)T , v3 = (−1, 0, 0, 1, 0)T , v4 = (−1, 0, 0, 0, 1)T }.

Como esta base no es ortogonal, aplicamos el método de Gram–Schmidt a esos cuatro vectores:
 
−1
 1 
 
x1 = v1 =   0 ,

 0 
0
   
−1/2 −1
 −1/2   −1 
v2 · x1 1   ′
 
x2 = v2 − x1 = v2 − x1 =  1  ∼ x2 = 
 
 2 ,

x1 · x1 2  0   0 
0 0
   
−1/3 −1
 −1/3   −1 
v3 · x1 v3 · x′2 ′ 1 1 ′   ′
 
x3 = v3 − x1 − ′ x = v3 − x1 − x2 =  −1/3  ∼ x3 = 
 
 −1  ,

x1 · x1 x2 · x′2 2 2 6  1   3 
0 0
   
−1/4 −1
 −1/4   −1 
v4 · x1 v4 · x′2 ′ v4 · x′3 ′ 1 1 ′ 1 ′   ′
 
x4 = v4 − x1 − ′ x − x = v4 − x1 − x2 − x3 = −1/4 ∼ x4 =
  −1 .
x1 · x1 x2 · x′2 2 x′3 · x′3 3 2 6 12  −1/4 
 
 −1 
1 4

Nótese que hemos introducido el vector x′2 (múltiplo de x2 ) para evitar la aparición de fracciones en los cálculos
posteriores. El mismo comentario justifica la introducción de x′3 y x′4 .
Para detectar posibles errores, comprobamos: después del primer paso que x′2 es perpendicular a x1 (x1 · x′2 = 0)
y que pertenece a V (que verifica su ecuación implı́cita, x1 + x2 + x3 + x4 + x5 = 0); después del segundo paso, que
x′3 es perpendicular a x1 y a x′2 y que pertenece a V ; después del tercer y último paso, que x′4 es perpendicular a x1 ,
a x′2 y a x′3 y que pertenece a V .
Con la base ortogonal de V encontrada llegamos a

w · x1 w · x′ w · x′ w · x′ 1 3 6 10
P royV w = x1 + ′ 2′ x′2 + ′ 3′ x′3 + ′ 4′ x′4 = x1 + x′2 + x′3 + x′4 = (−2, −1, 0, 1, 2)T .
x1 · x1 x2 · x2 x3 · x3 x4 · x4 2 6 12 20

Observemos que una alternativa a aplicar el método de Gram-Schmidt es buscar con cuidado una base ortogonal de
V . Como su ecuación implı́cita es x1 + x2 + x3 + x4 + x5 = 0, elegimos un primer vector cualquiera (cuanto más sencillo
mejor, pues en la solución aparecen cuatro parámetros) que verifique esa ecuación, por ejemplo, w1 = (1, −1, 0, 0, 0)T .
Ahora un segundo vector, w2 = (a, b, c, d, e)T , lo determinamos exigiendo que verifique la ecuación anterior y que
sea perpendicular a w1 , es decir, debe verificar a + b + c + d + e = 0, a − b = 0. Elegimos un vector cualquiera
(cuanto más sencillo mejor, pues en la solución aparecen tres parámetros) que verifique este sistema, por ejemplo,
w2 = (1, 1, −2, 0, 0)T . Un tercer vector, w3 = (a, b, c, d, e)T , lo determinamos exigiendo que verifique la ecuación de V
y que sea perpendicular a w1 y a w2 , es decir, debe verificar a + b + c + d + e = 0, a − b = 0, a + b − 2c = 0. Elegimos un
vector cualquiera (cuanto más sencillo mejor, pues en la solución aparecen dos parámetros) que verifique este sistema,
por ejemplo, w3 = (1, 1, 1, −3, 0)T . Por último, un cuarto vector, w4 = (a, b, c, d, e)T , lo determinamos exigiendo que
verifique la ecuación de V y que sea perpendicular a w1 , a w2 y a w3 , es decir, debe verificar a + b + c + d + e =
0, a − b = 0, a + b − 2c = 0, a + b + c − 3d = 0. Elegimos un vector cualquiera (en la solución aparecen los múltiplos
de (1, 1, 1, 1, −4)T ) que verifique este sistema, por ejemplo, w4 = (1, 1, 1, 1, −4)T . De esta forma, una base ortogonal
de V será {w1 , w2 , w3 , w4 }.
Notemos que si queremos calcular las matrices de la proyección ortogonal sobre V , PV , y sobre V ⊥ , PV ⊥ , conviene

112
calcular primero PV ⊥ (usando una base ortonormal de V ⊥ ):
 √   
1/√5 1 1 1 1 1
 1/ 5   1 1 1 1 1 
 √  √ √ √ √ √  1 
PV ⊥ =  1/√5  1/ 5 1/ 5 1/ 5 1/ 5
 1/ 5 =  1 1 1 1 1 ,
5 
 1/ 5   1 1 1 1 1 

1/ 5 1 1 1 1 1
y luego, trivialmente que  
4 −1 −1 −1 −1
 −1 4 −1 −1 −1 
1 
PV = I − PV ⊥ =  −1 −1 4 −1 −1 .
5 
 −1 −1 −1 4 −1 
−1 −1 −1 −1 4
Con PV ⊥ ya podemos calcular P royV ⊥ w: P royV ⊥ w = PV ⊥ w = (3, 3, 3, 3, 3)T y, por tanto, obtenemos P royV w =
w − P royV ⊥ w = (−2, −1, 0, 1, 2)T .
Si trabajamos con PV , entonces P royV w = PV w = (−2, −1, 0, 1, 2)T .

Ejercicio resuelto       
 1 1 1 
Consideremos la base B =  2  ,  1  ,  2  .
 
3 2 6

(a) Determinar las matrices de cambio de base entre B y la base canónica.


(b) Calcular todos los vectores de R3 cuyas coordenadas son las mismas en la base B que en la base canónica.
T 5
(c) Calcular
 la proyección ortogonal del vector [3 0 1 2 1] sobre el subespacio de R cuyas ecuaciones implı́citas
x1 +x2 + x4 −x5 =0,
son
2x1 +x3 +2x4 =0.

(d) Demostrar que Nul (M ) ⊂ Nul (M 2 ) para cualquier matriz cuadrada M .


(a) Tenemos que encontrar dos matrices. La primera de ellas, correspondiente al paso de la base B a la base canónica
(que denotaremos por E), no es más que
 
1 1 1
PB = P =  2 1 2  ,
E←B
3 2 6
donde hemos situado, por columnas, los vectores de la base B. La matriz de paso de la base canónica a la base B es
la inversa de la anterior, es decir,
 −1  
1 1 1 −2 4 −1
−1 1
P = P = 2 1 2  =  6 −3 0  .
B←E E←B
3 2 6 3 −1 −1 1

Esta inversa se puede calcular, por ejemplo, por el método de Gauss-Jordan:


     
1 1 1 1 0 0 1 1 1 1 0 0 1 1 1 1 0 0
 2 1 2 0 1 0  ∼  0 −1 0 −2 1 0  ∼  0 −1 0 −2 1 0 
3 2 6 0 0 1 0 −1 3 −3 0 1 0 0 3 −1 −1 1
   
1 1 1 1 0 0 1 1 0 4/3 1/3 −1/3
∼  0 1 0 2 −1 0 ∼ 0 1 0 2 −1 0 
0 0 1 −1/3 −1/3 1/3 0 0 1 −1/3 −1/3 1/3
 
1 0 0 −2/3 4/3 −1/3
∼  0 1 0 2 −1 0 .
0 0 1 −1/3 −1/3 1/3

(b) Queremos aquellos vectores de R3 cuyas coordenadas coinciden en la base canónica y en B, es decir, aquellos
vectores v = [x y z]T , tales que PB v = v. Escrito en forma de sistema queda
    
1 1 1 x x
 2 1 2  y  =  y ,
3 2 6 z z

113
o, equivalentemente,     
0 1 1 x 0
 2 0 2  y  =  0 ,
3 2 5 z 0
ya que este último sistema no es más que (PB − I)v = 0.
Una simple eliminación de Gauss transforma este sistema en otro equivalente,
         
0 1 1 2 0 2 1 0 1 1 0 1 1 0 1
 2 0 2 ∼ 0 1 1 ∼ 0 1 1 ∼ 0 1 1 ∼ 0 1 1 ,
3 2 5 3 2 5 3 2 5 0 2 2 0 0 0
que, una vez resuelto, tiene como solución
   
x −1
 y  = z  −1  , siendo z ∈ R, una variable libre.
z 1

(c) Para simplificar, llamemos S al subespacio y u al vector que nos dan. Ya que la dimensión de S es 3 (viene definido
por dos ecuaciones implı́citas independientes en R5 ) y estamos trabajando en R5 , es conveniente calcular la proyección
ortogonal sobre S ⊥ , que tiene menor dimensión (en concreto su dimensión es 2).
Una base de S ⊥ se obtiene directamente de los coeficientes de las ecuaciones implı́citas de S, ya que dan lugar a
dos vectores linealmente independientes:
    

 1 2  

  1   0 
    
v1 = 
 0  , v2 =  1  .
  

  1   2 

 

 
−1 0
Estos vectores no son ortogonales, ası́ que vamos a aplicarles el método de Gram-Schmidt:
       
1 2 1 1
 1   0   1   −1 
  v2 · w1      
 0 ;  1
w1 = v1 =   w2 = v2 − w1 =  −1 0  =  1 .
 1  w1 · w1  2
   
 1  

 1 
−1 0 −1 1
De este modo, hemos obtenido una base ortogonal de S ⊥ :
    

 1 1 

  1 

 



 −1 

BS ⊥ = w1 =   0 1
 , w2 =   .
   

  1   1 


 

−1 1
Si nos pidiesen la matriz de la proyección ortogonal, necesitarı́amos normalizar los vectores y después multiplicar la
matriz que se obtuviese a partir de ellos, colocándolos por columnas, por su traspuesta. Esto nos llevarı́a a trabajar con
fracciones y radicales hasta llegar a una matriz 5 × 5, que en este caso, no es necesaria. Para proyectar ortogonalmente
un vector sobre un subespacio basta con tener una base ortogonal de éste:
     
1 1 12/5
 1 
 7  −1   −2/5 
   
u · w1 u · w2 
ProyS ⊥ u = w1 + w2 = 1  0  +  1  =  7/5  .
w1 · w1 w2 · w2  1  5  1   12/5 
     

−1 1 2/5
Volviendo al subespacio original, S, el vector pedido no es más que
     
3 12/5 3/5
 0   −2/5   2/5 
     
ProyS u = u − ProyS ⊥ u =   1  −  7/5 −2/5
  = .
  
 2   12/5   −2/5 
1 2/5 3/5

(d) Si un vector v pertenece a Nul (M ) significa que M v = 0. Si multiplicamos esta expresión por M quedará M 2 v =
M 0 = 0, por lo que v también pertenece a Nul (M 2 ).

114
6. Problemas de mı́nimos cuadrados. Ecuaciones normales de Gauss.
En términos generales, resolver un problema en el sentido de los mı́nimos cuadrados es sustituir un problema en
el que hay que resolver un sistema de ecuaciones (que no tiene solución) por el problema de minimizar una suma de
cuadrados.
Ejemplo. El problema de la regresión lineal. Si consideramos dos magnitudes, x e y, de las que suponemos
que están relacionadas mediante una igualdad del tipo y = ax + b, donde tenemos que determinar a y b mediante la
obtención de resultados experimentales, y dichos resultados son

x x1 x2 · · · xn
y y1 y2 · · · yn

los valores a y b los obtendremos de la resolución del sistema de ecuaciones lineales


    
ax1 + b = y1  x1 1 y1

  x2 1     y2 
ax2 + b = y2   a  
≡ . .  =  . ,
··· 
  .. ..  b  .. 

axn + b = yn xn 1 yn

pero lo habitual es que un sistema de ecuaciones como el anterior no tenga solución. Resolver el sistema anterior en el
sentido de los mı́nimos cuadrados consiste en determinar los valores a y b para los cuales la suma de cuadrados
2 2 2
(ax1 + b − y1 ) + (ax2 + b − y2 ) + · · · + (axn + b − yn )

es mı́nima (si hubiera solución, del sistema dado, dicho valor mı́nimo serı́a cero). Puesto que esta suma de cuadrados
es el cuadrado de la norma del vector    
x1 1 y1
 x2 1     y 
  a  2 
 .. ..  − . ,
 . .  b  .. 
xn 1 yn
y los vectores de la forma  
x1 1
 x2 1  
  a
 .. ..  , ∀ a, b ∈ R,
 . .  b
xn 1
forman el espacio columna S de la matriz considerada, resolver el sistema en mı́nimos cuadrados es determinar el
vector de S más cercano al término independiente considerado y resolver el sistema (que será compatible) con ese
nuevo término independiente.
Para un sistema genérico de ecuaciones lineales Ax = b, resolverlo en el sentido de los mı́nimos cuadrados es
determinar el vector (o vectores) x ∈ Rn para los cuales

||Ax − b|| es mı́nima.

Puesto que los vectores Ax recorren el espacio columna de A (cuando x recorre Rn ), ||Ax − b|| será mı́nima para los
vectores x ∈ Rn tales que Ax es igual a la proyección ortogonal de b sobre el espacio Col (A).
A
Rm b
n
R

x
O proyS (b)
O Ax
Col (A)

Teorema. Consideremos un sistema de ecuaciones Ax = b, A matriz real m × n, b ∈ Rm , S = Col (A) y sea x̂ ∈ Rn .


Son equivalentes:

(a) x̂ es solución en mı́nimos cuadrados del sistema Ax = b, es decir,

||Ax̂ − b|| ≤ ||Ax − b|| , ∀x ∈ Rn .

115
(b) x̂ verifica Ax̂ = proy S (b).
(c) x̂ verifica las ecuaciones normales de Gauss: AT Ax̂ = AT b.

Observaciones.

(a) El sistema de ecuaciones Ax = proy S (b) (sistema m × n) y el sistema AT Ax = AT b (sistema n × n) son siempre
compatibles y tienen el mismo conjunto de soluciones.
(b) El sistema Ax = proy S (b) será compatible determinado (es decir, el problema en mı́nimos cuadrados tendrá solu-
ción única) si y sólo si el sistema homogéneo asociado Ax = 0 tiene solución única. Por tanto,
el sistema Ax = b tiene solución única las columnas de A son linealmente inde-
⇐⇒
en mı́nimos cuadrados pendientes (rango(A) = n).

7. Ajuste de curvas, regresión lineal.


En el epı́grafe anterior hemos planteado el problema de la regresión lineal. Resolviendo en mı́nimos cuadrados el
sistema planteado se obtiene la recta de regresión de y sobre x (en el planteamiento del sistema, la variable
y está expresada en función de x) para la nube de puntos dada. Notemos que la resolución en mı́nimos cuadrados
considerada consiste en determinar la recta que hace mı́nima la suma de cuadrados de las distancias sobre la vertical
de los puntos dados a la recta.

Y
yk
y = ax + b

axk + b

xk

De forma similar (y resultado distinto, por lo general) podrı́amos haber planteado el problema de determinar una
recta x = αy + β que pase por los puntos (xk , yk ), k = 1, . . . , n dados. Por lo general, el sistema resultante
    
αy1 + β = x1  y1 1 x1

  y2 1     x 
αy2 + β = x2   α  2 
≡ . .  = . 
··· 
  .
. . .  β  .. 

αyn + β = xn yn 1 xn

no tiene solución y su resolución en el sentido de los mı́nimos cuadrados permite determinar la recta que hace mı́nima
la suma de cuadrados de las distancias sobre la horizontal de los puntos dados a la recta. La recta que se obtiene
mediante la resolución en mı́nimos cuadrados del sistema anterior se denomina recta de regresión de x sobre y
para la nube de puntos dada. Notemos que cualquier recta que no sea paralela a ninguno de los ejes coordenados puede
expresarse mediante y = ax + b y mediante x = αy + β. Sin embargo, no es equivalente resolver en el sentido de los
mı́nimos cuadrados el sistema asociado a una u otra expresión.

116
Y

x = αy + β
yk

xk
αyk + β

Desde un punto de vista más genérico que el de la regresión lineal (ajustar una recta a una nube de puntos), puede
considerarse el problema de ajustar, a una nube de puntos del plano (x1 , y1 ), . . . , (xn , yn ), una curva de un cierto tipo
(dada por un tipo de ecuación explı́cita y = f (x) o implı́cita F (x, y) = 0). Ası́, podemos considerar el problema de
determinar

la parábola (de eje principal vertical) y = ax2 + bx + c,


la circunferencia x2 + y 2 + ax + by + c = 0
...

que mejor se ajusta, en el sentido de los mı́nimos cuadrados, a una nube de puntos dada. En cualquier
caso, se trata de problemas que llevan a sistemas de ecuaciones lineales que no tienen solución y se resuelven en el
sentido de los mı́nimos cuadrados.
Un planteamiento similar al de ajustar una curva a una nube de puntos es válido para ajustar una superficie en
R3 de un tipo prefijado a una determinada nube de puntos

(x1 , y1 , z1 ), . . . , (xn , yn , zn ).

Por ejemplo, puede considerarse el problema de ajustar, en el sentido de los mı́nimos cuadrados,

un plano dado por la ecuación z = ax + by + c (regresión lineal z sobre (x, y)),


una esfera de ecuación x2 + y 2 + z 2 + ax + by + cz + d = 0,
...

a los puntos dados.

Ejercicio resuelto
Encontrar la recta y = αx + β que mejor ajusta, en el sentido de los mı́nimos cuadrados, a la nube de puntos (0, 2),
(1, 6) y (3, 0).

Queremos ajustar la nube de puntos (0, 2), (1, 6) y (3, 0) por una recta del tipo y = αx + β. En primer lugar escribimos
el sistema correspondiente Ax = b, después calculamos las ecuaciones normales de Gauss, AT Ax = AT b, y finalmente
las resolvemos.
Ası́, cada punto da lugar a una ecuación, y podemos identificar A, x y b:
        
(0, 2) → 2 = 0 · α + β  0 1   2 0 1   2
α α
(1, 6) → 6 = 1 · α + β →  1 1  =  6  → A =  1 1 , x = , b =  6 .
 β β
(3, 0) → 0 = 3 · α + β 3 1 0 3 1 0

Las ecuaciones normales de Gauss, AT Ax = AT b, son pues


   
  0 1     2          
0 1 3  α 0 1 3  6  → 10 4 α 6 5 2 α 3
1 1  = = → =
1 1 1 β 1 1 1 4 3 β 8 4 3 β 8
3 1 0

117
y resolviéndolas obtenemos
        
5 2 3 20 8 12 20 8 12 5 2 3 α = −1,
∼ ∼ ∼ →
4 3 8 20 15 40 0 7 28 0 1 4 β = 4,

con lo que la recta que mejor ajusta a la nube de puntos en el sentido de los mı́nimos cuadrados es

y = −x + 4.

Ejercicio resuelto
Por el método de los mı́nimos cuadrados, ajustar una parábola y = ax2 + bx + c a los puntos (1, −3), (1, 1),
(−1, 2), (−1, −1).

Si exigimos que los puntos pertenezcan a la parábola, obtenemos el siguiente sistema (una ecuación por cada punto):
     

 −3 = 12 a + 1 · b + c 
 a + b + c = −3 1 1 1 −3 1 1 1 −3
1 = 12 a + 1 · b + c
 
a+b+c=1  1 1 1 1   0 0 0 4 
2 → → 1 −1 1 2  ∼  0 −2 0 5 
  

 2 = (−1) a + (−1)b + c 
 a − b + c = 2
−1 = (−1)2 a + (−1)b + c
 
a − b + c = −1 1 −1 1 −1 0 −2 0 2

que obviamente es incompatible (compárense, por ejemplo, las dos primeras ecuaciones). Escribimos y resolvemos las
ecuaciones normales de Gauss, AT Ax = AT b,
            1 
4 0 4 a −1 4 0 4 −1 4 0 4 −1 a −4 − c
 0 4 0   b  =  −3  →  0 4 0 −3  ∼  0 4 0 −3  →  b  =  − 43 
4 0 4 c −1 4 0 4 −1 0 0 0 0 c c

que resultan ser un sistema compatible indeterminado (c ∈ R). Es decir, las parábolas
 
1 3
y=− + c x2 − x + c, c ∈ R
4 4

son la solución al problema planteado.

Ejercicio resuelto
Encontrar la circunferencia de la familia

x2 + y 2 + ax + by + c = 0

que mejor se ajuste, en el sentido de los mı́nimos cuadrados, a los puntos (0, 0), (1, 0), (0, 1) y (1, 1), indicando las
coordenadas del centro y el radio de la misma.

Exigimos que cada punto pertenezca a la circunferencia ax + by + c = −x2 − y 2 , con lo que obtenemos el sistema, de
cuatro ecuaciones y tres incógnitas,

(0, 0) : 0 · a + 0 · b + c = −02 − 02 = 0
(1, 0) : 1 · a + 0 · b + c = −12 − 02 = −1
(0, 1) : 0 · a + 1 · b + c = −02 − 12 = −1
(1, 1) : 1 · a + 1 · b + c = −12 − 12 = −2

que matricialmente se puede escribir como Ax = b


   
0 0 1   0
 1 0 1 a
  b  =  −1  .
  

 0 1 1   −1 
c
1 1 1 −2

El sistema que debemos resolver para encontrar la solución en el sentido de los mı́nimos cuadrados es el que nos
proporcionan las ecuaciones normales de Gauss, AT Ab = AT b,
   
  0 0 1     0     
0 1 0 1  a 0 1 0 1  2 1 2 a −3
 0 0 1 1  1 0 1  b  =  0 0 1 1  −1 

→ 1 2 2   b  =  −3 
 0 1 1   −1 
1 1 1 1 c 1 1 1 1 2 2 4 c −4
1 1 1 −2

118
que resolvemos fácilmente
       
2 1 2 −3 1 2 2 −3 1 2 2 −3 1 2 2 −3
 1 2 2 −3  ∼  2 1 2 −3  ∼  0 −3 −2 3 ∼ 0 1 0 −1  ,
2 2 4 −4 1 1 2 −2 0 −1 0 1 0 0 −2 0
con lo que obtenemos c = 0, b = −1 y a = −1. Es decir, la circunferencia que mejor ajusta en el sentido de los mı́nimos
cuadrados es
 2  2  2  2 √ !2
2 2 1 1 1 1 1 1 2
x +y −x−y = 0 → x− − + y− − =0 → x− + y− = ,
2 4 2 4 2 2 2

con centro en ( 12 , 12 ) y de radio 22 .
Observemos que, casualmente, el sistema Ax = b que obtenemos es compatible (ya que los cuatro puntos que nos
dan son los vértices de un cuadrado de lado unidad y con centro en ( 21 , 12 )). Sabemos entonces que la solución en el
sentido de los mı́nimos cuadrados coincide con la solución del sistema original.

Ejercicio resuelto
Determinar la cónica de la familia
ax2 + 4axy + ay 2 + bx − by + 1 = 0
que mejor se ajusta, en el sentido de los mı́nimos cuadrados, a los puntos (1, 0), (−1, 0), (−1, 1) y (0, 2).

Exigimos que cada punto pertenezca a la cónica a(x2 + 4xy + y 2 ) + b(x − y) + 1 = 0, con lo que obtenemos el sistema,
de cuatro ecuaciones y dos incógnitas,
(1, 0) : (12 + 4 · 1 · 0 + 02 )a + (1 − 0)b + 1 = 0 → a + b = −1,
(−1, 0) : ((−1)2 + 4(−1) · 0 + 02 )a + (−1 − 0)b + 1 = 0 → a − b = −1,
(−1, 1) : ((−1)2 + 4(−1) · 1 + 12 )a + (−1 − 1)b + 1 = 0 → −2a − 2b = −1,
(0, 2) : (02 + 4 · 0 · 2 + 22 )a + (0 − 2)b + 1 = 0 → 4a − 2b = −1,
que matricialmente se puede escribir como Ax = b
   
1 1   −1
 1 −1  a  −1 

 −2 −2
 =
 −1  .

 b
4 −2 −1
El sistema que debemos resolver para encontrar la solución en el sentido de los mı́nimos cuadrados es el que nos
proporcionan las ecuaciones normales de Gauss, AT Ab = AT b,
   
  1 1     −1     
1 1 −2 4   1 −1  a = 1 1 −2 4  −1
  
→ 22 −4 a −4
=
1 −1 −2 −2  −2 −2  b 1 −1 −2 −2  −1  −4 10 b 4
4 −2 −1
que resolvemos fácilmente
     
22 −4 −4 22 −4 −4 22 −4 −4
∼ ∼ ,
−4 10 4 −22 55 22 0 51 18
6 2
con lo que obtenemos b = 17 y a = − 17 . Es decir, la cónica que mejor ajusta, en el sentido de los mı́nimos cuadrados,
a la nube de puntos dada es
2 6
− (x2 + 4xy + y 2 ) + (x − y) + 1 = 0 → 2(x2 + 4xy + y 2 ) − 6(x − y) = 17.
17 17

Ejercicio resuelto  
2 2 0
Consideremos la matriz A =  2 2 0 .
2 0 2

(a) Determinar una base y unas ecuaciones implı́citas de Col(A) y (Nul(A))⊥ .


(b) Obtener una base ortonormal de Col(A) y calcular la matriz de la proyección ortogonal sobre dicho subespacio.
(c) Siendo b = [0 2 2]T , encontrar las p
soluciones en el sentido de los mı́nimos cuadrados de Ax = b. Determinar,
entre ellas, las que tengan norma 5/4.
(d) Sea S = {v1 , . . . , vp } un conjunto ortonormal en Rn . Probar que S es linealmente independiente.

119
(a) Comentamos una de las diversas formas que hay para resolver este apartado.
• Ecuaciones implı́citas de Col(A): Como sabemos, para encontrar unas ecuaciones implı́citas de un subespacio gene-
rado por varios vectores (en este caso los vectores columna de A) basta considerar un vector genérico [x1 x2 x3 ]T e
imponer que sea combinación lineal de dichos vectores.
   
2 2 0 x1 2 2 0 x1
 2 2 0 x2  ∼  0 0 0 x2 − x1  .
2 0 2 x3 0 -2 2 x3 − x1
Comprobamos que la ecuación implı́cita
x2 = x1 (8)
define a Col(A) y una base viene dada por
   
 2 2 
BCol(A) =  2 , 2  .
 
2 0

• Ecuaciones implı́citas de (Nul(A))⊥ : Comenzamos hallando una base de Nul(A), lo que se consigue sin más que
resolver Ax = 0. De la eliminación de Gauss anterior se desprende que unas ecuaciones equivalentes al sistema son

2x1 +2x2 =0,
−2x2 +2x3 =0,
las cuales, una vez resueltas nos dan la siguiente base
 
 −1 
BNul(A) =  1  .
 
1

Para obtener unas ecuaciones implı́citas de (Nul(A))⊥ simplemente hemos de utilizar las componentes de los vectores
(sólo uno en este caso) de la base como coeficientes en dichas ecuaciones. Ası́ tenemos que

−x1 + x2 + x3 = 0 (9)

es una ecuación implı́cita de (Nul(A))⊥ .


(b) Como ya hemos hecho una eliminación de Gauss con la matriz A, sabemos que una base del espacio Col(A) puede
estar formada por las dos primeras columnas de la matriz. Sin embargo, estos dos vectores no son ortogonales, ası́ que
tendrı́amos que ortogonalizar los vectores mediante el método de Gram-Schmidt.
Para evitar esos cálculos sólo tenemos que darnos cuenta (por simple inspección) de que las dos últimas columnas
de A también forman una base de Col(A) y, además, es ortogonal. Dividiendo los dos vectores por su norma tendremos
la base ortonormal que pide el enunciado:
 √   
 1/√2 0 
BCol(A) =  1/ 2  ,  0  .
 
0 1
Siendo ahora  √ 
1/√2 0
Q =  1/ 2 0  ,
0 1
la matriz de la proyección ortogonal sobre Col(A) se puede calcular como
 √   
1/√2 0  √ √  1/2 1/2 0
1/ 2 1/ 2 0
P = QQT =  1/ 2 0  =  1/2 1/2 0  .
0 0 1
0 1 0 0 1
Nota: Esta matriz es siempre la misma, independientemente de la base ortonormal escogida.
(c) Podemos resolver el problema usando las ecuaciones normales de Gauss, pero ya que tenemos, del apartado anterior,
la matriz P de la proyección ortogonal sobre Col(A), es más corto calcular la proyección del vector b sobre Col(A) y
después resolver
Ax = ProyCol(A) b.
Entonces, como  
1
ProyCol(A) b = P b =  1  ,
2

120
el sistema que hemos de resolver es     
2 2 0 x1 1
 2 2 0   x2  =  1  .
2 0 2 x3 2
Realizamos ahora una eliminación de Gauss, que es análoga a la que hicimos en el primer apartado,
     
2 2 0 1 2 2 0 1 2 2 0 1
 2 2 0 1 ∼ 0 0 0 0 ∼ 0 -2 2 1 ,
2 0 2 2 0 −2 2 1 0 0 0 0
llegando a la forma escalonada reducida
   
1 1 0 1/2 1 0 1 1
 0 1 −1 −1/2  ∼  0 1 −1 −1/2  .
0 0 0 0 0 0 0 0
Es inmediato, tomando como variable libre x3 ∈ R, que la solución del sistema es
       
x1 1 −1 1 − x3
 x2  =  −1/2  + x3  1  =  −1/2 + x3  .
x3 0 1 x3
p
Veamos ahora cuál de esas soluciones verifica que su norma es 5/4.
 
1 − x3 q r
 −1/2 + x3  = (1 − x3 )2 + (−1/2 + x3 )2 + x23 = 3x23 − 3x3 + 5 .


x3

4
p
Imponiendo que la norma sea 5/4 queda la condición
3x23 − 3x3 = 0,
que nos da los valores x3 = 0 y x3 = 1. Sustituyendo en la solución del sistema de mı́nimos cuadrados tenemos las dos
soluciones que pide el enunciado:
   
1 0
 −1/2  y  1/2  .
0 1
(d) Escribamos una combinación lineal de los vectores de S igualada a cero:
α1 v1 + . . . + αp vp = 0.
En caso de que probemos que todos los coeficientes han de ser nulos tendremos que S es linealmente independiente.
Multiplicando escalarmente la expresión anterior por cualquiera de los vectores de S (digamos vi ) tendremos
α1 (vi · v1 ) + . . . + αi−1 (vi · vi−1 ) + αi (vi · vi ) + αi+1 (vi · vi+1 ) + . . . + αp (vi · vp ) = 0.
Por ser S ortonormal, vi · vj = 0 siempre que j 6= i y además vi · vi = 1. Llevando todo esto a la expresión anterior
tendremos
=0 =0 =1 =0 =0
z }| { z }| { z }| { z }| { z }| {
α1 (vi · v1 ) + . . . + αi−1 (vi · vi−1 ) +αi (vi · vi ) +αi+1 (vi · vi+1 ) + . . . + αp (vi · vp ) = 0,
quedando, por tanto,
αi = 0.
Como el razonamiento no depende del subı́ndice i escogido, acabamos de probar que todos los coeficientes de la
combinación lineal son nulos y, de ese modo, S es linealmente independiente.

8. Ejercicios.
Ejercicio 1. Dados los subespacios
     
 1 2 0  

 
  2x + y + 3z − t = 0,
0   1   1
E = Gen   2
,
  2  ,  −2
  
 y F ≡ 3x + 2y − 2t = 0,
 

 
 3x + y + 9z − t = 0,
1 3 1

obtener una base y unas ecuaciones implı́citas de E ⊥ y de F ⊥ .

121
Ejercicio 2. Descomponer el vector (1, 3, −1, 4)T en suma de dos vectores u + v siendo u proporcional a (2, 1, 0, 1)T
y v ⊥ u.

Ejercicio 3. Hallar la proyección ortogonal de los siguientes vectores sobre los subespacios que se indican:

(a) (4, 1, 3, −2)T sobre el subespacio definido por x1 + x2 + x3 + x4 = 0.


(b) (1, 1, 1, 1)T sobre el subespacio de R4 dado por:

x − y + z − 2t = 0,
E≡
y + z = 0.

(c) (3, −4, 5)T sobre el subespacio f (E) siendo f la aplicación lineal dada por la matriz
 
1 0 1
A =  −1 1 0 
0 1 −1

y E el subespacio de R3 dado por x − y − z = 0.

Ejercicio 4. Dados los subespacios de R3 ,

E ≡ {3x + y − 2z = 0} y F ≡ {x + 7y + z = 0, x − y − z = 0},

obtener una base de (E + F )⊥ .

Ejercicio 5. Dadas las bases ortonormales de R2


  √ 
√ T  √ √ T
B1 = u1 = 1/ 2, 1/ 2 , u2 = −1/ 2, 1/ 2 y
 T 
 √ T  √
B2 = w1 = 1/2, 3/2 , w2 = − 3/2, 1/2

hallar la matriz correspondiente al cambio de una de esas bases a la otra. Comprobar que la matriz de paso es ortogonal.

Ejercicio 6. Hallar el vector perteneciente al subespacio de R4 generado por los vectores

(2, 0, −1, 2)T , (1, 2, −2, 0)T y (−1, 2, 0, −2)T

que está más cerca del vector (1, 1, 1, 1)T .

Ejercicio 7. Hallar la matriz de la proyección ortogonal sobre cada uno de los siguientes subespacios de R4 :

(a) el subespacio generado por (0, 2, 1, 0)T y (1, 1, 0, 1)T .


(b) el subespacio generado por (0, 0, 2, 1)T y (1, 1, −1, 0)T .

x − 3y + z + t = 0
(c) Sobre E y E ⊥ , siendo E ≡ Comprobar que, como debe ser, la suma de ambas matrices
2x − 5y + z + 2t = 0
vale I.

Ejercicio 8. Dado el subespacio S ⊂ R3 definido por x1 − 2x2 + 2x3 = 0, se pide:

(a) Hallar la matriz de la proyección ortogonal sobre S. ¿Cuál es la matriz de la proyección ortogonal sobre S ⊥ ?
(b) Obtener una base de S ⊥ .
(c) Demostrar que Col (A) = S, siendo  
2 0
A= 0 1 .
−1 1

122
(d) Dado el vector v = (1, 1, 1)T , calcular el vector de S que dista menos de v.

Ejercicio 9. Aplicar el método de Gram-Schmidt a la siguiente base de R4 :



(1, 0, 1, 0)T , (1, 1, 0, 0)T , (0, 1, 1, 1)T , (0, 1, 1, 0)T .

Ejercicio 10. La proyección ortogonal del vector v = (5, −2, 3)T sobre la recta x = y, y = z es:
T
(−1, −1, −1) .
T
(3, 3, 3) .
T
(2, 2, 2) .

Ejercicio 11. Halla una base ortonormal de Col (A) y otra de N ul (A) siendo
 
1 1 0
 0 −1 1 
A=  1
.
1 −1 
1 1 1

Ejercicio 12. Dado el subespacio



E = Gen (a, 0, 0, 0)T , (a, a, b, 0)T , (a, b, −a, 1)T con a, b ∈ R.

(1) Hallar una base ortonormal del subespacio E según los valores de a y b.
(2) Hallar la matriz de la proyección ortogonal sobre E, cuando a = 0.
(3) Calcular los valores de los parámetros a y b tales que el subespacio dado por las ecuaciones

 x1 = 0
5x1 + x2 + 3x3 = 0

−2x1 + 3x2 − x3 + x4 = 0

sea ortogonal a E.

Ejercicio 13. Sea A una matriz cuadrada de orden 25 cuyo rango es 21. ¿Qué sucede al aplicar el método de
Gram-Schmidt a los vectores columna de A? ¿Cuántas veces? ¿Por qué?
Ejercicio 14. Resolver en el sentido de los mı́nimos cuadrados los siguientes sistemas de ecuaciones

(a) x = 1, x = 7, x = −3, x = 12.


(b) x = a1 , x = a2 , ..., x = an , siendo a1 , a2 , ..., an números reales. ¿Qué se obtiene cuando alguno de los valores ak
aparece repetido?
(c) Ax = b siendo    
1 1 2
A= yb= .
1 1 4

Ejercicio 15. Resuelve en el sentido de los mı́nimos cuadrados los dos sistemas equivalentes siguientes (que tendrı́an
las mismas soluciones exactas si fueran compatibles)
 
x1 + x2 = 3 x1 + x2 = 3
2x1 + 2x2 = 4 x1 + x2 = 1

123
n o
T T T
Ejercicio 16. Dados el subespacio E = Gen [1, 0, 0, 1] , [0, 1, 0, 2] , [0, 0, 1, 1] y la matriz
 
a1 b 1
 a2 2 
A=
 a3 b 2  .

−2 b3

(a) Calcular una base de E ⊥ .


(b) Hallar la matriz de la proyección ortogonal sobre E.
(c) Calcular A sabiendo que Col (A)) está contenido en E ⊥ .
t
(d) Resolver en el sentido de los mı́nimos cuadrados, el sistema Ax = b con b = (1, −1, 0, 0) .

Ejercicio 17. Calcular las rectas de regresión y = ax + b y x = αy + β para los datos:

x 1 2 3 4 5 6 7
y 2 3 1 4 6 7 5

Ejercicio 18. Se supone que el número de horas de autonomı́a de un avión está relacionada con las cantidades de
dos tipos de combustible x1 y x2 (que se pueden utilizar de manera indistinta o mezclados) mediante y = c1 x1 + c2 x2 .
Después de realizar un experimento se obtienen los siguientes datos.

x1 1 0 1 2 1
x2 0 1 1 1 2
y 4 5 6 5 4

¿Cuáles son los mejores coeficientes c1 y c2 en el sentido de los mı́nimos cuadrados?

Ejercicio 19. Consideremos el sistema Sus  ecuaciones


 normales
  de Gauss son:
6 1 x 4

0 1 
 
1
 = .
 1 4 y 8
 1 1  x  1 
 
 −1 1  y = .     
 3  6 2 x 2
2 1 3 = .
2 4 y 4
    
6 2 x 4
= .
2 4 y 8

Ejercicio 20. Consideremos los vectores v1 , v2 , v3 y v4 de R4 y la matriz C dados por


       
1 0 1 −1  
 −1   1   −1   −8 
v1 =  2  , v2 =  2  , v3 =  2  , v4 =  1  ;
       C =  v1 v2  .
0 2 3 2

(a) Calcular la matriz de la proyección ortogonal sobre S = Gen {v1 , v2 , v3 }, el vector de S más cercano a v4 y la
distancia de v4 a S.
(b) Resolver, en el sentido de los mı́nimos cuadrados, el sistema Cx = v3 .

124

También podría gustarte