Está en la página 1de 6

Ortogonalización de Gram–Schmidt

Objetivos. Estudiar el proceso de ortogonalización de Gram–Schmidt que permite cons-


truir de una lista arbitraria de vectores a1 , . . . , am una lista ortogonal b1 , . . . , bm que genere
al mismo subespacio.

Requisitos. Listas ortogonales de vectores, listas ortonormales de vectores, proyección


ortogonal de un vector sobre el subespacio generado por vectores ortogonales, matriz de
Gram.

En esta sección suponemos que V es un espacio vectorial complejo o real con un producto
interno. El el caso complejo suponemos que el producto interno es lineal con respecto al
segundo argumento.

1. Proyección ortogonal de un vector sobre el subespacio generado por una


lista ortogonal (repaso). Sean V un espacio vectorial real o complejo con producto
interno, b1 , . . . , bj algunos vectores ortogonales no nulos y v ∈ V . Definimos los vectores
u, w ∈ V de la siguiente manera:
m
X hbk , vi
u= bk , w = v − u. (1)
k=1
hbk , bk i

Entonces w ⊥ `(b1 , . . . , bj ).

2. Proceso de ortogonalización de Gram–Schmidt. Sea V un espacio vectorial real


o complejo con producto interno y sean a1 , . . . , am ∈ V . Queremos construir vectores
ortogonales b1 , . . . , bm ∈ V de tal manera que para todo j ∈ {1, . . . , m}

`(b1 , . . . , bj ) = `(a1 , . . . , aj ).

Idea del proceso de ortogonalización de Gram–Schmidt: en el j-ésimo paso


definir el vector bj como aj menos la proyección ortogonal del vector aj al
subespacio generado por los vectores b1 , . . . , bj−1 .

En el j-ésimo paso suponemos que los vectores b1 , . . . , bj−1 ya están construidos y son
ortogonales entre si. Buscamos bj de la forma
j−1
X
b j = aj − λj,k bk . (2)
k=1

Para memorizar los ı́ndices del coeficiente λj,k puede notar que este coeficiente sirve para
“corregir” el vector aj usando el vector bk .

Ortogonalización de Gram–Schmidt, página 1 de 6


Para calcular el coeficiente λj,q multipliquemos la igualdad (2) por bq en el sentido del
producto interno:
j−1 j−1
* +
X X
hbq , bj i = bq , aj − λj,k bk = hbq , aj i − δq,k λj,k kbk k2 = hbq , aj i − λj,q kbq k2 .
k=1 k=1

Queremos que hbq , bj i sea igual a 0. Si bq 6= 0, entonces λj,q debe ser igual a

hbq , aj i hbq , aj i
λj,q = 2
= .
kbq k hbq , bq i

Si bq = 0, entonces el sumando λj,q bi no depende de λj,q , y λj,q se puede elegir de manera


arbitraria. En este caso por simplicidad ponemos λj,q = 0.
Ası́ obtenemos las fórmulas principales:

j−1
X  hbk , aj i , bk 6= 0;

bj := aj − λj,k bk , donde λj,k := kbk k2 (3)

0,
k=1 bk = 0.

3. Observación. Es importante que el vector bj se construye como una combinación


lineal de los vectores b1 , . . . , bj−1 , aj , con el uso de los vectores nuevos b1 , . . . , bj−1 . Los
vectores b1 , . . . , bj−1 ya son ortogonales entre si, por eso las fórmulas para los coeficientes
λj,k son tan simples. Serı́a muy incómodo construir bj como una combinación lineal de los
vectores originales a1 , . . . , aj−1 , aj .

4. Ejemplo. Aplicar la ortogonalización de Gram–Schmidt a la lista de vectores a1 , a2 , a3 :


     
4 −6 5
 −2   3   −5 
a1 =  −1 
, a 2 = 
 4 
, a3 =  −3  .
 

2 −8 −4

Usando la matriz de Gram compruebe que la lista de vectores b1 , b2 , b3 que se obtiene al


final es ortogonal.

Solución. 1. Ponemos b1 = a1 . Calculamos la norma de b1 :

kb1 k2 = 16 + 4 + 1 + 4 = 25, kb1 k = 5.

2. Construimos el vector b2 .
hb1 , a2 i −24 − 6 − 4 − 16
λ2,1 = = = −2.
kb1 k2 25

Ortogonalización de Gram–Schmidt, página 2 de 6


De aquı́      
−6 8 2
 3   −4   −1 
b2 = a2 − λ2,1 b1 = a2 + 2b1 = 
 4  +  −2
  =
  2 .

−8 4 −4
Calculamos la norma de b2 :

kb2 k2 = 4 + 1 + 4 + 16 = 25, kb2 k = 5.

3. Construimos el vector b3 .
hb1 , a3 i 20 + 10 + 3 − 8 hb2 , a3 i 10 + 5 − 6 + 16
λ3,1 = 2
= = 1, λ3,2 = 2
= = 1.
kb1 k 25 kb2 k 25
De aquı́
    
  
5 −4 −2 −1
 −5   2   1   −2 
b3 = a3 − λ3,1 b1 − λ3,2 b2 = a3 − b1 − b2 = 
 −3  +  1
  +
  −2  =  −4
  .

−4 −2 4 −2

Calculamos la norma de b3 :

kb3 k2 = 1 + 4 + 16 + 4 = 25, kb3 k = 5.

Para comprobar que los vectores b1 , b2 , b3 son ortogonales calculamos su matriz de Gram:
 
  4 2 −1  
4 −2 −1 2  25 0 0
−2 −1 −2 
G(b1 , b2 , b3 ) =  2 −1 2 −4    −1
 =  0 25 0  .
2 −4 
−1 −2 −4 −2 0 0 25
2 −4 −2

Podemos normalizar los vectores b1 , b2 , b3 (dividirlos entre sus normas) y obtener una lista
ortonormal:
     
4/5 2/5 −1/5
 −2/5   −1/5   −2/5 
c1 =  −1/5 
, c2 = 
 2/5 
, c3 =  −4/5  .
 

2/5 −4/5 −2/5

5. Ejemplo. Ortogonalizar la siguiente lista de vectores en R4 :


       
5 9 7 −5
 1   3   −1   5 
a1 = 
 1 
, a 2 = 
 3 
, a 3 =  −1  ,
  a4 = 
 −1  .

−3 −7 −1 5

Ortogonalización de Gram–Schmidt, página 3 de 6


6. Criterio de la contención de subespacios en términos de sus generadores,
repaso. Sean a1 , . . . , aj ∈ V algunos vectores y sea S un subespacios de V . Entonces:

a1 , . . . , a j ∈ S ⇐⇒ `(a1 , . . . , aj ) ⊆ S.

7. Teorema (conservación de los subespacios en el proceso de ortogonalización


de Gram–Schmidt). Sea V un espacio vectorial real o complejo con producto interno y
sean a1 , . . . , am ∈ V . Denotemos por b1 , . . . , bm a los vectores obtenidos de a1 , . . . , am al
aplicar el método de ortogonalización de Gram-Schmidt:
j−1
X
b j = aj − λj,k bk , (4)
k=1

 hbk , aj i , bk 6= 0;

λj,k = kbk k2 (5)

0, bk = 0.

Entonces para todo j ∈ {1, . . . , m} los vectores a1 , . . . , aj generan al mismo subespacio


que los vectores b1 , . . . , bj :
`(a1 , . . . , aj ) = `(b1 , . . . , bj ).

Demostración. 1. De la fórmula (4) podemos expresar aj como una combinación lineal de


b1 , . . . , b j :
j−1
X
aj = λj,k bk + bj .
k=1

Esto implica que a1 , . . . , aj ∈ `(b1 , . . . , bj ).


2. Demostremos por inducción sobre j la siguiente afirmación P (j):

b1 , . . . , bj ∈ `(a1 , . . . , aj ).

El caso j = 1 es trivial: b1 = a1 ∈ `(a1 ). Supongamos que la afirmación P (j − 1) es válida,


esto es, b1 , . . . , bj−1 ∈ `(a1 , . . . , aj−1 ). Entonces cada sumando escrito en el lado derecho
de la fórmula (4) pertenece al subespacio `(a1 , . . . , aj ) y, por lo tanto, bj ∈ `(a1 , . . . , aj ).
Acabamos de demostrar que P (j − 1) implica P (j).
3. Del resultado de la parte 1 de la demostración se sigue que `(a1 , . . . , aj ) ⊆ `(b1 , . . . , bj ),
y del resultado de la parte 2 se sigue que `(b1 , . . . , bj ) ⊆ `(a1 , . . . , aj ).

Ortogonalización de Gram–Schmidt, página 4 de 6


8. Corolario (ortogonalización de Gram–Schmidt y dependencias lineales). Sean
a1 , . . . , am una lista de vectores en V y b1 , . . . , bm la lista obtenida de a1 , . . . , am al aplicar
la ortogonalización de Gram-Schmidt. Entonces para todo j ∈ {1, . . . , m} las siguientes
condiciones son equivalentes:

a) aj ∈ `(a1 , . . . , aj−1 ).

b) bj = 0.

Demostración. (a)⇒(b). Supongamos que aj ∈ `(a1 , . . . , aj−1 ). Entonces

bj ∈ `(b1 , . . . , bj ) = `(a1 , . . . , aj ) = `(a1 , . . . , aj−1 ) = `(b1 , . . . , bj−1 ),

lo que significa que bj es una combinación lineal de b1 , . . . , bj−1 . Como bj ⊥ {b1 , . . . , bj−1 },
los coeficientes de esta combinación lineal son nulos y bj = 0.
(b)⇒(a). Supongamos que bj = 0. Entonces

aj ∈ `(a1 , . . . , aj ) = `(b1 , . . . , bj ) = `(b1 , . . . , bj−1 , 0)


= `(b1 , . . . , bj−1 ) = `(a1 , . . . , aj−1 ).

9. Corolario. En las notaciones del teorema, las siguientes dos condiciones son equiva-
lentes:

(a) a1 , . . . , am son linealmente independientes.

(b) todos los vectores b1 , . . . , bm son no nulos.

10. Observación. En muchos libros el proceso de ortogonalización de Gram–Schmidt se


estudia solamente en el caso si los vectores originales a1 , . . . , am son linealmente indepen-
dientes. En este caso los vectores b1 , . . . , bm son no nulos, y la fórmula para los coeficientes
λj,k se simplifica (se quita el caso bk = 0). El autor de estos apuntes (Egor Maximenko)
agradece al profesor Vladimir Borı́sovich Dybin por la explicación del caso general.

Ortogonalización de Gram–Schmidt, página 5 de 6


11. Ejercicio. Ortogonalizar la siguiente lista de vectores en R4 :
     
2 −6 −10
 −4   5   13 
a1 = 
 5 ,
 a2 =  −1  ,
 a3 = 
 −4
.

2 −6 −3

12. Ejercicio. Usando el proceso de Gram–Schmidt ortogonalice la siguiente lista de


vectores en R4 :
     
4 −6 5
 −2   3   −5 
a1 =  ,
 −1  a2 = 
 4 
, a3 =  −3  .
 

2 −8 −4

13. Ejercicio. Aplique la ortogonalización de Gram–Schmidt a la siguiente lista de vec-


tores en R4 :
       
1 5 1 −2
 1   3   −1   0 
a1 = 
 1 
, a2 = 
 −3 
, a3 =  ,
 −7  a4 =  12  .
 

−1 −3 1 6

14. Tarea adicional. Consideramos el espacio de los polinomios P(R) con el producto
interno
Z1
hf, gi := f (x) g(x) dx.
−1

Aplique el proceso de Gram–Schmidt a los monomios e0 (x) = 1, e1 (x) = x, e2 (x) = x2 ,


e3 (x) = x3 .

Ortogonalización de Gram–Schmidt, página 6 de 6

También podría gustarte