Está en la página 1de 16

De la independencia lineal al proceso de

ortogonalización de Gram-Schmidt
Genaro Luna Carreto*
22 de Abril de 2017, 1 am.

Resumen
Estas pequeñas notas tienen el propósito de formar un camino, casi
directo, desde la definición de independencia lineal, hasta la ortogona-
lización de Gram- Schmidt. Claro que se incluye la definición de base,
ası́ como los teoremas que justfican el concepto de dimensión.

Sea V un espacio vectorial y v1 , . . . , vn ∈ V . Se dice que v1 , . . . , vn


son linealmente dependientes si existen escalares x1 , x2 , . . . , xn no to-
dos cero tales que

x1 v1 + x2 v2 . . . , xn vn = 0

Una colección de vectores v1 , . . . , vn que no es linealmente depen-


diente, se dice que es linealmente independiente. En otras palabras
si x1 , . . . , xn son escalares tales que

x1 v1 + x2 v2 . . . , xn vn = 0
entonces x1 = x2 = · · · = xn = 0.
Ejemplo 0.1. Los vectores (3, 2, 1) y (−6, −4, −2) son linealmente
dependientes, pues los escalares 1, 21 no son todos cero y
1
(3, 2, 1) + (−6, −4, −2) = 0
2
*
Profesor de la Benemérita Universidad Autónoma de Puebla, México.

1
Facultad de Ciencias de la Electrónica Álgebra lineal

Ejemplo 0.2. Muestra que (2, 0, −4, 1) y (1, 2, −1, 3) son linealmente
independientes.

Es un ejemplo sencillo. Sin embargo, será de utilidad para explicar


lo que se debe hacer en estos casos. Si se quiere probar que v1 , . . . , vn
son linealmente independientes entonces se siguen los siguientes pasos:
1. Se forma una combinación lineal de los vectores

x1 v1 + x2 v2 . . . , xn vn

2. Dicha combinación se iguala a cero

x1 v1 + x2 v2 . . . , xn vn = 0

3. Por algún método, el cual depende del espacio vectorial, se debe


probar que x1 = 0, x2 = 0, . . . , xn = 0.
En nuestro caso, formamos una combinación lineal de (2, 0, −4, 1) y
(1, 2, −1, 3) y la igualamos a cero:

a(2, 0, −4, 1) + b(1, 2, −1, 3) = 0


El propósito ahora es mostrar que a = 0, b = 0. En primer lugar, note
que se trata de una multiplicación por escalar y suma de vectores en
R4 . De manera que, el cero de la derecha en la ecuación es (0, 0, 0, 0).
Realizamos las operaciones indicadas:

a(2, 0, −4, 1) + b(1, 2, −1, 3) = (0, 0, 0, 0) (1)


(2a + b, 2b, −4a − b, a + 3b) = (0, 0, 0, 0) (2)
(3)

Obviamente, se iguala miembro a miembro y resultan 4 ecuaciones:

2a + b = 0 (4)
2b = 0 (5)
−4a − b = 0 (6)
a + 3b = 0 (7)

De la segunda ecuación se obtiene que b = 0. Ya con ello, obtener


a = 0, es fácil.

Genaro Luna Carreto 2 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Ejemplo 0.3. Sea V el espacio vectorial de todas las funciones infini-


tamente derivables cuyo dominio es el conjunto de los números reales,
sobre el campo real. Muestra que e2x , e3x es LI.

Se forma una combinación lineal de las funciones y se iguala a cero:

ae2x + be3x = 0 (8)

Se mostrará que los escalares a, b son cero. La igualdad (8), es entre


funciones. No es una ecuación simple donde se debe encontrar x. Es
común aplicar la derivada en ambos lados:

2ae2x + 3be3x = 0 (9)

Ahora multiplicamos a (8) por −3 y sumamos a (9)

−ae2x = 0 (10)

En forma equivalente ae2x = 0. Es bien sabido que la función expo-


nencial nunca es cero, asi que se puede pasar dividiendo, por lo tanto
a = 0. En forma análoga y sabiendo que a = 0, se usa la ecuación (8),
para mostrar que b = 0.
Teorema 0.1. Sean v1 , v2 , v3 , . . . , vn vectores linealmente indepen-
dientes en un espacio vectorial V . Muestre que ninguno de ellos es
cero.
Demostración. Si vi = 0 entonces podemos formar la siguiente com-
binación lineal:

0v1 + 0v2 . . . 1vi . . . , 0vn = 0


donde es claro que no todos escalares son cero, lo cual es una contra-
dicción, pues indica que la colección de vectores es LD.
Teorema 0.2. Sean S = {v1 , v2 , v3 , . . . , vn } una colección de vecto-
res linealmente independientes en un espacio vectorial V . Si W ⊆ S
entonces W es una colección de vectores linealmente independientes.
Demostración. La colección de elementos en W es finita. Sea W =
{vs1 , vs2 , . . . , vsr }. Podemos renombrar a los elementos de restantes de
S como vsr+1 , vsr+2 , . . . , vsn . Formemos una combinación lineal de W
igual a cero:
x1 vs1 + x2 vs2 + · · · + xr vsr = 0

Genaro Luna Carreto 3 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

De donde se puede considerar la combinación:

x1 vs1 + x2 vs2 + · · · + xr vsr + 0vsr+1 + · · · + 0vsn = 0

En realidad, se trata de una combinación lineal igual a cero, de los


elementos de S, por lo tanto todos los escalares son cero. Por ende,
los elementos de W son linealmente independientes.

Ejemplo 0.4. Sea S = {v1 , v2 , v3 , . . . , vn } una colección de vectores


linealmente dependientes. Si W ⊆ S, entonces ¿W es linealmente de-
pendiente?

La respuesta es no. Considere S = {(1, 0), (0, 1), (2, 0)} una colec-
ción de vectores en R2 . Los vectores de S son linealmente dependientes,
pues

−2(1, 0) + 0(0, 1) + 1(2, 0) = 0


es una combinación lineal, y algunos escales no son cero. Sin embargo,
la colección {(1, 0), (0, 1)} ⊆ S esta formada por vectores linealmente
independientes.
Teorema 0.3. Sean v1 , v2 , · · · , vn vectores linealmente independien-
tes de V . Suponga que existe w ∈ V \ gen{v1 , v2 . . . , vn }. Demuestre
que v1 , v2 , . . . , vn , w son linealmente independientes.

Demostración. Formemos una combinación lineal de los vectores

v1 , v2 , . . . , vn , w

igual a cero:

x1 v1 + x2 v2 + · · · + xn vn + xn+1 w = 0 (11)

¿Qué ocurre si xn+1 no es cero? Pues entonces es posible escribir a w


como combinación lineal de los elementos v1 , v2 , . . . , vn

xn+1 w = −x1 v1 − x2 v2 − · · · − xn vn (12)


w= −(x−1
n+1 x1 )v1 − (x−1
n+1 x2 )v2 − ··· − (x−1
n+1 xn )vn (13)
(14)

Genaro Luna Carreto 4 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Sin embargo, esto quiere decir que w ∈ gen{v1 , v2 . . . , vn }, lo cual es


falso. Por lo tanto xn+1 debe ser cero. De la ecuación (11), se obtiene

x1 v1 + x2 v2 + · · · + xn vn = 0 (15)

Sólo tenemos una combinación lineal de elementos linealmente inde-


pendientes, entonces x1 = x2 = · · · = xn = 0.

Ejercicios 1. 1. Suponga que w1 , w2 son linealmente dependien-


tes. Si W es finito y w1 , w2 ∈ W , muestra que W es linealmen-
te dependiente. Es seguro que la demostración que haga puede
adaptarse, para mostrar que si el conjunto {w1 , w2 , . . . , wn } es
linealmente dependiente y está contenido en W , entonces W es
LD.
2. Sea S = {(3, 8), (−1, 2)}. Muestre que:
a) Los elementos de S son LI.
b) Cualquier elemento de R2 , puede escribirse como combina-
ción lineal de elementos de S.
   
3 7
3. Verifica que los vectores  2 ,  1  son linealmente in-
1 −1
dependientes. Además, muestra que dichos vectores no generan
a todo R3 , esto es, encuentra vectores de R3 que no se puedan
escribir como combinación lineal de los vectores dados.
Definición 0.1 (Base de un espacio vectorial). El conjunto {v1 , v2 , . . . , vn }
es una base para el espacio vectorial V , si ocurren dos cosas:
(I) Los vectores en {v1 , v2 , . . . , vn } son linelamente independientes.
(II) Cada elemento de v ∈ V es una combinación lineal de elementos
en {v1 , v2 , . . . , vn }.
Sea V es espacio vectorial. Se dice que el conjunto B = {v1 , v2 , . . . , vr }
de vectores linealmente independientes es maximal, si al tomar un
elemento w de V , entonces {v1 , v2 , . . . , vr , w} es dependiente.
Teorema 0.4. Sea B = {v1 , v2 , . . . , vn } un conjunto finito de vectores.
Son equivalentes:
(a) B es maximal.
(b) B es base de V

Genaro Luna Carreto 5 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

(a) ⇒ (b). La definición de base exige independencia lineal (vea I) y


ser generador (vea II) de todo V . La primera caracterı́stica ya se tiene
por hipótesis. La segunda, se relaciona de alguna manera con la forma
de analizar el resultado contenido en el teorema (0.3). Sea v ∈ V . ¿Qué
pasarı́a si v no es una combinación lineal de elementos en B? entonces
v ∈ V \ genB. Según el teorema (0.3) la colección {v1 , v2 , . . . , vn , v}
serı́a linealmente independiente, lo cual es una contradicción al hecho
de que B es maximal. Por lo tanto v ∈ genB

(b) ⇒ (a). La primera exigencia para ser maximal es que sea una co-
lección de vectores linealmente independiente, pero {v1 , v2 , . . . , vn } ya
lo es por ser base. Sea v ∈ V . Naturalmente que v es una combinación
lineal de elementos de B:

v = x1 v1 + x2 v2 + · · · xn vn
esto es
0 = −v + x1 v1 + x2 v2 + · · · xn vn
Es claro que estamos en presencia de una combinación lineal, igual a
cero, de los vectores {v, v1 , v2 , . . . , vn }, donde los escalares no todos
son cero. Finalmente, {v, v1 , v2 , . . . , vn } es linealmente dependiente,
por lo tanto B es maximal.

Teorema 0.5. Sea B = {v1 , v2 , . . . , vn } una base y w un vector no ce-


ro. Existe i tal que si sustituimos vi por w, entonces {v1 , v2 , . . . , w . . . , vn }
genera a V .

Demostración. Obviamente

w = x1 v1 + · · · + xn vn

Como w no es cero, alguno de los escalares de la combinación no es


cero, digamos que xi no es cero. entonces:

w = x1 v1 + · · · + xi vi + · · · + xn vn (16)
−xi vi = x1 v1 + · · · − w + · · · + xn vn (17)
vi = (−x−1
i x1 )v1 + ··· − (−x−1
i )w + ··· + (−x−1
i xn )vn (18)
(19)

Genaro Luna Carreto 6 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Ası́ que uno de los elementos de la base, vi , es una combinación


lineal de {v1 , v2 , . . . , w . . . , vn }. Por sencillez, consideremos que
vi = t1 v1 + t2 v2 + · · · + ti w · · · + tn vn (20)
Ahora bien. Sea v cualquier elemento de V . Seguro que v = y1 v1 +
y2 v2 · · · + yn vn . Sin embargo, vi puede ser cambiado por la expresión
(20)
v = y1 v1 + y2 v2 · · · + yn vn (21)
= y1 v1 + · · · + yi vi · · · + yn vn (22)
= y1 v1 · · · + yi (t1 v1 + t2 v2 + · · · + ti w · · · + tn vn ) · · · + yn vn (23)

Es aparatoso, pero sólo es una combinación lineal de v1 , . . . , w, . . . , vn

= (y1 + yi t1 )v1 + (y2 + yi t2 )v2 + . . . (yi ti )w · · · + (yn + yi tn )vn


(24)

Corolario 0.1. Sea B = {v1 , v2 , . . . , vn } una base de V . Entonces


cualquier colección de vectores w1 , w2 , . . . , wn , wn+1 ∈ V es lineal-
mente dependiente.
Demostración. Digamos que w1 , w2 , . . . , wn , wn+1 es linealmente in-
dependiente. Por el teorema (0.1), ningún wi es cero. Ahora bien, por
el teorema (0.5), existe algún i tal que {v1 , v2 , . . . , w . . . , vn } genera a
V . Sin pérdida de genralidad, digamos que {w1 , v2 , . . . , vn } genera a
V . Sin duda

w2 = x1 w1 + x2 v2 + · · · + xn vn (25)
No puede ser que x2 = x3 = · · · = xn = 0, pues entonces w1 , w2 serı́an
dependientes (vea teorema (0.2)). Por lo tanto alguna xi no es cero
para i ≥ 2. Es posible suponer que x2 6= 0. Ası́
w2 = x 1 w1 + x 2 v 2 + · · · + x n v n (26)
−x2 v2 = x1 w1 − w2 + · · · + xn vn (27)
v2 = (−x−1
2 x1 )w1 − (−x−1
2 )w2 + ··· + (−x−1
2 xn )vn (28)
De la misma forma que el teorema (0.5), {w1 , w2 , v3 . . . , vn } genera
a V . Si el proceso continua, entonces {w1 , w2 , w3 . . . , wn } genera a V ,
con lo cual
wn+1 = y1 w1 + y2 w2 + · · · + yn wn .

Genaro Luna Carreto 7 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Sin duda, es una contradicción. Finalmente, esto demuestra que

w1 , w2 , . . . , wn , wn+1

es linealmente dependiente.

El teorema dice que basta que una colección de vectores tenga


un elemento más que una base, para afirmar que es linealmente de-
pendiente. Claro que, si tiene la colección {w1 , w2 , . . . , wm } y la base
{v1 , v2 , . . . , vn }, donde m > n (vea ejercicio (1) en la lista de ejercicios
(1)), se debe concluir que {w1 , w2 , . . . , wm } es LD.
Corolario 0.2. Sea B = {v1 , v2 , . . . , vn } una base de V . Si

{w1 , w2 , . . . , , wm } ⊆ V

es una colección de vectores linealmente independientes, entonces m ≤


n.

Demostración. Si m > n, entonces {w1 , w2 , . . . , , wm } es un conjunto


que tiene más elementos que una base, según el corolario (0.1), es
linealmente dependiente, lo cual es falso. Por lo tanto m ≤ n.

Corolario 0.3. Si V tiene una base de n elementos, entonces cual-


quiera de sus bases tiene el mismo número de elementos.

Demostración. Sean B1 = {v1 , v2 , . . . , vn } y B2 = {w1 , w2 , . . . , wm }


bases de V . Si n < m, según el corolario (0.1), B2 debe ser linealmente
dependiente, lo cual es absurdo. De la misma manera, es falso que
n > m. Por tricotomı́a, la única opción que queda es n = m.

Definición 0.2. La dimensión de un espacio vectorial V se define


como el número de elementos de cualquiera de sus bases. Se denota
por dim(V ).
Observación 0.1. El corolario (0.2), afirma que en un espacio vec-
torial de dimensión n, el número de elementos de cualquier colección
de vectores linealmente independientes, no puede exceder en número
a n.
Ejemplo 0.5. Sea V = M2×2 . Determinar si el conjunto de vectores

2 − 12
         
0 1 −3 9 −5 −1 0 1
S= , , , ,
6 1 1 −1 5 4 1 4 −1 0

Genaro Luna Carreto 8 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

es linealmente independiente.

En realidad el ejercicio es muy sencillo. Sabemos que existe una


base canónica de las matrices 2 × 2:
       
1 0 0 1 0 0 0 0
, , ,
0 0 0 0 1 0 0 1

Es notable que esta base tiene cuatro elementos. De manera que cual-
quier colección (vea corolario (0.1)) de más de 4 elementos debe ser
linealmente dependiente. Ası́, S es LD.
Teorema 0.6. Sea V un espacio vectorial de dimensión n. Si W es
un subespacio no nulo de V , entonces W tiene una base y dim(W ) ≤
dim(V )

Demostración. W es un subespacio con elementos diferentes de cero,


sea w1 uno de ellos. Si gen{w1 } = W entonces w1 es base de W . Si
existe w2 ∈ W \ gen{w1 }, por el teorema (0.3), w1 , w2 son linealmente
independientes. Repetimos el proceso, si gen{w1 , w2 } = W , w1 , w2 es
base de W . De lo contrario, si existe w3 ∈ W \ gen{w1 , w2 }. Sabemos
que w1 , w2 , w3 son linealmente independientes. El proceso no es eterno,
pues como ya se vio, el número de vectores linealmente independiente,
tiene como lı́mite n. Ası́ pues, existe m tal que

gen{w1 , w2 , . . . , wm } = W

Corolario 0.4. Sea V un espacio vectorial de dimensión n. Si W es


un subespacio de V y dim(W ) = dim(V ) entonces W = V

Demostración. Si V = {0} 1 , el resultado es obvio. Por otro lado, debi-


do que se probará una igualdad conjuntual W = V , entonces se deben
mostrar dos contenciones: W ⊆ V y V ⊆ W . La primera es obvia. Para
el caso de la segunda, sea v ∈ V . Se debe mostrar que v ∈ W . Consi-
dere w1 , w2 , . . . , wn base de W . Ya sabemos que w1 , w2 , . . . , wn , v es
LD, por poseer más elementos que una base. Existen x1 , x2 , . . . xn+1
no todos cero tales que

x1 w1 + · · · + xn wn + xn+1 v = 0
1
En este caso V no tiene una base, pero se dice que la dimensión de V es cero

Genaro Luna Carreto 9 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Si xn+1 = 0, entonces todas las xi serı́an cero, lo cual es una contra-


dicción pues se habı́a dicho que los escalares xi no son todos cero. Ası́
pues, xn+1 no es cero. Es fácil concluir que v es combinación lineal de
los elementos de la base de W , por ende v ∈ gen{w1 , w2 , . . . , wn } = W
Observación 0.2. El teorema (0.6), muestra una proceso interesante.
Sea V un espacio de dimensión n y suponga que W es subespacio de
V . Además, sea {w1 , w2 . . . , wm } base de W . ¿Qué ocurre si existe

wm+1 ∈ V \ gen{w1 , w2 , . . . , wm }?

Pues {w1 , w2 , . . . , wm , wm+1 } serı́a linealmente independiente ( vea


teorema (0.3)) y

W ⊆ gen{w1 , w2 , . . . , wm , wn+1 } = W1

Si repetimos el proceso, se lograrı́a una cadena de subespacios, uno


contenido en el otro (vea siguiente figura). Sin duda, llegarı́a el mo-
mento en que habrı́a un Wk tal que Wk = V . En otras palabras, si
se tiene la base de cualquier subespacio, es posible completarla para
construir una base de V .

1. Proceso de ortogonalización de
Gram-Schmidt
Son bien conocidas las propiedades del producto punto definido en
Rn :
1. A · B = B · A

Genaro Luna Carreto 10 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

2. A · (B + C) = A · B + A · C.
3. (xA) · B = x(A · B) y A · (xB) = x(A · B)
4. A · A ≥ 0
5. Si A 6= 0 entonces A · A > 0
Para el caso general de cualquier espacio vectorial V , algunas veces,
es posible definir funciones que satisfacen las propiedades enunciadas
del producto punto. Si satisface, las primeras 3 propiedades, recibe
también el nombre de producto escalar. Es común denotarlo por h , i.
Si además satisface las propiedades 4 y 5, entonces se dice que el es-
pacio vectorial V tiene un producto escalar definido positivo.

Con la nueva notación, las propiedades de un producto escalar


definido positivo se verı́an ası́:
1. hu, vi = hv, ui
2. hu, v + wi = hu, vi + hu, wi.
3. hxu, vi = xhu, vi y hu, xvi = xhu, vi
4. hu, ui ≥ 0
5. Si u 6= 0 entonces hu, ui > 0
Ejemplo 1.1. Sea V = C[0, 1], es decir el espacio vectorial de las
funciones continuas sobre el intervalo [0, 1]. Definamos:
Z 1
hf, gi = f (t)g(t)dt (29)
0

No hay dificultad en mostrar que satisface las 5 propiedades, por ejem-


plo, satisface la propiedad 2:
Z 1
hf, g + hi = f (t)[g(t) + h(t)]dt (30)
0
Z 1
= [f (t)g(t) + f (t)h(t)]dt (31)
0
Z 1 Z 1
= f (t)g(t)dt + f (t)h(t)dt (32)
0 0
= hf, gi + hf, hi (33)

Genaro Luna Carreto 11 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Ahora la propiedad 3:
Z 1
hxf, gi = xf (t)g(t)dt (34)
0
Z 1
=x f (t)g(t)dt (35)
0
= xhf, gi (36)

Se dejan como ejercicio las restantes. Finalmente, hf, gi es un producto


escalar definido positivo.
El hecho de definir productos escalares , responde a la necesidad
disponer de espacios vectoriales diferentes de Rn , pero con propiedades
similares. Por ejemplo, considerando el espacio con producto escalar
definido positivo dado para funciones, nada impide definir norma:
p
||f || = hf, f i

Es muy importante para los fines del proceso de Gram-Schmidt, ha-


blar de la proyección de un vector sobre otro.

Sean v, w elementos de V

La proyección de v sobre w , en el vector cw ubicado sobre el vector


w.

Genaro Luna Carreto 12 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Se requiere calcular c de tal forma que v − cw sea ortogonal a w,


esto es hv − cw, wi = 0. Ahora usemos las propiedades del producto
escalar:

hv − cw, wi = hv, wi − hcw, wi = 0 (37)


= hv, wi − chw, wi = 0 (38)
(39)

por lo tanto

hv, wi − chw, wi = 0 (40)


chw, wi = hv, wi (41)
hv, wi
c= (42)
hw, wi

hv, wi
Ası́ pues, la proyección de v a lo largo de w es: w
hw, wi
Teorema 1.1. Sea V un espacio vectorial con producto escalar de-
finido positivo. Sea w1 , . . . , wm una base ortogonal de un subespacio
W de V . Si W 6= V , entonces existen elementos wm+1 , wm+2 , . . . , wn
tales que w1 , w2 , . . . , wn es base ortogonal de V .

Demostración. Inicialmente se tiene la base ortogonal w1 , . . . , wm de


W . De acuerdo a la observación (0.2), es posible hallar vm+1 , . . . , vn ,
tales que {w1 , . . . , wm , vm+1 , . . . , vn } es base de V . Sea

Wm+1 = gen{w1 , . . . , wm , vm+1 }.

La base de Wm+1 , casi es ortogonal, excepto por vm+1 . Ahora explica-


remos como construir un wm+1 , que sustituya a vm+1 , pero que logre
formar una base ortogonal para el subespacio Wm+1 .

Sea wm+1 el vector que resulta de restar a vm+1 , todas las pro-
yecciones de éste último, con los elementos w1 , . . . , wm . Si ci wi es la
proyección de vm+1 sobre wi , entonces

wm+1 = vm+1 − c1 w1 − c2 w2 − · · · − cm wm .
wm+1 es ortogonal a cada elemento w1 , . . . , wm . Veamos.

Genaro Luna Carreto 13 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

hwm+1 , wi i = hvm+1 − c1 w1 − c2 w2 − · · · − cm wm , wi i (43)

cambiamos de posición al elemento ci wi que se encuentra en la resta


y lo acomodamos junto a vm+1

= hvm+1 − ci wi − c1 w1 − c2 w2 − · · · − cm wm , wi i (44)
= hvm+1 − ci wi , wi i + hc1 w1 , wi i + hc2 w2 , wi i + . . . hcm wm , wi i
(45)

El primer producto es cero, porque ası́ se contruyó la proyección. Todos


los demás productos son cero, porque los elementos wi , son ortogonales
entre sı́. Por lo tanto para cada i ∈ {1, . . . m}:

hwm+1 , wi i = 0
En resumen, {w1 , w2 , . . . , wm , wm+1 } es base ortogonal de Wm+1 .

Es claro que W ⊆ Wm+1 . Sin duda, si Wm+1 no es igual a V ,


el proceso se puede repetir. Se forma un subespacio Wm+2 con las
mismas condiciones que Wm+1 . De esta forma, W ⊆ Wm+1 ⊆ Wm+2 .
El proceso es finito, llegará un momento en que Wk+1 = V . Ası́,
tendremos una base ortogonal para V .

Corolario 1.1. Sea V es espacio vectorial de dimesnión finita con un


producto escalar definido positivo. Si V 6= {0}, entonces V tiene una
base ortogonal.

Demostración. Tomando un elemento v1 no cero de V , se puede em-


pezar a construir una base {v1 , . . . , vn } de V . Expliquemos como son
los elementos wi de la base ortogonal:

w1 = v 1 (46)
hv2 , w1 i
w2 = v 2 − w1 (47)
hw1 , w1 i
hv3 , w1 i hv3 , w2 i
w3 = v 3 − w1 − w2 (48)
hw1 , w1 i hw2 , w2 i
... = ... (49)
hvn , w1 i hvn , w2 i hvn , wn−1 i
wn = v n − w1 − w2 − . . . wn−1 (50)
hw1 , w1 i hw2 , w2 i hwn−1 , wn−1 i

Genaro Luna Carreto 14 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Ejemplo 1.2. Sea V el espacio generado por los vectores v1 = (1, 3, −1, 2),
v2 = (0, −1, 8, 3) y v3 = (2, 1, −1, 0). Se deja como ejercicio mostrar
que los vectores son linealmente independientes. Ahora, construyamos
la base ortogonal. El proceso en recursivo, estos es, con w1 , se obtiene
w2 ; con w3 se obtiene w4 , etc. El primer elemento, w1 , ya lo tenemos
es w1 = v1 = (1, 3, −1, 2). El segundo, según el método descrito es

hv2 , w1 i
w2 = v 2 − w1 (51)
hw1 , w1 i
h(0, −1, 8, 3), (1, 3, −1, 2)i
= (0, −1, 8, 3) − (1, 3, −1, 2) (52)
h(1, 3, −1, 2), (1, 3, −1, 2)i
−5 1
= (0, −1, 8, 3) − (1, 3, −1, 2) = (0, −1, 8, 3) + (1, 3, −1, 2)
15 3
(53)
 
1 23 11
= , 0, , (54)
3 3 3

Por comodidad escribiremos w2 = 31 (1, 0, 23, 11).

hv3 , w1 i hv3 , w2 i
w3 = v 3 − w1 − w2 (55)
hw1 , w1 i hw2 , w2 i
h(2, 1, −1, 0), (1, 3, −1, 2)i
= (2, 1, −1, 0) − (1, 3, −1, 2)− (56)
h(1, 3, −1, 2), (1, 3, −1, 2)i
h(2, 1, −1, 0), 31 (1, 0, 23, 11)i 1
(1, 0, 23, 11) (57)
h 31 (1, 0, 23, 11), 13 (1, 0, 23, 11)i 3
1
6 (2 − 23) 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − 3 1 (1, 0, 23, 11) (58)
15 9 (651)
3
2 −7 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − 651 (1, 0, 23, 11) (59)
5 9
3
2 −3 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − · (1, 0, 23, 11) (60)
5 31 3
2 1 23 11
= (2, 1, −1, 0) − (1, 3, −1, 2) + ( , 0, , ) (61)
5 31 31 31
8 −1 −3 4 1 23 11
=( , , , − ) + ( , 0, , ) (62)
5 5 5 5 31
 31 31
253 −1 22 −69
= , , , (63)
155 5 155 155

Genaro Luna Carreto 15 Primavera 2017


Facultad de Ciencias de la Electrónica Álgebra lineal

Si se anima , puede comprobar que


    
1 23 11 253 −1 22 −69
(1, 3, −1, 2), , 0, , , , , ,
3 3 3 155 5 155 155

es ortogonal.
Si desea puede encontrar más ejercicios resueltos de espacios vec-
toriales en las direcciones:
http://matematicasfce.ece.buap.mx/algebralineal.html
http://matematicasfce.netii.net/algebralineal.html

Referencias
[1] Lang Serge. (1987). Linear Algebra. New York: Springer-Verlang.

Genaro Luna Carreto 16 Primavera 2017

También podría gustarte