Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ortogonalización de Gram-Schmidt
Genaro Luna Carreto*
22 de Abril de 2017, 1 am.
Resumen
Estas pequeñas notas tienen el propósito de formar un camino, casi
directo, desde la definición de independencia lineal, hasta la ortogona-
lización de Gram- Schmidt. Claro que se incluye la definición de base,
ası́ como los teoremas que justfican el concepto de dimensión.
x1 v1 + x2 v2 . . . , xn vn = 0
x1 v1 + x2 v2 . . . , xn vn = 0
entonces x1 = x2 = · · · = xn = 0.
Ejemplo 0.1. Los vectores (3, 2, 1) y (−6, −4, −2) son linealmente
dependientes, pues los escalares 1, 21 no son todos cero y
1
(3, 2, 1) + (−6, −4, −2) = 0
2
*
Profesor de la Benemérita Universidad Autónoma de Puebla, México.
1
Facultad de Ciencias de la Electrónica Álgebra lineal
Ejemplo 0.2. Muestra que (2, 0, −4, 1) y (1, 2, −1, 3) son linealmente
independientes.
x1 v1 + x2 v2 . . . , xn vn
x1 v1 + x2 v2 . . . , xn vn = 0
2a + b = 0 (4)
2b = 0 (5)
−4a − b = 0 (6)
a + 3b = 0 (7)
−ae2x = 0 (10)
La respuesta es no. Considere S = {(1, 0), (0, 1), (2, 0)} una colec-
ción de vectores en R2 . Los vectores de S son linealmente dependientes,
pues
v1 , v2 , . . . , vn , w
igual a cero:
x1 v1 + x2 v2 + · · · + xn vn + xn+1 w = 0 (11)
x1 v1 + x2 v2 + · · · + xn vn = 0 (15)
(b) ⇒ (a). La primera exigencia para ser maximal es que sea una co-
lección de vectores linealmente independiente, pero {v1 , v2 , . . . , vn } ya
lo es por ser base. Sea v ∈ V . Naturalmente que v es una combinación
lineal de elementos de B:
v = x1 v1 + x2 v2 + · · · xn vn
esto es
0 = −v + x1 v1 + x2 v2 + · · · xn vn
Es claro que estamos en presencia de una combinación lineal, igual a
cero, de los vectores {v, v1 , v2 , . . . , vn }, donde los escalares no todos
son cero. Finalmente, {v, v1 , v2 , . . . , vn } es linealmente dependiente,
por lo tanto B es maximal.
Demostración. Obviamente
w = x1 v1 + · · · + xn vn
w = x1 v1 + · · · + xi vi + · · · + xn vn (16)
−xi vi = x1 v1 + · · · − w + · · · + xn vn (17)
vi = (−x−1
i x1 )v1 + ··· − (−x−1
i )w + ··· + (−x−1
i xn )vn (18)
(19)
w2 = x1 w1 + x2 v2 + · · · + xn vn (25)
No puede ser que x2 = x3 = · · · = xn = 0, pues entonces w1 , w2 serı́an
dependientes (vea teorema (0.2)). Por lo tanto alguna xi no es cero
para i ≥ 2. Es posible suponer que x2 6= 0. Ası́
w2 = x 1 w1 + x 2 v 2 + · · · + x n v n (26)
−x2 v2 = x1 w1 − w2 + · · · + xn vn (27)
v2 = (−x−1
2 x1 )w1 − (−x−1
2 )w2 + ··· + (−x−1
2 xn )vn (28)
De la misma forma que el teorema (0.5), {w1 , w2 , v3 . . . , vn } genera
a V . Si el proceso continua, entonces {w1 , w2 , w3 . . . , wn } genera a V ,
con lo cual
wn+1 = y1 w1 + y2 w2 + · · · + yn wn .
w1 , w2 , . . . , wn , wn+1
es linealmente dependiente.
{w1 , w2 , . . . , , wm } ⊆ V
2 − 12
0 1 −3 9 −5 −1 0 1
S= , , , ,
6 1 1 −1 5 4 1 4 −1 0
es linealmente independiente.
Es notable que esta base tiene cuatro elementos. De manera que cual-
quier colección (vea corolario (0.1)) de más de 4 elementos debe ser
linealmente dependiente. Ası́, S es LD.
Teorema 0.6. Sea V un espacio vectorial de dimensión n. Si W es
un subespacio no nulo de V , entonces W tiene una base y dim(W ) ≤
dim(V )
gen{w1 , w2 , . . . , wm } = W
x1 w1 + · · · + xn wn + xn+1 v = 0
1
En este caso V no tiene una base, pero se dice que la dimensión de V es cero
wm+1 ∈ V \ gen{w1 , w2 , . . . , wm }?
W ⊆ gen{w1 , w2 , . . . , wm , wn+1 } = W1
1. Proceso de ortogonalización de
Gram-Schmidt
Son bien conocidas las propiedades del producto punto definido en
Rn :
1. A · B = B · A
2. A · (B + C) = A · B + A · C.
3. (xA) · B = x(A · B) y A · (xB) = x(A · B)
4. A · A ≥ 0
5. Si A 6= 0 entonces A · A > 0
Para el caso general de cualquier espacio vectorial V , algunas veces,
es posible definir funciones que satisfacen las propiedades enunciadas
del producto punto. Si satisface, las primeras 3 propiedades, recibe
también el nombre de producto escalar. Es común denotarlo por h , i.
Si además satisface las propiedades 4 y 5, entonces se dice que el es-
pacio vectorial V tiene un producto escalar definido positivo.
Ahora la propiedad 3:
Z 1
hxf, gi = xf (t)g(t)dt (34)
0
Z 1
=x f (t)g(t)dt (35)
0
= xhf, gi (36)
Sean v, w elementos de V
por lo tanto
hv, wi
Ası́ pues, la proyección de v a lo largo de w es: w
hw, wi
Teorema 1.1. Sea V un espacio vectorial con producto escalar de-
finido positivo. Sea w1 , . . . , wm una base ortogonal de un subespacio
W de V . Si W 6= V , entonces existen elementos wm+1 , wm+2 , . . . , wn
tales que w1 , w2 , . . . , wn es base ortogonal de V .
Sea wm+1 el vector que resulta de restar a vm+1 , todas las pro-
yecciones de éste último, con los elementos w1 , . . . , wm . Si ci wi es la
proyección de vm+1 sobre wi , entonces
wm+1 = vm+1 − c1 w1 − c2 w2 − · · · − cm wm .
wm+1 es ortogonal a cada elemento w1 , . . . , wm . Veamos.
= hvm+1 − ci wi − c1 w1 − c2 w2 − · · · − cm wm , wi i (44)
= hvm+1 − ci wi , wi i + hc1 w1 , wi i + hc2 w2 , wi i + . . . hcm wm , wi i
(45)
hwm+1 , wi i = 0
En resumen, {w1 , w2 , . . . , wm , wm+1 } es base ortogonal de Wm+1 .
w1 = v 1 (46)
hv2 , w1 i
w2 = v 2 − w1 (47)
hw1 , w1 i
hv3 , w1 i hv3 , w2 i
w3 = v 3 − w1 − w2 (48)
hw1 , w1 i hw2 , w2 i
... = ... (49)
hvn , w1 i hvn , w2 i hvn , wn−1 i
wn = v n − w1 − w2 − . . . wn−1 (50)
hw1 , w1 i hw2 , w2 i hwn−1 , wn−1 i
Ejemplo 1.2. Sea V el espacio generado por los vectores v1 = (1, 3, −1, 2),
v2 = (0, −1, 8, 3) y v3 = (2, 1, −1, 0). Se deja como ejercicio mostrar
que los vectores son linealmente independientes. Ahora, construyamos
la base ortogonal. El proceso en recursivo, estos es, con w1 , se obtiene
w2 ; con w3 se obtiene w4 , etc. El primer elemento, w1 , ya lo tenemos
es w1 = v1 = (1, 3, −1, 2). El segundo, según el método descrito es
hv2 , w1 i
w2 = v 2 − w1 (51)
hw1 , w1 i
h(0, −1, 8, 3), (1, 3, −1, 2)i
= (0, −1, 8, 3) − (1, 3, −1, 2) (52)
h(1, 3, −1, 2), (1, 3, −1, 2)i
−5 1
= (0, −1, 8, 3) − (1, 3, −1, 2) = (0, −1, 8, 3) + (1, 3, −1, 2)
15 3
(53)
1 23 11
= , 0, , (54)
3 3 3
hv3 , w1 i hv3 , w2 i
w3 = v 3 − w1 − w2 (55)
hw1 , w1 i hw2 , w2 i
h(2, 1, −1, 0), (1, 3, −1, 2)i
= (2, 1, −1, 0) − (1, 3, −1, 2)− (56)
h(1, 3, −1, 2), (1, 3, −1, 2)i
h(2, 1, −1, 0), 31 (1, 0, 23, 11)i 1
(1, 0, 23, 11) (57)
h 31 (1, 0, 23, 11), 13 (1, 0, 23, 11)i 3
1
6 (2 − 23) 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − 3 1 (1, 0, 23, 11) (58)
15 9 (651)
3
2 −7 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − 651 (1, 0, 23, 11) (59)
5 9
3
2 −3 1
= (2, 1, −1, 0) − (1, 3, −1, 2) − · (1, 0, 23, 11) (60)
5 31 3
2 1 23 11
= (2, 1, −1, 0) − (1, 3, −1, 2) + ( , 0, , ) (61)
5 31 31 31
8 −1 −3 4 1 23 11
=( , , , − ) + ( , 0, , ) (62)
5 5 5 5 31
31 31
253 −1 22 −69
= , , , (63)
155 5 155 155
es ortogonal.
Si desea puede encontrar más ejercicios resueltos de espacios vec-
toriales en las direcciones:
http://matematicasfce.ece.buap.mx/algebralineal.html
http://matematicasfce.netii.net/algebralineal.html
Referencias
[1] Lang Serge. (1987). Linear Algebra. New York: Springer-Verlang.