Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ortogonalidad Vectorial PDF
Ortogonalidad Vectorial PDF
u v = uT v = (u1 , u2 , . . . , un )
v1
v2
..
.
vn
= u1 v1 + u2 v2 + . . . un vn .
3
2
3. (u) v = (u v) = u (v).
2. (u + v) w = u w + v w.
4. u u 0 y u u = 0 si y solo si u = 0.
Definici
on 2 Dado un vector u Rn . Definimos su norma (o longitud) como el escalar no negativo
q
Un vector cuya longitud es 1 se llama vector unitario. Para obtener un vector unitario u a partir de otro dado, v,
basta dividir el vector v por su norma. Ambos vectores tienen la misma direccion, pero distinta longitud. Al proceso
mediante el cual se obtiene u a partir de v se le conoce con el nombre de normalizacion.
Ejercicio 3 Sea v =
1
2
2
0
on que v.
. Encontrar un vector unitario u en la misma direcci
Ejercicio 4 Sea W el subespacio generado por x = ( 32 , 1)T . Encontrar un vector unitario z que sea una base de W .
Definici
on 3 Sean u, v Rn . Se define la distancia entre los vectores u y v como la norma del vector u v,
dist(u, v) = ku vk = kv uk = dist(v, u).
7
2
yv=
3
2
!
.
Definici
on 4 Sean u, v Rn . Diremos que u y v son ortogonales si u v = 0.
1
Ax =
f1 T
f2 T
..
.
fn T
x = 0,
y por tanto
f1 T x = 0, . . . , fn T x = 0.
An
alogamente, para demostrar que C(A) = Gen{a1 , a2 , . . . , am } es el complemento ortogonal de N (AT ) comprobamos que
un vector y N (AT ) arbitrario es ortogonal a todas las columnas de A: Si y N (AT ), entonces
A y=
a1 T
a2 T
..
.
am T
y = 0,
y por tanto
a1 T y = 0, . . . , am T y = 0.
(C(A)) = N (AT ).
2 Proyecciones ortogonales
Cual es la sombra que proyecta el vector b = (2, 3, 4)T sobre el plano xy? Y sobre el eje z? Como podemos
calcular la proyeccion de un vector sobre un subespacio arbitrario?
Idea. Dado v Rn y W un subespacio de Rn , queremos descomponer v
como suma de dos vectores
v = pW + e,
tal que pW W y e W .
aT v
aT v
y pW = T a
aT a
a a
Si W es un subespacio vectorial generado por los vectores {a1 , . . . , ap } linealmente independientes para proyectar
v sobre W usamos la misma idea que en dimension 1. Buscamos
pW = [a1 | . . . |ap ]pn x = Ax.
Utilizando que AT e = 0 concluimos x tiene que ser solucion del sistema AT v = AT Ax y entonces la proyeccion es
pW = A(AT A)1 AT v .
Ejercicio 9 Dados el vector v = (6, 0, 0)T y el subespacio W = {(1, 1, 1)T , (0, 1, 2)T }. Calcular la proyecci
on de v sobre W .
Importante.
Teorema de la descomposicion ortogonal
Sea W un subespacio de Rn . Todo vector v Rn se escribe de manera u
nica como
suma de dos vectores
v = pW + e,
tales que pW W y e W .
Distancia mnima
pW es el elemento de W que mas cerca esta de v:
kpW vk kpW bk,
para todo b W.
Ejercicio 10 Encontrar la distancia del vector v = (1, 5, 10)T al subespacio W generado por (5, 2, 1)T , (1, 2, 1)T .
para todo x Rn .
1 0
1 1
1 2
|6
|0
|0
Es f
acil ver que este sistema es incompatible.
Buscamos una soluci
on de mnimos cuadrados. Para ello calculamos
!
1 0
3 3
1
1
1
1
T
T
,
A b=
A A=
1 1 =
3 5
0
0 1 2
1 2
y resolvemos el sistema
3
3
3
5
n
m
6
0
1
1
1
2
!
6
6
0 =
0
0
!
.
La soluci
on de mnimos cuadrados es m = 3 y n = 5, luego la recta que mejor aproxima a los tres puntos es y = 3x + 5.
4 El proceso de ortogonalizaci
on de Gram-Schmidt
Un problema de mnimos cuadrados es mas facil de resolver si AT A es diagonal.
Definici
on 7 Los vectores {q1 , . . . qn } son
ortogonales si qi qj = 0, para i 6= j.
ortonormales si son ortogonales y qi qi = 1 para todo i.
Definici
on 8 Una matriz Q con columnas ortonormales entre s se llama ortogonal
Propiedad. Si Q es cuadrada y ortogonal
QT = Q1
Dada una base {a1 , . . . , an } de un subespacio, queremos encontrar otra {q1 , . . . , qn } base de ese mismo espacio
cuyos elementos sean ortogonales (o incluso ortonormales). La ventaja que tiene el trabajar con bases ortonormales
es que, si bien el espacio generado por ambas bases el mismo, las cuentas se simplifican si utilizamos Q = [q1 | . . . |qn ]
(Recordar que QT Q = I).
Proceso de Gram-Schmidt. Dados n vectores linealmente independientes {a1 , . . . , an } de
un subespacio vectorial, construimos una base ortogonal de vectores {w1 , . . . , wn } a partir de la
base original. La base ortonormal {q1 , . . . , qn } se obtiene dividiendo cada wi por su norma.
Paso i: Elegimos w1 = a1 .
Paso ii: El vector w2 tiene que ser ortogonal a w1 . Por el teorema de de descomposicion ortogonal sabemos que
a2 = pW + e,
donde pW es la proyeccion de a2 sobre el subespacio W y e W . Sea en este caso W = Gen{w1 }. Entonces e y w1
son ortogonales. Por tanto tomamos e = w2 y as
w 1 T a2
w2 = a2 pW = a2
w1 .
w1 T w1
Paso iii: Usamos la misma idea que en el paso anterior. El vector w3 tiene que ser ortogonal a w1 y w2 . De nuevo,
por el teorema de de descomposicion ortogonal sabemos que
a3 = pW + e,
donde pW es la proyeccion de a2 sobre el subespacio W y e W . Definamos W = Gen{w1 , w2 }. Entonces e es
ortogonal a w1 y w2 , (que a su vez son ortogonales entre s). Tomamos e = w3 y as, como estamos proyectando sobre
un espacio generado por un conjunto ortogonal {w1 , w2 } tenemos
w3 = a3 pW = a3
w1 T a3
w2 T a3
w1
w2 .
T
w1 w1
w2 T w2
..
.
Paso n: Para calcular wn proyectamos an sobre el espacio generado por {w1 , . . . wn1 }, que por la construccion que
hemos hecho, son ortogonales entre s. Entonces
w1 T an
w 2 T an
wn1 T an
wn = an pW = an
w
wn1 .
1
2
w1 T w1
w2 T w2
wn1 T wn1
De esta forma obtenemos una base ortogonal {w1 , . . . , wn } y tal que Gen{a1 , . . . , an } = Gen{w1 , . . . , wn }. Para
conseguir una base ortonormal basta con dividir cada uno de los vectores de la base ortogonal por su norma; es decir
{q1 , . . . , qn } =
n w
wn o
1
,...,
.
kw1 k
kwn k
5 Diagonalizaci
on de matrices sim
etricas
Recordatorio.
A es simetrica si AT = A.
A es diagonalizable si existen matrices D diagonal y P invertible tal que
A = P DP 1
Si Q es cuadrada y ortogonal Q1 = QT
Ejemplo 12 La matriz
A = 2
1
2
6
1
1
4
1
1
v1 = 1 , v2 = 1 ,
2
0
v3 = 1 .
1
v1
,
kv1 k
w2 =
v2
,
kv2 k
w3 =
v3
,
kv3 k
5 4
A = 4
5
2
2
2 .
2