Está en la página 1de 5

Tema III. Captulo 2. Ortogonalidad.

Algebra.
Departamento de Metodos Matem
aticos y de Representaci
on. UDC.

2. Ortogonalidad.

Proposici
on 2.3 Un sistema ortogonal que no contenga al vector
0 es un sistema
libre.

En todo el captulo trabajaremos sobre un espacio vectorial eucldeo U .

Prueba: Supongamos que {


u1 , . . . , u
n } es un sistema ortogonal con todos los vectores no nulos. Supongamos que existen escalares 1 , . . . , n verificando:

Vectores ortogonales.

1 u
1 + . . . + n u
n =
0.

Definici
on 1.1 Dos vectores x
, y U se dicen ortogonales si:

Si hacemos el producto escalar por un vector u


j queda:

x
y = 0.

(1 u
1 + . . . + n u
n ) u
j =
0u
j = 0

1 u
1 u
j + . . . + n u
n u
j =
0

Teniendo en cuenta que es un sistema ortogonal, u


i u
j = 0 si i 6= q. Queda por
tanto:
j u
j u
j = 0.

Veamos algunas propiedades derivadas de esta definici


on:
1. El u
nico vector ortogonal consigo mismo es el
0.
Prueba: Basta tener en cuenta que el producto escalar corresponde a una
forma cuadr
atica definida positiva. Por tanto:

Como u
j 6= 0, entonces u
j u
j 6= 0 y obtenemos que j = 0 para cualquier j
{1, . . . , n}.

x
x
= 0 x
=
0.
2. Dos vectores no nulos son ortogonales si y s
olo si forman un a
ngulo de
Prueba: Si x
, y son dos vectores no nulos:
x
, y ortogonales x

y = 0 cos(
x, y) =

x
y
= 0
k
xkk
yk
6

2.2

.
2

(
x, y) =

Bases ortogonales.

Definici
on 2.4 Una base ortogonal es una base que es un sistema ortogonal.

.
2

De la definici
on de sistema ortogonal se deduce claramente que:

3. Teorema de Pit
agoras. Dos vectores x
, y son ortogonales si y s
olo si

B es base ortogonal Matriz de Gram GB es diagonal

k
x + yk2 = k
xk2 + k
y k2 .

Definici
on 2.5 Una base ortonormal es una base que es un sistema ortonormal.
Prueba: Basta tener en cuenta que:
De la definici
on de sistema ortonormal se deduce que:

k
x + yk2 = (
x + y) (
x + y) = k
xk2 + k
y k2 + 2
x y.

B es base ortonormal Matriz de Gram GB es la identidad

2
2.1

Sistemas ortogonales.

En el estudio de las formas cuadr


aticas simetricas se vio que todas son diagonalizables por congruencia. Si adem
as son definidas positivas, entonces son congruentes
a la matriz identidad. Aplicando este hecho a un espacio eucldeo deducimos:

Definici
on

Definici
on 2.1 Un sistema de vectores {
u1 , . . . , u
n } se dice ortogonal, si los vectores que lo forman son ortogonales dos a dos:
u
i u
j = 0

Teorema 2.6 Todo espacio eucldeo tiene una base ortonormal.

para cualesquiera i 6= j, i, j {1, . . . , n}.

2.3

Definici
on 2.2 Un sistema de vectores {
u1 , . . . , u
n } se dice ortonormal, si es ortogonal y todos los vectores son unitarios:
u
i u
j = ij

M
etodo de ortogonalizaci
on de Gram-Schmidt.

El metodo nos proporciona un sistema para calcular una base ortogonal {


u1 , . . . , u
n }
a partir de una base cualquiera {
e1 , . . . , en }.

para cualesquiera i, j {1, . . . , n}.

El procedimiento es el siguiente:

61


Algebra.
Departamento de Metodos Matem
aticos y de Representaci
on. UDC.

Tema III. Captulo 2. Ortogonalidad.

Prueba: Dado el sistema {


u1 , . . . , u
p }, sabemos que podemos completarlo hasta una
base de U :

1. Tomamos u
1 = e1 .
2. Construimos u
2 = e2 + 21 u
1 .
Para hallar el par
ametro 21 exigimos que u
2 sea ortogonal con u
1 :
u
2 u
1 = 0

e2 u
1 = 21 u
1 u
1

21 =

{
u1 , . . . , u
p , ep+1, , . . . , en }

e2 u
1
.
u
1 u
1

Ahora aplicamos el metodo de ortogonalizaci


on de Gram-Schmidt a esta base. Los
p primeros vectores no quedan modificados porque ya forma un sistema ortogonal.
De esta forma obtendremos una base ortogonal:

Ahora L{
e1 , e2 } = L{
u1 , u
2 }.
3. Construimos u
3 = e3 + 31 u
1 + 32 u
2 .
Para hallar los par
ametros exigimos que u
3 sea ortogonal con u
1 , u
2 :
u
3 u
1 = 0
u
3 u
2 = 0

0 = e3 u
1 + 31 u
1 u
1 + 32 u
2 u
1
0 = e3 u
2 +

31 u
1

u
2 +

32 u
2

u
2

31 =

32

{
u1 , . . . , u
p , u
p+1, , . . . , u
n }.

e3 u
1
.
u
1 u
1

e3 u
2
=
.
u
2 u
2

En esta secci
on veremos las ventajas de trabajar en una base ortonormal en espacios
eculdeos.

Ahora L{
e1 , e2 , e3 } = L{
u1 , u
2 , u
3 }.
4. Continuamos este proceso hasta completar la base. En concreto el paso
k-
esimo es de la siguiente forma:
Construimos u
k = ek + k1 u
1 + . . . + kk1 u
k1 con:
ki =

ek u
i
u
i u
i

3.1

i = 1, . . . , k 1,

Matriz de Gram en una base ortonormal.

Teorema 3.1 La matriz de Gram de un producto escalar respecto a una base


ortonormal es la identidad.

donde L{
e1 , . . . , ek } = L{
u1 , . . . , u
k }.
Es interesante observar que todas estas expresiones tienen sentido porque los u
i
son vectores independientes. En particular son no nulos y u
i u
i 6= 0.
Por otra parte tambien vemos, que si ek ya es ortogonal a u
1 , . . . , u
k1 , entonces
u
k = ek .

Prueba: Si B = {
e1 , . . . , en } es una base ortonormal, entonces:
(GB )ij = ei ej = ij

Este metodo tambien nos sirve para construir una base ortonormal. Para ello
simplemente hay que normalizar la base obtenida. En general, si {
u1 , . . . , u
n } es
una base ortogonal, entonces:
{

Singularidades de las bases ortonormales.

3.2

u
n
u
1
,...,
}
k
u1 k
k
un k

GB = Id.

Expresi
on del producto escalar en una base ortonormal.

Si B = {
e1 , . . . , en } es una base ortonormal y x
, y son vectores de coordenadas
(xi ), (xj ) respecto a esta base, entonces:

es una base ortonormal. A este proceso se le llama normalizaci


on.

y1
.
xn ) ..
yn

2.4

Teorema de la base ortogonal incompleta.

x
y = ( x1

Teorema 2.7 Sea U un espacio eucldeo n-dimensional. Si {


u1 , . . . , u
p } es un sistema ortogonal de p vectores no nulos, con p < n, entonces existe un sistema de
vectores {
up+1, , . . . , u
n } cuya uni
on con el primero:

...

Por tanto la norma de un vector queda:

{
u1 , . . . , u
p , u
p+1, , . . . , u
n }
k
xk =

es una base ortogonal.

62

(x1 )2 + . . . + (xn )2

x
y = (x){y}


Algebra.
Departamento de Metodos Matem
aticos y de Representaci
on. UDC.

Tema III. Captulo 2. Ortogonalidad.

3.3

Coordenadas
ortonormal.

covariantes

respecto

una

base

Prueba: La necesidad de la condici


on est
a clara. Veamos la suficiencia. Sean x
S1 ,
y S2 . Hay que ver que si se cumple la condici
on del enunciado x
, y son ortogonales.
Estos vectores pueden escribirse como:

Teorema 3.2 Respecto a una base ortonormal las coordenadas covariantes de un


vector coinciden con las contravariantes.

x
= 1 u
1 + . . . + p u
p ;

y = 1 v1 + . . . + q vq .

Entonces, por las propiedades del producto escalar:


Prueba: Basta tener en cuenta que la matriz de Gram respecto a la base ortonormal
es la identidad.

x
y =

p
q
X
X

i j u
i vj .

i=1 j=1

3.4

Por hip
otesis u
i vj = 0, luego x
y = 0.

Relaci
on entre bases ortonormales.

Sean B y B 0 dos bases ortonormales de U :


B = {
e1 , . . . , en };

4.2
0

B =

{
e01 , . . . , e0n }.

Subespacio suplementario ortogonal.

Definici
on 4.3 Dado un espacio vectorial eucldeo U y un subconjunto V U , se
llama subespacio ortogonal de V a:

Sabemos que:
GB 0 = MB 0 B GB MB 0 B t

V = {
x U| x
v = 0, para todo v V }.

Adem
as por ser bases ortonormales GB = GB 0 = Id por tanto deducimos que:
Obsevamos que esta definici
on equivale a la de espacio conjugado de U , vista en
el captulo sobre formas cuadr
aticas. Por tanto tenemos de manera inmediata las
siguientes propiedades:

Teorema 3.3 La matriz de cambio de paso entre dos bases B, B 0 ortonormales es


ortogonal, es decir,:
MB 0 B MB 0 B t = Id.

1.
2.
3.
4.

Es interesante observar que el hecho de que una matriz sea ortogonal, siginifica
que su inversa coincide con su traspuesta. Esto hace especialmente c
omodo el cambio
de base entre bases ortonormales.

V es un subespacio vectorial.
V W W V .
Si V = L{
v1 , . . . , vp } entonces V = {
v1 , . . . , vp } .
Si V es un subespacio vectorial, V y V son suplementarios.
Prueba: En primer lugar V V = {0}, ya que:
x
V V

4
4.1

Proyecci
on ortogonal.

x
x
=0

x
=
0.

Veamos ahora que V + V = U . Sea {


v1 , . . . , vp } una base ortogonal de V .
Por el teorema de la base incompleta ortogonal, podemos extenderla a una base
ortogonal de todo U :
{
v1 , . . . , vp , vp+1 , . . . , vn }
Dado que vi vj = 0 para i {1, . . . , p}, j {p + 1, . . . , n} se tiene que:

Subespacios ortogonales.

Definici
on 4.1 Dos subespacios eucldeos S1 y S2 de un espacio vectorial eucldeo
U se dicen ortogonales cuando todos los vectores de uno de ellos son ortogonales a
todos los del otro:

vj V ,

para j {p + 1, . . . , n}

y por tanto:
x
y = 0

para cualesquiera

x
S1 , y S2 .

L{
vp+1 , . . . , vn } V

dim(V ) n p

Entonces:

Proposici
on 4.2 Si S1 y S2 son dos subespacios eucldeos generados respectivamente por los vectores {
u1 , . . . , u
p } y {
v1 , . . . , u
q }, entonces la condici
on necesaria
y suficiente para que sean ortogonales es que:

n dim(V + V ) = dim(V ) + dim(V ) dim(V V ) p + n p = n


luego

u
i vj = 0

dim(V + V ) = n

para todo i {1, . . . , p}, j {1, . . . , q}.

63

V + V = U.

Tema III. Captulo 2. Ortogonalidad.

Algebra.
Departamento de Metodos Matem
aticos y de Representaci
on. UDC.

4.3

Prueba: Sea x
S , y S vectores no nulos. Por ser simetrico se tiene:

Aplicaci
on proyecci
on ortogonal.

x
f (
y ) = y f (
x).

Definici
on 4.4 Dado un subespacio V de un espacio eucldeo U definimos la
proyecci
on ortogonal sobre V como la aplicaci
on:
pV :

U
x

U
x
1

donde

x
=x
1 + x
2

con

Por ser x
, y autovectores asociados respectivamente a , queda:

x
1 V, x
2 V .

x
(
y ) = y (
x)

( )
x y = 0.

Teniendo en cuenta que 6= vemos que x


y = 0 y por tanto ambos vectores son
ortogonales.

La definici
on anterior tiene sentido porque hemos visto que V y V son subespacios
vectoriales suplementarios.

Teorema 5.3 Cualquier matriz simetrica A Mnn (IR) tiene n autovalores reales
(contados con multiplicidad).

Endomorfismos sim
etricos.

5.1

Prueba: Sabemos que siempre hay exactamente n autovalores complejos, correspondiente a las n soluciones del polinomio caracterstico de A. Hay probar que todos
ellos son reales. Supongamos que C
I es un autovalor y sea x
= (x1 , . . . , xn ) C
In
un autovector no nulo asociado. Denotamos por c(
x) el conjugado del vector x
cuyas
componentes son las conjugadas de cada componente de x
.

Definici
on.

Definici
on 5.1 Sea U un espacio eucldeo. Un endomorfismo f : U U se dice
sim
etrico si:
x
f (
y ) = y f (
x).

Recordemos que el conjugado de un n


umero complejo a+b es ab. Utilizaremos:
- Un n
umero complejo es real si y s
olo si coincide con su conjugado.

Si B = {
e1 , . . . , en } es una base de U , GB es la matriz de Gram con respecto a esa
base y FB es la matriz de un endomorfismo respecto a B, la condici
on de simetra
se escribe como sigue:
x
f (
y ) = y f (
x)

- La conjugaci
on se comporta bien con la suma y producto de n
umeros complejos.
- El producto de un n
umero complejo no nulo por su conjugado es un n
umero real
positivo:
(a + b)(a b) = a2 + b2 > 0.

x
f (
y ) = f (
x) y
(x)GB ((y)FB )t = (x)FB GB {y}
(x)GB FB t {y} = (x)FB GB {y}

En nuestro caso tenemos:

para cualesquiera x
, y U de coordenadas respecto a la base B, respectivamente
(xi ), (y i ).

(x)A = (x)

(1)

Por otra parte conjugando la expresi


on anterior y teniendo en cuenta que por ser A
real c(A) = A:

Por tanto:
f endomorfismo simetrico GB FB t = FB GB

c(x)c(A) = c()c(x)
En particular si B es una base ortonormal:

c(x)A = c()c(x)

c(x)A(x)t = c()c(x)(x)t .

Teniendo en cuenta que A es simetrica, si trasponemos la expresi


on anterior queda:

(x)Ac(x)t = c()(x)c(xt ).

f endomorfismo simetrico FB = FB FB es simetrica

La comparamos con la ecuaci


on (1) y obtenemos:

(siendo B una base ortonormal)

(x)c(x)t = c()(x)c(x)t

5.2

(x)Ac(x)t = (x)c(x)t

Autovalores y autovectores de un endomorfismo


sim
etrico.

( c())(x)c(x)t = 0.

Pero teniendo en cuenta que x


6= 0:
(x)c(x)t = x1 c(x1 ) + . . . + xn c(xn ) > 0.

Proposici
on 5.2 Sea f : U U un endomorfismo simetrico. Si y son autovalores diferentes, entonces los subespacios caractersticos S y S son ortogonales.

Deducimos que c() = 0, es decir, concide con su conjugado y por tanto es un


n
umero real.

64

Tema III. Captulo 2. Ortogonalidad.

Algebra.
Departamento de Metodos Matem
aticos y de Representaci
on. UDC.

Teorema 5.4 Todo endomorfismo simetrico de un espacio eucldeo n-dimensional


tiene n autovalores reales (contados con multiplicidad).

Corolario 5.6 Si f es un endomorfismo simetrico de un espacio eucldeo, existe


una base ortonormal respecto a la cual la matriz asociada es diagonal.

Prueba: Basta tener en cuenta que con respecto a una base ortonormal, la matriz
de un endomorfismo simetrico es simetrica. Ahora el teorema es consecuencia del
resultado anterior.

Prueba: Basta aplicar el teorema anterior. Por ser f simetrico, siempre existe una
base ortonormal de autovectores; pero la matriz de un endomorfismo con respecto a
una base de autovectores es diagonal.

5.3

Base ortonormal de autovectores.

Corolario 5.7 Si A Mnn (IR) es una matriz sim


etrica:
1. A tiene todos los autovalores reales.

Teorema 5.5 Sea U un espacio eucldeo n-dimensional. Si f es un endomorfismo


simetrico entonces existe una base ortonormal de autovectores de f .

2. A es diagonalizable por semejanza.


3. Existe una base IRn de autovectores de A ortonormal con el producto
escalar usual.

Prueba: Probaremos que siempre existe una base ortogonal de autovectores. El


paso a una ortonormal es inmediato mediante el proceso de normalizaci
on.

4. Existe una matriz P ortogonal (es decir, verificando P t = P 1 ) tal que:

Por el teorema anterior sabemos que hay exactamente n autovalores reales (contados con multiplicidad):

..
.

con multiplicidades algebraicas

D = P AP 1

m1

donde D es la matriz diagonal formada por los autovalores.

..
.

m
k

de manera que m1 + . . . + mk = n. Sabemos que los espacios caractersticos son una


suma directa:
V = S1 . . . Sk .
Adem
as cada uno de ellos es ortogonal a los dem
as. Escogiendo para cada uno de ellos
una base ortogonal, contruimos una base de autovectores ortogonal del subespacio
V:
{
u1 , . . . , u
p }
El problema es probar que V es en realidad todo el subespacio U . Nos fijamos que
cualquier autovector de f tiene que estar contenido en V .
Supongamos que V 6= U . Consideramos el espacio V . Sea x
V , veamos que
f (
x) V . Para ello hay que comprobar que f (
x) u
i = 0 para cualquier i = 1, . . . , p:
f (
x) u
i

= x
f (
ui ) = x

ui = 0.

f simetrico
u
i autovector x
V

Por tanto el subespacio V es invariante por f . La restricci


on de f a V :
g : V V ;

g(
x) = f (
x)

vuelve a ser un endomorfismo simetrico. Tiene todos los autovalores reales y por
tanto al menos un autovector no nulo. Pero esto contradice el hecho de que todos
los autovectores est
an en V y V V = {0}.

65

También podría gustarte