Está en la página 1de 6

ETSIDI Álgebra Lineal

UPM Transformaciones ortogonales

Matrices ortogonales
Una matriz cuadrada A es ortogonal si sus matrices traspuesta e inversa coinciden (At = A−1 ),
es decir, si At A = AAt = I . Naturalmente, la no singularidad de la matriz garantiza la existencia
de su inversa y es, por tanto, condición necesaria para la ortogonalidad de una matriz. Si A es
una matriz ortogonal, entonces

A−1 y At son ortogonales.


t t −1 −1
(A−1 ) = (At ) = A = (A−1 ) = (At ) .

det A = 1 o det A = −1.


1 = det(At A) = det A2 .

Si B es ortogonal, la matriz producto AB es ortogonal.


(AB)t = B t At = B −1 A−1 = (AB)−1

Si consideramos las columnas de la matriz A (cuadrada de orden n) como los vectores {v 1 , . . . , v n }


de Rn , resulta que
   
v t1 v1 · v1 v1 · v2 · · · v1 · vn
 t   v2 · v1 v2 · v2 · · · v2 · vn
v2 
 
t

 ..  v 1 v 2 · · ·
AA= vn =  .. .. ... ..
 .
. . . .
 
 
v tn vn · v1 vn · v2 · · · vn · vn

Para que At A = I debe ser:

v i · v i = 1 (vectores unitarios),

v i · v j = 0, si i 6= j (vectores ortogonales),

con lo que podemos concluir que la matriz A es ortogonal si y solo si sus vectores columna forman
una base ortonormal de Rn con el producto escalar usual. Teniendo en cuenta que At también es
ortogonal, podemos decir lo mismo en referencia a las las de la matriz A.

Autovalores de una matriz ortogonal

Recordemos que si λ es un autovalor real de una matriz A, entonces también es autovalor de At


1 1
y es autovalor de A−1 . Si A es ortogonal, At = A−1 y sus autovalores coinciden, luego λ = y
λ λ
por tanto λ2 = 1. Así, los únicos autovalores reales son 1 y −1.
Si los autovalores son complejos, su módulo debe ser igual a 1. Esto es así porque si λ = a + bi es
autovalor, entonces su conjugado λ = a − bi también lo es, y el producto de ambos es λλ = |λ|2 .

1 (c) mmbs
Diagonalización ortogonal de matrices simétricas
Sea A una matriz cuadrada real y simétrica de orden n. Entonces:

Su polinomio característico tiene solamente raíces reales y por tanto, todos los autovalores
de A son reales. Entonces siempre podemos encontrar autovectores reales, pues el sistema
(A − λI)v = 0 (cuyas soluciones son los vectores propios asociados al autovalor λ) está
formado por ecuaciones lineales en el cuerpo de los números reales.

Los autovectores asociados a autovalores distintos son ortogonales respecto al producto


escalar usual en Rn . Como consecuencia, los subespacios propios asociados a autovalores
distintos son ortogonales entre sí.

Cada subespacio propio N (λ) asociado a un autovalor λ (invariante por la aplicación) tiene al
menos una base ortonormal de autovectores, y su dimensión es la multiplicidad del autovalor.

La unión de las bases anteriores proporciona una base ortonormal de Rn . Si disponemos


estos autovectores como columnas de una matriz P , esta será ortogonal.

Por tanto, la matriz de semejanza P tal que D = P −1 AP es diagonal verica que P −1 = P t


y las matrices A y D son, además, congruentes.

Decimos entonces que A es ortogonalmente diagonalizable, es decir, existe una matriz


ortogonal P tal que D = P t AP es una matriz diagonal.

Toda matriz simétrica es ortogonalmente diagonalizable. Recíprocamente, toda matriz


ortogonalmente diagonalizable es necesariamente simétrica.

El proceso para diagonalizar ortogonalmente una matriz simétrica es el mismo que el de cualquier
otra matriz, con la salvedad de que la base de vectores de Rn , formada por los autovectores de los
subespacios propios asociados a los autovalores, debe ser ortonormal:

(1) Se calculan los autovalores de la matriz A. Al ser esta simétrica todos sus autovalores son
reales y forman la diagonal principal de la matriz D (pues Av = λv ).

(2) Se calcula el subespacio de autovectores asociado a cada autovalor. Debe vericarse que
dim N (λ) = m(λ) para cada uno de los autovalores. De cada subespacio se obtiene una base
ortonormal (vectores unitarios ortogonales entre sí).

(3) La unión de todas estas bases proporciona una base ortonormal de Rn . Sus vectores
constituyen las columnas de la matriz de paso P , que será ortogonal (P −1 = P t ).

2 (c) mmbs
ETSIDI Álgebra Lineal
UPM Transformaciones ortogonales

Transformaciones ortogonales
Una transformación ortogonal en un espacio vectorial euclídeo E es un endomorsmo (y por
tanto aplicación lineal) f de E que conserva el producto escalar, es decir,

f (u) · f (v) = u · v, ∀u, v ∈ E.

Toda transformación ortogonal conserva longitudes y ángulos. Considerando la norma asociada al


producto escalar tenemos

||u||2 = u · u = f (u) · f (u) = ||f (u)||2 ⇒ ||u|| = ||f (u)|| puesto que ambos son positivos.
u·v f (u) · f (v) \
cos(u
d , v) = = = cos(f (u), f (v)).
||u|| ||v|| ||f (u)|| ||f (v)||

Recíprocamente, toda aplicación lineal f de un espacio vectorial euclídeo E que conserve la


longitud de los vectores es una transformación ortogonal. Por este motivo las transformaciones
ortogonales se denominan también isometrías vectoriales.
Sea f un endomorsmo de E y sea A su matriz asociada en una base ortonormal cualquiera.
Entonces f es una transformación ortogonal si y solo si la matriz A es ortogonal (At = A−1 ).
Una transformación ortogonal f siempre es biyectiva (automorsmo ortogonal) y por tanto existe
la transformación inversa f −1 , que también es ortogonal. Si A es la matriz asociada a f en una
base ortonormal, la matriz asociada a f −1 en la misma base será A−1 = At por ser la matriz A
ortogonal.
La composición de transformaciones ortogonales es también una transformación ortogonal, puesto
que el producto de dos matrices ortogonales es también una matriz ortogonal.

Clasicación de isometrías vectoriales


Sea f : E → E una transformación ortogonal en un espacio vectorial euclídeo de dimensión n
y sea B una base ortonormal de E , respecto de la cual la matriz A asociada a f es ortogonal
(At A = I ). Entonces det(A) = ±1 y

si det(A) = 1, f es una isometría vectorial directa.

si det(A) = −1, f es una isometría vectorial indirecta.

Subespacios ortogonales y subespacios invariantes


Si U y V son subespacios de E ortogonales entre sí, entonces f (U ) y f (V ) también lo son. En
particular, si U ⊥ es el suplemento ortogonal de U , entonces f (U ⊥ ) es el suplemento ortogonal de
f (U ), es decir, f (U )⊥ = f (U ⊥ ).

3 (c) mmbs
Si {u1 , . . . , uk }, k ≤ n, es un sistema ortogonal (respectivamente ortonormal), entonces
{f (u1 ), . . . , f (uk )} es un sistema ortogonal (respectivamente ortonormal). Así, si B es una base
ortogonal (respectivamente ortonormal), f (B) es una base ortogonal (respectivamente ortonormal).
Recordemos que un subespacio V de E es invariante respecto de un endomorsmo f si se verica
que f (V ) ⊂ V . Un vector v ∈ E es invariante por la transformación f si f (v) = v . Así, si λ = 1
es un autovalor de f , el subespacio propio asociado es el subespacio de vectores invariantes de f
(N (1) = Inv f ). Si λ = 1 no es autovalor de f entonces Inv f = 0 .


Finalmente, si U es un subespacio de E invariante por la isometría vectorial f entonces U ⊥ también


es un subespacio invariante por f .

Transformaciones ortogonales en R2
Veamos primero el aspecto concreto
! de una matriz ortogonal de orden dos. Para ello,
! consideremos
a b d −b
que la matriz real A = es ortogonal, su inversa es A−1 = ± y sabemos que
c d −c a
!
a c
coincide con la traspuesta At = . Entonces,
b d
! ! !
a c d −b a −c
Si det A = 1, =+ ⇒ b = −c y d = a, y la matriz es A = .
b d −c a c a

! ! !
a c d −b a c
Si det A = −1, =− ⇒ b = c y d = −a, y la matriz es A = .
b d −c a c −a

En ambos casos a2 + c2 = 1 y a, c ∈ [0, 1].


Supongamos ahora que A es la matriz asociada a una transformación ortogonal en una base
ortonormal. Puesto que se trata de una matriz ortogonal, sus posibles autovalores serán 1, −1 y
un par de complejos conjugados, y será de una de las formas anteriores.
!
a −c
(1) Si la isometría es directa, A = y su ecuación característica es (a − λ)2 + c2 = 0.
c a
Al no tener soluciones reales, la isometría no presenta direcciones invariantes en R2 .
Las soluciones de la ecuación son un par de complejos conjugados de la forma λ = a ± ic y
módulo igual a la unidad, cuya forma polar es cos α ± i sen α, con α ∈ [0, 2π). Entonces
!
cos α − sen α
A=
sen α cos α

y f es una rotación o giro de ángulo α (tal que tr A = 2 cos α) y sentido antihorario.

4 (c) mmbs
ETSIDI Álgebra Lineal
UPM Transformaciones ortogonales

En particular,

si α = 0 entonces A = I y f es la identidad, pues Au = u,


si α = π entonces A = −I y f es una simetría central (respecto del origen), pues
Au = −u.
!
a c
(2) Si la isometría es indirecta, A = y su ecuación característica es λ2 −(a2 + c2 ) = 0.
c −a
Como a2 + c2 = 1, los autovalores reales son 1 y −1 y sus subespacios propios asociados son
ortogonales.
!
1 0
Al serA simétrica también es ortogonalmente diagonalizable, siendo D = la
0 −1
matriz diagonal en una base ortonormal de autovectores.
Entonces ! !
x x
Du = D = ,
y −y
y se trata de una simetría axial respecto de la recta de vectores invariantes N (1). El
subespacio N (−1) es una recta invariante por f ortogonal al eje de simetría.

Teniendo en cuenta que el determinante del producto de dos matrices es el producto de sus
determinantes se concluye que la composición de dos giros es un giro, la composición de dos
simetrías axiales es un giro y la composición de un giro y una simetría axial es una simetría axial.

Transformaciones ortogonales en R3
Como el polinomio característico de la matriz A es de grado tres, al menos tiene una raíz real
(que será 1 o −1), pues las raíces complejas son conjugadas de módulo unitario, de la forma
cos θ ± i sen θ. Los casos posibles son:

(1) Isometrías directas, det(A) = 1.

a) Si m(1) = 3, entonces D = I y la isometría es la identidad.

b) Si m(1) = 1 y m(−1) = 2, entonces f es una simetría axial respecto de la recta de


vectores invariantes N (1), ortogonal al plano N (−1). Por ejemplo, una simetría respecto
del eje X sería     
1 0 0 x x
 0 −1 0   y  =  −y  ,
    

0 0 −1 z −z
y si se cambia el orden de los autovalores cambia el eje de simetría.
c) Si m(1) = 1 y los otros autovalores son complejos conjugados, entonces f es un giro
de ángulo α ∈ [0, 2π) tal que tr A = 1 + 2 cos α, alrededor de la recta de vectores

5 (c) mmbs
invariantes N (1). Las siguientes matrices están asociadas a giros de ángulo α alrededor
de los distintos ejes de:
     
1 0 0 cos α 0 − sen α cos α − sen α 0
 0 cos α − sen α  , 0 1 0 ,  sen α cos α 0  .
     

0 sen α cos α sen α 0 cos α 0 0 1

(2) Isometrías indirectas, det(A) = −1.

a) Si m(−1) = 3, entonces D = −I y f es una simetría central (respecto del origen), pues


    
−1 0 0 x −x
 0 −1 0   y  =  −y  .
    

0 0 −1 z −z

b) Si m(1) = 2 y m(−1) = 1, entonces f es una simetría especular respecto del plano de


vectores invariantes N (1). La recta N (−1) es ortogonal al plano anterior. Por ejemplo,
una simetría respecto del plano z = 0 sería
    
1 0 0 x x
 0 1 0  y  =  y .
    

0 0 −1 z −z

c) Si m(−1) = 1 y los otros autovalores son complejos conjugados, entonces f es la


composición de un giro de ángulo α ∈ [0, 2π) (tal que tr A = −1 + 2 cos α) alrededor de
la recta N (−1) y una simetría respecto del plano perpendicular a dicha recta. Al ser
una composición de aplicaciones, su matriz asociada será el producto de la matriz de
un giro y la matriz de una simetría especular:
     
−1 0 0 cos α 0 − sen α cos α − sen α 0
 0 cos α − sen α  , 0 −1 0 ,  sen α cos α 0 .
     

0 sen α cos α sen α 0 cos α 0 0 −1

6 (c) mmbs

También podría gustarte