Está en la página 1de 16

6.

Valores e vectores prprios


6.1 Introduo
Nesta seco vamos continuar o estudo das transformaes lineares que inicimos
anteriormente. No entanto vamos limitar-nos ao estudo das transformaes lineares de um
espao vectorial em si prprio, ou seja, ao estudo das transformaes lineares que so
representadas por matrizes quadradas. A nossa ateno vai centrar-se no estudo dos pontos
que no mudam por aco dessas transformaes, ou para ser mais preciso, vamos
interessar-nos pelos vectores x tais que T(x) um mltiplo de x.
Comecemos com um exemplo em
2
. Seja ento T :
2

2
uma simetria em
relao diagonal dos quadrantes impares. fcil de verificar que T linear (verifique!).
Na figura v que o vector x (a azul) transformado em T(x) o seu simtrico em relao
diagonal dos quadrantes impares (a encarnado na figura).
x
T(x)
e=T(e)
v
-v=T(v)
Se tomar um vector da diagonal encarnada, por exemplo o vector e da figura,
fcilmente constata que ele coincide com o seu transformado T(e) e, ou seja, os vectores
e desta diagonal so tais que T(e) 1 e. Se agora olhar para a diagonal dos quadrantes
pares (a verde na figura) com facilidade verifica que cada vector v dessa diagonal
transformado no seu simtrico T(v) (1) v.
Vamos agora dar uma definio formal:
Definio 6.1.1- Dada uma transformao linear T :
n

n
um vector x
n
tal que T(x) x, dito um vector prprio de T associado ao valor prprio
No exemplo anterior os vectores da diagonal encarnada so vectores prprios
associados ao valor prprio 1 enquanto que os vectores da diagonal verde so vectores
prprios associados ao valor prprio 1. Repare que em ambos os casos os vectores
prprios associados ao mesmo valor prprio formam um sub-espao de
2
. Isto no uma
mera coincidncia. Com efeito temos o seguinte teorema:
Teorema 6.1.2- Dada uma transformao linear T :
n

n
o conjunto dos
vectores prprios associados ao mesmo valor prprio formam um sub-espao de a
que chamamos o sub-espao prprio associado a . A sua dimenso designa-se por
multiplicidade geomtrica de .
Prova: Basta verificar que o conjunto dos vectores prprios associados ao mesmo valor
prprio fechado para a soma e para a multiplicao por reais. Tomemos ento v e w dois
vectores prprios de T associados ao mesmo valor prprio . imediato verificar que
qualquer combinao linear destes vectores, v w, ainda um vector prprio associado
a . Com efeito temos T(v w) T(v) T(w) (v w) onde a primeira
igualdade decorre da linearidade de T e a segunda do facto de v e w serem vectores
prprios associados a . M
No exemplo anterior foi fcil encontrar valores e vectores prprios para a simetria em
relao diagonal encarnada com base em argumentos geomtricos. Ora isso nem sempre
possvel, particularmente para n grande. Por isso vamos agora estudar um processo
algoritmico para obter os valores e os vectores prprios de uma transformao linear
arbitrria T :
n

n
.
Temos ento que encontrar solues, em e x, para T(x) x. Como a transformao
linear sabemos que, numa certa base, ela representada por uma matriz A, (n n), ou
seja temos T(x) Ax. Ento a equao T(x) x escreve-se Ax x o que equivalente
ao sistema homognio (A I
n
)x 0
n
. Claro que o vector nulo x 0
n
sempre soluo
deste sistema homognio mas ns estamos interessados em obter solues diferentes da
soluo trivial. Para que tais solues possam existir o determinante da matriz do sistema
tem que se anular, |A I
n
| 0. O valor deste determinante um polinmio de grau n em
a que chamamos o polinmio caracterstico da transformao linear T. Determinando as
suas n raizes encontramos os valores pprios de T. (Note que as raizes deste polinmio
podem ser complexas. Veremos, mais tarde, o que isso significa). Em seguida resolvendo o
sistema homognio para cada um dos valores prprios calculados encontramos os vectores
prprios de T. Vamos dar um exemplo para tornar estas ideias mais claras.
Vamos tomar uma transformao linear T :
2

2
j nossa conhecida do captulo
anterior que consiste na projeco sobre o eixo dos yy. Geomtricamente vemos claramente
que todos os vectores do eixo dos xx so projectados na origem e que portanto os vectores
deste eixo so vectores prprios associados ao valor prprio
1
0. De um modo
semelhante verificamos que os vectores do eixo dos yy so projectados neles prprios e
que, portanto, so vectores prprios de T associados ao valor prprio
2
1. Vamos agora
reencontrar estes factos algoritmicamente.
T(x)
x
e
1
e
2
v
1
v
2
2e
2
x
y
0
Se tomarmos a base cannica e
1
, e
2
}, a azul na figura, a matriz que representa a
transformao linear A
0 0
0 1
e ento o polinmio caracterstico ser
|A I
2
| det
0
0 1
(1 ) 0, um polinmio do segundo grau cujas
raizes so
1
0 e
2
1 os valores prprios que j haviamos intuido geomtricamente.
Para encontrar algorimicamente os vectores prprios de T temos que resolver o sistema
homognio (A I
2
)x 0
2
associado a cada um destes valores de .
Para
1
0 o sistema homognio vir:
0 0
0 1
x
y

0
0
cuja soluo y 0 ou seja o eixo dos xx como j
tinhamos intuido.
Para
2
1 o sistema homognio vir:
1 0
0 0
x
y

0
0
cuja soluo x 0 ou seja o eixo dos yy como j
tinhamos visto.
Mas repare agora que todos estes clculos foram efectuados utilizando a matriz que
representa a transformao linear na base cannica e
1
, e
2
}.
Contudo podiamos ter escolhido outra base para representar
2
, por exemplo a base
v
1
, v
2
} a verde na figura. J vimos no captulo anterior que nesta base a transformao
linear representada pela matriz
1/2 1/2
1/2 1/2
. Uma pergunta que vem
imediatamente ao espirito a de saber se, com esta matriz, o polinmio carateristico (e
portanto os valores prprios) seriam diferentes. Se assim fosse isso seria surpreendente uma
vez que os valores prprios esto associados geometria intrinseca da transformao e no
base em que o espao est representado. Calculemos ento os valores prprios usando a
matriz .
Viria | I
2
| det
1/2 1/2
1/2 1/2
(1/2 )
2
1/4
2
0 cujas
raizes so de novo
1
0 e
2
1. Isto no foi coincidncia. Com efeito temos o seguinte
teorema:
Teorema 6.1.3- O polinmio caracterstico de uma transformao linear
T :
n

n
no depende da base de
n
em relao qual a matriz da transformao
T est expressa.
Prova: Sejam ento A e matrizes que representam T em bases diferentes. Se for M a
matriz que transforma as coordenadas da base correspondente a nas da base
correspondente a A teremos a igualdade M
1
AM. Calculemos ento o polinmio
caracteristico usando a matriz . Vir
| I
n
| |M
1
AM I
n
| |M
1
AM M
1
I
n
M| |M
1
(A I
n
)M|
|M
1
| |A I
n
| |M| |A I
n
| onde a penltima igualdade decorre do facto do
determinante de um produto ser o produto dos determinantes e a ltima de se ter
|M
1
| |M|
1
ficando assim estabelecido que | I
n
| |A I
n
|, ou seja, que o
polinmio caracterstico no depende da base utilizada para representar T. M
6.2 Factos sobre vectores prprios
Vamos agora ver alguns factos sobre vectores prprios de transformaes lineares.
Certamente que reparou que, nos exemplos anteriores, os vectores prprios associados a
valores prprios diferentes vinham linearmente independentes: as duas diagonais no
primeiro exemplo e os dois eixos no segundo. Vinham at perpendiculares mas ainda
demasiado cedo para percebermos esse aspecto da questo. Vamos ento concentrar-nos na
independncia linear verificando que o resultado geral. Com efeito temos o seguinte:
Teorema 6.2.1- Vectores prprios de uma transformao linear T :
n

n
associados a valores prprios distintos so linearmente independentes.
Prova: Sejam x
1
, x
2
, ..., x
r
os vectores prprios de T associados aos valores prprios
distintos
1
,
2
, ...,
r
. A prova feita por induo em r. Se r 1 o resultado trivial.
Admita agora que o resultado verdadeiro para r n, isto que

1
x
1

2
x
2
...
r
x
r
0
n
implica
1

2
...
r
0.
Por absurdo admita que o resultado falhava para r 1, isto que existiriam numeros

1
,
2
, ...,
r
,
r1
, no todos nulos, tais que
1
x
1

2
x
2
...
r
x
r

r1
x
r1
0
n
. Claro
que teremos obrigatriamente
r1
0 pois de outro modo estariamos a violar a hiptese
de induo. Calculemos agora o efeito da transformao linear T sobre a igualdade anterior.
Vir
1
T(x
1
)
2
T(x
2
) ...
r
T(x
r
)
r1
T(x
r1
) 0
n
e, como x
1
, x
2
, ..., x
r
, x
r1
so
vectores prprios de T associados aos valores prprios
1
,
2
, ...,
r
,
r1
, teremos

1
x
1

2

2
x
2
...
r

r
x
r

r1

r1
x
r1
0
n
. Usando agora a expresso de
r1
x
r1
tirada da primeira igualdade,
r1
x
r1

1
x
1

2
x
2
...
r
x
r
, e substituindo-a na
igualdade anterior viria

1
(
1

r1
)x
1

2
(
2

r1
)x
2
...
r
(
r

r1
)x
r
0
n
igualdade que, dada a
independncia linear de x
1
, x
2
, ..., x
r
, implicaria

1
(
1

r1
)
2
(
2

r1
) ...
r
(
r

r1
) 0. Note agora que, como os valores
prprios
1
,
2
, ...,
r
,
r1
so supostos ser todos distintos, estas ltimas igualdades
implicariam
1

2
...
r
0, o que em conjunto com

1
x
1

2
x
2
...
r
x
r

r1
x
r1
0
n
teria como consequncia
r1
0, uma
contradio. M
J vimos, na seco anterior, que uma transformao linear T :
n

n

representada em bases diferentes por matrizes (eventualmente) diferentes. Parece ento


razovel perguntar se existir alguma base em que T seja representada por uma matriz
especialmente simptica de manipular, por exemplo por uma matriz diagonal. O prximo
teorema responde a esta questo.
Teorema 6.2.2- Dada uma transformao linear T :
n

n
existe uma base em
que T representada por uma matriz diagonal se e s se T tem n vectores prprios
linearmente independentes.
Prova: Admita ento que T tem n vectores prprios linearmente independentes
x
1
, x
2
, ..., x
n
. Assim sendo estes n vectores formam uma base de
n
e, nessa base, a matriz
que representa T tem por colunas as imagens de x
1
, x
2
, ..., x
n
, isto ,
T(x
1
) | T(x
2
) | | T(x
n
) . Mas repare agora que, como x
1
um vector
prprio associado a um certo valor prprio
1
, teremos T(x
1
)
1
x
1
e as coordenadas de

1
x
1
na base x
1
, x
2
, ..., x
n
so |
1
, 0, ..., 0]
T
. Um raciocinio semelhante para T(x
2
), ..., T(x
n
)
mostraria que se tem

1
0 0
0
2
0
. . ` .
0 0
n
ou seja, que a matriz que representa T na base x
1
, x
2
, ..., x
n
uma matriz diagonal
cujos elementos diagonais so precisamente os valores prprios
1
,
2
, ...,
n
a que os n
vectores prprios independentes x
1
, x
2
, ..., x
n
esto associados.
Para provar a reciproca admita que existe uma base de
n
, formada pelos vectores
x
1
, x
2
, ..., x
n
, na qual T se representa por uma matriz diagonal . Reparando na configurao
da primeira coluna de concuir que, nesta base, T(x
1
) tem por coordenadas |
1
, 0, ..., 0]
T
,
ou seja que T(x
1
)
1
x
1
implicando isto que x
1
um vector prprio de T associado ao
valor prprio
1
. Um raciocinio semelhante para as outras colunas de concui a prova. M
O teorema anterior levanta a questo de saber em que condies uma transformao
linear T :
n

n
tem n vectores prprios linearmente independentes, ou seja, em que
condies existe uma base em que T representada por uma matriz diagonal. Antes de
avanarmos para esta questo vamos introduzir algum vocabulrio que ser til no que se
segue.
Definio 6.2.3- Uma matriz A, (n n), diz-se diagonalizvel se existe uma base de

n
na qual a transformao linear T :
n

n
que representada por A na base
cannica nessa outra base representada por uma matriz diagonal.
Definio 6.2.4- Chama-se multiplicidade algbrica de um valor prprio, , de uma
transformao linear T :
n

n
multiplicidade de como raiz do polinmio
caracteristico de T .
Este novo vocabulrio vai facilitar a resposta questo que introduzimos atrs:
Teorema 6.2.5- Seja A, (n n), uma matriz que representa a transformao linear
T :
n

n
na base cannica. A matriz A diagonalizvel se e s se a multiplicidade
algbrica de cada valor prprio de T igual sua multiplicidade geomtrica. Nestas
condies teremos a igualdade B
1
AB onde a matriz diagonal dos valores
prprios de T e B uma matriz cujas colunas so constituidas por n vectores prprios
independentes de T expressos na base cannica.
Prova: Sabemos que a valores prprios distintos correspondem vectores pprios
linearmente independentes. Se, para alm disso, os valores prprios de T tiverem
multiplicidades algbricas e geomtricas iguais ser sempre possvel arranjar uma base de

n
formada por vectores prprios de T. A equao de diagonalizao B
1
AB
simplesmente a traduo da modificao da matriz que representa T quando passamos da
base cannica para a base formada pelos n vectores prprios independentes de T. M
Terminamos esta seco com dois exemplos que ilustram um caso em que uma matriz
diagonalizvel e outro caso em que tal no ocorre.
Considere ento a matriz A
0 0 2
0 1 0
0 0 2
que representa uma transformao linear
T :
3

3
. Ser esta matriz diagonalizvel? Comeamos por calcular os valores
prprios de T utilizando a matriz A. O polinmio caracteristico
|A I
3
| det
0 2
0 1 0
0 0 2
(1 )(2 ) 0 cujas raizes so

1
0,
2
1,
3
2. Claro que, como estes valores prprios so todos distintos, temos a
garantia (pelo Teorema 6.2.1) que existem 3 vectores prprios independentes que formam
uma base de
3
. Vamos calcul-los com o intuito de verificar a equao de
diagonalizao B
1
AB.
Para
1
0 o sistema homognio vir:
0 0 2
0 1 0
0 0 2
x
y
z

0
0
0
cuja soluo y z 0, ou seja os vectores
associados so da forma
a
0
0
com a real arbitrrio.
Para
2
1 o sistema homognio vir:
1 0 2
0 0 0
0 0 1
x
y
z

0
0
0
cuja soluo x z 0, ou seja os vectores
associados so da forma
0
b
0
com b real arbitrrio.
Para
3
2 o sistema homognio vir:
2 0 2
0 1 0
0 0 0
x
y
z

0
0
0
cuja soluo y 0 e x z, ou seja os
vectores associados so da forma
c
0
c
com c real arbitrrio.
Uma matiz B cujas colunas formam uma base de vectores prprios ser, tomando por
exemplo a b c 1, B
1 0 1
0 1 0
0 0 1
e teremos B
1

1 0 1
0 1 0
0 0 1
.
Pode ento verificar que B
1
AB
1 0 1
0 1 0
0 0 1
0 0 2
0 1 0
0 0 2
1 0 1
0 1 0
0 0 1

0 0 0
0 1 0
0 0 2
a matriz diagonal dos valores prprios
1
0,
2
1,
3
2.
Vejamos agora outro exemplo em que as coisas no correm to bem.
Considere ento a matriz A
0 1 0
0 0 2
0 0 0
que representa uma transformao linear
T :
3

3
. Ser esta matriz diagonalizvel? Comeamos por calcular os valores
prprios de T utilizando a matriz A. O polinmio caracteristico
|A I
3
| det
1 0
0 2
0 0
()
3
0. Este polinmio tem uma raiz tripla
(multiplicidade algbrica igual a 3) em 0. Para que A fosse diagonalizvel o Teorema
6.2.5 diz-nos que a este valor prprio 0 deveria corresponder um sub-espao prprio
de dimenso (a multiplicidade geomtrica) igual tambm a 3.
Para ver se assim calculemos os vectores prprios que lhe esto associados.
Para 0 o sistema homognio vir:
0 1 0
0 0 2
0 0 0
x
y
z

0
0
0
cuja soluo y z 0, ou seja os vectores
associados so da forma
a
0
0
com a real arbitrrio. Isto corresponde ao eixo dos xx, um
sub-espao de dimenso 1! Portanto neste caso impossvel encontrar 3 vectores prprios
independentes que formem uma base de
3
e a matriz A no diagonalizvel.
Mais tarde estudaremos uma classe especial de matrizes para a qual isto no pode
ocorrer. Por agora vamos ver alguns factos importantes sobre valores prprios.
6.3 Factos sobre valores prprios
A partir de agora, por simplificao de linguagem, dada uma matriz A, (n n), vamos
falar dos valores prprios de A. Claro que o que queremos verdadeiramentete referir so os
valores prprios de uma transformao linear T :
n

n
que numa certa base
representada pela matriz A. Aqui a base em questo irrelevante pois sabemos que os
valores prprios de uma tranasformao linear no dependem da base escolhida para a
representar (Teorema 6.1.3). Vamos ento estudar alguns factos relevantes sobre os valores
prprios de uma matriz A, (n n).
Teorema 6.3.1- Se
1
,
2
, ...,
n
forem os valores prprios da matriz A, (n n), ento
teremos a igualdade |A|
1

2
...
n
,isto , o determinante de A o produto dos
seus valores prprios.
Prova: Os valores prprios de A so as raizes do polinmio caracteristico. sabido que
um polinmio de grau n em pode ser escrito (
1
) (
2
) .... (
n
) 0
onde
1
,
2
, ...,
n
so as suas raizes. Teremos ento a igualdade
|A I
n
| (
1
) (
2
) .... (
n
) 0. Fazendo 0 na primeira das
igualdades anteriores vem |A|
1

2
...
n
, o resultado pretendido. M
Teorema 6.3.2- Se um valor prprio da matriz A, (n n), ento
k
, para k
inteiro, um valor prprio de A
k
sempre que A
k
exista.
Prova: Se um valor prprio de A sabemos que Ax x. Multiplicando, esquerda,
ambos os membros desta igualdade por A vem A
2
x Ax
2
x o que mostra que
2

valor prprio de A
2
. Para k inteiro positivo a prova segue por induo. Com efeito se
k1
for valor prprio de A
k1
teremos A
k1
x
k1
x. Multiplicando agora, esquerda, agora
ambos os membros desta igualdade por A vem A
k
x
k1
Ax
k
x o que mostra que
k

valor prprio de A
k
. Para k inteiro negativo sabemos que se A
1
existe ento |A| 0 e que,
portanto (Teorema 6.3.1), nenhum dos valores prprios de A nulo. Este facto permite
deduzir de Ax x que A
1
x
1
x o que mostra que
1
valor prprio de A
1
. A prova,
para os outros valores de k negativos, segue por induo como anteriormente. M
Teorema 6.3.3- As matizes A e A
T
, ambas (n n), tm os mesmos valores prprios.
Prova: Basta notar que |A I
n
| |(A I
n
)
T
| |A
T
I
n
|. M
Teorema 6.3.4- Dadas duas matizes A e C, ambas (n n), os produtos AC e CA tm
os mesmos valores prprios.
Prova: .Suponha ento que valor prprio de AC. Isto significa que ACx x.
Multiplicando, esquerda, ambos os membros desta igualdade por C vem CACx Cx.
Chamando agora y Cx a igualdade anterior escreve-se CAy y o que mostra que
um valor prprio de CA como pretendiamos. Repare ainda que AC e CA no tm
(necessriamente) os mesmos vectores prprios. Com efeito se x vector prprio de AC
ento, do raciocinio anterior, inferimos que y Cx vector prprio de CA. M
6.4 Matrizes reais e simtricas
Vamos agora estudar o caso particular, que ser til no derradeiro captulo deste curso
elementar, dos valores e vectores prprios de matrizes reais e simtricas. Comeamos por
recordar os exemplos dados em 6.1: neles os vectores prprios associados a valores
prprios diferentes vinham mais do que linearmente independentes vinham mesmo
perpendiculares. Isto no uma coincidncia. Com efeito vale o seguinte
Teorema 6.4.1- Se a matriz A, (n n), for real e simtrica ento a valores prprios
distintos correspondem vectores prprios ortogonais.
Prova: Tomemos ento
1

2
dois valores prprios distintos e sejam u
1
um vector
prprio associado a
1
e u
2
outro vector prprio associado a
2
. Teremos ento Au
1

1
u
1
e Au
2

2
u
2
. Multiplicando, esquerda, a primeira igualdade por u
2
T
e a segunda por u
1
T
obteremos u
2
T
Au
1

1
u
2
T
u
1
e u
1
T
Au
2

2
u
1
T
u
2
. Repare primeiro que que tanto u
2
T
u
1
como
u
1
T
u
2
so o produto interno de u
1
por u
2
, ou seja que u
1
, u
2
u
2
T
u
1
u
1
T
u
2
. Sendo
assim as duas igualdades anteriores podem escrever-se u
2
T
Au
1

1
u
1
, u
2
e u
1
T
Au
2

2
u
1
, u
2
. Note agora que o primeiro membro da primeira igualdade (tal como o da
segunda!) uma matriz (1 1) e que, portanto, no se altera por transposio. Teremos
ento u
2
T
Au
1
(u
2
T
Au
1
)
T
u
1
T
A
T
u
2
u
1
T
Au
2
onde a ltima igualdade decorre da simetria
de A, ou seja, de se ter A
T
A. Fica assim estabelecido que as igualdades u
2
T
Au
1

1
u
1
, u
2
e u
1
T
Au
2

2
u
1
, u
2
tm os primeiros membros iguais e que, portanto, se
as subtrairmos membro a membro obteremos 0 (
1

2
) u
1
, u
2
. Ora, como

1

2
, esta igualdade implica 0 u
1
, u
2
, ou seja que u
1
e u
2
so ortogonais. M
Repare agora num facto que (por neste curso elementar estarmos sempre a trabalhar
com nmeros reais) se calhar lhe tinha passado despercebido at agora. Considere um
exemplo que j vimos no captulo anterior:
Seja uma transformao T de
2
em si prprio, T : x
2
T(x)
2
, em que o
transformado do vector x obtido rodando-o de 90
o
no sentido contrrio ao dos ponteiros
do relgio. Trata-se evidentemente de uma transformao linear que ilustrada na figura
abaixo onde os vectores e
1
e e
2
(a azul) representam a base cannica de
2
.
90
o
T(x)
x
e
1
e
2
-e
1
x
1
x
2
-x
2
x
1
Repare que T(e
1
) e
2
|0, 1]
T
e T(e
2
) e
1
|1, 0]
T
o que significa que a matriz
que reprenta T :
A T(e
1
) T(e
2
)
0 1
1 0
e portanto
T(
x
1
x
2
)
0 1
1 0
x
1
x
2

x
2
x
1
como se deprende da figura.
Se agora for calcular os seus valores prprios teremos o seguinte polinmio
caracteristico:
|A I
2
| det
1
1

2
1 0 de raizes complexas i.
Se em seguida calcular os vectores prprios associados vir:
Para i o sistema homognio :
i 1
1 i
x
1
x
2

0
0
cuja soluo x
2
ix
1
logo os vectores prprios
sero da forma
a
ia
com a real arbitrrio.
Para i o sistema homognio :
i 1
1 i
x
1
x
2

0
0
cuja soluo x
2
ix
1
logo os vectores prprios
sero da forma
a
ia
com a real arbitrrio.
Obtivemos assim valores e vectores prprios complexos! O que querer isto dizer?
Recorde que os vectores prprios de uma transformao linear so vectores que no se
alteram (a menos de uma multiplicao por uma constante) quando a transformao actua.
Mas a nossa transformao T : x
2
T(x)
2
tal que o transformado do vector x
obtido rodando-o de 90
o
e , portanto, em
2
nenhum vector (excepto a origem) fica
inalterado! Com efeito preciso passar para C
2
para obter os vectores prprios que
encontrmos atrs. Note ainda que a matriz desta transformao linear no simtrica. O
resultado seguinte mostra-nos que este fenmeno (a obteno de valores e vectores
prprios complexos) no possvel para as matrizes reais e simtricas que estamos a
estudar nesta seco.
Teorema 6.4.2- Se a matriz A, (n n), for real e simtrica ento todos os seus
valores prprios so reais.
Prova: Recorde que o conjugado de um nmero complexo a bi (a bi)

a bi.
Uma estratgia bvia para mostrar que um nmero complexo real provar que ele
coincide com o seu conjugado. esse o caminho que vamos seguir. O raciocnio muito
semelhante ao da prova do teorema anterior.
Considere ento um valor prprio de A, ou seja Au u, e tome os conjugados de
ambos oa membros obtendo Au

, uma vez que sendo A uma matriz real se tem


A

A. Agora multiplique, esquerda, a igualdade Au u por (u

)
T
e a igualdade Au

por u
T
. Obteria as igualdades (u

)
T
Au (u

)
T
u e u
T
Au

u
T
u

. Repare primeiro
que que tanto (u

)
T
u como u
T
u

so o produto interno de u por u

, ou seja que
u, u

(u

)
T
u u
T
u

. Sendo assim as duas igualdades anteriores podem escrever-se


(u

)
T
Au u, u

e u
T
Au

u, u

respectivamente. Note agora que o primeiro


membro da segunda igualdade (tal como o da primeira!) uma matriz (1 1) e que,
portanto, no se altera por transposio. Teremos ento
u
T
Au

(u
T
Au

)
T
(u

)
T
A
T
u (u

)
T
Au onde a ltima igualdade decorre da simetria de
A, ou seja, de se ter A
T
A. Fica assim estabelecido que as igualdades (u

)
T
Au
u, u

e u
T
Au

u, u

tm os primeiros membros iguais e que, portanto, se as


subtrairmos membro a membro obteremos 0 (

) u, u

. Ora, se u for um vector


de componentes u
j
a
j
b
j
i, para j 1, ..., n, teremos que
u, u


j1
jn
u
j
u
j


j1
jn
(a
j
b
j
i)(a
j
b
j
i)
j1
jn
(a
j
2
b
j
2
) 0 ,a menos que u
fosse o vector nulo. Ento a igualdade 0 (

) u, u

implica que

, ou seja
implica que real. M
Para alm destas duas propriedades elementares as matrizes reais e simtricas, ao
contrrio do caso geral, so sempre diagonalizveis. Para conseguirmos compreender que
assim necessitamos de mais algumas ferramentas de trabalho. Comecemos com uma
definio.
Definio 6.4.3- Uma matriz Q, (n n), diz-se ortogonal se Q
1
Q
T
, isto se a
inversa igual transposta.
Vamos ver em mais detalhe o que esta definio significa. Uma primeira observao
mostra que se Q ortogonal Q
T
tambm o . Com efeito o teorema 2.2.9 diz-nos que
(Q
T
)
1
(Q
1
)
T
. Se Q ortogonal (Q
1
Q
T
) teremos as igualdades
(Q
T
)
1
(Q
1
)
T
(Q
T
)
T
o que mostra que a inversa de (Q
T
) igual sua transposta.
Vejamos agora uma segunda observao. Comece por reparar que Q
1
Q
T

equivalente a dizer que Q


T
Q I
n
. Este facto diz-nos alguma coisa muito importante sobre
as colunas (e as linhas) da matriz Q. Olhe para o seguinte diagrama esquemtico que
representa a igualdade Q
T
Q I
n
para o caso de matrizes (3 3).
1 0 0
0 1 0
0 0 1
=
Q
T
Q I
3
=
As colunas de Q so 3 vectores: o vermelho,o azul e o verde. Ento Q
T
ter
exactamente esses 3 vectores por linhas. Repare agora que o 1 vermelho na matriz
identidade I
3
foi obtido fazendo o produto interno do vector vermelho por ele prprio. Algo
de semelhante se passa com os 1s azul e verde de I
3
. Note agora que os 0s pretos de I
3
so obtidos fazendo o produto interno de vectores de cores diferentes. Ou seja, produtos
internos de colunas de Q da mesma cor do 1 ao passo que produtos internos de colunas de
cores diferentes do 0.
Esta obsevao deve ser suficiente para o convencer de que as colunas de uma matriz
ortogonal Q, (n n), formam uma base ortonormada de
n
! Mas o facto de Q ser
ortogonal implicar que Q
T
tambm o vem dizer-nos que as linhas de Q tambm formam
uma base ortonormada de
n
.
Para matrizes ortogonais vale o seguinte teorema que instrumental para o resultado
final e mais importante desta seco que veremos em seguida.
Teorema 6.4.4- Se Q for uma matriz ortogonal (n n) ento a matriz A, tambm
(n n), e a matriz Q
T
AQ, tm os mesmos valores prprios. Mais, se os vectores
prprios de so linearmente independentes o mesmo se passa com os vectores
prprios de A.
Prova: Seja um valor prprio de , isto x x. Usando a definio de vem
Q
T
AQx x. Agora multiplicando, esquerda, esta igualdade por Q vem AQx Qx o
que mostra que valor prprio de A. Repare ainda que a igualdade anterior diz-nos que
se x um vector prprio de associado a ento y Qx um vector prprio de A
associado ao mesmo valor prprio .
Mostramos agora que se x
1
, x
2
, ..., x
k
so vectores prprios de linearmente
independentes ento y
1
Qx
1
, y
2
Qx
2
, ..., y
k
Qx
k
so vectores prprios de A tambm
linearmente independentes.
Por absurdo admita que y
1
, y
2
, ..., y
k
so dependentes. Neste caso a equao

1
y
1

2
y
2
...
k
y
k
0
n
tem uma soluo diferente de
1

2
...
k
0.
Usando o facto de se ter y
1
Qx
1
, y
2
Qx
2
, ..., y
k
Qx
k
a equao anterior poderia
escrever-se
1
Qx
1

2
Qx
2
...
k
Qx
k
0
n
e multiplicando, esquerda, esta igualdade
por Q
1
Q
T
viria
1
x
1

2
x
2
...
k
x
k
0
n
o que implicaria a dependncia linear dos
vectores x
1
, x
2
, ..., x
k
, um absurdo. M
Estamos agora equipados para ver que as matrizes reais e simtricas so sempre
diagonalizveis.
Teorema 6.4.5- Se A for uma matriz (n n) real e simtrica todos os seus valores
prprios tm as multiplicidades algbrica e geomtrica iguais, isto , as matrizes reais
e simtricas so sempre diagonalizveis.
Prova: A prova consiste em mostrar que uma matriz A, (n n), real e simtrica tem
sempre n vectores prprios independentes e que, portanto, sempre diagonalizvel. A
prova feita por induo em n. Para n 1 o resultado trivial. Admita ento que o
resultado verdadeiro para matrizes (n 1) (n 1).
Tomemos ento uma matriz A, (n n), real e simtrica e seja um valor prprio e u um
vector prprio a ele associado. Vamos tomar u com norma 1 o que sempre possvel.
Teremos ento Au u com ||u|| 1. Considere agora uma base ortonormada de
n
de
que u faa parte u, v
1
, ..., v
n1
e forme uma matriz Q que tem os vectores desta base por
colunas Q u | v
1
v
n1
. A matriz Q claramente ortogonal. Repare agora
que AQ Au | Av
1
Av
n1
u | Av
1
Av
n1
pois u um vector
prprio de A associado ao valor prprio . Forme agora a matriz Q
T
AQ . Vir:
Q
T
AQ
u
T

v
1
T
.
v
n1
T
u | Av
1
Av
n1

u
T
u | u
T
Av
1
u
T
Av
n1
|
v
1
T
u |
. | v
i
T
Av
j
v
n1
T
u |
Observe a primeira coluna desta matriz. O primeiro elemento u
T
u uma vez que
u
T
u ||u||
2
1. Os outros elementos desta coluna so todos nulos pois os vectores
u, v
1
, ..., v
n1
fazem parte de uma base ortonormada.
Os elementos do resto da primeira linha, u
T
Av
i
para i 1, ..., n 1, so tambm nulos.
Com efeito u
T
Av
i
uma matriz (1 1) que no se altera por transposio. Assim teremos
que u
T
Av
i
(u
T
Av
i )
T
v
i
T
A
T
u v
i
T
Au v
i
T
u 0 onde a terceira igualdade decorre da
simetria de A, a quarta de u ser um vector prprio de A associado a e a ltima do facto de
u e v
i
fazerem parte de uma base ortonormada.
Vamos agora ver que as outras linhas e colunas de contm uma matriz
(n 1) (n 1) real e simtrica. Esta matriz claramente real. Para verificar a semetria
repare que v
i
T
Av
j
uma matriz (1 1) que no se altera por transposio. Assim fcil
verificar que o elemento da linha i e coluna j que v
i
T
Av
j
(v
i
T
Av
j )
T
v
j
T
A
T
v
i
v
j
T
Av
i
(a
ltima igualdade decorre da simetria de A) vem igual ao elemento da linha j e coluna i.
Assim a matriz Q
T
AQ vir:
Q
T
AQ
| 0 0
|
0 |
. | B
0 |
onde B uma matriz (n 1) (n 1) real e simtrica que, por hiptese de induo,
tem n 1 vectores prprios w
1
, ..., w
n1
linearmente independentes associados a valores
prprios
1
, ...,
n1
.
Repare agora que os n 1 vectores de
n
0

w
1
, ...,
0

w
n1
, que so
claramente linearmente independentes, so vectores prprios de associados aos valores
prprios
1
, ...,
n1
. Com efeito temos, por exemplo,

w
1

Bw
1

1
w
1

1
0

w
1
.
Tome agora o vector de
n
1

0
n1
. Este vector, que claramente linearmente
independente dos n 1 vectores
0

w
1
, ...,
0

w
n1
, um vector prprio de
associado ao valor prprio . Com efeito temos

0
n1

B0
n1

1

0
n1
.
Ento concluimos que a matriz Q
T
AQ, com Q ortogonal, tem n vectores prprios
linearmente independentes. O teorema 6.4.4 assegura que o mesmo se passa com a matriz
A. M
Vamos agora especificar um procedimento que efectua a diagonalizao de uma matriz
A, (n n), real e simtrica.
Algoritmo 6.4.6- Diagonalizao de uma matriz A, (n n), real e simtrica.
(1) Calcule os valores prprios distintos de A,
1
, ...,
k
, de multiplicidades
algbricas
1
, ...,
k
. Temos
1
...
k
n.
(2) Determine para cada
i
, i 1, ..., k,
i
vectores prprios ortonormados u
1
i
, ..., u

i
i
,
ou seja, uma base ortonormada para o sub-espao prprio associado a
i
. Se
necessrio utilize o algoritmo de ortogonalizao de Gram-Schmidt (teorema 1.5.1).
(3) Forme a matriz ortogonal B que tem por colunas os vectores das bases
ortonormadas encontradas anteriormente, isto ,
B u
1
1
u

1
1
, , u
1
k
u

k
k
. Teremos ento a diagonalizao
B
1
AB, ou seja, dado que a matriz B ortogonal:
B
T
AB
onde a matriz diagonal dos valores prprios associados s colunas de B.
Terminamos esta seco com um exemplo ilustrando a aplicao deste procedimento.
Seja ento a matriz A
1 0 1
0 2 0
1 0 1
real e simtrica. Vamos diagonaliz-la.
Comeamos por calcular os valores prprios. O polinmio caracteristico
|A I
3
| det
1 0 1
0 2 0
1 0 1
0. Fazendo o desenvolvimento de Laplace do
determinante pela primeira linha da matriz vem
|A I
3
| (1 )
2
(2 ) (2 ) (2 )|(1 )
2
1] 0. Este polinmio tem uma
raiz simples (
1
1) em
1
0 e uma raiz dupla (
2
2) em
2
2. Portanto, na
linguagem do algoritmo 6.4.6, temos k 2 valores prprios distintos.
Em seguida vamos calcular os vectores prprios.
Para
1
0 o sistema homognio vem:
1 0 1
0 2 0
1 0 1
x
y
z

0
0
0
cuja soluo x z e y 0. Os vectores prprios
associados tm o formato
a
0
a
com a real arbitrrio. Trata-se de um sub-espao de
dimenso
1
1.
Para
2
2 o sistema homognio vem:
1 0 1
0 0 0
1 0 1
x
y
z

0
0
0
cuja soluo x z e y arbitrrio. Os vectores
prprios associados tm o formato
b
c
b
com b e c reais arbitrrios. Trata-se de um
sub-espao de dimenso
2
2 como previsto.
Repare que, como previsto pelo teorema 6.4.1, os vectores prprios associados a
1
0
so ortogonais ao vectores prprios associados a
2
2 .
Vamos agora encontrar bases ortonormadas para estes sub-espaos.
Para
1
0 a dimenso
1
1 e uma base ortonormada constituida pelo vector
u
1
1

1/ 2
0
1/ 2
.
Para
2
2 a dimenso
2
2 e uma base ortonormada constituida pelos vectores
u
1
2

0
1
0
e u
2
2

1/ 2
0
1/ 2
.
Note que aqui foi evidente encontrar uma base ortonormada. Se no fosse esse o caso a
partir de uma base qualquer construiriamos uma base ortonormada usando o algoritmo de
ortogonalizao de Gram-Schmidt.
Ento os 3 vectores u
1
1

1/ 2
0
1/ 2
, u
1
2

0
1
0
e u
2
2

1/ 2
0
1/ 2
formam
uma base ortonormada de
3
e podemos arrum-los numa matriz ortogonal
B u
1
1
u
1
2
u
2
2

1/ 2 0 1/ 2
0 1 0
1/ 2 0 1/ 2
. Sabemos agora que a matriz diagonal
dos valores prprios dada por B
T
AB ou seja:
B
T
AB
1/ 2 0 1/ 2
0 1 0
1/ 2 0 1/ 2
1 0 1
0 2 0
1 0 1
1/ 2 0 1/ 2
0 1 0
1/ 2 0 1/ 2

0 0 0
0 2 0
0 0 2

También podría gustarte