Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Modelos Lineares
Em uma situacao mais geral, a variavel de interesse (variavel resposta) tem sua
descric ao probabilstica afetada por outras variaveis (variaveis explicativas ou
covariaveis). No caso mais simples a inuencia sobre a resposta media e linear e
aditiva e pode ser vista como uma aproximacao de primeira ordem para fun coes
mais complexas.
Usando uma notacao matricial, o modelo linear normal pode ser escrito como
y = X +,
onde y e um vetor n 1 de observacoes, X e uma matriz n p conhecida,
e um vetor p 1 de parametros e e um vetor n 1 de erros aleatorios tais
que
i
N(0,
2
) e E(
i
j
) = 0, para i = 1, , n e j = i. O modelo nos diz
entao que, a distribuicao condicional de y dados e
2
e normal multivariada,
i.e. y N(X,
2
I
n
) sendo I
n
e a matriz identidade de ordem n. Denindo
=
2
e usando a funcao de densidade da normal multivariada (ver apendice
A) segue que
f(y|, ) = (2)
n/2
|
1
I
n
|
1/2
exp
1
2
(y X)
(
1
I
n
)
1
(y X)
n/2
exp
2
(y X)
(y X)
. (5.1)
A forma quadratica em (5.1) pode ser reescrita em termos de
= (X
X)
1
X
y
que e o estimador de maxima verossimilhanca de ,
(y X)
(y X) = (y X
X(
))
(y X
X(
))
= (y X
(y X
) + ( X
X( X
)
2( X
)X
(y X
)
= (y X
(y X
) + ( X
X( X
)
88
89
pois X
(y X
) = 0. Denotando por S = (y X
(y X
) a soma de
quadrados residual, podemos escrever entao a funcao de verossimilhanca como,
f(y|, )
n/2
exp
2
[(
)
X(
) + S]
.
A distribui cao a priori adotada aqui e uma generaliza cao multivariada da
distribuicao Normal-Gama vista na Secao 2.3.5. Assim, a distribui cao a priori e
especicada como
| N
p
(
0
, (C
0
)
1
)
onde C
0
e agora uma matriz p p e
Gama
n
0
2
,
n
0
2
0
2
.
Com isso a densidade a priori conjunta de (, ) ca completamente especicada
e assim como no caso univariado a distribuicao marginal de e obtida integrando-
se p(, ) em relacao a onde,
p(, )
n
0
+p
2
1
exp
n
0
2
0
+ (
0
)
C
0
(
0
)
1 +
(
0
)
C
0
(
0
)
n
0
2
0
(n
0
+p)/2
de modo que a distribui cao a priori marginal de e t
n
0
(
0
,
2
0
C
1
0
). Note
que, como C
0
e simetrica, e necessario especicar p(p + 1)/2 de seus elementos.
Na pratica, podemos simplicar esta especicacao assumindo que C
0
e diagonal,
i.e. que os componentes de sao nao correlacionados a priori.
Combinando-se com a verossimilhanca via teorema de Bayes obtem-se as
seguintes distribui coes a posteriori
|, y N(
1
, (C
1
)
1
)
|y Gama
n
1
2
,
n
1
2
1
2
ou n
1
2
1
2
n
1
|y t
n
1
(
1
,
2
1
C
1
1
)
90 CAP
1
= (C
0
+X
X)
1
(C
0
0
+X
)
n
1
2
1
= n
0
2
0
+ (y X
1
)
y + (
0
1
)
C
0
0
= n
0
2
0
+ (n p)
2
+ (
0
[C
1
0
+X
X
1
]
1
(
0
)
onde
2
=
1
n p
(y X
(y X
).
Os estimadores pontuais de e sao dados respectivamente por
1
e
2
1
.
Intervalos de conanca para
j
e sao obtidos atraves dos percentis das
distribuicoes univariadas t
n
1
(
j
,
2
1
(C
1
1
)
jj
), j = 1, , p e
2
n
1
. Em particular,
note que
1
e obtida como uma ponderacao matricial entre a estimativa a priori
de e sua estimativa de maxima verossimilhanca
. Inferencia conjunta sobre
tambem pode ser feita usando o fato que a forma quadratica
(
1
)
C
1
(
1
)/p
2
1
F(p, n
1
).
Note que o modelo visto na secao anterior e na verdade o caso mais simples
de um modelo linear quando p = 1 e X e um vetor n 1 de 1s. Neste caso e
um escalar podendo ser denotado por e o modelo se reduz a y
i
= +
i
.
A priori nao informativa e tambem uma generalizacao multivariada da secao
anterior. Aqui o vetor e um parametro de locacao e e um parametro de escala,
e portanto a priori nao informativa de Jereys e p(, )
1
. Vale notar
que esta priori e um caso particular (degenerado) da priori conjugada natural
com C
0
= 0 e n
0
= p. Fazendo as substitui coes adequadas obtem-se que as
distribuicoes a posteriori sao dadas por
|y t
np
(
, s
2
(X
X)
1
)
(n p)s
2
|y
2
np
(
)
X(
)
s
2
|y F(p, n p)
e estimadores pontuais bem como intervalos de conanca coincidirao com os obti-
dos usando metodos classicos.
5.1. AN
ALISE DE VARI
AO 91
5.1 Analise de Variancia com 1 Fator de Classi-
cacao
Considere o modelo y
ij
=
j
+
ij
, i = 1, , n
j
e j = 1, , p. Assim, todas as
n
j
observacoes do grupo j tem a mesma media
j
. Neste problema, o n umero
total de observacoes independentes e n = n
1
+ + n
p
. Em outras palavras,
Y
1j
, , Y
n
j
j
N(
j
,
2
). Se os y
ij
foremempilhados em um unico vetor n1
entao podemos reescrever o modelo na forma matricial y = X + sendo
X =
1 0 0
.
.
.
.
.
.
.
.
.
1 0 0
.
.
.
.
.
.
.
.
.
0 0 1
.
.
.
.
.
.
.
.
.
0 0 1
.
Note que X
X = diagonal(n
1
, , n
p
) e a forma quadratica (
X(
)
se reduz a
p
j=1
n
j
(
j
y
j
)
2
e a fun cao de verossimilhanca e dada por
l(
1
, ,
p
, ; y)
n/2
exp
(n p)s
2
+
p
j=1
n
j
(
j
y
j
)
2
com
s
2
=
1
n p
(y X
(y X
).
Assumindo que
j
| N(
j
, (c
j
)
1
), j = 1, , p sao condicionalmente
independentes e que n
0
2
0
2
n
0
entao as distribui coes a posteriori sao
j
|, y N(
j
, (c
j
)
1
)
n
1
2
1
|y
2
n
1
j
|y t
n
1
(
j
,
2
1
/c
j
)
92 CAP
j
=
c
j
j
+ n
j
y
j
c
j
+ n
j
c
j
= c
j
+ n
j
n
1
= n
0
+ n
n
1
2
1
= n
0
2
0
+ (n p)s
2
+
p
i=1
n
j
c
j
c
j
+ n
j
(y
j
j
)
2
e os
j
|, y permanecem independentes.
A priori nao informativa p(, )
1
e obtida fazendo-se c
j
= 0, j = 1, , p
e n
0
= p. Assim, as distribuicoes a posteriori marginais sao dadas por
j
|y t
np
(y
j
, s
2
/n
j
)
(n p)s
2
2
np
e as estimativas pontuais e intervalos de conanca coincidirao com os da inferencia
classica. Em particular, se estamos interessados em testar
H
0
:
1
= =
p
=
entao pode-se mostrar que (DeGroot,1970, paginas 257 a 259) deve-se rejeitar H
0
se
P
F >
p
j=1
n
j
(y
j
y)
2
/(p 1)
s
2
j
=
j
, =
1
n
p
j=1
n
j
j
e
p
j=1
n
j
j
= 0
e
j
e o efeito da j-esima popula cao. Neste caso, X
X = diagonal(n
1
, , n
p
) e
a forma quadratica (
)
X(
) ca
n
j
(
j
y
j
y)
2
+n( y
j
y)
2
.