Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Distribuciones Multivariantes PDF
Distribuciones Multivariantes PDF
doc
vgaribay@eio.uva.es
Xp
EX1 1
EX 2 2
EX p p
Anlogamente, esperanza o media de la matriz aleatoria X es la matriz nxp EX= (EXij)= E(ij)
Transformaciones lineales de vectores o matrices aleatorias X:
Sea Y=AX+C con A= y C= ... constantes. Entonces, EY= A EX + C.
c
a k1 ... a kp
k
Entonces, EY= A EX B+ C.
=E
(X - )(X - ) ...
(X p - p ) 2
p p 1 1
X= Cov(X)= E(X-)(X-)t =
Var X1
... Cov(X1 , X p )
=
Cov(X , X ) ...
Var X p
p
1
= (ij)
RX= D
0
11
X D , siendo D = diag( 11 , ... , pp ) ; D=
pp
0
1/2
1/2
distmultiv.doc
vgaribay@eio.uva.es
det(A)=det(At);
(At)-1= (A-1)t.
xtAx>0 x,;
i >0 i.
xtAx0 x,;
i 0 i.
vi) Si es una matriz pxp simtrica y 0, existe una matriz B pxp tal que = B Bt.
En efecto, B= P1/2 verifica la condicin: B Bt= P1/2 1/2 Pt= P Pt=
proy[A]x
distmultiv.doc
vgaribay@eio.uva.es
Si C es constante, E(C/Y)=C
Esperanza de constante
ii)
E(aX+b/Y)= a E(X/Y)+ b
Linealidad
iii)
E(E(X/Y))= EX
iv)
E(X/Y)=C Cov(X,Y)=0
v)
vi)
Esperanza iterada
Si no depende de Y
Regresin Terica:
i)
Se define la funcin de regresin terica de Y sobre X como la funcin H(X) que ms se parece
a Y con el criterio LSE, es decir, hace mnimo el error cuadrtico medio esperado, E(Y-H(X))2. Esta
funcin resulta ser H(X)=E(Y/X) siempre.
Si X es un vector aleatorio p-dim, la superficie H(X1, ..., Xn-1) que mejor aproxima la v.a. Xn en
el sentido LSE es pues la esperanza condicionada H(X1, ..., Xn-1)= E(Xn /X1, ..., Xn-1 ).
ii) Se define la funcin de regresin LINEAL terica de Y sobre X, como la funcin LINEAL de
X, H(X), que minimiza E(Y-H(X))2.
Cuando la curva de regresin terica E(Xn /X1, ..., Xn-1 ) resulta ser lineal en X1, ..., Xn-1,
directamente sta ser tambin la regresin lineal.
X~ N (,2)
1 x- 2
- (
)
1
e 2 para xR.
Densidad: fX(x)=
2
Media E(X)=
Varianza Var(X)=2.
i)
Transformaciones lineales:
ii)
iii)
Reproductividad:
X~ N(X,X2), Y~ N(Y,Y2) independientes X+Y~ N (XY,X2+Y2)
1 2
t )
2
Cuadradados:
X ~ N(,) X2 ~ 21
X1... Xn v.a.i.i.d. N(,) X12+ ... +Xn2 ~ 2n
(n grados de libertad)
X1... Xn v.a.i. N (i,) X12+ ... +Xn2 ~ 2n() con = 12+ ... +n2 (descentralidad)
distmultiv.doc
v)
vgaribay@eio.uva.es
Momentos muestrales:
1
1
media muestral X ~ N (, 2); varianza muestral 2 S ~ 2n-1; X y S independientes.
n
vi)
X
~ tn (n g.de l.)
Y/n
X/n
~ Fn,m (n,m g.de l.)
Y/m
X/n
~ Fn,m()
Y/m
t
1
exp x -1 x ; x R p
2
i)
ii)
El corte de la densidad f(x) a una altura c es un elipsoide (elipse si p=2). determina la forma
del elipsoide y c su tamao. Est centrado en . Los autovectores de determinan las direcciones de
los ejes principales del elipsoide y los autovalores, su longitud. Para p=2 podemos visualizar la
funcin de densidad en forma de campana. Las elipses de equidensidad aparecen al cortar f (x,y) por
planos paralelos a la base. Al crecer c disminuye su tamao manteniendo la forma (son elipses
homotticas).
distmultiv.doc
vgaribay@eio.uva.es
1
t' t)
2
X ~ Np , Y= AX+B
X
21 22
(2)
(2)
Entonces, X(1)= B1X para B1=(Ik | 0) kxp
y aplicando iv), X(1) ~ Nk (B1 B1 B1t ) Nk ( 11 )
Anlogamente, X(2)= B2X para B2=( 0 | Ip-k) (p-k)xp, luego X(2) ~ Nk ( 22 ).
En particular, cada componente Xi de un vector normal es N1
vi)
El recproco de v) no es cierto.
Cov(X(1), X(2))= 0
Nota: NO es suficiente que X(1) y X(2) sean normales por separado. Es necesaria la normalidad
conjunta.
viii) Reproductividad: La suma de Np independientes es Np
Sean X(1) ... X(n) v.a.i. Xi ~ Np (i , i) y sean a1 ... an constantes reales.
n
i=1
i=1
i=1
entonces Y= a i X i ~ N p ( a i i , a i2 i )
Si adems, las Xi son igualmente distribuidas,
n
1
)
n
distmultiv.doc
vgaribay@eio.uva.es
x)
Condicionadas:
X
Si ~ N2 , las funciones de regresin de Y sobre X y de X sobre Y son rectas.
Y
La versin multivariante tambin se verifica (notacin de vi):
X (1)
Para X=
~ Np (, ) las leyes condicionales son stas:
X (2)
22.1 se denominan
Teorema de representacin
Sean ahora X1 ... Xn v.a.i.i.d. N1 (,); el vector X= (X1 , ... , Xn)t ser Np (0,In), puesto que toda
c.l. de sus componentes ser N1 (por la reproductividad de la N1); entonces, Y=B X+ ~ Np (, )
Nota: Este resultado es muy importante. Permite simular observaciones Np a partir de N1(0,1)
independientes, transformndolas mediante B=P 1/2.
Corolario: Existe la Np (, ) y de dispersin (una matriz es de dispersin si y slo si es
simtrica y semidefinida positiva; adems, cuando es definida positiva, la distribucin admite
densidad)
x)
distmultiv.doc
vgaribay@eio.uva.es
i)
La distribucin de un vector aleatorio queda determinada por la distribucin de todas las
combinaciones lineales de sus componentes, puesto que X(t)= E (ei t' X )= t' X (1)
ii) Convergencia en Ley de vectores aleatorios
L
Definicin:
x de continuidad de FY
Y si lim FXn (x) FY (x)
X n n=1
n
Diremos que la sucesin de vectores aleatorios p-dimensionales X1 ... Xn ... converge en ley al
vector aleatorio Y (o a la distribucin FY) si las funciones de distribucin FXn convergen a FY.
iii)
L
Y
X n n=1
a X
[aRp ,
n n=1
at Y ]
Sea X1, X2, ... Xn ... una sucesin de vectores aleatorios independientes igualmente distribuidos,
de media y dispersin .
La sucesin de medias muestrales X n =
En efecto, Rp
L
n (X n - )
N p (0, )
1 n
Xi verifica:
n i=1
t Xn - t
t
/n
1 t
)
n
N(0,1),
L
L
n ( t X n - t )
N(0, t ) o bien, t n (X n - )
N(0, t )
L
n (X n - )
N p (0, )
Delta-Mtodo
g: Rp Rp es diferenciable,
Si
L
n (X n - )
N p (0, ) y
entonces
(g(t))
(g(t))
n (g(X n ) - g())
N p (0,
)
(t) t= (t) t=
'
x ~ Np (, 2Ip)
ii)
x ~ Np (, ) con > 0
iii)
xt x / 2
1
~ 2p ( t )
2
(x- t (x- ~ 2p
xt x
~ 2p ()
(chi-2 descentrada)
distmultiv.doc
vgaribay@eio.uva.es
x i1
x1, x2, ... xn v.a.i.i.d. Np(0, ); individuo i xi = ;
x ip
C = Xt X =
x x
i
t
i
= (cij) ~ Wp (n , )
i=1
i) Generaliza la 2:
W1 ( k , 2 ) 2 2k
ii) Reproductividad:
C1 ~ Wp ( k1 , ) , C2 ~ Wp ( k2 , ) indeps.
C1 + C2~ Wp ( k1 + k2, )
iii) Transformaciones:
C ~ Wp ( k , ) , B cualquier matriz qxp de constantes B C Bt ~ Wq ( k , B t )
En particular, para B= bt= (b1 ... bp) se tiene que
bt C b ~ W1 ( k , bt b ) 2b 2k, siendo 2b = bt b
as, las f.c. (forma cuadrtica) en matrices Wishart son 2.
Nota: antes veamos la condicin para que una f.c. x'Ax en un vector x~Np fuera 2.
Los elementos diagonales de C~W son 2, pues tomando bt=(0...1...0): cii= bt C b ~ ii 2k
iv) C ~ Wp ( k , )
c
ij
1 1+ rij
1 1+ij 1
ln
~ N( ln
,
), siendo rij = ij
y ij =
2 1- rij
2 1- ij k-2
cii c jj
ii jj
v) C ~ Wp ( k , ), ij = 0 rij
k- 1
~ tk-1
1- rij2
distmultiv.doc
vgaribay@eio.uva.es
2
i
= xt x
i=1
i) f X (x)=
exp - 2 x t x para x R p ,
p
p
2
2 2
p-1
Definicin de distribucin elptica
Sea Z un vector aleatorio p-dimensional con distribucin esfrica, mRp y AMpxp constantes.
El vector transformado X=AZ+m se dice que tiene distribucin elptica
Propiedades
i) EX= m; Cov(X)= cAAt .
ii) fX(x)= fZ(A-1(x-m)) |det(A-1)|, aplicando teorema del Jacobiano de cambio de variable.
iii) Las curvas de equidensidad sos elipsoides centrados en m: x / (x-m)t M-1(x-m)= cte
Ejemplos de distribuciones elpticas:
i) Np (, )
ii) fX(x)= p det(V)-1/2 en (x-m)t V-1 (x-m) < 1;
por ejemplo, X= m+AZ, con Z uniforme en la esfera unidad y V=AAt.
distmultiv.doc
vgaribay@eio.uva.es
10
k- p+1
X ~ Fp, k-p+1
kp
Simblicamente:
T2p, k
kp
Fp, k-p+1
k- p+1
k- p+1
X ~ Fp, k-p+1();
kp
Resultado importante
W ~ Wp(k, ) , x ~ Np (, ), independientes
T2p, k()
kp
Fp, k-p+1()
k- p+1
con =
(versin centrada)
(versin descentrada)
N(0,1)
2
k
/k
con N y 2independientes,
cuyos cuadrados dan una versin equivalente de aspecto similar a la multivariante [1]:
k N(0,1) ( 2k )-1 N(0,1) F1, k
xt x
2)
bt W b
~ W1 ( k , bt b ) 2b 2k, siendo 2b = bt b
3)
k xt W-1 x
~ T2p, k()
kp
Fp, k-p+1() con = t
k- p+1
H
H
T
y V=
.
E
E+H 1+T
Se dice que:
V tiene una distribucin Beta invertida de tipo I con
mH
m
y E g. de l. :
2
2
V ~ mH
2
mE
2
distmultiv.doc
vgaribay@eio.uva.es
mH
m
y E g.de l.;
2
2
11
mE
T ~ FmH ,mE
mH
1
t
(a) (b)
; 0 t donde (a,b) =
m E +m H
mH mE
(a+b)
(
,
) (1+t) 2
2 2
mH
mE
-1
-1
1
f V (v)=
v 2 (1-v) 2 ; 0 v 1
m m
( H , E )
2 2
f T (t)=
(Beta I multivariante)
|E|
~ Up, mH, mE
|E+H|
Aparece como TRV para los contrastes de linealidad en el Modelo Lineal Multivariante.
Se conocen aproximaciones asintticas F y 2.
2) Traza de Pillay:
distmultiv.doc
vgaribay@eio.uva.es
12
x1 S1 (y1 , , y k )
transf. inversa
x k Sk (y1 , , y k )
de la transf.
inversa, S
x1 x k
y1 y k
J 1
* Det. Jacobiano:
y1 T1 (x1 , , x k )
transf. directa
Tk (x1 , , x k )
k
f(x) dx
de la transf.
J
directa, T
T(A)
y1 yk
x1 x k
Nota: J1 = 1 / J
f (S(y)) | J1 | dy
(f: integrable; A k)
* Aplicacin del Teorema para funciones de densidad:
Aplicando el teorema del jacobiano a la integral de una densidad fX, aparece un resultado general de gran
utilidad prctica. Obtenemos la densidad fY de un vector Y que es funcin T de otro vector X, a partir de la densidad fX
Enunciado:
p Y (B) = p X (S(B)) ,
y
luego
pX (S(B)) =
S(B) X
f (y) dy =
y por tanto,
f (S(y)) | J1 | dy
B X
fY (y)
fX (S(y)) | J1 |
c.s.
c.q.d.
* Conclusin:
Tenemos un procedimiento para calcular directamente la densidad de una nueva v.a. Y=T(X) a partir de la de X:
J
f Y (y1 y k ) = f X (x 1 , , x k )
1
nueva densidad
distmultiv.doc
vgaribay@eio.uva.es
* Un resultado ms general:
Sea X un vector aleatorio continuo k-dimensional con densidad fX .
Sea Y= T(X), donde T:k k NO es un difeomorfismo porque no es una aplicacin 1-1 de SX a SY .
pero SX se descompone en r regiones A1 Ar
cada punto imagen y tiene hasta r antecedentes, x1 A1 , , xr Ar
y en cada regin Ai , T: Ai k S es un difeomorfismo, con inversa Si.
Ejemplo:
Sea T(x,y)= ( |x|, |y|)
T no es difeomorfismo, pues no es 1-1:
u > 0, v > 0 T-1 (u,v) = { (u,v), (-u,v), (u,-v), (-u,-v) }
Pero en cada cuadrante Ci de 2 la aplicacin T S que es 1-1 y difeomorfismo.
con jacobiano J11
: S2(u,v)= (-u,v)
J12
En C3 T(x,y)= (-x,-y);
: S3(u,v)= (-u,-v)
J13
En C4 T(x,y)= (x,-y);
: S4(u,v)= (u,-v)
J14
La contraimagen por T de cualquier Borel B ser entonces la unin de r conjuntos disjuntos Bi Si(B):
T-1(B) = B1 + + Br.
r
As:
i 1
pX (Bi) = (1)
f
i 1
(y) dy =
f i Y (y) dy
i 1
(1) p X (Bi )
f (x) dx (T. Jacobiano) f X (Si (y)) J1i dy
Bi X
B
f Yi (y)
f Y (y) =
i 1
i=1r
Nota: A veces todas las f iY (y) coinciden y eso agiliza mucho los clculos, pues en ese caso:
fY(y) = r f 1 Y (y) = r fX (S1 (y)) | J11 |
13