Está en la página 1de 13

distmultiv.

doc

vgaribay@eio.uva.es

Tema 1: Distribuciones Multivariantes.


1.- Conceptos de Repaso.
Leyes de Probabilidad Conjunta.
Leyes Marginales.
Leyes condicionadas.
Independencia.
Momentos.

2.- Matrices aleatorias


X1
X11 ... X1p

X2

Matriz aleatoria nxp dimensional X= ...


... =(Xij); Vector aleatorio p-dim X= .
...
X n1 ... X np

Xp
EX1 1


EX 2 2

Esperanza o media del v.a. (vector aleatorio) X es el vector = EX=


=
... ...


EX p p
Anlogamente, esperanza o media de la matriz aleatoria X es la matriz nxp EX= (EXij)= E(ij)
Transformaciones lineales de vectores o matrices aleatorias X:

a11 ... a1p


c1


Sea Y=AX+C con A= y C= ... constantes. Entonces, EY= A EX + C.
c
a k1 ... a kp
k

Sea Y=AXB+ C con A, B y C matrices de constantes.

Entonces, EY= A EX B+ C.

Matriz de varianzas-covarianzas de un v.a. X (tambin llamada matriz de dispersin)X

Es la matriz de trmino genrico Cov(Xi, Xj):


(X1 -1 ) 2
... (X1 -1 )(X p - p )

=E

(X - )(X - ) ...
(X p - p ) 2
p p 1 1

X= Cov(X)= E(X-)(X-)t =

Var X1
... Cov(X1 , X p )

=
Cov(X , X ) ...
Var X p
p
1

= (ij)

X= E(XXt)- EX EXt (generaliza la conocida relacin VarX=EX2- E2X).

Sea Y=AX+C. Entonces Y=X At. En efecto,

Y= E(Y-Y)(Y-Y)t = E(AX+C--)( AX+C--)t =A E(X-)(X-)t At=X At

Matriz de correlaciones de un vector aleatorio X, RX :


ij
Es la matriz de trmino genrico Corr(Xi, Xj)=
ii jj
1/2

RX= D

0
11
X D , siendo D = diag( 11 , ... , pp ) ; D=

pp
0
1/2

1/2

distmultiv.doc

vgaribay@eio.uva.es

Matriz de Covarianzas para dos vectores aleatorios X e Y:

Cov(X,Y)= ( Cov(Xi, Yj))= E(X-EX)(Y-EY)t


Generaliza la matriz de dispersin, pues X= Cov(X,X)
Transformaciones lineales. Cov(AX+C, BY+D)= A Cov(X,Y) Dt

3.- Repaso de lgebra


i) (AB)t=B t A t;

det(A)=det(At);

det(AB)= detA det B;

ii) P ortogonal: PPt=PtP=I; Pt=P-1;

(AB) -1= B-1 A-1;

(At)-1= (A-1)t.

La transformacin x Px es un giro de ejes.

iii) Valores propios i y vectores propios xi de una matriz simtrica A:


Axi=i xi; i 0 i; rg(A)=n de autovalores positivos
u1 ... up vectores propios unitarios (uit ui =1) y ortogonales (uit uj=0) asociados a 1 ... p
iv) Diagonalizacin (Pt P=) y reconstruccin (= P Pt) de a partir de los i y los ui:
Si =diag(1,..., p) y P= (u1|...|up), se tiene que P=P
...y como P es ortogonal (PtP=I=PPt), tenemos: Pt P= y = P Pt
v) A definida positiva (se nota A>0):
A semidefinida positiva (se nota A0):

xtAx>0 x,;

i >0 i.

xtAx0 x,;

i 0 i.

vi) Si es una matriz pxp simtrica y 0, existe una matriz B pxp tal que = B Bt.
En efecto, B= P1/2 verifica la condicin: B Bt= P1/2 1/2 Pt= P Pt=

vii) A idempotente (AA=A) y simtrica (At=A).


Sus autovalores sern 1 0 (pues x=Ax=AAx=x=x =1 0)
rg(A)= traza(A). En efecto, rg(A)=n 's positivos =traza(), pues los 's son 0's y 1s,
pero traza()=traza(Pt P)=traza(PPt )=traza(A)
viii) Subespacio vectorial generado por las columnas de A (todas sus c.l. posibles):
ImA= [A]={Ax; xRp} (pues cada Ax es una c.l. de las columnas de A)
ix) Proyeccin ortogonal del punto x sobre el subespacio [A]:

proy[A]x

Es el punto de [A] ms prximo a x.


Su forma es P[A]x, siendo P[A]=A(AtA)-1At la matriz de proyeccin sobre [A].
P[A] es idempotente y simtrica (de hecho todas las matrices de proyeccin y slo ellas lo son)

distmultiv.doc

vgaribay@eio.uva.es

4.- Esperanza Condicionada


Sea X un v.a. y H una funcin que transforma X.
E(H(X)/Y=y) es el valor esperado de H(X) utilizando la ley de X condicionada por Y=y.
E(H(X)/Y) es una v.a. funcin de Y, que toma el valor E(H(X)/Y=y) cuando Y=y.
Propiedades:
i)

Si C es constante, E(C/Y)=C

Esperanza de constante

ii)

E(aX+b/Y)= a E(X/Y)+ b

Linealidad

iii)

E(E(X/Y))= EX

iv)

E(X/Y)=C Cov(X,Y)=0

v)

Var(X/Y)= E(X2/Y) - E2(X/Y) Varianza condicionada

vi)

Var(X)= Var(E(X/Y)) + E(Var(X/Y))

Esperanza iterada
Si no depende de Y

Regresin Terica:
i)
Se define la funcin de regresin terica de Y sobre X como la funcin H(X) que ms se parece
a Y con el criterio LSE, es decir, hace mnimo el error cuadrtico medio esperado, E(Y-H(X))2. Esta
funcin resulta ser H(X)=E(Y/X) siempre.
Si X es un vector aleatorio p-dim, la superficie H(X1, ..., Xn-1) que mejor aproxima la v.a. Xn en
el sentido LSE es pues la esperanza condicionada H(X1, ..., Xn-1)= E(Xn /X1, ..., Xn-1 ).
ii) Se define la funcin de regresin LINEAL terica de Y sobre X, como la funcin LINEAL de
X, H(X), que minimiza E(Y-H(X))2.
Cuando la curva de regresin terica E(Xn /X1, ..., Xn-1 ) resulta ser lineal en X1, ..., Xn-1,
directamente sta ser tambin la regresin lineal.

5.- Distribucin Normal


5.1 Normal Univariante

X~ N (,2)

1 x- 2
- (
)
1
e 2 para xR.
Densidad: fX(x)=
2

Media E(X)=

Varianza Var(X)=2.

aX+b ~ N (a+b, a22)

i)

Transformaciones lineales:

ii)

Funcin caracterstica X(t)=exp ( i t -

iii)

Reproductividad:
X~ N(X,X2), Y~ N(Y,Y2) independientes X+Y~ N (XY,X2+Y2)

1 2
t )
2

Recprocamente: [X, Y independientes, X+Y ~ N] [X~ N e Y~ N]


En definitiva, para X e Y v.a. independientes: X+Y ~ N X~ N e Y~ N
y lo mismo para n variables independientes: X1+ ... +Xn ~ N X1~ N ... y Xn~ N
iv)

Cuadradados:

X ~ N(,) X2 ~ 21
X1... Xn v.a.i.i.d. N(,) X12+ ... +Xn2 ~ 2n

(n grados de libertad)

X1... Xn v.a.i. N (i,) X12+ ... +Xn2 ~ 2n() con = 12+ ... +n2 (descentralidad)

distmultiv.doc

v)

vgaribay@eio.uva.es

Si X1... Xn v.a.i.i.d. N(,)

Momentos muestrales:

1
1
media muestral X ~ N (, 2); varianza muestral 2 S ~ 2n-1; X y S independientes.
n

vi)

Distribucin tn : [ X ~ N (,), Y ~ 2n , independientes]

vii) Distribucin Fn,m : [ X ~ 2n , Y ~ 2m, independientes ]

X
~ tn (n g.de l.)
Y/n
X/n
~ Fn,m (n,m g.de l.)
Y/m

viii) Distribucin F descentrada: [ X ~ 2n() , Y ~ 2m, independientes ]

X/n
~ Fn,m()
Y/m

4.2 Normal Multivariante :


X ~ Np (, ); dimensin p, media , dispersin .
Definicin 1)

El v.a. X= (X1, ..., Xp) tiene distribucin Np(, ) si su densidad es


f ( x)

t
1

exp x -1 x ; x R p
2

con cualquier vector de Rp y cualquier matriz simtrica definida positiva.


para p=1 tenemos la normal univariante ya estudiada.
Definicin 2)

El v.a. X= (X1, ..., Xp) tiene distribucin Normal multivariante si at X ~ N1 aRp


(es decir, si toda combinacin lineal de sus componentes es normal univariante)
Esta segunda definicin de Np es ms general que la primera e incluye tanto las normales no
singulares ( >0) como las degeneradas ( ).
Propiedades de la Np:

i)

Momentos: Si X ~ Np , existen E(X)= y Cov(X)=

ii)

Regiones de equidensidad de un vector X ~ Np (, ) con >0


f(x)=c x- -1 x- =c*
t

El corte de la densidad f(x) a una altura c es un elipsoide (elipse si p=2). determina la forma
del elipsoide y c su tamao. Est centrado en . Los autovectores de determinan las direcciones de
los ejes principales del elipsoide y los autovalores, su longitud. Para p=2 podemos visualizar la
funcin de densidad en forma de campana. Las elipses de equidensidad aparecen al cortar f (x,y) por
planos paralelos a la base. Al crecer c disminuye su tamao manteniendo la forma (son elipses
homotticas).

distmultiv.doc

vgaribay@eio.uva.es

X(t)= exp ( i t' -

iii) Funcin caracterstica:


iv)

1
t' t)
2

Toda transformacin lineal (de cualquier dimensin) de un vector Normal es Normal.


Y ~ Np ( A+B, A At )

X ~ Np , Y= AX+B

En consecuencia, aR aX ~ Np ( a, a2 ), puesto que aX AX con A= a Ip


v)

Las marginales de cualquier dimensin de un vector normal son normales:

Troceamos el vector X ~ Np (, ) en dos subvectores X(1) y X(2) de dimensiones k y p-k


respectivamente. Se parte y de forma congruente:
X (1)
(1)

X=
; =
; = 11 12

X

21 22
(2)
(2)
Entonces, X(1)= B1X para B1=(Ik | 0) kxp
y aplicando iv), X(1) ~ Nk (B1 B1 B1t ) Nk ( 11 )
Anlogamente, X(2)= B2X para B2=( 0 | Ip-k) (p-k)xp, luego X(2) ~ Nk ( 22 ).
En particular, cada componente Xi de un vector normal es N1
vi)

El recproco de v) no es cierto.

Desafortunadamente, aunque las componentes de un vector sean normales, no se tiene


garantizado que la distribucin conjunta sea normal.
La normalidad conjunta ser rechazada si se detecta falta de normalidad en una componente
(tests de ajuste de Kolmogoroff, Liliefords, 2, Shapiro-Wilks, ...).
Por contra, aunque todas las componentes una por una superen la prueba, la normalidad
multivariante del vector no est garantizada y es necesario desarrollar tests multivariantes especficos
para contrastar la normalidad conjunta. Los estudiaremos ms adelante.
vii) Bajo normalidad conjunta, independencia e incorrelacin coinciden.
Si X(1) y X(2) son dos vectores aleatorios con ley conjunta Normal (X(1), X(2)) ~ Np , entonces

X(1), X(2) independientes

Cov(X(1), X(2))= 0

Nota: NO es suficiente que X(1) y X(2) sean normales por separado. Es necesaria la normalidad
conjunta.
viii) Reproductividad: La suma de Np independientes es Np
Sean X(1) ... X(n) v.a.i. Xi ~ Np (i , i) y sean a1 ... an constantes reales.
n

i=1

i=1

i=1

entonces Y= a i X i ~ N p ( a i i , a i2 i )
Si adems, las Xi son igualmente distribuidas,
n

entonces Y= a i Xi ~ N p ((a1 +...a n ), (a 12 +...a n2 ))


i=1

En particular, la media muestral X n de una m.a.s. Np (, ) es Np (,


ix)

1
)
n

Recprocamente, la suma de vectores independientes es Np slo si cada sumando Np

distmultiv.doc

vgaribay@eio.uva.es

x)

Condicionadas:
X
Si ~ N2 , las funciones de regresin de Y sobre X y de X sobre Y son rectas.
Y
La versin multivariante tambin se verifica (notacin de vi):
X (1)
Para X=
~ Np (, ) las leyes condicionales son stas:
X (2)

X(2)/ X(1)= x1 ~ Np-k ((2) + 21 11-1 (x1 - (1)), 22 - 2111-112)


X(1)/ X(2)= x2 ~ Nk ((1) + 1222-1 (x2 - (2)), 11 - 1222-121)
As, la esperanza condicionada (2) + 21 11-1 (x1 - (1)) resulta lineal en x1, luego es tambin la
regresin lineal de X(2) sobre X(1).

La matriz de dispersin de la ley condicional, 22 - 2111-112 se nota como 22.1. Es la matriz


de covarianzas de X(2) tras eliminar el efecto de X(1).
Las correlaciones calculadas a partir de esta matriz de covarianzas
correlaciones parciales de X(2) conocido X(1).

22.1 se denominan

Sorprendentemente no dependen del valor x1 observado.


xi)

Teorema de representacin

La distribucin Np(, ) se obtiene transformando linealmente p Normales(0,1) independientes.


En efecto:
Diagonalizamos :

Pt P= ; = P Pt ; tomamos B=P 1/2, de forma que B Bt =.

Sean ahora X1 ... Xn v.a.i.i.d. N1 (,); el vector X= (X1 , ... , Xn)t ser Np (0,In), puesto que toda
c.l. de sus componentes ser N1 (por la reproductividad de la N1); entonces, Y=B X+ ~ Np (, )
Nota: Este resultado es muy importante. Permite simular observaciones Np a partir de N1(0,1)
independientes, transformndolas mediante B=P 1/2.
Corolario: Existe la Np (, ) y de dispersin (una matriz es de dispersin si y slo si es
simtrica y semidefinida positiva; adems, cuando es definida positiva, la distribucin admite
densidad)
x)

Siempre es posible transformar linealmente un vector para obtener componentes incorreladas


(bajo normalidad conjunta, incorrelacin equivale a independencia).

Por ejemplo, si p=2, esta transformacin consigue normales centradas e incorreladas:


cos sen
2 12
Y=A(X-) con A=
;
siendo tg2=
11 - 22
-sen cos
es una transformacin ortogonal (giro de ejes de magnitud en el plano)
En general se obtiene el mismo resultado transformando por la matriz de paso P=[u1|...|up]. Las
columnas ui son vectores propio unitarios ortogonales de . En efecto, el vector Y=Pt X resulta de
componentes independientes, pues Pt P= = diag(1, ... ,p) , autovalores de .
La transformacin P es ortogonal, as que corresponde a un giro de ejes en Rp, y este giro hace
coincidir los ejes de coordenadas con los ejes del elipsoide de equidensidad.
Premultiplicando Y por -1/2 =diag(1-1/2, ... , p-1/2) se obtienen componentes independientes
de varianza 1:
Si Z= -1/2 Y= -1/2 Pt X,
entonces Z = -1/2 Pt P -1/2 -1/2 -1/2 =I

distmultiv.doc

vgaribay@eio.uva.es

4.3 Teorema Central del Lmite Multivariante


Resultados previos.

i)
La distribucin de un vector aleatorio queda determinada por la distribucin de todas las
combinaciones lineales de sus componentes, puesto que X(t)= E (ei t' X )= t' X (1)
ii) Convergencia en Ley de vectores aleatorios

L
Definicin:
x de continuidad de FY
Y si lim FXn (x) FY (x)
X n n=1
n

Diremos que la sucesin de vectores aleatorios p-dimensionales X1 ... Xn ... converge en ley al
vector aleatorio Y (o a la distribucin FY) si las funciones de distribucin FXn convergen a FY.
iii)

Teorema de Cramer y Wold:

L
Y
X n n=1

a X

[aRp ,

n n=1

at Y ]

La convergencia en ley de vectores aleatorios p-dimensionales equivale a la convergencia en


ley en R de todas las posibles combinaciones lineales (v.a. unidimensionales).
sta es una idea que se aplica con frecuencia en anlisis multivariante y ayuda a resolver
muchos problemas: Un problema multivariante equivale a una coleccin de problemas univariantes
que sabemos ya resolver.
TCL para v.a.i.i.d.

Sea X1, X2, ... Xn ... una sucesin de vectores aleatorios independientes igualmente distribuidos,
de media y dispersin .
La sucesin de medias muestrales X n =
En efecto, Rp

L
n (X n - )
N p (0, )

t X1 ... t Xn ... son v.a.i.i.d. 1(t t ), luego t X n ~ 1(t

y por el TCL univariante,


o sea,

1 n
Xi verifica:
n i=1

t Xn - t
t

/n

1 t
)
n

N(0,1),

L
L
n ( t X n - t )
N(0, t ) o bien, t n (X n - )
N(0, t )

y por el Th. de Cramer-Wald se tiene el resultado:

L
n (X n - )
N p (0, )

Delta-Mtodo

g: Rp Rp es diferenciable,

Si

L
n (X n - )
N p (0, ) y

entonces

(g(t))
(g(t))
n (g(X n ) - g())
N p (0,

)
(t) t= (t) t=

'

4.4 Distribucin de formas cuadrticas en un vector normal.


i)

x ~ Np (, 2Ip)

ii)

x ~ Np (, ) con > 0

iii)

xt x / 2

1
~ 2p ( t )
2

(x- t (x- ~ 2p
xt x

~ 2p ()

x ~ Np (, ) con > 0; A y B matrices de constantes. Entonces:


xt x ~ 2rg(A) (A) A es idempotente
xt x independiente de xt x AB= 0

(chi-2 descentrada)

distmultiv.doc

vgaribay@eio.uva.es

5.- Distribucin de Wishart


En el muestro de la N1 la distribucin 2 aparece como suma de cuadrados de N1(0,1)
independientes:
x1
n

2
x= ;
xt x = x i2 ~ 2 2n
x1, x2, ... xn v.a.i.i.d. N1(0, );
i=1
x
n
Anlogamente, en el caso multivariante aparece la distribucin de Wishart en una m.a.s. de
tamao n de una Np ( 0, ):
x1t

matriz de datos X =
t
xn

x i1

x1, x2, ... xn v.a.i.i.d. Np(0, ); individuo i xi = ;
x ip

C = Xt X =

x x
i

t
i

= (cij) ~ Wp (n , )

i=1

La ley conjunta de todos los elementos de C se denomina distribucin de Wishart basada en n


Normales p-dimensionales de dispersin .
Se nota como Wp (n , ). p es la "dimensin" y n, los "grados de libertad", como en la 2.
La distribucin de Wishart es el anlogo multivariante de la 2n: En el muestreo de la N1 se
introduce la como la ley de la varianza muestral. En el muestro de la Np se introduce la Wp (k , )
como la ley de la matriz de covarianzas muestrales S.
La funcin de densidad de la Wishart es una expresin matemtica compleja y de poco inters
prctico.
Propiedades

i) Generaliza la 2:
W1 ( k , 2 ) 2 2k
ii) Reproductividad:
C1 ~ Wp ( k1 , ) , C2 ~ Wp ( k2 , ) indeps.

C1 + C2~ Wp ( k1 + k2, )

iii) Transformaciones:
C ~ Wp ( k , ) , B cualquier matriz qxp de constantes B C Bt ~ Wq ( k , B t )
En particular, para B= bt= (b1 ... bp) se tiene que
bt C b ~ W1 ( k , bt b ) 2b 2k, siendo 2b = bt b
as, las f.c. (forma cuadrtica) en matrices Wishart son 2.
Nota: antes veamos la condicin para que una f.c. x'Ax en un vector x~Np fuera 2.
Los elementos diagonales de C~W son 2, pues tomando bt=(0...1...0): cii= bt C b ~ ii 2k
iv) C ~ Wp ( k , )

c
ij
1 1+ rij
1 1+ij 1
ln
~ N( ln
,
), siendo rij = ij
y ij =
2 1- rij
2 1- ij k-2
cii c jj
ii jj

v) C ~ Wp ( k , ), ij = 0 rij

k- 1
~ tk-1
1- rij2

distmultiv.doc

vgaribay@eio.uva.es

6.- Distribuciones esfricas y elpticas


http://fedc.wiwi.hu-berlin.de/xplore/tutorials/mvahtmlnode42.html
http://artax.karlin.mff.cuni.cz/~branm1am/download/Elliptical%20Distributions24.ppsx
Definicin de distribucin esfrica
Se dice que un vector aleatorio X p-dimensional es esfrico (o simtricamente esfrico) cuando
su distribucin no cambia bajo rotaciones del sistema de coordenadas., es decir, si la distribucin de
BX es la misma que la de X para toda matriz ortogonal B.

Una definicin equivalente cuando X admite funcin de densidad fX :


fX(x) depende de x slo a travs de

2
i

= xt x

i=1

las curvas de equidensidad de un v.a. esfrico, son esferas de Rp centradas en O.


Ejemplos de distribuciones esfricas:
1
1

i) f X (x)=
exp - 2 x t x para x R p ,
p
p
2

2 2

ii) fX(x1, x2)=

[1- (x12+ x22)]

o sea X ~ Np( 0, 2 Ip)

para x12+ x22 < 1 en R2

iii) fX(x)= C para xt x < 1


, o sea X ~U(E1) siendo E1 la esfera unidad de Rp
1
iv) fX(x1, x2)=
exp[- (x12+ x22)1/2] en todo R2
2
1
exp[1+ (xt x)-3/2] en todo R2
v) Distribucin de Cauchy bidimensional: fX(x)=
2
vi) Normal contaminada:
Sea Z una v.a. discreta que toma dos valores z1 y z2 con probabilidades p1 y p2 respectivamente.
Sea X un vector aleatorio k-dimensional cuyas leyes condicionadas por Z=zi son N(0, i2 Ik).
Entonces fX(x)= p1 fX/Z=z1(x)+ p2 fX/Z=z2(x); se dice que X sigue distribucin Normal contaminada.
Propiedades
i) Si X tiene distribucin esfrica bidimensional y p(X=0)=0, entonces T=X1/X2 ~ Cauchy
ii) Si X tiene distribucin esfrica p-dimensional y p(X=0)=0, entonces
Z1
T=
~ tp-1
2
Z2 +...+Z2p

p-1
Definicin de distribucin elptica
Sea Z un vector aleatorio p-dimensional con distribucin esfrica, mRp y AMpxp constantes.
El vector transformado X=AZ+m se dice que tiene distribucin elptica
Propiedades
i) EX= m; Cov(X)= cAAt .
ii) fX(x)= fZ(A-1(x-m)) |det(A-1)|, aplicando teorema del Jacobiano de cambio de variable.
iii) Las curvas de equidensidad sos elipsoides centrados en m: x / (x-m)t M-1(x-m)= cte
Ejemplos de distribuciones elpticas:
i) Np (, )
ii) fX(x)= p det(V)-1/2 en (x-m)t V-1 (x-m) < 1;
por ejemplo, X= m+AZ, con Z uniforme en la esfera unidad y V=AAt.

distmultiv.doc

vgaribay@eio.uva.es

10

7.- Distribucin T2 de Hotelling


Es una distribucin univariante. La distribucin T2 de Hotelling es simplemente una F
multiplicada por una constante. Aparece en el muestreo de la Np y permite construir contrastes sobre
la media desconociendo . Juega el mismo papel que la distribucin t en el muestreo de la N1, que
permite contrastar con 2 desconocida.
Definicin de distribucin T2

Se dice que X ~ T2p, k cuando

k- p+1
X ~ Fp, k-p+1
kp

Simblicamente:

T2p, k

kp
Fp, k-p+1
k- p+1

Anlogamente, se define la T2 descentrada a partir de la F descentrada:


X ~ T2p, k() cuando

k- p+1
X ~ Fp, k-p+1();
kp

Resultado importante
W ~ Wp(k, ) , x ~ Np (, ), independientes

i) k (x- )t W-1 (x- ) ~ T2p, k


ii) k xt W-1 x
~ T2p, k()

T2p, k()

kp
Fp, k-p+1()
k- p+1

con =

Simblicamente: k Np (, )t [Wp(k, )]-1 Np (, ) T2p, k

(versin centrada)
(versin descentrada)

(... que no depende de !!!) [1]

Es la versin multivariante de la ya conocida relacin: tk

N(0,1)
2
k

/k

con N y 2independientes,

cuyos cuadrados dan una versin equivalente de aspecto similar a la multivariante [1]:
k N(0,1) ( 2k )-1 N(0,1) F1, k

Aplicaremos ms adelante este importante resultado a la media muestral (~Np) y la matriz de


covarianzas empricas (~Wp) en el muestreo de la Np.
Con ste, completamos tres resultados importantes sobre distribucin de formas cuadrticas:
1)

xt x

~ 2rg(A) (A) A es idempotente

2)

bt W b

~ W1 ( k , bt b ) 2b 2k, siendo 2b = bt b

3)

k xt W-1 x

~ T2p, k()

kp
Fp, k-p+1() con = t
k- p+1

8.- Distribucin Beta Multivariante


8.1 Beta univariante

Sean H ~ 2 2mH y E ~ 2 2mE independientes; sean T=

H
H
T
y V=

.
E
E+H 1+T

Se dice que:
V tiene una distribucin Beta invertida de tipo I con

mH
m
y E g. de l. :
2
2

V ~ mH
2

mE
2

distmultiv.doc

vgaribay@eio.uva.es

T tiene una distribucin Beta invertida de tipo II con

mH
m
y E g.de l.;
2
2

11

mE
T ~ FmH ,mE
mH

Las funciones de densidad de T y V son:


mH
-1
2

1
t
(a) (b)
; 0 t donde (a,b) =
m E +m H
mH mE
(a+b)
(
,
) (1+t) 2
2 2
mH
mE
-1
-1
1
f V (v)=
v 2 (1-v) 2 ; 0 v 1
m m
( H , E )
2 2
f T (t)=

8.2 Beta multivariante

Sean H ~ Wp (mH, ) y E ~ Wp (mE, ) independientes;


La generalizacin multivariante natural de 8.1 llevara a definir las matrices aleatorias
T= H E-1 y V= H (E+H) -1
estudiando la distribucin de sus autovalores , determinante y traza (producto y suma de los ).
En su lugar se utilizan estas otras dos matrices T y V
T= E-1/2 H E-1/2

(Beta II o invertida multivariante)

V= (E+H) -1/2 H (E+H) -1/2

(Beta I multivariante)

que siempre son simtricas y por tanto diagonalizables,


tienen los mismos autovalores [pues ABu= u BA(Bu)= (Bu)]
y por tanto los mismos determinantes (i) y trazas (i)
Los resultados ms interesantes sobre distribuciones de estas matrices, sus valores propios
(mximo, mnimo, determinante, traza...) son stos:
1) de Wilks U-distribucin: U= | I- V | =

|E|
~ Up, mH, mE
|E+H|

Aparece como TRV para los contrastes de linealidad en el Modelo Lineal Multivariante.
Se conocen aproximaciones asintticas F y 2.
2) Traza de Pillay:

V(s)= traza (V) = tr [ H(E+H) -1], con s= min(p, mH)

Se conoce su distribucin exacta, aproximaciones y ley asinttica 2p.mH.


3) Traza de Lawley-Hotelling: T2g = mE traza( T ) = mE tr [ HE -1]
Su distribucin asinttica es 2p.mH.
4) Mayor raz de Roy:

maxi ( i ) , siendo p los autovalores de T (T= HE-1).

En la prctica, estos cuatro estadsticos suelen transformarse en estadsticos F y se utilizan para


contrastar una misma hiptesis multivariante, por ejemplo, hiptesisis de no efecto en modelos
lineales multivariantes. En unos casos, el F estadstico es exacto y en otros casos es una
aproximacin. En muchos problemas los cuatro estadsticos dan lugar al mismo valor F y a los
mismos p-valores, pero no siempre. La mayor raz de Roy es una cota superior para los cuatro y da
una cota inferior para el p-valor; por eso suele ignorarse cuando es el nico significativo de los
cuatro.

distmultiv.doc

vgaribay@eio.uva.es

12

9.- Apndice: Transformaciones de vectores aleatorios


9.1 Distribuciones discretas (ya visto en Primer Curso)
9.2 Distribuciones continuas (Teorema del Jacobiano, de cambio de variable)
* Transformacin T y su inversa S:

x1 S1 (y1 , , y k )
transf. inversa

x k Sk (y1 , , y k )

de la transf.

inversa, S

x1 x k
y1 y k

J 1

* Det. Jacobiano:

* Teorema del Jacobiano:

y1 T1 (x1 , , x k )
transf. directa

Tk (x1 , , x k )
k

f(x) dx

de la transf.
J
directa, T

T(A)

y1 yk
x1 x k

Nota: J1 = 1 / J

f (S(y)) | J1 | dy

(f: integrable; A k)
* Aplicacin del Teorema para funciones de densidad:
Aplicando el teorema del jacobiano a la integral de una densidad fX, aparece un resultado general de gran
utilidad prctica. Obtenemos la densidad fY de un vector Y que es funcin T de otro vector X, a partir de la densidad fX
Enunciado:

Sea X un vector aleatorio continuo con densidad fX .

Sea Y= T (X), donde T es un difeomorfismo; sea S su transformacin inversa.


Entonces Y es continua y
f Y (y) = f X (S(y)) | J1 |
Demostracin: B k
pY (B) = f (y) dy
B

por ser fY la densidad de Y ;

p Y (B) = p X (S(B)) ,
y
luego

pX (S(B)) =

por ser S(B) la contraimagen de B por T,

f (x) dx = (aplicando el Th. del Jacobiano) = f X (S(y)) | J1 | dy ,

S(B) X

f (y) dy =

y por tanto,

f (S(y)) | J1 | dy

B X

fY (y)

fX (S(y)) | J1 |

c.s.

c.q.d.

* Conclusin:
Tenemos un procedimiento para calcular directamente la densidad de una nueva v.a. Y=T(X) a partir de la de X:

J
f Y (y1 y k ) = f X (x 1 , , x k )
1

nueva densidad

vieja densidad con las x i


S
como funcin de las y:
J1
y
x 1 S1 (y1 y k )
mdulo del
...
Jacobiano de la
x k S k (y1 y k )
transf. inversa

distmultiv.doc

vgaribay@eio.uva.es

* Un resultado ms general:
Sea X un vector aleatorio continuo k-dimensional con densidad fX .
Sea Y= T(X), donde T:k k NO es un difeomorfismo porque no es una aplicacin 1-1 de SX a SY .
pero SX se descompone en r regiones A1 Ar
cada punto imagen y tiene hasta r antecedentes, x1 A1 , , xr Ar
y en cada regin Ai , T: Ai k S es un difeomorfismo, con inversa Si.
Ejemplo:
Sea T(x,y)= ( |x|, |y|)
T no es difeomorfismo, pues no es 1-1:
u > 0, v > 0 T-1 (u,v) = { (u,v), (-u,v), (u,-v), (-u,-v) }
Pero en cada cuadrante Ci de 2 la aplicacin T S que es 1-1 y difeomorfismo.
con jacobiano J11

En C1 T(x,y)= (x,y); transf. inversa: S1(u,v)= (u,v)


En C2 T(x,y)= (-x,y);

: S2(u,v)= (-u,v)

J12

En C3 T(x,y)= (-x,-y);

: S3(u,v)= (-u,-v)

J13

En C4 T(x,y)= (x,-y);

: S4(u,v)= (u,-v)

J14

La contraimagen por T de cualquier Borel B ser entonces la unin de r conjuntos disjuntos Bi Si(B):
T-1(B) = B1 + + Br.
r

As:

pY (B) = pX (B1 + + Br) =

i 1

pX (Bi) = (1)

f
i 1

(y) dy =

f i Y (y) dy

i 1

i, T:A i T(A i ) es difeomorfismo, con inversa Si y Jacobiano J1i ;

(1) p X (Bi )
f (x) dx (T. Jacobiano) f X (Si (y)) J1i dy

Bi X
B

f Yi (y)

Por tanto la densidad de Y es:

f Y (y) =

i 1

f iY (y) con f iY (y) = fX (Si (y)) | J1i |

i=1r

Nota: A veces todas las f iY (y) coinciden y eso agiliza mucho los clculos, pues en ese caso:
fY(y) = r f 1 Y (y) = r fX (S1 (y)) | J11 |

13

También podría gustarte