Está en la página 1de 36

UNIVERSIDAD NACIONAL MAYOR DE SAN MARCOS

Universidad del Perú. Decana de América


FACULTAD DE CIENCIAS MATEMÁTICAS
S ESCUELA PROFESIONAL DE ESTADÍSTICA
ESTADÍSTICA

ASIGNATURA: ANÁLISIS MULTIVARIANTE

Unidad 2: Otras Distribuciones


Multivariante

Mg. María Estela Ponce Aruneri


SEMESTRE 2024 – I
10 de abril
DISTRIBUCIÓN GAMMA
Sea X una variable aleatoria continua , que toma
solamente valores no negativos, se dice que X tiene
distribución gamma, si su fdp está dada por:
    −1 −  x
 x e x0
f ( x ) =   ( )
 0
 cc

La distribución depende de dos parámetros de


forma y escala:  >0 y  > 0.

Escribimos X  (,  )
Función de densidad de probabilidad Gamma para
diferentes valores de los parámetros
Función de densidad de probabilidad Chi-cuadrado
para diferentes valores de los parámetros

X
k 1
 ,  (2k )
2 2
Distribución de Wishart
Definición1: Sí W = X'X , donde Xnxp es una
matriz de datos que proviene de una población con
distribución normal multivariante;
y si xi Np(0, ) con i=1,2,…,n; provienen de una
población con distribución normal p-variada 

W ~ Wp ( Σ, n )
W es una matriz aleatoria de orden pxp con n p, singular.

Distribución de Wishart, constituye una generalización de la


distribución Chicuadrado, y tiene muchas propiedades similares.
Definición 2. Sí W es definida positiva y n ≥ p, su
función de densidad está dada por:

 1 
exp  − tr (  W ) 
n − p −1 −1
f (W)=c W
 2 
np p ( p −1) n p
c =2 
−1 2 4
 2
  0.5(n + 1 − i)
i =1
OBSERVACIONES:

1° Si =I  W ~ Wp ( I, n )
Forma estándar de la distribución de Wishart.

2° Si p=1 w ~ w1 ( 2 , n )   2  n2
3° E(W) = n

La distribución de Wishart tiene un papel importante en el


análisis del estimador de la matriz de varianzas-
covarianzas de una distribución Normal multivariada, juega
en el análisis multivariante un papel semejante al de la
distribución Chicuadrado para la inferencia univariada.
PROPIEDADES
1° Si W1 ~ Wp ( Σ, n1 ), W2 ~ W p ( Σ, n2 ),
son independientes  W1 + W2 ~ Wp ( Σ, n1 + n2 )
2° Si A pxq , W ~ Wp ( Σ, n )  A' WA ~ Wq (A' ΣA, n)
−1/2 −1/2
3° Σ WΣ ~ Wp (I, n)
4° Si W ~ Wp ( I, n ) y B pxq / B'B = I q  B' WB ~ Wq (I, n)

5° Si W Wp (Σ, n);las particiones Σ y Wson :


 Σ11 Σ12   W11 W12 
Σ=  , W= 
Σ
 21 Σ 22  W
 21 W 22 

 W11 Wp ( Σ11 , n ) y W22 W p ( Σ 22 , n )


Teorema(Cochran), Si Xnxp es una matriz de datos de una
población Np( 0, ), y si Tnxn es una matriz simétrica,
entonces:

i) X´TX tiene la misma distribución que la suma


ponderada de matrices Wishart independientes
Wp( , 1), las ponderaciones son los autovalores de T.

ii) X´TX tiene distribución Wishart T es idempotente,


es decir X´TX  Wp(, r), r = tr(T)=rango(T).

iii)S
Sí = n −1
X'HX  nS Wp ( Σ, n − 1)
Recordemos lo siguiente:
Teorema 1: Sí A es una matriz simétrica y de orden pxp,
sus autovalores son números reales : p
traza ( A ) =  λ i
i =1
Teorema : (teorema de descomposición espectral o teorema de
descomposición de Jordan), una matriz A simétrica y de orden
pxp, puede escribirse como:
p
A = ΓΛΓ' =  λ i γ (i ) γ '(i )
i =1
Consideremos:
 es una matriz diagonal, cuyos elementos en la diagonal son los
autovalores de A.
es una matriz ortogonal, cuyas columnas son los auvectores
estandarizados de A.

Corolario
Sí A es una matriz simétrica no singular, entonces para un
número s, se tiene que:
Λ = diag ( is ) y As = ΓΛs Γ'
Sí todos los autovalores de A son positivos, entonces

Ar / s = ΓΛr / s Γ' , Λr / s = diag ( ir / s )


Prueba Teorema de Cochran
i) Utilizando la descomposición espectral de una matriz se tiene:

n
T = ΓΛΓ =  λ i γ ( i ) γ '( i )
'

i =1

X'TX = X'ΓΛΓ' X =  λ i X'γ ( i ) γ '( i ) X =  λ i y i y 'i


i i
¿Cuál es la distribución de Y= X ?  son los autovalores de T

Como X proviene de una población que tiene distribución


Np( 0, ) entonces:

E(Y)=0 y Var(Y)= , y por tanto cada fila de Y  Np( 0, ) 

Y’ Y, tiene filas independientes e idénticamente distribuidas,


entonces se tiene que:

yi y'i Wp ( Σ,1) , i = 1, 2,...., n  ( X'TX) Wp ( Σ, n )


ii) Como T es idempotente  T=T2

T simétrica e idempotente tiene autovalores que sólo pueden


ser unos o ceros 
n
traza (T) = rango(T) =  i = r
i =1

La única posibilidad es que “r” autovalores sean uno y “n-r”


sean ceros.

iii) De (i) se tiene que como H es simétrica y cuadrada:


n
H = ΓΛΓ' =  λ i γ (i ) γ '(i )
i =1

X'HX = X'ΓΛΓ' X
¿Cuál es la distribución de Y= ’X ?  son los autovalores de
H

Como X proviene de una población que tiene distribución


Np( 0, ) entonces:

E(Y)=0 y Var(Y)= , y por tanto cada fila de Y  Np( 0, ) 

Y'Y = ( X'HX) Wp ( Σ,?)

Como H es :
1 '
H = I − 11 , 1nx1
n
De (ii) se tiene que como H es simétrica e idempotente 

rango(H)=traza(H), luego tenemos:

rango ( H ) = rango ( I ) − rango (11 ) = n − (n) = n − 1


1 ' 1
n n

nS = Y'Y = ( X'HX) Wp ( Σ, n − 1)
Teorema: Si Xnxp es una matriz de datos de una población
Np( , ), entonces:

 1 
i) x N p  μ, Σ 
 n 
ii) x y S son estocásticamente independientes

Prueba:
ii) Usaremos el teorema de Craig, Lancaster.
1 '
x= X1
n
1 1 1
nxx ' = n X' 1 1' X = X' 1 1' X = X'CX
n n n
nS = X' HX
C y H son matrices simétricas, las filas de X son
independientes e idénticamente distribuídas como Np( , )


' '
X CX y X HX son independientes si CH=0

 1 '  1 '   1 '  1 '


 1 1   I − 11  =  11   I − 11  = 0
 n  n  n  n 

Conclusión : el vector de medias muestrales y la matriz de


varianzas-covarianzas muestral son independientes.
DISTRIBUCIÓN F o distribución de Fisher-
Snedecor

X Fm,n

18
Función de densidad de probabilidad F para
diferentes valores de los parámetros

X Fd1,d 2 19
Distribución T2 de Hotelling
Es una generalización multivariante de la distribución F

Definición: Sea md'M-1d d y M independientes, con

d ~ N p (0, I), M ~ WP ( I, m )

' −1 2
md M d ~ T ( p, m)
Teorema 1.- Si x y M son independientes con

x ~ N p| (μ, Σ), M ~ WP ( Σ, m )
 m(x − μ)' M −1 (x − μ) ~ T 2 ( p, m)
Prueba
1° d* =  −1/ 2 ( x - μ)
E (d*) = 0 Var(d*) = I
 d* N p (0, I )
2M WP ( Σ, m )
M* =  −1/ 2 M −1/ 2 Wp (I, m)

−1
'
m( x - μ )  −1/ 2
 −1/ 2
M −1/ 2
  −1/ 2 (x - μ )

= m(x - μ)' M -1 ( x - μ) T 2 ( p, m )
Corolario 1: Si x , S son el vector de medias y la matriz de
covarianzas de una muestra aleatoria de tamaño “n” extraída de
una población con Np(µ, ) y sea la matriz:

 n 
Su =  S 
 n −1 
(n − 1)(x − μ)' S−1 (x − μ) = n(x − μ)' Su−1 (x − μ) ~ T 2 ( p, n −1)
Utilice los resultados del teorema para probar el corolario, así
como las propiedades de la distribución T2 de Hotelling; y
considere:
W = nS
m = n −1
(x − μ) = n1/ 2 ( x − μ)
Tarea: pruebe el siguiente teorema

Teorema 2:

 mp 
T ( p, m) = 
2
 Fp ,m − p +1
 m − p + 1

Esta aproximación es posible, porque recordemos que en el


caso univariado:
tn2−1 = F1,n −1
Corolario 2: Sí son el vector de medias muestral y la
x, S
matriz de covarianzas de una muestra aleatoria de tamaño “n”
extraída de una población con Np(µ, ) 

n− p ' −1
  ( x − μ ) S (x − μ) ~ Fp , n − p
 p 

Utilice corolario 1 para probar este corolario


Teorema 3:
Sí X1 y X2 son matrices de datos independientes y si las filas
de Xi son i.i.d como Np(µi,i ) , i=1,2  cuando µ1 = µ2 y
1 = 2 

 n1n2 
 n  ( x1 − x2 ) Su ( x1 − x2 ) Tp , n − 2
' −1 2

 
 n1n2 ( n − p − 1) 
 ( x1 − x2 ) Su ( x1 − x2 )
' −1
 Fp , n − p −1
 n ( n − 2) p 
Prueba:

xi N p ( μi , ni−1 Σi ) i = 1, 2

d = ( x1 − x2 ) N p ( μ1 − μ 2 , n1−1 Σ1 + n2−1 Σ 2 )
 n 
Cuando μ1 = μ 2 , Σ1 = Σ 2 = Σ  d N p  0, Σ
 n1n2 
Si Wi = ni Si  Wi W p ( Σi , ni − 1)
cuando Σ1 = Σ 2 = Σ
W = ( n − 2 ) S u = W1 + W2 W p ( Σ, n − 2 )
n  n 
pero W Wp  Σ, n − 2 
n1n2  n1n2 

Se probó que W es independiente de d, así como xi es


independiente de S i , para i=1,2; además las muestras son
independientes.

−1
 n 
 (n − 2)d 
'
W d Tp2, n − 2
 n1n2 
Utilizando las equivalencias con la distribución F(teorema 2):

n1n2 ( n − p − 1)
 D2 Fp , n − p −1
n ( n − 2) p
D = ( x1 − x2 ) Su−1 ( x1 − x2 )
2 '
Distribución de Wilks

Definición.- Supongamos que las matrices aleatorias E y H


tiene distribuciones:
E Wp ( Σ, m ) y H Wp ( Σ, n ) independientes,

E
Λ ( p, m, n )
E+H

Propiedades:

1° 0    1, como no depende de , podemos estudiarla bajo


el supuesto de que =I.
2° Su distribución es equivalente a la del producto de n
variables beta independientes:
n
1 1 
Λ ( p , m, n )   U i , U i B  (m + i − p), p
i =1 2 2 
3° Los parámetros se pueden permutar sin que se altere la
distribución:

Λ ( p, m, n )  Λ ( n, m + n − p, p )

4° La distribución de Wilks es equivalente a una F, para los


siguientes casos:
 1− Λ  m 
    Fn ,m si p =1
 Λ  n 
 1 − Λ   m −1 
    F2 n,2( m−1) si p =2
 Λ  n 

5° Para otros valores de n y p, y cuando m es grande, se utiliza


la aproximación de Bartlett’s:

 1 
− m − ( p − n + 1)  log ( p, m, n)  mp
2

 2 
m→
Relaciones entre la distribución Wilks, T2 de
Hotelling y F
1° Relación entre las distribuciones Wilks y F, cuando p =1

 E m2 y H n2 Son independientes


E nE n
Λ= Λ (1, m, n )  F =   =   F Fm ,n (*)
E+H mH m

E/H F Λ
Λ= = F= 
E / H + H / H 1+ F 1− Λ
n Λ
de (*)se tiene que   Fm,n
 m 1− Λ
1
Como F Fm, n  Fn , m
F
1  1 − Λ (1, m, n )   m 
 Fn, m      Fn, m
 n  Λ   Λ (1, m, n )   n 
  
 
m 1 − Λ 
2° Relación entre las distribuciones T2 de Hotelling y F,

T 2 = md'M -1d  dd' W p ( I ,1) M WP ( I, m )


 M + dd' = M 1 + d 'M -1d
'
M + dd 1
 = 1 + d M d = (*)
' -1

M Λ
M
Λ= '
Λ ( p, m,1) por definición de 
M + dd
tenemos: Λ ( p, m,1) = Λ (1, m + 1 − p, p ) por propiedad de 
1− Λ
de(*) : d M d =
' -1

Λ
por(relación 1) :
'  m +1− p 
-1
d M d  Fp ,m +1− p
 p 
 mp 
 T = md M d
2 ' -1
  Fp ,m +1− p
 m +1− p 
BIBLIOGRAFÍA

[1]DANIEL PEÑA, 2002. Análisis de Datos


Multivariados. McGRAW-HILL/ Interamericana
de España.
[2]JOHNSON, R.; WICHERN, D. 2014. Applied
Multivariate Statistical Analysis. Pearson Education
Limited.
[3] ALVIN C. RENCHER. 2012. Methods of
Multivariate Analysis. John Wiley & Sons, Inc.
United States of America.
[4]MARDIA, KENT AND BIBBY. 1982. Multivariate
Analysis. Academic Press. London.

[5]T.W.;AnDERSON.2003. An Introduction to
Multivariate Statistical Analysis. John Wiley & Sons,
Inc., Publication. Canada.

También podría gustarte