Está en la página 1de 6

Capı́tulo 6

Ley de Wishart-Barlett

6.1. Introducción
Uno de los resultados proporcionados por el Teorema de Fisher es la distribución exacta de la matriz
muestral de dispersiones bajo la hipótesis de normalidad. Concretamente A = nSI (n = N − 1 desde ahora)
Xn
se distribuye como lo hace Zα Z0α , donde las variables Zα son independientes e idénticamente distribuidas
α=1
Np [0; Σ].
Esta distribución, cuya expresión explı́cita (en cuanto a su densidad) no conocemos todavı́a, es la que da
origen a la distribución de Wishart, herramienta fundamental en el contexto del Análisis Multivariante, como
veremos en los próximos temas sobre contrastes de hipótesis de vectores media y coeficientes de correlación, si
bien tiene importancia por sı́ misma.
Muchos estadı́sticos han contribuido a la obtención de esta distribución. Entre otros podemos citar:
Fisher en 1912 la dedujo por primera vez, pero en el caso p = 2, cuando estaba estudiando la distribución
del coeficiente de correlación de Pearson en la normal bivariante.
Wishart en 1928 la obtuvo para cualquier dimensión mediante argumentos de tipo geométrico.
Rash en 1928 la obtuvo a partir de una ecuación funcional.
Madow en 1938 se basó en los coeficientes de correlación parcial.
Giri en 1977 usó criterios de invarianza para su obtención.
Anderson en 1984 aplica un método ampliamente utilizado y que está basaso en la descomposición de
Bartlett de una matriz definida positiva.

6.2. La distribución de Wishart


Hay varias formas de introducir la ley de Wishart. Nosotros hemos optado por hacerlo de forma constructiva
a partir de los resultados derivados del Teorema de Fisher.

Definición 6.2.1. Sean Z1 , . . . , Zn vectores aleatorios independientes e idénticamente distribuidos según nor-
males Np [0; Σ]. Se define la distribución de Wishart centrada con n grados de libertad como la de la matriz
Xn
aleatoria Zα Z0α y la notaremos Wp [n; Σ].
α=1

Comentario 6.2.1. Es evidente que si X1 , . . . , XN es una muestra aleatoria simple de una Np [µ; Σ], entonces
A = N S = nSI ; Wp [n; Σ], donde n = N − 1.

Como hemos comentado, el cálculo de la densidad de la distribución de Wishart no es fácil y puede ser
obtenida de múltiples formas. A continuación expresamos la forma que adopta tal densidad.

63
64 Francisco de Ası́s Torres Ruiz

Teorema 6.2.1. Sea A ; Wp [n; Σ] con A > 0. Entonces su densidad viene dada por
 
n−p−1 1
| A | 2 etr − Σ−1 A
2
f (A) = p   , A>0
np n p(p−1)
Y n+1−i
2 2 | Σ |2 π 4 Γ
i=1
2

Comentario 6.2.2. Notemos que hemos exigido que A > 0. Es evidente que, a partir de la definición dada,
eso es cierto si y sólo sı́ N > p (Teorema de Dykstra).

Es habitual expresar la densidad de forma algo más simplificada si tenemos en cuenta la siguiente definición

Definición 6.2.2. Se define la función gamma multivariante de orden m como


m  
m(m−1) Y i−1
Γm (a) = π 4 Γ a−
i=1
2

A partir de esta definición, la densidad anterior se puede expresar como


 
n−p−1 1
| A | 2 etr − Σ−1 A
2
f (A) = np n
n , A>0
2 2 | Σ | 2 Γp
2
La ley de Wishart es una extensión de la χ2 de Pearson y, en su momento, desempeñará un papel parecido a
ella en situaciones como los contrastes sobre vectores media y en otras donde aparezca la matriz de dispersiones
A. Veamos ahora que, en efecto, cuando p = 1 se recae en la ley χ2 .
a
Teorema 6.2.2. Si a ; W1 [n; σ 2 ], entonces ; χ2n .
σ2
Demostración Teniendo en cuenta que a es un escalar,
a
a 2 −1 e− 2σ2
n

f (a) = n n
n

2 2 (σ 2 ) 2 Γ 2

a
Sea el cambio de variable v = . Entonces a = vσ 2 y da = σ 2 dv, por lo que
σ2
n n
(vσ 2 ) 2 −1 e−v/2 2 v 2 −1 e−v/2
g(v) = n n σ = n , v > 0
2 2 (σ 2 ) 2 Γ n2
 n
22Γ
2
a
con lo que v = ; χ2n . 
σ2
Comentario 6.2.3. A partir de este resultado, si s2 es el estimador máximo verosı́mil de σ 2 en el caso
ns2
unidimensional, obtenido a partir de una muestra de tamaño n, entonces 2 ; χ2n
σ

6.3. Algunas propiedades de la ley de Wishart


A continuación mostramos algunas de las propiedades de la distribución de Wishart. Empezamos con su
función caracterı́stica, cuya demostración obviamos dado su grado de dificultad. Indiquemos antes cómo se
define la función caracterı́stica de una matriz aleatoria

Definición 6.3.1. Si Yr×s es una matriz aleatoria, se define su función caracterı́stica como ΦY (Θ) =
E [exp (i tr[Θ0 Y])], estando definida en el espacio de matrices de orden r × s.

Análisis Multivariante. Licenciado en C.C. y T.T. Estadı́sticas. 2o curso.


Francisco de Ası́s Torres Ruiz 65

Teorema 6.3.1. Sea A ; Wp [n; Σ]. Entonces


n
ΦY (Θ) =| Ip − iΓΣ |− 2

donde Γ = (γij ) es tal que γij = (1 + δij )θij con δij la delta de Kronecker y donde Θ = (θij ) es simétrica.
Al igual que la distribución χ2p , la ley de Wishart presenta la propiedad de reproductividad respecto de los
grados de libertad.
Teorema 6.3.2. Sean A1 , . . . , Aq matrices aleatorias independientes con distribuciones de Wishart Aj ;
Wp [nj ; Σ], j = 1, . . . , q. Entonces
Xq Xq
A= Aj ; Wp [ nj ; Σ]
j=1 j=1

Demostración
      
Xq q
X
ΦA (Θ) = E [exp (i tr[AΘ])] = E exp i tr  Aj Θ = E exp i tr[Aj Θ]
j=1 j=1
 
q
Y q
Y q
Y
= E exp (i tr[Aj Θ]) = E [exp (i tr[Aj Θ])] = ΦAj (θ)
j=1 j=1 j=1
q Pq
n
Y nj j=1 j
= | Ip − iΓΣ |− 2 =| Ip − iΓΣ |− 2 
j=1

Veamos cómo se comporta la ley de Wishart ante cambios de variable lineales rectangulares.
Teorema 6.3.3. Sea A ; Wp [n; Σ] y Mk×p una matriz no aleatoria de rango k ≤ p. Entonces MAM0 ;
Wk [n; MΣM0 ].
n
X
Demostración. Por definición sabemos que A se distribuye como Zα Z0α con Zα independientes e idéntica-
α=1
mente distribuidas Np [0; Σ]. Sea Yα = MZα . Entonces Yα ; Nk [0; MΣM0 ], α = 1, . . . , n, siendo indepen-
dientes.
Xn
Entonces, por definición, B = Yα Yα0 se distribuye como una ley de Wishart Wk [n; MΣM0 ]. Pero
α=1
n
X n
X
B= Yα Yα0 = MZα Z0α M0 = MAM0 , con lo que se obtiene el resultado. 
α=1 α=1
Como corolario tenemos
A
Corolario 6.3.1. Sea SI = la matriz de cuasi-covarianzas muestral procedente de una muestra aleatoria
n  
Σ
simple de tamaño N = n + 1 de una Np [µ; Σ]. Entonces SI ; Wp n; .
n
Demostración. La demostración es inmediata a partir del teorema anterior, sabiendo que A ; Wp [n; Σ] y
Ip Σ
tomando M = √ ya que entonces S = MAM0 y MΣM0 = . 
n n
Del teorema anterior se deducen otras propiedades que mostramos en el siguiente corolario.
Corolario 6.3.2. Sea A ; Wp [n; Σ]. Entonces
aii
1. 2 ; χ2n , i = 1, . . . , p.
σi
   
A11 A12 Σ11 Σ12
2. Sean A y Σ en la forma A = yΣ= con A11 de dimensión q × q y A22
A21 A22 Σ21 Σ22
(p − q) × (p − q), entonces A11 ; Wq [n; Σ11 ] y A22 ; Wp−q [n; Σ22 ].

Análisis Multivariante. Licenciado en C.C. y T.T. Estadı́sticas. 2o curso.


66 Francisco de Ası́s Torres Ruiz

Demostración
1. Tomemos M = e0i = (0, . . . , 1 , . . . , 0). Entonces aii = MAM0 y σi2 = MΣM0 , por lo que aii ; W1 [n; σi2 ].
(i)
Aplicando el teorema 6.2.2 se concluye el resultado.
 
2. Para A11
 se sigue el razonamiento
 anterior pero tomando como matriz M las matrices E 1 = I q | 0q×(p−q)
y E2 = 0(p−q)×q | Ip−q , respectivamente. 
Una situación análoga a la que ocurrı́a con la ley normal es la siguiente

Teorema 6.3.4. Sea A ; Wp [n; Σ] y partida por cajas como en el corolario anterior. Si además Σ12 = 0,
entonces A11 y A22 son independientes.
n
X
Demostración. Sabemos que A se distribuye como Zα Z0α con Zα i.i.d. Np [0; Σ]. Sea Zα = (Z0α,(1) | Z0α,(2) )0
α=1
con Zα,(1) de dimensión q y Zα,(2) p − q.
Xn n
X
Ası́, A11 = Zα,(1) Z0α,(1) y A22 = Zα,(2) Z0α,(2) .
α=1 α=1
Al ser Σ12 = 0, Zα,(1) y Zα,(2) son independientes, por lo que también lo serán A11 y A22 y con las
distribuciones dadas en el corolario anterior. 
El siguiente resultado, que no demostramos, es similar al que se obtuvo en su momento para la distribución
normal.

Teorema 6.3.5. Sea A ; Wp [n; Σ] partida por cajas como anteriormente. Entonces:
1. A11.2 ; Wq [n − p − q; Σ11.2 ] y es independiente de A12 y A22 .
2. A22.1 ; Wp−q q[n − q; Σ22.1 ] y es independiente de A12 y A11 .
3. A12 | A22 ; N(p−q)×q Σ12 Σ−1
 
22 A22 ; Σ11.2 ⊗ A22

Concluimos este apartado de propiedades básicas de la ley de Wishart con dos resultados que serán de
utilidad en el tema siguiente en el contexto de la distribución T2 de Hotelling.

Teorema 6.3.6. Sea A ; Wp [n; Σ] y sea Y un vector aleatorio p-dimensional independiente de A y tal que
P[Y = 0] = 0. Entonces:
Y0 Σ−1 Y
1. ; χ2n−p+1 .
Y0 A−1 Y
Y0 AY
2. ; χ2n .
Y0 ΣY
independientemente de la distribución de Y.

6.4. Complementos
6.4.1. La distribución de Wishart inversa
La cuestión que nos planteamos ahora es la siguiente: si A ; Wp [n; Σ] y puesto que A > 0, ¿cómo se
distribuye A−1 ?. La respuesta es la conocida como distribución de Wishart inversa que pasamos a describir.

Definición 6.4.1. Una matriz aleatoria B sigue la distribución de Wishart inversa con n grados de libertad y
parámetro V, y notaremos B ; W−1 p [n; V], si su densidad es

n−p−1
etr − 12 VB−1
 
|V| 2
f (B) =   , B>0
p(n−p−1) n−p−1 n
2 2 Γp | B |2
2
Veamos la relación que hay entre esta distribución y la de la inversa de una matriz de Wishart.

Análisis Multivariante. Licenciado en C.C. y T.T. Estadı́sticas. 2o curso.


Francisco de Ası́s Torres Ruiz 67

Teorema 6.4.1. Si A ; Wp [n; Σ], entonces A−1 ; W−1


p [n + p + 1; Σ
−1
].

Demostración. Sea el cambio de variable B = A−1 . Se sabe que el jacobiano de la transformación inversa es
| B |−(p+1) . Por tanto:
   
n−p−1 1 n 1
| B−1 | 2 etr − Σ−1 B−1 | Σ−1 | 2 etr − Σ−1 B−1
2 2
f (B) = np n
n | B |−(p+1) = np
n n+p+1

2 2 | Σ | 2 Γp 2 2 Γp |B| 2
2 2
Comentario 6.4.1. La distribución de Wishart inversa surge de forma natural en el estudio bayesiano de la ley
normal. En efecto, puede demostrarse que es la distribución a priori conjugada para la matriz de covarianzas
Σ y, a partir de ella, es la distribución a posteriori para Σ. Concretamente, si X1 , . . . , XN es una muestra
de una Np [µ; Σ] y Σ tiene distribución a priori W−1 p [m; Φ], entonces la distribución a posteriori de Σ es
W−1
p [N + m − 1; Φ + A].

6.4.2. La distribución de Wishart descentrada


La distribución de Wishart ha sido introducida como una determinada transformación de vectores normales
Xn
independientes de media cero y matriz de covarianzas común Σ. Concretamente es la distribución de Zα Z0α
α=1
con Zα vectores aleatorios independientes e idénticamente distribuidos Np [0; Σ].
0
Observemos que si tomamos Zn×p = [Z1 , . . . , Zn ] , entonces Z ; Nn×p [0; In ⊗ Σ]. Por lo tanto se puede
introducir la ley de Wishart como la de la matriz A = Z0 Z, con Z distribuida en la forma indicada. Pero, ¿que
ocurrirı́a si las normales consideradas no fueran de media cero? La respuesta es la distribución de Wishart
descentrada, en la misma lı́nea que le ocurre a la distribución χ2 .
0
Definición 6.4.2. Sea Zn×p = [Z1 , . . . , Zn ] , distribuida Z ; Nn×p [M; In ⊗ Σ] (o sea, Z1 , . . . , Zn son vectores
aleatorios independientes e idénticamente distribuidos pero no centrados). Se define la distribución de Wishart
descentrada con n grados de libertad y parámetros Σ y de descentralización Ω como la de la matriz Z0 Z, siendo
n ≥ p y Ω = Σ−1 M0 M.

La densidad asociada a esta distribución es bastante compleja y está expresada, al igual que le ocurrı́a a
la distribución χ2 , en términos de series hipergeométricas. En este caso las series involucradas generalizan las
del caso de la χ2 , dando origen a las funciones hipergeométricas generalizadas matriciales que se expresan en
función de los conocidos como polinomios zonales.

6.4.3. Formas cuadráticas normales matriciales y la ley de Wishart


Para terminar este resumen sobre cuestiones asociadas a la ley de Wishart, vamos a exponer los principales
resultados que asocian esta distribución con la de formas cuadráticas aleatorias normales matriciales, cuestión
que generaliza la que se trató en el tema 3 para el caso de la distribución χ2 y que vuelve a poner de manifiesto
el hecho de que la ley de Wishart es la extensión natural de la ley χ2 al contexto multivariante.
En este caso las formas cuadráticas que estaremos considerando son de la forma X0 AX donde ahora X es
una matriz aleatoria normal matricial. En este sentido ya tenemos dos resultados en este sentido:
1. Si X ; Nn×p [0; In ⊗ Σ], entonces X0 X ; Wp [n; Σ].
2. Si X ; Nn×p [M; In ⊗ Σ], entonces X0 X ; Wp [n; Σ; Ω], donde Ω = Σ−1 M0 M.
Pasemos a generalizar estos dos resultados:

Teorema 6.4.2. Sea X ; Nn×p [M; V⊗Σ] donde Vn×n es definida positiva y Bn×n es una matriz no aleatoria
de rango k (k ≤ n). Entonces:
1. Si V = In , X0 BX ; Wp [k; Σ; Ω] ⇔ B es idempotente, con Ω = Σ−1 M0 BM.
2. Si V 6= In , X0 BX ; Wp [k; Σ; Ω] ⇔ BV es idempotente, con Ω = Σ−1 M0 BVM.

Análisis Multivariante. Licenciado en C.C. y T.T. Estadı́sticas. 2o curso.


68 Francisco de Ası́s Torres Ruiz

En cuanto a la independencia de formas cuadráticas normales matriciales tenemos los siguientes resultados
que generalizan a los del tema 3.

Teorema 6.4.3. Se verifican las siguientes afirmaciones:


1. Sean Xn×p ; Nn×p [M; In ⊗ Σ] y B1 , . . . , Bk matrices no aleatorias semidefinidas positivas e idempo-
tentes con rg(Bi ) = ni , i = 1, . . . , k. Entonces X0 B1 X, . . . , X0 Bk X son conjuntamente independientes
⇔ Bi Bj = 0, ∀i 6= j .
2. Sean Xn×p ; Nn×p [M; IN ⊗ Σ] y sean B1 , . . . , Bk matrices no aleatorias con rg(Bi ) = ni . Entonces
X0 Bi X ; Wp [ni ; Σ; Ωi ], i = 1, . . . , k y son conjuntamente independientes si se verifican dos de las tres
condiciones siguientes (puesto que dos de ellas implican la tercera)
* Cada Bi es idempotente.
k
X
* Bi es idempotente.
i=1
* Bi Bj = 0, ∀i 6= j
siendo Ωi = Σ−1 M0 Bi M.
3. Sean Xn×p ; Nn×p [Mn×p ; In ⊗ Σ] y sean B1 , . . . , Bk matrices no aleatorias con rg(Bi ) = ni . Con-
k
X
0
sideremos X X = X0 Bi X. Entonces X0 Bi X ; Wp [ni ; Σ; Ωi ], i = 1, . . . , k y son conjuntamente
i=1
independientes si y sólo si cada Bi es idempotente y Bi Bj = 0, ∀i 6= j, siendo Ωi = Σ−1 M0 Bi M.

En cuanto al Teorema de Cochran, su versión multivariante más general queda de la siguiente forma:

Teorema 6.4.4. (Teorema de Cochran Multivariante). Sean Xn×p ; Nn×p [M; In ⊗ Σ] y B1 , . . . , Bk matrices
k
X
no aleatorias con rg(Bi ) = ni . Consideremos X0 X = X0 Bi X. Entonces X0 Bi X ; Wp [ni ; Σ; Ωi ], i =
i=1 !
k
X k
X
1, . . . , k y son conjuntamente independientes si y sólo si rg Bi = rg (Bi ), siendo Ωi = Σ−1 M0 Bi M.
i=1 i=1

Para finalizar, exponemos el resultado que proporciona la independencia entre formas cuadráticas y lineales
normales matriciales.

Teorema 6.4.5. Sea Xn×p ; Nn×p [M; In ⊗ Σ] y sean C y B dos matrices no aleatorias. Entonces CX y
X0 BX son independientes si CB = 0.

Comentario 6.4.2. Como aplicación de estos resultados podemos volver a obtener el Teorema de Fisher.
En efecto dada una muestra aleatoria simple de una Np [µ; Σ], con Σ > 0, sabemos que la matriz X =
[X1 , . . . , XN ]0 ; NN ×p [1N µ0 ; IN ⊗ Σ]. Además
0
1N 10N
 
0 1N 0 0 0 0 1N 1N 0
X=X y A = X X − N XX = X X − N X X = X IN − X.
N N N N
1N 10N
La matriz IN − es simétrica e idempotente con rango n = N − 1.
N
1N 10N
Por tanto A ; Wp [n; Σ] por el teorema 6.4.2.1 ya que en este caso M = 1N µ0 y B = IN − ,
N
verificándose Ω = Σ−1 M0 BM = 0.
10 1N 10N
Tomando C = N y B = IN − en el teorema 6.4.2.4 se verifica CB = 0 por lo que X y A son
N N
independientes.

Análisis Multivariante. Licenciado en C.C. y T.T. Estadı́sticas. 2o curso.

También podría gustarte