Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ley de Wishart-Barlett
6.1. Introducción
Uno de los resultados proporcionados por el Teorema de Fisher es la distribución exacta de la matriz
muestral de dispersiones bajo la hipótesis de normalidad. Concretamente A = nSI (n = N − 1 desde ahora)
Xn
se distribuye como lo hace Zα Z0α , donde las variables Zα son independientes e idénticamente distribuidas
α=1
Np [0; Σ].
Esta distribución, cuya expresión explı́cita (en cuanto a su densidad) no conocemos todavı́a, es la que da
origen a la distribución de Wishart, herramienta fundamental en el contexto del Análisis Multivariante, como
veremos en los próximos temas sobre contrastes de hipótesis de vectores media y coeficientes de correlación, si
bien tiene importancia por sı́ misma.
Muchos estadı́sticos han contribuido a la obtención de esta distribución. Entre otros podemos citar:
Fisher en 1912 la dedujo por primera vez, pero en el caso p = 2, cuando estaba estudiando la distribución
del coeficiente de correlación de Pearson en la normal bivariante.
Wishart en 1928 la obtuvo para cualquier dimensión mediante argumentos de tipo geométrico.
Rash en 1928 la obtuvo a partir de una ecuación funcional.
Madow en 1938 se basó en los coeficientes de correlación parcial.
Giri en 1977 usó criterios de invarianza para su obtención.
Anderson en 1984 aplica un método ampliamente utilizado y que está basaso en la descomposición de
Bartlett de una matriz definida positiva.
Definición 6.2.1. Sean Z1 , . . . , Zn vectores aleatorios independientes e idénticamente distribuidos según nor-
males Np [0; Σ]. Se define la distribución de Wishart centrada con n grados de libertad como la de la matriz
Xn
aleatoria Zα Z0α y la notaremos Wp [n; Σ].
α=1
Comentario 6.2.1. Es evidente que si X1 , . . . , XN es una muestra aleatoria simple de una Np [µ; Σ], entonces
A = N S = nSI ; Wp [n; Σ], donde n = N − 1.
Como hemos comentado, el cálculo de la densidad de la distribución de Wishart no es fácil y puede ser
obtenida de múltiples formas. A continuación expresamos la forma que adopta tal densidad.
63
64 Francisco de Ası́s Torres Ruiz
Teorema 6.2.1. Sea A ; Wp [n; Σ] con A > 0. Entonces su densidad viene dada por
n−p−1 1
| A | 2 etr − Σ−1 A
2
f (A) = p , A>0
np n p(p−1)
Y n+1−i
2 2 | Σ |2 π 4 Γ
i=1
2
Comentario 6.2.2. Notemos que hemos exigido que A > 0. Es evidente que, a partir de la definición dada,
eso es cierto si y sólo sı́ N > p (Teorema de Dykstra).
Es habitual expresar la densidad de forma algo más simplificada si tenemos en cuenta la siguiente definición
f (a) = n n
n
2 2 (σ 2 ) 2 Γ 2
a
Sea el cambio de variable v = . Entonces a = vσ 2 y da = σ 2 dv, por lo que
σ2
n n
(vσ 2 ) 2 −1 e−v/2 2 v 2 −1 e−v/2
g(v) = n n σ = n , v > 0
2 2 (σ 2 ) 2 Γ n2
n
22Γ
2
a
con lo que v = ; χ2n .
σ2
Comentario 6.2.3. A partir de este resultado, si s2 es el estimador máximo verosı́mil de σ 2 en el caso
ns2
unidimensional, obtenido a partir de una muestra de tamaño n, entonces 2 ; χ2n
σ
Definición 6.3.1. Si Yr×s es una matriz aleatoria, se define su función caracterı́stica como ΦY (Θ) =
E [exp (i tr[Θ0 Y])], estando definida en el espacio de matrices de orden r × s.
donde Γ = (γij ) es tal que γij = (1 + δij )θij con δij la delta de Kronecker y donde Θ = (θij ) es simétrica.
Al igual que la distribución χ2p , la ley de Wishart presenta la propiedad de reproductividad respecto de los
grados de libertad.
Teorema 6.3.2. Sean A1 , . . . , Aq matrices aleatorias independientes con distribuciones de Wishart Aj ;
Wp [nj ; Σ], j = 1, . . . , q. Entonces
Xq Xq
A= Aj ; Wp [ nj ; Σ]
j=1 j=1
Demostración
Xq q
X
ΦA (Θ) = E [exp (i tr[AΘ])] = E exp i tr Aj Θ = E exp i tr[Aj Θ]
j=1 j=1
q
Y q
Y q
Y
= E exp (i tr[Aj Θ]) = E [exp (i tr[Aj Θ])] = ΦAj (θ)
j=1 j=1 j=1
q Pq
n
Y nj j=1 j
= | Ip − iΓΣ |− 2 =| Ip − iΓΣ |− 2
j=1
Veamos cómo se comporta la ley de Wishart ante cambios de variable lineales rectangulares.
Teorema 6.3.3. Sea A ; Wp [n; Σ] y Mk×p una matriz no aleatoria de rango k ≤ p. Entonces MAM0 ;
Wk [n; MΣM0 ].
n
X
Demostración. Por definición sabemos que A se distribuye como Zα Z0α con Zα independientes e idéntica-
α=1
mente distribuidas Np [0; Σ]. Sea Yα = MZα . Entonces Yα ; Nk [0; MΣM0 ], α = 1, . . . , n, siendo indepen-
dientes.
Xn
Entonces, por definición, B = Yα Yα0 se distribuye como una ley de Wishart Wk [n; MΣM0 ]. Pero
α=1
n
X n
X
B= Yα Yα0 = MZα Z0α M0 = MAM0 , con lo que se obtiene el resultado.
α=1 α=1
Como corolario tenemos
A
Corolario 6.3.1. Sea SI = la matriz de cuasi-covarianzas muestral procedente de una muestra aleatoria
n
Σ
simple de tamaño N = n + 1 de una Np [µ; Σ]. Entonces SI ; Wp n; .
n
Demostración. La demostración es inmediata a partir del teorema anterior, sabiendo que A ; Wp [n; Σ] y
Ip Σ
tomando M = √ ya que entonces S = MAM0 y MΣM0 = .
n n
Del teorema anterior se deducen otras propiedades que mostramos en el siguiente corolario.
Corolario 6.3.2. Sea A ; Wp [n; Σ]. Entonces
aii
1. 2 ; χ2n , i = 1, . . . , p.
σi
A11 A12 Σ11 Σ12
2. Sean A y Σ en la forma A = yΣ= con A11 de dimensión q × q y A22
A21 A22 Σ21 Σ22
(p − q) × (p − q), entonces A11 ; Wq [n; Σ11 ] y A22 ; Wp−q [n; Σ22 ].
Demostración
1. Tomemos M = e0i = (0, . . . , 1 , . . . , 0). Entonces aii = MAM0 y σi2 = MΣM0 , por lo que aii ; W1 [n; σi2 ].
(i)
Aplicando el teorema 6.2.2 se concluye el resultado.
2. Para A11
se sigue el razonamiento
anterior pero tomando como matriz M las matrices E 1 = I q | 0q×(p−q)
y E2 = 0(p−q)×q | Ip−q , respectivamente.
Una situación análoga a la que ocurrı́a con la ley normal es la siguiente
Teorema 6.3.4. Sea A ; Wp [n; Σ] y partida por cajas como en el corolario anterior. Si además Σ12 = 0,
entonces A11 y A22 son independientes.
n
X
Demostración. Sabemos que A se distribuye como Zα Z0α con Zα i.i.d. Np [0; Σ]. Sea Zα = (Z0α,(1) | Z0α,(2) )0
α=1
con Zα,(1) de dimensión q y Zα,(2) p − q.
Xn n
X
Ası́, A11 = Zα,(1) Z0α,(1) y A22 = Zα,(2) Z0α,(2) .
α=1 α=1
Al ser Σ12 = 0, Zα,(1) y Zα,(2) son independientes, por lo que también lo serán A11 y A22 y con las
distribuciones dadas en el corolario anterior.
El siguiente resultado, que no demostramos, es similar al que se obtuvo en su momento para la distribución
normal.
Teorema 6.3.5. Sea A ; Wp [n; Σ] partida por cajas como anteriormente. Entonces:
1. A11.2 ; Wq [n − p − q; Σ11.2 ] y es independiente de A12 y A22 .
2. A22.1 ; Wp−q q[n − q; Σ22.1 ] y es independiente de A12 y A11 .
3. A12 | A22 ; N(p−q)×q Σ12 Σ−1
22 A22 ; Σ11.2 ⊗ A22
Concluimos este apartado de propiedades básicas de la ley de Wishart con dos resultados que serán de
utilidad en el tema siguiente en el contexto de la distribución T2 de Hotelling.
Teorema 6.3.6. Sea A ; Wp [n; Σ] y sea Y un vector aleatorio p-dimensional independiente de A y tal que
P[Y = 0] = 0. Entonces:
Y0 Σ−1 Y
1. ; χ2n−p+1 .
Y0 A−1 Y
Y0 AY
2. ; χ2n .
Y0 ΣY
independientemente de la distribución de Y.
6.4. Complementos
6.4.1. La distribución de Wishart inversa
La cuestión que nos planteamos ahora es la siguiente: si A ; Wp [n; Σ] y puesto que A > 0, ¿cómo se
distribuye A−1 ?. La respuesta es la conocida como distribución de Wishart inversa que pasamos a describir.
Definición 6.4.1. Una matriz aleatoria B sigue la distribución de Wishart inversa con n grados de libertad y
parámetro V, y notaremos B ; W−1 p [n; V], si su densidad es
n−p−1
etr − 12 VB−1
|V| 2
f (B) = , B>0
p(n−p−1) n−p−1 n
2 2 Γp | B |2
2
Veamos la relación que hay entre esta distribución y la de la inversa de una matriz de Wishart.
Demostración. Sea el cambio de variable B = A−1 . Se sabe que el jacobiano de la transformación inversa es
| B |−(p+1) . Por tanto:
n−p−1 1 n 1
| B−1 | 2 etr − Σ−1 B−1 | Σ−1 | 2 etr − Σ−1 B−1
2 2
f (B) = np n
n | B |−(p+1) = np
n n+p+1
2 2 | Σ | 2 Γp 2 2 Γp |B| 2
2 2
Comentario 6.4.1. La distribución de Wishart inversa surge de forma natural en el estudio bayesiano de la ley
normal. En efecto, puede demostrarse que es la distribución a priori conjugada para la matriz de covarianzas
Σ y, a partir de ella, es la distribución a posteriori para Σ. Concretamente, si X1 , . . . , XN es una muestra
de una Np [µ; Σ] y Σ tiene distribución a priori W−1 p [m; Φ], entonces la distribución a posteriori de Σ es
W−1
p [N + m − 1; Φ + A].
La densidad asociada a esta distribución es bastante compleja y está expresada, al igual que le ocurrı́a a
la distribución χ2 , en términos de series hipergeométricas. En este caso las series involucradas generalizan las
del caso de la χ2 , dando origen a las funciones hipergeométricas generalizadas matriciales que se expresan en
función de los conocidos como polinomios zonales.
Teorema 6.4.2. Sea X ; Nn×p [M; V⊗Σ] donde Vn×n es definida positiva y Bn×n es una matriz no aleatoria
de rango k (k ≤ n). Entonces:
1. Si V = In , X0 BX ; Wp [k; Σ; Ω] ⇔ B es idempotente, con Ω = Σ−1 M0 BM.
2. Si V 6= In , X0 BX ; Wp [k; Σ; Ω] ⇔ BV es idempotente, con Ω = Σ−1 M0 BVM.
En cuanto a la independencia de formas cuadráticas normales matriciales tenemos los siguientes resultados
que generalizan a los del tema 3.
En cuanto al Teorema de Cochran, su versión multivariante más general queda de la siguiente forma:
Teorema 6.4.4. (Teorema de Cochran Multivariante). Sean Xn×p ; Nn×p [M; In ⊗ Σ] y B1 , . . . , Bk matrices
k
X
no aleatorias con rg(Bi ) = ni . Consideremos X0 X = X0 Bi X. Entonces X0 Bi X ; Wp [ni ; Σ; Ωi ], i =
i=1 !
k
X k
X
1, . . . , k y son conjuntamente independientes si y sólo si rg Bi = rg (Bi ), siendo Ωi = Σ−1 M0 Bi M.
i=1 i=1
Para finalizar, exponemos el resultado que proporciona la independencia entre formas cuadráticas y lineales
normales matriciales.
Teorema 6.4.5. Sea Xn×p ; Nn×p [M; In ⊗ Σ] y sean C y B dos matrices no aleatorias. Entonces CX y
X0 BX son independientes si CB = 0.
Comentario 6.4.2. Como aplicación de estos resultados podemos volver a obtener el Teorema de Fisher.
En efecto dada una muestra aleatoria simple de una Np [µ; Σ], con Σ > 0, sabemos que la matriz X =
[X1 , . . . , XN ]0 ; NN ×p [1N µ0 ; IN ⊗ Σ]. Además
0
1N 10N
0 1N 0 0 0 0 1N 1N 0
X=X y A = X X − N XX = X X − N X X = X IN − X.
N N N N
1N 10N
La matriz IN − es simétrica e idempotente con rango n = N − 1.
N
1N 10N
Por tanto A ; Wp [n; Σ] por el teorema 6.4.2.1 ya que en este caso M = 1N µ0 y B = IN − ,
N
verificándose Ω = Σ−1 M0 BM = 0.
10 1N 10N
Tomando C = N y B = IN − en el teorema 6.4.2.4 se verifica CB = 0 por lo que X y A son
N N
independientes.