Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Matriz Normal
Matriz Normal
Teorı́a y Propiedades
Casahuaman y Donayre
2020
Casahuaman y Donayre (UNI) Matriz Aleatoria Normal 2020 1 / 30
Temario
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
Definición:
Sea X ∈ Rn×p una matriz aleatoria. X poseerá una distribución normal
matricial, X ∼ MN n×p (M, U, V ), si:
exp {− 12 tr (V −1 (X − M )′ U −1 (X − M ))}
p(X) = (1)
(2π)np/2 ∣V ∣n/2 ∣U ∣p/2
donde:
Mn×p = E(X)
U ∈ Rn×n es la matriz de covarianza entre filas de X.
V ∈ Rp×p es la matriz de covarianza entre columnas de X.
U y V son matrices definidas positivas.
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
Definición:
La función generatriz de momentos de una matriz aleatoria X ∈ Rm×n se
define como
MX (Z) = E [exp {tr(ZX′ )}] . (2)
Si X ∼ MN n×p (M, U, V ), entonces
Teorema:
X ∼ MN n×p (M, U, V ) ⇐⇒ V ec(X) ∼ Nnp (V ec(M ), V ⊗ U ) (4)
Demostración
Propiedades a utilizar:
V ec(AXB) = (B ′ ⊗ A)V ec(X)
tr(AB) = V ec(A′ )′ V ec(B)
Como X ∼ MN n×p (M, U, V ), entonces
Demostración
Trabajamos con el exponente de la densidad
T = tr (V −1 (X − M )′ U −1 (X − M ))
= tr ((X − M )′ U −1 (X − M )V −1 )
= V ec(X − M )′ V ec(U −1 (X − M )V −1 )
= [V ec(X) − V ec(M )]′ (V −1 ⊗ U −1 )V ec(X − M )
= [V ec(X) − V ec(M )]′ (V −1 ⊗ U −1 )[V ec(X) − V ec(M )]
Rn×p
dX (5)
(2π)np/2 ∣V ⊗ U ∣1/2
Demostración
donde
V ec(X) ∼ Nnp (V ec(M ), V ⊗ U ). (7)
Finalmente
etr(Z M )+ 2 tr(Z U ZV )
1
=
′ ′
(10)
′ ′
= exp {tr(Z M ) + 1
2 tr(Z U ZV )} (11)
Transformación afı́n
Teorema:
Sea X ∼ MN n×p (M, U, V ), W ∈ Rm×q , A ∈ Rm×n y B ∈ Rp×q entonces
Caso particular:
Si Z ∼ MN n×p (0, In , Ip ), es decir, Z sigue distribución normal estándar
matricial, entonces
Demostración
Tenemos que
X ∼ MN n×p (M, U, V ), entonces V ec(X) ∼ Nnp (V ec(M ), V ⊗ U )
Ym×q = W + AXB, entonces V ec(Y) = V ec(W ) + (B ′ ⊗ A)V ec(X)
Como V ec(Y) es una transformación afı́n de V ec(X), entonces
Demostración
y la matriz de covarianza es
Entonces
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
Matriz Normal
Definición:
Sea x1 , x2 , ..., xn una muestra aleatoria simple de n perfiles p-variados de
una población con distribución Np (µ, Σ). Entonces
Teoremas:
X ∼ Np (µ, Σ) ⇐⇒ V ec(X) ∼ Nnp (µ ⊗ 1n , Σ ⊗ In ) (18)
X ∼ Np (µ, Σ) Ô⇒ V ec(X′ ) ∼ Nnp (1n ⊗ µ, In ⊗ Σ) (19)
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
Tranformación Lineal
Definición:
Sea X ∼ Np (µ, Σ) y Ym×q = AXB, entonces, Y es una matriz normal si y
solo si:
a) A1n = α1m para algún escalar α, o B ′ µ = 0, y
b) AA′ = βIm para algún escalar β, o B ′ ΣB = 0.
Si se cumplen las condiciones (a) y (b), entonces
Transformación Lineal
Condición Suficiente:
Hipótesis:
X ∼ Nnp (µ, Σ) y Y = AXB es normal
Tesis:
a) A1n = α1m para algún escalar α, ó B ′ µ = 0, y
b) AA′ = βIm para algún escalar β, ó B ′ ΣB = 0.
Prueba
Sabemos que:
V ec(X) ∼ Nnp (µ ⊗ 1n , Σ ⊗ In )
V ec(Y) = V ec(AXB) = (B ′ ⊗ A)V ec(X)
Transformación Lineal
Continuación:
Por lo que V ec(Y) ∼ Nmp (µ∗ , Σ∗ ) tal que la media es:
y la matriz de covarianza:
Transformación Lineal
Continuación:
Por hipotesis Y = AXB es una matriz normal y es independiente por filas,
como XB es independiente por filas (combinación lineal de las filas de X),
la premultiplicación por A no deberı́a incorporar ninguna dependencia.
Esto se cumple si A = αIn , luego
A1n = α1n
AA = α2 In = βIn
′
Por lo tanto
Y ∼ Nq (αB ′ µ, βB ′ Σ)
Transformación Lineal
Condición Necesaria:
Hipótesis:
X ∼ Np (µ, Σ)
Ym×q = AXB
a) A1n = α1m para algún escalar α, ó B ′ µ = 0, y
b) AA′ = βIm para algún escalar β, ó B ′ ΣB = 0
Tesis:
Y es una matriz normal
Transformación Lineal
Prueba:
Por lo demostrado anteriormente, sabemos que
∴ Y ∼ Nq (αB ′ µ, βB ′ ΣB)
1 Matriz Normal
Matriz Aleatoria Normal
Propiedades de la Matriz Aleatoria Normal
Matriz Normal
Transformación Lineal
Teorema de Independencia
Teorema de Independencia
Teorema de Independencia:
Sea X una matriz de datos proveniente de una Np (µ, Σ), si Y = AXB y
Z = CXD entonces los elementos de Y son independientes de los
elementos de Z si y sólo si:
a) B ′ ΣD = 0 ó
b) AC ′ = 0
Teorema de Independencia
Condición suficiente
Hipótesis:
X ∼ Nnp (µ, Σ)
Y = AXB y Z = CXD
Y es independiente de Z
Tesis:
a) B ′ ΣD = 0 o
b) AC ′ = 0
Teorema de Independencia
Prueba:
Vectorizando Y y Z tenemos que:
V ec(Y) = V ec(AXB) = (B ′ ⊗ A)V ec(X)
V ec(Z) = V ec(CXD) = (D′ ⊗ C)V ec(X)
Por hipótesis Cov(V ec(Y), V ec(Z)) = 0, entonces
Por lo tanto
∴ B ′ ΣD = 0 o AC ′ = 0
Teorema de Independencia
Condición necesaria:
Hipótesis:
X ∼ Np (µ, Σ)
Y = AXB y Z = CXD
a) B ′ ΣD = 0 o
b) AC ′ = 0
Tesis:
Y es independiente de Z
Teorema de Independencia
Prueba:
V ec(Y) (B ′ ⊗ A)V ec(X) B′ ⊗ A
T=[ ]=[ ′ ]=[ ′ ] V ec(X)
V ec(Z) (D ⊗ C)V ec(X) D ⊗C
´¹¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¸¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹ ¹¶
M
T ∼ N2mq (µ∗ , Σ∗ )
B′ ⊗ A B′ ⊗ A B ′ µ ⊗ A1n
µ∗ = [ ] = [ ] (µ ⊗ ) = [ ]
D′ ⊗ C D′ ⊗ C D′ µ ⊗ A1n
E(V ec(X)) 1 n
Teorema de Independencia
Continuación:
Y la matriz de covarianza Σ∗ es
B′ ⊗ A
Cov(T) = [ ′ ] Cov(V ec(X)) [B ⊗ A′ D ⊗ A′ ] = Σ∗
D ⊗A
B′ ⊗ A
=[ ′ ] (Σ ⊗ In ) [B ⊗ A′ D ⊗ A′ ]
D ⊗A
B ′ ΣB ⊗ AA′ B ′ ΣD ⊗ AC ′
=[ ′ ]
D ΣB ⊗ CA′ D′ ΣD ⊗ CC ′
Teorema de Independencia
Continuación:
Por hipótesis B ′ ΣD = 0 ó AC ′ = 0, entonces:
B ′ ΣB ⊗ AA′
Cov(T) = Σ∗ = [
0
]
0 B ′ ΣB ⊗ AA′
Por lo tanto
∴ Y y Z son independientes.