Documentos de Académico
Documentos de Profesional
Documentos de Cultura
es 1
v) A simétrica es definida positiva (se nota A>0) si: xtAx>0 x,; i >0 i.
A simétrica es semidefinida positiva (se nota A0) si: xtAx0 x,; i ≥0 i.
vi) Si es una matriz pxp simétrica y 0, existe una matriz B pxp tal que = B Bt.
En efecto, B= P1/2 verifica la condición: B Bt= P1/2 1/2 Pt= P Pt=
viii) Subespacio vectorial generado por las columnas de A (todas sus c.l. posibles):
ImA= [A]={Ax; xRp} (pues para cada x, Ax es una c.l. de las columnas de A)
ix) Proyección ortogonal del punto x sobre conjunto S, en particular, el subespacio [A]: proy[A]x
X
vi) Distribución tn : [ X ~ N (,), Y ~ 2n , independientes] ~ tn (n g.de l.)
Y/n
X/n
vii) Distribución Fn,m : [ X ~ 2n , Y ~ 2m, independientes ] ~ Fn,m (n,m g.de l.)
Y/m
X/n
viii) Distribución F descentrada: [ X ~ 2n() , Y ~ 2m, independientes ] ~ Fn,m()
Y/m
2 2
p
El corte de la densidad fX(x) a una altura c es un elipsoide (elipse si p=2). determina la forma
del elipsoide y c su tamaño. Está centrado en . Los autovectores de determinan las direcciones de
los ejes principales del elipsoide y los autovalores, su longitud. Para p=2 podemos visualizar la
función de densidad en forma de campana. Las elipses de equidensidad aparecen al cortar f (x,y) por
planos paralelos a la base. Al crecer c disminuye su tamaño manteniendo la forma (son elipses
homotéticas).
distmultiv.doc 05/03/2015 vgaribay@eio.uva.es 5
1
iii) Función característica: X(t)= exp ( i t' -
t' t)
2
iv) Toda transformación lineal (de cualquier dimensión!!) de un vector Normal es Normal.
X ~ Np , Y= AX+B Y ~ Nq ( A+B, A At )
En consecuencia, aR aX ~ Np ( a, a2 ), puesto que aX ≡ AX con A= a Ip
aRp atX ~ N1 ( at, at a), puesto que atX ≡ AX con A= at
v) Las marginales de cualquier dimensión de un vector normal son normales:
Troceamos el vector X ~ Np (, ) en dos subvectores X(1) y X(2) de dimensiones k y p-k
respectivamente. Se parte y de forma congruente:
X (1) μ (1) Σ Σ
X= ; μ= ; Σ= 11 12
X (2) μ (2) Σ 21 Σ 22
Entonces, X(1)= B1X para B1=(Ik | 0) kxp
y aplicando iv), X(1) ~ Nk (B1 B1 B1t ) ≡ Nk ( 11 )
Análogamente, X(2)= B2X para B2=( 0 | Ip-k) (p-k)xp, luego X(2) ~ Nk ( 22 ).
En particular, cada componente Xi de un vector normal es N1, pues Xi =(0 …1…0) X
vi) El recíproco de v) no es cierto:
Desafortunadamente, aunque las componentes de un vector sean normales, no se tiene
garantizado que la distribución conjunta sea normal. Por ejemplo: X~N1(0,1) Y=X si |X|>1 Y=-X si
|X|<1. Y es tb N1(0,1) pero: 0<p(X+Y=0)=(1)- (-1)<1 X+Y no es N1 (X,Y) NO es N2
La normalidad conjunta será rechazada si se detecta falta de normalidad en una componente
(tests de ajuste de Kolmogoroff, Liliefords, 2, Shapiro-Wilks, ...).
Por contra, aunque una por una todas las componentes superen la prueba, la normalidad
multivariante del vector no está garantizada. Por ello resulta necesario desarrollar tests específicos
basados en propiedades multivariantes para contrastar la normalidad conjunta. Los estudiaremos más
adelante.
vii) Bajo normalidad conjunta, independencia e incorrelación coinciden. (f.c.)
Si X(1) y X(2) son dos vectores aleatorios con ley conjunta Normal (X(1), X(2)) ~ Np , entonces
X(1), X(2) independientes Cov(X(1), X(2))= 0
Nota: NO es suficiente que X(1) y X(2) sean normales por separado. Es necesaria la normalidad
conjunta.
viii) Reproductividad: La suma de Np independientes es Np (f.c.)
X1 , X2 v.a.i. Xi ~ Np (i , i) X1+ X2 ~ N p (μ1 +μ 2 ,Σ1 +Σ 2 )
Sean X1 ... Xn v.a.i. Xi ~ Np (i , i) y sean a1 ... an constantes reales.
n n n
entonces Y= a i X i ~ N p ( a iμ i , a i2 Σ i )
i=1 i=1 i=1
Si además, las Xi son igualmente distribuidas,
n
entonces Y= a i Xi ~ N p ((a1 +...+a n )μ, (a 12 +...+a 2n )Σ)
i=1
1
En particular, la media muestral X n de una m.a.s. Np (, ) es Np (, )
n
distmultiv.doc 05/03/2015 vgaribay@eio.uva.es 6
α X
X n n=1
iii) Teorema de Cramer y Wold: L
Y Rp , t
n n=1
L
αt Y
La convergencia en ley de vectores aleatorios p-dimensionales equivale a la convergencia en
ley en R de todas las posibles combinaciones lineales (v.a. unidimensionales). Esto permite trabajar
con convergencias de funciones de distribución en R (más manejables) en lugar de trabajar en Rp.
Esta idea se aplica con frecuencia en análisis multivariante y ayuda a resolver muchos
problemas: Consiste en hacer que un problema multivariante sea equivalente a una colección de
problemas univariantes que sabemos resolver.
n i=1
En efecto,
1
Rp , t X1 ... t Xn ... son v.a.i.i.d. 1(t t ); luego t X n ~ 1(t t )
n
t t
α Xn - α μ
y aplicando [1] a la sucesión t X n se tiene que L
N(0,1),
t
αΣα/n
o sea, n (α t X n - α t μ)
L
N(0, α t Σ α) es decir, α t n (X n - μ) L
N(0, α t Σ α)
y por el Th. de Cramer-Wald se tiene el resultado: n (X n - μ )
L
N p (0, )
5.3.3 Delta-Método
Si n (X n - μ )
L
N p (0, ) y g: Rp → Rp es diferenciable,
δ(g(t)) δ(g(t))
t
2
ii) fX(x1, x2)= [1- (x12+ x22)] para x12+ x22 < 1 en R2
iii) fX(x)= C para xt x < 1 , o sea X ~U(E1) siendo E1 la esfera unidad de Rp
1
iv) fX(x1, x2)= exp[- (x12+ x22)1/2] en todo R2
2
1
v) Distribución de Cauchy bidimensional: fX(x)= exp[1+ (xt x)-3/2] en todo R2
2
vi) Normal contaminada:
Sea Z una v.a. discreta que toma dos valores z1 y z2 con probabilidades p1 y p2 respectivamente.
Sea X un vector aleatorio k-dimensional cuyas leyes condicionadas por Z=zi son N(0, i2 Ik).
Entonces fX(x)= p1 fX/Z=z1(x)+ p2 fX/Z=z2(x); se dice que X sigue distribución Normal contaminada.
Propiedades
i) Si X tiene distribución esférica bidimensional y p(X=0)=0, entonces T=X1/X2 ~ Cauchy
ii) Si X tiene distribución esférica p-dimensional y p(X=0)=0, entonces
Z1
T= ~ tp-1
Z2 +...+Z2p
2
p-1
Definición de distribución elíptica
Sea Z un vector aleatorio p-dimensional con distribución esférica, mRp y AMpxp constantes.
El vector transformado X=AZ+m se dice que tiene distribución elíptica
Propiedades
i) EX= m; Cov(X)= cAAt .
ii) fX(x)= fZ(A-1(x-m)) |det(A-1)|, aplicando teorema del Jacobiano de cambio de variable.
iii) Las curvas de equidensidad sos elipsoides centrados en m: {x / (x-m)t M-1(x-m)= cte}
Ejemplos de distribuciones elípticas:
i) Np (, )
ii) fX(x)= p det(V)-1/2 en (x-m)t V-1 (x-m) < 1;
por ejemplo, X= m+AZ, con Z uniforme en la esfera unidad y V=AAt.
distmultiv.doc 05/03/2015 vgaribay@eio.uva.es 11
Simbólicamente: k Np (, )t [Wp(k, )]-1 Np (, ) ≡ T2p, k (... que no depende de !!!) [1]
N(0,1)
es la versión multivariante de la ya conocida relación: tk ≡ con N y 2 independientes,
2
χ /k k
cuyos cuadrados dan una versión equivalente, con aspecto similar a la multivariante [1]:
k N(0,1) ( χ 2k )-1 N(0,1) ≡ F1, k
Aplicaremos más adelante este importante resultado a la media muestral (~Np) y la matriz de
covarianzas empíricas (~Wp) en el muestreo de la Np.
Con éste, completamos tres resultados importantes sobre distribución de formas cuadráticas:
1) xt x ~ 2rg(A) (A) A es idempotente
2) bt W b ~ W1 ( k , bt b ) ≡ 2b 2k, siendo 2b = bt b
kp
3) k xt W-1 x ~ T2p, k()≡ Fp, k-p+1() con = t
k- p+1
* Transformación T y su inversa S:
x1 S1 (y1 , , y k ) y1 T1 (x1 , , x k )
transf. inversa transf. directa
S T
x k Sk (y1 , , y k ) k Tk (x1 , , x k )
y
f Y (y) = f X (S(y)) | J1 |
Demostración: B k
pY (B) = f (y) dy por ser fY la densidad de Y ;
B Y
* Conclusión:
Tenemos un procedimiento para calcular directamente la densidad de una nueva v.a. Y=T(X) a partir de la de X:
f Y (y1 y k ) = f X (x 1 , , x k ) J
1
nueva densidad vieja densidad con las x i S
como función de las y: J1
x 1 S1 (y1 y k ) y
... módulo del
x k S k (y1 y k ) Jacobiano de la
transf. inversa
distmultiv.doc 05/03/2015 vgaribay@eio.uva.es 14
Ejemplo:
Sea T(x,y)= ( |x|, |y|)
T no es difeomorfismo, pues no es 1-1:
u > 0, v > 0 T-1 (u,v) = { (u,v), (-u,v), (u,-v), (-u,-v) }
… Pero en cada cuadrante Ci de 2 la aplicación T SÍ que es 1-1 y difeomorfismo.
La contraimagen por T de cualquier Borel B será entonces la unión de r conjuntos disjuntos Bi Si(B):
T-1(B) = B1 + … + Br.
r r
f
r
(1)
Así: pY (B) = pX (B1 + … + Br) = pX (Bi) = i
Y (y) dy = f i Y (y) dy
B B
i 1 i 1 i 1
r
f Y (y) = i 1
f iY (y) con f iY (y) = fX (Si (y)) | J1i | i=1…r
Nota: A veces todas las f iY (y) coinciden y eso agiliza mucho los cálculos, pues en ese caso:
fY(y) = r f 1 Y (y) = r fX (S1 (y)) | J11 |