Está en la página 1de 9

Trabajo de Inferencia Estadı́stica

Integrantes
Alvarez Cano, Jimena
Cano Rodriguez, Thalia
Carbajal Trujillo, Enzo
Chauca Llamoca, Sandra
Flores Balboa, Jazmin
Flores Mamani, Edgar
Huamani Llactahuaman, Samanta
Huaylla Arias, Angel
Paucar Fuentes, Kevin
Rivas Ordoñez, Naomi
Salcedo Hoces, Miguel
5 de julio de 2020

1. El problema 2 de Rohatgi:
Sean X1 , X2 , ..., Xm muestras aleatorias simples de N (µ1 , σ 2 ) y N (µ2 , σ 2 ), respectivamente. Además, sea α,β
dos constantes reales. Si X, Y denota las medias muestrales correspondientes, ¿Cúal es la distribución muestral
de:
α(X − µ1 ) + β(Y − µ2 )
r r
(m − 1)S12 + (n − 1)S22 α2 β2
+
m+n−2 m n
donde S12 y S22 , respectivamente, denotan las varianzas muestrales de X y Y.

1.1. Desarrollo:
X v N (µ1 , σ 2 ) y Y v N (µ2 , σ 2 )

Si las varianzas son iguales y conocidas:


σ σ
X v N (µ1 , √ ) ; Y v N (µ2 , √ )
m n

Multiplicando α a X y β a Y :
ασ βσ
αX v N (αµ1 , √ ) ; βY v N (βµ2 , √ )
m n
Restando ambas medias:
αX-βY = αX+(-β)Y
α2 σ 2 (−β)2 σ 2
Seguira una distribución normal de media (αµ1 -βµ2 ) y varianza +
m n
Si se conoce el valor de σ 2 , el estadistico:
αX − (−β)Y − (αµ1 − (−βµ2 ))
Z= r
α2 β2
σ +
m n
α(X − µ1 ) + β(Y − µ2 )
Z= r
α2 β2
σ +
m n

1
se distribuye según una normal de N(0,1)
Ahora: Al ser varianzas iguales pero desconocidas:
(m − 1)S12 2
→ Xm−1
σ2
(n − 1)S22 2
→ Xn−1
σ2
Teorema: Sean X1 y X2 v.a.i. y cada una tiene una distribución Chi-cuadrado con a,b grados de libertad,
entonces Y = X1 + X2 tiene tambien una distribución Chi-cuadrado con a+b grados de libertad.
Siguiendo el teorema:
(m − 1)S12 (n − 1)S22
W= +
σ2 σ2
sigue también una chi-cuadrado con m+n-2 grados de libertad.
Luego:
Z
T= r
W
(m + n − 2)
Reemplazando:
α(X − µ1 ) + β(Y − µ2 )
r
α2 β2
σ +
T= v m n
u (m − 1)S 2 (n − 1)S22
1
u +
t σ2 σ2
(m + n − 2)

α(X − µ1 ) + β(Y − µ2 )
T= r r
(m − 1)S12 + (n − 1)S22 α2 β2
+
m+n−2 m n

Sigue una t-student con (m+n-2) grados de libertad.

2. El problema 5 de Rohatgi:
Se observó que la vida media de una muestra de 10 bombillas era de 1327 horas con una desviación estándar
de 425 horas. Una segunda muestra de 6 bombillas elegidas de un lote diferente mostró una vida media de 1215
horas con una desviación estándar de 375 horas. Si se supone que las medias de los dos lotes son las mismas,
¿Cuán probable es la diferencia observada entre las dos medias de muestra?

2.1. Desarrollo
Muestra 1 Muestra 2
m = 10 n=6
X̄ = 1327 X̄ = 1215
Sx = 425 Sy = 375

Se usa la distribución τ , debido a que las muestras son pequeñas


Entonces como σx y σy son desconocidos
r
(x̄ − ȳ) − (µx − µy ) mn(m + n − 2)
τ=q ∼ τ (m + n − 2)
(m − 1)S 2 + (n − 1)S 2 m+n
x y

r
x̄ − ȳ mn(m + n − 2)
τ=q (1)
(m − 1)Sx2 + (n − 1)Sy2 m+n

2
r
112 60(14)
τ=
9(4252 + (5)(3752 )) 16

r
56 60(14)
τ=
1164375 16

= 0,000348 = 3,48x10−4

3. El problema 8 de Rohatgi:
Deriva la PDF conjunta de X y S 2 utilizando la transformación descrita en la observación 4.

3.1. Desarrollo

1 − 21
Pn 2
j=1 xj
fx1 ,x2 ,...,xn = n e
(2π) 2

Hallando la función de densidad de X̄


t
φX̄ (t) = [φx ( )]n
n
t σ2 t 2
=⇒ φX̄ (t) = [ei n − 2 (n )
]
t 2 t2
in µn− σ2 n n
= [e 2
]
t 2 2
in µ− σ2 tn
= [e ]
Por teorema de la unicidad de la función caracterı́stica, como X ∼ N (0, 1)

σ2
X̄ ∼ N (µ, )
n
=⇒ X ∼ N (0, n1 )

n − 1 n2 x 2
fX̄ (x) = e 2

Hallando la FD de S 2
n n
X (xi − µ)2 X (xi − x̄ + x̄ − µ)2
=
i=1
σ2 i=1
σ2
n n n
X (xi − x̄)2 X 2(xi − x̄)(x̄ − µ) X (x̄ − µ)2
= + +
i=1
σ2 i=1
σ i=1
σ2
n n
X (xi − x̄)2 X (x̄ − µ)2
= +
i=1
σ2 i=1
σ2
1 n
2
=(n − 1)S 2 + (x̄ − µ)2 (2)
σ σ
Hallando la función caracterı́stica a ambos lados de (1), tenemos:
Pn (xi −µ)2 (n−1)s2
+ σn2 (x̄−µ)2
E[eit i=1 σ2 ] = E[eit σ2 ]
s2 n 2
= E[eit(n−1) σ2 ) ]E[eit σ2 (x̄−µ) ]
Y esto es:
n s2 1
(1 − 2it)− 2 = E[eit(n−1) σ2 ) ](1 − 2it)− 2
S2 n−1
→ E[eit(n−1) σ2 ] = (1 − 2it)− 2

3
Por teorema de unicidad de la función caracterı́stica tenemos:
(n − 1)S 2 2
∼ X(n−1) (3)
σ2
σ2 Z n−1
Sea Y = S 2 , Y = n−1 , entonces Z = σ2 Y

(n − 1)y dg −1 (y) (n − 1)
g −1 (y) = 2
,| |= (4)
σ dy σ2

dg −1 (y)
→ h(y) = fz [g −1 (y)]| |
dy
Como z ∼ X 2 (n − 1) por (2), entonces:
1 n−1 1
fz (z) = n−1 z( 2 )−1 e− 2 z , z > 0
2 2 Γ( n−1
2 )

Entonces; Usando (3)


(n − 1)y (n − 1)
h(y) = fz [
]
σ2 σ2
1 (n − 1) (n−1) −1 − 12 (n−1) y (n − 1)y
−→ h(y) = n−1 n−1 [ 2
y] 2 e σ2 , >0
2 2 Γ( ) σ σ2
2

1 (n − 1) (n−1) −1 − 12 (n−1) x
fs2 (x) = n−1 [ x] 2 e σ2 ,x > 0
2 Γ( n−1 σ2
2 )
2

Como (n − 1) > 0 y σ 2 > 0, entonces:x > 0


−→ Como X̄ y S 2 son independientes, entonces

fX̄,S 2 = fX̄ .fS 2



n − 1 n2 x 2 1 1 (n − 1) (n−1) −1 − 12 (n−1) x
e 2 n−1 [ x] 2 e σ2
2π n 2 2 Γ( n−1 ) σ2
2

n (n − 1)x n−1 −1 − 12 n2 x2 − 12 n−1 x
n−1 .[ ] 2 e σ2
2π2 2 Γ( n−1 ) σ2
2

n (n − 1)x n+1 − 21 (n2 x2 + n−1 x)
n+1 .[ 2
] 2 e σ2
2 2
n−1
π.Γ( 2 ) σ

4. El problema 7 de Bickel
La aproximación normal a la distribución τ . Sea X1 , ..., Xn una muestra de una distribución N (µ, σ 2 ) y sea


n(X̄ − µ)
Tn = q
2
1
i = 1n (Xi − X̄)
P
n−1

Establecer la aproximación P (Tn ≤ x) ≈ Φ(x) para n grande


Notar que Tn ∼ τn−1 (Ver el problema 1.3.3)
Sugerencia : Use el problema previo y Teorema de Slutsky.

4.1. Desarrollo
Sabemos por Teoria de la Unicidad de la función caracterı́stica:

σ2
X1, X2, ...., Xn ∼ N (µ, σ 2 )?X̄ ∼ N (µ, )..
n

4
Tambien por el teorema de la unicidad de la Φ(x) y por el teorema de Stutsky :

√ √ σ2 σ2
n(X̄ − µ) ∼ n.N (µ − µ, ) = N (µ − µ, n. )
n n
= σ.N (0, 1)

Por otro lado, sabemos que :


n
1 X
S2 = (Xi − X̄)2
n − 1 i=1
donde :
σ2 1
Xi ∼ N (µ, σ 2 ) ∧ X̄ ∼ N (µ, ) = √ N (µ, σ 2 )
n n
Ahora aplicaremos la Esperanza y Varianza en:
n
X
(Xi − X̄)
i=1

1)
n
X Xn n
X
E[ (Xi − X̄)] = E[ Xi − X̄]
i=1 i=1 i=1

por propiedad de la esperanza tenemos:


Xn n
X
E[ Xi ] − E[ X̄]
i=1 i=1

y por propiedad de sumatoria tenemos :


n
X n
X
E[Xi ] − E[X̄]
i=1 i=1

entonces:
X X n
X
[ i = 1n (Xi − X̄)] = i = 1n [Xi] − [X̄]
i=1
= nµ − nµ
=0
2)
n
X n
X n
X
V ar[ (Xi − X̄)] = V ar[ Xi − X̄]
i=1 i=1 i=1

por propiedad de la varianza tenemos:


Xn Xn
V ar[ Xi ] − V ar[ X̄]
i=1 i=1

y por propiedad de sumatoria tenemos :


n
X n
X
V ar[Xi ] − V ar[X̄]
i=1 i=1

entonces:
n
X n
X n
X
V ar[ (Xi − X̄)] = V ar[Xi ] − V ar[X̄]
i=1 i=1 i=1
2 σ
= nσ − n
n
= σ 2 (n − 1)
Estandarizando: P P P
(Xi − X̄) − E( (Xi − X̄)) (Xi − X̄) − 0
p = p ∼ N (0, 1)
σ 2 (n − 1)
P
V ar( (Xi − X̄))

5
Por el teorema de la Unicidad de la Función Caracterı́stica tenemos:
X
(Xi − X̄) ∼ N (0, σ 2 (n − 1)) = σN (0, n − 1) (5)

De (1)2 tenemos: X
(Xi − X̄)2 ∼ σ 2 X 2 (n − 1)
Por teorema de Slutsky obtenemos que:

1 X X 2 (n − 1)
( ) (Xi − X̄)2 = σ 2 (6)
n−1 n−1
Finalmente aplicando teorema de la unicidad de la función caracterı́stica, dividiendo (1) y (2) tenemos:

n(X̄ − µ) σN (0, 1)
Tn = q ∼q 2 (n−1)
1
σ 2 X n−1
P
n−1 (Xi − X̄)2
N (0, 1)
=q 2
X (n−1)
n−1

= τ (n − 1)

Ahora vamos a demostrar que :(P(T n) ≤ X) ∼ Φ(x) aplicando la Ley Debil de los grandes números en la
esperanza y varianza de Tn cuando n → ∞

limn→∞ E(Tn ) = limn→∞ 0


=0
n
limn→∞ V ar(Tn ) = limn→∞
n−2
n0
= limn→∞
(n − 2)0
1
=
1
=1
Estandarizando el Tn :
Tn − E(Tn ) x−0
P( p ≤ ) ∼ P (Z ≤ x) = Φ(x)
V ar(Tn ) 1
Por lo tanto se comprueba que:
P (Tn ≤ x) ∼ Φ(x)

5. El problema 10 del Bickel


Justificar formalmente la siguiente expresión para los momentos de h(X̄, Ȳ ), donde (X1 , Y1 ), ..., (Xn , Yn ) es
una muestra de una población bivariada con

E(X) = µ1 , E(Y ) = µ2 , V ar(X) = σ12 , V ar(Y ) = σ22 , Cov(X, Y ) = ρσ1 σ2


1
a)E(h(X̄, Ȳ )) = h(µ1 , µ2 ) + Rn , donde Rn → 0 a razon cuando n −→ ∞.
n
1
b)V ar(h(X̄, Ȳ ) ∼
= [h1 (µ1 , µ2 )]2 σ12 + 2h1 (µ1 , µ2 )h2 (µ1 , µ2 )ρσ1 σ2 + [h2 (µ1 , µ2 )]2 σ22 + rn
n
donde:
δ δ
h1 (x, y) = h(x, y), h2 (x, y) = h(x, y).
δx δy
1
y rn → 0 a razón cuando n → ∞
n2
1
Sugerencia: h(X̄, Ȳ ) − h(µ1 , µ2 ) = h1 (µ1 , µ2 )(X̄ − µ1 ) + h2 (µ1 , µ2 )(Ȳ − µ2 ) + Rn con residuo Rn de orden .
n

6
5.1. Desarrollo
a) Sabemos por teorı́a que:
1
E(h(X̄)) = h(µ) + h00 (µ)V ar(µ)
2
y de la sugerencia despejamos (h(X̄, Ȳ )):

h(X̄, Ȳ ) = h(µ1 , µ2 ) + h1 (µ1 , µ2 )(X̄ − µ1 ) + h2 (µ1 , µ2 )(Ȳ − µ2 ) + Rn

Donde:
2 2
1X 1X
X̄ = Xi ∧ Ȳ = Yi
n i=1 n i=1
Por dato tenemos que:
δ δ
h1 (x, y) = h(x, y) −→ h1 (µ1 , µ2 ) = h(µ1 , µ2 )
δx δx
δ δ
h2 (x, y) = h(x, y) −→ h2 (µ1 , µ2 ) = h(µ1 , µ2 )
δy δy
Ahora reemplazando en h(X̄, Ȳ ) nos queda:

δ δ
h(X̄, Ȳ ) = h(µ1 , µ2 )(X̄ − µ1 ) + h(µ1 , µ2 )(Ȳ − µ2 ) + h(µ1 , µ2 ) + Rn
δx δy
δ δ
= h(µ1 , µ2 )[ (X̄ − µ1 ) + (Ȳ − µ2 ) + 1] + Rn
δx δy
δ X̄ δµ1 δ Ȳ δµ2
= h(µ1 , µ2 )[ − + − + 1] + Rn
δx δx δy δy
Pn Pn
1 δ i=1 Xi δµ1 1 δ i=1 Yi δµ2
= h(µ1 , µ2 )[ − + − + 1] + Rn
n δx δx n δy δy

Asumiendo que x1 , x2 , ..., xn son valores escalares de X1 , X2 , ..., Xn respectivamente, entonces:

h(X̄, Ȳ ) = h(µ1 , µ2 )[0 − 0 + 0 − 0 + 1] + Rn


= h(µ1 , µ2 ) + Rn

Por propiedad de la esperanza tenemos que:

E(h(X̄, Ȳ )) = E(h(µ1 , µ2 )) + Rn

Como E(h(µ1 , µ2 )) = h(µ1 , µ2 ) finalmente tenemos que:

E(h(X̄, Ȳ )) = h(µ1 , µ2 ) + Rn
1
donde Rn → 0 a razon cuando n −→ ∞.
n

b) Sabemos por teoria de la varianza y covarianza:

V ar(X) = E(X̄ − µ1 )2 , V ar(Y ) = E(Ȳ − µ2 )2 , Cov(X, Y ) = [X − E(X)][Y − E(Y )]

y que:
h(X̄, Ȳ ) = h(µ1 , µ2 ) + h1 (µ1 , µ2 )(X̄ − µ1 ) + h2 (µ1 , µ2 )(Ȳ − µ2 ) + Rn (7)
De (1)2 tenemos:
2
=[h1 (µ1, µ2 )]2 (X̄ − µ1 )2 + [h2(µ1, µ2 )]2 (Ȳ − µ2 )2 + [h(µ1 , µ2 )]2 + Rn2 + 2h1 (µ1, µ2 )(X̄ − µ1 )h2(µ1, µ2 )
(Ȳ − µ2 ) + 2h1(µ1, µ2 )(X̄ − µ1 )h(µ1 , µ2 ) + 2h1(µ1, µ2 )(X̄ − µ1 )Rn + 2h2 (µ1, µ2 )(Ȳ − µ2 )h(µ1 , µ2 )
+ 2h2(µ1, µ2 )(Ȳ − µ2 )Rn

7
A esta expresión le aplicamos la esperanza:

E[h(X̄, Ȳ )2 ] =[h1 (µ1, µ2 )]2 E[(X̄ − µ1 )2 ] + [h2(µ1, µ2 )]2 E[(Ȳ − µ2 )2 ] + E[Rn2 ] + 2h1 (µ1, µ2 )h2(µ1, µ2 )E[(X̄ − µ1 )
(Ȳ − µ2 )] + 2h1(µ1, µ2 )h(µ1 , µ2 )E[(X̄ − µ1 ) + 2h1(µ1, µ2 )RnE[(X̄ − µ1)] + 2h2(µ1, µ2 )h(µ1 , µ2 )
E[(Ȳ − µ2 ) + 2h2(µ1, µ2 )RnE[(Ȳ − µ2)] + E[2h(µ1 , µ2 )Rn] + [h(µ1, µ2 )]2

=[h(µ1 , µ2 )]2 σ12 + [h(µ1 , µ2 )]2 σ22 + 2h1 (µ1 , µ2 )h2 (µ1 , µ2 )ρσ1 σ2 + E[Rn2 ] + 2h1 (µ1 , µ2 )[h(µ1 , µ2 )
E[(X̄ − µ1 )] + Rn E[(X̄ − µ1 )]] + E[h(µ1 , µ2 )2 ]2h2 (µ1 , µ2 )[h(µ1 , µ2 )E[(Ȳ − µ2 )]
+ Rn E[(Ȳ − µ2 )]] + E[2h(µ1 , µ2 )Rn ]

=[h(µ1 , µ2 )]2 σ12 + [h(µ1 , µ2 )]2 σ22 + 2h1 (µ1 , µ2 )h2 (µ1 , µ2 )ρσ1 σ2 + E[Rn ] + E[2h(µ1 , µ2 )Rn ] + [h(µ1 , µ2 )]2

Ahora procedamos a calcular la varianza de h(X̄, Ȳ ):

2
V ar[h(X̄, Ȳ )] =E[h(X̄, Ȳ )2 ] − E[h(X̄, Ȳ )]
=[h(µ1 , µ2 )]2 σ12 + [h(µ1 , µ2 )]2 σ22 + 2h1 (µ1 , µ2 )h2 (µ1 , µ2 )ρσ1 σ2 + Rn2 + 2h(µ1 , µ2 )Rn + [h(µ1 , µ2 )]2 −
[h(µ1 , µ2 )]2 − Rn2 − 2h(µ1 , µ2 )Rn
1
= [[h(µ1 , µ2 )]2 σ12 + [h(µ1 , µ2 )]2 σ22 + 2h1 (µ1 , µ2 )h2 (µ1 , µ2 )ρσ1 σ2 ] + rn
n
1
donde rn → 0 a razon cuando n → ∞.
n2

6. El problema 15 del Bickel:


Sea X1 , X2 , ..., Xm una muestra de una población con media µ y varianza σ 2 < ∞. Suponer que h tiene una
segunda derivada h00 continua
√ en µ y que h0 (µ) = 0.
(a) Demostrar que n[h(X) − h(µ)] → 0 mientras n[h(X) − h(µ)] está asintóticamente distribuido como
1 00
h (µ)σ 2 V donde V v X 2 (1)
2
1 L
(b) Use la parte (a) para demostrar que cuando µ = , n[X(1 − X) − µ(1 − µ)] − → −σ 2 V con V v X 2 (1).
2
Dar una aproximación a la distribución de X(1 − X) en términos de la función distribución X 2 (1) cuando
1
µ=
2

6.1. Desarrollo:
Se sabe:
√ D
Sea Y1 , Y2 , ... v.a. tales que n(Yn − µ) −→ N (0, σ 2 ).

Si g(y) es una función derivable en el punto µ, entonces:


√ D
n(g(Yn ) − g(µ)) −→ N (0, σ 2 (g 0 (µ))2 )

Además:

n(X − µ) √
→ N (0, 1) ⇒ n(X − µ) → N (0, σ 2 )
σ

6.1.1. (a) Demostrar que:



n[h(X) − h(µ)] → 0

Se sabe que

n(X − µ) → N (0, σ 2 ) , entonces
√ D
n[h(X) − h(µ)] −→ N (0, σ 2 (h0 (µ))2 ), h0 (µ) = 0

8
eliminando h0 (µ) = 0 queda:

n[h(X) − h(µ)] → N (0, 0), N(0,0) es masa puntual en cero

Entonces

n[h(X) − h(µ)] → 0

6.1.2. (b) Demostrar que:


L 1
→ −σ 2 V , con µ =
n[X(1 − X) − µ(1 − µ)] − ; V v X 2 (1)
2
De la parte (a) se sabe que:
d 1 00
n[h(X) − h(µ)] −
→ h (µ)σ 2 V
2
Entonces:

h(X) = X(1 − X), h(µ) = µ(1 − µ) = µ − µ2 , h00 (µ) = −2

Por lo tanto:
d 1 00
n[h(X) − h(µ)] −
→ h (µ)σ 2 V
2
Reemplazando h00 (µ) = −2

d 1
n[h(X) − h(µ)] −
→ (−2)σ 2 V
2
Se demuestra que:

d
→ −1σ 2 V
n[h(X) − h(µ)] −

También podría gustarte