Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Trabajo 1 Muestreo 2010 PDF
Trabajo 1 Muestreo 2010 PDF
1) Considere el diseño del ejemplo 1,5,1 (The Hink Survey) una muestra S de n individuos es extraída
mediante M AS de una marco que lista N individuos. Las familias correspondientes a los individuos
seleccionados son identicados. Calcular la probabilidad de inclusión de una familia compuesta de
M individuos, donde M < n. Obtener expresiones aproximadas para la probabilidad de inclusión
deM = 1, 2, 3 suponga que N, n son grandes con Nn = F > 0.
Solución:
Tenemos que:
N −M
X n−M
πk = p(s) = N
, k = 1, 2, · · · , N
k∈s m
(N −M )!
(N −M −n+M )!(n−M )!
= N!
n!(N −n)!
(N −M )!
(N −n)!(n−M )!
= N!
n!(N −n)!
h i
Cov(yc
U , yU 1 ) = E
c yc
U − E( y
cU ) y
c U1 − E( ycU1 )
h i
= E yc U − yU U 1 − yU 1
yc
h i
= U yU 1 − yU yU 1 − yU yU 1 + yU yU 1
E yc c c c
h i h i h i
= E yc y
U U1
c − y U1 E y
c U − yU E yc
U 1 + yU yU 1
h i
= U yU 1 − yU 1 yU − yU yU 1 + yU yU 1
E yc c
h i
= U U 1 − yU 1 yU
E yc yc
2
Luego;
n!
( n1 ) (n−1)! n n
π1 = = N! = , asi π1 =
( N1 ) (N −1)!
N N
n! n(n−1)(n−2)!
( n2 ) (n−2)!(2)! 2!(n−2)! n(n−1) n(n−1)
π2 = = N! = N (N −1)(N −2)! = , asi π2 =
( N2 ) (N −2)!(2)! 2!(N −2)!
N (N −1) N (N −1)
n! n(n−1)(n−2)(n−3)!
( n3 ) (n−3)!(3)! 3!(n−3)! n(n−1)(n−2)
π3 = = N! = N (N −1)(N −2)(N −3)! =
( N3 ) (N −3)!(3)! 3!(N −3)!
N (N −1)(N −2)
Solución:
(a)
N = 1000
N1 = 600, N2 = 300 y N3 = 100 (
1 k∈S
π1 = 0,1, π2 = 0,2 y π3 = 0,8 Como ns = Ik , con Ik = Entonces E(ns ) =
P P
E(Ik ) =
k∈U 0 k ∈
/ S k∈U
π = N π , con π = N ,
ns
donde ns esel tamaño de la muestra. Notese:
P P
πk =
k∈U k∈U
E(ns1 ) = N1 π1 = 600(0,1) = 60
E(ns2 ) = N2 π2 = 300(0,2) = 60
E(ns3 ) = N3 π3 = 100(0,8) = 80
Así
E(ns ) = E(n1 ) + E(n2 ) + E(n3 ) = 60 + 60 + 80 = 200 Notese también que:
V ar(ns1 ) = N1 π1 (1 − π1 ) = (600)(0,1)(0,9) = 54
V ar(ns2 ) = N2 π2 (1 − π2 ) = (300)(0,2)(0,8) = 48
V ar(ns3 ) = N3 π3 (1 − π3 ) = (100)(0,8)(0,2) = 16
Así
V ar(ns ) = V ar(ns1 ) + V ar(ns2 ) + V ar(ns3 ) = 54 + 48 + 16 = 118
3
cuanto es jo cuando es jo es mayor que cuando es aleatorio, según calculos anteriores.
3) Una población de 1600 individuos esta divididad en 800 conglomerados (Hogares) tales que hay Na
conglomerados de tamaño a (a = 1, 2, 3, 4)de acuerdo con la siguiente tabla:
a 1 2 3 4
Na 250 350 150 50
Una muetsra de individuos es seleccionada como sigue: 300 conglomerados son seleccionados de los 800
bajo un diseño de muestreo M AS , y todos los individuos en el conglomerado seleccionado son entre-
vistados. Si ns denota el número total de individuos entrevistados. Calcule E(ns )y V ar(ns ). Solución:
N = 1600 individuos
nI = 300 de NI = 800 conglomerados, entonces
nI
πI = N I
= 300
800 = 0,375
X XX X XX
V ar(ns ) = V ar( Ii ) = ijCov(Ii , Ij ) = i2 V ar(Ii ) + ijCov(Ii , Ij )
i∈UI i∈UI j∈UI i∈UI i∈UI j∈UI
i6=j
X XX
2
= i πI (1 − πI ) + ij(πIJ − πI πJ )
i∈UI i∈UI j∈UI
i6=j
X XX
2
= πI (1 − πI ) i + (πIJ − πI πJ ) ij
i∈UI i∈UI j∈UI
i6=j
n2I X X
nI nI NI (NI + 1)(2NI + 1) nI (nI+1 )
= (1 − ) + − ij
NI NI 6 NI (NI + 1) NI2
i∈UI j∈UI
i6=j
Notese que: ( )
NI2 (NI +1)2 NI (NI +1)(2NI +1)
j − i2 NI (NI +1)
i2 = -
P P P P P P
ij = i = 2 i− 4 6
i∈UI j∈UI i∈UI j∈UI i∈UI i∈UI
i6=j
4
!
NI2 n2I + nI NI2 − n2I NI2 − n2I NI
„ «» – „ «ff
nI nI NI (NI + 1)(2NI + 1) NI (NI + 1) (2NI + 1)
V ar(ns ) = 1− + 3
NI (NI + 1) −
NI NI 6 NI (NI + 1) 4 6
!( !)
nI NI2 − n2I NI 6NI2 + 6NI − 8NI − 4
„ «» –
nI nI NI (NI + 1)(2NI + 1)
= 1− + NI (NI + 1)
NI NI 6 NI3 (NI + 1) 24
!
2
nI (NI − nI ) 6NI − 2NI − 4
„ «» – „ «
nI nI NI (NI + 1)(2NI + 1)
= 1− +
NI NI 6 NI 24
!
2
6(800) − 1597
„ «» – „ «
300 300 800(801)(1601) 300(500)
= 1− +
800 800 6 800 24
= 40075031 + 29987523
= 70062555
4) Considere una población de tamaño N = 3, U = {1, 2, 3}. Sea S1 = {1, 2}, S2 = {1, 3},S3 = {2, 3},
S4 = {1, 2, 3}, P (S1 ) = 0,4, P (S2 ) = 0.3, P (S3 ) = 0.2 y P (S4 ) = 0.1
(b) Halle el valor de E(ns )de dos formas; (1) por el calculo directo usando usando la denición (2)
por el uso d ela formula que expresa E(ns )como una función de los πk
Solución:
(a)
Las Probabilidades de inclusión de Primer orden son:
Solución:
(a) y1 = 16, y2 = 21 y y3 = 18
Por denición tenemos que:
h i 2 P h i2
V ar(θ̂) = E θ̂ − E(θ̂) = P (s) θ̂ − E(θ̂)
s∈S
Con S el conjunto de todas las muestras.
Para t = yk , un estimador para el total poblacional t esta dado por:
P
k∈U
4 X
X yk X yk X yk X yk X yk
t̂π = = + + +
i=1
πk πk πk πk πk
k∈Si k∈S1 k∈S2 k∈S3 k∈S4
y1 y2 y1 y3 y2 y3 y1 y2 y3
= + + + + + + + +
0,8 0,7 0,8 0,6 0,7 0,6 0,8 0,7 0,6
16 21 16 18 21 18 16 21 18
= + + + + + + + +
0,8 0,7 0,8 0,6 0,7 0,6 0,8 0,7 0,6
t̂π = 240
P
E(t̂π ) = P (Si )t̂π (Si ) = 0,4(50) + 0,3(50) + 0,2(60) + 0,1(80) = 20 + 15 + 12 + 8 = 55
k∈Si
2
P (Si ) t̂π (Si ) − E(t̂π ) = 0,4(50−55)2 +0,3(50−55)2 +0,2(60−55)2 +0,1(80−55)2 = 85
P
V ar(t̂π ) =
k∈Si
k∈U l∈U 2 2 2
ˆ 0,16 16
+ 0,21 21
+ 0,24 18
− 0,06 16 21 0,08 16 18
V ar(t̂π ) = 0,5 0,8 0,7 0,4 0,6 0,6 0,5 0,8 0,7 − 0,4 0,8 0,6 −
0,12 21 18
0,2 0,7 0,6
V ˆar(t̂π ) = 582.875
6) Sea S una muestra estraída mediante un diseño Bernoulli con πk = π para todo k ∈ U . Sea
ns el tamaño aleatorio de S . Muestre que la probabilidad condicional de obtener S dado ns es igual a
la probabilidad d euna muestra bajo un diseño M AS con tamaño ns jo de N .
Solución:
P (S∩ns ) π ns (1−π)N −ns 1
P (S | ns ) = = =
P (ns ) ( nNs )πns (1−π)N −ns ( nNs )
Lo cual es igual a la probabilidad bajo el diseño M AS con ns jo.
7) Sea S (S ⊂ U ) una muestra Extraida bajo un diseño M AS , y sea S1 (S1 ⊂ P U − S ) una mues-
tra extraída bajo un diseño M AS del resto de porción de la población sea y U = ynk y y U1 = nyk1
P
S S1
donde n y n1 son los respectivos tamaños (jos) de S y S1 . Halle la covarianza entre y U y y U1 .
Solución
X yk 1X 1X 1X
E(yˆ
¯U ) = E( ) = E( yk Ik ) = yk E(Ik ) = yk πk
n n n n
S U U U
n X
(N )
= yk = ȳ
n
U
E(yˆ
¯U ) = ȳ
1X 1 X 1 X
E(yˆ
¯U1 ) = E( yk ) = E( yk Ik ) = yk E(Ik )
n1 n1 n1
S1 U −S U −S
1 X n1 1 X 1 X
= yk πk = yk = yk
n1 N − n n1 N −n
U −S U −S U −S
1 X
= yk
n1
U −S
E(yˆ
¯U1 ) = y¯U1
7
Armación.
(a)
Ahora, la varianza del estimador para las posibles muestra,estan dadas por:
2 2
ˆ ˆt ) = 411 y1 422 y2 412 y1 y2
1.V ar( π + + ( )
π11 π1 π22 π2 π12 π1 π2
16 2 21 2 16 21
= (0,2)( ) + (0,3)( ) − (0,12)( )( )
0,8 0,7 0,8 0,7
= 80 + 270 − 72
ˆ ˆt ) =
V ar( 278
π
ˆ ˆt ) = 16 2 18 2 16 18
2.V ar( π (0,2)( ) + (0,4)( ) − (0,20)( )( )
0,8 0,6 0,8 0,6
= 80 + 360 − 120
ˆ
V ar( ˆtπ) = 320
ˆ ˆt ) = 21 2 18 2 21 18
3.V ar( π (0,3)( ) + (0,4)( ) − (0,4)( )( )
0,7 0,6 0,8 0,6
= 270 + 360 − 315
ˆ
V ar( ˆtπ) = 158
Ahora.
ˆ ˆt )) ˆ ˆt )
X
E(V ar( π = P (Si )V ar( π
kSi
= (0,4)(278) + (0,3)(320) + (0,2)(315) + (0,1)(158)
= 111,2 + 96 + 63 + 15,8
ˆ ˆt ))
E(V ar( = 286
π
8
8) Muestre que la varianza V1 dada por (2.9.8) y el estimador de varianza Vˆ1 dado por (2.9.9) puede
escribirse.
m
P yk2 P yki 2
V1 = pk − t y V̂1 =
2 1
m−1 pk i − mî2pwr
U i=1
Solución.
X yk 2
V1 = −t pk
pk
U
m 2
1 X yki
V̂1 = − t̂pwr
m − 1 i=1 pki
m
1 X yki
t̂pwr =
m i=1 pki
X yk 2
V1 = pk−t
pk
U
" #
X yk 2 yk
= − 2 t + t2 p k
pk pk
U
" #
2
X yk yk 2
= pk − 2 tpk + pk t
pk pk
U
X yk 2
X X
= pk − 2 yk t + pk t2
pk
U U U
X yk 2 X X
2
= − 2 yk t + pk t
pk
U U U
X yk 2 X X
= − 2t yk + t 2 pk
pk
U U U
X yk 2
= − 2t(t) + t2 (1)
pk
U
X yk 2
= − 2t2 + t2
pk
U
X yk 2
= − t2
pk
U
9
(b)
m 2
1 X yki
V̂1 = − t̂pwr
m − 1 i=1 pki
m 2 !
1 X yki yki 2
= −2 t̂pwr + t̂pwr
m − 1 i=1 pki pki
m 2 m m
1 X yki 2 X yki 1 X2
= − t̂pwr + t̂
m − 1 i=1 pki m − 1 i=1 pki m − 1 i=1 pwr
m 2 m m
1 X yki 2t̂pwr X yki m X2
= − + t̂
m − 1 i=1 pki m − 1 i=1 pki m − 1 i=1 pwr
m 2 X m ! X m ! Xm !2
1 X yki 2 1 yki yki 1 1 yki
= + +
m − 1 i=1 pki m−1 m i=1
pki i=1
pki m−1 m i=1
pki
m 2 m 2
! m 2
!
1 X yki 2 X yki 1 X yki
= + +
m − 1 i=1 pki m(m − 1) i=1 pki m(m − 1) i=1 pki
m 2 m 2
!
1 X yki 1 X yki
= +
m − 1 i=1 pki m(m − 1) i=1 pki
m 2 m !2
1 X yki m X yki
= + 2
m − 1 i=1 pki m (m − 1) i=1 pki
m 2 m !2
1 X yki m 1 X yki
= +
m − 1 i=1 pki (m − 1) m i=1 pki
m 2 m !2
1 X yki 1 X yki
= +m
m − 1 i=1 pki m i=1 pki
"m #
1 X yki 2
2
= + mt̂pwr
m − 1 i=1 pki
10
9). Pruebe que las probabildades de inclusión de segundo orden bajo un diseño de mustreo con reem-
plazo esta dada por:
m
πkl = 1 − (1 − pk ) − (1 − pl ) m + (1 − pk − pl ) m
Demostración:
πkl = P (k ∈ S y l ∈ s)
= 1 − P (k ∈
/ S) − P (l ∈
/ s) + P (k, l ∈
/ s)
m
m m m−m
= 1 − (1 − pk ) − (1 − pl ) + (1 − pk − pl ) m (pk − pl )
m
m m
= 1 − (1 − pk ) − (1 − pl ) + (1 − pk − pl ) m
El cuarto sumando en la igualdad anterior se obtiene considerando que cada igualdad se toma co-
mo un proceso Bernoulli donde el éxito es no escoger ni a k ni a l. Por tanto
P (Éxito) = 1 − P (F racaso)
= 1 − P (Escoger a k) − P (Escoger a l) + P (Escoge ambos)
= 1 − pk − pl