Está en la página 1de 14

UNIVERSIDAD NACIONAL MAYOR DE SAN

MARCOS
FACULTAD DE CIENCIAS MATEMATICAS

“METODO DE GRUPOS ALEATORIOS”

EAP : Escuela Académico Profesional de Estadística

CURSO : Muestreo 2

PROFESORA : Gregoria Natividad Ramón Quispe

INTEGRANTE:
➢ Sullca Damián José Tito

2019
INTRODUCCION

A medida que la aplicación y teoría de muestreo han cobrado terreno, son cada
vez más los estudios encaminados a establecer y comparar métodos para calcular
la varianza de un estimador cuando no se tiene una expresión para su estimación.
En casi todos los diseños de muestreo complejos, es posible conseguir un
estimador insesgado de la varianza, cuando la estadística de interés es una
combinación lineal de las observaciones. Sin embargo, es muy común el hecho de
que la función de los datos de la muestra con la que se construye el estimador sea
una función no lineal, como son las razones, diferencia de razones, coeficientes de
regresión y correlación, entre otros. En estos casos, no se cuenta con una
expresión para el estimador de la varianza, por lo que se hace necesario el apoyo
de otras formas para estimarla. Existen varios métodos para estimar la varianza en
muestreos complejos. Quizás algunos de los métodos más usados e importantes,
se basan en el remuestreo, entre los cuales destacamos el de los Grupos
Aleatorios Dependientes y el de Jackknife.

El método de los grupos aleatorios dependientes (GAD), fue una de las primeras
técnicas para estimar la varianza de un estimador en diseño de muestras
complejas. Las primeras ideas fueron introducidas por Mahalanobis (1946), se vio
en la necesidad de reducir las fuentes de error en sus encuestas. Por tal razón,
comenzó a diseñar muestras a las que llamó interpenetrantes, o muestras a la
mitad (“half-sampling”). Básicamente su técnica consistía en numerar
consecutivamente las unidades de muestreo dentro de cada estrato o unidad
primaria; posteriormente, separaba la muestra de acuerdo a dicho número en
impares y pares, formando dos conjuntos de datos que daban dos estimaciones.
El término interpenetrante alude a la aplicación del método al evaluar márgenes de
error diferentes a la variabilidad del fenómeno que se observa. Sin embargo, la
idea de Mahalanobis fue considerada por autores como Hansen, Hurwitz y Madow
(1953), llamándole la técnica del conglomerado último o del grupo aleatorio,
dándole un carácter más general. Deming (1956), la utilizó con el simple propósito
de obtener un estimador de varianza sin importar lo complicado que fuera el
estimador o el diseño muestral y le llamó Muestreo replicado

El método de los grupos aleatorios dependientes, es una técnica para estimar


varianzas en muestras complejas de. El método consiste en extraer una muestra
probabilística S con un diseño sin restitución, dividirla en R grupos aleatorios
dependientes disjuntos y estimar con cada uno de ellos el parámetro poblacional
𝜃, el promedio que resulta de estas estimaciones también se considera un
estimador de 𝜃 . Un estimador para la varianza del estimador de 𝜃 es la varianza
̂ r respecto al promedio de los mismos.
de los estimadores θ

Las ventajas del método de los GAD es que no se requiere de Software especial
para estimar la varianza, siendo fácil calcular la estimación de la varianza. Es
adecuado para los problemas multiparamétricos o no paramétricos; puede servir
para estimar varianza de percentiles y de funciones no suaves, así como para
varianzas de funciones suaves de los totales de la población. No es necesario
conocer las probabilidades de inclusión de segundo orden para estimar la varianza
de un estimador. Puede ser utilizado fácilmente después de los ajustes de
ponderación para la ausencia de respuestas y la subcobertura. Pero también tiene
algunas desventajas, entre las que se destacan la cantidad de grupos aleatorios
que por lo menos deben ser 10 para no obtener estimaciones imprecisas de la
varianza. La otra dificultad al aplicar el método GAD, es el establecimiento de los
grupos aleatorios que puede ser difícil en los diseños complejos, ya que cada
grupo debe tener la misma estructura de diseño que la encuesta completa.
Los Métodos de Estimación De varianzas
➢ Método de Replicación Simple
➢ Método de Grupos Aleatorios
➢ Método de los Conglomerados Últimos
➢ Método de Replicación Repetida Balanceada
➢ Método de Jacknife
➢ Método Bootstrap

• Supongamos una muestra de n elementos extraídos de una Población de N


elementos
• Se subdivide la muestra (MUESTRA MATRIZ) en k submuestras (Grupos)
de tamaño m, de tal manera que se cumple que n=km
• Cada grupo formado es una submuestra aleatoria de la muestra matriz, la
muestra matriz es a su vez una muestra aleatoria de la población,
• Entonces cada submuestra posee las mismas propiedades probabilística de
la muestra matriz pero de menor tamaño.
• En tales circunstancias, cada submuestra proporciona una estimación si se
utiliza la misma expresión que se utilizo para la muestra completa
METODO DE GRUPOS ALEATORIOS

Se extrae una muestra de n unidades de una población de tamaño N. Dicha


muestra se subdivide en k submuestras de igual tamaño m, de modo que n=k.m

Estas submuestras se denominan grupos aleatorios, y además de ser


submuestras de grupos aleatorios de tamaño m dentro de una muestra w de
tamaño n puede realizarse considerando una permutación aleatoria de los
números 1,2,…, n y eligiendo el primer grupo aleatorio formado por los elementos
de la muestra que ocupan los lugares definidos por los m primeros números
aleatorios de la permutación. El segundo grupo aleatorio se formara con los
elementos de la muestra que ocupan los lugares definidos por el segundo conjunto
de m números de la permutación. Así sucesivamente se formaran los k grupos
aleatorios correspondientes a la muestra.

Si

𝜃̂ : es un estimador insesgado de la característica poblacional 𝜃 basado en la


muestra completa w

𝜃̂𝑟 : es un estimador insesgado de la característica poblacional 𝜃 basado en el r-


ésimo grupo aleatorio

un estimador insesgado de la varianza de 𝜃̂ es el siguiente:

 (ˆ − ˆ)
r
2

Vˆ (ˆ) = r =1
k (k − 1)
Estimadores aplicados:
∑kr=1(θ̂r )
θ̂ =
k
̂ 𝒆𝒔 𝒖𝒏 𝒆𝒔𝒕𝒊𝒎𝒂𝒅𝒐𝒓 𝒊𝒏𝒔𝒆𝒔𝒈𝒂𝒅𝒐 de 𝜽
Demostración que 𝜽
∑kr=1(θ̂r )
E(θ̂) = E [ ]
k
k
1
E(θ̂) = E [∑(θ̂r )]
k
r=1

k
1
E(θ̂) = [∑ E(θ̂r )]
k
r=1

1
E(θ̂) = [k. θ]
k
E(θ̂) = θ
II. METODO DE GRUPOS ALEATORIOS EN GENERAL
II.1 El teorema anterior puede extenderse a diseños más complejos. Supongamos
que para un diseño muestral dado, 𝜃̂ es un estimador insesgado del parámetro 𝜃 .
Supongamos también que la muestra completa, de tamaño n, obtenida según el
𝑛
citado diseño, se divide aleatoriamente en k submuestras de tamaño 𝑚 = 𝑘 , de

modo que cada una de esta conserva las mismas propiedades que aquella
(estratificación, probabilidades de selección, etc.) aunque es de menor tamaño.
Designemos por 𝜃̂ el estimador aplicado a la muestra completa y por 𝜃̂𝑟 (𝑟 =
1,2,3, . . , 𝑘) el aplicado a cada grupo aleatorio.

Forma general:
Estimador de 𝜃 con la muestra matriz
𝑘
1
𝜃̂ = ∑ 𝜃̂𝑖
𝑘
𝑖=1

Estimador de con el grupo i:


𝑉(𝜃̂𝑟 )= 𝑘𝑉(𝜃̂ )
Luego

2 2
𝑉(𝜃̂𝑟 ) = 𝐸(𝜃̂𝑟 − 𝜃̂ ) + 𝐸(𝜃̂ − 𝜃)
Entonces
2
𝑘𝑉(𝜃̂ ) = 𝐸(𝜃̂𝑟 − 𝜃̂ ) + 𝑉(𝜃̂ )
Despejando
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = 𝑘𝑉(𝜃̂ ) − 𝑉(𝜃̂ ) = (𝐾 − 1)𝑉(𝜃̂ )
Despejando
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = 𝑘𝑉(𝜃̂ ) − 𝑉(𝜃̂ )
2
𝐸(𝜃̂𝑟 − 𝜃̂ ) = (𝑘 − 1)𝑉(𝜃̂ )
Y sumando en r=1, 2, 3,…., k los dos términos de la última igualdad
tenemos
𝑘 𝑘
2
∑ [𝐸(𝜃̂𝑟 − 𝜃̂ ) ] = ∑(𝑘 − 1)𝑉(𝜃̂ )
𝑟=1 𝑟=1
𝑘
2
𝐸 [∑(𝜃̂𝑟 − 𝜃̂ ) ] = 𝑘[(𝑘 − 1)𝑉(𝜃̂ )]
𝑟=1
2
∑𝑘𝑟=1(𝜃̂𝑟 − 𝜃̂ )
𝐸[ ] = 𝑉(𝜃̂ )
𝑘(𝑘 − 1)
Por lo tanto

Es un estimador insesgado de 𝑉(𝜃̂)

La condición 𝑉(𝜃̂𝑟 ) = 𝐾𝑉(𝜃̂) se cumple siempre que el muestreo sea con


reposición y la condición 𝐸𝑤 (𝜃̂𝑟 ) = 𝜃̂ , se cumple siempre que 𝜃̂𝑟 sea una copia de
𝜃 aplicada a grupo aleatorio de tamaño m.
Grupos Aleatorios Dependientes
(Grupos de tamaños iguales)

Grupos Aleatorios Dependientes


(Grupos de tamaños diferentes)
Ejemplo
The 1991 Information Please Almanac indica los costos de inscripción,
colegiaturas y hospedaje de todas las instituciones de educación superior de
Estados Unidos. Suponga que queremos estimar la proporción entre colegiatura
para no residentes y la colegiatura para residentes de las universidades públicas
de estados unidos. En una típica puesta en práctica del método de grupos
aleatorios, se extraerían muestras independientes usando el mismo diseño,
̂ para cada muestra. Consideremos cuatro muestras aleatorias
determinando ϴ
simples, cada una de tamaño 10. Las cuatro son sin reemplazo

Institución inscripción colegiatura para colegiatura para


residentes no residentes
COLUMBUS COLELGE 3482 1348 3747
SOUTHEASTERN 5354 1677 4983
MASSACHUSETTS UNIVERSITY
U.S NAVAL ACADEMY 4500 1500 1500
ATHENS STATE COLLEGE 1392 1080 2160
UNIVERSITY SOUTH ALABAMA 9195 1875 2475
VIRGINIA STATE UNIVERSITY 3308 3071 5135
SUNY COLLEGE OF UNIVERSITY 10801 1542 3950
UNIVERSITY OF HOUSTON 18648 930 4050
CUNY-LEHMAN COLLEGE 7841 1340 4140
AUSTIN PEAY STATE UNIVERSITY 4784 1210 4166
promedio 6934.2 1559 3630.6
institución inscripción colegiatura para colegiatura para
residentes no residentes
SUNY NEW PALTZ 4696 1495 4095
INDIANA UNIVERSITY 4931 1350 3342
UNIVERSITY OF WISCONSIN 5080 1658 4740
UNIVERSITY OF CALIFORNIA 16853 1578 5799
WEBER STATE COLLEGE 12783 1308 3513
KENNESAW COLLEGE 8404 1296 3678
SOUTH DAKOTA STATE 6366 1835 3363
UNIVERSITY
DICKINSON STATE UNIVERSITY 1402 1659 473
CHADRON STATE COLLEGE 2143 1361 2036
UNIVERSITY OF ALASKA- 7028 1512 3540
FAIRBANKS
promedio 6968.6 1505.2 3883.7
institución inscripción colegiatura para colegiatura para
residentes no residentes
UNIVERSITY OF ALASKA- 4091 941 2765
ANCHORAGE
UNIVERSITY OF MAINE 594 1710 4140
SOUTHERN UNIVERSITY-baton 9448 1354 2876
UNIVERSITY OF OREGON 13786 1782 5043
VIRGINIA STATE UNIVERSITY 3308 3071 5135
GLENVILLE SATATE COLLEE 2185 1150 2900
WISCONSIN-SALEM STATE 2532 896 4268
UNIVERSITY
FRAMINGHAM STATE COLLEGE 3359 1701 4729
SUNY-OLD WESTBURY 3999 1350 3292
NORTHWEST MISSOURI STATE 4600 1320 2415
UNIVERSITY
promedio 4790.6 1527.5 3756.3
institución inscripción colegiatura para colegiatura para
residentes no residentes
CENTRAL WASHINGTO 6398 1674 5712
UNIVERSITY
WORCESTER STATE COLLEGE 3600 1296 3792
UNIVERSITY OF CALIFORNIA - 17202 1696 7592
DAVIS
SAM HOUSTON STATE 12359 1060 4180
UNIVERSITY
UNIVERSITY OF TEXAS-TYLER 2335 861 3695
SOUTHESATERN OKLAHOMAS 3616 804 1992
STATE UNIVERSITY
UNIVERSITY OF SOUTHERN 3909 1536 5275
COLORADO
PENSSYLVANIA STATE 31251 3754 7900
UNIVERSITY
EAST CENTRAL UNIVERSITY 3606 1200 4140
UNIV OF ARKANSAS 1854 1410 3230
MONTICELLO
promedio 8613 1527.1 4750.8

𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑙𝑎 𝑐𝑜𝑙𝑒𝑔𝑖𝑎𝑡𝑢𝑟𝑎𝑠 𝑝𝑎𝑟𝑎 𝑛𝑜 𝑟𝑒𝑠𝑖𝑑𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑒𝑙 𝑟 − é𝑠𝑖𝑚𝑜 𝑔𝑟𝑢𝑝𝑜 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜


𝑅̂𝑟 =
𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜 𝑑𝑒 𝑐𝑜𝑙𝑒𝑔𝑖𝑎𝑡𝑢𝑟𝑎𝑠 𝑝𝑎𝑟𝑎 𝑟𝑒𝑠𝑖𝑑𝑒𝑛𝑡𝑒𝑠 𝑒𝑛 𝑒𝑙 𝑟 − é𝑠𝑖𝑚𝑜 𝑔𝑟𝑢𝑝𝑜 𝑎𝑙𝑒𝑎𝑡𝑜𝑟𝑖𝑜
Así
(3747 + 4983 + 1500 + 2160 + 2475 + 5135 + 3950 + 4050 + 4140 + 4166)/10
𝑅̂1 =
(1348 + 1677 + 1500 + 1080 + 1875 + 3071 + 1542 + 930 + 1340 + 1210)/10
3630.6
𝑅̂1 = 1559

→ 𝑅̂1 = 2.3288

→ 𝑅̂2 = 2.5802

→ 𝑅̂3 = 2.4591

→ 𝑅̂4 = 3.1110
El promedio muestral de las cuatro estimaciones independientes de 𝑌̅ es 𝑦̅

𝑆(𝑅̂𝑟 )
𝑦̅ = ; 𝑝𝑎𝑟𝑎 𝑡𝑜𝑑𝑜 𝑟 = 1,2,3,4
𝑘

(2.3288 + 2.5802 + 2.4591 + 3.1110 )


𝑦̅ =
4
𝑦̅ = 2.6198

𝑆(𝑦̅𝑟 − 𝑦̅)2
̂
𝑉(𝑦
̅) =
𝑘(𝑘 − 1)

(2.3288 − 2.6168)2 + (2.5802 − 2.6168)2 + (2.4591 − 2.6168)2 + (3.111 − 2.6168)2


̂
𝑉(𝑦
̅) =
4(4 − 1)

De modo que el error estándar muestral es

̂ √0.117649
√𝑉(𝑦
̅) =
√4

̂
√𝑉(𝑦
̅) = 0.1702
de modo que un intervalo de confianza de 90% para la razón en cuestión

INTERVALOS DE CONFIANZA

Ademas

= 0.06496741

Reemplazando los valores obtenidos


BIBLIOGRAFIA

➢ Estimación de errores de muestreo ,Julio Miras Amor INE, España


➢ Métodos de estimación de la varianza, con aplicación a la encuesta
nacional de hogares ampliada ;Fiorella Cavalleri Ferrari ,diciembre de 2008
➢ Método de remuestreo para el cálculo de varianzas en muestreos
complejos; Catalina Palmer Alache UNAM volumen 10 n° 25 ,2001
➢ Técnicas de Muestreo Estadístico ;Cesar Pérez López,2000
➢ Técnicas de Muestreo, Sharon Lohr,2000