Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Consejeros:
SE Fienberg WJ
van der Linden
123
Machine Translated by Google
Frauke Kreuter
Universidad de Maryland
College Park, MD, EE. UU.
A Carla y Joanna
Vince, Mark y Steph
Gerit y Konrad
Machine Translated by Google
Machine Translated by Google
Prefacio
(1) Estudiantes que buscan una comprensión más profunda del muestreo aplicado, ya sea a
través de un segundo curso de un semestre o por medio de una referencia complementaria
(2) Estadísticos de encuestas que buscan orientación práctica sobre cómo aplicar los conceptos
aprendidos en cursos de muestreo teóricos o aplicados.
(3) Científicos sociales y otros profesionales de encuestas que deseen conocer el pensamiento
estadístico y los pasos que se tomaron para diseñar, seleccionar y ponderar muestras
aleatorias de encuestas.
Se requiere cierto conocimiento básico de los métodos de muestreo aleatorio (p. ej., muestreo
aleatorio de una o varias etapas, la diferencia entre muestreo con y sin reemplazo, pesos base
calculados como el inverso de las probabilidades de inclusión de la muestra, conceptos detrás
del error de muestreo y prueba de hipótesis). requerido. Cuanto más familiares sean estos
términos y técnicas, más fácil será para el lector seguirlos. Primero abordamos la perspectiva
del estudiante.
Una queja familiar que tienen los estudiantes después de terminar una clase de muestreo
aplicado o de teoría del muestreo es: “Todavía no entiendo muy bien cómo diseñar una muestra”.
Los estudiantes aprenden muchas herramientas o técnicas aisladas, pero no tienen la capacidad
de juntarlas todas para diseñar una muestra de principio a fin.
viii
Machine Translated by Google
viii Prefacio
finalizar. Uno de los principales objetivos de este libro es dar a los estudiantes (y
practicantes) una idea de lo que implica el diseño de muestras de una o varias etapas en
el mundo real. Esto incluye diseñar un plan de muestreo a partir de información a veces
incompleta, decidir el tamaño de la muestra dado un presupuesto específico y tasas de
respuesta estimadas, crear estratos a partir de una selección de variables, asignar la
muestra a los estratos dado un conjunto de restricciones y requisitos para diferencias
detectables , y determinar los tamaños de muestra para usar en diferentes etapas en una
muestra de múltiples etapas. Cuando sea apropiado, se darán reglas generales para
ayudar a completar la tarea.
Los estudiantes encontrarán que un curso impartido a partir de este libro será una
combinación de aplicaciones prácticas y una revisión general de la teoría y los métodos
detrás de los diferentes enfoques de muestreo y ponderación. Los ejemplos detallados
permitirán completar los ejercicios al final de los capítulos. Varios proyectos pequeños,
pero realistas, se incluyen en varios capítulos. Recomendamos que los estudiantes los
completen trabajando juntos en equipos para dar una idea de cómo se llevan a cabo los
proyectos en las organizaciones encuestadoras.
Para los estadísticos de encuestas, el libro está destinado a brindar cierta experiencia
práctica en la aplicación de las ideas teóricas aprendidas en cursos anteriores en
equilibrio con la experiencia ya adquirida trabajando en el campo. En consecuencia, el
énfasis aquí está en aprender cómo emplear los métodos más que en aprender todos los
detalles de la teoría detrás de ellos. Sin embargo, no vemos esto como un simple libro
de cocina de alto nivel. Se revisan suficientes supuestos teóricos para que el lector pueda
aplicar los métodos de manera inteligente. Se proporcionan referencias adicionales para
aquellos que deseen más detalles o que necesiten un repaso.
Se utilizan varios conjuntos de datos de encuestas para ilustrar cómo diseñar muestras,
hacer estimaciones a partir de encuestas complejas para optimizar la asignación de
muestras y calcular ponderaciones. Estos conjuntos de datos están disponibles a través
de un sitio web host que se analiza a continuación y en el paquete R PracTools para que
el lector pueda replicar los ejemplos o realizar análisis adicionales.
Este libro también servirá como una referencia útil para otros profesionales
involucrados en la realización de encuestas por muestreo. El libro está organizado en
cuatro partes. Las primeras tres partes, Diseño de encuestas por muestreo de una sola
etapa, Diseños de varias etapas y Ponderaciones y análisis de la encuesta, comienzan
con una descripción de un proyecto de encuesta realista. Las herramientas generales y
algunos ejemplos específicos en los capítulos intermedios de la parte ayudan a abordar
las tareas intermedias requeridas para completar el proyecto. Con estos capítulos, se
hará evidente que el proceso hacia la solución de un diseño de muestra, una metodología
de ponderación o un plan de análisis requiere tiempo y aportes de todos los miembros
del equipo del proyecto. Cada parte del libro concluye con un capítulo que contiene una
solución al proyecto. Tenga en cuenta que decimos "una solución" en lugar de "la
solución", ya que el muestreo de la encuesta se puede abordar de muchas maneras ingeniosas pero cor
El libro contiene una discusión de muchos temas estándar cubiertos en otras fuentes,
pero desde una perspectiva ligeramente diferente, como se indicó anteriormente. También
cubrimos varios temas interesantes que no están incluidos o se tratan de manera limitada
en otros textos. Estas áreas incluyen:
Machine Translated by Google
Prefacio ix
Los diseños multifase y los procedimientos de control de calidad comprenden la parte final de
el libro—Otros temas. A diferencia de las otras áreas enumeradas anteriormente, los aspectos relacionados
a software estadístico se utilizan a lo largo de los capítulos para demostrar diversas técnicas.
La experiencia con una variedad de paquetes de software estadístico es esencial para estos
días para ser un buen estadístico. Los sistemas que destacamos son:
SUDÁN $5
Hay muchas otras opciones disponibles actualmente, pero debemos limitar nuestro alcance.
Es probable que se desarrolle otro software a corto plazo, por lo que recomendamos
encuestar a los practicantes para mantener sus ojos abiertos.
R, una implementación libre del lenguaje S, recibe con mucho la mayor atención en este libro.
Asumimos algún conocimiento de R y hemos incluido conceptos básicos
información más referencias en el Apéndice C para aquellos menos familiarizados. el libro
y el paquete R asociado, PracTools, contienen una serie de funciones especializadas para el
tamaño de la muestra y otros cálculos y proporcionan una buena
complemento del paquete base descargado del sitio web principal de R,
www.r-project.org. El paquete PracTools también incluye conjuntos de datos utilizados
en el libro. Además de PracTools, los conjuntos de datos y las funciones R
desarrollados para el libro están disponibles individualmente a través de la web del libro
sitio alojado por el Programa Conjunto en Metodología de Encuestas (JPSM) ubicado en
www.jpsm.org; de la página de la Facultad. A menos que se especifique lo contrario, cualquier
función de R a la que se haga referencia en el texto se encuentra en el paquete PracTools.
A pesar de la extensión de este libro, no hemos cubierto todo lo que un
los practicantes deben saber. Una omisión obvia es qué hacer si falta
datos. Hay libros completos sobre ese tema que algunos lectores pueden encontrar
Una
www.sas.com.
2 office.microsoft.com.
3 www.solver.com.
4 stata.com.
5
www.rti.org/sudaan.
Machine Translated by Google
X Prefacio
útil. Otro tema es el muestreo de marco dual o múltiple. Los marcos duales pueden ser
especialmente útil cuando se muestrean poblaciones raras si una lista de unidades que probablemente
en el grupo raro se puede encontrar. La lista puede complementar un marco que da
Cobertura casi completa del grupo, pero requiere una evaluación exhaustiva.
para llegar a miembro del grupo raro.
Al momento de escribir esto, hemos estado colectivamente en la investigación de encuestas durante más años.
de lo que nos importa contar (o divulgar). Este campo ha proporcionado acertijos interesantes.
para resolver, nuevas perspectivas sobre la investigación sustantiva dentro de varios estudios, y una
red cada vez mayor de colaboradores entusiastas de todos los gustos.
Independientemente de cuál de las tres perspectivas aborde este libro,
Espero que encuentre el material presentado aquí para ser esclarecedor o incluso
empoderamiento a medida que su carrera avanza. Ahora que comience la diversión. . .
Expresiones de gratitud
Estamos en deuda con muchas personas que han contribuido directa o indirectamente a la
redacción de este libro. Stephanie Eckman, Phillip Kott, Albert Lee y otro árbitro anónimo
nos brindaron reseñas detalladas y sugerencias sobre varios capítulos. Nuestros colegas,
Terry Adams, Steve Heeringa y James Wagner de la Universidad de Michigan, nos
aconsejaron sobre el uso de archivos de datos del gobierno de EE. UU., incluidos los del
censo decenal, la Encuesta de la comunidad estadounidense y la Encuesta de población
actual. Timothy Kennel de la Oficina del Censo nos ayudó a comprender cómo encontrar y
descargar datos del censo.
Thomas Lumley respondió muchas preguntas sobre el uso del paquete de encuestas R y
agregó algunas funciones a su software en el camino, según nuestras solicitudes. Las
discusiones sobre medidas compuestas de tamaño y muestreo basado en direcciones con
Vince Iannacchione fueron muy beneficiosas. Hans Kiesl, Rainer Schnell y Mark Trappmann
nos dieron una idea de los procedimientos y estándares estadísticos utilizados en la Unión
Europea. Los colegas de Westat (David Morganstein, Keith Rust, Tom Krenzke y Lloyd
Hicks) generosamente compartieron con nosotros algunos de los procedimientos de control
de calidad de Westat. Varias otras personas nos ayudaron en otros temas específicos:
Daniel Oberski en la estimación del componente de varianza; Daniell Toth sobre el uso del
paquete rpart R y árboles de clasificación y regresión, en general; David Judkins sobre los
ajustes por falta de respuesta; Jill Montaquila y Leyla Mohadjer sobre el permiso de muestreo;
Ravi Varadhan sobre el uso del paquete R de optimización de Alabama; Yan Li por el trabajo
inicial en SAS proc nlp; Andrew Mercer sobre los gráficos de Shewhart; Sylvia Meku por su
trabajo en algunos ejemplos de muestreo de áreas; y Robert Fay y Keith Rust sobre la
estimación de la varianza de la replicación.
xi
Machine Translated by Google
xi Expresiones de gratitud
También estamos extremadamente agradecidos con Robert Pietsch, quien creó los archivos TeX,
Florian Winkler quien programó el paquete PracTools en R, Valerie
Tutz, que ayudó a reunir la bibliografía, Melissa Stringfellow, que
revisó muchos de los ejercicios, y Barbara Felderer, que ayudó a revisar el
paquete R. También había muchos estudiantes y colegas (sin nombre aquí)
quienes contribuyeron a mejorar la presentación con sus muchas preguntas
y críticas.
Jill Dever agradece el apoyo financiero de RTI International. Frauke Kreuter
agradece el apoyo de la Ludwig-Maximilians Universit¨at.
Machine Translated by Google
Contenido
1 Una descripción general del diseño y la ponderación de la muestra ......... 1 1.1 Antecedentes
y terminología ........................... ... ... 1 1.2 Guía de capítulos ........................................ ......
7
XIII
Machine Translated by Google
xiv Contenido
Contenido XV
xvi Contenido
Contenido xvii
xviii Contenido
Referencias _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605
Lista de Figuras
ˆ¯
4.1 Densidades normales de las estadísticas de prueba bajo H0 y HA. ÿ V y
se establece igual a 3 en esta ilustración, de modo que E{t|HA es verdadero} = 3.
Se realiza una prueba unilateral en el nivel 0,05. . . . . . . . . . . . . . . . . . . 99
4.2 Una hoja de cálculo de Excel para los cálculos de los Ejemplos 4.2
y 4.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3 Una hoja de cálculo de Excel para los cálculos de los Ejemplos 4.2
y 4.3 con fórmulas mostradas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.4 Potencia para tamaños de muestra de n = 10, 25, 50, 100 en una prueba bilateral
de H0 : ÿD = 0 frente a HA : |ÿD| = ÿ (ÿ = 0,05, ÿd = 3). . . . . . . . . 106
5.1 Configuración de hoja de cálculo de Excel para usar con Solver . . . . . . . . . . . . . . . . . . 136
5.2 Captura de pantalla de la pantalla de diálogo de Excel Solver . . . . . . . . . . . . . . . . 137 5.3
Captura de pantalla de la pantalla de diálogo Cambiar restricción . . . . . . . . . . . 137 5.4 Ventana
de opciones de Solver donde se pueden configurar y configurar los parámetros de ajuste.
modelos guardados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.5 Informe de respuesta del solucionador para el establecimiento comercial
ejemplo _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.6 Informe
de sensibilidad de Solver para el ejemplo de establecimiento comercial 141 5.7 Hoja de cálculo
de Excel para encontrar tasas de submuestreo a través de
programación _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144
xix
Machine Translated by Google
XX Lista de Figuras
9.1 Coeficientes de variación para una media estimada para diferentes números
de elementos de muestra por UPM. . . . . . . . . . . . . . . . . . . . . . . . . 227
10.1 Jerarquía geográfica de unidades definida por la Oficina del Censo de EE. UU.
Véase Oficina del Censo de EE. UU. (2011). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
10.2 Un mapa de la estadística metropolitana de Washington-Baltimore
área y subdivisiones más pequeñas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
10.3 Plan de rotación de las UCE en la Encuesta Nacional sobre Consumo de Drogas
y salud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
11.1 Mapa de tramos del condado de Anne Arundel, Maryland ... . . . . . . . . . . . . . 299 11.2 Zonas
seleccionadas en el condado de Anne Arundel. . . . . . . . . . . . . . . . . . . . . . 300
16.2 Árbol de regresión para predecir la respuesta en base a las cuatro variables
disponible para encuestados y no encuestados ... . . . . . . . . . . . . . . . 466 16.3 Árbol
de regresión para predecir la probabilidad de reincorporación. . . . . . . . . . 471
17.1 Transición de casos de muestra a través de los estados de una encuesta bajo
un muestreo doble para el diseño de estratificación. . . . . . . . . . . . . . . . . . . . 483
17.2 Relación de los relbias de una media poblacional estimada a
las medias de los encuestados y los no encuestados. . . . . . . . . . . . . . . . . 487
17.3 Transición de casos de muestra a través de los estados de una encuesta bajo
un muestreo doble para el diseño de no respuesta. . . . . . . . . . . . . . . . . . . . . 489
17.4 Flujo de casos de muestra a través de una respuesta simulada de dos fases
diseño. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492
17.5 Flujo de casos de muestra de diseño receptivo asignados a la encuesta
condición 1(1) en la fase uno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493
17.6 Transición de casos de muestra a través de los estados de una encuesta bajo
un diseño multifásico general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495
Capítulo 1
Una descripción general del diseño y la
ponderación de la muestra
Este es un libro práctico. Muchas técnicas utilizadas por los encuestadores no están
cubiertas por los libros de texto estándar, pero son necesarias para realizar un trabajo
profesional al diseñar muestras y preparar datos para análisis. En este libro, presentamos
una colección de métodos que hemos encontrado más útiles en nuestro propio trabajo
práctico. Dado que el software de computadora es esencial para aplicar las técnicas, se
proporciona un código de ejemplo en todo momento.
Suponemos que la mayoría de los lectores estarán familiarizados con los diversos
factores que afectan las decisiones básicas de diseño de encuestas. Para aquellos,
recomendamos saltarse la siguiente sección y leer la guía de capítulos (Sección 1.2) en su
lugar. Para todos los demás, secc. 1.1 proporcionará una breve reseña sobre dónde encaja
el diseño y la ponderación de la muestra en la gran tarea de diseñar una encuesta. Aquí se
define cierta terminología y notación asociada que resultará útil a lo largo del libro. El
glosario del Apéndice A es una lista más completa de la notación utilizada a lo largo del
libro. Algunos temas, como el muestreo multietapa, requieren una notación bastante
elaborada (y difícil de recordar). El Glosario de notación será una referencia útil para la
mayoría de los lectores.
(6) se puede diseñar y seleccionar una muestra. A lo largo de todos estos pasos, se deben
tomar decisiones de compensación en función del presupuesto y las limitaciones de tiempo
para completar el trabajo.
Libros introductorios como Metodología de encuestas (Groves et al. 2004) o Introducción
a la calidad de las encuestas (Biemer y Lyberg 2003) cubren muy bien estos temas y se
recomiendan como suplementos al material presentado en este libro. Un enfoque principal
aquí es el sexto paso y, por lo tanto, solo comentaremos brevemente los otros cinco en la
medida en que sean necesarios para comprender nuestra discusión sobre el diseño, la
selección y la ponderación de la muestra.
(1) Los objetivos del estudio pueden establecerse de manera muy general, en cuyo
caso es responsabilidad del investigador de la encuesta ayudar al patrocinador (es decir, el
cliente) a especificar algunas metas medibles. Aunque parece obvio que nadie emprendería
la recopilación de datos sin intenciones bien planificadas, a menudo no es así. Parte del
oficio del diseño de encuestas es traducir un problema temático en un problema de
encuesta. Esto puede implicar convertir ideas vagas como las siguientes en medidas
concretas: “medir las actitudes de los empleados de una empresa”; “determinar qué tan
saludable es un grupo demográfico en particular, como las personas con un ingreso familiar
por debajo de la línea de pobreza”; “decidir qué tan bien un sistema escolar local está
sirviendo a sus estudiantes”. Algunos objetivos son muy amplios y muy difíciles de
operacionalizar. Por ejemplo, medir los cambios de precios en todos los sectores de la
economía de una nación es un objetivo de la mayoría de los gobiernos occidentales. Los
índices de precios al consumidor, al productor y de importación/exportación suelen ser los
vehículos para hacerlo. La teoría económica para un índice de costo de vida (COLI) se
formula a nivel de un solo consumidor. Por otro lado, un índice de precios está destinado a
aplicarse a un gran grupo de consumidores. La traducción del problema de la materia en un
problema de encuesta requiere decidir cuál de algunos índices de precios alternativos se
aproxima mejor al COLI. El objetivo del estudio afectará todos los demás aspectos del
diseño de la encuesta.
(2) No importa si se enfrenta a un objetivo simple o complejo, para determinar qué tipo
de muestra y el tamaño de muestra asociado son adecuados para lograr el objetivo, los
conceptos teóricos en estudio deben traducirse en constructos que puedan medirse a
través de una encuesta, y los objetivos mismos deben ser cuantificados de alguna manera.
Una
http://www.census.gov/cps/. http://
2
www.statcan.gc.ca/.
Machine Translated by Google
trabajo. A menudo es necesario hacer concesiones entre los conceptos y los elementos
específicos que se pueden recopilar. Por ejemplo, la siguiente pregunta está tomada del
instrumento de encuesta de la Encuesta Nacional de Entrevistas de Salud (NHIS)3 de EE. UU .:
¿ALGUNA VEZ un médico u otro profesional de la salud le ha dicho que tenía una
enfermedad coronaria?
Dado que la comprensión de un encuestado sobre sus propios problemas de salud puede ser
defectuosa, el método más válido podría ser preguntar directamente a un médico si el
encuestado tiene una enfermedad cardíaca. Pero preguntarle al encuestado parece ser un
compromiso destinado a reducir los costos.
Una vez que se han identificado las medidas clave, se pueden establecer objetivos
estadísticos. Los objetivos suelen establecerse en términos de medidas de precisión. Las
estimaciones de precisión incluyen errores estándar (SE) o errores estándar relativos, definidos
como el SE de un estimador dividido por el parámetro de población que se está estimando. Un
error estándar relativo de un estimador también se denomina coeficiente de variación (CV).
Usamos el término CV en todo el libro. Un objetivo de precisión podría ser estimar la proporción
de adultos con enfermedad coronaria con un CV de 0,05, es decir, el error estándar de la
proporción estimada es del 5 % de la proporción misma. Estos objetivos se pueden establecer
para muchas variables diferentes.
(3) Especificar una población objetivo también requiere algo de reflexión. Una población
objetivo es el conjunto de unidades para las que se pueden obtener mediciones y puede diferir
de la población (inferencial) para la que realmente se desean inferencias científicas. Por
ejemplo, al hacer una encuesta para medir la relación entre el tabaquismo y los problemas de
salud, los investigadores de la salud están interesados en las relaciones que existen en general
y no solo en el año particular de recopilación de datos. Las unidades analíticas (o unidades de
observación) son los miembros de la población objetivo que están sujetos a las mediciones de
la encuesta. Adicionalmente, el estudio podrá especificar el análisis de unidades que tengan
características particulares, lo que se conoce como criterios de elegibilidad. Por ejemplo, una
encuesta de métodos de atención prenatal puede incluir solo mujeres de 18 a 50 años, y un
estudio para estimar las tasas de anemia falciforme en los EE. UU. puede incluir solo
afroamericanos.
(4) Rara vez hay una coincidencia uno a uno entre las poblaciones objetivo y los marcos de
muestreo disponibles para los investigadores. Si existe un marco con información de contacto,
como domicilio o direcciones de correo electrónico, entonces puede ser relativamente rápido y
económico seleccionar una muestra y distribuir encuestas impresas o electrónicas. Dichos
marcos suelen existir para miembros de una asociación profesional, empleados de una
empresa, personal militar y habitantes de los países escandinavos con registros de población
total. Dependiendo del patrocinador de la encuesta, estos marcos pueden o no estar disponibles
para el muestreo. En ausencia de marcos de muestreo fácilmente disponibles, a menudo se
utilizan muestras de probabilidad de área. Esos toman algún tiempo para diseñar y seleccionar
(a menos que se pueda usar una muestra existente o un marco de lista de direcciones).
3
http://www.cdc.gov/nchs/nhis.htm.
Machine Translated by Google
Al momento de escribir este artículo, existe un marco de muestreo bastante nuevo en los EE.
UU. que se basa en el archivo de secuencia de entrega (DSF) del Servicio Postal de EE. UU.
(USPS) (Iannacchione et al. 2003; Iannacchione 2011; Link et al. 2008). El DSF es un archivo
computarizado que contiene casi todas las direcciones de puntos de entrega atendidas por USPS.
Algunos investigadores utilizan el DSF como reemplazo de las encuestas telefónicas de marcación
de dígitos aleatorios (RDD) o como complemento de las listas de campo recopiladas en muestras
de área (ver más abajo). Los proveedores comerciales de muestras de encuestas venden
versiones "mejoradas" del DSF que, para muchas direcciones, pueden incluir un número de
teléfono fijo, un nombre asociado con la dirección, un indicador de apellido en español, la edad
estimada del cabeza de familia, así como algunos datos geocodificados. (es decir, latitud y
longitud) e información del sector censal. Si son precisos, estos elementos pueden mejorar la
eficiencia de una muestra al permitir la selección de diferentes grupos.
(5) Una de las decisiones críticas que se deben tomar y que tiene una relación directa con el
diseño de la muestra es el método de recopilación de datos. El método de recopilación de datos
se elige sopesando factores como el presupuesto, el cronograma, el tipo de datos recopilados, la
disponibilidad del marco, la viabilidad de usar el método con miembros de la población objetivo y
las tasas de resultados esperados (p. ej., tasas de contacto y respuesta). para diferentes métodos.
La recolección de muestras de sangre además de las respuestas al cuestionario podría sugerir
una entrevista en persona con un entrevistador de campo acompañado o también capacitado
como flebotomista. Un estudio de estudiantes de secundaria puede, por ejemplo, incluir la
recopilación de datos a través de la Web en un salón de clases. Sin embargo, la recopilación de
datos a través de un cuestionario autoadministrado (en papel) no sería práctico para una población
analfabeta. Hoy en día, muchas encuestas consideran el uso de múltiples modos para encontrar
el equilibrio adecuado entre el costo, la puntualidad y la calidad de los datos.
• Efecto de diseño (deff): la relación entre la varianza de un estimador bajo un diseño complejo y
la varianza que se habría obtenido de una muestra aleatoria simple (srs) del mismo número
de unidades. Simbólicamente, V(ÿ ˆ) deff ˆÿ = donde ˆÿ es un estimador de algún parámetro, V
denota la varianza de Vsrs(ÿ ˆ) bajo cualquier diseño de muestra que se utilice
(muestra aleatoria simple
Vsrs
estratificada,
es la varianza
muestra
srs del
porestimador
conglomerados
srs delen
mismo
dos etapas,
parámetro.
etc.), y
Generalmente se utiliza un srs seleccionado con reemplazo (srswr) para el
cálculo del denominador. La muestra
Machine Translated by Google
el tamaño de Vsrs es el mismo que el tamaño de muestra de las unidades utilizadas en la estimación
del numerador.
• Tamaño efectivo de la muestra (neff): el número de unidades en la muestra dividido por el deff. Este es el
tamaño de la muestra para un srswr que arroja la misma varianza para una estimación que la varianza
obtenida del diseño de muestra utilizado para recolectar los datos.
Como se desprende de la definición, el deff es específico de un estimador particular, como una media,
un total, un cuantil o cualquier otra cosa. Las personas a menudo tienen en mente los promedios cuando
usan deff s, pero la idea se puede aplicar de manera más general. Por lo general, la varianza en el
denominador de un deff es para un muestreo aleatorio simple con reemplazo, aunque podría usarse sin
reemplazo.
Cuál usar es principalmente una cuestión de preferencia personal. Sin embargo, dado que los valores de
las varianzas con y sin reemplazo pueden ser bastante diferentes cuando la fracción de muestreo es grande,
es importante saber cuál se usa en el denominador de cualquier deff que se le suministre. Los deff y neff
son especialmente útiles cuando se calculan tamaños de muestra totales para muestras agrupadas.
Sin embargo, a menudo puede ser difícil obtener buenas estimaciones de deff y neff y es probable que
varíen según el elemento de la encuesta.
(6) Con un método de recopilación de datos en mente y conocimiento de los marcos de muestreo
disponibles, el investigador de la encuesta determina a continuación el tipo apropiado de diseño de muestreo
aleatorio (mecanismo). Los diseños generales que consideramos en nuestro texto se pueden categorizar
como uno de estos tres:
seleccionan de listas construidas “en el sitio” para unidades agregadas de una etapa de diseño anterior (p.
ej., estudiantes inscritos activamente en las escuelas). • Diseños multifase estratificados: se selecciona
una muestra primaria de unidades del marco designado (fase uno), y las muestras de las unidades de
la fase uno se seleccionan en las fases subsiguientes utilizando la información obtenida sobre las unidades
en la fase uno (p. ej., un estudio donde una submuestra de los que no respondieron se vuelve a conectar
utilizando un modo diferente de recopilación de datos, o un estudio de individuos que se clasifican como
portadores de alguna afección en función de las pruebas administradas en una fase anterior del diseño).
Cada uno de los tres diseños generales anteriores suele implicar un muestreo probabilístico. S¨arndal
et al. (1992, Secc. 1.3) dan una definición formal de muestra probabilística, que parafraseamos aquí. Una
muestra probabilística de una población finita particular es aquella que satisface cuatro requisitos:
(i) Se puede definir un conjunto de muestras que es posible obtener con el procedimiento de muestreo.
(ii) Cada muestra posible s tiene una probabilidad conocida de selección, p (s).
Machine Translated by Google
(iii) Cada elemento de la población objetivo tiene una probabilidad distinta de cero de
selección.
(iv) Se selecciona un conjunto de elementos de la muestra con la probabilidad asociada con el
conjunto. Se pueden calcular los pesos de los elementos de la muestra que pretenden
proyectar la muestra a la población objetivo.
Sin embargo, un diseñador de encuestas a menudo pierde el control sobre qué conjunto de
elementos realmente proporciona datos debido a la falta de respuesta y otras pérdidas de muestras.
También hay muestras que no son muestras probabilísticas, ni siquiera inicialmente. Por ejemplo,
las personas que se ofrecen como voluntarias para formar parte de un panel de encuestas por
Internet no constituyen una muestra seleccionada con probabilidades conocidas. Las inferencias de
tales muestras pueden ser posibles si la muestra no probabilística se puede vincular a la parte de la
población que no es muestra a través de un modelo.
La decisión de utilizar un diseño de una o varias etapas depende en parte del marco muestral
disponible. Hay dos tipos generales de marcos de muestreo disponibles para la selección de
unidades: directa e indirecta. Los marcos de muestreo que contienen una lista de las unidades de
observación se denominan marco de lista directa. Estos marcos facilitan los diseños de una sola
etapa. Los marcos indirectos, sin embargo, permiten el acceso inicial solo a grupos de unidades.
Con un diseño de etapas múltiples, las unidades se seleccionan dentro de los grupos, a menudo
denominados conglomerados. Por ejemplo, en una encuesta de hogares, una práctica común es
seleccionar primero una muestra de áreas geográficas, denominadas unidades primarias de muestreo
(UPM). Dentro de las UPM de muestra, los hogares pueden seleccionarse de (i) listas compiladas
por personal de investigación (llamados encargados de la lista) que recorren el área (en un proceso
conocido como conteo y listado) o (ii) listas mantenidas por organizaciones como el USPS.
Si no se dispone de una lista de unidades elegibles para una población objetivo, es necesario
algún tipo de proceso de selección. La selección de hogares con niños menores de tres años podría
realizarse llamando a una muestra de números de teléfono fijos y administrando preguntas de
selección para determinar si el hogar es elegible (es decir, contiene al menos un niño menor de tres
años). Este método se utiliza a menudo, pero adolece de varios problemas. Uno es el hecho de que
no todos los hogares elegibles tienen teléfonos fijos y, por lo tanto, no se verían en el proceso de
selección. Hasta hace poco, los teléfonos móviles no solían incluirse en la mayoría de las encuestas
telefónicas de EE. UU. Otro problema está asociado con la gran cantidad de números de teléfono
necesarios para detectar una subpoblación poco común. Un ejemplo de cuán oneroso puede ser el
proceso de detección es la Encuesta Nacional de Inmunización (NIS).4 El objetivo de la NIS es
estimar las proporciones de niños de 19 a 35 meses en los EE. UU. que han recibido las vacunas
recomendadas para enfermedades infantiles como difteria, tos ferina, poliovirus, sarampión y
hepatitis. En 2002 se llamaron 2,06 millones de números de teléfono. De ellos, 1,02 millones fueron
examinados con éxito para determinar si tenían un hijo de edad elegible. Se identificaron alrededor
de 34.000 hogares que tenían uno o más niños incluidos en el estudio, una tasa de elegibilidad del
3,4 % entre los hogares examinados con éxito (Smith et al. 2005).
4
http://www.cdc.gov/nis/.
Machine Translated by Google
Idealmente, el marco muestral cubre toda la población objetivo. Una muestra telefónica
que solo cubre líneas fijas claramente no alcanza ese objetivo, pero también hay otras
razones más sutiles para los errores de cobertura. En principio, una muestra de área que
utilice toda el área de tierra dentro del alcance de la encuesta debe tener una cobertura
del 100 %. Sin embargo, esto no funciona en la práctica. Kostanich y Dippo (2002, Cap.
16) dan algunas estimaciones de proporciones de diferentes grupos demográficos que
están cubiertos por la CPS. En la CPS de 2002, los varones jóvenes negros e hispanos
tenían tasas de cobertura del 70% al 80%, usando como puntos de referencia las
proyecciones demográficas del censo decenal de 2000 (US Census Bureau 2002). Las
razones de esta falta de cobertura son especulativas, pero pueden incluir la posibilidad
de que algunos de estos jóvenes no tengan domicilios permanentes o que otros miembros
del hogar no quieran divulgar quién vive en el domicilio de la muestra (Tourangeau et al.
2012). En áreas urbanas, también puede ser difícil identificar todos los hogares debido a
las configuraciones peculiares de los edificios de apartamentos, la imposibilidad de
ingresar a los edificios con protección de seguridad u otras razones.
El libro se divide en cuatro partes: I: Diseño de encuestas por muestreo de una sola
etapa (capítulos 2 a 7), II: Diseños de etapas múltiples (capítulos 8 a 11), III:
Ponderaciones y análisis de encuestas (capítulos 12 a 16) , IV: Otros Temas. Las Partes
I-III comienzan con descripciones de proyectos de ejemplo similares a los que se
encuentran en la práctica. Después de presentar cada proyecto, presentamos las
herramientas en los capítulos siguientes para realizar el trabajo. El último capítulo de las
Partes I–III (Capítulos 7, 11 y 16) proporciona una forma de cumplir con los objetivos del
proyecto de ejemplo. Algo que cualquier lector debería apreciar después de trabajar con
estos proyectos es que las soluciones no son únicas. Es probable que haya muchas
formas de diseñar una muestra y crear ponderaciones que, al menos aproximadamente,
alcancen los objetivos establecidos. Esta falta de singularidad es una de las muchas
cosas que separan los problemas de tarea sin vida en un libro de matemáticas de las aplicaciones del m
Machine Translated by Google
Los profesionales deben sentirse cómodos con las soluciones que proponen. Ellos
necesita ser capaz de defender las decisiones tomadas en el camino y comprender
las consecuencias que tendrían las decisiones de diseño alternativas. este libro
prepararte para tales tareas.
La Parte I aborda técnicas que son valiosas en el diseño de muestras de una sola etapa. El Capítulo
2 presenta un proyecto sencillo para diseñar una encuesta de personal. Los capítulos siguientes se
concentran en los métodos para determinar la
tamaño de la muestra y su distribución entre los diferentes grupos de la población. El capítulo 3 presenta
una variedad de formas de calcular el tamaño de una muestra para cumplir con los requisitos establecidos .
objetivos de precisión para las estimaciones de la población total. El Capítulo 4 cubre varios métodos para
calcular los tamaños de muestra en función de los requisitos de potencia. Usando
El poder como criterio para el cálculo del tamaño de la muestra es más común en aplicaciones
epidemiológicas. Aquí el objetivo es encontrar un tamaño de muestra que detecte
con alta probabilidad alguna diferencia preespecificada en medias, proporciones, etc.,
entre algunos subgrupos o entre grupos en dos periodos de tiempo diferentes.
Los capítulos 3 y 4 se enfocan en las decisiones sobre el tamaño de la muestra tomadas con base en la optimización
precisión o potencia para una sola variable a la vez. Para encuestas con un muy
propósito específico, considerar una sola variable es realista. Sin embargo, muchas encuestas son
multipropósito. No se recopila una, sino varias variables clave a través de
una variedad de subgrupos en la población. Por ejemplo, en las encuestas de salud,
se hacen preguntas sobre una variedad de enfermedades y diferencias entre razas
o grupos socioeconómicos son de interés sustantivo. En tales encuestas, los analistas
puede usar los datos de maneras que no fueron previstas por los diseñadores de la encuesta. En
De hecho, muchas grandes encuestas patrocinadas por el gobierno acumulan una serie de variables para
dar a los analistas la libertad de explorar relaciones y construir modelos. Reunirse
múltiples objetivos y respetar las restricciones de costos, los métodos en los Caps. 3 y 4
podría aplicarse por ensayo y error con la esperanza de encontrar una solución aceptable. Un mejor
enfoque es usar técnicas de programación matemática que
permitir la optimización a través de múltiples variables.
Por lo tanto, el capítulo 5 presenta algunos métodos de programación multicriterio que
se puede utilizar para resolver estos problemas más complicados. Investigadores de operaciones
y los científicos de gestión han utilizado durante mucho tiempo estos algoritmos, pero parecen
ser menos conocido entre los diseñadores de encuestas. Estos algoritmos permiten más
tratamiento realista de complicados problemas de asignación que implican múltiples
variables de respuesta y restricciones en costos, precisión y tamaños de muestra para
subgrupos. Sin estos métodos, la asignación de la muestra es una propuesta aleatoria que puede ser
subóptima de varias maneras. En décadas pasadas, había que comprar software costoso y especializado
para resolver problemas de optimización.
Sin embargo, ahora hay software disponible para resolver problemas de asignación bastante complicados.
Incluso en las mejores circunstancias, no todas las personas, empresas,
u otra unidad muestreada en una encuesta responderá al final. Como se discutió en
Cap. 6, es necesario realizar ajustes en el tamaño de la muestra inicial para tener en cuenta
por estas pérdidas.
Algunas muestras deben agruparse para recopilar datos de manera eficiente
y por lo tanto requieren decisiones de diseño de la muestra en múltiples etapas. Este es el
Machine Translated by Google
linealización o estimadores exactos, por ejemplo, los campos que identifican los estratos y las
UPM deben incluirse en el archivo de datos. Los procedimientos de ponderación utilizados en
muchas encuestas son bastante elaborados y generan estimadores complejos. Es importante
para los analistas comprender si un método determinado refleja la complejidad de la creación
de ponderaciones y qué omite, en todo caso. Hay una serie de paquetes de software disponibles
que estimarán las varianzas y los errores estándar de las estimaciones de la encuesta. Cubrimos
algunos de estos en el Cap. 15.
La Parte IV cubre dos temas especializados: muestreo multifásico y control de calidad. Si se
van a muestrear subgrupos a diferentes tasas para producir tamaños de muestra objetivo y no
se dispone de una lista confiable de las unidades en estos subgrupos antes del muestreo, se
puede usar la técnica de muestreo multifásico como se describe en el Cap. 17. Se selecciona
una muestra inicial grande y se determina la identidad del grupo para cada unidad a través de
un proceso de selección. Luego se seleccionan submuestras de los grupos a tasas diseñadas
para producir los tamaños de muestra deseados.
El muestreo multifase se puede combinar con el muestreo multietapa como una forma de
controlar los costos mientras se logran los tamaños de muestra objetivo. Otro diseño de encuesta
multifase de uso común implica el submuestreo de los no encuestados de la fase uno para un
contacto de la fase dos, normalmente con un modo de recopilación de datos diferente al utilizado
inicialmente.
Una parte esencial de una buena práctica de encuesta es controlar la calidad de todo lo que
se hace. Los errores son inevitables, pero es necesario desarrollar procedimientos abiertos
para tratar de evitarlos. El Capítulo 18 analiza algunas medidas generales de control de calidad
que se pueden utilizar en las etapas de planificación y procesamiento de datos de una encuesta.
Estas cosas las hacen todas las organizaciones de encuestas profesionales, pero rara vez se
abordan en los libros sobre muestreo. El control de calidad (QC) de las operaciones estadísticas
va más allá de la simple verificación del trabajo para asegurarse de que se realiza correctamente.
Incluye la planificación anticipada para garantizar que se identifiquen todas las tareas necesarias
para completar un proyecto, que se enumere y se respete el orden de las tareas, y que el
cronograma propuesto sea factible. El seguimiento del progreso de la recopilación de datos a lo
largo del tiempo es otro paso importante. El Capítulo 18 resume varias tasas que se pueden
usar, incluyendo contacto, respuesta y equilibrio en auxiliares.
Es importante documentar todas las tareas para registrar exactamente lo que se hizo y poder
retroceder y rehacer algunas tareas si es necesario. En proyectos pequeños, la documentación
puede ser breve, pero en proyectos más grandes, se necesitan especificaciones escritas
detalladas para describir los pasos del muestreo, la ponderación y otras tareas estadísticas.
Tener rutinas de software estándar para usar en el muestreo y la ponderación tiene enormes
ventajas de control de calidad. El software puede estar escrito por la organización que realiza
las encuestas o puede ser un software comercial estándar. En cualquier caso, el objetivo es
utilizar rutinas depuradas que incluyan controles de calidad estándar.
La mayoría de los ejemplos de código están escritos en lenguaje R (R Core Team 2012),
que está disponible de forma gratuita. Se proporcionan materiales adicionales en los Apéndices.
El Apéndice C contiene una introducción al lenguaje de programación R y las funciones
desarrolladas para los ejemplos de los capítulos. Tenga en cuenta que, a menos que se
especifique lo contrario, cualquier función de R a la que se haga referencia en el texto se encuentra en PracToo
Machine Translated by Google
Parte I
Diseño de una muestra de una sola etapa
Encuestas
Machine Translated by Google
Capitulo 2
Proyecto 1: Diseño de una sola etapa
Encuesta de Personal
Nuestro objetivo principal es equipar a los investigadores de encuestas con las herramientas
necesarias para diseñar y ponderar muestras de encuestas. Este capítulo ofrece el primero de
varios proyectos que reflejan algunas de las complejidades que se encuentran en el trabajo
aplicado. Los tres objetivos de este proyecto son:
• Determinar la asignación de una muestra de una sola etapa a los estratos en una encuesta
multipropósito, teniendo en cuenta los objetivos de precisión especificados para diferentes
estimaciones y diferentes tasas de elegibilidad y respuesta para los subgrupos. • Examinar
qué tan sensible es la precisión de las estimaciones a suposiciones incorrectas
ciones sobre las tasas de
respuesta. • Redactar un informe técnico que describa el diseño de la muestra.
A medida que avanza en los siguientes capítulos de la Parte I del libro, le sugerimos que
vuelva a este capítulo periódicamente, refresque su memoria sobre los objetivos del Proyecto 1
y piense en cómo los métodos de los Caps. 3–6 se pueden utilizar en el desarrollo del diseño de
muestreo. En este capítulo, describimos la tarea que debería poder resolver después de leer la
Parte I.
dieciséis
2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única
era controlar el muestreo para que no se les pidiera a los empleados continuos que respondieran a
todas las encuestas. En el Ciclo 5, se desea una muestra más eficiente que mejorará las estimaciones
para ciertos grupos de empleados. El Consejo Superior requiere un informe de su equipo de diseño
que especifique el número total de empleados que se seleccionarán, así como su distribución por un
conjunto de características que se indican a continuación. Desean que la calidad y precisión de las
estimaciones sea mejor que la encuesta del Ciclo 4. Tenga en cuenta que esta es la primera
encuesta en la que el Consejo Superior ha buscado la dirección de los estadísticos de muestreo
sobre la asignación de la muestra.
P5.
En general, estoy satisfecho con VNUV como empleador en este momento.
P12.
Existe un vínculo claro entre mi desempeño laboral y mi salario en VNUV.
P15.
En general, creo que me pagan de manera justa en comparación con las personas de otras
organizaciones que tienen trabajos similares al mío.
Tenga en cuenta que las opciones de respuesta seguirán siendo las mismas que en años anteriores,
es decir, una escala Likert de cinco niveles: muy de acuerdo, de acuerdo, neutral, en desacuerdo y
muy en desacuerdo. También está disponible una sexta opción de respuesta, no sabe/no corresponde.
Después de recibir el documento de especificaciones del estudio del Consejo Superior, se convoca
un equipo de diseño para analizar los pasos necesarios para completar el trabajo asignado.
Machine Translated by Google
Como suele ser el caso cuando se revisan las especificaciones de un patrocinador para un
proyecto, había una serie de cuestiones que necesitaban aclaración. Con base en la
discusión inicial, el equipo de diseño envió las siguientes preguntas aclaratorias al Consejo
Superior y recibió las respuestas que se indican a continuación:
3. Estamos interesados en clasificar una diferencia entre dos estimaciones como sustancialmente
significativa para VNUV. ¿Podría proporcionarnos una diferencia significativa? Respuesta: Al menos
una diferencia de cinco puntos porcentuales entre dos conjuntos de estimaciones del clima de los
empleados es una diferencia significativa. También resulta interesante una diferencia de 2 a 3 en el
número medio de clases de formación.
4. ¿La proporción que responde “totalmente de acuerdo” o “de acuerdo” con las tres preguntas debe
incluir o excluir la categoría de respuesta “no sé/no corresponde”? Respuesta: Excluir.
5. ¿Cuán precisas deben ser las estimaciones individuales para esta ronda de la encuesta? La calidad
de los datos de versiones anteriores de la encuesta climática se ha medido en términos de
coeficientes de variación (CV) estimados.
Respuesta: Los CV objetivo de las estimaciones generales por unidad de negocio, por antigüedad
dentro de la unidad de negocio y por grado salarial dentro de la unidad de negocio se enumeran en
la Tabla 2.1 a continuación.
6. ¿Existen requisitos adicionales para el diseño, como estimaciones por género y por número de
dependientes además de estimaciones por unidad de negocio, unidad de negocio por grado de
salario y unidad de negocio por antigüedad?
Respuesta: no
7. El informe del ciclo 4 de la encuesta climática VNUV no detalla el diseño de muestreo anterior. El
equipo de diseño asume que la muestra del Ciclo 4 se extrajo al azar de una lista actualizada de
empleados dentro de ciertos subgrupos de empleados (es decir, un diseño de muestra aleatoria
simple estratificada). ¿Es esto correcto? Si es así, ¿dónde podríamos ubicar la información
estratificadora?
Respuesta: No se utilizaron estratos en el último diseño. El expediente de los empleados anteriores
fue ordenado por un número aleatorio y se seleccionó una muestra sistemática de igual probabilidad.
8. ¿Se espera que las tasas de elegibilidad y respuesta sean las mismas en el Ciclo 5 que en el Ciclo
4? Respuesta: Las tasas de elegibilidad deberían ser más o menos las mismas, pero no estamos
seguros de las tasas de respuesta. Nos gustaría entender qué tan sensibles serán los CV si las
tasas de respuesta resultan ser más bajas que las del Ciclo 4.
HR proporcionó al equipo dos archivos de datos. El primer archivo contenía información sobre todos los
empleados actuales de VNUV, como la identificación del empleado, la división, la unidad comercial, la
permanencia en meses, el estado de medio tiempo/tiempo completo y el estado de empleado temporal/
permanente. El equipo eliminó todos los registros de empleados que actualmente se sabe que no son
elegibles para la encuesta, creó una versión dicotómica de antigüedad y calculó recuentos de población
para los 18 estratos de diseño (Tabla 2.2).
El segundo archivo contenía un registro para cada empleado seleccionado para la encuesta de clima
anterior. Además de los códigos de estado de la encuesta (no elegible, encuestado elegible y no
encuestado elegible) y las respuestas de la encuesta,
Machine Translated by Google
Tabla 2.1: Coeficiente de variación objetivo por dominio de informe: encuesta climática VNUV
ciclo 5, división de encuestas.
Tabla 2.2: Distribución actual de empleados elegibles por unidad de negocio, grado de salario,
y tenencia: encuesta climática VNUV, ciclo 5, división de encuestas.
unidad de negocio
este archivo incluía las características que se deben utilizar para definir el muestreo
estratos en la nueva encuesta. Sin embargo, este archivo no contenía los nombres de los empleados.
u otra información de identificación para mantener la confidencialidad prometida a
todos los participantes de la encuesta. Los miembros de la muestra se clasificaron como no elegibles si, por
ejemplo, se habían transferido a otra unidad de negocios dentro de VNUV o
se retiró después de que se seleccionó la muestra pero antes de que se administrara la encuesta.
El equipo aisló los registros elegibles de la División de encuestas, creó el muestreo
estratos definidos para el diseño de la encuesta climática actual, y creó el binario
variables de análisis para Q5, Q12 y Q15 del original de cinco categorías
preguntas (Cuadro 2.3).
Tabla 2.3: Documentación para recodificar las respuestas de las preguntas a la variable de análisis binario: encuesta
climática VNUV, ciclo 4, división de la encuesta.
Tabla 2.4: Distribución del estado de respuesta por unidad de negocio, grado salarial y antigüedad:
Encuesta climática VNUV ciclo 4, división de encuestas.
Total Elegible
a Los miembros de la muestra no elegibles fueron aquellos empleados seleccionados para la encuesta del ciclo 4
que se jubiló o dejó la empresa antes de la recopilación de datos
b
Porcentaje no ponderado de la muestra total dentro de cada estrato de diseño (fila)
c Porcentaje no ponderado de la muestra elegible total dentro de cada estrato de diseño (fila)
Machine Translated by Google
2.4 Documentación 21
Tabla 2.5: Estimaciones para cuatro preguntas clave por unidad de negocio, grado salarial,
y tenencia: encuesta climática VNUV, ciclo 4, división de encuestas.
un error estándar
2.4 Documentación
1. Resumen Ejecutivo
Tabla 2.6: Estimaciones por unidad de negocio, grado salarial y antigüedad: VNUV
encuesta climática ciclo 4, división de encuestas.
2. Diseño de la muestra
• Requisitos de optimización
– Detalles de optimización incluyendo restricciones y presupuesto.
– Detallar los tamaños mínimos de dominio y la mecánica utilizada para determinar
los tamaños
Machine Translated by Google
• Resultados de optimización
– Resultados: tamaño mínimo de muestra de encuestados por estrato
– Tamaños de muestra marginales para dominios de informes clave
– Precisión estimada lograda por los resultados de optimización
• Ajustes por inflación a la solución de asignación
– Ajustes por falta de respuesta
– Ajustes para miembros de la muestra no elegibles •
Asignación final de la muestra
– Tamaños de muestra marginales para dominios de informes clave
• Análisis de sensibilidad
– Resultados de comparar las desviaciones con la asignación después de introducir
cambios en el sistema de optimización
4. Apéndice
En el Cap. 7. Los métodos discutidos en los capítulos intermedios le proporcionarán las herramientas
para resolver el problema de asignación usted mismo. Revisaremos periódicamente las discusiones
del equipo de diseño de VNUV antes del Cap. 7 para proporcionar información sobre las decisiones
y procedimientos del equipo de diseño.
Machine Translated by Google
Capítulo 3
Diseño y tamaño de la muestra para
encuestas de una sola etapa
Una de las preguntas más básicas que debe enfrentar un diseñador de encuestas es,
¿cuántas? Esto no es fácil de responder en una encuesta con múltiples objetivos y estimaciones.
Un tamaño de muestra que sea adecuado para estimar la proporción de personas que visitaron
a un médico al menos una vez el año pasado puede ser muy diferente del tamaño de muestra
necesario para estimar la proporción de personas con algún trastorno extremadamente raro
como la enfermedad de Addison. Es probable que ninguno de estos tamaños de muestra sea
el mismo que se requiere para estimar el salario promedio por persona.
Esta sección analiza métodos para estimar tamaños de muestra para diseños de una sola
etapa con un objetivo especificado en el nivel de precisión para una variable de análisis clave.
Dentro del texto, consideramos varios planes de muestreo probabilístico de uso común. Los
métodos aplicados con este diseño de encuesta simple son la base para comprender su
aplicación en entornos más complejos, como el proyecto incluido en el Cap. 2. Más adelante
en el cap. 5 cubrimos la programación matemática, que es la mejor herramienta para el cálculo
del tamaño de la muestra para encuestas complicadas de objetivos múltiples. La determinación
del tamaño de la muestra para muestras de área requiere un cálculo del tamaño de la muestra
para cada etapa del diseño y se analiza en el Cap. 9.
Antes de entrar en los detalles de los cálculos del tamaño de la muestra, se necesita una
palabra sobre la terminología:
• A los matemáticos les gusta distinguir entre un estimador, que es una cantidad aleatoria, y
una estimación, su valor en una muestra particular. Esta distinción no tiene importancia
para nuestros propósitos y usaremos los términos indistintamente. • Usaremos la frase
desviación estándar de población para referirnos a la raíz cuadrada de una varianza de
población finita. Por ejemplo, la desviación estándar de una variable de análisis Y es S = ÿ S2
donde la varianza poblacional, o varianza unitaria, es S2 = /(N ÿ 1) donde ¯yU = i=1 yi /N es
la media poblacional finita y N es el número de elementos en la población.
2 norte
(yi ÿ y¯U )
norte yo = 1
= V ˆÿ , dónde
es una cantidad teórica que debe estimarse a partir de una muestra. Si estimamos V ˆÿ por
v ˆÿ entonces el error estándar, estimado de la estimación
Machine Translated by Google
Error estándar.
• El coeficiente de variación (CV) de una estimación ˆÿ se define como CV ˆÿ =
estimar ˆÿ, asumiendo que ˆÿ es insesgado. Esto también debe estimarse a partir de una muestra
relativo estimado. Tenga en cuenta que los profesionales a menudo dirán "error estándar" cuando
se refieren a "error estándar estimado" y CV cuando se refieren a "CV estimado".
• Una variable auxiliar es una covariable que está relacionada con una o más de las variables a
recolectar en el estudio. Una variable auxiliar puede estar disponible para cada unidad en un marco
muestral, en cuyo caso, puede usarse para diseñar una muestra eficiente. Si la población total de
un auxiliar está disponible de alguna fuente fuera de la encuesta, la variable auxiliar puede usarse
en la estimación. Para la estimación, tener el valor de uno o más auxiliares solo para los casos de
muestra suele ser suficiente siempre que se disponga de los totales de la población.
que son una función de los parámetros de la población se escriben con mayúscula, por ejemplo, V ˆÿ ,
Mientras todos los participantes en un proyecto entiendan las frases abreviadas de la misma
manera, no habrá confusión. Sin embargo, puede resultarle útil verificar de vez en cuando que su
comprensión es la misma que la de sus colegas. En el resto de esta sección, calcularemos los tamaños
de muestra utilizando cantidades teóricas como CV ˆÿ. Sin embargo, tenga en cuenta que precisamente
Machine Translated by Google
Para determinar el tamaño de una muestra, se debe adoptar algún criterio para decidir qué tan
grande es lo suficientemente grande. Esta es una cuestión de qué tan preciso desea que sea
una estimación. Discutimos varios criterios de precisión que se pueden usar en las secciones
siguientes:
• Error estándar de una estimación: establecer un SE objetivo requiere que se haga un juicio
sobre un nivel aceptable de SE. Esto puede ser difícil porque un SE tiene las mismas
unidades que la variable de análisis (p. ej., personas, dólares, miligramos de mercurio). •
Coeficiente de variación: los CV son más útiles que los SE porque no tienen unidades de
medida. Los valores objetivo se pueden establecer sin tener en cuenta la escala de una variable
de análisis. • Margen de error (MOE): está relacionado con la amplitud de un intervalo de
confianza. Los MOE son útiles porque los patrocinadores de la encuesta o los analistas a
menudo se sienten cómodos al hacer afirmaciones como "Quiero poder decir que el valor de la
población está dentro del 3 % de la estimación de la muestra". Para uso posterior, denotamos
el MOE como e.
Decidir cuál de estos es el mejor criterio para una encuesta dada es, hasta cierto punto,
arbitrario. Un profesional debe desarrollar la habilidad de explicar las opciones a los
patrocinadores de la encuesta y guiar a los patrocinadores hacia opciones que ambos entiendan
y acepten. Como enfatizaremos, una consideración clave es el presupuesto. El tamaño de la
muestra debe ser asequible; de lo contrario no se puede realizar la encuesta.
Primero, tome el caso simple de una sola variable y y una muestra aleatoria simple de unidades
seleccionadas sin reemplazo (srswor). Supongamos que nos gustaría estimar la media
(poblacional) de y usando la media estimada (muestral) basada en una muestra aleatoria
simple de n unidades:
norte
Una
y¯s = yi
n
yo = 1
norte
S2
V(¯s) = 1 ÿ (3.1)
norte norte
Una Una
= ÿ
S2
norte norte
t ˆ= Ny¯s , (3.2)
ˆ norte
S2
vt = N2 1 ÿ
norte norte
norte
= norte ÿ 1 S2 .
norte
Una Una
S2
CV2 (¯s) =
ÿ
. (3.3)
norte
norte
y¯2
tu
S2
y¯2
tu
norte = . (3.4)
2
currículum +
S2
0 Ny¯2tu
.
= S2 y¯2 tu .
norte
(3.5)
CV 2
0
Cuanto más variable sea y, mayor debe ser el tamaño de la muestra para lograr un
objetivo de CV especificado. Naturalmente, si el n calculado es mayor que el presupuesto
puede soportar, la encuesta tendrá que reducirse o abandonarse si los resultados
sería inaceptablemente impreciso. Otra forma de escribir la Ec. (3.4) es
n0
norte = , (3.6)
1+ n0
norte
S2 /y¯2U
donde n0 = 2 , como en la expresión (3.5). El término n0 es también el requerido
currículo
0
tamaño de la muestra si se utilizó un diseño de muestreo aleatorio simple con reemplazo (srswr).
usó. Por lo tanto, n0 /N en la ecuación. (3.6) da cuenta de la proporción de la población que se muestra.
En dos poblaciones de diferente tamaño pero con el mismo
varianza S2, Ec. (3.6) refleja el hecho de que la población de menor tamaño
requieren una muestra más pequeña para lograr un CV dado.
Tenga en cuenta que configurar el CV a CV0 es equivalente a configurar el deseado
2
varianza a V0 = CV expresión
0 × y¯2U. _ Multiplicando el numerador y el denominador de
(3.3) por ¯y2 tu da la fórmula de tamaño de muestra equivalente,
S2 .
norte = = S2 . (3.7)
S2
V0 + V0
norte
Como se señaló anteriormente, es probable que la expresión (3.4) sea la fórmula más fácil de usar que
expresión (3.7) porque los CV son más fáciles de entender que las varianzas.
La función R, nCont, calculará un tamaño de muestra usando CV0 o
V0 como entrada (consulte el Apéndice C para ver una introducción al código R). Los parametros
utilizados por la función se muestran a continuación:
Ejemplo 3.1 (Tamaño de muestra para un CV objetivo). Supongamos que estimamos a partir de un
encuesta anterior que el CV poblacional de alguna variable es 2.0. Si la población es
extremadamente grande y CV0 (el CV objetivo) se establece en 0,05, entonces la llamada
a la función R es nCont(CV0=0.05, CVpop=2). La muestra resultante
el tamaño es 1600 Si el tamaño de la población es N = 500, entonces nCont(CV0=0.05,
CVpop=2, N=500) da como resultado un tamaño de muestra (redondeado) de 381. El factor fpc
tiene un efecto sustancial en el último caso.
Ajuste CV0
Para poner en práctica el método descrito anteriormente, se debe establecer un valor para el
coeficiente de variación objetivo, CV0 . Hasta cierto punto, el valor es arbitrario.
aunque las reglas generales se han desarrollado a lo largo de los años. Un CV de una estimación
del 50 % implicaría que un intervalo de confianza de aproximación normal
formado sumando y restando dos errores estándar de una estimación sería
cubrir cero. Tal estimación obviamente es muy imprecisa. El nacional de EE. UU.
El Centro de Estadísticas de Salud señala cualquier estimación que publique que tenga un CV de
30 % o más y lo etiqueta como “poco confiable.” 1 A menudo, una estimación con un CV de
10 % o menos se considera "confiable", pero los fines para los que se
se pondrá debe ser considerado.
Otra forma de establecer la precisión sería igualar o superar el CV logrado
en una ronda anterior de una encuesta, suponiendo que el nivel de precisión fuera satisfactorio. En
ese caso, se podría utilizar el mismo diseño de muestra y asignación.
otra vez. Algunos valores de CV s de encuestas patrocinadas por el gobierno en los EE. UU.
se enumeran en la Tabla 3.1. Estos obviamente tienen un rango bastante grande. CV para
estimaciones publicadas de una encuesta determinada también variarán considerablemente porque
los patrocinadores de la encuesta suelen estar ansiosos por publicar estimaciones para muchos
dominios cuyos tamaños de muestra pueden variar. Algunas de las estimaciones serán muy
preciso mientras que otros no lo serán.
En algunos casos, un grupo administrativo puede establecer un objetivo de precisión.
Por ejemplo, el Consejo de la Unión Europea (1998) especifica que ciertas
tipos de estimaciones de la fuerza de trabajo tienen un CV del 8 % o menos. La UE también
recomienda que los países miembros logren ciertos tamaños de muestra efectivos (Council
de la Unión Europea 2003) para estimaciones de ingresos y condiciones de vida. Un
el tamaño efectivo de la muestra, nef f , se definió en el Cap. 1 y es igual al número
de unidades muestrales analíticas divididas por el efecto de diseño, defff, para un estimador.
El uso de deff o nef f es una forma práctica de aproximar la muestra requerida.
tamaños en encuestas multietápicas, como veremos en los Caps. 9 y 10.
Ejemplo 3.2 (Encontrar un tamaño de muestra para declaraciones de impuestos). El Servicio de Impuestos
Internos (IRS, por sus siglas en inglés) de EE. UU. permite que las empresas, en algunas circunstancias, utilicen
estimaciones en sus declaraciones de impuestos en lugar de valores en dólares a partir de una
enumeración del 100 % de todas las cuentas. Por ejemplo, una empresa puede estimar el valor total
Una
www.cdc.gov/nchs/data/statnt/statnt24.pdf.
Machine Translated by Google
de todos los activos de capital que se pueden depreciar en un programa de cinco años. los
la estimación puede provenir de una muestra de tiendas, edificios u otros
unidades. Para poder utilizar la estimación puntual de dicha muestra,
el contribuyente debe demostrar que el incremento utilizado para calcular un intervalo de
confianza unilateral del 95 % no supera el 10 % de la estimación puntual.
Es decir, si se estima un total y se usa un intervalo de confianza de aproximación normal,
el requisito es que el MOE sea e = 1.645 × CV Tˆ ÿ 0.10.
Ejemplo 3.3 (tamaños de muestra VNUV). Revisando los datos recopilados para el
Encuesta climática VNUV (Proyecto 1 en el Capítulo 2), el equipo de diseño utiliza el
datos de encuestas anteriores para estimar los CV de la población para el número
promedio de clases por año tomadas por un empleado de VNUV en la encuesta de investigación
Machine Translated by Google
(SR) unidad de negocio. Dado que CV2 (¯ys) = nÿ1 ÿ N donde CV2 (¯ys)
ÿ1 CV 2
tu
es de la encuesta anterior, la población (unidad) CV dentro de cada estrato = CV2 (¯ys) nÿ1 ÿ N tum se
2 ÿ1
tu
puede calcular como CV . Información para
la unidad de negocio SR, clave para calcular los tamaños de muestra, incluye la
siguiendo:
Media SEb CV
Los resultados siguen. Tenga en cuenta que la decisión de restringir las estimaciones dentro de
grado de salario, además de todos los grados de salario dentro de este negocio
unidad, tiene implicaciones de costo. Una muestra total de 167 cumplirá el 0,05 CV
objetivo para la unidad de negocio completa. Sin embargo, la suma de la muestra requerida
tamaños a través de los grados salariales es de aproximadamente 261, lo que indica que más de la mitad
del conjunto de tamaño de muestra máximo (encuestado) (n=500) tendría que ser
Machine Translated by Google
RS todos 166.3
A1-A3 26.3
R1-R5 205.9
M1-M3 28.2
Suma 260.4
Estimación de proporciones
pd = yi /n.
yoÿs
En el Proyecto 1 (Cap. 2), el equipo de diseño definió indicadores para "de acuerdo" o
respuestas “en desacuerdo” a tres preguntas de la encuesta. La unidad de revarianza es entonces
definido como
qU =. qU
norte
S2 =
,
y¯2 norte - 1
tu PU PU
donde pU =
iÿU yi /N y qU = 1 ÿ pU . La revarianza de ps es
CV2 (ps) =
norte norte norte - 1
PU
que es un caso especial de la Ec. (3.3). El tamaño de la muestra que logrará un objetivo.
CV de CV0 proviene de especializar la expresión en Eq. (3.4):
norte qU qU
nÿ1 .
norte =
PU = PU
2 (3.8)
CV 2 + Una qU currículo
0
0 nÿ1 PU
siendo más grande para características raras. Tenga en cuenta que esto, al principio,
parece contradecir el consejo de que, cuando se calcula un tamaño de muestra para
estimar una proporción, se debe suponer que pU = 0.5 porque esto conducirá al tamaño
de muestra más conservador, es decir, más grande (Cochran 1977, Secc. 4.4). Sin
embargo, ese consejo se basa en la suposición de que se establece un valor objetivo de V
Una Una norte
(ps) . En ese caso, podemos usar el hecho de que V (ps) = Nÿ1 pU qUde
para encontrar que
ÿ
el tamaño
norte la muestra
norte que
logrará una varianza específica de V0 es
norte
Nÿ1 pU qU
norte = (3.9)
pU qU
V0 + nÿ1
.
= pU qU .
V0
Ejemplo 3.4 (Tamaño de muestra para característica rara). Considere el caso de una
característica rara en la población con pU = 0.01. Si requerimos un CV de 0,05, esto
significa que el error estándar de la proporción sería 0,0005. El tamaño de muestra
necesario para este nivel de precisión es de 39.600, que es mucho más grande de lo que
podrían soportar los presupuestos para muchas encuestas (¡y más grande que algunas
poblaciones!). La llamada a la función R para calcular este tamaño de muestra es
nProp(V0=0.0005ˆ2, N=Inf, pU=0.01) o nProp(CV0=0.05, N=Inf, pU=0.01).
Por otro lado, puede ser sustancialmente interesante si pudiéramos estimar la proporción
más o menos 1/2 del 1 %. Esto confirmaría, al menos, cualquier sospecha de que la
proporción es bastante pequeña. Si la mitad de la meta del 1 % se traduce como que un
intervalo de confianza del 95 % debe tener un ancho medio de 0,005, esto significa que
Machine Translated by Google
norte
3500
3000
2500
2000
1500
1000
500
0
cv = 0,05
CV = 0,10
Higo. 3.1: Tamaños de muestra aproximados de la ecuación. (3.8) requerido para lograr CV s de 0.05
y 0,10 para proporciones de población que oscilan entre 0,10 y 0,90. El tamaño de la población
se supone que es grande, por lo que la corrección de población finita es uno.
1.96
pU (1 - pU ) = 0.005 ,
norte
es decir, el error estándar es de aproximadamente 0,0026. Esto, a su vez, implica que el tamaño
de la muestra necesario para alcanzar este objetivo es n = 1.522, mucho menos que 39.600. los
llamar a nProp para calcular esto es nProp(V0=(0.005/1.96)ˆ2, N=Inf,
pU=0,01).
La función nProp también tomará un vector pU como entrada. Por ejemplo, si
queremos los tamaños de muestra para pU en (0.01, 0.05, 0.10), el comando es
nProp(CV0=0.05, N=Inf, pU=c(0.01, 0.05, 0.10)) con resultados,
n = 39.600, 7.600 y 3.600.
El equipo de diseño decide restringir inicialmente todas las proporciones estimadas con CV0
= 0,06. Sin embargo, un miembro del equipo recomienda
el uso de N=Inf con la función nProp citando de la clase de estadísticas que
cualquier tamaño de población superior a 30 es grande. Otros en el equipo no están de acuerdo.
pero admita ejecutar los cálculos del tamaño de la muestra en ambos sentidos para la
comparación, por ejemplo, nProp(CV0=0.06, N=Inf, pU=0.82) para los grados salariales A1–A3,
lo que da n = 61, comparado con nProp(CV0=0.06, N=68, pU=0.82),
Machine Translated by Google
lo que arroja n = 33. Los resultados que se muestran arriba resaltan la necesidad de especificar el
tamaño de la población (si se conoce) al calcular los tamaños de muestra a menos que el
la población es extremadamente grande.
El método que se acaba de describir también es equivalente a establecer una tolerancia de cómo
close a un investigador le gustaría que la estimación fuera del valor de la población.
De hecho, muchos investigadores prefieren pensar en establecer tolerancias en lugar de
CV s. Si la tolerancia (a veces llamada MOE) es e y el objetivo es ser
dentro de e de la media de la población con probabilidad 1 ÿ ÿ, esto se traduce en
Esto es equivalente a establecer el ancho medio de un intervalo de confianza bilateral (IC) de 100 (1 ÿ
ÿ) % en e = z1ÿÿ/2 V (¯ys), asumiendo que ¯ys se puede tratar como
estando distribuida normalmente. El término z1ÿÿ/2 es el percentil 100 (1 ÿ ÿ /2 )
de la distribución normal estándar, es decir, el punto con 1 ÿ ÿ /2 del área
a su izquierda. si requerimos
y¯s ÿ y¯U
PR ÿ mi = 1 - ÿ , (3.11)
Yu
z2 S2
norte =
1ÿÿ/2 . (3.12)
e20 + z2
1ÿÿ/2 S2 /N
z2
norte =
1ÿÿ/2 S2 y¯2 tu . (3.13)
e20 + z2
1ÿÿ/2 S2 /(Ny¯2 tu )
norte
z2
norte =
nÿ1 1ÿÿ/2 pU qU
pU qU
(3.14)
e2 + z2 nÿ1
1ÿÿ/2
. pU qU
= z2 ,
1ÿÿ/2 e2
que es lo mismo que la Ec. (3.9) una vez que notamos que V0 = e2 z2 1ÿÿ/2 . O
ecuaciones (3.9) o (3.14) pueden ser convenientes, dependiendo de cómo se formule el
objetivo de la estimación.
Si requerimos que la mitad del ancho de un CI sea una proporción específica de pU ,
luego establecer S2 y¯2
tu = N qU /[(N ÿ 1) pU ] en la ecuación. (3.13). La solución para el
el tamaño de la muestra es entonces
norte
z2 qU
norte =
nÿ1 1ÿÿ/2 PU
qU
(3.15)
e2 + z2
1ÿÿ/2 pU (Nÿ1)
. z21ÿÿ/2 qU
= .
e2 PU
Porque CV 0 2
= e2 z2
1ÿÿ/2 , la expresión (3.15) es la misma que la ecuación. (3.8).
La función R, nPropMoe, calculará los tamaños de muestra utilizando las ecuaciones. (3.14)
o (3.15), correspondiente a si fijamos el MOE en términos de las Ecs. (3.10)
o (3.11). El tipo de MOE se selecciona mediante el parámetro moe.sw donde
moe.sw=1 invoca la ecuación. (3.14), es decir, e = z1ÿÿ/2 V (ps), y moe.sw=2
invoca la Ec. (3.15), es decir, e = z1ÿÿ/2 V (ps) /pU . El conjunto completo de parámetros es
se muestra en la siguiente llamada de función:
nPropMoe(moe.sw, e, alpha=0.05, pU, N=Inf)
Ejemplo 3.6 (Tamaño de la muestra basado en MOE). Supongamos que queremos estimar
una proporción para una característica donde pU = 0.5 con un MOE de e cuando
ÿ = 0,05. En otras palabras, la muestra debe ser lo suficientemente grande como para que un intervalo
de confianza del 95 % de aproximación normal sea de 0,50 ± e. Por ejemplo, si
e = 0,03 y ps en realidad era 0,5, queremos que el intervalo de confianza sea
0,50 ± 0,03 = [0,47, 0,53]. El tamaño de la muestra depende en gran medida del ancho.
del intervalo de confianza como se ve en la siguiente tabla. Los tamaños de muestra fueron
Machine Translated by Google
evaluado usando la fórmula dada en Eq. (3.14) con pU = 0.5 y z0.975 = 1.96. El comando
para generar los tamaños de muestra enumerados en la siguiente tabla es
mi n es
Tenga en cuenta que la terminología en este ejemplo puede parecer un poco imprecisa.
Cuando se selecciona una muestra y se estima la proporción, es casi seguro que ps no
será igual a pU . El CI calculado será ps ± e, no pU ± e. En consecuencia, es mejor pensar
en pU en el ejemplo 3.6, y en la discusión subsiguiente, como un valor hipotetizado antes
del muestreo.
Una z 2
norte = pU qU ÿ 2e2 + e2 ÿ pU qU (4e2 ÿ pU qU ) . (3.16)
2 mi
Machine Translated by Google
Ejemplo 3.7 (Tamaño de muestra de Wilson). Suponga que pU = 0,04 y que el ancho
medio deseado del CI es 0,01. La llamada a la función y la salida son
$n.sam
[1] 1492.151 $'CI
límite inferior' [1] 0.0311812
$'CI límite superior' [1]
0.0511812 $'longitud de
CI' [1] 0.02
Por lo tanto, se necesita una muestra de alrededor de 1.492. Note que el IC anticipado
no es simétrico alrededor de pU = 0.04. El cálculo de MOE correspondiente usando
nPropMoe es
[1] 1475.120
los tamaños de muestra calculados con los dos métodos serán similares. El log-odds de la estimación
de la muestra es log (ps /qs ) con qs = 1 ÿ ps. Una aproximación lineal al log-odds es
.
pU qU norte norte norte - 1
finales transformados hacia atrás de un IC en pU son (1 + exp (ÿL))ÿ1 , (1 + exp (ÿU))ÿ1 . Calcular la
Una
exp (ÿL) ÿ exp (ÿU) [1 + exp
mi = .
(ÿL)] [1 + exp (ÿU)] 2
Exp ,
ÿ
ÿ1
2
norte
ÿpU qU Una
dónde
Una
Otra transformación que a veces se usa cuando se calcula un IC para una proporción es arcsen
ÿps . Esta transformación no se incluye aquí porque no parece adecuada para el cálculo del tamaño de
la muestra cuando se establece un MOE.
Machine Translated by Google
Ejemplo 3.8 (Comparación de tres métodos). Como en el ejemplo 3.7, suponga que
pU = 0,04, el ancho medio deseado del CI es 0,01 y la población es grande.
La llamada de función y la salida enumeradas después del "[1]" de nuestras tres funciones
para calcular los tamaños de las muestras son
Los tamaños de las muestras están dentro de un 2 % entre sí, aunque el Wilson
y los métodos de log-odds sugieren un tamaño de muestra más grande que el estándar
Acercarse.
Como última palabra antes de dejar el muestreo aleatorio simple, tenga en cuenta que todos los
Las fórmulas de tamaño de muestra anteriores están escritas en términos de cantidades de población que
son probablemente desconocidos durante la fase de diseño de la muestra del estudio. Por ejemplo,
S2, ¯yU y pU son valores de población. Si se ha hecho la misma encuesta
antes en una representación anterior de la población, entonces los datos de la muestra pueden
utilizarse para estimar los parámetros. Si no se dispone de datos previos sobre el
población objetivo, puede ser posible obtener datos sobre una población similar. En
en algunos casos, las estimaciones resumidas publicadas pueden ser accesibles. esto es especialmente
verdadero de las proporciones. Por ejemplo, la Oficina de Estadísticas Laborales de EE. UU.2 publica
porcentajes estimados de trabajadores que reciben diferentes beneficios de
sus empleadores, el Centro Nacional de Estadísticas de Salud3 produce estadísticas
sobre la salud de la nación, el Centro Nacional de Estadísticas de Educación (NCES)
tabula estadísticas sobre la educación pública y privada en todos los niveles, y la
La Oficina del Censo4 proporciona estadísticas sobre la población y muchos otros temas. Otros países
tienen agencias estadísticas similares que publican información económica,
estadísticas epidemiológicas y otras.
En algunos casos, estará disponible una fuente de datos secundaria para toda la población o
conjuntos de microdatos para muestras anteriores. Por ejemplo, el Núcleo Común
of Data (CCD)5 de NCES contiene archivos de datos de población de primaria y secundaria.
escuelas secundarias que se pueden usar para tabular medias, varianzas, proporciones
u otras estadísticas. Si los microdatos se proporcionan para registros individuales para
una muestra de unidades de la población objetivo, puede estimar la población
parámetros Discutiremos cómo estimar algunos parámetros poblacionales
de muestras en la Secc. 3.4. Tenga en cuenta que el equipo de diseño del Proyecto 1 en el Cap. 2
2
http://stats.bls.gov/.
3 http://www.cdc.gov/nchs/.
4 http://www.census.gov/.
5 http://nces.ed.gov/ccd/.
Machine Translated by Google
tenía acceso directo a las fuentes de datos relevantes y, por lo tanto, podía producir
las estimaciones proporcionadas en las tablas 2.2 a 2.6.
Las muestras aleatorias simples son raras en la práctica por varias razones. La mayoría de las encuestas
tienen múltiples variables y dominios para los cuales se desean estimaciones. Seleccionando
una muestra aleatoria simple corre el riesgo de que uno o más dominios importantes
será mal representado u omitido por completo. Además, las variaciones de la encuesta
las estimaciones a menudo se pueden reducir mediante el uso de un diseño que no es srswor.
Un diseño que soluciona los problemas señalados para una espada se denomina
como muestreo aleatorio simple estratificado (sin reemplazo) o stsrswor. Como
como indica el nombre, se administra un diseño de espada dentro de cada estrato de diseño.
Los estratos se definen con una o más variables conocidas para todas las unidades y
dividir toda la población en grupos de unidades mutuamente excluyentes. Nosotros
podría, por ejemplo, dividir una población de establecimientos comerciales en minoristas
comercio, comercio al por mayor, servicios, manufactura y otros sectores. La población de
un hogar podría dividirse en regiones geográficas: norte, sur, este,
y oeste Para un stsrswor, definimos los siguientes términos:
H
y¯st = ¿Por qué ? (3.18)
h=1
con psh definido de la misma manera que ¯ysh usando una variable y cero-uno (indicador).
La varianza del muestreo de población del estimador estratificado es
H
1 - fh
V (¯yst) = W2h S2
h, (3.20)
h=1
Nueva Hampshire
donde fh = nh /Nh .
Los estratos son especialmente útiles si corresponden a dominios para los que se necesitan
estimaciones separadas. En ese caso, la muestra asignada a cada estrato
se puede determinar utilizando las fórmulas de la Secc. 3.1.1 y se garantiza el resultado
en la selección de casos de muestra para cada dominio (es decir, estrato). Sin embargo, el tamaño
H
total de la muestra, n = h = 1 nh, puede volverse excesivamente grande. Para remediar esto
problema, el tamaño total de la muestra se puede asignar a los estratos utilizando varios
técnicas como se discute en la siguiente sección. Una asignación eficiente puede llevar
a la varianza de un estimador global, ¯yst o pst, siendo menor que con un
(sin estratificar) srswor.
Los estratificadores se pueden seleccionar en al menos cinco motivos (ver, por ejemplo, Lohr 1999,
Cap. 4):
1. Para evitar seleccionar una muestra que esté mal distribuida en la población, como podría ocurrir
con srswor
2. Como una forma de garantizar ciertos tamaños de muestra en grupos que serán
estudiado por separado (es decir, dominios)
3. Como conveniencia administrativa (p. ej., se puede usar una encuesta por correo para
unidades en algunos estratos pero entrevistas personales para el resto de los estratos)
4. Para administrar los costos (p. ej., la recopilación de datos en algunos estratos podría ser más costosa).
sivo que en otros estratos)
5. Como una forma de mejorar la eficiencia de la muestra para estimaciones de población completa mediante
agrupar unidades que tienen propiedades de media y varianza similares
Un ejemplo del segundo uso sería una encuesta empresarial en la que los establecimientos se
agrupan por tipo de negocio (fabricación, venta al por menor, servicios,
etc.). La muestra podría distribuirse de tal manera que cada sector reciba
un tamaño de muestra lo suficientemente grande como para cumplir con los objetivos de precisión para
algunas estimaciones importantes. En una encuesta de escuelas, los estratos pueden definirse con base en el nivel y
propiedad de una escuela (por ejemplo, escuela primaria, secundaria y preparatoria cruzada con
propiedad pública o privada). Por lo general, una asignación a estos estratos diseñada
cumplir con un objetivo de CV para cada estrato no sería la mejor asignación para
hacer una estimación eficiente para toda la población. Sin embargo, en tales casos,
las estimaciones de dominio suelen ser más importantes que las estimaciones de población total.
Además, cuando las estimaciones del dominio tienen una precisión aceptable,
entonces las estimaciones de la población completa también lo harán.
Machine Translated by Google
La estratificación por tamaño con una asignación eficiente es un ejemplo del 5 anterior.
Este método utiliza una variable de tamaño que se correlaciona con lo que se va a medir en la
encuesta. En una encuesta de establecimientos, el número de empleados en un período de
tiempo anterior debería ser un predictor del empleo actual y posiblemente de otras variables,
como los ingresos. Para determinar una buena medida de tamaño (MOS), se debe realizar un
modelo de regresión suponiendo que se dispone de algunos datos relevantes. Este método de
estratificación está estrechamente relacionado con el muestreo pps descrito en la Secc. 3.2.1
(también, ver Valliant et al. 2000, Cap. 6).
Tipos de asignaciones
Hay varios tipos de métodos de asignación que se pueden considerar para una muestra
estratificada. Las primeras tres asignaciones a continuación asumen que el tamaño total de la
muestra n es fijo y corresponde a un presupuesto de estudio fijo (suponiendo que el costo de
recopilar y procesar datos para cada unidad es el mismo). En los dos últimos, se determina que
el tamaño total de la muestra es consistente con las restricciones de costo o de varianza:
Esta asignación es eficiente para estimar la media de y si las desviaciones estándar de los
estratos, Sh, son todas iguales o, al menos, muy cercanas entre sí. Este método puede
asignar muy pocas unidades a algunos estratos pequeños y, por lo tanto, puede ser deficiente
cuando se desean estimaciones de estratos separados.
2. Asignación igual con nh = n /H ÿ n¯
Esta asignación minimiza V (¯yst) sujeto a un presupuesto total fijo y se analiza en detalle a
continuación.
5. Asignación óptima limitada por precisión
Esta asignación minimiza el costo total sujeto a una restricción fija en V (¯yst) o CV (¯yst) y
también se analiza más adelante.
(3.25). Puede leer más detalles matemáticos en un texto como S¨arndal et al. (1992).
La asignación óptima con restricciones de costo 4 utiliza esta función de costo lineal simple,
H
C = c0 + h=1 nhch, donde
varíanC con
es elelcosto total,
número dec0 es lade
casos suma de losy valores
muestra, ch es elde costo
costo porque node
caja
muestra en el estrato h. El término c0 generalmente se denomina "costo fijo" y puede incluir
componentes como los salarios de un gerente de proyecto, programadores y supervisores de
edición. El término ch es el costo de la recopilación de datos, por ejemplo, entrevistas y envío
por correo, y otros costos unitarios que aumentan a medida que aumenta el tamaño de la
muestra. Minimizar V (¯yst) en la expresión (3.20) sujeto a un presupuesto total especificado
conduce a
WhSh ÿch
. (3.21)
nh = (C ÿ c0) H
h=1 WhSh ÿch
H
h=1 WhSh ÿch .
n = (C ÿ c0) H (3.22)
h=1 WhSh ÿch
= WhSh ÿch
Nueva Hampshire
. (3.23)
norte
Como se desprende de la expresión dada en la Ec. (3.23), los estratos que representan una
porción más grande de la población, medida por Wh o tienen desviaciones estándar más
grandes, Sh, obtienen una porción más grande del tamaño total de la muestra. Los estratos
donde el costo unitario, ch, es mayor obtienen menos.
Si la varianza, V (¯yst), se fija en V0 y minimizamos el costo total, como con la asignación
óptima restringida por precisión 5, la asignación al estrato h es
Si el CV de ¯yst se fija en CV0, esto implica que V0 en la ecuación. (3.24) debe ser × y¯2 puesto
2
estrato h también viene
0 a dada
V0 = CV
por U
la .Ec.
En (3.23),
este caso,
perolaelproporción
tamaño total
de de
la muestra
la muestra
asignada
es al
H H
norte = h=1 WhSh ÿch .
(WhSh / ÿch ) (3.25)
h=1 V0 + N ÿ1 H h=1
WhS2h
Al calcular una asignación restringida por costos o restringida por precisión, los tamaños de
muestra generalmente se redondean a los siguientes números enteros. Por lo general, esto no
es algo por lo que preocuparse demasiado, ya que las restricciones aún se cumplirán
aproximadamente. Además, si existe alguna posibilidad de falta de respuesta o
Machine Translated by Google
otras pérdidas de muestra, el diseñador de la encuesta inevitablemente pierde algo de control sobre
la asignación En cualquier caso, los controles de calidad útiles después de hacer la
cálculos en las ecuaciones. (3.21) y (3.24) son:
una lista con tres componentes: el tipo de asignación, el vector de tamaños de muestra
(nh), y el vector de proporciones muestrales asignado a cada estrato (nh /n).
Ejemplo 3.9 (Asignación de costos). La Tabla 3.2 proporciona recuentos de población por estrato y
desviaciones estándar de los gastos totales con base en la Encuesta de Organizaciones de Salud
Mental (SMHO) de 1998.6 El conjunto de datos de la encuesta se trata como el
población (smho98) para este ejemplo. (Ver B para detalles de este y otros
conjuntos de datos.) La variable y es el total de gastos durante un año calendario
para una organización individual. Con un número reducido de estratos, como es el
caso en este ejemplo, una hoja de cálculo es una buena herramienta para calcular diferentes
asignaciones
Para ilustrar la diferencia que puede hacer el costo en la asignación a los estratos,
La Tabla 3.3 muestra las proporciones de la muestra total que se asignarían
con la asignación de Neyman y con una asignación que utiliza los costos unitarios en
la columna ch . Neyman destina alrededor del 73 % (0,346 + 0,386) de la muestra
a los hospitales psiquiátricos y multiservicios o de abuso de sustancias. Después de considerar el
costo, estos dos estratos representan solo el 60 % de la muestra (un 13 %
reducción de puntos) porque el costo por organización es más alto que para otros
Estratos.
Tabla 3.2: Estadísticas sobre gastos totales para una población de organizaciones de salud mental.
Estándar Población
Estrato coeficiente
Tipo de organización Nh Media ¯yUh desviación
h de variación
Sh
Sh /¯yUh
Una
Hospital psiquiátrico 215 21.240.408 26.787.207 65 1.261
2 Residencial 10.024.876 10.645.109 252 1.062
3 hospital General 4.913.008 6.909.676 5011.085.034
11.927.573 1.406
4 veteranos militares 0.929
Atención parcial o
5 149 6.118.415 9,817,762 1.605
ambulatorio
Multiservicio o abuso
6 144 15.567.731 44.553.355 2.862
de sustancias
Total 875 11.664.181
También podemos calcular los tamaños de muestra totales que estarían implícitos por
diferentes presupuestos u objetivos de precisión. Para presupuestos máximos de costos variables,
C ÿ c0, de $100 000 y $200 000, los tamaños de muestra totales son 119 y 238, como
mostrado a continuación. Si el CV objetivo (¯yst) se establece en un valor CV0, entonces V0 en la ecuación. (3.25)
2
es (CV0 × y¯U ) . Usando esto para evaluar la ecuación. (3.25) da tamaños de muestra de 406 y
198 para objetivos CV de 0,05 y 0,10.
Cuadro 3.3: Neyman y asignaciones con restricciones de costos para las organizaciones de salud mental para
estimar la media del gasto total.
Una
Hospital psiquiátrico 1.400 200 0.346 0.257
2 Residencial 0.042 0.082
3 hospital General 300 0.105 0.168
4 veteranos militares 600 0.033 0.038
Atención parcial o
5 450 0.088 0.115
ambulatorio
Multiservicio o abuso de
6 1,000 0.386 0.339
sustancias
Total 1.000 1.000
Las asignaciones restringidas por costos con costos variables de $100 000 y $200 000
se calculan con
Como para todas las funciones R, la salida se puede asignar a un objeto para su posterior
manipulación. Por ejemplo, los componentes de
Machine Translated by Google
Las asignaciones descritas anteriormente fueron diseñadas para ser buenas para las estimaciones
generales de población. Sin embargo, las estimaciones de estratos individuales o la diferencia en
las estimaciones de estratos pueden ser igualmente importantes. Cochran (1977, Secc. 5A.13)
sugiere dos criterios que podrían usarse en tales casos. Una es minimizar la varianza promedio de
la diferencia entre todos los pares de estratos H (H ÿ 1)/2.
Suponiendo que los costos por unidad de estrato son iguales, los tamaños de muestra de estrato
óptimos son
Sh .
nh = norte (3.26)
Hh=1 Sh
Un segundo criterio sería exigir que la varianza del estimador de la diferencia en cualquiera de
las medias de dos estratos sea la misma. En este caso, la asignación óptima al estrato h es
S2
h
nh = norte , (3.27)
Hh=1 S2
h
que asigna una fracción más grande de la muestra a los estratos de alta varianza que la ecuación.
(3.26).
Ejemplo 3.10 (Asignaciones para estimaciones de estrato). Continuando con el ejemplo anterior,
los resultados de calcular las asignaciones para las organizaciones de salud mental con base en
los criterios de las Ecs. (3.26) y (3.27) se muestran en la Tabla 3.4. Estas asignaciones son más
extremas que las de la Tabla 3.3 al asignar más muestra al estrato 6. El estrato 3 también obtiene
solo 0.015 del total cuando se asigna en proporción a S2 debido a su varianza de estrato
relativamente pequeña. Sobre la base de otras consideraciones,
h hospitales como
generales
el deseo
por separado,
de analizaresta
los
asignación puede resultar insatisfactoria para muchos analistas.
Tenga en cuenta que los ejemplos anteriores se desarrollaron para estimar la media de una
variable: los gastos totales. Otras variables pueden ser igualmente importantes para los analistas,
y las asignaciones eficientes para ellas pueden ser bastante diferentes de las que acabamos de
calcular para los gastos. El Capítulo 5 cubrirá las tareas de asignación de muestras utilizando más
de una variable de análisis.
Machine Translated by Google
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 51
Tabla 3.4: Asignaciones para las organizaciones de salud mental para optimizar las comparaciones
de los medios de estrato de los gastos totales.
nh / n
Estrato Tipo de organización Asignación proporcional Asignación proporcional
h a Sh a S2
h
Una
Hospital psiquiátrico 0.244 0.233
2 Residencial 0.097 0.037
3 hospital General 0.063 0.015
4 veteranos militares 0.101 0.040
5 Atención parcial o 0.089 0.031
ambulatorio
6 Multiservicio o abuso de 0.406 0.644
sustancias
Total 1.000 1.000
Cuando las muestras se seleccionan con probabilidades variables, se utilizan diferentes métodos.
necesarios para los cálculos del tamaño de la muestra. Un dispositivo útil es hacer que el tamaño de la muestra
cálculos basados en la fórmula de varianza con reemplazo como se muestra en
Secta. 3.2.1. Esta fórmula es más simple que las fórmulas sin reemplazo,
que implican probabilidades de selección conjunta. Pensando en la estructura del modelo
es otra buena manera de determinar los tamaños de muestra en algunas poblaciones, como se analiza
en la Secc. 3.2.2. Si hay variables auxiliares en un marco que son
buenos predictores de las variables a recoger en una encuesta, modelos para
Estas relaciones se pueden utilizar para determinar los tamaños de las muestras. Esta sección
analiza la conexión del muestreo pps con los modelos y el uso de estimadores de regresión de medias
y totales. El capítulo 14 describe más extensamente
cómo usar modelos en la estimación a través de la ponderación de calibración. un interesado
El lector puede encontrar una cobertura detallada del uso de modelos en la estimación de encuestas en
Valliant et al. (2000).
Las unidades de muestreo en proporción a algunos MOS pueden ser extremadamente eficientes en
muestreo de una sola etapa para estimar totales si el MOS utilizado para el muestreo es
estrechamente relacionada con la variable de análisis y. Los textos suelen distinguir entre
pps con muestreo de reemplazo, denotado por pps, y sin reemplazo
Machine Translated by Google
muestreo, denotado por ÿps. Por lo general, nos referiremos a cualquiera de estos como pps, pero tendremos
cuidado de distinguir entre las fórmulas de varianza con reemplazo y sin reemplazo. Suponga que el tamaño
relativo de la unidad i es pi.
Por ejemplo, si el MOS en una población hospitalaria es el número de camas, xi, el tamaño relativo del
hospital i es pi = xi / U xi . Si se selecciona una muestra de tamaño fijode
probabilidad deselección
n unidades
es sin
ÿi =reemplazo, la
npi. También
nos referiremos a este método de muestreo cuando el MOS es x como muestreo pp(x) o, más
generalmente, como pp(MOS). El estimador ÿ de la media, suponiendo que se conoce N, se define en
general como y ˆ¯ÿ = N yi /ÿi . En el caso especial de ÿi = npi, el estimador ÿ es
ÿ1
s
ÿ1 yo .
y ˆ¯ÿ = norte (3.28)
npi
s
Si cada yi fuera exactamente proporcional a x, digamos yi = ÿxi, entonces el estimador ÿ se reduce a y ˆ¯ÿ
= ÿx¯U en cada muestra. Pero, con yi = ÿxi, la media poblacional de y es ÿx¯U ; entonces, y ˆ¯ÿ sería
perfecto en cada muestra. De manera menos restrictiva, si yi sigue el modelo,
VM (yi) = vi,
donde las yi son independientes y las vi son valores positivos, entonces y ˆ¯ÿ es modelo insesgado en el
sentido de que EM y ˆ¯ÿ ÿ y¯U = 0. En la ecuación. (3.29), EM (yi) y VM (yi) son la expectativa teórica (o
promedio) y la varianza de yi evaluada con respecto al modelo especificado. Una buena práctica al
construir estimadores es hacer algunos modelos para determinar si hay covariables que puedan usarse
como medidas de tamaño y crear estimadores con una varianza más baja que el estimador ÿ simple,
como se analiza en la Secc. 3.2.2.
ÿ2 yi yj
V y ˆ¯ÿ = norte (ÿij ÿ ÿiÿj ) (3.30)
ÿi ÿj
iÿU jÿU
(p. ej., véase Sarndal et al. 1992). El término ÿij es la probabilidad de que las unidades i y j estén
simultáneamente en la muestra. Los detalles sobre las técnicas de estimación de la varianza en diferentes
situaciones se cubren en el Cap. 18
Hay varios métodos disponibles para seleccionar muestras con diferentes probabilidades; no todos
permiten calcular las probabilidades de selección conjunta, ÿij .
Cochran (1977) revisa varios métodos para seleccionar muestras de tamaño nh = 2.
Dos métodos para muestras de tamaño superior a dos son el de Sampford y el pps secuencial (Chromy
1979). La Sección 3.7 cubre algunos de los paquetes de software disponibles para seleccionar muestras
con probabilidades variables.
Machine Translated by Google
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 53
En el muestreo de una sola etapa, el MOS se asocia directamente con las unidades para
ser muestreados: camas en una encuesta de hospital, empleados en una encuesta de negocios, etc.
En los caps. 9 y 10, discutiremos la asignación de tamaños a unidades agregadas, como
condados, en muestreo polietápico. En esta sección, parte del pensamiento necesario
para asignar un MOS en el caso de una etapa está cubierto. El hallazgo clave se debe
a Godambe y Joshi (1965). Su resultado dice que bajo el modelo (3.29) el
El MOS más eficiente para el muestreo de pps es proporcional a ÿvi. Esto supone
que se estima una población total y se utiliza un estimador que no está sesgado
al promediar sobre un modelo y un diseño de muestreo probabilístico. Isaki y
Fuller (1982) extendió esto a un modelo lineal donde EM (yi) = xT Es
ÿy
VM (yi) = vi con xi definido como un vector de x (variables auxiliares), ÿ definido
como un vector de pendientes de regresión de la misma dimensión que xi, y xT es el
Es
transpuesta del vector xi . En ese caso, ÿvi sigue siendo el mejor MOS para pps
muestreo, asumiendo que se utiliza un estimador de regresión del total de la población.
Describimos estimadores de regresión con más detalle en la Secc. 3.2.2 y posteriores en
Cap. 14
Un modelo que puede ajustarse razonablemente bien a algunos establecimientos o poblaciones
institucionales tiene una varianza con la forma, VM (yi) = ÿ2xÿ yo , donde xi es un
MOS y ÿ es una potencia. Los valores típicos de ÿ están en el intervalo [0,2]. Con un
especificación de la media de regresión, EM (yi), ÿ se puede estimar iterativamente.
Primero, el modelo se ajusta por mínimos cuadrados ordinarios (OLS) y los residuos
calculado. El residuo al cuadrado, e2 yo , es una estimación aproximada de VM (yi),
independientemente de su forma. Cuando VM (yi) = ÿ2xÿ yo , la pendiente en una regresión de
registro e2
Es
en log (xi), donde log es el logaritmo natural, es una aproximación
estimación de ÿ. Henry y Valliant (2009) brindan más detalles junto con las aplicaciones. Dos
funciones R que estimarán iterativamente ÿ son gammaFit junto con
con gamEst en el Apéndice C. Tenga en cuenta que gamEst está configurado para una regresión
sin intercepción. Si se desea un intercepto, la matriz X, que
es una entrada para gammaFit, debe definirse para incluir una columna de 1. los
Los parámetros utilizados por gammaFit son:
X matriz de predictores
X vector de x en V(Y)
Y vector de variables de respuesta
maxiter número máximo de iteraciones permitidas
y
2000
1500
1000
500
Higo. 3.2: Diagrama de dispersión de una muestra de n = 10 unidades muestrales de la población hospitalaria.
y para ser los vectores de los diez valores para estas unidades. La matriz X contiene
columnas para ÿx y x. Para estimar ÿ, la llamada a gammaFit y su salida son
X <- cbind(raíz cuadrada(x), x)
ajustegamma(X = X, x = x, y = y, maxiter=100, tol=0.001)
La expresión (3.30) obviamente no es muy útil para calcular el tamaño de una muestra.
Un enfoque práctico es usar una fórmula de varianza apropiada para pps con
muestreo de reemplazo (ppswr). El estimador más simple de la media que es
generalmente estudiado con muestreo ppswr se llama "p-expandido con reemplazo"
(S¨arndal et al., 1992, Cap. 2) y se define como
Una
yo .
y ˆ¯pwr = (3.31)
Nn Pi
s
Machine Translated by Google
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 55
Una unidad se incluye en la suma tantas veces como se muestrea. Aunque la Ec. (3.31)
se parece a y ˆ¯ÿ anterior, la probabilidad de selección de la unidad i no es npi en el
muestreo con reemplazo; en realidad es 1 ÿ (1 ÿ pi) n. La varianza de y ˆ¯pwr en el
muestreo ppswr es
2
Una
yo V1
V y ˆ¯pwr = Pi ÿT ÿ
(3.32)
N2n Pi N2n
tu
norte =
2 . (3.33)
N2 y¯2 tu 0CV
Ejemplo 3.12 (Contabilidad de unidades grandes). La figura 3.3 representa los gastos
totales por número de camas para las 671 organizaciones de la población SMHO
(smho98) que tienen camas distintas de cero. Las 204 unidades que reportaron cero
camas solo brindan atención ambulatoria. Existe una relación bastante fuerte entre el
número de camas y los gastos con una correlación de 0,78. La línea gris es un
suavizador no paramétrico que es resistente a la influencia de inusuales
(millones)
Gastos
totales
500
400
300
200
100
Higo. 3.3: Gráfico de gastos totales versus número de camas para la población SMHO.
La línea gris es un suavizador no paramétrico (lowess).
Machine Translated by Google
puntos. Un punto (marcado por la flecha) con 2405 camas es obviamente muy diferente a los demás.
Una buena práctica es seleccionar esa organización para la muestra con probabilidad uno. Dichos casos
se denominan de diversas formas “toma todo”, “certezas” o “autorrepresentación”, según el país de
origen del estadístico. El pensamiento general es que un take-all es tan diferente de los demás en la
población que no debe ponderarse para representar nada excepto a sí mismo. Una regla general útil
que se usa a menudo es calcular las probabilidades de selección específicas para todas las unidades
de la población y determinar qué unidades tienen valores mayores o iguales a uno. En una muestra pps
con MOS xi, esto ocurrirá si
Nx¯Uxi
ÿ_ .
norte
A veces, esto se relaja para incluir todas las unidades con probabilidades de selección superiores a
algún punto de corte como 0,8. En ese caso, las sumas serían unidades con xi ÿ 0.8Nx¯U /n. Tenga en
cuenta que estos puntos de corte para llevar todo dependen del tamaño de la muestra; cuanto más
grande sea la muestra, más unidades se pueden designar como tomas totales.
Si dejamos de lado la unidad grande y seleccionamos una muestra de pps del resto,
el estimador ÿ de la media será
ÿ1
y ˆ¯ÿ = norte (N ÿ 1) y ¯ÿ,nt + y2405 ,
ˆ¯
Pero el CV de y aún se calcula dividiendo por ¯yU :
= norte - nt
ˆ¯
currículum V y ˆ¯ÿ,nt /¯yU .
norte
Para calcular el tamaño de una muestra, aproximamos V y ˆ¯ÿ,nt por la varianza de potencia en la
ecuación. (3.32), es decir,
V1
V y ˆ¯ÿ,nt .
= ,
2
(N ÿ nt) norte
9.53703e+19
norte = (3.34)
6712 × 13, 667, 7062CV 2 0
con ¯yU = 13, 667, 706. Para CV0 = 0.15, Eq. (3.34) se evalúa como n = 51 para los que no lo toman
todo.
Machine Translated by Google
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 57
Debido a que el cálculo del ejemplo 3.12 se basa en un muestreo con reemplazo, los
tamaños de las muestras pueden ser conservadoramente grandes si en realidad se
selecciona una muestra sin reemplazo con un fpc considerable. Kott (1988) proporciona
un método aproximado para insertar un fpc en la fórmula de muestreo pps que ayudaría
a reducir este problema. Además, cuando se identifican certezas como en el Ejemplo
3.12 y se vuelven a calcular las probabilidades para las no certezas, puede haber
unidades aditivas que tengan probabilidades de selección mayores que 1. Estas también
deben seleccionarse con certeza y el cálculo en la ecuación. (3.34) recalculada para las
unidades restantes. Es posible que se necesiten algunas iteraciones para identificar todos
los elementos esenciales. Alternativamente, se podría usar un límite como xi ÿ 0.8Nx¯U /
n después de la primera iteración, lo que puede eliminar algunas rondas posteriores de iteración.
Un punto final sobre el muestreo pps es que puede ser ineficiente en el muestreo
de una sola etapa para estimar la proporción de unidades que tienen alguna
característica. Como se señaló anteriormente, el muestreo pp(x) combinado con el
estimador ÿ o un estimador de regresión es eficiente si y sigue un modelo lineal y
el MOS es proporcional a la desviación estándar del modelo. Un modelo apropiado
para una característica binaria suele ser no lineal, por ejemplo, log-log logístico o
complementario, y no una línea recta como EM (yi) = ÿxi. Si la probabilidad de
tener la característica aumenta a medida que aumenta el MOS, entonces el
muestreo de pp(MOS) puede no ser tan malo. Sin embargo, si un mejor modelo es
que todas las unidades tengan una probabilidad común o que diferentes grupos de
unidades tengan diferentes probabilidades, el muestreo pp(MOS) producirá
estimadores con varianzas más altas que srswor o stsrswor.
Esta es una de las muchas ilustraciones de que un plan de muestreo dado no puede
ser ideal para todas las cantidades que se pueden estimar en una encuesta. Encontrar
compromisos que sean razonablemente eficientes para muchas estimaciones diferentes
es parte del arte de un buen diseño de la muestra. Como hemos dicho más de una vez,
las herramientas de programación matemática del Cap. 5 será extremadamente útil para
transformar el arte en una ciencia.
Aunque el muestreo pps puede ser muy eficiente en algunas circunstancias, puede tener
algunas desventajas prácticas cuando algunas unidades no responden. En las encuestas
de establecimientos, como las de negocios, escuelas u hospitales, se puede desear un
tamaño de muestra objetivo de los encuestados. Casi todas las encuestas enfrentan
algún grado de falta de respuesta. El Capítulo 13 describe algunas de las formas
matemáticas de ajustar las ponderaciones de las encuestas para intentar corregir el
problema. Otro método para lidiar con la falta de respuesta es sustituir otra unidad por
cualquiera que no responda. Esto es especialmente común en las encuestas de las
escuelas. Cuando se utiliza el muestreo pps para seleccionar las unidades iniciales, es
posible que un sustituto no tenga el mismo MOS que la selección original. Esto puede dar
lugar a cierta ambigüedad en la asignación de ponderaciones de la encuesta. ¿Debe el
sustituto recibir el peso asociado con la selección original? ¿O debería su peso ser el que
recibiría si hubiera sido una selección original en sí misma? Otra pregunta es cómo seleccionar el
Machine Translated by Google
Ejemplo 3.13 (Creación de estratos con igual MOS total). En el ejemplo 3.11 , la potencia
ÿ en el modelo EM (yi) = ÿ1 ÿxi+ÿ2xi, VM (yi) = ÿ2xÿ se estimó en 1,88 para
delahospitales.
Es población
Redondeamos esto a 1.75 para este ejemplo. El siguiente código creará H = 10 estratos
en la población de hospitales acumulando la lista ordenada de ÿ x1.75 y formando estratos
que tienen aproximadamente el mismo valor total de ÿ x1.75. Se deben seleccionar dos
unidades de cada estrato:
xg <- sqrt(xˆg)
N <- nfila(hosp.pop)
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 59
Nh stsrs pps.medios
Los modelos también se pueden usar para construir estimaciones de medias y totales que son
más eficiente que los estimadores ÿ. Pensando en un modelo que pueda describir
la dependencia de y de una x también puede ser una forma útil de calcular una muestra
Talla. Los detalles de este enfoque, dados en S¨arndal et al. (1992, cap. 12) y
Valliant et al. (2000, Secc. 4.4), se esbozan aquí. También hay una conexión particularmente
útil entre los cálculos del modelo que siguen y pps
muestreo, como veremos. Suponga que el siguiente modelo de regresión lineal
sostiene:
pags
VM (yi) = ÿ2vi,
Machine Translated by Google
donde el subíndice M significa que el cálculo se realiza con respecto a un modelo, los ÿj son
parámetros de pendiente, xji es la j-ésima variable auxiliar asociada a la unidad i, y vi es un valor
positivo. Un estimador basado en el diseño de la media poblacional de y que no está sesgado bajo
este modelo es el estimador de regresión general (GREG), definido por
pags
nv1/2 Es
pi =
Nevada 1/2
tu
con ¯v1/2 tu
=
U ÿvi /N . Con estas probabilidades óptimas, la propia varianza anticipada
aproximada es
. Una 2
AV y ˆ¯r = Nevada (1/2 )
tu ÿ Nv¯U ÿ2 , (3.36)
norte
donde ¯vU = U vi /N . Dividiendo por [EM (¯yU )]2 , obtenemos una especie de revarianza. y
2
Establecer el resultado igual a CV 0 resolver para n conduce a
2
(1/2 )
v¯
tu
norte = . (3.37)
currículo 2 [EM(¯yU )]2 v¯u
0 + ÿ2 norte
VM (yi) = ÿ2xi ,
esto se ajusta a la estructura requerida ya que vi ÿ xi, ÿvi ÿ ÿxi, y tanto xi como ÿxi son parte de EM
(yi). Este modelo permite una relación curva entre y y una sola x con la cantidad de curvatura
dependiendo de los coeficientes de pendiente.
Los modelos como este a menudo se ajustan bien a las relaciones en las poblaciones establecidas.
Machine Translated by Google
3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 61
Ejemplo 3.14 (Cálculo del tamaño de la muestra utilizando un modelo). Como ilustración, nosotros
regresión de los gastos totales (EXPTOTAL) de la población smho98 en el número de camas
(BEDS) y la raíz cuadrada del número de camas con la varianza
especificación en la Ec. (3.38). La gran organización y todas las organizaciones
con 0 camas se eliminan, dejando 670. El código R para hacer esto se enumera
abajo:
Parte de la salida es
Llamar:
˜
glm(fórmula = y 0 + sqrt(x) + x, pesos = 1/x)
Coeficientes:
Estimación estándar Error valor t Pr(>|t|)
sqrt(x) 1044992 34677 98955 10.560 < 2e-16 ***
X 9612 3,607 0,000332 ***
---
signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1''1
Machine Translated by Google
Los coeficientes tanto para ÿxi como para xi son altamente significativos. La
estimación de ÿ2 en la ecuación. (3.38) es la desviación residual dividida por sus grados
de libertad o (1.1510e+15)/668 = 1.723054e+12. Usando el mismo conjunto de 670
unidades, las medias de x, ÿx e y son 105,97, 8,84 y 12 912 191. Si queremos un CV
de 0.15 como en el Ejemplo 3.11, entonces
8.842 .
norte = = 34 .
105.97
0.152 12,912,1912
1.723118×1012 + 670
Una alternativa al uso de ¯yU , la media de y, sería el promedio de las predicciones del
modelo. Sin embargo, en el modelo (3.35), la estructura de varianza especial significa
que las dos alternativas son iguales. Continuando con el programa anterior, el código R
simple para calcular el tamaño de la muestra es
N <- nrow(tmp)
media(x) media(raíz
cuadrada(x))
Este estimador es un caso especial del GREG cuando el modelo es EM (yi) = ÿxi, VM (yi) = ÿ2xi. Su
relavarianza aproximada en srswor es
Una Una
S2R
[CV (¯yR)]2 = N2
ÿ
,
norte
norte
y¯2
tu
donde S2 R = (N ÿ 1)ÿ1 un tu
r2 con ri = yi ÿ xi (¯yU /¯xU ). Poniendo el CV a
Es
tu
y¯2 n = CV0 + , (3.39)
S2R norte
que es lo mismo que la Ec. (3.4) con S2 reemplazado por S2 r Así, la función
Se puede utilizar nCont.
Machine Translated by Google
Ejemplo 3.15 (Tamaño de muestra para un modelo de razón). Como en el ejemplo 3.14,
suponga que la media de los gastos totales (y) en la población smho98 se va a estimar
utilizando el número de camas (x) y suponga que el modelo es una línea recta que pasa
por el origen con varianza proporcional a x. Como en el ejemplo anterior, eliminamos la
única organización grande y todas las organizaciones con 0 camas.
El código R para calcular el tamaño de la muestra es:
representación proporcional de las unidades dentro de los dominios formados por el cruce de las
variables de estratificación implícitas. Por lo tanto, la muestra se controla por más que los estratos
de diseño sin formar una gran cantidad de pequeños estratos que puedan inflar la variación en los
pesos (ver discusiones en el Capítulo 14).
El problema matemático con el muestreo sistemático es que no se puede construir un estimador
de varianza no sesgado de diseño (ver S¨arndal et al., 1992, Cap. 3). La razón general de esto es
que ÿij = 0 para algunos pares de unidades.
Si la clasificación se usa para crear estratos implícitos, la razón intuitiva de que no exista un
estimador de varianza imparcial es que solo se selecciona una unidad de un intervalo de selección
sistemática. Independientemente de las razones para su uso, los estadísticos suelen colapsar los
intervalos de selección en uno o más estratos analíticos y fingen que el método de selección fue
otro, como stsrswor, stsrswor o ppswr, para estimar una varianza y calcular una muestra. Talla. Por
lo tanto, no se necesitan fórmulas especiales de tamaño de muestra para el muestreo sistemático.
El muestreo de Poisson es otra técnica en la que a las unidades se les pueden asignar
diferentes probabilidades de selección. Suponga que ÿi es la probabilidad asignada a la unidad i ÿ
U. A cada unidad de la población se le da una oportunidad de selección independiente. El tamaño
de la muestra es aleatorio, lo cual es un inconveniente del método.
Sin embargo, es especialmente útil para seleccionar una muestra de una población en la que el
marco debe compilarse durante un período de tiempo prolongado. Por ejemplo, en 2004, el IRS de
EE. UU. recibió más de 130 millones de declaraciones de impuestos de individuos y seleccionó una
muestra de alrededor de 200 000 declaraciones utilizando el muestreo de Poisson (Henry et al.
2008). Debido a que las personas presentan declaraciones para un año fiscal en particular durante
un año calendario completo (y, a menudo, más allá), el método de Poisson permite que el muestreo
se realice sobre la base de un flujo durante todo el año en lugar de esperar hasta que se presenten
todas las declaraciones.
Una implementación típica del muestreo de Poisson es dividir la población en grupos. A todas
las unidades de un grupo se les asigna la misma probabilidad de selección. En este caso, el
método de muestreo en cada grupo se denomina muestreo de Bernoulli. Como se muestra en
S¨arndal et al. (1992), condicionado al tamaño de la muestra en cada grupo, la muestra puede ser
tratada como si fuera seleccionada usando stsrswor. En consecuencia, se pueden utilizar los
análisis del tamaño de la muestra para el muestreo aleatorio simple estratificado.
El tamaño de muestra encontrado para cada estrato se establecería igual al tamaño esperado bajo
el muestreo de Bernoulli. Esto, a su vez, determinaría la probabilidad que se utilizará para cada
unidad en un grupo porque E(nh) = Nhÿh donde Nh es el recuento de marcos en el estrato h y ÿh
es la probabilidad de selección común para las unidades en el estrato.
La fórmula del tamaño de la muestra en las Seccs. 3.1 y 3.2 todos involucran parámetros de
población. Estos deben estimarse a partir de una muestra previa o de un conjunto de datos
secundario. Si la muestra anterior se seleccionó de la misma forma que la planificada
Machine Translated by Google
muestra, la estimación es directa. Si se planea un tipo de muestra diferente a la anterior, las cosas
son más complicadas.
Primero, suponga que la muestra anterior, s0, era una espada de tamaño n0. Los estimadores
norte 2 norte
yo=1
entonces como i=1 yi /N y S2 = insesgados de ¯yU(yi
= ÿ/(N
y¯U ) se definen
ÿ 1)
y¯s0 =
yi /n0 y
iÿs0
2
Sˆ2 = (yi ÿ y¯s0 ) /(n0 ÿ 1) .
s0
En el caso especial de una variable binaria, ¯ys0 se reduce a la proporción muestral p0 y Sˆ2 = n0p0
(1 ÿ p0) /(n0 ÿ 1). Si se va a estratificar la muestra planeada, se deben estimar las varianzas de
estrato. Dado que s0 es un srswor, el conjunto de unidades de muestra en cualquier dominio (por
ejemplo, un estrato) es una muestra de igual probabilidad del dominio. El número de casos de
muestra en el dominio es aleatorio, pero existe un argumento inferencial que nos permite condicionar
el número de unidades realmente observadas en cada dominio. Siempre que el tamaño de muestra
logrado sea mayor a 1, estimamos la media y la varianza en un estrato h como
y¯s0h = yi /n0h y
iÿs0h
2
h
Sˆ2 = (yi ÿ y¯s0h ) /(n0h ÿ 1) ,
iÿs0h
donde s0h es el conjunto de n0h unidades muestrales en el estrato h del estudio anterior.
Si y es binario, tenemos reducciones similares a las anteriores: ¯ys0h = ps0h y s2 = n0hp0h (1 ÿ
h /(n0h ÿ 1).
p0h)
En algunos casos, no tendremos microdatos pero se puede publicar una estimación de la
varianza, v (¯ys0 ), (o su raíz cuadrada). Suponiendo nuevamente que s0 fuera una espada de
tamaño n0, la varianza unitaria se puede estimar como
n0v ( ¯ys0 )
Sˆ2 = ,
1 ÿ f0
donde f0 = n0 /N . Si la muestra anterior fue más compleja que srswor pero tenemos un efecto de
diseño para la media estimada, y ˆ¯, entonces
ˆ¯
n0v y Una
Sˆ2 = ¯, (3.40)
1 ÿ f0 deff y
ˆ¯
y sin muestreo de reemplazo.
es el efectoPara
de diseño
aproximar
paraf0y =
ˆ¯.n0
Esto
/N, supone
es posible
queque
el deff
tengamos
se refiere
quea estimar
donde deff
N
con Nˆ = iÿs0 wi u obtener la información de alguna fuente secundaria publicada. Simuestreo
la fracción
ende
la
encuesta anterior es insignificante o el deff publicado usa una varianza srswr en su denominador,
simplemente establezca f0 = 0.
Machine Translated by Google
Ahora, considere el caso en el que se seleccionó una muestra pps de tamaño n utilizando
{pi}N de MOS yo=1. Aunque s0 probablemente se seleccionó sin reemplazo,
la solución estándar es tratar el diseño como si fuera ppswr. La estimación del parámetro V1
en la Eq. (3.32) es
2
Una Una
yo yo
Vˆ1 = ÿ
(3.41)
norte - 1 norte
Pi Pi
s0 s0
2
n2 Una
= wiyi ÿ wiyi ,
norte - 1 norte
s0 s0
ÿ1
donde wi = (npi) . Si el plan es seleccionar la nueva muestra con otra
conjunto de probabilidades {qi}N yo=1,
entonces todavía se puede estimar el nuevo V1 . el nuevo
V1 es
2
yo = y2
Es
-t 2
V1 = qi ÿ tu U. _ (3.42)
qi qi
tu tu
El término nÿ1 tu y2 Es
/qi es una población total y se puede estimar mediante
s0 y2 /(qipi). Un estimador insesgado de la ecuación. (3.42) es
Es
2
Una Una
y2 yo
Vˆ1 = Es ÿ
+ vt ˆÿ (3.43)
norte
qipi norte
Pi
s0 s0
2
norte
Ejemplo 3.16 (Estimación de la varianza unitaria para el muestreo ppswr). una muestra de 20
de la población hospitalaria fue seleccionada con probabilidad proporcional a
el número de camas de hospital (xi), pp (x), para estimar el promedio
número de altas (yi). Los datos se enumeran en la Tabla 3.5. calculamos
Vˆ y ˆ¯pwr ÿ Vˆ1 N2n para la muestra pp(x ) de tamaño n = 20 de un total de
N = 393 hospitales. Las probabilidades de inclusión, ÿi = npi, se calculan
con pi = xi / U xi donde U xi = 107, 956. Los pesos se calculan como
ÿ1
el inverso de los ÿi, es decir, wi = (npi) .
La estimación y ˆ¯pwr se calcula como 813.1. Para estimar la varianza muestral de
el pwr -estimator, primero calculamos Vˆ1 en Eq. (3.41) como Vˆ1 = 11, 001, 669, 955.
Sustituyendo este valor en la fórmula Vˆ y ˆ¯pwr (3.32), tenemos
y un CV estimado de 0,073.
Ahora, suponga que planeamos seleccionar una muestra futura con probabilidades
proporcional a la raíz cuadrada de las camas. El estimador (3.43) se aplica con qi = ÿxi U ÿxi
y pi = xi / Uxi : _
2
Una
y2
Es
Una
yo
Vˆ1 = ÿxi
ÿ
+ vy ˆ¯pwr
norte
tu ÿxipi norte
Pi
s0 s0
5992.3
= 410, 727, 850 ÿ 319, 5452 + 3, 561,62
20
= 20, 950, 895, 199,
Tabla 3.5: Datos de muestra para 20 hospitales seleccionados con probabilidades proporcionales a
el número de camas de hospital.
En estos ejemplos, el muestreo pp (x) o pp (ÿx) junto con el estimador ÿ es más eficiente
que srswor debido a la fuerte relación entre las descargas y los lechos. Usando un estimador
de regresión como en la Secc. 3.2.2, junto con pp (x), es probable que sea aún más eficiente.
Sin embargo, una palabra de precaución está en orden. Las estimaciones de las varianzas
unitarias, V1 y S2, son en sí mismas variables. Otra muestra s0 de n = 20 puede producir
estimaciones diferentes, y posiblemente muy diferentes, de las anteriores. El ejercicio 3.13 le
pide que seleccione varias muestras de la población del hospital para tener una idea de esto.
norte
(1 ÿ pU ) ÿÿ
Machine Translated by Google
log(a)
norte . (3.45)
ÿ log (1 ÿ pU )
(La desigualdad se invierte ya que log (1 ÿ pU ) es negativo.) La tabla 3.6 a continuación muestra
que los tamaños de muestra y el número esperado de casos en la muestra para ÿ = 0.05
y 0,01 para un rango de valores de la prevalencia poblacional. para extremadamente
características raras, como pU = 1 / 100, 000 que se trata de la prevalencia de
enfermedad de Addison, se necesitaría una muestra de casi 300.000 para tener sólo
una probabilidad de 0.05 de no observar un caso. Incluso con ese tamaño de muestra,
el número esperado de casos de muestra es solo 3, que no es suficiente para ser
digno de analizar.
Tabla 3.6: Tamaños de muestra y número esperado de casos con una característica rara.
ÿ pu nnpU
(N - UN) (N - UN - 1)...(N - UN - n + 1) .
norte = = ,
norte
(norte - 1) (norte - 2)...(norte - norte + 1) norte - tu
norte
probabilidad de no observar errores en una muestra de 200 es 0.107. Por lo tanto, tomamos
A = 10 como el límite superior de confianza del 90 % sobre el número de errores reales.
Jovanovic y Levy (1997) cubren un método interesante conocido como ÿ ÿ que condujo a
norte
.
PU = ÿ ln (ÿ) /n .
Cuando ÿ = 0.05, ÿ ln (ÿ) . = 3, loque implica que un límite de confianza superior del 95 % en
pU es de aproximadamente 3 /n. Esta es una regla general útil para obtener un límite rápido
en la proporción. Korn y Graubard (1998) y Kott y Liu (2009) se ocupan de varios métodos
alternativos adicionales.
Para rasgos extremadamente raros, el muestreo aleatorio sin restricciones rara vez es
una buena idea. Es posible que se necesiten tamaños de muestra grandes para obtener una
precisión aceptable para las estimaciones de la población completa. El problema se complica
si se desean estimaciones para subgrupos, como los definidos por edad, género y región.
Kalton (1993) brinda una revisión exhaustiva de las opciones que podrían usarse para el
muestreo. Distingue entre características raras, poblaciones raras, poblaciones móviles,
flujos de población y poblaciones escurridizas. La estratificación, el uso de marcos múltiples,
el muestreo por multiplicidad y el muestreo en dos fases son algunas de las técnicas
disponibles. Nos referiremos al muestreo en dos fases en el Cap. 17
1. Dominios de diseño: subpoblaciones que están restringidas a estratos específicos (p. ej.,
Ontario en una encuesta en Canadá donde las provincias son estratos)
2. Clases cruzadas: grupos que están ampliamente distribuidos en los estratos y unidades
primarias de muestreo (PSU) (p. ej., afroamericanos mayores de 50 años en los EE. UU.)
Muy en los EE. UU., tendremos que muestrear estos últimos a una tasa mucho más alta que los
primeros porque los blancos son una proporción mucho mayor de la población.
Una pregunta legítima es: si los dominios van a ser importantes para los analistas, ¿por qué
no hacer de cada dominio un estrato de diseño para que se pueda controlar el tamaño de la
muestra en cada uno? Hay algunas razones por las que esto no siempre se puede hacer.
En primer lugar, es posible que el marco no proporcione la pertenencia a un dominio para todas
las unidades antes del muestreo (p. ej., adultos que buscan trabajo). En segundo lugar, el uso de
los dominios para los estratos puede resultar poco práctico. Los dominios no pueden ser disjuntos.
Por ejemplo, podemos querer analizar personas en dominios definidos por género y raza/etnicidad.
Los estratos que dan cuenta de ambos factores tendrían que definirse mediante la clasificación
cruzada de género × raza/etnicidad. Cuando muchos dominios son de interés analítico, el cruce
completo de todos ellos puede resultar demasiado engorroso para utilizarlos como estratos
individuales.
En los casos en que los identificadores de dominio están disponibles en el marco, pero no se
forman estratos explícitos que utilicen todos los dominios, los profesionales suelen tratar de
garantizar la representación de cada uno mediante el uso de muestreo sistemático. En nuestro
ejemplo simple, el marco podría ordenarse por género y luego por raza/etnicidad dentro del género.
Una muestra sistemática de igual probabilidad se distribuiría por género y raza/etnicidad de
manera muy similar a la población. Este método generalmente eliminaría las muestras que están
mal distribuidas entre los dominios, pero no sobremuestrearía ningún dominio.
Cada vez que un analista realiza una tabulación cruzada, las celdas de la tabla contienen
estimaciones de dominio. Por lo tanto, hacer estimaciones de dominio es un paso estándar en el
análisis de datos de encuestas. En una encuesta de personal militar, por ejemplo, los estratos de
diseño podrían ser una rama del servicio cruzada con el grado de pago, mientras que un dominio
podría ser el conjunto de personal que estuvo estacionado en el extranjero en cualquier momento
durante los últimos 5 años. En una encuesta telefónica de hogares, los dominios pueden ser los
grupos de personas que informan que tienen un título universitario o que han sufrido robos en sus
casas en el último año. También puede haber motivos no deseados para que una estimación se
trate como si fuera para un dominio. Si un marco contiene unidades no elegibles, por ejemplo, un
marco comercial que tiene listados fuera del negocio, entonces las unidades elegibles son un
dominio.
Una característica clave del problema de estimación del dominio es que la pertenencia al
dominio para clases cruzadas y clases mixtas a menudo no se determina hasta que se recopilan
los datos. En tales casos, la cantidad de unidades de muestra en un dominio es aleatoria y, por lo
general, se desconoce la cantidad total de miembros del dominio en la población. Esto da como
resultado que los medios de dominio estimados se construyan como la proporción de un total
estimado dividido por una estimación del número de unidades de dominio en la población. Dichos
estimadores de razón requieren métodos aproximados para la estimación de la varianza que se
describen a continuación.
Al diseñar una muestra para cubrir adecuadamente los dominios que se van a analizar, hay
dos opciones. Una es calcular el número esperado de unidades que ocurrirán en la muestra en
cada dominio para un tamaño de muestra total particular. Luego, el tamaño total de la muestra se
hace lo suficientemente grande para que, en la expectativa, los dominios clave de interés estén
adecuadamente representados. Por ejemplo,
Machine Translated by Google
según la ENS 2006, alrededor del 14,8 % de las personas no tenían ningún tipo de
seguro de salud en el momento de la entrevista.7 Si una muestra de igual probabilidad
de personas fueron seleccionadas y se deseaban 1,000 personas en el sector no asegurado
dominio, necesitaríamos una muestra de alrededor de 6.760 (= 1.000/0,148) para obtener 1.000
a la espera. Habrá, por supuesto, alguna variación de muestra en el número
realmente obtenido. Por lo tanto, sería prudente seleccionar más de 6760 para estar seguro.
La segunda opción sería seleccionar una muestra de dos fases, que cubrimos en
Cap. 17. En la primera fase, se administran preguntas de detección para determinar
pertenencia al dominio. En la segunda fase, las unidades se submuestrean a tasas
diseñado para obtener tamaños de muestra de dominio especificado. Las tasas de submuestreo
varían entre los dominios. Idealmente, el uso de una segunda fase permite que los conteos de
la primera fase se tabulará antes de fijar las tarifas de la segunda fase. Tener
esta flexibilidad permite un control mucho mejor sobre los tamaños de muestra logrados que
hace selección monofásica. En algunas encuestas con calendarios ajustados, este
la ventaja se diluye un poco porque las tarifas de la segunda fase deben establecerse en función de
en datos parciales de la primera fase. Incluso en este caso, el muestreo en dos fases
puede ser eficaz para controlar los tamaños de muestra de los dominios.
Suponga que se selecciona una muestra aleatoria simple sin reemplazo y
que se desconoce la pertenencia al dominio antes de realizar el muestreo. el estimado
de un dominio total para una variable y es t ˆd = (N /n) s ydi donde ydi es el valor
de la variable para una unidad si está en el dominio d y es 0 si la unidad no está en el
dominio. Esto también se puede escribir como ydi = yiÿi con ÿi = 1 si la unidad i está en el
dominio y 0 si no. La varianza de t ˆd es
N2 norte
Vtd= 1- S2,
norte norte
donde la varianza de la unidad se calcula incluyendo los ceros para las unidades que no son de dominio.
La varianza unitaria se puede reescribir como S2 . = PdS2 _ d + Qdy¯2 ud donde S2 d es el
varianza entre unidades que están en el dominio, ¯yUd es la media poblacional para
esas unidades, Pd = Nd /N es la proporción de unidades en la población que son
en el dominio, y Qd = 1ÿPd (ver Hansen et al. 1953a, Sect. 4.10; Cochran
1977, secc. 2.11). Usando esta versión de S2, la revarianza de t ˆd es
2
=
Una norte currículum
vitae + Qd
CV2 t d . 1- , (3.46)
norte norte PD
2
donde CV d = S2 d y¯2
ud es la unidad de revarianza entre las unidades de dominio. Ajuste
2
ecuación (3.46) igual a un valor objetivo CV 0 y resolviendo para n da
2 2
currículum
+ Qd . currículum
+ Qd
norte =
vitae
= vitae
.
CV 2 2 (3.47)
2 d +Qd PDCV 0
PDCV 0 + norte
7
http://www.cdc.gov/nchs/data/nhis/earlyrelease/200706 01.pdf.
Machine Translated by Google
estimado por y ˆ¯d = t ˆd Nˆd donde Nˆd = Nnd /n. Aproximación lineal y ˆ¯d
lleva a
. Una
. Una N2 norte
V y ˆ¯d = 1- S2mi
N2d norte norte
. Una norte
2
CV2 y ˆ¯d = 1- currículum
vitae _
npd norte
2
Estableciendo esto igual a CV 0 y resolviendo para n da
2 2
currículum . currículum
norte =
vitae
= vitae
.
2 2 (3.48)
2 currículum
PDCV 0
PDCV 0 +
vitae
norte
Este tamaño de muestra para estimar una media puede ser sustancialmente más pequeño que el
uno en la Ec. (3.47) para estimar el dominio total como se ilustra en la Tabla 3.7.
2
Para un dominio pequeño con unidad de revarianza de 1 (CV = 1) un srsd de 15,600 es
requerido para obtener un CV para el total estimado de 0.05. Sin embargo, una muestra
de 8.000 para estimar la media con un CV de 0,05. como el dominio
se vuelve más frecuente, es decir, Pd se vuelve más grande, los tamaños de muestra para los totales
y los medios se vuelven más cercanos entre sí.
nd + nd 2
1ÿ (¯yUdh ÿ y¯Ud ) ,
Nh ÿ 1 Nueva Hampshire
decir, cuando el dominio se distribuye uniformemente entre los estratos de modo = Pdque
(es
Pdh . una clase cruzada uniformemente distribuida), esta fórmula se puede interpretar
aproximadamente como la suma de (i) la varianza que se obtendría si supiéramos la
pertenencia al dominio por adelantado y muestreó un número fijo de unidades de dominio
directamente y (ii) una contribución debido a la diferencia en las medias de dominio entre
los estratos. Con el
. propósito de determinar el tamaño de la muestra, la Ec. (3.50) es
uso. Si la expresión
difícil
ndh= depende
nhPdh, esto
solose
depuede
los nh.sustituir
Los métodos
en la Ec.
de (3.50)
asignación
para obtener
de muestras
un
a estratos cubiertos en la Secc. 3.1.2 puede usarse reemplazando S2 con Sÿ2
h
pdh 2
h
= Pd
2 S2dh + Qdh ( ¯yUdh ÿ y¯Ud ) . Para usar esta sustitución, bastante
_
Machine Translated by Google
Por
qué¯h hÿSd
y ˆ¯d = ,
¿Qué?
hÿSd
hÿSd
En otras palabras, la varianza depende únicamente de las contribuciones de los estratos que
están en el dominio. En este caso, una estimación muestral de la varianza en la ecuación.
(3.51) se construye fácilmente sustituyendo s2 por S2 siempre que
h asignación
se conozca
h individuales
a Nd
estratos
. La se
puede controlar directamente para que se puedan lograr los niveles deseados de precisión en
diferentes estratos.
Los efectos de diseño se pueden utilizar para ajustar un tamaño de muestra calculado para
una muestra de una sola etapa para, al menos, aproximarse al tamaño necesario en una
muestra más complicada. El deff para algún estimador ˆÿ se define como
Vˆÿ
deff ˆÿ = ,
Vsrs ˆÿ
donde V denota la varianza bajo cualquier diseño de muestra que se use (estratificado,
agrupado, etc.) y Vsrs es la varianza srs del estimador srs del mismo parámetro de población.
Esta notación es un poco imprecisa porque la estimación ˆÿ probablemente no se calcule de la
misma manera en una muestra aleatoria simple y en una muestra más compleja. Si n se calcula
utilizando una fórmula de muestreo aleatorio simple, entonces n × deff es el tamaño de muestra
necesario en el diseño más complejo para lograr la misma varianza que la muestra aleatoria
simple.
Machine Translated by Google
En algunos diseños, este es un cálculo bastante tosco. Por ejemplo, en un diseño de dos
etapas en el que se muestrean los conglomerados y los elementos dentro de los conglomerados,
n × deff no dice nada acerca de cuántos conglomerados y elementos por conglomerado se
deben muestrear para una asignación eficiente. De hecho, el deff no se aplicará a menos que
la nueva muestra tenga la misma cantidad de conglomerados y elementos por conglomerado
que la utilizada para calcular el deff.
Si se obtiene un deff de un paquete de software, es importante entender cómo se calcula
el deff. Por ejemplo, SUDAAN (RTI International 2012) proporciona cuatro efectos de diseño
diferentes que explican algunos o todos los efectos de estratificación, agrupación, ponderación
desigual y sobremuestreo de subgrupos. Estos pueden ser informativos después de que se
haya seleccionado una muestra para medir la contribución a la varianza de los diferentes
factores. Una de las cosas más básicas que hay que entender es si la varianza de srs en el
denominador del deff se calcula utilizando una fórmula con reemplazo o sin reemplazo. Cuando
la fracción de muestreo es grande, estos pueden ser bastante diferentes.
A menudo, la muestra que se puede permitir es una pequeña parte de la población, por lo que
srswr es la opción adecuada para el denominador.
Sin embargo, los deff de una encuesta anterior pueden no ser tan útiles al planificar una
nueva encuesta. Es posible que no esté repitiendo el mismo tipo de diseño para el que el
software calculó los deff. Las definiciones de estratos y conglomerados pueden ser diferentes.
Los tamaños de muestra deseados para los subgrupos pueden ser diferentes. El método de
ponderación (p. ej., ajustes por falta de respuesta y uso de datos auxiliares) que utilizará puede
ser diferente. Si un nuevo diseño se apartará sustancialmente de uno anterior, los métodos de
tamaño de la muestra en los siguientes capítulos que consideran explícitamente los efectos de
los estratos, las metas de precisión para los subgrupos, los componentes de la varianza para
los diseños de etapas múltiples y otras características del diseño deberían dar respuestas más
útiles que las simples. ajustes de definición.
3.7.1 Paquetes R
Ejemplo 3.18. [Seleccione una muestra estratificada (stsrswor)]. Deseamos seleccionar diez
hospitales de cada uno de los seis estratos en el archivo de datos smho98 usando el R
estratos de función del paquete de muestreo. El siguiente código ilustra
cómo importar un archivo de transporte SAS (smho.xpt), crear una nueva variable llamada
stratum6 en el objeto de población y seleccione un stsrswor usando estratos.
Al leer datos y hacer cálculos especializados, como crear el
variable stratum6, siempre es aconsejable verificar su trabajo mirando la
contenido y tamaño del archivo de datos y tabulación de resúmenes de variables derivadas.
Mostramos algunos de estos pasos en los ejemplos 3.18 y 3.19 pero omitiremos
de la mayoría de los otros ejemplos en este libro. Sin embargo, el lector debe
tenga en cuenta que la verificación minuciosa es fundamental para hacer un trabajo de alta calidad:
# Cargar bibliotecas R
requerir (extranjero)
requerir (muestreo)
# Semilla aleatoria para la selección de muestras
set.seed(82841)
# Cargue el archivo de transporte SAS y examine
smho98 <- leer.xport("smho98.xpt")
tenue (smho98)
[1] 875 378
Machine Translated by Google
smho98[1:5,1:5]
ESTRATO LECHO EXPTOTAL SEENCNT EOYCNT
Una 1 81 9066430 1791 184
2 1 80 9853392 1870 244
3 1 26 3906074 1273 0
4 1 90 9853392 1781 154
5 1 71 9853392 1839 206
tabla(smho98$stratum6,smho98$STRATUM)
Una 2 34 5 6 78 9 10 11 12 13 14 15 16
1 151 64 00 0 0 00 0 0 0 0 0 0 0 0
2 0 0 43 22 0 0 00 0 0 0 0 0 0 0 0
3 0 0 0 0 150 23 65 14 0 0 0 0 0 0 0 0
4 0 0 00 0 0 0 0 38 12 0 0 0 0 0 0
5 0 0 00 0 0 00 0 0 13 77 59 0 0 0
6 0 0 00 0 0 00 0 0 0 0 0 86 39 19
tabla(smho98$estrato6)
123456
215 65 252 50 149 144
paquete de supervivencia se carga antes que el paquete de muestreo y usted intenta seleccionar
una muestra estratificada, es probable que ocurra un error porque R usará los estratos incorrectos.
Si es así, verifique el orden en que R busca archivos y empaqueta con search(). Si es necesario,
separa la supervivencia con el comando detach("paquete:supervivencia").
Ejemplo 3.19 (Seleccione una muestra pps estratificada). Se requiere una muestra de 50
hospitales para un estudio de las instituciones enumeradas en el archivo de datos smho98. En
lugar de seleccionar un stsrswor como en el Ejemplo 3.17, seleccionaremos una muestra pps
dentro de cinco estratos de diseño con una medida de tamaño definida como la raíz cuadrada del
tamaño del lecho, es decir, pp ( ÿx) discutida en la Secc. 3.5.2. Usaremos la función R ppssstrat
del paquete pps para dibujar una muestra proporcional (aproximada) dentro de los estratos. La
función de ronda se usa para eliminar los tamaños de muestra fraccionarios por conveniencia, de
ahí el uso de "aproximado" en nuestra discusión.
Debido a que los establecimientos para pacientes ambulatorios no están incluidos en la población
objetivo, todos los hospitales con cero camas se excluyen del marco de la lista antes de extraer
la muestra, como se muestra en el siguiente código:
# Cargar bibliotecas R
require(extranjeras) require(pps)
12345
215 64 216 44 132
norte
Dos puntos a tener en cuenta son que ppssstrat selecciona una muestra
sistemática del marco del estrato sin realizar ningún orden dentro de los estratos.
Si desea aleatorizar el orden dentro de los estratos, use la función permuteinstrata
en el paquete pps. Además, se puede seleccionar exactamente la misma muestra
con estratos del paquete de muestreo con el código:
requerir (muestreo)
# Semilla aleatoria para la selección de muestras
set.seed(4297005) sam <- strata(data
= smho98,
stratanames = "stratum5", size =
smp.size.h, = "systematic", =
smho98$sqrt.Beds)
metodo
pik
Machine Translated by Google
Por ejemplo, METHOD=SRS producirá una muestra segura del archivo de datos de entrada. Incluir
una variable STRATA dará como resultado muestras sólidas dentro de estratos explícitos, es decir,
una muestra sólida. Los estratos implícitos (es decir, las variables de clasificación) se identifican
con la instrucción CONTROL. Las muestras sistemáticas de una sola etapa se pueden seleccionar
con METHOD=SYS. Las muestras de pps se seleccionan con reemplazo usando METHOD=PPS.
También se incluyen algunos procedimientos de muestreo de pps especializados (Brewer, Murthy,
Sampford y Chromy), pero no los trataremos en este libro. Un lector interesado puede consultar
Cochran (1977) y Chromy (1979) para detalles de estos métodos.
Tenga en cuenta que SURVEYSELECT selecciona muestras solo dentro de una etapa particular
de un diseño. El código debe adaptarse y ejecutarse para cada etapa de un diseño de etapas
múltiples, como se analiza más adelante en los Caps. 9 y 10.
Ejemplo 3.20 (Seleccione stsrswor con SAS). En este ejemplo, reproducimos los resultados del
Ejemplo 3.18 usando SAS PROC SURVEYSELECT. Al igual que con el programa R del ejemplo
3.18, el primer paso es leer el archivo de transporte SAS.
Aquí, además, asignamos un número de identificación único a cada registro hospitalario:
Después de crear la variable de estrato con valores 1–6, el stsrswor se selecciona usando
El archivo de datos de salida, SampData, contiene un registro para cada uno de los 60
hospitales muestreados aleatoriamente, todas las variables incluidas en el archivo de datos de
entrada smho98 y dos variables adicionales:
8
http://support.sas.com/documentation/.
Machine Translated by Google
Ejemplo 3.21 (Seleccione una muestra pps estratificada con SAS). Se seleccionó una muestra de
pp ( ÿx) de 50 establecimientos para pacientes hospitalizados en el Ejemplo 3.18 usando la función
R ppssstrat después de determinar una asignación proporcional aproximada a cinco estratos de
diseño. La asignación proporcional se puede calcular con una llamada inicial a PROC
SURVEYSELECT como se muestra en el código SAS a continuación:
El archivo de datos de salida, StratSiz, contiene la asignación para cada uno de los cinco estratos
de diseño. Nótese que los valores coinciden con los calculados “a mano” con R en el Ejemplo 3.18:
Muestra de estrato
Tamaño
Una dieciséis
2 5
3 dieciséis
4 3
5 10
50
Machine Translated by Google
Debido a que se usó la opción nosample, esta llamada de procedimiento solo calcula los
tamaños de muestra específicos del estrato. El siguiente código selecciona la muestra de 50
hospitales de hospitalización:
ID HospID;
CORRER;
Machine Translated by Google
Ejercicios
objetivos de estimación en (a), (b) y (c). (a) Coeficiente de variación del 10 %. (b) Error
estándar de 3 % puntos. (c) MOE de 3% puntos. (d) Para cada uno de los tamaños de
muestra que calculó en (a), (b) y (c), ¿cuáles son los anchos medios anticipados de los
intervalos de confianza del 95 %? Usa la aproximación normal con un multiplicador de 1.96.
(e) Comente las diferencias en los tamaños de muestra que resultan de los tres objetivos
de precisión en (a), (b) y (c).
(a) Calcule CV (ps) y V (ps) para un tamaño de muestra de n = 100 para pU en (0.01,
0.05, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 0.95, 0.99 ) ). (b) Grafique los valores de
CV (ps) versus pU y V (ps) versus pU . (c) Discuta las diferencias en las relaciones.
3.3. Suponga que la población está compuesta por 1.000 establecimientos comerciales.
El número medio de empleados a tiempo completo por establecimiento es 50. La varianza
poblacional del número de empleados a tiempo completo es 150.
(a) Calcule el tamaño de una muestra aleatoria simple seleccionada sin reemplazo que
sería necesaria para producir un CV de la media muestral del 5 %. (b) ¿Qué pasaría
si anticipara que solo el 40 % de los establecimientos de la muestra respondería a una
solicitud de datos? ¿Cómo afectaría eso el cálculo del tamaño de la muestra en (a)?
(c) Suponga que realiza la encuesta y obtiene una tasa de respuesta del 35 %.
¿Esperaría que la media del 35 % que respondió fuera una buena estimación de la media
de la población? ¿Por qué o por qué no?
3.4. (a) Suponga que un investigador establece una tolerancia deseada e tal que Pr (|y¯s
ÿ y¯U | ÿ e)=1 ÿ ÿ. Suponiendo que ¯ys se puede tratar como una distribución normal,
demuestre que esto es equivalente a establecer el ancho medio de un intervalo de
confianza bilateral de 100 (1 ÿ ÿ) % igual a e = z1ÿÿ/2 V (¯ys) .
Machine Translated by Google
3.5. Verifique la fórmula (3.12) para el tamaño de muestra necesario cuando se establece un
MOE e para estimar una proporción.
3.6. Verifique la fórmula (3.17) para el tamaño de muestra requerido derivado del cálculo de
MOE usando la aproximación normal para el log-odds de una proporción.
3.7. Un investigador quiere estimar la prevalencia de una característica que se especula que
es rara. La mejor conjetura del investigador es que la prevalencia es del 2 %. Le gustaría
estimar la prevalencia con un MOE de 0,005.
(a) Las variables camas y egresos en la población hospitalaria (b) Las variables gasto
total (EXPTOTAL), número de camas de hospitalización
(BEDS), número de pacientes atendidos durante 1998 (SEENCNT), número de clientes en
los roles a finales de 1998 (EOYCNT), y número de visitas de pacientes (Y IP) en la
población smho98
3.9. Este problema utiliza los valores resumen para la población (smho98) de las organizaciones
de salud mental en la Tabla 3.2. Suponga que se seleccionará un jurado en cada estrato. En
todas las partes, redondee los tamaños de muestra calculados al entero más cercano.
(d) Suponga que su objetivo para CV (¯yst) es 0.15 y que la estructura de costos es la misma
que en la parte (a). Calcule la asignación óptima y el costo total, C ÿ c0, para esa
asignación.
Machine Translated by Google
(e) ¿Cuáles son los CV para las medias de los estratos individuales estimados para sus
asignaciones en las partes (a), (b) y (d)? Comente los resultados. (f) Suponga que a su
cliente gubernamental le gustaría publicar estimaciones de estratos individuales, pero que la
agencia tiene una regla inequívoca de que una estimación debe tener un CV de 0,30 o
menos para ser publicable. ¿Alguna de sus asignaciones en (a), (b) y (d) satisface este
criterio? Encuentre una asignación que cumpla con el criterio de 0,30 CV para todos los
estratos; calcule su costo y el CV que da para la media poblacional estimada en todos los
estratos. ¿Cómo discutiría las compensaciones entre esta nueva asignación y las de (a),
(b) y (d) con el cliente? (g) ¿Cuáles son los efectos de diseño para ¯yst para las
asignaciones en las partes (a), (b),
y (f)?
(a) Utilice las organizaciones con un número positivo de IPV como población y determine el
número de unidades de muestra necesarias para estimar la media de IPV por organización
con un CV de 0,10. Suponga que la muestra se seleccionará con probabilidad proporcional
al número de camas de hospitalización (BEDS) y que se utilizará y ˆ¯ÿ. Determine qué
unidades deben tomarse todos y el desglose del tamaño de la muestra en tomas todas y
no tomas todas.
Designe cualquier unidad con una probabilidad de selección de 0.8 o mayor como toma
total.
(b) Repita la parte (a) con un CV objetivo de 0,15. (c)
Ahora, suponga que decide utilizar un estimador de regresión del número medio de descargas.
Utilice un modelo sin intercepción y con la raíz cuadrada de las camas y las propias
camas como predictores. Si este modelo es correcto, ¿cuál es el MOS óptimo para usar
en una muestra de pps? ¿Qué muestra se requeriría para obtener un CV anticipado de
0.10 con este estimador de regresión y una muestra seleccionada con el MOS óptimo?
(d) Explique cualquier diferencia en los resultados de las partes (a) y (c).
N2 2
3.11. Muestre que la Ec. (3.41) se reduce a Vˆ1 = (yi ÿ y¯s0nÿ1
) sis0la muestra s0 es srswr de
tamaño ny la muestra planificada debe ser srswr. Por eso,
2
Vˆ1 N2n = [n (n ÿ 1)]ÿ1 s0(yi ÿ y¯s0 ) .
(a) Calcule las ponderaciones de diseño para los 50 hospitales de muestra. ¿Cómo podría
verificar que los pesos se calcularon correctamente? Mostrar la verificación. (b) Estime el
número promedio de descargas con base en la muestra utilizando el estimador ÿ de la media.
Suponga que se conoce el conteo de población, N = 393.
(c) Estime la varianza de la muestra para su estimación en (b) utilizando la fórmula para el
muestreo con reemplazo. (d) Estime el intervalo de confianza del 95 % para su estimación
en (b). ¿Qué suposiciones está haciendo al calcular este intervalo de confianza? (e) Suponga
que desea seleccionar una nueva muestra con probabilidades proporcionales a la raíz
cuadrada de las camas. Estime el V1 apropiado para este diseño.
3.14. En preparación para un próximo estudio, se le ha pedido que realice cálculos del tamaño
de la muestra usando dos variables de análisis separadas, y1 e y2. La población, de la que se
seleccionará la muestra, contiene 1.000 unidades. Los datos recopilados durante un estudio
anterior utilizando un diseño de espada están contenidos en el archivo Domainy1y2.txt.
(a) Determine el tamaño de muestra necesario para alcanzar un CV objetivo = 0,05 para la
media estimada de las dos variables de análisis, y1 e y2. ¿Son diferentes los tamaños de
muestra estimados? Es así, ¿por qué? (b) Si el nivel de precisión del objetivo aumenta a un
CV = 0,03, ¿cómo
los cálculos en (a) cambian?
(c) Repita sus cálculos en las partes (a) y (b) para la proporción de unidades cuyos valores para
y1 son menores o iguales a 50 (y1 ÿ 50). (d) Repita sus cálculos en las partes (a) y (b) para
la proporción de unidades cuyos valores para y1 son menores o iguales a 22 (y1 ÿ 22). Compare
sus resultados de las partes (c) y (d).
3.15. Algunas poblaciones se pueden dividir en elementos que tienen un valor cero para una
variable y otros que tienen un valor distinto de cero. Por ejemplo, la ley fiscal de los EE. UU.
permite a las empresas reclamar un crédito fiscal por los sueldos y salarios de los empleados
que participan en la investigación, tal como se define en “Emisión coordinada de créditos para
todas las industrias por aumentar las actividades de investigación: gastos de investigación calificados”.
(18 de junio de 2004).9 Algunos empleados se dedican a la investigación calificada para algunos
9 Disponible en http://www.irs.gov/businesses/article/0,,id=182094,00.html.
Machine Translated by Google
porcentaje de su tiempo (los distintos de cero); otros no investigan nada (los ceros). (a) Demuestre que
la varianza unitaria, S2 =
norte 2
yo=1
(yi ÿ y¯U ) /(N ÿ 1), se puede escribir
diez como
Una
.
= P S2 Una
+ Qy¯2 U1 ,
. Una
S2
norte
= Una
+Q
P ÿ CV 2
0 y¯2
U1
(c) Grafique el tamaño de la muestra en (b) versus P para valores de la unidad de varianza entre
elementos distintos de cero iguales a 1, 2 y 4.
(a) Compare las probabilidades de selección para estos dos diseños de muestra. Por ejemplo, calcule
la probabilidad de selección media de pps dentro de cada estrato y compárela con las
probabilidades de selección de stsrswor. (b) Grafique las probabilidades de stsrswor frente a las
probabilidades de selección de pps.
3.17. Utilice la población smho.N874 para estimar la potencia ÿ en el modelo EM (y) = ÿ1 ÿx + ÿ2x, VM
(y) = ÿ2xÿ. La variable Y son los gastos totales, que es la variable EXPTOTAL en el archivo smho.N874.
La variable x es número de camas (BEDS). Utilice las organizaciones con un número positivo de camas
como población. Con base en su estimación de ˆÿ, ¿qué tipo de método de muestreo pps sería
eficiente? ¿Qué tipo de estimador de regresión general recomendaría?
Machine Translated by Google
3.18. Suponga que la muestra de tamaño n se seleccionará con ppswr usando un MOS
x y que el estimador de pwr se usará para estimar la media.
Hay nt toma-todos identificados usando alguna regla empírica, digamos, xk ÿ Nx¯U /n.
Escriba el pwr -estimator para esta situación. Demuestre que el tamaño de la muestra de
no tomar todo requerido para lograr un coeficiente de variación de CV0 es
V1
nnt = 2
(Ny¯U CV0)
2
donde V1 = Unt pk (yk /pk ÿ Tnt) todos, siendo Unt el universo de no tomar
siendo los pk las probabilidades de selección de 1 sorteo de los que no se lo llevan todo,
Unt yk. Demuestre que el CV de y ˆ¯ÿ es y Tnt =
V1
CV y ˆ¯ÿ = .
Ny¯U ÿnnt
3.19. Planea seleccionar una muestra aleatoria simple sin reemplazo de la población de
Detroit, Michigan. El número de visitas a un médico por persona se estimará por separado
para afroamericanos y todas las demás personas. Los datos del censo muestran que los
afroamericanos son el 83 % de la población.
Tiene estas estimaciones de una encuesta anterior:
(a) Determine qué tamaño de muestra aleatoria simple se necesitaría para obtener CV
para el número medio estimado de visitas por persona de 0.01, 0.05, 0.10 y 0.20.
Suponga que la población es tan grande que N puede tratarse como infinito.
(b) Suponiendo que se seleccionará una sola muestra, ¿qué grupo determinará
el tamaño total de la muestra necesario para alcanzar los objetivos de CV?
(a) Demuestre que la aproximación lineal a y ˆ¯d es y ˆ¯d ÿ y¯Ud ei Ne¯s donde Dakota del Norte
N2d 1-
norte
S2 con S2
norte mi mi tu
e2
yo _
2 . 1 2
= npd
norte
Capítulo 4
Cálculos de potencia y tamaño de muestra
Determinación
Esta sección analiza las ideas de los errores de tipo I y II al realizar pruebas de hipótesis,
potencia de una prueba y pruebas unilaterales y bilaterales, junto con pruebas de una y
dos muestras. Nos concentramos en las pruebas de medias, pero los términos se
aplican de manera más general a otros parámetros de población. La tabla 4.1 resume la
terminología utilizada al probar hipótesis junto con las decisiones que se pueden tomar
y los errores que se pueden producir. H0, que se muestra en la tabla, se denomina
tradicionalmente hipótesis nula; una hipótesis alternativa se denota por HA.
Decisión
No rechazar H0 Rechazar H0
Error tipo I—de incorrecto
Decisión correcta con probabilidad
H0 es cierto Decisión con probabilidad ÿ habilidad 1
ÿ ÿ (nivel o tamaño de la prueba)
Los analistas por lo general evitan decir que se acepta una hipótesis nula sobre la
base de que una hipótesis como H0 : ÿ = 3 nunca es probable que sea exactamente
cierta. Si la media real (con 3 decimales) fuera 3,01, entonces H0 sería falsa. A muchas
personas les gusta usar la declaración más evasiva "H0 no se rechaza" en lugar de "H0
se acepta", lo que implica que se ha demostrado que la hipótesis es cierta.
Las hipótesis pueden ser simples o compuestas. Las pruebas se pueden caracterizar
como de un solo lado o de dos lados. Cuando una hipótesis contiene un solo valor, se
llama simple (p. ej., H0 : ÿ = 3 es simple). Una hipótesis que contiene más de un valor
es compuesta (p. ej., H0 : ÿ ÿ 3 es compuesta). Si una prueba es de uno o
Machine Translated by Google
Por una muestra, nos referimos a un caso en el que una sola media se prueba contra algún valor
hipotético. Para una hipótesis nula simple de una muestra versus una alternativa simple, estamos
probando:
H0 : ÿ = ÿ0 versus HA : ÿ = ÿ0 + ÿ
en el nivel ÿ para algún ÿ que puede ser positivo o negativo. Por lo general,
pensamos en probar la hipótesis nula simple frente a la alternativa compuesta:
HA : ÿ = ÿ0.
ˆ¯ iÿs wiyi
y = , (4.2)
iÿs wi
Una
pags
Machine Translated by Google
los grados de libertad para la t generalmente se basan en algunas reglas generales. Una
que se usa a menudo
df t0.975, df
1 12.71
5 2,57
10 2.23
30 2.04
60 2,00
100 1,98
ÿ 1,96
Ignorar el fpc en un estimador de varianza tiene implicaciones prácticas reales para los
cálculos del tamaño de la muestra en secciones posteriores. Si la fracción de muestreo es
superior a aproximadamente 0,05, los tamaños de muestra calculados para lograr un
cierto nivel de potencia pueden ser notablemente diferentes, dependiendo de si se incluye
o no un fpc. La incorporación de un fpc no despreciable reduce el valor de una estimación
de la varianza y, en consecuencia, reduce el tamaño de la muestra calculada para lograr
esa potencia. Por lo tanto, puede parecer que se puede ahorrar algo de dinero simplemente
inyectando un fpc en los cálculos. Sin embargo, el pensamiento de superpoblación anterior
diría que este es un razonamiento engañoso. En algunas aplicaciones, como las encuestas
de hogares, las fracciones de muestreo suelen ser tan bajas que no es necesario
preocuparse por un fpc. Sin embargo, puede enfrentar el problema en otras situaciones,
como encuestas escolares, donde la población es más pequeña.
Si su objetivo es realmente medir qué tan grande es la diferencia entre dos medias de
población finitas, entonces un cálculo de potencia probablemente no sea lo que desea. El
cálculo del tamaño de la muestra apropiado debe hacerse utilizando los métodos del Cap.
3 donde contabilizamos el fpc. En http:// web.cos.gmu.edu/ÿwss/wss070328paper.pdf.
Definición 4.1 (Error Tipo I). Un error de tipo I es rechazar una hipótesis nula cuando en
realidad es cierta. La probabilidad de que se rechace H0 en tal caso se denomina nivel o
tamaño de la prueba y, para una prueba bilateral, es
donde tÿ (df) es el cuantil ÿ de la distribución t central con grados de libertad df, es decir,
Pr (t<tÿ (df)) = ÿ. Dicho de otra manera, el nivel de la prueba es la probabilidad de que el
estadístico de prueba se encuentre en la región de rechazo de la distribución cuando la
hipótesis nula es realmente cierta. Para una prueba unilateral de H0 : ÿ = ÿ0
Machine Translated by Google
Definición 4.2 (Error Tipo II). Un error tipo II es aceptar que una hipótesis nula es verdadera
cuando en realidad es falsa. La probabilidad de que se acepte H0 en tal caso para una prueba
bilateral es
Definición 4.3 (Poder). La potencia es 1 menos la tasa de error Tipo II, es decir, la probabilidad
de rechazar H0 cuando en realidad es falsa. La potencia y la tasa de error Tipo II varían
dependiendo del valor particular de la alternativa. Para una prueba bilateral, la potencia es la
probabilidad de que el estadístico de prueba esté en la región de rechazo cuando ÿ = ÿ0 + ÿ y es
igual a
Note que podríamos usar la notación ÿÿ más elaborada ya que la potencia depende del valor
específico de la alternativa. (Los ejemplos 4.1 y 4.2 ilustran cálculos de potencia para valores
específicos de alternativas).
Definición 4.4 (valor p). Un valor p es el nivel de significación más pequeño en el que se rechazaría
una hipótesis nula en función del valor observado de la estadística de prueba que se está
utilizando. Suponga que el valor calculado de (4.1) es tobs.
Entonces, el valor p para una prueba bilateral es
H0 es falsa, es decir, es muy poco probable que ocurra una estadística de prueba de tamaño tobs o
más extrema si H0 fuera verdadera. Cuanto menor sea el valor de p, mayor será la evidencia en
contra de H0. Esta interpretación es dudosa ya que el valor p asociado con un tamaño de efecto
dado depende del tamaño de la muestra. Citando a Royall (1986):
. . . una diferencia entre tratamientos que es solo estadísticamente significativa al nivel de 0.05 puede ser
tan pequeña que no tiene importancia clínica si los grupos de estudio son enormes, mientras que una
diferencia entre grupos más pequeños que producen el mismo valor p corresponde a un tratamiento
estimado mucho mayor efecto.
Debido a estos problemas, los valores de p no son útiles para determinar el tamaño de las muestras.
La potencia para un tamaño de muestra dado depende de qué tan lejos esté el valor alternativo, ÿ0
+ ÿ, del valor nulo, ÿ0. Las alternativas que están lejos del nulo son naturalmente más fáciles de
detectar que las que están cerca. Se necesitan tres cosas para un cálculo del tamaño de la muestra
basado en la potencia:
1. Valor de ÿ 2.
Probabilidad deseada 1 ÿ ÿ (es decir, la potencia) de obtener un resultado de prueba significativo
cuando la diferencia real es ÿ
3. Nivel de significación ÿ de la prueba, que puede ser unilateral o bilateral.
Pruebas de 1 lado
Primero, considere una prueba unilateral de H0 : ÿ = ÿ0 versus HA : ÿ>ÿ0. La hipótesis nula será
rechazada si t>t1ÿÿ (df). Por ejemplo, con una prueba de nivel ÿ = 0.05 y una gran cantidad de gl,
se rechazará H0 si t>t0.95 (ÿ) = z0.95 = 1.645. Cuando la muestra de UPM es grande, t en (4.1)
puede tratarse como si tuviera una distribución N(0, 1) bajo H0. Si, por el contrario, la verdadera
media es ÿ = ÿ0 + ÿ para algún ÿ > 0, entonces la media de t es
d
,
ˆ¯
Vy
ˆ¯ ˆ¯ . ˆ¯
probabilidad de que
es lat esté
varianza
en lateórica
regiónde
deyrechazo
ˆ¯. Suponiendo
cuando que
ÿ = ÿ0
vy +donde
ÿ es V y =Vy , la
Machine Translated by Google
> z1ÿÿ ÿ ÿ = ÿ0 + ÿ
ÿ
ˆ¯ ˆ¯ ˆ¯
ÿ Vy Vy Vy ÿ
d
= PR ÿ ÿ
ˆ¯
ÿZ>z1ÿÿ ÿ Vy ÿ,
Ejemplo 4.1 (Potencia de una encuesta anterior). Suponga que planea seleccionar
una muestra de hogares de una provincia canadiense en particular y medir el ingreso
familiar medio para los hogares de parejas casadas (y ˆ¯). Con base en encuestas
anteriores del mismo diseño y tamaño, anticipa que la media es de aproximadamente
$55 000 dólares canadienses y se estimará con un CV del 6 %. Le gustaría probar la
hipótesis H0 : ÿ = $55 000 versus HA : ÿ > $55 000 en el es 0.06 ˆ¯
× 55 000 =
ÿ = 0,05 nivel. Por lo tanto, el error estándar anticipado de y 3,
300. También le gustaría saber cuánto poder tiene para detectar que la media es
realmente $60,000. Sustituyendo en (4.4) y usando la aproximación normal, la
potencia anticipada es
d 60 000 ÿ 55 000
PR ÿ ÿ = Pr Z > 1,645 ÿ 3 300
ˆ¯
ÿZ>z1ÿÿ ÿ Vy ÿ
= 0,448.
H0 DECIR AH
ÿ=ÿ0 ÿ=ÿ0+ÿ
ÿ2 0 2 4 6
Z
ˆ¯
Higo. 4.1: Densidades normales de las estadísticas de prueba bajo H0 y HA. ÿ V y se establece
igual a 3 en esta ilustración, de modo que E {t|HA es verdadero} = 3. Se realiza una prueba unilateral
en el nivel 0.05.
2 2
(z1ÿÿ ÿ zÿ) (z1ÿÿ + z1ÿÿ) = .
norte = ÿy ÿ ÿy ÿ (4.5)
Machine Translated by Google
2
(1,645 + 0,84) .
n = 74.000 5.000 = 1, 355 hogares.
2
(1,645 + 0,84) .
n = 1,6 74.000 2.500 = 8, 670.
Claramente, los objetivos del análisis tienen un gran impacto en el tamaño de la muestra.
Se debe pensar cuidadosamente en el tamaño de la alternativa que es sustancialmente
importante para detectar.
Pruebas de 2 caras
El cálculo de la potencia para una prueba bilateral es similar pero un poco más complicado.
La hipótesis nula se rechaza si |t| > t1ÿÿ/2 (gl). Si el objetivo es detectar una desviación
del valor de la hipótesis nula de ÿ en cualquier dirección, entonces las alternativas de
la forma ÿ0 ± ÿ son de interés. Examinaremos estos uno a la vez: primero ÿ = ÿ0 + ÿ
y luego ÿ = ÿ0 ÿ ÿ. Nuevamente, suponiendo que la aproximación normal es lo
suficientemente buena y observando que zÿ /2 = ÿz1ÿÿ/2, la probabilidad de error de
tipo II de que el estadístico de prueba esté en la región de aceptación, cuando ÿ = ÿ0
+ ÿ, es
ˆ¯
d y ÿ ÿ0 d d
= PR ÿÿz1ÿÿ/2 ÿ ÿ ÿ
< z1ÿÿ/2 ÿ ÿ = ÿ0 + ÿ ÿ
ˆ¯ ˆ¯ ˆ¯ ˆ¯
ÿ ÿÿz1ÿÿ/2 ÿ Vy Vy Vy Vy ÿ
d d
= PR ÿ ÿZ ÿ z1ÿÿ/ ÿ Z<z1ÿÿ/2 ÿ
ÿ
ˆ¯ ˆ¯
2ÿ Vy Vy ÿ
d ÿ ÿ PR ÿ d ÿ
= PR
ˆ¯ ˆ¯
Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 ÿ Vy ÿ.
. ÿ d ÿ + PR ÿ d ÿ
=1 ÿ Pr
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 ÿ Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 ÿ Vy ÿ.
El último término del lado derecho de (4.6) estará cerca de 0 en muchos casos.
Mediante un cálculo similar, la potencia de la prueba frente a la alternativa
HA : ÿ = ÿ0 ÿ ÿ es
. ÿ d ÿ + PR ÿ d ÿ
=1 ÿ Pr
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 + Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 + Vy ÿ.
En este caso, el segundo término del lado derecho de (4.7) a menudo estará cerca
ˆ¯
de 1 y la expresión (4.7) será aproximadamente Pr Z ÿ ÿz1ÿÿ/2 + ÿ V y .
Machine Translated by Google
Supongamos que queremos que la potencia contra ÿ0 +ÿ o ÿ0 ÿÿ sea 1ÿÿ. Podemos establecer
(4.6) o (4.7) en 1 ÿ ÿ y luego resolver para n. El uso de (4.6) o (4.7) conduce al mismo tamaño de
muestra que mostramos ahora. Primero, aproximar (4.7) por
ÿ
d ÿ ÿ
d ÿ
1 ÿ PR = PR
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 ÿ Vy ÿ ÿZ>z1ÿÿ/2 ÿ Vy ÿ
d
y establezca esto igual a 1 ÿ ÿ. Esto implica que z1ÿÿ/2 ÿ = zÿ. Usando V(yˆ¯)
ˆ¯
Vy = ÿ2 y/n y resolviendo da
2
z1ÿÿ/2 ÿ zÿ ÿ . (4.8)
n = ÿy
ˆ¯
Aproximando (4.7) por Pr Z ÿ ÿz1ÿÿ/2 + ÿ V y = z1ÿÿ, y resolviendo el , estableciendo ÿz1ÿÿ/2 +
d
tamaño de la muestra obtenemos V(yˆ¯)
2 2
z1ÿÿ/2 + z1ÿÿ z1ÿÿ/2 ÿ zÿ ÿ .
n = ÿy = ÿy (4.9)
ÿ
Tenga en cuenta que para calcular el tamaño de la muestra para una prueba bilateral en (4.9),
simplemente cambiamos ÿ en (4.5) para la prueba unilateral a ÿ/2. Comparando (4.9) con (4.5),
vemos que para obtener la misma potencia para detectar las alternativas ÿ0 ± ÿ, el tamaño de
muestra requerido será mayor que para detectar ÿ0 + ÿ solo porque z1ÿÿ/2 > z1ÿÿ. Por ejemplo,
z0,975 = 1,96 y z0,95 = 1,645. Cierta intuición para esto es que se necesita una muestra más
grande para detectar una alternativa que pueda estar en cualquier lado del valor nulo.
Ejemplo 4.3 (Tamaño de la muestra para una prueba de dos colas). Continuando con los ejemplos
4.1 y 4.2, suponga que se desea una potencia de 0,80 (es decir, 80 % de potencia) contra cualquiera
de las alternativas HA : ÿ = $50 000 o HA : ÿ = $60 000. Como antes, H0 : ÿ = $55 000 Sustituyendo
en (4.8) se obtiene
2
(1,96 + 0,84) n .
= 74.000 5.000 = 1.720.
La sección 4.4 ilustra cómo se pueden realizar estos cálculos en R. También se programan
fácilmente en Excel. Las figuras 4.2 y 4.3 muestran capturas de pantalla de una hoja de
cálculo que calculará los tamaños de muestra en los ejemplos 4.2 y 4.3. La figura 4.3 muestra
las fórmulas, mientras que la figura. 4.2 da resultados numéricos que coinciden con los de
los ejemplos. La hoja de cálculo también está disponible en el sitio web del libro. Otra
excelente referencia que combina R y Excel es Heiberger y Neuwirth (2009).
Higo. 4.2: Una hoja de cálculo de Excel para los cálculos de los ejemplos 4.2 y 4.3.
Comparar las medias de dos grupos diferentes de unidades es un objetivo analítico estándar.
El término prueba de “dos muestras” surge del objetivo de comparar parámetros para dos
grupos o poblaciones separados con una muestra que se selecciona de cada uno. Esta
sección describe los métodos usados para comparar medias o proporciones para dos de
esos grupos.
H0 : ÿX ÿ ÿY versus HA : ÿX > ÿY
Machine Translated by Google
ˆ¯ ˆ¯ ˆ¯ ˆ¯ ˆ¯ ˆ¯
con d = xˆ¯ ÿ y ˆ¯, vd = v xˆ¯ + vy son ÿ 2cov x, y donde v xˆ¯ y vy
ˆ¯ ˆ¯
estimaciones basadas en el diseño de las varianzas de las medias y cov x, es una
estimación basada en el diseño de su covarianza. En una encuesta transversal,
normalmente compararemos las medias de dos dominios que no se superponen. Si cada
ˆ¯ ˆ¯
dominio es específico de diferentes estratos, entonces cov x, = el
0 por
agrupación, definición.
diseñoincluso Pero,
implicalos
la si
dominios que no se superponen, como masculino y femenino, pueden tener estimaciones
correlacionadas debido a la presencia de miembros de dominio dentro de las mismas PSU.
ÿ d d ÿ
Pr {td > z1ÿÿ ÿD = ÿ } = Pr ˆ¯
> z1ÿÿ ÿ
ˆ¯
µD = ÿ
V d V d
ÿÿÿ td ÿ ÿÿÿ
. ÿ d ÿ
= PR . (4.10)
ˆ¯
V d
ÿÿÿ Z>z1ÿÿ ÿ ÿÿÿ
esto se mantendrá si las estimaciones del dominio son independientes y sus varianzas se pueden escribir
como
ˆ¯ ÿ2 Una
X y =
V ÿ2 re = + ÿ2X + ÿ2y
norte norte norte
como sería el caso de srswor. Si las estimaciones del dominio están correlacionadas, entonces ÿ2 = ÿ2 + ÿ2
xÿ2ÿxy
d
siendo ÿxy la covarianza poblacional de X e Y.
y
Machine Translated by Google
2
norte = ÿd (z1ÿÿ ÿ zÿ) . (4.11)
d
1.0
n=100
n=50
0.8
n=25
potencia
0,6
0.4
n=10
0.2
ÿ4 ÿ2 0 2 4
Delta
Higo. 4.4: Potencia para tamaños de muestra de n = 10, 25, 50, 100 en una prueba bilateral de H0 :
ÿD = 0 frente a HA : |ÿD| = ÿ (ÿ = 0,05, ÿd = 3).
También se puede tratar el caso de muestras parcialmente superpuestas (p. ej., véase
Woodward 1992). Por ejemplo, las personas pueden ser encuestadas en alguna fecha de referencia y
Machine Translated by Google
s2 son los conjuntos de unidades muestrales con datos recopilados solo en los tiempos 1 y 2 y
que s12 denota la superposición. Por lo tanto, las muestras completas en los tiempos 1 y 2 son
s1 ÿ s12 y s2 ÿ s12. Además, suponga que las muestras en los dos períodos de tiempo
son muestras aleatorias simples. Suponga que las muestras en los tiempos 1 y 2 son
no necesariamente del mismo tamaño, por lo que n1 = rn2 para algún número positivo r.
Las muestras pueden ser de diferentes tamaños debido a otros objetivos de la encuesta o porque
el presupuesto para la recopilación de datos es diferente para los dos tiempos. Un caso que es
cubierto por el análisis a continuación es uno donde se selecciona una muestra inicial de n1 ,
una parte de estos responde en el tiempo 2, y se seleccionan unidades adicionales para
obtener una muestra total de n2 para el tiempo 2. Tomando el caso de muestreo aleatorio simple
muestreo, la diferencia de medias se puede escribir como
ˆ¯ ˆ¯ Una Una
= xi yo .
d = xˆ¯ ÿ y
ÿ
xi - yi +
n1 n2 n1 n2
s1 s2 s12
ˆ¯
ÿ2X ÿ2 n12
V re = + y
ÿ 2ÿxy
, (4.12)
n1 n2 n1n2
Una
2 .
n1 = ÿ2X + rÿ2 (4.13)
ÿ2 y ÿ 2ÿrÿÿxÿy (z1ÿÿ ÿ zÿ)
ÿ20 2 .
n1 = [1 + r (1 ÿ 2ÿÿ)] (z1ÿÿ ÿ zÿ) (4.14)
ÿ2
ÿ20 2 .
n1 = (1 + r) (z1ÿÿ ÿ zÿ) (4.15)
ÿ2
Tenga en cuenta que si n1 = n2, entonces r = 1 y (4.15) igual a (4.11) porque ÿ2 d en (4.11)
es igual a 2ÿ2
0. Dados los valores de r, ÿ y ÿ, se puede encontrar el tamaño de la muestra en el tiempo 1
Machine Translated by Google
vía (4.14) y, a su vez, n2 resuelto como n2 = n1/r. Para el caso más general,
si las estimaciones de las varianzas y covarianzas unitarias o, de manera equivalente, la unidad
correlación, están disponibles, entonces se puede usar (4.13) . La función R nDep2sam
insecto. 4.4 calculará los tamaños de muestra n1 y n2 con base en (4.13).
Una Una
p1 ÿ p2
tÿp = , (4.16)
v (p1 - p2)
n1 n2 n1+n2
estimación “agrupada” de P¯. En muestras grandes (4.16) es aproximadamente normalmente
distribuida, lo que nos permite aproximar la potencia en diferentes alternativas y calcular
tamaños de muestra.
Como la varianza de las proporciones estimadas depende de sus medias,
la aritmética necesaria para obtener una fórmula de potencia es un poco diferente de la
solía llegar a (4.10). Para simplificar las cosas, cubrimos solo el caso de la
mismo tamaño de muestra n en cada grupo. Si la hipótesis nula de igualdad de proporciones
es verdadera, entonces v (p1 ÿ p2) = 2¯p (1 ÿ p¯) /n. Pero, si HA : P2 = P1 + ÿ es
correcto, la varianza estimada de p1 ÿ p2 no depende de un ¯p combinado
pero en cambio es (p1q1 + p2q2) /n. Esta es una estimación de la varianza teórica (P1Q1 +
P2Q2) /n. El poder de esta prueba para una alternativa unilateral
HA : P2 = P1 + ÿ es entonces
Machine Translated by Google
. p1 ÿ p2 d
= PR ÿ
>
(P1Q1 + P2Q2) /n (P1Q1 + P2Q2) /n
z1ÿÿ 2P¯ 1 ÿ P¯ /n ÿ ÿ
ÿ
P2 ÿ P1 = d
(P1Q1 + P2Q2) /n
ÿ
z1ÿÿ 2P¯ 1 ÿ P¯ /n ÿ ÿ
= PR ÿ ÿ
(4.17)
(P1Q1 + P2Q2) /n
ÿZ > ÿ.
La potencia para una prueba bilateral se calcula de manera similar a (4.6) y (4.7)
comenzando con Pr (|tÿp| > z1ÿÿ |P2 ÿ P1 = ÿ ) y siguiendo los pasos de (4.17). La
distribución de tÿp no se puede aproximar como una distribución t que requiere datos
de entrada normalmente distribuidos. Por lo tanto, solo se utiliza la aproximación normal
para evaluar la potencia.
El tamaño de muestra en cada grupo necesario para detectar una diferencia de ÿ se
encuentra igualando el lado derecho de la desigualdad en la última línea de (4.17) a zÿ
y resolviendo para n para dar
2
z1ÿÿÿ1 ÿ zÿÿ2 ÿ
norte = , (4.18)
Cuando los tamaños de muestra en los dos grupos son n1 y n2, n1 se encuentra
usando (4.13). En este caso, se requieren estimaciones (o conjeturas fundamentadas) para la
Machine Translated by Google
proporciones en los dos periodos de tiempo, Px y Py, y la proporción, Pxy, que conserva
la característica desde el primer tiempo hasta el segundo.
En la Secc. 4.4. Hay dos restricciones en Pxy que se implementan en la función.
Primero, dado que Pxy = Py|x Px ÿ Px y Pxy = Px|y Py ÿ Py, debe ser cierto que Pxy ÿ min
(Px, Py). En segundo lugar, dado que la correlación debe estar en [ÿ1, 1], debemos tener
PxPy ÿ ÿ ÿ Pxy ÿ PxPy + ÿ donde ÿ = [Px (1 ÿ Px) Py (1 ÿ Py)]1/2 .
ÿ = arcosen ÿp
ÿ1 ÿ ÿ2
tÿ = = ÿ 2n (ÿ1 ÿ ÿ2). (4.19)
V (ÿ1 ÿ ÿ2)
ÿÿ ÿÿ
= Pr tÿ ÿ > z1ÿÿ ÿ P1 ÿ P2 = d
V (ÿ1 ÿ ÿ2) V (ÿ1 ÿ ÿ2)
.
= Pr Z>z1ÿÿ ÿ ÿÿ ÿ 2n .
Machine Translated by Google
(Tenga en cuenta que V (ÿ1 ÿ ÿ2) es el mismo bajo H0 y HA , ya que la raíz cuadrada del arcoseno es la transformación
estabilizadora de la varianza en ambos casos). Establecer z1ÿÿÿÿÿ ÿ2n igual a zÿ conduce a la fórmula del tamaño de la
muestra
2
z1ÿÿ ÿ zÿ
norte = . (4.21)
ÿ2ÿÿ
Al igual que con la expresión (4.11), este es el tamaño de muestra requerido para cada dominio.
Para una prueba bilateral de H0 : P1 = P2 versus HA : P2 = P1 ± ÿ, cálculos
2
z1ÿÿ/2 ÿ zÿ
norte = . (4.22)
ÿ2ÿÿ
Al igual que cuando se comparan las medias, se necesita una muestra más grande para que la prueba bilateral tenga la
misma potencia para detectar HA : P2 = P1 ± ÿ que la prueba unilateral para detectar HA : P2 = P1 + ÿ.
La transformación log-odds es otra opción que puede ser útil para una característica rara o muy prevalente. En este
caso, defina
pags
ÿ = registro .
1 - pag
ÿ1
La varianza aproximada de ÿ bajo H0 : P1 = P2 es nP¯Q¯ donde P¯ es el valor común bajo H0 y Q¯ = 1 ÿ P¯. Las varianzas
de las diferencias en las transformaciones log-odds para dos muestras independientes son
2 Una
suponiendo que los tamaños de muestra son los mismos en ambos grupos. El estadístico t tiene la misma forma que la
transformación arcoseno, tÿ = (ÿ1 ÿ ÿ2) V (ÿ1 ÿ ÿ2). Usando los mismos pasos que llevaron a (4.17), la potencia contra
la alternativa HA : P2 = P1 + ÿ es
Machine Translated by Google
ÿ1
ÿ z1ÿÿ 2 nP¯ 1 ÿ P¯ ÿ ÿÿ ÿ
Pr (tÿ > z1ÿÿ |P2 ÿ P1 = ÿ ) . = PR ,
ÿ1 ÿ1
nÿ1 (P1Q1) + (P2Q2)
ÿÿÿZ > ÿÿÿ
En la Secc. 4.4.
P1 - P2 = P2 (R - 1).
Un tamaño del efecto generalmente se define como una medida de la diferencia estandarizada
entre dos valores de población. Cuando la diferencia es entre medias, una definición del tamaño
del efecto de la población es ÿE = (ÿx ÿ ÿy) /ÿ donde las ÿ son las medias en dos grupos y ÿ es
la desviación estándar unitaria común.
Esta es una medida habitual en el metanálisis y también se utiliza en la investigación educativa.
Una estimación de ÿE cuando se seleccionan muestras aleatorias simples de cada grupo es
x¯1 ÿ x¯2
ˆÿE = . (4.25)
s
En (4.25), ¯x1 y ¯x2 son las medias muestrales de cada uno de los dos grupos y s es la
desviación estándar combinada
(n1 ÿ 1) s2 + (n2 ÿ 1) s2 n1 +2
s= Una
n2 ÿ 2
donde s2 y s2 2 sonlas varianzas muestrales específicas del grupo. La forma en (4.25) se conoce
Una
como g de Hedge (Hedges y Olkin 1985). La idea general del tamaño del efecto se debe a
Cohen (1988). Si se utilizó el mismo tamaño de muestra en cada grupo y los grupos son
independientes, entonces los métodos de la Secc. 4.3.1 se puede utilizar. En particular, si
queremos detectar un tamaño del efecto de ÿÿ MI, Esto corresponde a
una diferencia de medias de ÿ = ÿÿ Eÿ. La expresión (4.11) se aplica para calcular el tamaño de
la muestra en cada grupo con ÿ2 = 2ÿ2. La desviación
d estándar de la unidad
ÿ podría estimarse mediante la estimación agrupada anterior si se dispone de muestras
anteriores o mediante la raíz cuadrada de la varianza de la muestra si se dispone de datos de
una sola muestra.
power.t.test(n = NULL, delta = NULL, sd = 1, sig.level = 0.05, power = NULL, type = c("dos.muestra",
"una.muestra", "emparejado"), alternativa = c("dos.lados", "un.lado"), estricto = FALSO)
Exactamente uno de los parámetros n, delta, power, sd y sig.level se debe pasar como NULL, y ese
parámetro se determina a partir de los demás. Tenga en cuenta que sd y sig.level tienen valores
predeterminados que no son NULL, por lo que se debe pasar NULL explícitamente si desea calcularlos.
Machine Translated by Google
Exactamente uno de los parámetros n, p1, p2, power y sig.level debe ser
pasa como NULL y ese parámetro se determina a partir de los demás. Darse cuenta de
sig.level tiene un valor predeterminado que no es NULL, por lo que se debe pasar NULL explícitamente si
quiere que se calcule.
Ejemplo 4.4 (Continuación del Ejemplo 4.1). En ese ejemplo, estábamos probando la
hipótesis H0 : ÿ = $55 000 y queríamos el poder de detectar que la media era realmente
$60 000 para una prueba unilateral de 0,05 niveles. Se especificó que el CV de la media
estimada era 0,06, por lo que el error estándar era 3300.
El código R para hacer esto y su salida son
power.t.test( n =
1000, power
= NULL, delta =
5000, sd =
3300*sqrt(1000), # resulta en sd/sqrt(n) = 3300 type = "one.sample", alt = "one .lado",
nivel de sig. = 0.05 )
n = 1000
delta = 5000
sd = 104355.2
sig.level = 0.05 potencia
= 0.4479952 alternativa =
unilateral
Esto reproduce la potencia de 0.448 del ejemplo 4.1. Esta llamada de función usa un
pequeño truco para obtener power.t.test para calcular lo que queremos. Cuando la función
calcula sd/sqrt(n), el resultado es 3300*sqrt(1000)/sqrt(1000) = 3300, que es el error
estándar de la media estimada. Usar 1,000 no es crítico; algún otro tamaño de muestra
artificial grande habría arrojado la misma potencia. (Observe que 3, 300ÿ1,000 = 104,
355.2 no es la desviación estándar de la unidad en la población).
Ejemplo 4.5 (Continuación del Ejemplo 4.2). En ese ejemplo, queríamos una potencia del
80 % para una prueba unilateral para detectar una diferencia de $5 000 cuando ˆÿ = 74
000. El código R y la salida para calcular el tamaño de la muestra (excluyendo un ajuste
del efecto del diseño) es
Machine Translated by Google
n = 1355.581
delta = 5000 sd =
74000 nivel sig =
0,05 potencia = 0,8 alternativa
= unilateral
Ejemplo 4.6 (Prueba de medias de dos muestras). Suponga que tenemos dos dominios
(masculino y femenino) y queremos tener muestras de igual tamaño de hombres y mujeres
que sean lo suficientemente grandes para detectar una diferencia en los pesos medios de 5
kg (es decir, ÿM = ÿF + 5) con una potencia de 0,80. Estimamos que ÿ2 =Por ÿ2 lo
=F tanto,
200
entrada
y ÿ2
sd =
en
de
400.
METRO
la
power.t.test
= 1,645. es ÿ2 una
Para d / 2potencia
= 400/2 =
deÿ 0,80,
200. Si se realiza
usamos z0,20una prueba=de
= ÿz0,80 nivel. 0.05
ÿ0,84 unilateral,
El tamaño de z0,95
d
muestra requerido de (4.11) es entonces (tratando 400 como si fuera la varianza verdadera ÿ2
d)
Por otro lado, si quisiéramos una potencia de 0.90, entonces z0.90 = 1.282 y la muestra sería
137. Los mismos cálculos se pueden hacer en R de la siguiente manera:
n = 99,60428
delta = 5
sd = 14,14214
nivel sig. = 0.05
Machine Translated by Google
potencia = 0.8
alternativa = unilateral
n = 137,7033
delta = 5 sd =
14.14214
sig.level = 0.05 potencia = 0.9
alternativa = unilateral
Ejemplo 4.7 (Prueba de dos muestras sobre medias con muestras superpuestas).
Le gustaría seleccionar una muestra de mujeres que son empleadas de una gran
empresa que también participan en un programa semanal de yoga. Al principio y
al final del año se pesará a las mujeres. Determine una muestra que permita
detectar una diferencia de 5 kg en el peso promedio con una potencia del 80 %.
Suponga que el 25 % de las personas de la muestra inicial abandonará el
programa a finales de año y que no se puede medir su peso. Además, suponga
que se tomarían muestras de mujeres adicionales al final del año para compensar
a las que abandonaron, pero que los pesos de estas mujeres al comienzo del
año no están disponibles. Estas mujeres adicionales pueden o no haber
participado en las clases de yoga durante todo el año. Por tanto, n1 = n2, r = 1 y
ÿ = 0,75 en (4.13). Como en el ejemplo 4.6, suponga
F períodos
que ÿ2de
= 200
tiempo.
en ambos
Supongamos también que la correlación entre los pesos al principio y al final
del año es de 0,9. La llamada a nDep2sam y su salida son
Machine Translated by Google
n1 = 33
n2 = 33
S2x.S2y = 200, 200 delta = 5
Es decir, se debe seleccionar una muestra de 33 a principios de año. Por otro lado, si
quisiéramos detectar una diferencia de peso de 5 kg en cualquier dirección (pérdida o
ganancia), entonces calculamos
nDep2sam(S2x=200, S2y=200, g=0,75, r=1, rho=0,9,
alt="dos.lados", del=5, sig.level=0.05, pow=0.80)
resultando en la salida
Comparación de medias de dos muestras
Cálculo del tamaño de la muestra para muestras superpuestas
n1 = 41
n2 = 41
S2x.S2y = 200, 200 delta = 5
Tenga en cuenta que implícitamente estimamos la diferencia en los medios utilizando todas
las personas disponibles en cada período de tiempo. Una alternativa sería utilizar sólo a las
mujeres que permanecieron en el programa. Este sería el enfoque correcto si el objetivo fuera
estimar el efecto sobre el peso de participar en las clases semanales de yoga durante un año.
En ese caso, nDep2sam podría usarse para calcular un tamaño de muestra suponiendo una
superposición completa. La llamada para una prueba unilateral sería
nDep2sam(S2x=200, S2y=200, g=1, r=1, rho= 0.9, alt="una cara",
del=5, nivel sig.=0.05, pow=0.80)
lo que da como resultado n1 = 10. Al ajustar esto para la tasa de deserción del 25 %, se
obtiene alrededor de 14. Aunque esto es mucho más pequeño que el 33 calculado anteriormente, el
Machine Translated by Google
n1 X y
ˆ¯
la varianza es V d = 2ÿ2 [1 ÿ ÿ] /n1 que se evalúa como 40/n1 en el Ejemplo
X
4.7. Utilizando todos los casos disponibles en cada período de tiempo, la varianza de la
diferencia es 130/n1, que es 3,25 veces mayor que 40/n1. Esto es, a su vez,
aproximadamente igual a la proporción de los tamaños de muestra, 33/10, que acabamos de calcular.
Por supuesto, también existe la importante diferencia conceptual en lo que se
estima cuando usamos solo casos coincidentes en comparación con todos los casos.
Para el primero, se puede argumentar que la diferencia en las medias de los casos
emparejados estima el efecto del programa de ejercicios sobre el peso. En este último,
la diferencia de medias se ve afectada por la posibilidad de que algunas mujeres no
hayan participado en todo el año.
Ejemplo 4.8 (Prueba de dos muestras sobre proporciones con muestras independientes).
Una de las preguntas estándar en las encuestas del personal militar del Centro de Datos
de Mano de Obra de Defensa es:
Tomando todas las cosas en consideración, ¿qué tan satisfecho está usted, en general, con cada uno de
los siguientes aspectos de estar en la (rama de servicio aquí, por ejemplo, Guardia Nacional/Reserva)?
n = 1891.846
p1 = 0,15 p2 =
0,18 nivel sig.
= 0,05 potencia = 0,8
Machine Translated by Google
alternativa = unilateral
Por lo tanto, se necesitaría una muestra de alrededor de n = 1, 900 en cada uno de los dos
servicios en estudio. Si ya se han seleccionado muestras de 1000 de cada servicio y los
porcentajes observados son 15 y 18, entonces el poder de detección de una diferencia de
3 puntos porcentuales es solo 0,56, como se muestra aquí:
n = 1000 p1
= 0,15 p2 =
0,18 nivel sig
= 0,05 potencia = 0,56456
alternativa = unilateral
Ejemplo 4.9 (Efecto del tamaño de las proporciones). Tenga en cuenta que la potencia se
ve afectada por el tamaño de las propias proporciones porque la estimación combinada de
la varianza depende de la p combinada, como se muestra en (4.16). Si los porcentajes del
ejemplo 4.8 son 50 para el ejército y 53 para los infantes de marina, la potencia para
detectar una diferencia real de 3 puntos porcentuales es 0,38 en lugar del 0,56 anterior.
n = 1000
p1 = 0.5 p2
= 0.53 nivel
sig. = 0.05 potencia =
0.3810421 alternativa =
unilateral
n1 = 1013
n2 = 1013
px.py.pxy = 0,50, 0,55, 0,45
gama = 0.5
r=1
alt = dos caras
nivel sig. = 0.05
potencia = 0.8
Ejemplo 4.11 (Prueba de dos muestras sobre proporciones con las transformaciones arcoseno
y log-odds). Repetiremos el Ejemplo 4.8 donde los porcentajes son 15 % para el personal del
Ejército y 18 % para la Infantería de Marina, y nos gustaría poder detectar esto con un 80 %
de potencia. No hay una función R incorporada para hacer esto, pero el siguiente código
evaluará (4.21) para una prueba unilateral.
V0 <- 1/p.bar/(1-p.bar)
AV <- 1/p1/(1-p1) + 1/p2/(1-p2)
norte
Tanto las transformaciones de arcseno como log-odds dan prácticamente la misma respuesta.
Ambos están muy cerca del valor de alrededor de 1892 calculado en el ejemplo 4.8.
SAS tiene el procedimiento, power, que hará cálculos de una y dos muestras. Repetimos
algunos de los ejemplos anteriores para proporcionar comparaciones con las funciones de R.
Machine Translated by Google
Ejemplo 4.12 (Continuación del Ejemplo 4.5). El código SAS para hacer este cálculo de
muestra es
poder de proceso;
una muestra significa
media = 60000
total = .
desviación estándar = 74000
lados = 1
media nula = 55000
potencia = 0,80;
correr;
Los parámetros deben explicarse por sí mismos después de referirse al ejemplo anterior. Al
especificar ntotal = le pedimos a SAS.,que calcule el tamaño de muestra necesario
para 0,80 de potencia. Los resultados se muestran a continuación; el tamaño total de la muestra de 1356 es aproximadamente
lo mismo de antes.
El procedimiento de PODER
Distribución Normal
Método Exacto
Número de lados Una
N total calculado
Actual norte
Energía Total
0.800 1356
Ejemplo 4.13 (Continuación del Ejemplo 4.8). Prueba de proporciones para dos muestras:
en este ejemplo, queremos encontrar el tamaño de muestra necesario para obtener el 80 %
potencia para detectar una diferencia de 0,03 entre dos proporciones. El código SAS para
hacer este cálculo de dos muestras se muestra a continuación. La opción prueba = pchi
da como resultado que se utilice la aproximación normal, como se describe en la Secc. 4.3.2.
A diferencia de R power.prop.test, no especificamos cada una de las proporciones,
0,15 y 0,18. SAS requiere las dos opciones refproporción = 0.15 y
proporcionaldiff = 0.03 para hacer lo mismo.
Machine Translated by Google
poder de proceso;
frecuencia de dos muestras
prueba = pchi
refproporción = 0.15
diferencia de proporción = 0.03
lados = 1
potencia = 0,80
npergrupo = .
;
correr;
El resultado del tamaño de muestra por grupo es n = 1, 892 como en el ejemplo 4.8.
El procedimiento de PODER
800 1892
Machine Translated by Google
Ejercicios
4.1. El ingreso laboral disponible promedio por trabajador en México en 2002 fue de
aproximadamente $6,100 dólares estadounidenses (USD).3 Suponga que se realizará una
nueva encuesta en 2010 y le gustaría determinar el tamaño de la muestra aleatoria simple que
le permitiría detectar que el promedio ha subido a $7,000. Suponga que la unidad de revarianza
del ingreso en 2002 fue de 2,5 y que será aproximadamente la misma en 2010. Calcule un
tamaño de muestra para una prueba de nivel 0,05 cuando la potencia deseada es 0,80; trate la
media de 2002 como una constante para este problema.
4.2. Considere el ejemplo 4.6 , donde se usaron pruebas unilaterales para determinar los
tamaños de muestra con una potencia del 80 % y 90 % para detectar diferencias en las
estimaciones para hombres y mujeres.
(a) ¿Qué diseño de muestra se asume bajo los cálculos? (b) ¿Cómo
cambia su cálculo en 4.2(a) si el diseño de la encuesta da como resultado un efecto de diseño
general de 1,0? ¿Un efecto de diseño de 3.2? (c) ¿Cómo ajustaría los tamaños de muestra
iniciales en 4.2(b) para abordar las tasas de respuesta diferencial por género, digamos una tasa
de respuesta del 75 % para las mujeres y una tasa de respuesta del 60 % para los hombres?
interesado en determinar si el IMC promedio para los niños de primer grado (de 6 a 7 años) ha
aumentado en un 1,5 % desde un promedio estimado previamente de 17,5. ¿Cuál es el
tamaño de muestra necesario para detectar esta diferencia dado que la desviación estándar
de la población es 0.70? (b) ¿Cómo cambia el tamaño de la muestra si el cliente está
dispuesto a aceptar poder detectar un aumento del 3,0 %? (c) ¿Cómo cambia el tamaño de la
muestra si el cliente quiere detectar un 0,5 %
¿aumentar?
(d) Comente la diferencia en los cálculos del tamaño de la muestra.
4.5. Vuelva a trabajar en los cálculos del tamaño de la muestra del ejercicio anterior, suponiendo
que el cliente desea detectar un aumento o una disminución en el IMC promedio.
3
http://www.worldsalaries.org/employment-income.shtml
Machine Translated by Google
4.6. El monto promedio de los ingresos imponibles informados por los contribuyentes a la administración
de ingresos de un país en 2008 fue de 44 000 en la moneda local según una tabulación de todas las
declaraciones de impuestos. Debido a una recesión económica, se especula que el promedio puede
haber disminuido un 10 % en 2010. Suponga que la unidad de variación de la renta imponible en la
población es 3. ¿Qué tamaño de muestra aleatoria simple se necesitaría para detectar una disminución
del 10 % con una potencia de 0.90?
¿Cómo cambiaría tu respuesta si la unidad de revarianza fuera 6?
4.7. Se va a estimar el riesgo relativo de que una persona haya tenido paludismo en los últimos cinco
años para dos aldeas de Liberia. Planea seleccionar una muestra aleatoria simple del mismo tamaño
de cada pueblo. Debido a sus diferentes proximidades a los cuerpos de agua, se sabe que el pueblo B
tiene una tasa de incidencia mayor que el pueblo A.
(a) Anticipa que el pueblo A tendrá una incidencia del 20 % y el pueblo B tendrá una incidencia del 30
%. Le gustaría poder detectar un riesgo relativo de 1,5 con una potencia de 0,90 utilizando una
prueba unilateral. ¿Qué tamaño de muestra se necesita en cada pueblo? Suponga que el nivel de
la prueba es 0,05. (b) Suponga que la potencia deseada para el inciso (a) es 0.8. ¿Qué tamaño de
muestra es
¿requerido?
(c) El año pasado se seleccionaron muestras de 50 en cada pueblo y las tasas de incidencia de 5
años fueron 22 % en el pueblo A y 37 % en el pueblo B. ¿Cuál es el poder para detectar una
diferencia de 15 puntos porcentuales usando un 1- prueba de nivel de 0.10 lados? (d) Calcule un
intervalo de confianza bilateral del 90 % sobre la diferencia en proporción
4.8. Se seleccionará una muestra de la población de un condado que tenga 18 años o más. Se medirá
la proporción de personas que están desempleadas.
Tres meses más tarde, la proporción de desempleados se registrará nuevamente en una muestra de
seguimiento. Se prevé que el 75 % de las veces la muestra 1 cooperará en el momento 2. Se mantendrá
el mismo tamaño de muestra en el momento 2 seleccionando personas adicionales.
(a) Si se prevé que la tasa de desempleo en el tiempo 1 sea del 8 % y desea poder detectar una
disminución de 1,5 puntos porcentuales con una potencia de 0,8 en una prueba unilateral de 0,05
niveles, ¿qué tamaño debe tener la muestra en cada período de tiempo? Tendrá que hacer
algunas suposiciones sobre la proporción de personas desempleadas en ambos momentos.
Describa su razonamiento para el valor que asume.
(b) Si solo puede permitirse el lujo de muestrear a 500 personas, ¿cuál será el poder para
detectar un cambio de 1,5 puntos porcentuales?
4.9. Los estudiantes de escuelas secundarias públicas y privadas se comparan en una prueba de
rendimiento estandarizada. En años anteriores la nota media ha sido de unos 600 (sobre 800). Suponga
que desea muestrear aproximadamente el doble de estudiantes de escuelas públicas que de estudiantes
de escuelas privadas, ya que hay algunos análisis adicionales que necesita.
Machine Translated by Google
proyecto de las escuelas públicas. Se sabe que la revarianza poblacional de las puntuaciones
es de 0,6.
(a) ¿Qué tamaño de muestra de estudiantes públicos y privados se necesita para detectar un
tamaño del efecto de 0,10 con una potencia de 0,80? Suponga que las diferencias en
cualquier dirección deben detectarse a un nivel de significación de 0,05.
(b) ¿A qué diferencia de medias corresponde esto?
4.11. Una organización encuesta a sus empleados en enero y julio para medir la competencia
con el conjunto de software de análisis de datos que proporciona la empresa.
Los empleados realizan varias tareas y reciben un puntaje general entre 0 y 100. Suponga que,
según los datos anteriores, el puntaje promedio es 72 y que la desviación estándar unitaria de
los puntajes es 55, que es estable en el tiempo. Al departamento de tecnología de la información
le gustaría saber si el puntaje promedio ha cambiado un 10 % o más de enero a junio. Se
selecciona una muestra aleatoria simple de los empleados en enero. Los mismos empleados se
evaluarán en julio, si es posible, pero debido a la rotación, el ausentismo y los conflictos de
programación, espera que solo el 60 % de la muestra inicial se vuelva a evaluar en julio. Para
los análisis transversales, se desea el mismo tamaño de muestra en cada período de tiempo.
Suponga que la correlación entre las puntuaciones individuales en los dos momentos es 0,76.
(a) Calcule el tamaño de muestra requerido en enero (que será igual al tamaño en julio) que se
necesitará para detectar un cambio del 10 % con una potencia de 0,80.
Suponga que se utilizarán todos los casos en cada período de tiempo para calcular la
diferencia y que el nivel de la prueba es 0,05. (b) Repita la parte (a) pero suponga que solo
los casos superpuestos entre enero
Se utilizarán los meses de enero y julio.
Machine Translated by Google
(c) Calcule la varianza de la diferencia media estimada de los incisos (a) y (b) y discuta
cómo se relaciona esto con los tamaños de muestra que calculó en los incisos (a)
y (b).
(d) ¿Qué suposición está haciendo implícitamente para decir que la diferencia en las
medias estimadas en (a) y (b) es la misma? ¿Hay alguna razón para creer que
esta suposición es incorrecta? Explica tu respuesta.
ÿ2yÿ=2ÿrÿxy
+ =rÿ2 ÿ2 . Cuando ÿ2
y
0,
ˆ¯
d = ÿ2 0nÿ1 1 [1 + r (1 ÿ 2ÿÿ)].
mostrar que V
Machine Translated by Google
Capítulo 5
Programación Matemática
Los métodos de prueba y error pueden eventualmente conducir a soluciones eficientes, no todos los
diseñadores de muestras son igualmente buenos en esto. Tener una buena solución matemática ayuda a
eliminar las conjeturas. Además, tener un software de optimización sofisticado nos anima a enumerar
cuidadosamente todos los objetivos y limitaciones y, esperamos, producir mejores soluciones.
La formulación general del problema es minimizar (o maximizar) alguna función (objetiva) sujeta a
restricciones de costo, tamaño mínimo de muestra por estrato, tamaños mínimos de muestra en dominios
analíticos y CV de estrato u otras estimaciones de dominio. En general, un problema de optimización
consta de cuatro partes: 1. Función objetivo: una función de una o varias variables a optimizar 2. Variables
Una solución a estos problemas requiere algoritmos y software especiales. Algunas de las opciones de
software son Excel Solver, SAS proc nlp, SAS proc optmodel y el paquete R alabama (Varadhan 2010),
todos los cuales se describen en este capítulo para diseños de una sola etapa.
Cuando hay múltiples variables y estimaciones, se necesita hacer algún juicio sobre la importancia
relativa de cada una para los objetivos de la encuesta.
Una opción es utilizar una combinación ponderada de las revarianzas para diferentes estimadores como
función objetivo. Los pesos podrían seleccionarse en función de la "importancia" de cada estimación para
los objetivos de la encuesta. Si, por ejemplo, el objetivo es una combinación lineal de la revarianza para la
proporción estimada de empleados que prefieren horarios de trabajo flexibles y el número promedio
estimado de días de baja por enfermedad por empleado, entonces los pesos de importancia podrían ser
0,5 cada uno, asumiendo que estos dos las estimaciones son igualmente importantes.
Cuáles deben ser los pesos relativos es una cuestión de opinión y asignarlos requerirá consultar con el
patrocinador de la encuesta y, probablemente, algún debate entre el personal que realiza la encuesta. Al
final, probablemente serán necesarias algunas asignaciones arbitrarias. Los análisis de sensibilidad se
pueden realizar utilizando diferentes conjuntos de ponderaciones de importancia.
Las revarianzas son convenientes para formar la función objetivo ya que una revarianza no tiene
unidades, como se indica en la Secc. 3.1. La revarianza de la estimación
número medio de empleados, por ejemplo, tiene unidades (empleados2)/(empleados2 ).
Si se usaran las varianzas, una variable como el número de empleados eclipsaría el efecto de una variable
0–1, como si un establecimiento había despedido a algún trabajador en el último trimestre.
Machine Translated by Google
Ejemplo 5.1 (Enunciado formal de un problema de optimización). Suponga que se selecciona una
muestra estratificada de una sola etapa usando stsrswor. Sea y ˆ¯j = Why¯j,sh la media estratificada de
la variable j Hh=1
(j = 1, 2,...,J).
La media muestral del estrato es ¯yj,sh = iÿsh yjhi /nh siendo yjhi el valor de la variable j para la unidad
muestral hi. Como en la Secc. 3.1.2, la media estimada del dominio para la variable j se define como
h Whpdhy¯dj,sh ,
y ˆ¯dj =
whpdh
h
Una declaración formal de un problema de programación matemática podría ser la siguiente. Los
términos CV0jh y CV0dj a continuación son objetivos para los CV s de las medias estimadas para la
variable j para el estrato h (un dominio de diseño como se describe en el Capítulo 3) y dominios de
estratos cruzados (llamados clases cruzadas en el Capítulo 3). • Encuentra el conjunto de tamaños de
muestra {nh}H
j
ÿ= ÿj relvar y ˆ¯j ,
j=1
donde {ÿj}J son los pesos de importancia asignados a las estimaciones j = 1,...,J y relvar y ˆ¯j = V y
j=1
ˆ¯j y¯2
Uj .
• Sujeto a las restricciones: (i) nh ÿ Nh
El problema anterior es no lineal en las variables de decisión porque los nh están en los
denominadores de la función objetivo, a través de relvar y ˆ¯j ,
Machine Translated by Google
2 y las restricciones, mediante [CV (¯yj,sh)]2 y CV yˆ¯dj . En casi todos los problemas
no lineales, no hay soluciones exactas de forma cerrada como las que observamos
para el muestreo estratificado en la Secc. 3.1.2. Se necesitan soluciones iterativas y
aproximadas, pero hay varias opciones de software disponibles, como se describe en
las siguientes secciones.
La forma exacta en que se establece un problema es importante tanto (i) para
obtener una solución que realmente aborde los objetivos de una encuesta como (ii)
para formular el problema de una manera que sea menos onerosa para el algoritmo de
solución. Algunas de las técnicas para resolver problemas de optimización no lineal
implican aproximaciones numéricas a derivadas parciales de la función objetivo ya
restricciones no lineales. La forma en que expresa un problema puede hacer que
encontrar una solución sea innecesariamente difícil para un algoritmo. En el ejemplo
5.1, podríamos haber definido el objetivo como la suma ponderada de CV s en lugar de las revarianza
Las restricciones (iii) y (iv) también podrían haberse establecido en términos de CV s.
Pero, más simple es mejor. Establecer la función objetivo y las restricciones no lineales
en términos de CV s hace que ambos sean “más” no lineales en los nh que el uso de
revarianzas debido a la función de raíz cuadrada requerida para CV s.
Plantear un problema que no tiene solución es ciertamente una posibilidad. Usar
restricciones que son incompatibles entre sí es un error que se puede cometer. Por
ejemplo, nh ÿ Nh y nh ÿ 100 son incompatibles para cualquier estrato con Nh < 100.
Naturalmente, son posibles errores más sutiles. Las restricciones estrictas sobre las
revarianzas pueden conducir a una violación de una restricción de costo, por ejemplo.
A menudo, la forma más fácil de descubrirlos es ejecutar la optimización y ver qué
sucede.
Un buen software producirá informes que informen si un problema se pudo resolver
o no y si se violó alguna restricción. El valor final de la función objetivo debe informarse
junto con una lista de las funciones restrictivas y sus valores finales. Una restricción
que se cumple exactamente en el límite o dentro de una pequeña tolerancia del límite
del valor permisible se etiqueta como vinculante; cambiar la restricción tendría un
efecto directo en la función objetivo. Las restricciones que se cumplen fácilmente (y
que podrían ajustarse en un problema de optimización posterior) se denominan no
vinculantes.
Se han desarrollado muchos algoritmos diferentes para resolver problemas de
optimización no lineal como el del ejemplo 5.1. Las matemáticas detrás de algunos de
estos se describen, por ejemplo, en Winston y Venkataramanan (2003). Además de
elegir un algoritmo, los paquetes de software suelen tener una variedad de parámetros
de ajuste que se pueden configurar para controlar los métodos utilizados para una
solución. Un usuario puede establecer el número de iteraciones antes de que finalice
el algoritmo, la duración del reloj que ejecuta el algoritmo antes de detenerse, el cambio
relativo entre iteraciones en la función objetivo utilizada para decidir si se ha alcanzado
un óptimo y una tolerancia. se utiliza para determinar si se viola o no una restricción.
Discutimos cuatro enfoques para realizar una optimización para diseños de una sola
etapa en las siguientes secciones.
Machine Translated by Google
Solver, una herramienta incluida con Microsoft Excel, es bastante fácil de usar y puede
encontrar soluciones a problemas siempre que no haya demasiadas variables de decisión o
restricciones. El solucionador estándar permite hasta 200 variables de decisión (por ejemplo,
tamaños de estrato) y restricciones en hasta 100 celdas en la hoja de cálculo. Hay varias
versiones actualizadas que se pueden comprar por separado de Front line Systems, Inc.1
Las actualizaciones pueden manejar problemas mucho más grandes y complejos que los
que aborda el Solver estándar y también funcionan dentro de Excel.
Un texto introductorio legible sobre el uso de Solver y muchas otras características de Excel
es Powell y Baker (2003). El capítulo 10 de su libro, en particular, cubre problemas de
optimización no lineal y el uso de diferentes versiones de Solver.
Esta sección describe cómo configurar un problema en Excel y encontrar una solución
usando Solver. El siguiente ejemplo es pequeño pero ilustra características que son comunes
a los problemas de asignación de muestra.
Las filiales extraterritoriales son empresas o entidades jurídicas que se establecen para
actuar como áreas de tenencia de inversiones. Esta puede ser una forma de reducir la
obligación tributaria y proteger los activos contra reclamos futuros, como procedimientos de
divorcio, bancarrota, acreedores y otros litigios.
En este ejemplo, se conocen los tamaños de la población en cada estrato y en general,
de modo que la optimización para los totales y las medias estimadas será la misma (como
se explica en la Sección 3.1). Recuerde que la revarianza de un total estimado en un
stsrswor es
Una
http://www.solver.com/excel-solver.htm.
Machine Translated by Google
Nueva Hampshire
ÿ 1 S2 h
h
Nueva Hampshire
siendo T el total de la población. Este es un problema a pequeña escala que es fácil de resolver
usando Solver. La hoja de cálculo utilizada en este ejemplo se puede encontrar en Example
5.2.Solver.xls en el sitio web de este libro. En la Fig. 5.1. Los pasos para usar Solver se enumeran
a continuación.
1. Agregue columnas a la hoja de cálculo que se utilizan para calcular las estadísticas para la
optimización. En este ejemplo, se agregaron las columnas L, M, N y O y contienen la fórmula
nh ÿ 1 S2
Nh el crédito de investigación y las filiales extraterritoriales.
nh h para ingresos, empleados,
H
2. Agregue una columna para contener las variables de decisión, {nh} h=1,(celdas K3–K7).
3. Cree una celda que contenga una fórmula que calcule la función objetivo.
Aquí, el objetivo es CV2 Tˆ = T variable siendo ÿ2 H h=1 nh ÿ 1 S2 con el
nh h Nueva Hampshire
5. Abra Solver eligiendo Herramientas/Solver en la pestaña Datos en Excel 2007 o 2010. Si Solver no
aparece en la lista, seleccione Herramientas/Complementos y marque Complemento de Solver para
activar la herramienta. En Excel 2010, seleccione Archivo/Opciones/Complementos/Administrar
complementos de Excel.
6. Rellene los siguientes cuadros en la pantalla Parámetros del solucionador: Establecer celda
objetivo, Igual a, Cambiando celdas y Sujeto a las restricciones. Los contenidos de las
celdas para este ejemplo son (ver Fig. 5.2):
Tenga en cuenta que Solver permite la notación de matrices, por lo que, por ejemplo, K3 a K7
se limitan a ser mayores que 100 (es decir, K3:K7 >= 100) en lugar de restringir cada celda por
separado. La figura 5.3 muestra la pantalla Cambiar restricción en la que se establece la
restricción D13 <= D12. Las otras restricciones se establecen de manera similar.
Los parámetros de ajuste que controlan cuánto tiempo se ejecuta el algoritmo, cuándo se
detiene y los métodos utilizados se configuran en la pantalla Opciones del solucionador (Fig.
5.4) que aparece después de hacer clic en Opciones en la pantalla Parámetros del solucionador.
Max Time e Iterations se explican por sí mismos. Algunas de las otras opciones relevantes para
la asignación de la muestra son:
Precisión de la restricción. Este número en la pestaña Todos los métodos determina qué tan
cerca debe estar el valor del lado izquierdo de una restricción del límite de la derecha para
que se cumpla. La configuración predeterminada es 10ÿ6. Establecer este valor en un
número extremadamente pequeño puede dar lugar a que (a) Solver informe que se ha
infringido una restricción cuando, en todos los aspectos prácticos, es simplemente vinculante
sin infringirse o (b) Solver informa que no se puede encontrar una solución. Establecer la
Precisión en un valor demasiado grande también puede resultar en una convergencia
“prematura”, es decir, se encuentra una solución que satisface todas las restricciones pero
no brinda el mejor valor de la función objetivo. Puede probar esto usted mismo experimentando
con diferentes valores de precisión en el ejemplo de esta sección.
Convergencia. Está en la pestaña GRG Nonlinear y representa el valor absoluto del cambio en
la función objetivo que se usa para declarar la convergencia. Si el cambio entre iteraciones
es menor o igual a este número, Solver se detiene.
Utilice el escalado automático. Cuando esta casilla está marcada en la pestaña Todos los
métodos, Solver intenta escalar los valores de las funciones objetivo y de restricción
internamente para minimizar los efectos de tener valores del objetivo, restricciones o
resultados intermedios que difieren en varios órdenes de magnitud.
Derivados. Esta opción en la pestaña GRG Nonlinear controla el rendimiento del método de
solución. El valor predeterminado de Reenviar se puede utilizar para la mayoría de los
problemas. En cada iteración se utilizan valores de derivadas del objetivo y las restricciones
con respecto a las variables de decisión. Estos derivados se aproximan mediante una técnica
conocida como diferenciación, la técnica que se selecciona en la opción Derivados. La
diferenciación central requiere más tiempo por iteración que la diferenciación directa, pero
puede generar una mejor dirección de búsqueda y menos iteraciones.
La solución a este problema de optimización se muestra en la Tabla 5.2. Hay tres informes
disponibles cuando se encuentra una solución: el Informe de respuestas, el Informe de
sensibilidad y el Informe de límites. Discutiremos los dos primeros; el tercero parece tener poca
utilidad en los problemas que abordamos.
El Informe de respuestas resume los valores originales y finales de las variables de decisión
y las restricciones, con información adicional sobre qué restricciones son vinculantes. La figura
5.5 muestra el informe de respuesta para este ejemplo.
En primer lugar, se enumeran los valores original y final de la función objetivo. Inicial
Machine Translated by Google
Higo. 5.1: Configuración de la hoja de cálculo de Excel para usar con Solver
Una
Manufactura 413
2 Venta al por menor 317
Total 2,846
Higo. 5.4: Ventana de opciones del solucionador donde se pueden configurar los parámetros de ajuste y guardar los
modelos
como desee, luego guarde el modelo en un rango diferente de celdas. Para cargar uno de
los modelos, abra la ventana Parámetros del solucionador, haga clic en Cargar/Guardar y seleccione
el rango de celdas que contiene el modelo que desea.
La sección 5.6 ofrece algunos comentarios generales sobre cómo realizar un seguimiento de las variaciones
de los problemas de optimización que pueden intentarse. Como en todas las aplicaciones, una buena contabilidad
es una parte crítica de una buena organización.
Higo. 5.5: Informe de respuesta del solucionador para el ejemplo de establecimiento comercial
También puede hacer que Solver use múltiples valores iniciales automáticamente. En
la ventana Parámetros del solucionador, seleccione Opciones. Luego, en la ventana
Opciones, elija la pestaña GRG no lineal y marque la casilla Usar inicio múltiple. Si
esta casilla está seleccionada cuando hace clic en Resolver, el método GRG no lineal
se ejecutará repetidamente, comenzando desde diferentes valores iniciales (elegidos
automáticamente) para las variables de decisión. Este proceso puede encontrar una
mejor solución, pero requerirá más tiempo de cálculo que una sola ejecución del
método no lineal GRG.2
Limitaciones en el Número de Variables de Decisión. El solucionador estándar tiene un
límite de 200 variables de decisión para problemas lineales y no lineales.
Por “lineal” queremos decir que tanto la función objetivo como las restricciones son
combinaciones lineales de las variables de decisión. Sin embargo, una versión
mejorada de Solver tiene límites de 2000 variables de decisión para problemas lineales
y 500 para problemas no lineales.
Limitaciones en el Número de Restricciones. El solucionador estándar tiene un límite de
100 celdas que se pueden restringir; las variables de decisión no están incluidas en
esta lista. Aunque esto parece generoso, exceder este límite no es difícil de hacer. Si
una población tiene 110 estratos y se establece la restricción de que nh ÿ Nh por
separado en cada estrato, se excede el límite. Una solución es establecer una celda
igual a maxh(nh/Nh) y restringir esta celda para que sea menor o igual a 1. Por lo
tanto, 110 celdas de restricción se convierten en 1 restricción sin cambiar los objetivos
del problema. De manera similar, si se desea un CV de 0,05 para varias estimaciones
diferentes, se puede definir una sola celda que contenga un CV2 máximo sobre el
conjunto de estimaciones.
2
Hay disponible ayuda más detallada para esta y todas las demás opciones en www.solver.com/
excel2010/solverhelp.htm.
Machine Translated by Google
Ejemplo 5.3 (Determinación de los tamaños de las submuestras). Suponga que se selecciona una
muestra de hogares con el objetivo de obtener números específicos de niños en
los grupos de edad de 5 a 11 años, de 12 a 14 años y de 15 a 17 años. Una muestra inicial
de 27.400 hogares seleccionados y el número de niños en cada grupo de edad
en cada hogar se registra en base a una entrevista de selección. Los números
de niños en la muestra inicial y los tamaños de muestra objetivo para la submuestra
en cada subgrupo son:
Chi(k)
fi(k) = .
Chi(+)
ek = ah fi(k)
h iÿsh
= (5.1)
ahnhp¯h(k),
h
EH = ahhh
h
h ah Nueva Hampshire
k = 12 3
Una
a1 n1 100
2 a2 n2 010
3 a3 n3 001
12 a12 n12 p¯12(1) p¯12(2) 0
13 a13 n13 p¯13(1) ¯p13(3)
23 a23 n23 0 0 p¯23(3)
123 a123 n123 p¯123(1) ¯p23(2) p¯123(2) p¯123(3)
Se puede formular el establecimiento de tasas de submuestreo para HH en cada uno de los 7 estratos
como un problema de programación lineal:
Que este problema pueda resolverse o no depende, en parte, del valor de la mina. Si se
establece demasiado alto, puede que no sea posible encontrar una solución factible, es
decir, una que satisfaga todas las restricciones.
La hoja de Excel, Example 5.3 Subsampling age strata.xlsx, que se encuentra en el
sitio web de este libro, tiene este problema configurado en la herramienta de análisis de
datos Solver para el conjunto de valores para nh y ¯ph(k) que se muestra en Higo. 5.7.
La solución también se da en la Fig. 5.7. En este ejemplo, mina = 0,1. Los valores de
¯ph(k) se denotan por ph(k) en la hoja de cálculo. Las variables de decisión ah están en
las celdas B11:B17 de la hoja de cálculo. En este caso, la solución da 5000 niños
submuestreados en total y 5003 HH, una ligera discrepancia en el requisito de un niño por
HH debido al redondeo. Los estratos 12, 13 y 23 se submuestrean a la tasa mínima
permitida de 0,1. Los estratos 1, 2, 3 y 123 se submuestrean a tasas de alrededor de
0,161, 0,947, 0,793 y 1,00.
Higo. 5.7: Hoja de cálculo de Excel para encontrar tasas de submuestreo mediante programación lineal
La optimización multicriterio en SAS se puede realizar utilizando los procedimientos proc nlp
(programación no lineal) o el proc optmodel más nuevo. Presentamos detalles asociados
con este último procedimiento en la siguiente sección. SAS proc nlp tiene menos restricciones
en factores como el número de restricciones que las que se observan con el solucionador
estándar. Proc nlp resolverá problemas de la forma
sujeto a
ci (x)=0 yo = 1,...,m1, ci (x) ÿ 0
yo = m1,...,m1 +=m2,1, . j.ÿ. xj
, pags.
ÿ uj j
El vector x contiene las variables de decisión; las ci (x) son restricciones de igualdad o
desigualdad. Las variables de decisión tienen límites inferior y superior especificados por j ÿ
xj ÿ uj . Tenga en cuenta que un problema de maximización, es decir, maxxÿRn f (x) puede
establecerse utilizando ÿf (x) como la función objetivo; sin embargo, el usuario puede
especificar si un objetivo debe ser minimizado o maximizado sin preocuparse por el signo de
f (x). Esta formulación general se ajusta a los problemas de asignación de muestras, siendo
x los tamaños de muestra. Algunas de las ventajas de proc nlp son:
3
http://support.sas.com/documentation/.
Machine Translated by Google
guía de usuario. Para sus propios programas de propósito especial, la opción (i) debería ser
suficiente. Los comentarios deben incluir un encabezado que indique:
Ejemplo 5.4 (Resolver la imputación de establecimientos comerciales con SAS). PNL El código
proc nlp de SAS 9.2, el registro del programa y el archivo de salida utilizados en este ejemplo
se encuentran en los archivos del Ejemplo 5.4 (NLP) (archivos .sas, .log y .lst, respectivamente)
en el sitio web del libro. El código también se muestra en Código 5.1.
Asignar Valores Iniciales. Valores iniciales para las variables de decisión, {nh}5h=1,
se ingresan en un conjunto de datos llamado start500 que luego proc nlp carga a través
de la opción INEST. Cada tamaño de muestra de estrato se inicializó en 500 como en el
ejemplo de Solver. (El código SAS también crea un archivo llamado start100 que se
puede usar para la comparación. Ambos puntos de partida producen soluciones similares,
aunque los valores iniciales de 100 generarán un mensaje engañoso de que el algoritmo
convergió). Si los valores iniciales son no asignado, el procedimiento asignará sus propios
valores seleccionados aleatoriamente para nh que están cerca de cero. En este ejemplo,
asignar inicialmente 500 tamaños de muestra de todos los estratos no conduce a una
mejor solución.
Parámetros de optimización de carga. El primer paso dentro de proc nlp es cargar los valores
de los parámetros de optimización por estrato de diseño (sector empresarial), como se
usa en Solver, en un conjunto de variables SAS. Estos incluyen los recuentos de población
(Nh[5], es decir, una matriz de longitud 5), valores de costo (costo[5]), medias y
proporciones de población (p[4,5]) y las desviaciones estándar de población ( sd [4,5])
para las cuatro variables de análisis que se muestran en la Tabla 5.1.
El orden de las variables en las matrices de medias y desviaciones estándar (es decir,
matrices) es ingresos, empleados, crédito de investigación y filiales en el extranjero de
modo que, por ejemplo, las primeras filas (es decir, p[1,] y sd[1, ]) corresponden a los
valores para los ingresos. Tenga en cuenta que las desviaciones estándar para el crédito
de investigación y las filiales en el extranjero se calculan utilizando bucles DO en lugar de
"codificados" porque las estimaciones de las variables binarias se pueden calcular
directamente dentro del programa.
Declare las variables de decisión. Nuestro objetivo final es calcular el tamaño de la muestra
que se seleccionará dentro de cada sector empresarial para la encuesta. Los tamaños de
muestra del estrato se cargan en una matriz de longitud cinco, es decir, n[5], para usar
en la función objetivo y se definen como las variables de decisión en la instrucción
DECVAR. Tenga en cuenta que las variables en el conjunto de datos start500 se
denominan n1–n5 para coincidir con la matriz en DECVAR.
Machine Translated by Google
los archivos de salida fueron, si los hubiere. Conservar el archivo de registro como parte de los registros del proyecto es
una parte esencial de una buena documentación.
Los resultados de la optimización. El archivo de salida (Ejemplo 5.4(NLP).lst)
contiene mucha información, pero nos centraremos solo en ciertas secciones.
En primer lugar, es importante comprobar las especificaciones de la sonda de
optimización, como las estadísticas de resumen que se presentan en la Tabla 5.3).
Código 5.1: código SAS 9.2 proc nlp para el problema de optimización del ejemplo 5.2
n1 <= 6221, n2 <= 11738, n3 <= 4333, n4 <= 22809, n5 <= 5467;
HACER J=1 A 4;
HAGO YO=1 A 5;
v[j,i] = ((Nh[i]**2/n[i]) - Nh[i]) * (sd[j,i]**2);
FINAL;
var[j] = v[j,1] + v[j,2] + v[j,3] + v[j,4] + v[j,5]; tot[j] = m[j,1] + m[j,2] + m[j,3] + m[j,4] + m[j,5]; varrel[j] =
var[j] / tot[j]**2;
FINAL;
Tabla 5.4: Resumen de resultados para Solver, proc nlp, proc optmodel y
soluciones de optimización constrOptim.nl
(iniciar=100)
El procedimiento utiliza el "lenguaje optmodel" que se anuncia como que permite una rápida
traducción de un “problema verbal” de optimización en código de programa ejecutable.
Sin embargo, las técnicas de optimización no lineal enumeradas actualmente para este
procedimiento son menos que las especificadas para proc nlp.
Código 5.2: código SAS proc optmodel para el problema de optimización del ejemplo 5.2
**************************************************** **************;
Título2 "Cargar información";
**************************************************** **************;
DATOS Ejemplo_55;
LONGITUD Estrato 3 Nh UnitCost Ingresos Empleados Revnu_SD Emply_SD
RCredit en alta mar 8;
ETIQUETA Estrato = "ID de estrato"
Machine Translated by Google
**************************************************** **************;
*Presupuesto de la
Encuesta; CON Presupuesto: (SUM{i en 1..5} UnitCost[i] * NSamp[i]) <= 300000;
RESOLVER;
IMPRIMIR NSamp;
IMPRIMIR(SUMA{i en 1..5} NSamp[i]); PRINT
(SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * Revnu_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] *
Ingresos[i])ˆ2))); PRINT (SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) *
Emply_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * Empleados[i])ˆ2))); PRINT (SQRT((SUM{i en
1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * RCrdt_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * RCredit[i])ˆ2))); IMPRIMIR
(SQRT((SUMA{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) *
Machine Translated by Google
OffSh_SD[i]ˆ2) / ((SUM{i en
1..5} Nh[i] * OffShore[i])ˆ2)));
NÚMERO i;
ARCHIVO "OptModel.strata.out"; PUT @1
"Estrato"
@10 "Resp_Alloc"; HACER
i=1 A 5;
PONER @1 yo
@10 NSamp[i];
FINAL;
CLOSEFILE "OptModel.strata.out";
ABANDONAR;
CORRER;
Código 5.3: código R constrOptim.nl para el problema de optimización del ejemplo 5.2
#**************************************************** * ****************
# ARCHIVO: constrOptim.ejemplo.R
# PROPÓSITO: Usar constrOptim.nl para resolver el negocio de asignación
# problema de asignación de establecimiento
# FECHA: 14/09/09
# AUTOR: R. Valliant
#**************************************************** * ****************
requerir (alabama)
require(numDeriv) # alabama requiere el paquete "numDeriv"
# Vars de decisión
nh <- vector("numérico", longitud = 5)
} ans <- constrOptim.nl( # parámetro y función objetivo par = rep(1100,5), # usar par = rep(100,5)
da error: # "el valor inicial viola la desigualdad #
restricciones"
fn = varrel.rev,
# límites de parámetros hin
= restricciones, heq = heq, control.outer =
list(eps = 1.e-10, mu0 = 1e-05, NMinit = TRUE,
method = "BFGS"
)
)
respuesta
Los resultados pueden volcarse en la pantalla o asignarse a un objeto como en el Código 5.3.
La solución para los tamaños de muestra de estrato en este ejemplo está en ans$par; el valor
de la función objetivo está en ans$value. La salida para el ejemplo anterior es
$par
[1] 429,7308 233,4132 113,5080 1534,6032 550,4323 $valor [1] 0,002260288
Concluimos este capítulo con una nota sobre contabilidad. En las secciones anteriores,
enfatizamos que la optimización multicriterio en general es un proceso iterativo.
Por ejemplo, las restricciones se establecen y luego se relajan (o se endurecen) en función de
la solución de asignación inicial. Probar una serie de opciones de costos y precisión de las
estimaciones es una forma especialmente útil de explorar un problema. Esta también suele ser
una buena manera de ilustrar las compensaciones a los clientes. Recomendamos que los
investigadores establezcan y mantengan un sistema contable para documentar:
Ejercicios
Al investigador también le gustaría poder reconocer diferencias a nivel de condado que superen
el 10 % de puntos. El presupuesto para la parte de recopilación de datos de la encuesta es de
$100,000 y se anticipa que encuestar a cada maestro costará alrededor de $150.
5.2. Con los datos del ejemplo 5.2 , calcule (a) la asignación proporcional, (b) la asignación de
Neyman para estimar el ingreso total y (c) la asignación restringida de costos para el ingreso,
suponiendo un presupuesto de $300 000. Tenga en cuenta que las asignaciones proporcionales
y de Neyman no tienen una restricción sobre los ingresos; cada uno debe encontrarse para el
tamaño total de la muestra de n = 2, 848 como en el Ejemplo 5.2. Para cada una de estas
asignaciones, calcule los CV para los ingresos totales estimados, el total de empleados, el número
total de establecimientos que reclaman el crédito de investigación y el número total de
establecimientos que tienen filiales en el extranjero.
¿Respetan las asignaciones (a), (b) y (c) las restricciones utilizadas en el ejemplo 5.2.
En otras palabras, cambie la restricción en el CV del afiliado extranjero a 0,05 y vuelva a calcular
la asignación. Comente las diferencias en la asignación resultante en comparación con la del
Ejemplo 5.2.
5.4. Resuelva el Ejemplo 5.2 con las mismas restricciones CV que en el Ejercicio 5.3 (0.05 en
empleados, 0.03 en el total de establecimientos que reclaman el crédito de investigación,
Machine Translated by Google
5.5. Determine la asignación a los estratos en el Ejemplo 5.2 con base en la siguiente
configuración. Minimizar ÿ = 0.75×relvar Tˆrev +0.25×relvar Tˆ elemp
total donde T de
, estimado Rvdo
es
Capítulo 6
Tasas de resultado y efecto sobre el tamaño de la muestra
Códigos numéricos que describen el estado de recopilación de datos actual o final de cada
las unidades de muestra se conocen como códigos de disposición. AAPOR proporciona una lista de
códigos de disposición recomendados; sin embargo, estos códigos de disposición son generalmente
específicos de cada organismo de recopilación de datos. Por lo tanto, a veces puede ser necesario
negociar con la agencia de recopilación de datos para ampliar su conjunto de códigos.
Por ejemplo, los códigos de disposición de muestra registrados para el estado de mayo de 2004
of Forces Survey of Reserve Component Members (SOFReserves), una encuesta
realizado por Defense Manpower Data Center (2004) de Military Reservists,
se proporcionan en la Tabla 6.1. Si estos códigos de disposición también se utilizan para personalizar
contratación de trabajo de campo durante la recolección de datos, sería recomendable
diferenciar entre negativas y personal desplegado. Ambos códigos
actualmente se suman en la categoría 8.
Tabla 6.1: Terminología: ejemplos de disposiciones para el estudio de Reservas SOF de mayo de 2004.
Disposición
código Descripción
Una
No elegible—basado en la verificación del personal actualizado
registros
2 No elegible: informe propio/de apoderado, fallecido, enfermo, encarcelado,
apartado
3 No elegible: autoinforme de la encuesta
4 Respuesta elegible completa
5 Respuesta elegible incompleta
8 Rechazado: rechazo, despliegue, otro rechazo
9 En blanco (cuestionario devuelto)
10 No entrega postal (PND)
11 Otro no respondedor
símbolo en
categoría de tasas de estudio Elegibilidad del estudio
La categoría NC (sin contacto) contiene aquellos miembros de la muestra que nunca fueron
contactados para la entrevista pero se sabía que eran elegibles para el estudio, p.
un "timbre/sin respuesta" en una encuesta telefónica después de una cita de entrevista
programado con otro miembro del hogar. Los participantes del estudio clasificados como
no elegibles (categoría NE) generalmente se enumeran por separado de aquellos para quienes
nunca se estableció la elegibilidad (categoría U). En una encuesta telefónica, por
ejemplo, puede haber muchos números que se clasifiquen como timbre/sin respuesta
cuyo estado de elegibilidad para el estudio se desconoce. Pueden ser domicilios o números de
teléfono no asignados. La forma en que se manejan las incógnitas (U) puede hacer una
diferencia notable en las tasas de respuesta, como se analiza más adelante. Todos los casos
elegibles que no estén asignados a ninguna de las categorías mencionadas anteriormente
se asignan a una categoría "cajón de sastre" (O).
Cuando se usan en una fórmula, los símbolos de la tabla 6.2 representan el número
de unidades de muestra que caen dentro de cada categoría; la suma de las categorias
(I + P + R + NC + U + NE + O) es igual al tamaño total de la muestra (n).
La tarea principal en el cálculo de las tasas de resultados es mapear la disposición
códigos adoptados para una encuesta particular en las categorías AAPOR. Un ejemplo de mapeo
se demuestra en un artículo de Abraham et al. (2006). Un
A continuación se proporciona un extracto (Tabla 6.3) de su Tabla A-1 de American Time
Use los códigos de disposición de la Encuesta y la designación de categoría AAPOR
correspondiente.
Es importante tener en cuenta un par de cuestiones con respecto a la tarea de mapeo. Primero,
las asignaciones pueden diferir en función de las poblaciones objetivo. Es decir, para algunos
estudios, la categoría AAPOR finalizada puede diferir de la asignación ATUS que se muestra,
porque la población objetivo excluye a las personas institucionalizadas.
Esto daría como resultado un cambio para el código 19 (otro: persona designada institucionalizada)
de “otro no entrevistado” a “no elegible”. En segundo lugar, los investigadores
puede expresar diferentes preferencias sobre cómo deben ejecutarse las asignaciones.
Machine Translated by Google
Tabla 6.3: Concordancia entre AAPOR y códigos de disposición interna para el año 2004
Encuesta estadounidense de uso del tiempo.
entrevista completa yo
1 Parcial suficiente yo
miembro
18 Otro: persona designada ausente, enferma u hospitalizada O
19 Otro: persona designada institucionalizada O
21 Otro: barrera del idioma O
23 Elegibilidad desconocida: número de teléfono incorrecto tu
24 No elegible: persona designada en las Fuerzas Armadas NE
27 Elegibilidad desconocida: detector de privacidad tu
29 Otro: no entrevista O
100 No elegible: varios nordeste
Abrahán et al. (2006), por ejemplo, optó por no utilizar entrevistas parciales como
una categoría en sus tareas. Para un estadístico de encuestas es importante
abordar estos problemas con anticipación.
Esta sección describe cinco tasas generales de estudio que se aplican a la mayoría de las encuestas:
ubicación, contacto, elegibilidad, cooperación y respuesta. variaciones de estos
las tasas que son específicas para el modo de recopilación de datos se proporcionan como ejemplos.
Machine Translated by Google
Las cinco tasas que discutimos aquí tienen límites superior e inferior dependiendo de la
tratamiento de casos no elegibles y casos con elegibilidad desconocida. A menudo un
estimación de la proporción de elegibles entre las incógnitas se utiliza para crear
tasas más razonables que los límites extremos.
Tasa de ubicación
La tasa de ubicación especifica la proporción de unidades para las que se obtuvo información de contacto.
La fórmula se expresa en palabras de la siguiente manera junto con un
formulación de la tasa:
norte - tu I + P + R + NC + NE + O
= =
norte I + P + R + NC + U + NE + O
Por ejemplo, una muestra de mujeres que respondieron a la encuesta nacional de salud de 1993
La Encuesta de Entrevistas (NHIS) fue seleccionada para la Encuesta Nacional de Familia
Crecimiento (NSFG), Ciclo 5 (Potter et al. 1998). Información de contacto recopilada
durante el NHIS ya no era válido para algunos miembros de la muestra cuando el
NSFG fue enviado. Se utilizaron procedimientos de rastreo para localizar a muchos; sin embargo,
la tasa de localización fue inferior al 100 %. Los no contactos (NC) pueden sonar como si
son casos que no fueron localizados. Pero, en una encuesta de hogares, un no contacto podría ser un
caso en el que un guardián impide que un entrevistador
entrar en un edificio seguro. En esa instancia, el caso ha sido localizado, pero un
el contacto directo era imposible.
Una tasa de coincidencia de dirección es un ejemplo de una tasa de ubicación específica para el teléfono.
encuestas. Por lo general, los números de teléfono aleatorios seleccionados bajo un plan de muestreo
detallado se envían a un proveedor para que los procese, lo que se conoce como coincidencia inversa.
listas de direcciones Algunas de las empresas estadounidenses que venden este servicio son Telematch1,
el sistema GENESYS dentro de Marketing Systems Group (MSG)2, y Survey
Muestreo Internacional3. Envío de una carta anticipada (o de plomo) a través del correo
Se ha demostrado que a aquellos que tienen una dirección mejoran las tasas de respuesta telefónica.
(por ejemplo, Traugott y Goldstein 1993). Esto es en comparación con aquellas unidades sin información
de dirección que son contactadas sin notificación previa ("fría
llamadas”).
Una
http://www.relevategroup.com/.
2
http://www.msg.com/.
3
http://www.surveysampling.com/.
Machine Translated by Google
Tasa de contacto
yo + p + r + o
= n ÿ (NC + U + NE) =
n ÿ NE I + P + R + NC + U + O
Tenga en cuenta que la tasa AAPOR CON3, que excluye a aquellos con desconocido
elegibilidad (U), es el valor máximo porque el denominador es menor
que en la fórmula para CON1:
n ÿ (NC + U + NE) yo + p + r + o
CON3 = n ÿ =
(U + NE) I + P + R + NC + O
Tasa de elegibilidad
Los criterios para clasificar una unidad de muestra como elegible o no elegible (categoría
NE) para el estudio se definen al principio del proceso de planificación. el conjunto de todos
elegibles define la población objetivo para la cual se producirán estimaciones.
Machine Translated by Google
I + P + R + NC + O
= norte ÿ (U + NE) =
norte - tu I + P + R + NC + NE + O
Además de la coincidencia inversa, los proveedores como MSG brindan un servicio para
preseleccione los números de teléfono para eliminar (i) todos los números que no funcionan identificados
por una computadora a través de un tritono electrónico y (ii) para números residenciales
encuestas, todos los números no residenciales (por ejemplo, empresas).
Tasa de cooperación
La proporción de unidades de muestra elegibles para el estudio que brindan respuestas a un número suficiente
parte de la entrevista se llama tasa de cooperación. Esta tasa también ha sido
etiquetado como una tasa de respuesta entre los elegibles antes de las definiciones estandarizadas.
En el documento AAPOR se proporcionan cuatro tasas de cooperación según
sobre métodos para manejar entrevistas parcialmente completadas y unidades de muestra
con códigos de estado no resueltos (consulte la Sección 6.1 para obtener más información). Un general
fórmula se expresa como
Machine Translated by Google
yo
norte ÿ (P + R + NC + U + NE + O) =
COOP1 = n ÿ
(NC + U + NE) yo + p + r + o
yo
norte ÿ (P + R + NC + U + NE + O) =
COOP3 = n ÿ
(NC + U + NE + O) yo + p + r
Los miembros de la muestra con una entrevista parcialmente completa normalmente se clasifican
como encuestados si se ha recopilado información clave para abordar la principal
objetivos analíticos para el estudio. Exactamente qué elementos en un instrumento de encuesta
se consideran clave debe ser decidido por el personal del proyecto y el patrocinador de
el estudio. En algunos casos, algunas preguntas pueden considerarse clave; en otros un
Es posible que se deba responder una serie larga antes de que el caso se considere parcial.
completo.
Tasa de respuesta
Otras tres fórmulas merecen atención especial en nuestra discusión: RR1, RR6,
y RR4. Las tasas RR1 y RR6 limitan la tasa de respuesta por debajo y por encima,
respectivamente, por la forma en que son tratados los completos parciales (P).
Esto se ve comparando las dos fórmulas a continuación:
yo
norte ÿ (P + R + NC + U + NE + O) =
RR1 = n
ÿ (U + NE) I + P + R + NC + O
Machine Translated by Google
norte ÿ (R + NC + U + NE + O) yo + p
RR6 = n =
ÿ (U + NE) I + P + R + NC + O
Una directiva principal dada a los entrevistadores es recopilar información para establecer la
elegibilidad del estudio. Sin embargo, para muchos estudios, la elegibilidad nunca se verifica
para una proporción de las unidades de muestra. En 1982, el Council of American Survey
Research Organisations (CASRO) recomendó que se aplicara una tasa de elegibilidad (estimada)
(e) al número de unidades de muestra con elegibilidad desconocida (U). Una estimación del
número de inelegibles entre las incógnitas, (1ÿe)U, más el número de inelegibles conocidos (NE)
se resta del número total de casos de muestra, dejando solo el número total (estimado) de
elegibles en el denominador. Por lo tanto, nació la fórmula de tasa de respuesta de CASRO,
como RR4:
yo + p
RR4 =
I + P + R + NC + O + (e × U)
Tenga en cuenta que la tasa de respuesta, así como las demás tasas, se pueden calcular
para los dominios. Por ejemplo, algunos clientes están interesados en la proporción de
participantes elegibles contactados que completan con éxito la entrevista del estudio.
Algunos investigadores llaman a esto una tasa de finalización; se calcula de la misma manera
que RR5 en AAPOR (2011) o RR6 arriba.
Como se muestra en las definiciones de las tasas de resultado en la sección anterior, los casos
de estado desconocido (U) se pueden manejar de diferentes maneras. Esta sección ofrece
algunos ejemplos que ilustran cómo las tasas calculadas pueden verse afectadas por la forma
en que se tratan las U. Debido a que las decisiones afectan directamente el valor numérico de la
tasa de estudio, deben justificarse en la documentación del proyecto. A continuación,
proporcionamos dos ejemplos para ilustrar este punto.
Ejemplo 6.1. La tabla 6.4 contiene el conteo de unidades de muestra por código de disposición
para una encuesta por correo ficticia. ¿Cómo deben tratarse las unidades de muestra U y cómo
afecta esta decisión a la tasa de ubicación?
Digamos, por ejemplo, que su cliente declara que la lista de direcciones se actualiza regularmente,
por lo que los casos de "no respuesta" son en realidad rechazos. La tasa de ubicación resultante
se calcula como
Tabla 6.4: Resumen de recuentos de unidades de muestra de una encuesta por correo por código de disposición.
completa yo 1,807
rechazos R 642
Inelegible nordeste 51
Ilocalizable CAROLINA DEL NORTE 120
falta de entrega postal CAROLINA DEL NORTE 75
Ninguna respuesta tu 305
Total 3,000
Con esta encuesta por correo, puede sospechar que los cuestionarios fueron entregados
a la dirección incorrecta para las unidades de "no respuesta" y que el hogar
residente simplemente tiró los materiales. La tasa de ubicación del escenario dos es
mucho más bajo que la tasa del escenario uno:
• Escenario 3: una parte de las unidades “sin respuesta” clasificadas como ubicadas
De manera similar al ajuste de la tasa de elegibilidad "e", es posible que desee estimar la
número de unidades "sin respuesta" que se ubicaron usando solo esos casos
con un estado de ubicación conocido (es decir, condicionado a ser conocido). La tasa de ubicación
del escenario tres tiene un valor más cercano a la tasa del escenario uno debido a la
tasa de ubicación condicional alta:
donde = (1, 807 + 642 + 51) / (3,000 ÿ 305) = 92.8 % es la tasa de ubicación.
Ejemplo 6.2. La Tabla 6.5 contiene el conteo de unidades de muestra por código de disposición
para una encuesta RDD ficticia. Las tarifas para RR2 y RR6 difieren en menos de
4% puntos y se calculan de la siguiente manera:
yo + p
RR2 = = 37,3%
I + P + R + NC + O + U
yo + p
RR6 = = 41,0%
I + P + R + NC + O
Tenga en cuenta que no hay casos codificados como sin contacto u otros; por lo tanto NC=O=0 en
RR2 y RR6. Los casos en los que el teléfono siempre estuvo ocupado se codifican como NE.
Esto es una cuestión de juicio y no necesariamente se haría de la misma manera.
manera en cada encuesta.
Machine Translated by Google
Tabla 6.5: Resumen de recuentos de unidades de muestra de una encuesta de RDD por código de disposición.
Total 13,500
yo + p + r
mi = = 13, 500 - (75 + 914 + 10 + 3, 181 + 22) = 0.7388
norte - tu 13, 500 - 914
yo + p
RR4 = I = 38,2%.
+ P + R + NC + (e × U)
Tenga en cuenta que el valor RR4 se encuentra entre los valores RR2 y RR6 porque
(a) RR2 cuenta todas las U = 914 incógnitas como elegibles mientras que (b) RR6 cuenta
ninguno de ellos como elegible. Tenga en cuenta que no hay casos codificados como otro; así O
= 0 en RR4.
Una pregunta importante que surge es: ¿debo calcular ponderado o no ponderado
tasas de rendimiento? La respuesta típica, aunque potencialmente agravante, es:
depende. Tenga en cuenta que las tasas ponderadas y no ponderadas son equivalentes si el
el diseño contiene ponderaciones iguales: un muestreo y una estimación de igual probabilidad
(EPSEM) utilizando el conocido acrónimo de Kish (1965). Si los miembros del equipo del
proyecto (incluido el cliente) desean evaluar el
muestra en el estudio actual, debe calcular las tasas no ponderadas. Para
Por ejemplo, al desarrollar el diseño de la muestra, estima que el 89 % de sus
las unidades de muestra se localizarán con éxito. Una tasa de ubicación no ponderada
Machine Translated by Google
muy por encima o por debajo de la tasa estimada podría sugerir el número adicional de
réplicas que se liberarán para la recopilación de datos, como se describe en la Secc. 6.5.
A la inversa, una tasa también puede verse como una estimación de un parámetro de
población. En este caso, se pueden utilizar pesos de diseño (probabilidades de inclusión
inversas) para calcular la tasa ponderada. Una tasa ponderada se considera una estimación
de la tasa que se obtendría si se incluyera en el estudio a toda la población objetivo (es decir,
un censo). Otra forma de pensar en las tasas ponderadas es la siguiente. La tasa no
ponderada es una función del diseño de muestra particular que puede incluir un muestreo
excesivo o insuficiente de ciertos dominios. La tasa ponderada se ajusta efectivamente a la
distribución subyacente de la población objetivo. Una cosa adicional a tener en cuenta es que
un intervalo de confianza alrededor de las tasas ponderadas puede facilitar un análisis de
qué tan sensibles son los cálculos del tamaño de la muestra a las diferentes tasas supuestas.
Sin embargo, dado el contraste entre las tasas ponderadas y no ponderadas, según
nuestra experiencia, los dos valores suelen estar cerca. Las tasas de muestreo y rendimiento
muy variables entre los subgrupos de unidades pueden exacerbar la diferencia. Esto sugiere
que tanto las tasas ponderadas (de diseño) como las no ponderadas se calculen como un
control de los pesos (ver el Capítulo 18 para una discusión detallada de los controles de peso).
6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 175
Responder. Se deben seleccionar entre 415 y 584 líneas de muestra para el estudio.
La Tabla 6.6 infla las 200 entrevistas objetivo para las tasas discutidas anteriormente.
La forma más fácil de hacer esto es trabajar de "abajo" hacia arriba como se muestra
en la tabla. Comience con el número objetivo de entrevistas (es decir, el número mínimo
Machine Translated by Google
UH ocupadas 403–555
Tasa de HU ocupada 0,95–0,97
6.5.2 Réplicas
Una técnica que también se usa en la práctica es seleccionar al azar una gran
número de casos de muestra bajo un "peor escenario", subdividir aleatoriamente
la muestra completa en submuestras de recolección de datos (a veces llamadas réplicas),
y liberar solo el número de repeticiones necesarias para cumplir con el análisis
objetivos Como un ejemplo sencillo, suponga que un simple aleatorio
Se selecciona una muestra de 500 miembros de una asociación profesional con el objetivo
siendo obtener 100 cuestionarios cumplimentados (completos). los 500 podrían
dividirse al azar en 10 repeticiones de tamaño 50. Inicialmente, los tres primeros
es posible que se liberen réplicas. Si es necesario, se liberan réplicas adicionales
para obtener los 100 completos deseados. Tenga en cuenta que las réplicas no necesitan
contienen el mismo número de casos de muestra. Esto se hace por conveniencia y
Machine Translated by Google
6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 177
facilidad de contabilidad (es decir, para eliminar la necesidad de realizar un seguimiento de los
tamaños diferenciales al decidir liberar más muestras).
Las réplicas generalmente se forman de una manera diferente en una muestra de múltiples etapas.
En una muestra de área, como se describe en el Cap. 10, las réplicas pueden estar compuestas por
áreas geográficas. El procedimiento estándar en una muestra de área es seleccionar unidades
primarias de muestreo (PSU), que son condados o grupos de condados, en la primera etapa, y áreas
geográficas más pequeñas en la segunda etapa. Las unidades de la segunda etapa pueden ser
grupos de manzanas de la ciudad y, a menudo, se denominan segmentos. Una gran muestra de
segmentos puede seleccionarse inicialmente y dividirse en réplicas.
Debido a que las réplicas se construyen aleatoriamente, decidir retener cualquier réplica no niega
la aleatoriedad de la muestra; las ponderaciones de los casos presentados se ajustan adecuadamente
para reflejar solo las réplicas que se publicaron. Las réplicas identificadas para su publicación se
consideran una muestra aleatoria simple de la muestra original a efectos del cálculo del ajuste de
submuestreo. Sin embargo, una vez que se ha liberado una réplica para la recopilación de datos, se
deben trabajar todos los casos en esa réplica y se les debe dar un código de disposición.4 De lo
contrario, la colección completa de casos liberados no será una muestra probabilística. Nuevamente,
el objetivo final es asegurarse de tener una cantidad suficiente de casos para cumplir con los objetivos
analíticos, teniendo en cuenta cualquier ramificación en el presupuesto, el tiempo y, si corresponde,
los efectos de la ponderación desigual (consulte el Capítulo 14 para una discusión más detallada ). )
de efectos de ponderación desiguales).
Crear las réplicas por adelantado dividiendo una muestra grande en subconjuntos suele ser mucho
más fácil que seleccionar una muestra inicial y luego intentar agregarla más tarde, según el diseño de
la muestra. Agregar a una muestra aleatoria simple seleccionando otro srs de las unidades iniciales
que no son de muestra es legítimo. Pero, si la muestra inicial se selecciona con probabilidades
proporcionales al tamaño (pps), como podría ser el caso de una muestra escolar, seleccionar una
muestra suplementaria de tal manera que la muestra general sea pps no es sencillo. (Ver los ejercicios.)
4 Alternativamente, las unidades podrían trabajarse en un orden aleatorio, en cuyo caso, la recopilación de
datos podría detenerse a la mitad de una réplica. Sin embargo, trabajar casos en un orden aleatorio suele ser
poco práctico.
Machine Translated by Google
Ejercicios
Sí Sí Una
Encuesta devuelta: completa 18.658 432.359
Sí No Una
Encuesta devuelta— 754 18,046
incompleto
No No 2 Encuesta devuelta—fallecido 52 1,281
No No 3 Encuesta devuelta— 18 300
encarcelado
Sí Sí 8 Encuesta devuelta: completa 1,302 27,683
Sí No 8 Encuesta devuelta: parcial 102 2,507
completo
Sí No 14 Encuesta devuelta en blanco— 73 2,300
negativa activa
Sí No 17 Encuesta devuelta en blanco—no 42 1,251
razón
Sí No 26 Sin devolución, sin razón 2.500 25,000
Desconocido No 26 Sin devolución, sin razón 143 3,072
Desconocido No 27 falta de entrega postal 1.313 35,576
Desconocido No 29 Original no localizable 23 359
No No 30 Inelig antes del contacto— 18 116
fallecido
No No 31 Inelig antes del contacto— 2 150
encarcelado
6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 179
Código Descripción
1 entrevista completa
2 Entrevista parcialmente completada
3 devolución de llamada programada
4 Número de datáfono/fax
5 hospitalizado
6 barrera del idioma
7 Rechazo
8 No disponible durante la recopilación de datos
9 Rechazo suave: se asignará la devolución de llamada
10 Timbrar/sin respuesta
11 Miembro desplegado del ejército de EE. UU.
12 No encuestado elegible en HH
13 Negativa dura/hostil
14 Devolución de llamada: encuestado elegible no disponible, no hay entrevista
15 Otro
(b) Demuestre que si cada unidad muestral inicial tiene una probabilidad de respuesta de r1 y
cada unidad de muestra suplementaria tiene una tasa de respuesta de r2, entonces la inclusión
probabilidad de cada unidad, es decir, la probabilidad que tiene en cuenta el muestreo y
respuesta, es (r1n1 + r2n2) /N.
(c) ¿Cómo usaría el resultado de la parte (b) para seleccionar una muestra inicial grande
suficiente para producir una muestra de respuesta de algún tamaño deseado, nÿ?
1 110 X
2 58
3 223 X
4 133
Total 524
(a) Calcule las probabilidades de selección de las 4 escuelas en una muestra de tamaño 2.
(b) Suponga que la escuela 3 se niega a cooperar. Una escuela de reemplazo es
seleccionados de las escuelas 2 y 4 con probabilidad proporcional a sus tamaños relativos. Es
decir, seleccione una escuela con pps con el tamaño relativo calculado con respecto al tamaño
de la población restante después de las escuelas 1 y
3 se eliminan. Muestre que las probabilidades de selección de las escuelas 2 y 4
condicionada a que la muestra inicial de las escuelas 1 y 3 no sea igual a la
probabilidades de selección calculadas en (a).
Machine Translated by Google
Calcule ÿÿ = ÿ2,dibuje1
2 + (1 ÿ ÿ2,dibuje1) ÿÿ para la ÿ2,dibuje1
escuela 2 con 2,dibuje2 de
= probabilidad
selección de la escuela 2 en la primera muestra de tamaño 2 ÿÿ = probabilidad de
selección condicional de2,lasorteo
las escuelas escuela
2 12,y dado
3. que en la primera muestra fueron seleccionadas
(c) Haga el mismo cálculo que en (b) asumiendo que las escuelas 1 y 4 fueron seleccionadas
inicialmente y que una escuela de reemplazo es seleccionada de las escuelas 2 y 3.
Repita el cálculo de ÿÿ 2 = ÿ2,dibujar1 + (1 ÿ ÿ2,dibujar1) ÿÿ 2, dibujar2
para la escuela 2 dado que inicialmente se seleccionaron las escuelas 1 y 4. ¿Es
su respuesta igual o diferente a la de la parte (b)? (d) Explique por qué el valor
de ÿÿ varía según las escuelas seleccionadas
2 implicación
en lade
muestra
esto para
inicial.
la selección
¿Cuál esde
la
sustitutos en el muestreo pps?
(a) Enumere los tipos de pérdidas de muestra que puede experimentar y que deben
tenerse en cuenta al determinar un tamaño de muestra inicial. (b) Discuta cómo
intentaría asignar porcentajes a estas pérdidas.
(a) Identifique las tasas de estudio relevantes (p. ej., tasas de respuesta y elegibilidad)
y los valores que deben considerarse para llegar a las 500 entrevistas completas
deseadas. (b) Estime la cantidad de números de teléfono que se seleccionarán
para el estudio y la cantidad correspondiente de entrevistadores necesarios para
completar el estudio a tiempo. (c) Determine el impacto de sus estimaciones de
la tarea dos en el presupuesto del estudio. (d) Resuma brevemente y justifique
sus resultados.
Descripción del estudio del cliente. El Estudio de Interacción Social del Distrito de Columbia
de 2008 (DC-SIS) está patrocinado por el Consejo del Apretón de Manos Amigable de DC
(DCFH) para comprender mejor la dinámica social de los hombres en el Distrito y cómo estas
dinámicas cambian en presencia del alcohol. Todos los hombres no institucionalizados de 20
a 34 años que hayan vivido en cualquiera de los ocho distritos del DC5 durante al menos seis
meses son elegibles para el DC-SIS. Las estimaciones del conteo de población de la Encuesta
sobre la Comunidad Estadounidense de 2005 se brindan al final del problema en la Tabla 6.7.
El estudio es un diseño de muestreo de dos fases con:
• Fase 1: una entrevista de selección de CATI de 5 minutos para identificar a las personas
elegibles y hacer una cita para una entrevista cara a cara (sin incentivo para los participantes)
El proyecto debe completarse dentro de una ventana de seis meses: un mes para el diseño
de la muestra, la selección de la muestra y la prueba previa; cuatro meses de recolección de
datos; y un mes para el procesamiento posterior a la encuesta y los informes finales.
5
http://planning.dc.gov/planning/frames.asp?doc=/planning/lib/planning/maps/docs/census tract.pdf .
Machine Translated by Google
6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 183
Capítulo 7
El Proyecto de Diseño de la Encuesta de Personal:
Una solución
En el Cap. 2 para un diseño muestral estratificado de etapa única. En las siguientes secciones,
presentamos una solución a la pregunta de diseño multipropósito tomando prestado del material
presentado en los Caps. 3–6.
Se generó una serie de soluciones para la asignación de la muestra para probar la sensibilidad
de los supuestos. Además, un software diferente puede producir resultados diferentes pero
comparables. Finalmente, se debe elegir una solución única de este conjunto para la
implementación, como se analiza a continuación.
1. (Q5) En general, estoy satisfecho con VNUV como empleador en este momento
tiempo.
El equipo de diseño se reunió durante un período de tres semanas para desarrollar la muestra.
diseño. Durante este período, ellos: (1)
donde ÿj son los pesos de importancia para la variable j (j = 1, ..., 4), relvar Tˆj es
la relvarianza correspondiente tal que
ÿ2
relavar Tˆj ÿ 1 S2 jh
Nueva Hampshire
= Tj Nueva Hampshire
h
Nueva Hampshire
Machine Translated by Google
y S2 esequipo
la varianza unitaria
de diseño calculada
tuvo dentro del estrato
varias discusiones de pesos
sobre los diseñode
h (h = jh 1, ..., 18).
importancia El
utilizados
en la función objetivo. Después de consultar con el Consejo Superior, se llegó a la decisión
de que todas las variables de análisis tenían la misma importancia. En consecuencia, ÿj ÿ 1
para las cuatro variables, de modo que la expresión (7.1) se reescribe como
4
ÿ= relavar Tˆj . (7.2)
j=1
Se podrían haber probado varias funciones objetivo. Sin embargo, debido a los
compromisos de tiempo para el tiempo de diseño (una restricción común para los
investigadores), la función objetivo discutida en el Cap. 5 fue prestado para este proyecto.
Las variables de decisión corresponden a las soluciones producidas a partir del problema
de optimización, es decir, el tamaño de la muestra y la asignación asociada a los estratos.
Para la Encuesta de clima VNUV, se requiere la solución de asignación para los 18 estratos
de diseño (unidad de negocio (3 niveles) por grado de salario (3 niveles) por antigüedad en
el empleo (2 niveles)) que se muestran en la Tabla 2.2. Tenga en cuenta que la solución
se deriva para cumplir con ciertos objetivos analíticos especificados para la encuesta. Una
vez que se ha obtenido la solución, los valores deben inflarse para abordar la pérdida de
muestras asociada con la inelegibilidad del estudio y la falta de respuesta (Cap. 6).
Sˆ2 = ˆ¯ . (7.3)
1 ÿ f0 deff y
Machine Translated by Google
H
nh ÿ 600
h=1
2 ÿ nh
(nh/rh) ÿ nh
Habiendo especificado las restricciones conocidas para la tarea de optimización, el equipo de diseño
luego realizó un análisis de poder para establecer un tamaño de muestra mínimo para los dominios de
la unidad de negocios para cumplir con las diferencias detectables deseadas:
• Una diferencia de 5 puntos porcentuales (o mayor) para la estimación del clima de los empleados
compañeros
Sin embargo, el equipo de diseño finalmente determinó a partir del análisis de poder que los niveles de
diferencia deseados no eran alcanzables dado el presupuesto del estudio, es decir, los fondos utilizados
para editar y analizar datos de 600 encuestados.
El análisis de potencia multivariable se centró en cuatro estimaciones. Comenzando con la proporción
de personal que (muy) está de acuerdo con las tres preguntas sobre el clima reafirmadas en la Secc.
7.1, Cuadro 2.6 del Cap. 2 mostró que la pregunta de compensación justa (Q15) tenía consistentemente
la tasa más baja de acuerdo en todas las unidades de negocio. El equipo de diseño notó que la
estimación Q15 tuvo la influencia más fuerte en los cálculos de potencia porque tiene la desviación
estándar más grande. Por lo tanto, Q5 y Q12 se apartaron y no se usaron en el análisis del tamaño
mínimo de la muestra. La influencia de Q15 en comparación con el número promedio de clases de
entrenamiento fue menos clara, por lo que se realizaron dos cálculos de potencia separados y luego se
combinaron.
La función R power.prop.test produjo los resultados que se muestran en la Tabla 7.1. Por ejemplo,
el código R utilizado para calcular el tamaño de la muestra para la unidad de negocio Survey Research
(SR) con una diferencia detectable de 0,05 (o delta = 5 puntos porcentuales) es
Se utilizó un código similar para calcular el tamaño mínimo de la muestra analítica para las unidades de
negocio CR y FO. Tenga en cuenta que cada valor en la Tabla 7.1 del análisis de poder con delta=5
puntos porcentuales viola la restricción de 600 encuestados. El equipo volvió a ejecutar el análisis
utilizando varias diferencias detectables; Los resultados de potencia para 10, 13 y 15 % se incluyen en
la tabla para comparación.
Los valores de 0,13 parecían más prometedores porque el tamaño total de la muestra estaba muy por
debajo del valor máximo y, con suerte, permitiría al algoritmo de optimización cierta flexibilidad en la
asignación de la muestra a través de los estratos. Luego, el equipo recurrió a un cálculo similar para el
número promedio de clases de capacitación.
El equipo accedió a R nuevamente para calcular el tamaño de muestra mínimo por unidad de
negocio para el número promedio de clases de capacitación con power.t.test
Machine Translated by Google
Tabla 7.1: Tamaño mínimo de muestra por unidad de negocio y diferencia detectable producida
por la función R power.prop.test para la pregunta de salario justo (Q15). Cálculos
se realizaron para una potencia del 80 % y un nivel de significancia de 0,05 para una prueba bilateral.
Tabla 7.2: Tamaño mínimo de muestra por unidad de negocio y diferencia detectable producida
por la función R power.t.test para la pregunta sobre el número de clases de entrenamiento.
Los cálculos se realizaron para una potencia del 80 % y un nivel de significancia de 0,05 para un modelo de dos caras.
prueba.
Tabla 7.3: Tamaño mínimo de muestra por unidad de negocio para la optimización del diseño del
Encuesta climática Verkeer NetUltraValid (VNUV), Ciclo 5. Efecto de diseño de 1.05 utilizado
para tener en cuenta la variación introducida a través de la ponderación.
función. La tabla 7.2 contiene los resultados del segundo análisis de potencia para
un rango de número de clases incluidas como la diferencia detectable deseada.
Las desviaciones estándar (std) se calcularon con la expresión (7.3) con
ˆ¯
desafiar = 1. Se clasificaron las diferencias detectables entre 2 y 3 clases
por el Consejo Superior como significativo. Diferencias menores que estos números
fueron examinados para evaluar los requisitos de tamaño de muestra para niveles más altos de
precisión.
Habiendo examinado los resultados, el equipo decidió tomar “lo mejor de ambos
mundos.” El tamaño de muestra máximo requerido por unidad de negocio para una diferencia de 13
puntos porcentuales en las estimaciones climáticas y una diferencia de 2,5 en el
número promedio de clases de capacitación combina la información, lo que resulta en la
valores dados en el “Mínimo no. de los encuestados” de la tabla 7.3.
Debido a que el análisis posterior a la recopilación de datos del Ciclo 5 incluirá el uso de
pesos, a diferencia del Ciclo 4, se consultó a un estadístico senior sobre un
Machine Translated by Google
efecto de diseño Se utilizó un defff conservador de 1,05 para inflar el tamaño de la muestra
analítica y tener en cuenta factores como las ponderaciones diferenciales introducidas a partir
de un ajuste por falta de respuesta. Estos valores inflados ubicados en la última columna de la
tabla se utilizaron en las rutinas de optimización que se analizan a continuación.
La asignación de la muestra se optimizó utilizando Excel Solver y SAS proc optmodel para la
comparación. Los archivos de salida de las optimizaciones se encuentran en el sitio web del
libro, como se explica a continuación.
solucionador
2. Como se muestra en la Fig. 7.1, la función objetivo, Ec. (7.2), está tabulado en la celda S36
dentro de la hoja de cálculo Solver (o 'Solver'!$S$36 usando la notación de Excel). El
objetivo de la optimización es minimizar la suma de las cuatro revarianzas, una para cada
estimación. Las celdas de cambio, o el encuestado
Machine Translated by Google
Los programas, registros y archivos lst (salida) de SAS se identifican con la etiqueta Project
1 OptModel n=*, donde el asterisco (*) indica el tamaño máximo de muestra de encuestados
establecido para la rutina de optimización. El programador de SAS incluyó las restricciones
de tamaño de muestra en general y por unidad de negocio junto con las restricciones de
CV como variables macro al comienzo del programa. En cada sección del programa se
introducen las tablas especificadas en el Cap. 2 o calcula componentes para la optimización.
El procedimiento SQP (predeterminado) se utilizó en la optimización como se muestra en
los archivos de registro.
El equipo de diseño produjo inicialmente una optimización para 600 encuestados para
reflejar el trabajo realizado con Solver (ver los archivos Proyecto 1 OptModel n=600.*). Se
crearon dos programas SAS adicionales correspondientes a n=575 yn=550 encuestados.
Como se muestra en el archivo Proyecto 1 OptModel n=500.log, no se encontró una
solución factible con un máximo de 550 encuestados.
Una
Se generan números aleatorios de la distribución uniforme para cada valor que requiere redondeo.
Si el número aleatorio es menor o igual a 0,5, la parte entera del valor se utiliza como valor
redondeado. De lo contrario, la parte entera más uno se utiliza como valor redondeado.
Machine Translated by Google
ligeramente inferior, lo que indica una solución algo mejor. Por lo tanto, el equipo de
diseño eligió la solución Solver como asignación de muestra incluida en el informe.
Tabla 7.4: Comparación de los resultados de optimización de Excel Solver y SAS proc
optmodel para la Encuesta Climática VNUV, Ciclo 5
Strata Business Salario Tenencia (Años) grado unitario solucionador Modelo de opción (SQP)
ese grupo es la división SR. Los siguientes tres puntos son la comida para llevar
mensajes:
(1) Si las tasas de respuesta del Ciclo 5 son menos de 5 puntos porcentuales inferiores a
los valores del Ciclo 4 utilizados en la optimización, entonces habrá un valor insignificante
diferencia en los resultados.
(2) Si la diferencia entre las tasas de respuesta real y estimada del Ciclo 5 es
aproximadamente 5 puntos porcentuales, entonces la precisión de las estimaciones
dentro de las unidades de negocio probablemente caerá por debajo del CV deseado = 0,10.
(3) Si las tasas de respuesta reales son más de 5 puntos porcentuales inferiores a
los valores estimados, entonces la precisión de las estimaciones de la unidad de negocio
se acercará a un CV del 70%. Esto es especialmente cierto en el caso de la división SR.
estimaciones porque la restricción vinculante en el tamaño de la muestra como se muestra en
hoja de trabajo = "Informe de respuesta 2".
Machine Translated by Google
7.5 Conclusión
Parte II
Diseños de etapas múltiples
Machine Translated by Google
Capítulo 8
Proyecto 2: Diseño de una muestra de área
18–24 200
25–44 200
45–54 200
55–64 200
65+ 200
Total 1,000
Tratados de muestra 25
Ejemplos de grupos de bloques Una
por tramo
El diseño de la muestra utilizará distritos como PSU, grupos de bloques como SSU y personas
como elementos. Los objetivos del diseño muestral son seleccionar una muestra de
los tamaños anteriores mientras (1) logra una muestra autoponderada en cada una de las edades
grupos anteriores y (2) obtener una carga de trabajo igual en cada PSU de muestra. Tú
debe prestar especial atención a las áreas geográficas que tienen recuentos de población
pequeños y decidir cómo deben manejarse en el marco. Las herramientas
necesita para completar este proyecto se tratan en los capítulos. 9 y 10.
Utilice el método de Sampford para seleccionar las PSU y las SSU. Esta es una de varias
opciones para seleccionar muestras de probabilidad proporcional al tamaño. Sampford
funciona para muestras de cualquier tamaño y permite probabilidades de selección conjunta para
ser calculado, un requisito para algunos de los estimadores de varianza descritos en el Cap. 15. Este
método de selección está disponible en R pps y paquetes de muestreo y en SAS proc surveyselect.
Para reproducir la solución dada más adelante en el Cap. 11, incluya la declaración
establecer.seed(-741881304)
semilla = 1953.
A continuación se muestra una lista de áreas temáticas que deben incluirse en su informe. El orden
de las secciones en su informe no tiene que ser el mismo que se indica a continuación. Debe
construir su informe de una manera que presente los temas en un orden que le parezca lógico a su
equipo.
El informe debe escribirse a un cliente cuyo personal incluye gerentes y personal técnico. Los
gerentes estarán más interesados en comprender el esquema general de los pasos utilizados en la
ponderación. El personal técnico estará interesado en comprender los detalles de la selección de
muestras y el cálculo del peso, incluidas las fórmulas adecuadas. Debe considerar cómo estructurar
su informe para servir a estas audiencias. • Áreas temáticas para el informe de muestreo • Página de
título (título del proyecto, fecha de presentación y nombre del contacto del proyecto
persona)
• Introducción (resumen del documento) • Diseño de la
muestra
• Selección de muestras
Método de selección
Unidades seleccionadas y características de cada una
Probabilidades de selección de unidades en cada etapa de selección
Descripción de cómo se deben seleccionar las personas de los listados de área
Machine Translated by Google
• Mapas
• Apéndice
• AnneArundel.MD.xls—Census 2000 tract tract and block group data for Anne Arundel County •
Census.glossry2.pdf—Define términos geográficos usados por la Oficina del Censo • Mapas de
secciones y bloques del censo para Maryland de la Oficina del Censo;
Capítulo 9
Diseño de muestras de varias etapas
Los capítulos anteriores han cubierto el diseño de muestras seleccionadas en una sola etapa.
Sin embargo, el muestreo a menudo se realiza utilizando más de una etapa. Hay varias razones
por las que se puede utilizar el muestreo por conglomerados o multietápico. El uso de muestras
de etapas múltiples a menudo puede ser una solución práctica y rentable en situaciones en las
que no se dispone de una lista de unidades elementales (o analíticas) para el muestreo directo.
En esos casos, se puede compilar una lista de unidades elementales solo dentro de los
conglomerados de muestra en lugar de para todo el marco. Esto es especialmente útil en
muestras de hogares si no se dispone de una lista de todos los hogares de un país, estado,
condado, etc. En otros casos, es posible que se deba obtener permiso a nivel de conglomerado
para realizar una encuesta. Por ejemplo, si el objetivo es administrar una prueba estandarizada
a una muestra de estudiantes, es posible que los administradores del distrito escolar o de la
escuela deban otorgar permiso para realizar la encuesta.
El modo de recopilación de datos también afectará la decisión de utilizar el muestreo por
conglomerados. Si los datos se van a recopilar mediante una entrevista personal, agrupar los
casos de muestra puede ser una forma de ahorrar costos de viaje. Esto es cierto
independientemente de si se dispone de una lista completa de los miembros de la población. Si
la entrevista se realizará por teléfono, entonces la agrupación de casos de muestra puede ser
innecesaria y estadísticamente ineficiente.
Algunos comentarios sobre la terminología están en orden. El muestreo por conglomerados
significa que se selecciona un grupo de unidades en la primera etapa del muestreo. Los
conglomerados pueden ser áreas geográficas, establecimientos, escuelas o algún otro tipo de
unidad agregada. También utilizaremos los términos unidad primaria de muestreo (PSU) o
unidad de primera etapa como sinónimo de conglomerado. Dentro de un conglomerado de
muestra, se muestrean unidades elementales. Algunos textos reservan el término “muestra de
conglomerado” para una muestra de etapa única en la que todas las unidades elementales
dentro de un conglomerado están incluidas en la muestra. En este libro, una muestra por
conglomerados incluirá tanto los casos de enumeración completa de un conglomerado como
de submuestreo en un conglomerado. Si se utiliza el submuestreo dentro de un conglomerado,
también lo llamaremos muestreo multietápico. Puede haber dos o más etapas de selección,
dependiendo de la aplicación. El término conglomerado final denota el agregado de las unidades
elementales a lo largo de las etapas de selección dentro de una UPM de muestra.
Al diseñar muestras de UPM y submuestras dentro de las UPM, se deben considerar dos situaciones.
El primero es diseñar una muestra de fuente de alimentación desde cero. En ese caso, los problemas
son cómo formar las PSU; cómo deben estratificarse, el número de UPM de la muestra; cómo se asigna
la muestra a los estratos, el método de muestreo de las UPM; y finalmente, cómo se realizará el muestreo
dentro de las UPM seleccionadas.
El segundo caso es el uso de una muestra de fuente de alimentación existente. El enfoque entonces
es cómo diseñar eficientemente una muestra de unidades secundarias de muestreo (USM) y, para un
diseño de tres etapas, elementos dentro de las USM. Se deben tomar decisiones sobre el tamaño de la
muestra y el método de muestreo de las UME y el número de elementos a muestrear dentro de cada
UPM y UPM. La asignación de la muestra debe determinarse en función de la muestra de UPM. La teoría
de gran parte del material aquí se puede encontrar en Hansen et al. (1953a, vol. I, caps. 6–9), Hansen et
al. (1953b, vol. II, cap. 6), y en S¨arndal et al. (1992, cap. 4). De ahora en adelante nos referiremos a los
libros de Hansen, Hurwitz y Madow como HHM. A pesar de tener casi 60 años en este momento, HHM
todavía tiene una gran cantidad de información valiosa sobre muchos de los problemas prácticos que se
encuentran en el diseño de la muestra.
La sección 9.1 describe algunas de las unidades que se pueden utilizar como fuentes de alimentación.
La sección 9.2 presenta algunas de las fórmulas básicas de varianza para el muestreo en dos y tres
etapas. Estos se utilizan en la tercera sección para determinar las asignaciones óptimas en las que el
costo es una consideración. La cuarta sección del capítulo analiza la estimación de los componentes de
la varianza que se requieren para la asignación de la muestra. Las secciones 9.5 y 9.6, respectivamente,
cubren brevemente la estratificación de las UPM y los criterios para identificar las UPM que se seleccionan
con certeza, es decir, con probabilidad uno.
Los tipos de unidades que constituyen una UPM dependen de la encuesta. En una muestra de
probabilidad de área, las unidades suelen ser áreas geográficas como condados, áreas de subcondados
u otras unidades administrativas locales. Un diseñador de encuestas puede tener cierta libertad en cómo
se combinan las áreas para formar las UPM. Discutimos estas opciones en profundidad en el Cap. 10.
En otros casos, las PSU son unidades naturales que se imponen al diseñador. Cambiarlos sería inviable
o ineficiente. Al encuestar escuelas, la jerarquía de distritos escolares, escuelas, aulas y estudiantes es
común en los EE. UU. Tratar de usar otro tipo de agregación como grupo requeriría definir unidades que
no son naturales para los administradores escolares y probablemente estarían en conflicto con la forma
en que se mantienen los registros escolares. Otros tipos de jerarquías naturales son:
• Establecimientos comerciales: los empleados o las cuentas pueden ser los elementos para
ser muestreado.
• Hospitales: los departamentos como la sala de emergencias, cuidados intensivos y cuidados a largo
plazo pueden ser una SSU. Los registros de pacientes pueden considerarse como anidados
Machine Translated by Google
dentro del departamento donde el paciente fue tratado por última vez o podría tomarse una
muestra directamente dentro de un hospital. • Personal militar: en el modelo estadounidense,
algunos de los niveles de jerarquía en orden descendente de tamaño son cuerpo, división,
brigada, regimiento, compañía, pelotón y escuadrón. Cualquiera de estos podría usarse
como SSU. Por otro lado, estos pueden no ser convenientes para el muestreo ya que todo
el personal en un nivel dado (una brigada, por ejemplo) puede no estar estacionado en el
mismo lugar. En ese caso, las bases militares, que son ubicaciones geográficas específicas,
pueden ser más útiles como PSU.
Para distribuir una muestra entre diferentes etapas de muestreo, se deben considerar las
contribuciones de las diferentes etapas a la varianza de un estimador. Estos componentes de
la varianza generalmente dependen de la variable de análisis y también de la forma del
estimador. En Sectas. 9.2.1–9.2.3, cubrimos algunos resultados básicos para estimadores
lineales y no lineales en muestreo en dos etapas. La Sección 9.2.4 presenta resultados
similares para muestras de tres etapas.
Considere un diseño de muestra de dos etapas en el que las unidades de la primera etapa se
seleccionan utilizando un muestreo ÿps, es decir, con probabilidades variables y sin reemplazo.
Los elementos se seleccionan en la segunda etapa a través de srswor. Se necesita bastante
notación, incluso en este caso bastante simple:
U = universo de PSU
M = número de PSU en el universo
Ui = universo de elementos en PSU i
Ni = número de elementos en la población para PSU i
N= iÿU Ni es el número total de elementos en la población
ÿi = probabilidad de selección de la UPM i
ÿij = probabilidad de selección conjunta de las UPM i y jm =
número de UPM de muestra ni = número de elementos de
muestra en la UPM is = conjunto de UPM de muestra si =
conjunto de elementos de muestra en la UPM i yik = análisis
variable para el elemento k en la UPM iy¯U = media por
elemento en la población y¯Ui = media por elemento en la
población en la UPM i
Machine Translated by Google
donde t ˆi = (Ni/ni) kÿsi yk, que es la estimación del total para PSU i con una muestra
aleatoria simple. La varianza de diseño del total estimado se puede escribir como la
suma de dos componentes:
ti tj N2 no
V t ˆÿ = (ÿij ÿ ÿiÿj ) + Es
1- S2U2i (9.1)
ÿi ÿj ÿini Ni
iÿU jÿU iÿU
dónde
Ejemplo 9.1 (Caso especial: srswor en primera y segunda etapa). Suponga que la
primera etapa es una muestra de m de M PSU y la segunda etapa es una muestra de ni
elementos seleccionados por muestra de la población de Ni. El estimador ÿ es
Ni
METRO t ˆÿ = yik
metro
no
yoÿs kÿsi
Su varianza es igual a
M2 METRO - metro M N2 Ni ÿ ni
V t ˆÿ = S2U1 +
Es
S2U2i
metro metro
METRO
no Ni
iÿU
= iÿU (tiÿt ¯U )2
donde S2 siendo ti la población total de Y en la UPM ti M es el
U1 Mÿ1
yo y t ¯U = iÿU
total medio por UPM. La revarianza de t ˆÿ,
2
V t ˆÿ t tu , es
2 =
Una METRO - metro Una METRO
N2 Ni ÿ ni
V t ˆÿ t tu B2 +
Es
S2U2i (9.2)
metro
t2 tu m
METRO
iÿU no Ni
Machine Translated by Google
2
donde B2 = S2 U1/t tu = M2S2 U1/t2 U es la unidad de revarianza entre los totales de PSU.
Si se seleccionan ¯n elementos en cada UPM y las fracciones de muestreo de las UPM y los
elementos dentro de las UPM son todos pequeños, entonces la revarianza se puede escribir
como
V (t ÿ) B2 W2
= + (9.3)
t2tu metro Minnesota
con W2 = M N2 S2 U2i/t2
iÿU
U . La expresión (9.3) es la forma utilizada en la función R,
Es
BW2stageSRS, que se presenta más adelante en esta sección. Los libros de texto a menudo
enumeran una forma especializada de Eq. (9.2) que requiere que todas las UPM tengan el
mismo tamaño,
, muestreo
N¯ y que
de lasesegunda
seleccionen
etapa¯neselementos
¯n/N¯. Esto
enimplica
cada una.
que En
la muestra
ese caso,
esla fracción de
autoponderada: ÿiÿk|i = mn/M¯ N¯ . La revarianza en la ecuación. (9.2) se simplifica a
donde W2 = Una
iÿU S2U2i.
Mi¯2tu
Suponiendo que se seleccionan ¯n elementos en cada PSU de muestra, y que m/M e i son
pequeños,
también la escribir
se puede forma más general de
en términos de la relvarianza,
una medida deVhomogeneidad
t ˆÿ t2 n/N ¯ en ÿlacomo
ecuación.
sigue:(9.2), tu
V t ˆÿ .
= Vÿ k [1 + ÿ (¯n ÿ 1)] (9.5)
t2tu Minnesota
B2
d= . (9.6)
B2 + W2
Con algo de álgebra (vea el ejercicio 9.10), se puede demostrar que cuando Ni = N¯ y tanto M
como N¯ son grandes,
2
S2tu iÿU kÿUi ( Yik ÿ y¯U ) .
= = B2 + W2 (9.7)
y¯2
tu 1 y¯2
tu (N ÿ 1)
es decir, la varianza real de la población se puede escribir como la suma de las varianzas
reales entre y dentro de ellas. Si k = 1, la ecuación. (9.5) es igual a la expresión que se
encuentra en muchos libros de texto. Sin embargo, cuando el conteo de la población de
elementos por conglomerado varía, k puede estar lejos de 1, como se ilustrará en el ejemplo
9.2. En esos casos, la Ec. (9.5) con una estimación de la k real debe usarse para determinar
los tamaños de muestra y calcular las estimaciones anticipadas de los coeficientes de variación.
Con el muestreo srs de conglomerados de una sola etapa, ÿ es una correlación intraclase
[ver (Cochran, 1977, Cap. 8)] pero no con el muestreo de dos etapas. Sin embargo-
Machine Translated by Google
menos, los practicantes habitualmente se refieren a ÿ como una correlación intraclase. A veces
se inserta un fpc ad hoc, 1 ÿ, mn¯ MN¯ en lalaecuación.
de reescribir Ec. (9.2). (9.5) aunque
Consulte esto no 9.11
el ejercicio se sigue
paradirectamente
conocer
los detalles necesarios para obtener la ecuación. (9.5). Hansen et al. (1953a, Secc . 6.6) y
Hansen et al. (1953b, Secc . 6.5) usan una forma más elaborada de ÿ, pero la Ec. (9.6) es más
que adecuado en la práctica.
La expresión (9.5) es útil para calcular el tamaño de la muestra, ya que el número de UPM
de muestra y las unidades de muestra por UPM están explícitamente en la fórmula. Aplicaremos
la fórmula en algunos ejemplos de la Secc. 9.4. La ecuación (9.5) también conecta la varianza
del total estimado con la varianza que se obtendría de una˜ muestra aleatoria simple, ya que V /
mn¯ es la revarianza del total estimado en una muestra de tamaño
muestreo
mn¯ cuando
es pequeña.
la fracción de
El producto k[1 + ÿ(¯n ÿ 1)] es un tipo de efecto de diseño. Cuando k = 1, el término 1 + ÿ (¯n ÿ
1) es el efecto de diseño aproximado que se encuentra en muchos libros de texto.
La expresión (9.5) con k = 1 parece tratarse a menudo como si se aplicara independientemente
de cómo se seleccionen las muestras de las UPM y los elementos dentro de las UPM y sin
tener en cuenta el tipo de estimador que se utilice. Si, por ejemplo, se selecciona una muestra
pps de UPM y se utiliza un estimador posestratificado de un total, la ecuación. (9.5) no refleja
ninguna de esas características. Un profesional debe darse cuenta de que se trata de una
fórmula especializada que no se aplica bien cuando se utilizan métodos de muestreo distintos
del srs en diferentes etapas. La Sección 9.2.3 cubre un diseño de dos etapas más general en el
que las UPM se seleccionan con probabilidades variables y proporciona fórmulas de revarianza
que se aplican a ese caso.
La Tabla 9.1 enumera algunos valores de 1+ÿ (¯n ÿ 1) para un rango de ÿ y dentro de los
tamaños de muestra de conglomerados. Incluso cuando la medida de homogeneidad es
pequeña, el efecto sobre la varianza de un total estimado puede ser sustancial si se muestrean
muchos elementos por conglomerado. Por ejemplo, si ÿ = 0,05, la varianza puede ser un 20 %
mayor que la varianza de srs cuando ¯n = 5, pero será casi seis veces mayor cuando n¯ = 100.
La intuición para esto es simplemente que aumentar la muestra dentro de cada El clúster agrega
información correlacionada (es decir, más de lo mismo) que es menos eficaz que agregar
información no correlacionada (nueva) de diferentes clústeres.
Tabla 9.1: Efectos de diseño aproximados para diferentes tamaños de medida de homogeneidad ÿ
y número de elementos de muestra por conglomerado.
¯
1 + ÿ (¯n ÿ 1)
norte d = 0,01 d = 0,05 d = 0,20
5 1.04 1.20 1.80
10 1.09 1.45 2.80
25 1,24 2,20 5.80
50 1,49 3,45 10.80
100 1.99 5.95 20.80
Alta correlación intraclase. Suponga que la mayoría o todas las personas en cualquier
bloque dado (PSU) tienen un título universitario o no. En ese caso, el
El componente de varianza dentro de la PSU está cerca de 0. La varianza entre las PSU
componente es aproximadamente igual a la varianza total, lo que implica
que d. = B2 B2 + W2 está cerca de 1. Una muestra grande de bloques
necesario para obtener una estimación precisa de la proporción de personas con
título universitario. Muestrear a más de 1 persona por bloque sería ineficiente
porque las personas en un bloque tienden a tener todos el mismo nivel de educación.
Correlación intraclase cero. Suponga que los bloques son del mismo tamaño y el
la proporción con títulos universitarios es la misma, ¯p, en cada bloque de la población. El total de
personas con títulos en cada PSU es ti = N¯ p¯, lo que
es una constante. La varianza entre es 0, lo que implica que ÿ = 0. Solo 1
el bloque necesita ser muestreado para estimar la proporción con un título universitario
porque todos los bloques son iguales. (Observe que si el Ni varía, ÿ sería
no ser cero, incluso si ¯p fuera el mismo en todos los bloques.)
El siguiente ejemplo utiliza el conjunto de datos MDarea.pop que contiene tres variables continuas y
dos binarias. Este conjunto de datos se basa en el censo de EE. UU.
cuenta desde el año 2000 para el condado de Anne Arundel en el estado de Mary land. Las divisiones
geográficas utilizadas en este conjunto de datos se denominan distritos y
grupos de bloques; estos serán explicados con más detalle en el Cap. 10. Los tratados son
construido para tener un tamaño de población deseado de 4.000 personas. Grupos de bloques
(BG) son más pequeños con un tamaño objetivo de 1.500 personas. Conteo de personas en
el conjunto de datos es el mismo para la mayoría de los distritos y grupos de bloques como en el 2000
Censo; cinco BG se ampliaron para tener al menos 50 personas cada uno. Obtener-
Machine Translated by Google
BW2stageSRS(MDarea.pop$y1, psuID=MDarea.pop$PSU,
pop=MDarea.pop)
BW2stageSRS(MDarea.pop$y1, psuID=MDarea.pop$SSU,
pop=MDarea.pop)
Machine Translated by Google
B2 W2 S2
tu y¯2
tu B2 + W2 k d
PSU como clústeres
0.0079
y1 0.0069 y2 0.0090 y3 1,4553 1,4627 1,4631 1,0003 0,0054
0.0012 hosp.stay ins.cov
0.0175 1,0097 1,0163 1,0166 1,0003 0,0068
0,1048 0,1136 0,1137 1,0012 0,0787
0,2599 0,2611 0,2611 1,0003 0,0046
12,8831 12,8979 12,9006 1,0002 0,0014
Los valores de ÿ oscilan entre 0,0014 y 0,0787 cuando las PSU son clústeres. Los deltas son
algo más grande cuando las SSU son grupos, lo que refleja el fenómeno común
que las áreas geográficas más pequeñas son algo más homogéneas que las grandes
en las poblaciones de hogares. Las columnas cuarta a sexta muestran
.
que la aproximación que S2 tu = B2 + W2 en la ecuación. (9.7) funciona bien en
tu y¯2
este caso.
A continuación, para ilustrar el efecto dramático que los diferentes tamaños de conglomerados pueden
tenemos, calculamos las mismas estadísticas que arriba usando extensiones y grupos de bloques
dentro de extensiones como grupos. Se calcula una variable llamada trtBG ya que los valores
de la variable, BLKGROUP, están anidados dentro de cada tracto:
B2 W2 S2
tu y¯2
tu B2 + W2 k d
Tratados como grupos
y1 0.2605 1,8390 1,4627 2,0995 1,4353 0,1241
y2 0.2687 1,2662 1,0163 1,5349 1,5103 0,1750
y3 0.2707 0,1253 0,1136 0,3960 3,4856 0,6836
ins.cov 0,2624 0,3260 0,2611 0,5884 2,2538 0,4460
hosp.estancia 0,3078 16,3171 12,8979 16,6249 1,2890 0,0185
0.3489
y1 0.3485 y2 0.3492 y3 1,9499 1,4627 2,2987 1,5715 0,1518
0.3408 hosp.stay ins.cov
0.4246 1,3338 1,0163 1,6823 1,6553 0,2072
0,1220 0,1136 0,4712 4,1478 0,7411
0,3426 0,2611 0,6834 2,6180 0,4987
17,2695 12,8979 17,6941 1,3719 0,0240
Machine Translated by Google
Los valores de ÿ van desde 0,0185 hasta 0,6836 cuando los tractos son agrupaciones.
Cuando los grupos de bloques son conglomerados, los valores de ÿ oscilan entre 0,0240 y
0,7411. Las medidas de homogeneidad aumentan sustancialmente cuando los tractos o
grupos de bloques son agrupaciones. Por ejemplo, cuando las UPM eran agrupaciones, ÿ =
0,0054 para y1 pero es 0,1241 cuando las secciones son agrupaciones. Esto se debe
enteramente al aumento de B2 cuando se utilizan unidades con tamaños muy variables. Por
ejemplo, B2 = 0,0079 para y1 cuando PSU es un clúster pero es 0,2605 cuando tract es un
.
clúster. Las columnas cuarta a sexta anteriores muestran que la tu
aproximación
W2
tu no S2 y¯2 = B2 +
no funciona bien cuando los distritos o los grupos de bloques son clústeres. Para y3 e
ins.cov, B2 + W2 es mucho mayor que S2 , lo que implica
tu /y2tu, que
ecuación.
establecer
(9.5)k puede
= 1 en no
la ser
muy precisa para algunas variables si los conglomerados varían en tamaño.
Los componentes de varianza entre y dentro se pueden escribir para diseños y estimadores
más complicados. Con algunas suposiciones simplificadas, las fórmulas para un diseño de
dos etapas son análogas a las de la sección anterior.
ˆÿ - ÿ . = dkzk + constantes
iÿskÿsi
ÿf(t
donde ÿ es la proporción de población a estimar, zk = 2j=1 ˆ) ÿt ˆjÿ yjk (k ÿ si),
ˆ ˆ ˆ
t = t ˆ1ÿ,t ˆ2ÿ y ÿft con
, respecto al total estimado.
ÿt ˆj es la
El derivada parcial
término zk se de sustituto
denomina t lineal. los
el
las j
"constantes" anteriores no entran en el cálculo de la varianza. la varianza de
ˆÿ se puede aproximar calculando la varianza de En el caso iÿskÿsi dkzk.
del muestreo aleatorio simple en ambas etapas, como en la Secc. 9.2.1, dk = y zk =
ni
METRO
y1k ÿ ÿy2k.
ni La relación se puede aproximar como
metro
METRO
ˆÿ.= t zi
metro
yoÿs
Vˆÿ
.
= Vÿ k[1 + ÿ(¯n ÿ 1)]
ÿ2 Minnesota
= V˜ . kÿUi zk Ni ; z¯Ui
= B2 + W2.
Otros estimadores no lineales pueden manejarse con este mismo método. Para el examen = t ˆÿ
ˆ¯
Por ejemplo, una media estimada como y Nˆÿ o razón de probabilidades en una tabla de 2 × 2 puede
Machine Translated by Google
BW2stageSRS(z, psuID=trtBG)
Los resultados son ÿ = 0,00088 para tractos y ÿ = 0,00276 para BG. Por lo tanto, el efecto
de la agrupación en esta proporción estimada es intrascendente: una muestra en dos
etapas estimará la proporción casi con la misma precisión que lo haría una srs.
Por el contrario, si la estimación es el número total de hispanos con seguro, llamamos
BW2stageSRS de esta manera:
BW2stageSRS(y1, psuID=MDarea.pop$TRACTO)
BW2stageSRS(y1, psuID=trtBG)
que devuelven ÿ = 0,02251 para tratados y ÿ = 0,04026 para BG. Estos son aún mucho
menores que los ÿ en el ejemplo 9.2 , que también usa extensiones y BG como grupos.
Por lo tanto, el efecto de la agrupación puede ser bastante diferente según la variable.
Las varianzas de los estimadores en diseños más complicados que el muestreo aleatorio
simple en cada etapa también se pueden escribir como una suma de componentes. Sin
embargo, estos tienen una utilidad limitada para determinar los tamaños de muestra. La
expresión (9.1) es un ejemplo de la fórmula de varianza de componentes para un diseño en
el que las UPM se seleccionan con probabilidades variables y sin reemplazo. El primer
término en la Ec. (9.1) tiene el problema de que el número de UPM no está explícito en la
fórmula.
Una formulación más útil es el caso en que las UPM se seleccionan con probabilidades
variables pero con reemplazo, y la muestra dentro de cada UPM se selecciona por jurado.
Como se señala en el Cap. 3, los diseños con reemplazo pueden no usarse a menudo en
la práctica, pero tienen una fórmula de varianza simple. El pwr -estimator de un total es
Una
ti
t ˆpwr = metro
Pi
yoÿs
donde t ˆi = kÿsiNi
yik es el total estimado para la PSU i a partir de una muestra aleatoria
no
simple y pi es la probabilidad de selección de una extracción de la PSU i. La varianza de t
ˆpwr de Cochran (1977, pp. 308–310) es
2
Una
ti N2 no
V t ˆpwr = Pi ÿ tu + Es
1- S2U2i. (9.8)
m
iÿU Pi mpini iÿU Ni
S2 Una norte
N2 S2U2i
V t ˆpwr =
U1 (alimentación)
+ 1- Es
metro mn¯ Ni Pi
iÿU
2
=
donde, en este caso, S2 iÿU pi y suponiendo
ti
ÿ tu . Dividiendo esto por t 2
que
U1 (alimentación) pi tu
la fracción de muestreo dentro de la UPM, ¯n/Ni, es despreciable, obtenemos la revarianza
de t ˆpwr como , aproximadamente,
.
V t ˆpwr t2 = B2 + W2 = Vÿ k [1 + ÿ (¯n ÿ 1)] (9.9)
metro mn¯ Minnesota
tu
con V˜ = S2
tu /y¯2
tu , k = (B2 + W2)/V~ ,
S2
U1 (alimentación)
B2 = t2 , (9.10)
tu
Machine Translated by Google
Una
S2U2i
W2 = N2 , (9.11)
Es
t2 Pi
UiÿU
ÿ = B2 B2 + W2 . (9.12)
Para su uso posterior en la estimación de componentes de varianza, también podemos escribir la ecuación. (9.8)
como
La expresión (9.9) tiene la misma forma que la ecuación. (9.5) pero con diferentes definiciones
de B2 y W2. La expresión (9.9) también tiene
˜ la interpretación de una varianza srs o una varianza
no agrupada, V /mn¯, por un efecto de diseño, k[1 + ÿ(¯nÿ 1)],
de la misma manera que la Ec. (9.5) lo hizo.
Ejemplo 9.4 (ppswr en la primera etapa, srs en la segunda). Este ejemplo repite el
cálculos del ejemplo 9.2 para las variables en la población del área de Maryland.
Suponga que los conglomerados se seleccionarán proporcionalmente al recuento de personas en
cada racimo. La función BW2stagePPS calcula los valores de población de
B2, W2 y ÿ que se muestran en las Ecs. (9.10)–(9.12), que son apropiados para ppswr
muestreo de conglomerados. Se muestra el código para y1 que usa PSU o SSU como clústeres
abajo. Las variables, pp.PSU y pp.SSU, mantienen las probabilidades de un sorteo
pi que aparecen en la Ec. (9.8):
El código que usa tratados o BG como grupos es similar y está en el archivo Ejemplo
9.4.R. Los resultados son:
Con este diseño, el término intermedio es mucho más pequeño que el interno, en comparación
con los resultados del ejemplo 9.2. Esto es cierto ya sea que PSU y SSU
se utilizan como grupos o extensiones y se utilizan BG. Cuando se seleccionan clústeres
por srs, S2 U1 es la varianza de los totales del conglomerado en torno al total medio del
conglomerado. En contraste, con el muestreo pps de conglomerados, S2 U1(pwr) deeslos la varianza
totales
de población estimados, ti/pi, alrededor del total de población,
tu _ Cuando los conglomerados se seleccionan con probabilidad proporcional a Ni, entonces
ti/pi = Niy¯Ui/ (Ni/N) = Ny¯Ui. Si estas estimaciones de un conglomerado del total de la población
son bastante precisas, como lo son aquí, el término B2 puede ser bastante pequeño.
Esto conduce a valores mucho más pequeños de ÿ en el muestreo pps de conglomerados, lo que implica
que el efecto del agrupamiento es menos importante en esta población para un diseño
que selecciona conglomerados con probabilidades proporcionales a sus conteos de población.
Machine Translated by Google
B2 W2 B2 + W2 k d
PSU como clústeres
y1 0.0078 1.4553 1.4630 1,0002 0,0053
y2 0.0068 1.0097 1.0165 1,0002 0,0067
y3 0.0088 0,1048 0,1136 1,0002 0,0778
ins.cov 0.0012 0,2599 0,2611 1,0002 0,0046
hosp.stay 0.0173 12,8831 12,9004 1,0002 0,0013
B2 W2 B2 + W2 k d
Tratados como grupos
0.0092
y1 0.0107 y2 0.0136 y3 ins.cov 1,4539 1,4631 1,0002 0,0063
hosp.stay 0.0223 0.0018 1,0058 1,0165 1,0002 0,0106
0,1001 0,1136 1,0002 0,1194
0,2593 0,2611 1,0002 0,0069
12,8786 12,9009 1,0002 0,0017
Un diseño común en las encuestas de hogares es seleccionar las UPM, las UPM dentro de las UPM y los
hogares dentro de las UPM. En los EE. UU., las SSU suelen ser áreas geográficas de subcondados, como
distritos censales o grupos de bloques. Estos se describen en detalle en el Cap. 10. En tal diseño de tres
etapas, naturalmente, hay tres componentes de varianza. Primero presentamos la fórmula de la varianza para
un total estimado cuando se utiliza un muestreo aleatorio simple en las tres etapas.
Lamentablemente, hay aún más notación en el muestreo de tres etapas para especificar la situación.
Supongamos que Ni es el número de población de SSU en PSU i y que ni es el número seleccionado por
srswor ; N = Ni es el número total de UME en la población; Qij es el número de población de
j dentro
elementos
de PSU
eni;SSU
y
iÿU
qij es el número de elementos seleccionados por srswor de PSU/SSU ij. El número total de elementos en PSU
i es Qi y en la población es Q. La población de SSU en PSU i es Ui; la población de elementos en PSU/SSU ij
es Uij .
Si se selecciona una espada en cada etapa, las probabilidades de selección de PSU, SSU y elementos son
m/M, ni/Ni y qij/Qij . El estimador ÿ del total es
Ni qij
METRO t ˆÿ =
metro
si,
no qij
yoÿs jÿsi kÿsij
donde si es el conjunto de SSU de muestra en PSU i y sij es el conjunto de elementos de muestra en PSU/SSU
ij. La revarianza del estimador ÿ es (Hansen et al. 1953b, Secc . 7.4)
M2 METRO - metro N2 Ni ÿ ni
V t ˆÿ =
METRO
S2U1 +
Es
S2U2i (9.14)
t2tu 1 t2 metro METRO metro
tu no Ni
iÿU
= iÿU (tiÿt ¯U )2
S2U1 como en el Ejemplo 9.1
M-1
= 2
S2U2i ( tij ÿ t ¯Ui) siendoes la varianza unitaria de los totales de SSU en PSU
Una
kÿUij yk
Niÿ1 jÿUi
yo con tij = t ¯Ui la población total para PSU/SSU ij,
=
jÿUi tij Ni es el promedio total por SSU en PSU i
= 2
S2 es la varianza unitaria entre elementos en
Una
Para escribir la Ec. (9.14) en una forma más útil para el cálculo del tamaño de la muestra,
suponga que se selecciona el mismo número de SSU, ¯n, de cada PSU y el mismo número de
elementos, q ¯¯, de cada SSU. Suponga además que el número de SSU en cada PSU es el
, yese
mismo, Ni = N¯ elementos en cada SSU es el mismo, Qij = Q¯¯. En quecaso
el número de la Ec.
especial,
(9.14)
se puede reescribir como
¯¯ ¯¯
V t ˆÿ t2 Una Una METRO - metro Una n¯ - n¯ Una
q ÿ q S2
= S2 +
Una S22 + ¯¯ 3 , (9.15)
tu
¯¯¯2 mn¯ N¯ mn¯ q
tu
años
metro METRO
Q¯¯
dónde
La expresión (9.15) también se encuentra en Cochran (1977, Ec. (10.26)). Aunque la Ec. (9.15)
es relativamente simple, las suposiciones de que cada UPM tiene el mismo número de población
de SSU y que cada SSU tiene el mismo número de población de elementos son limitaciones.
Suponiendo que las fracciones de muestreo de las UPM, las UPM dentro de las UPM y los
elementos dentro de las UPM son todos pequeños, se puede obtener una fórmula de realvarianza
más general que permite tamaños de población variables y aún requiere que se seleccionen ¯n
¯¯
UPM y q elementos.
V t ˆÿ t2 . B2 W22 W23
= + + mn¯q ¯¯, (9.16)
tu metro Minnesota
En el caso del muestreo con reemplazo de UPM con probabilidades variables y con fuerza en
la segunda y tercera etapa, la revarianza se puede escribir (con algunos supuestos) en una
forma útil para los cálculos del tamaño de la muestra. Tratar el caso en el que las SSU se
seleccionan a través de srs (con o sin reemplazo) no es poco realista, ya que las SSU (como
los grupos de bloques) a menudo se crean para tener aproximadamente el mismo tamaño de
población.
Machine Translated by Google
La varianza real del estimador pwr de un total se deriva de Hansen et al. (1953b, Cap. 9, p. 211) y S¨arndal
et al. (1992, pág. 149): V t ˆpwr t2
S2 Una N2 Ni ÿ ni
U1 (alimentación)
= +
Es
S2U2i
1 t2 metro metro
pini Ni
tu tu iÿU
ÿ
Una Una
Ni Q2yo qij ÿ qij (9.17)
+ S2U3ij
m pi iÿU no ÿ
jÿUi
qij Qij
ÿ
ÿ
{VPSU + VSSU + VTSU },
1 t2
tu
, VSSU
donde VPSU y VTSU ,
están definidos por la última igualdad. (“TSU” significa unidad de tercera etapa). En la
ecuación. (9.17) S2 es el mismo que se define en la expresión (9.8) y
U1 (alimentación)
2
S2U2i = es la varianza unitaria de los totales de SSU en PSU
Una
= 2
S2U3ij
Una
expresión (9.17) también se aplica si las entradas son sustitutos lineales, como se definió anteriormente en la
Secc. 9.2.2.
HHM presenta una versión más compleja de la ecuación. (9.17) en el que las UPM se estratifican y las
UME se subestratifican, pero no hemos agregado esa complicación aquí. Otra complicación que se omite aquí
es la selección de elementos de dominio a diferentes velocidades. Por ejemplo, un objetivo puede ser igualar
los tamaños de muestra de diferentes grupos raciales/etnicos.
La expresión (9.17) es lo suficientemente compleja como para no ser útil para la planificación del tamaño
de la muestra. Para obtener una fórmula más sencilla, suponga que se muestrean ¯n SSU en cada PSU de
muestra, las fracciones de muestreo de SSU en cada PSU, ¯n/Ni, son pequeñas y se seleccionan q elementos
¯¯
en cada SSU de muestra. Especializando la Ec. (9.17), la revarianza del pwr -estimator es entonces
Una
Ni
W23 = Q2 ijS2 U3ij . (9.20)
1 t2pi _
UiÿU jÿUi
Machine Translated by Google
La expresión (9.18) tiene la misma forma que la ecuación. (9.16) para un diseño srs/srs/srs
, y W2aplicaciones,
pero con diferentes definiciones para B2, W2 3 . En2algunas ad hoc, N¯ un
ÿ n¯fpc
N¯de segunda
donde N¯ esetapa
el
número promedio de SSU en cada PSU, y un fpc de tercera etapa ad hoc, (Q ÿq ¯¯)/Q donde Q es
¯¯ ¯¯ ¯¯
el número promedio de elementos en cada TSU, puede usarse
unaen
mejor
la ecuación.
aproximación.
(9.18) para obtener
y¯2
tu
Qÿ1 iÿU jÿUi kÿUij la unidad de
revarianza de y en la población
k2 = (W2 2 + W2 3 )/Vÿ
ÿ1 = B2/(B2 + W2)
W2 = Una = Una
(yk ÿ y¯Ui)
2
t2tu iÿU Q2 S2U3i pi con S2
Es U3i Qiÿ1 jÿUi kÿUij
W2 2 /(W2 2 + W2 ) 3
Hansen et al. (1953b, cap. 9) dan versiones más elaboradas de ÿ1 y ÿ2, pero las anteriores más
simples son adecuadas para la planificación del tamaño de la muestra.
Tenga en cuenta que el término W2 en ÿ1 no entra en la varianza en la ecuación. (9.18) , pero
se define por analogía con el término del muestreo en dos etapas de la ecuación. (9.10). Si los
elementos se seleccionaron directamente de las UPM de la muestra (en lugar de las UPM de la
primera muestra), entonces el W2 anterior sería el componente apropiado dentro de la UPM.
El término ÿ1 es una medida de la homogeneidad entre los totales de la PSU. Si la estimación
del total de la población de cada total de UPM, ti/pi, fuera exactamente igual, entonces B2 = 0 y ÿ1
de las UPM es mucho mayor que la, = 0. Es decir,
variación entresi las
la variación del total
UPM totales, de la población,
entonces tU dentro
ÿ1 será pequeño;
esta es la situación típica en las encuestas de hogares si todas las UPM tienen aproximadamente
el mismo número de elementos. Como vimos en el Ejemplo 9.2, la condición de PSU de igual
tamaño puede ser de importancia crítica para asegurar que B2 sea pequeño.
Si todas las SSU tienen aproximadamente los mismos totales, entonces W2 será pequeño y
2
tij , ÿ2 . Aunque se pueden hacer intentos para crear SSU que tengan aproximadamente la misma
= 0.
cantidad de elementos Qij , los totales tijde
deÿ2
otras
quevariables
son mayores
continuación
tienden
quea los
variar,
.de
. ÿ1,
lo que
comolleva
se a
analiza
valores
a
HHM tenga en cuenta que en algunas aplicaciones, k1 y k2 estarán cerca de 1, por lo que
esta versión más simple de la varianza real se puede usar para planificar:
.
V t ˆpwr t2 = V˜ ¯¯ {ÿ1n¯ q ¯¯+ [1 + ÿ2 (q ¯¯ÿ 1)]} . (9.22)
tu
mn¯ q
Machine Translated by Google
El término entre llaves es el aumento en la varianza real sobre el muestreo aleatorio simple
debido al uso del muestreo en tres etapas. Si tanto ÿ1 como ÿ2 son 0, entonces el muestreo
en tres etapas será tan eficiente como el srs. Por lo general, ÿ1 y ÿ2 serán positivos, por lo
que habrá algún aumento en la revarianza en comparación con srs.
En los EE. UU., las UPM de las encuestas de hogares suelen ser condados o grupos de
condados. Estos varían en tamaño de población, pero pueden contener cientos de miles o
incluso millones de personas. Las SSU pueden ser distritos censales que son áreas más
pequeñas con 1500 a 8000 personas. Una alternativa para una SSU es un grupo de bloque,
que generalmente tiene entre 600 y 3000 personas. Las UPM de las encuestas de hogares
suelen ser áreas grandes y bastante heterogéneas, lo que implica que ÿ1 tiende a ser muy
pequeño para muchas variables, por ejemplo, 0,01 o menos. Las SSU son áreas más
pequeñas donde las personas tienden a ser más parecidas, lo que lleva a que ÿ2 sea un
número mayor, como 0,10. En las encuestas escolares, ÿ2 también puede ser mayor que ÿ1
si las PSU son distritos, las SSU son escuelas, los elementos son estudiantes y las variables
de análisis son diferentes tipos de pruebas de rendimiento. Como hemos señalado varias
veces antes, el hecho de que las PSU y las SSU tengan o no el mismo número de elementos
puede tener un gran impacto en las medidas de homogeneidad. Como siempre, los tamaños
de parámetros como ÿ1 y ÿ2 dependen de la población y las variables de análisis. Tener datos
relevantes es importante para hacer estimaciones anticipadas realistas para el diseño de la muestra.
La función R, BW3stagePPS, calculará B2, W2, W2 W2 3 , ÿ1 y ÿ2 definidos anteriormente2 ,para elmuestreo
ppswr/srs/srs y srs/srs/srs. La función es apropiada si está disponible un marco completo y toma los siguientes
parámetros: vector de datos vector de probabilidades de extracción única para PSU; la longitud es el número de PSU
X en el vector de población de ID para PSU; la longitud es el número de unidades en el vector
ssuID
Si el parámetro pp se establece igual a 1/M para todas las PSU, entonces B2 se calcula como
2¯2t
Mÿ1 (ti ÿ t ¯U tu
), que es aproximadamente
_
tu , igual al valor de srswr
de B2.
Ejemplo 9.5 (Tres etapas srs/srs/srs). En la población de Maryland, suponga que las variables
PSU y SSU definen las unidades de primera y segunda etapa y que las personas son
elementos en un diseño de tres etapas. Las UPM, las UME y las personas se seleccionan
mediante muestreo aleatorio simple. La llamada a BW3stagePPS para la variable y1 y los
resultados para y1, y2, y3, ins.cov y hosp.stay se enumeran a continuación:
BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
Machine Translated by Google
Los valores de ÿ1 son casi los mismos que en el Ejemplo 9.2 donde también se usaron PSU .
seleccionado usando srs. Los valores de ÿ2 van desde 0.0037 hasta 0.1105, los cuales son
Bastante pequeño. Los valores de k1 y k2 están cerca de 1, lo que significa que B2 + W2 y
W22 + W2 3 están cerca de la unidad de la varianza en la población. A continuación, suponga
que los tractos y los BG dentro de los tractos son las unidades de primera y segunda etapa y
que las tres etapas son nuevamente seleccionadas por srs. El código para la variable y1
es
M <- longitud(único(MDarea.pop$TRACTO))
trtBG <- 10*MDarea.pop$TRACTO + MDarea.pop$BLKGROUP
pp.trt <- rep(1/M,M)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.trt,
psuID=MDarea.pop$TRACTO, ssuID=trtBG)
Como en el Ejemplo 9.2, la variable trtBG tiene un identificador único para el bloque
grupos Los resultados se enumeran a continuación. Observe que los valores de ÿ1 y ÿ2 son
mucho más grandes cuando se utilizan distritos y BG como unidades de muestreo que cuando
se utilizaron las variables PSU y SSU. Como en el ejemplo 9.2, esto se debe a la
tamaños muy variables de tractos y BG.
Los valores de ÿ1 son casi los mismos que en el Ejemplo 9.2 donde también se
seleccionados en la primera etapa utilizando srs. Los valores de k1 y k2 son mucho mayores
que 1, lo que implica que B2 + W2 y W2 + W2 son diferentes a la unidad
2 3
Revarianza en la población. Esto se debe a los diferentes tamaños de los tractos y
BG.
Machine Translated by Google
Al determinar la asignación de una muestra multietapa, hay dos situaciones comunes. Uno es
diseñar una muestra de PSU desde cero en la que se determinará tanto el número de PSU de
muestra como el número de elementos por PSU. El segundo caso es uno en el que se utilizará
una muestra de PSU existente y la tarea es determinar cuántos elementos muestrear por PSU. En
ambos casos, se debe considerar el costo de tener una UPM en la muestra y el costo de recolectar
y procesar los datos de cada elemento.
Una función de costo simple para el muestreo en dos etapas asume que hay un costo por PSU de
muestra y un costo por elemento de muestra. Como en el caso del muestreo estratificado del Cap.
3, esta estructura de costos es probablemente una simplificación excesiva, pero un modelo simple
puede tener algún uso práctico siempre que los tamaños relativos de los costos unitarios sean
razonables. Tomemos el caso de un número igual ¯n de unidades elementales muestreadas de
cada UPM. Modelamos el costo total como
C = C0 + C1m + C2mn, ¯
dónde
Groves (1989) es una buena fuente para las múltiples facetas de las encuestas que contribuyen a
los costos. Los costos por UPM en una encuesta de hogares pueden incluir el reclutamiento y la
capacitación de entrevistadores, el pago de supervisores de campo y los costos de listado de
campo. Los costos por elemento podrían incluir el tiempo del personal para realizar una entrevista,
los costos de impresión si se utilizan cuestionarios en papel y el tiempo del personal administrativo
para revisar sondeos especiales con cuestionarios completados o parcialmente completados. El
componente C0 puede incluir tiempo de personal para el personal de la oficina central, por ejemplo,
un gerente de proyecto, informáticos para programar el instrumento si se utilizan entrevistas
personales asistidas por computadora, programadores para editar los datos y estadísticos para
diseñar la muestra, idear un seguimiento de la falta de respuesta. establecer procedimientos y
desarrollar esquemas de ponderación. Como hemos señalado en otra parte, el seguimiento de
estos costos es difícil y, a menudo, no encaja bien con las prácticas contables de las encuestas.
Como resultado, es posible que deba conformarse con estimaciones de costos unitarios bastante aproximadas.
Machine Translated by Google
Como se muestra en las Ecs. (9.5) y (9.9), la forma de la revarianza del total estimado es la
misma cuando el diseño es srs/srs o ppswr/srs y se seleccionan ¯n elementos en cada PSU
muestral:
ˆ
vt . V~
ÿ
=
k [1 + ÿ (¯n - 1)] . (9.23)
t2tu Minnesota
Por lo tanto, las fórmulas a continuación se aplican tanto a srs/srs como a ppswr/srs siempre que B2
y W2 están adecuadamente definidos. El número óptimo de unidades a seleccionar por
PSU, es decir, el número que minimiza la revarianza aproximada, es
C1 1 - ÿ
. (9.24)
n¯opt = d
C2
Tenga en cuenta que solo se necesita conocer la relación de los costos unitarios para
calcular ¯nopt. Cuanto más cuesta una fuente de alimentación, más elementos deben seleccionarse
dentro de cada PSU. Por otro lado, cuanto mayor es ÿ, menos elementos
debe seleccionarse por fuente de alimentación.
C - C0 .
fregar = (9.25)
C1 + C2n¯optar
2
Alternativamente, para encontrar el m óptimo para una varianza real fija, CV tute 0 , reemplazamos
¯nopt en la fórmula de la varianza real para obtener
˜
Vk
mopt = n¯optCV 2 [1 + ÿ (¯nopt - 1)] . (9.26)
0
Ya sea en el caso de encontrar tamaños de muestra para un costo total fijo o para un objetivo
CV, el tamaño total de la muestra es simplemente moptn¯opt donde el número de muestra
Las PSU y los elementos por PSU se calculan utilizando las Ecs. (9.24) y (9.25)
o (9.26). Si k = 1, la ecuación. (9.26) se reduce a la fórmula que se encuentra en la mayoría de los textos.
La figura 9.1 representa gráficamente el coeficiente de variación basado en la ecuación. (9.23), suponiendo
que k = 1 de un total estimado frente a un rango de valores de ¯n para ÿ = 0.01,
0,05, 0,10 y 0,20. Se coloca un punto en cada curva en el punto donde el
CV es un mínimo. En algunas situaciones, la sabiduría convencional es que “el
óptimo es plano” en el sentido de que un rango de tamaños de muestra dará un CV que
está cerca del valor mínimo. Ese suele ser el caso en el muestreo estratificado donde
la asignación a los estratos puede apartarse de la asignación óptima y aún así
ser razonablemente eficiente. En contraste, la figura 9.1 ilustra que la "planitud" de
el óptimo claramente depende del tamaño de ÿ. Si ÿ = 0.01, muestreo en cualquier lugar
de alrededor de 7 a 30 elementos por PSU es bastante eficiente. Para ÿ más grandes, el
el óptimo está más claramente definido. Por ejemplo, cuando ÿ = 0,20, ¯n de 2, 3 o
4 da un CV cercano al óptimo, pero asignando más que eso a cada PSU
rápidamente se vuelve ineficiente.
Machine Translated by Google
10 10
7
9
8
7
6
C1/C2=2
6
C1/C2=1
0 5 10 15 20 25 30 0 5 10 15 20 25 30
10
nbar (unidades de muestra por PSU) nbar (unidades de muestra por PSU)
9
delta = 0,1 delta = 0,2
CV CV
8
7
13
12
11
10
9
8
7
0 5 10 15 20 25 30 0 5 10 15 20 25 30
nbar (unidades de muestra por PSU) nbar (unidades de muestra por PSU)
Higo. 9.1: Coeficientes de variación para una media estimada para diferentes números de
elementos de muestra por PSU. Las tres curvas de cada panel corresponden a ratios de costes
de C1/C2 = 3, 2, 1 (de arriba hacia abajo). Se supone que la unidad de revarianza V˜ es 1. La
presupuesto total es C ÿ C0 = $100 000 con C1 = 750, 500 y 250 y C2 = 250. Cada
el punto está en el punto óptimo.
C1 = 750
C2 = 100
delta = 0,05
unidad varrel = 1
k=1
presupuesto = 1e+05
m.opt = 51,4 n.opt =
11,9 CV = 0,0502
C1 = 750
C2 = 100
delta = 0,01, 0,05, 0,10, 0,20
unidad varrel = 1
k=1
presupuesto = 1e+05
m.opt = 28,8, 51,4, 63,6, 77,1 n.opt = 27,2, 11,9, 8,2,
5,5 CV = 0,0401, 0,0502, 0,0574, 0,0670
Enviar los vectores de función para más de un parámetro (p. ej., C2=c(100, 120) y delta=c(0.01, 0.05)
generará un error.
Machine Translated by Google
Una función de costo para el muestreo en tres etapas, análoga a la del muestreo en
dos etapas de la Secc. 9.3.1, es
¯¯
C = C0 + C1m + C2mn¯ + C3mn¯ q. (9.27)
¯¯
C = C0 ÿm + C1m + C2mn¯ + C3mÿ n¯ + C4mn¯ q, donde C0 (9.28)
ÿm representa el costo de viajar entre PSU, C1 es el costo por PSU, C2 es el costo por SSU,
C3mÿn¯ es el costo total de viajar entre SSU, y C4 es el costo por elemento. Se encontró que
esta formulación era útil en el trabajo de la Oficina del Censo hace varias décadas, pero puede
no ser aplicable a encuestas con una estructura de costos más moderna. Aquí presentamos los
resultados para optima con la función de costo más simple (9.27) como ilustración.
1 ÿ ÿ2 C2
q ¯¯optar = , (9.29)
ÿ2 C3
Una
1 ÿ ÿ2 C1 k2
n¯opt = q ¯¯ , (9.30)
ÿ1 C3 k1
C ÿ C0
fregona = ¯¯ . (9.31)
C1 + C2n¯ + C3n¯ q
2
Si se establece una revarianza objetivo 0, entonces las ecuaciones para encontrar los óptimos
en CV para q ¯¯opt y ¯nopt son los mismos que los anteriores, pero el número óptimo de
elementos para muestrear de cada SSU es
V
CV 0 n¯optq ¯¯opt
2 ˜ {k1ÿ1n¯opt q ¯¯opt + k2 [1 + ÿ2 (q ¯¯opt ÿ 1)]}. mopt = (9.32)
Ya sea en el caso de encontrar tamaños de muestra para un costo total fijo o para un objetivo
CV, el tamaño total de la muestra es moptn¯optq ¯¯opt, donde el número de UPM de la muestra,
Machine Translated by Google
Las SSU y los elementos por SSU se calculan utilizando la ecuación. (9.31) o (9.32). El r
La función clusOpt3 proporciona una solución tanto para los problemas de minimizar
la varianza aproximada para un costo total fijo y minimizar el costo total para
un CV objetivo.
La función clusOpt3 también se puede utilizar para el muestreo de srs en los tres
etapas Los valores de ÿ1 y ÿ2 que se definen para la Ec. (9.21) debe calcularse con fórmulas
apropiadas para un muestreo aleatorio simple. En particular,
pi, la probabilidad de PSU de una extracción, se establecería igual a 1/M.
Si la función de costo más complicada en Eq. (9.28) es apropiado, explícito
No se pueden obtener soluciones para mopt, ¯nopt y q ¯¯opt . HHM da una iterativa
procedimiento para llegar a valores aproximados de mopt, ¯nopt y q ¯¯opt.
Ejemplo 9.8 (Tamaños de muestra óptimos en una muestra de tres etapas). La función R
clusOpt3 acepta los siguientes parámetros:
La función calcula los valores óptimos basándose en las Ecs. (9.29), (9.30) y
ya sea (9.31) o (9.32). Supongamos que C1 = 500, C2 = 100, C3 = 120,
ÿ1 = 0.01, ÿ1 = 0.10, la unidad de varianza es 1, al igual que k1 y k2, y el total
presupuesto para costos variables es de $100,000. La llamada a clusOpt3 es
clusOpt3(unidad.costo=c(500, 100, 120), delta1=0.01,
delta2=0.10, unidad.rv=1, k1=1, k2=1,
tot.cost=100000, cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,01
delta2 = 0,1
unidad varrel = 1
k1 = 1
k2 = 1
presupuesto = 1e+05
Machine Translated by Google
La función repite los valores de los parámetros de entrada, devuelve los valores óptimos
y calcula el CV que se logrará con la asignación óptima. En la salida, el presupuesto es el
valor del costo total, mientras que la verificación del costo es el valor de los costos
variables que se encuentran al sustituir los valores óptimos en la ecuación. (9.27).
La función también aceptará una entrada vectorial para un parámetro sin costo en
un momento. Por ejemplo, podemos ver el efecto de un rango de ÿ1 con
clusOpt3(unit.cost=c(500, 100, 120), delta1=c(0.01,0.05,0.10),
delta2=0.10, unit.rv=2, k1=1,k2=1,tot.cost=100000, cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,01, 0,05, 0,10
delta2 = 0,1
unidad relvar = 2 k1 = 1 k2 =
1
presupuesto
Si el costo total, C = C0 + C1m + C2mn¯, se fija junto con el conjunto de unidades de suministro de energía
de muestra, la cantidad de elementos por unidad de suministro de energía está determinada únicamente por
la restricción de costo:
C - C0 - C1m
n¯ = . (9.33)
C2m
1-ÿ
n¯ = ˜ . (9.34)
CV 20 - ÿ metro V k
Ejemplo 9.9 (Elementos por PSU para un conjunto fijo de PSU y costo total fijo).
El siguiente código determina el número de elementos de muestra por PSU para costos unitarios de
C1 = 500 y C2 = 100 cuando el número de PSU se fija en m = 100. Se utilizan presupuestos de $100
000, $500 000 y 1 millón de dólares:
C1 = 500
C2 = 100
metro = 100
delta = 0,05
unidad varrel = 2
k=1
presupuesto = 1e+05, 5e+05, 1e+06
n = 5, 45, 95
CV = 0,0693, 0,0377, 0,0346
Machine Translated by Google
Si la muestra es de tres etapas, hay cierta flexibilidad en cuanto a cuántas SSU y elementos
por SSU se muestrearán. Cuando la muestra de PSU es fija, el término B2 m en Eq. (9.18) es fijo.
¯¯
Los valores de ¯n y q se pueden ajustar para lograr una restricción
CV.
presupuestaria
En cualquier caso,
o un objetivo
el valor de
óptimo de q
¯¯
es
1 ÿ ÿ2 C2 .
q ¯¯optar =
ÿ2 C3
Si la muestra de la PSU es fija y el presupuesto viene dado por la ecuación. (9.27), entonces el
número implícito de SSU por PSU es
C ¯¯
n¯ = ¯¯ con C = mÿ1 (C ÿ C0) ÿ C1 = C2n¯ + C3n¯ q. (9.35)
C2 + C3q
ÿ1
k2 metro
Note que la Ec. (9.36) implica una resta en el denominador. Por lo tanto, no hay garantía de
que el ¯n calculado sea positivo. Si la ecuación. (9.36) produce un número negativo, esta es una
señal obvia de que el CV objetivo no se puede lograr con la muestra de PSU fija. La función de R
clusOpt3fixedPSU calculará el número óptimo de SSU y elementos de muestra en una muestra de
tres etapas cuando la muestra de PSU es fija. La función toma como entrada el número fijo de
PSU m así como los parámetros definidos para clusOpt3 en el Ejemplo 9.8.
Ejemplo 9.10 (Número de SSU y elementos por SSU para un conjunto fijo de PSU y costo total
fijo). Suponga que una muestra de área existente contiene 100 PSU y que el costo por PSU es de
$500. La encuesta tiene un presupuesto total para costos variables de C ÿ C0 = $500 000. Los
costos unitarios de tener UME y personas en la muestra son C2 = 100 y C3 = 120. Esto implica
que tenemos $500 000 – $500*100 = $450 000 para cubrir el costo del muestreo dentro de las
UPM. El número óptimo de SSU y personas se encuentra con la función clusOpt3fixedPSU,
asumiendo que la unidad de revarianza es 1 y que las medidas de homogeneidad son ÿ1 = 0.01 y
ÿ2 = 0.05:
C1 = 500
C2 = 100
C3 = 120
Machine Translated by Google
metro = 100
delta1 = 0,01
delta2 = 0,05
unidad varrel = 1
k1 = 1
k2 = 1
presupuesto variable = 450000
costo total = 5e+05
n = 7,8
q=4 CV
= 0,0217
Por lo tanto, los números de SSU por PSU y personas por SSU son 7,8 y 4. Ahora,
suponga que se establece un CV objetivo de 0,05. Los demás parámetros son
iguales, pero la unidad de varianza es 4. En este caso, llamamos a la función con
cal.sw=2. El número de SSU por PSU es 5,5 y el número de personas de la muestra
por SSU es 4:
C1 = 500
C2 = 100
C3 = 120
metro = 100
delta1 = 0,01
delta2 = 0,05
unidad varrel = 4
k1 = 1
k2 = 1
presupuesto variable = 317617.8 costo total =
367618
n = 5,5
q=4 CV
= 0,05
Verificación de CV = 0.05
En este caso, el objetivo de CV se puede lograr por un costo total de alrededor de $ 368
mil. (En el resultado, la comprobación de CV es un cálculo del CV a partir de la fórmula de
la varianza real utilizando los tamaños de muestra óptimos. Esto se hace para verificar
que los valores óptimos calculados producen el CV objetivo).
Finalmente, antes de pasar a la estimación de los ingredientes para las fórmulas del
tamaño de la muestra, notamos que las pérdidas anticipadas de muestras deben
contabilizarse tal como se hicieron en el Cap. 6. Por ejemplo, si se espera que la tasa de
respuesta de los elementos sea del 60 %, entonces el número de elementos de la muestra calculado
Machine Translated by Google
Los parámetros de las fórmulas de varianza anteriores nunca se conocen con exactitud.
Un diseñador de encuestas debe adivinar sus valores en función de la experiencia o debe estimarlos
a partir de encuestas similares anteriores. En esta sección, cubrimos varias formas de estimar los
componentes de la varianza necesarios para la asignación de la muestra.
Las expresiones (9.5) y (9.9) sugieren una forma rápida de estimar la medida de homogeneidad ÿ en
una muestra de dos etapas. Suponga que vt ˆÿ es una estimación de la varianza del estimador ÿ
apropiado para el diseño de muestra que se utilizó. (En el caso del muestreo ppswr en la primera
etapa, usamos vt ˆpwr ).
Hay varias formas alternativas de hacer esto, que cubrimos en el Cap. 15.
Dividir vt ˆÿ por una estimación de la varianza de un estimador ÿ de una muestra aleatoria simple del
mismo tamaño da el efecto de diseño, deff(t ˆÿ) = v(t ˆÿ)/vsrs.
Igualando deff(t ˆÿ) a 1 + ÿ (¯n ÿ 1) y resolviendo para ÿ se obtiene
Una Una
vt ˆÿ
ˆÿ = ÿ1
n¯ ÿ 1 k vSRS
(9.37)
kÿ1deff t ˆÿ ÿ 1
= .
n¯ ÿ 1
En la mayoría de las muestras de conglomerados, el efecto de diseño será mayor que 1. En esa
circunstancia, se espera que ˆÿ > 0, ya que los elementos dentro de un conglomerado son algo
parecidos. En la ecuación. (9.37) es importante utilizar una estimación de la varianza apropiada para
el diseño que se utilizó para seleccionar la muestra. Como las expresiones (9.5) y (9.9) tienen la misma
forma general, la Ec. (9.37) ofrece una estimación aproximada de la medida de la homogeneidad, ya
sea que las UPM se seleccionen con la misma probabilidad o con probabilidades variables.
Las estimaciones de ÿ son sensibles a los valores de ¯n como se ilustra en la Tabla 9.2, que usa k
= 1. Por ejemplo, si el efecto de diseño es 1.6, k = 1 y n¯ = 20, entonces ˆÿ = 0.032 . Pero, si ¯n = 5, ˆÿ
es mucho mayor a 0.15.
También se pueden hacer estimaciones directas de los componentes en algunos casos especiales.
S¨arndal et al. (1992, Resultado 4.3.1, p. 137) dan fórmulas generales para estimaciones
Machine Translated by Google
n¯ = 20 n¯ = 5
def ˆÿ def ˆÿ
Vˆi
vSSU = 2
yoÿs (ÿÿ ) Es
2
Una t ˆiÿ 1 ÿ ÿÿ Es
vPSU = ÿ t ˆpwr
ÿ
2 Vˆi
metro (metro - 1) yoÿs Pi (ÿÿ )
yoÿs Es
N2
Es
2
donde ÿÿ = mpi, Sˆ2
2i = (ni ÿ 1) (yk ÿ y¯si)
kÿsi , y ¯ysi = kÿsi yk ni.
i (Observe que ÿÿ Es no es la probabilidad de selección de PSU i en con-reemplazo
muestreo, pero estará cerca de él si pi es pequeño). El primer término en vPSU es un
estimador de la varianza de t ˆpwr y se llama la varianza última del conglomerado
estimador. Cubrimos este estimador con más detalle en el Cap. 15. Si wk es el completo
peso de la muestra para el elemento k, el primer componente de vPSU también se puede escribir
como
2 2
Una t ˆiÿ metro
ÿ t ˆpwr
= wkykÿmÿ1 wkyk .
metro (metro - 1) yoÿs Pi mÿ1
iÿskÿsi iÿskÿsi
Los paquetes de software a menudo usan el último estimador de conglomerados ya que requiere
solo los pesos completos de la muestra. En el caso de que el mismo número de elementos,
ni = ¯n, se muestrea en cada PSU, podemos factorizar ¯n en vSSU . Los estimadores
correspondientes de B2 y W2 en las Ecs. (9.10) y (9.11) son entonces
Machine Translated by Google
2
Una Una
t ˆiÿ 1 ÿ ÿÿ yo
Bˆ2 = ÿ
Vˆi , (9.38)
ÿ t ˆpwr
tˆ2 _
poder
(m ÿ 1) yoÿs
Pi
yoÿs
mp2 Es
Una N2 Sˆ2i
W2 = t
Es
. (9.39)
ˆ2
pwr iÿs
mp2 Es
Requerir (muestreo)
Requerir (reformar) # tiene una función que permite #
renombrar variables
Ni <- tabla(MDarea.pop$TRACTO) m <- 20
2
Una Una
t 1 ÿ ÿÿ yo
Bˆ2 = ˆiÿ ÿ t ˆpwr
ÿ
Vˆi , (9.38)
tˆ2 _ (m ÿ 1) Pi mp2
poder yoÿs yoÿs Es
Una N2 Sˆ2i
Es
W2 = t . (9.39)
ˆ2 mp2
pwr iÿs Es
La función cluster devuelve todas las unidades en los clusters de muestra con la probabilidad de
selección de cluster almacenada en el campo Prob. La función, renombrar, del paquete reformar
(Wickham 2011) cambia el nombre de Prob para que sea pi1. Luego, las secciones de muestra se tratan
como estratos y se selecciona una muestra de ¯n = 50 personas de cada sección. La probabilidad de
selección condicional de las personas dentro de las zonas se renombra de Prob a pi2:
Los resultados de las variables en el conjunto de datos de Maryland se muestran a continuación. Los
distritos se tratan como grupos.
Machine Translated by Google
Estas estimaciones se comparan con los cálculos de población del ejemplo 9.4 , donde
Los tractos se utilizaron como grupos. Las estimaciones de la varianza entre y dentro
Los componentes anteriores difieren notablemente de los valores de la población. Esto lleva a
estimaciones muestrales de ÿ que son diferentes en esta muestra de la población
ÿ's. Las estimaciones de los componentes de la varianza son inherentemente inestables y
No sorprende que el error de estimación sea relativamente grande aquí.
Si las estimaciones de los componentes de la varianza se utilizan para la planificación, deben
examinados para decidir si sus tamaños parecen razonables. Análisis de sensibilidad
de los tamaños de muestra calculados se debe realizar para ver cuáles serían los tamaños
ser para un rango de ÿ y otros parámetros de diseño.
Estimaciones directas de los componentes de la ecuación. (9.17) también se puede hacer a partir de un
muestra. Las estimaciones que se presentan a continuación se basan en las de Hansen et al.
(1953b, Cap. 9, Secc. 10) para el caso de muestreo ppswr de m PSU y
muestreo aleatorio simple de ni SSU en PSU i y elementos qij en SSU ij.
Primero, defina
Ni
t ˆiÿ = no jÿsi
t ij , el total estimado para PSU i
¯
2
Sˆ2 = (ni ÿ 1)ÿ1 t ˆij ÿ t ˆi , la varianza de la muestra entre estimados
2ai jÿsi
¯
2
t
Sˆ2 = ˆiÿ ÿ t ˆÿ pi
1a 1 mÿ1 iÿs
N2
Sˆ2 = 1 yo miÿs pini
1b (1 ÿ f2i) Sˆ2 2ai + f2iS2 2bi donde f2i = ni/Ni
Como se muestra en Hansen et al. (1953b), Sˆ2 estima el parámetro de población finita en la ecuación.
Una
Una N2 Es
vTSU = 2 Vˆ3ij
n2
yoÿs (mpi) Es
jÿsi
Una N2 Es
vt ˆpwr t =
Una
Cuando se selecciona el mismo número de SSU de muestra, ¯n, en cada UPM, se selecciona el mismo
número de elementos de muestra, q ¯¯, en cada SSU, y las fracciones de muestreo de UPM, SSU y
elementos son todas pequeñas, la la revarianza estimada se puede escribir como
ˆ
vt poder Bˆ2 Wˆ 22 Wˆ 32
= + + ¯¯,
t2 metro mn¯ mn¯ q
poder
dónde
Sˆ2
Bˆ2 =
Una
,
tˆ2
poder
Una N2
Wˆ 22 = Es
Sˆ2i,
t2 mp2 Es
potencia iÿs
y
ÿ ÿ
Una Una N2
Wˆ 32 = Es
.
ÿ Q2 ijSˆ2 3ij ÿ
t2 mp2 no
poder Es
jÿsi
ÿ iÿs ÿ
Cada uno de estos estima los componentes en las Ecs. (9.10), (9.19) y (9.20).
Similar al caso del muestreo en dos etapas, Bˆ2 y Wˆ 2 pueden ser negativos
2 ya que ambos implican una
resta. Calcular la varianza anticipada del total estimado y usar estimadores de componentes de varianza
basados en modelos puede
Machine Translated by Google
ÿ1
2
donde S˜2 = ,
Es
jÿsi kÿsij wk jÿsi kÿsij wk yk ÿ y ˆ¯i jÿsi kÿsij wk,
Qi
Qij
metro
Machine Translated by Google
Consulte el archivo con el código de este ejemplo para ver cómo son los valores de entrada
construido. Utilizando la PSU de campo como unidad de primera etapa, la SSU como unidad de
segunda etapa y las personas como TSU, parte de la salida de BW3stagePPSe es:
PSU como unidad de primera etapa, SSU como unidad de segunda etapa
Bˆ2 Wˆ 2 ˆÿ2 Wˆ 22 Wˆ 32 ˆÿ1
Estas estimaciones se comparan con las cifras de población del ejemplo 9.6. Las medidas estimadas
de homogeneidad son similares a los valores de la población. Sin embargo,
las estimaciones de VSSU (que no se muestran aquí) son negativas.
Las estimaciones que utilizan el tramo como unidad de primera etapa y el grupo de bloques (BG) como
la unidad de segunda etapa se muestran a continuación:
Estos también se comparan con los valores de la población en el Ejemplo 9.6. Por ejemplo, los
valores poblacionales para las medidas de homogeneidad para y1 fueron
ÿ1 = 0,0060 y ÿ2 = 0,1284 y las estimaciones son 0,0099 y 0,0952, respectivamente. Aunque los tamaños
relativos de los valores de la población y la muestra
las estimaciones son similares, sus tamaños absolutos son notablemente diferentes. Esto ilustra un
punto que hemos señalado antes: las estimaciones de los componentes de la varianza son variables
y pueden estar distantes de los valores subyacentes de la población.
en una muestra particular. Si las estimaciones de ÿ1 y ÿ2 se utilizan para determinar
tamaños de muestra, haga un análisis de sensibilidad. Calcular tamaños de muestra para un rango de
valores alrededor de ˆÿ1 y ˆÿ2.
La discusión de la estimación del componente de varianza en una muestra de tres etapas puede
también se encuentra en S¨arndal et al. (1992, pág. 149). Derivan la varianza de diseño del estimador
ÿ en un muestreo de tres etapas para una probabilidad general
Machine Translated by Google
diseño de muestra Cuando sea conveniente, nos referiremos al libro de S¨arndal, Swensson
y Wretman como SSW. Las fórmulas SSW son bastante generales pero requieren el
conocimiento de las probabilidades de selección conjunta en cada etapa. El ejercicio 9.12
le pide que especialice sus resultados para la varianza del diseño teórico al caso de srswor
en cada etapa. Existe cierto potencial de confusión al comparar los resultados de HHM y
SSW. HHM supone que las fuentes de alimentación se seleccionan con probabilidades
proporcionales al tamaño y con reemplazo. Luego usan un estimador de varianza ppswr
para el componente de varianza PSU. Por otro lado, SSW presenta estimadores de
componentes de varianza para el estimador ÿ de un total (no un estimador pwr). En
consecuencia, los estimadores HHM discutidos aquí no son los mismos que los de SSW.
Creemos que la formulación HHM está más cerca de la práctica estándar en la forma en
que se maneja la muestra de PSU y, a menudo, será más factible computacionalmente.
Si el estimador es insesgado
ˆ por diseño o aproximadamente así, es decir, Eÿ(tˆ) . = , después
el AV es AV t tU = EM varÿ t ˆÿ tU . Por lo tanto, la expectativa del modelo de una
fórmula como la Eq. (9.8) se puede calcular, dando componentes de varianza del modelo
que se pueden estimar usando software estándar.
En una población agrupada, el modelo más simple a considerar es uno con com
media mon, ÿ, y efectos aleatorios para conglomerados, ÿi, y elementos, ÿij :
Machine Translated by Google
EM S2 U1 = ÿ2 ÿ + ÿ2 S2 norte
+ N¯ 2ÿ2ÿ + ÿ2 ÿ,
EM S2 U2i = ÿ2 ÿ,
donde N¯ = =
iÿU 2 Ni M es el número promedio de elementos por grupo, S2 norte
donde ÿ2 norte
= S2 norte /N¯ 2 es la revarianza de los tamaños de PSU. Si Ni = N¯ , es decir, todos
los grupos son del mismo tamaño, entonces ÿ2 = 0. En ese caso, si N¯ es grande,
norte
ÿ2ÿ + ÿ2 NORTE
. ÿ2ÿ
= ÿ
= . (9.42)
EM (ÿ). 2 ÿ2ÿ + ÿ2
ÿ2ÿ + ÿ2 ÿ
1+1N¯ ÿ
requerir (lme4)
m.y1a <- lmer(y1 ˜ (1 | PSU), datos = MDarea.pop)
m.y1b <- lmer(y1 ˜ (1 | SSU), datos = MDarea.pop)
tt <- resumen(m.y1a)
Machine Translated by Google
Efectos aleatorios:
Grupos Nombre Desv. estándar de la varianza
Fuente (Intersección) 36.801 6.0664
Residual
de alimentación 7072.180 84.0963
Los resultados para todas las variables usando PSU, SSU, distritos y grupos de bloques como
Los clústeres se muestran a continuación. Las estimaciones de ÿ cuando las UPM y las UME son
clústeres son casi los mismos que en el Ejemplo 9.2 donde srs se usa en cada
escenario. Pero, cuando los tractos y los BG son grupos, los ÿ aquí son muy diferentes
de los del ejemplo 9.2. Como se ve en la Ec. (9.42), la fórmula basada en el diseño para
B2 B2 + W2 estimará lo mismo que el cálculo basado en modelos
si los conglomerados tienen el mismo tamaño pero no de otro modo. Así, las grandes diferencias
vemos entre el Ejemplo 9.2 y este ejemplo para los tratados y los BG se deben
a los tamaños muy variables de esas unidades en la población de Maryland. Usando
la fórmula para el ÿ anticipado en la ecuación. (9.41) en el banco inferior de la mesa
a continuación arroja valores mucho más cercanos a los del ejemplo 9.2.
En una población donde el muestreo en tres etapas es apropiado, el modelo más simple
a considerar es uno con media común (ÿ) y efectos aleatorios para
PSU (ÿi), SSU (ÿij ) y elementos (ÿijk):
2
EM t tu B2 =M Mÿ2 ÿQ¯2 ÿ2 Q +1 + ÿ2 ÿ NiQ¯2 yo ÿ2 Qi+1 + ÿ2 ÿMN¯Q¯¯ +M2 ÿ2 Q¯2 ÿ2 Q +1 ,
iÿU
(9.44)
(9.46)
EM t 2 UW2 3
= Mÿ2 ÿ
N2i Q¯2 i ÿ2Qi + 1 , (9.47)
iÿU
2
donde ÿ2 = Qi ÿ Q¯ /
q
= S2 Q/Q¯2 es la revarianza de los tamaños de fuente de alimentación Qi, S2 iÿU
contienen el mismo número = 0 y Qi = N¯Q ¯¯. de SSU, Ni = N¯. Estas restricciones implican que S2 = S2 Q
Qi
En ese caso, la expectativa aproximada del modelo de ÿ1 es
ÿ2 ÿ2ÿ
ÿ
ÿ2ÿ + +
MINNESOTA
MN¯Q¯¯ . ÿ2ÿ
= = (9.48)
EM (ÿ1) .
ÿ2ÿ + ÿ2 + ÿ2 ÿ
1+ 1+
Una Una
ÿ2ÿ + ÿ2 ÿ + ÿ2 ÿ
ÿ
MINNESOTA
MN¯Q¯¯
asumiendo que MN¯ y MN¯Q¯¯ son grandes. Esta es la correlación del modelo de dos
elementos que están en la misma SSU, pero la reducción en la ecuación. (9.48) ocurre
solo cuando las PSU y las SSU tienen todos los mismos tamaños.
Machine Translated by Google
ÿ2 ÿ
ÿ + MN¯Q¯¯
ÿ2 ÿ2
. ÿ
= = . (9.49)
EM (ÿ2) .
ÿ2 + ÿ2ÿ 1+
Una ÿ2
ÿ
+ ÿ2ÿ
ÿ MN¯Q¯¯
Cuando las variables PSU y SSU se utilizan como primera y segunda etapa
unidades, los valores de ÿ1 y ÿ2 son casi los mismos que en el Ejemplo 9.5 donde
se asumió un srs/srs/srs. Esto es cierto cuando las Ecs. (9.48) y (9.49)
Machine Translated by Google
o Ecs. (9.44)–(9.47) se utilizan para evaluar ÿ1 y ÿ2. Cuando los tratados y los BG son
utilizado para unidades de primera y segunda etapa, la correspondencia con el Ejemplo 9.5
Los resultados no se acercan en absoluto cuando las Ecs. Se utilizan (9.48) y (9.49) . Esto es debido a
el hecho de que los supuestos de que el número de SSU, N¯ en cada tracto y el número de ,
elementos, Q¯¯, en cada BG son constantes no se sostienen bien. En
por otro lado, cuando las Ecs. (9.44)–(9.47), que dan cuenta de diferentes tamaños de
unidades, se utilizan, las medidas de homogeneidad son muy similares a los valores
en el ejemplo 9.5.
Los sesgos de los estimadores de componentes de varianza se ven afectados por si el muestreo es
informativo o no informativo. La idea de informatividad se aplica a la estimación de los parámetros
del modelo. Por ejemplo, suponga que los efectos aleatorios
modelo en la Ec. (9.40) se cumple para la población. Una muestra no es informativa
cuando se cumple el mismo modelo tanto para la muestra como para la población. En
en ese caso, se puede ignorar el diseño de la muestra y se pueden usar estimadores de
componentes de la varianza no ponderados. El paquete R lme4, el procedimiento SAS proc
mixed, y la rutina xtmixed en Stata proporcionará las estimaciones no ponderadas. Los estimadores
ponderados que cubrimos en esta sección también
proporcionar estimadores aproximadamente insesgados del modelo de los parámetros del modelo,
ÿ2ÿ y ÿ2 ÿ en muestreo en dos etapas, y ÿ2ÿ, ÿ2ÿ, y ÿ2 ÿ en tres etapas asumiendo
que las unidades utilizadas en las diferentes etapas sean todas del mismo tamaño.
Las muestras de probabilidad pura no son informativas. Por "pura" nos referimos a una muestra
en la que algún mecanismo de probabilidad que está completamente bajo control
del diseñador de la muestra se utiliza para seleccionar la muestra. Si se pierde ese control,
la estimación es más difícil. Una muestra puede ser informativa si la falta de respuesta selectiva
o se produce un error de medición que está fuera del control del diseñador de la muestra.
Por ejemplo, si la probabilidad de respuesta depende de la variable y en el
Machine Translated by Google
modelo y esto no se puede corregir mediante algún tipo de ajuste por falta de respuesta, la
muestra será informativa. (Cubrimos algunos de los métodos utilizados para intentar corregir
la falta de respuesta en los capítulos 13 y 14).
Sin embargo, incluso en una muestra de probabilidad pura, es posible que sea necesario
considerar algunas características de un diseño de muestra al ajustar un modelo de
componente de varianza (o cualquier otro tipo de modelo). Por ejemplo, en una muestra
estratificada, diferentes modelos pueden ser apropiados para los diferentes estratos. Esto
podría describirse como "tener en cuenta el diseño" o "usar el modelo apropiado".
Pfefferman et al. (1998) y Korn y Graubard (2003) abordan el problema de estimar los
componentes de la varianza a partir de muestras de encuestas. Las estimaciones del
componente de varianza ponderado de antes en esta sección pueden estar sesgadas cuando
la muestra es informativa. Korn y Graubard ilustran los sesgos con algunos ejemplos
artificiales y proponen algunos estimadores alternativos. Las alternativas pueden no ser
factibles en muchos conjuntos de datos de encuestas porque requieren varios pesos
condicionales que pueden no estar disponibles. Sin embargo, brindan un ejemplo de una
encuesta real en la que algunas soluciones prácticas parecen tener algunas ventajas sobre
los tipos de estimadores que cubrimos anteriormente. No nos ocuparemos de estas
alternativas aquí, aunque puede valer la pena considerarlas para algunas aplicaciones.
En la mayoría de los diseños, las fuentes de alimentación están estratificadas. Las razones
para la estratificación son las mismas que se tratan en el Cap. 3, secc. 3.1.2, que
recapitulamos brevemente aquí. La estratificación es, en general, una buena manera de
restringir la distribución de la muestra. Al seleccionar una muestra de UPM de cada estrato,
se eliminan algunas muestras mal distribuidas. Es posible que se necesiten estimaciones
separadas para algunos o todos los estratos. Por ejemplo, en una encuesta de hogares, las
regiones del país pueden ser estratos o regiones atravesadas por densidad de población
(urbana, suburbana, rural). En una encuesta escolar, las UPM pueden ser escuelas y los
elementos, estudiantes dentro de las escuelas. Los estratos pueden basarse en los niveles
de grado de una escuela, que generalmente están relacionados con la edad de los niños.
También puede haber razones administrativas para estratificar las UPM. En una encuesta
escolar en una región dentro de un estado, puede ser necesario comunicarse con el
superintendente de cada distrito para obtener permiso para encuestar escuelas y estudiantes.
Suponiendo que el número de distritos sea limitado, las escuelas podrían estratificarse por
distrito para controlar el número al que se debe contactar para obtener permiso para recopilar
datos.
Otras consideraciones son el número de estratos y la asignación de UPM a los estratos.
Si se necesitan estimaciones para ciertos estratos, eso puede determinar el número que se
crea. Si los estratos se crean principalmente para restringir la distribución de las UPM de la
muestra, entonces se pueden invocar las mismas técnicas que en el Cap. 3.
Si las UPM se van a seleccionar con probabilidades proporcionales a una medida de
Machine Translated by Google
(MOS), se pueden crear estratos para tener totales aproximadamente iguales de MOS o de
alguna potencia de MOS como en el Ejemplo 3.13.
En las muestras de área, se determina el número de UPM de la muestra y, por lo general, se
crean suficientes estratos para que se seleccionen 1 o 2 UPM en cada estrato. La selección de
una UPM por estrato permite una gran cantidad de control sobre la distribución lograda de la
muestra, pero crea algunos problemas de estimación de la varianza. Abordaremos estos en el
Cap. 15.
Otra consideración importante en algunos diseños de encuestas es tener flexibilidad para
expandir o contraer la muestra de la PSU. Si la encuesta es longitudinal, el presupuesto puede
no ser el mismo para cada ronda de la encuesta. Si se recorta el presupuesto, la forma más fácil
de reducir los costos puede ser eliminar las unidades de suministro de energía completas de la
muestra. Esto también puede ser razonablemente eficiente desde el punto de vista estadístico
si el componente de varianza entre las UPM es pequeño. En un diseño de 2 UPM por estrato,
se puede eliminar aleatoriamente una UPM de la muestra en algunos estratos para lograr la reducción.
En un diseño de una UPM por estrato, los estratos deben emparejarse de antemano para la
estimación de la varianza, como se explica en el Cap. 15. Una fuente de alimentación podría
eliminarse al azar de uno o más pares para reducir la muestra.
Tener una ruta preestablecida para la expansión de la muestra de PSU también es útil
cuando la muestra debe acumularse a lo largo del tiempo para hacer estimaciones. En la
NHANES, se realizan exámenes físicos extensos a los encuestados.
Los centros de examen móviles (MEC) que transportan equipos de diagnóstico se transportan
de una PSU a otra. Mover los MEC lleva mucho tiempo y es costoso, y solo se puede hacer un
subconjunto de la muestra nacional completa de PSU cada año. Se deben acumular dos o más
años de muestra para hacer estimaciones nacionales confiables.
Ejercicios
Trate la Edad como continua para este ejercicio (aunque esté codificada en 23 categorías
ordenadas). Realice los cálculos asumiendo que el muestreo de tres etapas se utilizará
con distritos como UPM, grupos de bloques dentro de los distritos como UME y personas
como elementos. La muestra en las tres etapas se seleccionará mediante srswr.
(b) Repita los cálculos para un diseño en el que las PSU se seleccionan a través de ppswr
en lugar de srswr.
(c) Discuta las diferencias en los resultados. En particular, comente por qué el
los valores de ÿ1 son diferentes en los dos diseños.
(a) Realice el cálculo para las variables y2, y3, ins.cov y hosp.stay. (b) ¿Cómo se comparan
sus respuestas con los resultados de la población completa en el examen?
por favor 9.12?
(d) Discuta sus resultados en (c). ¿Es óptima la misma asignación para cada una de las
cinco variables? ¿Qué asignación usaría en la práctica?
9.9. Utilice la Población de la fuerza laboral para calcular entre y dentro de los componentes
de la varianza y la medida de homogeneidad, ÿ en una muestra de dos etapas para las
variables Horas por semana y Salario semanal. La variable cluster define las unidades de la
primera etapa.
9.10. Considere una población que se divide en M conglomerados, cada uno de los cuales
tiene N¯ elementos como en el Ejemplo 9.1. Demuestre que cuando tanto M como N¯ son
.
grandes, la unidad de varianza de una variable y se puede escribir tu
como
Todos
tu S2
definen
y¯2
los =términos
en
B2 el
+ W2.
se
1
ejemplo 9.1. Use la forma W2 = S2 para iÿU U2i
Mi¯2tu
derivar el resultado.
Machine Translated by Google
n¯ÿn¯
9.11. Demuestre que V t ˆÿ t 2tu = Mÿm
B2 +
Una
Minnesota
˜ NORTE
reescrito como V k [1 + ÿ (¯n ÿ 1)] mn¯, es decir, igual a la Ec. (9.5) con k = (B2 +
9.12. S¨arndal et al. (1992, p. 149) derivan la varianza de diseño del estimador ÿ en un
muestreo en tres etapas para un diseño de muestra general. Suponer que
U es la población de UPM; UIIi es la población de SSU dentro de las PSU
i; Uij es la población de elementos dentro de PSU/SSU ij; ÿIi es la selección
probabilidad de PSU i en la primera etapa; ÿIII es la probabilidad de selección conjunta
de las fuentes de alimentación i e i ; ÿIIj|i es la probabilidad de selección condicional de SSU j dada
que se selecciona PSU i; ÿIIjj i es la probabilidad condicional conjunta de que las SSU j
y j se seleccionan dentro de la PSU i; ÿk|ij es la probabilidad de selección condicional
del elemento k dentro de PSU/SSU ij; y ÿkk ij es la probabilidad de selección conjunta
de los elementos k y k dentro de PSU/SSU ij. La varianza del estimador ÿ es
entonces V t ˆÿ = VPSU + VSSU + VTSU donde
ti ti
VPSU = iÿU yo ÿU ÿiii siendo ti la población total de la
ÿIi ÿii
variable de análisis para PSU i y ÿIii = ÿIii ÿ ÿIiÿIi
tij tij
|i = ÿIIjjVIIi/ÿIi
VSSU = ÿIIjj |i ÿIIjj iÿU |i ÿ ÿIIj|icon
ÿIIj |i VIIi
, = jÿUi j ÿUi ,
ÿIIj |i ÿIIj |i
siendo tij la población total para
PSU/SUU ij
Una
vij si si
VTSU = iÿU con Vij= kÿUij k ÿUijÿIIkk |ij
,
ÿIi UIIi ÿIIj|i ÿk|ij ÿk |ij
ÿIIkk |ij = ÿkk |ij ÿ ÿk| ij ÿk | ij
(a) Especialice esta fórmula para el caso de muestreo aleatorio simple en cada
escenario. En particular, suponga que se seleccionan m PSU de M usando
Srta. En PSU, supongo que ni SSU se seleccionan de Ni en PSU i
y que los elementos qij se seleccionan de Qij en PSU/SSU ij. es decir, mostrar
que
2
VPSU =
Mÿm M2 S2 con S2 = (ti ÿ t ¯U ) (M ÿ 1) donde
METRO metro U1 U1 iÿU
t ¯U = iÿU ti M
N2 ni-ni 2
VSSU = la
METRO
S2U2i con S2 Es = Una
es
miÿU no Ni U2i Niÿ1 jÿUi ( tij ÿ t ¯Ui)
varianza unitaria de los totales de SSU en PSU i con tij = el total de la población siendo kÿUij yk
para PSU/SSU ij, t ¯Ui = total por SSU en PSU i jÿUi tij Ni es el promedio
METRO
Ni Q2yo Qijÿqij
VTSU = S2
miÿU ni jÿUi qij 2 U3ij
qij
con S2 = Una
(b) Demuestre que, si ni = ¯n y qij = q ¯¯, es decir, el mismo número de SSU de muestra es
seleccionado de cada fuente de alimentación de muestra, se selecciona el mismo número de elementos de muestra.
Machine Translated by Google
t2
tu
metro Minnesota Minnesota
(a) Demuestre que el número de elementos de muestra por PSU que minimiza el
la revarianza es
C1 W2 . C1 1-ÿ
n¯opt = = .
C2 B2 C2 d
CÿC0
(b) Use la restricción de costo total para mostrar que mopt = C1+C2n¯opt . (Sugerencia: use un
9.14. Considere la situación en una muestra de dos etapas donde la muestra de PSU es
fijado.
9.15. (a) En una muestra de tres etapas donde el conjunto de PSU es fijo, demuestre que si
el presupuesto es fijo o se establece un CV objetivo, el número óptimo de
¯¯
elementos a muestrear es q = 1ÿÿ2 C2
C3 .
ÿ2
(b) Si el presupuesto es fijo, demuestre que el número óptimo de SSU por
PSU es ¯n = C
¯¯ con C = mÿ1 (C ÿ C0) ÿ C1 = C2n¯ + C3n¯ q ¯¯.
C2+C3q
(c) Si se establece un coeficiente objetivo de CV0, entonces el número de SSU es
ÿ1
n¯ = Una
CV 02 ÿ ÿ1 .
q¯¯ [1 + ÿ2 (q ¯¯ÿ 1)] metro V~
9.16. En una población agrupada, considere este modelo con media común y
efectos aleatorios para grupos y elementos:
yk = ÿ + ÿi + ÿik , k ÿ Ui,
(ykÿy¯U i)2
y S2 kÿUi =
U2i Niÿ1 como para el muestreo aleatorio simple de elementos dentro
grupos
de muestras. Otros términos se definen en las Seccs. 9.2.1 y 9.2.2.
EM S2 U2 = ÿ2 ÿ,
donde N¯ = iÿUNi M es el número promedio de elementos por grupo, (M ÿ 1), y se supone que
2
S2norte = iÿU Ni -N¯ M es grande.
. 2
U1ÿ + ÿ2 EM W2 . = ÿ2ÿ , EM B2 .
(b) Si Ni = N¯, entonces EM S2 = N¯ 2ÿ2 = N¯ 2ÿ2 ÿ + ÿ2
ÿ (Nÿ) ,
ÿ2, y que ÿ
ÿ2ÿ + ÿ2 ÿ NORTE
. ÿ2ÿ
EM (ÿ). = = .
2 ÿ2ÿ + ÿ2
ÿ2ÿ + ÿ2 ÿ 1+1N¯ ÿ
9.17. En una población en la que el muestreo en tres etapas sea adecuado, considere este
modelo con una media común y efectos aleatorios para las UPM, las UME y los elementos:
ÿ2ÿ
EM (ÿ1) . = ,
ÿ2ÿ + +ÿ2ÿ2ÿ ÿ
ÿ2
ÿ
EM (ÿ2) . = .
ÿ2 + ÿ2ÿ
ÿ
Capítulo 10
Muestreo de área
El muestreo por áreas es un término general para un conjunto de procedimientos en los que
las áreas geográficas se seleccionan como unidades intermedias en el camino hacia el
muestreo de unidades de nivel inferior que son los objetivos de una encuesta. El muestreo por
áreas es solo un ejemplo de muestreo en etapas múltiples, pero debido a que se utilizan
fuentes de datos y métodos especiales, le dedicamos un capítulo aparte. Los cálculos para
determinar las asignaciones de la muestra a las diferentes etapas son los mismos que se tratan en el Cap. 9.
Hay varias razones por las que se utiliza el muestreo multietápico. Una es que la agrupación
puede reducir los costos si se necesita una lista de campo o si se realizan entrevistas en
persona. Tener las unidades de muestra agrupadas en áreas geográficas relativamente
pequeñas permite contratar recolectores de datos en un número limitado de áreas y reduce
los costos de viaje. Otra razón es que es posible que no esté disponible una lista completa de
las unidades objetivo de la encuesta. Al muestrear áreas pequeñas, se puede compilar una
lista en el campo y usarla para el muestreo. En algunas encuestas, como muestras escolares,
es posible que se deba obtener permiso de una unidad administrativa de alto nivel, como un
distrito escolar, para recopilar datos. En ese caso, el muestreo de distritos es una forma de
limitar el número de unidades organizativas con las que se debe negociar. Una aplicación
importante del muestreo por áreas es en las encuestas de hogares, donde los datos se
recopilan mediante entrevistas personales. En los EE. UU., ni el gobierno ni las organizaciones
privadas mantienen una lista completa de personas y hogares. Incluso si estuviera disponible,
una muestra no agrupada sería extremadamente ineficiente para entrevistas personales
debido a que el área del país es muy grande. El muestreo de área ciertamente no se limita al
muestreo de hogares. Otras poblaciones objetivo donde el muestreo de área puede ser
eficiente son establecimientos comerciales, escuelas, cuerpos de agua y similares, cualquier
población que requiera que se recolecten datos donde las unidades están ubicadas físicamente.
Muchas encuestas de etapas múltiples, incluido uno de nuestros estudios de ejemplo, están
diseñadas para cumplir con el tamaño de la muestra y otros criterios para varios dominios
simultáneamente dentro de la etapa más baja de muestreo. A diferencia de un stsrs donde los
estratos se pueden diseñar para reflejar los dominios, las encuestas de etapas múltiples a veces se
basan en el muestreo pps con medidas de tamaño compuestas para lograr los objetivos de diseño
mientras se mantienen los costos bajo control (Sección 10.5).
Finalmente, el muestreo de área tiene muchos beneficios y algunos inconvenientes. Por
ejemplo, es importante contar con información oportuna y precisa sobre la población antes de
seleccionar la muestra multietapa. Sin embargo, la migración y/o el tiempo transcurrido desde el
último censo introducen diferencias entre los datos del marco o estimaciones y lo que se puede
encontrar “en el campo”. Las técnicas implementadas para abordar estos cambios de población se
analizan en la Secc. 10.6. Otro rasgo menos que deseable para las muestras de área es la cantidad
de tiempo y fondos necesarios para desarrollar y seleccionar unidades en las etapas inferiores de
muestreo. Se revisa un tipo relativamente nuevo de metodología de muestreo, conocido como
muestreo basado en direcciones (ABS), como remedio para las encuestas con recursos limitados
(Sección 10.7).
La Oficina del Censo de EE. UU. utiliza varias capas de áreas geográficas para sus operaciones de
encuesta. Estos también son de uso común por parte de organizaciones de encuestas privadas.
Las áreas consisten en divisiones administrativas existentes y otras unidades construidas para uso
estadístico. La Figura 10.1 muestra la jerarquía de las áreas.
Desde el más grande hasta el más pequeño en términos de tamaño de población y área
geográfica, la jerarquía de áreas es estado, área metropolitana, condado, sector censal, grupo de
bloque y bloque. En algunas partes de los EE. UU., se utilizan términos distintos de condado, como
parroquia o división civil menor, para denotar diccionarios de jurisprudencia del gobierno local que
son equivalentes a condados, pero no es necesario que nos preocupemos por eso aquí.
Machine Translated by Google
REGIONES
Areas urbanas
Áreas de tabulación de código postal DIVISIONES
Áreas estadísticas básicas
Distritos escolares ESTADOS
Distritos del Congreso Áreas de Crecimiento Urbano
condados
Distritos legislativos estatales
Sectores censales
Grupos de bloques
Bloques censales
Higo. 10.1: Jerarquía geográfica de unidades definida por la Oficina del Censo de EE. UU. Ver EE . UU.
Oficina del Censo (2011).
Una
http://www.census.gov/population/www/metroareas/metrodef.html.
Machine Translated by Google
Áreas estadísticas micropolitanas: un área que contiene uno o más grupos urbanos de al
menos 10,000 pero menos de 50,000 habitantes, más el territorio adyacente.
Hay 3,141 condados en los EE. UU., un mapa de los cuales para todo EE. UU. se puede
encontrar en
ftp2.census.gov/geo/maps/general_ref/us_base/
stco2003/stco2003.pdf.
Los mapas de coropletas de EE. UU. con condados marcados por porcentaje de población en
pobreza e ingreso familiar promedio en 2008 se encuentran en www.census.gov/did/www/saipe/
data/statecounty/maps/2008.html.
Las secciones censales, las manzanas y los grupos de manzanas son las unidades que se
utilizan con mayor frecuencia en el muestreo dentro de las unidades primarias de muestreo
(PSU) para las encuestas de hogares. Los distritos son pequeñas subdivisiones estadísticas de
un condado o entidad equivalente. Los distritos generalmente tienen entre 1500 y 8000
personas, con un tamaño deseado de 4000 personas. Los condados y entidades equivalentes
con menos de 1500 habitantes tienen un solo distrito censal. Los tratados no cruzan las
fronteras estatales. El primer censo decenal en el que todo Estados Unidos estuvo cubierto por
tramos censales fue en 2000.
Los bloques censales son áreas limitadas por todos lados por características visibles, como
calles, carreteras, arroyos y vías férreas, y por límites invisibles, como límites de ciudades,
pueblos, municipios y condados, límites de propiedad y extensiones cortas e imaginarias de
calles y caminos. Los bloques suelen tener un área pequeña, pero en áreas escasamente
pobladas pueden contener muchas millas cuadradas de territorio. A todo el territorio de los 50
Estados Unidos, el Distrito de Columbia, Puerto Rico y las Áreas Insulares gobernadas por los
Estados Unidos se le han asignado números de bloque.
Un grupo de bloques (BG) es un grupo de bloques censales. Los BG generalmente contienen
entre 600 y 3000 personas, con un tamaño objetivo de 1500 personas. Los BG en reservaciones
de indios americanos, tierras en fideicomiso fuera de reservaciones y lugares especiales deben
contener un mínimo de 300 personas. Los lugares especiales incluyen instituciones
correccionales, instalaciones militares, campus universitarios, dormitorios de trabajadores,
hospitales, hogares de ancianos y hogares grupales. Estos lugares especiales también se
denominan alojamientos de grupo. Por lo general, hay tres BG por tracto. Los recuentos de las
distintas áreas para el censo de 2010 fueron:
Machine Translated by Google
10.2 Datos del Censo y Datos de la Encuesta sobre la Comunidad Estadounidense 261
condados 3.141
Sectores censales 74.002
Grupos de bloques 217.740
bloques 11.078.297
Los conteos por estado del número de distritos, grupos de bloques y bloques usados en el Censo del 2000 se
pueden encontrar en www.census.gov/geo/www/2010census/.
El número de condados y otras divisiones administrativas por estado se encuentran en www.census.gov/geo/
www/tallies/ctytally.html. Los archivos de límites para áreas están disponibles en www.census.gov/geo/www/
cob/index.html en lo que se conoce como la base de datos TIGER (codificación y referencia geográfica
integrada topológicamente). Estos son una colección de archivos de bases de datos cartográficas que están
disponibles para el público y se utilizan en una variedad de productos comerciales de sistemas de información
geográfica (GIS) o software de mapeo. Los archivos de límites definen áreas geográficas usando polígonos
con lados basados en coordenadas de longitud y latitud.
En los EE. UU., la información demográfica extensa se ha recopilado tradicionalmente en una muestra grande
de personas como parte de cada censo decenal. En el censo de 2000, aproximadamente una sexta parte de la
población que vive en los EE. UU. recibió un “formulario largo”. Desde entonces, la muestra de formato largo
ha sido reemplazada por la ACS, que recopila esta misma información en una muestra actualizada
continuamente (www.census.gov/acs/www/). El Censo de 2010 recopiló lo siguiente:
Los conteos de personas para cada bloque en los EE. UU. están disponibles en el censo de 2010.
Además, los recuentos a nivel de bloque estarán disponibles para todas las características enumeradas
anteriormente.
En la ACS, se hacen preguntas detalladas sobre el estatus socioeconómico de cada persona y las
características de la unidad de vivienda, que incluyen:
Machine Translated by Google
Años Ingreso
Lugar de nacimiento lengua hablada en casa
Ciudadanía Estado civil
El mas alto nivel de educación Número de habitaciones en la vivienda
unidad
Las muestras multietapa pueden usar PSU, unidades de muestreo secundarias (SSU) y, en
algunos casos, unidades en etapas posteriores. En las muestras de área, las dos primeras etapas son
áreas geográficas con SSU anidadas dentro de PSU. Unidades en el tercero o posterior
Las etapas suelen ser hogares o personas.
Machine Translated by Google
Las UPM en muestras de área son áreas geográficas que colectivamente cubren toda el área
dentro del alcance de una encuesta. Las UPM se utilizan como primera etapa del muestreo en
una muestra probabilística de área. Las UPM generalmente se estratifican por geografía para
garantizar la representación de regiones u otros tipos de subáreas. El número de UPM de
muestra puede basarse en cálculos aproximados de optimización para tener en cuenta las
contribuciones de las varianzas entre las UPM a estimadores simples (como el estimador ÿ),
como se describe en el Cap. 9. A la inversa, se pueden utilizar reglas empíricas; 100 PSU es
un tamaño de muestra común, pero algunas encuestas como la encuesta de población actual
(CPS; la encuesta de la fuerza laboral de EE. UU.) utilizan cientos de PSU de muestra.
El número se ve afectado principalmente por si se necesitan estimaciones subnacionales, como
áreas regionales o locales. La muestra generalmente se asigna a estratos que dan cuenta del
deseo de hacer estimaciones regionales. Las muestras de PSU a menudo se usan durante
largos períodos de tiempo, por ejemplo, diez años entre censos decenales, y para muchas
encuestas diferentes.
Hay algunas reglas generales que son útiles al definir las UPM para el marco de muestreo de
áreas. Estos se utilizan en muchas encuestas de hogares, como CPS; otros tipos de encuestas
pueden usar reglas diferentes:
1. Las PSU están contenidas dentro de los límites estatales. Esto facilita las tabulaciones
por estado
2. Cada PSU es un condado o grupo de condados, excepto en Nueva Inglaterra
estados donde se utilizan otras áreas equivalentes.
3. A veces, las MSA se definen como PSU separadas. Se pueden hacer excepciones a esta
regla porque algunos MSA son demasiado grandes para ser eficientes para el trabajo de
campo y/o podrían resultar en ser seleccionados varias veces con algunos métodos de
muestreo.
4. El área de una PSU no debe exceder un área máxima (por ejemplo, 3000 millas cuadradas
o aproximadamente 7770 kilómetros cuadrados en CPS). Esto ayuda a limitar la distancia
que deben viajar los entrevistadores.
5. La población de PSU debe ser superior a un mínimo (p. ej., 7500 en CPS) siempre que no
se infrinja la regla 4. La idea es permitir que la muestra sea lo suficientemente grande para
proporcionar una carga de trabajo razonable para los entrevistadores, así como el cálculo
de estimaciones eficientes dentro de la UPM. Por ejemplo, una UPM con un pequeño
número de miembros de la muestra puede requerir que todos sean seleccionados para la
encuesta, introduciendo ponderaciones desiguales en el diseño, así como estimaciones
potencialmente inestables si no se logra el 100 % de respuesta.
Otra consideración puede ser apoyar una encuesta longitudinal donde las personas están
en la encuesta durante un número determinado de olas y luego se rotan
Machine Translated by Google
fuera y reemplazado por otras personas de la muestra. Es posible que una fuente de alimentación
demasiado pequeña no permita realizar el número deseado de rotaciones.
6. Evite la longitud extrema. Al igual que la regla 4, esto está diseñado para limitar los viajes en las
encuestas realizadas por entrevista personal. Por ejemplo, las PSU diseñadas para tener una
distancia aproximadamente cuadrada (p. ej., 50 kilómetros cuadrados) son más rentables que los
grupos excesivamente rectangulares del mismo tamaño (p. ej., 5 km por 500 km).
La Regla 3 es una que se ha vuelto menos beneficiosa con el tiempo en los EE. UU. debido a las
grandes áreas geográficas cubiertas por algunas MSA. El MSA de Washington Baltimore es un caso
en el que el área es extremadamente grande, con unas 150 millas (240 km) desde la esquina noroeste
hasta la esquina sureste. La Figura 10.2 es un mapa de este MSA. Cubrir toda la MSA en automóvil
implicaría mucho manejo por parte de un trabajador de campo que realiza entrevistas personales en
áreas que pueden estar extremadamente congestionadas por el tráfico. Si las áreas metropolitanas
no son de interés para los objetivos de la encuesta, no es necesario que se utilicen como UPM. Por
ejemplo, en la encuesta de consumo de energía de edificios comerciales (CBECS), realizada por el
Departamento de Energía de EE. UU., los condados son PSU sin tener en cuenta las definiciones de
MSA.3 Las zonas climáticas son más importantes para definir las PSU y los estratos en esa encuesta.
Las SSU son unidades seleccionadas primero dentro de cada PSU de muestra. Estas también son
áreas geográficas, pero son mucho más pequeñas que la PSU típica. Las SSU pueden ser extensiones,
grupos de bloques o áreas de código postal (entrega postal). Las áreas de códigos postales no se
usan a menudo para el muestreo de hogares en los EE. UU. porque las estadísticas y los mapas están
fácilmente disponibles para distritos y BG. Sin embargo, los códigos postales pueden ser útiles para
el muestreo de establecimientos si son las áreas más pequeñas para las que hay datos comerciales
disponibles. En ese caso, los datos del código postal se pueden utilizar para asignar medidas de
tamaño a las áreas.
Algunas encuestas de área a gran escala incluyen hasta cinco etapas de muestreo. Por ejemplo,
la Encuesta Nacional de Hogares sobre Uso de Drogas y Salud (NSDUH), discutida con más detalle
en la Secc. 10.4.2, tiene un total de cuatro muestreo
2
http://www.bls.gov/cpi/. http://
3
www.eia.gov/emeu/cbecs/.
Machine Translated by Google
marco muestral y nuevamente para aislar el hogar elegido para la encuesta. La información
recopilada incluye la ubicación física (p. ej., dirección de la calle, cruce de calles y una
descripción de la casa en lugar de una dirección física; ubicación en la propiedad de otra
dirección; coordenadas GPS) y otros paradatos (p. ej., identificación de juguetes o equipos
asociados con niños pequeños; probabilidad de que una casa esté actualmente ocupada;
graffiti y basura en el vecindario como predictor de cooperación en la encuesta). A los
enumeradores se les puede proporcionar una lista parcial de direcciones de una encuesta
anterior o de registros administrativos; a todos se les da un punto de partida en el mapa de
segmentos que muestra los límites del área, así como la dirección en la que debe viajar el
registrador para registrar las unidades de vivienda.
Para comprender mejor cómo se implementan en la práctica las muestras de área, resumimos
los diseños de algunas de las principales encuestas de hogares en EE. UU. y Alemania.
Estos diseños tienen similitudes, pero cada uno tiene algunos objetivos y características únicos.
4
La NCVS es realizada por la Oficina de Estadísticas de Justicia del Departamento de EE. UU.
de Justicia. http://bjs.ojp.usdoj.gov/index.cfm?ty=dcdetail&iid=245.
5
No se pueden muestrear personas de hogares con características comunes para que los fondos
del estudio puedan usarse para sobremuestrear hogares con características más raras (p. ej.,
hogares con niños o de una determinada raza/etnicidad minoritaria).
Machine Translated by Google
La CPS es la encuesta de la fuerza laboral de EE. UU. y es la principal fuente de datos para
estimar diversas tasas de desempleo y características de la fuerza laboral.6 Los detalles de
la metodología de la encuesta se encuentran en la Oficina del Censo de EE . UU . (2006). La
encuesta es pagada por la Oficina de Estadísticas Laborales y la muestra es seleccionada y
los datos recopilados por la Oficina del Censo. La población objetivo es la población civil no
institucionalizada de 16 años o más que reside dentro de los 50 estados y el Distrito de
Columbia. La encuesta está diseñada para producir estimaciones nacionales y estatales, y
también estimaciones subestatales en California (Los Ángeles y el resto del estado) y en el
estado de Nueva York (Ciudad de Nueva York y el resto del estado).
La Oficina del Censo mantiene un archivo maestro de direcciones (MAF) que intenta
cubrir todas las HU en los EE. UU. En la práctica, es imposible tener una lista completamente
actualizada, pero el MAF está más cerca de la actualidad que cualquier otra lista, incluida la
mencionada DSF. El MAF no está disponible para ninguna organización privada de encuestas
ni para otras agencias gubernamentales, a menos que la propia Oficina del Censo realice el
muestreo y la recopilación de datos. Tener el MAF le da al CPS ya otras encuestas realizadas
por el Censo algunas opciones que no están disponibles para otras organizaciones de
encuestas.
Usando el MAF, se hacen esfuerzos para coordinar el muestreo de CPS con otras nueve
encuestas realizadas por el Censo; véase Oficina del Censo de EE . UU. (2006, págs. 3–7).
El objetivo es evitar que se seleccionen hogares para múltiples encuestas, lo que aumentaría
la carga y probablemente disminuiría las tasas de respuesta. La muestra completa de UME
durante una década se selecciona a la vez. Esto hace que la selección de muestras sea más
especializada que para muchas muestras de área.
Los objetivos de precisión de la encuesta son alcanzar un CV del 1,9 % sobre la tasa de
desempleo mensual nacional, suponiendo que la tasa sea del 6 %. Además, una diferencia
de 0,2 puntos porcentuales en la tasa nacional de desempleo en dos meses consecutivos
debería ser significativa al nivel de 0,10. La meta para cada área estatal y subestatal y el
Distrito de Columbia es tener un CV del 8 % en las estimaciones de la tasa de desempleo
anual promedio, suponiendo que la tasa sea del 6 %.
El tamaño total de la muestra nacional es de unas 72.000 unidades de vivienda (UD), aunque
este número puede fluctuar según el presupuesto asignado a la encuesta.
Se seleccionan muestras independientes para cada área estatal y subestatal para las cuales
se realizan estimaciones separadas. En la primera etapa, se seleccionan 824 PSU, que son
MSA o combinaciones de condados en áreas que no son MSA. El diseño tiene 446 PSU de
certeza y 378 de no certeza. Una PSU de cada no certeza
6
http://www.census.gov/cps/.
Machine Translated by Google
el estrato se selecciona con probabilidad proporcional al conteo de población del censo más
reciente.
En la segunda etapa, la SSU es un grupo de cuatro HU adyacentes. (Los grupos de HU o
grupos de bloques geográficos a veces se denominan segmento).
Observe que un grupo de cuatro HU es mucho más pequeño que los grupos de bloques o bloques
mencionados anteriormente. El muestreo directo de una SSU tan pequeña depende de que el
censo tenga el MAF. Dado que no se realizan más submuestreos, la SSU también puede
considerarse la USU en la mayoría de las PSU. Hay algunas excepciones a esto. En los casos en
que las direcciones “no son reconocibles sobre el terreno”, se utiliza el muestreo de área para
seleccionar las USU. Luego, a veces se usa una tercera etapa si una SSU es grande en área o
número de hogares. Esta tercera etapa se utiliza principalmente en las zonas rurales. Las
entrevistas se realizan con todos los miembros del hogar que tienen al menos 15 años de edad.
El CPS también usa una muestra de permiso de construcción dentro de las PSU de muestra
para cubrir las viviendas construidas después de compilar la lista de direcciones. El método
utilizado para compilar el marco del permiso es similar a la opción 1 en la Secc. 10.6.
Las PSU se forman usando las reglas de la Secc. 10.3 con algunas adaptaciones específicas de
CPS. Las MSA se utilizan para las PSU, excepto que las PSU no cruzan las fronteras estatales.
Cuando una MSA cruza los límites estatales, lo cual es común en la parte este de los EE. UU., la
MSA se divide en dos o más PSU. El tamaño mínimo de población de una PSU es de 7500,
excepto cuando esto requiera crear una PSU con un área de 3000 millas cuadradas. Después del
censo de 2000, se crearon un total de 2025 PSU de los 3141 condados.
Las UPM están estratificadas dentro del estado. Las variables clave utilizadas para la estratificación
son el número de hombres desempleados, el número de mujeres desempleadas, el número de
familias con una mujer como cabeza de familia y la proporción de unidades de vivienda ocupadas
con tres o más personas, de todas las edades, respecto al total de unidades de vivienda ocupadas.
Los estratos se crean para contener UPM que son similares entre sí en estas variables, utilizando
un algoritmo de agrupamiento. Cualquier PSU que forme parte de las 151 áreas metropolitanas
más grandes es una certeza. Esto, junto con el requisito de CV para las estimaciones estatales,
lleva a que nueve estados completos sean PSU de certeza. Estos son geográficamente pequeños
pero densamente poblados: Connecticut, Delaware, Hawaii, Massachusetts, New Hampshire, New
Jersey, Rhode Island, Vermont y el Distrito de Columbia.
Los estratos de UPM que no se representan a sí mismas se forman para tener aproximadamente
la misma población total. Se selecciona una UPM de cada estrato con probabilidad proporcional a
la población total. Cada fuente de alimentación está construida para suministrar una
Machine Translated by Google
muestra de 35–55 HU, que es lo suficientemente grande como para ser una carga de trabajo para un
recopilador de datos.
Selección de USU
El marco para seleccionar USU en cada PSU tiene cuatro partes: (1) el marco de la lista de direcciones de la
unidad de vivienda (HU) que es el MAF, (2) un marco de área, que se usa cuando una dirección del censo no
se puede usar para ubicar una HU , (3) un marco de alojamiento de grupo (GQ) y (4) un marco de permiso de
construcción. Para las operaciones de levantamiento, las HU y los alojamientos de grupo se definen como:
• Unidades de vivienda (HU): un grupo de habitaciones o una habitación individual ocupada como vivienda
separada (o destinada a serlo). Alrededor del 98% de la población estadounidense enumerada en un
censo reside en una HU; el resto está en alojamientos grupales o no tienen hogar.
• Alojamientos grupales (GQ): los residentes comparten instalaciones comunes o reciben atención formalmente
autorizada. Ejemplos de alojamientos para grupos son los dormitorios universitarios, los asilos de
ancianos, los asilos de ancianos y las comunas. Dado que CPS cubre solo a la población no
institucionalizada, los alojamientos grupales institucionales, como prisiones e instalaciones militares, no
están dentro del alcance.
Los GQ militares e institucionales se dejan en el marco en caso de que se conviertan en una unidad dentro
del alcance antes de la entrevista.
Como un breve aparte, tenga en cuenta que algunas encuestas el término unidad de vivienda (DU)
también se utiliza para referirse a la unidad de vivienda (HU). Muchas veces, un marco de USU tendrá
unidades que resultarán ser más de una DU o HU. Por ejemplo, la casa en 104 Cherry Street en realidad
puede contener una familia en el primer piso y un inquilino en un apartamento en el sótano. La mayoría de las
encuestas clasificaría que se trata de dos UC, aunque el marco muestral lo mostrara como uno solo. Por esta
razón, algunas organizaciones se refieren a las listas de direcciones en el marco como líneas en lugar de HU
o DU porque su estado no se determina por completo hasta el momento de la entrevista. Una vez que se
determina el estado de la línea, a menudo se utiliza el muestreo de selección y multifase para apuntar a
ciertos grupos demográficos, tipos de establecimientos o edificios, como se describe en el Cap. 17
La muestra de HU está diseñada para superponerse entre períodos de tiempo. Los datos se recopilan
mensualmente. Una HU está en la muestra durante cuatro meses, está fuera de la muestra durante los
siguientes ocho meses y luego vuelve a estar en la muestra durante otros cuatro meses. Las HU se rotan de
tal manera que 3/4 de las HU se superponen entre meses consecutivos; La mitad de las HU se superponen
entre muestras con 12 meses de diferencia. La superposición mensual ayuda a estimar el cambio mensual,
mientras que la superposición entre muestras separadas por 12 meses reduce la varianza para una estimación
del cambio anual. Muchos países utilizan alguna forma de muestreo superpuesto en sus encuestas de
población activa. El patrón 4-8-4 en el CPS es solo una de muchas posibilidades. Canadá, por ejemplo,
retiene las HU durante seis meses y
Machine Translated by Google
luego los gira hacia afuera. Esto lleva a que no haya superposición entre las muestras.
12 meses de diferencia.
Las unidades de vivienda y las USU se seleccionan para que se auto ponderen dentro de un estado.
Es decir, cada HU tiene la misma probabilidad de selección. Por lo tanto, no hay un muestreo diferencial
dentro de los dominios (p. ej., género) definidos dentro de cada estado.
Aunque se publican estimaciones para dominios, el diseño de la muestra no
controlar directamente los tamaños de muestra del dominio.
Otra gran encuesta de hogares que tiene algunas características diferentes de la CPS
es la Encuesta Nacional sobre Uso de Drogas y Salud (NSDUH) en los EE. UU. patrocinada por la
Administración de Servicios de Salud Mental y Abuso de Sustancias
y recopilados por RTI International.7 Una descripción detallada del diseño de la muestra de 2006 se
encuentra en Morton et al. (2006). La muestra se selecciona en cuatro etapas.
y publica estimaciones para una variedad de dominios demográficos. El objetivo
población es la población civil no institucionalizada de 12 años o más
mayores que residen dentro de los 50 estados y el Distrito de Columbia. La encuesta también cubre a los
residentes de alojamientos grupales no institucionales (p. ej., albergues para
personas sin hogar, casas de huéspedes, dormitorios y hogares grupales) y civiles
residentes en bases militares.
El tamaño total de la muestra objetivo de 67 500 personas se distribuye equitativamente entre
tres grupos de edad: personas de 12 a 17 años, de 18 a 25 años y de 26 años o más. El gran tamaño de
la muestra permite que la encuesta obtenga suficientes casos en otros grupos demográficos importantes.
grupos para hacer estimaciones nacionales separadas sin sobremuestrearlos. También se hacen
estimaciones separadas para cada estado.
En la primera etapa del diseño, cada estado se maneja por separado y, por lo tanto,
puede ser considerado un estrato. Las UPM en cada estado fueron secciones censales.
Las UPM se estratificaron dentro de cada estado. Muestreo estatal (SS)
se formaron las regiones. Con base en una medida de tamaño compuesto, los estados se dividieron
geográficamente en regiones que tenían aproximadamente la misma población total.
El uso de una medida compuesta de tamaño (MOS) es una técnica interesante que
cubriremos con más profundidad en la Secc. 10.5. El efecto de usar el compuesto.
MOS fue que se podrían formar regiones de modo que cada área produjera, como expectativa,
aproximadamente el mismo número de entrevistas durante cada período de recopilación de datos.
Los estados más pequeños se dividieron en 12 regiones SS, mientras que los ocho más grandes
Los estados se dividieron en 48 regiones SS. Se formaron un total de 900 regiones SS.
en todos los estados.
En algunos casos, se combinaron pequeñas secciones censales para obtener un mínimo
número de unidades de vivienda (UD). En las zonas urbanas el mínimo fue de 150 UD;
en las zonas rurales fue de 100. Dentro de cada región de la SS se seleccionaron 48 UPM
7 http://oas.samhsa.gov/nsduh.htm.
Machine Translated by Google
con probabilidad proporcional al MOS compuesto, dando un total de 43,200 PSU. Por lo
tanto, alrededor de dos tercios de los distritos en los EE. UU. están en la muestra.
Las 48 SSU en cada estado se asignaron al azar a seis grupos de rotación de cuatro para
usar como SSU de muestra primaria, mientras que las otras 24 eran una muestra de reserva
que se usaría si fuera necesario para compensar la falta de respuesta. Las 24 SSU
primarias se asignaron a años y trimestres calendario utilizando un plan de rotación simple
que se muestra en la Fig. 10.3. Las submuestras 1 y 2 se asignaron al año 1 para la
recopilación de datos. La submuestra 1 se rotó en el año 2; se retuvo la submuestra 2 y se
rotó la submuestra 3 para el año 2; y así. Otras encuestas como la CPS usan planes de
rotación más elaborados, pero la Fig. 10.3 transmite la idea principal detrás de la rotación.
Mirando hacia abajo en una columna para un año determinado, la combinación de
submuestras en todos los estados para ese año debe representar a la nación. Por ejemplo,
en el año 4, se pueden hacer estimaciones para cada estado a partir de las submuestras 4
y 5, y se puede usar la combinación de las submuestras 4 y 5 en todos los estados para
estimar las estadísticas nacionales.
Las SSU (o segmentos) en el diseño son grupos de bloques agregados para cumplir
con los mismos tamaños mínimos de UD que para las PSU, es decir, 150 UD en áreas
urbanas y 100 en áreas rurales. Se seleccionó una SSU con pps en cada PSU de muestra.
El MOS para cada SSU es un MOS compuesto basado en datos del censo de 2000
ajustados a datos más recientes de un proveedor comercial.
La tercera etapa consiste en seleccionar una muestra de igual probabilidad de DU
dentro de cada SSU de muestra. En la mayoría de las UME, el personal de campo enumeró
todas las DU y se seleccionó una muestra de la lista. Como se indica en la Secc. 10.1, un
tratado contiene un objetivo de unas 4000 personas, pero puede tener hasta 8000. Para
extensiones grandes donde no era económico enumerar todos los DU, se hizo un conteo
aproximado de DU en las calles de una extensión. El personal de la oficina central luego
dividió la SSU en dos o más partes y se seleccionó una para la lista completa. La cuarta
etapa de selección fue de personas dentro de una muestra de UH. El entrevistador
construyó una lista de todas las personas elegibles en la HU, y las personas fueron
seleccionadas con diferentes tasas según su edad (12–17, 18–25 y 26 o más). Las tasas
de muestreo fueron preestablecidas por grupo de edad y estado. En un hogar determinado,
se seleccionaron 0, 1 o 2 personas utilizando tasas de muestreo predefinidas para cinco
grupos de edad dentro del estado establecido durante la fase de diseño del proyecto. La
información de la lista se ingresó directamente en un instrumento de selección electrónico,
que implementó automáticamente la cuarta etapa de selección basada en las tasas
estatales y de grupos de edad.
El Panel Arbeitsmarkt und soziale Sicherung (PASS) es una encuesta de población activa
en Alemania realizada por el Instituto para la Investigación del Empleo, un organismo federal
Machine Translated by Google
Higo. 10.3: Plan de rotación de las UCE en la Encuesta Nacional sobre Consumo de Drogas y Salud.
agencia.8 Sus objetivos son evaluar los efectos de varios programas de desempleo y asistencia
social. Los datos también permiten el examen de preguntas como (1) qué factores ayudan a
las personas a pasar de estar desempleados a tener un trabajo, (2) qué caminos llevan a las
personas al desempleo y (3) cómo la situación personal (por ejemplo, salud, finanzas) ,
integración en la sociedad) cambio para las personas que reciben tales beneficios.
PASS es una encuesta longitudinal de doble marco que proporciona un buen ejemplo del
uso de registros administrativos que están disponibles para el muestreo en algunos países
europeos. PASS combina una muestra de probabilidad de área con una muestra de
beneficiarios de beneficios de una base de datos administrativa. Se selecciona un total de 300
áreas de código postal (PSU) con probabilidad proporcional a la población.
Dentro de cada PSU de muestra, se seleccionan dos muestras paralelas: una de beneficiarios
de asistencia de una lista de registros administrativos y una segunda utilizando una lista de
direcciones que cubre a todas las personas. En cada PSU, una base de datos comercial de
direcciones proporciona el marco para la segunda muestra. La base de datos comercial es
comparable al Archivo de Secuencia de Entrega de EE. UU. mencionado más adelante en la Secc. 10.7.
Se utilizan varias fuentes para construir indicadores a nivel de edificios para el estado de
beneficiario, la movilidad residencial, los grupos de edad predominantes y el tipo de edificio.
Se agregan al menos cinco hogares para definir un edificio. Estos indicadores se añaden luego
al marco de direcciones.
De la lista de perceptores en cada UPM, se selecciona una muestra y se recopila
información para todo el hogar al que pertenece el perceptor. Del marco de direcciones se
selecciona una muestra, se determina el número de hogares en la dirección y se muestrea uno
de los hogares. Luego se recopila la información de todo el hogar.
Al ser una muestra de marco dual y longitudinal, PASS tiene algunos problemas de
ponderación especiales que no abordaremos aquí. Un problema es que el marco de la lista de
direcciones incluye los lugares donde viven los destinatarios. Por lo tanto, se debe tomar una
decisión sobre si se debe permitir que un destinatario ingrese la muestra a través de ambas
fuentes o solo a través de la muestra del destinatario. Además, PASS rastrea a las personas a
lo largo del tiempo para determinar cuánto tiempo permanecen en los programas de asistencia
y qué puede hacer que las personas se trasladen a uno de los programas. El seguimiento conduce a
8
http://fdz.iab.de/de/FDZ Datos individuales/PASS.aspx.
Machine Translated by Google
algunos problemas operativos difíciles ya que el 15 % o más de las personas pueden mudar
sus residencias en un año típico.
Como señalamos en la Secc. 10.4.2, la NSDUH utiliza un MOS compuesto tanto para PSU
como para SSU. Los propósitos del MOS compuesto son obtener:
Cuando se van a muestrear todos los elementos a la misma tasa, el cálculo para determinar
las tasas de muestreo dentro de la UPM es simple. Suponga que la tasa general deseada es
f y la probabilidad de selección de PSU i es ÿi. Para obtener una muestra autoponderada, la
tasa dentro de la UPM debe establecerse de modo que ÿiÿk|i = f donde k denota cualquier
elemento en la UPM. Esto implica que ÿk |i = f/ÿi. Por lo tanto, la frecuencia de muestreo
dentro de la UPM se ajusta según la probabilidad de selección de la UPM, pero el ajuste no
depende de la pertenencia al dominio.
La técnica de MOS compuesto refina esto para permitir que se seleccionen muestras
autoponderadas dentro de diferentes dominios mientras se obtiene el mismo tamaño de
muestra dentro de cada PSU en todos los dominios.
Tenga en cuenta que los dominios deben dividir la población objetivo en grupos
grupos exclusivos. Los grupos de edad utilizados en el tamaño compuesto de NSDUH de 2005
las medidas fueron de 12 a 17, de 18 a 25, de 26 a 34, de 35 a 49 y de 50 años o más, donde el
las personas dentro de las dos categorías más jóvenes fueron sobremuestreadas. el compuesto
MOS para PSU i se define como
D D
S+ = iÿU re=1 fdNi (d) = re=1 f.d. iÿU
ni (d).
Es decir, la suma de los MOS es igual al tamaño de muestra total deseado. A continuación, establezca
el tamaño de muestra deseado en PSU i y dominio d para ser
ni (d)
nÿi (d)=¯nfd . (10.2)
Si
Se requiere que la frecuencia de muestreo dentro de la UPM para las unidades en el dominio d sea
nÿ (d) =
Es
norte
ÿk|i (d) = fd. Por lo tanto, la tasa dentro de la UPM es una modificación de
ni(d) Si
la tasa global. Esto es posible siempre que fd ÿ Si/¯n para todas las fuentes de alimentación. Comprobación
si alguna PSU viola este requisito es un paso importante en la calidad
control (consulte el Capítulo 18 para obtener más detalles sobre los controles de calidad).
A continuación, podemos comprobar la carga de trabajo. Usando el hecho de que Si = d fdNi (d),
el número total esperado de unidades de muestra en la UPM i es
norte
Es decir, los tamaños de muestra de dominio dentro de la PSU se suman a la carga de trabajo deseada
en cada fuente de alimentación. La muestra para un dominio también es autoponderada en cada dominio.
Suponiendo que las UPM se seleccionan pp (Si), la probabilidad de selección general para
una unidad k en el dominio d es
Si nÿ (d) Si
norte
Es
= metro
ÿiÿk|i (d) = metro fd = fd,
S+ ni (d) S+ Si
Ejemplo 10.1 (Medidas compuestas de tamaño). Supongamos que el marco muestral tiene
10 fuentes de alimentación y que hay dos dominios. La tabla 10.1 enumera la población
Machine Translated by Google
recuentos de unidades por PSU y dominio. Queremos muestrear cuatro fuentes de alimentación y 45
unidades por muestra PSU. Las tasas de muestreo de dominio deseadas y los tamaños de muestra
se dan en la Tabla 10.2.
En un pequeño ejemplo como este, una hoja de cálculo es conveniente para hacer los cálculos. Por
ejemplo, el tamaño de muestra total esperado en el dominio 1 es 0.25*520 =
130. De (10.1), el MOS compuesto para PSU 1 es 50*0.25 + 50*0.10 = 17.5;
para PSU 6 es 70*0,25 + 40*0,10 = 21,5. La probabilidad de selección para PSU
1 es 4*17,5/180 = 0,389. La tasa de muestreo dentro de la PSU para unidades en la PSU 1
y el dominio 1 es 45*0.25/17.5 = 0.643 usando ÿk |i (d)=¯nfd/Si. Lo esperado
el tamaño de la muestra en la PSU 1 es 50*0,643 + 50*0,257 = 32,1 + 12,9 = 45, que es
la carga de trabajo deseada. Aunque la carga de trabajo a nivel de PSU es un número entero, tenga en cuenta
que los tamaños de muestra esperados en cada dominio no lo son. Por lo tanto, es importante
muestrear las unidades de dominio a las tasas especificadas, no muestreando un
número fijo de unidades basado en tamaños de muestra redondeados. También podemos comprobar
que la muestra para cada dominio será autoponderada. Tomando PSU 8 como un
Machine Translated by Google
Los cálculos anteriores son para una muestra de dos etapas: PSU seguidas de unidades
dentro de dominios. Si interponemos otras etapas de muestreo entre UPM y
unidades elementales, las probabilidades de selección siguen funcionando. El requisito
clave es que tanto las UPM como las subáreas deben seleccionarse con probabilidades
proporcional al MOS compuesto. Suponga que el diseño utiliza fuentes de alimentación,
SSUs, y elementos como etapas de selección. Definir:
Suponiendo que tanto las PSU como las SSU se muestrean pps utilizando compos Si+
Sij =
ite MOS, la probabilidad de selección de SSU ij es ÿiÿj|i = m norte
S++ Si+ Sij
d fdQ++ (d). Tenga en cuenta también que S++ = mnq ¯¯, el tamaño total de la muestra. A continuación, establezca
el número esperado para ser muestreado del dominio d en PSU/SSU ij para ser
qÿij (d) = qf¯¯ dQij (d) /Sij y la tasa de muestreo dentro de PSU/SSU ij para ser
ÿk|ij (d) = qf¯¯ d/Sij . La probabilidad de selección general es entonces
¯¯ ¯¯
Sij q mnq
ÿiÿj|i ÿk |ij (d) = mn fd = fd = fd
S++ Sij S++
de modo que se obtenga la tasa global deseada. Las cargas de trabajo por SSU y PSU
son
¯¯ Una
¯¯
qÿyo (d) = q fdQij (d) = q
d Sij d
y
¯¯ Una
¯¯
qÿyo (d) = q fdQij (d) = nq.
djÿsi jÿsi
Sij d
Es decir, la carga de trabajo es la misma en cada SSU y PSU. Tenga en cuenta que el
el recuento de población de elementos en SSU ij no tiene que ser distinto de cero en cada
Machine Translated by Google
dominio para que esto sea cierto. El SSU MOS Sij puede basarse solo en el subconjunto
de dominios que tienen elementos en el SSU.
Como en el caso del muestreo en dos etapas, los controles de calidad son importantes.
Por ejemplo, determine si:
1. qÿij (d) ÿ Qij (d) para cada SSU y dominio. Dado que qÿ yo (d) = qf¯¯ dQij (d)/Sij ,
esto es equivalente a fd ÿ Sij/q ¯¯. Tenga en cuenta que si Qij (d) = 0, yo (d)=0
entonces nÿ para que no se haga un intento de muestrear algo de la nada.
Pero, el álgebra bien puede resultar en un intento de muestrear más de un
dominio
¯¯
en una SSU de lo que la población puede soportar. 2. q 3. nq ÿ Qi+ en
cada ¯¯ÿPSU.
Qij en4.cada
ÿi, ÿj|i
SSU.y ÿk |ij son menores o iguales a 1.
1. Seleccione una muestra autoponderada para unidades en cada dominio, pero tenga
diferentes tasas de muestreo para los dominios.
2. Obtener una carga de trabajo constante en cada fuente de alimentación.
Suponga que el diseño de la muestra utiliza UPM, UME y elementos con UME como
etapas del muestreo. La notación aquí es la misma que la anterior. también usaremos
Uij (d) = el universo de elementos en el dominio d en SSU ij.
Para que la muestra sea autoponderada necesitamos ÿiÿj|i ÿk |ij (d) = fd, lo que
implica que ÿk |ij (d) = fd ÿiÿj|i . Esta tasa de muestreo condicional se puede utilizar
independientemente de cómo se seleccionen las SSU siempre que fd ÿ ÿiÿj|i para
cada PSU y segmento.
El tamaño de muestra esperado en PSU i, es decir, la carga de trabajo, es
fd .
djÿUi ÿj|ikÿUij (d) ÿk |ij (d) = djÿUi ÿj|ikÿUij (d) ÿiÿj|i
Machine Translated by Google
Para una carga de trabajo igual en cada PSU, necesitamos que sea igual a mn¯. El
tamaño de muestra esperado Si+/ÿi depende de la PSU i y, en general, no se puede convertir
en una constante. Insecto. 10.5.1, las matemáticas resultaron para tener la misma carga de
trabajo en cada PSU cuando las PSU se seleccionaron con pp (Si) porque ÿi = mSi/S+ y Si/
ÿi = S+/m, que es una constante. Sin embargo, la probabilidad de selección de la PSU no
tiene esta forma especial en todas las muestras.
La variación en la carga de trabajo dependerá de cuánto varía Si+/ÿi . En la práctica, es
deseable tener múltiplos enteros de alguna carga de trabajo mínima por PSU. Los tamaños
de muestra de la PSU pueden configurarse para tener suficiente carga de trabajo para 1, 2 o
3 entrevistadores. Por lo general, la carga de trabajo se configura para que sea lo
suficientemente grande para al menos dos entrevistadores. Tener solo un entrevistador es
arriesgado porque si ese entrevistador renuncia o no puede trabajar por alguna otra razón
(enfermedad, razones familiares, etc.), no hay respaldo. Se tendría que contratar y capacitar
a una nueva persona de reemplazo. Alternativamente, un entrevistador de otra área podría
viajar a la UPM para recopilar datos.
= S
Si + jÿUi ij .
Esta es la carga de trabajo esperada en la PSU i cuando los elementos se muestrean a una tasa fd/
ÿi. Si las SSU dentro de la PSU i se seleccionan con probabilidades proporcionales a S, entonces ÿj|
i = mS La Esto
opción
es 1autoponderado
es establecer laSi
yo ya
tasa
+. de
que muestreo
ÿiÿj|i
constante
ÿk |ij (d) en
porqueSSUfdij ÿiÿj|i
= ÿiÿj|i , ij para
= fd.que
La sea ÿkde
carga |ij (d) = fd ÿiÿj|i
trabajo no es.
Una segunda opción es establecer el tamaño de la muestra en SSU ij para que sea
nf¯ nf¯
nÿij d (d) = ÿiS ij d Nij (d) = Nij (d).
Sij
Suponiendo que se selecciona una muestra de igual probabilidad de los elementos en SSU
ij en el dominio d, la probabilidad de selección es entonces
Para que esto sea factible, debemos tener fd ÿ Sij/¯n. La muestra no logra la tasa de muestreo
general deseada en cada dominio porque
mS nf¯
ij =
Minnesota
Tenga en cuenta que la tasa de muestreo para las unidades en el dominio d es la misma en
cada SSU en la PSU i ya que (10.3) no depende de j. El problema es que S. =
yo+
re
fdNi (d) ÿi no es una constante en cada PSU. Sin embargo, la carga de trabajo es
re = 1
constante porque
mS ij
nf¯ .
djÿUi ÿj|ikÿUij (d) ÿk |ij (d) = djÿUi Si + d kÿUij (d) ÿiS ij
Para una muestra de PSU dada, hacer cálculos usando las dos opciones le permitirá sopesar
las alternativas.
Ejemplo 10.2 (Submuestreo con una muestra de PSU existente: obtención de una muestra
autoponderada). La Tabla 10.3 muestra los conteos y las medidas compuestas de tamaño
en dos UPM de una muestra de UPM más grande. Se deben seleccionar dos SSU de cada
PSU. La primera PSU contiene cuatro SSU; el segundo tiene cinco SSU. Las tasas deseadas
para los dominios 1 y 2 son 0,015 y 0,035. El compuesto SSU fdNij (d) /ÿi. Por ejemplo, el
re
=
PSU 1 es (5*0,015 + 90*0,035)/0,1117
para PSUre=1, =28,9.
MOS
1SSU El
3.para
muestreo
MOS
La tasa dede
se SSU
calcula
concomo
muestreo ij pp SSda
dentroijde
SSU
ÿj|iSSU
=3
0.0.643
en
para
el dominio d es ÿk |ij (d) = fd ÿiÿj|i . Para PSU 1, SSU 3, esto es 0,015/0,1117/0,643 = 0,209
para elÿiÿj|i
dominio
En PSU
ÿk |ij 1.
(1)Esta
= combinación
SSU produce
1,0,1117*0,643*0,209
3, la probabilidad una
de muestra
selección
= 0,015. autoponderada
Para el de 2 en esaen
los elementos
dominio cada
del
SSU dominio.
dominio
tenemos1 es
0,1117*0,643*0,487 = 0,035. Sin embargo, el tamaño de muestra esperado no es el mismo
en cada UPM. En la PSU 1, la carga de trabajo esperada es 2*44,9=89,8 mientras que en la
PSU 2 es 2*39,4=78,8, lo que el lector puede verificar. Estos son diferentes de la carga de
trabajo esperada por fuente de alimentación según las tasas de dominio generales: (0,15*4000
+ 0,035*2000)/2 = 65.
Ejemplo 10.3 (Submuestreo con una muestra de PSU existente: obtención de cargas de
trabajo iguales). La tabla 10.4 repite los conteos y las medidas compuestas de tamaño del
ejemplo 10.2. Los MOS compuestos de SSU son los mismos que en el ejemplo anterior. Las
tasas deseadas para los dominios 1 y 2 son de nuevo 0,015 y 0,035. El tamaño de muestra
deseado en cada SSU es n¯ = 65/2 = 32,5. El muestreo de dos SSU con pp S da ÿj|i = 0.0.618
para PSU 1, SSU 3, como en el ejemplo 10.2. La frecuencia de yo muestreo
para eldentro de la
dominio SSU
d es ÿk |ij
(d)=¯nfd ÿiS ij . Para PSU 1, SSU 3, esto es 32,5*0,015/0,1117/28,9 = 0,151 para el dominio
1. Para el dominio 2 en PSU 1,
Población
total
4.000
2.000
6.000 total fuente
de
alimentación total fuente
de
alimentación fuente
de
alimentación
ÿi
(incluye
todas
las
fuentes
de
alimentación) 2 2 2 2 2 Una Una Una Una
0.1567
5 0.1567
4 0.1567
3 0.1567
2 0.1567
1 0.1117
4 0.1117
3 0.1117
2 0.1117
1 probabilidad
de
fuente
alimentación
Tabla
10.3:
Conteos
de
población
yMOS
compuestos
para
el
Ejemplo
10.2.
SSU
Dominio
Qij
S
60 45 20 40 40 35 5 25 20 re=1
re=2 Qij
(d) Tamaño
de
la
población
del
dominio
20
80
10.2 30
75 35
55 100
140
26,2 80 35
70
15,7 90
95 45
70
17,5 80
470
78.8 120
21,7 335
89.8 100
27,8 contar Total
11.0 9.7 28,9 MOS compensación
yo
0.259 0.279 0.247 0.664 0.551 0.349 0.643 0.389 0.618 ÿj|
yo probabilidad
SSU
0,370
0,862 0,343
0,800
15,4
24,0
39,4 0,388
0,905 0,144
0,336
5,8
33,6 0,174
0,406
7,0
32,5 0,385
0,898
13,5
31,4
44,9 0,209
0,487
1,0
43,8 0,345
0,806
8,6
36,3 0,217
0,507
4,3
40,5 d=1
d=2
Total Dominio ÿk|
ij probabilidad Dentro
de
SSU
22,2
17,2 7,8
31,7
39,4 Dominio Fuente
de
alimentación,
SSU tamaño
dentro Muestra
esperada
39.4 39.4 39.4 44,9 44,9 44,9
Muestreo de 10 áreas 280
Machine Translated by Google
total
4.000
2.000
6.000 total fuente
de
alimentación total fuente
de
alimentación fuente
de
alimentación
ÿi de
SSU
probabilidad Dentro
(incluye
todas
las
fuentes
de
alimentación) Población 2 2 2 2 2 Una Una Una Una
0.1567
5 0.1567
4 0.1567
3 0.1567
2 0.1567
1 0.1117
4 0.1117
3 0.1117
2 0.1117
1 probabilidad
de
fuente
alimentación
SSU
Dominio
Qij
S SSU tamaño
dentro
de
la
fuente
de
alimentación,
Muestra
esperada
60 45 20 40 40 35 5 25
45
70
17,5 20 re=1
re=2 Qij
(d) Talla población Dominio
Tabla
10.4:
Conteos
de
población
yMOS
compuestos
para
el
Ejemplo
10.3.
20
80
10.2 30 35 100
140
26,2 80 35
70
15,7 90 80
470
78.8 75 55 120
21,7 335
89.8 95 100
27,8 contar Total
11.0 9.7 28,9 MOS compensación
yo
0.259 0.279 0.247 0.664 0.551 0.349 0.643 0.389 0.618 ÿj|
yo probabilidad
SSU
0,305
0,711 0,283
0,659 0,320
0,746 0,119
0,277 0,143
0,335 0,279
0,650 0,151
0,353 0,250
0,583 0,157
0,367 re=1
re=2 Dominio ÿk|
ij de
SSU
probabilidad Dentro
18,3
14,2 12,7
19,8 6,4
26,1 4,8
27,7
32,5 5,7
26,8
32,5 9,8
22,8
32,5 0,8
31,7
32,5 6,3
26,3
32,5 3,1
29,4
32,5 d=1
d=2
Total Dominio Fuente
de
alimentación,
SSU tamaño
dentro Muestra
esperada
32.5 32.5 32.5
0.012
0.029 0.012
0.029 0.012
0.029 0.012
0.029 0.012
0.029 0.011
0.025 0.011
0.025 0.011
0.025 0.011
0.025 Dominio Oferta
general
problema
281 10.5 MOS compuesto para áreas
Machine Translated by Google
Machine Translated by Google
Las SSU (BG, tramos, etc.) para muestras de área y diseños de etapas múltiples en general
casi siempre se seleccionan con probabilidades proporcionales a algunos MOS.
Ejemplos de MOS son:
• Población total •
Hogares totales • Una
combinación ponderada de recuentos de población de dominio (p. ej., el compuesto
MOS discutido en las secciones anteriores)
En términos generales, cuanto mayor sea el MOS relativo de un área, mayor será su
probabilidad de selección en la mayoría de los diseños. Si estos se basan en datos del
censo decenal, cuanto más lejos esté la fecha de selección de la muestra del censo, más
desactualizados se vuelven estos conteos. La Tabla 10.5 muestra las tasas de crecimiento
de la población y las unidades de vivienda entre los censos de 1960 a 2000. La población
del país aumentó en alrededor de cien millones durante este período. Tenga en cuenta que
el crecimiento de las unidades de vivienda (HU), que generalmente se muestrean en alguna
etapa de una encuesta de hogares, no es igual al crecimiento de la población. Las décadas
de 1960 y 1980 vieron un aumento relativamente grande en las HU en comparación con la
población. Como ilustra la Tabla 10.6 , puede haber mucha variación regional en las tasas
de crecimiento. Nevada y Arizona son destinos populares para jubilados.
Durante el período 1990-2000, esto condujo a un auge en la construcción con la construcción
de muchas unidades de vivienda nuevas. Entre 2000 y 2010, el crecimiento continuó en los
mismos estados. Otras áreas, como el Distrito de Columbia, tuvieron un bajo crecimiento o
perdieron población entre 1990 y 2000, pero volvieron a crecer entre 2000 y 2010.
Las áreas pequeñas pueden verse especialmente afectadas por los cambios de
población entre censos. Algunos MOS serán demasiado grandes (debido a demoliciones,
vacantes y desastres naturales); algunos serán demasiado pequeños debido a la nueva
construcción. Cualquiera de estos puede conducir a algunas ineficiencias graves en un
diseño de muestra. Por ejemplo, en 2005, un huracán destruyó gran parte de Nueva Orleans
en la costa del Golfo de México en el sur de los Estados Unidos. Barrios residenciales
enteros fueron destruidos y no se reconstruyeron durante años. A partir de 2011, algunos barrios todavía es
Machine Translated by Google
vacante. El uso de datos del Censo 2000 sobre conteos de población conduciría a extensiones
y BG que se están muestreando y que prácticamente no tienen personas viviendo en ellos. Este
reduciría el tamaño de la muestra y conduciría a un trabajo de campo costoso e improductivo
si se envía personal para intentar entrevistas en áreas desocupadas.
En otros casos, la construcción de nuevas viviendas dará lugar a los recuentos del censo.
siendo demasiado pequeño. En consecuencia, se puede seleccionar una SSU con una menor
probabilidad basada en recuentos de población obsoletos de lo que merece en función de
su tamaño real. Para ilustrar el problema, suponga que el diseño requiere
HU dentro de una SSU de muestra que se seleccionará a razón de 1/4 y el recuento del censo de
HU (el MOS) es 100. El personal de campo llega a la SSU para contar y enumerar todas las HU
contenido dentro del área y descubre que un nuevo complejo de apartamentos ha
construido de manera que el total real de viviendas es de 500. Con la tasa de
1/4, el tamaño de muestra esperado es 25 (= 100×0.25). Si usamos la tarifa planificada,
el tamaño real de la muestra será 125 (= 500 × 0,25). El tamaño de muestra más grande es
probablemente estadísticamente ineficiente porque la correlación intraclase, discutida
en el cap. 9, será alto para al menos algunas variables. También es probable que ni
el presupuesto ni el cronograma pueden tolerar 100 entrevistas adicionales.
Hay varios enfoques para manejar este problema. Una es usar la tasa de muestreo planificada
inicialmente, que tiene las desventajas que se acaban de señalar. Otro
Machine Translated by Google
es reducir la tasa de muestreo para seguir el plan inicial de seleccionar 25 unidades de muestra. En ese
caso, las ponderaciones de cada unidad dentro de la SSU serán 20 en lugar de 4. Esto puede crear una
disparidad indeseable con las ponderaciones de otras SSU, lo que a su vez puede aumentar las varianzas
(véase la Sección 14.4.1). Se pueden usar otras modificaciones del diseño de la muestra que sean
preferibles. La Oficina del Censo publica estimaciones de población actualizadas anualmente para todos
los condados y lugares incorporados.
9 Estos pueden ser de alguna utilidad para actualizar parcialmente los
conteos de población para algunas áreas de subcondados. Pero, dado que los lugares no necesariamente
coinciden con las secciones censales o los grupos de bloques, las estimaciones de población no se
pueden usar para actualizar las medidas de tamaño de las unidades que normalmente se usan para
construir las UME.
Este problema se conoce como el problema de la nueva construcción. El problema es de eficiencia
más que de sesgo. Si no se hace nada especial, el vecindario existente con nueva construcción tendrá
alguna posibilidad de ser seleccionado en una muestra de área y probablemente no se perderá por
completo. Dado que todas las áreas tienen alguna posibilidad de ser seleccionadas, es probable que
algunas construcciones nuevas se seleccionen por casualidad. Pero, en la única muestra que seleccione,
podrían pasarse por alto desarrollos importantes. Esto causa problemas de validez aparente. Como
resultado, se han ideado métodos para evitar omisiones flagrantes. Los que cubrimos aquí se basan en
Bell et al. (1999) y Montaquila et al. (1999).
Los gobiernos locales en los EE. UU. generalmente requieren que se obtengan permisos de construcción
cuando se emprenden nuevos proyectos de construcción. Se requieren permisos para asegurar que la
construcción planeada no viole las ordenanzas de zonificación. La idea general de esta opción es obtener
listas de permisos emitidos por jurisdicciones locales y tomar muestras de esas listas. Una fuente de
información es la encuesta de permisos de construcción (BPS, por sus siglas en inglés) de la Oficina del
Censo, que es una encuesta mensual de las oficinas de permisos de construcción. Se publican
estadísticas agregadas para condados y lugares (p. ej., ciudades y lugares incorporados) sobre el
número de permisos emitidos, HU autorizadas y valoraciones. A partir de estas estadísticas, se puede
hacer un juicio acerca de si las UPM de muestra individuales requerirán muestras especiales de nueva
construcción. Una vez que se ha identificado una jurisdicción que necesita una nueva muestra de
construcción, se deben visitar las oficinas de permisos locales para obtener las direcciones de los nuevos
proyectos de construcción. Se podría compilar una lista completa de permisos para usar como marco de
muestra. Si el número de permisos es grande, una opción es formar nuevos "segmentos" de construcción
definidos por la oficina local de emisión de permisos y el período de tiempo. Por ejemplo, suponga que
el deseo es seleccionar una muestra de permisos para el período de julio de 2003 a junio de 2006 en el
condado de Montgomery,
9
www.census.gov/popest/estimates.html.
Machine Translated by Google
Maryland (MD). Los segmentos, creados para tener permisos para aproximadamente la misma cantidad
de unidades de vivienda, pueden ser:
• Todos los permisos residenciales emitidos por la oficina de permisos de Gaithersburg, MD, en los
períodos (1) julio de 2003 a junio de 2004, (2) julio de 2004 a junio de 2005 y (3) julio de 2005 a
Junio de 2006 (La oficina de Gaithersburg es el principal emisor de permisos en el condado)
• Todos los permisos emitidos por (4) los otros permisos del condado de Montgomery, MD
oficinas entre julio de 2003 y junio de 2006
Se puede seleccionar una muestra de dos de estos cuatro segmentos con probabilidad proporcional al
número de permisos. Se visitarían las oficinas de permisos locales seleccionadas y se obtendrían listas de
los permisos mismos. Se enumerarían las HU correspondientes a los permisos y se seleccionaría una
submuestra. Las HU de nueva construcción pueden seleccionarse solo del marco del permiso, no de la
muestra del área. Alternativamente, se puede permitir la superposición en las unidades del marco del
permiso y del área; sin embargo, la probabilidad de selección asociada para una unidad en ambas listas
es algo más complicada de calcular. Las implicaciones de estos dos escenarios para la ponderación se
describen a continuación.
Las ventajas de la opción del permiso de construcción incluyen (1) se garantiza la muestra de algunas
construcciones nuevas y (2) se controla la variación no planificada en el tamaño de los segmentos del
área. Las desventajas de esta opción son:
Un problema operativo es el manejo adecuado de las HU tanto en el área como en la muestra del permiso
para su ponderación. Si se usa la regla de que una HU en el marco del permiso solo puede seleccionarse
de ese marco, entonces se debe determinar si una HU en la muestra del área podría haber sido
seleccionada a través de la muestra del permiso. Si pudiera, entonces la unidad se eliminaría del marco
de muestra del área. Para decidir si una HU de muestra de área estaba en el marco del permiso es
Machine Translated by Google
Es más fácil decirlo que hacerlo. La coincidencia de una dirección para una HU de muestra de área
suele ser propensa a errores debido a las variaciones de direcciones que se pueden usar.
Una alternativa es que el personal de campo adivine si se construyó una HU en el período cubierto
por el marco del permiso. Esto es fácil para viviendas más antiguas, pero no para las más nuevas. A
los encuestados de la muestra del área se les puede preguntar cuándo se construyó su HU. Se excluiría
cualquier HU de muestra de área que se haya informado que se construyó en el período cubierto por el
marco del permiso. El personal de campo no es igualmente preciso al estimar la edad de una unidad
de vivienda, y no todos conocen la fecha de construcción de su HU. Por lo tanto, este método también
es propenso a errores.
Esto tampoco resuelve el problema sin ambigüedades, ya que aún debemos identificar aquellas
unidades que tuvieron la posibilidad de ser seleccionadas de ambos marcos. Con esta opción, es
inevitable un control menos que perfecto sobre el resultado del trabajo de campo y la ponderación
(aunque se puede decir esto de casi todas las encuestas).
Como debe quedar claro a partir de las consideraciones anteriores, el uso de una muestra de permiso
no es sencillo. Un procedimiento algo más simple es utilizar una variación del muestreo en dos fases.
Cubriremos el tema general del muestreo multifásico en el Cap. 17, pero la aplicación a la nueva
construcción es fácil de entender.
La idea general es seleccionar una muestra extra grande de segmentos de área o SSU y actualizar el
MOS para cada uno. Luego, seleccione una submuestra de la muestra del segmento de la primera fase
utilizando los MOS actualizados. Los pasos más específicos son:
1. Usar los datos del Censo BPS para actualizar los conteos de población en lugares individuales
en una fuente de alimentación.
2. Convierta los conteos de HU del BPS a conteos de personas usando un factor de conversión para
personas por HU, por ejemplo, se podrían usar 2.6 personas por HU.
3. Aplicar el ajuste de población específico del lugar a cada SSU contenida en el lugar. Esto proporciona
un nuevo conjunto de medidas de tamaño para las SSU en la PSU.
4. Seleccione una muestra grande de SSU. Montaquila et al. (1999) sugieren que la muestra de la
primera fase sea de 5 a 10 veces mayor que el número de UME que finalmente se desea. Este es
un múltiplo grande, y el costo de manejar las SSU determinará qué tan grande puede ser la muestra
de SSU de la primera fase.
5. “Contadores”, es decir, enumeradores de campo experimentados (Sec. 10.3.2), luego viajan a las
SSU de la primera fase y cuentan las HU. Las imágenes satelitales pueden ayudar en esto
Machine Translated by Google
tarea. Estos no tienen que ser perfectos, pero deben identificar áreas donde el conteo de HU ha
cambiado sustancialmente desde la fecha a la que se refieren los marcos MOS.
6. Actualice las medidas de tamaño para cada SSU en función de los recuentos de campo.
7. Seleccione una muestra de segmentos de la segunda fase de todas las unidades de la primera
fase utilizando los nuevos MOS.
Este método tiene varias ventajas. Sí conduce a que la muestra de SSU se seleccione con MOS que
reflejan mejor los tamaños de población actuales en áreas donde ha habido un cambio considerable.
Este enfoque identificará áreas donde ha habido crecimiento y también aquellas donde las
demoliciones eran comunes. Esto puede ser especialmente relevante donde han ocurrido desastres
naturales. Todas las SSU se convierten en SSU de área normal. No hay necesidad de lidiar con las
oficinas de permisos, que pueden ser una molestia costosa en algunas áreas. El tiempo de viaje se
reduce para los entrevistadores ya que todas las HU de la muestra están agrupadas por área SSU.
Se elimina la pregunta de selección sobre si una HU se construyó en la última década (o en algún
otro período de tiempo específico).
Hay, por supuesto, desventajas. La principal es que el conteo de segmentos de la primera fase
es un costo extra, exhibido tanto en tiempo calendario como en fondos del proyecto. Este costo de
campo adicional puede incluso ser mayor que el del muestreo de permisos.
Se deben desarrollar materiales de capacitación para los contadores, se debe realizar la capacitación
y se debe realizar el conteo de campo. Se necesita un sistema de procesamiento de datos para
incorporar la información actualizada sobre las UME.
Finalmente, notamos que se podría usar una combinación de permiso y muestreo de UME en dos
fases—permiso en áreas de alto crecimiento y dos fases (o ninguna) en las de bajo crecimiento.
La última opción que discutimos es una que ha estado en práctica desde la década de 1960.
El procedimiento de "intervalo medio abierto" (HOI) se atribuye a Kish (1965) como un método para
asegurar la cobertura del marco HU en un área geográfica ya seleccionada para una encuesta. Con
el procedimiento HOI, los miembros del personal de campo reciben una lista de marcos para un área
en particular, ordenada en algún orden. Su tarea es identificar cualquier HU que no esté en el marco
(p. ej., nueva construcción) que exista entre la HU de la muestra y la siguiente HU de la lista. Cualquier
unidad recién descubierta se incluye automáticamente en la muestra. El procedimiento HOI, como lo
señalaron muchos investigadores, es efectivo solo cuando los entrevistadores de campo están
ampliamente capacitados y la técnica se implementa correctamente (Eckman 2010; Eckman y
O'Muircheartaigh 2011).
Machine Translated by Google
El muestreo de hogares por área puede ser poco práctico para encuestas con un presupuesto limitado
o una pequeña ventana de recopilación de datos. Como se señaló anteriormente, el desarrollo
de un marco de HU a través de procedimientos de conteo y listado (ya sea con o sin HOI) puede
tomar meses. Iannacchione et al. (2003) recurrió a un marco de lista de correo residencial como una
forma rentable de seleccionar y encuestar al azar
aproximadamente 15,000 hogares en 2000 para el Dallas Heart Study (Victor
et al., 2004). Se pidió a un subconjunto aleatorio del grupo de encuestados que proporcionara
muestras de sangre y orina al final de la entrevista, de ahí la necesidad de una recolección de datos
en persona. Este proyecto seminal abrió una nueva área de investigación.
ampliamente conocido ahora como muestreo basado en direcciones o simplemente ABS. la investigación a
fecha que incluye la cobertura de este tipo de encuadre se sintetiza en un artículo de
Iannacchione (2011) y se resumen a continuación.
Todos los marcos de muestreo de ABS en los EE. UU. generalmente se derivan de una sola fuente:
el sistema de administración de direcciones (AMS) del servicio postal de EE. UU. (USPS). La
información contenida en este sistema incluye: nombre y número de la calle, número de buzón (si
corresponde), ciudad, estado, código postal de nueve dígitos, secuencia de entrega
número (orden en que un transportista de USPS entrega el correo) e indicadores de vacantes de
direcciones. Solo los vendedores comerciales que soliciten y califiquen para una licencia pueden
acceder a los datos de USPS-AMS a través de un archivo electrónico llamado archivo de secuencia
de entrega computarizada (CDS). Otros archivos de direcciones postales, denominados
productos de datos, están disponibles para los vendedores. Sin embargo, el CDS en combinación con
el archivo CDS No-Stat que contiene, entre otras cosas, las direcciones
de las HU en construcción ha demostrado tener una cobertura casi completa
de la población de los hogares de EE . UU. (Iannacchione, 2011).
Además de las características de USPS-AMS, los proveedores comerciales de muestras de
encuestas venden versiones “mejoradas” del CDS. Las mejoras pueden
incluir números de teléfono fijo, un nombre asociado con la dirección,
Indicador de apellido español, edad estimada del jefe de hogar, así como
como alguna información geocodificada (es decir, latitud y longitud) y del tramo censal.
La información de geocodificación es necesaria para mapear la geografía ABS con la geografía del
censo (Sección 10.1). La calidad de esta información depende de factores como
como la tasa de coincidencia de la dirección y el número de teléfono, la edad del contacto del hogar
información, errores de geocodificación atribuidos al mapeo aproximado de la
dirección postal a una ubicación física, y el número de HU vinculadas a una
dirección postal particular.
En la literatura se señalan al menos cuatro ventajas del CDS. Primero,
los costos de recopilación de datos pueden reducirse utilizando la información del marco de lista
directamente en combinación con una técnica de IOH en lugar de los procedimientos de conteo y
listado o proporcionando información inicial al personal encargado del listado.
Los investigadores han notado problemas con esta primera ventaja. por ejemplo, un
La lista de artículos citados en Iannacchione (2011) apunta a niveles variables de subcobertura en
marcos de ABS para áreas rurales de EE. UU. Además Eckman (2010)
encontró que el personal de campo tiende a ratificar que la lista inicial es correcta en lugar de
Machine Translated by Google
10 www.postcodeaddressfile.co.uk.
11
ess.nsd.uib.no/ess/round4/surveydoc.html.
Machine Translated by Google
Ejercicios
(a) Determine las probabilidades de selección de las secciones utilizando los conteos de población
del censo, las tasas de muestreo de personas dentro de la sección y el
número de personas seleccionadas por tramo.
(b) A continuación, utilice el número de permisos emitidos para obtener una estimación actualizada de
el número de personas en cada tramo. Suponga que hay 2.6 personas
asociado con cada unidad de vivienda y que un permiso está asociado con
una HU.
(c) Utilizando las tasas de muestreo calculadas en (a) y la población actualizada
cuenta a partir de (b), ¿cuántas personas espera muestrear en cada tramo?
si es uno de los dos seleccionados? Discutir los efectos sobre la carga de trabajo del uso
cuenta la población obsoleta.
(d) Usando las estimaciones de población actualizadas, calcule las probabilidades de selección
para tramos, tasas de muestreo dentro del tramo de personas y número esperado
de personas de la muestra en cada tramo. Discuta cómo se comparan estos con los de
(a) y (c).
10.2. La siguiente tabla muestra una población de cuatro PSU con los conteos de
personas en cada uno de los dos dominios en cada PSU. Supongamos que el total deseado
las tasas de muestreo para los dominios son f1 = 0,05 y f2 = 0,10. tú quieres
seleccione una muestra de dos UPM con probabilidades proporcionales al compuesto
MOS descrito en la Secc. 10.7.
fuente de alimentación
Ni (1) Ni (2) N
1 50 50 100
2 20 100 120
3 90 60 150
4 160 70 230
Calcula lo siguiente:
10.3. Se va a realizar una encuesta de personas en dos etapas en la que el 5 % de las personas tiene
Se muestrearán los menores de 35 años y el 15 % de los mayores de 35 años. Cuatro fuentes de alimentación
ser seleccionado usando el MOS compuesto definido en la Secc. 10.5. una auto ponderación
la muestra debe ser seleccionada dentro de cada dominio, y la carga de trabajo debe ser la
misma en cada fuente de alimentación seleccionada. Calcula lo siguiente:
(a) Tamaños de muestra totales esperados para los dos dominios y el tamaño de muestra total
a través de dominios.
(b) MOS compuesto para cada PSU y el total entre las PSU. Verifique que el
gran total es igual al tamaño de muestra total esperado.
(c) Probabilidad de selección para cada UPM.
(d) Tasa de muestreo de dominio y tamaño de muestra de dominio esperado dentro de cada UPM.
¿Los tamaños de muestra esperados son números enteros? Si no, ¿qué método se puede utilizar?
para el muestreo dentro de una fuente de alimentación que logrará la tasa deseada?
(e) Verifique que los tamaños de muestra esperados para cualquiera de las cuatro UPM suman el
tamaño total esperado de la muestra que calculó en (a).
Machine Translated by Google
10.4. Las dos PSU a continuación son una muestra de PSU existente seleccionada algunos años
atrás. Se realizará una nueva encuesta en estas UPM. Las probabilidades de selección
para PSU 1 y PSU 2 fueron 0,5 y 0,3. Estos son fijos y no se pueden modificar.
El objetivo es seleccionar una muestra de los dominios 1 y 2 a tasas de 0,030 y 0,125.
Dentro de cada dominio, la muestra debe ser autoponderada. Dos SSU de muestra
se seleccionará en cada PSU.
(a) Calcule los tamaños de muestra esperados en cada dominio en cada SSU y el
tamaño total de la muestra en cada SSU en todos los dominios. Suponga que las tasas de
0,03 y 0,01 se utilizan para los dominios 1 y 2. Tenga en cuenta que la población
los totales para los dominios son 5000 y 2200, como se muestra en la tabla anterior.
(b) Calcule el MOS compuesto para cada SSU utilizando el método de la Secc. 10.5.
(c) Calcule las probabilidades de selección de la UME suponiendo que la muestra de la UME
será seleccionado con probabilidades proporcionales al MOS compuesto.
(d) Calcule las probabilidades dentro de la SSU requeridas para la muestra en cada
dominio para ser auto ponderado.
(e) Calcule la carga de trabajo esperada en cada SSU si fuera a ser muestreada.
¿Son estos iguales? Si no, explique por qué.
(f) Verificar que las probabilidades de la SSU y dentro de la SSU calculadas en (c) y
(d) producir un muestreo autoponderado en cada dominio.
(g) Determinar un esquema de muestreo para UME y unidades dentro de UME que
dar una carga de trabajo igual en cada SSU. Realice los cálculos para SSU
y dentro de las probabilidades de selección SSU, y verificar que el total esperado
el tamaño de la muestra en los dos dominios es el mismo en cada SSU.
(h) ¿El esquema que diseñó en (g) conduce a una muestra autoponderada? Por qué
o porque no? Sustente su respuesta con cálculos.
Machine Translated by Google
Capítulo 11
El diseño muestral del área: una solución
Tabla 11.1: Población, tamaño de muestra y tasa de muestreo general para cinco dominios de edad
en el condado de Anne Arundel, Maryland.
Dado que se desea una muestra autoponderada dentro de cada grupo de edad junto con
la misma carga de trabajo en cada fuente de alimentación, la medida compuesta de tamaño (MOS)
método, descrito en la Secc. 10.5, se puede utilizar. En particular, el compuesto
MOS para BG j en el tramo i es
Se deben realizar una serie de controles de calidad para determinar si algunos BG pequeños deben
combinarse con otros. Entre los controles se encuentran si cada BG proporcionará una carga de trabajo
adecuada y si algunos BG tendrán probabilidades de selección relativamente pequeñas y, por lo tanto,
grandes pesos en relación con otros BG. La combinación de BG termina cuando cada carga de trabajo
es adecuada y ningún peso será extremadamente diferente de los anteriores. La creación de PSU que
sean geográficamente grandes no es deseable porque limitar los viajes de los entrevistadores también
puede ser un objetivo.
La primera verificación es si el muestreo a las tasas deseadas es posible en todos los BG. Como
se indica en la Secc. 10.7, el número esperado de personas muestreadas en cada dominio en cada
SSU (BG) debe ser menor que el recuento de población en la SSU. Además, la suma de estos
recuentos esperados en un BG en todos los dominios debe ser menor que la población en el BG. Hay
seis BG que violan el requisito de que qÿ (d) sea el número esperado de personas de la muestra ij en
BG ij del dominio d. Los seis se (d)Por
edad. ÿ Qij
muestran en(d)
ejemplo, donde
la Tabla
el tramoqÿ
11.2. Cada
yo launo
701400, violadela
muestra
grupo restricción
enbloques
al menos delgrupo
un
3 tiene tamaño
una dede
población de 16 en el grupo 25–44, pero el algoritmo de muestreo requiere un tamaño de muestra
esperado de 16,4; la población es 7 en el grupo de 65+, pero el tamaño de muestra deseado es 23,6.
Un caso límite es el tramo 741100 donde la población de 18 a 24 es 10 y la muestra debe ser 10,1.
Machine Translated by Google
Tabla 11.2: Grupos de bloques donde la carga de trabajo esperada excede el conteo de población.
Como muestra este ejemplo, es posible que los tramos que son geográficamente adyacentes no
tener números de identificación consecutivos. La figura 11.1 es un mapa esquemático de
las extensiones en el condado. Consultar un mapa como este puede ser necesario para
hacer combinaciones razonables. Alternativamente, centroides de longitud-latitud para
Los tratados están disponibles en la Oficina del Censo. Estos se pueden utilizar para calcular
Machine Translated by Google
la distancia entre los centros de los tractos para determinar cuáles están geográficamente cerca uno del
otro. Este enfoque permitirá que los tramos se combinen
a través de un algoritmo informático sin intervención manual. Esto es particularmente
útil cuando el marco de los tratados es grande.
Tabla 11.4: Muestras de distritos y grupos de bloques dentro de distritos con cargas de trabajo esperadas
en cada BG.
cargas de trabajo
Tracto Bloquear 18–24 25–44 45–54 55–64 65+ Carga de trabajo total
grupo
701102 701102.2 6.3 6.1 7.5 7,8 12,3 40
701200 701200.3 5.6 9.3 6.5 8.3 10.3 40
701300 701300.2 5.8 6.1 10.2 8.6 9.3 40
702100 702100.4 7.7 7.8 12 7.2 5.2 40
702300 702300.4 4.3 4.8 8.1 15 7.8 40
702401 702401.2 1.3 0.6 2 5,4 30,6 40
702700 702700.3 5.7 10.2 6.9 9.2 8 40
706300 706300.2 2.8 6.6 7.6 8,5 14,4 40
706600 706600.5 19.3 7.8 6.2 4.6 2.2 40
708000 708000.1 7.2 7 6.6 10 9.2 40
730100 730100.3 6.8 10.3 5.2 8 9.7 40
730402 730402.2 7.4 6.8 6.2 8,5 11,1 40
730502 730502.2 11.9 7.7 7.3 6.3 6.8 40
730601 730601.4 6.4 5.8 12.3 10.3 5.2 40
730800 730800.2 2 3.9 9.4 12,2 12,5 40
731204 731204.1 8.2 7.8 6.4 7 10.5 40
740102 740102.1 8.3 5.3 8.7 9.7 8 40
740201 740201.4 8.8 12.6 9.1 5.5 4 40
740301 740301.2 10.1 15.4 8 4.7 1.8 40
740500 740500.1 9.1 14.6 8.6 5.4 2.3 40
740601 740601.3 17.9 21.4 0.7 0 0 40
740700 740700.2 9.3 15.6 6.4 4.2 4.4 40
750804 750804.1 8 10.4 4.8 6 10.8 40
751000 751000.1 6.9 5.9 6.7 8.2 12.3 40
751103 751103.2 5.6 5.9 4.7 16.5 7.3 40
¯¯
ya que S++ = mnq ¯¯. en este caso q = 40. Así, el estimador del total de
yij (d) en cualquier grupo de bloques es la misma constante, 40. El estimador de la
población total de yij (d) es
Los totales de población del número de personas en cada dominio y en todos los dominios
también se pueden calcular como
Estos no necesariamente equivalen a los conteos de población, pero sirven más como un
control de razonabilidad. Si las estimaciones están lejos de los recuentos de cuadros, entonces
se justifica una verificación adicional para decidir si se han producido errores. Para esta
muestra, tenemos t 1 = 40 para cada dominio, t 2 = 1 000, t 3 (d) = (38 011,38, 173 593,95, 63
811,75, 45 011,18, 52 714,43) y t 4 = 373 142,7. Las estimaciones t ˆ3 y t ˆ4 están
razonablemente cerca de los recuentos de población de la tabla 11.1.
Estos controles también se pueden encontrar en Arundel.MD.analysis.R.
consideraciones adicionales
Pasamos algún tiempo preocupándonos por los efectos de los tractos y grupos de bloques
con pequeños MOS compuestos. Una de las paradojas del diseño de muestras es que se
dedica una cantidad significativa de tiempo a considerar eventos que pueden no suceder. Es
posible que no seleccionemos uno de los BG con un MOS extremadamente pequeño, pero si
lo hacemos, es posible que su tamaño no admita los tamaños de muestra deseados para los dominios.
Además, su peso será grande y puede aumentar innecesariamente las varianzas.
Este tema será abordado nuevamente en el Cap. 14
El hecho de que solo se seleccione 1 BG por tramo podría plantear la cuestión de si se
pueden estimar las varianzas con este diseño. Todavía podemos estimar las varianzas del
diseño porque el número de unidades de primera etapa es 25, el número de tramos de
muestra. Sin embargo, existen diseños alternativos que podrían valer la pena considerar. Si
se supiera que los residentes de diferentes áreas del condado tienen características diferentes,
sería recomendable estratificar por geografía de subcondado de alguna manera. Los números
de BG asignados por la Oficina del Censo se pueden usar para ordenar los BG en un orden
más o menos geográfico y en estratos creados a partir de la lista ordenada. Se debe consultar
un mapa de BG para asegurarse de que la clasificación numérica logre sus objetivos de
estratificación. Un mapa de BG para el condado de Anne Arundel se encuentra en el archivo,
Anne Arundel.blkgrps(streets).pdf, en el sitio web de este libro.
Machine Translated by Google
Higo. 11.1: Mapa de tramos del condado de Anne Arundel, Maryland. Fuente: Departamento de
Planificación de Maryland, División de Servicios de Datos de Planificación, enero de 2001.
Machine Translated by Google
Parte III
Ponderaciones y análisis de encuestas
Machine Translated by Google
Capítulo 12
Proyecto 3: Ponderación de una Encuesta de Personal
• Tomando todas las cosas en consideración, ¿qué tan satisfecho está usted, en general,
con cada uno de los siguientes aspectos de estar en la Guardia Nacional/Reserva?
El tipo de trabajo que realiza en su trabajo militar Su
compensación total (es decir, salario base, asignaciones y bonificaciones)
El archivo de datos incluye registros de todas las personas que estaban en la muestra
inicial: encuestados, no encuestados y no elegibles. También hay varias variables
demográficas de archivos de registros administrativos para cada persona de la muestra.
Los archivos que se utilizarán se enumeran al final de este capítulo.
Las siguientes tareas aún no se han completado y están asignadas a su equipo. Cada
tarea debe documentarse en el informe final del proyecto; asegúrese de justificar las
decisiones que ha tomado su equipo.
(1) Desarrolle los pesos de diseño (inversos de las probabilidades de selección) para este
diseño de muestreo aleatorio simple estratificado de etapa única y verifique sus
cálculos. El campo ESTRATO define los estratos del diseño muestral.
Cada registro contiene recuentos del número de personas en la población (NSTRAT)
y la muestra (NSAMP) en el estrato de diseño al que pertenece el registro. El campo
V STRAT identifica los estratos de diseño que se fusionaron para la estimación de la
varianza. Tenga en cuenta que, si se necesita un recuento de población para un
estrato de varianza, será necesario sumar los valores de NSTRAT para los estratos
de diseño que se combinan en un V STRAT.
(2) Especifique cómo clasificará los diversos códigos de estado de respuesta (RESPSTAT)
en las categorías generales (respondedor elegible, no elegible elegible, no elegible o
desconocido) descritas en el Cap. 6. Los valores de las variables y las etiquetas de
valores para RESPSTAT se proporcionan en la siguiente sección, Archivos de datos y
otra información.
(3) Aplique ajustes de peso a los pesos de diseño y verifique sus cálculos. Debe incluir los
métodos de ajuste que hemos discutido en clase: elegibilidad desconocida, falta de
respuesta y calibración. En el caso de elegibilidad desconocida o ajustes por falta de
respuesta, compare la celda de ponderación y los ajustes de propensión llevando a cabo
su propia implementación de cada método. Es posible que encuentre algunos casos, ya
sea en el archivo de datos de los encuestados o en el archivo de recuentos de población,
en los que falten datos para los campos que le gustaría utilizar en la ponderación. Si es
así, debe explicar cómo los manejó en los diversos pasos utilizados en la ponderación.
(4) Prepare un archivo de análisis (en formato SAS, Stata o de texto) que contenga las
variables del archivo de datos original (SOFR.sas7bdat), las ponderaciones base, las
ponderaciones finales del análisis (puede elegir solo un conjunto de la tarea 3 anterior ),
y cualquier ajuste aplicado a los pesos de diseño para crear los pesos finales. Además,
cree los indicadores necesarios que necesitaría para analizar las respuestas del
cuestionario y eliminar cualquier registro de datos innecesario. Todas las variables deben
tener una etiqueta descriptiva. Para cualquier variable categórica recién creada,
proporcione una descripción de los valores de las variables en el informe.
(5) Usando los pesos de su análisis final, tabule las proporciones de personal
quien es
Haga estas tabulaciones por separado para cada servicio y para el personal y oficiales
alistados. Incluya las estimaciones puntuales de proporciones y errores estándar.
Describa el método que utiliza para la estimación del error estándar y cualquier limitación
que pueda tener el método.
(6) Incluir una descripción para los usuarios de datos de qué casos y pesos se deben usar
para varios tipos de análisis de datos. Proporcione algunos ejemplos breves de código
de software que se usaría para estimar medias o proporciones asociadas con un
elemento típico del cuestionario. Se deben dar ejemplos para al menos dos paquetes de
software. Su informe debe describir cómo se debe usar el software para tener en cuenta
los pesos y las características de diseño, como los estratos.
Machine Translated by Google
A continuación se muestra una lista de áreas temáticas que deben incluirse en su informe de ponderación.
En cada sección se incluyen preguntas y sugerencias para ayudar con el desarrollo del texto. El orden de
las secciones en su informe no tiene que ser el mismo que se indica a continuación. Debe construir su
informe de una manera que presente los temas en un orden que le parezca lógico a su equipo.
El informe debe escribirse a un cliente cuyo personal incluye gerentes y personal técnico. Los gerentes
estarán más interesados en comprender el esquema general de los pasos utilizados en la ponderación. El
personal técnico estará interesado en comprender los detalles del cálculo del peso, incluidas las fórmulas
adecuadas, y en poder analizar los datos de forma adecuada.
• Página de título (título del proyecto, fecha de envío y nombre del contacto del proyecto)
persona)
• Introducción (resumen del documento) • Pesos del estudio:
breve discusión sobre el diseño de muestreo Métodos para
calcular los pesos de diseño Tipos de ajustes de peso
y por qué se usaron. Comparación de ajustes
Evaluación de pesos y métodos utilizados para verificar o comparar cálculos
• Archivo de análisis:
Resumen del contenido del archivo de análisis (incluya PROC CONTENTS o el equivalente en un
apéndice)
Variables de interés •
Referencias • Apéndice
Capítulo 13
Pasos básicos en la ponderación
Las ponderaciones de las encuestas son un componente clave para producir estimaciones de
población. Por ejemplo, un total estimado tiene la forma t ˆ=swiyi dondepor
provista yi el
esi-ésimo
una respuesta
miembro
de la muestra y wi es el peso de análisis correspondiente. Sin su uso, las estimaciones pueden
reflejar solo los matices de una muestra en particular y pueden contener niveles significativos
de sesgo. Este es el primero de dos capítulos que abordan las técnicas para calcular los pesos
de análisis que se utilizan actualmente en la investigación de encuestas. Artículos que detallan
nuevas investigaciones sobre la superficie de ponderación de encuestas en la literatura
constantemente. Por lo tanto, alentamos a los investigadores de encuestas a utilizar estos
capítulos como base de comprensión y confiar en artículos de revistas para técnicas de
vanguardia.
Hay una serie de pasos en la ponderación que se llevan a cabo en la mayoría de las
encuestas, si no en todas. Estos incluyen el cálculo de ponderaciones base (también conocidas
como ponderaciones de diseño), ajustes por elegibilidad desconocida, ajustes por falta de
respuesta y uso de datos auxiliares para reducir las variaciones y, en algunos casos, corregir
las deficiencias del marco. Cubrimos los primeros tres de estos pasos en este capítulo. El
Capítulo 14 abordará el uso de datos auxiliares. Las secciones 13.1 y 13.2 brindan una
descripción general de la ponderación y describen enfoques teóricos generales que se utilizan
para justificar el uso de ponderaciones en la estimación.
En las muestras probabilísticas, las ponderaciones base son inversas de las probabilidades
de selección. En la Secc. 13.3 para varios diseños. Estos se pueden usar para ponderar una
muestra a la población finita completa si el marco es perfecto y todas las unidades de muestra
responden. En algunas aplicaciones, se encuentra disponible un marco completo de unidades
para el muestreo y los problemas del marco no son una preocupación. En otros, el marco
puede contener algunas unidades que no son elegibles y puede omitir unidades que sí lo son.
Tener unidades no elegibles en un marco es un tipo de sobrecobertura. En la Secc. 13,4; el
problema de la subcobertura del marco se trata en el Cap. 14
El objetivo general de la ponderación es encontrar un conjunto de pesos, wi, que pueda usarse
en prácticamente todos los análisis para producir estimaciones para la población objetivo bajo
estudiar. Por ejemplo, un total estimado tiene la forma t ˆ= wiyi y una media s
ˆ¯
se puede calcular como y =
s wiyi/ s wi para un conjunto de unidades en la muestra s (es decir,
yo ÿ s). Otras estadísticas que se pueden escribir como combinaciones de totales estimados
usaría el mismo conjunto de pesos. Los análisis de modelos de regresión, por ejemplo,
a menudo comienzan con un tipo de total estimado que se utiliza para derivar parámetros
estimados. Las estimaciones de medianas y otros cuantiles dependen de la misma
pesos utilizados para estimar los totales. Bien construido, un juego de pesas puede
proporcionar estimaciones aproximadamente imparciales y consistentes1 de muchos
cantidades de población. Como resultado, un juego de pesas puede servir para muchos propósitos,
lo cual es una gran ventaja práctica.
La figura 13.1 muestra el conjunto general de pasos que se utilizan para ponderar en
muchas encuestas. La muestra completa (casilla A en la figura) se puede dividir en la
unidades cuya elegibilidad está determinada (A1) y aquellas para las cuales se desconoce la
elegibilidad (A2). Las incógnitas tienen su peso distribuido en el paso W1
entre los casos de muestra conocidos (A1a, A1b y A1c). Tenga en cuenta que si se conoce la
elegibilidad para todos los casos de muestra (por ejemplo, a través de registros administrativos), entonces
el paso W1 no es necesario. El siguiente paso, W2, es hacer un ajuste para
falta de respuesta Hay diferentes formas de hacer tanto la elegibilidad desconocida
y ajustes por falta de respuesta, como se analiza en las Seccs. 13.4 y 13.5. de una sola mano
es poner a los encuestados y no encuestados en clases y hacer un común
ajuste a todos los encuestados dentro de cada clase. Las clases se pueden formar en base
sobre propensiones de respuesta estimadas o algoritmos de clasificación.
En algunas encuestas, no se utilizan más pasos y los pesos finales son los
pesos ajustados por falta de respuesta. En otros casos, la calibración a los valores de población
(paso W3) se puede utilizar para corregir las deficiencias del marco y reducir la
varianzas de los estimadores, como se describe en el Cap. 14. Los datos auxiliares utilizados en
la calibración puede provenir de un marco actualizado o de una fuente independiente
como un censo de población. Tanto los encuestados elegibles (A1a) como los conocidos
los no elegibles (A1c) pueden entrar en este paso, dependiendo de la fuente de los datos auxiliares.
Hay una variedad de métodos para usar datos auxiliares que todos
caen bajo el título de calibración. Entre ellos se encuentran la posestratificación, la estimación de
regresión general y el rastrillado, todos los cuales se analizan en el Cap. 14
Además, discutimos en el Cap. 14 investigaciones asociadas con la combinación de pasos
W2 y W3 en un solo procedimiento de ponderación.
Una
Hay otros enfoques, sobre todo el bayesiano [ver Gelman et al. (1995)] que tienen algún
mérito, pero no los trataremos en este libro. Es importante tener al menos una comprensión
intuitiva del pensamiento detrás de los tres enfoques anteriores para comprender por qué
ciertos estimadores funcionan bien o mal en diferentes circunstancias. En la práctica, el
método asistido por modelos es el más utilizado, como explicaremos a continuación.
modelo utilizado para construir los estimadores, pero puede estar sesgado si el modelo
está mal especificado o si el modelo que se ajusta a la muestra es diferente del que
describe a la población como un todo. En algunos casos, la estimación basada en modelos
es la única opción. En una encuesta por Internet de participantes voluntarios, no hay un
diseño de muestra probabilístico y los estimadores deben construirse utilizando modelos.
Si los voluntarios son tan diferentes de la población total que la estimación es imposible
se convierte en una preocupación seria.
Sin embargo, es inevitable que se tengan en cuenta los modelos al desarrollar
ponderaciones, incluso en muestras probabilísticas. Cualquier muestra con algún grado de
falta de respuesta requiere supuestos sobre la naturaleza de las variables de análisis para
los que no respondieron y sobre el mecanismo de respuesta. Cuando se calculan las
ponderaciones para una encuesta de voluntarios, se pueden hacer suposiciones sobre el
mecanismo que describe la probabilidad de que una persona participe. Estos supuestos,
ya sean explícitos o implícitos, son modelos.
Hay buenos argumentos, aunque bastante técnicos, de por qué la distribución aleatoria
en sí misma no debería ser la base para la inferencia [p. ej., véase Valliant et al. (2000)],
incluso en ausencia de falta de respuesta. La línea general de razonamiento es que
promediar sobre una distribución de aleatorización implica promediar sobre muestras que
pueden ser muy diferentes de la realmente seleccionada. Es decir, la inferencia basada en
el diseño requiere que consideremos eventos que en realidad no sucedieron y, por lo
tanto, son irrelevantes. Estos argumentos no necesariamente tienen que ser considerados
para desarrollar un conjunto de pesos que proporcionen estimadores razonables. Un lector
interesado puede consultar las referencias anteriores junto con Royall (1976) y Smith
(1976, 1984, 1994) para la discusión de los temas fundamentales.
Un enfoque híbrido utiliza tanto el pensamiento basado en modelos como el basado en
diseño y se denomina asistido por modelos. Se selecciona una muestra probabilística, se
calculan los pesos y uno o varios modelos guían la elección del estimador. Las inferencias
se realizan utilizando la distribución generada por el plan de muestreo probabilístico, no
un modelo. La investigación sugiere que los pesos brindan cierto nivel de protección contra
la especificación incorrecta del modelo. Este es el enfoque que S¨arndal et al. (1992)
esponer
1. El conjunto de todas las muestras S = {s1, s2,...,sM } que se pueden seleccionar de una
población finita U se puede definir dado un procedimiento de muestreo específico.
2. Una probabilidad conocida de selección p (s) está asociada con cada posible
muestra s en S.
Machine Translated by Google
3. Cada elemento en la población objetivo tiene una probabilidad distinta de cero de seleccionar
con el procedimiento de muestreo aleatorio especificado.
4. Se selecciona una muestra sÿ mediante un mecanismo aleatorio bajo el cual cada s en S recibe la
probabilidad p (s).
La función p (s) define una distribución de probabilidad en S, el conjunto de todas las muestras posibles.
El valor de p (s) está asociado con cada muestra s y difiere de la probabilidad de selección de una
unidad individual dentro de la muestra. Para calcular los pesos base, no es necesario que podamos
calcular p (s).
Solo necesitamos las probabilidades de selección de los elementos individuales: ÿi =
Probabilidad de selección (o inclusión) del elemento i.
Los pesos base, d0i = 1/ÿi, son los inversos de las probabilidades de selección.
Las probabilidades de selección se pueden calcular como el producto de las probabilidades condicionales
en diferentes etapas de selección, como se ilustra en algunos de los ejemplos a continuación. Tenga
en cuenta que el tamaño de la muestra no es necesariamente un valor fijo y también está asociado con
el procedimiento de muestreo (ver, por ejemplo, la discusión sobre el muestreo de Poisson en el
Capítulo 3).
Los pesos base deben crearse tan pronto como se seleccione la muestra, si es posible.
Esto facilita los análisis preliminares, como los cálculos de la tasa de rendimiento, y asegura que los
elementos necesarios para el cálculo de los pesos base no se pierdan. Es necesario realizar
verificaciones de control de calidad en los pesos calculados. Cubrimos esto en detalle en el Cap. 18,
pero aquí hay algunas cosas a tener en cuenta: • Las probabilidades de selección están todas dentro
del rango (0,1). • Los pesos base deben sumar el número total de elementos en la población o una
estimación razonable del tamaño de la población. las sumas de los pesos deben hacerse para los
principales subgrupos (género, raza/etnicidad, establecimientos en el comercio minorista, etc.)
Pesos base: una excepción. Usar los inversos de las probabilidades de selección como ponderaciones
base suele ser el primer paso en la ponderación. Una excepción a esto es un método de muestreo en
el que se permite seleccionar algunas unidades más de una vez. Estos métodos se utilizan a veces en
la primera etapa de una muestra multietapa. Por ejemplo, considere una muestra de escuelas donde
los distritos escolares se seleccionan en la primera etapa con probabilidades proporcionales al número
de estudiantes en cada distrito. Se pueden seleccionar distritos muy grandes más de una vez, en cuyo
caso se podría seleccionar una submuestra más grande de escuelas dentro del distrito. Cuando se
permite que algunas unidades se seleccionen más de una vez, se debe rastrear el número esperado de
selecciones o "aciertos"; estos pueden ser mayores que 1. El peso base sería entonces el inverso del
número esperado de selecciones.
d0i = ÿÿ1 Es = N/n y también es el mismo para todas las unidades. Un srswor se llama auto
ponderación o epsem (método de muestreo y estimación de igual probabilidad)—ver
Kish (1965).
Ejemplo 13.2 (Muestreo aleatorio simple estratificado sin reemplazo (stsr swor)). La población se
divide en h = 1,...,H estratos mutuamente excluyentes
que cubren a toda la población. Se selecciona un srswor de tamaño nh en cada estrato de una
población de tamaño Nh. La probabilidad de selección de la unidad i en
el estrato h es ÿhi = nh/Nh y el peso base es d0hi = ÿÿ1 hola = Nh/nh. Este
es el mismo para cada unidad de muestra en el estrato h, pero las tasas de muestreo pueden
ser diferente de un estrato a otro.
Ejemplo 13.3 (Muestreo en dos etapas que conduce a epsem). Supongamos que una muestra
de estudiantes se selecciona en dos etapas—escuelas en la primera etapa y estudiantes
en la segunda etapa. En este caso, las unidades de muestreo primarias (o de primera etapa)
(PSU) son escuelas. Suponga que se seleccionan m UPM con probabilidades
proporcional al tamaño (pps) del alumnado y que una probabilidad igual
Se selecciona una muestra de ¯n estudiantes en cada UPM. Las escuelas se seleccionan de tal
manera que las probabilidades de inclusión son:
Cuando el marco contiene poca o ninguna información auxiliar útil, pero el objetivo
se desean tamaños de muestra para algunos dominios, muestreo de dos fases o multifase
se puede utilizar, como se describe en el Cap. 17. Los pesos base se pueden calcular como
el producto de los pesos asociados con cada fase.
Ejemplo 13.4 (Muestreo en dos etapas por dominios). Una muestra de m PSU es
seleccionadas y ni unidades secundarias de muestreo (UME) se seleccionan dentro de la UPM i
con probabilidades proporcionales al número de personas en cada USM. Para
conveniencia, dejemos que las UPM se definan en términos de pequeños segmentos geográficos de
un país y SSU como hogares dentro de los segmentos para una encuesta de hogares de área.
Cada hogar puede contener una o más personas. Suponer que
Machine Translated by Google
mniQij
ÿij (g) = fij (g),
q
donde Q es el recuento total de la población y fij (g) es la tasa a la que se muestrea el grupo
de edad g en la SSU ij. Las tasas para los dominios de edad a menudo se establecerán de tal
manera que se obtenga una muestra autoponderada en cada grupo de edad.
El peso base para la persona k en el grupo de edad g es entonces d0ij (g) = ÿÿ1yo(g).
Los marcos y las muestras pueden contener unidades cuya elegibilidad no se puede
determinar. Entre las unidades elegibles, la mayoría de las encuestas tendrán algunas que no
respondan. El Capítulo 6 discutió estos problemas en el contexto de determinar los tamaños
de muestra iniciales. Los ajustes de ponderación para elegibilidad desconocida y falta de
respuesta también se realizan generalmente para permitir que los encuestados ponderen hasta
la población elegible completa. Para su uso a continuación, defina estos conjuntos de unidades de muestra:
Algunos miembros del marco de muestreo pueden no ser elegibles a pesar de nuestros
mejores esfuerzos para limpiar el marco por adelantado. En una encuesta de militares actuales,
el marco puede ser el archivo de personal a junio del año en curso, con un plan para recopilar
datos en agosto. Para cuando se envíe la encuesta en agosto, algunas personas habrán
dejado el ejército. Estos "abandonos" no son elegibles, suponiendo que la población objetivo
son todos los miembros en el momento de la recopilación de datos. Otro ejemplo sería una
encuesta telefónica a hogares en la que algunos números de teléfono resultan ser de empresas.
En una encuesta de hogares sobre inmunizaciones infantiles, los hogares que no tienen niños
no son elegibles.
Machine Translated by Google
Por una variedad de razones, puede que no sea posible determinar la elegibilidad para todas las
unidades de muestra. Algunos casos cuya elegibilidad para una encuesta de hogares puede permanecer
desconocida una vez finalizada la recopilación de datos son:
Como en la fig. 13.1, suponga que la clasificación final de las unidades de muestra es:
Si se sabe que hay unidades no elegibles en la muestra, esto es evidencia de que hay otras unidades
no elegibles en la parte de elegibilidad desconocida de la muestra y también en la no muestra. Sin
embargo, se pueden tomar diferentes decisiones en diferentes encuestas acerca de cómo se manejan
las incógnitas. Por ejemplo, en una encuesta de establecimiento realizada por correo, las incógnitas
pueden ser todas direcciones que no se pueden entregar, en cuyo caso todas podrían estar codificadas
como fuera del negocio y, por lo tanto, no elegibles.
La mecánica para ajustar la elegibilidad desconocida generalmente se mantiene bastante simple. Un
método para manejar las incógnitas es distribuir el peso total de la muestra entre aquellos cuyo estado
de elegibilidad se conoce. Por lo general, se utilizan métodos simples para hacer esto, en parte porque
se puede saber poco sobre los casos con elegibilidad desconocida y en parte porque la falta de respuesta
se considera un problema más serio que debe recibir más atención. Se puede utilizar un enfoque basado
en la clase, que se describe a continuación, para el ajuste de elegibilidad desconocido.
El mismo enfoque se puede utilizar para el ajuste por falta de respuesta. Cubrimos formas de formar
clases en la Secc. 13.5.1. La idea general es hacer ajustes a los pesos de los casos con estado conocido:
1. Formar b = 1,...,clases B basadas en la información del marco conocida para todos los casos.
Las clases pueden atravesar los estratos de diseño. En la práctica, las clases de ajuste de
elegibilidad y de ajuste por falta de respuesta pueden ser las mismas.
2. Sea sb el conjunto de unidades muestrales en la clase b, independientemente de su elegibilidad o
estado de respuesta, y sea sb,KN = sb ÿ sKN el conjunto con elegibilidad conocida en la clase b. El
símbolo ÿ identifica el conjunto de unidades en sb y en sKN (es decir, la intersección).
Ejemplo 13.5 (No elegibles en una encuesta telefónica). Una encuesta telefónica de los
miembros de una organización de estudiantes del campus se lleva a cabo. La lista está algo
desactualizada, por lo que algunos números de teléfono son incorrectos. Algunas personas
en la lista pueden haber abandonado la escuela y, por lo tanto, no son elegibles. A
se puede identificar una parte de estos no elegibles; El 9,1 % de la muestra nunca es
contactados por lo que su elegibilidad es incierta. Una sola clase de ajuste es
usó. Se muestran las sumas de los pesos para diferentes categorías de casos.
abajo. La suma de todos los pesos de la muestra es 110 y es 100 para las personas con
elegibilidad conocida.
donde y ˆ¯r es la media estimada de los encuestados, Y¯r es la verdadera media de la población
encuestada, Y¯m es la verdadera media de la población que no responde, y
Machine Translated by Google
M/N es la tasa de falta de respuesta de la población calculada como la razón del tamaño de la población
que no responde, M, sobre el tamaño de la población, N. En el modelo determinista
situación, existe un sesgo si la media de la población para los encuestados es diferente de la de los no
encuestados. La idea detrás de la clase de ponderación
método de ajuste es tratar de agrupar las unidades de tal manera que el
las medias de clase para encuestados y no encuestados son iguales, es decir, Y¯r = Y¯m.
Condicionado por el patrón de respuesta exhibido en la muestra, el sesgo de no respuesta en (13.1)
se puede estimar usando ponderaciones base (o ponderaciones base )
ajustado para la elegibilidad del estudio desconocido), indicado a continuación como di, como
donde ¯yr = ridiyi yoÿs yoÿs ridi, la media estimada de y para la población encuestada con
ri = 1 si el i-ésimo miembro de la muestra es un encuestado (ri = 0
de lo contrario); ¯ym = (1 ÿ ri) di,
yoÿs (1 ÿ ri) estimada
la media bricolaje yoÿs
yo = / 1 0 que no
. Una
=
B y ˆ¯ÿ yi ÿ Y¯U ÿi ÿ ÿ¯ , (13.3)
Nÿ¯
Machine Translated by Google
ÿ1
wÿ = (ÿiÿi)
yo
Sin embargo, se requiere cierta precaución al usar algunos tipos de paradatos para el
ajuste de la falta de respuesta. Kreuter y Olson (2011) ilustran que si, por ejemplo, la
basura en las calles de un vecindario o la dificultad para encontrar a alguien en casa no
están relacionadas con las variables de análisis recopiladas en una encuesta, el uso de
esos paradatos en el ajuste por falta de respuesta puede hacer más daño que bien. . El
uso de datos irrelevantes puede inyectar una variabilidad sin sentido en las estimaciones
sin corregir ningún sesgo.
Machine Translated by Google
Si podemos crear grupos o clases donde todas las unidades tengan aproximadamente la
misma probabilidad de respuesta o aproximadamente los mismos valores de y, entonces
el sesgo de no respuesta en (13.1) se eliminará aproximadamente. Por lo tanto, el conjunto
ideal de clases estará relacionado tanto con las y como con las probabilidades de respuesta,
como recomiendan Kalton y Maligalig (1991) y Little y Vartivarian (2003, 2005). La dificultad
práctica con esto es que los valores de las variables de respuesta no están disponibles
para los que no responden. Además, un conjunto dado de clases no será igualmente
efectivo para todas las y. En consecuencia, un conjunto de clases suele identificarse en función de
Machine Translated by Google
sobre las probabilidades de respuesta. Si las covariables utilizadas para formar las clases también son
predictores de y variables, esto es un bono.
En esta sección, cubrimos la mecánica del uso de clases para hacer ajustes de falta de respuesta.
Existen diferentes formas de formar clases, las cuales
describir en las Secciones. 13.5.2 y 13.5.3. Indexamos las clases por c = 1,...,C. los
El objetivo de formar clases es juntar unidades que tengan la misma respuesta.
propensión. Como se señaló anteriormente, también es deseable tener una asociación entre
los medios de análisis de las variables y la forma en que se forman las clases. Si todas las unidades
en una clase tienen los mismos valores de covariable, xc, y la propensión a la respuesta es una
función de xc, entonces ÿi = ÿ (xc) para todas las unidades en c. Denotar el conjunto de muestra
casos en la clase c como sc, el conjunto de encuestados elegibles como sER, y el conjunto de
no respondentes elegibles por sENR, como en la Secc. 13.4. Los casos que se conocen
para ser elegible en la clase c son sc,E = sc ÿ (sER ÿ sENR) y el conjunto de elegibles
encuestados en la clase c es sc,ER = sc ÿ sER. El ajuste por falta de respuesta para
unidades en la clase c se calcula usando los pesos ajustados de elegibilidad desconocida
discutido en la Secc. 13.4:
iÿsc,E d1i
a2c = ,
iÿsc,ER d1i
es decir, la relación de la suma de los pesos de entrada para todos los casos elegibles en el
clase a la suma de los pesos de entrada para los encuestados elegibles en esa clase.
El ajuste resultante a2c se aplica solo a los encuestados en la clase c. los
el ajuste se establece en cero para los no encuestados elegibles desconocidos o conocidos,
sUNK ÿ sENR, y a uno para los supuestos de no elegibilidad conocida, sIN . los
peso para la unidad i en la muestra inicial, luego de los ajustes por incógnita
elegibilidad y falta de respuesta, es entonces
ÿ d1ia2c i ÿ sc,ER,
d2i = ÿ
d1i i ÿ SEN ,
0
ÿ i ÿ HUNDIDO ÿ SENR,
ÿ d0ia1ba2c
i ÿ sb,KN ÿ sc,ER,
=
ÿ
d0ia1b i ÿ sb,KN ÿ sIN i ÿ ,
0
ÿ hundido ÿ sENR .
Por lo tanto, las personas elegibles obtienen tanto el ajuste por elegibilidad desconocida
y el ajuste por falta de respuesta. Los no elegibles conocidos (sKN ÿsIN ) obtienen solo el
ajuste de elegibilidad desconocido. Los desconocidos (sUNK) y los elegibles que no respondieron
(sENR) se retiran .
El ajuste a2c no necesariamente tiene que usar los pesos d1i . Poco
y Vartivarian (2003) señalan que si todas las unidades en un ajuste por falta de respuesta
clase tienen la misma probabilidad de respuesta, luego un ajuste no ponderado,
a2c = nc,E/nc,ER, será imparcial con respecto al modelo de respuesta y
puede dar ajustes NR más estables. Esto será cierto incluso si los d1i varían
dentro de cada clase.
Machine Translated by Google
Las clases de ajuste por falta de respuesta pueden formarse simplemente tabulando las
tasas de respuesta entre los elegibles conocidos de diferentes maneras y tratando de crear
clases con diferentes tasas. Formas más formales y efectivas de crear clases son usar
modelos de propensión o algoritmos de clasificación, como se describe en las siguientes
dos secciones.
Podemos temer que estemos operando con información inadecuada, pero, en la práctica,
los parámetros del modelo deben estimarse en función de lo que se sabe tanto de los
encuestados como de los no encuestados. Un enfoque es ajustar un modelo de regresión
binaria para los indicadores de respuesta Ri. El valor esperado del indicador es
Esta es la probabilidad condicional de respuesta dado que se selecciona una unidad para
la muestra. Esto también influye en el uso o no de pesos base para ajustar el modelo, como
se analiza más adelante en este capítulo.
Otros ejemplos que se pueden modelar como procesos de variables latentes son los
decisión de volver a alistarse en el ejército y la decisión de votar por algún candidato
para cargos políticos. En el primer caso, vemos si una persona se reincorpora o
no. Por qué o por qué no puede requerir la consideración de la satisfacción laboral, la familia
situación, ingresos futuros potenciales después de dejar el ejército, habilidades laborales, edad,
tiempo en servicio, etc. Votar por un candidato puede depender de la recepción del votante
de la honestidad del candidato y de las promesas del candidato de mejorar.
escuelas o disminuir el crimen. Al final lo que se observa es qué candidato
obtiene el voto de una persona.
0.4
0.3
0.2
densidad
0.1
0 2 4 6 8
R*
ÿ (xi) = Pr (Ri = 1| Ii = 1)
= Pr(R* > ÿ).
Es
= 1 - F -xT ÿ=FxT ÿ
Es Es
Machine Translated by Google
F ÿ1
[ÿ (xi)] = F =
ÿ1
[ER (Ri | Ii = 1)]
xT ÿ Es
modelo probit
Regresión logística
exp(xT i ÿ) y la F ÿ1 el enlace es el
En un modelo de regresión logística, ÿ (xi) =
1+exp(xT i ÿ)
logit, definido como
ÿ (xi) = xT ÿ.
Iniciar sesión
Es
1 ÿ ÿ (xi)
Usar este modelo es equivalente a suponer que el término de error en el modelo de variable
latente tiene lo que se llama una distribución de "valor extremo":
F (ui) = eÿeÿui .
La distribución de valores extremos tiene una media de aproximadamente -0,577 (conocida como
constante de Euler) y una varianza ÿ2 6 (Weisstein 2010).
Hay algunas diferencias en estas distribuciones, pero no son extremas.
La figura 13.3 muestra las probabilidades en el eje vertical graficadas frente a los enlaces
estandarizados en el eje horizontal. El enlace estandarizado para cada distribución se define
como [u ÿ E (u)] /ÿu. Probit y logit son casi idénticos mientras que c-log log tiene más probabilidad
en valores más bajos de la función de enlace.
El ejemplo 13.6 ilustra cómo estimar las probabilidades de respuesta en R. Se debe elegir si
usar los pesos base de la encuesta al estimar los parámetros del modelo. Dado que se desean
probabilidades condicionadas a ser seleccionado para la muestra, esto implica que se deben
ajustar las regresiones no ponderadas. Si se utilizaran las ponderaciones base, entonces los
parámetros estimados serían para el modelo de ajuste censal, es decir, los que se estimarían si
se dispusiera de toda la población. Si Pr (Ri = 1| Ii = 1) = Pr (Ri = 1), entonces los estimadores
no ponderados y ponderados apuntarían a las mismas cantidades. Sin embargo, incluso en ese
caso, el uso de ponderaciones base variables puede generar estimadores con varianzas más
altas, un punto ilustrado por Little y Vartivarian (2003) en el contexto de los ajustes por falta de
respuesta de clase.
1.0
0.8
logit
probit
cÿlogÿlog
probabilidad
0,6
0,4
0,2
0,0
ÿ4 ÿ2 0 2 4
valor de enlace estandarizado
Higo. 13.3: Gráfica de probabilidades versus enlaces estandarizados para modelos logit, probit y c-log-log.
Ejemplo 13.6 (Modelos no ponderados). Los datos del NHIS de 2003 (nhis.RData) consisten en
3.911 casos. Identificamos a los que no respondieron como personas que respondieron a la
pregunta sobre ingresos personales como Rechazado, No determinado y No sabe o que
informaron sus ingresos solo por encima o por debajo de $20,000. la respuesta
Machine Translated by Google
0.7
0.6
0.5
0.7
0.6
predicciones
probit
predicciones
cÿlogÿlog
0.5
0,80
0,75
0,70
0,65
0,60
0,55
0,50
variable tiene valores de 0 para los no respondedores y 1 para los respondedores. Sobre
El 31 % no responde a este criterio. Ajustamos logit, probit y c-log-log
modelos utilizando las siguientes covariables:
Edad (continua)
educación sobre la edad
Expediente educativo (1 = escuela secundaria, educación general
grado de desarrollo (GED), o menos, 2 = algo de universidad
3 = Licenciatura o título de asociado
4 = Maestría y superior)
padres Origen étnico hispano (1 = hispano, 2 = no hispano)
hisp r Padre(s) de la persona de la muestra presente en la familia
(1 = Sí, 2 = No)
la raza Raza (1 = Blanco, 2 = Negro, 3 = Otro)
A continuación se muestra el código para ajustar un modelo logístico (no ponderado) en R. Algunos de los
la salida está en la Tabla 13.1. Las variables hisp, padres y raza se tratan como R
variables factoriales (variables de clase en SAS). R crea automáticamente variables ficticias
y omite el primer nivel de cada una (nivel de referencia) para calcular el parámetro
soluciones:
Machine Translated by Google
# Regresión logística
glm.logit <- glm(resp ˜ edad + as.factor(hisp)
+ as.factor(raza) +
as.factor(parents_r) +
as.factor(educ_r),
family=binomial(link = "logit"),
datos = nhis)
resumen (glm.logit)
family=binomial(enlace = "probit")
family=binomial(enlace = "cloglog")
en la llamada a glm. Supongamos que los modelos resultantes se almacenan en los objetos
glm.probit y glm.cloglog. Para vincular valores a probabilidades pronosticadas:
Los valores AIC para los tres modelos son: logístico, 4777.2; probit, 4777.1; y c-log-log,
4777.1, lo que implica que los tres encajan igualmente bien, al menos según la medida
AIC. La figura 13.4 muestra diagramas de caja de las probabilidades predichas de los tres
modelos y diagramas de dispersión de las predicciones probit y c-log-log frente a las del
modelo logístico. Estos gráficos también confirman que los tres modelos producen
resultados muy similares en este ejemplo.
Los mismos modelos no ponderados también se pueden ajustar en SAS usando proc
genmod, el procedimiento diseñado para analizar datos a través de un modelo lineal
generalizado con una función de enlace específica:
Los mismos modelos se pueden ejecutar con los pesos base usando svyglm en el
Paquete de encuestas R (Lumley 2012). Debido a que los pesos base no están disponibles en
el archivo de uso público de NHIS, hemos utilizado los pesos finales de la encuesta (svywt) para
ilustración.
requerir (encuesta)
nhis.dsgn <- svydesign(ids = ˜psu, estratos = ˜estrato,
datos = nhis,
nido = VERDADERO,
Las estimaciones ponderadas de los parámetros se muestran en la Tabla 13.1 junto con las
valores no ponderados del Ejemplo 13.6. Los mismos parámetros son significativos.
tanto en el ponderado como en el no ponderado, aunque a diferentes niveles.
como.factor(padres r)2 0,522 4,74 0,000 *** 0,547 4,84 0,000 ***
como.factor(educ r)3 0.346 3,79 0,000 *** 0,383 3,99 0,000 ***
0.8 0.8
0.80
0.5
Probabilidades
ponderadas
predichas
encuesta
de
la Probabilidades
ponderadas
predichas
encuesta
0,5
de
0,6
la Probabilidades
ponderadas
predichas
encuesta
0,50
0,60
de
la
0.5 0.6 0.7 0.8 0,5 0,7 0,8 0.6 0,50 0,55 0,60 0,65 0,70 0,75 0,80
Probabilidades predichas no ponderadas Probabilidades predichas no ponderadas Probabilidades predichas no ponderadas
para obtener estimaciones puntuales para probit y c-log-log; los errores estándar (y por lo tanto
la prueba de significación) no tendrá en cuenta características de diseño como la agrupación.
Las propensiones de respuesta se pueden utilizar para los ajustes por falta de respuesta, ya sea
individualmente o agrupando las unidades en clases. Las opciones son:
2. Estratificación de propensión—Utilice los ÿˆi para crear clases y hacer un ajuste común dentro
de cada clase para todos los encuestados.
de tratamiento Por ejemplo, podríamos agrupar a personas que tienen propensiones similares a
fumar. Luego, calcule las proporciones de fumadores y no fumadores con cáncer de pulmón en cada
clase. La idea es que cualquier diferencia en covariables como edad, raza/etnicidad y clase social
se haya ajustado dentro de cada grupo porque ÿ (xi) resume los efectos de las covariables (al menos
las del modelo) y ÿ (xi ) ) están cerca uno del otro para todas las unidades en un
grupo.
En el caso de respuesta/falta de respuesta, los que responden son equivalentes a los tratados y
los que no responden a los controles. La probabilidad de tratamiento es la probabilidad de respuesta.
Creamos clases para que cada unidad en una clase tenga la misma o similar probabilidad de
responder y hacemos el mismo ajuste de falta de respuesta para cada encuestado en una clase
dada. Little (1986) fue el primero en sugerir esto para el ajuste por falta de respuesta; Czajka et al.
(1992) dan un ejemplo utilizando declaraciones de impuestos.
Primero, se ajusta un modelo de regresión binaria utilizando las covariables disponibles tanto para
los encuestados como para los no encuestados. Idealmente, estas covariables están relacionadas
tanto con la propensión a responder como con las y que se miden. En la práctica, el conjunto de x
disponibles puede ser extenso o bastante limitado, según el tipo de encuesta. En una encuesta de
satisfacción de los empleados, como la del Proyecto 1, se puede saber bastante sobre todas las
unidades de la muestra. Las encuestas de panel también pueden tener datos sobre los que no
respondieron en ciclos posteriores si las unidades respondieron en un ciclo inicial y proporcionaron
algunos datos. En una encuesta telefónica, es posible que no se sepa casi nada de los que no
respondieron, aparte, posiblemente, de la ubicación geográfica del número de teléfono. Incluso esto
está cambiando en los EE. UU., donde los usuarios de teléfonos móviles pueden conservar el mismo
número de teléfono dondequiera que vayan.
Los pasos generales en la formación de clases son:
Por lo general, se recomiendan cinco clases con base en algunos análisis de Cochran (1968). Con
una muestra grande, no hay razón para no crear más clases. Esto puede ayudar a que cada uno
sea más homogéneo en cuanto a covariables y puntajes de propensión.
Más clases pueden disminuir el sesgo debido a la falta de respuesta, pero pueden aumentar las
variaciones al crear una mayor dispersión en los pesos. En el Cap. 14
Si el rango de ÿˆ (xi) en cada clase es pequeño, entonces es razonable usar un solo valor de
propensión para cada clase. En algunos conjuntos de datos, puede haber agrupamiento de
probabilidades estimadas, es decir, grupos de unidades que tienen aproximadamente el mismo
Machine Translated by Google
ÿˆ (xi). Si hay separación entre los grupos, entonces crear clases con
el mismo número de unidades puede ser una mala idea ya que mezclaría unidades con
diferentes propensiones de respuesta. Hay varias opciones para calcular un
ajuste único en cada clase c:
Si todas las unidades de una clase tienen la misma probabilidad de responder, es decir, el
agrupamiento es muy efectivo, entonces (3) ÿˆc = ncR/nc es lo mejor [ver Little y Varti varian
(2003)]. Si los valores de ÿˆ (xi) varían dentro de una clase, se puede usar (1) o (2). los
cuarta opción, ÿˆc = di, es unaiÿscR di
estimación deiÿsc
la población
tasa de respuesta en clase c asumiendo MAR. Esta estimación es aproximadamente imparcial
con respecto al mecanismo compuesto de muestreo/respuesta o con
respecto a un modelo con una probabilidad de respuesta común dentro de cada clase.
La cuarta opción puede ser ineficiente si los pesos varían mucho dentro de la clase y
unidades tienen un ÿi común. La opción (5), la mediana, podría considerarse si la
las probabilidades de respuesta varían bastante dentro de una clase o la distribución
de las probabilidades estimadas está sesgada. Compararemos estas opciones en
un ejemplo a continuación. En muchas aplicaciones, las opciones darán muy similar
respuestas
• Para las x cuantitativas, ajuste un modelo de análisis de varianza (ANOVA), x = p.clase resp
p.clase*resp. • Para x dicotómicas, ajuste un modelo logístico, logit(x) = p.class resp p.class*resp
Los coeficientes de resp y el término de interacción p.class*resp no deberían ser significativos si las
medias de las covariables no difieren para Rs y NRs dentro de la clase de quintil. Los coeficientes
de p.class deben ser distintos de cero y diferentes entre sí, ya que las unidades con diferentes
valores de las propensiones y, en consecuencia, las covariables, entran en las diferentes clases.
Otro paso simple y descriptivo es observar las medias de las covariables en una tabla p.class*resp.
La comprobación del equilibrio también es relevante para otros tipos de estudios. Por ejemplo,
Harder et al. (2010) analizan el equilibrio en la inferencia causal en estudios psicológicos.
Ejemplo 13.8 (Formar clases a partir de propiedades). Continuando con los análisis NHIS dados en
el Ejemplo 13.6, el objeto pred.logit contiene las probabilidades de respuesta pronosticadas del
modelo logístico no ponderado. El siguiente código R divide a las personas en cinco clases y verifica
el conteo de personas por clase:
La tabla 13.2 enumera los valores de propensión que se utilizarían para cada clase
basado en los cinco métodos anteriores. En los datos del NHIS, todos los métodos dan resultados similares.
resultados. Aunque los cinco métodos dan una propensión creciente monótonamente
valores a través de las clases, esto no tiene por qué ser cierto. El no ponderado y
las tasas de respuesta ponderadas, en particular, no tienen que aumentar desde la clase 1
a 5, aunque las propensiones estimadas del modelo sí lo hacen.
Tabla 13.2: Cinco métodos para estimar las propensiones de respuesta dentro de las clases basadas
sobre el ajuste de un modelo logístico a los datos del NHIS.
Higo. 13.6: Diagramas de caja de probabilidades predichas basadas en regresión logística después de clasificar
en cinco clases de propensión.
La figura 13.6 muestra diagramas de caja de las probabilidades de regresión logística dentro de
cada una de las cinco clases de propensión. La línea horizontal en cada cuadro es el
media no ponderada de las propensiones en la clase. La clase con las propensiones más pequeñas tiene
un rango más amplio que los demás, lo cual es típico en
Machine Translated by Google
estas aplicaciones. El rango de propensiones en las últimas cuatro clases es mucho más
corto. Usar la media u otro valor único para ajustar la falta de respuesta
eliminar los ajustes más extremos. Por ejemplo, en la primera clase, el
la propensión estimada más pequeña es 0.453 cuyo inverso es 2.21. el no ponderado
la media en esa clase de la tabla 13.2 es 0,588 con una inversa de 1,70. De este modo,
el uso de la media reduciría el ajuste en aproximadamente un 23 %.
Ilustramos una verificación del equilibrio de covariables ajustando un modelo ANOVA
a la edad, que es continua. No usamos los pesos de la encuesta a continuación ya que
el interés está en si se ha logrado el equilibrio en la muestra que se
seleccionado. Las comprobaciones pueden hacerse utilizando los pesos, en cuyo caso la comprobación
dependería de si el modelo de ajuste del censo muestra evidencia de equilibrio:
resumen (chk1)
Coeficientes:
Estime el valor de t Pr(>t)
(Intersección) 56,12 63,06 < 2e-16 ***
p.clase(0.631,0.677] p.clase(0.677,0.714] -7.84 -5.91 3.79E-09 ***
p.clase(0.714,0.752] p.clase(0.752,0.818] -11,36 -8,37 < 2e-16 ***
-12,98 -9,43 < 2e-16 ***
-23.12 -15.00 < 2e-16 ***
resp -0.06 -0.05 0.957
p.clase(0.631,0.677]:resp -0.01 -0.01 p.clase(0.677,0.714]:resp -1.24 -0.73 0.994
p.clase(0.714,0.752]:resp 0.22 0.13 p.clase(0.752,0.818]: resp 1.57 0.86 0.464
Códigos de signif: 0.896
0.390
En este caso, todos los factores p.class tienen coeficientes que son significativos
mientras que las interacciones p.class*resp no lo son—los resultados deseados si son medios
la edad difiere entre las clases, pero es la misma para los encuestados y los no encuestados
dentro de una clase. Otra verificación es colocar un segundo modelo que incluye solo
p.class y para probar si los modelos son equivalentes:
Estimación z Pr(>z)
(Intersección) -0,51 -4,4 9.69E-06 ***
p.class(0.631,0.677] p.class(0.677,0.714] -0.17 -0.9 0.344
p.class(0.714,0.752] p.class(0.752,0.818] -0,76 -3,9 9.64E-05 ***
resp p.class(0.631,0.677]:resp -0.25 -1.84 -7.1 1.75E-12 ***
-1.1 p.clase(0.677,0.714]:resp -0.05 -2.92 -6.2 4.51E-10 ***
-0.2 p.clase(0.714,0.752]:resp -0.04 0,08 0,5 0.612
-0.1 p.clase(0.752,0.818]:resp -0.99 -1.7 0.253
0.842
0.901
0.097
Tres de los cuatro coeficientes para p.class son significativos mientras que el
Las interacciones p.class*resp no lo son (al menos en el nivel 0.05). Resultados
para raza, padres r y educ r son similares. Tenga en cuenta que race y educ r
deben recodificarse en variables binarias para usar la logística. También podemos caber un segundo
modelo con solo p.class para comparar con el anterior:
Nota numérica
El modelo logístico para verificar el equilibrio de covariables en los padres tiene anomalías
resultados que parecen ocurrir bastante a menudo en la práctica y merecen un comentario.
El modelo
Coeficientes:
Estimar SE z Pr(>z)
(Intersección) -0,54 0,12 -4,64 3,49E-06 ***
p.clase(0.631,0.677] p.clase(0.677,0.714] -1,11 0,20 -5,45 5,10E-08 ***
p.clase(0.714,0.752] p.clase(0.752,0.818] -1,81 0,26 -7,07 1,51E-12 ***
-3,27 0,47 -7,00 2,49E-12 ***
-19,03 850,18 -0,02 0,982
resp -0,22 0,15 -1,45 0,148
p.clase(0.631,0.677]:resp 0.47 0.25 1.85 0.064
Machine Translated by Google
correr;
* Modelo de probabilidad de respuesta; datos
logísticos del proceso = nhis; clase hisp (ref = '1')
carrera (ref = '1') padres_r (ref = '1') educ_r (ref =
'1') / param=ref; modelo resp(evento = '1') =
edad hisp carrera padres_r educ_r;
varpr;
correr;
datos a;
correr;
Machine Translated by Google
* Realizar ANOVA de 2 vías y regresiones logísticas para determinar; * si se eliminó la diferencia en las medias
de las covariables; * mediante la creación de clases. datos de proc glm = a; clase pclase; edad del modelo =
pclass resp pclass * resp; ;
correr;
donde
ÿj es el efecto del j-ésimo nivel de género (masculino o
femenino) ÿk es el efecto del k-ésimo nivel de etnicidad (hispano, no hispano, blanco, no hispano)
Negro hispano, otro no hispano) (ÿÿ)jk
es un efecto de la interacción de género y etnicidad ui es un término
de error que se supone que tiene una distribución normal estándar, es decir,
ui ÿ N (0, 1)
(Si ui tiene una varianza ÿ2 = 1, entonces el modelo puede reformularse en términos de Rÿ /ÿ. Es
Esta probabilidad es la misma para cada unidad i en cada combinación jk. Esto lleva a que
la estimación de ÿ (xi) sea nR jk njk en el caso no ponderado.
estimada Es decir,jklaesprobabilidad
para las unidades simplemente la
proporción de la muestra en la clase que son encuestados, es decir, la tasa de respuesta no
ponderada.
Machine Translated by Google
Una pregunta obvia es qué método es mejor: ajuste de clase con clases definidas por cruces
de variables categóricas o modelos de propensión con ajustes basados en propensiones de
respuesta individuales o clases de propensión.
El modelo de propensión puede ser más flexible que el ajuste de clase por varias razones,
entre ellas:
Por supuesto, el modelado puede llevar a elegir el ajuste de clase si el modelo incluye solo
los efectos principales para las variables categóricas y todas las interacciones. Si se sabe
poco acerca de los que no responden, el modelo de propensión no ganará mucho sobre el
ajuste de clase y puede ser equivalente. En las encuestas de hogares, por ejemplo, pueden
estar disponibles pocos elementos específicos de personas o de hogares. Los datos del
vecindario pueden ser más comunes.
En el otro extremo, si hay una serie de variables disponibles para encuestados y no
encuestados, los modelos de propensión pueden dar una gama bastante amplia de
probabilidades estimadas. En ese caso, agrupar las propensiones en clases, como se
describió anteriormente, conducirá a una menor dispersión en los ajustes de ponderación.
Por otro lado, si el modelo se ajusta bien, los ajustes de ponderación que sean inversos de
las propensiones individuales eliminarán el sesgo, mientras que los ajustes de clase no lo harán.
El ajuste de clase eliminará el sesgo si todas las unidades de la clase tienen la misma
probabilidad de respuesta, pero si cada unidad tiene una probabilidad de respuesta separada,
un ajuste de clase puede ser demasiado grueso para eliminar el sesgo. (El sesgo al que se
hace referencia aquí es sobre las distribuciones de muestreo y respuesta). Dado que los
modelos generalmente no son completamente confiables, el uso de la estratificación de
propensión es más común en la práctica.
Un último punto computacional es este: un factor y sus niveles pueden ser simples o
elaborados. Por ejemplo, un factor simple es el género (masculino, femenino). El equivalente
a cruzar dos variables categóricas simples sería crear una sola variable que pudiera tomar
todos los valores del cruce. Por ejemplo, género ×
Machine Translated by Google
Otro método para formar clases para los ajustes por falta de respuesta es a través de un
algoritmo de clasificación. La idea de clasificar unidades matemáticamente en función de
características fue introducida por Morgan y Sonquist (1963). Muchos algoritmos ahora están
disponibles, incluidos árboles de clasificación y regresión (CART; Breiman et al. (1993)), máquinas
de vectores de soporte (Vapnik 1995) y detección de interacción automática de chi cuadrado
[CHAID, (Kass 1980)]. Cubriremos el algoritmo CART que está disponible en el paquete R rpart
(Therneau et al. 2012). El objetivo será clasificar las unidades como encuestadas o no
encuestadas en función de las covariables disponibles para todos los casos de muestra. Por lo
tanto, los datos de entrada son los mismos que para el modelo de propensión. Algunas de las
principales aplicaciones de los algoritmos de clasificación se encuentran en la construcción de
árboles de decisión. Uno de los ejemplos más conocidos es si el piloto del transbordador espacial
debe usar el aterrizaje automático o aterrizar manualmente (Michie 1989; Venables y Ripley
2002) según la dirección y velocidad del viento, la visibilidad y otros factores.
Judkins et al. (2005) y Rizzo et al. (1996) son dos artículos que comparan modelos de propensión
y algoritmos de árboles para el ajuste por falta de respuesta. Como en la sección anterior,
queremos formar clases para poder afirmar que tenemos MAR, es decir, dadas las x que definen
clases, todas las unidades tienen la misma probabilidad de respuesta.
require(rpart)
set.seed(15097) nhis
<- data.frame(nhis) t1 <- rpart(resp
˜ edad + hisp + carrera + padres_r
+ educ_r, método = "clase", control = rpart.control(minbucket
= 50, cp=0), datos = nhis)
El árbol NHIS tiene cinco nodos terminales (u hojas) marcados con *. Cada fila de la
lista muestra el número del nodo, la división, que es la combinación
Machine Translated by Google
1 | 1212/2699
educa_r< 1.5
educa_r>=1.5
1 689/1275 1 523/1424
edad>=55.5
edad< 55.5
1 239/349 1 450/926
padres_r< 1.5
padres_r>=1.5
1 111/166 1 339/760
edad>=32.5
edad< 32,5
1
0 36/31 75/135
Higo. 13.7: Árbol de clasificación para las clases de ajuste por falta de respuesta en los datos del NHIS.
La Figura 13.7 es una imagen del árbol, que puede aclarar la combinación de
factores en cada nodo. Por ejemplo, el nodo etiquetado como 11 en el resultado
de la impresión se define por casos con educación secundaria o menos (educ r<
1.5), edad < 56 y ninguno de los padres de la persona de la muestra presente en
el hogar (padres r> =1.5). El nodo 11 tiene una tasa de respuesta del 69 %.
Observe que las definiciones de los nodos implican que existe cierta interacción
entre las variables que se tiene en cuenta al modelar la respuesta. El hispano y la
raza no se usaron en la construcción del árbol, aunque estos factores fueron
significativos en el modelo logístico de la Tabla 13.1. Sin embargo, el uso de
categorías más detalladas para la presencia de los padres y la educación conducirá
a que se incluya a los hispanos, como se ilustra en uno de los ejercicios. Observe
que el árbol de regresión ha identificado una interacción triple de educación, edad y padres.
Machine Translated by Google
tabla(t1$donde)
36789
588 67 210 1099 1947
Las etiquetas (3, 6, 7, 8, 9) no son las mismas que las etiquetas mostradas por print(t1,
digits=2) arriba. La etiqueta 3, por ejemplo, significa el tercer nodo producido por la
impresión:
y fusionado en el archivo de datos nhis para hacer los ajustes de falta de respuesta
utilizando el siguiente código R:
Los diseñadores de encuestas a menudo tienen una larga lista de opciones de ajuste por falta de respuesta.
clases, del tipo descrito en la Secc. 13.5.1, en mente cuando se desarrollen
sistemas de ponderación. Sin embargo, el uso de clases con un pequeño número de muestra
casos conducirá a estimaciones imprecisas de las propensiones de respuesta. Si la muestra
el tamaño de una clase es pequeño, la clase puede colapsarse con una adyacente.
La justificación convencional del colapso es que la posibilidad de crear
los pesos extremos se reducen al igual que las varianzas de las estimaciones. Sin embargo, un pobre
La elección del método de colapso puede dar lugar a estimaciones bastante
sesgado.
Kalton y Maligalig (1991) y Kim et al. (2007) dan alguna orientación
sobre cómo debe hacerse el derrumbe, que aquí resumimos. Colapsando
conduce a un sesgo cuando las tasas de respuesta y las medias de clase de las clases iniciales son
Machine Translated by Google
correlacionados dentro de una clase colapsada. El sesgo puede ser positivo o negativo,
dependiendo de la correlación. Las clases deben contraerse en función de la similitud de las
tasas de respuesta, las medias de las clases de población o ambas para evitar sesgos.
Este método de colapsar puede ser muy diferente de los procedimientos que solo colapsan las
clases "adyacentes", por ejemplo, mediante la combinación de grupos de edad contiguos. Si
la adyacencia coincide con clases que tienen tasas de respuesta o medias similares, no se
produce ningún sesgo.
Hay al menos dos problemas prácticos con el colapso basado en las medias de clase.
Una es que, si bien la teoría de los dos artículos anteriores nos indica colapsar en función de
las medias de la población, en una muestra particular solo tendremos estimaciones para la
muestra que responde. Si la falta de respuesta es sustancial, las medias de las partes de la
muestra que respondieron y las que no respondieron pueden ser considerablemente diferentes,
incluso dentro de las clases iniciales. Este sería un caso de NINR. En ese caso, el ajuste
basado únicamente en el conjunto inicial de clases o combinaciones de ellas no puede corregir
el sesgo por falta de respuesta. Un segundo problema práctico es que en la mayoría de las
encuestas se recopilan datos sobre muchos elementos. Es posible que colapsar según las
medias de clase para una variable no funcione bien para otras variables. En ese caso, el
compromiso, sugerido por Little y Vartivarian (2005) para el ajuste por falta de respuesta, de
colapsar en base a algún promedio ponderado de las medias de un conjunto importante de
variables podría ser una buena solución. Sin embargo, solo tendremos medios para los
encuestados. En la mayoría de las encuestas no se puede verificar si las medias de los que no
respondieron difieren ni en qué medida.
El software de árbol de regresión, como rpart en R, tiene esquemas de colapso
automatizados que se basan en la optimización de algún criterio (como maximizar una
probabilidad logarítmica o minimizar una suma de cuadrados de error) asociado con el método
elegido para particionar los datos. Como se muestra en la figura. 13.7, la función R combinó la
variable edad continua en grupos de 55,5 años y más, y menos de 55,5 años.
Las secciones anteriores abordaron los ajustes de ponderación dentro de una sola etapa del
diseño de la encuesta. Estas mismas técnicas básicas se pueden usar dentro de cada etapa
de un diseño de etapas múltiples y deben reflejar secuencialmente cualquier ajuste apropiado
del nivel anterior. Proporcionamos algunos ejemplos descriptivos a continuación.
donde ÿÿ1 es el peso base para el empleado jk dentro de la empresa hi, es decir, dado
jk|hi
that business hi fue seleccionado en la primera etapa del diseño. Si no se puede confirmar la elegibilidad para el
estudio para la empresa, como su estado operativo o
si la empresa todavía fabrica un producto en particular, entonces la PSU
el peso base debe ajustarse para la elegibilidad desconocida, whi = dhia1hi. los
el peso a nivel de negocio resultante se usaría para crear el empleado final
pesos de análisis tales como
donde a2hijk significa, por ejemplo, un ajuste de falta de respuesta a nivel de SSU.
Un segundo ejemplo es una encuesta de maestros que instruyen a los estudiantes entre
la edad de 14 y 16 años. Las escuelas (SSU) se eligen al azar de una muestra
grupos geográficos (PSU) como distritos escolares o condados; los maestros son
luego seleccionados de los tostadores proporcionados por un administrador de la escuela. Si el estado de
la escuela i en PSU h no se puede determinar y el administrador de la escuela se niega
para participar en el estudio para algunas escuelas, entonces al menos un ajuste
debe aplicarse al peso SSU:
donde ÿÿ1 es el peso base de la PSU, ÿÿ1 es el peso base SSU condicional,
Es
j|i
un(1) es el ajuste de elegibilidad desconocido (incondicional) para SSU hi que
2ij
y un (2) ÿÿ1
se calculó con peso de entrada dij = ÿÿ1 yo , Es
2ij es el correspondiente
ing (incondicional) ajuste de falta de respuesta calculado con peso de entrada
w(2) = ÿÿ1 ÿÿ1 un(1)
2ij j|i
Es
2ij . Tenga en cuenta que ni un ajuste de elegibilidad desconocido ni
se requeriría un ajuste por falta de respuesta para las etapas de un diseño de encuesta que
involucrar conglomerados geográficos como la unidad de muestreo ya que, presumiblemente,
saber si cada unidad geográfica es elegible y todos responderán. Sin embargo,
si se obtuvo el permiso de los funcionarios del distrito escolar para comunicarse con las escuelas de muestra.
requerido, entonces también se justificaría un ajuste de falta de respuesta a nivel de PSU.
La ponderación ajustada al nivel de la escuela, wij arriba, se usaría para construir
un peso de análisis ajustado por falta de respuesta para el maestro k, wijk = wij a3ijk.
Machine Translated by Google
Las secciones anteriores trataron sobre el desarrollo de los pesos base, el inverso
probabilidades de selección, así como ajustes para abordar problemas con
elegibilidad del estudio desconocida y sesgo de falta de respuesta. El próximo capítulo se completa.
la imagen centrándose en el uso de datos auxiliares (o covariables) cuyo
los totales son conocidos para la población objetivo. El uso de datos auxiliares puede reducir
varianzas de los estimadores y puede ajustarse para marcos de muestreo incompletos, un problema
también conocido como subcobertura. Estos muchos ajustes de peso, especialmente
para encuestas de etapas múltiples, puede inflar innecesariamente la variación en el análisis
ponderaciones que a su vez disminuyen la precisión en las estimaciones del estudio. También se
discuten las técnicas utilizadas para manejar esta inflación.
Machine Translated by Google
Ejercicios
13.1. Considere el muestreo aleatorio simple estratificado sin reemplazo (stsr swor). Se selecciona
un srswor de tamaño nh en cada estrato de una población
de tamaño Nh, h = 1,...,H. La probabilidad de selección de la unidad i en el estrato h es
ÿhi = nh/Nh y el peso base es d0hi = ÿÿ1 hola = Nh/nh. Muestre que el
la suma de los pesos base de todas las unidades de la muestra es igual a la población
tamaño N y que la suma dentro de cada estrato es igual a la población del estrato
tamaño, Nh.
13.2. Se necesita una muestra en dos etapas de las UPM y de las personas dentro de las UPM para
un estudio piloto sobre el transporte público. Una muestra de tres UPM geográficas
ha sido seleccionado con probabilidades proporcionales a su población total
conteos, Ni, basados en registros administrativos. El muestreo se realizó de tal
manera que la probabilidad de seleccionar PSU i es mNi/N, usando la notación
de antes en este capítulo. Las personas se clasificarán en dos razas/etnias
grupos de muestreo: blancos no hispanos y otros. te gustaría
seleccione submuestras de blancos no hispanos y otros para que la muestra
de cada uno de estos dos grupos es autoponderado. Las frecuencias de muestreo deseadas
son 0,01 para los blancos no hispanos y 0,04 para los demás.
fuente de alimentación
Ni No Hispano Otros
Blanco NW i Otro,i
1 1,000 800 200
2 850 400 450
3 150 110 40
Encuentra el siguiente:
13.3. Repita el ejercicio 13.2 suponiendo que las tasas de muestreo objetivo son 0,02
para los blancos no hispanos y 0,06 para los demás. ¿Ves algún problema con
¿este diseño? Si es así, ¿qué remedio sugeriría?
Una 50 46 11 17 124
2 77 89 19 12 197
3 44 31 8 23 106
(a) Ajuste los pesos por separado en cada ciudad primero para elegibilidad desconocida
y luego por falta de respuesta. Muestre sus cálculos en cada paso.
(b) ¿Cuál es el número total estimado de unidades elegibles en cada ciudad y
en todas las ciudades?
(d) ¿En qué circunstancias sería razonable combinar las tres ciudades
juntos para hacer los ajustes por elegibilidad desconocida y falta de respuesta? ¿Esas
circunstancias se mantienen aquí?
13.5. Se realiza una encuesta telefónica a una muestra de 500 miembros de una organización
profesional de podólogos. Los 500 son una muestra aleatoria simple
de la lista de 2000 miembros actuales. Se determina definitivamente que cuatrocientas
personas de la muestra son elegibles. Entre ellos, 320 responden a la encuesta y
80 basura. La lista está algo desactualizada, por lo que algunos números de teléfono son
incorrecto. No se puede contactar con éxito a setenta personas de muestra. de los 70,
hay 45 a los que contesta el contestador, pero nunca se contacta directamente con una
persona; 16 personas toman el teléfono pero inmediatamente cuelgan cuando
escuchan que se está haciendo una encuesta; para nueve de los números de teléfono tampoco
una persona ni un contestador contesta nunca. Algunas personas en la lista
pueden haber abandonado la organización y, por lo tanto, no son elegibles. Tú
son capaces de identificar 30 personas de muestra que han dejado de ser miembros:
(a) ¿En qué estado de elegibilidad clasificaría a las 70 personas (45 contestadores automáticos,
16 cuelgan, 9 no contestan): desconocidos, no elegibles o elegibles?
¿rechazo? ¿Por qué?
(b) Dada su decisión en (a), use una sola clase de ajuste para ajustar por
elegibilidad desconocida. ¿Qué casos reciben el ajuste? Cuál es el
valor de ajuste para cada uno?
(c) Después del ajuste por elegibilidad desconocida, ¿cuál es el número estimado
bras en la población de elegibles y no elegibles?
13.6. Ajuste los modelos logísticos, probit y c-log-log no ponderados a la variable resp en el
conjunto de datos NHIS, nhis.RData:
(d) ¿Cómo se comparan los ajustes de clase con el uso de los inversos de los
estimaciones de propiedad como ajustes?
(e) ¿Qué conjunto de valores de ajuste recomendaría y por qué?
13.8. Utilizando los conjuntos de cinco y diez clases de propensión que creó en el
ejercicio 13.7, realice las comprobaciones sugeridas por D'Agostino (1998) para ver
si la clasificación de propensión logró equilibrar las covariables. Si no se logró el
equilibrio, discuta cuáles podrían ser las implicaciones de esto para usar las clases
para el ajuste por falta de respuesta.
capitulo 14
Calibración y otros usos de auxiliares
Datos en Ponderación
Por ejemplo, suponga que una encuesta de hogares estima que el número de hombres
afroamericanos, de 18 a 24 años, es solo el 75 % del último censo o proyección de población
para ese grupo, incluso después del ajuste por falta de respuesta.
Al crear ponderaciones que reproduzcan los recuentos del censo o las proyecciones de
población, podemos "corregir" la cobertura insuficiente. Para ser eficaz, la respuesta
20 30 40 50 60 70 80 20 30 40 50 60 70 80
X X
Higo. 14.1: Diagramas de dispersión de dos relaciones hipotéticas entre una variable de encuesta
y y un auxiliar x.
los casos de muestra tienen que ser una buena representación de la población total. Este
significa que o bien (a) los ajustes de pesos, tratados en el Cap. 13, corregir cualquier sesgo potencial
debido a la falta de respuesta, o (b) las variables de análisis para
los encuestados siguen el mismo modelo que se muestra en la población completa
y ese modelo puede ser aproximado por las técnicas de calibración en este
capítulo.
Este capítulo cubrirá algunas de las herramientas que están disponibles para emplear
datos auxiliares en la estimación y los pesos que están implícitos. Sección 14.1
describe el método general de estimación de calibración junto con algunos ejemplos. Dos de los usos
más comunes de los datos auxiliares son la posestratificación.
y rastrillar, cubierto en la Secc. 14.2. Estimación de regresión general (GREG) y
algunos ejemplos de la clase más amplia de estimadores de calibración se discuten en
Secta. 14.3.
Los pasos de cálculo de pesos base, ajustes de falta de respuesta y calibración pueden dar como
resultado pesos cuyos tamaños varían bastante. Los practicantes generalmente desconfían de tener
pesas que tienen un rango amplio, ya que algunas son extremadamente
los pesos grandes pueden desestabilizar las estimaciones al aumentar el estándar asociado
errores (SE). Tener pesos variables puede o no ser algo de qué preocuparse
sobre. Los subgrupos que respondan a tasas muy diferentes darán lugar a diferentes
tamaños de los ajustes por falta de respuesta. Los pesos que varían considerablemente también pueden
ser estadísticamente eficiente, como en el caso de la asignación óptima a los estratos que
estudiado en el cap. 3. Sin embargo, si los pesos varían por ninguna de estas razones, este
puede ser ineficiente. La Sección 14.4 describe la programación cuadrática y los métodos de recorte de
peso que permiten acotar directamente los pesos mismos.
También discutimos dos tipos de efectos de diseño que a veces son útiles cuando
evaluar la variabilidad del peso.
Machine Translated by Google
Se pueden usar múltiples auxiliares, pero para ilustrar el método, comenzamos con
uno de los casos más simples de calibración: el estimador de razón.
Ejemplo 14.1 (Estimador de razón). El estimador de razón de una media para una muestra aleatoria
simple (srswor), introducido al final de la Secc. 3.2.2, es ¯yR =
y¯sx¯U /¯xs donde ¯ys = yi/n y ¯xss= xi/n son medias no ponderadas
s
de
una variable de análisis y y una variable auxiliar x y ¯xU es la población
media de x La variable de respuesta podría ser el número de empleados a tiempo completo en un
establecimiento en el momento actual y x el número correspondiente
de hace un año. Para calcular la estimación de la razón de una muestra, necesitamos la
valores de x para las unidades de muestra individuales de modo que se pueda calcular ¯xs, y
necesitamos la media de su población, ¯xU . Observe que los valores individuales de x
para las unidades no muestrales no se requieren para calcular ¯yR, aunque podríamos
tenerlos del marco. Una propiedad del estimador de razón es que, si
trata a y como la variable auxiliar, entonces ¯ys = ¯xs y la estimación de la razón se reduce
a ¯xU . Por lo tanto, la estimación se calibra (o compara) en el sentido de que
reproduce el valor de población conocido cuando sustituimos el auxiliar
variable para la variable de análisis.
El estimador de razón es un miembro de una clase más general que cubre muchos
de los estimadores utilizados en la práctica. Suponga que los pesos utilizados en el paso de calibración
el
se denotan por di para la i unidad en la muestra, como una persona o
un establecimiento comercial, para el cual se recopilan datos. En el cap. 13 el producto de una
ponderación base, un ajuste de elegibilidad desconocido y una falta de respuesta
El ajuste se llamó d2i. Quitamos el subíndice 2 aquí para reducir la notación. El objetivo de la
calibración es encontrar un nuevo conjunto de pesos, w = {wi}iÿs usando
notación de conjuntos, que están cerca de los pesos de entrada, d = {di}iÿs, pero cuando se usan para
estimar los totales de los auxiliares, reproducir exactamente los totales de la población.
La idea de mantener los pesos cercanos en valor es que los pesos de salida
puede "tomar prestadas" las buenas propiedades de estimación inherentes a los pesos de entrada.
Por ejemplo, si los pesos base están asociados con una media ponderada que es
diseño imparcial, luego la misma estimación calculada con los pesos de salida
debe ser (aproximadamente) un diseño imparcial también. Por otra parte, si el
pesos de entrada producen estimaciones de varianza alta, creando nuevos pesos que son
Machine Translated by Google
cerca de los viejos no hay mejora. Sin embargo, muchas estimaciones eficientes
están en la clase de calibración, por lo que vale la pena estudiar la clase.
• Minimizar una medida de la distancia, L (w, d), entre los pesos entrantes
y los pesos calibrados.
• Sujeto a restricciones:
Wix = xk, (14.1)
yoÿs kÿU
T
donde xi = (xi1, xi2,...,xip) es el conjunto de p variables auxiliares para la unidad
i y wi = digi, una función del peso de entrada y un ajuste (el
peso g) que satisface las restricciones.
Nos referiremos a los wi como los pesos finales. Para determinar los pesos,
necesitamos los valores de x para las unidades de muestra individuales y los totales de la población
por esas x. Por lo general, no se necesita información auxiliar para los que no respondieron.
Recuerde que los métodos de ajuste por falta de respuesta que estudiamos en
Cap. 13, al igual que los ajustes de propensión, requería que la información de las covariables
individuales estuviera disponible tanto para los encuestados como para los no encuestados. Los
auxiliares pueden ser cuantitativos, como el número total de estudiantes en un
escolar, o cualitativo, como un indicador de género=masculino.
Una elección de L es la función de distancia de mínimos cuadrados,
2
L(ancho, fondo) = (wi ÿ di) di. (14.2)
s
Wisconsin
Los estimadores posestratificados y de raking son dos de los estimadores de calibración más
utilizados. Prevalecen especialmente en las encuestas de hogares de personas en las que las
variables auxiliares son indicadores de grupos demográficos. Por ejemplo, las personas pueden
clasificarse por grupo de edad, género y raza/etnicidad.
La estratificación posterior se implementa dentro de las clases de ponderación de calibración
formadas cruzando todas las categorías de las variables cualitativas y construyendo ponderaciones
que reproducen los recuentos de población específicos de la clase en las estimaciones ponderadas.
La posestratificación también se puede hacer usando una sola variable como el grupo de edad.
Formalmente, el estimador posestratificado de un total se define como
GRAMO
donde t ˆyÿ = diyi essÿel total estimado de y en la clase de ponderación (o posestrato) ÿ con base
en los pesos de entrada, sÿ es el conjunto de unidades de muestra en el posestrato ÿ, Nˆÿ = dk
es el tamaño de poblaciónsÿestimado
conteo del
de población
posestrato(también
ÿ basadoconocido
en los pesos
comode
control
entrada,
o control
Nÿ estotal)
el
para el posestrato ÿ, y G es el número total de posestratos. El peso final implícito para la unidad i
en el posestrato ÿ es
Nÿ
wi = di , (14.4)
Nˆÿ
El vector x para una unidad tiene componentes G, cada uno con un indicador 0–1
para saber si una unidad está o no en un posestrato particular. El postEstratificar
La función en el paquete de encuestas R se puede usar para calcular la estimación, como
se muestra a continuación en el ejemplo 14.2.
Tabla 14.1: Porcentajes de personas en la gran población del NHIS que informaron recibir Medicaid.
raza/etnicidad
Machine Translated by Google
los porcentajes de personas que reciben Medicaid. Los hispanos y los negros no hispanos
menores de 18 años tienen porcentajes mucho más altos que otros grupos de edad; Los
hispanos de 65 años o más también tienen una alta tasa de Medicaid. Por supuesto,
podríamos ajustar un modelo para predecir si las personas reciben Medicaid, pero la tabla
cruzada es suficiente para mostrar que existe una interacción entre el grupo de edad y la
hispanidad.
Este es el código utilizado para producir los porcentajes:
nhis.large1$hisp.r) 100 *
round(prop.table(t1[,,1],2),3) 100 *
round(prop.table(t1[,,2],2),3) 100 *
round(prop.tabla(t1[,,3],2),3)
Hay varios pasos anteriores donde se deben observar requisitos de sintaxis particulares.
Se creó una sola variable para denotar los posestratos. Las declaraciones
debe coincidir con el nombre de la variable en el conjunto de datos que contiene los
estratos posteriores. A continuación, podemos verificar que los pesos posestratificados se
suman a los recuentos de población utilizando la función svytotal a continuación. Solo se
muestran los primeros cuatro de los 15 posestratos. Los recuentos estimados coinciden
con los recuentos de población (que el lector puede verificar). Los SE de las estimaciones
son cero ya que no hay variación de una muestra a otra en las estimaciones; siempre serán
iguales a los recuentos de población. Este tema se revisa en el Cap. 18 donde cubrimos
las tabulaciones de control de calidad con más detalle:
SE total como
factor(PS)1 1952 como factor(PS)2 2870 0
como factor(PS)3 1169 como factor(PS)4 0
0
581 0
Tenga en cuenta que los pesos de los casos de muestra individuales se pueden examinar
con el comando, pesos (ps.dsgn). La proporción estimada de personas que reciben
Medicaid, sus SE y coeficientes de variación (CV) son producidos por
Machine Translated by Google
# Errores estándar de PS y CV
svytotal(˜ as.factor(medicaid), ps.dsgn, na.rm=TRUE) cv(svytotal(˜ as.factor(medicaid),
ps.dsgn, na.rm=TRUE))
# error estándar srs y cv's
svytotal(˜ como.factor(medicaid), nhis.dsgn, na.rm=TRUE) cv(svytotal(˜ como.factor(medicaid),
nhis.dsgn, na.rm=TRUE))
El parámetro, na.rm=TRUE, se usa porque en algunos casos faltan valores para Medicaid;
sin él, todos los resultados serán NA (es decir, faltantes). Para obligar a Medicaid a ser
tratado como una variable de clase (factor), se utiliza as.factor. Las estimaciones
postestratificadas y juradas para el número total de personas que reciben Medicaid son
CV Total SE
Postestratificado 1870.8 344.5 0.184
juramento 1899.7 385.3 0.203
En esta muestra, los totales estimados srswor y posestratificados son similares y el último
tiene un SE y un CV ligeramente más pequeños.
Ejemplo 14.3 (Estimador posestratificado como una forma de corregir por encubrimiento).
Supongamos que el marco muestral solo cubre el 75 % de los subgrupos de población
de negros hispanos y no hispanos y otras razas/etnias:
El código anterior genera una variable aleatoria uniforme en el intervalo [0,1] para cada
persona de la población. Este número aleatorio se compara con la tasa de cobertura
(0.75 o 1) para el postestrato que contiene a cada persona y se crea una población
"cubierta" con la declaración
Esto trata la cobertura como un fenómeno aleatorio: cada persona tiene alguna posibilidad
de estar en el marco. Esta puede ser o no una suposición realista, pero es típica en la
literatura que analiza los efectos de la cobertura insuficiente. Se necesita algún vínculo
entre las unidades en el marco, la muestra seleccionada de él y el resto del universo para
hacer inferencias para todo el objetivo.
Machine Translated by Google
población. Modelar la cobertura como una ocurrencia aleatoria es una forma de hacerlo.
Luego, seleccionamos una muestra de srswor de n = 500 de nhis.cov usando la semilla,
set.seed (610376119) y calculamos los pesos posestratificados (no se muestra el código).
La Tabla 14.2 también muestra las proporciones estimadas para ambos tipos de pesos.
En este ejemplo, la posestratificación hace menos diferencia en las estimaciones puntuales o
en los EE. Esto también es típico: las estimaciones que son proporciones a menudo se ven
menos afectadas por los problemas de cobertura que los totales estimados.
Una alternativa popular a la estratificación posterior es el rastrillo, que también puede usar
más de una variable auxiliar. En el ejemplo anterior con grupo de edad e hispanidad, todas
las clases de ponderación formadas por la clasificación cruzada se utilizan como posestratos.
Se necesita un valor de control de población para cada clase de ponderación. Además,
normalmente se imponen requisitos de tamaño mínimo de muestra; de lo contrario, Nˆÿ puede
ser inestable. Al rastrillar solo se necesita el grupo de edad marginal y los conteos de control
de hispanidad. Esto es especialmente relevante cuando solo se dispone de recuentos
marginales en las fuentes publicadas.
Al igual que con el estimador posestratificado, el estimador rastrillado también está
asociado con un modelo lineal. Por ejemplo, el modelo en un problema de clasificación de
dos variables es
EM (yi) = ÿ + ÿj + ÿk , V arM ( yi) = ÿ2 (14.6)
Estadística Estimar SE CV
Totales estimados
población completa
Estimación ÿ total de la 2,281
población real 1.770 246 0,139
Estimación de PS 2.381 322 0,135
Hispano
Estimación ÿ total de la 935
población real 616 150 0,243
Estimación de PS 954 209 0.219
Proporciones estimadas
población completa
Proporción de población real 0.107
estimación de ÿ 0,093 0,013 0,139
Estimación de PS 0,112 0,015 0,135
Hispano
Proporción de población real ÿ- 0.189
estimación 0,184 0,041 0,223
Estimación de PS 0,190 0,042 0,219
expresión (14.5). Por lo tanto, el modelo de clasificación solo tiene efectos principales y menos
parámetros
Incluso cuando el modelo de efectos principales parece inadecuado, el rastrillado es a menudo
una forma de utilizar más variables que pueden ser predictores importantes del análisis
variables o de las tasas de cobertura de fotogramas. En la postestratificación, cruzando varios
las variables pueden crear rápidamente más clases de las que puede admitir la muestra.
Ejemplo 14.4 (Rasting por grupo de edad e hispanidad). Para ilustrar el procedimiento,
reelaboramos el ejemplo 14.3 clasificando el grupo de edad y la hispanidad
márgenes. Se utiliza la misma muestra jurada de 500 de la población cubierta,
y se crea un objeto de diseño de encuesta denominado nhis.dsgn. El siguiente código usa
la función de calibración para hacer el rastrillo. Una alternativa es la función rake,
que dará la misma respuesta (ver Lumley 2010, Secc. 7.3):
ES total
as.factor(age.grp)1 5991 0 as.factor(age.grp)2
2014 0 as.factor(age.grp)3 6124 0
as.factor(age.grp)4 5011 0 as.factor(age.grp)
grp)4 5011 0 como factor(edad.grp)3 grp)5
2448 0
CV Total SE
Totales estimados
Proporciones estimadas
población completa 0,111 0,015 0,134
Para definir el GREG, necesitamos alguna notación vectorial y matricial que sea más
elaborado que el utilizado en otras partes de este libro. S¨arndal (2007) da una buena
discusión general de los GREG. Entender la notación no es esencial.
para seguir los ejemplos más adelante en este capítulo, y algunos lectores pueden desear
pase a las ilustraciones del uso de software para calcular GREG. para discutir el
GREG, es más fácil comenzar con los totales que con los medios. Supongamos que hay
son n unidades muestrales. El estimador GREG de la población total de y puede ser
Escrito como
T
B
TˆyGREG = t ˆy + tx ÿ ˆtx
= T ÿ1
1 + tx ÿ ˆtx XT DVÿ1X xi/vi bricolaje
yoÿs
xT2
X= ..
.
ÿÿÿÿ xT
norte
ÿÿÿÿ es la matriz n × p de auxiliares para las n unidades muestrales,
ÿ1
Bˆ = XT DVÿ1X XT DVÿ1y
T
con y = (y1,...,yn) siendo el vector de y's para las unidades muestrales, y
V = diag (vi) es una matriz diagonal n × n de valores asociados con el
parámetros de varianza en un modelo lineal subyacente. Es posible formular
Machine Translated by Google
Como resultado, cuanto mejor sea el predictor de que x es de y, menor será la varianza
del GREG.
Tˆ
Un total estimado para ay se calcula como wiyi, una función =
yGREG s
de los pesos resultantes del procedimiento de calibración de la forma:
wi = digital
(1) Los totales de población de los auxiliares, tx, que también se denominan controles de
calibración, idealmente deberían ser valores verdaderos y conocidos sin error. Si
los totales de la población x son incorrectos, entonces txÿˆtx no estimará
0 cuando debería, o tx ÿˆtx no dará el ajuste de cobertura correcto.
En algunas encuestas, sin embargo, puede ser conveniente utilizar estimaciones de la
controles de tx de una encuesta más grande o de mayor calidad que la que está
ponderación (véase, por ejemplo, Dever y Valliant 2010). Esto puede ser cierto si hay
son x que se consideran muy predictivos de las variables de análisis, pero solo
las estimaciones de población de otra encuesta están disponibles.
(2) Los totales auxiliares estimados, ˆtx = dixi, deben medirse
s en el
de la misma manera en la población que en la encuesta. Por ejemplo, supongamos que uno
de las x es el ingreso anual del hogar. Si un censo y la encuesta recogen
Machine Translated by Google
(4) El hecho de que los ajustes de calibración {gi} son necesidades dependientes
yo=1
de la muestra que deben tenerse en cuenta en la estimación de la varianza. Cubriremos los
métodos para hacer esto en el Cap. 15.
Aunque algunos practicantes prefieren pensar en los GREG como libres de modelos, creemos
que esto es, en el mejor de los casos, oscurantista. La motivación para elegir una forma
particular de GREG es mucho más fácil de entender cuando se considera un modelo
subyacente. Muchas combinaciones de diseño de muestra/estimador utilizadas en la práctica
son casos especiales de GREG. En la Tabla 14.4 se dan algunos ejemplos de combinaciones
de estimador/diseño de muestra/modelo . Estos estimadores se describen en varios textos
como Cochran (1977) y S¨arndal et al. (1992).1 Los GREG fluyen de varios tipos de modelos
lineales, como se señaló anteriormente. Sin embargo, a menudo se utilizan para estimar
totales de variables binarias 0–1, aunque esto implica que un modelo lineal describe la
asociación con una variable dicotómica. Aunque ajustar un modelo lineal a una variable binaria
probablemente sería considerado un error por la mayoría de los analistas de datos, es un lugar
común en la estimación de encuestas. Esto es una derivación del uso de estimadores de la
forma Tˆ = En algunos casos, como el modelo de posestratificación (14.5) donde cada unidad
s
wiyi.
en una clase de ponderación tiene la misma media, un modelo lineal está bien para una variable
binaria.
Pero, en otros donde se utilizan auxiliares cuantitativos, las predicciones implícitas para las
variables 0–1 pueden estar fuera del rango [0,1] para algunas unidades. Se ha realizado una
cantidad limitada de trabajo sobre el uso de modelos de regresión binaria tradicionales para
estimar totales de 0–1 variables en encuestas (p. ej., Lehtonen y Veijanen 1998; Valliant 1985).
Sin embargo, estos métodos pueden dar como resultado pesos g que son una función de las
variables de análisis y no son de uso común en las encuestas.
No discutiremos más estas técnicas aquí.
Una
La forma del estimador de regresión combinado que se muestra en la Tabla 14.4 es de S¨arndal et al. (1992) y
difiere del de Cochran (1977).
Regresión
separada
estratificada Regresión
combinada
estratificada Razón
separada
estratificada Ratio
de
combinación
estratificado expansión estratificado Juramento
posestratificado Relación Expansión Estimador
Diseño
Total
estimado
stsrswor stsrswor stsrswor stsrswor stsrswor juramento juramento
Tabla
14.4:
Estimadores
GREG
de
población
total
por
diseño
ysupuestos
del
modelo.
TSL
= TCL
=
con TSR
= TCR
= Ty,st
= Tipos
= TR
=
N
¯s T0
=
N
¯s
ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ
=
˜sxy
˜s2 ¯xst
=
X
=
Ty,st
+
N
ˆB
(¯xU
ÿ¯xst) Ty,
calle
ˆ ˆ
h h h h sol
=
1 ¯xs
¯xU
Nh
¯yhs
+ Nh
yhs
nh
shh h Nh
yhs
Nh
¯xhs
N,
ˆB
=
x˜s2
˜sxy/
nh
sh
h Ng
ˆtyg
ˆNg
N
¯xU
Nh
¯xhs
¯xhs
¯xUh
(xhi
ÿ¯xhs)2
Bh
(¯xUh
ÿ¯xhs) (xhi
ÿ¯xhs)
(yhi
¯yhs)
ˆ
EM
(yhi)
=
ÿh
+
ÿhxhi
V
ar
M
(yhi)
=
ÿ2 EM
(yhi)
=
ÿ+
ÿxhi EM
(yhi)
=
ÿhxhi EM
(yhi)
=
ÿxhi EM
(yhi)
=
ÿh EM
(yi)
=
ÿg ME(y)
=
ÿx EM(y)
=
ÿ media
del
modelo
V
ar
M
(yhi)
=
ÿ2 V
ar
M
(yhi)
=
ÿ2
hxhi V
ar
M
(yhi)
=
ÿ2xhi V
ar
M
(yhi)
=
ÿ2 V
ar
M
(yi)
=
ÿ2 V
ar
M
(y)
=
ÿ2x V
ar
M
(y)
=
ÿ2 variación
del
modelo
gramo
h h
14 Calibración y otros usos de datos auxiliares en la ponderación 364
Machine Translated by Google
Machine Translated by Google
Para ilustrar un GREG que usa tanto auxiliares cuantitativos como cualitativos, usamos la
población de la Encuesta de Organizaciones de Salud Mental. El archivo, smho.N874, contiene
874 hospitales y es un subconjunto del archivo smho98 presentado en el Cap. 3. Las variables
en el archivo son:
Supongamos que el objetivo es estimar el total de gastos en algún año posterior a 1998, pero
usamos el archivo de 1998 para explorar si alguna de las covariables, BEDS, SEENCNT,
EOYCNT y FINDIRCT, serían predictores útiles. Para esta ilustración, eliminamos los casos
con tipo de hospital = 4. Muchos de estos son unidades de pacientes ambulatorios que no
tienen camas para pacientes hospitalizados; las camas obviamente no estarán relacionadas
con los gastos para ellas. Las 725 organizaciones distintas del tipo 4 se pueden conservar con
el siguiente código R. Tenga en cuenta que el signo de exclamación le indica al software que
mantenga solo los registros en smho.N874 que no están en el vector de eliminación:
Un primer paso útil es hacer una matriz de diagrama de dispersión de las variables
cuantitativas en el problema, como se muestra en la Fig. 14.2. La correlación de gastos
(EXPTOTAL) con el número de camas (BEDS) es razonablemente alta, 0,70, pero es menor
para el recuento de pacientes (SEENCNT) y el recuento de pacientes al final del año (EOYCNT),
0,35 y 0,30, respectivamente. Sin embargo, las dos variables de conteo pueden ser predictores
útiles. Para explorar más las relaciones, dibujamos la Fig. 14.3 que grafica gastos versus
camas por separado para cada tipo de hospital. La línea gris en cada panel es un suavizador
no paramétrico diseñado para reflejar la relación de dos variables sin especificar ningún modelo
en particular. Existe alguna evidencia de que la pendiente de las camas depende del tipo de
hospital. Lo mismo puede ser cierto para las pendientes de SEENCNT y EOYCNT, pero, para
este ejemplo, no buscaremos esta posibilidad.
EXPTOTAL 2.0e+08
1.0e+08
0.0e+00
1200
800
400
0
0.70 CAMAS
25000
10000
0
10000
4000
0
resumen (m2)
Coeficientes:
Estimación estándar Error valor t Pr(>t)
(Interceptar) 1318589.1 912432.2 1.445 0.148856
SENTIDO 1033.9 310,6 3,329 0,000918 ***
EOYCNT 2036.2 603,6 3,373 0,000782 ***
as.factor(FINDIRCT)2 78026.1 965237.6 0.081 0.935595
signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
(millones)
Gastos
200
150
100
50
0 200
150
100
50
0
0 200 400 600 800 100012001400 0 200 400 600 800 1000 1200
Camas Camas
200
150
100
50
0 200
150
100
50
0
Higo. 14.3: Parcelas de gastos versus camas para los cuatro tipos de hospitales. la línea en
cada panel es un suavizador no paramétrico.
10
psiquiátrico
residencial o veteranos
general
5 multiservicio, abuso de sustancias
0
estudentizados
Residuos
ÿ5
Higo. 14.4: Residuos estudentizados trazados frente a camas para los datos de smho.N874.sub.
Las líneas de referencia se dibujan en ±3.
Machine Translated by Google
residuales del modelo versus lechos. Los tipos de hospitales se muestran en diferentes
tonos. La mayoría de los puntos caen dentro de las bandas dibujadas en ±3, pero hay un
número fuera de las bandas. Parte de esto puede deberse a la varianza no homogénea,
que es visible en la figura 1. 14.3. El uso de una regresión ponderada con pesos
proporcionales a las camas con alguna potencia podría ayudar, pero algunos de los
hospitales más pequeños tienen residuos estandarizados grandes. Algunos de los más
extremos son los hospitales psiquiátricos que tienen un gran número de camas o un gran
valor de los gastos.
En el primer panel de la Fig. 14.3, vimos que la gráfica de gastos versus camas era
extremadamente difusa para los hospitales psiquiátricos. Si estas grandes organizaciones
pudieran reconocerse antes del muestreo, podrían seleccionarse con certeza, como se
describe en el Cap. 3. Después de seleccionar la muestra, podría ser prudente excluir
dichas unidades, ya sean certezas o no, del proceso de cálculo de los pesos de
calibración. Pueden tener un efecto perjudicial sobre las ponderaciones y las estimaciones
resultantes, ya que la pendiente implícita en una estimación GREG puede verse afectada
por puntos extremos. Por supuesto, los residuos de variables distintas de los gastos
totales pueden no ser extremos. Como resultado, la decisión de excluir unidades
particulares del cómputo de pesos no es clara.
require(muestreo) x <-
smho[,"BEDS"]
# recodificar hospitales pequeños para tener un MOS mínimo
x[x <= 5] <- 5 x <-
sqrt(x) n <- 80
set.seed(428274453)
pk <- n*x/sum(x) sam <-
UPrandomsystematic(pk)
sam <- sam= =1 sam.dat <- smho[sam, ]
d <- 1/pk[sam]
Los conteos de unidades de muestra por tipo de hospital son 33, 15, 17 y 15 para que
todos los tipos estén representados. A continuación, el paquete de encuestas se usa
para crear un objeto de diseño, smho.dsgn, que luego se usa en la función de calibración
para calcular los pesos GREG. Esta función acepta un número de parámetros como se
discutió en el Ejemplo 14.4:
Machine Translated by Google
svytotal(˜SEENCNT, sam.lin)
total SE
SEENCNT 1349241 5.755e-11
svytotal(˜EOYCNT, sam.lin)
total SE
EOYCNT 505345 1.911e-11
Dado que los SE son esencialmente 0, se ha obtenido un conjunto de pesos que satisfacen
s wixi = tx. La función de calibración también emitirá un mensaje de error si el
la calibración falla por alguna razón. Examinar estadísticas de resumen para los pesos
siempre es sabio. Cuando se hace esto, vemos que al menos un peso GREG
(-0.3983) es negativo a pesar de que el peso base más pequeño fue 2.714:
resumen(pesos(smho.dsgn))
mín. 1er cuarto Mediana Media 3er Qu. 2.714 5.693 8.150 máx.
8.763 10.090 33.680
resumen(pesos(sam.lin))
Machine Translated by Google
No hay nada en el algoritmo GREG que evite los pesos negativos, aunque en una
muestra donde todas las probabilidades de selección son pequeñas y los pesos de entrada
resultantes son grandes, es poco probable que esto suceda. En teoría, incluso con
ponderaciones negativas, el GREG será aproximadamente insesgado de diseño y, si el
modelo se especifica correctamente, será insesgado de modelo para los totales de la
población. Sin embargo, las ponderaciones negativas podrían tener un efecto grave en las
estimaciones de algunos dominios y, en general, los usuarios se sienten incómodos con
las ponderaciones negativas. De hecho, algunos paquetes de software no permitirán pesos
negativos. Para ayudar a solucionar este posible problema, la función de calibración tiene
un parámetro de límites que proporciona la cantidad relativa en la que los pesos finales
pueden diferir de los pesos de entrada. Para hacer la delimitación, esta restricción se
agrega a la sonda de calibración descrita en la Secc. 14.1:
Wisconsin
Lÿ ÿ U para todo i ÿ s.
di
En palabras, el peso calibrado para cada caso de muestra debe ser mayor que un límite
inferior L multiplicado por el peso de entrada y menor que un límite superior U multiplicado
por el peso de entrada. (Esto es sinónimo de acotar los pesos g porque wi = digi). Por lo
tanto, el límite está en el cambio relativo en el peso inicial, no en el peso final en sí. Los
límites son arbitrarios. Por ejemplo, es posible que desee exigir que el peso final esté entre
1/2 y 3 veces el peso inicial. Si las ponderaciones de entrada son positivas (que lo serán si
son inversas de las probabilidades de selección o probabilidades inversas ajustadas por
falta de respuesta), entonces las ponderaciones acotadas serán positivas. Es fácil hacer
que los límites sean tan estrechos que la calibración fallará, y es posible que se necesite
algo de prueba y error para llegar a valores que funcionen en un problema en particular.
Insecto. 14.4 el tema de la variabilidad del peso se tratará con más detalle.
Aquí, ilustramos cómo limitar los cambios de peso utilizando las funciones GREG o de
distancia de rastrillado. En este caso, se requiere que los pesos finales estén entre 0,4 y 3
veces los pesos de entrada. Cuando se establecen límites, se utiliza un procedimiento
iterativo para llegar a un conjunto final de pesos. Tres parámetros que pueden ser útiles
son:
el grado de satisfacción de las restricciones puede ayudar a determinar por qué falló la calibración.
El parámetro de límites se puede utilizar con los mínimos cuadrados
o funciones de distancia de rastrillado como se muestra a continuación (el parámetro, límites, no es
disponible si calfun = "logit"):
# Comprobar controles
svyby(˜CAMAS, by=˜as.factor(hosp.type), design=sam.linBD,
DIVERSIÓN=svytotal)
svytotal(˜CAMAS, sam.linBD)
svytotal(˜SEENCNT, sam.linBD)
svytotal(˜EOYCNT, sam.linBD)
# rastrillar
sam.rake <- calibrar(diseño = smho.dsgn,
˜
fórmula = SEENCNT + EOYCNT + as.factor(hosp.type):CAMAS,
población = pop.tots,
límites = c(0.4, 3),
calfun = "rastrillar",
maxit = 100, épsilon = 1e-4)
Como muestra la tabla 14.5 , las estimaciones GREG, GREG acotada y raking acotada
tienen SE y CV estimados más pequeños que la estimación ÿ en esta muestra. Cada uno
de los CV para las estimaciones calibradas es aproximadamente el 79 % del de la
estimación ÿ. Por lo tanto, la calibración proporciona un aumento sustancial de la precisión.
Vale la pena explorar cómo se comparan los pesos de estos diferentes métodos. La
figura 14.5 muestra una gráfica de los pesos para los tres métodos de calibración ods
frente a los pesos base en el panel de la izquierda. Se dibuja una línea de 45° donde los
pesos serían iguales a los pesos base. La mayoría de los pesos aumentan ligeramente
para alcanzar los totales de control, pero algunos disminuyen notablemente. En el panel
de la derecha, las proporciones, wi/di, se representan frente a los pesos base. El límite
superior de 3 claramente no tiene efecto. La unidad con el peso negativo está marcada
con una flecha. El uso de un límite inferior de 0,4 hace que varios pesos, incluido el
negativo, se muevan hacia el límite. Al comparar los puntos del GREG lineal ilimitado y
los dos métodos acotados, es evidente que la delimitación no afectaría mucho a la mayoría
de las unidades, pero eliminaría el peso negativo objetable.
35
30
25
20
15
10
5
0
3,0 /
peso
2,5
2,0
1,5
1,0
0,5
0,0
día
5 10 15 20 25 30 5 10 15 20 25 30
d d
Higo. 14.5: Gráficas de pesos para los diferentes métodos de calibración en una muestra pps.
Se dibuja una línea de 45ÿ en el panel de la izquierda. Las líneas de referencia se dibujan en los
límites de peso, 0,4 y 3, en el panel de la derecha.
Estimar o SE CV
valor de la población (%)
Gastos totales (miles)
Estimación ÿ 8,774,651
de la población 9.322.854 915.126 9,82
GREG 1 9.563.683 748.596 7,83
REG 2 711.633 7,77 9.161.491
Proporción con financiamiento de la agencia estatal de salud mental
Población 0.336
estimación de ÿ 0.323 0,059 18,16
GREG 1 0.303 0,051 16,92
gregorio 2 0.340 0,034 9,91
Tener pesos de encuesta que varían es común. Las razones de la variabilidad incluyen:
situación. Esta sección revisa algunas medidas de la variabilidad del peso, cómo
se derivan y cómo deben interpretarse. También mostramos cómo
usar programación cuadrática y métodos de reducción de peso más arbitrarios
para atar pesos.
Kish (1965, 1992) introdujo un "efecto de diseño debido a la ponderación" que es igual
a uno más la revarianza de los pesos muestrales:
donde ¯w = nÿ1 wi. El término deffw también se conoce como ponderación desigual.
s
efecto (por ejemplo, Liu et al. 2002). Este es un método ampliamente utilizado, y posiblemente sobreutilizado,
medida que se interpreta como el incremento en la varianza de un estimador debido
a tener pesos que no son todos iguales. Por ejemplo, Kish también escribe
defw como 1 + L, siendo L la inflación por encima de la varianza que
obtenerse con una muestra autoponderada. Los practicantes a menudo calculan defww
mientras desarrolla los pesos finales y utilícelos para hacer un juicio sobre
si los pesos deben modificarse porque son "demasiado variables".
No parece haber reglas empíricas universalmente aceptadas para medir cuándo
defw es "grande". Para bien o para mal, los valores de defw de 1.5 o mayores con frecuencia
llevar a que se tome alguna acción.
Para entender si esta medida es aplicable a una encuesta específica,
necesita entender cómo se deriva. Considere un stsrswor con muestra nh
unidades asignadas al estrato h. El número de unidades en el estrato de población.
es Nh, y la proporción de la población en el estrato h es Wh = Nh/N.
Como se muestra en Kish (1965), deffw es el cociente de la varianza de la estratificada
H
expansión vari, ¯yst = ance del mismo estimador
h=1
Why¯sh,con
conasignación
ponderación
proporcional,
desigual al suponiendo
estimador de
estrato
las varianzas son iguales:
Secta. 14.4 existen. Aunque defww está motivado por el muestreo estratificado, comúnmente se aplica a
cualquier tipo de muestra donde los pesos varían.
La medida deffw puede ser útil si la ponderación igual es adecuada, es decir, las varianzas de los estratos
son iguales o, al menos, no se espera que sean extremadamente diferentes.
Esto puede ser cierto en las encuestas de hogares. Sin embargo, defw es en gran medida irrelevante en
muchas aplicaciones. Entre ellos se encuentran: • Encuestas de establecimientos o instituciones donde se
En estos casos, como señala Kish (1992), las ponderaciones diferenciales pueden ser mucho más eficientes
que las ponderaciones iguales.
El mejor uso de deffw puede ser como diagnóstico después de calcular los pesos.
Los valores grandes pueden indicar que los resultados de diferentes pasos deben verificarse para ver si se
han producido errores o si un paso en particular inyecta mucha variabilidad injustificada en los pesos. El paso
de ajuste por falta de respuesta suele ser bastante sensible a cómo se forman las clases de ponderación o
cómo se estiman las propensiones. Si se considera que los ajustes extremos no son confiables y no corrigen
realmente el sesgo, esta es una buena razón para modificar el procedimiento de alguna manera.
Para tener una idea de los valores que puede tomar deffw, considere el caso de dos estratos y un diseño
de stsrswor. Supongamos que la proporción de la muestra en el estrato h es ph = nh/ny el peso de cada
unidad en el estrato h es wh (h = 1, 2). Cuando las fracciones muestrales son despreciables en cada estrato,
se puede demostrar que el valor de 1 + L de Kish es (ver los ejercicios):
p1w2 + p2w2
Una 2
deffw = 2. (14.7)
(p1w1 + p2w2)
Esto se evalúa para unos valores de w1 y w2 para f1 = f2 = 0.5 en la Tabla 14.7. Si la relación de pesos
en los estratos 1 y 2 es 3:1, entonces SE (¯yst) se infla solo un 12 %. Si la relación es 50:1, deffw = 1,39. Las
proporciones del peso máximo al mínimo pueden ser mucho mayores que 50:1 en algunas encuestas.
Por ejemplo, en la Encuesta estadounidense de organizaciones de salud mental (SMHO) de 1998 que estamos
usando como ejemplo en este libro, esta proporción fue de aproximadamente 160:1 (Li y Valliant, 2009). Los
ejercicios dan un ejemplo usando smho.N874 donde, en una muestra de pps, deffw es casi 20. Sin embargo,
para interpretar inteligentemente estas proporciones, siempre tenga en cuenta la advertencia de que se pueden
necesitar pesos desiguales para una estimación eficiente. Debe considerar las características de las variables
de la encuesta en particular para decidir si la variabilidad del peso es un problema.
Kish (1987b) también sugirió una medida similar a deffw para muestras de conglomerados. Una
justificación formal de la medida utilizando un modelo fue dada por
Machine Translated by Google
Tabla 14.7: Medida de deffw de Kish para la inflación de la varianza debido a una ponderación
desigual para un caso de dos estratos con asignaciones iguales (f1 = f2 = 0,5) a los estratos.
w1 3 5 10 15 20 50
w2 111111
Gabler et al. (1999). Suponga que se selecciona una muestra por conglomerados y cada unidad de
muestra se asigna a una de las clases de ponderación ÿ = 1,...,G. El número de unidades de muestra
ÿ ÿ2 yo = yo , j = j ,
En palabras, todas las unidades tienen una varianza común ÿ2, diferentes unidades en el mismo
conglomerado tienen una correlación ÿ y unidades en diferentes conglomerados no están
correlacionadas. Gabler et al. (1999) consideró la media muestral ponderada, ¯yw = iÿsjÿsi wij .
ÿ nÿw2 ÿ
def2w = norte 2 [1 + ÿ (bÿ ÿ 1)] ,
ÿ nÿwÿ
donde b* = s wÿniÿ
ÿ w2 ÿnÿ siendo niÿ el número de unidades de muestra
2!ÿ
en la clase de ponderación ÿ que están en el conglomerado i. Si el tamaño de la muestra en cada
conglomerado es el mismo, ¯b, entonces deff2w está acotado arriba:
ÿ nÿw2 ÿ
def2w ÿ norte 2 1 + ÿ ¯ segundo - 1 .
ÿ nÿwÿ
diferentes suposiciones utilizadas para el estimador de la varianza del denominador. Las fórmulas
estiman la cantidad de inflación de la varianza asociada con las combinaciones de las características
del diseño (es decir, agrupamiento, estratificación, tasas de muestreo diferencial y ponderaciones
desiguales). Procedimientos específicos de SUDAAN, accesibles
dentro de un programa SAS a través de su versión "SAS-llamable", se discuten en
Cap. 15.
Una medida que se acerca más a dar cuenta de la posibilidad de que la variable
pesos pueden ser eficientes es uno derivado por Spencer (2000). Supongamos que pi es
la probabilidad de selección de 1 sorteo de la unidad i y que pi y una variable de análisis
yi están correlacionados. Por ejemplo, esto sería razonable en los hospitales
población si se tuviera una probabilidad proporcional al número de camas (xi) muestra
seleccionado y la variable de análisis fue el número de pacientes dados de alta. En eso
caso, pi ÿ xi, y como vimos en el Cap. 3, el número de descargas está relacionado
al número de camas. Supongamos que este modelo lineal se cumple para Y :
yi = ÿ + ÿpi + ÿi . (14.9)
2
ÿU = (pi ÿ p¯U ) ,
tu (yi ÿ y¯U ) (pi ÿ p¯U ) $ U
donde ¯yU y ¯pU son medias poblacionales finitas. Estas ecuaciones se pueden reescribir pi/N = 1/
diez usando el hecho de que ¯pU = tu N. La población finita
varianza de los errores, ÿi = yi ÿ (ÿU + ÿU p¯U ) , es ÿ2 ÿ2 con
ÿ = 1 ÿ ÿ2 sí y
= N y siendo ÿyp(yilaÿcorrelación
ÿ1 2
ÿ2
y tu y¯U ) poblacional entre
y y p. El peso de la unidad i es wi = 1/ (npi). Si la muestra es seleccionada
con reemplazo, el pwr -estimator de Sect. 3.2.1 del total de la población
es Tˆ = = nÿ1 2.
poder s
wiyi. Su varianza de diseño es V Tˆ poder tu (yi/pi ÿ T )
Sustituyendo valores del modelo (14.9) en esta fórmula de varianza y tomando
la razón del resultado a la varianza del total estimado bajo srs con
reemplazo, Spencer obtuvo la siguiente expresión aproximada para un
efecto de diseño debido a la ponderación desigual:
2
norte norte
ÿU
defSw = 1 ÿ ÿ2 w¯u + w¯U ÿ 1 , (14.10)
sí norte norte
y
donde ¯wU =
iÿU wi N es el peso medio de la población. DeffSw de Spencer
puede ser estimado por
2
ÿˆ
def sw = 1 ÿ ÿˆ2 sí
[1 + varrel(w)] + varrel(w),
ÿˆy
2
La varianza estimada de la unidad de población es ˆÿ2 =
y s wi (yi ÿ y¯w) s Wisconsin
2
y [1 + relvar (w)] = n como en el deffws w2 ( Cuando
dek Kish. s semana) ÿy es
grande en relación con ÿ y ÿyp = 0, las medidas de Spencer y Kish son aproximadamente
mismo. Tenga en cuenta que, en general, el deffSw de Spencer depende de y y will, por lo tanto,
ser diferente dependiendo de la variable de análisis considerada.
Una deficiencia de la fórmula de Spencer es que sólo se aplica a un estimador pwr.
En la práctica, en los casos en que se utilizan variables auxiliares en el muestreo, se
también se utiliza en la estimación. Henry (2011) llenó este vacío al extender el modelo de Spencer
resultado a los estimadores GREG.
El siguiente ejemplo evalúa los efectos de diseño de Kish y Spencer para una muestra de una
población donde existe una relación clara entre y y an.
variable auxiliar utilizada en la selección de la muestra. A modo de ilustración, utilizamos una
población artificial "HMT" generada de la misma manera que la de Hansen et al.
(1983), que es un artículo famoso publicado por tres de las figuras históricas más importantes del
muestreo aplicado. El modelo generador fue yi = ÿ + ÿxi + ÿi
donde x e y tienen distribuciones gamma y los errores tienen una varianza
que aumenta en proporción a x3/2. La función R, HMT.fcn, en el libro
sitio web se utilizó para crear una población de 5.000 unidades. La figura 14.6 es un diagrama
de una muestra de 500 unidades de la población.
# La desventaja de Spencer
# Calcular valores WLS
sam.wls <- lm(y ˜ # prbs.1d, datos = sam.dat, pesos = dsgn.wts)
componente DEFF - var de y
sam.mean.y <- sum(sam.dat$y * dsgn.wts) / sum(dsgn.wts)
sam.var.y <- sum(dsgn.wts * (sam.dat$y - sam.mean.y)ˆ2) /
sum(dsgn.wts)
# componente DEFF - alfa al cuadrado
sam.alpha2 <- sam.wls$coeficientes[1] \ˆ{}2
# componente DEFF - correlación al cuadrado
sam.rho2.yP <- resumen(sam.wls)$r.squared
# Componente DEFF - Kish
kish.deff <- n*sum(dsgn.wtsˆ2) / (sum(dsgn.wts)ˆ2)
#DEFF de Spencer
spencers.deff <- as.numeric((1 - sam.rho2.yP) * kish.deff +
(sam.alpha2 / sam.var.y) * (kish.deff - 1))
15
10
y
5
0
0 10 20 30 40
X
Higo. 14.6: Gráfico de una submuestra de 500 puntos de Hansen, Madow y Tepping
(1983) población.
Machine Translated by Google
Los procedimientos se utilizan a menudo para recortar pesos extremos, especialmente los
grandes. Los métodos utilizados en la práctica son principalmente ad hoc pero pueden
mejorar la eficiencia de los estimadores para algunas variables. Hemos explorado algunas
técnicas anteriormente que están orientadas a limitar los pesos extremos. Por ejemplo, en la
Secc. 13.5.1, se crearon clases de ponderación para el ajuste de falta de respuesta en
función de las propensiones de respuesta. El uso de clases en lugar de propensiones
individuales puede ser una forma de eliminar algunos ajustes importantes por falta de
respuesta. Calibración restringida, discutida en la Secc. 13.5.1, es otra forma de intentar
evitar ajustes de peso excesivos. También existen procedimientos improvisados que se
pueden utilizar para limitar el rango de pesos base. Por ejemplo, la cantidad de líneas
telefónicas o la cantidad de residentes del hogar pueden codificarse en la parte superior
cuando se calculan las probabilidades de selección dentro de un hogar.
El primer método que cubrimos es la programación cuadrática (QP) con restricciones.
Al igual que GREG con límites de peso, QP permite encontrar un conjunto final de pesos
que está calibrado para los totales de población para algunas variables auxiliares. El segundo
método es menos formal pero probablemente más común en la práctica. Los pesos grandes
se recortan arbitrariamente hasta un límite superior. El peso total eliminado se reparte entre
las otras unidades de muestra.
Programación cuadrática
Una opción para limitar el rango de pesos es la programación cuadrática como se describe
en Isaki et al. (2004). Un problema QP con restricciones tiene la siguiente forma general:
2kT ÿk ÿ zT k
Sujeto a las restricciones CT k ÿ c0
2
Encuentre el conjunto de pesos {wk}kÿs que minimiza s (sem ÿ dk) dk
Sujeto a wkxk = stx y L ÿ wk ÿ U.
Para ver que esto encaja en el molde QP general, primero tenga en cuenta que
2
s (sem ÿ dk) dk = wT Dÿ1w ÿ 2dDÿ1w + dDÿ1d
= wT Dÿ1w ÿ 21T nw + s dk
T
con D = diag (dk), w = (w1,...,wn) , y 1n representando un vector n × 1
de unos La formulación anterior corresponde entonces al problema general con
k = w, z = 2 ÿ 1n y ÿ = Dÿ1. La suma de los pesos de entrada, dk, es una s
constante, dada la muestra. Entonces, resolver el problema de calibración de peso es
equivalente a minimizar
Xs tx
C = ÿ En ÿ y c0 = ÿ L1n ÿ
ÿ ÿEn ÿ ÿ ÿU1n ÿ ,
donde Xs es la matriz n×p de auxiliares para las unidades muestrales, In es una matriz n×n
matriz identidad, y k = w como antes. Tenga en cuenta que los límites L ÿ wk ÿ U
son diferentes de los límites, L ÿ wk/dk ÿ U, utilizados para los pesos GREG
insecto. 14.3.2. El uso de L ÿ wk ÿ U es, en cierto modo, preferible al método anterior .
Restricción GREG porque limita directamente los tamaños de los pesos finales.
Por el contrario, la restricción GREG limita sólo el cambio relativo de la
pesos iniciales, es decir, el tamaño de los pesos g. Si los pesos iniciales son extremos,
entonces es probable que los pesos GREG finales también lo sean.
El paquete R quadprog (Turlach y Weingessel 2011) puede resolver el QP
problema. Para ilustrar esto, trabajamos una variación del ejemplo en la Secc. 14.3.2
utilizando el conjunto de datos smho.N874. Los auxiliares son CAMAS, SEENCNT, EOYCNT,
y tipo.hosp.
Ejemplo 14.6 (Restringir pesos usando programación cuadrática). Este ejemplo usa la
misma muestra de 80 hospitales que en la Secc. 14.3.2, que fue seleccionado
con semilla 428274453, luego de recodificar todas las unidades para tener un mínimo de 5 camas
y tras eliminar los hospitales tipo 4. El rango de ponderaciones base en la muestra que se
seleccionó con probabilidades proporcionales a la raíz cuadrada de
las camas recodificadas fueron de 2,71 a 33,68. Supongamos que queremos restringir el
los pesos estén en el rango [L, U] = [2, 18]. El modelo es el mismo que el
uno en la sección anterior e incluye los auxiliares, SEENCNT, EOYCNT,
y as.factor(hosp.type):CAMAS. La lista completa de código para seleccionar
Machine Translated by Google
biblioteca (quadprog)
# Tabular pop totales para restricciones
x.beds <- by(smho$BEDS, smho$hosp.type, sum) x.seen <-
sum(smho[,"SEENCNT"]) x.eoy <- sum(smho[,"EOYCNT"])
N <- nrow(smho)
X.hosp <- model.matrix(~ 0 + as.factor(hosp.type):BEDS, data = sam.dat)
restricciones
)
Machine Translated by Google
-U * uno)
Cmat <- rbind(rep(1,n-1), X[,-k], Entrada, -Entrada)
}
Machine Translated by Google
Como muestra la Tabla 14.8 , las ponderaciones QP arrojan un CV para los gastos totales
estimados que es algo menor que para la estimación ÿ (9,3 % frente a 8,4 %).
Las estimaciones GREG y GREG acotadas tienen CV más pequeños. Pero, la ganancia
de los pesos QP es sustancial para los gastos medios. Para la media, la
Los CV para QP, GREG y GREG acotado son los mismos que para el estimado
totales porque el número total de hospitales es una restricción, lo que implica que
el denominador de la media es una constante, N. Este no es el caso para el
ÿ-estimación. QP, GREG y GREG acotado son solo un poco más eficientes
que el estimador ÿ para la proporción de hospitales que reciben financiamiento de
agencias estatales de salud mental. Como se señaló anteriormente, un modelo que tiene hosp.type
como factor sería más eficiente para esta estadística.
• Ajuste por falta de respuesta. El modelo se especifica con una variable dependiente.
igual al indicador de respuesta (1=respondedor, 0=no respondedor). los
límite inferior recomendado en el ajuste de peso es 1,0 para garantizar que
cada miembro de la muestra al menos se representa a sí mismo en la población objetivo
estimados.
• Ajuste de calibración. El modelo se especifica con una variable dependiente igual a un indicador
de calibración (1=unidades incluidas en la calibración, 0=otro). El límite inferior recomendado
en el ajuste de peso es 0 para que los pesos de entrada puedan reducirse para cumplir con
el control.
totales
AJUSTAR
Ejemplo 14.7 (Restringir pesos usando ). La sintaxis SUD AAN invocable por SAS para PROC
WTADJUST utilizada para volver a calcular el ejemplo 14.6 es
proporcionado a continuación. A modo de comparación, primero se creó un archivo de transporte SAS
del marco de datos que contiene la muestra de 80 hospitales (sam.dat en
Secta. 14.3.2) y con pesos de diseño adjuntos (llamados dwt) usando el siguiente código R:
requerir (SASxport)
smho_80 <- cbind(sam.dat, dwt=d)
escribir.xport(smho_80, archivo="C:\\SMHO\\DATA\\Ex14_7.dat")
títulos variables. El lector interesado puede verificar las sumas de peso por las variables
de calibración con el procedimiento DESCRIPT a continuación. Las estadísticas resumidas
resultantes se proporcionan debajo del programa:
NOMBRELIB en "C:\\SMHO\\DATA";
LIBNAME tmp "C:\\";
LONGITUD ID 3;
SET tmp.SMHO_80;
identificador = _n_; CORRER;
PROC MEDIOS DATOS=BCAL_WTS NOLABELS MIN P25 P50 MEDIO P75 MAX;
VAR DWT BCAL_WT;
CORRER;
Machine Translated by Google
Potter (1990, 1993) describe varios otros métodos de reducción de peso. Alguno
trate de identificar un método de recorte que minimice el error cuadrático medio;
otros solo miran la distribución de los pesos cuando deciden cómo
recortar. Estos métodos son ad hoc y en gran parte teóricos. La forma de peso
recorte que puede ser más común se puede resumir de la siguiente manera:
(1) Establecer los límites superior e inferior de los pesos. Métodos para establecer los límites.
son generalmente arbitrarios y una cuestión de preferencia de la agencia o histórica
precedencia. Por ejemplo, un método utilizado en la Evaluación Nacional
de Progreso Educativo (Centro Nacional de Estadísticas Educativas 2008)
es recortar cualquier peso superior a 3,5 veces el peso medio (3,5wmed,
decir) de vuelta a 3.5wmed.
(2) Cualquier peso mayor que el límite superior (menor que el límite inferior) se restablece a
el límite Eso es,
ÿ U semana ÿ U,
Si los pesos de entrada respetan un conjunto de totales de control, los pesos recortados
típicamente no lo hará. Uno podría entonces recalibrar los pesos después de recortar y
iterar a través de los pasos de recorte y calibración hasta que se obtenga un conjunto de pesos.
obtenidos que respetan los límites de peso y los controles. Desde el mismo
se logra por el método de programación cuadrática, es dudoso que
esto valdría la pena.
Machine Translated by Google
resumen(pesos(sam.lin.tr1))
mín. 1er cuarto Mediana Media 3er Qu. máx.
2.002 5.957 9.043 9.062 11.140 18.000
Como muestra el resumen, se cumple la restricción de rango en los pesos. Sin embargo,
los pesos ya no están calibrados. Por ejemplo, la población total de la SEENCNT es
1.349.241, pero la estimación con los pesos recortados es
svytotal(˜SEENCNT, sam.lin.tr)
total SE
SEENCNT 1426878 240798
Tenga en cuenta que el SE es distinto de cero usando las fórmulas de varianza para un
diseño con reemplazo.
La figura 14.7 es un gráfico de los pesos recortados frente a los pesos base y los
pesos GREG. Los pesos GREG se muestran en negro. Se han recortado nueve puntos
hasta los límites [2, 18]. Los cambios de los pesos GREG a los pesos recortados son
mínimos para los otros puntos. Los pesos base (inversos de las probabilidades de
selección) se representan en gris. Hay una cantidad considerable de cambio entre los
pesos base y los pesos GREG y los pesos GREG recortados.
15
10
recortados
Pesos
peso de diseño
Pesos calibrados
0 5 10 15 20 25 30 35
Pesos de diseño y pesos calibrados
Higo. 14.7: Pesos recortados graficados versus pesos base y pesos GREG en una muestra de la población
smho.N874. La línea diagonal es una línea de referencia de 45ÿ.
Las líneas horizontales se dibujan en 2 y 18.
CLASE HOSP_TYPE;
BDINFERIOR 0;
BD SUPERIOR 18;
WTMIN 2;
PESO MÁX. 18;
MODELO _uno_ = N SEENCNT EOYCNT HOSP_TYPE*CAMAS;
La declaración POSTWGT anterior se usa para forzar que las ponderaciones recortadas y
limitadas también satisfagan los totales de control usados en el ejemplo 14.6. Tenga en
cuenta que los totales de control deben ingresarse como constantes en la instrucción
POSTWGT; no se pueden leer desde un archivo.
Ejercicios
14.1. Utilice el conjunto de datos smho.N874 para completar este ejercicio sobre
posestratificación. Seleccione una muestra aleatoria simple de tamaño n = 80 sin reemplazo.
Si usa R, establezca la semilla del número aleatorio en ÿ530049348 con el comando
set.seed.
Machine Translated by Google
a) ¿Cuáles son los medios de gasto en los cinco tipos de hospitales de la población? ¿Qué debe
buscar para que valga la pena considerar la posestratificación? (b) Calcule los recuentos de
población de las instalaciones por tipo de hospital, tratando el conjunto de datos smho98
como la población total. Calcule los recuentos de muestras no ponderadas por tipo de hospital
para verificar que cada tipo esté representado en la muestra. Si uno de los tipos de
hospitales no estuviera representado en la muestra, ¿cuáles serían las implicaciones
prácticas y teóricas? Analice esto en el contexto de la inferencia basada en el diseño y en el
modelo. (c) Calcule el conjunto de pesos posestratificados para la muestra utilizando el tipo
de hospital como variable de posestratificación. ¿A qué se suman los pesos antes y después
de la posestratificación? ¿Es esto lo que esperas? (d) Verificar que los controles de calibración
sean cumplidos por el conjunto de posestratificados
pesos
(e) Estime el total de gastos de la población y su error estándar para el estimador de expansión
bajo el diseño de espada y para el estimador posestratificado. Asegúrese de incorporar un
factor de corrección de población finita en las estimaciones de varianza. Discuta cualquier
similitud o diferencia en los totales estimados y los EE.
14.2. Repita el ejercicio anterior después de seleccionar una probabilidad proporcional al tamaño
de la muestra.
14.3. Utilice el modelo CAMAS + SEENCNT + EOYCNT + como factor (tipo hosp.) y la muestra
descrita en la Secc. 14.3.2 para calcular los pesos GREG.
Es decir, seleccione una muestra con probabilidades proporcionales a la raíz cuadrada
recodificada de las camas (usando la semilla de número aleatorio 428274453 si está usando R).
Restringir la población a establecimientos distintos al tipo 4.
Machine Translated by Google
(a) Verifique que los pesos estén calibrados, es decir, s wixi = tx, para el auxiliar
las variables en el modelo de calibración.
(b) ¿Cuáles son los rangos de los pesos base y los pesos calibrados?
(c) Experimente limitando los ajustes de peso usando inferior y superior
límites de [L, U] = [0.01, 3]. Use FORCE=TRUE en la función de calibración
si no se obtiene la convergencia. ¿Estas pesas están completamente calibradas? gráfico
los pesos GREG sin límites y los pesos de ajuste acotados
frente a los pesos base. Use diferentes símbolos o colores para distinguir los
conjuntos de pesas. ¿Qué te dicen estos resultados sobre los problemas numéricos?
que puede ocurrir con la calibración limitada?
14.4. Considere una muestra aleatoria simple estratificada en la que nh unidades son
seleccionados de Nh unidades en el estrato h. La varianza unitaria en el estrato h es S2 H. los
la asignación proporcional a los estratos tiene nh/n = Nh/N con n = N = h nh y
Nueva Hampshire. El peso de cada unidad i en el estrato h es whi ÿ kh = Nh/nh.
h
Defina la revarianza de los pesos como
Nueva Hampshire
con ¯w = nÿ1 i=1 whi.hDerive las tres versiones, (a), (b) y (c), a continuación
Nueva Hampshire
= norte
h yo=1
w2
hola
2 (C)
(h
Nueva Hampshire
i = 1 whi)
14.5. Demuestre que, en el caso de H = 2 estratos con un valor seleccionado en cada uno
estrato, la medida 1 + L de Kish es
p1w2 + p2w2 2
Una
deffw = 2.
(p1w1 + p2w2)
14.6. Usando el valor semilla aleatorio de 15097 en R, seleccione una muestra de n=50
hospitales del archivo de datos Hospital pop.txt con probabilidades proporcionales a la raíz
cuadrada del número de CAMAS, es decir, pps x1/2 . el hospital
El archivo tiene 393 registros.
(a) Calcule los efectos de diseño estimados usando la fórmula de Spencer y la de Kish
aproximación.
Machine Translated by Google
(b) Describa los estimadores del total de la población a los que Kish y
Spencer definitivamente se refiere. ¿Por qué difieren los valores calculados? que haces
¿Crees que es lo más relevante aquí? ¿Por qué?
(c) Estime el total de descargas (y) en la población utilizando el estimador ÿ junto con su SE y CV.
¿Cómo se compara esto con el
estimación de la varianza del total a partir de una muestra aleatoria simple de
n=50. Estime la varianza de la fuerza de la muestra de 50 seleccionados para
este problema. (Sugerencia: necesita usar los métodos del Capítulo 3 para estimar
una varianza de la población).
Los recuentos en el archivo nhispart.xpt se encuentran a continuación. Debes usar estos para
compruebe que ha leído el archivo correctamente.
(a) Seleccione una muestra aleatoria simple sin reemplazo de tamaño n = 200,
estableciendo la semilla aleatoria en 15097. Enumere los índices de la muestra que
seleccionados ordenados de menor a mayor. (Sugerencia: use la función de muestra).
(b) Crear una nueva variable igual a 1 si el ingreso familiar es menor a 1.5
veces el umbral de pobreza y 2 en caso contrario. La proporción de los ingresos familiares.
al umbral de pobreza es RAT CAT y tiene los valores a continuación. mantener el
incógnitas como una categoría separada. Mostrar una tabla con los recuentos de muestras
de su nueva variable. También cree versiones de las variables R EDAD1 y
RACRECI2 que tengan un mínimo de 10 casos por categoría. Haz esto por
Machine Translated by Google
(c) Cree un conjunto de pesas calibradas utilizando la función de distancia lineal y sin
límites en los ajustes de peso. Verifique que sus pesas estén calibradas.
Muestre el mínimo, el máximo y los tres cuartiles de los pesos.
(Sugerencia: use el extractor de pesos y la función de resumen).
(d) Cree un conjunto de pesos usando la función de distancia lineal con menor y
límites superiores en los ajustes de peso de 0,5 y 1,6. Verifique que su
los pesos están calibrados. Muestre el mínimo, el máximo y los tres cuartos de los
pesos.
(e) Cree un conjunto de pesos con la función de distancia de rastrillado sin límites
en los ajustes de peso. Verifique que sus pesas estén calibradas. Espectáculo
el mínimo, el máximo y los tres cuartiles de los pesos.
(f) Usando los tres conjuntos de pesos (lineal sin límites, lineal con límites,
y rastrillar sin límites), compare los pesos unitarios individuales con un
parcela de pares. Comenta las comparaciones.
(g) Usando los cuatro conjuntos de pesos: srs, lineal sin límites, lineal con
límites y rastrillar sin límites, estimar las proporciones de los
población con renta familiar inferior a 1,5 y superior o igual
a 1,5 veces la razón de ingresos de pobreza y sus errores estándar estimados.
(Sugerencia: use svymean.) Comente las estimaciones.
(a) Calcule las probabilidades para todas las unidades de población en una muestra de 50
seleccionados con probabilidades proporcionales a la siguiente medida de tamaño
(MOS): EXPTOTAL. Identificar certezas, si las hay, es decir, unidades con selección
Machine Translated by Google
probabilidad mayor que o igual a 1. Si hay certezas, asígneles probabilidad 1 y recalcule las
probabilidades de selección para la parte de la población que no tiene certeza, manteniendo
la muestra total en 50. (b) Seleccione una muestra de tamaño 50 usando el probabilidades
calculadas en (a). Si usted
use R, establezca la semilla del número aleatorio en 429336912.
(c) Calcule 1 + L de Kish y la definición de Spencer para esta muestra. En el caso de la deff de
Spencer, utilice la variable SEENCNT como y. (d) Explique con palabras el significado del
valor que obtuvo en (c) para 1 + L.
¿Qué se debe considerar para determinar si el valor es excesivamente grande o no? ¿Cómo
se comparan las medidas de Kish y Spencer en este problema?
(e) Repita las partes (a)–(d) usando BEDS como MOS. Establezca el MOS para cualquier unidad
con BEDS = 0 en el valor mínimo de BEDS para aquellas con BEDS distintas de cero. Use
EXPTOTAL como la y para la diferencia de Spencer y 429336912 como la semilla del número
aleatorio. Puede que le resulte útil examinar los pesos individuales cuando analice las medidas
de Kish y Spencer.
14.9. Muestre que cuando se selecciona una muestra de probabilidad proporcional a x, los pesos
se calibran al total de x en la población. Es decir, wi = tx donde wi es el inverso de la probabilidad
s
de
selección de la unidad i y tx es el total de x en todas las unidades del marco. ¿Piensa que el
estimador ÿ es el estimador más eficiente, es decir, la varianza más pequeña, en cualquier
población donde el muestreo pp(x) es razonable? ¿Por qué o por qué no?
14.10. Utilizando el archivo de datos smho.N874, seleccione una muestra de n=50 unidades con
probabilidades proporcionales a BEDS recodificadas como medida de tamaño. Establezca el MOS
para cualquier unidad con BEDS = 0 en el valor mínimo de BEDS para aquellas con BEDS distintas
de cero. Si usa R, establezca la semilla del número aleatorio en 429336912.
(a) Indique el resumen de los pesos resultantes, es decir, el mínimo, el máximo, los cuartiles y la
media. ¿Alguna unidad tiene pesos que parezcan preocupantes? (b) Use programación
cuadrática para acotar los pesos en el rango [1, 50].
Grafique los pesos resultantes frente a los pesos base. ¿Cuál fue el efecto de la delimitación?
¿Es la programación cuadrática una forma efectiva de acotar los pesos aquí?
(c) Vuelva a hacer las partes (a) y (b) pero recodifique cualquier unidad con BEDS = 0 a BEDS=10.
Discuta sus resultados. ¿Son los ajustes de peso tan extremos como en (b)?
Machine Translated by Google
Capítulo 15
Estimación de varianza
Las últimas dos secciones de este capítulo discuten algunos temas especializados:
combinación de UPM o estratos para la estimación de la varianza y formas de manejar ciertas UPM al
estimar las varianzas.
En unos pocos casos simples, las varianzas teóricas y sus estimadores tienen
fórmulas Encontramos por primera vez estas situaciones en el cap. 3 donde la notación
que usamos a continuación se definió. Hay tres diseños: muestras aleatorias simples, muestras aleatorias
simples estratificadas y muestreo de probabilidad variable con
reemplazo—que hemos tratado con más frecuencia que admiten varianza exacta
fórmulas Por ejemplo, si una muestra aleatoria simple estratificada sin reemplazo (stsrswor; discutida en
H
la Sec. 3.1.1) de tamaño n = la media de la población se estima con ¯yst = se
seestima conh=1 nh y
selecciona
H
h=1 Por qué, entonces su varianza
H
1 - fh
v (¯yst) = W2h Sˆ2
h,
Nueva Hampshire
h=1
2
donde Sˆ2
h = (nh ÿ 1)ÿ1 (yhi ÿ y¯sh)
iÿsh y Wh = Nh/N.
Otro diseño común es seleccionar unidades con diferentes probabilidades y
sin reemplazo. Si se seleccionan n unidades y ÿi es la probabilidad de selección
norte
que las unidades i y j se seleccionan para una muestra, uno de los estimadores de varianza
recomendados para ˆyÿ es el estimador de Yates-Grundy:
norte norte 2
ÿ1 ÿij ÿ ÿiÿj yo yj
varY G (ˆy) =
ÿ
. (15.1)
ÿij Pi ÿj
2 i=1 j=1
Una dificultad con este estimador es que las muestras a veces se seleccionan utilizando un
muestreo sistemático para que algunos de los ÿij sean cero. En ese caso, no existe un estimador de la
varianza sin sesgo de diseño. S¨arndal et al. (1992, cap. 3) proporcionan los detalles técnicos. Incluso
si se usa un diseño donde el estimador YG podría ser factible, es posible que los ÿij no estén
disponibles. Esto es especialmente cierto cuando se realiza un análisis de datos secundarios utilizando
un archivo preparado por otra persona, como una agencia gubernamental.
Si se selecciona una muestra con probabilidades variables y con reemplazo (ppswr) y se usa el
Una
yo
estimador pwr, y ˆ¯pwr =, su varianza es Nns Pi ,
estimado con
2
Una Una
yo
vy ˆ¯pwr = ÿ t ˆpwr (15.2)
N2 norte (n ÿ 1) Pi
yoÿs
ˆ
es el conjunto de unidades de muestra, t probabilidad
poder = Ny
(esˆ¯pwr,
decir,yla
piprobabilidad
es la selección
de de
selección
1 sorteo
si donde
solo ses
selecciona una unidad). Esto tiene la ventaja obvia de no requerir ningún ÿij .
Otro caso importante en el que se aplica la fórmula pwr es un diseño multietapa en el que las
unidades de la primera etapa se seleccionan con reemplazo. En ese diseño, la fórmula (15.2) se puede
utilizar con yi definido como el total estimado para las unidades en la unidad de primera etapa i. El
requisito técnico es que yi debe ser un estimador insesgado de la PSU total de y. Si las UPM están
estratificadas, entonces nÿ1 el pwr -estimador de una media es y ˆ¯pwr = N iÿsh y hi/phi, donde phi es
ÿ1
selección de la UPM i en el estrato h y y hola h la hprobabilidad de 1 sorteo de
=
kÿshi dk|hi yhik es el total estimado solo para unidades en PSU hi. El conjunto de unidades de muestra en PSU hi es
shi mientras que dk|hi es el peso de la unidad k en PSU hi que expande la muestra de PSU a solo la población de esa
PSU. El peso completo para la unidad k en shi es dk = dk|hi phi , donde dk|hi a veces se denomina peso condicional
dentro de la PSU para la unidad k (condicional a que se seleccione PSU hi) y dk como el peso incondicional. La fórmula
de la varianza de pwr es entonces
2
Una Una
y hi
vy ˆ¯pwr = ÿ t ˆpwr,h , (15.3)
N2 fi
h nh (nh ÿ 1) iÿsh
donde t ˆpwr,h = nÿ1 h sh y hola/phi. Esta fórmula también se suele escribir como
Una
2
Nueva Hampshire
Ser capaz de usar una fórmula de varianza exacta depende no solo del diseño de la muestra,
sino también de usar lo que se conoce como un estimador lineal, que tiene un significado
particular en el mundo basado en el diseño. Saber qué es (y qué no es) un estimador lineal
será importante ya que los estimadores de varianza de replicación y linealización que se
tratan en secciones posteriores están diseñados para manejar estimadores no lineales.
Machine Translated by Google
,
ÿi = /1 si0 la unidad
si no (ii /ÿ
está
s). en la muestra (i ÿ s)
la razón de dos estimadores lineales. El estimador posestratificado, TˆyPS = Nÿ t ˆyÿ Nˆÿ de la Secc .
GRAMO
iÿsc,E
d1i
a2c = ,
iÿsc,ER
d1i
donde c es una clase de ponderación, d1i es una ponderación base ajustada por elegibilidad
desconocida, sc,E es el conjunto de unidades de muestra elegibles en c, y sc,ER es el conjunto de
unidades de muestra elegibles que respondieron en c. Un total estimado utilizando este tipo de
el peso ajustado por la falta de respuesta se puede escribir como Tˆ =
a2cd1iyi. c iÿsc,ER
Tanto el numerador como el denominador de a2c son aleatorios con respecto al
diseño de la muestra, lo que hace que el estimador ajustado por falta de respuesta no sea lineal.
Otro ejemplo es un estimador GREG en la Secc. 14.3, que implica la
inversa de una matriz de muestra, entre otras complicaciones, que la hacen altamente
no lineal Si la calibración GREG está precedida por un ajuste de falta de respuesta,
luego se inyecta aún más no linealidad en el estimador.
Machine Translated by Google
Estimar la varianza de un estimador no lineal es algo más difícil que para un estimador
lineal. Sin embargo, el método de linealización, descrito en la siguiente sección, es una
solución a este problema (al menos en principio).
ˆÿ = pies ˆ1,...,t ˆp .
Cada total estimado debe ser un estimador lineal de la forma, t ˆj = iÿs ÿiyji.
pags
ˆ
ÿft ÿt
ˆÿ - ÿ . = t j ÿ tj (15.5)
j=1 ˆj
T
ˆ
donde ˆÿ es la estimación del parámetro poblacional
ˆ ÿ; t = t ˆ1,...,t ˆp ÿt ˆj es la derivada ,
estimados; ÿft respecto al j-ésimo total estimado
parcial
en t ˆ;
deyftjcon
es el total
vectordede
la totales
población para
la j-ésima variable. La teoría detrás de la aproximación requiere que las derivadas
parciales se puedan derivar y se evalúen en los valores de la población
Machine Translated by Google
(que, por supuesto, no sabemos). Las estimaciones de muestra se sustituyen por las
cantidades de población para calcular una varianza estimada como se muestra a
continuación.
El problema aparentemente complicado de estimar la varianza de los ˆÿ no lineales
se reduce, por lo tanto, al problema más simple de estimar la varianza de una
combinación ponderada de los t ˆj . Luego calculamos la varianza del lado derecho de
la ecuación. (15.5) elevando al cuadrado ambos lados de la ecuación y evaluando la
expectativa con respecto al diseño de la muestra obteniendo así
ˆ 2 ˆ ˆ
=
. pags
ÿft ÿt ÿft
Vˆÿ V t ˆj + cov t ˆj ,t ˆk . (15.6) ÿt ˆk
ˆj ˆj
j=1 j=1 k = j
ÿf(t) ÿf (t)
ˆÿ - ÿ . = t ˆ1 ÿ t1 + ÿt2 t 2 ÿ t2
ÿt1
de modo que
2 2
2
=
. ÿf(t) ÿf(t) 2
ˆÿ ÿ ÿ t 1 ÿ t1 2 + t 2 ÿ t2
ÿt1 ÿt2
Tomando la expectativa de ambos lados del signo igual con respecto al diseño de
muestra particular en uso, obtenemos
Machine Translated by Google
2
V ˆÿ = Eÿ ˆÿ ÿ ÿ
. 2 2
= ÿf(t) ÿt1 V t ˆ1 + ÿf(t) ÿt2 V t ˆ2 + 2 ÿf(t) ÿf(t) ÿt2 Cov t ˆ1,t ˆ2
ÿt1
2
donde ÿf(t) = y ÿf(t) = ÿt1 . Estimar valores para V t ˆ1 , Vt ˆ2 ,
ÿt1 1 t2 ÿt2 1 t2
ÿf(t
con zk =
pj=1 ˆ) ÿt ˆj yjk (k ÿ si). Las "constantes" en la ecuación. (15.7) dependen de
los totales y derivados de la población y ninguno contribuye a la varianza de diseño. La
suma ˆz = dkzk es el total estimado de los se
varianza zk lineales.
, iÿskÿsientonces
reduce , que
El se adenominan
problema la sustitutos
de estimación
estimar de de
varianza la un
único total estimado. A menudo, el último estimador de varianza de conglomerados en Eq.
(15.4) se utiliza. Si el diseño fuera una muestra estratificada por conglomerados, entonces,
utilizando los sustitutos lineales, la fórmula final del conglomerado sería
2
vL
ˆÿ = Nueva Hampshire
zˆhi ÿ z ˆ¯h ,
(nh ÿ 1) iÿsh
h
Ejemplo 15.2 (Continuación del Ejemplo 15.1, razón de dos totales). Tome el estimador
de una razón definida en el ejemplo 15.1, ˆÿ = t ˆ1 t ˆ2 con t ˆj = (j=1,2). El sustituto
kÿs
lineal
diyjk
ÿ1
es zk = t la varianza es V (si el diseño es sólido, entonces
2 ( y1kla ÿ varianza
ÿy2k). El estimada
dkzk aproximado).
es
s Cómo se estima esto depende del diseño de la muestra.
N2 2
norte
( zk ÿ z¯s)
v ˆÿ = 1- s
norte norte norte ÿ 1
Machine Translated by Google
siendo ¯zs la media muestral no ponderada de los zk. Si el diseño es ppswr, entonces
2
Una
zk
v ˆÿ = ÿ t ˆpwr,z
norte (norte - 1) paquete
kÿs
con t ˆpwr,z = nÿ1 zk/pk. Sis se usó un diseño de dos etapas (o más), entonces se usaría una
fórmula de varianza apropiada para ese diseño.
Ejemplo 15.3 (Log-odds en una tabla de 2 × 2). Suponga que la siguiente tabla proporciona los
recuentos estimados de personas que tienen diabetes clasificadas por género.
Suponga que se utiliza una muestra estratificada de etapas múltiples y que cada
tiene diabetes
tener diabetes
Masculino t1 t2
Femenino t3 t4
total tiene la forma t ˆj = dkyjk. Observe que cada celda de la tabla es un dominio, por lo que yjk
hola kÿshi
es 1 (k ÿ shi) si la unidad k está en la celda j (j = 1, 2, 3, 4) y 0 si no. El logaritmo de la razón
entre las probabilidades de que los hombres tengan diabetes y la razón de probabilidades para
las mujeres es
t 1t 4
ˆÿ = logaritmo = Iniciar sesión t ˆ1 ÿ Iniciar sesión t ˆ2 ÿ Iniciar sesión t ˆ3 + Iniciar sesión t ˆ4 .
t 2t 3
+ y el log-odds es dkzk. La
t1 t2 t3 t4 ,
.
aproximadamente ˆÿ, en = este caso, es varianza del clúster final
hola kÿshi
2
v ˆÿ =
Nueva Hampshire
zˆhi ÿ z ˆ¯h ,
h
(nh ÿ 1)
iÿsh
Los paquetes de software tienen programados ciertos casos especiales de la fórmula del
sustituto lineal. El usuario especifica el diseño de la muestra y el tipo de estimador, y el software
evalúa la fórmula adecuada. R, Stata, SUDAAN y SAS utilizan el método de sustitución lineal
como una de sus opciones. El usuario está limitado a las estadísticas para las que se ha
programado el sustituto lineal. Para estadísticas personalizadas, el estadístico puede necesitar
construir su propio programa especializado.
Machine Translated by Google
ˆÿ
ˆÿ ± z1ÿÿ/2 vL ˆÿ o ˆÿ ± t1ÿÿ/2 (df) vL
donde z1ÿÿ/2 es el punto en una distribución normal estándar con 1 ÿ ÿ/2 del área a su izquierda y t1ÿÿ/
2 (df) es el punto correspondiente en una distribución t central con df grados de libertad . A continuación
se describen algunas de las reglas generales utilizadas para establecer los grados de libertad.
Los grados de libertad son una característica de un estimador de varianza al igual que el diseño de
la muestra. Si los datos, y1,...,yn, fueran generados cada uno independientemente por una distribución
normal con media ÿ y varianza ÿ2, entonces ÿ2 tiene una distribución chi-cuadrado con n-1 grados de
norte 2
yo=1
(yi ÿ y¯s) libertad. En la teoría basada en el diseño, no se hacen suposiciones sobre una
distribución de modelo subyacente. Como resultado, la teoría de muestras grandes se utiliza para
asignar grados de libertad aproximados a los estimadores de varianza (p. ej., véase Rust (1984, 1985)).
H
Si hay n = h=1 nh PSU de muestra y H estratos, la regla dice que df = n ÿ H. En otras palabras, se
toman nh ÿ 1 grados de libertad de cada estrato.
(i) No normalidad del zk que puede ser causada por un pequeño número de
PSU de muestra.
(ii) El zk que tiene colas más pesadas que una distribución normal. (iii) Las
varianzas subyacentes de las variables de análisis son diferentes entre
Estratos.
(iv) La estadística es la proporción de la población que tiene una característica rara. Esto puede
resultar en una distribución de colas pesadas del zk. (v) Las UPM y/o los estratos se colapsan
para reducir la carga computacional. Esto es común cuando se usan los estimadores de varianza de
replicación discutidos en las secciones subsiguientes. El colapso se describe en la Secc. 15.5.
.
y¯R ÿ y¯U = ÿy¯R ÿy¯R
(¯ys ÿ y¯U ) + (¯xs ÿ x¯U ).
ÿy¯s ÿx¯s
El teorema que conduce a la aproximación dice que los parciales deben ser
evaluados en valores poblacionales. Eliminando los términos en ¯yU y ¯xU la parte ,
de la aproximación que depende de las cantidades de la muestra es
La derivada parcial de ¯yR con respecto a ¯ys es ¯xU /¯xs. Si se evalúa en cantidades de población,
entonces la derivada parcial es igual a uno. De lo contrario, si
la derivada parcial se evalúa en cantidades muestrales, tenemos ¯xU /¯xs. los
parcial con respecto a ¯xs es ÿy¯sx¯U x¯2 s. Cuando se evalúa en la población y
cantidades muestrales, esta derivada parcial es ¯yU /¯xU y ÿy¯sx¯U x¯2 s, respeto
tivamente. Por lo tanto, dos opciones para las aproximaciones lineales son
. Yu
y¯R ÿy¯U = nÿ1 s yk - x¯U derivados xk evaluados en valores poblacionales
. Yu
y¯R ÿ y¯U = nÿ1 x¯U s yk ÿ x¯U xk derivados evaluados en muestra esti
x¯s
compañeros
2
N2 norte
y¯s
v0 = 1- yk ÿ xk .
norte norte
s
x¯s
2 2
N2 norte
x¯U y¯s
v2 = 1- yk ÿ xk .
norte norte x¯s s
x¯s
El estimador v2 tiene un mejor rendimiento condicional que v0. Por “condicional” queremos decir que v2
rastrea la varianza de ¯yR mejor que v0 para muestras donde ¯xs difiere de ¯xU . Más formalmente, buen
desempeño condicional
significa que un estimador es insesgado (o aproximadamente) bajo un modelo
que describe la dependencia de y respecto de x. En este caso, el modelo que motiva el estimador de razón
es EM (yi) = ÿxi, VM (yi) = ÿ2xi. El estimador v2
es tanto modelo imparcial como aproximadamente diseño imparcial bajo srswor lo que le da una especie
de doble robustez, un término utilizado en la literatura de ensayos clínicos
(Kang y Schafer 2007).
Para llegar a v2, se hace una elección un tanto arbitraria para evaluar los parciales de una manera
diferente a la dictada por el teorema de Taylor. Un interesante
Machine Translated by Google
Requerir (encuesta)
Requerir (muestreo)
# Recuentos de estrato de población Nh <-
table(smho.N874[, "hosp.type"])
n <- 50 H <-
length(Nh) sam <-
strata(data = smho.N874, stratanames = "hosp.type", size = rep(n,H), method=c("srswor"), description =
TRUE) sam.dat <- smho.N874[sam\$ID\_unit,] d <- 1/sam$Prob sam.rates <-
sam$Prob # Crear un objeto de diseño con smho.dsgn de fpc <- svydesign(ids
= ˜0, # sin conglomerados estratos = ˜hosp.type, fpc = ˜sam.rates, data = data.frame(sam.dat), pesos =
˜d)
datos = datos.marco(sam.dat),
pesos = ˜d)
cv(svyby(˜EXPTOTAL, by=˜as.factor(hosp.type),
diseño=smho.nofpc.dsgn, DIVERSIÓN=svytotal))
cv(svytotal(˜EXPTOTAL, diseño=smho.nofpc.dsgn))
estallido.
CV (%) con fpc CV (%) 17,6 11,3 9,5 17,1 13,1 8,7
sin fpc 20,1 15,0 10,6 21,0 16,3 10,1
Relación de CV s 1,14 1,33 1,12 1,23 1,24 1,16
Las estimaciones para dominios (es decir, subpoblaciones o dominios) son importantes en
el análisis de los datos de la mayoría de las encuestas. Las estimaciones para las celdas en una tabla cruzada
son ejemplos de estimaciones de dominio. Una forma de caracterizar los dominios (también
denominadas subpoblaciones o subgrupos) depende de si el tamaño de la muestra
del dominio está fijado por el diseño o no. Si el tamaño de la muestra del dominio
es fijo, entonces el análisis del dominio se puede hacer creando un subarchivo que
contiene sólo las unidades en el dominio. Por ejemplo, si los empleados de una
empresa están estratificados por división en la que trabajan (procesamiento de datos, campo
operaciones, estadísticas, recursos humanos, etc.), entonces cada división se puede analizar por
separado. Si los tamaños de muestra no son fijos, entonces la aleatoriedad de los
el tamaño de la muestra del dominio debe incorporarse en las estimaciones de la varianza. En el
encuesta de empleados, nos podría interesar el dominio de las personas que se sienten
que están subempleados teniendo en cuenta sus niveles de educación. Asumiendo
que no sabemos quiénes son esas personas antes de hacer la encuesta, sus
el tamaño de la muestra será aleatorio.
La técnica utilizada para estimar la varianza de diseño de una estimación de dominio
para el cual el tamaño de la muestra es aleatorio es codificar una unidad como si tuviera un valor de 0
si no están en el dominio y como teniendo su valor observado si está en el
dominio:
Machine Translated by Google
si k está en el dominio
yk (d) = / yk0 d, si no.
Algunos textos usan una variable indicadora, ÿi (d) = 1 si la unidad i está en el dominio d y 0 si
no. Entonces yk (d) = ykÿi (d). El yk (d) recodificado se usa luego en cualquier fórmula de
varianza que sea apropiada para el diseño. Para un estimador de varianza de linealización, se
usa yk (d) en el sustituto lineal. Como veremos en la Secc. 15.4, este truco de codificación cero
es innecesario en la estimación de la varianza de replicación, otra ventaja del enfoque de
replicación.
La teoría está disponible para que los estimadores de varianza de linealización muestren cuándo
son aproximadamente imparciales y consistentes. Krewski y Rao (1981) proporcionan la teoría
fundamental, que también se resume en Wolter (2007). Se debe considerar el tipo de diseño de
la muestra, en particular si las UPM se muestrearon con o sin reemplazo. En un caso sencillo
como stsrs, el enfoque de linealización se puede aplicar a diseños sin reemplazo, como se ilustra
en los ejemplos 15.1 y 15.2. En muestras de etapas múltiples, gran parte de la teoría se ha
desarrollado para diseños en los que las UPM se pueden seleccionar con probabilidades
variables pero con reemplazo. En ese caso, el último estimador de varianza de conglomerados
se puede aplicar a los sustitutos lineales. Cuando el muestreo de la UPM es sin reemplazo, un
estimador de varianza con reemplazo suele ser conservador, pero este es un compromiso que la
mayoría de los profesionales pueden aceptar.
También se necesitan algunas suposiciones matemáticas para derivar la teoría que se aplica
a los estimadores no lineales. Tres de los requisitos matemáticos clave son que (i) el número de
unidades de suministro de energía de la muestra sea grande, (ii) las variables que se analizan
(las y) no pueden ser muy variables ni verse afectadas por valores atípicos extremos, y (iii) la
debe
función no lineal, ˆÿ = ft ˆ1,...,t ˆp , con respecto a sus t ˆj componentes. ser diferente
Diferentes tipos de
diseños pueden satisfacer el requisito (i). En un diseño estratificado con un número limitado de
estratos, debe haber una gran cantidad de UPM en cada estrato. Un diseño estratificado con un
pequeño número de unidades por estrato puede satisfacer (i) si el número de estratos es grande.
supuestos necesarios para decir que este intervalo (o la versión que usa un
multiplicador) cubre la cantidad de población deseada en el 100 (1 ÿ ÿ) % de las muestras:
(i) La distribución de ˆÿ es aproximadamente normal cuando la muestra es
grande. (ii)
ˆÿ vL
es un estimador consistente de la varianza teórica, V ˆÿ , en
pags
Por "muestra grande" queremos decir que el número de unidades de suministro de energía de la
muestra es "grande". Esto, por supuesto, plantea la pregunta: ¿qué tan grande debe ser la muestra
de PSU para que se considere grande? Naturalmente, esta es una pregunta sin una respuesta clara.
Las variables continuas muy sesgadas necesitarán un tamaño de muestra mayor que las más
simétricas. Las características raras o predominantes requerirán una muestra más grande que
aquellas cuya proporción es más cercana.
Algunos profesionales dirán que 30 PSU son suficientes para que los CI funcionen como se
anuncia. Preferimos un número mucho mayor: 60 o más. Incluso si 30 fuera suficiente para tratar
ˆÿ como normal, un estimador de varianza basado en 30 UPM puede ser bastante inestable. Esto
perjudicará seriamente el desempeño de los intervalos de confianza. Tener al menos 60 PSU
ofrece un mínimo de protección contra la estimación de varianza inestable. Regresaremos a este
punto más adelante en el capítulo en la discusión de los estimadores de varianza de replicación.
En el cap. 14, varios ejemplos mostraron errores estándar estimados mediante linealización. Los
ejemplos 14.2, 14.3 y 14.4 cubrieron los estimadores posestratificados y rastrillados y sus errores
estándar. El siguiente ejemplo muestra un caso más simple de linealización que a menudo se
usaría para conjuntos de datos de uso público proporcionados por gobiernos federales.
a <- svymean(˜factor(age.grp), deff=TRUE, design=nhis.dsgn) b <- ftable(a, nombres de fila = lista(edad = c("<
18", "18-24", " 25-44", "45-64", "65+")))
redondo (b, 3)
edad
< 18 media 0,253
SE 0.004
Def 1.575
18-24 media 0,101
SE 0.004
Deff 3.872
25-44 media 0,285
SE 0.004
Deff 1.463
45-64 media 0,240
SE 0.004
Deff 2.092
65+ media 0,122 0,004 Deff
SE 3,268
La misma tabulación se puede hacer en Stata con este código después de decirle al
paquete que use el conjunto de datos nhis.large:
Después de leer los datos en un archivo llamado nhis large, el código SAS para la tabla es:
correr;
(La variable agegrp se usa arriba porque SAS y Stata no admiten nombres de variables que
contengan ciertos caracteres, como un punto, por ejemplo, age.grp).
Machine Translated by Google
ÿ
Nˆÿ
semana ÿ = Nÿ,
ÿ = kÿsÿ ÿ
Ejemplo 15.7 (Linealización con posestratificación). El código R para este ejemplo está en
el archivo Example 15.7 poststrat.R. Recuerde que en el ejemplo 15.2, se seleccionó una
muestra de 250 casos de esta gran población.
Se utilizaron quince postestratos de grupos de edad x hispanidad. Se creó un objeto
de diseño llamado nhis.dsgn y, a su vez, se utilizó para crear un objeto con pesos
posestratificados, ps.dsgn.
estratos = ˜PS,
población = N.PS)
Machine Translated by Google
(En este ejemplo, en contraste con el ejemplo 15.2, omitimos un fpc). Un requisito
fundamental es que el nombre asociado con el vector total de la población, N.PS,
debe ser el mismo que el nombre de la variable utilizada para identificar los estratos
posteriores. . La sentencia, table(PS=nhis.large1$PS), asegura que el nombre PS
se utilice para los totales de población. Los totales postestratificados estimados de
personas que reciben Medicaid (Medicaid=1) o no (Medicaid=2) se estiman con:
Por otro lado, podemos usar los pesos posestratificados para formar un objeto de
diseño asumiendo que la muestra fue seleccionada con probabilidades variables y
con reemplazo, y luego estimar el mismo total.
Los totales estimados son, por supuesto, los mismos con estas dos alternativas.
Sin embargo, los EE para el número total de personas que reciben Medicaid son
346,47, teniendo en cuenta la posestratificación, y 384,73, ignorándola. En
consecuencia, sobrestimaríamos el SE en aproximadamente un 11 % (384,73 frente
a 346,47). Para el total estimado de no recibir Medicaid, el SE estaría sobrestimado
en un 26 % (470,38 vs. 372,59). La sobreestimación también ocurriría con los
métodos de replicación, considerados posteriormente, si se ignora la posestratificación.
# cuantiles de población
popq <- cuantil(smho$SEENCNT, c(0.25, 0.50, 0.75))
# Calcular cuantiles y CI
# Método Francisco-Fuller
FF <- svyquantile(˜SEENCNT, design=smho.dsgn,
cuantiles = c(0.25, 0.50, 0.75),
ci=VERDADERO, intervalo.tipo="puntuación",
se = VERDADERO)
# Método Woodruff
madera <- svyquantile(˜SEENCNT, design=smho.dsgn,
cuantiles = c(0.25, 0.50, 0.75),
ci=VERDADERO, intervalo.tipo="Wald",
se = VERDADERO)
round(cbind(t(FF$cuantiles), t(FF$CIs[,,1])), 0)
SEENCNT (superior inferior)
0.25 581 846 208
0.5 1458 846 1613
0.75 1932 1654 4182
round(cbind(t(madera$cuantiles), t(madera$CIs[,,1])), 0)
SEENCNT (superior inferior)
0.25 581 753 184
0.5 1458 829 1622
0.75 1932 1663 4759
# extraer SE
redondo (SE (FF), 1)
0,25 0,5 0,75
162,8 195,7 644,9
redondo(SE(madera),1)
0,25 0,5 0,75
145,3 202,4 790,0
15.4 Replicación
En cada uno de los métodos, se seleccionan submuestras de las UPM, no de las unidades
dentro de las UPM. Una submuestra se conoce como una réplica. Si se selecciona una PSU
para una réplica, se retienen todas las unidades de muestra dentro de la PSU. Los pesos
base para las unidades en una réplica se ajustan de una manera que depende del método
de réplica. Luego, cualquier ajuste de peso adicional, como la calibración (si se utilizan), se
realiza por separado para cada réplica.
Esto conduce a un conjunto de ponderaciones para cada réplica además de las ponderaciones
de muestra completa generadas para la estimación de la varianza lineal (Sección 15.3). Estos
pesos se adjuntan al registro de cada unidad de muestra y se utilizan para calcular las
estimaciones repetidas.
En las secciones subsiguientes se revisan tres tipos de estimadores de varianza
replicados. Para cada uno, proporcionamos una descripción general de los procedimientos
para calcular los pesos correspondientes, referencias para los detalles teóricos y las ventajas
y limitaciones.
El método jackknife básico crea repeticiones descartando una unidad de primera etapa y
volviendo a ponderar las unidades restantes para producir una estimación de población completa.
Por ejemplo, si se elimina la unidad i de n unidades de primera etapa, entonces el peso de la
unidad k es
Machine Translated by Google
t ˆ(i) = dk(i)yk,
kÿs(i)
norte
nÿ1 2
vJ = t ˆ(i) ÿ t , (15.9)
norte
yo=1
N2 2
(yk ÿ y¯s) ,
norte (n ÿ 1) s
que es la fórmula estándar para la varianza de t ˆin srswr. Dado que este estimador de varianza se
ˆ
puede calcular directamente, el jackknife no tiene ninguna ventaja para t Ny¯s ni para ningún otro =
estimador lineal.
El beneficio de la navaja es que es aproximadamente imparcial y consistente para la varianza de
los estimadores no lineales. Si el estimador no lineal, ˆÿ = ft ˆ1,...,t ˆp , unidad i y calculando ˆÿ(i) = ft
1(i),...,t ˆÿ(2), ..., ˆÿ(n) sese está analizando,
calcula el jackknife
correspondiente se construye
a la eliminación eliminando
de cada una de las n unidades de
ˆ ˆ
la muestra. Cada estimación duplicada tienecompleta.la misma Luego,
forma
p(yo) que
. los
Cadala
resultados
estimación
réplica se de
estimareemplazan
la muestraen la Ec.
ˆÿ(1),
Si se selecciona una muestra de varias etapas, "eliminar una unidad" significa "eliminar una PSU".
Al eliminar una PSU, queremos decir que todas las unidades de muestra en una PSU se eliminan
cuando se elimina la PSU. Dejar caer una unidad a la vez desde dentro de una PSU dará estimaciones
de varianza incorrectas. Con un diseño multietapa estratificado, se omite una PSU a la vez para crear
una réplica, y el ajuste de peso para una réplica se aplica solo a las PSU dentro del estrato donde se
dejó caer una PSU. Suponga que la PSU i en el estrato h (h = 1,...,H) se elimina para formar una
réplica (hi). Denote el peso base ajustado para la unidad k en la réplica (hi) por dk (hi). Luego, los
pesos base dk se ajustan de esta manera:
Machine Translated by Google
En otras palabras, todas las unidades en la UPM eliminada hi tienen sus ponderaciones
establecidas en 0. Todas las unidades en las otras UPM (nh ÿ 1) dentro del estrato h tienen sus
ponderaciones base multiplicadas por nh/ (nh ÿ 1), el inverso de la fracción de submuestreo dentro
del estrato. Las unidades en los estratos donde no se dejó caer ninguna fuente de alimentación
conservan su peso original. Por lo tanto, los pesos de las unidades retenidas en el estrato h se
ajustan para representar el estrato completo y los pesos de las unidades en otros estratos se dejan
como están.
Luego, los pesos ajustados se usan de la misma manera que lo harían en una muestra de una
sola etapa para calcular una estimación replicada denotada por ˆÿ(hi). El estimador de varianza
jackknife estratificado es entonces
nh ÿ 1 2
vJ ˆÿ = ˆÿ(hola) ÿ ˆÿ , (15.11)
Nueva Hampshire
h iÿsh
Casos especiales
Hay dos casos especiales de la navaja que a veces surgen en la literatura que merecen una breve
discusión. Uno es el jackknife no estratificado, presentado al comienzo de esta sección, que a
veces se denomina JK1.
Este es realmente solo un caso especial de JKn con un estrato. Dos PSU de muestra en cada
estrato conducen a otro caso especial. Cuando nh = 2, la fórmula JKn para un total estimado, t ˆ=
dkyk, se reduce a h 2 i=1 kÿshi
ˆ 2
vjt _ = Yˆh1 ÿ Yˆh2 , (15.12)
h
El estimador de varianza JK2 no tiene un apoyo teórico particular para los estimadores
no lineales, pero conduce a que se utilicen menos réplicas que en JKn.
Dentro de JKn, se necesitarían 2H repeticiones en un diseño de 2 por estrato donde H es el
número de estratos. En JK2 solo se necesitan réplicas H. Esto podría ser un gran ahorro si
el número de estratos es grande. Sin embargo, el método BRR que se tratará en la Secc.
15.4.2 se aplica en el caso de 2 unidades por estrato y se ha demostrado que funciona para
estimadores no lineales y para cuantiles como la mediana.
Ni JKn ni JK2 convergen a la varianza correcta para los cuantiles. BRR también requiere
solo un poco más de repeticiones que JK2. Por lo tanto, no parece haber una buena razón
para usar JK2 en ninguna aplicación.
Jackknife, BRR y bootstrap manejan correctamente la estimación del dominio sin realizar la
codificación cero explícita para los miembros que no pertenecen al dominio que se necesitaba
para la linealización. El uso de la variable recodificada, yk (d) = 0 para unidades fuera del
dominio y yk para unidades de dominio, sigue siendo correcto para la replicación.
Pero, esto es equivalente a eliminar las unidades codificadas en cero al calcular ˆÿ(hi) y ˆÿ
para usar en la ecuación. (15.11). Descartar las unidades que no pertenecen al dominio es
la forma estándar de calcular las estimaciones de varianza jackknife (o BRR o bootstrap).
Recuerde que eliminar las unidades que no pertenecen al dominio y calcular una estimación
de la varianza de linealización de ese subconjunto del archivo generalmente sería un error.
Los supuestos para que el jackknife sea aproximadamente insesgado y consistente para la
varianza de un estimador no lineal son los mismos que para la linealización: la muestra de
la PSU debe ser grande, la variable de análisis y no tiene valores atípicos extremos y no es
muy variable, y debe ser posible tomar todas las primeras derivadas de la función no lineal.
Krewski y Rao (1981) dan el conjunto completo de condiciones técnicas. La teoría de la
navaja básicamente dice que es equivalente al estimador de linealización en muestras muy
grandes. Por lo tanto, en cualquier lugar donde funcione la linealización, la navaja debería
funcionar.
La gran ventaja de jackknife (y BRR y bootstrap) es que también puede reflejar
implícitamente los efectos sobre las variaciones de la falta de respuesta y los ajustes de
calibración. Si se utiliza un procedimiento de ajuste por falta de respuesta para la muestra
completa, se debe realizar el mismo procedimiento por separado para cada repetición del
peso. Por ejemplo, si se utiliza la calibración, digamos a través de postestratificación o
GREG, también se debe realizar por separado para cada réplica. La razón por la que el
jackknife refleja estos ajustes es que incluso con una serie de ajustes no lineales, muchos
estimadores pueden escribirse de la forma ˆÿ = ft ˆ1,...,t ˆp . Por ejemplo, el estimador
posestratificado, Tˆ
=
PD Gÿ=1
Nÿ t ˆyÿ Nˆÿ , es una función de los totales estimados 2G—
Machine Translated by Google
t ˆy1,...,t ˆyG, Nˆ1,..., NˆG. Si, además, se utilizan ajustes por falta de respuesta dentro
de las celdas, esto simplemente agrega algunos totales estimados más a la f no lineal.
El software disponible que realiza la estimación de la varianza de la linealización, por
lo general, no tiene en cuenta los efectos de las múltiples etapas del ajuste del peso.
Las razones de esto son dos: (i) el sustituto lineal apropiado que representa todas las
etapas del muestreo no está programado y (ii) los usuarios generalmente no pueden
proporcionar toda la información que sería necesaria para que el software calcule el
sustituto lineal apropiado. Con una estimación de la varianza de la réplica como la navaja,
todo lo que se necesita es volver a calcular cada ajuste por separado para cada réplica.
El jackknife implícitamente estima la varianza de la aproximación lineal para un estimador
no lineal complicado y, por lo tanto, implícitamente da cuenta de todos los pasos de
ajuste. En consecuencia, si el constructor de la base de datos ha calculado los pesos
replicados de esta manera, cualquier analista puede usarlos y obtener estimaciones de
varianza correctas.
Los paquetes de software que calcularán los pesos base de las réplicas de jackknife
utilizando el archivo de muestra completo incluyen R Survey, WesVar y el paquete svr,
que es un complemento de Stata (invierno de 2002). Estos paquetes también calcularán
los pesos base de BRR, que se tratarán más adelante en este capítulo. Cualquier ajuste
de peso adicional que se aplique a los pesos de la muestra completa para abordar la falta
de respuesta o la calibración deberá aplicarse como un segundo paso a cada peso base
replicado. Otros paquetes de software requieren los pesos replicados finalizados como
entradas para los procedimientos.
Los resultados de esta tabla son exactamente los mismos con tres decimales que los de
la linealización del ejemplo 15.6 y no se muestran. Los ajustes de ponderación utilizados
para la estimación de la varianza JKn se pueden examinar con la función de extractor
pesos(jkn.dsgn)
Machine Translated by Google
Ejemplo 15.10 (JKn con ajustes de celda sin respuesta). Como se discutió anteriormente,
los ajustes por falta de respuesta deben aplicarse por separado para las réplicas a fin de
reflejar sus efectos en las varianzas. En este ejemplo, usamos este conjunto de datos y
las clases de ajuste de falta de respuesta determinadas usando rpart en la Secc. 13.5.3.
A continuación se muestran algunos fragmentos del código R. El programa completo se
encuentra en el archivo Ejemplo 15.10 JKn NR.R. El código usa los paquetes rpart y
doBy además de encuesta.
#JKn
jkn.dsgn <- as.svrepdesign(diseño = nhis.dsgn,
tipo = "JKn")
# Calcular un árbol usando rpart; código no mostrado
# Almacenar celdas en t1$donde # agregar
clases NR a este objeto
nhis.NR <- data.frame(nhis, NR.class=t1$where)
# ajustes de peso para JKn (los valores son 0, 1 o 2)
JKwtadj <- pesos(jkn.dsgn) nreps <-
ncol(JKwtadj) fswts <- nhis$svywt rep.adjwt
<- matriz(0, nrow=nrow(JKwtadj), ncol=nreps)
METRO
2
var ˆÿ = a• aa ÿÿ ÿ ¯ÿÿ
ÿ
,
ÿ=1
jk1.dsgn <- as.svrepdesign(design = nhis.dsgn, type = "JK1") # objeto de diseño posestratificado jk1.ps.dsgn
<- postStratify(design = jk1.dsgn,
estratos = ˜PS,
población = N.PS)
# Verifique que los pesos estén calibrados para x's svytotal(˜ as.factor(PS),
jk1.ps.dsgn)
# Errores estándar de PS y CV
svytotal(˜ as.factor(medicaid), jk1.ps.dsgn, na.rm=TRUE) total
SE
como.factor(medicaid)1 1870.8 390.60 como.factor(medicaid)2
19467.6 416.89
HA 5 2H
8 32 10 12 1.024
20 24 1.048.576
Las filas son para estratos; las columnas son para réplicas. La primera columna que
tiene todos +1 significa que la primera fuente de alimentación de cada estrato debe
seleccionarse para la categoría de réplica 1. La segunda columna de (+1, ÿ1, +1, ÿ1)
significa que la segunda réplica contiene la fuente de alimentación 1 del estrato 1, PSU
2 del estrato 2, PSU 1 del estrato 3 y PSU 2 del estrato 4. Si H = 4, el número de
réplicas necesarias para un conjunto ortogonal es 4.
También existe un concepto llamado balance ortogonal completo para el cual el número de
medias muestras debe ser divisible por 4 pero debe ser estrictamente mayor que H. El balance
ortogonal completo da como resultado que el promedio de las estimaciones replicadas sea igual
a la estimación de la muestra completa para los estimadores lineales. (pero no para estimadores
no lineales). Los paquetes R Survey y WesVar calculan conjuntos ortogonales de ponderaciones
base BRR y ninguno calcula los conjuntos balanceados ortogonalmente completos. Al igual que
con las ponderaciones jackknife, el conjunto final de ponderaciones BRR analíticas se calcula a
partir de las ponderaciones base después de aplicar los ajustes utilizados para generar la
ponderación de la muestra completa. Hasta la fecha, otros paquetes de software dependen del
analista para proporcionar las ponderaciones BRR finales.
Al igual que la navaja, eliminar una fuente de alimentación significa que se elimina toda la
muestra dentro de la fuente de alimentación. Los pesos base para las unidades en las PSU
que se retienen se multiplican por 2. Por lo tanto, los pesos para las unidades en la réplica ÿ son
Los pesos ajustados se utilizan luego para calcular una estimación replicada denotada
por ˆÿÿ. Si la estimación de la muestra completa tiene la forma ˆÿ = ft ˆ1,...,t ˆp , entonces
Machine Translated by Google
la estimación de la mitad de la muestra es ˆÿÿ = ft ˆ1ÿ,...,t ˆpÿ donde t ˆjÿ es el total estimado
para la j-ésima variable con base en las unidades de la mitad de la muestra ÿ. El estimador de
varianza BRR es entonces
A
2
ˆÿ = Aÿ1 ˆÿÿ ÿ ˆÿ . (15.13)
vBRR
ÿ=1
Fay BRR
Un problema potencial con el BRR estándar es que la mitad de la muestra se elimina para
formar una réplica. Esto puede conducir a la inestabilidad de las estimaciones de dominio. Si un
dominio ocurre solo en un subconjunto de las UPM, todas las unidades de muestra en el dominio
podrían descartarse en una réplica particular. Aunque esto no sesgará el estimador de varianza,
hará que el propio estimador de varianza sea inestable, es decir, la varianza del estimador de
varianza puede ser innecesariamente alta.
Una modificación de BRR debida a Robert Fay (Fay 1984; Dippo et al. 1984; Judkins 1990)
aborda este problema. En lugar de dejar caer una fuente de alimentación por completo, el Fay
BRR simplemente la reduce. Las medias muestras se identifican usando una matriz de Hadamard
como se indicó anteriormente. Los pesos se calculan entonces como
Ejemplo 15.13 (varianza cuantil con BRR). BRR y Fay BRR se pueden utilizar para
estimar los SE de los cuantiles. El siguiente código usa smho.N874 y estratifica la
población por una medida de tamaño basada en BEDS. BEDS se recodifica para
eliminar los valores cero. Luego se forman los estratos y se selecciona un stsrswor.
El método de estratificación es el descrito en la Secc. 3.2.1 donde la población se
clasifica por tamaño y se forman estratos para que cada uno tenga aproximadamente
la misma medida total de tamaño. La función de corte es útil para esto. La selección
de un stsrswor es muy similar al muestreo de pps. En este ejemplo, formamos 25
estratos y seleccionamos 2 hospitales de muestra por estrato para un total de 50.
N <- nfila(smho.N874)
n <- 50
H <- 25
Se utilizaron dos versiones de BRR: BRR estándar y BRR de Fay con ÿ = 0,3.
Una cosa a tener en cuenta es que los objetos de replicación en R no usarán
fpc. Aunque los fpc de nivel de estrato se encuentran en el objeto smho.dsgn
anterior, se eliminan cuando se crean los objetos de diseño BRR. El paquete de
la encuesta le advertirá que esto está sucediendo. Los resultados de svyquantile
son que la mediana es 6 966 393 con SE estimados de 1 015 020 con BRR y 1
009 630 con Fay BRR. Los CV estimados con los dos métodos son 14,6 % y
14,5 %, muy próximos entre sí.
15.4.3 Arranque
(1) En cada estrato, extraiga una srswr de mh PSU de la muestra inicial nh , indique el número
PSU. Sea mÿ de vecesnhque se selecciona la PSU i de = mh. Tenga en cuenta que
i=1
hola estrato h para que m* hola mÿ = 0 para las UPM no seleccionadas
hola muestra de
para
arranque.
la
Cree una ponderación replicada para cada unidad de muestra k dentro de las UPM de la
muestra inicial (k ÿ shi) como
mh
nh
d*k mh (nhÿ1)0 + (nhÿ1) hola mh
mÿ
= dk /1 ÿ ,
= dkBhi
donde Bhi está definida por la última igualdad. Esto se calcula para las unidades de todas
las UPM de muestra, no solo para las de la muestra inicial. Siempre que mh ÿ (nh ÿ 1),
todos esos pesos serán no negativos, pero no de otro modo.
(2) Calcular ˆÿ, la estimación deseada, utilizando pesos dÿ (3) k en lugar de dk.
Repetir este proceso B > 1 vez. Denota el bootstrap correspondiente
estimaciones muestrales como ˆÿ(1), ˆÿ(2),... ˆÿ(B).
B
Una
2
vboot ˆÿ = ˆÿ(b) ÿ ˆÿ .
si
si=1
Podemos elegir mh para que sea cualquier valor mayor o igual a 1. La elección más simple es
mh = nh ÿ 1, en cuyo caso
Nueva Hampshire
d*k = ns
(nh ÿ 1)mÿ hola.
Por lo tanto, las unidades no incluidas en una réplica bootstrap dada obtienen peso 0, las
incluidas exactamente una vez obtienen peso
Nueva Hampshire
dk ,
nh ÿ 1
ÿ ÿ
Ejemplo 15.14 (Bootstrap). Este ejemplo usa el mismo tipo de muestra de smho.N874 que
en el Ejemplo 15.13. Se estratifica la población por una medida de tamaño basada en
camas y se selecciona una muestra de 2 por estrato de tamaño 50
Machine Translated by Google
# pop total
sum(pop$EOYCNT) # totales
\& SEs
rbind(c(a1$media, SE=SE(a1)), c(b1$media,
SE=SE(b1)))
# CI
rbind("arranque stsrswor" = ta1,
"stsrswor t CI" = c(La[1], Ua[1]), "srswor boot" = tb1,
"srswor t CI" = c(Lb[1], Ub[1]))
Total Estimado SE
stsrswor 528.635 122.674
juramento 732.867 221.723
Inferior superior
encuadernado encuadernado
Los CI no son los mismos para el arranque y los intervalos t. Los intervalos percentiles bootstrap
no son simétricos en torno a la estimación puntual del total, mientras que, por supuesto, los
intervalos t sí lo son.
Observar los histogramas de las estimaciones de réplica de bootstrap en la figura 15.1 aclara
por qué esto es así. Ninguno de los histogramas es simétrico y la distribución de arranque de
srswor está notablemente sesgada.
Por el contrario, no pudimos obtener esta información de otros métodos de replicación.
Por ejemplo, en la muestra estratificada, BRR nos daría solo 28 réplicas de estimaciones. En la
muestra aleatoria simple, la navaja daría 50 estimaciones repetidas. Ni 28 ni 50 estimaciones
repetidas son suficientes para dibujar un histograma. Pero, con 500 estimaciones bootstrap,
podemos tener una buena idea de la distribución subyacente del estimador del total.
ÿ
t
(b) = ˆÿ(b) ÿv(b),
donde ˆÿ(b) es la media estimada de la réplica b y v (b) es su varianza estimada. Esta estadística
t estará disponible en svyttest$statistic. Ajuste el estadístico t para obtener t(b) = ˆÿ(b) ÿ ˆÿ
media estimada de la muestra completa. A continuación, se puede utilizar un bucle para calcular y
recopilar estas estadísticas t ajustadas de todas las réplicas. Se usó un enfoque similar en el ejemplo
15.10 , donde se calcularon los ajustes por falta de respuesta para las réplicas de JKn. De la colección
de estadísticas t, ubique los puntos 100 (ÿ/2) % y 100 (1 ÿ ÿ/2) %, t de la distribución de t(b). Luego,
ÿ ÿ
y t 1ÿÿ/
estos se usarían para calcular el intervalo de arranque estudentizado, ˆÿ ÿ2,tÿ ˆÿ ÿ tÿvboot
1ÿÿ/2podría
vboot usarse
ÿ/2
ÿ/2
para tabulaciones más elaboradas, como una tabla de medias, proporciones o totales
ˆÿ , ˆÿ . El mismo algoritmo
Ejemplo 15.15 (Cuantiles de Bootstrap). Continuando con el ejemplo 15.13 con la misma
muestra, creamos un objeto de arranque con 500 réplicas. Los objetos de diseño BRR y Fay
BRR, smho.BRR y smho.FayBRR, también se utilizan para crear IC del 95 % para la mediana
de los gastos, EXPTOTAL. El código completo se encuentra en el Ejemplo 15.15 bootstrap
quantile.R.
Machine Translated by Google
espada, n = 50
0,0030
0,0020
0,0010
0,0000
espada, n = 50
0.0010
0.0000
Higo. 15.1: Histogramas de estimaciones de arranque del recuento total de pacientes al final del año en
la población SMHO. escalas horizontales en miles; se dibuja una línea de referencia gris
en la estimación de la muestra completa.
Inferior superior
R$ 4.876 9.057
Fay BRR 4.887 9.046
Arranque t 4.723 9.209
Percentil de arranque 4.750 8.272
La mediana de la población es 6240 (también en miles). Los intervalos t para BRR y Fay
BRR son casi idénticos, mientras que el intervalo t de arranque es más amplio.
El intervalo de percentil de arranque es notablemente diferente. Una de las razones de esto
es el histograma irregular de las estimaciones de arranque que se muestran en la Fig. 15.2.
Se necesitaría un estudio de simulación para decidir si esto proporciona una mejor tasa de
cobertura que los intervalos simétricos.
Hay dos razones para combinar estratos o UPM: una es reducir el número de repeticiones
requeridas cuando se usan los métodos jackknife o BRR, y la otra es crear pseudoestratos
(o analíticos) para la estimación de la varianza cuando se ha seleccionado una UPM por
estrato o cuando sólo participa una UPM en un estrato. Ambos casos se tratan en esta
sección.
En tales casos, las UPM o los estratos, o ambos, pueden agruparse. Replicación
luego se aplica a los grupos. Estimadores de replicación agrupados correctamente hechos
todavía puede ser consistente y aproximadamente imparcial.
El Apéndice D del manual de WesVar (Westat 2007) describe cómo se pueden realizar
legítimamente las agrupaciones para varios tipos de diseños de muestra. óxido (1984,
1985) también analiza algunas opciones. Resumimos algunas de las consideraciones
aquí. La tabla 15.1 muestra un caso simple para ilustrar las posibilidades. Existen
3 estratos de diseño y un total de 14 PSUs. Si la estimación de la varianza JKn fuera
utilizado, se requerirían 14 repeticiones. Las columnas tercera y cuarta muestran
las combinaciones de estratos (etiquetados como VarStrat) y de PSU (etiquetados como VarUnit)
que también podría usarse para la estimación de la varianza JKn. Los términos VarStrat y
VarUnit son los que se usan en WesVar y son apropiados para transmitir su uso
como los estratos combinados y las UPM utilizadas para la estimación de la varianza.
Los tres estratos de diseño se combinan para formar dos VarStrat—estratos de diseño
1 y 2 se combinan como VarStrat 1, y el estrato de diseño 3 se deja solo como
VarStrat 2. Los estratos de diseño 1 y 2 contienen 4 PSU. Estos se agrupan
en 2 VarUnits en cada estrato de diseño. PSU 1 y 2 de cada diseño
los estratos 1 y 2 se agrupan en VarUnit 1. Las PSU 3 y 4 de cada diseño
los estratos 1 y 2 se agrupan en VarUnit 2. Si se usa una versión agrupada de JKn,
se formarían dos réplicas a partir de VarStrat 1: una eliminando VarUnit 1
Machine Translated by Google
2 11
3 22
4 22
2 11 1 Una
2 11
3 22
4 22
3 12 1 Una
2 11
3 21
4 22
5 32
6 32
Total 14 5 4
H~ gh 2
G~ ÿ 1
vGJ ˆÿ = , (15.15)
ˆÿ(hg˜ ) ÿ ˆÿ
gh
h~=1 gramo=1
en VarStrat h˜. Para calcular ˆÿ(hg˜ ), el peso de cada unidad retenida en hg˜ se
, ponderaciones
multiplica por Gh˜ Gh˜ ÿ 1, el inverso de la fracción
aumentan
de submuestreo.
para reflejar
Eseldecir,
hecho lasde
que se utiliza un grupo menos para realizar la estimación replicada cuando se elimina
el grupo hg˜. En el ejemplo anterior, H˜=2, G1=2 y G2=3. El número total de réplicas
creadas es
Hÿ GRAMO = hÿ =1 Ghÿ . En el ejemplo, tenemos G=5. Sin la agrupación de estratos y
UPM, se formarían G=14 repeticiones.
Para declarar VarStrat y VarUnits para usar con un paquete de software,
simplemente diría que la variable de estrato era el campo que contiene los
códigos de VarStrat; la variable PSU sería el campo para los códigos VarUnit.
El valor de Gh˜ ÿ 1 Gh˜ se especifica en el parámetro rscales de la encuesta R.
Otros paquetes de software contarán los valores de Gh˜ .
Hay muchas referencias que exploran las propiedades del estimador de varianza
de navaja agrupada (p. ej., Kott 1999; Kott 2001; Lu et al. 2006 y (Wolter 2007, cap.
4). Aunque no existe una forma única de crear los grupos, es posible crear un
estimador de varianza sesgado haciendo que la agrupación sea legítima
gravemente. Como regla general cada réplica estima ˆÿ(hg˜ )
estimación para toda la población. En la Tabla 15.1, si hubiéramos numerado todas
las VarUnits del estrato de diseño 1 como "1" y todas las VarUnits del estrato de
diseño 2 como "2", al eliminar VarUnit 1 en VarStrat 1 se eliminaría toda la muestra
del estrato de diseño 1. De la misma manera , eliminar VarUnit 2 eliminaría todo el
estrato de diseño 2. Como resultado, ni ˆÿ(11) ni ˆÿ(12) estarían sesgados.
y vGJ Se crea otro tipo de problema si el númeroestimaciones para grupo
de UPM en cada la población
dentro total
de
un VarStrat no es el mismo. En la Tabla 15.1, por ejemplo, si en VarStrata 2,
ponemos 4 PSU en VarUnit 1 y 2 en VarUnit 2, el estimador de varianza jackknife en
Eq. (15.15) estaría nuevamente sesgada. La razón es que el ajuste de ponderación,
Gh˜ Gh˜ ÿ 1 es demasiado tosco para que cada una de las estimaciones replicadas
sea imparcial. Si el número de, PSU por grupo varía, una opción más imparcial es
gh 2
ˆÿ = nh˜ ÿ nhg˜
vGJ2 , (15.16)
ˆÿ(hg˜ ) ÿ ˆÿ
h gramo=1
Nueva Hampshire
ser programado por el usuario. Por eso, crear VarUnits dentro de un VarStrat que tenga
el mismo número de PSU de muestra originales es la mejor solución práctica.
La agrupación también se puede utilizar para BRR, pero se deben crear dos VarUnits
en cada VarStrat. La última columna de la tabla 15.1 muestra una forma de hacer esto
en nuestro pequeño ejemplo. El único cambio de la agrupación utilizada para JKn es
en VarStrat 2, donde las PSU 1–3 se agrupan en VarUnit 1 y las PSU 4–6 en VarUnit
2. Los pesos de cada unidad retenida para una media muestra se multiplicarían por 2
para el BRR estándar o por ÿ o 2 ÿ ÿ para Fay BRR como en la ecuación. (15.14). En
cuanto a JKn, el estimador de varianza está sesgado si cada VarUnit no contiene el
mismo número de UPM, y se usa un ajuste de peso de 2 para el BRR estándar o 2 y
2ÿÿ para el Fay BRR. Antes de asignar las PSU en VarStrat 2 a VarUnits, deben
ordenarse al azar y luego codificarse como (1, 1, 1, 2, 2, 2). Esto evitará sesgar el
estimador de varianza al seleccionar una característica relacionada con la variable de
análisis.
Si la agrupación es legítima, las preguntas naturales son cuántos grupos formar y qué
estratos y UPM debemos combinar. El número de grupos está relacionado con los
grados de libertad (gl) del estimador de varianza. Cuanto más gl tiene un estimador de
varianza, más estable tiende a ser el estimador de varianza.
En consecuencia, el objetivo básico es tener un gran número de df. Idealmente, esto se
haría para estimaciones de población completa y para estimaciones de dominio. Los
dominios que se encuentran en todos los estratos y UPM no necesitarán una
consideración especial: se comportan casi igual que la población total. En una encuesta
de hogares donde las UPM están estratificadas geográficamente, los dominios definidos
por género (masculino, femenino) se distribuirán en todos los estratos. Para los dominios
que ocurren solo en un subconjunto de los estratos, lograr la creación eficiente de
grupos puede ser complicado. Las regiones de un país serían ejemplos de dominios
que ocurren solo en algunos de los estratos. Cuando las estimaciones de la región son
importantes, es posible agrupar los estratos de tal manera que la estimación de cada
región conserve casi el mismo número de gl que para un estimador de varianza no
agrupado, aunque la agrupación pierda gl para las estimaciones de población completa.
Ilustraremos esto a continuación con un ejemplo simple.
La regla general que se utiliza a menudo para las estimaciones de población
completa es que df es igual al número de UPM de muestra menos el número de
estratos. Es decir, cada estrato contribuye con el número de UPM de la muestra menos
1 al gl general. Cuando se utiliza la agrupación de estratos y/o UPM, la regla general
se aplica al número de VarStrat y VarUnits.
Machine Translated by Google
df CV de varianza CV de estándar
estimador de error del estimador
(%) (%)
10 45 22
25 28 14
50 20 10
75 16 8
100 14 7
200 10 5
400 7 4
Tabla 15.3: Dos opciones para combinar los estratos de diseño para reducir el número de BRR
replica
Serie 1 conjunto 2
5 Una 5 6, 7 2 5 Una
6 2 6 8 9 10 2 8 2
7 2 7 2 9 2
8 2 8 2 10 2
9 2
10 2
Como se discutió en el Cap. 10, las muestras de probabilidad de área a menudo se estratifican para
tal grado que solo se selecciona una PSU de cada no autorrepresentante
estrato. Esta profunda estratificación permite un mayor control sobre la geografía
dispersión de las UPM que seleccionar dos por estrato o un número mayor.
El problema con este método es que ni un diseño imparcial ni consistente
Se dispone de un estimador de la varianza, incluso para estimadores lineales. Este es un problema de
larga data en el muestreo de encuestas y se estudia en Hansen et al. (1953a,
Secta. 9.15) y Wolter (2007, Secc. 2.5).
El procedimiento habitual es combinar los estratos en pares para la estimación de la varianza. La
terminología alternativa, utilizada por Wolter, es "colapsar" los estratos. Después
Se pueden utilizar estratos de emparejamiento, BRR, Fay BRR o jackknife. La resultante
estimador de varianza generalmente será una sobreestimación. Como enfatiza HHM,
los estratos deben combinarse en función de las características a nivel de estrato, no aquellas
de las fuentes de alimentación seleccionadas. Por ejemplo, si el tamaño de la población y el grado de
urbanización se usaron para formar estratos, entonces dos estratos de UPM urbanas y de tamaño similar
podría combinarse. Para una muestra sistemática, el marco generalmente se ordena por
características dentro de un estrato de diseño. Estas características son a veces
denominado estratificación implícita en comparación con el diseño explícito
Estratos. Por lo tanto, las unidades de muestra se seleccionan en un orden preespecificado definido por
los estratos implícitos. Este orden debe mantenerse al formar la PSU
pares Un proceso de pensamiento útil es considerar qué estratos habrían sido
juntos si el plan hubiera sido seleccionar dos UPM por estrato.
La combinación de estratos en función de las características de la muestra podría generar resultados negativos.
estimaciones de varianza sesgadas, al menos para algunas estimaciones puntuales. para tomar un
caso extremo, supongamos que queremos estimar los gastos totales en el
Población hospitalaria del SMHO a partir de una muestra de 1 hospital por estrato. hospitales
Machine Translated by Google
En un caso simple, Wolter (2007, Secc. 2.5) muestra que el sesgo del estimador de la
varianza del estrato colapsado (con el conjunto colapsado antes de ver los resultados) es
positivo y depende de
H~
2
µhÿ1 ÿ µhÿ2
,
h~=1
Hay dos casos a considerar cuando las UPM se seleccionan con certeza (es decir, la
probabilidad de selección es igual a 1,0): (1) certezas en una muestra de etapa única y (2)
unidades de primera etapa de certeza en encuestas de etapas múltiples. En ambos casos,
necesitamos determinar cómo deben manejarse las certezas cuando se usan varianzas de
linealización o para crear réplicas para estimaciones de varianza de replicación. Como se
señaló en capítulos anteriores, las certezas también se denominan autorrepresentativas (SR),
mientras que otras unidades se denominan no autorrepresentativas (NSR). En una sola etapa
Machine Translated by Google
Ejemplo 15.16 (Manejo de certezas). Usando la población smho98, que incluye un hospital
extremadamente grande, como se ve en el Cap. 3, seleccionamos una muestra de etapa única
de 80 de los 875 hospitales de la población. La muestra es pps
Machine Translated by Google
El objeto de diseño, smho.dsgn, usa las variables stratum y fpc. A modo de comparación, un
objeto de diseño (no se muestra arriba pero en el código
file) también se creó que no incluía los fpc. Los totales estimados
de gastos y pacientes atendidos, junto con los SE y CV, se muestran
abajo. Si se tienen en cuenta las certezas, los CV son 8,6 % y 11,0 %.
Pero, si las certezas se agregan con las selecciones de no certeza para SE
cálculo, los CV son 9,9 % y 16,5 %. Por lo tanto, ignorando el hecho de que hay
son certezas conduce a una exageración sustancial de CV sy SEs.
options(survey.lonely.psu="certainty")
da como resultado que las UPM únicas en un estrato se omitan de los cálculos de varianza
(pero no de estimaciones de medias, totales, etc.).
Ejercicios
15.1. Considere las situaciones que se describen a continuación. En cada caso, clasifique las
estimador como lineal o no lineal y explique su razonamiento. De los cuales
¿Usaría los siguientes métodos de estimación de la varianza: fórmula exacta, linealización o
replicación? Explique sus opciones. Si hay más de un método
se pueden utilizar, analice las consideraciones que deben tenerse en cuenta al seleccionar
un estimador de varianza particular.
15.2. Los siguientes datos se recopilaron de una muestra de dos PSU seleccionadas
de cada uno de los dos estratos.
1 15
1 26
2 1 10
2 24
Total 25
estimador que está utilizando. Utilice la siguiente matriz ortogonal donde las filas
designan los estratos y las columnas las réplicas:
++++
ÿ+ÿ+ÿ ÿ
un = ÿ ÿ
++ÿÿ ÿ
ÿ+ÿÿ+ ÿ
(b) ¿Cuál es la fórmula de varianza para el total estimado ˆy si se supone que las UPM se
seleccionan con reemplazo? Evalúe esta fórmula utilizando los datos de la tabla
anterior. ¿Cómo se compara con su respuesta en la parte (a)?
15.3. ¿Cuáles son los valores de "reglas generales" para las siguientes combinaciones de
diseño de muestra y estimadores de varianza?
(a) 2 UPM de muestra seleccionadas por estrato con reemplazo y con probabilidades
variables, estimador de varianza de replicación repetida balanceada (BRR). (b) Un
diseño con H estratos, nh UPM seleccionadas en el estrato h, y el
Estimador jackknife de eliminación estratificada.
(c) 2 UPM de muestra seleccionadas por estrato con reemplazo y con variables
probabilidades, estimador de varianza Fay-BRR con ÿ = 0.3.
(d) Un diseño con 100 estratos y dos UPM de muestra seleccionadas por estrato con
reemplazo. Las UPM se numeran aleatoriamente 1 o 2 dentro de cada estrato.
Luego, los estratos se combinan en 25 superestratos con 8 UPM por superestrato.
Las UPM con el número 1 en un superestrato se tratan como un grupo, mientras que
las UPM con el número 2 se tratan como un segundo grupo. Se utiliza un estimador
de varianza BRR tratando los superestratos como estratos de estimación de varianza.
15.4. Suponga que ˆy es una estimación no sesgada de una población finita total, Y.
Estás interesado en el estimador g (ˆy) = ÿyˆ. (a) Escriba
(c) Especialice su respuesta en (b) a los siguientes diseños: muestreo aleatorio simple sin
reemplazo, muestreo aleatorio simple estratificado sin reemplazo y un diseño de etapa
única donde las unidades se seleccionan con probabilidades variables con reemplazo.
15.6. Utilice el archivo nhis.large como población y seleccione una muestra aleatoria
simple de tamaño n = 500. Si está utilizando R, utilice una semilla de número aleatorio
de 428274453. Postestratifique la muestra para recuentos de población para age.grp.
(a) Calcule la proporción estimada de la población que informó haber visitado al médico
(doc.visit) en las dos semanas anteriores a la entrevista. (b) Calcule los EE utilizando
el método de linealización y JKn. ¿Cuál sería el efecto sobre los EE estimados de ignorar
la posestratificación? (c) Estime las proporciones y los EE de la población que
informó una visita al médico en una tabla definida por etnicidad hispana (hisp). Combine
las categorías 3 y 4 de hisp juntas. ¿Cuál sería el efecto de ignorar la posestratificación
para estas estimaciones?
15.8. Repita el Ejercicio 15.6 sobre posestratificación utilizando el método bootstrap con
500 repeticiones. Si usa R, use una semilla de número aleatorio de - 711384152. ¿Cómo
se comparan sus estimaciones de errores estándar y CV con las estimaciones de
linealización y jackknife del ejercicio 15.6?
15.9. Repita el ejemplo 15.8 utilizando el método de arranque de Rao-Wu con 500
repeticiones. Elimine los hospitales tipo 4 y recodifique la variable camas para que tenga
un valor mínimo de 5. Estime los cuantiles 25, 50 y 75 de SEENCNT en smho.N874 y los
intervalos de confianza del 95 % para cada uno utilizando la aproximación t. Si está
usando R, use una semilla de número aleatorio de -711384152.
Dibuje histogramas de las estimaciones de réplica de arranque para los cuantiles 25, 50
y 75 de SEENCNT. ¿Cómo se comparan los IC del 95 % del método de percentil de
arranque con los de los métodos de Woodruff y Francisco-Fuller?
15.10. Utilice la población smho.N874 y seleccione una muestra estratificada por tipo de
hospital.
(d) ¿Cómo se comparan los EE del inciso (c)? ¿Hay alguna razón para preferir un método de
estimación de la varianza sobre el otro para esta muestra? explique
Tu respuesta.
15.11. Suponga que sabe por la documentación de la encuesta que el archivo nhis.large se estratificó
posteriormente por grupo de edad (edad.grp) y raza (raza).
(a) Describa cómo puede explicar esto al estimar los errores estándar. (b) Usando su método de (a),
calcule estimaciones de las proporciones de personas que retrasaron la atención médica en los últimos
12 meses (delay.med) para diferentes niveles de ingresos (inc.grp). Calcule sus SE utilizando la
linealización.
(c) ¿Cuáles son los EE de los totales estimados y las proporciones de la población?
que están en cada uno de los dominios age.grp × race?
15.12. Repita el ejercicio 15.11 usando BRR y Fay BRR con ÿ = 0,5.
15.13. Utilice el archivo nhis.large y calcule los SE a través de la linealización, BRR y Fay BRR con ÿ
= 0,5, pero ignore la posestratificación.
(a) Calcule estimaciones de las proporciones de personas que retrasaron la atención médica en los
últimos 12 meses (delay.med) para diferentes niveles de ingresos (inc.grp). ¿Las estimaciones
de proporciones son iguales o diferentes de las de los ejercicios 15.11 y 15.12? (b) Compare los
EE que ignoran la posestratificación con los que la tienen en cuenta de los ejercicios 15.11 y
15.12. ¿Qué tan grave sería el error al ignorar la posestratificación?
15.14. La siguiente tabla enumera las PSU en una muestra nacional en los EE. UU. Las regiones
están numeradas del 1 al 4. Las PSU con nombres de condado (p. ej., Kings County NY, Maricopa
County AZ) son certezas (o no autorrepresentativas).
Las PSU que no son de certeza o que no se representan a sí mismas se etiquetan como region.nsr.nn.
Por ejemplo, NE.nsr.1 es la primera fuente de alimentación NSR en la región noreste. Cada una de
estas UPM es una muestra de tamaño 1 de un estrato de UPM NSR. Se han formado estratos dentro
de cada región para que los estratos adyacentes tengan un tamaño de población similar, es decir, las
UPM de NSR numeradas consecutivamente dentro de una región pertenecen a estratos similares.
Suponga que cada UPM tiene 10 conglomerados de hogares de muestra.
(a) Si empareja PSU de NSR dentro de una región y divide aleatoriamente cada PSU de SR en dos
grupos de 5 conglomerados, ¿cuántos grados de libertad tendría un estimador de varianza para
las estimaciones nacionales y para las estimaciones regionales?
Use la regla empírica estándar para contar df.
(b) ¿Cuál es otro método que podría usar dentro de cada fuente de alimentación SR para recoger más
df? ¿Cuál sería el gl total resultante con este método?
Machine Translated by Google
(c) Suponga que comienza con los pares de PSU NSR y divisiones de
PSU SR como se usa en la parte (a). Si planea utilizar el método BRR
de la estimación de la varianza con solo 20 repeticiones, ¿cómo podría combinar
estratos para lograr esto de una manera que preserva el mismo número
de grados de libertad para las estimaciones de varianza para estimaciones regionales
como en (a)?
Una
reinas 2 Cocinar 3 harris 4 los Angeles
Condado, Condado Condado, CA(1)
Nueva York
IL(2) Texas
capitulo 16
Ponderación de la Encuesta de Personal: Uno
Solución
El proyecto asignado en el Cap. 12 fue calcular un conjunto de pesos para una encuesta
de miembros de las reservas militares. Se seleccionó una muestra aleatoria simple
estratificada del personal y se le preguntó sobre la satisfacción con su trabajo. El proyecto
brinda la oportunidad de poner en práctica las técnicas cubiertas en los Caps. 13–15.
Completar el proyecto requiere el cálculo de ponderaciones base, un ajuste para tener en
cuenta los casos cuyo estado de elegibilidad se desconoce, un ajuste por falta de
respuesta y la calibración a algunos totales de población finitos. Hay varios problemas
prácticos por resolver, incluida la selección de un método particular de ajuste por falta de
respuesta, la decisión de cómo utilizar los recuentos de población disponibles y la
determinación de cómo manejar los valores faltantes tanto en los casos de muestra como
en los recuentos de población.
Aunque este capítulo no está escrito como un informe formal para ser entregado a un
cliente como se solicitó en el Cap. 12 , queremos enfatizar nuevamente la importancia de
una buena documentación. La documentación clara de todos los pasos de ponderación es
fundamental por varias razones. Puede ser necesario repetir algunos o todos los pasos
más adelante. Por ejemplo, se pueden descubrir errores en algunos detalles de los
cálculos, o se pueden encontrar problemas en uno de los conjuntos de datos de entrada.
Si una encuesta se repetirá en una fecha posterior, un informe de ponderación bien
redactado puede guiar el trabajo en la próxima encuesta. Memorandos de especificación
muy detallados, como los descritos en el Cap. 18, eliminará cualquier duda sobre lo que
debe hacerse y puede conducir a una reducción de costos si la encuesta se repite en una
fecha posterior.
El código R para la solución de este proyecto está en los archivos,
# Variable etiqueta
1 ID DE REGISTRO Número de identificación de registro único
2 RESPSTAT Código de estado del encuestado final
3 SRMARST ¿Cuál es su estado civil?
4 RA006A Tomando todas las cosas en consideración, ¿qué tan satisfechos están
usted, en general, con cada uno de los siguientes aspectos de
estar en la Guardia Nacional/Reserva? Su compensación total
(es decir, salario base, asignaciones y bonificaciones)
5 RA006B Tomando todas las cosas en consideración, ¿qué tan satisfechos están
usted, en general, con cada uno de los siguientes aspectos de
estar en la Guardia Nacional/Reserva? El tipo de
trabajo que hace en su trabajo militar
6 RA008 Suponga que tiene que decidir si continuar
para participar en la Guardia Nacional/Reserva. Suponiendo
que pudieras quedarte, ¿cuál es la probabilidad de que lo hicieras?
elegir hacerlo?
7 RA115 En general, ¿qué tan bien preparado está para realizar su
trabajo de guerra?
8 RA118 En general, ¿cómo calificaría el nivel actual de estrés
en tu vida personal?
9 SRED ¿Cuál es el grado o nivel de estudios más alto que
¿Han completado? Marque la única respuesta que describe
el grado o grado más alto que hayas completado
10 RA112RA En los últimos 12 meses, ¿cuántos días pasó en
un estatus de Reserva/Guardia compensado?
11 Servicio XSRRCR
12 XACT2R Activado 30 días—nivel 3: En los últimos 24 meses fueron
¿Alguna vez activó más de 30 días consecutivos?
13 XRETH4R Raza/origen étnico imputado: nivel 2
14 XSEXR Registrado: sexo imputado
15 XCPAY1R Recodificado: grado salarial imputado grupo 1
16 NSAMP Recuento de muestras de estrato
# Variable etiqueta
Una SERVICIO (XSRRCR) Rama del servicio militar
2 GÉNERO (XSEXR) Género
3 GRUPO PG (XCPAY1R) Grupo de grado de pago
4 CARRERA (XRETH4R) Raza/etnicidad
5 EDUCCAT (SRED) Grado/nivel escolar más alto completado
6 marit (SRMARST) Estado civil actual
7 ACTIVATD (XACT2R) Activado más de 30 días consecutivos o
menos en los últimos 24 meses
8 CUENTAS recuento de personas
(género, nivel salarial, raza, etc.), y las respuestas de los encuestados a las preguntas clave.
La variable RESPSTAT para el código de estado del encuestado final tiene información
sobre la elegibilidad y el estado de respuesta de cada miembro de la muestra.
Los campos NSAMP y NSTRAT contienen el número de casos en la muestra
y en el marco del estrato al que pertenece una persona. los valores son
lo mismo para todos los registros de personas en un estrato dado. Basado en la inspección
En el archivo de personas de la muestra, hubo 404 estratos, definidos por combinaciones de
rama del servicio, raza/etnicidad, género y nivel de pago.
Como se muestra en la Tabla 16.2, el otro archivo de datos (RCCPDS57.sas7bdat o
RCCPDS57.xpt) tiene recuentos de población para siete variables de marco (rama de
el servicio, género, nivel de pago, raza/etnicidad, educación, estado civil y
si una persona ha sido llamada al servicio activo por más de 30 años consecutivos
días en los últimos 24 meses). Estas variables de marco tienen nombres diferentes a
en el archivo de datos de muestra, pero los nombres alternativos se indican en las etiquetas.
Los recuentos de población se proporcionan en la variable COUNT.
100i
RR1= ,
(I + P) + (R + O) + U
100 (I + P)
RR4 = ,
yo + pag + r + o + e ÿ u
dónde
yo + p + r + o
mi =
I + P + R + O + NE
Los recuentos de población estimados se distribuyen aproximadamente de la misma manera que los
recuentos no ponderados en la Tabla 16.5. Dado que se estima que solo el 2,2% del marco
ser incógnitas, haremos un ajuste general que, usando la notación
de la secta 13.4, es igual a
Hay cuatro variables que tienen datos no faltantes tanto para la muestra
encuestados y no encuestados: rama del servicio, raza/etnicidad, sexo y grado salarial.
Estas son las mismas variables que se usaron para definir
estratos de diseño. Las demás características personales: educación, estado civil,
y si una persona pasó más de 30 días consecutivos en servicio activo en
los últimos 2 meses— faltan para casi todos los que no respondieron. Tabla 16.6
muestra recuentos de muestra de personas que respondieron y que no respondieron para cada uno de
las variables que podemos usar para el ajuste por falta de respuesta; La tabla 16.7 muestra
291 0.04
Raza/etnicidad
(1) Blanco no hispano 20,625 55,1 16.833 44,9 37.458 540.473 67.4
(2) Total minoritario 19.964 69,6 8.726 30,4 28.690 260.734 32.5
Perdido
– ––––
602 0.1
Género
(1) Hombre 34.100 61,9 21.007 38,1 55.107 663.122 82.7
(2) Mujer 6.489 58,8 4.552 41,2 11.041 138.574 17.3
Perdido
– ––––
113 0.01
grupo de pago
(1) E1–E3 7,026 82.5 1,494 17.5 8,520 12,936 112.244 14.0
(2) E4 75.8 4,125 24.2
5,653
17,061
35.8 15,799
10,146 2,810
64.2 198.048 24.7
(3) E5–E6 47.1 3,162 52.9
57.95,972
2,343987
3,185
42.1
45.1,356 265.388 33.1
(4) E7–E9 110.397 13.8
(5) W1-W5 10.948 1.4
(6) O1–O3 41.176 5.1
(7) O4–O6 63.608 7.9
– – –
Perdido
––––
recuentos similares para las otras tres variables demográficas que están disponibles
principalmente para los encuestados. Las dos tablas también muestran recuentos de población de la
Archivo RCCPDS57.XPT.
El archivo a partir del cual se realizaron los recuentos de población tenía algunos datos faltantes
para cada variable, excepto el grupo de pago. Por ejemplo, rama del servicio
en la Tabla 16.6 faltaba para 291 personas; faltaba la raza/etnicidad para
602 personas. Más tarde, en la Secc. 16.7, cuando calibramos a los conteos de población,
se tendrán que hacer imputaciones para esos valores faltantes.
Machine Translated by Google
Dos opciones para el ajuste por falta de respuesta que cubrimos en el Cap. 13 son para
use propensiones de respuesta estimadas y celdas formadas con un árbol de regresión.
Ambas alternativas se examinan en esta sección.
Modelos de propensión
signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1' ' Una
Árbol de regresión
Usando las mismas cuatro variables anteriores (servicio, grupo de pago, género y raza/
etnicidad), ajustamos un modelo CART con este código:
Probabilidades pronosticadas por 5 clases de ajuste Probabilidades pronosticadas por 10 clases de ajuste
Los puntos representan la media de la clase Los puntos representan la media de la clase
0.7 0.7
0.6 0.6
0.5 0.5
0.4 0.4
0.3 0.3
0.2 0.2
0.1 0.1
xcpay1r< 3.5 |
0
40589/25559
xcpay1r< 6.5 1
0 30108/11272 10481/14287
xreth4r>=1.5 1
6982/8301 1 3499/5986
xsrrcr< 2.5
1
0 615/510 962/971 0 304/190 1 275/286
xsexr>=1.5
0
830/807 1 132/164
xcpay1r< 4.5 1
579/585
0 251/222
0 283/279 1 296/306
Higo. 16.2: Árbol de regresión para predecir la respuesta en función de las cuatro variables disponibles para
encuestados y no encuestados.
debería ser usado. El uso de tasas ponderadas es, en cierto sentido, una solución de compromiso.
Condicionados a las clases formadas, las tasas ponderadas son modelo insesgado bajo un
modelo en el que cada persona en una clase tiene una probabilidad común de responder. También
son estimaciones aproximadamente imparciales de las tasas de respuesta de la población en
muestreo repetido dado el conjunto particular de clases utilizado.
El último paso de ponderación en este proyecto será la calibración de algunos de los recuentos
de población disponibles. La función estadística a la que sirve aquí la calibración es principalmente
para reducir los errores estándar. Dado que los registros administrativos militares deben ser
precisos, no debe corregirse una cobertura excesiva o insuficiente sistemática. Además, la
calibración tiene cierto atractivo cosmético aquí. Tener conteos estimados exactamente iguales a
los de los registros del personal administrativo le dará a los resultados de la encuesta validez
aparente, una característica que puede ser importante para muchos usuarios de datos. Hay dos
cuestiones operativas importantes que deben abordarse:
(t1$donde) clase
CARRITO
25 24 23 22 21 17 dieciséis 15 14 12 9 7 2
795
W1-
W5,
O1-
O3,
Minoría,
Reserva
del
Ejército, 396 (impresión) clase CARRO
7 27 53 105
W1-
W5,
O1-
O3,
blanco
no
hispano, 104 25 199 794 98 48 2 Tabla
16.9:
Clases
de
ajuste
por
falta
de
respuesta
creadas
usando
un
árbol
de
regresión.
O4-
O6 Reserva,
Reserva
Naval Blanco,
Guardia
Nacional
Del
Ejército,
Ejército E7-
E9,
W1-
W5,
O1-
O3,
no
hispano Reservar Blanco,
Guardia
Nacional
Aérea,
Fuerza
Aérea E7-
E9,
W1-
W5,
O1-
O3,
no
hispano Reserva
del
Cuerpo
de
Marines Reservar E7-
E9,
Blanco
no
hispano,
Infantería
de
Marina Guardia
Nacional,
Reserva
de
la
Fuerza
Aérea E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Aire Reservar E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Naval Masculino E7-
E9,
Minoría,
Reserva
del
Ejército,
Masculino Reserva,
Mujer E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Ejército Guardia
Nacional E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Ejército Reserva
del
cuerpo E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Marina E1-
E3,
E4,
E5-
E6 Descripción
hijos No.
de
por
669
41,380
9,485 5,941 3,321 1,239 1,125
561 494 296 602 562 473
Velocidad Respuesta
no
ponderada
0.631 0.586 0.578 0.510 0.385 0.530 0.554 0.508 0.496 0.469 0.453 0.426 0.272
Velocidad respuesta Ponderado
0.672 0.586 0.612 0.509 0.410 0.544 0.525 0.517 0.485 0.471 0.481 0.406 0.320
467 16.7 Calibración para recuentos de población
Machine Translated by Google
Machine Translated by Google
El código para completar los análisis esbozados a continuación se encuentra en el archivo 16.3
Calibración de la solución adj.R en el sitio web.
Otras cuestiones que no abordaremos aquí, pero que serían importantes en
una encuesta real, son:
• ¿En qué período de tiempo se deben realizar los conteos de población cuando hay
retraso entre la selección de la muestra y la recopilación de datos?
• ¿Qué personas deben contarse para obtener los controles?
Las bases de datos de registros administrativos generalmente se actualizan periódicamente: una vez
al mes, una vez al trimestre, etc. También puede haber un retraso entre el período de tiempo de la
base de datos y el momento en que está disponible para la tabulación. Esto significa que los
recuentos de población pueden no ser para el período de tiempo en que se recopilan los datos.
Además, la recopilación de datos puede extenderse a través de dos o más actualizaciones de los
datos administrativos. Por ejemplo, puede haber un retraso de 2 meses entre la selección de la
muestra y la recopilación de datos, el período de la encuesta puede durar 10 semanas y los registros
administrativos pueden actualizarse una vez al mes. Cuando ocurre tal retraso, las personas
encuestadas serán los “sobrevivientes”, es decir, los que estaban en el marco cuando se seleccionó
la muestra y aún son elegibles cuando se recopilan los datos. No se incluirían en la muestra nuevos
ingresos a la población. Si los recuentos de población se realizan cerca del momento de la
recopilación de datos e incluyen a todas las personas elegibles según las reglas de la encuesta,
entonces los recuentos incluirían a los nuevos participantes que no tuvieron posibilidad de ser
incluidos en la muestra. Si calibramos estos conteos, estamos diciendo que las actitudes de los
nuevos entrantes pueden ser predichas por aquellas de las personas de la muestra que han estado
en la población por más tiempo. Otra opción sería tabular los recuentos de control usando solo
personas que hayan estado en el ejército durante al menos dos meses, si ese es el tiempo de retraso
entre el muestreo y la recopilación de datos. En algunas encuestas, como las de la población de
hogares de los EE. UU., tales tabulaciones selectivas pueden no ser factibles.
En este proyecto, utilizaremos los conteos de población que se dan en el RCCPDS57. archivo
sas7bdat. Como se señala en el Cap. 12, este archivo provino de la comparación del marco muestral
con el archivo de personal más actual disponible al comienzo del período de recopilación de datos.
Es decir, los conteos son los de los sobrevivientes. Por lo tanto, estos recuentos deben cubrir solo los
casos elegibles.
Las descripciones de las variables, xsrrcr, xsexr, etc., se dan en la Tabla 16.1. El
parámetro branch=0 en plot da un árbol con ramas en forma de V, lo que, en este caso,
hace que las etiquetas de las ramas sean más fáciles de leer. Grupo de pago, rama de
servicio, si una persona ha estado activa durante 30 días o más y el estado civil se
incluyen en el árbol; el género, la raza/etnicidad y la educación no lo son.
La Tabla 16.10 resume qué variables se incluyeron en los árboles para predecir las
seis variables de análisis. El género se seleccionó solo para predecir si las personas se
sentían preparadas para hacer su trabajo. Examen del individuo
RA112RA
Estado
pagado RA118 RA115 RA008 RA006B RA006A
Compensación Nombre
Tabla
16.10:
Variables
incluidas
en
árboles
de
regresión
para
predecir
seis
variables
de
análisis.
Estrés Preparación volver
a
alistarse Tipo
de
trabajo Variable
de
análisis
Servicio
Género
Pago predictores
grupo
Raza/
etnicidad
Educación
Matrimonial
estado
Activación
16 Ponderación de la Encuesta de Personal: Una Solución 470
Machine Translated by Google
Machine Translated by Google
1 5605/19954
xcpay1r< 2.5
xcpay1r>=2.5
1 2257/3362 1 3348/16592
xsrrcr< 4.5
xsrrcr>=4.5
1 1719/2167 1 538/1195
xsrrcr>=3.5
xsrrcr< 3.5
Una
0 398/241 1321/1926
xsrrcr<2.5
xsrrcr>=2.5
1 1036/1242 1 285/684
xact2r< 2.5
xact2r>=2.5
0 621/600 1 415/642
srmast>=4
srmast< 4
0 360/276 1 261/324
Los árboles muestran que las interacciones servicio × pago y servicio × activación
siempre están presentes. A menudo hay interacciones más complicadas, como en la Fig.
16.3, donde hay una combinación de servicio, grupo de pago, activación y estado civil.
Sin embargo, incluir interacciones de 3 y 4 vías daría lugar a muestras muy escasas en
algunas combinaciones de niveles, aunque hay más de 25 000 encuestados. En base a
estos resultados, decidimos utilizar un modelo de calibración con:
• Principales efectos por servicio, género, grupo de pago, raza/etnicidad, educación, mar
estado actual y activación; •
Interacciones para servicio × pago y servicio × activación.
Aunque el género solo aparece una vez en la Tabla 16.10, lo incluimos por el beneficio
cosmético de hacer coincidir el recuento de registros administrativos para hombres y
mujeres.
Las tablas 16.6 y 16.7 mostraron que el archivo a partir del cual se realizaron los
recuentos de población tenía valores faltantes para algunas personas por servicio, raza/
etnicidad, género, educación, estado civil y activación. El porcentaje de personas con
valores faltantes osciló entre el 0,04 % para el servicio y el 3,3 % para la educación. Para
imputar los valores faltantes, solo necesitamos imputar un valor de covariable siempre
que falte en el archivo RCCPDS57.sas7bdat. Por ejemplo, había 159 registros de este
tipo en el archivo a los que les faltaba un valor para el servicio:
Machine Translated by Google
Para imputar el servicio que falta, se hace un sorteo aleatorio de los códigos permitidos en
proporción a los recuentos de códigos de población para los registros que no faltan.
El código R para hacer las imputaciones de conteo de población está en la función, imputar,
en el archivo “16.3 Calibración de la solución adj.R”.
El archivo de muestra también tiene algunos registros con datos faltantes sobre las
covariables que se utilizarán para la calibración. La Tabla 16.7 muestra que el 2,1% de los
25.559 encuestados no tiene educación, el 0,1% no tiene estado civil y el 0,5% no tiene el
campo de activación. Cualquier valor faltante para un encuestado de la muestra se imputó
con un sorteo aleatorio de los códigos permitidos para una variable.
Los sorteos se realizaron en proporción a la distribución entre los códigos para personas
con datos no faltantes. El código R para hacer las imputaciones de muestra está en la
función, imputar.sam, que también está en “16.3 Calibración de la solución adj.R”.
Estos métodos de imputación son sencillos y podrían criticarse por no tener en cuenta
ninguna relación multivariada entre diferentes variables.
Dada la pequeña cantidad de datos faltantes para todas las variables, elegimos mantener
los métodos simples.
Estimación GREG
Usando los archivos de encuestados de muestra y conteos de población con todos los
valores faltantes imputados, calibramos los totales de población usando un estimador
GREG. Al usar la función de calibración en la encuesta R, se necesita cierto cuidado para
asegurarse de que el vector de los totales de la población esté exactamente en el mismo
orden en que se usa internamente por calibración. La función model.matrix creará la matriz
modelo de covariables que calibran los usos para una fórmula particular. En esta aplicación,
verificamos el pedido con
dimnombres(mm)[[2]]
La última instrucción enumera los nombres de las columnas de la matriz del modelo. Las
interacciones están en orden de "fila principal". Por ejemplo, los primeros cinco valores de
la interacción servicio × grado de pago son
"como.factor(xsrrcr)2:como.factor(xcpay1r)2"
Machine Translated by Google
"como.factor(xsrrcr)3:como.factor(xcpay1r)2"
"como.factor(xsrrcr)4:como.factor(xcpay1r)2"
"como.factor(xsrrcr)5:como.factor(xcpay1r)2 "
"como.factor(xsrrcr)6:como.factor(xcpay1r)2"
La tabla 16.11 proporciona algunas estadísticas resumidas sobre los pesos después de cada
paso del proceso. La ponderación media es aproximadamente la misma antes y después del
paso GREG, mientras que el rango es mayor para las ponderaciones GREG que para las
ponderaciones ajustadas por falta de respuesta. La suma de los pesos es la más pequeña
después del paso GREG (801,809), lo que explica el hecho de que algunas personas dejaron de
ser elegibles entre el muestreo y la recopilación de datos y que los totales de control son solo
para los sobrevivientes.
En esta solución, no se utilizó el recorte de peso, aunque algunos practicantes podrían
considerarlo. Aunque el rango de pesos finales es bastante amplio (1,199 a 613,4), los pesos
base comenzaron con un amplio rango debido a las tasas de muestreo altamente diferenciales
que se utilizaron. Los pesos base se ajustaron para reflejar tasas de respuesta sustancialmente
diferentes entre algunos tipos de personal.
Machine Translated by Google
ponderación mín. 1er cuarto Mediana Media 3er Qu. máx. Suma Personas
paso
Base Una 2.201 5.049 12.14 14.27 178,3 870.373 71.701
ajustado para 1.023 2.251 5.05 12.3 14.59 182,3 813.342 66.148
desconocido
elegibilidad
ajustado para 1.521 4.746 14.63 31.82 34.31 514,7 813.342 25.559
falta de respuesta
GREG 1.199 4.672 13.43 31.37 30.91 613,4 801.809 25.559
En consecuencia, los pesos finales tienen un amplio rango. Esto es necesario para corregir el sesgo
de falta de respuesta en algunos subgrupos. Sin embargo, el cuantil 99 de la
pesos finales es de unos 385 mientras que el peso final máximo es de 613,4. Guarnición
del 1% más grande de los pesos podría reducir los SE para estimaciones de población completa
sin introducir demasiado sesgo, pero las estimaciones para los subgrupos con
las tasas de respuesta muy bajas podrían entonces estar sesgadas. Como siempre, nos enfrentamos a
objetivos en conflicto sin una forma única de lograrlos.
El archivo resultante con los pesos GREG se puede escribir en formato delimitado por comas.
(csv) archivos de texto para su uso en otro software estadístico. El código de abajo
el peso GREG al archivo, selecciona campos para la salida y escribe los archivos de texto.
La función write.foreign en el paquete outsider (R Core Team y
colaboradores en todo el mundo, 2012a) también escribirá código para ser utilizado en la importación
los archivos csv en algunos otros paquetes. Ilustramos el proceso a continuación para
SAS y Stata:
La variable, file loc2, es una cadena de texto que especifica la carpeta donde se
escribirán los archivos de salida. El lector puede consultar los programas 16.1 Solution
bwt-unknown adj.R, 16.2 Solution NR adj.R, y 16.3 Solution calibración adj.R, para ver
cómo se crearon las diferentes variables.
Parte IV
Otros temas
Machine Translated by Google
capitulo 17
Diseños multifase
Se desarrollan diseños de muestra y se eligen estimadores para cumplir de manera eficiente los
planes de análisis especificados. La eficiencia generalmente se define para abarcar tres áreas
principales: estimaciones precisas (sesgo) con altos niveles de precisión (pequeños errores
estándar) calculadas a partir de datos recopilados con procedimientos que hacen un uso
económico de los fondos del estudio sin exceder el presupuesto especificado (costo). Secciones
3.1 y 3.2 y Cap. 15 detallan las ganancias en precisión que se logran si se puede utilizar
información auxiliar altamente asociada con las variables de análisis. Esto incluye, por ejemplo,
variables auxiliares utilizadas (i) en el muestreo como variable de estratificación o para construir
la medida del tamaño para un diseño de probabilidad proporcional al tamaño (pps) o (ii) en la
estimación con un estimador de regresión (o razón). Sin embargo, ¿qué pasa si el único marco
muestral disponible no tiene información auxiliar útil? Sin la información auxiliar, ¿cómo podría
el estadístico abordar las preocupaciones de que el tamaño de muestra inflado requerido para
el nivel de precisión especificado excederá el presupuesto del estudio?
Una solución para estos problemas utilizada por los estadísticos en varios campos se conoce
en términos generales como diseño multifase. En las siguientes secciones, brindamos una
definición (Sección 17.1) para diferenciar este tipo de diseño de muestra de otros discutidos en
este libro, así como ejemplos de la vida real de diseños multifásicos (Sección 17.2). Habiendo
establecido una definición de trabajo de los diseños multifásicos, examinamos los componentes
necesarios para desarrollar los pesos base y de análisis (Sección 17.3). Luego, los pesos se
utilizan en la presentación de algunas estimaciones puntuales y varianzas (Sección 17.4),
tomando prestadas fórmulas discutidas en otros capítulos de este texto junto con algunos
resúmenes de investigaciones publicadas.
Los métodos para determinar el tamaño total de la muestra y la asignación a las fases se
proporcionan en la Secc. 17.5 junto con los métodos utilizados para justificar la necesidad de un
estudio multifase cuando estas encuestas a veces requieren un largo período de recopilación de datos.
Concluimos este capítulo con una breve discusión del software disponible para la selección y el
análisis de muestras (Sección 17.6).
La mayoría de los principales libros de texto de muestreo contienen una discusión sobre diseños de dos fases.
Estos diseños utilizan al menos dos marcos de muestreo secuenciales:
Pensar en un levantamiento genérico puede aclarar las características que distinguen un diseño multifásico.
Considere una encuesta donde los datos se recopilan a través de un modo relativamente económico en
una muestra aleatoria de unidades extraídas de un marco de muestreo que cubre la población objetivo. Llame
a esto la muestra de fase 1 seleccionada de un marco de muestreo de fase 1. La información recopilada en la
primera fase junto con los datos auxiliares del marco muestral de la fase 1 forman el marco muestral de la
segunda fase.
Luego, los datos se recopilan de una submuestra aleatoria de unidades de muestra de la fase 1, denominada
muestra de la fase 2. La recopilación de datos en la segunda fase suele implicar una metodología más costosa
que la utilizada en la primera fase.
La discusión estándar del libro de texto incluye solo dos fases de diseño y unidades en ambas fases
seleccionadas a través del muestreo de una sola etapa. Extender el diseño a un muestreo complejo dentro de
la primera fase o a tres o más fases complica las derivaciones teóricas y la estimación de la varianza (así
como los procedimientos de mantenimiento de registros en las encuestas reales), pero cumple un propósito,
como se analiza más adelante en este capítulo. Independientemente del número de fases, el tipo de unidad
analítica es el mismo en todas las fases (por ejemplo, personas).
La característica distintiva de los diseños multifase es la selección de al menos una submuestra aleatoria
extraída de una muestra inicial, como se destaca en nuestra encuesta genérica de dos fases anterior. El
submuestreo puede ocurrir una o varias veces, como un diseño de etapas múltiples (Capítulos 9 y 10). De
hecho, los diseños multietapa son un tipo especializado de diseño multifase. Revisemos nuestra encuesta
genérica de dos fases desde arriba; suponga que las unidades de la segunda fase se seleccionan de grupos
de unidades muestreadas aleatoriamente en la primera fase. S¨arndal et al. (1992, Secc. 4.3.1) clasifican este
estudio como un diseño de dos etapas si y solo si se cumplen dos propiedades: independencia e invariancia.
La propiedad de independencia indica que las unidades de la fase 2 se seleccionan al azar de cada
conglomerado de la fase 1 independientemente de los otros conglomerados de muestra. La propiedad de
invariancia es un poco más complicada y se enfoca en la teoría del muestreo repetido. En palabras
(ligeramente teóricas), esto significa que el mecanismo de muestreo de la fase 2 (por ejemplo, el esquema de
muestreo, las probabilidades de selección) para las unidades dentro de un conglomerado de la fase 1 en
particular no está influenciado por la presencia o ausencia de otros conglomerados de la fase 1 en
implementaciones repetidas del mismo. mecanismo de muestreo de fase 1. Esta "regla de no mirar a
escondidas" establece que las unidades de la fase 2 se seleccionan independientemente de los resultados de
la fase 1 obtenidos para otros grupos. Como se señaló en S¨arndal et al. (1992), la esperanza teórica y la
varianza de un estimador tomado con respecto a los diseños muestrales implementados en cada
Machine Translated by Google
Una
http://nces.ed.gov/surveys/els2002/ http://
2
nces.ed.gov/surveys/hsls09/ Las tasas de
3 muestreo generalmente se establecen para limitar la variación en los pesos base y para limitar la
carga impuesta a las escuelas participantes según lo medido por el tamaño de la muestra de
estudiantes.
Machine Translated by Google
Ejemplo 17.2 (Encuestas de educación de EE. UU., revisada). Siguiendo con lo anterior
ejemplo escolar, suponga que después de recopilar datos en menos de la mitad de las escuelas de la
muestra, el estadístico proyecta que el estudio obtendrá un resultado insuficiente.
número de estudiantes participantes en un grupo de raza/etnicidad para cumplir con los
requisitos especificados en el plan de análisis. Si el investigador decide ajustar colectivamente las tasas
de muestreo preestablecidas para las escuelas restantes para seleccionar una
muestra más grande para el grupo con poca potencia, entonces se violan las propiedades de
independencia e invariancia. En consecuencia, la etiqueta de diseño en dos etapas no es
más válido. Dicho de otra manera, los cambios se introducen a mitad de la recopilación de datos para
abordar los problemas introducidos por la respuesta aleatoria imprevista.
patrón exhibido en la muestra. Un tema espinoso es cómo estimar una varianza
en este caso. Estrictamente hablando, un estimador de varianza especializado para dos fases
debe utilizarse el muestreo. En la práctica, sin embargo, el sistema de dos etapas (en lugar de
dos fases) se puede utilizar un estimador de varianza. La fórmula de dos etapas puede ser
adecuado dependiendo del grado en que la independencia e invariancia
las propiedades están relajadas. La sección 17.4.2 analiza los problemas de estimación de la varianza en
mas detalle.
Los estudios multifásicos se conocen con diferentes nombres dependiendo del propósito.
del diseño Los tres tipos de estudios multifásicos discutidos en este
y en el resto del capítulo, son el muestreo doble para estratificación, el submuestreo de no respondedores
y los diseños receptivos. Una visión general de
cada diseño se analiza a continuación, junto con las encuestas asociadas que se encuentran en el
literatura. Los detalles sobre la ponderación y la estimación de la varianza para estos estudios se encuentran
dispuesto en las secciones siguientes.
Lohr (1999) y otros señalan que el muestreo en dos fases, también conocido como doble
muestreo, fue introducido por primera vez por Neyman (1938) como un método para obtener
información auxiliar importante de una gran muestra de unidades por medio de un método relativamente
económico y luego usar estos datos para submuestrear las unidades
para un procedimiento de recopilación de datos más intenso y costoso. muestreo doble
para la estratificación es un tipo específico de diseño de dos fases donde la información auxiliar obtenida
de la recopilación de datos de la fase 1 se utiliza en combinación con
la información del marco de la fase 1 para formar los estratos de diseño de la fase 2 dentro de los cuales
Se seleccionan muestras independientes.
Machine Translated by Google
Higo. 17.1: Transición de casos muestrales por los estados de una encuesta bajo un muestreo
doble para diseño de estratificación.
Estas palabras se traducen en una imagen que se muestra en la Fig. 17.1 para demostrar
la transición de casos de estado a estado dentro de una encuesta. En palabras, una muestra
de fase 1 de tamaño n(1) se selecciona de un marco de muestreo disponible de tamaño N.
Machine Translated by Google
estratificar la muestra de la fase 2. Se selecciona aleatoriamente un total de n(2) unidades (ÿ n(1)R) para
una recopilación de datos de segunda fase bajo un protocolo que generalmente difiere de la primera fase
(por ejemplo, un modo diferente de recopilación de datos). Las variables de análisis clave y = (y1, y2, ...)
(1) Los investigadores que trabajaban para desarrollar una definición de caso para los síntomas no
diagnosticados en el personal estadounidense que sirvió en la Guerra del Golfo Pérsico de 1991
encuestaron una muestra aleatoria simple estratificada de veteranos de la era de la Guerra del Golfo
(Iannacchione et al. 2011). Con base en las respuestas de la encuesta de salud militar de EE. UU.
(USMHS) en la primera fase, los encuestados se clasificaron como probables de tener o no cierto
tipo de enfermedad. Se solicitaron muestras de sangre de encuestados de fase 1 seleccionados al
azar dentro de los estratos de enfermedad y se analizaron mediante pruebas costosas. Por lo tanto,
la variable analítica crítica para el estudio de dos fases del USMHS se vinculó a los datos biológicos
recopilados solo de los encuestados de la fase 2.
(2) Otro ejemplo proviene de la encuesta European Pain in Cancer (EPIC). Para esta encuesta telefónica,
se seleccionó una muestra de la fase 2 de los encuestados de la fase 1 examinados para niveles
significativos de dolor relacionado con el cáncer para que los investigadores pudieran estimar mejor
la prevalencia y la gravedad del dolor crónico y la utilidad de varios regímenes de tratamiento para
mejorar la calidad de vida (Breivik et al. 2009).
(3) La encuesta trimestral de productos básicos minoristas (QRCS) realizada por Estadísticas
Canadá se utiliza para obtener "información detallada sobre las ventas minoristas de productos
básicos" en una submuestra de empresas seleccionadas para la encuesta mensual de ventas minoristas.
Machine Translated by Google
(5) Algunos estudios han utilizado un marco de muestreo formado por los encuestados de la
Encuesta Nacional de Entrevistas de Salud (NHIS).5 Por ejemplo, el Ciclo 5 de la
Encuesta Nacional de Crecimiento Familiar (NSFG-V) se submuestreó a partir de los
encuestados de NHIS de 1993 para producir estimaciones nacionales de prácticas de
fertilidad y salud sexual de mujeres en los EE. UU. de 15 a 44 años de edad (Potter, et
al 1998). El diseño de muestra para los ciclos subsiguientes de NSFG hasta la fecha es
una muestra de probabilidad de área de 4 etapas con una fase de seguimiento de falta
de respuesta que se describe en la siguiente sección. (Lepkowski et al. 2010). Otro
ejemplo es el componente Medical Expenditure Panel Survey (MEPS HC) donde se
producen estimaciones nacionales de cobertura de seguro médico y gastos de atención
médica a partir de una submuestra de hogares que respondieron al NHIS de años
anteriores (Ezzati-Rice et al. 2008).
(6) Un último ejemplo de dos fases presentado en esta sección introductoria es para las
aves. Los investigadores utilizaron un método económico y algo inexacto para estimar
la densidad de aves que anidan en una gran muestra de áreas geográficas en Alaska
(Bart y Earnst 2002). Se llevaron a cabo métodos intensivos dentro de una muestra de
fase 2 para estimar un ajuste de error de medición. Este ajuste se aplicó luego a la
muestra completa de la fase 1 para estimar la densidad de anidación de aves de la
población. En todos los ejemplos, no existía un marco de muestreo de la fase 2 antes
del estudio de la primera fase.
4
http://www.lanacion.cl/eanna-primera-radiografia-de-los-ninos-y-adolescentes-de chile/
noticias/2012-02-15/133220.html http://www.cdc.gov/ nchs/nhis.htm
5
Machine Translated by Google
un participante. Durante la recopilación de datos, el equipo del proyecto revisará los registros para
garantizar que los casos de difícil acceso se contacten en diferentes momentos del día y de la semana
para aumentar la tasa de contacto. Finalmente, con las respuestas editadas de la encuesta en la
mano, se ha demostrado que los ajustes de ponderación del muestreo reducen los errores por falta de
respuesta (ver, por ejemplo, el capítulo 15 de este texto; S¨arndal et al. 1992; Kott 2006).
Los procedimientos para ajustar el posible sesgo de falta de respuesta son innecesarios solo si los
que no responden no son diferentes de los que responden en el conjunto de variables analíticas
importantes para el estudio. En referencias como Little y Rubin (2002), esto se conoce como falta de
respuesta ignorable o perdida completamente al azar (MCAR discutido en la Sección 13.5 ). Pocos
investigadores están dispuestos a hacer esta suposición a ciegas ya que muchos estudios no tienen
datos que puedan usarse para verificar similitudes entre los encuestados y los no encuestados (por
ejemplo, registros administrativos) aparte de la información del marco. Para limitar la dependencia de
los ajustes de peso para corregir cualquier sesgo debido a la falta de respuesta, muchos investigadores
hacen todo lo posible para maximizar la tasa de respuesta junto con la calidad de los datos.
Lograr tasas de respuesta iguales o superiores a las utilizadas en los cálculos del tamaño de la
muestra también es importante para cumplir con los objetivos analíticos establecidos para el estudio
(consulte el Capítulo 6). Si se obtienen menos cuestionarios completos de los deseados, es posible
que las pruebas estadísticas no tengan suficiente potencia o que las estimaciones para ciertos
subgrupos sean inestables. Los problemas con el sesgo y el bajo tamaño de las muestras de los
encuestados pueden sugerir la necesidad de cambiar el protocolo del estudio durante la recopilación
de datos para incluir el uso de incentivos (mayores), más devoluciones de llamadas, cuestionarios
abreviados, diferentes contactos o métodos de recopilación de datos, y similares ( véase, por ejemplo, Dillman et al.
2009). La mayoría de los cambios introducidos agregarán una carga al presupuesto del proyecto, así
como la duración de la recopilación de datos. ¿Qué pasa si el presupuesto del proyecto no es lo
suficientemente grande para manejar estos modos más intensivos de recopilación de datos para todos
los que no respondieron? El submuestreo de personas que no respondieron es un método propuesto
para cuantificar las diferencias entre los que respondieron inicialmente (fase 1) y los que no
respondieron, para reducir el sesgo por falta de respuesta y para aumentar el número de participantes en el estudio.
Ejemplo 17.3 (Sesgo potencial debido a la falta de respuesta). Este sencillo ejemplo ilustra por qué
se debe seleccionar una submuestra de personas que no respondieron si se teme que puedan ser
diferentes del conjunto de personas que respondieron inicialmente. Suponga que la población se
puede dividir en dos estratos: un estrato contiene casos que responden a la fase inicial de recopilación
de datos y el otro estrato incluye casos que no. Denotar las proporciones de la población en los dos
estratos por W1 y W2 = 1 ÿ W1 y las medias de población por ¯yU1 y ¯yU2, respectivamente . La media
poblacional es ¯yU = W1y¯U1 + W2y¯U2. Se selecciona una muestra aleatoria simple y solo responden
los casos del estrato 1 (por definición). Si la media poblacional se estima mediante la media muestral,
¯y1, entonces el valor esperado de ¯y1 es ¯yU1, es decir, E (¯y1)=¯yU1. Ahora, suponga que ¯yU2 = k
y¯U1. El sesgo relativo (relbias) de ¯y1 como estimador de ¯yU se calcula como
E (¯y1) ÿ y¯U
relbias (¯y1) = y¯U (17.1)
Machine Translated by Google
k = 0,8
relbias
k = 0,85
k = 0,9
k = 0,95
ÿ0,05
ÿ0,10
ÿ0,15
0,15
0,10
0,05
0,00
k=1
k = 1,05
k = 1,1
k = 1,15
k = 1,2
Higo. 17.2: Relación de los relbias de una media poblacional estimada con las medias
de encuestados y no encuestados.
W2 (1 ÿ k) .
realbias(¯y1) =
1 - W2 (1 - k)
La Figura 17.2 grafica los relbias de la media de los encuestados versus la proporción de no
respuesta para valores de k que van desde 0.8 a 1.2. Las relbias pueden
ser positivo o negativo dependiendo de si la media de los no encuestados es menor (k < 1) o mayor
(k > 1) que la de los encuestados. los
el valor absoluto de las relaciones aumenta a medida que aumenta la proporción de no encuestados
aumenta y a medida que el valor de k se aleja de 1. Dado que la media de
se desconoce quiénes son los que no respondieron, el único síntoma de posible sesgo en este
ejemplo es la proporción de no respondedores en la muestra.
La figura 17.3 contiene una representación pictórica de este tipo de diseño de dos fases.
Comparando esta figura con la Fig. 17.1, podemos ver las diferencias entre el doble muestreo
para la estratificación y el doble muestreo para la falta de respuesta. Como antes, se
selecciona una muestra de fase 1 de tamaño n(1) de un marco muestral utilizando un
conjunto de variables auxiliares X. Las respuestas al cuestionario ( y11, y12, ...) y otra
información auxiliar (z) se recopilan de n (1)R encuestados durante la primera fase, dejando
(n(1) ÿ n(1)R) > 0 casos de muestra sin datos de entrevista. Dado que n(1)R > 0, el equipo
del proyecto debe justificar la inclusión de una segunda fase que podría extender la
recopilación de datos. Las razones pueden incluir un tamaño insuficiente de la muestra de
encuestados n(1)R para los objetivos analíticos o una indicación de sesgo considerable
(estimado) de falta de respuesta usando X.
Si este análisis sugiere que otra fase no sería rentable, entonces el archivo de análisis del
estudio se finaliza con solo las respuestas de la fase 1. Por el contrario, si se determina que
se puede llevar a cabo una segunda fase con los fondos disponibles y que es necesaria para
alcanzar los objetivos analíticos, el estadístico selecciona aleatoriamente una submuestra de
n(2) casos utilizando el conjunto completo de no encuestados de la fase 1. Este diseño
generalmente incluye información auxiliar utilizada en el diseño de la muestra de la fase 1,
así como paradatos útiles obtenidos durante la recopilación de datos de la fase 1, como el
número de contactos para cada caso. A continuación, la muestra de la fase 2 se envía
normalmente con un protocolo de recopilación de datos diferente (por ejemplo, modo,
incentivo, cuestionario abreviado) que el implementado en la primera fase.
Los datos de los encuestados de las fases 1 y 2 se combinan luego para producir el archivo
de datos de análisis de registros nR = n(1)R + n(2)R a partir de los cuales se producen las
estimaciones de población.
El muestreo doble para la estratificación y el muestreo doble para la falta de respuesta
son similares en el sentido de que la recopilación de datos de la fase 1 produce información
de estratificación utilizada para el diseño de la muestra de la segunda fase. Sin embargo, las
matemáticas necesarias para analizar los dos diseños son diferentes. La duplicación del
muestreo para la estratificación supone que, para una muestra dada de la fase 1, siempre se
formarían los mismos estratos. Si la respuesta se trata como aleatoria, la división entre los
que respondieron y los que no respondieron en un conjunto determinado de unidades de la
fase 1 variará. Los ejemplos del muestreo de duplicación para el diseño de estratificación
incluyen la identificación de adultos con una condición médica rara o hogares que contienen
niños dentro de un cierto rango de edad. El estado de respuesta es el estratificador principal
para el último diseño. Expresado en términos de la etiqueta de muestreo doble, la tasa de
muestreo de la fase 2 para el estrato de encuestados de la fase 1 es 1 (es decir, muestreado
con certeza para el estudio) y el muestreo para el estrato de no encuestados de la fase 1 es
generalmente menor que 1. Véase la Secc. 17.5.2 para métodos para determinar las tasas de muestreo.
Machine Translated by Google
Higo. 17.3: Transición de casos muestrales por los estados de una encuesta bajo un diseño
de doble muestreo por no respuesta.
Los diseños DSNR del tipo representado en la Fig. 17.3 se incluyen en muchos estudios.
A continuación se proporcionan cuatro ejemplos:
1. La Encuesta de Salud de los Veteranos de la Guerra del Golfo del Décimo Aniversario se
realizó para estimar la prevalencia de ciertas condiciones de salud adversas en los EE. UU.
Machine Translated by Google
personal militar que sirvió en la Guerra del Golfo Pérsico de 1991 (Singh et al.
2004, 2005). Después de obtener una baja tasa de respuesta de una encuesta por correo utilizando
una muestra aleatoria simple estratificada, 1.000 personas que no respondieron fueron aleatoriamente
submuestreado para un seguimiento telefónico. El tamaño de la muestra de no respondedores fue
determinada por los fondos disponibles del proyecto y la muestra asignada a la
estratos de fase 1 para minimizar un conjunto de restricciones de varianza.
2. La Encuesta Social General6 rastrea el “cambio social en los Estados Unidos”
y facilita las comparaciones con otros países a través de un conjunto compartido de
preguntas. Algunos conjuntos de preguntas son estáticos (denominados módulos centrales),
mientras que otros módulos se han introducido recientemente para capturar datos sobre problemas puntuales.
El instrumento se administra principalmente en un entorno cara a cara a un
muestra nacional de adultos mayores de 18 años seleccionados al azar a través de
un diseño complejo, de varias etapas. El submuestreo de no respondedores ha sido un
componente de diseño GSS desde aproximadamente mediados de la década de 1990 para aumentar la
grupo de encuestados y para reducir el sesgo de falta de respuesta.7
3. La Encuesta sobre la Comunidad Estadounidense (American Community Survey, ACS) es una encuesta
nacional de hogares en curso realizada por la Oficina del Censo de los EE .
La falta de respuesta es la principal motivación para los diseños de dos fases con un seguimiento o
submuestra de no respondedores. En la siguiente sección, revisamos brevemente una
diseño especializado que se ha vuelto popular en nuestra historia reciente.
6
http://www3.norc.org/GSS+Sitio web
7
http://www.irss.unc.edu/odum/jsp/content node.jsp?nodeid=83
8
http://www.census.gov/acs/www/
9 http://www.europeansocialsurvey.org/
Machine Translated by Google
El término diseño receptivo fue acuñado por Groves y Heeringa (2006) para describir un
tipo particular de encuesta que intenta descubrir e implementar la mejor combinación de
condiciones de encuesta (incentivos, modo, tiempo de contacto, etc.) para maximizar la
participación. Las mejores condiciones de la encuesta podrían incluir, por ejemplo, una
encuesta por correo con un incentivo de 5 dólares (denominado preincentivo) seguida de
una postal de recordatorio o una entrevista telefónica después de las 8:00 p. m. durante
un día laborable. Como se insinuó aquí, las mejores condiciones probablemente difieren
para varios grupos de personas.
Los diseños receptivos emplean dos o más condiciones de encuesta. Como se
muestra en la figura. 17.4 para un diseño receptivo de dos fases, los n(1) casos de
muestra de la fase 1 se asignan únicamente a una de las condiciones de encuesta D(1)
(ÿ 1), es decir, D(1) d=1 n(1)d , donde n(1)d es el número de casos de fase 1
puede ser aleatoria
dados entre
o puede
n(1) basarse
= muy condición
en investigaciones
d. La asignación
previas.
deSicasos
D(1) =
a 1,
condiciones
todos los
casos reciben la misma condición de encuesta. Se lleva a cabo la entrevista de fase 1,
dando como resultado D(1) en n(1)R = d=1 n(1)dR encuestados con n(1)dR representando
el número de encuestados de la condición de encuesta d-ésima y un total de n( 1) ÿ n(1)R
no respondedores. Tenga en cuenta que Groves y Heeringa (2006) y
muchos otros investigadores
planeen o nollaman
submuestrear
a esto lapara
primera
la segunda
fase delfase.
estudio,
Por ya
ejemplo,
sea que
considere
una encuesta que utilizará el correo/la Web o el teléfono para recopilar respuestas donde
la literatura no sugiera el modo preferido. Las condiciones de la encuesta D(1) = 4 podrían
ser: (i) un cuestionario por correo enviado con un pequeño incentivo; (ii) un cuestionario
por correo que incluye la opción de completar la entrevista en la Web junto con un
incentivo prometido al completarla; (iii) una entrevista telefónica donde al miembro de la
muestra se le envió inicialmente un incentivo junto con información sobre el estudio; y
(iv) una entrevista parcial realizada por teléfono y el resto se completa en la Web y un
incentivo prometido.
El término diseño receptivo fue acuñado por Groves y Heeringa (2006) para describir un
tipo particular de encuesta que intenta descubrir e implementar la mejor combinación de
condiciones de encuesta (incentivos, modo, tiempo de contacto, etc.) para maximizar la
participación. Las mejores condiciones de la encuesta podrían incluir, por ejemplo, una
encuesta por correo con un incentivo de 5 dólares (denominado preincentivo) seguida de
una postal de recordatorio o una entrevista telefónica después de las 8:00 p. m. durante
un día laborable. Como se insinuó aquí, las mejores condiciones probablemente difieren
para varios grupos de personas.
Los diseños receptivos emplean dos o más condiciones de encuesta. Como se
muestra en la figura. 17.4 para un diseño receptivo de dos fases, los n(1) casos de
muestra de la fase 1 se asignan únicamente a una de las condiciones de encuesta D(1)
(ÿ 1), es decir, D(1) d=1 n(1)d , donde n(1)d es el número de casos de fase 1
puede ser aleatoria
dados entre
o puede
n(1) basarse
= muy condición
en investigaciones
d. La asignación
previas.
deSicasos
D(1) =
a 1,
condiciones
todos los
casos reciben la misma condición de encuesta. Se lleva a cabo la entrevista de fase 1,
dando como resultado D(1) en n(1)R = d=1 n(1)dR encuestados con n(1)dR representando
el número de encuestados de la condición de encuesta d-ésima y un total de n( 1) ÿ n(1)R
no respondedores. Tenga en cuenta que Groves y Heeringa (2006) y
muchos otros investigadores
planeen o nollaman
submuestrear
a esto lapara
primera
la segunda
fase delfase.
estudio,
Por ya
ejemplo,
sea que
considere
una encuesta que utilizará el correo/la Web o el teléfono para recopilar respuestas donde
la literatura no sugiera el modo preferido. Las condiciones de la encuesta D(1) = 4 podrían
ser: (i) un cuestionario por correo enviado con un pequeño incentivo; (ii) un cuestionario
por correo que incluye la opción de completar la entrevista en la Web junto con un
incentivo prometido al completarla; (iii) una entrevista telefónica donde al miembro de la
muestra se le envió inicialmente un incentivo junto con información sobre el estudio; y
(iv) una entrevista parcial realizada por teléfono y el resto se completa en la Web y un
incentivo prometido.
Higo. 17.4: Flujo de casos de muestra a través de un diseño de respuesta de dos fases simulado.
Higo. 17.5: Flujo de casos de muestra de diseño receptivo asignados a la condición de encuesta 1(1)
en la fase uno.
Por ejemplo, como se muestra en la Fig. 17.5, no respondedores en fase 1 condición 1(1)
puede asignarse a una de las condiciones D(2) según este análisis. Los resultados
también puede sugerir las características incluidas en las condiciones de la fase 2 tales
como el tamaño de la cantidad de incentivo incrementada. Una vez que el estadístico del proyecto
ha compilado el análisis, utiliza un conjunto de reglas de decisión predefinidas para
determinar (i) cuándo las condiciones de la fase 1 ya no son rentables, (ii)
que se requiere más recopilación de datos para cumplir con los objetivos analíticos, y
(iii) si es necesario revisar las características del muestreo o la recopilación de datos. En este punto,
se introduce una nueva fase del diseño del estudio.
Muchos estarían de acuerdo en que la mayoría de las encuestas tienen algunas características
de diseño receptivo. Por ejemplo, los entrevistadores usan una variedad de técnicas para solicitar
cooperación de los miembros de la muestra, y los niveles crecientes de incentivos pueden ser
dado el historial de rechazo de una determinada unidad de muestra. Sin embargo, aquí nos
reserve la etiqueta "diseño receptivo" para estudios NRFU con diferentes encuestas
condiciones en al menos la segunda fase (es decir, D(2) > 1). Una encuesta que encaja
esta definición y es el primero citado como un diseño receptivo es la Encuesta Nacional de
Crecimiento Familiar (NSFG), Ciclos 6 y superiores (Groves y Heeringa )
2006).10
El NSFG está patrocinado por el Centro Nacional de Estadísticas de Salud,
Departamento de Salud y Servicios Humanos de los Estados Unidos, y fue inicialmente
diseñado para recopilar información sobre fecundidad y salud para la población no institucionalizada
de mujeres de 15 a 44 años seleccionada a través de una muestra probabilística de área.
Comenzando con el ciclo 6, una muestra correspondiente de varones de edad
10
http://www.cdc.gov/nchs/nsfg.htm
Machine Translated by Google
Concluimos esta sección con una breve discusión de un diseño multifase general antes de
pasar a los detalles de las ponderaciones de las encuestas multifase. Como sugiere nuestra
discusión actual, el submuestreo (y los cambios en el conjunto inicial de condiciones
esenciales de la encuesta) pueden ocurrir varias veces dentro de la ventana de recopilación
de datos. La figura 17.6 muestra la configuración general para un diseño multifásico con un
número ilimitado de fases. El número de fases está naturalmente limitado por el tiempo y los
fondos del proyecto. Para algunos, el número de contactos, especialmente después de un
rechazo inicial, puede estar limitado por un comité de supervisión (p. ej., Junta de Revisión
Institucional o IRB) que, entre otras responsabilidades, protege a los miembros de la muestra
de la coerción y la carga excesiva de los participantes.
La forma de los pesos base (o de diseño) para un diseño multifásico sigue la receta descrita
en el Cap. 13 para diseños de varias etapas. Los pesos base de la primera fase d(1)0k se
calculan para reflejar el diseño de muestreo como si el diseño contuviera solo una fase. Por
ejemplo, con un diseño estratificado de dos etapas, la ponderación base incondicional para
el elemento k -ésimo (segunda etapa) es
el
es decir, la probabilidad de selección inversa para i grupo en el estrato h ÿÿ1 (1)hi
Higo. 17.6: Transición de casos muestrales a través de los estados de una encuesta bajo un
diseño general multifásico.
el subíndice entre paréntesis indica la fase de muestreo asociada, es decir, “(1)” representa
las probabilidades de selección asociadas con la fase uno. Las unidades analíticas pueden
seleccionarse de estratos dentro de cada grupo; suprimimos el indicador adicional del estrato
de la segunda etapa de la notación solo por simplicidad.
Esta notación de dos etapas utilizada aquí implica que los elementos se seleccionan solo con
respecto a la selección del conglomerado hi y ningún otro conglomerado en la muestra. Por
lo tanto, las propiedades de independencia e invariancia se conservan para que la etiqueta
de "dos etapas" sea apropiada. Esto difiere del diseño de la segunda fase como se analiza a
continuación.
Los pesos base de la segunda fase se calculan condicionados al resultado de la primera
fase, el tercero condicionado al segundo, y así sucesivamente. El peso base incondicional
para la k -ésima unidad de muestra de la segunda fase tiene el siguiente general
forma:
d(2)0k = d(1)0kÿÿ1
(2)k|(1) , (17.3)
donde d(1)0k es el peso base de la primera fase definido en la ecuación. (17.2) y ÿ(2)k|(1) es
la probabilidad de selección de la fase 2 para la k-ésima unidad condicionada a la información
de la fase 1. En otras palabras, el subíndice “|(1)” dice que la muestra de la fase 2 se eligió al
azar del marco generado por la muestra de la fase 1. Nótese que la expresión (17.3) indica
que se selecciona la k-ésima unidad en ambas fases, independientemente del tipo de diseño
multifásico. El diseño de muestra de la fase 2 puede incluir estratificación y selecciones
aleatorias dentro de
Machine Translated by Google
múltiples etapas que dan como resultado un algoritmo complejo para construir ÿ(2)k|(1).
La notación en la expresión (17.3) sigue siendo algo simplista para esta discusión general. Los
siguientes ejemplos proporcionarán las formas específicas de diseño para los componentes de peso.
Ejemplo 17.4 (Pesos para un diseño de dos fases stsrs/stsrs). Considere un estudio similar a la
encuesta EPIC mencionada en la Secc. 17.2.1. El plan de análisis desarrollado al inicio del proyecto
establece que el estudio examinará los factores asociados con una alta calidad de vida entre los
pacientes de cáncer con niveles moderadamente altos de dolor experimentado durante el tratamiento.
El plan de muestreo dicta que todos los centros de tratamiento del cáncer dentro de una región del
país deben seleccionarse con certeza.11
Una vez definidos los estratos de muestreo, los pacientes con cáncer se eligen aleatoriamente
para el estudio utilizando tasas de muestreo definidas a partir de las estadísticas históricas de
inscripción de pacientes:
ÿ(1)dk = / 1 si0 el
demiembro
lo contrario,
de la muestra k tiene la característica d,
11
Los centros de tratamiento del cáncer bajo este diseño se tratan como los estratos de primera
etapa para la estimación puntual y de varianza porque todos los centros y no una muestra están
incluidos en el estudio. Aparte, los modeladores matemáticos etiquetarían esta "variable de
tratamiento del cáncer" como un efecto fijo. Si se eligiera aleatoriamente un subconjunto de centros,
estos conglomerados de la primera etapa (PSU) generalmente se modelarían con efectos aleatorios.
Machine Translated by Google
dentro de cada uno de los dos estratos de la segunda fase para cumplir con los objetivos del análisis
comparativo. Por lo tanto, las probabilidades de selección de la fase 2 condicional son
= N(1)h n(1)hd .
d(2)0hk = d(1)0hk ÿÿ1 (2)alta definición|(1)
n(1)h n(2)hd
Como verificación de calidad, la suma de las ponderaciones base para todos los miembros de la
muestra de la fase 1, independientemente de su estado de elegibilidad para la fase 2, es igual al número
total de pacientes con cáncer que reciben tratamiento en centros de tratamiento del cáncer dentro de la
región designada del país, es decir,
H H
La suma de los pesos base de la fase 2 estima el número total de pacientes con cáncer con niveles de
dolor de moderados a altos durante el tratamiento.
Ejemplo 17.5 (Pesos para un NRFU stsrs). Reformulemos el diseño del estudio del ejemplo 17.4 como
uno que incluye dos entrevistas (evaluador y umbral de dolor combinado y cuestionario de apoyo social).
Todos los n(1) miembros de la muestra de la fase 1 respondieron al filtro, pero solo una parte, n(1)R
n(1), respondió a la entrevista más amplia. Un análisis inicial realizado por el estadístico del proyecto
identificó una diferencia significativa en las estimaciones para los encuestados n(1)R y los no
encuestados n(1)R¯ (= n(1) ÿ n(1)R) calculados a partir del filtro y administrativo . registrar los datos, es
decir, existe la posibilidad de sesgo por falta de respuesta (consulte la Sección 13.5). En consecuencia,
se desarrollaron tasas de submuestreo condicional 2H para los centros de tratamiento con la siguiente
forma:
¯
un estrato de fase 1 NR en el centro h,
ÿ(2)hd|(1) = /n(2)hd n(1)hd si d = R,si d = R, el estrato fase1 R,
Una
donde NR representa a los que no respondieron y R a los que respondieron. Se desarrolla una versión
abreviada del instrumento de fase 1 y se administra a la submuestra de n(2) pacientes seleccionados
de los n(1)R¯ que no respondieron .
Utilizando los pesos base de la fase 1 definidos en el ejemplo anterior, el
Machine Translated by Google
ÿ n(1)h n(1)hd
, fase 1 NR seleccionados para fase 2 ,
n(1)h n(2)hd
= 0, fase 1 NR no seleccionados para fase 2, fase
ÿÿ
n(1)h
ÿÿ
, 1 Rs.
n(1)h
donde d(1)0k es la ponderación base calculada como la probabilidad inversa de selección para
la muestra de la fase 1, a(1)1k es un ajuste por estado de elegibilidad desconocido, a(1)2k es
un ajuste por falta de respuesta aplicado a la base
peso ajustado por elegibilidad desconocida (d(1)1k = d(1)0ka(1)1k), y g(1)k
es el ajuste de calibración realizado a los pesos base ajustados, d(1)2k =
d(1)0k a(1)1k a(1)2k, utilizando controles generados a partir de la población. Cualquier
encuestado que se clasifique como no elegible para el estudio de fase 2 se elimina del
el marco muestral. Se utilizan los pesos y los datos del cuestionario de la fase 1
en la selección de la muestra de la segunda fase.
Después de recopilar los datos de los miembros de la muestra de la fase 2 que respondieron,
se construye de manera similar la ponderación final incondicional del análisis de la fase 2.
como sigue:
donde w(1)k es el peso final de la fase 1 especificado en la Expresión (17.4), a(2)0k|(1) es el ajuste por
submuestreo condicionado a las respuestas de la fase uno, y a(2)1k|(1 ) ) y a(2)2k|(1) son ajustes por
elegibilidad desconocida y falta de respuesta estrictamente asociados con la muestra de la fase 2. Se
podría aplicar un ajuste por elegibilidad desconocida si, por ejemplo, algunos miembros de la muestra no
se pueden ubicar durante la ventana de recopilación de datos de la fase 2. La expresión (17.5) también
podría incluir un segundo ajuste de calibración, g (2)k|(1), que incluye controles asociados con la población
de interés, así como recuentos estimados tabulados a partir de las respuestas de la fase 1 y los pesos
finales de la fase 1.
A través de un estimador de regresión general (GREG; ver Cap. 14), estos ajustes de calibración se
pueden realizar de manera simultánea o secuencial. Discutimos este tema con más detalle en la Secc.
17.3. El conjunto de unidades que se usaría para la estimación serían generalmente los encuestados
elegibles en la fase 2, s(2)R. O si los totales de control utilizados para la calibración de la fase 2 incluyen
elementos no elegibles, entonces el conjunto de unidades utilizadas para el análisis es s(2)R ÿs(2)IN donde
s(2)IN representa el conjunto de unidades de muestra de la fase 2 conocidas por ser inelegible.
Diseños NRFU. Como se muestra en la figura. 17.3, (NRFU) o muestreo doble para estudios de falta
de respuesta difieren de los diseños de dos fases en que todos o una parte de los datos recopilados en la
fase 1 también se recopilan en la segunda fase. Los pesos finales de la fase 1
calculan ajustando el peso base (d(1)0k) para cualquier elegibilidad desconocida (a(1)1k) y
luego calibrando a la población los totales de control (g(1)k) antes de seleccionar la submuestra
de n(2) (< n(1)R¯) que no respondieron para el seguimiento en la fase 2. Una vez finalizada la
recopilación de datos de la fase 2, los pesos de entrada para los miembros de la muestra de la
fase 2 (w(1)k) se corrigen por submuestreo (a(2)0k|(1)) y cualquier elegibilidad desconocida
(a(2)1k|(1)) o falta de respuesta (a(2)2k |(1)), resultando en ponderaciones ajustadas de la forma:
Tenga en cuenta que el peso base incondicional para los casos de muestra de la fase 2 está definido por
los dos primeros componentes anteriores, es decir,
El archivo de análisis del estudio contendrá los valores del cuestionario para los encuestados de la fase 1
n(1)R , así como para los encuestados de la fase 2 n(2)R (ÿ n(2)) . Se puede aplicar un ajuste de calibración
final (g (2)k|(1)), utilizando los totales de control de la población, a todos los registros de los encuestados
para generar las ponderaciones del análisis de la fase 2 incondicional.
para componentes definidos para la expresión (17.7). A diferencia de los otros bifásicos
diseño, los pesos, en general, están calibrados solo para controles de población
y no a los datos recogidos en la primera fase.
Ejemplo 17.6 (Pesos base para un NRFU stsrs). Suponga que un estadístico de proyectos desarrolla
la asignación para un diseño estratificado de una sola etapa, asumiendo
que la tasa de respuesta será suficiente para obtener al menos 1,000 encuestados
según lo requiera el plan de análisis. Se elige una asignación proporcional porque
de la limitada información disponible sobre los tamaños relativos de la población
varianzas a través de cuatro estratos de muestreo. La siguiente tabla contiene los recuentos de
población y el tamaño de la muestra por estrato, junto con el número estimado
de los encuestados con una tasa de respuesta de al menos el 61 %. El muestreo general
fracción, utilizada en cada uno de los estratos, fue 0,022 o 1.650/75.000, resultando
una muestra de igual probabilidad con un peso base idéntico de 45,45 (1/0,22).
Sin embargo, la tasa de respuesta conservadora percibida del 61 % resultó demasiado optimista.
se recopilaron datos de solo 972 miembros de la muestra (57,7 respuestas no ponderadas
Velocidad). Un análisis posterior determinó que el conjunto existente de respuestas
produjo una precisión inadecuada basada en el plan de análisis aprobado, y
que la continuación del protocolo de estudio actual sería ineficaz. los
equipo recibió la autorización adecuada para introducir un más caro
metodología de recopilación de datos que la implementada inicialmente, incluida una
Machine Translated by Google
Fase 1 Fase 2
Estrato Muestra Encuestados Marco de respuesta Muestra Muestreo
fracción de tamaño Velocidad
Los pesos base específicos de fase, iguales dentro de los estratos, se construyeron como
sigue:
Fase 1 Fase 2
Estrato Encuestados Base Muestra Submuestra Base
peso peso Talla
h n(1)h d(1)0h n(2)h a(2)0h(1) d(2)0h
1 227 45,4 30 1,9 86,2
2 270 45,5 30 11,0 501,8
3 222 45,4 30 6,1 275,7
4 253 45,5 30 3,6 163,8
General 972 120
Ejemplo 17.7 (Ponderaciones de análisis ajustadas por falta de respuesta para un NRFU de stsrs).
Continuando con el Ejemplo 17.6, 45 de los 120 miembros de la muestra participaron
en la fase 2 de recopilación de datos. Aunque solo se logró una tasa de respuesta de fase 2
condicional no ponderada del 37,5 % (= 45/120), un total de 1.017
los casos completados fueron procesados para el archivo de análisis final.
Los pesos de los 45 encuestados se ajustaron por falta de respuesta específica a
la segunda fase usando un ajuste de clase de ponderación estándar (ver Secc. 13.5)
con los pesos base incondicionales definidos en la expresión (17.5) dentro de cada
de cuatro estratos de diseño. Los resultados resumidos se proporcionan a continuación.
Machine Translated by Google
17.4 Estimación
Ahora que se han definido los pesos de análisis para el diseño multifase,
volver a la construcción de estimaciones puntuales y de varianza producidas a partir de la
estudiar datos
tering). Un estimador asociado, encontrado por Kott y Stukel (1997) que tiene varianzas
más pequeñas que el DEE, se conoce como el estimador de expansión reponderado (REE).
Expresado como media para un diseño en dos fases, el REE tiene la siguiente forma:
H
Una
incondicionales.
Trabajando primero con el término entre paréntesis más interno, se evalúa la expectativa
del estimador puntual genérico ˆÿ con respecto al diseño de la muestra de la segunda fase
condicional a los componentes del diseño de la fase 1, por ejemplo, el tamaño de la muestra
es fijo. A continuación, se evalúa la expectativa del estimador resultante tratando la
selección de la muestra de la fase 1 como aleatoria. Usando esta misma partición, la
expresión anterior se puede expandir a más de dos fases evaluando la expectativa
condicional y sustituyendo en la ecuación anterior, por ejemplo,
Además de cuantificar el sesgo teórico de un estimador, esta igualdad es útil para construir
estimadores de varianza como se muestra en la siguiente sección.
donde I(2) es una variable binaria para identificar las unidades de población seleccionadas para
la muestra de la fase 2. Tenga en cuenta que la selección en la muestra de la fase 2 es una
función de la selección de la fase 1 y la selección de la fase 2 condicional, es decir, I(2) = I(1) × I(2|1).
Sustituyendo la fórmula para d(2)0k e I(2), tenemos
Las técnicas de estimación de la varianza para encuestas generales se cubrieron en el Cap. 15.
Una vez aumentado, el mismo enfoque es útil para los diseños multifásicos discutidos
en esta sección. Al igual que en el capítulo anterior, esta sección incluye una discusión
de linealización (serie de Taylor) y varianzas de replicación.
y V(2) ˆÿ (1) son las cantidades correspondientes para el diseño de la muestra de la fase
2 condicionadas a la muestra de la fase 1 realizada. La evaluación de la expresión
(17.13) para el diseño completo da como resultado un componente de varianza de
linealización de la serie de Taylor que da cuenta de la selección aleatoria dentro de cada fase.
Ejemplo 17.9 (Varianza de un total estimado para un diseño genérico de dos fases).
Considere el estimador de un total, t ˆ(2)y = kÿs(2) d(2)0k yk, discutido en el Ejemplo 17.8
deseado para una encuesta de dos fases donde el diseño de muestra para cada fase se
clasifica solo en genéricos términos. Lo primero a tener en cuenta es que, de forma
similar a la descomposición para un diseño en dos etapas, el estimador se puede
expresar como una función de la fase 1, la fase 2 y los términos de la población. A saber,
donde t ˆ(1)y = kÿs(1) d(1)0k yk, la población estimada utilizando los datos de la
fase 1; y Dˆ(1) = t ˆ(1)y ÿ ty y Dˆ(2) = t ˆ(2)y ÿ t ˆ(1)y representan el error asociado
con los diseños de muestreo aleatorio de fase 1 y fase 2, respectivamente . La
varianza de t ˆ(2)y se evalúa entonces como
V ar t ˆ(2)y = V ar t ˆ(2)y ÿ ty =
V(1) - E(2) t ˆ(2)y ÿ ty (1) . + E(1) - V(2) t ˆ(2)y ÿ ty (1) ..
En consecuencia, la varianza del estimador de dos fases, t ˆ(2)y, será mayor que la
varianza del total poblacional tabulado como si todos los datos se obtuvieran en la
primera fase. Pero, como se señaló anteriormente, el punto de hacer una segunda fase
es usar métodos que serían demasiado costosos para aplicar a todas las unidades de la
primera fase o enfocar la muestra de una manera que no sería factible usando una
muestra de una sola fase.
Una formulación general de la expresión (17.14) se da en el Resultado 9.3.1 de
S¨arndal et al. (1992) y reformulado de la siguiente manera utilizando la notación
específica de este capítulo:
Machine Translated by Google
ÿ(1)kl si yl
V t ˆ(2)y =
ÿ(2)kl ÿ(1)k ÿ(1)l
s(2)
ÿ(2)kl|(1) si yl
+ (17.15)
ÿ(2)kl|(1) ÿ(2)k ÿ(2)l
s(2)
Ejemplo 17.10 (Varianza para un diseño de dos fases srs/stsrs, continuación del Ejemplo
17.9 ). Considere el muestreo doble para el diseño de estratificación donde el diseño de
la fase 1 es un srs de tamaño n(1) y se selecciona una muestra aleatoria de segunda
H
en cuenta que
fasen(2)
de tamaño
= la población
h=1 n(2)h
totaldeestimada
los estratos
DEErecién
del ejemplo
identificados.
17.9 puede
Primero,
reexpresarse
tenga
como una función de las medias estimadas del estrato:
H H norte n(1)h
t ˆ(2)y = h=1 kÿs(2)h d(2)0k yk = h=1 kÿs(2)h n(1) n(2)h
si
H
S2 s2
(1)h
V t ˆ(2)y = N2 1 ÿ f(1) + E(1) w2 1 ÿ f(2)
(1)h
n(1) h=1 n(2)h
con las fracciones de muestreo específicas de fase, f(1) = n(1) N y f(2)h = n(2)h n(1)h ; la varianza del
ÿ1 2
s2 = n(1)h ÿ 1 (1)h yˆ(1)k ÿ y ˆ¯(1)h
kÿs(1)h
H
1 ÿ f(1) Una
n(1) - n(1)h
Vˆ1 w(1)h 1 ÿ n(2)h s2
(2)h
= n(1) h=1 n(1) - 1
H
n(1) 2
+ n(1) ÿ 1 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2)
h=1
H s2
(2) h
y Vˆ2 = 1 ÿ f(2)hh=1 w2 de muestreo
fracción . Sumando estos y asumiendo que el n(1) ÿ 1
(1)h n(2)h
.
=
de primera fase, f(1), es pequeña y que n(1)h ÿ 1 w(1)h, la varianza
estimada de t ˆ(2)y es
H H
s2
Una
(2)h
vt ˆ(2)y ÿ= N2 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2) 2+ w2 ,
(1)h
n(1) h=1 h=1 n(2)h
H
donde y ˆ¯(2) = h=1 w(1)hy ˆ¯(2)h, y ˆ¯(2)h = kÿs(2)h yk n(2)h, y
ÿ1 2
s2 = n(2)h
(2)hÿ 1
.
kÿs(2)h yˆ(1)k ÿ y ˆ¯(1)h
Damos una ilustración numérica del muestreo de dos fases srs/stsrs para la estratificación
en el ejemplo 17.12.
Debería quedar claro a partir de los ejemplos anteriores que a medida que los diseños de
muestra se vuelven más complejos, también lo hace el estimador de varianza. Esto también
es cierto con un aumento en el número de fases de muestreo. El software para calcular
estimaciones de varianza de dos fases hasta la fecha es limitado y actualmente no existe para
diseños multifásicos. Debido a que los investigadores deben desarrollar y programar la
fórmula, muchos recurren a replicar las variaciones que, en general, son más fáciles de
implementar.
Los estimadores de varianza replicados, como el jackknife, son aplicables a una variedad de
estimadores y diseños de muestra. Como se discutió en el Cap. 15, la estimación de la
varianza es una función de la desviación de las estimaciones replicadas A, ˆÿ (2),
(r) calculada
los pesoscon
A
Una
2
v ˆÿ(2) = ˆÿ (r) ÿ ˆÿ (ÿ) ,
(2) (2)
Cr =1
donde C es una constante que depende del método de replicación (jackknife, BRR o bootstrap). El valor
agregado, ˆÿ (ÿ) promedio de las estimaciones replicadas, ˆÿ (ÿ) podría generarse como (2) ,
= Rÿ1 ˆÿ (r) o usando el completo (2),
(2)
estimación de datos de la fase 2 y el peso del análisis original (peso de la muestra completa).
Machine Translated by Google
Kott y Stukel (1997) y Kim y Yu (2011) discuten las propiedades teóricas y empíricas del
estimador de varianza jackknife mientras que Fuller (1998) estudió la replicación repetida
balanceada. El trabajo de Kim et al. (2006) cubrieron las variaciones de replicación pero no se
enfocaron en una forma de replicación específica. Hasta la fecha, no se ha llevado a cabo ninguna
investigación sobre los estimadores bootstrap para diseños multifásicos.
El proceso genérico para crear los pesos replicados de dos fases es summa
Rizado en tres pasos:
(1) Identifique una unidad de muestra o un grupo de unidades (para un estimador de varianza de
eliminación de un grupo) del archivo de datos de análisis y establezca sus ponderaciones
de análisis en cero. Las unidades restantes se clasifican como la submuestra replicada.
(2) A continuación, ajuste los pesos base para el submuestreo implementado en el paso 1 para
formar el peso base replicado.
(3) Finalmente, vuelva a aplicar cualquier ajuste de peso utilizado para producir los pesos de la
muestra completa para calcular el peso del análisis de réplica final.
Para una varianza jackknife, los tres pasos se repiten R veces, de modo que cada unidad se
excluya una vez para formar una réplica del peso. Una estimación de la varianza de un grupo
aleatorio es similar en el sentido de que las unidades se agrupan aleatoriamente y todos los
grupos o un subconjunto aleatorio se eliminan para formar las ponderaciones repetidas.
Como se implementó con una muestra de una sola fase (p. ej., consulte Valliant 1993, 2004),
los ajustes de ponderación, como la falta de respuesta y la calibración, se aplican nuevamente a
cada réplica para que la varianza capture cualquier propiedad aleatoria adicional que no sea el
proceso de muestreo. Por ejemplo, si los pesos de la fase 2 se calibran con un conjunto de
estimaciones de la fase 1, se calculan nuevos controles estimados para cada réplica antes de
este ajuste. Se han investigado ajustes replicados adicionales, incluido uno para capturar la
variación en los controles estimados de la fase 1 (Fuller 1998) y una corrección de población finita
de la fase 1 no despreciable (Korn y Graubard 199912, Lee y Kim 2002) , así como una corrección
por sesgo que es inherente a la navaja (Kim y Yu 2011).
Los tres pasos anteriores están más especializados para los atributos del diseño de la fase 1.
Por ejemplo, si el diseño de la muestra de la fase 1 está agrupado y se utiliza la navaja, los
conglomerados se eliminan para formar réplicas y los pesos de todas las unidades en un
conglomerado de la fase 1 eliminado se establecen en cero en el paso 1. Como se señaló en Kim
et al. Alabama. (2006), si se dispone de un estimador de varianza consistente para las
estimaciones bajo el diseño de la fase 1, entonces esta propiedad se mantendrá para una
extensión multifase.
Ejemplo 17.11 (Varianza para diseño de dos fases con muestreo por conglomerados). Considere
un estudio que requiere estimaciones generadas a partir de pruebas psicológicas administradas
en persona. Se usaron datos de una batería inicial de preguntas (fase uno) para asegurar que la
muestra en persona (fase dos) incluye mujeres
12
Además, vea el panel de discusión sobre los usos apropiados de un fpc en http://web.cos.
gmu.edu/ÿwss/wss070328paper.pdf.
Machine Translated by Google
cabeza de familia con relativamente buena salud y calidad de vida (QoL) como
así como aquellos con enfermedades físicas o mala calidad de vida. Se selecciona una muestra de mh
segmentos de área de la región h (h = 1, 2, 3, H = 4) para la fase uno; todos
mujeres jefas de hogar en los segmentos de la muestra se incluyeron en un primer
entrevista telefónica.
El srs de la segunda fase se seleccionó de tres estratos (G=3) dentro de cada
segmento con estratos definidos por la categorización de la escala de puntuación de la fase 1
de calidad de vida alta, media y baja. Todas las incógnitas, es decir, los que no respondieron, fueron
agrupados en el estrato “medio” en base a investigaciones previas. Se debería notar
que la naturaleza agrupada del diseño de la fase 1 no solo permitió una metodología rentable para
realizar la entrevista en persona de la fase 2, sino
también permitió el seguimiento en persona con los que no respondieron en la fase 1.
El estadístico del proyecto optó por calcular pesos de dos fases replicados para
el archivo de datos analíticos. La construcción de los pesos base comenzó antes
implementación de la recopilación de datos de la fase 2. Supongamos que la base de muestra completa
el peso definido para el conglomerado i en el estrato h de la fase 1 es d(1)0hi. Cuando racimo (st)
se elimina, el peso base replicado de jackknife se creó como
ÿ d(1)0hi h = s, yo = t,
d (S t) = h = s, yo = t,
(1)0hola ÿ d(1)0hi × (mh/mh ÿ 1)
ÿ 0 h = s, yo = t.
Tenga en cuenta que todos los miembros del grupo fueron seleccionados con certeza en el
muestra de fase 1, de modo que w(1)hi se aplicó a todas las unidades de muestra en el conglomerado
hola. El peso base condicional para la entrevista de la segunda fase se definió
como d(2)0hij|(1) = n(1)hig n(2)hig para el miembro de muestra j en el estrato anidado hig
(j ÿ shig), donde n(1)hig es el número de miembros elegibles de la muestra de la fase 1
en el estrato g dentro del conglomerado hi (es decir, el número de mujeres jefas de estado de la fase 1)
hogares) y n(2)hig es el tamaño de muestra de la fase 2 correspondiente. Combinatorio
los dos, el peso base de réplica de la fase 2 incondicional para la muestra de la fase 2
(S t) ×
miembro j en fase 2 estrato hig se calculó como d = d(st)
(2)0hij (1)0hola
d(2)0hij|(1).
El estimador de varianza jackknife para DEE o REE tiene un sesgo negativo que, al menos en
algunos casos, es insignificante (Kim y Yu 2011). Para
ejemplo, si los conglomerados son seleccionados por srswor, el sesgo es pequeño cuando el primero
la fracción de muestreo de fase es pequeña. Cuando la fracción de muestreo de la primera fase es
no despreciable, Kim y Yu (2011) dan métodos de replicación de construcción
estimaciones que eliminan el sesgo.
sigue el utilizado para desarrollar la teoría original que da como resultado componentes
de varianza que son familiares para quienes tienen al menos un curso de muestreo.
Sin embargo, la literatura que incluye estimadores de varianza de linealización para
diseños más complejos que incluyen agrupamiento en la primera fase, como en el ejemplo
17.11, es limitada. Se han realizado más investigaciones sobre la replicación. La revisión
de algunos informes metodológicos, como el NSFG-V (Potter et al. 1998) y la Encuesta
estadounidense sobre el uso del tiempo (Bureau of Labor Statistics 2012), indica que las
ponderaciones del estudio (fase 2 incondicional) se deben usar con software flexible
estándar. ware que da cuenta de la agrupación (fase 1). Esto sugiere que solo el primer
componente de la expresión (17.14) se tiene en cuenta en la estimación de la varianza.
Si es cierto, la implicación de ignorar el componente de varianza “dentro de la fase 2” (es
decir, la subestimación potencial de la varianza) requiere investigación adicional.
El uso de datos auxiliares sólidos para seleccionar una muestra es parte de la justificación
de las encuestas multifase. Si aún no está disponible, esta importante información se
recopila en fases anteriores para las siguientes. El estimador de regresión generalizada o
GREG discutido en el Cap. 15 aprovecha la información auxiliar para reducir el sesgo y la
varianza de las estimaciones. En esta sección, se analizan los GREG producidos a partir
de diseños multifásicos.
Pesos GREG y estimación puntual
Kim y Yu (2011), junto con S¨arndal y Lundstr¨om (2005) y S¨arndal et al. (1992),
analizan los beneficios de los estimadores de regresión relacionados con la reducción del
sesgo y la mejora de la eficiencia en las estimaciones de precisión sobre los estimadores
de expansión. La fórmula, reproducida del Cap. 14, para calcular un GREG para un total
de población es
Los pesos base (ajustados) d(2)k para los encuestados del estudio de fase 2 están calibrados
para satisfacer las restricciones
donde x(2)k es un vector de variables conocidas para la muestra del estudio y que contiene datos
para los encuestados de la fase 2; w(2)k es el peso de análisis calibrado final resultante; y tx es el
vector de los totales de población definidos
en la expresión (17.16). Para estudios con NRFU, este estilo más tradicional
de calibración de peso podría ser apropiado, especialmente si la fase 1 y
los encuestados de la fase 2 parecen diferir en las características relevantes para el
estudiar.
S¨arndal y Lundstr¨om (2005, Cap. 8) analizan el uso de los totales de control
estimado a partir de la muestra de la primera fase inicialmente o simultáneamente con los totales de
control de la población (escenario de calibración 3). Nos referimos a estos como secuenciales.
calibración y calibración simultánea, respectivamente, y adaptar su discusión para un diseño de dos
fases. Una calibración secuencial de dos pasos para la fase
2 encuestados se producen de la siguiente manera:
Paso 1: Calibrar los pesos base (ajustados) para los encuestados del estudio de la fase 2 a los
totales estimados de la fase 1 como se define para el escenario 1 anterior. los
13
http://hrsonline.isr.umich.edu/
14
http://www.census.gov/cps/
Machine Translated by Google
Para estudios de fase K con K=2, el vector total de control podría ser
=
ampliado para incluir estimaciones de las fases de diseño K-1, ˆtÿ ˆt(1)z, ˆt(2)z,..., ˆt(Kÿ1)z, tx . En este X
escenario, la ponderación base de los encuestados de la segunda fase, ajustada por cualquier pérdida de
muestra en la primera fase, se calibraría con los totales de la población y las estimaciones calculadas a partir
de las respuestas del cuestionario de la fase 1. Hasta la fecha, los beneficios de un escenario sobre otro no
están bien definidos y justifican una mayor investigación.
ÿ1
ÿ1
T
donde xÿde
un=las
vector
recopilaciones
z(2)k, x(2)k , datos de
de valores auxiliares
de para la muestra
la fase de encuestados
2 y la fase k tomados
1, respectivamente; y
los modelos para cada fase se especifican con una varianza supuesta de ÿ2 y ÿ2 (1)k.
k
Tenga en cuenta si se supone que la varianza del modelo es un valor constante
donde ˆe(1)k = e(1)k w(1)k y ˆe(2)k = e(2)k w(2)k son residuos estimados del modelo; los pesos g
específicos de fase son
ÿ1
Una elección de diseño básica es si se utiliza más de una fase o se apega a una sola
fase. Las situaciones en las que se puede utilizar de forma rentable el muestreo
multifásico se analizan en la Secc. 17.5.1. Si se utilizan dos fases, se debe determinar
cómo asignar la muestra a las fases. La Sección 17.5.2 cubre el cálculo del tamaño de la
muestra cuando se realiza un muestreo doble para la estratificación y cuando se realiza
un estudio de seguimiento por falta de respuesta.
Machine Translated by Google
través de un estudio NRFU Cada uno de estos se analiza a continuación. Hansen et al. (1953a,
cap. 11, Secc. 3) brindan otra discusión sobre estos usos y sus eficiencias en comparación
con otras opciones.
Neyman (1938) introdujo la idea de que se podría aumentar la precisión recopilando datos
en la fase 1 para usarlos como variables de estratificación para la muestra de la fase 2, o como
covariables para las estimaciones de regresión de la fase 2. Hansen et al. (1953a) ilustran que
si se puede recolectar información de estratificación en la fase 1 que es altamente efectiva
para separar unidades en grupos homogéneos, entonces el muestreo doble para la
estratificación con una asignación óptima a los estratos de la fase 2 puede producir varianzas
de las medias estimadas que son mucho menores que se obtendría sin estratos. Por ejemplo,
piense en empresas de muestreo. Si no hay información sobre el tamaño de la empresa, los
recuentos de empleados pueden recopilarse en la primera fase y utilizarse para crear estratos
para el muestreo de la fase 2. De manera similar, si una variable auxiliar que está altamente
correlacionada con las variables de análisis se puede recolectar en la fase 1, entonces se
puede usar para construir estimadores de regresión eficientes de un total usando las respuestas
de la fase 2. Hansen y Tepping (1990) dan un ejemplo de esto en el control de calidad de los
programas gubernamentales de bienestar.
Hansen et al. (1953a) dan las condiciones bajo las cuales habrá ganancias cuando se utilice
muestreo doble para la estimación de estratificación o regresión. Las aplicaciones donde se
acumulan estas ganancias son bastante especializadas y es más probable que ocurran en
encuestas de empresas e instituciones.
Kalton y Anderson (1986) discuten varias técnicas para muestrear poblaciones raras. Sin
buena información sobre la prevalencia dentro de la población, destacan varios ejemplos de
cuestionarios de detección por correo enviados a los hogares para identificar adultos con una
característica particular (p. ej., discapacidad).
Luego, los individuos pueden ser muestreados a tasas revisadas basadas en la información
de detección para obtener tamaños de muestra objetivo en los subgrupos. Cuando el objetivo
es obtener tamaños de muestra objetivo de ciertos grupos y estimaciones con las que establecer
Machine Translated by Google
las tasas de muestreo no están disponibles, entonces no hay más opción en los EE. UU. que
seleccionar y submuestrear. Las listas comerciales utilizadas en el muestreo basado en
direcciones pueden ayudar a identificar algunos dominios de personas (p. ej., raza/etnicidad
según el apellido15), pero las listas actualmente están incompletas y la precisión estimada no
está documentada. En otros países, por ejemplo, los de Escandinavia, los registros de
población permiten una identificación muy precisa de algunos tipos de personas. Pero también
están limitados por los elementos que se encuentran en el registro.
Por lo tanto, para los usos (1) y (2) anteriores, el muestreo multifase es claramente útil y
puede ser la única forma de lograr los objetivos de algunas encuestas. Al hacer un seguimiento
de los que no respondieron, la decisión es menos clara. En algunas encuestas, un estudio
NRFU puede ser la única forma de lograr una tasa de respuesta ponderada deseada (ver, por
ejemplo, AAPOR 2011; Singh et al. 2004) o un tamaño de muestra objetivo de encuestados.
Esto es especialmente cierto si la encuesta se realiza bajo contrato y el contrato especifica la
tasa de respuesta mínima o el tamaño de la muestra que se debe lograr. En algunas
encuestas, la única esperanza de agregar más encuestados después de la primera fase es
cambiar el modo de recopilación, comenzar a ofrecer incentivos para participar o ambas
cosas para una submuestra. En tales casos, la encuesta se convierte forzosamente en varias
fases.
Los cálculos del tamaño de la muestra para diseños multifásicos siguen muchas de las
técnicas ya discutidas en este libro. Discutimos algunos enfoques a continuación para orientar
el proceso de pensamiento, comenzando con un muestreo doble para la estratificación, luego
encuestas con un seguimiento de la falta de respuesta y, finalmente, diseños receptivos.
Ejemplo 17.12 (Cálculo del tamaño de la muestra para el diseño srs/stsrs con estimaciones
de población). Considere un estudio piloto de salud mental que se llevará a cabo a través de
una entrevista telefónica asistida por computadora (CATI). El instrumento contiene un conjunto
de preguntas psicológicas (VDF-14) para identificar enfermedades mentales graves que han
sido validadas dentro de un entorno clínico pero no con CATI.
15
Consulte, por ejemplo, http://www.msg.com/Web/genesys/List-Enhancement-Matching.aspx .
Machine Translated by Google
Estrato Wh Ph S2
h neyman
asignación
1 0,25 0,02 0,0196 0,25 31
2 0,12 0,1056 0,25 0,37 72
3 0,2331 0,25 0,54 0,2484 107
4 0,26 0,1936 110
General 320
Cochran (1977) y Neyman (1938) dan la varianza de dos fases cuando la fase
1 es una muestra aleatoria simple, la fase 2 es stsrs y una asignación óptima para
Los estratos se utilizan en la segunda fase. Las fracciones de muestreo en ambas etapas
se supone que son despreciables. La proporción óptima de la muestra de la fase 2
asignar al estrato h para estimar la media poblacional es n(2)h n(2) =
WhSh/ h WhSh. La fórmula para la varianza de una media estimada con
esta asignación es
2 2
h Wh (F - P) ( h WhSh) = V(1) + V(2) ,
Voto = +
n(1) norte (2) n(1) norte (2)
Las fórmulas para los tamaños de muestra de la fase 1 y la fase 2 que minimizan Vopt
sujetas a un costo total fijo C son
C
n(1) = ,
c(1) + c(2) ÿ K
n(2) = n(1) ÿ K,
dónde
K = V(2) V(1) c(2) c(1) .
c2 <- 50
Ctot <- 20000
dub(c1, c2, Ctot, Nh=Wh, Sh, Yh.bar=Ph)
correlacionado (o se cree que lo está) con la variable de análisis y continúe con la técnica discutida
anteriormente. De lo contrario, el tamaño de la muestra de la fase 2 y la asignación a los estratos se crean
solo después de que se analicen los datos de la primera fase usando los procedimientos discutidos en la
Parte I del texto. Liu y Aragon (2000), por ejemplo, señalan que el efecto de diseño de las ponderaciones (es
decir, el efecto de ponderación desigual) se minimiza si se utiliza una probabilidad proporcional a la
ponderación de la fase 1 para extraer la muestra de la fase 2.
Se selecciona una muestra NRFU s(2) de n(2) unidades mediante un muestreo aleatorio simple de los
n(1)NR de la fase 1 que no respondieron. Los datos sobre las variables de la encuesta se recopilan en los
encuestados iniciales y en las unidades participantes en la muestra NRFU. Tenga en cuenta que esto es
diferente de las aplicaciones de dos fases en las que solo se utilizan en la estimación los datos de los
encuestados recopilados en la segunda fase.
Los pesos base para las unidades de muestra son
norte
n(1)
k ÿ s(1)R, k
d(2)k = N n(1)NR n(1)
n(2)
ÿ s(2).
Algunas unidades de la muestra de la fase 2 tampoco responderán, por lo que solo responderá n(2)R . A
continuación, se calcula una ponderación ajustada por la falta de respuesta, utilizando una correlación global.
norte
norte (1)
k ÿ s(1)R, k
w(2)k = N n(1)NR n(2) n(1) (17.20)
n(2) n(2)R
ÿ s(2)R.
Utilizando los pesos de la expresión (17.20), el estimador del total poblacional de una variable y es
N norte
n(1)NR
t ˆ(2)y = yk + yk (17.21)
n(1) s(1)R s(2)R n(1) n(2)R
= 1 ÿ f(1) S2
ˆ¯ 1 ÿ f(2)R
Vy S2
yU + E(1)ERD p2 (1)NR y(1)NR s(1) , n(2)
n(1)
2
CV 1ÿv
CV 2 yU
t ˆ(2)y = 1 ÿ f(1) + (1 ÿ ÿ) , (17.22)
v
n(1)
C = c0 + c1n(1) + c2n(2).
El valor óptimo de ÿ que minimiza la varianza real (17.22) para un costo fijo o minimiza
el costo para una varianza real fija es
c1
ÿoptar = .
c2ÿ
Machine Translated by Google
Para que este sea un valor factible, necesitamos c1/c2 ÿ ÿ. Por lo tanto, el costo unitario de la fase 1
puede tener que ser sustancialmente menor que el de la fase 2 si la respuesta de la fase 1
probabilidad es baja. El valor óptimo de la muestra de la fase 1 para un costo fijo
se encuentra sustituyendo ÿopt en la función de costo:
C- c0
n(1)opt = . (17.24)
c1 + c2ÿopt (1 ÿ ÿ)
2
Cuando la revarianza se fija en un valor de CV 0, el valor óptimo es
Una
1 ÿ ÿ (1 ÿ ÿopc)
n(1)opt = .
currículo 2
ÿopt 0
+
Una
CV 2 norte
yU
Seleccionar una muestra de seguimiento de falta de respuesta puede ser inquietantemente ineficiente
en comparación con simplemente seleccionar un srs más grande en primer lugar. la revarianza
2
de una media estimada de un srs, despreciando el fpc, es CV CV srs (¯ysrs) =
2
yU nsrs. Igualando esto a la Ec. (17.22) y resolviendo para nsrs da
ÿ1
nsrs = n(1) ÿ + (1 ÿ ÿ) /ÿ ÿ f(1) el tamaño . Si solo ÿ de estas unidades responde, el
de srs inicial requerido es
ÿ1
n(1) 1-ÿ
nsrs = ÿ ÿ+ ÿ f(1) . (17.25)
v
Ctot c2
= n(1) 1+ v (1 - ÿ) . (17.26)
rsc nsrs c1
Este cálculo supone que, dentro de las fases, todas las unidades tienen la misma probabilidad de
responder, lo que puede ser poco realista. La posibilidad de responder puede depender de
características demográficas y la composición demográfica de la fase
La submuestra 2 puede ser diferente de la de la muestra de la fase 1. En el cap. 13 nosotros
analizó algunas técnicas que explicarán tales diferencias demográficas
al hacer ajustes por falta de respuesta. Para hacerse una idea de la muestra
tamaños necesarios para la primera y segunda fase de un diseño NRFU, el más simple
los cálculos anteriores siguen siendo útiles.
La función R NRFUopt del Apéndice C calculará los valores de vopt
y n(1) optar por un costo fijo o un coeficiente de variación objetivo. los
La función acepta los siguientes parámetros:
Machine Translated by Google
Ejemplo 17.13 (Tamaños de muestra óptimos para un presupuesto fijo). Suponga que el
presupuesto para los costos variables totales es de $100 000, los costos unitarios para
las fases 1 y 2 son de $50 y $200, la probabilidad de respuesta es 0,5 y el coeficiente de
variación unitario es 1. El coeficiente de variación objetivo para la media es 0,05 . La
llamada a la función con estos valores de parámetros es
la salida es
$asignación [1]
"costo fijo"
$'Coste variable total' [1] 1e+05
$'Tasa de respuesta' [1] 0.5 $CV [1]
0.0382 $v.opt [1] 0.7071 $n1.opt [1]
828 $'N2 esperado' [1 ] 293 $'Casos
totales esperados (2 fases)' [1] 1121
$'Muestra de srs para el mismo
cv' [1] 1373 $'Relación de costos:
Dos fases a srs' [1] 1.457
El CV previsto es 0,0382 con tamaños de muestra de 828 para la fase 1 y 293 en la fase
2 para un total de 1121. La fracción de submuestreo de la fase 1
Machine Translated by Google
El ejemplo anterior parece implicar que sería mejor seleccionar una muestra inicial más
grande que anticipe cuánta falta de respuesta habrá. Usamos este método en el Cap. 6 para
ajustar los tamaños de muestra. Sin embargo, una muestra inicial más grande no siempre
es una solución. Por ejemplo, se puede obtener una tasa de respuesta inesperadamente
baja en la fase 1. Además, el modo inicial de recopilación de datos puede llegar al límite de
su eficacia. Por ejemplo, en un envío por correo de cuestionarios en papel, la tasa de
respuesta puede ser del 30 %, pero se requiere una tasa de respuesta final del 50 %. Si
más envíos darán como resultado pocas o ninguna respuesta adicional, entonces se
necesitará una muestra de seguimiento de falta de respuesta con un modo diferente si hay
alguna esperanza de obtener una respuesta del 50 %.
Diseños responsivos
La clave para el diseño receptivo es la incapacidad de planificar durante la etapa de diseño
del proyecto para los puntos en el tiempo en los que es necesario realizar un cambio en las
condiciones esenciales de la encuesta. Por ejemplo, dos meses después de la recopilación de
datos para el Estudio X, el equipo decide, basándose en el análisis del estado actual del proyecto,
enviar un incentivo adicional para aumentar la participación.
Sin embargo, hasta la fecha se ha publicado poca información sobre reglas de decisión específicas
para invocar la siguiente fase en un diseño receptivo. Esbozamos a continuación los procedimientos
generales basados en nuestra experiencia personal partiendo del punto de vista del estudio desde
al menos tres ángulos diferentes:
(1) Propensión a la respuesta. El equipo del proyecto monitorea las tasas de respuesta y las
propensiones de respuesta a lo largo del período de recopilación de datos. Los indicadores
(y posiblemente las covariables del modelo de respuesta) pueden incluir una combinación
de información del marco, paradatos, información “sobre el terreno” de los entrevistadores,
experiencia pasada y tiempo/financiación en el período restante de recopilación de datos.
Mediante el mejor y el peor de los casos, el equipo identifica un punto en el que es improbable
que se alcance el tamaño de muestra requerido (general y dentro de los subgrupos), ya sea
analítica o contractualmente, dada la muestra actual.
(2) Análisis de sesgo de falta de respuesta. Algunos equipos de proyecto pueden realizar análisis
periódicos de sesgo de falta de respuesta con variables conocidas para los encuestados y
los no encuestados (ver, por ejemplo, Ingels et al. 2011). Los resultados pueden sugerir que
ciertos subgrupos tienen un bajo rendimiento y que las áreas necesitan atención adicional
por parte del personal de campo.
(3) Precisión de las estimaciones clave. Además del análisis de la propensión a responder y del
sesgo de no respuesta, se puede analizar un conjunto de estimaciones clave utilizando los
datos actuales. Especialmente con el análisis de subgrupos, los bajos niveles de precisión
en las estimaciones pueden sugerir la publicación de una muestra adicional o la necesidad
de cambiar los métodos para solicitar la participación.
Los resultados comunes entre estos y otros análisis pueden indicar que los fondos utilizados para
"negocios como siempre" se desperdiciarán. En este punto, el equipo del proyecto puede decidir
(i) finalizar la recopilación de datos, (ii) liberar a los miembros de la muestra de reserva o (iii)
implementar un cambio de procedimiento en una submuestra de los casos que no respondieron.
Cualquier decisión también debe incluir los fondos restantes disponibles para la recopilación de
datos. Como se señaló para el muestreo doble, se debe tener especial cuidado para garantizar
que cualquier submuestreo no introduzca sesgos al seleccionar intencionalmente aquellos que,
en términos relativos, tienen más probabilidades de responder.
Software 17.6R
Concluimos este capítulo con una discusión sobre el software. No existe ningún software para
extraer explícitamente muestras multifásicas porque la muestra para la fase r + 1 depende de la
información recopilada de la fase r -ésima . En consecuencia, el
Machine Translated by Google
Ejemplo 17.15 (Análisis de un objeto de diseño de levantamiento de dos fases srs/srs en R).
Tomando prestados los datos pbc de la biblioteca R, el siguiente código se usa para
desarrollar un objeto R apropiado para el diseño. Estos datos provienen de un ensayo de
Mayo Clinic en cirrosis biliar primaria (CBP) del hígado realizado entre 1974 y 1984. El
paquete de supervivencia R describe el conjunto de datos con más detalle.
La opción de subconjunto en el código a continuación identifica las unidades de muestra de
la fase 2, que se definen como personas con valores faltantes de la variable trt:
subconjunto = ˜I(es.na(trt)))
Ejemplo 17.16 (Muestreo en dos fases para estratificación utilizando la población del NHIS).
Suponga que se selecciona una muestra inicial de n = 2,000 personas de la población
nhis.large. Se determina la edad de cada persona y la primera fase se estratifica en cinco
grupos: < 18 años, 18–24 años, 25–44 años, 45–64 años y 65+. Se seleccionó una muestra
estratificada de fase 2 con n(2)h=100 en cada estrato con la idea de que se desea la misma
precisión para los análisis de personas en los diferentes grupos de edad. Tenga en cuenta
que esto es diferente de los ejemplos en el Cap. 10 donde se establecieron por adelantado
tasas de muestreo fijas para subgrupos en una muestra de área en dos etapas. Aunque las
tasas en esos ejemplos se diseñaron para producir ciertos tamaños de muestra objetivo, las
tasas dentro del conglomerado podrían determinarse por adelantado. En este ejemplo, las
tasas de la segunda fase dependen de cuántas personas se encontraron en los grupos de
edad en la primera fase.
El código R para seleccionar la muestra de dos fases y estimar la proporción de personas
se muestra a continuación. La función en el paquete de encuestas que maneja
dieciséis
http://rss.acs.unt.edu/Rdoc/library/survey/html/twophase.html
Machine Translated by Google
las muestras bifásicas son bifásicas. Se debe construir un marco de datos (p1.dat) en este
ejemplo que tenga un registro para cada elemento de la fase 1 con indicadores de si un
elemento estaba en la muestra de la segunda fase o no (p1.dat$p2).
El parámetro
subconjunto = ˜p2
N <- nfila(nhis.grande)
# Pesos de la fase 1
p1.dat$p1wts <- rep(N/n1, n1) n2 <-
rep(100,5) p2.str.sam <-
strata(data.frame(p1.dat),
estratanames = c("edad.grp"), tamaño =
n2, método = "srswor")
# establecer una variable V/F para determinar si la persona está en la muestra de la fase 2
p1.dat$p2 <- FALSO p1.dat$p2[p2.str.sam$ID_unit] <- TRUE # Pesos condicionales de la fase 2
p1.dat $p2wts <- 0 p1.dat$p2wts[p2.str.sam$ID_unit] <- 1/p2.str.sam$Prob # Objeto de diseño de
2 fases d2.nhis <- dos fases(id = lista(˜ID, ˜ID), datos = p1.dat, estratos=lista(NULL, ˜edad.grp),
pesos = lista(˜p1wts, ˜p2wts), subconjunto = ˜p2, método = "aprox")
mns <-svymean(˜factor(retraso.med), diseño = d2.nhis, na.rm = TRUE) ftab <- ftable(mns, nombres
de fila=lista(retraso.med = c("No","Sí") )) ronda(ftab,4)
Machine Translated by Google
retraso.med
No media 0.9411
SE 0.0114
Sí media 0.0589
SE 0.0114
Las estimaciones de los componentes de la varianza debida a las fases (Vˆ1 y Vˆ2 en el
ejemplo 17.10) se pueden extraer con el siguiente código, que se aplica a la
estimación general de la proporción que retrasó la atención médica:
En este caso, V1= 2.79e-05 y V2= 1.028e-04 para que la segunda fase
representa alrededor del 79 % de la varianza de t ˆ(2)y.
¿Cómo se compara la muestra doble estratificada con una srs de n = 500 para
la estimación general? Si hubiéramos seleccionado 500 personas por srs y obtuviéramos un
estimación de 0.0589, el error estándar habría sido
en comparación con 0.0114 anterior. Por lo tanto, la muestra doble es un poco menos precisa,
pero el número esperado de personas en los cinco grupos de edad en un srs de 500
son 139, 47, 142, 116 y 57. Las edades de 18–24 y 65+ tienen menos que el objetivo
de 100. El muestreo de dos fases dio una precisión general similar a la de un srs de
del mismo tamaño pero permitió el número de personas de la muestra en cada grupo de edad
ser controlado. Por supuesto, la detección para determinar la edad cuesta dinero que
no se gastaria en un srs.
Tenga en cuenta que, además de permitir el uso de funciones de encuesta estándar, como
svymean, la función de calibración producirá pesos GREG para un diseño de dos fases. Sin
embargo, la calibración está actualmente reservada solo para la fase
2 unidades.
Machine Translated by Google
Ejercicios
1 ÿ f(1) 1 ÿ f(2)
V t ˆ(2)y = S2 + E(1)ERD p2 S2
yU (1)NR y(1)NR s(1)
n(1) n(2)
S2 1ÿv
yU
V t ˆ(2)y = 1 ÿ f(1) + (1 - ÿ) .
v
n(1)
donde ÿ = f(2)R es la fracción de muestreo lograda de la segunda fase fija (es decir, el
número de los que votaron en la fase 2 dividido por el número de los que no respondieron
en la fase 1) y ÿ es la probabilidad de que cualquier unidad responda. Suponga que si
una unidad responde es independiente de cualquier otra unidad. (c) Demuestre que si la
función de costo es C = c0 + c1n(1) + c2n(2) donde n(2) se trata como aleatoria, entonces
ERD (C ÿ c0) = c1n(1) + c2ÿ (1 ÿ ÿ) n(1). (d) Demuestre que el valor óptimo de la fracción
de submuestreo de la fase 2 es ÿopt =
c1/c2ÿ.
(e) Si la varianza se minimiza sujeta a un costo total (esperado) fijo, entonces Cÿc0 muestra
que n(1)opt = c1+c2ÿopt(1ÿÿ) . (f) Si se minimiza el costo
por un valor fijo, CV0, del coeficiente de variación
de t ˆ(2)y, entonces
Una
1 ÿ ÿ (1 ÿ ÿopc) .
n(1)opt = CV 02
ÿopt 2 1+
CV norte
yU
17.2. Suponga que el presupuesto para costos variables totales en un estudio NRFU es de
$500 000, los costos unitarios para las fases 1 y 2 son $25 y $200, la probabilidad de
respuesta es 0.3 y la variación del coeficiente unitario es 1. Encuentre la asignación óptima
para dos -Fase muestral para minimizar el coeficiente de variación de la media estimada.
Discuta los resultados.
17.3. En un estudio NRFU de dos fases, suponga que se desea un CV de 0,10 para la media
estimada. Los costos unitarios para las dos fases son c1 = $75 y c2 = $350. El CV unitario en
la población es 2 y se prevé que la tasa de respuesta a la primera fase sea del 40 %.
Determinar la asignación de la muestra a ambas fases y el costo variable estimado de la
encuesta.
Machine Translated by Google
17.4. En un estudio NRFU de dos fases, suponga que se desea un CV de 0,10 para la
media estimada. Los costos unitarios para las dos fases son c1 = $75 y c2 = $150. El
CV unitario en la población es 2 y se prevé que la tasa de respuesta a la primera fase
sea del 40 %. Es decir, los supuestos son los mismos que en el ejercicio 17.3, excepto
que el costo de la fase 2 es mucho menor. Determinar la asignación de la muestra a
ambas fases y el costo variable estimado de la encuesta. Discuta sus resultados.
17.6. Considere una situación en la que se intenta una ola inicial de recopilación de
datos. Algunas unidades responden y otras no. Supongamos que la población se puede
dividir en dos estratos, uno de los casos que responden a la fase inicial y otro de los
casos que no. Denotar las proporciones de la población en los dos estratos por W1 y
W2 = 1 ÿ W1 y las medias de población por ¯yU1 y ¯yU2. Se selecciona una muestra
aleatoria simple y solo responden los casos del estrato 1. Ahora, suponga que ¯yU2 = k
y¯U1. Muestre que el relbias de ¯y1 como estimador de ¯yU es
W2 (1 ÿ k) .
relbias (¯y1) =
1 - W2 (1 - k)
(a) Calcule el efecto de ponderación desigual para los pesos finales w(2)k. Por qué
podría ser importante examinar esto.
(b) ¿Qué cambios sugeridos implementaría si tuviera el actual
resultados como su información histórica?
17.8. Se propone un diseño de doble muestreo por estratificación para un estudio con
cuestionario de cribado telefónico en fase uno. A una submuestra de encuestados se le
administrará un cuestionario más largo y detallado en la segunda fase.
La fase 1 es srs y la fase 2 es stsrs. Las siguientes estimaciones de población son
proporcionadas por los dos estratos:
Machine Translated by Google
Estrato Nh Wh Ph 1.580
Una 0,79 0,19 430
2 0,21 0,52
Total 2010
(a) Determine los tamaños generales de muestra para la primera y segunda fase del diseño
utilizando el método descrito en el ejemplo 17.12 con un valor de costo general de C =
$10 000, c1 = 10 y c(2) = $100. Comente sus hallazgos. ¿Hay alguna ganancia al usar
doble muestreo con una asignación óptima a los estratos en comparación con
seleccionar un srs con el mismo costo total?
¿Por qué o por qué no? Suponga que cada unidad en el srs cuesta c(2). Si no hay
ganancia, ¿por qué podría seguir utilizándose el doble muestreo?
(b) ¿Cómo cambian sus resultados si C=$10,000 pero el costo de la recopilación de datos
de la fase 2 es el doble (es decir, c(2) = $200). Comente sus hallazgos.
Machine Translated by Google
capitulo 18
Control de Procesos y Medidas de Calidad
Hasta ahora hemos descrito una amplia variedad de herramientas y tareas necesarias para
el muestreo y la ponderación. Sin embargo, la clave para un proyecto exitoso no es solo el
dominio de las herramientas y saber qué herramienta usar cuándo, sino también el
seguimiento del proceso real, así como la documentación cuidadosa de los pasos tomados
y la posibilidad de replicar cada uno de esos pasos. Para cualquier proyecto, se deben
tomar ciertas medidas de control de calidad antes de la recopilación de datos durante la
construcción del marco de muestreo y la selección de la muestra y después de la
recopilación de datos durante la edición, el cálculo del peso y la construcción de la base de datos.
Los proyectos bien planificados están diseñados para que sea posible el control de calidad
durante el proceso de recopilación de datos y que se puedan tomar medidas para mejorar
la calidad antes del final del período de recopilación de datos. Obviamente, las medidas
específicas de control de calidad variarán según el tipo de proyecto realizado. Por ejemplo,
los esfuerzos repetidos de recopilación de datos longitudinales permiten realizar
comparaciones con años anteriores, mientras que las encuestas transversales únicas a
menudo sufren de incertidumbre con respecto a los procedimientos y resultados. Sin
embargo, hemos descubierto que un conjunto básico de herramientas es útil para casi
todos los diseños de encuestas y las presentaremos en este capítulo. Queremos enfatizar
que si bien es tentador pensar que la garantía de la reproducibilidad y la buena
documentación solo valen el esfuerzo para encuestas complejas que se repetirán, según
nuestra experiencia, incluso la encuesta más pequeña "funciona" mejor cuando las herramientas presenta
El material de este capítulo solo está arañando la superficie de lo que se puede hacer
y se centra en particular en elementos de relevancia clave para los investigadores.
Este capítulo está organizado en tres períodos de tiempo distintos de una encuesta:
recolección previa a los datos (diseño del estudio, construcción del marco y selección de
muestras), recolección intermedia de datos (técnicas de monitoreo y tasas de desempeño)
y recolección posterior a los datos (edición, ponderación, redacción de especificaciones y
documentación). Recomendamos enfáticamente leer las Directrices de calidad
proporcionadas por varias agencias estadísticas y otras organizaciones como Eurostat
(Aitken et al. 2004), la Oficina de Administración y Presupuesto de EE. UU. (2006),1 Canadá (2009), la
Una
http://www.whitehouse.gov/sites/default/files/omb/inforeg/statpolicy/standards
encuestas estadisticas.pdf
2http: //www.ons.gov.uk/ons/guide-method/best-practice/gss-best-practice/gss-quality-good-
practice/index.html
3
http://www.aapor.org/Best Practices1.htm http://
4
www.hcahpsonline.org/home.aspx http://
5
nces.ed.gov/surveys/pisa/pdf/20111025.pdf http://
6
ccsg.isr.umich.edu/quality.cfm
Machine Translated by Google
Higo. 18.1: Diagrama de Gantt de ejemplo (usando el software MS Project): proyecto de pregunta de
filtro en IAB.
Los diagramas de flujo se utilizan a menudo en la planificación de proyectos para visualizar los pasos
dentro de una tarea. Los diagramas de flujo son representaciones semánticas de un algoritmo o un proceso.
Los diagramas de flujo se pueden usar para aspectos técnicos del proyecto, como la ponderación, pero
también son bastante útiles en otras partes del proyecto (p. ej., visualizar el flujo de cuestionarios o detallar
los pasos de reclutamiento y los procedimientos de seguimiento de falta de respuesta). La Figura 18.2
muestra el comienzo de un diagrama de flujo de diseño de estudio
7 Se puede acceder a una conferencia en línea gratuita sobre el uso de CPM con un ejemplo de
encuesta aquí: http://gunston.gmu.edu/healthscience/ProjectManagementInIT/ CriticalPathMethod.asp
Machine Translated by Google
tal como se utiliza en el Manual de Mejores Prácticas del Centro de Operaciones de Investigación
de Encuestas de la Universidad de Michigan en los EE. UU.
Aunque no siempre se utilizan para la investigación de encuestas, los símbolos de diagramas
de flujo estandarizados se han desarrollado en el contexto de la programación informática
(Organización Internacional de Normalización 1985). Por ejemplo, los cuadros se usan para
representar tareas (o procesos) y los diamantes se usan para puntos de decisión.
Cada rama que sale de un rombo muestra las acciones que siguen a cada resultado en el punto
de decisión. La figura 18.2 utiliza cuadros de tareas y rombos de decisión.
8
El Handbook on Improving Quality by Analysis of Process Variables, publicado por Eurostat,
muestra una serie de diagramas de flujo para cada paso del proceso de la encuesta. Vimos un
diagrama de flujo para la ponderación en el Cap. 13. Para la programación, este diagrama de
flujo debería especificarse con mucho más detalle. Los diagramas de flujo son muy útiles para
proporcionar una visión general de alto nivel del proceso y sus interconexiones. Sin embargo, a
diferencia del método de la ruta crítica, no dan una indicación de cómo un retraso en una tarea
afectará a otras tareas.
Por ejemplo, las encuestas que usan el Archivo de Secuencia de Entrega del Servicio Postal de
EE. UU., mencionado en los Caps. 1 y 10, debe verificar si hay áreas en el archivo que no están
cubiertas en comparación con los conteos de viviendas del censo (Iannacchione 2011).
Las variables en el marco que se usarán para el muestreo también deben verificarse en
busca de valores faltantes o inadmisibles. En un marco de escuelas, por ejemplo, las variables
que se pueden usar para el diseño de la muestra son el número de estudiantes matriculados en
cada escuela, que puede ser una medida del tamaño para el muestreo de pp, y el rango de
grado de cada escuela, que puede ser utilizado para la estratificación o para excluir unidades de
muestra no elegibles. Los marcos de hospitales, hogares y empresas tendrán diferentes tipos
de controles que se deben realizar en las variables de diseño. Cuando faltan datos, es posible
que se necesiten imputaciones antes de que se pueda usar el marco para la selección de la
muestra. Regresaremos brevemente al tema de la edición de datos de cuadros en la Secc. 18.5.
8
http://www.processdox.com/pix/ImprovingQuality.pdf
Machine Translated by Google
Estadísticas y Métodos
No
Estadísticas y Métodos
Los entrevistadores
completan la
recopilación de datos
experimentos aprendidas
Higo. 18.2: Diagrama de flujo de ejemplo: diseño de estudio y muestreo del manual de mejores prácticas
de SRO.
Machine Translated by Google
Los esfuerzos exitosos de recopilación de datos requieren un seguimiento estrecho de la muestra durante
producción. Dicho monitoreo puede ayudar a identificar posibles deficiencias para lograr el resultado
deseado, como, por ejemplo, una tasa de respuesta específica o
otros objetivos asociados con el muestreo y la calidad de los datos. Para hacer el seguimiento,
es necesario identificar las variables clave del proceso. Suelen ser variables que
puede variar con cada repetición del proceso y tener un fuerte efecto en el
calidad de la encuesta. Ejemplos de variables de proceso son códigos de disposición para
los intentos de contacto (ver Cap. 6), las medidas de los recursos utilizados o la codificación
errores Insecto. 18.4, enumeraremos una serie de tales indicadores. Mientras que los indicadores
podrían ser monitoreados en tablas como parte de los informes, las pantallas gráficas son a menudo
más eficiente para el seguimiento.
Una
0.9
0.8
Destinatario W5
0.7
Muestra
Muestra de
0.6 destinatario W5 (PSU nuevas)
Generación W5. Estallido.
0.3
Dividir hogares
0.2
0.1
0
6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
Calendario de la semana
Higo. 18.3: Tasas de contacto para cada submuestra por semana natural en la encuesta PASS del Instituto de
Investigación del Empleo, Alemania (M¨uller, 2011).
Común en las aplicaciones de la industria son los gráficos de control de procesos (Deming 1982).
Su uso en encuestas es menos común, a pesar de que uno de sus principales defensores, el propio
Deming, trabajó en la Oficina del Censo de EE. UU. entre 1939 y 1945. Sin embargo, el aumento
constante de los procedimientos de recopilación de datos asistidos por computadora también flujo
durante la recopilación de datos. En consecuencia, vemos un renovado interés en el control de
procesos estadísticos y gráficos relacionados para monitorear y administrar los procedimientos de
trabajo de campo (Jans et al. 2013). En su forma más simple, los gráficos para monitorear el trabajo
de campo en curso muestran variables clave del proceso en el desarrollo durante días o semanas
del período de trabajo de campo. Más informativas son las visualizaciones por subgrupos relevantes,
como el gráfico de la Fig. 18.3.
Aquí vemos las tasas de contacto por semana calendario divididas por submuestras; se puede ver
en el gráfico que los hogares del panel fueron contactados a una tasa mucho más alta que los
hogares muestreados como cajas de refrescos en esta encuesta del panel. Estas tasas de contacto
diferenciales pueden tener efectos importantes en la calidad general de la encuesta.
Idealmente, esos gráficos informan las intervenciones. El resultado de una intervención exitosa
se puede ver en la Fig. 18.4 que muestra las tasas de respuesta por subgrupos importantes en la
Encuesta Nacional de Crecimiento Familiar. A partir de la tercera semana de recopilación de datos,
se encontró que los hombres hispanos entre 20 y 44 años de edad estaban rezagados en las tasas
de respuesta. Se lanzó una intervención en la que se pidió a los entrevistadores que aumentaran su
esfuerzo en esos casos, y se enviaron entrevistadores itinerantes con capacidades bilingües a
segmentos que contenían casos de muestra en esos subgrupos. Como resultado de esta intervención,
disminuyó el coeficiente de variación en las tasas de respuesta entre los subgrupos relevantes
(Kirgis y Lepkowski 2010).
Machine Translated by Google
Una
0.9
0.8
0.7
0.6
RR 0.5
0.4
0.3
0.2
0.1
0
Una 8 15 22 29 36 43 50 57 64 71 78
Día
Hombres negros 15-19 Hombres hispanos 15-19 Otros Hombres 15-19
Higo. 18.4: Tasas de respuesta acumuladas por subgrupos en la encuesta nacional de familia
crecimiento, la intervención se inició durante la zona gris (Lepkowski et al., 2010).
Para un gerente de trabajo de campo y aquellos que monitorean la muestra durante la recolección de datos
colección, es importante no reaccionar a la variación "normal" en el proceso clave
indicadores. Sería un desperdicio de recursos intervenir si el proceso es
todavía en control. Por lo tanto, una característica típica de los gráficos de control, tal como se
propagan en la literatura de control de procesos estadísticos, es su capacidad para separar
Causas comunes y especiales que influyen en un proceso dado. Esta separación es
importante porque el paso de acción requerido para abordar causas especiales es muy
diferentes de los que abordan causas comunes. Un buen ejemplo para las encuestas.
es el tiempo de respuesta de la entrevista a lo largo del período de campo. En muchas encuestas,
el tiempo de la entrevista se reduce a medida que los entrevistadores se acostumbran cada vez más a
administrar una encuesta determinada (Olson y Peytchev 2007). Si tal reducción
en la entrevista el tiempo amenaza la calidad de la entrevista, la gerencia tiene que
intervenir y cambiar el sistema. Un ejemplo para una causa especial sería
un entrevistador individual o área local en la que una reducción (o un aumento)
en la entrevista el tiempo es visible. Aquí una única intervención local del
el personal operativo podría ser suficiente.
Un gráfico que muestra tanto la variación por causa común como la variación por causa especial
es el gráfico de Shewhart (1931) (véase el ejemplo en la figura 18.5). Aquí control
límites (generalmente tres veces la desviación estándar de la variable clave del proceso)
indicado en la figura como una línea discontinua) se muestran junto a un eje x que
agrupa los datos de forma significativa. Este agrupamiento se hace a menudo para ciertos
intervalos de tiempo (aquí días en el campo), pero áreas geográficas, porciones de muestra o
los entrevistadores también podrían formar el eje x. Si la variación no muestra un
patrón típico y cae dentro de los límites de control, entonces la variación se dice
Machine Translated by Google
Higo. 18.5: Proporción de llamadas incompletas por días en campo. Datos de la encuesta de práctica del
Programa Conjunto en Metodología de Encuestas (JPSM) de 2011.
deberse a una causa común. Sin embargo, si hay desviaciones fuera de los límites de control
o si hay variación en un patrón típico, se dice que se debe a una causa especial.
El gráfico de Shewhart en la Fig. 18.5 muestra las proporciones de llamadas para cada
día en el campo. Los casos pueden recibir varias llamadas al día (por ejemplo, si la primera
llamada estaba ocupada). La mayoría de los días, la proporción de llamadas incompletas
supera con creces el 80 %. En el día cinco, el número de llamadas incompletas es
inusualmente bajo. El gráfico no juzga lo bueno o lo malo; sólo indica lo que es común y lo
que es inusual. En este caso, la variabilidad es muy alta porque se realizaron muy pocas
llamadas el día cinco. Muchos de ellos podrían haber sido citas concertadas previamente, lo
que provocó que el número de llamadas incompletas fuera inferior al límite esperado para el
tamaño de muestra dado. Pero también podría darse el caso de que una proporción
inusualmente baja de llamadas incompletas sea el resultado de un error de programación o
un problema tecnológico (por ejemplo, los casos se codifican erróneamente como completos),
un error del entrevistador o incluso una falsificación por parte de los entrevistadores. Entonces,
cuando los números son inusualmente buenos, es posible que sean demasiado buenos para
ser verdad y, de hecho, sean indicativos de algún tipo de problema subyacente.
Machine Translated by Google
Para un uso óptimo, las variables clave de entrada del proceso deben especificarse antes de
recopilación de datos, junto con umbrales establecidos. El trabajo de campo debe detenerse si
esas variables clave del proceso exceden los umbrales o en el lenguaje del proceso
control "salir de control". ¿Qué variables clave del proceso se monitorean en cualquier
determinada encuesta será una función de la propia encuesta y su diseño. Sin embargo,
se debe tener cuidado para seleccionar indicadores que sean significativos con respecto a
la calidad del resultado, y no solo aquellos que son fáciles de medir o fácilmente
disponibles (Morganstein y Marker 1997).
Anteriormente mostramos las tasas de contacto y respuesta en las Figs. 18.3 y 18.4. Estas
Las tasas son dos tasas de rendimiento importantes que la mayoría de las encuestas rastrean. Ya sea
se calculan durante la recopilación de datos o al final de los esfuerzos de recopilación de datos, los
indicadores de desempeño son herramientas importantes de control de calidad. los
La Asociación Estadounidense de Investigación de Opinión Pública (AAPOR) ha proporcionado
definiciones estándar para el cálculo o la estimación de dicho rendimiento
muchos de ellos relacionados con la especificación adecuada de las tasas de respuesta.
Mucho más amplios son los términos y tarifas especificados por la Documentación de Datos
Iniciativa (DDI), que está diseñado para documentar y administrar datos a través de
el ciclo de vida completo desde la especificación de las características del diseño de la encuesta hasta la encuesta
resultados y archivo (www.ddialliance.org). Es importante observar que
no todos los investigadores siguen las definiciones proporcionadas por AAPOR o DDI. En
consecuencia, es aconsejable comunicar un entendimiento común dentro de
el equipo del proyecto y es esencial utilizar términos estándar para comparar los resultados de las
encuestas. Muchas revistas requieren que se describan explícitamente las tasas de rendimiento y se
puede hacer referencia fácilmente al documento DDI o AAPOR en
informes de estudios y artículos de revistas. El capítulo 6 tiene definiciones y explicaciones .
para las cuatro tasas más comunes: tasa de ubicación, tasa de elegibilidad, cooperación
tasa y tasa de respuesta.
Las tarifas discutidas en el Cap. 6, en particular las tasas de respuesta, son objetivos de resultados
muy populares establecidos por los clientes. Sin embargo, no hay necesariamente un vínculo
entre las tasas de respuesta y el sesgo de falta de respuesta, que es el punto real de
preocupación para la mayoría de los clientes. Groves y Peytcheva (2008) revisan 59 estudios
metodológicos que fueron diseñados para estimar la magnitud de la falta de respuesta
sesgo en una variedad de estadísticas. Encontraron muy poca relación entre
tasa de respuesta y sesgo. Por lo tanto, si bien se solicitarán las tasas de respuesta, éstas
solo llevan una cantidad limitada de información sobre la calidad de la encuesta. En respuesta,
se han realizado intentos para desarrollar medidas alternativas que capturen información adicional
sobre la composición de la muestra de respuesta. Aquellos
las tasas también se pueden rastrear durante la recopilación de datos, dado que hay información
auxiliar disponible sobre los encuestados y los no encuestados.
Machine Translated by Google
Indicadores R
donde ˆÿi son las propensiones de respuesta individuales y ÿˆ¯ es la propensión de respuesta promedio
en todos los casos de muestra (Schouten y Cobben 2007; Bethlehem et al. 2011; Schouten et al.
2009).10 El indicador R usa la información disponible sobre ambos encuestados y no respondedores
para estimar las propensiones de respuesta, ya sea a través de modelos de regresión logística o árboles
de clasificación. Si todas las propensiones de respuesta fueran iguales, entonces los no respondedores
faltarían completamente al azar (MCAR) como se describe en la Secc. 13.5. Por lo tanto, cuanto mayor
es Rˆ(ÿ), más se apartan los datos de MCAR.
Indicadores de saldo
Similar en espíritu al indicador R es el indicador Q2 desarrollado por S¨arndal y Lundstr¨om (2008), que
se define como la varianza de las probabilidades de respuesta inversa pronosticadas. Los valores más
pequeños del indicador Q2 implican que puede haber más trabajo necesario en los ajustes de peso para
corregir el posible sesgo de falta de respuesta. En ambos casos, el potencial de sesgo por falta de
respuesta puede evaluarse solo para aquellas variables que están disponibles tanto para los encuestados
como para los no encuestados. Esta es una fuerte limitación de ambos enfoques.
A menudo, las variables que están disponibles tanto para los encuestados como para los no encuestados
no están fuertemente relacionadas con las variables de resultado de la encuesta (y esas son aquellas
en las que se teme el sesgo). Sin embargo, los indicadores R y otros indicadores de equilibrio se utilizan
para monitorear el grupo de encuestados entrantes. De manera similar al seguimiento de las tasas de
respuesta para los subgrupos (como se muestra en la Sección 18.3), esos indicadores pueden ayudar a
reasignar los esfuerzos de reclutamiento. Tenga en cuenta que los ajustes por falta de respuesta podrían
realizarse utilizando las mismas covariables utilizadas para estimar las propensiones de respuesta en
Rˆ(ÿ). Si estas covariables son buenos predictores de la respuesta y de las variables del análisis de la
encuesta, entonces el sesgo de falta de respuesta se puede reducir mediante la ponderación. Pero, quitando
10 En el caso de una varianza de muestreo desigual, esta ecuación cambia para reflejar los pesos
de diseño. Las ponderaciones muestrales no se incluyen en la estimación de los modelos de
propensión, pero se utilizan cuando se construye la varianza.
Machine Translated by Google
desequilibrio entre los encuestados y los no encuestados durante la recopilación de datos puede
reducir la variación en los pesos de ajuste de la falta de respuesta y disminuir
la carga de la ponderación para corregir el sesgo de falta de respuesta.
La Encuesta Nacional de Crecimiento Familiar utiliza el indicador de Fracción de Información
Faltante (FMI) para seguir el progreso del trabajo de campo. El FMI busca medir la incertidumbre
segura sobre los valores imputados para los elementos faltantes (Rubin 1987;
Little y Rubin 2002). No hemos cubierto los procedimientos de imputación en este
libro y, por lo tanto, no entrará en detalles sobre cómo se estima el FMI. Sin embargo,
se puede encontrar una explicación detallada del entorno de la encuesta en Wagner (2010).
A menudo se pasa por alto, pero es muy importante, el papel de los entrevistadores en las encuestas
personales y telefónicas, en particular con respecto a los indicadores discutidos en la sección anterior.
Además de realizar la encuesta en sí,
los entrevistadores juegan un papel importante en el reclutamiento y dentro del hogar
selección de encuestados. Muchas de las tasas de desempeño discutidas aquí varían significativamente
entre los entrevistadores. Para monitorear a los entrevistadores, por lo tanto, es útil
para calcular tasas de datos faltantes por entrevistador, varias estadísticas por entrevistador
como la duración promedio de la entrevista, el costo por entrevista, las tasas de conversión de rechazo,
nivel de esfuerzo del entrevistador, etc. En las encuestas cara a cara, los entrevistadores trabajan
a menudo sólo en una zona geográfica. Por lo tanto, la variación en las tasas de respuesta
podría deberse a la variación en las características de los encuestados o a la ubicación geográfica
agrupación, así como los entrevistadores. En las encuestas telefónicas, los casos generalmente se
asignan al azar a los entrevistadores y varios entrevistadores pueden tener
“tocó” un caso antes de que el demandado acepte participar. Sin embargo,
los pocos estudios que permitieron una separación de los efectos del entrevistador y los efectos
de otras fuentes muestran claramente el papel que juegan los entrevistadores tanto con respeto
al error de medición (O'Muircheartaigh y Campanelli 1998, Schnell y
Kreuter 2005) , así como la falta de respuesta (O'Muircheartaigh y Campanelli
1999, Durrant y Steele 2009, West y Olson 2010).
Los indicadores específicos del entrevistador pueden tomar varias formas y formas. Oeste
y Groves (2013) desarrollaron recientemente indicadores de puntuación del entrevistador ajustados
por propensión que tienen en cuenta la información de las covariables de los encuestados. Para
efectos de los entrevistadores en las respuestas de la encuesta, efectos de diseño específicos del entrevistador
pueden ser indicadores útiles (Kreuter et al. 2010). La Figura 18.6 muestra para 18 entrevistadores en
una encuesta CATI la contribución relativa de cada entrevistador a la
efecto de diseño general. Más específicamente, el coeficiente de correlación intraclase ÿ
se estima 18 veces, cada vez que se excluyen todas las entrevistas realizadas por un
de los entrevistadores. La línea horizontal en la Fig. 18.6 muestra el promedio de ÿ con
todos los entrevistadores. Hay dos valores atípicos en este gráfico. Al eliminar al entrevistador #3, ÿ
cayó de un promedio de 0.0130 a 0.009 (ID de entrevistador
marque los símbolos de la trama). Con una carga de trabajo promedio de 75 la muestra efectiva
tamaño en una encuesta de 1600 casos sería 816 sin el entrevistador #3 y solo
Machine Translated by Google
543
.014
18.5 Edición de datos
.012
40
21 25 23
.01 3930
12 4 2614 57
28 53
58999
56
entrevistador
estimado
casos
Rho
del
sin
#
.008
Higo. 18.6: Contribución del entrevistador a rho en la encuesta telefónica DEFECT, basada
sobre Kreuter (2002); los datos de la encuesta se describen en Schnell y Kreuter (2005).
11
1600/(1 + 0,09 ÿ (74)) = 208,88; y 1600/(1 + 0,0130 ÿ (74)) = 815,49
Machine Translated by Google
En el cap. 6 introdujimos códigos de disposición (ver Tabla 6.2) utilizados para calcular
o estimar las tasas de rendimiento. Si bien estos códigos parecen sencillos, en
práctica que a menudo no lo son. Se deben discutir dos puntos con un cliente: primero,
el mapeo de códigos de disposición detallados en una de las siete categorías y,
segundo, la jerarquía de los códigos de resultado para determinar un estado actual o final.
Cartografía
Cuando se asignan códigos de disposición específicos de la encuesta a los que se usan en las definiciones
de tasas estandarizadas, las asignaciones pueden diferir en función de las poblaciones objetivo. Por
ejemplo, algunos estudios excluyen a las personas institucionalizadas. De este modo,
una persona que está (temporalmente) institucionalizada sería clasificada en una encuesta como “otro no
entrevistado”, mientras que en la otra la misma persona sería
"no elegible." En segundo lugar, los investigadores pueden expresar diferentes preferencias sobre cómo
las asignaciones deben ser ejecutadas; esto es particularmente cierto para el uso de parcial
entrevistas Es importante abordar estos problemas con anticipación. Por ejemplo,
los códigos de disposición de muestra registrados para la Encuesta sobre el estado de las fuerzas de los
miembros del componente de la reserva (SOFReserves) de mayo de 2004, una encuesta realizada por
Centro de datos de mano de obra de defensa ( Centro de datos de mano de obra de defensa 2004) de
Reservistas Militares, se proporcionan en la Tabla 18.1. Si estos códigos de disposición son
también se utiliza para adaptar el reclutamiento de trabajo de campo durante la recopilación de datos, sería
Conviene diferenciar entre negativas y personal desplegado. Ambas cosas
de estos códigos se agrupan actualmente en una categoría de disposición: 8. Según la encuesta y el modo
de recopilación de datos, el número de disposición
los códigos pueden ser bastante grandes.
Es útil especificar con anticipación cómo se pueden agrupar los códigos de disposición
para calcular posteriormente las tasas de rendimiento del estudio. En la tarea de mapeo es importante
para capturar todos los resultados vistos en la encuesta. Por lo tanto, en algunos casos, las asignaciones
realizadas antes de la recopilación de datos deberán revisarse una vez que se obtengan los datos de campo.
están disponibles. Los estadísticos de la encuesta deben revisar el mapeo del código de disposición
para asegurarse de que se puedan realizar todas las asignaciones necesarias para la ponderación. Incluso
antes de la recopilación de datos, es importante que los supervisores y los recolectores de datos
comprender lo que se necesita más tarde para fines de ponderación. Una vez que se recopilan los datos,
la designación de un caso a un código de disposición específico puede cambiar dada la
cantidad de datos proporcionados por el encuestado (es decir, la clasificación en parte completa frente a la
clasificación de no encuestados) y la calidad de los datos
proporcionado (los datos se restablecen a faltantes después de fallar las verificaciones de edición/consistencia).
Machine Translated by Google
Tabla 18.1: Ejemplo de disposiciones para el estudio de reservas SOF de mayo de 2004
Disposición Descripción
código
Una
No elegible basado en verificación de personal actualizado
registros
2 No elegible: informe propio/de apoderado, fallecido, enfermo,
encarcelado, separado
3 Autoinforme de encuesta no elegible
4 Respuesta elegible completa
5 Respuesta elegible incompleta
8 Rechazado: rechazo, despliegue, otro rechazo
9 En blanco (cuestionario devuelto)
10 No entrega postal (PND)
11 Otro no respondedor
Jerarquía
Más difíciles y a menudo más importantes que las decisiones sobre el mapeo son
las decisiones relativas a la jerarquía de los códigos de resultado. Muchos casos de muestra
será contactado repetidamente a lo largo de la encuesta y los recolectores de datos difieren
en sus traducciones de códigos de estado de respuesta preliminar al resultado final del caso
códigos. Si se utiliza el código de estado más reciente para determinar el resultado final,
entonces la asignación es sencilla, aunque podría no reflejar adecuadamente
el caso. Por ejemplo, si se contactó exitosamente con una unidad de muestra al principio del
período de campo, pero los intentos de contacto posteriores no condujeron a una entrevista
y el intento de contacto final es sin contacto, algunos investigadores contarían
tal caso como una negativa, mientras que otros considerarían esto como una falta de contacto.
Las variaciones en cómo se toman las decisiones de codificación pueden hacer comparaciones entre
tasas de rendimiento de diferentes encuestas difícil. Si las decisiones se toman en base
en todo el historial de códigos de resultado, una codificación de prioridad puede ser muy útil.
Aquí uno debe estar de acuerdo con el cliente por adelantado sobre la jerarquía de los códigos.
Por ejemplo, si una unidad de muestra que tuvo un rechazo en su historial y no
se registra una conversión de rechazo exitosa, entonces este caso se clasificaría como un
rechazo incluso si el último código de resultado fue un no contacto. Una discusión detallada
sobre los efectos de varios códigos de resultados, en particular al comparar encuestas
entre países está dada por Blom (2008).
o porque han sido recogidos en la entrevista. El cotejo con el marco debe ser sencillo, aunque en
la práctica los archivos que salen del campo pueden no tener las variables de identificación
adecuadas que permitan un cotejo con el marco muestral. Si se planea hacer coincidir la
información del marco, la necesidad de estas variables debe comunicarse claramente a los
gerentes de campo. Si las variables utilizadas para la ponderación se basan en las respuestas de
los encuestados durante la entrevista, entonces, antes de la recopilación de datos, se debe tener
cuidado de que las preguntas formuladas en la encuesta coincidan con las de las encuestas
comparativas. Incluso para las variables demográficas, esto parece una tarea sencilla, pero a
menudo no lo es tanto.
Por ejemplo, las preguntas sobre raza/etnicidad en la Fig. 18,7 se incluyeron en el censo decenal
de EE. UU. de 2010.
Si una encuesta no pregunta por raza/etnicidad exactamente de la misma manera, la estimación
de la encuesta de, digamos, el número de hispanos en la población no será comparable con el
recuento del censo. En ese caso, calibrar las ponderaciones de la encuesta con los recuentos del
censo puede introducir un sesgo en lugar de reducirlo.
Antes de iniciar el proceso de ponderación, debe comprobar que se dispone de un archivo limpio
de variables de ponderación. Esto significa que las variables de ponderación no deben tener
códigos ilegales ni valores faltantes (o tenerlos imputados si es necesario); todos los códigos de
estrato y UPM utilizados en el muestreo deben indicarse claramente; los identificadores de dominio
deben estar presentes si se usaron diferentes tasas de muestreo para los dominios (p. ej.,
diferentes tasas de muestreo para diferentes grupos raciales y étnicos, diferentes grupos de edad);
y las variables que no se utilizan en el muestreo deben estar presentes si se planifican para
posestratificación u otros tipos de calibración. Al planificar los pasos de ponderación, se debe tener
cuidado de que las variables de ponderación se editen antes de cualquier edición de las variables
sustantivas del cuestionario, de modo que se pueda proceder a la ponderación.
Higo. 18.7: Preguntas sobre etnicidad y raza utilizadas en el censo decenal de 2010.
esta verificación para cada etapa del diseño de muestreo (PSU, SSU, etc.) y almacena
las probabilidades de selección en campos separados, al mismo tiempo que crea un
campo adicional con el producto de todos ellos. Si el diseño es un diseño autoponderado
para algunos subgrupos, debe verificar la igualdad de las probabilidades de selección
dentro de cada grupo. La Encuesta Nacional de Examen de Salud y Nutrición
(NHANES), por ejemplo, se auto pondera con respecto a los dominios de edad, género
y raza/etnicidad; la Encuesta de Consumo de Energía de Edificios Comerciales (CBECS,
por sus siglas en inglés) es auto ponderada dentro del tamaño del edificio y las
categorías de uso del edificio. En la práctica, a menudo será necesario permitir
excepciones. Se requiere una buena documentación de las probabilidades de selección
en las encuestas internacionales que tienen que asegurar la comparabilidad entre
países. El estudio del Programa para la Evaluación Internacional de Competencias de Adultos (PIAAC
Machine Translated by Google
Al verificar los pesos, es útil recordar que la cantidad de registros dentro de un archivo de entrada
que ingresa a cada paso debe ser igual a la cantidad de registros en el archivo de salida que sale
del paso más cualquier registro descartado. Asimismo, las sumas de los pesos entrantes y
salientes en cada paso deben cuadrar. Por ejemplo, la suma de las ponderaciones en el archivo
de entrada que tiene encuestados y no encuestados debe ser igual a la suma de las ponderaciones
de los encuestados en el archivo saliente después de que se hayan realizado ciertos tipos de
ajustes por falta de respuesta.
Comprobaciones estadísticas
Finalmente, la suma de los pesos debe ser una estimación del número de unidades en la población.
Por lo tanto, debe comparar la suma de los pesos con el recuento de la población externa. Le
sugerimos que haga esta verificación después de cada
12
Normas Técnicas y Directrices de PIAAC, Segundo Borrador presentado en la Reunión
ing of the National Project Managers, 23–27 de marzo de 2009, Barcelona, España.
Machine Translated by Google
paso de ponderación (véanse los capítulos 13 y 14): ponderación base, ajustes por elegibilidad
desconocida y ajustes por falta de respuesta. Si se utiliza la calibración, la estimación del total
de cada variable de calibración debe ser exactamente igual a su total de control y debe tener
un error estándar de 0, como vimos en el Cap. 14. Por ejemplo, si se utilizan postestratos de
grupos de edad en una encuesta de hogares, el número total estimado de personas en cada
grupo de edad debe ser igual al total de control de la población. Si se utiliza un método de
estimación de varianzas que tenga en cuenta adecuadamente la posestratificación, los EE del
número total estimado de personas en cada posestrato deberían ser 0.
• Los controles de calidad se realizarán después de cada paso del proceso de ponderación.
Los controles incluirán:
– Revisar la distribución de pesos en cada etapa para identificar cualquier valor faltante o
extremo.
– Calcular las frecuencias ponderadas de las características importantes de la encuesta
después de cada ajuste de ponderación para mostrar cómo cada ajuste afecta las
estimaciones de las variables clave de la encuesta. Además, las frecuencias ponderadas
se compararán con totales externos confiables.
– Revisar una lista aleatoria de registros en busca de anomalías.
– Producir la media, la mediana, el mínimo y el máximo y verificar el peso de cada réplica
de jackknife después de cada ajuste de peso.
– Después de producir las ponderaciones finales, generar errores estándar preliminares y
efectos de diseño en las variables de la encuesta como verificación de las ponderaciones
repetidas.
Aunque estos están destinados a PIAAC e incluyen algunos elementos específicamente para
los métodos utilizados en ese programa (p. ej., verificaciones de pesos repetidos), los pasos
generales se aplican a muchas encuestas.
Escribir buenas especificaciones ahorrará mucho trabajo más adelante, evitará ambigüedades
en los pasos que se deben completar y, al final, conducirá a proyectos mejor documentados.
En proyectos más pequeños, es tentador ni siquiera escribir especificaciones porque la misma
persona estaría escribiendo la especificación y el código de programación. No obstante, dar el
paso adicional de escribir especificaciones permite una comunicación efectiva con el equipo,
una buena documentación del trabajo y la realización de cambios posteriores.
Uno o más de estos pasos pueden merecer un número de tarea y un programa por separado,
según los detalles necesarios para un paso. Más adelante en la Fig. 18.11. (La ponderación incluye
una serie de otros pasos que siguen al bloque de continuación en la parte inferior del gráfico, pero
que no se muestran aquí). Las tareas particulares en el diagrama de flujo, como W0, W1 y WP0,
tienen sus propios memorandos de especificación. Las especificaciones para estas tareas se pueden
guardar en archivos cuyos nombres incluyen los números de tarea como se muestra en
Higo. 18.8.
Dentro de cada programa, se deben incluir comentarios para resaltar las subtareas y su propósito.
Del mismo modo, los programas necesitan comentarios para vincular diferentes operaciones con los
pasos de la especificación, como los sugeridos en el registro de notas del proyecto (Fig. 18.8). Los
números en los nombres de los archivos del programa se pueden usar para mantener los pasos en
secuencia (vea la última columna de la figura 18.8). Recomendamos crear y mantener archivos de
registro de salida de programas que incluyan encabezados de programa, como se ilustra en la Fig.
18.10, que indican la tarea del programa (y el archivo de registro principal correspondiente). Las
reglas generales sobre la documentación de los códigos de programación y la codificación efectiva
se pueden encontrar en Long (2009) y Kohler y Kreuter (2012).
Un proyecto de calidad requiere una documentación adecuada. Dicha documentación debe estar
bien organizada para que las decisiones se registren y se puedan rastrear más adelante. Si surgen
problemas, los proyectos bien documentados pueden abordarlos fácilmente. La documentación del
proyecto debe estar lista para la auditoría en cualquier momento. Al pensar en cómo estructurar su
documentación, podría ser útil desarrollar un sistema de documentación para uso externo y otro para
uso interno.
Machine Translated by Google
Documentación externa
Documentación Interna
La documentación interna suele ser mucho más detallada que la documentación externa.
Se incluyen memorandos de especificaciones junto con un diccionario de las
archivos que contienen notas y programas. Archivos intermedios que se crean
durante la creación del marco, la selección de la muestra, la recopilación de datos de campo
y el cálculo del peso serán parte de la documentación interna.
Machine Translated by Google
Apéndice A
Glosario de notación
Este apéndice recopila gran parte de la notación utilizada en los capítulos de este libro.
Se pueden encontrar descripciones más detalladas en los capítulos a los que se hace referencia a
continuación.
Notación general
SE ˆÿ = V ˆÿ = error estándar de ˆÿ
v ˆÿ = estimador de V ˆÿ
= estimador muestral de CV ˆÿ
2
varrel ˆÿ = cv ˆÿ = revarianza estimada de ˆÿ
Una Una
norte norte
norte
y¯s yo=1
= pd = iÿs yi n es un estimador de pU a partir de una muestra aleatoria simple de n elementos
variable auxiliar
Nns xjPi
(j=1,
de .la. .pendiente
,p); xˆ¯ÿj es
deelxjestimador
en una regresión
ÿ del total
dede
y en
xj ;todos
bj es los
un px
estimador
pags
j=1
ch = costo por elemento de todos los costos que varían con el número de muestra
elementos
U = universo de PSU
M = número de PSU en el universo
Ui = universo de elementos en PSU i
Ni = número de elementos en la población para PSU i
N= iÿU Ni = número total de elementos en la población
ÿi = probabilidad de selección de PSU i
ÿij = probabilidad de selección conjunta de las UPM i y j
m = número de PSU de muestra
ni = número de elementos de muestra en PSU i
s = conjunto de PSU de muestra
si = conjunto de elementos de muestra en PSU i
yik = variable de análisis para el elemento k en la PSU i
y¯U = media por elemento en la población
y¯Ui = media por elemento en la población en PSU i
tu = iÿU kÿUi yk = población total de una variable de análisis y
Machine Translated by Google
ti
t ˆÿ = = ÿ-estimador
yoÿs Pi de la población total de y donde t ˆi = (Ni/ni) kÿsi yk. El diseño de la muestra
iÿU
S2U1 = Mÿ1
U1 = varianza del estimador ÿ en una muestra de dos etapas en la que las UPM son
seleccionadas por srswor y las unidades dentro de las UPM de la muestra son seleccionadas por
espada
B2 = S2 ¯2
U1 t tu = Revarianza unitaria entre los totales de la
1
W2 =
Mi¯2U iÿU t S2U2i PSU = Revarianza dentro de la PSU entre los elementos
1 ˆi
t ˆpwr = = pwr
miÿs -estimador
pi de un total cuando las UPM se seleccionan con reemplazo; t ˆi = kÿsi yik
Ni
es el total estimado para la PSUnoi a partir de una muestra
probabilidad aleatoria
de selección de simple y pi
1 sorteo dees
la la
PSU i.
ÿ VPSU + VSSU .
Caso especial de la varianza de t ˆpwr cuando se seleccionan m PSU con reemplazo ment y ¯n
elementos se seleccionan por srswor en cada PSU:
V t ˆpwr = + 1- .
metro mn¯ Ni Pi
iÿU
Caso especial de la revarianza de t ˆpwr cuando las UPM se seleccionan con reemplazo ment, ¯n
elementos son seleccionados por srswor en cada UPM, y la fracción de muestreo dentro de la
UPM, ¯n/Ni, es insignificante:
V t ˆpwr t2 . B2 W2 B2 + W2 [1
= + min¯ =
+ ÿ (¯n ÿ 1)]
tu metro Minnesota
B2 = S2
2
U1 (alimentación) tu
toneladas
1 S2U2i
W2 = N2 Es
t2 Pi
U iÿU =
En un diseño en el que las UPM se seleccionan mediante ppswr y los elementos dentro de
las UPM se seleccionan mediante un muestreo aleatorio simple, la varianza del estimador
pwr es V t ˆpwr = VPSU + VSSU como se define en (A.1). Los estimadores de los
componentes de la varianza son
Vˆi
vSSU = 2
yoÿs
(ÿÿ ) Es
vPSU = ÿ t ˆpwr
metro (metro - 1)
yoÿs
Pi
yoÿs
(ÿÿ )
Es
N2 2
donde Vˆi = (1 ÿ fi) Sˆ2 Sˆ2 donde ÿÿ = mpi, = (ni ÿ 1) (yk ÿ y¯si) ,
yo ni 2i Es 2i kÿsi
y ¯ysi =
kÿsi yk ni.
Los estimadores de los componentes entre y dentro de la varianza en (A.2) para una muestra
ppswr/srs son
2
Bˆ2 = Una
t ˆiÿ ÿ
1ÿÿÿ Es
Vˆi 0 y
N2i Sˆ2i
W2 = 1 t ˆ2
poder yoÿs mp2 Es
la SSU t ˆiÿ =
Ni
t ˆij , el total estimado para PSU i suponiendo que las SSU son ni jÿsi
seleccionado por srs
M ni Qij
tÿ= miÿs ni jÿsi qij kÿsij yk = ÿ-estimador si se selecciona un srswor (u otro tipo de
muestra de igual probabilidad) en cada etapa. = varianza entre los totales de la PSU ( tij ÿ t ¯Ui)
= iÿU (tiÿt ¯U )2
S2U1 M-1
2
S2U2i = Una
t ¯Ui = jÿUi tij Ni es el promedio total por SSU en PSU i (yk ÿ y¯Uij )
2
S2 = Una
Relavarianza del estimador ÿ en el muestreo de tres etapas cuando cada etapa del
muestreo es srswor:
V (t ÿ) Mÿm M N2 ni-ni
= Una
S2U1 + Es
S2U2i +
t2tu t2U +M2 m METRO miÿU no Ni
METRO Ni Q2ij Qijÿqij
miÿU ni jÿUi qij Qij S2 U3ij, .
¯¯ ¯¯
V t ˆÿ Una Una METRO - metro Una n¯ - n¯ Una
q-q
= S2 +
Una
S22 + ¯¯ S23
t2tu ¯¯¯2
tu metro METRO mn¯ N¯ mn¯ q
años Q¯¯
¯¯
donde y ¯¯¯U = iÿU jÿUi kÿUij yk MN¯Q
2
S2 = (M ÿ 1)ÿ1 ; y ¯¯Ui = ti N¯Q¯¯ es la media por elemento
Una
U y ¯¯Ui ÿ y
¯¯¯U ment en PSU i
2
S22 = (¯yUij ÿ y ¯¯Ui) MN¯ ÿ 1
iÿU jÿUi
¯¯
y¯Uij = kÿUij yk Q es la media por elemento en SSU ij; y (yk ÿ y¯Uij ) kÿUij
2
S23 = MN¯ Q¯¯ ÿ 1
Otro caso especial de la revarianza cuando todas las etapas son seleccionadas por
srswor es
Machine Translated by Google
con B2 = S2 ¯¯¯2
y 1tu , W2 2 y tu , y W2
= S22¯¯¯2
3
= S23¯¯¯2
y tu
Cuando las fuentes de alimentación se seleccionan con reemplazo, el pwr -estimator de un total es: t ˆi 1 miÿs pi
t ˆpwr =
donde t ˆi es un estimador de diseño no sesgado del total para PSU i y pi es la probabilidad de
selección de 1 sorteo de PSU i.
Relvarianza del estimador pwr en una muestra de tres etapas en la que la primera etapa se
selecciona con probabilidades variables y con reemplazo y la segunda y tercera etapa se
seleccionan por srswor:
V (t ˆpwr) = Una
1 i + miÿU pini N2 ni-ni
t2tu t2 metro
Ni S2 U2i+
U /S2 U1 (alimentación)
Una
Ni Q2 Qijÿqij ij (A.3)
1 miÿU Pi ni jÿUi qij qij S2 U3ij,
ÿ
1 t2
{VPSU + VSSU + VTSU }
tu
2
S2
= ti - ÿ tU iÿU es
pi cuando
la varianza
se selecciona
unitaria apropiada
la primera
para
etapa
el estimador
con reemplazo
pwr
U1 (alimentación) pi
.
V (t ˆpwr) = B2 + W22 + Q¯¯ÿq ¯¯ W23
¯¯ es un caso especial del sam de tres etapas
t2tu metro Minnesota
Q¯¯ mn¯ q
Revarianza de muestreo en un diseño ppswr/srswor/srswor que supone que se muestrean ¯n SSU en cada PSU de muestra, las fracciones
S2 U2i pi y W2 U1(pwr)
2
tu ,
toneladas
= =
2 1 t2 iÿU Es 3
tu
Una
Ni
t2tu iÿU pi jÿUi Q2 ijS2
U3ij
.
V t ˆpwr t2 = V˜ ¯¯ {k1ÿ1n¯q ¯¯+ k2 [1 + ÿ2 (q ¯¯ÿ 1)]} , (A.4)
tu
mn¯q
donde
2
k1 = Vÿ1 Vÿ con Vÿ = (yk ÿ y¯U )Qÿ1 iÿU jÿUi kÿUij varianza Una
t2
tu
siendo el
unitaria de y en la población k2 = Vÿ2 Vÿ con Vÿ2 =
¯¯ ¯¯
W2 ÿ 1 W2 + Q B2ÿW2/Q¯ ÿ1 = 2eselementos
una medida
homogeneidad
de 3 de qlasdePSU
dentro
iÿU
Qi M es el número medio de elementos por PSU
Machine Translated by Google
= 2
W2 = Una
Q2 S2U3i pi con S2
Una
(yk ÿ y¯Ui) y
t2tu iÿU Es U3i Qiÿ1 jÿUi kÿUij
Una Una
Ni Q2yo qij ÿ qij
VTSU = S2
U3ij ,
metro
Pi no qij Qij
iÿU jÿUi
en (A.3) es
Una
N2 Es
vTSU = 2 Vˆ3ij .
(mpi) n2 Es
yoÿs jÿsi
Una N2 Ni ÿ ni
vSSU =
Es
Sˆ2
2i.
2
(mpi) no Ni
yoÿs
Caso especial de la revarianza del estimador pwr en el muestreo de tres etapas para el caso del mismo
número de SSU de muestra, ¯n, y el mismo número de elementos de muestra, q ¯¯, y elementos de
población, Q ¯¯, en cada SSU; se usa un fpc ad hoc en el componente de la segunda etapa, donde N¯
norte¯ - norte¯ norte¯ , es el número promedio de SSU por PSU:
¯¯
vt ˆpwr t Bˆ2 n¯ - n¯ Wˆ 22 Q¯¯ ÿ q Wˆ 2
3
= + + ¯¯,
ˆ2 metro NORTE mn¯ Q¯¯ mn¯ q
poder
,
poder
Wˆ 22 = 1 N2 yo
Sˆ2i, y
t ˆ2
iÿs mp2
poder Es
= 1 N2
1 mp2
Wˆ 2 Es
3 t ˆ2 + iÿs jÿsi
poder Es
no Q2 ijSˆ2 3ij, .
Wˆ 2 = Una
Q2 ijSÿ2 i
, dónde
t2 yoÿs
mp2
poder Es
ÿ1
2
T~2 = wk
Es
jÿsi kÿsij kÿsij wk yk ÿ y ˆ¯i jÿsi
y ˆ¯i = wk
jÿsi kÿsij wkyk jÿsi kÿsij
Wˆ 2 ÿWˆ 2
2 3 /Q¯¯
ˆÿ2 = con V ˆ˜2 = Wˆ 2 2 + Q¯¯ ÿ 1 Wˆ 2 3 Q¯¯
V ˆ˜2
C = C0 + C1m + C2mn¯ es una función de costo para el muestreo en dos etapas con
C0 = costos que no dependen del número de UPM y elementos de la muestra;
C1 = costo por muestra PSU; C2 = costo por elemento es una función de costo
¯¯
C = C0 + C1m + C2mn¯ + C3mn¯ q para el muestreo en tres etapas con C0, C1 definido como en el
muestreo en dos etapas; C2 es el costo por SSU; y C3 es el costo por elemento
Machine Translated by Google
d0i = ÿÿ1 Es
= peso base para la unidad i en una muestra de una sola etapa, calculado como
la inversa de la probabilidad de selección, ÿi. Si se utiliza la estratificación, una
el subíndice h se agrega para dar d0hi
d0ij = ÿÿ1 yo = peso base para el elemento j en el conglomerado i en una muestra de dos etapas
donde ÿij = ÿiÿj|i con
ÿi = probabilidad de selección del conglomerado i
ÿj|i = probabilidad de selección del elemento j dentro del grupo i
s = conjunto inicial de todas las unidades de muestra
ÿ d1ia2c i ÿ sc,ER,
,
d2i = ÿ d1i i ÿ SEN 0 i ÿ
ÿ HUNDIDO ÿ SENR,
ÿ
d0ia1ba2c i ÿ sb,KN ÿ sc,ER,
= d0ia1b i ÿ sb,KN ÿ sIN i ÿ hundido ,
ÿ
0 ÿ sENR,
ÿ
T
TˆyGREG = t ˆy + tx ÿ ˆtx B
= T ÿ1
1 + tx ÿ ˆtx XT DVÿ1X xi/vi bricolaje,
yoÿs
Machine Translated by Google
ÿ xT2
ÿ
X= ..
.
ÿÿÿÿ
xT norte ÿÿÿÿ es la matriz n × p de auxiliares para las n unidades de muestra
ÿ1 T
Bˆ = XT DVÿ1X XT DVÿ1y con y = (y1,...,yn) y's para siendo el vector de
las unidades de muestra V = diag (vi) es una matriz
diagonal n × n de valores asociados con los parámetros de varianza en un modelo lineal
subyacente
El peso GREG para el elemento i es
wi = digital
T ÿ1
ÿ di 1 + tx ÿ ˆtx XT DVÿ1X xi/vi .
2
Una Una
yo .
vy ˆ¯pwr = N2 norte (n ÿ 1) yoÿs ÿ t ˆpwr
Pi
ÿ1
y ˆ¯pwr = N iÿsh y hhi/phi
nÿ1 donde phi = probabilidad
h
de 1 sorteo de selección de PSU i en el estrato h
=
muestra en PSU
kÿshi
hi dk|hi
dk|hi=yhik
peso= total
para estimado
la unidad solo
k enpara
PSUunidades
hi que expande
en PSUlahi.
muestra
y hi shide
= conjunto
PSU a solo
de la
unidades
población
de
de esa PSU.
dk = dk|hi phi = peso completo para la unidad k en shi donde dk|hi a veces se denomina peso condicional dentro de la fuente de
alimentación para la unidad k. La fórmula de varianza de pwr para y ˆ¯pwr es
2
vy ˆ¯pwr =
Una
N2 h nh(nhÿ1) iÿsh
Una
hola _
ÿ t ˆpwr,h ,
fi
ˆ norte - 1
norte
2
vjt _ = , (A.5)
norte
t ˆ(i) ÿ t
yo=1
dónde
t ˆ(i) = kÿs(i) dk(i)yk = el total estimado para una variable y basado en la réplica
2
ˆÿ = nh ÿ 1
vJ ˆÿ(hola) ÿ ˆÿ
,
h
Nueva Hampshire
iÿsh
donde
sh = el conjunto de UPM de muestra en el estrato h
ˆÿ(hi) es la estimación de la réplica de hi que se encuentra al descartar todas las unidades de muestra en
PSU hola y reponderando las unidades de muestra restantes
El peso base ajustado para la unidad k cuando se elimina PSU hi es
BRR se utiliza principalmente en muestras de PSU, pero se aplica generalmente cuando la muestra
se estratifica y se seleccionan dos unidades de primera etapa en cada estrato. Suponga que el
una función
estimador de la muestra completa es ˆÿ = ft ˆ1,...,t ˆp , un vector de totales diferenciable
estimados. de
Las submuestras
duplicadas se forman mediante la identificación de medias muestras usando el método prescrito en la
Secc. 15.4.2. El estimador de varianza BRR estándar es
A
2
vBRR
ˆÿ = Aÿ1 ˆÿÿ ÿ ˆÿ ,
ÿ=1
dónde
ˆÿÿ = ft ˆ1ÿ,...,t ˆpÿ donde t ˆjÿ es el total estimado para la j-ésima variable
basado en las unidades en media muestra ÿ
A = número de repeticiones
Los pesos replicados para el BRR estándar son
El Fay BRR utiliza todas las unidades de la muestra para calcular estimaciones replicadas.
Los pesos de las unidades en réplicas son
donde 0 ÿ ÿ < 1.
Machine Translated by Google
El peso replicado para cada unidad de muestra k dentro de las UPM de la muestra inicial
(k ÿ shi) es
mh
m* hola
Nueva Hampshire
donde Bhi está definida por la última igualdad. Esto se calcula para las unidades de todas
las UPM de muestra, no solo para las de la muestra inicial.
El estimador de varianza bootstrap de Rao-Wu es
B
Una 2
vboot ˆÿ = ,
B ˆÿ(b) ÿ ˆÿ
b=1
Los diseños multifase se refieren a diseños de muestra en los que se utilizan dos o más fases para
seleccionar la muestra. Generalmente, la información se recopila sobre un conjunto inicial de unidades
(la primera fase) y se utiliza para seleccionar una submuestra de unidades para la siguiente fase (la
segunda fase). Este patrón se puede continuar en las fases posteriores. Los subíndices entre
paréntesis se utilizan para indicar las fases: n(1), n(1)R = número de unidades de muestra iniciales
seleccionadas en la fase 1 y el
numero que responde
n(2), n(2)R = número de unidades de muestra seleccionadas en la fase 2 y el número que responde
n(p)d = número de unidades de la fase p dada la condición de encuesta d. Una condición de
encuesta podría definirse por si se ofreció un incentivo y, de ser así, el monto del incentivo
Los pesos de análisis para los elementos de la fase 1 se pueden calcular si se recopilan datos de
ellos que se puedan analizar por separado. En ese caso, un peso de análisis, w(1)k, se puede
calcular como w(1)k = d(1)0ka(1)1ka(1)2kg(1)k = peso de análisis para un elemento en la fase 1
Después de recopilar los datos de los miembros de la muestra de la fase 2 que respondieron, se
puede construir la ponderación final incondicional del análisis de la fase 2 para los elementos en
s(2)R de la siguiente manera:
dónde
Considere el muestreo doble para el diseño de estratificación donde el diseño de la fase uno es un srs
de tamaño n(1) y una muestra aleatoria de segunda fase de tamaño n(2) = h=1 n(2)h se selecciona de
H
los recién identificados Estratos. La varianza del estimador de doble expansión es
s2
S2 (1) h
V t ˆ(2)y = N2 1 ÿ f(1) norte(1) + mi(1) Hh=1 w2(1)h 1 ÿ f(2) n (2) h
,
= V1 + V2
(A.7)
donde E(1) es la expectativa sobre el diseño de muestra de la fase 1 f(1) = n(1) N =
fracción de muestreo de la fase 1 f(2)h = n(2)h n(1)h = fracción de la fase 1 muestra
en el estrato h que es
muestreado para la fase 2
2
S2 = (N ÿ 1)ÿ1 s2 = n(1)h kÿU (yk= ÿ y¯U )
ÿ 1 (1)h = la varianza de la población (unidad) kÿs(1)h
ÿ1 2
varianza de lalas
entre unidad de lade
unidades fase 1
muestra de la fase 1 en el estrato
yˆ(1)k ÿ y ˆ¯(1)h
hy ˆ¯(1)h = nÿ1 k ÿs(1)h yˆ(1)k = media de ˆy(1)k = d(1)0k yk entre los elementos de la fase
1 Las estimaciones
(1) hora de los
soncomponentes de las varianzas asociadas con las fases 1 y 2 en (A.7)
1ÿf(1) H Una
n(1)ÿn(1)h
Vˆ1 = n(1) h=1 w(1)h 1 ÿ n(2)h s2 (2)h+
n(1)ÿ1
n(1) H 2
n(1)ÿ1 h=1 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2)
H
s2
(2) h
Vˆ2 = w2 1 ÿ f(2)h ,
(1)h
h=1 n(2)h
dónde
H
y ˆ¯(2) h= 1w(1)h
=y
H H
s2
Una
(2)h
vt ˆ(2)y ÿ= N2 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2) 2+ w2 .
(1)h
n(1) h=1 h=1 n(2)h
Machine Translated by Google
apéndice B
Conjuntos de datos
En este libro se utilizan varios conjuntos de datos como ejemplos. Este apéndice proporciona
una breve descripción de cada uno. Estos archivos de datos también se incluyen en el paquete
complementario de R, PracTools.
Dominioy1y2
hospital
Los datos del hospital provienen de la Encuesta Nacional de Alta Hospitalaria realizada por el
Centro Nacional de Estadísticas de Salud de EE. UU. La encuesta recopila las características
de los pacientes hospitalizados dados de alta de hospitales de corta estancia no federales en
los Estados Unidos. Esta población es de la encuesta de enero de 1968 y contiene observaciones
sobre 393 hospitales.
Descripción de variables
y Número de pacientes dados de alta por el hospital en
enero de 1968
X Número de camas de hospitalización en el hospital.
mano de obra
variable Descripción
h Estrato de racimos
hsub Sustrato (cada estrato contiene dos sustratos)
MDarea.pop
Un conjunto de datos de 403,997 personas basado en el censo estadounidense decenal de 2000 para Anne
Condado de Arundel en el estado de Maryland. Se generaron registros de personas
basado en conteos del censo de 2000. Los valores individuales para cada persona fueron
generado usando modelos. Los agrupamientos para formar las variables PSU y SSU fueron
hecho después de clasificar el archivo del censo por distrito y grupo de bloques dentro del distrito.
Machine Translated by Google
variable Descripción
fuente de alimentación
unidad primaria de muestreo; una agrupación de grupos de bloques (BLKGROUP)
que tiene unas 5.000 personas
SSU unidades de muestreo secundarias; una agrupación de grupos de bloques que tiene
unas 1.000 personas
TRACTO Un área geográfica definida por la Oficina del Censo. Tratados en general
tienen entre 1.500 y 8.000 personas pero tienen un rango mucho más amplio
en el condado de Anne Arundel
GRUPO BLK Grupo de bloques. Un área geográfica definida por la Oficina del Censo.
Los grupos de bloque generalmente tienen entre 600 y 3,000 personas.
Hispano Origen étnico hispano (1=hispano; 2=no hispano)
Género Género (1 = masculino; 2 = femenino)
Años Categoría de edad de 23 niveles:
1 = menos de 5 años
2 = 5–9 años
3 = 10–14 años
4 = 15–17 años
5 = 18–19 años
6 = 20 años
7 = 21 años
8 = 22–24 años
9 = 25–29 años
10 = 30–34 años
11 = 35–39 años
12 = 40–44 años
13 = 45–49 años
14 = 50–54 años
15 = 55–59 años
16 = 60–61 años
17 = 62–64 años
18 = 65–66 años
19 = 67–69 años
20 = 70–74 años
21 = 75–79 años
22 = 80–84 años
23 = 85 años y más
persona Contador para persona dentro de tramo/grupo de bloque/hispano/género/
combinación de edad
y1 variable continua artificial
y2 variable continua artificial
y3 variable continua artificial
ins.cov Cobertura médica:
0 = la persona no tiene cobertura de seguro médico
1 = la persona tiene cobertura de seguro médico
estancia.hosp Estancia hospitalaria durante la noche:
0 = la persona no pasó la noche en el hospital en la última
12 meses
1 = la persona pasó la noche en el hospital en los últimos 12 meses
Machine Translated by Google
nhis
La Encuesta Nacional de Entrevistas de Salud (NHIS, por sus siglas en inglés) se usa para monitorear las
condiciones de salud en los EE. UU. Los datos se recopilan a través de entrevistas personales en los hogares.
Solo las variables demográficas se incluyen en este subconjunto que se recopiló
en 2003. El conjunto de datos del nhis contiene observaciones de 3.911 personas. el archivo
contiene solo personas mayores de 18 años.
variable Descripción
IDENTIFICACIÓN variable de identificación
estrato Estrato de diseño de muestra (1–100)
fuente de alimentación Unidad primaria de muestreo, numerada dentro de cada estrato (1,2)
svywt peso de la encuesta
sexo Género (1 = masculino; 2 = femenino)
años Edad, continuo
edad r Edad recodificada:
3 = 18–24 años
4 = 25–44 años
5 = 45–64 años
6 = 65–69 años
7 = 70–74 años
8 = 75 años y más
hisp Etnia hispana:
1 = hispano
2 = no hispano
marital Estado civil:
1 = separados
2 = divorciado
3 = casado
4 = soltero/nunca casado
5 = ventana
9 = estado civil desconocido
padres Padre(s) de la persona de la muestra presente en la familia:
1 = madre, sin padre
2 = padre, sin madre
3 = madre y padre
4 = ni madre ni padre
padres r Padre(s) de la persona de la muestra presente en el registro familiar (1 = sí;
2 = no)
Machine Translated by Google
variable Descripción
educar Educación:
1 = 8vo grado o menos
2 = 9.º a 12.º grado, sin diploma de escuela secundaria
3 = graduado de secundaria
4 = destinatario del título de desarrollo de educación general (GED)
5 = algo de universidad, sin título
6 = título de asociado, técnico o vocacional
7 = título de asociado, programa académico
8 = licenciatura (BA, BS, AB, BBA)
9 = título de maestría, profesional o doctorado
educación Récord de educación:
1 = escuela secundaria, título de desarrollo de educación general (GED), o
menos
2 = algo de universidad
3 = licenciatura o título de asociado
4 = maestría y superior
la raza Raza (1 = Blanco; 2 = Negro; 3 = otro)
resp. Encuestado (0 = no encuestado; 1 = encuestado)
nhis.grande
La Encuesta Nacional de Entrevistas de Salud (NHIS, por sus siglas en inglés) se usa para monitorear las
condiciones de salud en los EE. UU. Los datos se recopilan a través de entrevistas personales en los hogares.
Las variables demográficas y algunas variables relacionadas con la salud se incluyen en este
subconjunto. El conjunto de datos nhis.large contiene observaciones sobre 21.588 personas.
nhis.large es un conjunto de 21.588 personas extraídas de la encuesta estadounidense de 2003. los
El archivo contiene solo personas mayores de 18 años.
Machine Translated by Google
variable Descripción
IDENTIFICACIÓN variable de identificación
estrato Estrato de diseño de muestra (1–100)
fuente Unidad primaria de muestreo, numerada dentro de cada estrato (1,2)
de alimentación peso de la encuesta
sexo Género (1 = masculino; 2 = femenino)
edad.grp Grupo de edad:
1 = < 18 años
2 = 18–24 años
3 = 25–44 años
4 = 45–64 años
5 = 65+
hisp Etnia hispana:
1 = hispano
2 = Blanco no hispano
3 = Negro no hispano
4 = no hispanos todos los demás grupos raciales
padres Padres presentes en el hogar:
1 = madre, padre o ambos presentes
2 = ninguno presente
educar Máximo nivel de estudios alcanzado:
1 = graduado de escuela secundaria, grado de equivalencia de posgrado menos
2 = algo de universidad
3 = licenciatura o título de asociado
4 = maestría o superior
NA = falta
la raza La raza:
1 = Blanco
2 = negro
3 = todos los demás grupos raciales
inc.grp Grupo de ingresos familiares:
1 = < $ 20K
2 = $20,000-$24,999
3 = $25,000-$34,999
4 = $35,000-$44,999
5 = $45,000-$54,999
6 = $55,000-$64,999
7 = $65,000-$74,999
8 = $75K+
NA = falta
retraso.med Atención médica retrasada en los últimos 12 meses debido al costo:
1 = sí;
2 = no;
NA = falta
estancia.hosp Pasó una noche en el hospital en los últimos 12 meses:
1 = sí;
2 = no;
NA = falta
Machine Translated by Google
variable Descripción
doc.visit Durante 2 semanas antes de la entrevista, ¿la persona vio a un médico u otro
profesional de la salud en un consultorio médico, una clínica, una emergencia
habitación, o algún otro lugar? (excluyendo la estadía nocturna en el hospital)?
1 = sí
2 = no
seguro de enfermedad Cubierto por medicaid, un programa de subsidio gubernamental para los
pobre:
1 = sí
2 = no
NA = falta
notcov No cubierto por ningún tipo de seguro médico
1 = Sí;
2 = No;
NA = falta
haciendo.lw ¿Qué estaba haciendo la persona la semana pasada?
1 = trabajo por pago en un trabajo o negocio
2 = con un trabajo o negocio pero no en el trabajo
3 = buscando trabajo
4 = trabajando, pero no por pago, en un trabajo o negocio
5 = no trabaja y no busca trabajo
NA = falta
limitado ¿Está la persona limitada de alguna manera en alguna actividad debido a
problemas físicos, mentales o emocionales?
1 = limitado de alguna manera
2 = no limitado de ninguna manera
NA = falta
smho.n874
variable Descripción
EXPTOTAL Gastos totales en 1998
CAMAS Camas hospitalarias totales
SENTIDO Recuento de clientes/pacientes no duplicados atendidos durante el año
EOYCNT Fin de año conteo de pacientes en el rol
ENCONTRAR Hospital recibe dinero de la agencia estatal de salud mental
(1=sí; 2=no)
hosp.tipo Tipo de hospital:
1 = psiquiátrico
2 = residencial o veteranos
3 = generales
4 = ambulatorio, atención parcial
5 = multiservicio, abuso de sustancias
smho98
El SMHO de 1998 fue realizado por el Departamento de Abuso de Sustancias y Salud Mental de EE.
Administración de Servicios de Salud. Recopiló datos sobre organizaciones de atención de salud
mental y hospitales generales que brindan servicios de atención de salud mental, con
un objetivo para desarrollar estimaciones a nivel nacional y estatal para el gasto total, el personal
equivalente a tiempo completo, el número de camas y el número total de casos por tipo de
organización.
variable Descripción
ESTRATO Estrato de diseño de muestra
1 = hospital psiquiátrico
2 = residencial
3 = hospital general
4 = veteranos militares
5 = atención parcial o ambulatorio
6 = multiservicio o abuso de sustancias
CAMAS Camas hospitalarias totales
EXPTOTAL Gastos totales en 1998
SENTIDO Recuento de clientes/pacientes no duplicados atendidos durante el año
EOYCNT Fin de año conteo de pacientes en el rol
IP Y Número de visitas de pacientes hospitalizados durante el año
OPCSFRST Número de pacientes ambulatorios en los roles el primer día del año de informe
Apéndice C
Funciones R utilizadas en este libro
R abarca un lenguaje estadístico y una interfaz gráfica de usuario completa (RGui) con
capacidades gráficas, de manipulación y análisis de datos. El software está disponible
gratuitamente para todos desde el sitio web de R, http://www.r-project.org/.
Documentación y Recursos
Una
http://cran.r-project.org/manuals.html.
Para obtener una nueva versión de R, acceda al sitio web y seleccione “Descargar,
Paquetes–CRAN” de la lista en el lado izquierdo de la pantalla. Selecciona un espejo
sitio cerca de usted y la versión de R más apropiada para su sistema informático
(por ejemplo, Windows). Seleccione los enlaces "base" y luego "descargar".
Paquetes R/Bibliotecas
Los usuarios de R han creado muchas funciones, examinadas por el R Core Team,
y puesto a disposición de todos en la comunidad R. Estas funciones escritas por el usuario
están organizados en paquetes también conocidos como bibliotecas. Algunos paquetes clave
utilizados en este libro se enumeran a continuación.
Las funciones dentro de la mayoría de los paquetes están disponibles para su uso solo después de que la biblioteca haya
se ha instalado desde un espejo CRAN seleccionado y se ha accedido durante una sesión R.
Para instalar un paquete externo no incluido con la instalación básica, elija
"Instalar paquete (s)" en el menú "Paquetes" dentro de RGui, seleccione un local
Espejo CRAN y luego elija uno o más paquetes de la lista resultante.
Algunas bibliotecas, como MASS, se cargan automáticamente cuando se inicia una sesión de R.
comienza Se accede a otros paquetes instalados mediante require o
las funciones de la biblioteca, por ejemplo, require(survey) o library(survey).
Machine Translated by Google
Actualización de R
El paquete base de R se actualiza ocasionalmente sin un cronograma establecido. Los usuarios deben
consulte regularmente el sitio web de R para ver una nueva versión del paquete base junto con
actualizaciones de los paquetes de funciones. La versión más reciente del software.
disponible para descargar aparece en la sección "Noticias" en la página web principal de R.
Para actualizar a la última versión, primero desinstale la versión actual de R de
su sistema y luego instale la última versión de R desde el sitio web. Nota
que a pesar de que el software ha sido desinstalado, la carpeta R que contiene
los paquetes de funciones descargados anteriormente aún permanecen.
Al igual que con el paquete base, los paquetes de funciones se actualizan periódicamente
para incluir nuevas funciones o mejoras a las funciones antiguas. Los paquetes de funciones
previamente descargados se actualizan usando update.packages()
función o seleccionando el nombre de archivo apropiado de los "Paquetes/Actualizar
Paquetes... “Lista RGui. Con una versión actualizada del paquete base, simplemente
copie los paquetes de funciones de la antigua carpeta R a la nueva carpeta antes de
ejecutando las actualizaciones.
(1) Ingresando el código línea por línea, presionando la tecla enter después de cada línea
entrada
(2) Copiando y pegando un conjunto completo de código desarrollado en un editor de texto
(3) Incluyendo un programa R completo usando la función source('''') expediente
nombre
Además, los programas R se pueden ejecutar en modo por lotes. Hay varios
editores de texto diseñados para trabajar de cerca con R—RWinEdt,2 Tinn-R,3
y RStudio4 son tres. R también viene con un editor incorporado que tiene menos
capacidades. RWinEdt es un paquete R que utiliza el editor WinEdt5, que
también es una opción popular para editar con el lenguaje de composición tipográfica LaTex6.
Estos editores especializados tienen varias características interesantes, incluido el resaltado de
emparejar paréntesis, corchetes y llaves; posibilidad de resaltar, copiar y
pegue el código R directamente en R Console; y acentuando R palabras reservadas, como
nombres de funciones y operadores.
2
http://cran.r-project.org/web/packages/RWinEdt/.
3 http://www.sciviews.org/Tinn-R/.
4
http://rstudio.org/.
5 http://www.winedt.com/.
6
http://miktex.org/ o http://www.latex-project.org/.
Machine Translated by Google
Las funciones desarrolladas por los autores para su uso con este libro de texto se detallan a
continuación en orden alfabético. Estas funciones están disponibles en la biblioteca PracTools
disponible para descargar en el sitio web del libro y en el sitio web principal de R.
Siguiendo el ejemplo de los archivos de ayuda de R, cada descripción a continuación contiene:
Se pueden encontrar más detalles para cada función en los archivos de ayuda de PracTools.
Otras funciones útiles se pueden encontrar en, por ejemplo, Valliant et al. (2000).
Descripción
Calcule los componentes de la varianza real para un diseño de muestra donde las unidades primarias
de muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño (pps) y los elementos
se seleccionan mediante un muestreo aleatorio simple (srs). La entrada es un marco de muestreo
completo.
Uso
BW2stagePPS(X, pp, psuID)
Argumentos
Valor
Objeto de lista con elementos:
B2 varianza real entre unidades de PSU
W2 varianza real dentro de la unidad de PSU
B2+W2 suma de estimaciones entre y dentro de la varianza delta correlación
intraclase estimada como B2/(B2 + W2)
Machine Translated by Google
Ejemplos
datos (MDarea.pop)
# Use las variables PSU y SSU para definir las pp.PSU de psu <-
table(MDarea.pop$PSU) / nrow(MDarea.pop) pp.SSU <- table(MDarea.pop$SSU) /
nrow(MDarea.pop)
Descripción
Estime los componentes de la varianza real para un diseño de muestra donde las unidades primarias de
muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño (pps) y los elementos se
seleccionan mediante un muestreo aleatorio simple (srs). La entrada es una muestra seleccionada de esta manera.
Uso
BW2stagePPSe(Ni, ni, X, psuID, w, m, pp)
Argumentos
w vector de pesos de muestra completos. Este vector debe ser tan largo como X.
El vector debe estar en el mismo orden que X. número
metro
de PSU de muestra vector de probabilidades de 1
páginas extracción para las PSU. Este vector debe ser tan largo como X. Cada elemento en una
PSU dada debe tener el mismo valor en pp. El vector debe estar en el mismo orden que X.
Valor
Ejemplos
Requerir (muestreo)
Requerir (reformar) datos # tiene una función que permite renombrar vars
(MDarea.pop)
Ni <- tabla(MDarea.pop$TRACTO) m <- 20
Descripción
Calcule los componentes de la varianza real para un diseño de muestra donde las unidades
primarias de muestreo (PSU) y los elementos se seleccionan mediante un muestreo aleatorio
simple (srs). La entrada es un marco de muestreo completo.
Uso
BW2stageSRS(X, psuID)
Argumentos
X vector de datos; longitud es el número de elementos en la población. psuID
vector de números de identificación de fuente de alimentación. Este vector debe tener la
longitud de X. Cada elemento de una PSU determinada debe tener el mismo
valor en psuID. Las fuentes de alimentación deben estar en el mismo orden que en X.
Valor
Objeto de lista con elementos: entre
B2 unidades de fuente de alimentación, unidad de
W2 unidad de unidad de fuente de alimentación,
Ejemplos
data(MDarea.pop) # las
fuentes de alimentación están definidas por la variable de
fuente de alimentación BW2stageSRS(abs(MDarea.pop$Hispanic-2),
psuID=MDarea.pop$PSU)
# fuentes de alimentación están definidas por la variable
SSU BW2stageSRS(abs(MDarea.pop$Hispanic-2),
psuID=MDarea.pop$SSU)
Descripción
Calcular los componentes de la varianza real para un diseño de muestra donde las unidades
de muestreo primarias (PSU) se seleccionan con probabilidades proporcionales al tamaño y
con reemplazo (ppswr) y las unidades de muestreo secundarias (SSU) y los elementos dentro
de las SSU se seleccionan mediante un muestreo aleatorio simple (srs) . La entrada es un
marco de muestreo completo.
Machine Translated by Google
Uso
BW3stagePPS(X, pp, psuID, ssuID)
Vector de datos
vector de probabilidades
de argumentos;
de 1longitud
extracción
es elpara
número
las PSU.
de elementos
Este vector
endebe
la población
ser tan largo
X ción.
como X y contendrá el mismo valor para las unidades que están en la
páginas misma fuente de alimentación. Las PSU deben estar en el mismo orden
que en X. psuID vector de números de identificación de PSU. Este vector
debe tener la longitud de X. Cada elemento de una PSU determinada debe
tener el mismo valor en psuID. Las PSU deben estar en el mismo orden
que en X. ssuID vector de números de identificación de SSU. Este vector debe tener la
longitud de X. Cada elemento de una SSU determinada debe tener el
mismo valor en ssuID. Las PSU y las SSU deben estar en el mismo orden
que en X. ssuID debe tener la forma psuID||(ssuID dentro de PSU).
Valor
Objeto de lista con elementos:
B Revarianza entre unidades de PSU
W Revarianza entre unidades de PSU calculada como si la muestra fuera de
dos etapas Revarianza de unidades entre los totales de SSU Revarianza de
W2 unidades entre elementos dentro de PSU/SSU delta1 Medida de homogeneidad
W3 entre elementos dentro de PSU delta2 Medida de homogeneidad entre
elementos dentro de SSU
Ejemplos
datos (MDarea.pop)
M <- length(unique(MDarea.pop$PSU)) # srs/srs/srs design
pp.PSU <- rep(1/M,M)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
# diseño ppswr/srs/srs
pp.PSU <- tabla(MDarea.pop$PSU) / nrow(MDarea.pop)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
Machine Translated by Google
Descripción
Estimar los componentes de la revarianza para un diseño muestral donde las unidades
primarias de muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño y
con reemplazo (ppswr) y unidades de muestreo secundarias (SSU) y elementos
dentro de las UME se seleccionan mediante muestreo aleatorio simple (srs). La entrada es un
muestra.
Uso
BW3stagePPSe(dat, v, Ni, Qi, Qij, m)
Argumentos
SSU, pesos ymarco
variable(s)
de datos
de análisis.
para elementos
El marcode
demuestra
datos debe
con identificadores de PSU y
Valor
Objeto de lista con elementos:
vpsu varianza estimada entre unidades de fuente de alimentación
Vssu varianza estimada de unidades de segunda etapa entre los totales de SSU
Vtsu varianza unitaria estimada de la tercera etapa
Machine Translated by Google
Ejemplos
Consulte el archivo de ayuda para BW3stagePPSe en el paquete PracTools para obtener una
ejemplo extendido.
clusterOpt2: calcule los tamaños de muestra óptimos para una muestra de dos etapas
Descripción
Calcule los tamaños de muestra que minimizan la varianza del pwr -estimator,
el estimador “p-expandido con reemplazo” desarrollado por Hansen y
Hurwitz (1943), de un total en una muestra bietápica.
Uso
clusOpt2(C1, C2, delta, unit.rv, CV0 = NULL, tot.cost =
NULO, cal.sw)
Argumentos
C1 costo unitario por unidad primaria de muestreo (PSU)
C2 costo unitario por elemento
delta medida de homogeneidad
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo
Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por elemento
delta medida de homogeneidad
Machine Translated by Google
Ejemplos
Descripción
Calcule el número óptimo de elementos de muestra por PSU para un conjunto fijo
de PSU.
Uso
Argumentos
C1 costo unitario por PSU
C2 costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta medida de homogeneidad
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo
Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por elemento
metro
número de PSU de muestra (fijas)
homogeneidad delta unidad de medida
relvariance o B2 +relvar unidad
W2 presupuesto
total para costos variables, C ÿ C0 presupuesto número
objetivo CV óptimo de elementos de muestra por PSU
norte
CV
Ejemplos
clusterOpt3: calcule los tamaños de muestra óptimos para una muestra de tres etapas
Descripción
Calcule los tamaños de muestra que minimizan la varianza del estimador pwr de un total en una
muestra de tres etapas. El estimador “p-expandido con reemplazo” (pwr) se analiza en Hansen
y Hurwitz (1943).
Uso
Argumentos
unit.cost vector con tres componentes para costos unitarios: C1 = costo
unitario por unidad primaria de muestreo (PSU)
C2 = costo unitario por unidades de muestreo secundarias (SSU)
C3 = costo unitario por elemento
delta1 medida de homogeneidad entre elementos dentro de las UPM medida de
homogeneidad entre elementos dentro de las SSU delta2
Machine Translated by Google
Objeto
de Lista de valores con
C1 elementos: costo
C2 unitario por PSU costo
C3 unitario por SSU costo
unitario por elemento delta1 medida de homogeneidad entre elementos
dentro de las PSU delta2 medida de homogeneidad entre elementos dentro
de las SSU unidad
para costos
unidadvariables
relvariance
m.opt
relvar
número
presupuesto
óptimo de
presupuesto
PSU de muestra
total
n.opt número óptimo de SSU de muestra por PSU q.opt número óptimo de
elementos de muestra por SSU CV
Ejemplos
Descripción
Calcule los tamaños de muestra que minimizan la varianza del estimador pwr de un total en
una muestra de tres etapas cuando la muestra de PSU es fija. El estimador “p expandido con
reemplazo” (pwr) se analiza en Hansen y Hurwitz (1943).
Machine Translated by Google
Uso
Argumentos
unit.cost 3-vector de costes unitarios:
C1 = costo unitario por PSU
C2 = costo unitario por SSU
C3 = costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta1 medida de homogeneidad entre elementos dentro de las UPM
delta2 medida de homogeneidad entre elementos dentro de SSU
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo
tot.cost presupuesto total para costos variables, incluidos los costos de PSU
cal.sw especifica el tipo de óptimo. 1 = encontrar m.opt óptimo para fijo
presupuesto total; 2 = encontrar m.opt óptimo para el objetivo CV0
Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por SSU
C3 costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta1 medida de homogeneidad entre elementos dentro
fuentes de alimentación
Ejemplos
delta1=0.01, delta2=0.05,
unidad.rv=1, CV0=0.05, cal.sw=2)
Descripción
Realiza una regresión de Y en un conjunto de covariables X donde VM (yi) = ÿ2ÿ y luego
realiza la regresión de los residuos al cuadrado en log(x) para estimar ÿ.
Uso
juego(X1, x1, y1, v1)
Argumentos
X1 matriz de predictores en el modelo lineal para y1
x1 vector de x para unidades individuales en la especificación asumida
de var(y)
y1 vector de variables dependientes para unidades individuales
v1 vector proporcional a var(y)
Valor
La estimación de ÿ.
Ejemplos
datos (hospital)
x <- hospital$x
y <- hospital$y
X <- cbind(raíz cuadrada(x), x)
juego(X1 = X, x1 = x, y1 = y, v1 = x)
Descripción
Calcula iterativamente la estimación de ÿ en un modelo con EM (yi) = xT Es ÿy
VM (yi) = ÿ2ÿ.
Machine Translated by Google
Uso
gammaFit(X, x, y, maxiter = 100, show.iter = FALSE, tol
= 0,001)
Argumentos
X matriz de predictores en el modelo lineal para y
X vector de x para unidades individuales en la especificación asumida de
var(y)
y vector de variables dependientes para unidades individuales
maxiter número máximo de iteraciones permitidas
show.iter ¿deberían imprimirse valores de ÿ de cada iteración? Verdad o
FALSO
tol tamaño de la diferencia relativa en ˆÿ entre iteraciones consecutivas
utilizadas para determinar la convergencia. El algoritmo termina
cuando la diferencia relativa es menor que tol
Valor
Objeto de lista con elementos:
g.hat estimación de ÿ cuando se detuvo el procedimiento iterativo
convergencia VERDADERO o FALSO dependiendo de si la convergencia fue
obtenido
pasos número de pasos utilizados por el algoritmo
Ejemplos
datos (hospital)
x <- hospital$x
y <- hospital$y
X <- cbind(raíz cuadrada(x), x)
ajustegamma(X = X, x = x, y = y, maxiter=100, tol=0.001)
nCont: calcule un tamaño de muestra aleatorio simple para una media estimada
Descripción
Calcule un tamaño de muestra aleatorio simple usando un coeficiente objetivo de
variación, CV0, o varianza objetivo, V0, para una media estimada.
Uso
Argumentos
CV0 valor objetivo del coeficiente de variación de ¯ys
V0 valor objetivo de la varianza de ¯ys unidad
S2 (población) varianza ybarU población
media de la variable objetivo número de unidades en
norte
una población finita
CVpop unidad (población) coeficiente de variación
Tamaño
Ejemplos
nCont(CV0=0.05, CVpop=2)
nCont(CV0=0.05, CVpop=2, N=500)
nCont(CV0=0.10/1.645, CVpop=1)
Descripción
Calcule un tamaño de muestra aleatorio simple para la diferencia de medias cuando las muestras
se superponen.
Uso
Argumentos
S2x varianza unitaria de la variable de análisis x en la muestra 1
S2yg varianza unitaria de la variable de análisis y en la muestra 2
proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alt correlación a nivel de unidad entre x e y
rho si la prueba debe ser de 1 cara o de 2 caras; los valores permitidos son
alt="una.cara" o alt="dos.caras".
del tamaño de la diferencia entre las medias a detectar
sig.level nivel de significación de la prueba de hipótesis
pow potencia deseada de la prueba
Valor
Objeto de lista con elementos:
n1 tamaño de la muestra en el grupo 1
n2 tamaño de la muestra en el grupo 2
S2x.S2y varianzas unitarias en los grupos 1 y 2
diferencia en los medios de grupo para ser detectado
gama
proporción delta de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
ro correlación a nivel de unidad entre variables de análisis en grupos
1y2
alternativa
tipo de prueba: unilateral o bilateral
sig.level nivel de significancia de la prueba
energía poder de la prueba
Ejemplos
nDep2sam(S2x=200, S2y=200,
g=0,75, r=1, rho=0,9,
alt="una.cara", del=5,
sig.level=0.05, pow=0.80)
nLogOdds: calcule el tamaño de muestra aleatoria simple para estimar una proporción
Descripción
Calcule el tamaño de la muestra aleatoria simple para estimar una proporción usando
la transformación log-odds.
Uso
nLogOdds(moe.sw, e, alpha=0.05, pU, N=Inf)
Machine Translated by Google
Argumentos
interruptor moe.sw para configurar el margen de error deseado (1 = medio ancho de CI en
la proporcion; 2 = CI medio ancho en una proporción dividida por
pu)
mi margen de error deseado
alfa 1 - (nivel de confianza)
pU proporción de la población
número de unidades en población finita
norte
Valor
tamaño de la muestra numérica
Ejemplos
nProp: calcule el tamaño de la muestra aleatoria simple (srs) para estimar una proporción
ción
Descripción
Calcule el tamaño de la muestra aleatoria simple para estimar una proporción basada
en diferentes requisitos de precisión.
Uso
nProp(CV0 = NULL, V0 = NULL, pU = NULL, N = Inf)
Argumentos
valor objetivo del coeficiente de variación del pro estimado
porción CV0
V0 valor objetivo de la varianza de la proporción estimada
PU proporción de la población
norte
número de unidades en una población finita
Valor
tamaño de la muestra numérica
Ejemplos
Descripción
Calcule un tamaño de muestra aleatorio simple para la diferencia de proporciones cuando
las muestras se superponen.
Uso
nProp2sam(px, py, pxy, g, r, alt, sig.level=0.05, pow=
0.80)
Argumentos
px proporción en el grupo 1
py proporción en el grupo 2
pxy proporción en la superposición tiene la característica en ambos
muestras
gramo proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alternativa si la prueba debe ser de 1 cara o de 2 caras; los valores permitidos son
alt="una.cara" o alt="dos.caras".
sig.level nivel de significación de la prueba de hipótesis
pow potencia deseada de la prueba
Valor
Objeto de lista con elementos:
n1 tamaño de la muestra en el grupo 1
n2 tamaño de la muestra en el grupo 2
px.py.pxy valores de entrada de los parámetros px, py, pxy
gama proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alternativa
tipo de prueba: unilateral o bilateral
sig.level nivel de significancia de la prueba
energía poder de la prueba
Ejemplos
nPropMoe: tamaño de muestra aleatoria simple (srs) para una proporción basada en el
margen de error
Descripción
Calcula un tamaño de muestra aleatorio simple basado en un margen de error especificado.
Uso
nPropMoe(moe.sw, e, alpha = 0.05, pU, N = Inf)
Argumentos
moe.sw modificador para establecer el margen de error deseado (1 = medio ancho de CI
en la proporción; 2 = medio ancho de CI en una proporción dividida por pU
margen de error deseado; ya sea e = z1ÿÿ/2 V (¯ ) ys) o e = z1ÿÿ/2 CV (¯ys)
mi
alfa 1 - (nivel de confianza) proporción de la población pU número de
unidades en una población finita N
Tamaño
Ejemplos
# tamaño de la muestra srs de modo que la mitad del ancho de un IC del 95 % sea 0,01 # la
población es grande y la proporción de la población es 0,04
nPropMoe(moe.sw=1, e=0.01, alfa=0.05, pU=0.04, N=Inf)
# tamaño de muestra de srswor para un rango de márgenes de error # definido como la
mitad del ancho de un 95\% IC nPropMoe(moe.sw=1, e=seq(0.01,0.08,0.01), alpha=0.05,
pU=0.5) # tamaño de la muestra de srswor para un rango de márgenes de error # definido como la
proporción en que la mitad del ancho de un # IC del 95% es de pU
Descripción
Calcule los valores óptimos del tamaño de muestra de la primera fase y la fracción de
muestreo de la segunda fase en una muestra de dos fases.
Machine Translated by Google
Uso
Argumentos
Ctot costo variable total
c1 costo por unidad en la fase 1
c2 costo por unidad en la fase 2
theta probabilidad de respuesta para cada unidad
CV0 coeficiente de variación objetivo para el total estimado o
significar
Valor
Objeto de lista con elementos:
asignación tipo de asignación: ya sea "fijo
costo" o "CV fijo"
"Costo variable total" costo total esperado: costo fijo
si type.sw="cost" o calculado
costo si type.sw="cv"
"Tasa de respuesta" tasa de respuesta de la primera fase
CV coeficiente de variación anticipado
(CV) si type.sw="cost" u target
CV si tipo.sw="cv"
v.optar fracción óptima de personas que no respondieron en
la primera fase para seleccionar para la segunda fase
hacer un seguimiento
Ejemplos
nWilson: calcule un tamaño de muestra aleatoria simple (srs) para estimar una proporción
Descripción
Calcular un tamaño de muestra aleatoria simple para estimar una proporción utilizando
el método de Wilson.
Uso
nWilson(moe.sw, alfa = 0.05, pU, e)
Argumentos
moe.sw interruptor para establecer el margen de error deseado (1 = CI medio
ancho en la proporción; 2 = CI medio ancho en una proporción
dividida por pU alfa 1 - (nivel de confianza) proporción de la
población pU margen de error deseado; ya sea el valor del ancho medio de CI
o el valor del ancho medio dividido por pU
mi
Tamaño
Ejemplos
# tamaño de la muestra srs utilizando el método de Wilson, de modo que el ancho medio # de un
IC del 95 % sea 0,01. La proporción de la población es 0,04 nWilson(moe.sw = 1, pU = 0,04, e =
0,01)
Descripción
Calcule las asignaciones proporcionales, de Neyman, con restricciones de costos y
con restricciones de varianza en una muestra aleatoria simple estratificada.
Machine Translated by Google
Uso
Argumentos
n.tot vector de tamaño de muestra
de población
total
Nhfijo
ciones
de tamaños
(Wh) desviaciones
de estrato de
estándar
población
de unidad
(Nh) o proporciones
de estrato (Sh),
de estrato
requerido a menos que alloc = costo "prop" costo variable total
Sh
Vector
numérico de valor de tamaños de muestra de estrato
Ejemplos
Descripción
Calcule una estimación de la varianza de una unidad de población a partir de una muestra compleja
con ponderaciones de encuesta.
Uso
wtdvar(x,w)
Machine Translated by Google
Argumentos x
vector de datos w
vector de pesos de la encuesta; debe tener la misma longitud que X
Ejemplos
Referencias
APOR (2011). Definiciones estándar: Disposiciones finales de códigos de casos y tasas de resultados
para encuestas, 7ª ed. tecnología rep., Asociación Estadounidense para la Investigación de la
Opinión Pública, Deerfield, IL, URL http://www.aapor.org/pdfs/standarddefs 4.pdf Abraham KG,
Maitland A., Bianchi SM (2006). Falta de respuesta en la Encuesta estadounidense sobre el uso del
tiempo: ¿Quién falta en los datos y cuánto importa?
Public Opinion Quarterly 70(5):676–703 Aitken
A., H¨orngren J., Jones N., Lewis D., Zilh˜ao MJ (2004). Manual sobre la mejora de la calidad mediante
el análisis de las variables del proceso. tecnología rep., Luxemburgo, URL http://
epp.eurostat.ec.europa.eu/portal/page/portal/quality/documents/
HANDBOOK%20ON%20IMPROVING%20QUALITY.pdf Armitage P., Berry G. (1987). Métodos
estadísticos en investigación médica, 2ª ed.
Blackwell, Oxford
Axinn WG, Link CF, Groves RM (2011). Diseño de encuestas receptivas, recopilación de datos
demográficos y modelos de comportamiento demográfico. Demografía 48(3):1127–1149 Bart J.,
Earnst S. (2002). Muestreo doble para estimar la densidad y las tendencias de la población
en pájaros El AuK 119(1):36–45
Bates D., Maechler M., Bolker B. (2012). lme4: modelos lineales de efectos mixtos usando S4
clases URL http://CRAN.R-project.org/package=lme4
Bell B., Mohadjer L., Montaquila J., Rizzo L. (1999). Creación de un marco de unidades de nueva
construcción para encuestas de hogares. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 306–310
Belén J., Cobben F., Schouten B. (2011). Manual de No Respuesta en Encuestas de Hogares. John
Wiley & Sons, Inc., Nueva Jersey Biemer P., Lyberg L. (2003). Introducción a la Calidad de la
Encuesta. John Wiley e hijos,
Inc., Nueva Jersey
Blasius J., Thiessen V. (2012). Evaluación de la calidad de los datos de la encuesta. SABIO PÚBLICO
cationes Ltd., Londres
Blom A. (2008). Medición de la falta de respuesta a nivel internacional. ISER Working Paper Series
URL http://ideas.repec.org/p/ese/iserwp/2008-41.html, no. 2008–41 Breiman L., Friedman J., Stone
C., Olshen R. (1993). Clasificación y regresión
Árboles. Chapman & Hall, Londres
Breivik H., Cherny N., Collett B., de Conno F., Filbet M., Foubert AJ, Cohen R., Dow L. (2009). Dolor
relacionado con el cáncer: una encuesta paneuropea de prevalencia, tratamiento y actitudes de los
pacientes. Anales de oncología 20 (8): 1420–1433
Brick JM, Waksberg J., Kulp D., Starer A. (1995). Sesgo en el teléfono asistido por lista
muestras Opinión Pública Trimestral 59(2):218–235
606 Referencias
Brown L., Cai T., Das Gupta A. (2001). Estimación de intervalos para una proporción binomial.
Ciencia Estadística 16:101–133
Oficina de Estadísticas Laborales (2006). Datos de Hogares (Tablas A, mensuales: Tablas D, trimestrales).
Empleo y Ganancias. URL http://www.bls.gov/cps/eetech métodos. pdf
Centro para el Control y la Prevención de Enfermedades (2009). Encuesta Nacional de Examen de Salud
y Nutrición: URL del contenido de la encuesta de 1999–2010 www.cdc.gov/nchs/data/ nhanes/survey
content 99 10.pdf
Chromy JR (1979). Métodos de selección secuencial de muestras. En: Actas de la Sección de Métodos de
Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 401–406 Chromy JR,
Myers LE (2001). Modelos de varianza aplicables a la NHSDA. En: Actas de la Sección de Métodos de
Investigación de Encuestas, Asociación Estadounidense de Estadística
Cochran W. (1968). La eficacia del ajuste por subclasificación para eliminar el sesgo en los estudios
observacionales. Biometría 24:295–313
Cochran W. (1977). Técnicas de muestreo. John Wiley & Sons, Inc., Nueva York Cohen J. (1988).
El análisis del poder estadístico para las ciencias de la conducta. Lorenzo
Erlbaum Associates, Nueva Jersey
Cook RD, Weisberg S. (1982). Residuos e influencia en la regresión. Chapman & Hall Ltd, Consejo de
Londres de la Unión Europea (1998). Reglamento del Consejo (ec) no. 577/98 sobre la organización de
una encuesta de fuerza de trabajo en la comunidad. Diario Oficial de las Comunidades Europeas Consejo
de la Unión Europea (2003). Reglamento del Consejo (ec) no. 1177/2003 sobre estadísticas comunitarias
sobre ingresos y condiciones de vida. Diario Oficial de las Comunidades Europeas Crawley M. (2007).
El libro R. John Wiley & Sons, Chichester Reino Unido Czajka J., Hirabayashi S., Little RJA, Rubin DB
(1992). Proyectar a partir de datos avanzados utilizando modelos de propiedad: una aplicación a las
estadísticas de ingresos e impuestos. Revista de Estadísticas Comerciales y Económicas 10:117–131
D'Agostino RB (1998). Métodos de puntaje de propensión para la reducción del sesgo para la comparación
de un tratamiento con un grupo de control no aleatorio. Estadísticas en Medicina 17:2265–2281
Referencias 607
DeMeyer A., Loch CH, Pick MT (2002). Gestión de la incertidumbre del proyecto: de la variación al caos.
MIT Sloan Management Review 30: 60–67
Deming WE (1982). Fuera de la Crisis. Prensa de la Universidad de Cambridge, Cambridge Dever
JA, Valliant R. (2010). Una comparación de estimadores de varianza para poststratifi
cación a los totales de control estimados. Metodología de la encuesta 36:45–56
Deville JC, S¨arndal C. (1992). Estimadores de calibración en el muestreo de encuestas. Diario
de la Asociación Estadounidense de Estadística 87(418):376–382
Dillman DA, Smyth JD, Christian LM (2009). Encuestas por Internet, correo y modo mixto: el método de
diseño personalizado. John Wiley & Sons, Inc., Hoboken, NJ Dippo CS, Fay RE, Morganstein DR
(1984). Cálculo de varianzas de muestras complejas con pesos repetidos. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 489–494
Durrant GB, Steele F. (2009). Modelado multinivel de rechazo y no contacto en encuestas de hogares:
Evidencia de seis encuestas del gobierno del Reino Unido. Revista de la Royal Statistical Society, Serie
A 172 (2): 361–381
Eckman S. (2010). Errores en el Listado de Unidades de Vivienda y sus Efectos en las Estimaciones de
la Encuesta. Universidad de Maryland, College Park MD, URL http://drum.lib.umd.edu// handle/
1903/10302 Eckman S., Kreuter F. (2011). Sesgo de confirmación en la cotización de viviendas.
Opinión Pública
ión trimestral 75 (1): 139–150
Eckman S., O'Muircheartaigh C. (2011). Rendimiento del intervalo semiabierto perdido
procedimiento de unidad de vivienda. Métodos de investigación de encuestas 5(3):125–131
Efron B. (1982). El Jackknife, el Bootstrap y otros planes de remuestreo. SIAM
[Sociedad de Matemáticas Industriales y Aplicadas], Filadelfia
Efron B., Tibshirani R. (1998). Una introducción al Bootstrap. Prensa CRC LLC,
Boca Ratón FL
Ezzati-Rice T., Rohde F., Greenblatt J. (2008). Diseño de la muestra del componente de hogares de la
encuesta de panel de gastos médicos, 1998–2007. tecnología Reps. Informe Metodológico No. 22,
Agencia para la Investigación y la Calidad de la Atención Médica Fay RE (1984). Algunas propiedades
de las estimaciones de la varianza basadas en el método de replicación ods. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 495–500
Folsom RE, Singh AC (2000). El modelo exponencial generalizado para la calibración del peso del
muestreo para valores extremos, falta de respuesta y posestratificación. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 598–603
Folsom RE, Potter FJ, Williams SR (1987). Notas sobre una medida de tamaño compuesto para
muestras autoponderadas en múltiples dominios. En: Actas de la Sección de Métodos de Investigación
de Encuestas, Asociación Estadounidense de Estadística, págs. 792–796
Francisco C., Fuller WA (1991). Estimación de cuantiles con un diseño de encuesta complejo.
Anales de estadísticas 19: 454–469
Freund R. (1994). Profesor George Dantzig: el fundador de la programación lineal cumple 80 años.
Noticias SIAM
Fuller WA (1998). Estimación de la varianza de replicación para muestras de dos fases. Statistica Sínica
8: 1153–1164
Gabler S., Haeder S., Lahiri P. (1999). Una justificación basada en modelos de la fórmula de Kish para
efectos de diseño para ponderación y agrupación. Metodología de la encuesta 25(1):105–106
Gambino JG (2005). pps: Funciones para muestreo PPS. URL http://CRAN.
R-project.org/paquete=pps
Gelman A., Carlin J., Stern H., Rubin DB (1995). Análisis de los datos. Chapman &
Hall/CRC., Boca Ratón FL
Vicepresidente de Godambe, Joshi VM (1965). Admisibilidad y estimación de Bayes en el muestreo de
poblaciones finitas - I. Annals of Mathematical Statistics 36: 1707–1723
Machine Translated by Google
608 Referencias
Groves RM (1989). Errores de encuesta y costos de encuesta. John Wiley & Sons, Inc., Nueva
york
Arboledas RM (2006). Tasas de falta de respuesta y sesgo de falta de respuesta en las encuestas de hogares.
Public Opinion Quarterly 70(5):646–675 Groves RM,
Heeringa SG (2006). Diseño receptivo para encuestas de hogares: herramientas para controlar activamente
los errores y costos de las encuestas. Revista de la Royal Statistical Society, Serie A: Estadísticas en la
sociedad 169(3):439–457 Groves RM, Peytcheva E. (2008). El impacto de las tasas de falta de respuesta
en la falta de respuesta
parcialidad. Opinión pública trimestral 72: 167–189
Groves RM, Fowler F., Couper M., Lepkowski J., Singer E., Tourangeau R. (2004).
Metodología de la Encuesta. John Wiley & Sons, Inc., Nueva York
Hansen MH, Hurwitz WH (1943). Sobre la teoría del muestreo de poblaciones finitas. Annals of Mathematical
Statistics 41:517–529 Hansen MH, Tepping BJ (1990). Estimaciones de regresión en programas federales
de control de calidad del bienestar (C/R: P864-873). Revista de la Asociación Estadounidense de Estadística
85: 856–864
Hansen MH, Hurwitz WH, Madow WG (1953a). Sample Survey Methods and Theory, volumen I. John Wiley &
Sons, Inc., Nueva York Hansen MH, Hurwitz WH, Madow WG (1953b). Métodos de encuesta de muestra y
Teoría, Volumen II. John Wiley & Sons, Inc., Nueva York
Hansen MH, Madow WG, Tepping BJ (1983). Una evaluación de las inferencias de muestreo probabilísticas y
dependientes del modelo en encuestas por muestreo. Revista de la Asociación Estadounidense de
Estadística 78: 776–793
Harder V., Stuart E., Anthony J. (2010). Técnicas de puntaje de propensión y la evaluación del balance de
covariables medido para probar asociaciones causales en la investigación psicológica. Métodos psicológicos
15(3):234–249
Hartley HO, Rao JNK (1962). Muestreo con probabilidades desiguales y con reemplazo. Annals of Mathematical
Statistics 33(2):350–374 Hedges LV, Olkin I. (1985). Métodos estadísticos para metanálisis. prensa
academica,
orlando
Heiberger RM, Neuwirth E. (2009) R a través de Excel: una interfaz de hoja de cálculo para estadísticas,
análisis de datos y gráficos. Springer, Nueva York Henry KA (2011). Métodos de ajuste de peso y su
impacto en la inferencia basada en muestras. Tesis de doctorado, College Park MD, URL http://drum.lib.umd.edu/
handle/ 1903/12278
Herzog TN, Scheuren FJ, Winkler WE (2007). Calidad de datos y vinculación de registros.
Springer, Nueva York
Hidiroglou, MA (2001). Muestreo doble. Survey Methodology, 27, 143–154 Højsgaard S., Halekoh U.
(2012). doBy: doBy: estadísticas de resumen por grupos, contrastes lineales generales, medias de población
(medias de mínimos cuadrados) y otras utilidades. URL http://CRAN.R-project.org/package=doBy,
(contribuciones de J. Robison-Cox, K. Wright, A. A. Leidi)
Hunter SR, Bowman KR, Chromy JR (2005). Resultados del análisis de componentes de la varianza de la
asignación de la muestra por edad en la Encuesta Nacional sobre Consumo de Drogas y Salud.
En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de
Estadística, págs. 3132–3136 Iannacchione VG (2011). Síntesis de la investigación: El papel cambiante
del muestreo basado en direcciones en las encuestas. Opinión pública trimestral 75 (3): 556–576
Machine Translated by Google
Referencias 609
Iannacchione VG, Staab JM, Redden DT (2003). Evaluación del uso de listas de correo
residenciales en una encuesta de hogares metropolitanos. Opinión Pública Trimestral 67(2):202–
210
Iannacchione VG, Dever JA, Bann CM, Considine KA, Creel D., Carson CP, Best HL, Haley RW
(2011). Validación de una definición de caso de investigación de la enfermedad de la Guerra
del Golfo en la población militar estadounidense de 1991. Neuroepidemiología 37(2):129–140
Ingels SJ, Pratt DJ, Herget D., Dever JA, Ottem R., Rogers J., Jin Y., Leinwand S. (2011).
Documentación del archivo de datos del año base del estudio longitudinal de la escuela
secundaria de 2009 (HSLS:09) (NCES 2011-328). tecnología rep., Centro Nacional de
Estadísticas Educativas, Instituto de Ciencias de la Educación, Departamento de Educación de
EE. UU., Washington DC
Servicio de Impuestos Internos (2004). Boletín de Rentas Internas: 2004–20, Gastos de Comidas
y Entretenimiento. URL http://www.irs.gov/irb/2007-23 IRB/ar10.html Servicio de Impuestos
Internos (2007). Guía de Técnicas de Auditoría de Segregación de Costos. URL http://www.irs.gov/
Businesses/Cost-Segregation-Audit-Techn iques-Guide---Table-of-Contents
Isaki CT, Fuller WA (1982). Diseño de encuestas bajo el modelo de superpoblación de regresión.
Revista de la Asociación Estadounidense de Estadística 77(377):89–96 Isaki CT, Tsay JH,
Fuller WA (2004). Datos de la muestra de ponderación sujetos a independientes
controles de abolladuras. Metodología de la encuesta 30(1):35–44
Jans M., Sirkis R., Morgan D. (2013). Gestión de indicadores de calidad de datos con herramientas
estadísticas de control de calidad basadas en paradatos. En: Kreuter F. (ed) Mejorando las
encuestas con Paradata: haciendo uso de la información del proceso, John Wiley & Sons, Inc.,
New York Jovanovic BD, Levy PS (1997). Una mirada a la regla de tres. Las estadísticas americanas
Ticiano 51:137–139
Judkins D. (1990). Método de estimación de la varianza de Fay. Diario de Estadísticas Oficiales
6:223–239
Judkins D., Van de Kerckhove W. (2003). Optimización RECS 2005. preparado para nosotros
Departamento de Energía, no. 16.3, Tarea 98-010, número de contrato: De-ac01-96e123968.
tecnología representante, Westat, Rockville MD
Judkins D., Hao H., Barrett B., Adhikari P. (2005). Modelado y pulido de la propensión a la falta de
respuesta. En: Proceedings of the Survey Research Methods Section, American Statistical
Association, pp 3159–3166
Kalton G. (1993). Muestreo de poblaciones raras y escurridizas. tecnología Reps. INT-92-P80-16E,
Departamento de Información Económica y Social y Análisis de Políticas, Naciones Unidas
610 Referencias
Kim JK, Yu CL (2011). Estimación de la varianza de la replicación bajo muestreo en dos fases.
Metodología de la encuesta 37(1):67–74
Kim JK, Navarro A., Fuller WA (2006). Estimación de la varianza de la replicación para un muestreo
estratificado en dos fases. Revista de la Asociación Estadounidense de Estadística 101(473):312–320
Kirgis N., Lepkowski J. (2010). Un modelo de gestión para la recolección continua de datos: Reflexiones
de la Encuesta Nacional de Crecimiento Familiar, 2006-2010. Documento NSFG n.° 10–011 URL http://
www.psc.isr.umich.edu/pubs/pdf/ng10-011.pdf
Kish L. (1965). Muestreo de encuestas. John Wiley & Sons, Inc., Nueva York Kish L.
(1987a). Diseño Estadístico para la Investigación. John Wiley & Sons, Inc., Nueva York Kish L. (1987b).
Ponderación en destreza. El estadístico de encuestas Kish L. (1992). Ponderación para pi desigual. Revista
de Estadísticas Oficiales 8(2):183–200 Kohler U. (2007). Encuestas desde adentro: una evaluación del
sesgo de falta de respuesta de la unidad con criterios internos. Métodos de investigación de encuestas
1(2):55–67 Kohler U., Kreuter F. (2012). Análisis de datos usando Stata, 3ra ed. StataPress, Universidad
Estación TX
Korn EL (1986). Tablas de tamaño de muestra para acotar proporciones pequeñas. Biometría
42:213–216
Korn EL., Graubard BI (1998). Intervalos de confianza para proporciones con un pequeño número esperado
de recuentos positivos estimados a partir de datos de encuestas. Metodología de la encuesta 24:193–201
Korn EL, Graubard BI (1999). Análisis de Encuestas de Salud. John Wiley e hijos,
Nueva York
Korn EL, Graubard BI (2003). Estimación de los componentes de la varianza mediante el uso de datos de
encuestas. Revista de la Royal Statistical Society, Serie B: Metodología estadística 65(1):175–190
Kostanich D., Dippo CS (2002). Encuesta de Población Actual: Diseño y metodología (documento técnico
63RV). tecnología rep., Oficina del Censo y Oficina de Estadísticas Laborales, Washington, DC
Referencias 611
Krewski D., Rao JNK (1981). Inferencia a partir de muestras estratificadas: propiedades de los métodos de
linealización, jackknife y replicación repetida equilibrada. Annals of Statistics 9:1010–1019 Lange K. (2004).
Mejoramiento. Springer, Nueva York Lee H., Kim JK (2002). Estimación de la varianza de Jackknife para
muestras de dos fases con fracciones de muestreo altas. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 2024–2028
Li J., Valliant R. (2009). Encuesta de matriz de sombreros ponderados y apalancamientos. Método de encuesta
ología 35:15–24
Li J., Valliant R. (2011). Diagnóstico de regresión lineal para datos de encuestas no agrupadas.
Revista de Estadísticas Oficiales 27:99–119 Liao D.,
Valliant R. (2012a). Índices de condición y descomposiciones de varianza para diagnosticar la colinealidad en el
análisis de modelos lineales de datos topográficos. Metodología de la encuesta 38:53–62
Liu J., Iannacchione VG, Byron M. (2002). Descomposición de los efectos del diseño para el muestreo estratificado.
En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística,
págs. 2124–2126 Lohr SL (1999). Muestreo: Diseño y Análisis. Prensa de Duxbury, Pacific Grove CA Long JS
(2009). El flujo de trabajo del análisis de datos usando Stata. StataPress, Universidad
Estación TX
Lu W., Brick JM, Sitter R. (2006). Algoritmos para la construcción de jackknife agrupados en estratos combinados y
replicaciones repetidas balanceadas con dominios. Revista de la Asociación Estadounidense de Estadística 101:
1680–1692
Lumley T. (2010). Encuestas Complejas. John Wiley & Sons, Inc., Nueva York Lumley T. (2012).
encuesta: análisis de muestras de encuestas complejas. URL http://CRAN.
R-project.org/package=encuesta
Lyberg L., Biemer P., Collins M., de Leeuw E., Dippo CS, Schwarz N., Trewin D.
(1997). Encuesta de Medición y Calidad de Procesos. John Wiley & Sons, Inc., Nueva York
Machine Translated by Google
612 Referencias
Madsen K., Nielsen HB, Tingleff O. (2004). Optimización con restricciones. tecnología rep., Universidad
Técnica de Dinamarca, URL http://www2.imm.dtu.dk/pubdb/views/edoc download.php/4213/pdf/
imm4213.pdf , 2ª ed. Manitz J. (2012). Samplingbook: Procedimientos de muestreo de encuestas.
URL http://CRAN.
R-project.org/package=libro de muestras, (contribuciones de M. Hempelmann, G.
Kauermann, H. Kuechenhoff, S. Shao, C. Oberhauser, N. Westerheide, M. Wiesen farth)
Matsuo H., Billiet J., Loosveldt G., Berglund F., Kleven Ø. (2010). Medición y ajuste del sesgo de falta
de respuesta basado en encuestas de falta de respuesta: el caso de Bélgica y Noruega en la Ronda
3 de la Encuesta Social Europea. Survey Research Methods 4:165–178 McCarthy PJ (1969).
Pseudo-replicación: Medias muestras. Revista de la Internacional
Morton K., Chromy JR, Hunter SR, Martin P. (2006). Informe de diseño de muestra de la Encuesta
Nacional sobre Consumo de Drogas y Salud 2005. tecnología Reps. Preparado bajo el contrato no.
283-2004-00022 por Research Triangle Institute, Administración de Servicios de Salud Mental y
Abuso de Sustancias.
Muller G. (2011). Seguimiento del trabajo de campo en pase. tecnología rep., Institut f¨ur Arbeitsmarkt
und Berufsforschung, URL http://www.iab.de/de/veranstaltungen/ konferenzen-und-workshops-2011/
paradata.aspx
Centro Nacional de Estadísticas Educativas (2008). Procedimientos de ponderación de NAEP:
procedimientos de ponderación de 2003 y estimación de varianza. tecnología rep., Centro Nacional
de Estadísticas Educativas, URL http://nces.ed.gov/nationsreportcard/tdw/weighting/2002 2003/
weighting 2003 studtrim.asp Newcombe RG (1998). Intervalos de confianza bilaterales para la
proporción única: Com
parison de siete métodos. Estadísticas en Medicina 17(8):857–872
Neyman J. (1938). Contribución a la teoría del muestreo de poblaciones humanas. Revista de la
Asociación Estadounidense de Estadística 33(201):101–116 Olson K., Peytchev A. (2007). Efecto
de la experiencia del entrevistador sobre el ritmo de la entrevista y las actitudes del entrevistador.
Public Opinion Quarterly 71:273–286 O'Muircheartaigh C., Campanelli P. (1998). El impacto relativo
de los efectos del entrevistador y los efectos del diseño de la muestra en la precisión de la encuesta.
Revista de la Royal Statistical Society, Serie A 161 (1): 63–77
O'Muircheartaigh C., Campanelli P. (1999). Una exploración multinivel del papel de los entrevistadores
en la falta de respuesta a la encuesta. Revista de la Royal Statistical Society, Serie A 162(3):437–
446 Pfeffermann D., Skinner CJ, Holmes DJ, Goldstein H., Rasbash J. (1998). Ponderación de
probabilidades de selección desiguales en modelos multinivel. Revista de la Royal Statistical Society
Serie B-Metodología estadística 60 (Parte 1): 23–40 Pinheiro JC, Bates DM (2000). Modelos de
efectos mixtos en S y S-PLUS. Saltador,
Nueva York
Machine Translated by Google
Referencias 613
Potter FJ (1993). El efecto del recorte de peso en las estimaciones de encuestas no lineales. En:
Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de
Estadística, págs. 758–763 Potter FJ, Iannacchione VG, Mosher W., Mason R., Kavee JA
(1998). Diseño muestral, pesos muestrales, imputación y estimación de varianza en la Encuesta
Nacional de Crecimiento Familiar 1995. Estadísticas Vitales y de Salud, Centro Nacional de
Estadísticas de Salud 124(2)
Powell SG, Baker KR (2003). El arte de modelar con hojas de cálculo: ciencia administrativa,
ingeniería de hojas de cálculo y artesanía de modelado. John Wiley & Sons, Inc., Nueva York
R Core Team y colaboradores en todo el mundo (2012c). stats: funciones estadísticas de R. URL
http://finzi.psych.upenn.edu/R/library/stats/html/00Index.html
Rao JNK (1973). Sobre doble muestreo para estratificación y encuestas analíticas (Corr: V60
p669). Biometrika 60:125–133 Rao JNK, Shao J. (1999). Replicación repetida balanceada
modificada para datos de levantamientos complejos. Biometrika 86(2):403–415 Rao JNK, Wu CFJ
(1985). Inferencia a partir de muestras estratificadas: análisis de segundo orden de tres métodos
para estadísticas no lineales. Revista de la Asociación Estadounidense de Estadística 80: 620–630
Rao JNK, Wu CFJ (1988). Inferencia de remuestreo con datos de encuestas complejas. Día
nal de la Asociación Estadounidense de Estadística 83:231–241
Rizzo L., Kalton G., Brick JM (1996). Una comparación de algunos ajustes de ponderación para la
falta de respuesta del panel. Survey Methodology 22:43–53 Rosenbaum P., Rubin DB (1983).
El papel central del puntaje de propensión en obser
estudios tradicionales para efectos causales. Biometrika 70: 41–55
Royall RM (1976). Avances actuales en la teoría del muestreo: Implicaciones para los estudios
observacionales humanos. American Journal of Epidemiology 104:463–473 Royall RM (1986).
El efecto del tamaño de la muestra sobre el significado de las pruebas de significación.
El estadístico estadounidense 40: 313–315
RTI Internacional (2012). Manual de idioma SUDAAN, versión 11.0. Trian de investigación
gle parque NC
Rubin DB (1987). Multiples imputaciones por la falta de respuesta en las encuestas. John Wiley y
Hijos, Nueva York
Rust KF (1984). Técnicas de estimación de varianzas para encuestas por muestreo. Tesis de
doctorado, Universidad de Michigan, Ann Arbor MI, Rust KF inédito (1985). Estimación de la
varianza para estimadores complejos en encuestas por muestreo.
Revista de estadísticas oficiales 1: 381–397
Machine Translated by Google
614 Referencias
Saigo H., Shao J., Sitter R. (2001). Un bootstrap repetido de media muestra y réplicas repetidas balanceadas para
datos imputados aleatoriamente. Metodología de la encuesta 27(2): 189–196
S¨arndal C. (2007). El enfoque de calibración en la teoría y la práctica de las encuestas. Survey Methodology
33(2):99–119 S¨arndal C., Lundstr¨om S. (2005). Estimación en Encuestas con No respuesta. John
Schouten B., Cobben F., Belén J. (2009). Indicadores de la representatividad de la respuesta a la encuesta. Survey
Methodology 35(1):101–113 Searle S., Casella G., McCulloch C. (1992). Componentes de la varianza. John
Wiley y
Hijos, Nueva York
Shao J., niñera R. (1996). Bootstrap para datos de encuestas imputados. Revista de la Asociación Estadounidense
de Estadística 91: 1278–1288 Shewhart WA (1931). Control Económico de la Calidad del Producto Fabricado.
Van Nostrand Reinhold Co., Princeton, NJ, republicado en 1981 por la Sociedad Estadounidense de Control de
Calidad, Milwaukee, WI Singh AC, Dever JA, Iannacchione VG (2004). Tasas de respuesta compuestas para
encuestas con seguimiento de falta de respuesta. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 4343–4350
Singh AC, Dever JA, Iannacchione VG, Chen S. (2005). Estimación eficiente de las tasas de respuesta cuando se
selecciona una pequeña submuestra de personas que no respondieron para la conversión de seguimiento. En:
Conferencia del Comité Federal de Metodología Estadística (FCSM), Arlington, VA, URL http://www.fcsm.gov/
05papers/Singh Iannacchione etal VIIB.pdf
Niñera R. (1992). Comparación de tres métodos de arranque para datos de encuestas. The Canadian Journal of
Statistics / La Revue Canadienne de Statistique 20:135–154 Smith PJ, Hoaglin DC, Battaglia MP, Khare M.,
Barker LE (2005). Metodología estadística de la Encuesta Nacional de Inmunizaciones, 1994–2002. Estadísticas
Vitales y de Salud, Centro Nacional de Estadísticas de Salud 2(138)
Smith TMF (1976). Los fundamentos del muestreo de encuestas: una revisión. Revista de la Sociedad Real de
Estadística A 139: 183–204 Smith TMF (1984). Posición actual y desarrollos potenciales: Algunas opiniones
personales, encuestas de muestra. Revista de la Royal Statistical Society A 147:208–221 Smith TMF (1994).
Encuestas por muestreo 1975–1990; una era de reconciliación? interna
Estuardo E. (2010). Métodos de emparejamiento para la inferencia causal: una revisión y una mirada hacia el futuro.
Ciencias Estadísticas 25(1):1–21
Machine Translated by Google
Referencias 615
Stukel DM, S¨arndal C., Hidiroglou MA (1996). Estimación de varianza para estimadores de calibración:
una comparación de jackknifing versus linealización de Taylor. Survey Methodology 22(2):117–125
Thayer WC, Diamond GL (2002). Concentraciones de plomo en la sangre de mujeres adultas de
EE. UU.: estadísticas resumidas de las fases 1 y 2 de la Encuesta Nacional de Evaluación de la Salud
y la Nutrición (NHANES III). URL http://www.epa.gov/superfund/lead/products/nhanes.pdf _
616 Referencias
Waksberg J., Judkins D., Massey JT (1997). Sobremuestreo geográfico en encuestas demográficas de
estados unidos. Metodología de la encuesta 23:61–71 Weisberg S. (2005). Regresión lineal aplicada,
3ª ed. John Wiley & Sons, Nueva
york
Weisstein EW (2010). Distribución de valores extremos. URL http://mathworld.wolfram. com/
ExtremeValueDistribution.html, de MathWorld–A Wolfram Web Resource West BT, Groves RM (2013).
Un indicador de desempeño del entrevistador ajustado por propensión. Public Opinion Quarterly 77: por
publicar West BT, Olson K. (2010). ¿Cuánto de la varianza del entrevistador es realmente falta de
respuesta?
varianza de error? Opinión pública trimestral 74(5):1027–1045
Westat (2007). Guía del usuario de WesVar 4.3. Westat, Rockville MD, URL www.westat.
com
Wickham H. (2011). reformar: Reformar datos de forma flexible. URL http://CRAN.R-proyecto.
org/paquete=reformar
Willenborg L., Heerschap H. (2012). Pareo. tecnología rep., La Haya, URL http://www.cbs.nl/NR/rdonlyres/
0EDC70A4-C776-43F6-94AD-A173EFE58915/0/2012Matchingart.pdf , método Serie no. 12
york
Woodruff RS (1952). Intervalos de confianza para medianas y otras medidas de posición.
Revista de la Asociación Estadounidense de Estadística 47:635–646
Woodward M. (1992). Fórmulas de tamaño de muestra, potencia y riesgo relativo mínimo detectable en
estudios médicos. El Estadístico 41:185–196
Wright J., Marsden P. (2010). Manual de investigación de encuestas, 2ª ed. Emerald Group Publishing
Limited, Reino Unido
Machine Translated by Google
Capítulo 3
3.2
(a) Calcule CV (ps) y V (ps) para un tamaño de muestra de n = 100.
n <- 100 p <-
c(0,01, 0,05, 0,1, 0,2, 0,3, 0,4, 0,5, 0,6, 0,7, 0,8, 0,9, 0,95, 0,99)
SE <- sqrt(p*(1-p)/n)
CV <- SE/p
cbind(p, SE = redondo(SE,4), CV = redondo(CV,4))
pags
SE CV
[1,] 0.01 0.0099 0.9950 [2,] 0.05
0.0218 0.4359 [3,] 0.10 0.0300 0.3000
[4,] 0.20 0.0400 0.2000 [5,] 0.30
0.0458 0.1528 [6,] 0.40 0.0490 0.1225
[7,] 0.50 0.0500 [1000 [1000 [1000
[1000 [[1000 [3000 [3000 [ 8,] 0,60
0,0490 0,0816 [9,] 0,70 0,0458 0,0655
[10,] 0,80 0,0400 0,0500 [11,] 0,90
0,0300 0,0333 [12,] 0,95 0,0218
0,0229 [19,0,099] 0,91
1.0
0.8
CV
0.6
0,4
0,2
0,0
EE
SE
3.8
(b) Relavarianzas de las variables gastos totales (EXPTOTAL), número de camas de hospitalización (BEDS), número de
pacientes atendidos durante 1998 (SEENCNT), número de clientes en los roles al cierre de 1998 (EOYCNT) y número
de visitas hospitalarias (Y IP) en la población smho98.
3.10
[1] 484 pk
<- pop$CAMAS / sum(pop$CAMAS) y <- pop$Y_IP
T <- suma(y)
T
[1] 6627800 ybarU
<- media(y)
V1 <- suma(pk*(y/pk - T)ˆ2)
V1
[1] 3.19933e+13 n <- V1 /
(N*ybarU*CV0)ˆ2 n <- techo(n)
norte
[1] 73 pk1
<- n*pk resumen(pk1)
T <- suma(y)
T
[1] 5706952
V1 <- suma(pk*(y/pk - T)ˆ2)
V1
[1] 2.552992e+13
nNc <- V1/ (N * ybarU * CV0)ˆ2 nNc <- techo (nNc)
nNc
[1] 59
# Vuelva a comprobar para ver si hay nuevas certezas.
# No hay ninguno. resumen
(nNc * pk)
mín. 1er cuarto Mediana Media 3er Qu. máx.
0,001233 0,037000 0,088790 0,124200 0,149200 0,731300
# tamaño total de la muestra
longitud (certificados) + nNc[1] 68
(b) Repita la parte (a) con un CV objetivo de 0,15. No hay certezas. n=33.
Machine Translated by Google
(c) Ahora, suponga que decide utilizar un estimador de regresión del número medio
de visitas de pacientes hospitalizados. Utilice un modelo sin intercepción y con
la raíz cuadrada de las camas y las propias camas como predictores. Si este
modelo es correcto, ¿cuál es la medida de tamaño óptima para usar en una
muestra pps? ¿Qué muestra se requeriría para obtener un CV anticipado de 0.10
con este estimador de regresión y una muestra seleccionada con el MOS óptimo?
El MOS óptimo para el modelo EM (y) = ÿ1 ÿx + ÿ2x, VM (y) = ÿ2x es ÿx.
Con pp(x) y el estimador pi, naturalmente se requiere una muestra más pequeña para
un CV objetivo de 0,15 que de 0,10. Si se usa un estimador de regresión más eficiente,
se requieren 42 unidades en lugar de 70 para CV0=0.10. Por lo tanto, el muestreo con
pps no obtiene toda la eficiencia posible de una muestra cuando está presente una
fuerte relación yx.
3.12
(a) Calcule las ponderaciones de diseño para los 50 hospitales de muestra. ¿Cómo
podría verificar que los pesos se calcularon correctamente? Mostrar la verificación.
Machine Translated by Google
sum(wts*hosp50\$x) [1]
107956 sum(hospital\$x)
[1] 107956
[1] 918,535
sqrt(vHat) [1]
30,30734
sqrt(vHat) / ybarHat [1]
0,03753326
(e) Suponga que desea seleccionar una nueva muestra con probabilidades
proporcionales a la raíz cuadrada de las camas. Estime el V1 apropiado para este diseño.
¿Cuántos hospitales de muestra se necesitarían para alcanzar el CV objetivo
(¯yst) = 0,15 con este diseño?
qk <- sqrt(hospital\$x) / sum(sqrt(hospital\$x)) qk <- qk[sam==1]
[1] 13791105407
CV0 = 0,04
3.14
(a) Determine el tamaño de muestra necesario para alcanzar un CV objetivo = 0,05 para la
media estimada de las dos variables de análisis, y1 e y2. ¿Son diferentes los tamaños
de muestra estimados? Es así, ¿por qué?
[1] 41.28193
nCont(CV0=0.05, S2=s2y2, ybarU=ybar2, N=100) [1] 25.941
s2y1[1] 552.5725
s2y2
[1] 706.7866 s2y1/
ybar1ˆ2
[1] 0.1757633
s2y2/ybar2ˆ2 [1]
0.08756869
Los tamaños de las muestras son diferentes porque la unidad de revarianza de y2 es más pequeña.
Sin embargo, tenga en cuenta que la varianza de y2 es mayor que la de y1.
(b) Si el nivel de precisión del objetivo aumenta a un CV = 0,03, ¿cómo cambian sus cálculos
en (a)?
nCont(CV0=0.03, S2=s2y1, ybarU=ybar1, N=100)
[1] 66.13528
nCont(CV0=0.03, S2=s2y2, ybarU=ybar2, N=100) [1] 49.31539
(c) Repita sus cálculos en las partes (a) y (b) para la proporción de respuestas y1 que son
menores o iguales a 50 (y1 ÿ 50).
menos50 <- rep(0, longitud(domy1y2$y1)) menos50[domy1y2\
$y1 $<$= 50] <- 1 ybar1 <- mean(less50)
nProp(CV0=c(0.05,0.03), pU=ybar1 , N=100)
(d) Repita sus cálculos en las partes (a) y (b) para la proporción de respuestas y1 que son
menores o iguales a 22 (y1 ÿ 22). Compare sus resultados de las partes (c) y (d).
3.16
(a) Compare las probabilidades de selección para estos dos diseños de muestra. Para
ejemplo, calcule la probabilidad de selección media pps dentro de cada estrato
y compararlo con las probabilidades de selección de stsrs.
adjuntar("C:\\Datos\\smho.N874.RData",pos=2)
hospPop <- smho.N874[smho.N874\$CAMAS > 0, ]
x <- sqrt(hospPop$CAMAS)
hospPop <- hospPop[orden(x), ]
x <- ordenar(x)
N <- nrow(hospPob)
n <- 50
cumx <- cumsum(x)
H <- 25
tamaño <- cumx[N]/H
frenos <- (0:H)*tamaño
estratos <- corte(cumx, roturas = brks, etiquetas = 1:H)
Nh <- tabla(estratos)
strSelprobs <- rep(2,H) / Nh
todosStrProbs <- NULL
para (h en 1:H){
allStrProbs <- c(allStrProbs, rep(strSelprobs[h], Nh[h]))
}
# probabilidades de selección para pp(sqrt(x))
ppsSelprobs <- n*x / sum(x)
ambos <- NULL
ambos <- cbind(estrato = estratos, pps = ppsSelprobs,
stsrs = todos los StrProbs)
parcela(ambos[, c(2,3)])
abline(0,1)
round(cbind(stsrs = strSelprobs,
ppsMeans = por (ambos [, 2], estratos, media)), 4)
stsrs ppsMedios
1 0.0263 0.0259
2 0.0357 0.0357
3 0.0417 0.0415
4 0.0465 0.0467
5 0.0526 0.0524
6 0.0571 0.0577
7 0.0625 0.0622
8 0.0667 0.0674
9 0.0714 0.0711
10 0.0769 0.0749
11 0.0769 0.0785
12 0.0833 0.0814
13 0.0833 0.0853
14 0,0909 15 0.0902
0,0952 16 0,1000 0.0947
0.1010
Machine Translated by Google
17 0,1111 18 0.1076
0,1111 0.1134
19 0.1250 0.1232
20 0.1333 0.1377
21 0.1538 0.1477
22 0.1538 0.1583
23 0.1818 0.1835
24 0.2222 0.2070
25 0.2500 0.2704
(b) Grafique las probabilidades de stsrs frente a las probabilidades de selección de pps.
Capítulo 4
4.2 Considere el Ejemplo 4.6 donde se usaron pruebas unilaterales para determinar
tamaños de muestra con 80 y 90 % de poder para detectar diferencias en las estimaciones para
masculinos y femeninos.
= 200?
(a) ¿Cómo cambia el tamaño de la muestra si ÿ2
d
ÿ2d 2 = 200/2 = 10
potencia.t.prueba(potencia = 0.8,
delta = 5,
dt = 10,
tipo = "dos.muestra",
alt = "de un solo lado",
nivel sig. = 0.05
)
# Cálculo de potencia de prueba t de dos muestras
n = 50,1508
Machine Translated by Google
delta = 5 sd = 10
sd = 20
sig.level = 0.05 potencia = 0.9
alternativa = unilateral
4.4
(a) El cliente está interesado en determinar si el IMC promedio para los niños de primer grado (de 6 a
7 años) ha aumentado en un 1,5 % desde un promedio estimado previamente de 17,5. ¿Cuál es
el tamaño de muestra necesario para detectar esta diferencia dado que la desviación estándar
de la población es 0.70?
d <- 17.5 * 1.015 - 17.5 power.t.test(power =
0.8, delta = d, sd = 0.7, type = "one.sample",
alt = "one.side", sig.level = 0.05 )
(b) ¿Cómo cambia el tamaño de la muestra si el cliente está dispuesto a aceptar un 3,0 %
¿aumentar?
4.6 ¿Qué tamaño de muestra aleatoria simple se necesitaría para detectar una disminución
del 10 % con una potencia de 0,90? ¿Cómo cambiaría tu respuesta si la unidad de revarianza
fuera 6?
4.8
(a) Si se prevé que la tasa de desempleo en el tiempo 1 sea del 8 % y desea poder detectar
una disminución de 1,5 % puntos con una potencia de 0,8 en una prueba unilateral de
0,05 niveles, ¿qué tamaño debe tener la muestra en cada uno? ¿periodo de tiempo?
Suponga que 0.08-0.015=0.065 estará desempleado en ambos momentos.
p1 <- 0.08 p2
<- p12 <- 0.065
nProp2sam(px=p1, py=p2,
pxy=p12, g=0.75, r=1,
sig.level = 0.05,
alt="una.cara") # Dos-
muestra comparación de
proporciones cálculo
muestra paradelmuestras
tamaño de la
superpuestas
n1 = 1228
n2 = 1228
px.py.pxy = 0,080, 0,065, 0,065 gamma = 0,75 r=1
alt = unilateral
nivel sig. = 0.05 potencia
= 0.8
(b) Si solo puede permitirse muestrear a 500 personas, ¿cuál será el poder para
detectar un cambio de punto de 1,5 %?
p1 <- 0,08 p2
<- p12 <- 0,065 Sxy <- p12 -
p1*p2 Vd <- (p1*(1-p1) +
p2*(1-p2) - 2*0,75*1*Sxy) / 500 Z <- 1,645 - (p1-p2)/raíz cuadrada (Vd) 1 -
pnorm(Z) # [1] 0,4768264
p1 = c1, p2
= c2, alt =
"unilateral", sig.level = 0.05,
Machine Translated by Google
potencia = potencia[k])\$n
}
fuera <- cbind(samsize = techo(samsize), power = pow)
afuera
Capítulo 5
5.2 Utilizando los datos del ejemplo 5.2 , calcule (a) la asignación proporcional,
(b) la asignación de Neyman para estimar los ingresos totales, y (c) la asignación
restringida de costos para los ingresos, asumiendo un presupuesto de $300,000.
Costo
constreñido Apuntalar. neyman
h Nueva Hampshire
asignación asignación
1 413 350 845
2 318 661 83
3 124 244 80
4 1,397 1.284 465
5 596 308 1,376
5.4 Resuelva el Ejemplo 5.2 con las mismas restricciones CV que en el Ejercicio 5.3
(0,05 sobre empleados, 0,03 sobre el total de establecimientos que reclaman el crédito de investigación,
0,05 sobre el total de establecimientos con filiales offshore) pero revisar el objetivo
estar minimizando el costo total.
Total 1.122
Capítulo 9
9.2
#(a)
p<-0,32; q <- 1-p
delta1 <- 0,003; delta2 <- 0,174
m<-20; nbar <- 2; qDbar <- 10
V <-q/p
a <- V/(m*nbar*qDbar)
b <- delta1*nbar*qDbar
c <- 1 + delta2*(qDbar-1)
CV <- sqrt(a*(b+c))
CV
# [1] 0.1181128
#(b)
p<-0,32; q <- 1-p
delta1 <- 0,003; delta2 <- 0,174
m<-20; nbar <- 5; qDbar <- 4
V <-q/p
a <- V/(m*nbar*qDbar)
b <- delta1*nbar*qDbar
c <- 1 + delta2*(qDbar-1)
CV <- sqrt(a*(b+c))
Machine Translated by Google
CV#[1] 0.09167538
9.4 Suponga que se selecciona una muestra en dos etapas y se usa el estimador ÿ
del total para una serie de variables de análisis. El número promedio de elementos de
muestra por conglomerado es 23. ¿Cuáles son las estimaciones aproximadas de la
medida de homogeneidad para efectos de diseño iguales a 1.1, 1.2, 1.3, . . . , 2.7, 2.8,
2.9 y 3.0? ¿Cómo cambian tus respuestas si ¯n = 13?
}
#Para nbar = 23
#Para nbar = 13
deltaCalc(1.1,3.0,0.1,13) deff delta [1,]
1,1 0,008333333 [2,]
0,0166666667
1,2
[3,] 1,3 0,025000000 [4,] 1,4
0,0333333333 [5,] 476,66 ] 1,6
0,050000000 [7,] 1,7 0,0583333333 [8,]
1,8 0,066666667 [9,] 1,9 0,075000000
[10,] 2,0 0,083333333
Machine Translated by Google
9.6 Repita los cálculos del ejemplo 9.11 para el muestreo en dos etapas usando
grupos de bloques como UPM en la población de Maryland. Use set.seed(-780087528)
en R. Seleccione 20 BG con probabilidades proporcionales al número de personas
por zona y 50 personas por BG usando srswor. Compare sus resultados con los del
Ejemplo 9.9 , donde se usaron tratados como PSU.
adjuntar("C:\\Datos\\MDarea.pop.RData", pos=2)
trtBG <- 10*MDarea.pop$TRACT + MDarea.pop$BLKGROUP MDpop <-
cbind(MDarea.pop, trtBG) require(muestreo) require(reforma)
Ni <- tabla(MDpop$trtBG)
metro <- 20
probi <- m*Ni / sum(Ni) # seleccionar
muestra de conglomerados
set.seed(-780087528) sam <- cluster(data=MDpop,
clustername="trtBG", size=m, method="systematic", pik= probi, descripción=VERDADERO)
m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$y3,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$ins.cov,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$hosp.stay,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp)
)
redondo (ancho y ancho, 4)
Los resultados del ejemplo 9.11 están a continuación. Cuando los BG se utilizan como grupos,
las medidas de homogeneidad son mayores.
B2 W2 d d
y1 0,0418 1,3934 0,0291 0,0246
y2 0,0208 1,0416 0,0196 0,0222
y3 0,0101 0,1028 0,0894 0,1177
ins.cov 0,0007 0,3051 0,0023 0,0309
hosp.stay 0,1056 13,9161 0,0075 0,0112
hosp.stay. #
seleccione una muestra de 3 etapas de la población de Maryland
Ni <- tabla(pop.tmp$TRACTO)
Qi <- tabla(MDarea.pop$TRACTO)
Qij <- tabla(MDpop$trtBG)
metro <- 30 # no. de fuentes de alimentación para seleccionar
#------------------------------------------------ - -------------------------------------
# seleccionar muestra de conglomerados
establecer.seed(1696803792)
sam <- cluster(data=MDpop, clustername="TRACTO", tamaño=m,
método="sistemático", pik=probi,
descripción=VERDADERO)
# extraer datos para los grupos de muestra
samclus <- getdata(MDpop, sam) samclus <-
renombrar(samclus, c(Prob = "p1i")) samclus <-
samclus[order(samclus$TRACT, samclus$BLKGROUP),]
#------------------------------------------------ - -------------------------------------
# tratar los conglomerados de muestra como estratos y seleccionar una parte del bloque
grupos de cada
# identificar los ID de psu para la primera instancia de cada ssuID xx <-
do.call("rbind",list(by(1:nrow(samclus),samclus$trtBG,head,1)))
SSU <- cbind(TRACT=samclus$TRACT[xx], trtBG=samclus$trtBG[xx],
BG=samclus$BLKGROUP[xx])
# seleccione 2 BG por tracto
n <- 2
s <- estratos(datos = as.datos.marco(SSU), nombres de estrato = "TRACTO",
tamaño = rep(n,m), método="srswor")
s <- renombrar(s, c(Prob = "p2i"))
# extraer los datos de glucosa en sangre
#------------------------------------------------ - -------------------------------------
# seleccione srswor de cada muestra BG
n.BG <- m*n
s <- estratos (datos = as.data.frame (SSUdat), stratanames = "trtBG",
size = rep(50,n.BG), method="srswor") s <- rename(s, c(Prob
= "p3i")) samclus <- getdata(SSUdat, s) del <- (1:ncol( samclus))[dimnames(samclus)
[[2]] \%en\%
c("ID\_unidad","Estrato")]
Machine Translated by Google
#------------------------------------------------ - -------------------------------------
# extraer recuentos pop para PSU en la muestra
escoger <- nombres(Qi) \%in\% sort(unique(samclus$TRACT))
Qi.sam <- Qi[elegir]
# extraer recuentos pop de SSU para PSU en la muestra
escoger <- nombres(Ni) \%in\% sort(único(samclus$TRACTO))
Ni.sam <- Ni[pick] # extraer
recuentos pop para SSU en la muestra
escoger <- nombres(Qij) \%in\% sort(unique(samclus$trtBG))
Qij.sam <- Qij[elegir]
#------------------------------------------------ - --------------
# llamar a fcn para calcular las estimaciones de los componentes de la varianza
wtdvar <- function(x, w){ xbarw <-
sum(w*x) / sum(w) varw <- sum(w * (x-
xbarw)ˆ2) / sum(w)
Varw
BW3 <-
)
redondo (BW3,4)
vpsu Vsu Vtsu B W W2 W3 delta1 delta2
[1,] 5.634050e+11 1.877326e+12 4746976662057 0.0178 1.2553 0.3554 1.5477 0.0138 0.1863 [2,] 7.820266e+09 1.512943e+10 387598924 0.0221 0.9307
ronda
y2 = rv.y2, = rv.y3,
y3 = rv.inscov,
inscov
hosp.estancia = rv.hosp), 4)
total=100000,
cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0.0138
delta2 = 0.1863
presupuesto = 1e+05
cheque de costo = 1e+05
CV = 0,0617
unidad.rv=rv.y2[2],
coste total=100000,
cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,023
delta2 = 0.1994
presupuesto = 1e+05
cheque de costo = 1e+05
CV = 0,0559
unidad.rv=rv.y3[2],
coste total=100000,
cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,3065
delta2 = 0,7052
Machine Translated by Google
n.opt = 3.4
q.opt = 0.6
CV = 0,0301
delta1=0,0873, delta2=0,4227,
unidad.rv=rv.inscov[2],
tot.cost=100000, cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,0873
delta2 = 0,4227
presupuesto = 1e+05
cheque de costo = 1e+05
CV = 0,0354
delta1=0.0014, delta2=0.0132,
unidad.rv=rv.hosp[2],
coste total=100000,
cal.sw=1)
C1 = 500
C2 = 100
C3 = 120
delta1 = 0,0014
delta2 = 0.0132
presupuesto = 1e+05
cheque de costo = 1e+05
m.opt = 13 n.opt =
CV = 0,1464
ÿ1 2
s s 2 $ s por semana $ s
Machine Translated by Google
cada variable. Si todas las variables fueran igualmente importantes, podríamos promediar
las asignaciones y el uso m=45, n¯=6, q ¯¯=2, dando un costo total de alrededor de $114,000.
Sin embargo, la importancia relativa para la encuesta de las cinco variables habría
a considerar, junto con (como siempre) el presupuesto.
Capítulo 10
10.2
(a) Tamaños de muestra totales esperados para los dos dominios. Dominio 1: 16; dominio
2: 28.
(b) Medida compuesta de tamaño para cada UPM y el total entre las UPM. Verificar
que el gran total es igual al tamaño de muestra total esperado.
(c) Probabilidad de selección para cada UPM.
(d) Tasa de muestreo de dominio y tamaño de muestra de dominio esperado dentro de cada UPM.
¿Los tamaños de muestra esperados son números enteros? Si no, ¿qué método se puede utilizar?
para el muestreo dentro de una fuente de alimentación que logrará la tasa deseada?
(e) Verifique que los tamaños de muestra esperados para dos cualesquiera de la suma de la PSU para
el tamaño total esperado de la muestra que calculó en (a).
(1,2) 44,0
(1,3) 44,0
1,4) 44.0
(2,3) 44,0
(2,4) 44,0
(3,4) 44,0
10.4 Las dos UPM a continuación son una muestra de UPM existente seleccionada algunos años
atrás. Se realizará una nueva encuesta en estas UPM.
Machine Translated by Google
(a) Calcule los tamaños de muestra esperados en cada dominio en cada SSU y el tamaño
de muestra total en cada SSU en todos los dominios. Suponga que se utilizan tasas de
0,03 y 0,01 para los dominios 1 y 2. Tenga en cuenta que los totales de población para
los dominios son 5000 y 2200, como se muestra en la tabla anterior.
Dominio 1: 75; dominio 2: 11. (b)
Calcule el MOS compuesto para cada SSU utilizando el método de la Secc. 10.5 (c) Calcule
las probabilidades de selección de la SSU suponiendo que la muestra de la SSU se
seleccionará con probabilidades proporcionales al MOS compuesto. (d) Calcule las
probabilidades dentro de la SSU requeridas para que la muestra en cada dominio sea
autoponderada. (e) Calcule la carga de trabajo esperada en cada SSU si fuera a ser
muestreada.
¿Son estos iguales? Si no, explique por qué.
(f) Verifique que las probabilidades SSU y dentro de SSU calculadas en (c) y (d) produzcan
un muestreo autoponderado en cada dominio.
(g) Determinar un esquema de muestreo para las SSU y las unidades dentro de las SSU
que proporcionen una carga de trabajo igual en cada SSU. Realice los cálculos para
las probabilidades de selección de la SSU y dentro de la SSU y verifique que el tamaño
total esperado de la muestra en los dos dominios sea el mismo en cada SSU. (h) ¿El
esquema que diseñó en (g) conduce a una muestra autoponderada?
¿Por qué o por qué no? Sustente su respuesta con cálculos.
Machine Translated by Google
Capítulo 13
fuente de alimentación mi Blanco Otro problema piBlanco Otro Blanco Otro Blanco Otro muestra
Una
1,000 800 200 0,3000 0,0333 0,1333 100 25 26,7 26,7 53,3
2 850 400 450 0,2550 0,0392 0,1569 100 25 15,7 70,6 86,3
3 150 110 40 0,0450 0,2222 0,8889 100 25 24,4 35,6 60,0
1. Ajuste los pesos por separado en cada ciudad primero para elegibilidad desconocida
y luego por falta de respuesta. Muestre sus cálculos en cada paso.
2. ¿Cuál es el número total estimado de unidades elegibles en cada ciudad y
en todas las ciudades?
signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1' ' Una
AIC: 4813.5
probit
˜
glm(formula = resp as.factor(raza), edad + como.factor(sexo) + como.factor(hisp) +
family=binomial(link="probit"), data=nhis)
Coeficientes:
Estimación estándar Error valor z Pr(>z)
(Interceptar) 0,622283 0,069330 8,976 $<$ 2e-16 ***
edad -0.005824 0.001237 -4.710 2.48e-06 ***
como factor(sexo)2 -0.046346 0.042339 -1.095 0.2737
como.factor(hisp)2 0.245814 0.053728 4.575 4.76e-06 ***
como.factor(raza)2 -0.128363 0.059762 -2.148 0.0317 *
como.factor(raza)3 -0.216234 0.098442 -2.197 0.0281 *
AIC: 4813.6
obstruir
˜
glm(formula = resp as.factor(raza), edad + como.factor(sexo) + como.factor(hisp) +
family=binomial(link="cloglog"), data=nhis)
Coeficientes:
Estimación estándar Error valor z Pr(>z)
(Interceptar) 0,271632 0,068058 3,991 6,57e-05 ***
edad -0.005551 0.001211 -4.583 4.59e-06 ***
como factor(sexo)2 -0.044086 0.041044 -1.074 0.2828
como.factor(hisp)2 0.240590 0.053616 4.487 7.21e-06 ***
como.factor(raza)2 -0.124046 0.058554 -2.118 0.0341 *
como.factor(raza)3 -0.219619 0.099917 -2.198 0.0279 *
AIC: 4814
(b) ¿Qué variables son significativas? Las mismas variables son significativas en
todos los modelos: intercepto, edad, hisp y raza.
require(rpart)
set.seed(15097) nhis <-
data.frame(nhis) t1 <- rpart(resp ˜edad +
sexo + hisp + raza + padres + educación, método = "clase", control = rpart.control( minbucket = 50, cp=0),
data = nhis) print(t1, dígitos=2)
par(mfrow=c(1,1)) plot(t1,
uniform=TRUE, compress=TRUE, margin = 0.1) text(t1, use.n=TRUE, all=TRUE, digits=4,
cex=1, pretty =1, fantasía=VERDADERO, xpd = VERDADERO, fuente = 3) título("Árbol para
identificar celdas de ajuste de falta de respuesta
n = 3911
node), split, n, loss, yval, (yprob) * denota nodo terminal
capitulo 14
14.1 Use el conjunto de datos smho.N874 para completar este ejercicio sobre
posestadificación.
a) ¿Cuáles son los medios de gasto en los cinco tipos de hospitales de la población?
¿Qué debe buscar para que valga la pena considerar la posestratificación? (b)
Calcule los recuentos de población de las instalaciones por tipo de hospital, tratando
el conjunto de datos smho98 como la población total. Calcule los recuentos de muestras
no ponderadas por tipo de hospital para verificar que cada tipo esté representado
en la muestra. Si uno de los tipos de hospitales no estuviera representado en la
muestra, ¿cuáles serían las implicaciones prácticas y teóricas? Analice esto en el
contexto de la inferencia basada en el diseño y en el modelo.
adjuntar("C:\\Datos\\smho98sub.RData", pos=2)
requerir (muestreo)
requerir (hacer por)
establecer.seed(-530049348)
smho <- smho98sub
# (a) población media de gastos por tipo de hospital
resumenPor(EXPTOTAL ˜ hosp.tipo hosp.type, data = smho98sub, fun = mean)
EXPTOTAL.media
Una Una 21240408
2 2 10852136
3 3 4913008
4 4 6118415
5 5 12041188
datos = datos.marco(samdat),
Machine Translated by Google
pesos = ˜d)
El total real de la población es 9.686.295.207, por lo que la estimación PS está más cerca del total
de la población en esta muestra en particular. El SE del estimador PS es ligeramente inferior, pero la
posestratificación no ha mejorado mucho la precisión del total estimado. Por supuesto, una muestra
no nos dice nada sobre el rendimiento a largo plazo.
14.6 Utilizando el valor inicial aleatorio de 15097 en R, seleccione una muestra de n=50 hospitales
del archivo de datos Hospital pop.txt con probabilidades proporcionales a la raíz cuadrada del número
de CAMAS, es decir, pps x1/2 .
Machine Translated by Google
#Pesos de diseño
dsgn.wts <- 1/pk[sam] sum(dsgn.wts)
[1] 393.8783 resumen(dsgn.wts)
sum(dsgn.wts)
sam.var.y [1]
263510.3 #DEFF
componente - alfa cuadrado sam.alpha2 <-
sam.wls$coeficientes[1] ˆ2 sam.alpha2 (Intercepción)
141821.9
Componente #DEFF - correlación cuadrada sam.rho2.yP <-
resumen(sam.wls)$r.squared sam.rho2.yP [1] 0.8261859 Componente
#DEFF - Kish
Machine Translated by Google
(b) Describa los estimadores de la población total a los que se refieren los deff de Kish y
Spencer. ¿Por qué difieren los valores calculados? ¿Cuál crees que es el más relevante
aquí? ¿Por qué?
La definición de Kish es 1,23; Spencer es 0,34. Si el objetivo es estimar el total de
descargas (y), entonces el de Spencer es más apropiado. (c) Estime el total de descargas
(y) en la población usando el estimador ÿ junto con su SE y CV. ¿Cómo se compara esto con
la estimación de la varianza del total de una muestra aleatoria simple de n=50? Estime la
varianza de la fuerza de la muestra de 50 seleccionados para este problema.
y
0.04624832
# estimar el EE si se hubiera seleccionado una respuesta w <- dsgn.wts y <-
sam.dat$y wm <- ponderado.mean(x=y, w=w) sig2 <- (n/(n-1) * suma(w*(y - wm)ˆ2) /
(suma(w)-1))
14.8 Usando el archivo de datos smho.N874, (a) calcule las probabilidades para todas las
unidades de población en una muestra de 50 seleccionados con probabilidades
proporcionales a la siguiente medida de tamaño (MOS): EXPTOTAL. (a) Seleccione una
[1] 161
mín. 1er cuarto Mediana Media 3er Qu. 1.000 4.425 7.971 máx.
19.820 19.650 206.600
sam.var.y [1]
6359677 #DEFF
componente - alfa cuadrado sam.alpha2 <-
sam.wls$coeficientes[1] ˆ2 sam.alpha2 (intersección)
3352160
#Componente DEFF - correlación cuadrada sam.rho2.yP <-
resumen(sam.wls)$r.squared sam.rho2.yP [1] 0.09294825 #Componente
DEFF - Kish
Machine Translated by Google
(c) Explique con palabras el significado del valor que obtuvo en (c) para 1+L?
¿Qué se debe considerar para determinar si el valor es excesivamente grande
o no? ¿Cómo se comparan las medidas de Kish y Spencer en este problema?
Un valor de 4,27 significa que la varianza de una media es 4,27 veces mayor
de lo que sería si la ponderación igual fuera óptima. Sin embargo, el muestreo
pps con probabilidades proporcionales a EXPTOTAL puede ser muy eficiente
para algunas estimaciones. Los estimandos que son importantes en la muestra
deben ser considerados para decidir si 4.27 es un problema o no. En este
caso, las deff de Kish y Spencer son grandes porque SEENCNT solo está
débilmente relacionado con MOS, EXPTOTAL. Ambos dicen que EXPTOTAL
no es un buen MOS si SEENCNT es la variable de análisis más importante. (d)
Repita las partes (a)–(d) usando BEDS como MOS. Establezca el MOS para
cualquier unidad con BEDS = 0 en el valor mínimo de BEDS para aquellas con
BEDS distintas de cero.
resumen (semana)
mín. 1er cuarto Mediana Media 3er Qu. máx.
1.049 4.198 10.630 45.980 19.380 1424.000
# (c) Calcule las deffs de Kish y Spencer para esta muestra. p.d1 <- pk/n sam.dat$prbs.1d <-
p.d1[sam.units]
sam.mean.y)ˆ2) / sum(wk)
sam.var.y [1]
8.229275e+13
[1] 19.69660
#DEFF de Spencer
spencers.deff <- as.numeric((1-sam.rho2.yP)*kish.deff + (sam.alpha2/sam.var.y)*(kish.deff-1))
spencers.deff [1]
7.839158
El valor de Kish de 19,7 es extremadamente grande, pero también lo es la definición de Spencer de 7,8.
El resumen de ponderación muestra que la ponderación más grande es 1424, que corresponde a una
unidad cuyo MOS se recodificó de 0 a 1. De hecho, la siguiente ponderación más pequeña es 178,0.
Este parece ser un caso en el que sería recomendable (i) usar una recodificación diferente para el
MOS, por ejemplo, hacer que el valor mínimo sea 5 o 10 en lugar de 1 o (ii) limitar los pesos. La
programación cuadrática puede ser una buena opción para hacer esto.
14.10
(a) Indique el resumen de los pesos resultantes, es decir, el mínimo, el máximo, los cuartiles y la
media. ¿Alguna unidad tiene pesos que parezcan preocupantes?
Machine Translated by Google
El peso más grande de 1424 es mucho más grande que cualquier otro. esto no es probable
para ser eficiente
(b) Use programación cuadrática para acotar los pesos en el rango [1, 50].
Grafique los pesos resultantes frente a los pesos de diseño. cual fue el efecto
de la delimitación? ¿Es la programación cuadrática una forma efectiva de acotar
los pesos aquí?
)
sort(fs.wts$solution) [1] 1,000000
1,000000 1,000000 1,000000 1,000000 1,000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 2.821197
2.982887 3.181804 5.488968 9.867670 12.623416 14.049774
14.235627 14.577856 14.728491 17.755924 18.204255 19.235434
19.393679 19.535066 22.993572 24.105195 27.706496 28.908379
29.005913 31.769392 32.262358 33.271899 34.805294 40.470829
50.000000 50.000000 50.000000 50.000000 50.000000 50.000000
50.000000 50.000000
plot(d,fs.wts$solución) abline(0,1)
50
40
30
20
$solución
fs.wts.
10
Hay ocho pesos que se redujeron a 50; de lo contrario, la mayoría de los pesos no se
modificaron demasiado.
(c) Vuelva a hacer las partes (a) y (b) pero recodifique cualquier unidad con BEDS = 0 a BEDS=10.
Discuta sus resultados. ¿Son los ajustes de peso tan extremos como en (b)?
Machine Translated by Google
N <- nrow(smho)
set.seed(429336912) pk <- n *
mos / sum(mos) sam <-
UPrandomsystematic(pk)
# Las unidades de muestra son:
unidades.sam <- (1:N)[sam == 1] unidades.sam
)
c0a <- c(x.camas, x.visto, x.eoy)
# Calcule los pesos completos de la muestra a través de la programación cuadrática
En <- diag(nrow = n)
L <- 1
U <- 50
uno <- rep(1, n) c0b <- c( L
* uno,
-U * uno)
Cmat <- rbind(X, In, -In) fs.wts <-
solve.QP(Dmat = diag(1/d), dvec = 2 * uno, Amat = t(Cmat),
bvec = c(c0a, c0b ) ), #1st 3
son restricciones de igualdad
meq = 3
plot(d,fs.wts$solución)
abline(0,1)
50
40
30
20
$solución
fs.wts.
10
0 50 100 150
d
El rango inicial de los pesos (1.078, 146.3) es mucho más pequeño aquí debido a
la grabación del MOS. Esto puede ser eficiente, pero las variables de análisis específicas
Habría que examinarlo para estar seguro.
Capítulo 15
15.2 Los siguientes datos se recopilaron de una muestra de dos UPM seleccionadas
de cada uno de los dos estratos.
11 5
12 6
2 1 10
22 4
Total 25
++++
ÿ+ÿ+ÿ ÿ
un = ÿ ÿ
.
ÿ
++ÿÿ ÿ
ÿ+ÿÿ+ ÿ
1
vB = (30 ÿ 25)2 + (18 ÿ 25)2 + (20 ÿ 25)2 + (32 ÿ 25)2 [25 + 49 + 25
4
= 1
+ 49] = 37
4
(b) ¿Cuál es la fórmula de varianza para el total estimado ˆy si se supone que las UPM se
seleccionan con reemplazo? Evalúe esta fórmula utilizando los datos de la tabla anterior.
¿Cómo se compara con su respuesta en la parte (a)?
2
Nueva Hampshire
Yˆhi ÿ Yˆ¯h
La fórmula de la varianza es vW R= h nhÿ1 sh
.
15.6 Use el archivo nhis.large como población y seleccione una muestra aleatoria simple de
tamaño n = 500. Si está usando R, use una semilla de número aleatorio de 428274453.
Postestratifique la muestra para recuentos de población para age.grp. (a)
Calcule la proporción estimada de la población que informó una visita al médico (doc.visit) en las
2 semanas anteriores a la entrevista. (b) Calcule los EE utilizando el método de linealización y
JKn. ¿Cuál sería el efecto sobre los EE estimados de ignorar la posestratificación? (c) Estime las
proporciones y los EE de la población que informó una visita al médico en una tabla definida por
etnicidad hispana (hisp). Combine las categorías 3 y 4 de hisp juntas. ¿Cuál sería el efecto de
ignorar la posestratificación para estas estimaciones?
123
5031 12637 3920
100*redondo(prop.table(t1,2),3); 123
svymean, na.rm=TRUE)), 4)
noPS.dsgn, na.rm=VERDADERO), 4)
a2.noPS <- round(cv(svymean(˜ as.factor(doc.visit),
noPS.dsgn, na.rm=TRUE)), 4) b1.noPS <-
round(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = noPS.dsgn, svymean, na. rm=TRUE), 4) b2.noPS
<- round(cv(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = noPS.dsgn,
svymean, na.rm=TRUE)) ,
# Variaciones de navaja
jk1.dsgn <- as.svrepdesign(diseño = nhis.dsgn, tipo = "JK1")
# objeto de diseño posestratificado
jk1.ps.dsgn <- postStratify(diseño = jk1.dsgn, estratos = ˜PS, población = N.PS)
a1.jk
significar SE
as.factor(doc.visit)1 0.1602 0.0162 as.factor(doc.visit)2 0.8398
0.0162
a2.jk
como.factor(doc.visita)1 como.factor(doc.visita)2
0.1008 0.0192
pt.ests
noPS doc=1 lin PS doc=1 jk doc=1
Hispanos no 0,0785 0,0785 0,0785
hispanos blancos no 0.2077 0.2077 0.2077
hispanos Negros y otros 0.1044 0.1044 0.1044
dimnames(SE)[[2]] <- c("noPS SE doc=1","lin SE doc=1",
"jk SE doc=1")
Discusión: Las estimaciones puntuales de las proporciones con visitas al médico no son
afectados por la elección del método de estimación de la varianza. En este ejemplo, hay
hay muy poca diferencia en las estimaciones de SE y CV si la posestratificación
se contabiliza o no. Los SE y CV de linealización y jackknife son muy
similar.
15.8 Repita el ejercicio 15.6 utilizando el método de arranque con 500 repeticiones. Si
está usando R, use una semilla de número aleatorio de -711384152. ¿Cómo se comparan sus
estimaciones de errores estándar y CV con la linealización y el jackknife?
estimaciones del ejercicio 15.6?
adjuntar("C:\\Data\\nhis.large.RData", pos=2)
requerir (muestreo)
requerir (encuesta)
# colapsar hisp = 3,4
hisp.r <- nhis.large$hisp
hisp.r[nhis.large$hisp ==4] <- 3
mesa(hisp.r)
nhis.grande1 <- data.frame(nhis.grande, hisp.r)
nhis.large1$PS <- nhis.large1$edad.grp
N.PS <- tabla(PS = nhis.large1$PS)
Machine Translated by Google
doc=1 SE CV
Hispanos 0,1613 0,0338 0,2096
blancos no hispanos 0.2032 0.0232 0.1140 Negros no hispanos y otros 0.1097
0.0314 0.2863
Machine Translated by Google
Índice de autores
Earnst, S. 485
Eckman, S. 7, 265, 287, 288, 536
Efron, B. 430, 432 Ezzati-Rice, T.
485
221, 229, 239, 240, 400, 443, 514, 588,
590, 591
Fay, RE 428
Ferro, G. 32
Iannacchione, VG 4, 167, 288, 375, 484,
Filbet, M. 484
490, 510, 515, 534 Ingels, SJ 523
Folsom, RE 273, 386
Servicio de Rentas Internas 32
Foubert, AJ 484 Fowler, Organización Internacional de
F. 2 Francisco, C. 412,
Normalización 534 Isaki, CT 53, 60, 243,
415 Frankel, MR 4 381
Freund, R. 129 Friedman,
J. 338 Más completo,
WA 53, 60, 243, 381, Jans, M. 537
412, 415, Jin, Y. 523
508
Jones, N. 531
Joshi, VM 53
Gabler, S. 377 Jovanovic, BD 70
Gambino, JG 77, 580 Judkins, D. 248, 262, 338, 428
Gelman, A. 310 Godambe,
VP 53 G¨oksel, H. 248 Kalton, G. 70, 316, 317, 319, 338, 342,
Goldstein, H. 249 514
Goldstein, K. 167 Kang, JDY 407 Kass,
Graubard, BI 70, 249, 508 GV 338 Kavee, JA
Greenblatt, J. 485 Arboledas, 167, 510 Khare, M. 6
RM xxi, 2, 163, 225, 485, 491, Kim, JJ 342, 358 Kim,
JK 508–510 Kirgis, N.
493, 494, 538, 540, 542 xxi, 485, 494, 537, 538
Kish, L. 4 , 70, 173, 287, 313, 375,
Haeder, S. 377 376 Klar, J. 91 Kleven, Ø. 490
Halekoh, U. 78, 580
Haley, RW 288, 484
Machine Translated by Google
Lahiri, P. 377
Lange, K. 155
Lappin, BM 32 Lee, H.
508 Lee, K. 32
Lehtonen, R. 363 Centro Nacional de Estadísticas de Educación
Leinwand, S. 523 388
Lemeshow, S. 91 Navarro, A. 508
Leonard, D. 288 Ndiaye, SK xxi, 485, 494, 538 Neuwirth, E.
Lepkowski, J. xxi, 2, 103 Newcombe, RG 39 Neyman, J. 482,
485, 494, 537, 538 Levy, PS 70 Lewis, D. 531 Li, J. 514, 516 Nielsen, HB 155
342, 353, 358, 376 Liao, D. 353 Link, CF 494 Link,
MW 4 Little, RJA 318–320, 324 , 329, 330, 343, 486,
542 Liu, J. 375, 518 Liu, Y. 70 Loch, CH 533 Lohr,
SL 44, 318, 319, 482 Long, JS 551 Loosveldt, G. 490 Olkin, I. 113
Lu, W. 440 Lumley, T. 327, 359, 425, 580 Lundstr¨om, Olshen, R. 338
S. 510, 511, 541 Lwanga, S. 91 Lyberg, L. 2, 318, Olson, K. 318, 538, 542
484, 532, 542, 543 O'Muircheartaigh, C. 265, 287, 536, 542 Osborn, L. 4
Ottem, R. 523
Perry, S. 32
Peshock, RM 288
Peytchev, A. 538
Peytcheva, E. 540
Pfeffermann, D. 249 Pick,
MT 533 Pinheiro, JC 248,
580 Porter, EH 536 Potter, FJ
167, 273, 388, 510 Powell, SG
133 Pratt, DJ 523
Saigo, H. 430
Oficina del Censo de EE . UU . xx, 7, 259, 267, 283
S¨arndal, C. 5, 46, 52, 54, 59, 64, 66, 204, 220, 235,
242, 243, 253, 311, 351, 361–363, 399, 480, 486 ,
Vaeth, PC 288 Valliant,
505, 506, 510, 511, 513, 518, 519, 541 Schafer, JL
R. 29, 45, 51, 53, 59, 61, 64, 94, 248, 311, 342, 353,
407 Scheuren, FJ 536 Schlesselman, J. 91 Schnell,
358, 362, 363, 376, 401, 406, 440, 508, 511, 582
R. xxi, 536, 542, 543 Schouten, B. 541 Schwarz, N.
543 Searle, S. 243 Shao, J. 429, 430 Shewhart, WA
Van de Kerckhove, W. 248 Vapnik,
538 Simmons, RO 32 Singer, E. 2 Singh, AC 386, 490,
VN 338 Varadhan, R. 130, 155, 580
515 Sirkis, R. 537 Sitter, R. 430, 440 Skinner, CJ 249
Vartivarian, S. 319, 320, 324, 330,
Smith , PJ 6 Smith, TMF 311 Smith, V. 248 Smyth, JD
343 Veijanen, A. 363 Venables, WN 338, 339
486 Sonquist, JA 338 Spencer, BD 378 Sperry, S. 248
Venkataramanan, M. 132 Victor , RG 288 Visscher,
Staab, JM 4, 288 Starer, A. 180 Steele, F. 542 Stern,
WA 288
H. 310 Stone, C. 338 Stuart, E. 328, 331 Stukel, DM
362, 502, 503, 508 Swensson, B. 5, 46, 52, 54, 59, 64,
66,
Wagner, J. 542
Waksberg, J. 180, 248, 262
Weingessel, A. 382, 580 Weisberg,
S. 353 Weisstein, EW 324 West, BT
xxi, 485, 494, 538, 542 Westat 438
Wickham, H. 237, 580 Willenborg, L. 536
Willett, DL 288 Williams, SR 273 Wilson, EB 39
Winkler, WE 536 Winston, W. 132 Winter, N.
422 Wolter, KM 401, 404, 411, 440, 443,
444
Woodruff, RS 412, 415 Woodward,
M. 91, 106 Wretman, J. 5, 46, 52,
204, 220, 235, 242, 243, 253, 311, 362, 363, 399,
54, 59, 64, 66,
480, 486, 505, 506, 510, 513, 518, 519
204, 220, 235, 242, 243, 253, 311, 362, 363, 399,
480, 486, 505, 506, 510, 513, 518, 519 Wright, J.
Tepping, BJ 379, 514 Testa, 265 Wu, CFJ 429, 430, 432
VL 64 Thayer, WC 32 Therneau,
T. 78, 338, 580 Thiessen, V.
532 Thomas, B. 536 Tibshirani, R.
432 Yu, CL 508–510
Zilh-ao, MJ 531
Machine Translated by Google
Índice de materias
400–402
316
en proyecto de ponderación, 462
suposiciones, limitaciones, 411
ajustes de puntaje de propensión, 321–
descrito, 402 ejemplo de log-odds,
338, 462 estratificación de propensión,
405 ejemplo de razón, 403, 404
329 árbol de regresión en proyecto de
sustituciones lineales, 404 pasos de
ponderación,
ponderación múltiple, manejo, 463
árboles de regresión, 338–342
417
descripción general de, 308 rango
derivadas parciales, evaluación, 406 restrictivo de programación
fracciones de muestreo no despreciables, cuadrática, 381 recorte, 388–390
contabilización, 408–410 diseños de una elegibilidad desconocida, ajuste para,
PSU por estrato, 443 replicación, 418–437 314–316
estimador final de conglomerados, 236
en proyecto de ponderación, 459
Wes Var, 438 variabilidad de, 374–390