Está en la página 1de 679

Machine Translated by Google

Machine Translated by Google

Estadísticas para Ciencias Sociales y del Comportamiento

Consejeros:

SE Fienberg WJ
van der Linden

Para más volúmenes:


http://www.springer.com/3463
Machine Translated by Google
Machine Translated by Google

Richard Valliant • Jill A. Dever • Frauke Kreuter

Herramientas Prácticas para el Diseño


y Ponderación de Encuestas
Muestras

123
Machine Translated by Google

Ricardo Valiente Jill A. Dever


Universidad de Michigan RTI Internacional
Ann Arbor, MI, EE. UU. Washington, DC, EE. UU.

Frauke Kreuter
Universidad de Maryland
College Park, MD, EE. UU.

ISBN 978-1-4614-6448-8 DOI ISBN 978-1-4614-6449-5 (libro electrónico)


10.1007/978-1-4614-6449-5 Springer
Nueva York Heidelberg Dordrecht Londres

Número de control de la Biblioteca del Congreso: 2013935493

© Springer Science+Business Media Nueva York 2013 Este trabajo


está sujeto a derechos de autor. Todos los derechos están reservados por el Editor, ya sea que se trate de la totalidad o parte del
material, específicamente los derechos de traducción, reimpresión, reutilización de ilustraciones, recitación, transmisión,
reproducción en microfilmes o de cualquier otra forma física, y transmisión o almacenamiento de información. y recuperación,
adaptación electrónica, software de computadora, o por metodología similar o diferente ahora conocida o desarrollada en el futuro.
Se exceptúan de esta reserva legal los extractos breves relacionados con reseñas o análisis académicos o el material suministrado
específicamente con el propósito de ser ingresado y ejecutado en un sistema informático, para uso exclusivo del adquirente de la
obra. La duplicación de esta publicación o partes de la misma está permitida únicamente de conformidad con las disposiciones de
la Ley de derechos de autor de la ubicación del editor, en su versión actual, y siempre se debe obtener el permiso de uso de
Springer.
Los permisos de uso se pueden obtener a través de RightsLink en el Centro de autorización de derechos de autor. Las violaciones
están sujetas a enjuiciamiento bajo la respectiva Ley de Derechos de Autor.
El uso de nombres descriptivos generales, nombres registrados, marcas registradas, marcas de servicio, etc. en esta publicación
no implica, incluso en ausencia de una declaración específica, que dichos nombres estén exentos de las leyes y reglamentos de
protección pertinentes y, por lo tanto, libres para uso general.
Si bien se cree que los consejos y la información de este libro son verdaderos y precisos en la fecha de publicación, ni los autores
ni los editores ni el editor pueden aceptar ninguna responsabilidad legal por los errores u omisiones que puedan cometerse. El
editor no ofrece ninguna garantía, expresa o implícita, con respecto al material contenido en este documento.

Impreso en papel libre de ácido

Springer es parte de Springer Science+Business Media (www.springer.com)


Machine Translated by Google

A Carla y Joanna
Vince, Mark y Steph
Gerit y Konrad
Machine Translated by Google
Machine Translated by Google

Prefacio

El muestreo de encuestas es fundamentalmente un campo aplicado. Aunque ha habido muchos


avances teóricos en el muestreo en los últimos 40 años, la teoría no tendría sentido aisladamente.
La razón para desarrollar la teoría fue resolver problemas del mundo real. Aunque las
matemáticas detrás de los procedimientos pueden parecer, para muchos, impenetrables, no es
necesario ser un matemático profesional para utilizar con éxito las técnicas que se han
desarrollado.
Nuestro objetivo en este libro es poner una serie de herramientas al alcance de los practicantes
al explicar los enfoques utilizados durante mucho tiempo por los estadísticos de encuestas,
ilustrar cómo se puede usar el software existente para resolver problemas de encuestas y
desarrollar software especializado donde sea necesario. Esperamos que este libro sirva al
menos a tres audiencias:

(1) Estudiantes que buscan una comprensión más profunda del muestreo aplicado, ya sea a
través de un segundo curso de un semestre o por medio de una referencia complementaria

(2) Estadísticos de encuestas que buscan orientación práctica sobre cómo aplicar los conceptos
aprendidos en cursos de muestreo teóricos o aplicados.
(3) Científicos sociales y otros profesionales de encuestas que deseen conocer el pensamiento
estadístico y los pasos que se tomaron para diseñar, seleccionar y ponderar muestras
aleatorias de encuestas.

Se requiere cierto conocimiento básico de los métodos de muestreo aleatorio (p. ej., muestreo
aleatorio de una o varias etapas, la diferencia entre muestreo con y sin reemplazo, pesos base
calculados como el inverso de las probabilidades de inclusión de la muestra, conceptos detrás
del error de muestreo y prueba de hipótesis). requerido. Cuanto más familiares sean estos
términos y técnicas, más fácil será para el lector seguirlos. Primero abordamos la perspectiva
del estudiante.
Una queja familiar que tienen los estudiantes después de terminar una clase de muestreo
aplicado o de teoría del muestreo es: “Todavía no entiendo muy bien cómo diseñar una muestra”.
Los estudiantes aprenden muchas herramientas o técnicas aisladas, pero no tienen la capacidad
de juntarlas todas para diseñar una muestra de principio a fin.

viii
Machine Translated by Google

viii Prefacio

finalizar. Uno de los principales objetivos de este libro es dar a los estudiantes (y
practicantes) una idea de lo que implica el diseño de muestras de una o varias etapas en
el mundo real. Esto incluye diseñar un plan de muestreo a partir de información a veces
incompleta, decidir el tamaño de la muestra dado un presupuesto específico y tasas de
respuesta estimadas, crear estratos a partir de una selección de variables, asignar la
muestra a los estratos dado un conjunto de restricciones y requisitos para diferencias
detectables , y determinar los tamaños de muestra para usar en diferentes etapas en una
muestra de múltiples etapas. Cuando sea apropiado, se darán reglas generales para
ayudar a completar la tarea.
Los estudiantes encontrarán que un curso impartido a partir de este libro será una
combinación de aplicaciones prácticas y una revisión general de la teoría y los métodos
detrás de los diferentes enfoques de muestreo y ponderación. Los ejemplos detallados
permitirán completar los ejercicios al final de los capítulos. Varios proyectos pequeños,
pero realistas, se incluyen en varios capítulos. Recomendamos que los estudiantes los
completen trabajando juntos en equipos para dar una idea de cómo se llevan a cabo los
proyectos en las organizaciones encuestadoras.
Para los estadísticos de encuestas, el libro está destinado a brindar cierta experiencia
práctica en la aplicación de las ideas teóricas aprendidas en cursos anteriores en
equilibrio con la experiencia ya adquirida trabajando en el campo. En consecuencia, el
énfasis aquí está en aprender cómo emplear los métodos más que en aprender todos los
detalles de la teoría detrás de ellos. Sin embargo, no vemos esto como un simple libro
de cocina de alto nivel. Se revisan suficientes supuestos teóricos para que el lector pueda
aplicar los métodos de manera inteligente. Se proporcionan referencias adicionales para
aquellos que deseen más detalles o que necesiten un repaso.
Se utilizan varios conjuntos de datos de encuestas para ilustrar cómo diseñar muestras,
hacer estimaciones a partir de encuestas complejas para optimizar la asignación de
muestras y calcular ponderaciones. Estos conjuntos de datos están disponibles a través
de un sitio web host que se analiza a continuación y en el paquete R PracTools para que
el lector pueda replicar los ejemplos o realizar análisis adicionales.
Este libro también servirá como una referencia útil para otros profesionales
involucrados en la realización de encuestas por muestreo. El libro está organizado en
cuatro partes. Las primeras tres partes, Diseño de encuestas por muestreo de una sola
etapa, Diseños de varias etapas y Ponderaciones y análisis de la encuesta, comienzan
con una descripción de un proyecto de encuesta realista. Las herramientas generales y
algunos ejemplos específicos en los capítulos intermedios de la parte ayudan a abordar
las tareas intermedias requeridas para completar el proyecto. Con estos capítulos, se
hará evidente que el proceso hacia la solución de un diseño de muestra, una metodología
de ponderación o un plan de análisis requiere tiempo y aportes de todos los miembros
del equipo del proyecto. Cada parte del libro concluye con un capítulo que contiene una
solución al proyecto. Tenga en cuenta que decimos "una solución" en lugar de "la
solución", ya que el muestreo de la encuesta se puede abordar de muchas maneras ingeniosas pero cor
El libro contiene una discusión de muchos temas estándar cubiertos en otras fuentes,
pero desde una perspectiva ligeramente diferente, como se indicó anteriormente. También
cubrimos varios temas interesantes que no están incluidos o se tratan de manera limitada
en otros textos. Estas áreas incluyen:
Machine Translated by Google

Prefacio ix

• Cálculos del tamaño de la muestra para diseños de etapas múltiples


• Cálculos de potencia en relación con las encuestas
• Programación matemática para la asignación de muestras en un entorno de optimización
multicriterio
• Detalles prácticos del muestreo probabilístico de área
• Diseños multifase
• Control de calidad de las operaciones de levantamiento
• Software estadístico para muestreo y estimación de encuestas

Los diseños multifase y los procedimientos de control de calidad comprenden la parte final de
el libro—Otros temas. A diferencia de las otras áreas enumeradas anteriormente, los aspectos relacionados
a software estadístico se utilizan a lo largo de los capítulos para demostrar diversas técnicas.

La experiencia con una variedad de paquetes de software estadístico es esencial para estos
días para ser un buen estadístico. Los sistemas que destacamos son:

•R R (R Core Team 2012; Crawley 2007)


• S.A.S. R 1
• Microsoft Excel R2 R3
y su complemento Solver
• Stata • R4

SUDÁN $5

Hay muchas otras opciones disponibles actualmente, pero debemos limitar nuestro alcance.
Es probable que se desarrolle otro software a corto plazo, por lo que recomendamos
encuestar a los practicantes para mantener sus ojos abiertos.
R, una implementación libre del lenguaje S, recibe con mucho la mayor atención en este libro.
Asumimos algún conocimiento de R y hemos incluido conceptos básicos
información más referencias en el Apéndice C para aquellos menos familiarizados. el libro
y el paquete R asociado, PracTools, contienen una serie de funciones especializadas para el
tamaño de la muestra y otros cálculos y proporcionan una buena
complemento del paquete base descargado del sitio web principal de R,
www.r-project.org. El paquete PracTools también incluye conjuntos de datos utilizados
en el libro. Además de PracTools, los conjuntos de datos y las funciones R
desarrollados para el libro están disponibles individualmente a través de la web del libro
sitio alojado por el Programa Conjunto en Metodología de Encuestas (JPSM) ubicado en
www.jpsm.org; de la página de la Facultad. A menos que se especifique lo contrario, cualquier
función de R a la que se haga referencia en el texto se encuentra en el paquete PracTools.
A pesar de la extensión de este libro, no hemos cubierto todo lo que un
los practicantes deben saber. Una omisión obvia es qué hacer si falta
datos. Hay libros completos sobre ese tema que algunos lectores pueden encontrar

Una

www.sas.com.
2 office.microsoft.com.
3 www.solver.com.
4 stata.com.
5
www.rti.org/sudaan.
Machine Translated by Google

X Prefacio

útil. Otro tema es el muestreo de marco dual o múltiple. Los marcos duales pueden ser
especialmente útil cuando se muestrean poblaciones raras si una lista de unidades que probablemente
en el grupo raro se puede encontrar. La lista puede complementar un marco que da
Cobertura casi completa del grupo, pero requiere una evaluación exhaustiva.
para llegar a miembro del grupo raro.
Al momento de escribir esto, hemos estado colectivamente en la investigación de encuestas durante más años.
de lo que nos importa contar (o divulgar). Este campo ha proporcionado acertijos interesantes.
para resolver, nuevas perspectivas sobre la investigación sustantiva dentro de varios estudios, y una
red cada vez mayor de colaboradores entusiastas de todos los gustos.
Independientemente de cuál de las tres perspectivas aborde este libro,
Espero que encuentre el material presentado aquí para ser esclarecedor o incluso
empoderamiento a medida que su carrera avanza. Ahora que comience la diversión. . .

Ann Arbor, MI Ricardo Valiente


Washington DC Jill A. Dever
Parque universitario, MD Frauke Kreuter
Octubre 2012
Machine Translated by Google

Expresiones de gratitud

Estamos en deuda con muchas personas que han contribuido directa o indirectamente a la
redacción de este libro. Stephanie Eckman, Phillip Kott, Albert Lee y otro árbitro anónimo
nos brindaron reseñas detalladas y sugerencias sobre varios capítulos. Nuestros colegas,
Terry Adams, Steve Heeringa y James Wagner de la Universidad de Michigan, nos
aconsejaron sobre el uso de archivos de datos del gobierno de EE. UU., incluidos los del
censo decenal, la Encuesta de la comunidad estadounidense y la Encuesta de población
actual. Timothy Kennel de la Oficina del Censo nos ayudó a comprender cómo encontrar y
descargar datos del censo.
Thomas Lumley respondió muchas preguntas sobre el uso del paquete de encuestas R y
agregó algunas funciones a su software en el camino, según nuestras solicitudes. Las
discusiones sobre medidas compuestas de tamaño y muestreo basado en direcciones con
Vince Iannacchione fueron muy beneficiosas. Hans Kiesl, Rainer Schnell y Mark Trappmann
nos dieron una idea de los procedimientos y estándares estadísticos utilizados en la Unión
Europea. Los colegas de Westat (David Morganstein, Keith Rust, Tom Krenzke y Lloyd
Hicks) generosamente compartieron con nosotros algunos de los procedimientos de control
de calidad de Westat. Varias otras personas nos ayudaron en otros temas específicos:
Daniel Oberski en la estimación del componente de varianza; Daniell Toth sobre el uso del
paquete rpart R y árboles de clasificación y regresión, en general; David Judkins sobre los
ajustes por falta de respuesta; Jill Montaquila y Leyla Mohadjer sobre el permiso de muestreo;
Ravi Varadhan sobre el uso del paquete R de optimización de Alabama; Yan Li por el trabajo
inicial en SAS proc nlp; Andrew Mercer sobre los gráficos de Shewhart; Sylvia Meku por su
trabajo en algunos ejemplos de muestreo de áreas; y Robert Fay y Keith Rust sobre la
estimación de la varianza de la replicación.

Timothy Elig en el Centro de Datos de Mano de Obra de Defensa nos dio su


consentimiento para usar el conjunto de datos para el Estudio de Fuerzas-Reservas. Daniel
Foley de la Administración de Servicios de Salud Mental y Abuso de Sustancias nos permitió
usar el conjunto de datos de la Encuesta de Organizaciones de Salud Mental. Otros
conjuntos de datos utilizados en el libro, como los de la Encuesta Nacional de Entrevistas
de Salud, están disponibles públicamente.

xi
Machine Translated by Google

xi Expresiones de gratitud

También estamos extremadamente agradecidos con Robert Pietsch, quien creó los archivos TeX,
Florian Winkler quien programó el paquete PracTools en R, Valerie
Tutz, que ayudó a reunir la bibliografía, Melissa Stringfellow, que
revisó muchos de los ejercicios, y Barbara Felderer, que ayudó a revisar el
paquete R. También había muchos estudiantes y colegas (sin nombre aquí)
quienes contribuyeron a mejorar la presentación con sus muchas preguntas
y críticas.
Jill Dever agradece el apoyo financiero de RTI International. Frauke Kreuter
agradece el apoyo de la Ludwig-Maximilians Universit¨at.
Machine Translated by Google

Contenido

1 Una descripción general del diseño y la ponderación de la muestra ......... 1 1.1 Antecedentes
y terminología ........................... ... ... 1 1.2 Guía de capítulos ........................................ ......
7

Parte I Diseño de encuestas por muestreo de etapa única

2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única . . . . . . . . 15 2.1


Especificaciones del Estudio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15 2.2 Preguntas
planteadas por el equipo de diseño . . . . . . . . . . . . . . . . . . . . . 16 2.3 Análisis
preliminares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 2.4
Documentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21 2.5 Próximos
pasos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

3 Diseño de la muestra y tamaño de la muestra para etapa única


encuestas _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 3.1
Determinación de un tamaño de muestra para un diseño de etapa única . . . . . . . . 26
3.1.1 Muestreo aleatorio simple . . . . . . . . . . . . . . . . . . . . . . . . . 28 3.1.2 Muestreo
aleatorio simple estratificado . . . . . . . . . . . . . . . . 43
3.2 Hallar tamaños de muestra al muestrear con variables
probabilidades _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 51 3.2.1
Muestreo de probabilidad proporcional al tamaño . . . . . . . . . . . 51 3.2.2
Estimaciones de regresión de totales . . . . . . . . . . . . . . . . . . . . . 59 3.3 Otros
métodos de muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 63 3.4 Estimación de
parámetros de población a partir de una muestra . . . . . . . . . . 64 3.5 Temas
especiales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.5.1 Características
raras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68 3.5.2 Estimaciones de
dominio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70 3.6 Más discusión sobre los
efectos del diseño . . . . . . . . . . . . . . . . . . . . . . . . 75

XIII
Machine Translated by Google

xiv Contenido

3.7 Software para selección de muestras . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76


3.7.1 Paquetes R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 76 3.7.2
SAS PROC SELECCIONAR ENCUESTA . . . . . . . . . . . . . . . . . . . . . 81
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84

4 Cálculos de potencia y determinación del tamaño de la muestra. . . . . . . 91 4.1


Terminología y pruebas de una muestra . . . . . . . . . . . . . . . . . . . . . . . 92 4.2
Potencia en una prueba de una muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.3 Pruebas de dos muestras . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3.1 Diferencias de medias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 4.3.2
Diferencias de proporciones . . . . . . . . . . . . . . . . . . . . . . . . . 108 4.3.3 Caso
especial: Riesgo relativo . . . . . . . . . . . . . . . . . . . . . . . . 112 4.3.4 Caso
especial: Tamaños del efecto . . . . . . . . . . . . . . . . . . . . . . . . . . 113 4.4
Funciones de potencia R . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 113 4.5
Cálculos de potencia y tamaño de muestra en SAS. . . . . . . . . . . . . . . . 122
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 125

5 Programación Matemática . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 129 5.1 Optimización


multicriterio . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 130 5.2 Solucionador de
Microsoft Excel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133 5.3 PNL PROC
SAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145 5.4 MODELO OPCIONAL
PROC SAS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150 5.5 Paquete R
alabama . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155 5.6 Contabilización de
las variaciones del problema . . . . . . . . . . . . . . . . . . . . . . . 159
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

6 Tasas de resultado y efecto sobre el tamaño de la muestra . . . . . . . . . . . . . . . . 163


6.1 Códigos de disposición . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 164 6.2
Definiciones de tasas de resultados . . . . . . . . . . . . . . . . . . . . . . . . . . . . 166 6.3
Unidades de muestra con clasificación AAPOR desconocida . . . . . . . . 171 6.4
Tasas ponderadas versus no ponderadas . . . . . . . . . . . . . . . . . . . . . . . 173 6.5
Contabilización de pérdidas de muestra en la determinación inicial
Tamaño de la muestra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
174 6.5.1 Tamaño de la muestra Tasas de inflación en el
trabajo . . . . . . . . . . . . . . . . 174 6.5.2
Réplicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 176 Ejercicios . . . . . . . . . . . . . . . . . . . .

7 El proyecto de diseño de encuestas de personal: una solución . . . . . . 185 7.1


Resumen del Proyecto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185 7.2 Formular
el problema de optimización . . . . . . . . . . . . . . . . . . . . . 186 7.2.1 Funciones
objetivo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186 7.2.2 Variables de
decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187 7.2.3 Parámetros de
optimización . . . . . . . . . . . . . . . . . . . . . . . . . . 187 7.2.4 Restricciones de
levantamiento especificadas . . . . . . . . . . . . . . . . . . . . . . . 188
Machine Translated by Google

Contenido XV

7.3 Una solución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 7.3.1 Análisis


de potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 189 7.3.2 Resultados de
la optimización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 7.4 Análisis de
sensibilidad adicional . . . . . . . . . . . . . . . . . . . . . . . . . . 193 7.5
Conclusiones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

Parte II Diseños de Etapas Múltiples

8 Proyecto 2: Diseño de una muestra de área . . . . . . . . . . . . . . . . . . . . . 199

9 Diseño de muestras de varias etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 203 9.1 Tipos de


fuentes de alimentación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 204 9.2
Resultados de la varianza básica . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 9.2.1
Muestreo en dos etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205 9.2.2
Estimadores no lineales en muestreo en dos etapas . . . . . . . . 212 9.2.3 Diseños
de dos etapas más generales. . . . . . . . . . . . . . . . . . . 215 9.2.4 Muestreo en tres
etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 218
9.3 Funciones de costo y asignaciones óptimas para etapas múltiples
Muestreo _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 9.3.1
Muestreo en dos etapas cuando el número de muestras
Las PSU y los elementos por PSU son ajustables . . . . . . . . 225
9.3.2 Muestreo en tres etapas cuando los tamaños de muestra son
Ajustable _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
9.3.3 Muestreo en dos y tres etapas con un conjunto fijo
de PSU . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
9.4 Estimación de medidas de homogeneidad y varianza
componentes _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 9.4.1
Muestreo en dos etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 235 9.4.2 Muestreo
en tres etapas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 9.4.3 Uso de desviaciones
anticipadas . . . . . . . . . . . . . . . . . . . . . . . 243 9.5 Estratificación de las
UPM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 249 9.6 Identificación de
certezas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 250
ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 251

10 Muestreo de área . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 10.1


Unidades Geográficas Censales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 258 10.2
Datos del Censo y Datos de la Encuesta sobre la Comunidad Estadounidense . . . . . . .
261 10.3 Unidades en diferentes etapas de muestreo . . . . . . . . . . . . . . . . . . . . . 262
10.3.1 Unidades primarias de muestreo. . . . . . . . . . . . . . . . . . . . . . . . . . . 263
10.3.2 Unidades de muestreo secundarias .10.3.3 . . . . .Unidades
. . . . . . . . finales
. . . . . .de
. . . . . 264
muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . 266 10.4 Ejemplos de muestras de
probabilidad de área . . . . . . . . . . . . . . . . . . . . 266 10.4.1 Encuesta de Población
Actual . . . . . . . . . . . . . . . . . . . . . . . . 267 10.4.2 Encuesta Nacional sobre
Consumo de Drogas y Salud . . . . . . . . . . . . 270 10.4.3 Panel Arbeitsmarkt und
Soziale Sicherung . . . . . . . . . . . 271
Machine Translated by Google

xvi Contenido

10.5 MOS compuesto para áreas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 273


10.5.1 Diseño de la muestra desde cero . . . . . . . . . . . . . . . . . 273 10.5.2
Uso del MOS compuesto con una PSU existente
muestra _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277
10.6 Efectos del cambio demográfico: el problema de la nueva construcción . .
282 10.7 Listas de direcciones especiales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
288 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 290

11 El diseño muestral del área: una solución . . . . . . . . . . . . . . . . . . . 293

Parte III Ponderaciones y análisis de la encuesta

12 Proyecto 3: Ponderación de una encuesta de personal . . . . . . . . . . . . . . . . . 303

13 Pasos básicos en la ponderación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 307 13.1


Descripción general de la ponderación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
308 13.2 Teoría de ponderación y estimación . . . . . . . . . . . . . . . . . . . . . . 309
13.3 Pesos base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 13.4
Ajustes por elegibilidad desconocida . . . . . . . . . . . . . . . . . . . . . . 314 13.5 Ajustes
por falta de respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . 316 13.5.1 Ajustes de
clases de ponderación . . . . . . . . . . . . . . . . . . . . . . 319 13.5.2 Ajustes de
puntuación de propensión . . . . . . . . . . . . . . . . . . . . . 321 13.5.3 Algoritmos
de clasificación . . . . . . . . . . . . . . . . . . . . . . . . . . 338 13.6 Colapsar clases
predefinidas . . . . . . . . . . . . . . . . . . . . . . . . . . . . 342 13.7 Ponderación para
diseños multietapa . . . . . . . . . . . . . . . . . . . . . . . . . 343 13.8 Próximos pasos en
la ponderación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346

14 Calibración y otros usos de datos auxiliares en el


pesaje . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349 14.1
Calibración de peso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 351 14.2
Estimadores posestratificados y rastrillados . . . . . . . . . . . . . . . . . . . . . 353 14.3
GREG y estimación de calibración . . . . . . . . . . . . . . . . . . . . . . . 361 14.3.1
Vínculos entre modelos, diseños muestrales y estimadores: casos
especiales . . . . . . . . . . . . . . . . . . . . . 363 14.3.2 Ejemplos más
generales . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 14.4 Variabilidad del
peso . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 374 14.4.1 Cuantificación
de la variabilidad . . . . . . . . . . . . . . . . . . . . . . . . 375 14.4.2 Métodos para
limitar la variabilidad. . . . . . . . . . . . . . . . . . . . . . . 381
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 390

15 Estimación de la varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397 15.1 Métodos


exactos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398 15.2 Estimadores lineales y
no lineales . . . . . . . . . . . . . . . . . . . . . . . 400
Machine Translated by Google

Contenido xvii

15.3 Estimación de la varianza de linealización . . . . . . . . . . . . . . . . . . . . . . . . 402 15.3.1


Método de estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 15.3.2 Intervalos
de confianza y grados de libertad . . . . . . . . 406 15.3.3 Contabilización de fracciones
de muestreo no despreciables . . . . 408 15.3.4 Estimación de
dominios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 410 15.3.5 Supuestos y
limitaciones . . . . . . . . . . . . . . . . . . . . . . 411 15.3.6 Casos especiales:
posestratificación y cuantiles . . . . . . . 412 15.3.7 Manejo de varios pasos de
ponderación con
Linealización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 417 15.4
Replicación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 15.4.1 Replicación
Jackknife . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 418 15.4.2 Replicación repetida
equilibrada . . . . . . . . . . . . . . . . . . . . 426 15.4.3
Arranque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 430 15.5 Combinación
de UPM o estratos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 437 15.5.1 Combinación para
reducir el número de réplicas . . . . . . 437 15.5.2 Cuántos grupos y qué estratos y
UPM
para combinar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 441
15.5.3 Combinación de estratos en diseños de una PSU por
estrato . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 443 15.6
Manejo de fuentes de alimentación de certeza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
444 Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 448

16 Ponderación de la encuesta de personal: una solución . . . . . . . . . . . 453 16.1 Los archivos


de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 454 16.2 Pesos
base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 455 16.3 Códigos de disposición
y mapeo en categorías de ponderación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
456 16.4 Ajuste por elegibilidad desconocida . . . . . . . . . . . . . . . . . . . . . . 459 16.5
Variables disponibles para ajuste por falta de respuesta . . . . . . . . . . . 460 16.6 Ajustes
por falta de respuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 462 16.7 Calibración para
recuentos de población. . . . . . . . . . . . . . . . . . . . . . . . . 466 16.8 Escritura de archivos de
salida . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 474 16.9 Tabulaciones de
ejemplo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 475

Parte IV Otros Temas

17 Diseños multifásicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 479 17.1 ¿Qué es un


diseño multifásico? . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 17.2 Ejemplos de diferentes
diseños multifásicos . . . . . . . . . . . . . . . . . 482 17.2.1 Muestreo doble para
estratificación . . . . . . . . . . . . . . . . . . 482 17.2.2 Submuestreo de no
respondedores . . . . . . . . . . . . . . . . . . . . . . . 485 17.2.3 Diseños
receptivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 491 17.2.4 Diseños multifásicos
generales . . . . . . . . . . . . . . . . . . . . . . . 494
Machine Translated by Google

xviii Contenido

17.3 Ponderaciones de la encuesta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494


17.3.1 Pesos base . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 494 17.3.2 Pesos de
análisis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498 17.4
Estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 502 17.4.1 Estimación
puntual descriptiva. . . . . . . . . . . . . . . . . . . . . . . 502 17.4.2 Estimación de la
varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 504 17.4.3 Estimador de regresión
generalizado (GREG) . . . . . . . . . . 510 17.5 Opciones de
diseño . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 513 17.5.1 Multifásica versus
monofásica . . . . . . . . . . . . . . . . . . . . 514 17.5.2 Cálculos del tamaño de la
muestra . . . . . . . . . . . . . . . . . . . . . . . . . . 515 17.6 R
Software . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 523
Ejercicios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 527

18 Control de Procesos y Medidas de Calidad . . . . . . . . . . . . . . . . . . . . 531 18.1 Diseño y


planificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 532 18.2 Control de calidad en la
creación de marcos y selección de muestras . . . . 534 18.3 Supervisión de la recopilación de
datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 536 18.4 Índices e indicadores de
desempeño . . . . . . . . . . . . . . . . . . . . . . . . 540 18.5 Edición de
datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543 18.5.1 Edición de códigos
de disposición . . . . . . . . . . . . . . . . . . . . . . . . . 544 18.5.2 Edición de las variables de
ponderación . . . . . . . . . . . . . . . . . . . . 545 18.6 Control de calidad de los pasos de
ponderación . . . . . . . . . . . . . . . . . . . . . . . 546 18.7 Escritura y programación de
especificaciones . . . . . . . . . . . . . . . . . . . 549 18.8 Documentación y archivo del
proyecto . . . . . . . . . . . . . . . . . . . . 551

Apéndice A: Glosario de notación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 555

Apéndice B: Conjuntos de datos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 571

Apéndice C: Funciones de R utilizadas en este libro . . . . . . . . . . . . . . . . . . 579 C.1 R Descripción


general . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 579 C.2 Funciones R
definidas por el autor . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 582

Referencias _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605

Soluciones a ejercicios seleccionados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 617

Índice de autores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 661

Índice de materias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 665


Machine Translated by Google

Lista de Figuras

3.1 Tamaños de muestra aproximados de la ecuación. (3.8) requerido para lograr


CV s de 0,05 y 0,10 para proporciones de población que oscilan entre 0,10 y
0,90. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 36
3.2 Diagrama de dispersión de una muestra de n = 10 unidades muestrales del hospital
población. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.3 Gráfico de gastos totales versus número de camas para el SMHO
población. La línea gris es un suavizador no paramétrico (lowess). 55

ˆ¯
4.1 Densidades normales de las estadísticas de prueba bajo H0 y HA. ÿ V y
se establece igual a 3 en esta ilustración, de modo que E{t|HA es verdadero} = 3.
Se realiza una prueba unilateral en el nivel 0,05. . . . . . . . . . . . . . . . . . . 99
4.2 Una hoja de cálculo de Excel para los cálculos de los Ejemplos 4.2
y 4.3. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
4.3 Una hoja de cálculo de Excel para los cálculos de los Ejemplos 4.2
y 4.3 con fórmulas mostradas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
4.4 Potencia para tamaños de muestra de n = 10, 25, 50, 100 en una prueba bilateral
de H0 : ÿD = 0 frente a HA : |ÿD| = ÿ (ÿ = 0,05, ÿd = 3). . . . . . . . . 106

5.1 Configuración de hoja de cálculo de Excel para usar con Solver . . . . . . . . . . . . . . . . . . 136
5.2 Captura de pantalla de la pantalla de diálogo de Excel Solver . . . . . . . . . . . . . . . . 137 5.3
Captura de pantalla de la pantalla de diálogo Cambiar restricción . . . . . . . . . . . 137 5.4 Ventana
de opciones de Solver donde se pueden configurar y configurar los parámetros de ajuste.
modelos guardados . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
5.5 Informe de respuesta del solucionador para el establecimiento comercial
ejemplo _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140 5.6 Informe
de sensibilidad de Solver para el ejemplo de establecimiento comercial 141 5.7 Hoja de cálculo
de Excel para encontrar tasas de submuestreo a través de
programación _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 144

7.1 Cuadro de entrada de parámetros de optimización de Excel Solver. . . . . . . . . . . . . . . . 193

xix
Machine Translated by Google

XX Lista de Figuras

9.1 Coeficientes de variación para una media estimada para diferentes números
de elementos de muestra por UPM. . . . . . . . . . . . . . . . . . . . . . . . . 227

10.1 Jerarquía geográfica de unidades definida por la Oficina del Censo de EE. UU.
Véase Oficina del Censo de EE. UU. (2011). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 259
10.2 Un mapa de la estadística metropolitana de Washington-Baltimore
área y subdivisiones más pequeñas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
10.3 Plan de rotación de las UCE en la Encuesta Nacional sobre Consumo de Drogas
y salud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272

11.1 Mapa de tramos del condado de Anne Arundel, Maryland ... . . . . . . . . . . . . . 299 11.2 Zonas
seleccionadas en el condado de Anne Arundel. . . . . . . . . . . . . . . . . . . . . . 300

13.1 Pasos generales utilizados en la ponderación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309 13.2


Densidad de la variable latente para la respuesta de la encuesta. . . . . . . . . . . . . . 322 13.3
Gráfica de probabilidades versus enlaces estandarizados para logit, probit,
y modelos c-log-log. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324
13.4 Comparaciones de probabilidades predichas de logística, probit y
modelos logarítmicos complementarios para la respuesta. . . . . . . . . . . . . . . . . . . . 325
13.5 Comparación de probabilidades pronosticadas no ponderadas y ponderadas
a partir de modelos logísticos, probit y log-log complementarios. . . . . . . . 328
13.6 Diagramas de caja de probabilidades predichas basadas en regresión logística
después de clasificar en cinco clases de propensión. . . . . . . . . . . . . . . . . . . . . . . 332
13.7 Árbol de clasificación de las clases de ajuste por falta de respuesta en el
datos del NHIS. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340

14.1 Diagramas de dispersión de dos relaciones hipotéticas entre una encuesta


variable y y un auxiliar x. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350 14.2 Matriz de
diagrama de dispersión de variables en el conjunto de datos smho.N874. . . . . . 366 14.3 Gráficos
de gastos versus camas para los cuatro tipos de hospitales. . . . . 367 14.4 Residuos estudentizados
graficados versus camas para el
datos smho.N874.sub. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
14.5 Gráficas de pesos para los diferentes métodos de calibración en apps
muestra. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 372
14.6 Gráfico de una submuestra de 500 puntos de Hansen, Madow,
y Tepping (1983) población. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 380
14.7 Pesos recortados graficados versus pesos base y GREG
pesos en una muestra de la población smho.N874.. . . . . . . . . . 390

15.1 Histogramas de estimaciones de arranque del recuento total de fin de año de


pacientes en la población SMHO. . . . . . . . . . . . . . . . . . . . . . . . . . . . 436
15.2 Histograma de estimaciones bootstrap del gasto medio total
en la población SMHO. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 438

16.1 Boxplots de propensiones de respuesta estimadas agrupadas en 5 y


10 clases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 465
Machine Translated by Google

Lista de Figuras xxx

16.2 Árbol de regresión para predecir la respuesta en base a las cuatro variables
disponible para encuestados y no encuestados ... . . . . . . . . . . . . . . . 466 16.3 Árbol
de regresión para predecir la probabilidad de reincorporación. . . . . . . . . . 471

17.1 Transición de casos de muestra a través de los estados de una encuesta bajo
un muestreo doble para el diseño de estratificación. . . . . . . . . . . . . . . . . . . . 483
17.2 Relación de los relbias de una media poblacional estimada a
las medias de los encuestados y los no encuestados. . . . . . . . . . . . . . . . . 487
17.3 Transición de casos de muestra a través de los estados de una encuesta bajo
un muestreo doble para el diseño de no respuesta. . . . . . . . . . . . . . . . . . . . . 489
17.4 Flujo de casos de muestra a través de una respuesta simulada de dos fases
diseño. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 492
17.5 Flujo de casos de muestra de diseño receptivo asignados a la encuesta
condición 1(1) en la fase uno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 493
17.6 Transición de casos de muestra a través de los estados de una encuesta bajo
un diseño multifásico general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 495

18.1 Diagrama de Gantt de ejemplo (usando MS Project): pregunta de filtro


proyecto en el IAB. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 533
18.2 Diagrama de flujo de ejemplo: diseño de estudio y muestreo de SRO best
manual de práctica. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535
18.3 Tasas de contacto para cada submuestra por semana natural en la encuesta
PASS del Instituto de Investigación del Empleo, Alemania (M¨uller,
2011). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 537
18.4 Tasas de respuesta acumuladas por subgrupos en la encuesta nacional de
crecimiento familiar, la intervención se lanzó durante la zona gris (Lepkowski
et al., 2010). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 538
18.5 Proporción de llamados incompletos por días en campo. Datos de la articulación
Program in Survey Methodology (JPSM) encuesta práctica 2011. 539
18.6 Contribución del entrevistador a rho en el teléfono DEFECTO
encuesta, basada en Kreuter (2002); los datos de la encuesta se describen
en Schnell y Kreuter (2005). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 543
18.7 Preguntas sobre etnicidad y raza utilizadas en el decenio de 2010
censo _ . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547 18.8
Registro de notas del proyecto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550 18.9
Ejemplo de nota. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 550 18.10 Cabecera
del programa (archivo SAS). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 552 18.11 Diagrama
de flujo para la ponderación en la encuesta NAEP. . . . . . . . . . . . . . . . . . 553
Machine Translated by Google

Capítulo 1
Una descripción general del diseño y la
ponderación de la muestra

Este es un libro práctico. Muchas técnicas utilizadas por los encuestadores no están
cubiertas por los libros de texto estándar, pero son necesarias para realizar un trabajo
profesional al diseñar muestras y preparar datos para análisis. En este libro, presentamos
una colección de métodos que hemos encontrado más útiles en nuestro propio trabajo
práctico. Dado que el software de computadora es esencial para aplicar las técnicas, se
proporciona un código de ejemplo en todo momento.
Suponemos que la mayoría de los lectores estarán familiarizados con los diversos
factores que afectan las decisiones básicas de diseño de encuestas. Para aquellos,
recomendamos saltarse la siguiente sección y leer la guía de capítulos (Sección 1.2) en su
lugar. Para todos los demás, secc. 1.1 proporcionará una breve reseña sobre dónde encaja
el diseño y la ponderación de la muestra en la gran tarea de diseñar una encuesta. Aquí se
define cierta terminología y notación asociada que resultará útil a lo largo del libro. El
glosario del Apéndice A es una lista más completa de la notación utilizada a lo largo del
libro. Algunos temas, como el muestreo multietapa, requieren una notación bastante
elaborada (y difícil de recordar). El Glosario de notación será una referencia útil para la
mayoría de los lectores.

1.1 Antecedentes y terminología

La elección de un diseño de muestra para una encuesta requiere la consideración de una


serie de factores. Entre ellos están (1) especificar el(los) objetivo(s) del estudio; (2) traducir
un problema de la materia en un problema de encuesta; (3) especificar la población objetivo,
las unidades de análisis, las variables clave del estudio, las variables auxiliares (es decir,
las covariables relacionadas con las variables del estudio y para las que pueden estar
disponibles las estadísticas de la población) y los parámetros de la población a estimar; (4)
determinar qué marco(s) de muestreo están disponibles para seleccionar unidades; y (5)
seleccionar un método apropiado de recopilación de datos. En base a estas consideraciones,

R. Valliant et al., Herramientas prácticas para diseñar y ponderar Una

muestras de encuestas, Estadísticas para ciencias sociales y del


comportamiento 51, DOI 10.1007/978-1-4614-6449-5 1, © Springer Science+Business Media New York 2013
Machine Translated by Google

2 1 Una descripción general del diseño y la ponderación de la muestra

(6) se puede diseñar y seleccionar una muestra. A lo largo de todos estos pasos, se deben
tomar decisiones de compensación en función del presupuesto y las limitaciones de tiempo
para completar el trabajo.
Libros introductorios como Metodología de encuestas (Groves et al. 2004) o Introducción
a la calidad de las encuestas (Biemer y Lyberg 2003) cubren muy bien estos temas y se
recomiendan como suplementos al material presentado en este libro. Un enfoque principal
aquí es el sexto paso y, por lo tanto, solo comentaremos brevemente los otros cinco en la
medida en que sean necesarios para comprender nuestra discusión sobre el diseño, la
selección y la ponderación de la muestra.
(1) Los objetivos del estudio pueden establecerse de manera muy general, en cuyo
caso es responsabilidad del investigador de la encuesta ayudar al patrocinador (es decir, el
cliente) a especificar algunas metas medibles. Aunque parece obvio que nadie emprendería
la recopilación de datos sin intenciones bien planificadas, a menudo no es así. Parte del
oficio del diseño de encuestas es traducir un problema temático en un problema de
encuesta. Esto puede implicar convertir ideas vagas como las siguientes en medidas
concretas: “medir las actitudes de los empleados de una empresa”; “determinar qué tan
saludable es un grupo demográfico en particular, como las personas con un ingreso familiar
por debajo de la línea de pobreza”; “decidir qué tan bien un sistema escolar local está
sirviendo a sus estudiantes”. Algunos objetivos son muy amplios y muy difíciles de
operacionalizar. Por ejemplo, medir los cambios de precios en todos los sectores de la
economía de una nación es un objetivo de la mayoría de los gobiernos occidentales. Los
índices de precios al consumidor, al productor y de importación/exportación suelen ser los
vehículos para hacerlo. La teoría económica para un índice de costo de vida (COLI) se
formula a nivel de un solo consumidor. Por otro lado, un índice de precios está destinado a
aplicarse a un gran grupo de consumidores. La traducción del problema de la materia en un
problema de encuesta requiere decidir cuál de algunos índices de precios alternativos se
aproxima mejor al COLI. El objetivo del estudio afectará todos los demás aspectos del
diseño de la encuesta.
(2) No importa si se enfrenta a un objetivo simple o complejo, para determinar qué tipo
de muestra y el tamaño de muestra asociado son adecuados para lograr el objetivo, los
conceptos teóricos en estudio deben traducirse en constructos que puedan medirse a
través de una encuesta, y los objetivos mismos deben ser cuantificados de alguna manera.

Un ejemplo de un objetivo económico es estimar la tasa de desempleo. Esto se hace a


menudo a través de una encuesta de hogares como la Encuesta de Población Actual
(CPS)1 en los EE. UU. o la Encuesta de Fuerza Laboral (LFS)2 en Canadá.
Medir la tasa de desempleo requiere definir constructos como lo que significa estar en la
fuerza laboral, es decir, tener un trabajo o querer un trabajo, y lo que significa estar
empleado, estar buscando un trabajo si aún no lo tiene. , y si realizar trabajo no remunerado
en una empresa familiar constituye tener una

Una

http://www.census.gov/cps/. http://
2
www.statcan.gc.ca/.
Machine Translated by Google

1.1 Antecedentes y terminología 3

trabajo. A menudo es necesario hacer concesiones entre los conceptos y los elementos
específicos que se pueden recopilar. Por ejemplo, la siguiente pregunta está tomada del
instrumento de encuesta de la Encuesta Nacional de Entrevistas de Salud (NHIS)3 de EE. UU .:

¿ALGUNA VEZ un médico u otro profesional de la salud le ha dicho que tenía una
enfermedad coronaria?

Dado que la comprensión de un encuestado sobre sus propios problemas de salud puede ser
defectuosa, el método más válido podría ser preguntar directamente a un médico si el
encuestado tiene una enfermedad cardíaca. Pero preguntarle al encuestado parece ser un
compromiso destinado a reducir los costos.
Una vez que se han identificado las medidas clave, se pueden establecer objetivos
estadísticos. Los objetivos suelen establecerse en términos de medidas de precisión. Las
estimaciones de precisión incluyen errores estándar (SE) o errores estándar relativos, definidos
como el SE de un estimador dividido por el parámetro de población que se está estimando. Un
error estándar relativo de un estimador también se denomina coeficiente de variación (CV).
Usamos el término CV en todo el libro. Un objetivo de precisión podría ser estimar la proporción
de adultos con enfermedad coronaria con un CV de 0,05, es decir, el error estándar de la
proporción estimada es del 5 % de la proporción misma. Estos objetivos se pueden establecer
para muchas variables diferentes.
(3) Especificar una población objetivo también requiere algo de reflexión. Una población
objetivo es el conjunto de unidades para las que se pueden obtener mediciones y puede diferir
de la población (inferencial) para la que realmente se desean inferencias científicas. Por
ejemplo, al hacer una encuesta para medir la relación entre el tabaquismo y los problemas de
salud, los investigadores de la salud están interesados en las relaciones que existen en general
y no solo en el año particular de recopilación de datos. Las unidades analíticas (o unidades de
observación) son los miembros de la población objetivo que están sujetos a las mediciones de
la encuesta. Adicionalmente, el estudio podrá especificar el análisis de unidades que tengan
características particulares, lo que se conoce como criterios de elegibilidad. Por ejemplo, una
encuesta de métodos de atención prenatal puede incluir solo mujeres de 18 a 50 años, y un
estudio para estimar las tasas de anemia falciforme en los EE. UU. puede incluir solo
afroamericanos.
(4) Rara vez hay una coincidencia uno a uno entre las poblaciones objetivo y los marcos de
muestreo disponibles para los investigadores. Si existe un marco con información de contacto,
como domicilio o direcciones de correo electrónico, entonces puede ser relativamente rápido y
económico seleccionar una muestra y distribuir encuestas impresas o electrónicas. Dichos
marcos suelen existir para miembros de una asociación profesional, empleados de una
empresa, personal militar y habitantes de los países escandinavos con registros de población
total. Dependiendo del patrocinador de la encuesta, estos marcos pueden o no estar disponibles
para el muestreo. En ausencia de marcos de muestreo fácilmente disponibles, a menudo se
utilizan muestras de probabilidad de área. Esos toman algún tiempo para diseñar y seleccionar
(a menos que se pueda usar una muestra existente o un marco de lista de direcciones).

3
http://www.cdc.gov/nchs/nhis.htm.
Machine Translated by Google

4 1 Una descripción general del diseño y la ponderación de la muestra

Al momento de escribir este artículo, existe un marco de muestreo bastante nuevo en los EE.
UU. que se basa en el archivo de secuencia de entrega (DSF) del Servicio Postal de EE. UU.
(USPS) (Iannacchione et al. 2003; Iannacchione 2011; Link et al. 2008). El DSF es un archivo
computarizado que contiene casi todas las direcciones de puntos de entrega atendidas por USPS.
Algunos investigadores utilizan el DSF como reemplazo de las encuestas telefónicas de marcación
de dígitos aleatorios (RDD) o como complemento de las listas de campo recopiladas en muestras
de área (ver más abajo). Los proveedores comerciales de muestras de encuestas venden
versiones "mejoradas" del DSF que, para muchas direcciones, pueden incluir un número de
teléfono fijo, un nombre asociado con la dirección, un indicador de apellido en español, la edad
estimada del cabeza de familia, así como algunos datos geocodificados. (es decir, latitud y
longitud) e información del sector censal. Si son precisos, estos elementos pueden mejorar la
eficiencia de una muestra al permitir la selección de diferentes grupos.
(5) Una de las decisiones críticas que se deben tomar y que tiene una relación directa con el
diseño de la muestra es el método de recopilación de datos. El método de recopilación de datos
se elige sopesando factores como el presupuesto, el cronograma, el tipo de datos recopilados, la
disponibilidad del marco, la viabilidad de usar el método con miembros de la población objetivo y
las tasas de resultados esperados (p. ej., tasas de contacto y respuesta). para diferentes métodos.
La recolección de muestras de sangre además de las respuestas al cuestionario podría sugerir
una entrevista en persona con un entrevistador de campo acompañado o también capacitado
como flebotomista. Un estudio de estudiantes de secundaria puede, por ejemplo, incluir la
recopilación de datos a través de la Web en un salón de clases. Sin embargo, la recopilación de
datos a través de un cuestionario autoadministrado (en papel) no sería práctico para una población
analfabeta. Hoy en día, muchas encuestas consideran el uso de múltiples modos para encontrar
el equilibrio adecuado entre el costo, la puntualidad y la calidad de los datos.

Si se requieren entrevistas personales o cuando no se dispone de marcos de muestreo a nivel


nacional, puede ser necesario el muestreo de áreas por conglomerados. La agrupación permite
que los entrevistadores sean reclutados para un número limitado de áreas y ayuda a controlar la
cantidad de viajes necesarios para hacer una lista de direcciones o una entrevista. El agrupamiento
de una muestra, como en el muestreo de etapas múltiples, por lo general dará lugar a variaciones
más grandes para un tamaño de muestra determinado en comparación con una muestra no
agrupada. Dos medidas que son simples, pero extremadamente útiles para expresar el efecto de
la agrupación en las estimaciones de la encuesta, son el efecto del diseño y el tamaño efectivo de
la muestra introducido por Kish (1965). Los definimos aquí y los usaremos repetidamente en los
próximos capítulos:

• Efecto de diseño (deff): la relación entre la varianza de un estimador bajo un diseño complejo y
la varianza que se habría obtenido de una muestra aleatoria simple (srs) del mismo número
de unidades. Simbólicamente, V(ÿ ˆ) deff ˆÿ = donde ˆÿ es un estimador de algún parámetro, V
denota la varianza de Vsrs(ÿ ˆ) bajo cualquier diseño de muestra que se utilice
(muestra aleatoria simple
Vsrs
estratificada,
es la varianza
muestra
srs del
porestimador
conglomerados
srs delen
mismo
dos etapas,
parámetro.
etc.), y
Generalmente se utiliza un srs seleccionado con reemplazo (srswr) para el
cálculo del denominador. La muestra
Machine Translated by Google

1.1 Antecedentes y terminología 5

el tamaño de Vsrs es el mismo que el tamaño de muestra de las unidades utilizadas en la estimación
del numerador.

• Tamaño efectivo de la muestra (neff): el número de unidades en la muestra dividido por el deff. Este es el
tamaño de la muestra para un srswr que arroja la misma varianza para una estimación que la varianza
obtenida del diseño de muestra utilizado para recolectar los datos.

Como se desprende de la definición, el deff es específico de un estimador particular, como una media,
un total, un cuantil o cualquier otra cosa. Las personas a menudo tienen en mente los promedios cuando
usan deff s, pero la idea se puede aplicar de manera más general. Por lo general, la varianza en el
denominador de un deff es para un muestreo aleatorio simple con reemplazo, aunque podría usarse sin
reemplazo.
Cuál usar es principalmente una cuestión de preferencia personal. Sin embargo, dado que los valores de
las varianzas con y sin reemplazo pueden ser bastante diferentes cuando la fracción de muestreo es grande,
es importante saber cuál se usa en el denominador de cualquier deff que se le suministre. Los deff y neff
son especialmente útiles cuando se calculan tamaños de muestra totales para muestras agrupadas.

Sin embargo, a menudo puede ser difícil obtener buenas estimaciones de deff y neff y es probable que
varíen según el elemento de la encuesta.
(6) Con un método de recopilación de datos en mente y conocimiento de los marcos de muestreo
disponibles, el investigador de la encuesta determina a continuación el tipo apropiado de diseño de muestreo
aleatorio (mecanismo). Los diseños generales que consideramos en nuestro texto se pueden categorizar
como uno de estos tres:

• Diseños de etapa única estratificados: las unidades de observación se seleccionan directamente de un


marco de muestreo, a veces denominado marco de lista, que contiene datos como información de
contacto o ubicación y variables de estratificación. • Diseños multietapa estratificados: las unidades se

seleccionan de listas construidas “en el sitio” para unidades agregadas de una etapa de diseño anterior (p.
ej., estudiantes inscritos activamente en las escuelas). • Diseños multifase estratificados: se selecciona
una muestra primaria de unidades del marco designado (fase uno), y las muestras de las unidades de
la fase uno se seleccionan en las fases subsiguientes utilizando la información obtenida sobre las unidades
en la fase uno (p. ej., un estudio donde una submuestra de los que no respondieron se vuelve a conectar
utilizando un modo diferente de recopilación de datos, o un estudio de individuos que se clasifican como
portadores de alguna afección en función de las pruebas administradas en una fase anterior del diseño).

Cada uno de los tres diseños generales anteriores suele implicar un muestreo probabilístico. S¨arndal
et al. (1992, Secc. 1.3) dan una definición formal de muestra probabilística, que parafraseamos aquí. Una
muestra probabilística de una población finita particular es aquella que satisface cuatro requisitos:

(i) Se puede definir un conjunto de muestras que es posible obtener con el procedimiento de muestreo.

(ii) Cada muestra posible s tiene una probabilidad conocida de selección, p (s).
Machine Translated by Google

6 1 Una descripción general del diseño y la ponderación de la muestra

(iii) Cada elemento de la población objetivo tiene una probabilidad distinta de cero de
selección.
(iv) Se selecciona un conjunto de elementos de la muestra con la probabilidad asociada con el
conjunto. Se pueden calcular los pesos de los elementos de la muestra que pretenden
proyectar la muestra a la población objetivo.

Sin embargo, un diseñador de encuestas a menudo pierde el control sobre qué conjunto de
elementos realmente proporciona datos debido a la falta de respuesta y otras pérdidas de muestras.
También hay muestras que no son muestras probabilísticas, ni siquiera inicialmente. Por ejemplo,
las personas que se ofrecen como voluntarias para formar parte de un panel de encuestas por
Internet no constituyen una muestra seleccionada con probabilidades conocidas. Las inferencias de
tales muestras pueden ser posibles si la muestra no probabilística se puede vincular a la parte de la
población que no es muestra a través de un modelo.
La decisión de utilizar un diseño de una o varias etapas depende en parte del marco muestral
disponible. Hay dos tipos generales de marcos de muestreo disponibles para la selección de
unidades: directa e indirecta. Los marcos de muestreo que contienen una lista de las unidades de
observación se denominan marco de lista directa. Estos marcos facilitan los diseños de una sola
etapa. Los marcos indirectos, sin embargo, permiten el acceso inicial solo a grupos de unidades.
Con un diseño de etapas múltiples, las unidades se seleccionan dentro de los grupos, a menudo
denominados conglomerados. Por ejemplo, en una encuesta de hogares, una práctica común es
seleccionar primero una muestra de áreas geográficas, denominadas unidades primarias de muestreo
(UPM). Dentro de las UPM de muestra, los hogares pueden seleccionarse de (i) listas compiladas
por personal de investigación (llamados encargados de la lista) que recorren el área (en un proceso
conocido como conteo y listado) o (ii) listas mantenidas por organizaciones como el USPS.

Si no se dispone de una lista de unidades elegibles para una población objetivo, es necesario
algún tipo de proceso de selección. La selección de hogares con niños menores de tres años podría
realizarse llamando a una muestra de números de teléfono fijos y administrando preguntas de
selección para determinar si el hogar es elegible (es decir, contiene al menos un niño menor de tres
años). Este método se utiliza a menudo, pero adolece de varios problemas. Uno es el hecho de que
no todos los hogares elegibles tienen teléfonos fijos y, por lo tanto, no se verían en el proceso de
selección. Hasta hace poco, los teléfonos móviles no solían incluirse en la mayoría de las encuestas
telefónicas de EE. UU. Otro problema está asociado con la gran cantidad de números de teléfono
necesarios para detectar una subpoblación poco común. Un ejemplo de cuán oneroso puede ser el
proceso de detección es la Encuesta Nacional de Inmunización (NIS).4 El objetivo de la NIS es
estimar las proporciones de niños de 19 a 35 meses en los EE. UU. que han recibido las vacunas
recomendadas para enfermedades infantiles como difteria, tos ferina, poliovirus, sarampión y
hepatitis. En 2002 se llamaron 2,06 millones de números de teléfono. De ellos, 1,02 millones fueron
examinados con éxito para determinar si tenían un hijo de edad elegible. Se identificaron alrededor
de 34.000 hogares que tenían uno o más niños incluidos en el estudio, una tasa de elegibilidad del
3,4 % entre los hogares examinados con éxito (Smith et al. 2005).

4
http://www.cdc.gov/nis/.
Machine Translated by Google

1.2 Guía de capítulos 7

Idealmente, el marco muestral cubre toda la población objetivo. Una muestra telefónica
que solo cubre líneas fijas claramente no alcanza ese objetivo, pero también hay otras
razones más sutiles para los errores de cobertura. En principio, una muestra de área que
utilice toda el área de tierra dentro del alcance de la encuesta debe tener una cobertura
del 100 %. Sin embargo, esto no funciona en la práctica. Kostanich y Dippo (2002, Cap.
16) dan algunas estimaciones de proporciones de diferentes grupos demográficos que
están cubiertos por la CPS. En la CPS de 2002, los varones jóvenes negros e hispanos
tenían tasas de cobertura del 70% al 80%, usando como puntos de referencia las
proyecciones demográficas del censo decenal de 2000 (US Census Bureau 2002). Las
razones de esta falta de cobertura son especulativas, pero pueden incluir la posibilidad
de que algunos de estos jóvenes no tengan domicilios permanentes o que otros miembros
del hogar no quieran divulgar quién vive en el domicilio de la muestra (Tourangeau et al.
2012). En áreas urbanas, también puede ser difícil identificar todos los hogares debido a
las configuraciones peculiares de los edificios de apartamentos, la imposibilidad de
ingresar a los edificios con protección de seguridad u otras razones.

En el caso de una encuesta de edificios comerciales, existe cierta ambigüedad sobre


lo que constituye un negocio, especialmente en las pequeñas empresas familiares, lo
que genera incertidumbre sobre si un edificio es “comercial” o no. Como resultado, los
enumeradores pueden omitir algunos edificios que deberían estar dentro del alcance
según las definiciones de la encuesta (Eckman y Kreuter 2011).
Como se desprende de la discusión anterior, muchos marcos y las muestras
seleccionadas de ellos cubrirán de manera imperfecta a sus poblaciones objetivo. Un
marco puede contener unidades no elegibles y las unidades elegibles pueden no estar
cubiertas de manera confiable por el marco o la muestra. En algunas aplicaciones, las
mejores prácticas de diseño de muestras no corregirán estos problemas, pero existen
técnicas de ponderación que los reducirán. Todos estos temas se tratan en capítulos
posteriores, como se describe en la siguiente sección.

1.2 Guía de capítulos

El libro se divide en cuatro partes: I: Diseño de encuestas por muestreo de una sola
etapa (capítulos 2 a 7), II: Diseños de etapas múltiples (capítulos 8 a 11), III:
Ponderaciones y análisis de encuestas (capítulos 12 a 16) , IV: Otros Temas. Las Partes
I-III comienzan con descripciones de proyectos de ejemplo similares a los que se
encuentran en la práctica. Después de presentar cada proyecto, presentamos las
herramientas en los capítulos siguientes para realizar el trabajo. El último capítulo de las
Partes I–III (Capítulos 7, 11 y 16) proporciona una forma de cumplir con los objetivos del
proyecto de ejemplo. Algo que cualquier lector debería apreciar después de trabajar con
estos proyectos es que las soluciones no son únicas. Es probable que haya muchas
formas de diseñar una muestra y crear ponderaciones que, al menos aproximadamente,
alcancen los objetivos establecidos. Esta falta de singularidad es una de las muchas
cosas que separan los problemas de tarea sin vida en un libro de matemáticas de las aplicaciones del m
Machine Translated by Google

8 1 Una descripción general del diseño y la ponderación de la muestra

Los profesionales deben sentirse cómodos con las soluciones que proponen. Ellos
necesita ser capaz de defender las decisiones tomadas en el camino y comprender
las consecuencias que tendrían las decisiones de diseño alternativas. este libro
prepararte para tales tareas.
La Parte I aborda técnicas que son valiosas en el diseño de muestras de una sola etapa. El Capítulo
2 presenta un proyecto sencillo para diseñar una encuesta de personal. Los capítulos siguientes se
concentran en los métodos para determinar la
tamaño de la muestra y su distribución entre los diferentes grupos de la población. El capítulo 3 presenta
una variedad de formas de calcular el tamaño de una muestra para cumplir con los requisitos establecidos .
objetivos de precisión para las estimaciones de la población total. El Capítulo 4 cubre varios métodos para
calcular los tamaños de muestra en función de los requisitos de potencia. Usando
El poder como criterio para el cálculo del tamaño de la muestra es más común en aplicaciones
epidemiológicas. Aquí el objetivo es encontrar un tamaño de muestra que detecte
con alta probabilidad alguna diferencia preespecificada en medias, proporciones, etc.,
entre algunos subgrupos o entre grupos en dos periodos de tiempo diferentes.
Los capítulos 3 y 4 se enfocan en las decisiones sobre el tamaño de la muestra tomadas con base en la optimización
precisión o potencia para una sola variable a la vez. Para encuestas con un muy
propósito específico, considerar una sola variable es realista. Sin embargo, muchas encuestas son
multipropósito. No se recopila una, sino varias variables clave a través de
una variedad de subgrupos en la población. Por ejemplo, en las encuestas de salud,
se hacen preguntas sobre una variedad de enfermedades y diferencias entre razas
o grupos socioeconómicos son de interés sustantivo. En tales encuestas, los analistas
puede usar los datos de maneras que no fueron previstas por los diseñadores de la encuesta. En
De hecho, muchas grandes encuestas patrocinadas por el gobierno acumulan una serie de variables para
dar a los analistas la libertad de explorar relaciones y construir modelos. Reunirse
múltiples objetivos y respetar las restricciones de costos, los métodos en los Caps. 3 y 4
podría aplicarse por ensayo y error con la esperanza de encontrar una solución aceptable. Un mejor
enfoque es usar técnicas de programación matemática que
permitir la optimización a través de múltiples variables.
Por lo tanto, el capítulo 5 presenta algunos métodos de programación multicriterio que
se puede utilizar para resolver estos problemas más complicados. Investigadores de operaciones
y los científicos de gestión han utilizado durante mucho tiempo estos algoritmos, pero parecen
ser menos conocido entre los diseñadores de encuestas. Estos algoritmos permiten más
tratamiento realista de complicados problemas de asignación que implican múltiples
variables de respuesta y restricciones en costos, precisión y tamaños de muestra para
subgrupos. Sin estos métodos, la asignación de la muestra es una propuesta aleatoria que puede ser
subóptima de varias maneras. En décadas pasadas, había que comprar software costoso y especializado
para resolver problemas de optimización.
Sin embargo, ahora hay software disponible para resolver problemas de asignación bastante complicados.
Incluso en las mejores circunstancias, no todas las personas, empresas,
u otra unidad muestreada en una encuesta responderá al final. Como se discutió en
Cap. 6, es necesario realizar ajustes en el tamaño de la muestra inicial para tener en cuenta
por estas pérdidas.
Algunas muestras deben agruparse para recopilar datos de manera eficiente
y por lo tanto requieren decisiones de diseño de la muestra en múltiples etapas. Este es el
Machine Translated by Google

1.2 Guía de capítulos 9

preocupación de la Parte II, que comienza con un proyecto moderadamente complejo


en el Cap. 8 para diseñar una muestra de área y asignar unidades a conglomerados
geográficos de tal manera que el tamaño de las muestras de personas esté controlado
por algunos grupos demográficos importantes. Los capítulos 9 y 10 cubren el diseño de
muestras de esos conglomerados geográficos. La Encuesta Nacional de Examen de
Salud y Nutrición de EE. UU. (NHANES; Centro para el Control y la Prevención de
Enfermedades 2009) es un buen ejemplo de una encuesta que no podría costearse a
menos que las entrevistas fueran agrupadas. Se realizan elaborados exámenes médicos
a los participantes a quienes se les toma una serie de medidas: medidas corporales
como altura y peso; densidad ósea medida a través de escaneos corporales; salud
dental función pulmonar mediante pruebas espirométricas, por nombrar solo algunas.
El equipo para realizar las pruebas está alojado en remolques llamados Centros Móviles
de Examen, que se trasladan en camiones de un área de muestra a otra. Mover los
tráileres por todo el país y ubicarlos con las conexiones adecuadas para los servicios
públicos en cada ubicación es costoso. En consecuencia, primero se debe muestrear un número limita
Otras encuestas requieren el muestreo en múltiples etapas por una razón diferente, por
ejemplo, si se requieren tamaños de muestra objetivo para ciertos subgrupos. Estos
subgrupos a menudo tienen que ser muestreados a tasas distintas a su proporción en
la población como un todo.
La Parte III analiza el cálculo de las ponderaciones de la encuesta y su uso en
algunos análisis. Comenzamos con un proyecto en el Cap. 12 sobre el cálculo de pesos
para una encuesta de personal, como la diseñada en el Proyecto 1 (ver Cap. 2). Los
capítulos 13 y 14 describen los pasos para calcular las ponderaciones base, hacer
ajustes por unidades no elegibles, falta de respuesta y otras pérdidas de muestras, y
usar datos auxiliares para ajustar la cobertura de marco deficiente y reducir las
variaciones. Algunas de las técnicas importantes para usar datos auxiliares son el
estimador de regresión general y la estimación de calibración. Dado que el software
ahora está disponible para hacer los cálculos, estos están al alcance de cualquier profesional.
El uso inteligente de estas herramientas de cálculo de peso requiere al menos una
comprensión general de cuándo y por qué funcionan en función de lo que asumen.
El Capítulo 13 esboza el fundamento detrás de los métodos de ajuste de ponderación
por falta de respuesta. En particular, cubrimos la motivación detrás de los ajustes de
celda y los ajustes de propensión a la respuesta. Las celdas de ajuste se pueden formar
en base a propensiones estimadas o árboles de regresión. Comprender los métodos
requiere pensar en modelos de respuesta. El capítulo también describe cómo el uso de
datos auxiliares puede corregir los marcos que omiten algunas unidades y cómo se
deben considerar los modelos estructurales al decidir cómo usar los datos auxiliares.
En el Cap. 14. Los métodos de reducción de peso mediante programación cuadrática y
otros métodos ad hoc también se tratan en ese capítulo.

El Capítulo 15 cubre los principales enfoques para la estimación de la varianza en


las encuestas: métodos exactos, linealización y replicación. Es importante pensar en la
estimación de la varianza por adelantado para asegurarse de que los archivos de datos
se preparen de una manera que permita estimar legítimamente las varianzas. Usar
Machine Translated by Google

10 1 Una descripción general del diseño y la ponderación de la muestra

linealización o estimadores exactos, por ejemplo, los campos que identifican los estratos y las
UPM deben incluirse en el archivo de datos. Los procedimientos de ponderación utilizados en
muchas encuestas son bastante elaborados y generan estimadores complejos. Es importante
para los analistas comprender si un método determinado refleja la complejidad de la creación
de ponderaciones y qué omite, en todo caso. Hay una serie de paquetes de software disponibles
que estimarán las varianzas y los errores estándar de las estimaciones de la encuesta. Cubrimos
algunos de estos en el Cap. 15.
La Parte IV cubre dos temas especializados: muestreo multifásico y control de calidad. Si se
van a muestrear subgrupos a diferentes tasas para producir tamaños de muestra objetivo y no
se dispone de una lista confiable de las unidades en estos subgrupos antes del muestreo, se
puede usar la técnica de muestreo multifásico como se describe en el Cap. 17. Se selecciona
una muestra inicial grande y se determina la identidad del grupo para cada unidad a través de
un proceso de selección. Luego se seleccionan submuestras de los grupos a tasas diseñadas
para producir los tamaños de muestra deseados.
El muestreo multifase se puede combinar con el muestreo multietapa como una forma de
controlar los costos mientras se logran los tamaños de muestra objetivo. Otro diseño de encuesta
multifase de uso común implica el submuestreo de los no encuestados de la fase uno para un
contacto de la fase dos, normalmente con un modo de recopilación de datos diferente al utilizado
inicialmente.
Una parte esencial de una buena práctica de encuesta es controlar la calidad de todo lo que
se hace. Los errores son inevitables, pero es necesario desarrollar procedimientos abiertos
para tratar de evitarlos. El Capítulo 18 analiza algunas medidas generales de control de calidad
que se pueden utilizar en las etapas de planificación y procesamiento de datos de una encuesta.
Estas cosas las hacen todas las organizaciones de encuestas profesionales, pero rara vez se
abordan en los libros sobre muestreo. El control de calidad (QC) de las operaciones estadísticas
va más allá de la simple verificación del trabajo para asegurarse de que se realiza correctamente.
Incluye la planificación anticipada para garantizar que se identifiquen todas las tareas necesarias
para completar un proyecto, que se enumere y se respete el orden de las tareas, y que el
cronograma propuesto sea factible. El seguimiento del progreso de la recopilación de datos a lo
largo del tiempo es otro paso importante. El Capítulo 18 resume varias tasas que se pueden
usar, incluyendo contacto, respuesta y equilibrio en auxiliares.
Es importante documentar todas las tareas para registrar exactamente lo que se hizo y poder
retroceder y rehacer algunas tareas si es necesario. En proyectos pequeños, la documentación
puede ser breve, pero en proyectos más grandes, se necesitan especificaciones escritas
detalladas para describir los pasos del muestreo, la ponderación y otras tareas estadísticas.
Tener rutinas de software estándar para usar en el muestreo y la ponderación tiene enormes
ventajas de control de calidad. El software puede estar escrito por la organización que realiza
las encuestas o puede ser un software comercial estándar. En cualquier caso, el objetivo es
utilizar rutinas depuradas que incluyan controles de calidad estándar.

La mayoría de los ejemplos de código están escritos en lenguaje R (R Core Team 2012),
que está disponible de forma gratuita. Se proporcionan materiales adicionales en los Apéndices.
El Apéndice C contiene una introducción al lenguaje de programación R y las funciones
desarrolladas para los ejemplos de los capítulos. Tenga en cuenta que, a menos que se
especifique lo contrario, cualquier función de R a la que se haga referencia en el texto se encuentra en PracToo
Machine Translated by Google

1.2 Guía de capítulos 11

paquete. Los conjuntos de datos utilizados en muchos de los ejemplos se describen en el


Apéndice B; En estas páginas se proporcionan pequeños conjuntos de datos, mientras que los
archivos más grandes están disponibles a través de la dirección web del libro. El Apéndice A
es el glosario de la notación utilizada a lo largo del libro. Le recomendamos que tenga en
cuenta el glosario cuando lea capítulos individuales, ya que la notación necesaria para algunos
temas es elaborada.
Con esa breve descripción general, está listo para ver cómo se ve un proyecto de diseño
de muestra real. El próximo capítulo describe los requisitos de una organización empresarial
para una encuesta de sus empleados.
Machine Translated by Google

Parte I
Diseño de una muestra de una sola etapa
Encuestas
Machine Translated by Google

Capitulo 2
Proyecto 1: Diseño de una sola etapa
Encuesta de Personal

Nuestro objetivo principal es equipar a los investigadores de encuestas con las herramientas
necesarias para diseñar y ponderar muestras de encuestas. Este capítulo ofrece el primero de
varios proyectos que reflejan algunas de las complejidades que se encuentran en el trabajo
aplicado. Los tres objetivos de este proyecto son:

• Determinar la asignación de una muestra de una sola etapa a los estratos en una encuesta
multipropósito, teniendo en cuenta los objetivos de precisión especificados para diferentes
estimaciones y diferentes tasas de elegibilidad y respuesta para los subgrupos. • Examinar
qué tan sensible es la precisión de las estimaciones a suposiciones incorrectas
ciones sobre las tasas de
respuesta. • Redactar un informe técnico que describa el diseño de la muestra.

A medida que avanza en los siguientes capítulos de la Parte I del libro, le sugerimos que
vuelva a este capítulo periódicamente, refresque su memoria sobre los objetivos del Proyecto 1
y piense en cómo los métodos de los Caps. 3–6 se pueden utilizar en el desarrollo del diseño de
muestreo. En este capítulo, describimos la tarea que debería poder resolver después de leer la
Parte I.

2.1 Especificaciones del Estudio

La Corporación Internacional Verkeer NetUltraValid (VNUV) se está preparando para realizar el


Ciclo 5 de su encuesta anual sobre el clima laboral de los empleados en su División de Encuestas.
La encuesta de clima evalúa la satisfacción de los empleados en diversas áreas, como la vida
laboral diaria, las evaluaciones de desempeño y los beneficios. En los primeros tres ciclos de la
encuesta, el Consejo Superior de VNUV intentó hacer un censo de todos los empleados, pero
muchos empleados consideraron que la encuesta era una carga y una molestia (a pesar de que
ellos mismos estaban en el negocio de la encuesta). Las tasas de respuesta disminuyeron
progresivamente durante los primeros tres ciclos. En el cuarto ciclo, el Consejo Superior decidió
administrar una encuesta de intranet solo a una muestra aleatoria de empleados dentro de la
División de Encuestas. el objetivo

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 15


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 2, © Springer Science+Business Media New York 2013
Machine Translated by Google

dieciséis
2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única

era controlar el muestreo para que no se les pidiera a los empleados continuos que respondieran a
todas las encuestas. En el Ciclo 5, se desea una muestra más eficiente que mejorará las estimaciones
para ciertos grupos de empleados. El Consejo Superior requiere un informe de su equipo de diseño
que especifique el número total de empleados que se seleccionarán, así como su distribución por un
conjunto de características que se indican a continuación. Desean que la calidad y precisión de las
estimaciones sea mejor que la encuesta del Ciclo 4. Tenga en cuenta que esta es la primera
encuesta en la que el Consejo Superior ha buscado la dirección de los estadísticos de muestreo
sobre la asignación de la muestra.

La División de Encuestas contiene tres unidades de negocios: (i) la Unidad de Investigación de


Encuestas (SR) alberga tanto a los estadísticos de encuestas como a los metodólogos de encuestas;
(ii) la Unidad de Investigación en Computación (CR) contiene programadores que apoyan las tareas
de análisis y recolección de datos; y (iii) las operaciones de campo (FO) están pobladas por
especialistas en recopilación de datos. Al Consejo Superior le gustaría evaluar el clima dentro y
entre las unidades, así como estimaciones por los tres principales grados de salario (A1–A3, R1–R5
y M1–M3) y por antigüedad (es decir, número de meses empleados) dentro de las unidades. Sin
embargo, la encuesta de clima solo se administrará a los empleados de tiempo completo y medio
tiempo dentro de estas unidades.
Los empleados temporales y contratistas están excluidos de la encuesta.
El Senior Council ha identificado tres preguntas del instrumento de la encuesta que son las más
importantes para evaluar el clima de los empleados en VNUV.
Están interesados en los porcentajes de empleados que respondieron "totalmente de acuerdo" o "de
acuerdo" a las siguientes preguntas:

P5.
En general, estoy satisfecho con VNUV como empleador en este momento.
P12.
Existe un vínculo claro entre mi desempeño laboral y mi salario en VNUV.
P15.
En general, creo que me pagan de manera justa en comparación con las personas de otras
organizaciones que tienen trabajos similares al mío.

Tenga en cuenta que las opciones de respuesta seguirán siendo las mismas que en años anteriores,
es decir, una escala Likert de cinco niveles: muy de acuerdo, de acuerdo, neutral, en desacuerdo y
muy en desacuerdo. También está disponible una sexta opción de respuesta, no sabe/no corresponde.

Además, el Consejo Superior quisiera estimaciones del número promedio de clases de


capacitación a las que asistieron los empleados en los últimos 12 meses.
Las clases relevantes incluyen presentaciones a la hora del almuerzo, clases de instrucción formal
impartidas en VNUV y cursos de un semestre impartidos en las universidades locales.

2.2 Preguntas planteadas por el equipo de diseño

Después de recibir el documento de especificaciones del estudio del Consejo Superior, se convoca
un equipo de diseño para analizar los pasos necesarios para completar el trabajo asignado.
Machine Translated by Google

2.2 Preguntas planteadas por el equipo de diseño 17

tarea. En esta reunión inicial, se determinó la siguiente información a partir de las


especificaciones:

• Se recopilarán datos de los empleados a través de una intranet autoadministrada


(es decir, sitio web interno de la corporación) cuestionario.
• Todos los empleados de tiempo completo y medio tiempo en las tres unidades comerciales
dentro de la División de encuestas son elegibles para la encuesta. Los empleados de
otras unidades dentro de VNUV, así como los empleados temporales y contratistas, no
son elegibles y serán excluidos del marco de muestreo.
• La muestra de participantes se seleccionará al azar de una lista de personal de todos los
empleados elegibles para el estudio proporcionada por el jefe del Departamento de
Recursos Humanos (HR) de VNUV.
• Se propone un diseño de muestreo estratificado de etapa única para la encuesta porque
(i) los participantes del estudio pueden seleccionarse directamente del marco de muestreo
completo de recursos humanos (lista) y (ii) se requieren estimaciones para ciertos grupos
de empleados dentro de VNUV.
• Las variables de estratificación incluirán la unidad de negocio (SR, CR y FO), el grado de
salario (A1–A3, R1–R5 y M1–M3) y, potencialmente, una versión categorizada de
antigüedad.
• Las variables de análisis utilizadas para determinar la asignación incluyen tres proporciones,
correspondientes a cada una de las preguntas de la encuesta identificadas, y una variable
cuantitativa. El equipo de diseño calculará las estimaciones de la encuesta climática
anterior a partir del archivo de datos de análisis que mantiene HR.

Como suele ser el caso cuando se revisan las especificaciones de un patrocinador para un
proyecto, había una serie de cuestiones que necesitaban aclaración. Con base en la
discusión inicial, el equipo de diseño envió las siguientes preguntas aclaratorias al Consejo
Superior y recibió las respuestas que se indican a continuación:

1. Actualmente, HR define la permanencia como el número de meses de empleo en VNUV.


¿Hay una agrupación de años de tenencia que sería informativa para el análisis? Por
ejemplo, el análisis de la encuesta de clima anterior sugiere que las respuestas difieren
entre los empleados con menos de 5 años de empleo en VNUV en comparación con
aquellos con una permanencia más larga.
Respuesta: Sí. Dicotomizar la tenencia por menos de 5 años y 5 años o más.

2. ¿Cuál es el presupuesto para la encuesta de clima? ¿Debemos considerar el presupuesto


al decidir el tamaño total de la muestra? Respuesta: El presupuesto permite asignar a
dos miembros del personal a tiempo parcial para procesar y analizar los datos durante
un período de tres meses. Esto no afecta el tamaño de la muestra. Sin embargo, el
consejo ha decidido que los empleados individuales no deben ser encuestados en cada
ciclo para reducir la carga e intentar obtener una mejor cooperación. Seleccionar una
muestra lo suficientemente grande como para obtener 600 encuestados permitirá rotar
las muestras anuales entre los empleados.
Machine Translated by Google

18 2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única

3. Estamos interesados en clasificar una diferencia entre dos estimaciones como sustancialmente
significativa para VNUV. ¿Podría proporcionarnos una diferencia significativa? Respuesta: Al menos
una diferencia de cinco puntos porcentuales entre dos conjuntos de estimaciones del clima de los
empleados es una diferencia significativa. También resulta interesante una diferencia de 2 a 3 en el
número medio de clases de formación.

4. ¿La proporción que responde “totalmente de acuerdo” o “de acuerdo” con las tres preguntas debe
incluir o excluir la categoría de respuesta “no sé/no corresponde”? Respuesta: Excluir.

5. ¿Cuán precisas deben ser las estimaciones individuales para esta ronda de la encuesta? La calidad
de los datos de versiones anteriores de la encuesta climática se ha medido en términos de
coeficientes de variación (CV) estimados.
Respuesta: Los CV objetivo de las estimaciones generales por unidad de negocio, por antigüedad
dentro de la unidad de negocio y por grado salarial dentro de la unidad de negocio se enumeran en
la Tabla 2.1 a continuación.
6. ¿Existen requisitos adicionales para el diseño, como estimaciones por género y por número de
dependientes además de estimaciones por unidad de negocio, unidad de negocio por grado de
salario y unidad de negocio por antigüedad?
Respuesta: no
7. El informe del ciclo 4 de la encuesta climática VNUV no detalla el diseño de muestreo anterior. El
equipo de diseño asume que la muestra del Ciclo 4 se extrajo al azar de una lista actualizada de
empleados dentro de ciertos subgrupos de empleados (es decir, un diseño de muestra aleatoria
simple estratificada). ¿Es esto correcto? Si es así, ¿dónde podríamos ubicar la información
estratificadora?
Respuesta: No se utilizaron estratos en el último diseño. El expediente de los empleados anteriores
fue ordenado por un número aleatorio y se seleccionó una muestra sistemática de igual probabilidad.

8. ¿Se espera que las tasas de elegibilidad y respuesta sean las mismas en el Ciclo 5 que en el Ciclo
4? Respuesta: Las tasas de elegibilidad deberían ser más o menos las mismas, pero no estamos
seguros de las tasas de respuesta. Nos gustaría entender qué tan sensibles serán los CV si las
tasas de respuesta resultan ser más bajas que las del Ciclo 4.

2.3 Análisis preliminares

HR proporcionó al equipo dos archivos de datos. El primer archivo contenía información sobre todos los
empleados actuales de VNUV, como la identificación del empleado, la división, la unidad comercial, la
permanencia en meses, el estado de medio tiempo/tiempo completo y el estado de empleado temporal/
permanente. El equipo eliminó todos los registros de empleados que actualmente se sabe que no son
elegibles para la encuesta, creó una versión dicotómica de antigüedad y calculó recuentos de población
para los 18 estratos de diseño (Tabla 2.2).
El segundo archivo contenía un registro para cada empleado seleccionado para la encuesta de clima
anterior. Además de los códigos de estado de la encuesta (no elegible, encuestado elegible y no
encuestado elegible) y las respuestas de la encuesta,
Machine Translated by Google

2.3 Análisis preliminares 19

Tabla 2.1: Coeficiente de variación objetivo por dominio de informe: encuesta climática VNUV
ciclo 5, división de encuestas.

Dominio de informes Objetivo CV a


unidad de negocio 0.06
Unidad × Grado salarial 0.10
Unidad × Tenencia 0.10
un coeficiente de variación

Tabla 2.2: Distribución actual de empleados elegibles por unidad de negocio, grado de salario,
y tenencia: encuesta climática VNUV, ciclo 5, división de encuestas.

unidad de negocio

Grado de salario Tenencia SR CR FO Total

A1–A3 Menos de 5 años 30 118 230 378


5+ años 44 89 115 248
R1–R5 Menos de 5 años 106 86 322 514
5+ años 253 73 136 462
M1–M3 Menos de 5 años 77 12 48 137
5+ años 44 40 46 130
A1-A3 Total 74 207 345 626
R1-R5 Total 359 159 458 976
M1-M3 Total 121 52 94 267
Total Menos de 5 años 213 216 600 1.029
5+ años 341 202 297 840
Total Total 554 418 897 1.869

este archivo incluía las características que se deben utilizar para definir el muestreo
estratos en la nueva encuesta. Sin embargo, este archivo no contenía los nombres de los empleados.
u otra información de identificación para mantener la confidencialidad prometida a
todos los participantes de la encuesta. Los miembros de la muestra se clasificaron como no elegibles si, por
ejemplo, se habían transferido a otra unidad de negocios dentro de VNUV o
se retiró después de que se seleccionó la muestra pero antes de que se administrara la encuesta.
El equipo aisló los registros elegibles de la División de encuestas, creó el muestreo
estratos definidos para el diseño de la encuesta climática actual, y creó el binario
variables de análisis para Q5, Q12 y Q15 del original de cinco categorías
preguntas (Cuadro 2.3).

La información en las Tablas 2.4–2.6 fue tabulada de la División de Inspección


respuestas a la encuesta del Ciclo 4. No se utilizaron ponderaciones de la encuesta porque la
Los empleados de la muestra del ciclo 4 fueron seleccionados con igual probabilidad y sin peso
se hicieron ajustes, por ejemplo, por falta de respuesta.
Machine Translated by Google

20 2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única

Tabla 2.3: Documentación para recodificar las respuestas de las preguntas a la variable de análisis binario: encuesta
climática VNUV, ciclo 4, división de la encuesta.

Pregunta respuestas Variable de análisis binario

1 = Totalmente de acuerdo 1 = Totalmente de acuerdo o de acuerdo


2 = De acuerdo 1 = Totalmente de acuerdo o de acuerdo
3 = Neutro 0 = No (totalmente) de acuerdo
4 = En desacuerdo 0 = No (totalmente) de acuerdo
5 = muy en desacuerdo 0 = No (totalmente) de acuerdo
6 = No sé/no aplicable <categoría faltante>

Tabla 2.4: Distribución del estado de respuesta por unidad de negocio, grado salarial y antigüedad:
Encuesta climática VNUV ciclo 4, división de encuestas.

Total Elegible

Salario empresarial muestra No elegiblea Total resp. no resp.

unidad calificación Tenencia pctb nn pctc n pct

SR A1–A3 Menos de 5 años 5+ años 10 0 0.0 10 9 88.9 1 11.1


11 0 0.0 11 9 84,6 2 15,4
R1–R5 Menos de 5 años 34 3 9.7 31 16 51,6 15 48,4

5+ años 71 1 1.3 70 55 78,7 15 21,3


M1–M3 Menos de 5 años 5+ años 23 0 0.0 23 21 91,3 2 8,7
13 2 15.4 11 9 84,6 2 15,4
CR A1–A3 Menos de 5 años 5+ años 41 3 7.1 38 22 58,6 16 41,4
20 0 0.0 20 10 50,0 10 50,0

R1–R5 Menos de 5 años 5+ años 28 0 0.0 28 14 50,0 14 50,0


19 0 0.0 19 10 53,8 9 46,2

M1–M3 Menos de 5 años 5+ años 60 0.0 6 6 100,0 0 0,0


91 11.1 8 7 88.9 1 11.1

FO A1–A3 Menos de 5 años 5+ años 85 26 30,3 59 23 39,4 36 60,6


16 0 0.0 16 6 39,4 10 60,6

R1–R5 Menos de 5 años 5+ años 101 2 2.2 99 65 65,2 34 34,8


34 1 2.6 33 24 71,8 9 28,2

M1–M3 Menos de 5 años 5+ años 14 0 0.0 14 14 100,0 0 0,0


14 2 15.4 12 10 84,6 2 15,4
Total 549 41 7,5 508 330 65,0 178 35,0

a Los miembros de la muestra no elegibles fueron aquellos empleados seleccionados para la encuesta del ciclo 4
que se jubiló o dejó la empresa antes de la recopilación de datos
b
Porcentaje no ponderado de la muestra total dentro de cada estrato de diseño (fila)
c Porcentaje no ponderado de la muestra elegible total dentro de cada estrato de diseño (fila)
Machine Translated by Google

2.4 Documentación 21

Tabla 2.5: Estimaciones para cuatro preguntas clave por unidad de negocio, grado salarial,
y tenencia: encuesta climática VNUV, ciclo 4, división de encuestas.

Proporción Número promedio de


Salario empresarial (Muy) de acuerdo con las clases de entrenamiento

unidad calificación Tenencia Q5 Q12 Q15 Media Mar

SR A1–A3 Menos de 5 años 5+ años 0,93 0,88 0,77 8.2 0.82


0,75 0,71 0,62 12.4 1.24
R1–R5 Menos de 5 años 5+ años 0,84 0,80 0,69 22,3 2.23
0,80 0,76 0,66 24,0 1.92
M1–M3 Menos de 5 años 5+ años 0,91 0,86 0,75 8.3 0.83
0,95 0,90 0,79 3.6 0.36
CR A1–A3 Menos de 5 años 5+ años 0,99 0,94 0,92 7.2 0.87
0,80 0,76 0,74 10.9 1.09
R1–R5 Menos de 5 años 5+ años 0,82 0,78 0,76 19.6 3.92
0,90 0,86 0,84 21,1 2.11
M1–M3 Menos de 5 años 5+ años 0,97 0,92 0,90 7.3 0.73
0,97 0,92 0,90 3.2 0.32
FO A1–A3 Menos de 5 años 5+ años 0,50 0,48 0,45 4.6 0,69
0,52 0,49 0,47 6.9 1.04
R1–R5 Menos de 5 años 5+ años 0,75 0,71 0,68 12.5 1.87
0,70 0,67 0,63 13.4 2.02
M1–M3 Menos de 5 años 5+ años 0,93 0,88 0,84 4.6 0.70
0,94 0,89 0,85 2.0 0.30

un error estándar

2.4 Documentación

Con el análisis preliminar completo, el equipo de diseño comenzó a redactar el


informe de muestreo al Consejo Superior utilizando el esquema anotado a continuación.
Este esquema se utilizará para escribir un informe formal cuando se complete el proyecto:

Título = Informe de diseño de muestra del ciclo 5 de la encuesta climática VNUV

1. Resumen Ejecutivo

• Proporcione una breve descripción general de la encuesta, incluida la información relacionada


a las metas generales del estudio y al año en que se implementó por primera vez la encuesta anual.

• Describa el propósito de este documento del Ciclo 5.


• Proporcionar una tabla del tamaño de la muestra que se seleccionará por unidad de negocio (es decir,
tamaño de la muestra del encuestado inflado por inelegibilidad y falta de respuesta).
Machine Translated by Google

22 2 Proyecto 1: Diseño de una Encuesta de Personal de Etapa Única

Tabla 2.6: Estimaciones por unidad de negocio, grado salarial y antigüedad: VNUV
encuesta climática ciclo 4, división de encuestas.

Proporción Número medio de


Salario empresarial (Muy) de acuerdo con las clases de entrenamiento

unidad calificación Tenencia Q5 Q12 Q15 Media SE

RS 0,84 0,80 0,69 18.1 0.98


RC 0,90 0,85 0,83 12.6 0.90
FO 0,67 0,63 0,60 8.9 0,60
RS A1–A3 0,82 0,78 0,68 10.7 0,65
R1-R5 0,81 0,77 0,67 23,5 2.26
M1-M3 0,92 0,88 0,76 6.6 0.30
RC A1–A3 0,91 0,86 0,85 8.8 0,46
R1-R5 0,86 0,81 0,80 20,3 5.45
M1-M3 0,97 0,92 0,90 4.1 0.09
FO A1–A3 0,51 0,48 0,46 5.4 0.33
R1-R5 0,74 0,70 0,66 12.8 2.09
M1-M3 0,93 0,89 0,84 3.4 0.15
RS Menos de 5 años 5+ 0,88 0,83 0,73 15.3 1.33
años 0,81 0,77 0,67 19.9 2.06
RC Menos de 5 años 5+ 0,92 0,88 0,86 12.2 2.67
años 0,87 0,83 0,81 13.1 0.82
FO Menos de 5 años 5+ 0,67 0,64 0,60 8.8 1.08
años 0,67 0,63 0,60 9.2 1.02

• Discutir el contenido de la sección restante del informe.

2. Diseño de la muestra

• Describir la población objetivo del Ciclo 5.


• Describir el marco de muestreo, incluida la fecha y la base de datos de origen.
• Describir el tipo de muestra y el método de selección de la muestra que se utilizará.

3. Tamaño y asignación de la muestra

• Requisitos de optimización
– Detalles de optimización incluyendo restricciones y presupuesto.
– Detallar los tamaños mínimos de dominio y la mecánica utilizada para determinar
los tamaños
Machine Translated by Google

2.5 Próximos pasos 23

• Resultados de optimización
– Resultados: tamaño mínimo de muestra de encuestados por estrato
– Tamaños de muestra marginales para dominios de informes clave
– Precisión estimada lograda por los resultados de optimización
• Ajustes por inflación a la solución de asignación
– Ajustes por falta de respuesta
– Ajustes para miembros de la muestra no elegibles •
Asignación final de la muestra
– Tamaños de muestra marginales para dominios de informes clave
• Análisis de sensibilidad
– Resultados de comparar las desviaciones con la asignación después de introducir
cambios en el sistema de optimización

4. Apéndice

• Tamaño de muestra por estrato (tabla), muestra completa y número esperado de


encuestados •
Otras tablas detalladas pertinentes, incluido el análisis preliminar

2.5 Próximos pasos

En el Cap. 7. Los métodos discutidos en los capítulos intermedios le proporcionarán las herramientas
para resolver el problema de asignación usted mismo. Revisaremos periódicamente las discusiones
del equipo de diseño de VNUV antes del Cap. 7 para proporcionar información sobre las decisiones
y procedimientos del equipo de diseño.
Machine Translated by Google

Capítulo 3
Diseño y tamaño de la muestra para
encuestas de una sola etapa

El Capítulo 3 cubre el problema de determinar un tamaño de muestra para encuestas de


una sola etapa con restricciones impuestas, como el nivel de precisión deseado. Para
determinar el tamaño de una muestra, se debe considerar un tipo particular de estadística.
En este capítulo se enfatizan las medias, los totales y las proporciones. Nos concentramos
en muestras aleatorias simples seleccionadas sin reemplazo en la Secc. 3.1. Los objetivos
de precisión se pueden establecer en términos de coeficientes de variación o márgenes de
error para diseños no estratificados, como se analiza en la Secc. 3.1.1. Cubrimos el
muestreo aleatorio simple estratificado en la Secc. 3.1.2. Determinar un tamaño de muestra
cuando se muestrea con probabilidades variables es algo más complicado porque la fórmula
de la varianza sin reemplazo es compleja. Un dispositivo útil para determinar el tamaño de
una muestra cuando se muestrea con probabilidad proporcional al tamaño (pps) es emplear
la fórmula de varianza basada en el diseño para el muestreo con reemplazo, como se
explica en la Secc. 3.2.1. Aunque cubrimos principalmente los cálculos basados en
varianzas basadas en el diseño, los modelos también son especialmente útiles cuando se
analiza el muestreo pps como se explica en la Sección. 3.2.2.
El resto de este capítulo cubre algunos temas más especializados, incluidos los métodos
de muestreo sistemático, de Poisson y algunos otros en la Secc. 3.3. Los parámetros de
población son necesarios en las fórmulas de tamaño de muestra; los métodos para
estimarlos están cubiertos en la Secc. 3.4. Otros casos especiales importantes son las
características raras y las estimaciones de dominio (subpoblación y subgrupo) discutidas
en la Secc. 3.5. El capítulo concluye con una discusión sobre los efectos de diseño y el
software para la selección de muestras en las Secciones. 3.6 y 3.7.
Los métodos discutidos aquí se limitan a análisis para estimaciones basadas en una
sola variable y. Por supuesto, esto es extremadamente restrictivo porque la mayoría de las
encuestas miden una serie de variables y hacen muchas estimaciones para dominios como
los estratos de diseño. El problema más aplicable de determinar los tamaños de muestra y
las asignaciones para una encuesta de propósitos múltiples se estudiará en el Cap. 5.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 25


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 3, © Springer Science+Business Media New York 2013
Machine Translated by Google

26 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

3.1 Determinación de un tamaño de muestra para un diseño de etapa única

Una de las preguntas más básicas que debe enfrentar un diseñador de encuestas es,
¿cuántas? Esto no es fácil de responder en una encuesta con múltiples objetivos y estimaciones.
Un tamaño de muestra que sea adecuado para estimar la proporción de personas que visitaron
a un médico al menos una vez el año pasado puede ser muy diferente del tamaño de muestra
necesario para estimar la proporción de personas con algún trastorno extremadamente raro
como la enfermedad de Addison. Es probable que ninguno de estos tamaños de muestra sea
el mismo que se requiere para estimar el salario promedio por persona.
Esta sección analiza métodos para estimar tamaños de muestra para diseños de una sola
etapa con un objetivo especificado en el nivel de precisión para una variable de análisis clave.
Dentro del texto, consideramos varios planes de muestreo probabilístico de uso común. Los
métodos aplicados con este diseño de encuesta simple son la base para comprender su
aplicación en entornos más complejos, como el proyecto incluido en el Cap. 2. Más adelante
en el cap. 5 cubrimos la programación matemática, que es la mejor herramienta para el cálculo
del tamaño de la muestra para encuestas complicadas de objetivos múltiples. La determinación
del tamaño de la muestra para muestras de área requiere un cálculo del tamaño de la muestra
para cada etapa del diseño y se analiza en el Cap. 9.
Antes de entrar en los detalles de los cálculos del tamaño de la muestra, se necesita una
palabra sobre la terminología:

• A los matemáticos les gusta distinguir entre un estimador, que es una cantidad aleatoria, y
una estimación, su valor en una muestra particular. Esta distinción no tiene importancia
para nuestros propósitos y usaremos los términos indistintamente. • Usaremos la frase
desviación estándar de población para referirnos a la raíz cuadrada de una varianza de
población finita. Por ejemplo, la desviación estándar de una variable de análisis Y es S = ÿ S2
donde la varianza poblacional, o varianza unitaria, es S2 = /(N ÿ 1) donde ¯yU = i=1 yi /N es
la media poblacional finita y N es el número de elementos en la población.
2 norte

(yi ÿ y¯U )
norte yo = 1

U denota el universo (es decir, la población) de N unidades.


• El coeficiente de variación poblacional (o unitario) de Y es CVU = S /¯yU. El = S2 y¯2 se llama
2
cuadrado de la población CV, unidad CV)tu población tu(o,
revarianza. • El término error estándar de
una estimación, abreviado como SE, significa la raíz cuadrada de la varianza de la estimación.
Si ˆÿ es una estimación de algún valor poblacional, ÿ, entonces su error estándar es SE ˆÿ

= V ˆÿ , dónde

V es la varianza calculada con respecto a un diseño de muestra particular.


El uso común es decir error estándar como abreviatura del error estándar de una estimación,
aunque el primero puede ser ambiguo a menos que todos tengan claro qué estimación se

está discutiendo. El error estándar, V ˆÿ ,

es una cantidad teórica que debe estimarse a partir de una muestra. Si estimamos V ˆÿ por
v ˆÿ entonces el error estándar, estimado de la estimación
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 27

ˆÿ es se ˆÿ = v ˆÿ . Una forma abreviada de esto es llamar a v ˆÿ la estimación

Error estándar.
• El coeficiente de variación (CV) de una estimación ˆÿ se define como CV ˆÿ =

V ˆÿ /ÿ , donde ÿ = E ˆÿ , el valor esperado basado en el diseño de la

estimar ˆÿ, asumiendo que ˆÿ es insesgado. Esto también debe estimarse a partir de una muestra

mediante cv ˆÿ = v ˆÿ coeficiente de variaciónˆÿde que


, la se conoce
estimación ˆÿ como la estimación
o, a veces, como el error estándar

relativo estimado. Tenga en cuenta que los profesionales a menudo dirán "error estándar" cuando
se refieren a "error estándar estimado" y CV cuando se refieren a "CV estimado".

El CV generalmente se expresa como un porcentaje, es decir, 100 × CV ˆÿ y es una cantidad que


tiene una interpretación más intuitiva que la varianza o el SE. El CV no tiene unidad de medida. Por
ejemplo, si estimamos el número de empleados, tanto el SE como ¯yU están en unidades de empleados,
que se anulan en el CV. Debido a que el CV no tiene unidades, se puede usar para comparar la
precisión relativa de las estimaciones para tipos de cantidades completamente diferentes, por ejemplo,
dólares de ingresos y proporción de empresas que tienen planes de salud que pagan anteojos.

• Una variable auxiliar es una covariable que está relacionada con una o más de las variables a
recolectar en el estudio. Una variable auxiliar puede estar disponible para cada unidad en un marco
muestral, en cuyo caso, puede usarse para diseñar una muestra eficiente. Si la población total de
un auxiliar está disponible de alguna fuente fuera de la encuesta, la variable auxiliar puede usarse
en la estimación. Para la estimación, tener el valor de uno o más auxiliares solo para los casos de
muestra suele ser suficiente siempre que se disponga de los totales de la población.

Otros términos se definirán en capítulos posteriores según sea necesario.


Independientemente de la convención de nomenclatura, en este libro, las cantidades teóricas

que son una función de los parámetros de la población se escriben con mayúscula, por ejemplo, V ˆÿ ,

y los estimadores de muestra correspondientes se representan en minúsculas, por ejemplo, v ˆÿ . Una

estimación de muestra de un parámetro de población ÿ se denota con

“sombrero”, es decir, ˆÿ.

Mientras todos los participantes en un proyecto entiendan las frases abreviadas de la misma
manera, no habrá confusión. Sin embargo, puede resultarle útil verificar de vez en cuando que su
comprensión es la misma que la de sus colegas. En el resto de esta sección, calcularemos los tamaños
de muestra utilizando cantidades teóricas como CV ˆÿ. Sin embargo, tenga en cuenta que precisamente
Machine Translated by Google

28 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Por lo general, se necesitarán estimaciones de muestra de varios ingredientes (como S y CVU )


para evaluar las fórmulas del tamaño de la muestra.

Criterios para determinar los tamaños de muestra

Para determinar el tamaño de una muestra, se debe adoptar algún criterio para decidir qué tan
grande es lo suficientemente grande. Esta es una cuestión de qué tan preciso desea que sea
una estimación. Discutimos varios criterios de precisión que se pueden usar en las secciones
siguientes:

• Error estándar de una estimación: establecer un SE objetivo requiere que se haga un juicio
sobre un nivel aceptable de SE. Esto puede ser difícil porque un SE tiene las mismas
unidades que la variable de análisis (p. ej., personas, dólares, miligramos de mercurio). •
Coeficiente de variación: los CV son más útiles que los SE porque no tienen unidades de
medida. Los valores objetivo se pueden establecer sin tener en cuenta la escala de una variable
de análisis. • Margen de error (MOE): está relacionado con la amplitud de un intervalo de
confianza. Los MOE son útiles porque los patrocinadores de la encuesta o los analistas a
menudo se sienten cómodos al hacer afirmaciones como "Quiero poder decir que el valor de la
población está dentro del 3 % de la estimación de la muestra". Para uso posterior, denotamos
el MOE como e.

Decidir cuál de estos es el mejor criterio para una encuesta dada es, hasta cierto punto,
arbitrario. Un profesional debe desarrollar la habilidad de explicar las opciones a los
patrocinadores de la encuesta y guiar a los patrocinadores hacia opciones que ambos entiendan
y acepten. Como enfatizaremos, una consideración clave es el presupuesto. El tamaño de la
muestra debe ser asequible; de lo contrario no se puede realizar la encuesta.

3.1.1 Muestreo aleatorio simple

Primero, tome el caso simple de una sola variable y y una muestra aleatoria simple de unidades
seleccionadas sin reemplazo (srswor). Supongamos que nos gustaría estimar la media
(poblacional) de y usando la media estimada (muestral) basada en una muestra aleatoria
simple de n unidades:

norte
Una

y¯s = yi
n
yo = 1

La varianza poblacional teórica de la media muestral de un srswor (diseño) es


Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 29

norte
S2
V(¯s) = 1 ÿ (3.1)
norte norte

Una Una

= ÿ

S2
norte norte

donde N es el número de unidades en la población objetivo en el muestreo


norte
y S2 = /(N ÿ 1) es la varianza de 2
yo=1
la unidad
(yi ÿ y¯U
de)población,
norte
con ¯yU = i=1 yi /N la media de todas las unidades en la población objetivo. los
término 1 ÿ n/N se denomina factor de corrección de población finita (fpc). los
la varianza en la expresión (3.1) se denomina varianza de diseño o muestreo repetido
varianza, lo que significa que mide la variabilidad en ¯ys calculada a partir de diferentes muestras posibles de
tamaño n seleccionadas del marco. Antes del muestreo,
la varianza de diseño generalmente se considera que es la que se usa en la computación
un tamaño de muestra. Una vez que se ha seleccionado una muestra en particular y se han recopilado los datos,
la varianza calculada bajo un modelo razonable puede ser más apropiada
para la inferencia de esa muestra en particular (p. ej., véase Valliant et al. 2000). Ya que
estamos preocupados por el diseño en la etapa de planificación, por lo general consideraremos las variaciones del
diseño, en este caso, las calculadas con respecto a las variaciones repetidas.
muestreo aleatorio simple.
A veces será útil escribir una suma sobre el conjunto de unidades de muestra
como
con s denotando el conjunto de unidades de muestra y una suma sobre el todo
yoÿs
población como donde U denota la población, o universo, de todas las unidades.
iÿU
Para estimar el total de y a partir de una respuesta, utilice

t ˆ= Ny¯s , (3.2)

cuya varianza (de diseño) es

ˆ norte
S2
vt = N2 1 ÿ
norte norte

norte
= norte ÿ 1 S2 .
norte

Para determinar el tamaño de una muestra para un jurado, no importa si


piense en estimar una media o un total: el resultado será el mismo. Ahí
son situaciones, como la estimación del dominio, que se cubrirán más adelante en este capítulo
donde el total estimado no es solo la media estimada multiplicada por una constante.
En esos casos, las varianzas de los dos estimadores no están tan estrechamente relacionadas
y los tamaños de muestra calculados pueden ser diferentes.
El cuadrado del coeficiente de variación para ¯ys y Tˆ es

Una Una
S2
CV2 (¯s) =
ÿ

. (3.3)
norte
norte
y¯2
tu

Podemos establecer el CV al cuadrado o la revarianza en la ecuación. (3.3) a algún valor deseado,


2
diga CV (como
0 0.05), y resuelva para la muestra requerida n:
Machine Translated by Google

30 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

S2
y¯2
tu
norte = . (3.4)
2
currículum +
S2
0 Ny¯2tu

El tamaño de la muestra es una función de la revarianza de la unidad (población). Cuando


la población es lo suficientemente grande como para que el segundo término en el denominador sea
insignificante en comparación con la primera, la fórmula del tamaño de la muestra es aproximadamente

.
= S2 y¯2 tu .
norte
(3.5)
CV 2
0

Cuanto más variable sea y, mayor debe ser el tamaño de la muestra para lograr un
objetivo de CV especificado. Naturalmente, si el n calculado es mayor que el presupuesto
puede soportar, la encuesta tendrá que reducirse o abandonarse si los resultados
sería inaceptablemente impreciso. Otra forma de escribir la Ec. (3.4) es

n0
norte = , (3.6)
1+ n0
norte

S2 /y¯2U
donde n0 = 2 , como en la expresión (3.5). El término n0 es también el requerido
currículo
0

tamaño de la muestra si se utilizó un diseño de muestreo aleatorio simple con reemplazo (srswr).
usó. Por lo tanto, n0 /N en la ecuación. (3.6) da cuenta de la proporción de la población que se muestra.
En dos poblaciones de diferente tamaño pero con el mismo
varianza S2, Ec. (3.6) refleja el hecho de que la población de menor tamaño
requieren una muestra más pequeña para lograr un CV dado.
Tenga en cuenta que configurar el CV a CV0 es equivalente a configurar el deseado
2
varianza a V0 = CV expresión
0 × y¯2U. _ Multiplicando el numerador y el denominador de
(3.3) por ¯y2 tu da la fórmula de tamaño de muestra equivalente,

S2 .
norte = = S2 . (3.7)
S2
V0 + V0
norte

Como se señaló anteriormente, es probable que la expresión (3.4) sea la fórmula más fácil de usar que
expresión (3.7) porque los CV son más fáciles de entender que las varianzas.
La función R, nCont, calculará un tamaño de muestra usando CV0 o
V0 como entrada (consulte el Apéndice C para ver una introducción al código R). Los parametros
utilizados por la función se muestran a continuación:

nCont(CV0=NULO, V0=NULO, S2=NULO, ybarU=NULO, N=Inf,


CVpop=NULO)

Si CV0 es el objetivo deseado, entonces la unidad CV, S /¯yU , o la población


también se debe proporcionar la media y la varianza, ¯yU y S2 . Si V0 es la restricción
valor, entonces S2 también debe incluirse en la llamada de función. El valor predeterminado
de N es infinito, pero también se puede usar un valor especificado por el usuario. esto y todo
funciones subsiguientes discutidas en el libro se enumeran en el Apéndice C. El
Las funciones se pueden utilizar después de cargar el paquete PracTools.
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 31

Ejemplo 3.1 (Tamaño de muestra para un CV objetivo). Supongamos que estimamos a partir de un
encuesta anterior que el CV poblacional de alguna variable es 2.0. Si la población es
extremadamente grande y CV0 (el CV objetivo) se establece en 0,05, entonces la llamada
a la función R es nCont(CV0=0.05, CVpop=2). La muestra resultante
el tamaño es 1600 Si el tamaño de la población es N = 500, entonces nCont(CV0=0.05,
CVpop=2, N=500) da como resultado un tamaño de muestra (redondeado) de 381. El factor fpc
tiene un efecto sustancial en el último caso.

Ajuste CV0

Para poner en práctica el método descrito anteriormente, se debe establecer un valor para el
coeficiente de variación objetivo, CV0 . Hasta cierto punto, el valor es arbitrario.
aunque las reglas generales se han desarrollado a lo largo de los años. Un CV de una estimación
del 50 % implicaría que un intervalo de confianza de aproximación normal
formado sumando y restando dos errores estándar de una estimación sería
cubrir cero. Tal estimación obviamente es muy imprecisa. El nacional de EE. UU.
El Centro de Estadísticas de Salud señala cualquier estimación que publique que tenga un CV de
30 % o más y lo etiqueta como “poco confiable.” 1 A menudo, una estimación con un CV de
10 % o menos se considera "confiable", pero los fines para los que se
se pondrá debe ser considerado.
Otra forma de establecer la precisión sería igualar o superar el CV logrado
en una ronda anterior de una encuesta, suponiendo que el nivel de precisión fuera satisfactorio. En
ese caso, se podría utilizar el mismo diseño de muestra y asignación.
otra vez. Algunos valores de CV s de encuestas patrocinadas por el gobierno en los EE. UU.
se enumeran en la Tabla 3.1. Estos obviamente tienen un rango bastante grande. CV para
estimaciones publicadas de una encuesta determinada también variarán considerablemente porque
los patrocinadores de la encuesta suelen estar ansiosos por publicar estimaciones para muchos
dominios cuyos tamaños de muestra pueden variar. Algunas de las estimaciones serán muy
preciso mientras que otros no lo serán.
En algunos casos, un grupo administrativo puede establecer un objetivo de precisión.
Por ejemplo, el Consejo de la Unión Europea (1998) especifica que ciertas
tipos de estimaciones de la fuerza de trabajo tienen un CV del 8 % o menos. La UE también
recomienda que los países miembros logren ciertos tamaños de muestra efectivos (Council
de la Unión Europea 2003) para estimaciones de ingresos y condiciones de vida. Un
el tamaño efectivo de la muestra, nef f , se definió en el Cap. 1 y es igual al número
de unidades muestrales analíticas divididas por el efecto de diseño, defff, para un estimador.
El uso de deff o nef f es una forma práctica de aproximar la muestra requerida.
tamaños en encuestas multietápicas, como veremos en los Caps. 9 y 10.

Ejemplo 3.2 (Encontrar un tamaño de muestra para declaraciones de impuestos). El Servicio de Impuestos
Internos (IRS, por sus siglas en inglés) de EE. UU. permite que las empresas, en algunas circunstancias, utilicen
estimaciones en sus declaraciones de impuestos en lugar de valores en dólares a partir de una
enumeración del 100 % de todas las cuentas. Por ejemplo, una empresa puede estimar el valor total

Una

www.cdc.gov/nchs/data/statnt/statnt24.pdf.
Machine Translated by Google

32 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Tabla 3.1: Coeficientes de variación o errores estándar de algunas estimaciones publicadas


en encuestas patrocinadas por el gobierno de los Estados Unidos.

Encuesta Estimar CV o estándar


error (SE)

Poblacion actual Tasa de desempleo nacional de CV del 1,9 %


Encuesta 6%
Índice de precios al consumidorb Porcentaje nacional de 1 mes 0.04 SE en puntos
cambio de precio porcentuales
Encuesta Nacional de Examen de Plomo sanguíneo medio estimado CV del 1,24 %
Salud y Nutrición concentración (ÿg/dL) en EE. UU.
III (1988–1994) c mujeres, 17–45 años de edad
Encuesta de Reserva 2000 Porcentaje de personal de Marina CV del 3,22 %
Personal del componente diciendo que sirviendo a la patria
tuvo una influencia muy grande en
su decisión de participar en
la Guardia Nacional/Reserva
Encuesta Nacional de Alta Hospitalaria Total de días de atención hospitalaria por CV del 21,3 %
2005e enfermedad del corazón

a Oficina de Estadísticas Laborales (2006)


b
Oficina de Estadísticas Laborales (2009) c
Thayer y Diamond (2002)
d
Deak et al. (2002, Cuadro 28a.1) e Centro
para el Control y la Prevención de Enfermedades (2005, Cuadros I, II)

de todos los activos de capital que se pueden depreciar en un programa de cinco años. los
la estimación puede provenir de una muestra de tiendas, edificios u otros
unidades. Para poder utilizar la estimación puntual de dicha muestra,
el contribuyente debe demostrar que el incremento utilizado para calcular un intervalo de
confianza unilateral del 95 % no supera el 10 % de la estimación puntual.
Es decir, si se estima un total y se usa un intervalo de confianza de aproximación normal,
el requisito es que el MOE sea e = 1.645 × CV Tˆ ÿ 0.10.

Si se cumple esta condición, se puede utilizar Tˆ en la declaración de impuestos; si no, tampoco


Tˆ ÿ 1.645 × SE Tˆ o Se debe usar Tˆ + 1.645 × SE Tˆ, cualquiera que sea el

más desventajoso para el contribuyente (Servicio de Impuestos Internos 2004, 2007).


Dado que CV (¯ys) = CV Tˆ bajo muestreo aleatorio simple, el límite del IRS es

equivalente a CV Tˆ ÿ 0,10 /1,645. Si el CV de la población es 1, el tamaño de la muestra


que cumpliría con el requisito del IRS es 271, que se obtiene a través de
nCont(CV0=0.10/1.645, CVpop=1).

Ejemplo 3.3 (tamaños de muestra VNUV). Revisando los datos recopilados para el
Encuesta climática VNUV (Proyecto 1 en el Capítulo 2), el equipo de diseño utiliza el
datos de encuestas anteriores para estimar los CV de la población para el número
promedio de clases por año tomadas por un empleado de VNUV en la encuesta de investigación
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 33

(SR) unidad de negocio. Dado que CV2 (¯ys) = nÿ1 ÿ N donde CV2 (¯ys)
ÿ1 CV 2
tu
es de la encuesta anterior, la población (unidad) CV dentro de cada estrato = CV2 (¯ys) nÿ1 ÿ N tum se
2 ÿ1
tu
puede calcular como CV . Información para
la unidad de negocio SR, clave para calcular los tamaños de muestra, incluye la
siguiendo:

Unidad de salario Elegible Anterior promedio estimado


empresarial grado empleados tamaño de la muestra número de clases

Media SEb CV

RS todos 554 149 18.1 0,98 0,054

A1-A3 74 20 10.7 0,65 0,061


R1-R5 359 96 23.5 2,26 0,096
M1-M3 121 33 6.6 0,30 0,045

a Recuentos de empleados que se muestran en la Tabla 2.2


b Las medias estimadas y los errores estándar se obtuvieron de un
encuesta y se muestran en la Tabla 2.6

El CV unitario estimado a partir de la fórmula anterior para los tres sueldos


los grados son 0.319, 1.099 y 0.303 y es 0.771 para todos los grados combinados. A
mejorar la precisión obtenida de la ronda anterior de la encuesta, la
El equipo de diseño evalúa el CV objetivo para cada una de las cuatro estimaciones anteriores en
CV0 = 0,05. El código para determinar los nuevos tamaños de muestra se muestra a continuación. R
Los comentarios (código que no se ejecuta) se dan después del signo de almohadilla (#) para
ayuda en la comprensión de cada sección del programa:

Nh <- c(74, 359, 121)


Npop <- suma(Nh)
nh.antiguo <- c(20, 96, 33)
n.antiguo <- sum(nh.antiguo)
cv.antiguo <- c(0.061, 0.096, 0.045)
cv.SR <- 0.054
# estimar el CV de la unidad de la última encuesta
CVpoph <- cv.old/sqrt((1/nh.old - 1/Nh))
CVpop_ <- cv.SR/sqrt(1/n.antiguo - 1/Npop)

# muestras de calificaciones salariales


nCont(CV0=0.05, CVpop = CVpoph, N=Nh)
# muestra de unidad de negocio SR
nCont(CV0=0.05, CVpop = CVpop_, N=Npop)

Los resultados siguen. Tenga en cuenta que la decisión de restringir las estimaciones dentro de
grado de salario, además de todos los grados de salario dentro de este negocio
unidad, tiene implicaciones de costo. Una muestra total de 167 cumplirá el 0,05 CV
objetivo para la unidad de negocio completa. Sin embargo, la suma de la muestra requerida
tamaños a través de los grados salariales es de aproximadamente 261, lo que indica que más de la mitad
del conjunto de tamaño de muestra máximo (encuestado) (n=500) tendría que ser
Machine Translated by Google

34 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

asignados a estos tres estratos (un problema probable para encontrar un


solución):

Negocio Salario Muestra


unidad calificación Talla

RS todos 166.3

A1-A3 26.3
R1-R5 205.9
M1-M3 28.2

Suma 260.4

Estimación de proporciones

Muchas encuestas estiman la proporción de unidades que tienen alguna característica.


Codificar yi como uno si la unidad i tiene la característica y cero si no (es decir, cero-uno
variable indicadora), la proporción estimada es también la media muestral,

pd = yi /n.
yoÿs

En el Proyecto 1 (Cap. 2), el equipo de diseño definió indicadores para "de acuerdo" o
respuestas “en desacuerdo” a tres preguntas de la encuesta. La unidad de revarianza es entonces
definido como
qU =. qU
norte
S2 =
,
y¯2 norte - 1
tu PU PU

donde pU =
iÿU yi /N y qU = 1 ÿ pU . La revarianza de ps es

Una Una norte


qU
,
ÿ

CV2 (ps) =
norte norte norte - 1
PU

que es un caso especial de la Ec. (3.3). El tamaño de la muestra que logrará un objetivo.
CV de CV0 proviene de especializar la expresión en Eq. (3.4):

norte qU qU
nÿ1 .
norte =
PU = PU
2 (3.8)
CV 2 + Una qU currículo
0
0 nÿ1 PU

La última aproximación proviene de suponer nuevamente que N, el tamaño de la


población objetivo, es grande.
Basado en la Ec. (3.8), el tamaño de la muestra será mayor para las características raras
que para los más frecuentes. Esto coincide con la relvarianza unitaria, qU / pU ,
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 35

siendo más grande para características raras. Tenga en cuenta que esto, al principio,
parece contradecir el consejo de que, cuando se calcula un tamaño de muestra para
estimar una proporción, se debe suponer que pU = 0.5 porque esto conducirá al tamaño
de muestra más conservador, es decir, más grande (Cochran 1977, Secc. 4.4). Sin
embargo, ese consejo se basa en la suposición de que se establece un valor objetivo de V
Una Una norte

(ps) . En ese caso, podemos usar el hecho de que V (ps) = Nÿ1 pU qUde
para encontrar que
ÿ

el tamaño
norte la muestra
norte que
logrará una varianza específica de V0 es

norte

Nÿ1 pU qU
norte = (3.9)
pU qU
V0 + nÿ1
.
= pU qU .
V0

Dado que pU qU se maximiza en pU = 0,5, el tamaño de muestra más grande se produce


cuando pU = 0,5. Explorará la diferencia entre establecer un tamaño de muestra basado
en un CV y en un objetivo de error estándar en los Ejercicios 3.1 y 3.2.
Si el tamaño de la muestra debe calcularse a través de la fórmula dada en las Ecs. (3.8)
o (3.9) depende del contexto. La misma expresión no siempre es deseable. Un objetivo de
CV de, digamos, 0.05 es mucho más difícil de alcanzar para una característica rara que
para una más prevalente porque la unidad de varianza, qU / pU , depende inversamente
de la media, pU —cuanto más pequeño es el valor de pU , mayor es el valor derevarianza.
pU. la
La figura 3.1 representa gráficamente los tamaños de muestra aproximados de la ecuación.
(3.8) necesario para CV s de 0.05 y 0.10 para pU entre 0.10 y 0.90. Si pU = 0,10 y
queremos un CV de 0,05, el tamaño de muestra necesario es de 3.600. En cambio, si pU
= 0,50, el tamaño de la muestra es de 400.
La función R, nProp, calculará el tamaño de la muestra utilizando la ecuación. (3.8),
asumiendo que se establece un objetivo CV0 , o usando la ecuación. (3.9), asumiendo una
varianza objetivo, V0. En cualquier caso, se debe proporcionar un valor de pU . Los
parámetros utilizados por la función son nProp(CV0=NULL, V0=NULL, pU=NULL, N=Inf).

Ejemplo 3.4 (Tamaño de muestra para característica rara). Considere el caso de una
característica rara en la población con pU = 0.01. Si requerimos un CV de 0,05, esto
significa que el error estándar de la proporción sería 0,0005. El tamaño de muestra
necesario para este nivel de precisión es de 39.600, que es mucho más grande de lo que
podrían soportar los presupuestos para muchas encuestas (¡y más grande que algunas
poblaciones!). La llamada a la función R para calcular este tamaño de muestra es
nProp(V0=0.0005ˆ2, N=Inf, pU=0.01) o nProp(CV0=0.05, N=Inf, pU=0.01).

Por otro lado, puede ser sustancialmente interesante si pudiéramos estimar la proporción
más o menos 1/2 del 1 %. Esto confirmaría, al menos, cualquier sospecha de que la
proporción es bastante pequeña. Si la mitad de la meta del 1 % se traduce como que un
intervalo de confianza del 95 % debe tener un ancho medio de 0,005, esto significa que
Machine Translated by Google

36 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

norte

3500
3000
2500
2000
1500
1000
500
0

cv = 0,05

CV = 0,10

0.2 0.4 0.6 0.8


PU

Higo. 3.1: Tamaños de muestra aproximados de la ecuación. (3.8) requerido para lograr CV s de 0.05
y 0,10 para proporciones de población que oscilan entre 0,10 y 0,90. El tamaño de la población
se supone que es grande, por lo que la corrección de población finita es uno.

1.96
pU (1 - pU ) = 0.005 ,
norte

es decir, el error estándar es de aproximadamente 0,0026. Esto, a su vez, implica que el tamaño
de la muestra necesario para alcanzar este objetivo es n = 1.522, mucho menos que 39.600. los
llamar a nProp para calcular esto es nProp(V0=(0.005/1.96)ˆ2, N=Inf,
pU=0,01).
La función nProp también tomará un vector pU como entrada. Por ejemplo, si
queremos los tamaños de muestra para pU en (0.01, 0.05, 0.10), el comando es
nProp(CV0=0.05, N=Inf, pU=c(0.01, 0.05, 0.10)) con resultados,
n = 39.600, 7.600 y 3.600.

Ejemplo 3.5 (Efecto de la fpc). Volviendo de nuevo al Proyecto 1 en el Cap. 2, el


Las siguientes proporciones estimadas de "totalmente de acuerdo" se calcularon a partir de la
encuesta de clima anterior para la pregunta 5 (P5. En general, estoy satisfecho con VNUV
como empleador en este momento) para los empleados en la encuesta de investigación
unidad:

El equipo de diseño decide restringir inicialmente todas las proporciones estimadas con CV0
= 0,06. Sin embargo, un miembro del equipo recomienda
el uso de N=Inf con la función nProp citando de la clase de estadísticas que
cualquier tamaño de población superior a 30 es grande. Otros en el equipo no están de acuerdo.
pero admita ejecutar los cálculos del tamaño de la muestra en ambos sentidos para la
comparación, por ejemplo, nProp(CV0=0.06, N=Inf, pU=0.82) para los grados salariales A1–A3,
lo que da n = 61, comparado con nProp(CV0=0.06, N=68, pU=0.82),
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 37

Negocio Salario Elegible tamaño de la muestra


unidad calificación empleado Q5b
N = Inf N = Nh

RS A1-A3 74 0.82 61.0 33.7


R1-R5 359 0.81 65.2 55.3
M1-M3 121 0.92 24.2 20.3
Total 554 150.4 109.3

a Recuentos de empleados que se muestran en la Tabla 2.2


b
Proporción estimada de empleados que están totalmente de acuerdo con
la declaración en la pregunta 5

lo que arroja n = 33. Los resultados que se muestran arriba resaltan la necesidad de especificar el
tamaño de la población (si se conoce) al calcular los tamaños de muestra a menos que el
la población es extremadamente grande.

Establecer un margen de error

El método que se acaba de describir también es equivalente a establecer una tolerancia de cómo
close a un investigador le gustaría que la estimación fuera del valor de la población.
De hecho, muchos investigadores prefieren pensar en establecer tolerancias en lugar de
CV s. Si la tolerancia (a veces llamada MOE) es e y el objetivo es ser
dentro de e de la media de la población con probabilidad 1 ÿ ÿ, esto se traduce en

Pr (|y¯s ÿ y¯U | ÿ e)=1 ÿ ÿ . (3.10)

Esto es equivalente a establecer el ancho medio de un intervalo de confianza bilateral (IC) de 100 (1 ÿ
ÿ) % en e = z1ÿÿ/2 V (¯ys), asumiendo que ¯ys se puede tratar como
estando distribuida normalmente. El término z1ÿÿ/2 es el percentil 100 (1 ÿ ÿ /2 )
de la distribución normal estándar, es decir, el punto con 1 ÿ ÿ /2 del área
a su izquierda. si requerimos

y¯s ÿ y¯U
PR ÿ mi = 1 - ÿ , (3.11)
Yu

Esto corresponde a establecer e = z1ÿÿ/2 CV (¯ys). (Consulte el ejercicio 3.4.) Si establecemos


el MOE a e0, entonces Eq. (3.10) se puede manipular para dar el requerido
tamaño de la muestra como
Machine Translated by Google

38 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

z2 S2
norte =
1ÿÿ/2 . (3.12)
e20 + z2
1ÿÿ/2 S2 /N

De manera similar, si el MOE en Eq. (3.11) se establece en e0, obtenemos

z2
norte =
1ÿÿ/2 S2 y¯2 tu . (3.13)
e20 + z2
1ÿÿ/2 S2 /(Ny¯2 tu )

En el caso particular de estimar una proporción, establecemos S2 = N pU qU /(N ÿ 1)


en la ecuación (3.12). Resolviendo para n da

norte
z2
norte =
nÿ1 1ÿÿ/2 pU qU
pU qU
(3.14)
e2 + z2 nÿ1
1ÿÿ/2
. pU qU
= z2 ,
1ÿÿ/2 e2

que es lo mismo que la Ec. (3.9) una vez que notamos que V0 = e2 z2 1ÿÿ/2 . O
ecuaciones (3.9) o (3.14) pueden ser convenientes, dependiendo de cómo se formule el
objetivo de la estimación.
Si requerimos que la mitad del ancho de un CI sea una proporción específica de pU ,
luego establecer S2 y¯2
tu = N qU /[(N ÿ 1) pU ] en la ecuación. (3.13). La solución para el
el tamaño de la muestra es entonces

norte
z2 qU

norte =
nÿ1 1ÿÿ/2 PU
qU
(3.15)
e2 + z2
1ÿÿ/2 pU (Nÿ1)
. z21ÿÿ/2 qU
= .
e2 PU

Porque CV 0 2
= e2 z2
1ÿÿ/2 , la expresión (3.15) es la misma que la ecuación. (3.8).
La función R, nPropMoe, calculará los tamaños de muestra utilizando las ecuaciones. (3.14)
o (3.15), correspondiente a si fijamos el MOE en términos de las Ecs. (3.10)
o (3.11). El tipo de MOE se selecciona mediante el parámetro moe.sw donde
moe.sw=1 invoca la ecuación. (3.14), es decir, e = z1ÿÿ/2 V (ps), y moe.sw=2
invoca la Ec. (3.15), es decir, e = z1ÿÿ/2 V (ps) /pU . El conjunto completo de parámetros es
se muestra en la siguiente llamada de función:
nPropMoe(moe.sw, e, alpha=0.05, pU, N=Inf)

Ejemplo 3.6 (Tamaño de la muestra basado en MOE). Supongamos que queremos estimar
una proporción para una característica donde pU = 0.5 con un MOE de e cuando
ÿ = 0,05. En otras palabras, la muestra debe ser lo suficientemente grande como para que un intervalo
de confianza del 95 % de aproximación normal sea de 0,50 ± e. Por ejemplo, si
e = 0,03 y ps en realidad era 0,5, queremos que el intervalo de confianza sea
0,50 ± 0,03 = [0,47, 0,53]. El tamaño de la muestra depende en gran medida del ancho.
del intervalo de confianza como se ve en la siguiente tabla. Los tamaños de muestra fueron
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 39

evaluado usando la fórmula dada en Eq. (3.14) con pU = 0.5 y z0.975 = 1.96. El comando
para generar los tamaños de muestra enumerados en la siguiente tabla es

nPropMoe(moe.sw=1, e=seq(0.01,0.08,0.01), alfa=0.05, pU=0.5)

mi n es

0,01 9.604 0,05 384 0,02


2.401 0,06 267 0,03 1.067
0,07 196 0,04 600 0,08 150

Tenga en cuenta que la terminología en este ejemplo puede parecer un poco imprecisa.
Cuando se selecciona una muestra y se estima la proporción, es casi seguro que ps no
será igual a pU . El CI calculado será ps ± e, no pU ± e. En consecuencia, es mejor pensar
en pU en el ejemplo 3.6, y en la discusión subsiguiente, como un valor hipotetizado antes
del muestreo.

Método de Wilson para proporciones

Un problema con los intervalos de confianza (IC) de aproximación normal para


proporciones, calculados como ps ± z1ÿÿ/2 V (ps), es que el intervalo puede no limitarse
a [0, 1] cuando la proporción es extrema ( es decir, extremadamente raro o muy prevalente).
Un método que producirá puntos finales en el rango permisible se debe a Wilson (1927).
marrón et al. (2001) y Newcombe (1998) demostraron que el método de Wilson tiene
mejores propiedades de cobertura que varios métodos alternativos, incluidos los intervalos
estándar de la teoría normal. La idea general es tratar t = (ps ÿ pU ) pU qU /n como si
tuviera una distribución normal estándar. Entonces, reordenando la desigualdad |t| ÿ z1ÿÿ/
2 da una cuadrática en pU . Las raíces de la cuadrática son los extremos del intervalo de
confianza de Wilson:

2psn + z2 ± z z2 + 4psqsn 2 (z2


.
+ n)
Este intervalo no es simétrico, pero para ser paralelo a los métodos anteriores,
consideraremos la mitad del ancho del intervalo como el MOE. La mitad de la anchura de
este intervalo de confianza es
1 z z2 + 4psqsn z2
,
2 +n

donde z ÿ z1ÿÿ/2 . Si establecemos el ancho medio en algún valor deseado e, sustituimos


ps por una estimación anticipada de pU y resolvemos para n, esto conduce a otra
cuadrática en n cuya raíz más grande es

Una z 2
norte = pU qU ÿ 2e2 + e2 ÿ pU qU (4e2 ÿ pU qU ) . (3.16)
2 mi
Machine Translated by Google

40 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Si se seleccionó una muestra compleja, se aplican pasos similares después


de tratar t = (ˆp ÿ pU ) pU qU /neff como normal estándar.
La función R nWilson calculará un tamaño de muestra usando entradas para pU y e.
Al igual que en nPropMoe, el MOE deseado se puede especificar como la mitad del
ancho de CI en la proporción (moe.sw=1) o como la mitad del ancho de CI en una
proporción del valor de población pU (moe.sw=2). La función no incluye un fpc aunque
el lector podría modificar el código para incluir uno si la frecuencia de muestreo asociada
(n/N) es considerable. El conjunto completo de parámetros es
nWilson(moe.sw,alpha=0.05,pU,e).
La función devuelve una lista que contiene el tamaño de la muestra, los puntos
finales anticipados del CI y la longitud del CI. El último valor, 'longitud del CI', simplemente
verifica que la longitud anticipada del CI es igual al doble del valor de entrada e cuando
moe.sw=1 y es igual a 2e pU cuando moe.sw=2.

Ejemplo 3.7 (Tamaño de muestra de Wilson). Suponga que pU = 0,04 y que el ancho
medio deseado del CI es 0,01. La llamada a la función y la salida son

nWilson(moe.sw =1, pU=0.04, e=0.01)

$n.sam
[1] 1492.151 $'CI
límite inferior' [1] 0.0311812
$'CI límite superior' [1]
0.0511812 $'longitud de
CI' [1] 0.02

Por lo tanto, se necesita una muestra de alrededor de 1.492. Note que el IC anticipado
no es simétrico alrededor de pU = 0.04. El cálculo de MOE correspondiente usando
nPropMoe es

nPropMoe(moe.sw=1, e=0.01, alfa=0.05, pU=0.04, N=Inf)

[1] 1475.120

donde el valor después de "[1]" es la salida de la función R. En otras palabras, el tamaño


de muestra estimado es aproximadamente el mismo con cualquiera de las dos funciones.
La utilidad del método de Wilson en la práctica está más en el cálculo real del intervalo
de confianza en sí que en la estimación del tamaño de una muestra.

Método Log-Odds para proporciones

Otro método de construcción de IC para proporciones es transformar la proporción a la


escala de probabilidades logarítmicas, poner un intervalo de confianza en las
probabilidades logarítmicas y luego volver a transformar los puntos finales del IC a la
escala de proporciones. Al igual que el método de Wilson, este enfoque produce un IC
en la proporción que se limita a [0, 1]. Sobre la base de los resultados empíricos de
Brown et al. (2001), el método de Wilson funciona algo mejor en muestras de tamaño pequeño a mode
Sin embargo, el uso de log-odds es más conocido entre los profesionales, y el
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 41

los tamaños de muestra calculados con los dos métodos serán similares. El log-odds de la estimación
de la muestra es log (ps /qs ) con qs = 1 ÿ ps. Una aproximación lineal al log-odds es

registro (ps /qs ).= log ( pU /qU )+(ps ÿ pU ) /( pU qU ) .

La varianza aproximada de log (ps /qs ) es entonces

Una Una Una norte

v [registro (ps /qs )] =


ÿ

.
pU qU norte norte norte - 1

Un IC de aproximación normal en log ( pU /qU ) es log (ps /qs ) ± z1ÿÿ/2


v [log (ps /qs )]. Al definir (L, U) como los puntos finales de este intervalo de confianza, los puntos

finales transformados hacia atrás de un IC en pU son (1 + exp (ÿL))ÿ1 , (1 + exp (ÿU))ÿ1 . Calcular la

mitad del ancho de este CI y establecerlo en un MOE e dar

Una
exp (ÿL) ÿ exp (ÿU) [1 + exp
mi = .
(ÿL)] [1 + exp (ÿU)] 2

Con algo de álgebra, esta ecuación conduce a una ecuación cuadrática en

z Una Una norte

Exp ,
ÿ

ÿpU qU norte norte norte - 1

que se puede resolver para dar

ÿ1
2
norte
ÿpU qU Una

norte = log (x) + , (3.17)


norte - 1 z1ÿÿ/2 norte

dónde

Una

x= e k2 + 1 + e2 (k2 + 1)2 ÿ k2 (1 ÿ 2e) (1 + 2e)


k (1 - 2e)

yk = qU / pU . La función R, nLogOdds, evaluará el tamaño de la muestra en la ecuación. (3.17). La


función acepta los mismos cinco parámetros que nPropMoe.
El MOE deseado se puede especificar como el ancho medio del CI en la proporción (moe.sw=1) o
como el ancho medio del CI en una proporción de la proporción de población pU (moe.sw=2). El
conjunto completo de parámetros aceptados por la función se muestra en la siguiente llamada:

nLogOdds(moe.sw, e, alpha=0.05, pU, N=Inf)

Otra transformación que a veces se usa cuando se calcula un IC para una proporción es arcsen
ÿps . Esta transformación no se incluye aquí porque no parece adecuada para el cálculo del tamaño de
la muestra cuando se establece un MOE.
Machine Translated by Google

42 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Ejemplo 3.8 (Comparación de tres métodos). Como en el ejemplo 3.7, suponga que
pU = 0,04, el ancho medio deseado del CI es 0,01 y la población es grande.
La llamada de función y la salida enumeradas después del "[1]" de nuestras tres funciones
para calcular los tamaños de las muestras son

nLogOdds(moe.sw=1, e=0.01, alpha=0.05, pU=0.04, N=Inf)


[1] 1500.460
nWilson(moe.sw=1, pU=0.04, e=0.01)\$n.sam
[1] 1492.151
nPropMoe(moe.sw=1, e=0.01, alfa=0.05, pU=0.04, N=Inf)
[1] 1475.120

Los tamaños de las muestras están dentro de un 2 % entre sí, aunque el Wilson
y los métodos de log-odds sugieren un tamaño de muestra más grande que el estándar
Acercarse.

Obtención de valores de población

Como última palabra antes de dejar el muestreo aleatorio simple, tenga en cuenta que todos los
Las fórmulas de tamaño de muestra anteriores están escritas en términos de cantidades de población que
son probablemente desconocidos durante la fase de diseño de la muestra del estudio. Por ejemplo,
S2, ¯yU y pU son valores de población. Si se ha hecho la misma encuesta
antes en una representación anterior de la población, entonces los datos de la muestra pueden
utilizarse para estimar los parámetros. Si no se dispone de datos previos sobre el
población objetivo, puede ser posible obtener datos sobre una población similar. En
en algunos casos, las estimaciones resumidas publicadas pueden ser accesibles. esto es especialmente
verdadero de las proporciones. Por ejemplo, la Oficina de Estadísticas Laborales de EE. UU.2 publica
porcentajes estimados de trabajadores que reciben diferentes beneficios de
sus empleadores, el Centro Nacional de Estadísticas de Salud3 produce estadísticas
sobre la salud de la nación, el Centro Nacional de Estadísticas de Educación (NCES)
tabula estadísticas sobre la educación pública y privada en todos los niveles, y la
La Oficina del Censo4 proporciona estadísticas sobre la población y muchos otros temas. Otros países
tienen agencias estadísticas similares que publican información económica,
estadísticas epidemiológicas y otras.
En algunos casos, estará disponible una fuente de datos secundaria para toda la población o
conjuntos de microdatos para muestras anteriores. Por ejemplo, el Núcleo Común
of Data (CCD)5 de NCES contiene archivos de datos de población de primaria y secundaria.
escuelas secundarias que se pueden usar para tabular medias, varianzas, proporciones
u otras estadísticas. Si los microdatos se proporcionan para registros individuales para
una muestra de unidades de la población objetivo, puede estimar la población
parámetros Discutiremos cómo estimar algunos parámetros poblacionales
de muestras en la Secc. 3.4. Tenga en cuenta que el equipo de diseño del Proyecto 1 en el Cap. 2

2
http://stats.bls.gov/.
3 http://www.cdc.gov/nchs/.
4 http://www.census.gov/.
5 http://nces.ed.gov/ccd/.
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 43

tenía acceso directo a las fuentes de datos relevantes y, por lo tanto, podía producir
las estimaciones proporcionadas en las tablas 2.2 a 2.6.

3.1.2 Muestreo aleatorio simple estratificado

Las muestras aleatorias simples son raras en la práctica por varias razones. La mayoría de las encuestas
tienen múltiples variables y dominios para los cuales se desean estimaciones. Seleccionando
una muestra aleatoria simple corre el riesgo de que uno o más dominios importantes
será mal representado u omitido por completo. Además, las variaciones de la encuesta
las estimaciones a menudo se pueden reducir mediante el uso de un diseño que no es srswor.
Un diseño que soluciona los problemas señalados para una espada se denomina
como muestreo aleatorio simple estratificado (sin reemplazo) o stsrswor. Como
como indica el nombre, se administra un diseño de espada dentro de cada estrato de diseño.
Los estratos se definen con una o más variables conocidas para todas las unidades y
dividir toda la población en grupos de unidades mutuamente excluyentes. Nosotros
podría, por ejemplo, dividir una población de establecimientos comerciales en minoristas
comercio, comercio al por mayor, servicios, manufactura y otros sectores. La población de
un hogar podría dividirse en regiones geográficas: norte, sur, este,
y oeste Para un stsrswor, definimos los siguientes términos:

• Nh = el número conocido de unidades en la población en el estrato h (h =


1, 2,...,H)
• nh = el tamaño de la espada seleccionada en el estrato h
• yhi = el valor de la variable y para la unidad i en el estrato h
2
• S2 =
Nueva Hampshire

h yo=1 (yhi ÿ y¯Uh ) /(Nh ÿ 1), la varianza poblacional en el estrato h


• Uh = conjunto de todas las unidades de la población del estrato h
• sh = conjunto de nh unidades muestrales del estrato h
H
Tenga en cuenta que el tamaño total de la muestra se calcula como n = h = 1 hora . El pop
lación media de y es
H
y¯U = ¿Por qué ?
h=1

donde Wh = Nh /N y ¯yUh es la media poblacional en el estrato h. La muestra


estimador de ¯yU basado en un stsrswor es

H
y¯st = ¿Por qué ? (3.18)
h=1

donde ¯ysh = iÿsh yhi /nh . Al estimar una proporción de la población, la


estimador es similar:
H
pst = whpsh (3.19)
h=1
Machine Translated by Google

44 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

con psh definido de la misma manera que ¯ysh usando una variable y cero-uno (indicador).
La varianza del muestreo de población del estimador estratificado es

H
1 - fh
V (¯yst) = W2h S2
h, (3.20)
h=1
Nueva Hampshire

donde fh = nh /Nh .
Los estratos son especialmente útiles si corresponden a dominios para los que se necesitan
estimaciones separadas. En ese caso, la muestra asignada a cada estrato
se puede determinar utilizando las fórmulas de la Secc. 3.1.1 y se garantiza el resultado
en la selección de casos de muestra para cada dominio (es decir, estrato). Sin embargo, el tamaño
H
total de la muestra, n = h = 1 nh, puede volverse excesivamente grande. Para remediar esto
problema, el tamaño total de la muestra se puede asignar a los estratos utilizando varios
técnicas como se discute en la siguiente sección. Una asignación eficiente puede llevar
a la varianza de un estimador global, ¯yst o pst, siendo menor que con un
(sin estratificar) srswor.

Elección de variables de estratificación

Los estratificadores se pueden seleccionar en al menos cinco motivos (ver, por ejemplo, Lohr 1999,
Cap. 4):

1. Para evitar seleccionar una muestra que esté mal distribuida en la población, como podría ocurrir
con srswor
2. Como una forma de garantizar ciertos tamaños de muestra en grupos que serán
estudiado por separado (es decir, dominios)
3. Como conveniencia administrativa (p. ej., se puede usar una encuesta por correo para
unidades en algunos estratos pero entrevistas personales para el resto de los estratos)
4. Para administrar los costos (p. ej., la recopilación de datos en algunos estratos podría ser más costosa).
sivo que en otros estratos)
5. Como una forma de mejorar la eficiencia de la muestra para estimaciones de población completa mediante
agrupar unidades que tienen propiedades de media y varianza similares

Un ejemplo del segundo uso sería una encuesta empresarial en la que los establecimientos se
agrupan por tipo de negocio (fabricación, venta al por menor, servicios,
etc.). La muestra podría distribuirse de tal manera que cada sector reciba
un tamaño de muestra lo suficientemente grande como para cumplir con los objetivos de precisión para
algunas estimaciones importantes. En una encuesta de escuelas, los estratos pueden definirse con base en el nivel y
propiedad de una escuela (por ejemplo, escuela primaria, secundaria y preparatoria cruzada con
propiedad pública o privada). Por lo general, una asignación a estos estratos diseñada
cumplir con un objetivo de CV para cada estrato no sería la mejor asignación para
hacer una estimación eficiente para toda la población. Sin embargo, en tales casos,
las estimaciones de dominio suelen ser más importantes que las estimaciones de población total.
Además, cuando las estimaciones del dominio tienen una precisión aceptable,
entonces las estimaciones de la población completa también lo harán.
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 45

La estratificación por tamaño con una asignación eficiente es un ejemplo del 5 anterior.
Este método utiliza una variable de tamaño que se correlaciona con lo que se va a medir en la
encuesta. En una encuesta de establecimientos, el número de empleados en un período de
tiempo anterior debería ser un predictor del empleo actual y posiblemente de otras variables,
como los ingresos. Para determinar una buena medida de tamaño (MOS), se debe realizar un
modelo de regresión suponiendo que se dispone de algunos datos relevantes. Este método de
estratificación está estrechamente relacionado con el muestreo pps descrito en la Secc. 3.2.1
(también, ver Valliant et al. 2000, Cap. 6).

Tipos de asignaciones

Hay varios tipos de métodos de asignación que se pueden considerar para una muestra
estratificada. Las primeras tres asignaciones a continuación asumen que el tamaño total de la
muestra n es fijo y corresponde a un presupuesto de estudio fijo (suponiendo que el costo de
recopilar y procesar datos para cada unidad es el mismo). En los dos últimos, se determina que
el tamaño total de la muestra es consistente con las restricciones de costo o de varianza:

1. Asignación proporcional en la que nh = nWh

Esta asignación es eficiente para estimar la media de y si las desviaciones estándar de los
estratos, Sh, son todas iguales o, al menos, muy cercanas entre sí. Este método puede
asignar muy pocas unidades a algunos estratos pequeños y, por lo tanto, puede ser deficiente
cuando se desean estimaciones de estratos separados.
2. Asignación igual con nh = n /H ÿ n¯

La asignación equitativa es útil si se necesita una estimación para cada estrato


individualmente y si las desviaciones estándar del estrato son aproximadamente las mismas.
3. Asignación de Neyman donde nh = n WhSh
Hh=1 WhSh

La asignación de Neyman minimiza la varianza, V (¯yst), del estimador de la media


poblacional. Neyman puede dar estimaciones de varianza alta para algunos estratos
individuales. Además, ignora cualquier costo diferencial de recopilación y procesamiento de
datos entre estratos (al igual que las asignaciones proporcionales e iguales).
4. Asignación óptima con restricciones de costos

Esta asignación minimiza V (¯yst) sujeto a un presupuesto total fijo y se analiza en detalle a
continuación.
5. Asignación óptima limitada por precisión

Esta asignación minimiza el costo total sujeto a una restricción fija en V (¯yst) o CV (¯yst) y
también se analiza más adelante.

Esbozamos los resultados para las asignaciones 4 y 5 a continuación. En ambos, la proporción


de la muestra asignada a un estrato es la misma y se da en la Ec. (3.23). Los dos métodos
conducen a diferentes tamaños de muestra totales, como se muestra en las Ecs. (3.22) y
Machine Translated by Google

46 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

(3.25). Puede leer más detalles matemáticos en un texto como S¨arndal et al. (1992).

La asignación óptima con restricciones de costo 4 utiliza esta función de costo lineal simple,
H
C = c0 + h=1 nhch, donde
varíanC con
es elelcosto total,
número dec0 es lade
casos suma de losy valores
muestra, ch es elde costo
costo porque node
caja
muestra en el estrato h. El término c0 generalmente se denomina "costo fijo" y puede incluir
componentes como los salarios de un gerente de proyecto, programadores y supervisores de
edición. El término ch es el costo de la recopilación de datos, por ejemplo, entrevistas y envío
por correo, y otros costos unitarios que aumentan a medida que aumenta el tamaño de la
muestra. Minimizar V (¯yst) en la expresión (3.20) sujeto a un presupuesto total especificado
conduce a

WhSh ÿch
. (3.21)
nh = (C ÿ c0) H
h=1 WhSh ÿch

El tamaño total de la muestra es la suma de los nh en los estratos de muestreo:

H
h=1 WhSh ÿch .
n = (C ÿ c0) H (3.22)
h=1 WhSh ÿch

La proporción de la muestra asignada al estrato h es

= WhSh ÿch
Nueva Hampshire

. (3.23)
norte

Hh=1 WhSh ÿch

Como se desprende de la expresión dada en la Ec. (3.23), los estratos que representan una
porción más grande de la población, medida por Wh o tienen desviaciones estándar más
grandes, Sh, obtienen una porción más grande del tamaño total de la muestra. Los estratos
donde el costo unitario, ch, es mayor obtienen menos.
Si la varianza, V (¯yst), se fija en V0 y minimizamos el costo total, como con la asignación
óptima restringida por precisión 5, la asignación al estrato h es

Hh=1 WhSh ÿch .


nh = (WhSh / ÿch ) (3.24)
V0 + N ÿ1 H h=1
WhS2h

Si el CV de ¯yst se fija en CV0, esto implica que V0 en la ecuación. (3.24) debe ser × y¯2 puesto
2
estrato h también viene
0 a dada
V0 = CV
por U
la .Ec.
En (3.23),
este caso,
perolaelproporción
tamaño total
de de
la muestra
la muestra
asignada
es al

H H
norte = h=1 WhSh ÿch .
(WhSh / ÿch ) (3.25)
h=1 V0 + N ÿ1 H h=1
WhS2h

Al calcular una asignación restringida por costos o restringida por precisión, los tamaños de
muestra generalmente se redondean a los siguientes números enteros. Por lo general, esto no
es algo por lo que preocuparse demasiado, ya que las restricciones aún se cumplirán
aproximadamente. Además, si existe alguna posibilidad de falta de respuesta o
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 47

otras pérdidas de muestra, el diseñador de la encuesta inevitablemente pierde algo de control sobre
la asignación En cualquier caso, los controles de calidad útiles después de hacer la
cálculos en las ecuaciones. (3.21) y (3.24) son:

(i) Verifique que h nhch respeta aproximadamente la restricción de costo.


(ii) Compruebe que V (¯yst) es aproximadamente igual a V0.

Estas son formas simples de detectar errores computacionales.


De las dos asignaciones 4 y 5, el método de costo restringido en Eq. (3.21) es
probablemente el que se usa con más frecuencia. La situación habitual es que un investigador
tiene una cantidad predeterminada de dinero para gastar. Cualquier muestra que se seleccione
debe caber dentro de ese presupuesto. Otra ocurrencia estándar es que en parte
a través de un estudio se cambia el presupuesto—normalmente se recorta—o que los costos unitarios ch
son más altos de lo esperado. En consecuencia, los ajustes a mitad de camino a la muestra
el tamaño es necesario. Si se recorta el presupuesto total, la asignación óptima del
La muestra reducida se puede calcular reduciendo los tamaños de muestra en la ecuación. (3.21)
en el mismo porcentaje en cada estrato. Alternativamente, algún juicio puede
hacerse acerca de si mantener la precisión en algunos estratos es más importante
que en otros.

Independientemente de la asignación elegida, la fórmula (3.20) se puede utilizar para calcular


la varianza de ¯yst. Aunque la Ec. (3.20) podría especializarse usando el
fórmulas para las asignaciones 1-5, esto es innecesario y, de hecho, indeseable
para la programación de computadoras. Al evaluar la Ec. (3.20) de una muestra, el
varianza de la población, S2h, se puede estimar como se describe en la Secc. 3.4.
La función R, strAlloc, calculará las asignaciones proporcionales, Neyman, restringidas por costo y
restringidas por varianza definidas anteriormente. Los parámetros aceptados por la función son:

n.tot tamaño de muestra total fijo


Nueva Hampshire vector de tamaños de estrato de población (Nh) o proporciones de estrato de población (Wh),
requerido
Sh desviaciones estándar de la unidad de estrato (Sh), requeridas a menos que alloc =
"apuntalar"
costo costo variable total (C ÿ c0)
ch vector de costo por unidad en el estrato h (ch)
V0 objetivo de varianza fija para la media estimada
CV0 objetivo de CV fijo para la media estimada
ybarU media pop de y (¯yU )
asignar tipo de asignación, debe ser uno de "prop", "neyman", "totcost",
"tovar"

Los parámetros sólo se pueden utilizar en determinadas combinaciones, que son


comprobado al comienzo de la función. Básicamente, dada una asignación, sólo
se permiten los parámetros requeridos para la asignación y no más. Por ejemplo, la asignación de
Neyman requiere Nh, Sh y n.tot. La función devuelve
Machine Translated by Google

48 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

una lista con tres componentes: el tipo de asignación, el vector de tamaños de muestra
(nh), y el vector de proporciones muestrales asignado a cada estrato (nh /n).

Ejemplo 3.9 (Asignación de costos). La Tabla 3.2 proporciona recuentos de población por estrato y
desviaciones estándar de los gastos totales con base en la Encuesta de Organizaciones de Salud
Mental (SMHO) de 1998.6 El conjunto de datos de la encuesta se trata como el
población (smho98) para este ejemplo. (Ver B para detalles de este y otros
conjuntos de datos.) La variable y es el total de gastos durante un año calendario
para una organización individual. Con un número reducido de estratos, como es el
caso en este ejemplo, una hoja de cálculo es una buena herramienta para calcular diferentes
asignaciones
Para ilustrar la diferencia que puede hacer el costo en la asignación a los estratos,
La Tabla 3.3 muestra las proporciones de la muestra total que se asignarían
con la asignación de Neyman y con una asignación que utiliza los costos unitarios en
la columna ch . Neyman destina alrededor del 73 % (0,346 + 0,386) de la muestra
a los hospitales psiquiátricos y multiservicios o de abuso de sustancias. Después de considerar el
costo, estos dos estratos representan solo el 60 % de la muestra (un 13 %
reducción de puntos) porque el costo por organización es más alto que para otros
Estratos.

Tabla 3.2: Estadísticas sobre gastos totales para una población de organizaciones de salud mental.

Estándar Población
Estrato coeficiente
Tipo de organización Nh Media ¯yUh desviación
h de variación
Sh
Sh /¯yUh
Una
Hospital psiquiátrico 215 21.240.408 26.787.207 65 1.261
2 Residencial 10.024.876 10.645.109 252 1.062
3 hospital General 4.913.008 6.909.676 5011.085.034
11.927.573 1.406
4 veteranos militares 0.929
Atención parcial o
5 149 6.118.415 9,817,762 1.605
ambulatorio
Multiservicio o abuso
6 144 15.567.731 44.553.355 2.862
de sustancias
Total 875 11.664.181

También podemos calcular los tamaños de muestra totales que estarían implícitos por
diferentes presupuestos u objetivos de precisión. Para presupuestos máximos de costos variables,
C ÿ c0, de $100 000 y $200 000, los tamaños de muestra totales son 119 y 238, como
mostrado a continuación. Si el CV objetivo (¯yst) se establece en un valor CV0, entonces V0 en la ecuación. (3.25)
2
es (CV0 × y¯U ) . Usando esto para evaluar la ecuación. (3.25) da tamaños de muestra de 406 y
198 para objetivos CV de 0,05 y 0,10.

6 Administración de Servicios de Salud Mental y Abuso de Sustancias, http://www.samhsa.


gobierno/.
Machine Translated by Google

3.1 Determinación de un tamaño de muestra para un diseño de etapa única 49

Cuadro 3.3: Neyman y asignaciones con restricciones de costos para las organizaciones de salud mental para
estimar la media del gasto total.

Costo o precisión restringida


Estrato Costo neyman
Tipo de organización =
Nueva Hampshire WhSh
h ch norte
H
WhSh Nueva Hampshire
= WhSh/ÿch
h=1
H h=1(WhSh/ÿch )
norte

Una
Hospital psiquiátrico 1.400 200 0.346 0.257
2 Residencial 0.042 0.082
3 hospital General 300 0.105 0.168
4 veteranos militares 600 0.033 0.038
Atención parcial o
5 450 0.088 0.115
ambulatorio
Multiservicio o abuso de
6 1,000 0.386 0.339
sustancias
Total 1.000 1.000

Presupuesto (C ÿ c0) Tamaño de la muestra CV objetivo Tamaño de la muestra


de la ecuación (3.22) de la ecuación. (3.25)

$100,000 119 0.05 406


$200,000 238 0.10 198

El código R para la asignación de Neyman (usando una muestra total arbitraria


tamaño de 100) es

Nh <- c(215, 65, 252, 50, 149, 144)


Sh <- c(26787207, 10645109, 6909676, 11085034, 9817762, 44553355)
strAlloc(n.tot = 100, Nh = Nh, Sh = Sh, alloc = "neyman")

Las asignaciones restringidas por costos con costos variables de $100 000 y $200 000
se calculan con

canal <- c(1400, 200, 300, 600, 450, 1000)


strAlloc(Nh = Nh, Sh = Sh, costo = 100000, ch = ch,
alloc = "costo total")
strAlloc(Nh = Nh, Sh = Sh, costo = 200000, ch = ch,
alloc = "costo total")

Las asignaciones con objetivos CV de 0,05 y 0,10 son devueltas por

strAlloc(Nh = Nh, Sh = Sh, CV0 = 0.05, ch = ch,


ybarU = 11664181, asignación = "totvar")
strAlloc(Nh = Nh, Sh = Sh, CV0 = 0.10, ch = ch,
ybarU = 11664181, asignación = "totvar")

Como para todas las funciones R, la salida se puede asignar a un objeto para su posterior
manipulación. Por ejemplo, los componentes de
Machine Translated by Google

50 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

alloc1 <- strAlloc(Nh = Nh, Sh = Sh, CV0 = 0.05,


ch = ch, ybarU = 11664181, alloc = "totvar")

como se muestra en names(alloc1), son alloc$allocation, alloc$nh y alloc$'nh/n'.

Asignaciones para comparar las medias de los estratos

Las asignaciones descritas anteriormente fueron diseñadas para ser buenas para las estimaciones
generales de población. Sin embargo, las estimaciones de estratos individuales o la diferencia en
las estimaciones de estratos pueden ser igualmente importantes. Cochran (1977, Secc. 5A.13)
sugiere dos criterios que podrían usarse en tales casos. Una es minimizar la varianza promedio de
la diferencia entre todos los pares de estratos H (H ÿ 1)/2.
Suponiendo que los costos por unidad de estrato son iguales, los tamaños de muestra de estrato
óptimos son
Sh .
nh = norte (3.26)
Hh=1 Sh

Esto es similar a la asignación de Neyman en que es proporcional a las desviaciones estándar de


los estratos pero, a diferencia de Neyman, no se ve afectada por los tamaños de los estratos Wh.

Un segundo criterio sería exigir que la varianza del estimador de la diferencia en cualquiera de
las medias de dos estratos sea la misma. En este caso, la asignación óptima al estrato h es

S2
h
nh = norte , (3.27)
Hh=1 S2
h

que asigna una fracción más grande de la muestra a los estratos de alta varianza que la ecuación.
(3.26).

Ejemplo 3.10 (Asignaciones para estimaciones de estrato). Continuando con el ejemplo anterior,
los resultados de calcular las asignaciones para las organizaciones de salud mental con base en
los criterios de las Ecs. (3.26) y (3.27) se muestran en la Tabla 3.4. Estas asignaciones son más
extremas que las de la Tabla 3.3 al asignar más muestra al estrato 6. El estrato 3 también obtiene
solo 0.015 del total cuando se asigna en proporción a S2 debido a su varianza de estrato
relativamente pequeña. Sobre la base de otras consideraciones,
h hospitales como
generales
el deseo
por separado,
de analizaresta
los
asignación puede resultar insatisfactoria para muchos analistas.

Tenga en cuenta que los ejemplos anteriores se desarrollaron para estimar la media de una
variable: los gastos totales. Otras variables pueden ser igualmente importantes para los analistas,
y las asignaciones eficientes para ellas pueden ser bastante diferentes de las que acabamos de
calcular para los gastos. El Capítulo 5 cubrirá las tareas de asignación de muestras utilizando más
de una variable de análisis.
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 51

Tabla 3.4: Asignaciones para las organizaciones de salud mental para optimizar las comparaciones
de los medios de estrato de los gastos totales.

nh / n
Estrato Tipo de organización Asignación proporcional Asignación proporcional
h a Sh a S2
h

Una
Hospital psiquiátrico 0.244 0.233
2 Residencial 0.097 0.037
3 hospital General 0.063 0.015
4 veteranos militares 0.101 0.040
5 Atención parcial o 0.089 0.031
ambulatorio
6 Multiservicio o abuso de 0.406 0.644
sustancias
Total 1.000 1.000

3.2 Hallar tamaños de muestra al muestrear con variables


probabilidades

Cuando las muestras se seleccionan con probabilidades variables, se utilizan diferentes métodos.
necesarios para los cálculos del tamaño de la muestra. Un dispositivo útil es hacer que el tamaño de la muestra
cálculos basados en la fórmula de varianza con reemplazo como se muestra en
Secta. 3.2.1. Esta fórmula es más simple que las fórmulas sin reemplazo,
que implican probabilidades de selección conjunta. Pensando en la estructura del modelo
es otra buena manera de determinar los tamaños de muestra en algunas poblaciones, como se analiza
en la Secc. 3.2.2. Si hay variables auxiliares en un marco que son
buenos predictores de las variables a recoger en una encuesta, modelos para
Estas relaciones se pueden utilizar para determinar los tamaños de las muestras. Esta sección
analiza la conexión del muestreo pps con los modelos y el uso de estimadores de regresión de medias
y totales. El capítulo 14 describe más extensamente
cómo usar modelos en la estimación a través de la ponderación de calibración. un interesado
El lector puede encontrar una cobertura detallada del uso de modelos en la estimación de encuestas en
Valliant et al. (2000).

3.2.1 Muestreo de probabilidad proporcional al tamaño

Las unidades de muestreo en proporción a algunos MOS pueden ser extremadamente eficientes en
muestreo de una sola etapa para estimar totales si el MOS utilizado para el muestreo es
estrechamente relacionada con la variable de análisis y. Los textos suelen distinguir entre
pps con muestreo de reemplazo, denotado por pps, y sin reemplazo
Machine Translated by Google

52 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

muestreo, denotado por ÿps. Por lo general, nos referiremos a cualquiera de estos como pps, pero tendremos
cuidado de distinguir entre las fórmulas de varianza con reemplazo y sin reemplazo. Suponga que el tamaño
relativo de la unidad i es pi.
Por ejemplo, si el MOS en una población hospitalaria es el número de camas, xi, el tamaño relativo del
hospital i es pi = xi / U xi . Si se selecciona una muestra de tamaño fijode
probabilidad deselección
n unidades
es sin
ÿi =reemplazo, la
npi. También
nos referiremos a este método de muestreo cuando el MOS es x como muestreo pp(x) o, más
generalmente, como pp(MOS). El estimador ÿ de la media, suponiendo que se conoce N, se define en
general como y ˆ¯ÿ = N yi /ÿi . En el caso especial de ÿi = npi, el estimador ÿ es
ÿ1
s

ÿ1 yo .
y ˆ¯ÿ = norte (3.28)
npi
s

Si cada yi fuera exactamente proporcional a x, digamos yi = ÿxi, entonces el estimador ÿ se reduce a y ˆ¯ÿ
= ÿx¯U en cada muestra. Pero, con yi = ÿxi, la media poblacional de y es ÿx¯U ; entonces, y ˆ¯ÿ sería
perfecto en cada muestra. De manera menos restrictiva, si yi sigue el modelo,

EM (yi) = ÿxi , (3.29)

VM (yi) = vi,

donde las yi son independientes y las vi son valores positivos, entonces y ˆ¯ÿ es modelo insesgado en el
sentido de que EM y ˆ¯ÿ ÿ y¯U = 0. En la ecuación. (3.29), EM (yi) y VM (yi) son la expectativa teórica (o
promedio) y la varianza de yi evaluada con respecto al modelo especificado. Una buena práctica al
construir estimadores es hacer algunos modelos para determinar si hay covariables que puedan usarse
como medidas de tamaño y crear estimadores con una varianza más baja que el estimador ÿ simple,
como se analiza en la Secc. 3.2.2.

La varianza de y ˆ¯ÿ es complicada porque implica un problema de selección conjunta


Habilidades de pares de unidades:

ÿ2 yi yj
V y ˆ¯ÿ = norte (ÿij ÿ ÿiÿj ) (3.30)
ÿi ÿj
iÿU jÿU

(p. ej., véase Sarndal et al. 1992). El término ÿij es la probabilidad de que las unidades i y j estén
simultáneamente en la muestra. Los detalles sobre las técnicas de estimación de la varianza en diferentes
situaciones se cubren en el Cap. 18
Hay varios métodos disponibles para seleccionar muestras con diferentes probabilidades; no todos
permiten calcular las probabilidades de selección conjunta, ÿij .
Cochran (1977) revisa varios métodos para seleccionar muestras de tamaño nh = 2.
Dos métodos para muestras de tamaño superior a dos son el de Sampford y el pps secuencial (Chromy
1979). La Sección 3.7 cubre algunos de los paquetes de software disponibles para seleccionar muestras
con probabilidades variables.
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 53

Determinar una medida de tamaño

En el muestreo de una sola etapa, el MOS se asocia directamente con las unidades para
ser muestreados: camas en una encuesta de hospital, empleados en una encuesta de negocios, etc.
En los caps. 9 y 10, discutiremos la asignación de tamaños a unidades agregadas, como
condados, en muestreo polietápico. En esta sección, parte del pensamiento necesario
para asignar un MOS en el caso de una etapa está cubierto. El hallazgo clave se debe
a Godambe y Joshi (1965). Su resultado dice que bajo el modelo (3.29) el
El MOS más eficiente para el muestreo de pps es proporcional a ÿvi. Esto supone
que se estima una población total y se utiliza un estimador que no está sesgado
al promediar sobre un modelo y un diseño de muestreo probabilístico. Isaki y
Fuller (1982) extendió esto a un modelo lineal donde EM (yi) = xT Es
ÿy
VM (yi) = vi con xi definido como un vector de x (variables auxiliares), ÿ definido
como un vector de pendientes de regresión de la misma dimensión que xi, y xT es el
Es

transpuesta del vector xi . En ese caso, ÿvi sigue siendo el mejor MOS para pps
muestreo, asumiendo que se utiliza un estimador de regresión del total de la población.
Describimos estimadores de regresión con más detalle en la Secc. 3.2.2 y posteriores en
Cap. 14
Un modelo que puede ajustarse razonablemente bien a algunos establecimientos o poblaciones
institucionales tiene una varianza con la forma, VM (yi) = ÿ2xÿ yo , donde xi es un
MOS y ÿ es una potencia. Los valores típicos de ÿ están en el intervalo [0,2]. Con un
especificación de la media de regresión, EM (yi), ÿ se puede estimar iterativamente.
Primero, el modelo se ajusta por mínimos cuadrados ordinarios (OLS) y los residuos
calculado. El residuo al cuadrado, e2 yo , es una estimación aproximada de VM (yi),
independientemente de su forma. Cuando VM (yi) = ÿ2xÿ yo , la pendiente en una regresión de
registro e2
Es
en log (xi), donde log es el logaritmo natural, es una aproximación
estimación de ÿ. Henry y Valliant (2009) brindan más detalles junto con las aplicaciones. Dos
funciones R que estimarán iterativamente ÿ son gammaFit junto con
con gamEst en el Apéndice C. Tenga en cuenta que gamEst está configurado para una regresión
sin intercepción. Si se desea un intercepto, la matriz X, que
es una entrada para gammaFit, debe definirse para incluir una columna de 1. los
Los parámetros utilizados por gammaFit son:

X matriz de predictores
X vector de x en V(Y)
Y vector de variables de respuesta
maxiter número máximo de iteraciones permitidas

show.iter muestra valores de gamma en cada iteración, VERDADERO o FALSO


tol cambio relativo en gamma utilizado para juzgar la convergencia

Ejemplo 3.11 (Estimación de la potencia ÿ). La figura 3.2 es un diagrama de dispersión de un


srsword de las unidades 7, 17, 30, 33, 62, 111, 139, 247, 370 y 393 de la
población hospitalaria. Un modelo para y que se adapta bastante bien al hospital
la población es EM (yi) = ÿ1 ÿxi + ÿ2xi, VM (yi) = ÿ2xÿ yo _ Primero, asigne x y
Machine Translated by Google

54 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

y
2000
1500
1000

500

0 200 400 600 800 1000


X

Higo. 3.2: Diagrama de dispersión de una muestra de n = 10 unidades muestrales de la población hospitalaria.

y para ser los vectores de los diez valores para estas unidades. La matriz X contiene
columnas para ÿx y x. Para estimar ÿ, la llamada a gammaFit y su salida son
X <- cbind(raíz cuadrada(x), x)
ajustegamma(X = X, x = x, y = y, maxiter=100, tol=0.001)

Convergencia lograda en 9 pasos.


g.sombrero = 1.882531

En la práctica, la potencia se puede redondear a 1,75 o 2 con la elección de


1.75 siendo seleccionado ya que causaría que los MOS fueran menos extremos que
2. Asumiendo que se usa 1.75, el MOS para pps sería x1.75 . Otro
Es

La precaución al usar gammaFit es que en muestras pequeñas, el algoritmo puede


no converger. Establecer el parámetro show.iter en TRUE imprimirá ˆÿ en cada
iteración, que puede ayudar a reconocer cualquier problema.

Cálculos para muestreo con reemplazo

La expresión (3.30) obviamente no es muy útil para calcular el tamaño de una muestra.
Un enfoque práctico es usar una fórmula de varianza apropiada para pps con
muestreo de reemplazo (ppswr). El estimador más simple de la media que es
generalmente estudiado con muestreo ppswr se llama "p-expandido con reemplazo"
(S¨arndal et al., 1992, Cap. 2) y se define como

Una
yo .
y ˆ¯pwr = (3.31)
Nn Pi
s
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 55

Una unidad se incluye en la suma tantas veces como se muestrea. Aunque la Ec. (3.31)
se parece a y ˆ¯ÿ anterior, la probabilidad de selección de la unidad i no es npi en el
muestreo con reemplazo; en realidad es 1 ÿ (1 ÿ pi) n. La varianza de y ˆ¯pwr en el
muestreo ppswr es
2
Una
yo V1
V y ˆ¯pwr = Pi ÿT ÿ
(3.32)
N2n Pi N2n
tu

donde T es la población total de y. La ventaja obvia de la Ec. (3.32) al calcular el tamaño


de una muestra es que n está claramente separado de los otros términos, a diferencia
de la expresión (3.30).
Si el coeficiente de variación deseado es CV0, la Ec. (3.32) se puede resolver para
dar el tamaño de la muestra como
V1 Una

norte =
2 . (3.33)
N2 y¯2 tu 0CV

La dificultad con esta fórmula es la estimación de V1. Como se describe en la Secc.


3.4, V1 se puede estimar a partir de una muestra que se seleccionó con las mismas
medidas relativas de tamaño, pi, que se utilizarán en la muestra planificada. O bien,
también se puede estimar a partir de una muestra de pps que se seleccionó con algún otro MOS.

Ejemplo 3.12 (Contabilidad de unidades grandes). La figura 3.3 representa los gastos
totales por número de camas para las 671 organizaciones de la población SMHO
(smho98) que tienen camas distintas de cero. Las 204 unidades que reportaron cero
camas solo brindan atención ambulatoria. Existe una relación bastante fuerte entre el
número de camas y los gastos con una correlación de 0,78. La línea gris es un
suavizador no paramétrico que es resistente a la influencia de inusuales

(millones)
Gastos
totales
500
400
300
200
100

0 500 1000 1500 2000 2500


Camas

Higo. 3.3: Gráfico de gastos totales versus número de camas para la población SMHO.
La línea gris es un suavizador no paramétrico (lowess).
Machine Translated by Google

56 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

puntos. Un punto (marcado por la flecha) con 2405 camas es obviamente muy diferente a los demás.
Una buena práctica es seleccionar esa organización para la muestra con probabilidad uno. Dichos casos
se denominan de diversas formas “toma todo”, “certezas” o “autorrepresentación”, según el país de
origen del estadístico. El pensamiento general es que un take-all es tan diferente de los demás en la
población que no debe ponderarse para representar nada excepto a sí mismo. Una regla general útil
que se usa a menudo es calcular las probabilidades de selección específicas para todas las unidades
de la población y determinar qué unidades tienen valores mayores o iguales a uno. En una muestra pps
con MOS xi, esto ocurrirá si

Nx¯Uxi
ÿ_ .
norte

A veces, esto se relaja para incluir todas las unidades con probabilidades de selección superiores a
algún punto de corte como 0,8. En ese caso, las sumas serían unidades con xi ÿ 0.8Nx¯U /n. Tenga en
cuenta que estos puntos de corte para llevar todo dependen del tamaño de la muestra; cuanto más
grande sea la muestra, más unidades se pueden designar como tomas totales.

Si dejamos de lado la unidad grande y seleccionamos una muestra de pps del resto,
el estimador ÿ de la media será

ÿ1
y ˆ¯ÿ = norte (N ÿ 1) y ¯ÿ,nt + y2405 ,

donde y ˆ¯ÿ,nt es el estimador ÿ de la media de las N ÿ 1 unidades no excluyentes y y2405 es el gasto


total de la unidad con 2405 camas.
En términos más generales, si tuviéramos nt sumas, el estimador de la media sería y ˆ¯ÿ = N (N ÿ nt) y
ÿ1
ˆ¯ÿ,nt + Tyt dondeLaTyt es el total
varianza de ydedado
las Yque
para
la el es Nÿnt
unidad V y ˆ¯ÿ,nt
grande con nt = 1a en
no contribuye este ejemplo
ninguna tomade
variabilidad todo.
ˆ¯ 2
muestra a muestra.
norte

ˆ¯
Pero el CV de y aún se calcula dividiendo por ¯yU :

= norte - nt
ˆ¯
currículum V y ˆ¯ÿ,nt /¯yU .
norte

Para calcular el tamaño de una muestra, aproximamos V y ˆ¯ÿ,nt por la varianza de potencia en la
ecuación. (3.32), es decir,
V1
V y ˆ¯ÿ,nt .
= ,
2

(N ÿ nt) norte

donde V1 en la ecuación. (3.32) se refiere solo al subuniverso de N ÿ nt que no lo toman todo. El


resultado es V1 = 9.53703e+19. La fórmula del tamaño de la muestra (3.33) es entonces

9.53703e+19
norte = (3.34)
6712 × 13, 667, 7062CV 2 0

con ¯yU = 13, 667, 706. Para CV0 = 0.15, Eq. (3.34) se evalúa como n = 51 para los que no lo toman
todo.
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 57

Debido a que el cálculo del ejemplo 3.12 se basa en un muestreo con reemplazo, los
tamaños de las muestras pueden ser conservadoramente grandes si en realidad se
selecciona una muestra sin reemplazo con un fpc considerable. Kott (1988) proporciona
un método aproximado para insertar un fpc en la fórmula de muestreo pps que ayudaría
a reducir este problema. Además, cuando se identifican certezas como en el Ejemplo
3.12 y se vuelven a calcular las probabilidades para las no certezas, puede haber
unidades aditivas que tengan probabilidades de selección mayores que 1. Estas también
deben seleccionarse con certeza y el cálculo en la ecuación. (3.34) recalculada para las
unidades restantes. Es posible que se necesiten algunas iteraciones para identificar todos
los elementos esenciales. Alternativamente, se podría usar un límite como xi ÿ 0.8Nx¯U /
n después de la primera iteración, lo que puede eliminar algunas rondas posteriores de iteración.
Un punto final sobre el muestreo pps es que puede ser ineficiente en el muestreo
de una sola etapa para estimar la proporción de unidades que tienen alguna
característica. Como se señaló anteriormente, el muestreo pp(x) combinado con el
estimador ÿ o un estimador de regresión es eficiente si y sigue un modelo lineal y
el MOS es proporcional a la desviación estándar del modelo. Un modelo apropiado
para una característica binaria suele ser no lineal, por ejemplo, log-log logístico o
complementario, y no una línea recta como EM (yi) = ÿxi. Si la probabilidad de
tener la característica aumenta a medida que aumenta el MOS, entonces el
muestreo de pp(MOS) puede no ser tan malo. Sin embargo, si un mejor modelo es
que todas las unidades tengan una probabilidad común o que diferentes grupos de
unidades tengan diferentes probabilidades, el muestreo pp(MOS) producirá
estimadores con varianzas más altas que srswor o stsrswor.
Esta es una de las muchas ilustraciones de que un plan de muestreo dado no puede
ser ideal para todas las cantidades que se pueden estimar en una encuesta. Encontrar
compromisos que sean razonablemente eficientes para muchas estimaciones diferentes
es parte del arte de un buen diseño de la muestra. Como hemos dicho más de una vez,
las herramientas de programación matemática del Cap. 5 será extremadamente útil para
transformar el arte en una ciencia.

Relación del muestreo pps con la estratificación

Aunque el muestreo pps puede ser muy eficiente en algunas circunstancias, puede tener
algunas desventajas prácticas cuando algunas unidades no responden. En las encuestas
de establecimientos, como las de negocios, escuelas u hospitales, se puede desear un
tamaño de muestra objetivo de los encuestados. Casi todas las encuestas enfrentan
algún grado de falta de respuesta. El Capítulo 13 describe algunas de las formas
matemáticas de ajustar las ponderaciones de las encuestas para intentar corregir el
problema. Otro método para lidiar con la falta de respuesta es sustituir otra unidad por
cualquiera que no responda. Esto es especialmente común en las encuestas de las
escuelas. Cuando se utiliza el muestreo pps para seleccionar las unidades iniciales, es
posible que un sustituto no tenga el mismo MOS que la selección original. Esto puede dar
lugar a cierta ambigüedad en la asignación de ponderaciones de la encuesta. ¿Debe el
sustituto recibir el peso asociado con la selección original? ¿O debería su peso ser el que
recibiría si hubiera sido una selección original en sí misma? Otra pregunta es cómo seleccionar el
Machine Translated by Google

58 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

se sustituyen a si mismos? Parte de esta incertidumbre se puede evitar utilizando un


muestreo estratificado de una manera que se aproxime al muestreo pps.
Los estratos se pueden formar en función del tamaño de la siguiente manera. Ordene
el marco de menor a mayor según el MOS. Determine el tamaño total de la muestra
utilizando las Ecs. (3.33) o (3.37) que se describirán a continuación. Divida el marco en H
= n /2 estratos de modo que el total de MOS sea aproximadamente el mismo en cada
estrato. Luego, seleccione una espada de tamaño 2 en cada estrato. Si zhi es el MOS
para la unidad i en el estrato h y los MOS no varían mucho dentro de un estrato, la
probabilidad de selección en el estrato h será
2 . 2zhi
ÿhi = = ,
Nh Nhz¯h
.
donde ¯zh es el MOS promedio en el estrato h, y suponemos que zhi = ¯zh.
Es decir, las probabilidades de selección de stsrswor son aproximadamente las mismas
que las del muestreo pps. Usar nh = 2 no es esencial, pero cuantos más estratos se creen,
menos variarán los valores de zhi dentro de un estrato y más probable es que zhi = ¯zh.
.

Dado que la muestra es stsrswor, el peso de la muestra, ÿÿ1 hola ,


es el mismo para
cada unidad en el estrato h. Esto significa que los sustitutos pueden seleccionarse
mediante un muestreo aleatorio simple de las unidades que no estaban en la muestra
original y se les asigna el mismo peso que a las originales. Por supuesto, la sustitución es
una forma de imputación que afecta las variaciones en formas que pueden ser difíciles de
reflejar al hacer inferencias. En consecuencia, idear un método directo de sustitución no
resuelve todos los problemas.
Además, existen límites prácticos para la proximidad de las probabilidades de selección
de stsrs a las de pps. Si la población es bastante pequeña, por ejemplo, menos de 500, y
las medidas de tamaño utilizadas para el muestreo pps tienen un amplio rango, el rango
de probabilidades de selección pps puede ser grande en algunos estratos. En tales casos,
la probabilidad de selección srs común de unidades dentro de un estrato puede diferir
considerablemente de las probabilidades pps para algunas unidades.

Ejemplo 3.13 (Creación de estratos con igual MOS total). En el ejemplo 3.11 , la potencia
ÿ en el modelo EM (yi) = ÿ1 ÿxi+ÿ2xi, VM (yi) = ÿ2xÿ se estimó en 1,88 para
delahospitales.
Es población
Redondeamos esto a 1.75 para este ejemplo. El siguiente código creará H = 10 estratos
en la población de hospitales acumulando la lista ordenada de ÿ x1.75 y formando estratos
que tienen aproximadamente el mismo valor total de ÿ x1.75. Se deben seleccionar dos
unidades de cada estrato:

x <- hospital$xg <- 1,75


H <- 10; nh <- 2
hosp.pop <-
hospital[orden(x), ]

xg <- sqrt(xˆg)
N <- nfila(hosp.pop)

# crear H estratos usando la regla cume sqrt(xˆg) cumexg <-


cumesum(xg) tamaño <- cumexg[N]/H brks <- (0:H)*tamaño
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 59

estratos <- corte(cumxg, roturas = brks, etiquetas = 1:H)


Nh <- tabla(estratos)

str.selprobs <- rep(nh,H) / Nh

# probabilidades de selección para pp(sqrt(xˆg))


pps.selprobs <- H*nh*xg / sum(xg)
round(cbind(Nh = Nh, stsrs = str.selprobs, pps.means =
por(pps.selprobs,estratos,media)),4)

Nh stsrs pps.medios

1 129 0.0155 0.0155


2 57 0.0351 0.0345
3 42 0.0476 0.0483
4 35 0.0571 0.0574
5 30 0.0667 0.0668
6 25 0.0800 0.0771
7 23 0.0870 0.0889
8 20 0.1000 0.0979
9 18 0.1111 0.1134
10 14 0.1429 0.1451

La última declaración anterior enumera el número de hospitales en cada estrato,


las probabilidades de selección cuando se seleccionan 2 unidades vía srs en cada estrato,
y los valores medios de estrato de las probabilidades si se seleccionara la muestra
usando pp ÿ x1.75 . Las probabilidades de selección promedio de pps están muy cerca de
las probabilidades srs en cada estrato. Se perderá algo de eficiencia con esto
stsrs plan en comparación con las probabilidades óptimas, pero la pérdida puede ser pequeña.
Además, un plan stsrs es atractivo por su simplicidad.

3.2.2 Estimaciones de regresión de totales

Los modelos también se pueden usar para construir estimaciones de medias y totales que son
más eficiente que los estimadores ÿ. Pensando en un modelo que pueda describir
la dependencia de y de una x también puede ser una forma útil de calcular una muestra
Talla. Los detalles de este enfoque, dados en S¨arndal et al. (1992, cap. 12) y
Valliant et al. (2000, Secc. 4.4), se esbozan aquí. También hay una conexión particularmente
útil entre los cálculos del modelo que siguen y pps
muestreo, como veremos. Suponga que el siguiente modelo de regresión lineal
sostiene:

pags

ME (yi) = ÿjxji , (3.35)


j=1

VM (yi) = ÿ2vi,
Machine Translated by Google

60 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

donde el subíndice M significa que el cálculo se realiza con respecto a un modelo, los ÿj son
parámetros de pendiente, xji es la j-ésima variable auxiliar asociada a la unidad i, y vi es un valor
positivo. Un estimador basado en el diseño de la media poblacional de y que no está sesgado bajo
este modelo es el estimador de regresión general (GREG), definido por

pags

y ˆ¯r = y ˆ¯ÿ + bj x¯Uj ÿ xˆ¯ÿj ,


j=1

donde bj es la estimación de ÿj utilizando mínimos cuadrados ponderados por encuesta, ¯xUj es y


poblacional de xj , cubriremos el
xˆ¯ÿj
cálculo
es elde
estimador
las ponderaciones
ÿ de la media
de la
deencuesta
xj . (Hablaremos
o del diseño
de laen
media
la Parte
III. Para esta discusión, puede pensar en bj simplemente como un tipo de estimador de mínimos
cuadrados ponderados). La “varianza anticipada” (ver Isaki y Fuller, 1982) es una varianza calculada
sobre el diseño de la muestra y el modelo. En el caso del GREG con muestreo pps sin reemplazo
(ppswor ) y bajo el modelo (3.35), las probabilidades de selección óptimas, es decir, las que minimizan
la varianza anticipada, son

nv1/2 Es

pi =
Nevada 1/2
tu

con ¯v1/2 tu
=
U ÿvi /N . Con estas probabilidades óptimas, la propia varianza anticipada
aproximada es

. Una 2
AV y ˆ¯r = Nevada (1/2 )
tu ÿ Nv¯U ÿ2 , (3.36)
norte

donde ¯vU = U vi /N . Dividiendo por [EM (¯yU )]2 , obtenemos una especie de revarianza. y
2
Establecer el resultado igual a CV 0 resolver para n conduce a

2
(1/2 )

tu
norte = . (3.37)
currículo 2 [EM(¯yU )]2 v¯u
0 + ÿ2 norte

Se puede derivar exactamente la misma fórmula de tamaño de muestra utilizando argumentos


puramente basados en modelos. En el modelo (3.35), vi y ÿvi deben ser combinaciones lineales de
algunas o todas las x para obtener el resultado. Primero, observamos un ejemplo simple para ilustrar
la estructura del modelo que se necesita. Si el modelo es

ME (yi) = ÿ1 ÿxi + ÿ2xi , (3.38)

VM (yi) = ÿ2xi ,

esto se ajusta a la estructura requerida ya que vi ÿ xi, ÿvi ÿ ÿxi, y tanto xi como ÿxi son parte de EM
(yi). Este modelo permite una relación curva entre y y una sola x con la cantidad de curvatura
dependiendo de los coeficientes de pendiente.
Los modelos como este a menudo se ajustan bien a las relaciones en las poblaciones establecidas.
Machine Translated by Google

3.2 Determinación de los tamaños de las muestras al muestrear con diferentes probabilidades 61

Bajo el modelo (3.35), el mejor estimador de la media basado en el modelo tiene el


ÿ1 pags

forma y ˆ¯M = N yˆi con ˆyi cuadrados


= iÿs yi + i/ÿs estimador
ponderado
pesos dedeÿjmínimos
ideales . Los
son j=1
ÿˆjxji y ÿˆj siendo un
inversamente proporcionales a vi = xi, a diferencia del estimador de mínimos cuadrados
ponderados por encuesta que
es una función de los pesos de diseño. El estimador de la media utiliza la suma
de y para las unidades muestrales (i ÿ s), que se observa y predice las y para
las unidades no muestrales (i /ÿ s). La mejor muestra para este estimador es aquella que
está “equilibrado” en vi y ÿvi de cierta manera (Valliant et al., 2000, Theo rem 4.2.1). En particular,
las medias muestrales de vi y ÿvi deben ser las mismas
como los obtenidos en promedio en el muestreo pp ÿvi . con el particular
forma de la varianza del modelo donde vi y ÿvi son combinaciones lineales de la
x y con una muestra balanceada, el tamaño de muestra necesario para lograr un coeficiente de
variación de CV0 viene dado por la ecuación. (3.37). El siguiente ejemplo ilustra
el cálculo con la población smho98.

Ejemplo 3.14 (Cálculo del tamaño de la muestra utilizando un modelo). Como ilustración, nosotros
regresión de los gastos totales (EXPTOTAL) de la población smho98 en el número de camas
(BEDS) y la raíz cuadrada del número de camas con la varianza
especificación en la Ec. (3.38). La gran organización y todas las organizaciones
con 0 camas se eliminan, dejando 670. El código R para hacer esto se enumera
abajo:

# Aislar selecciones de certeza (es decir, tamaño > 2000)


certificado <- smho98[,"CAMAS"] > 2000

# Quitar certezas y tamaño=0


tmp <- smho98[!cert, ]
tmp <- tmp[tmp[, "CAMAS"] > 0, ]

# Crear variables de modelo


x <- tmp[ , y <- "CAMAS"]
tmp[ , "EXPTOTAL"]

# Objeto que contiene resultados del modelo


m <- glm(y ˜ 0 + sqrt(x) + x, pesos = 1/x)

# Resultados del modelo


resumen

Parte de la salida es

Llamar:
˜
glm(fórmula = y 0 + sqrt(x) + x, pesos = 1/x)

Coeficientes:
Estimación estándar Error valor t Pr(>|t|)
sqrt(x) 1044992 34677 98955 10.560 < 2e-16 ***
X 9612 3,607 0,000332 ***
---

signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1''1
Machine Translated by Google

62 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

(Parámetro de dispersión para la familia gaussiana tomado como


1.723118e+12)

Desviación nula: 2,3973e+15 en 670 grados de libertad Desviación residual: 1,1510e+15


en 668 grados de libertad

Los coeficientes tanto para ÿxi como para xi son altamente significativos. La
estimación de ÿ2 en la ecuación. (3.38) es la desviación residual dividida por sus grados
de libertad o (1.1510e+15)/668 = 1.723054e+12. Usando el mismo conjunto de 670
unidades, las medias de x, ÿx e y son 105,97, 8,84 y 12 912 191. Si queremos un CV
de 0.15 como en el Ejemplo 3.11, entonces
8.842 .
norte = = 34 .
105.97
0.152 12,912,1912
1.723118×1012 + 670

Una alternativa al uso de ¯yU , la media de y, sería el promedio de las predicciones del
modelo. Sin embargo, en el modelo (3.35), la estructura de varianza especial significa
que las dos alternativas son iguales. Continuando con el programa anterior, el código R
simple para calcular el tamaño de la muestra es
N <- nrow(tmp)
media(x) media(raíz
cuadrada(x))

# Estimación de sigma al cuadrado sig2 <-


m$desviación/m$df.residual

# Tamaño de muestra n para CV = 0,15 n <-


media(raíz cuadrada(x))ˆ2 / (0,15ˆ2 * media(y)ˆ2 / sig2 + media(x)/N)

El tamaño de la muestra de 34 es menor que el n = 51 que se encuentra en el ejemplo


3.11. La razón de esto es que el GREG y el estimador de predicción son más eficientes
que el estimador ÿ, ya que ambos aprovechan más la capacidad de predecir y en
función del valor de x.
Uno de los estimadores más simples que surgen de un modelo es el estimador de
razón. El estimador de razón de una media en un srswor es

y¯R = ¯ysx¯U /¯xs .

Este estimador es un caso especial del GREG cuando el modelo es EM (yi) = ÿxi, VM (yi) = ÿ2xi. Su
relavarianza aproximada en srswor es

Una Una
S2R
[CV (¯yR)]2 = N2
ÿ

,
norte
norte
y¯2
tu

donde S2 R = (N ÿ 1)ÿ1 un tu
r2 con ri = yi ÿ xi (¯yU /¯xU ). Poniendo el CV a
Es

valor objetivo, CV0, y al resolver para n se obtiene


ÿ1
Una

tu
y¯2 n = CV0 + , (3.39)
S2R norte

que es lo mismo que la Ec. (3.4) con S2 reemplazado por S2 r Así, la función
Se puede utilizar nCont.
Machine Translated by Google

3.3 Otros métodos de muestreo 63

Ejemplo 3.15 (Tamaño de muestra para un modelo de razón). Como en el ejemplo 3.14,
suponga que la media de los gastos totales (y) en la población smho98 se va a estimar
utilizando el número de camas (x) y suponga que el modelo es una línea recta que pasa
por el origen con varianza proporcional a x. Como en el ejemplo anterior, eliminamos la
única organización grande y todas las organizaciones con 0 camas.
El código R para calcular el tamaño de la muestra es:

m <- glm(y ÿ 0 + x, pesos = 1/x)


ybarU <- media(y)
S2R <- sum(m$residualesˆ2/(longitud(x)-1))
nCont(CV0=0.15, S2=S2R, ybarU=ybarU, N=670) [1] 51.16394

Una muestra de n = 51 es mayor que n = 34 calculada en el ejemplo 3.13 porque el


estimador de razón es menos eficiente que el estimador de regresión usado en ese
ejemplo.

3.3 Otros métodos de muestreo


El muestreo sistemático se usa a menudo en la práctica porque es bastante fácil de
implementar y se puede usar para controlar la distribución de una muestra a través de
una combinación de variables auxiliares. Por ejemplo, un recolector de datos de campo
podría tener que seleccionar una muestra sistemática de una lista de direcciones
compilada al caminar por un vecindario. La selección sistemática en el campo podría
acelerar el proceso de muestreo y recopilación de datos. Llevarlo a cabo en el campo
también puede ser menos propenso a errores que los métodos de selección más
complicados. En otros casos, se utiliza aunque fácilmente podrían implementarse otros
métodos cuyas propiedades estadísticas están mejor definidas.
El método requiere una lista de unidades ordenadas en algún orden. El muestreo
sistemático se puede utilizar para seleccionar muestras de probabilidad igual o muestras
pps. El muestreador comienza en algún lugar de la lista y se salta la lista seleccionando
cada kth (k = 10 o 12 o 20, etc.) unidad dependiendo del método. En muchos libros se
dan varias formas de seleccionar muestras sistemáticamente. Como señala Cochran
(1977, cap. 8), el muestreo sistemático puede tener las características del muestreo
aleatorio simple, el muestreo estratificado o el muestreo por conglomerados, según cómo
se ordene la lista. Uno de los usos más comunes del muestreo sistemático es clasificar
por algún conjunto de covariables para estratificar implícitamente las unidades por las
variables de clasificación. Las variables de clasificación son variables de estratificación
implícitas en contraste con los estratos de diseño que tienen tamaños de muestra definidos
explícitamente por el diseño de la muestra. Por ejemplo, un marco de escuelas podría
estratificarse explícitamente por nivel de grado (primaria, secundaria, preparatoria). Dentro
del nivel de grado, las escuelas pueden ordenarse por urbanidad (ubicación urbana/
suburbana/rural) y por número de estudiantes dentro de la urbanidad. Si se utiliza un
método de igual probabilidad de selección, la muestra sistemática resultante contendrá una cantidad apr
Machine Translated by Google

64 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

representación proporcional de las unidades dentro de los dominios formados por el cruce de las
variables de estratificación implícitas. Por lo tanto, la muestra se controla por más que los estratos
de diseño sin formar una gran cantidad de pequeños estratos que puedan inflar la variación en los
pesos (ver discusiones en el Capítulo 14).
El problema matemático con el muestreo sistemático es que no se puede construir un estimador
de varianza no sesgado de diseño (ver S¨arndal et al., 1992, Cap. 3). La razón general de esto es
que ÿij = 0 para algunos pares de unidades.
Si la clasificación se usa para crear estratos implícitos, la razón intuitiva de que no exista un
estimador de varianza imparcial es que solo se selecciona una unidad de un intervalo de selección
sistemática. Independientemente de las razones para su uso, los estadísticos suelen colapsar los
intervalos de selección en uno o más estratos analíticos y fingen que el método de selección fue
otro, como stsrswor, stsrswor o ppswr, para estimar una varianza y calcular una muestra. Talla. Por
lo tanto, no se necesitan fórmulas especiales de tamaño de muestra para el muestreo sistemático.

El muestreo de Poisson es otra técnica en la que a las unidades se les pueden asignar
diferentes probabilidades de selección. Suponga que ÿi es la probabilidad asignada a la unidad i ÿ
U. A cada unidad de la población se le da una oportunidad de selección independiente. El tamaño
de la muestra es aleatorio, lo cual es un inconveniente del método.
Sin embargo, es especialmente útil para seleccionar una muestra de una población en la que el
marco debe compilarse durante un período de tiempo prolongado. Por ejemplo, en 2004, el IRS de
EE. UU. recibió más de 130 millones de declaraciones de impuestos de individuos y seleccionó una
muestra de alrededor de 200 000 declaraciones utilizando el muestreo de Poisson (Henry et al.
2008). Debido a que las personas presentan declaraciones para un año fiscal en particular durante
un año calendario completo (y, a menudo, más allá), el método de Poisson permite que el muestreo
se realice sobre la base de un flujo durante todo el año en lugar de esperar hasta que se presenten
todas las declaraciones.
Una implementación típica del muestreo de Poisson es dividir la población en grupos. A todas
las unidades de un grupo se les asigna la misma probabilidad de selección. En este caso, el
método de muestreo en cada grupo se denomina muestreo de Bernoulli. Como se muestra en
S¨arndal et al. (1992), condicionado al tamaño de la muestra en cada grupo, la muestra puede ser
tratada como si fuera seleccionada usando stsrswor. En consecuencia, se pueden utilizar los
análisis del tamaño de la muestra para el muestreo aleatorio simple estratificado.
El tamaño de muestra encontrado para cada estrato se establecería igual al tamaño esperado bajo
el muestreo de Bernoulli. Esto, a su vez, determinaría la probabilidad que se utilizará para cada
unidad en un grupo porque E(nh) = Nhÿh donde Nh es el recuento de marcos en el estrato h y ÿh
es la probabilidad de selección común para las unidades en el estrato.

3.4 Estimación de parámetros de población a partir de una muestra

La fórmula del tamaño de la muestra en las Seccs. 3.1 y 3.2 todos involucran parámetros de
población. Estos deben estimarse a partir de una muestra previa o de un conjunto de datos
secundario. Si la muestra anterior se seleccionó de la misma forma que la planificada
Machine Translated by Google

3.4 Estimación de parámetros de población a partir de una muestra sesenta y cinco

muestra, la estimación es directa. Si se planea un tipo de muestra diferente a la anterior, las cosas
son más complicadas.
Primero, suponga que la muestra anterior, s0, era una espada de tamaño n0. Los estimadores
norte 2 norte

yo=1
entonces como i=1 yi /N y S2 = insesgados de ¯yU(yi
= ÿ/(N
y¯U ) se definen
ÿ 1)

y¯s0 =
yi /n0 y
iÿs0

2
Sˆ2 = (yi ÿ y¯s0 ) /(n0 ÿ 1) .
s0

En el caso especial de una variable binaria, ¯ys0 se reduce a la proporción muestral p0 y Sˆ2 = n0p0
(1 ÿ p0) /(n0 ÿ 1). Si se va a estratificar la muestra planeada, se deben estimar las varianzas de
estrato. Dado que s0 es un srswor, el conjunto de unidades de muestra en cualquier dominio (por
ejemplo, un estrato) es una muestra de igual probabilidad del dominio. El número de casos de
muestra en el dominio es aleatorio, pero existe un argumento inferencial que nos permite condicionar
el número de unidades realmente observadas en cada dominio. Siempre que el tamaño de muestra
logrado sea mayor a 1, estimamos la media y la varianza en un estrato h como

y¯s0h = yi /n0h y
iÿs0h

2
h
Sˆ2 = (yi ÿ y¯s0h ) /(n0h ÿ 1) ,
iÿs0h

donde s0h es el conjunto de n0h unidades muestrales en el estrato h del estudio anterior.
Si y es binario, tenemos reducciones similares a las anteriores: ¯ys0h = ps0h y s2 = n0hp0h (1 ÿ
h /(n0h ÿ 1).
p0h)
En algunos casos, no tendremos microdatos pero se puede publicar una estimación de la
varianza, v (¯ys0 ), (o su raíz cuadrada). Suponiendo nuevamente que s0 fuera una espada de
tamaño n0, la varianza unitaria se puede estimar como

n0v ( ¯ys0 )
Sˆ2 = ,
1 ÿ f0

donde f0 = n0 /N . Si la muestra anterior fue más compleja que srswor pero tenemos un efecto de
diseño para la media estimada, y ˆ¯, entonces
ˆ¯
n0v y Una

Sˆ2 = ¯, (3.40)
1 ÿ f0 deff y

ˆ¯
y sin muestreo de reemplazo.
es el efectoPara
de diseño
aproximar
paraf0y =
ˆ¯.n0
Esto
/N, supone
es posible
queque
el deff
tengamos
se refiere
quea estimar
donde deff
N
con Nˆ = iÿs0 wi u obtener la información de alguna fuente secundaria publicada. Simuestreo
la fracción
ende
la
encuesta anterior es insignificante o el deff publicado usa una varianza srswr en su denominador,
simplemente establezca f0 = 0.
Machine Translated by Google

66 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Ahora, considere el caso en el que se seleccionó una muestra pps de tamaño n utilizando
{pi}N de MOS yo=1. Aunque s0 probablemente se seleccionó sin reemplazo,
la solución estándar es tratar el diseño como si fuera ppswr. La estimación del parámetro V1
en la Eq. (3.32) es

2
Una Una

yo yo
Vˆ1 = ÿ

(3.41)
norte - 1 norte
Pi Pi
s0 s0
2
n2 Una

= wiyi ÿ wiyi ,
norte - 1 norte

s0 s0

ÿ1
donde wi = (npi) . Si el plan es seleccionar la nueva muestra con otra
conjunto de probabilidades {qi}N yo=1,
entonces todavía se puede estimar el nuevo V1 . el nuevo
V1 es

2
yo = y2
Es
-t 2
V1 = qi ÿ tu U. _ (3.42)
qi qi
tu tu

El término nÿ1 tu y2 Es
/qi es una población total y se puede estimar mediante
s0 y2 /(qipi). Un estimador insesgado de la ecuación. (3.42) es
Es

2
Una Una

y2 yo
Vˆ1 = Es ÿ

+ vt ˆÿ (3.43)
norte
qipi norte
Pi
s0 s0

donde vt ˆÿ es la varianza estimada de t ˆÿ = nÿ1 yi /pi . El tercero


s0
término en el lado derecho de la ecuación. (3.43) es un término de corrección de sesgo que
a menudo ser insignificante en comparación con los otros términos. La teoría detrás de estos
Los estimadores se pueden encontrar en S¨arndal et al. (1992, Resultado 2.9.1). un problema
con la ecuación (3.43) es que puede ser negativa, lo cual es, por supuesto, imposible para
una varianza de la población. Esta situación es más probable que suceda en pequeños
muestras que en las grandes.
Si s0 se selecciona con probabilidades variables (no necesariamente pps) y el
las probabilidades de selección inversa son {wi}iÿs0 , el parámetro de varianza unitaria puede
también se estima aproximadamente como

2
norte

Sˆ2 = s0 wi (yi ÿ y¯w)


, (3.44)
nÿ1
s0 wi ÿ 1

donde ¯yw = wi . Esta


s0
expresións0también se aplica a la estimación de la
wiyi

varianza de la población del estrato, S2 h, basado en la muestra s0h. El estimador Sˆ2


tiene un sesgo negativo, aunque el problema será un problema solo en pequeñas
muestras
Machine Translated by Google

3.4 Estimación de parámetros de población a partir de una muestra 67

Ejemplo 3.16 (Estimación de la varianza unitaria para el muestreo ppswr). una muestra de 20
de la población hospitalaria fue seleccionada con probabilidad proporcional a
el número de camas de hospital (xi), pp (x), para estimar el promedio
número de altas (yi). Los datos se enumeran en la Tabla 3.5. calculamos
Vˆ y ˆ¯pwr ÿ Vˆ1 N2n para la muestra pp(x ) de tamaño n = 20 de un total de
N = 393 hospitales. Las probabilidades de inclusión, ÿi = npi, se calculan
con pi = xi / U xi donde U xi = 107, 956. Los pesos se calculan como
ÿ1
el inverso de los ÿi, es decir, wi = (npi) .
La estimación y ˆ¯pwr se calcula como 813.1. Para estimar la varianza muestral de
el pwr -estimator, primero calculamos Vˆ1 en Eq. (3.41) como Vˆ1 = 11, 001, 669, 955.
Sustituyendo este valor en la fórmula Vˆ y ˆ¯pwr (3.32), tenemos

11, 001, 669, 955


vy ˆ¯pwr ÿ = 3561.587
3932 × 20

y un CV estimado de 0,073.
Ahora, suponga que planeamos seleccionar una muestra futura con probabilidades
proporcional a la raíz cuadrada de las camas. El estimador (3.43) se aplica con qi = ÿxi U ÿxi
y pi = xi / Uxi : _
2
Una
y2
Es
Una
yo
Vˆ1 = ÿxi
ÿ

+ vy ˆ¯pwr
norte

tu ÿxipi norte
Pi
s0 s0
5992.3
= 410, 727, 850 ÿ 319, 5452 + 3, 561,62
20
= 20, 950, 895, 199,

que, en una muestra de n = 20, conduciría a un CV anticipado para el


total o la media de 20, 950, 895, 199 /20 /319, 545 = 0.101.

Tabla 3.5: Datos de muestra para 20 hospitales seleccionados con probabilidades proporcionales a
el número de camas de hospital.

Población Altas Camas Población Altas Camas


IDENTIFICACIÓN
yo xi IDENTIFICACIÓN
yo xi

76 244 70 320 1,239 472


155 402 160 321 1,258 474
192 732 227 329 1,657 498
200 925 235 354 2,116 562
228 632 275 360 1,326 584
243 557 300 369 1,606 635
253 1,226 310 373 1,707 670
289 896 378 376 2,089 712
297 2.190 400 378 1,283 760
315 1.948 461 381 1,239 816
Machine Translated by Google

68 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Ejemplo 3.17 (Estimación de la varianza de la unidad para un muestreo sólido). Continuando


con el ejemplo anterior, supongamos que consideramos seleccionar un miembro de la
población hospitalaria y utilizar como estimador la media muestral de altas. El tamaño de
muestra requerido para alcanzar un CV específico está en la expresión (3.4).
Por lo tanto, necesitamos estimar la varianza unitaria S2 usando la ecuación. (3.44).
Evaluando esto con los datos de los diez hospitales de muestra en la Tabla 3.5, obtenemos
20 350, 622 /341.478 = 414, 145.8. El CV previsto para las descargas medias en una
Sˆ2 = 134,
19 muestra de 20 es entonces (1 ÿ 20/393) 414, 145,8/20/813,1 = 0,172.

En estos ejemplos, el muestreo pp (x) o pp (ÿx) junto con el estimador ÿ es más eficiente
que srswor debido a la fuerte relación entre las descargas y los lechos. Usando un estimador
de regresión como en la Secc. 3.2.2, junto con pp (x), es probable que sea aún más eficiente.
Sin embargo, una palabra de precaución está en orden. Las estimaciones de las varianzas
unitarias, V1 y S2, son en sí mismas variables. Otra muestra s0 de n = 20 puede producir
estimaciones diferentes, y posiblemente muy diferentes, de las anteriores. El ejercicio 3.13 le
pide que seleccione varias muestras de la población del hospital para tener una idea de esto.

3.5 Temas especiales

Algunos temas especializados pero no obstante prácticos son el muestreo de poblaciones


raras y la realización de estimaciones para dominios.

3.5.1 Características raras

Algunos analistas estarán especialmente interesados en estimar la ocurrencia de características


raras, como la prevalencia de ciertos tipos de enfermedades u otras condiciones de salud
inusuales. Algunos ejemplos son la proporción de personas que han tenido un infarto de
miocardio en un año determinado o en su vida, la proporción de la población ciega y la
proporción de niños con niveles deficientes de hierro en la sangre. Cuanto más rara sea una
característica, más difícil será seleccionar una muestra que proporcione estimaciones fiables.
De hecho, puede haber una posibilidad considerable de que una muestra no tenga ningún
caso con la característica rara.
Si pU es la proporción que tiene un rasgo y las selecciones son independientes, la
probabilidad de no obtener casos, es decir, que tengan el rasgo, en una muestra de tamaño n
es (1 ÿ pU ) n. Este cálculo es apropiado para una muestra aleatoria simple seleccionada con
reemplazo (srswr). Si queremos que esta probabilidad no sea mayor que ÿ, entonces la
desigualdad

norte

(1 ÿ pU ) ÿÿ
Machine Translated by Google

3.5 Temas especiales 69

se puede resolver para el tamaño de la muestra para dar

log(a)
norte . (3.45)
ÿ log (1 ÿ pU )

(La desigualdad se invierte ya que log (1 ÿ pU ) es negativo.) La tabla 3.6 a continuación muestra
que los tamaños de muestra y el número esperado de casos en la muestra para ÿ = 0.05
y 0,01 para un rango de valores de la prevalencia poblacional. para extremadamente
características raras, como pU = 1 / 100, 000 que se trata de la prevalencia de
enfermedad de Addison, se necesitaría una muestra de casi 300.000 para tener sólo
una probabilidad de 0.05 de no observar un caso. Incluso con ese tamaño de muestra,
el número esperado de casos de muestra es solo 3, que no es suficiente para ser
digno de analizar.

Tabla 3.6: Tamaños de muestra y número esperado de casos con una característica rara.

ÿ pu nnpU

0.05 0.10 28 2.8


0.05 58 2,9
0.03 98 3.0
0.01 298 3.0
0.005 598 3.0
0,0001 29.956 3,0
0,00001 299.572 3,0

0.01 0.10 44 4.4


0.05 90 4,5
0.03 151 4.5
0.01 458 4.6
0.005 919 4.6
0,0001 46.049 4,6
0,00001 460.515 4,6

Un problema relacionado es cómo poner un límite de confianza en una proporción cuando


se observa que muy pocos casos de muestra tienen la característica. Cochran (1977,
Secta. 3.6, Ejemplo 3) examina este problema utilizando una distribución hipergeométrica. En una
población con N unidades, de las cuales A tienen alguna característica rara,
ej., un error en una auditoría de cuentas, la probabilidad de que no haya unidades con el
característica se encuentran en una muestra de tamaño n es

N-A norte - un - tu norte

(N - UN) (N - UN - 1)...(N - UN - n + 1) .
norte = = ,
norte
(norte - 1) (norte - 2)...(norte - norte + 1) norte - tu
norte

donde u = (n ÿ 1) /2. Para N = 1000, n = 200 y A = 10, esto


la aproximación da 0.107. Es decir, si la tasa de error es A/N = 0,01, la
Machine Translated by Google

70 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

probabilidad de no observar errores en una muestra de 200 es 0.107. Por lo tanto, tomamos
A = 10 como el límite superior de confianza del 90 % sobre el número de errores reales.
Jovanovic y Levy (1997) cubren un método interesante conocido como ÿ ÿ que condujo a
norte

“regla de tres” que se deriva de la fórmula (1 ÿ pU )


ecuación (3.45). Establecer esta expresión igual a ÿ da una especie de límite superior sobre
qué tan grande puede ser pU . Resolviendo para pU se obtiene pU = 1 ÿ ÿ1/n . Una expansión
en serie de Taylor (ver Sec. 15.3 para detalles sobre este tipo de expansión) da ÿ1/n = 1 + ln
(ÿ) /n ÿ [ln (ÿ)]2 2n2 + ··· . Reteniendo los dos primeros términos
de pU como
se obtiene el límite superior

.
PU = ÿ ln (ÿ) /n .

Cuando ÿ = 0.05, ÿ ln (ÿ) . = 3, loque implica que un límite de confianza superior del 95 % en
pU es de aproximadamente 3 /n. Esta es una regla general útil para obtener un límite rápido
en la proporción. Korn y Graubard (1998) y Kott y Liu (2009) se ocupan de varios métodos
alternativos adicionales.
Para rasgos extremadamente raros, el muestreo aleatorio sin restricciones rara vez es
una buena idea. Es posible que se necesiten tamaños de muestra grandes para obtener una
precisión aceptable para las estimaciones de la población completa. El problema se complica
si se desean estimaciones para subgrupos, como los definidos por edad, género y región.
Kalton (1993) brinda una revisión exhaustiva de las opciones que podrían usarse para el
muestreo. Distingue entre características raras, poblaciones raras, poblaciones móviles,
flujos de población y poblaciones escurridizas. La estratificación, el uso de marcos múltiples,
el muestreo por multiplicidad y el muestreo en dos fases son algunas de las técnicas
disponibles. Nos referiremos al muestreo en dos fases en el Cap. 17

3.5.2 Estimaciones de dominio

La mayoría de las encuestas multipropósito realizan estimaciones separadas para dominios


o subpoblaciones. Kish (1987a) ofreció la siguiente taxonomía de dominios:

1. Dominios de diseño: subpoblaciones que están restringidas a estratos específicos (p. ej.,
Ontario en una encuesta en Canadá donde las provincias son estratos)
2. Clases cruzadas: grupos que están ampliamente distribuidos en los estratos y unidades
primarias de muestreo (PSU) (p. ej., afroamericanos mayores de 50 años en los EE. UU.)

3. Clases mixtas: grupos que están distribuidos de manera desproporcionada en el diseño


de muestra complejo (p. ej., hispanos en una muestra que incluye Los Ángeles, un área
con una gran población hispana, como estrato geográfico)

Un objetivo de algunas encuestas es muestrear algunos dominios a tasas más altas de


las que ocurren en la población. Esto se conoce como sobremuestreo. Si, por ejemplo,
queremos muestras de igual tamaño de blancos y afroamericanos en una encuesta de hogares
Machine Translated by Google

3.5 Temas especiales 71

Muy en los EE. UU., tendremos que muestrear estos últimos a una tasa mucho más alta que los
primeros porque los blancos son una proporción mucho mayor de la población.
Una pregunta legítima es: si los dominios van a ser importantes para los analistas, ¿por qué
no hacer de cada dominio un estrato de diseño para que se pueda controlar el tamaño de la
muestra en cada uno? Hay algunas razones por las que esto no siempre se puede hacer.
En primer lugar, es posible que el marco no proporcione la pertenencia a un dominio para todas
las unidades antes del muestreo (p. ej., adultos que buscan trabajo). En segundo lugar, el uso de
los dominios para los estratos puede resultar poco práctico. Los dominios no pueden ser disjuntos.
Por ejemplo, podemos querer analizar personas en dominios definidos por género y raza/etnicidad.
Los estratos que dan cuenta de ambos factores tendrían que definirse mediante la clasificación
cruzada de género × raza/etnicidad. Cuando muchos dominios son de interés analítico, el cruce
completo de todos ellos puede resultar demasiado engorroso para utilizarlos como estratos
individuales.
En los casos en que los identificadores de dominio están disponibles en el marco, pero no se
forman estratos explícitos que utilicen todos los dominios, los profesionales suelen tratar de
garantizar la representación de cada uno mediante el uso de muestreo sistemático. En nuestro
ejemplo simple, el marco podría ordenarse por género y luego por raza/etnicidad dentro del género.
Una muestra sistemática de igual probabilidad se distribuiría por género y raza/etnicidad de
manera muy similar a la población. Este método generalmente eliminaría las muestras que están
mal distribuidas entre los dominios, pero no sobremuestrearía ningún dominio.

Cada vez que un analista realiza una tabulación cruzada, las celdas de la tabla contienen
estimaciones de dominio. Por lo tanto, hacer estimaciones de dominio es un paso estándar en el
análisis de datos de encuestas. En una encuesta de personal militar, por ejemplo, los estratos de
diseño podrían ser una rama del servicio cruzada con el grado de pago, mientras que un dominio
podría ser el conjunto de personal que estuvo estacionado en el extranjero en cualquier momento
durante los últimos 5 años. En una encuesta telefónica de hogares, los dominios pueden ser los
grupos de personas que informan que tienen un título universitario o que han sufrido robos en sus
casas en el último año. También puede haber motivos no deseados para que una estimación se
trate como si fuera para un dominio. Si un marco contiene unidades no elegibles, por ejemplo, un
marco comercial que tiene listados fuera del negocio, entonces las unidades elegibles son un
dominio.
Una característica clave del problema de estimación del dominio es que la pertenencia al
dominio para clases cruzadas y clases mixtas a menudo no se determina hasta que se recopilan
los datos. En tales casos, la cantidad de unidades de muestra en un dominio es aleatoria y, por lo
general, se desconoce la cantidad total de miembros del dominio en la población. Esto da como
resultado que los medios de dominio estimados se construyan como la proporción de un total
estimado dividido por una estimación del número de unidades de dominio en la población. Dichos
estimadores de razón requieren métodos aproximados para la estimación de la varianza que se
describen a continuación.
Al diseñar una muestra para cubrir adecuadamente los dominios que se van a analizar, hay
dos opciones. Una es calcular el número esperado de unidades que ocurrirán en la muestra en
cada dominio para un tamaño de muestra total particular. Luego, el tamaño total de la muestra se
hace lo suficientemente grande para que, en la expectativa, los dominios clave de interés estén
adecuadamente representados. Por ejemplo,
Machine Translated by Google

72 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

según la ENS 2006, alrededor del 14,8 % de las personas no tenían ningún tipo de
seguro de salud en el momento de la entrevista.7 Si una muestra de igual probabilidad
de personas fueron seleccionadas y se deseaban 1,000 personas en el sector no asegurado
dominio, necesitaríamos una muestra de alrededor de 6.760 (= 1.000/0,148) para obtener 1.000
a la espera. Habrá, por supuesto, alguna variación de muestra en el número
realmente obtenido. Por lo tanto, sería prudente seleccionar más de 6760 para estar seguro.
La segunda opción sería seleccionar una muestra de dos fases, que cubrimos en
Cap. 17. En la primera fase, se administran preguntas de detección para determinar
pertenencia al dominio. En la segunda fase, las unidades se submuestrean a tasas
diseñado para obtener tamaños de muestra de dominio especificado. Las tasas de submuestreo
varían entre los dominios. Idealmente, el uso de una segunda fase permite que los conteos de
la primera fase se tabulará antes de fijar las tarifas de la segunda fase. Tener
esta flexibilidad permite un control mucho mejor sobre los tamaños de muestra logrados que
hace selección monofásica. En algunas encuestas con calendarios ajustados, este
la ventaja se diluye un poco porque las tarifas de la segunda fase deben establecerse en función de
en datos parciales de la primera fase. Incluso en este caso, el muestreo en dos fases
puede ser eficaz para controlar los tamaños de muestra de los dominios.
Suponga que se selecciona una muestra aleatoria simple sin reemplazo y
que se desconoce la pertenencia al dominio antes de realizar el muestreo. el estimado
de un dominio total para una variable y es t ˆd = (N /n) s ydi donde ydi es el valor
de la variable para una unidad si está en el dominio d y es 0 si la unidad no está en el
dominio. Esto también se puede escribir como ydi = yiÿi con ÿi = 1 si la unidad i está en el
dominio y 0 si no. La varianza de t ˆd es

N2 norte

Vtd= 1- S2,
norte norte

donde la varianza de la unidad se calcula incluyendo los ceros para las unidades que no son de dominio.
La varianza unitaria se puede reescribir como S2 . = PdS2 _ d + Qdy¯2 ud donde S2 d es el
varianza entre unidades que están en el dominio, ¯yUd es la media poblacional para
esas unidades, Pd = Nd /N es la proporción de unidades en la población que son
en el dominio, y Qd = 1ÿPd (ver Hansen et al. 1953a, Sect. 4.10; Cochran
1977, secc. 2.11). Usando esta versión de S2, la revarianza de t ˆd es

2
=
Una norte currículum
vitae + Qd
CV2 t d . 1- , (3.46)
norte norte PD

2
donde CV d = S2 d y¯2
ud es la unidad de revarianza entre las unidades de dominio. Ajuste
2
ecuación (3.46) igual a un valor objetivo CV 0 y resolviendo para n da

2 2
currículum
+ Qd . currículum
+ Qd
norte =
vitae
= vitae
.
CV 2 2 (3.47)
2 d +Qd PDCV 0
PDCV 0 + norte

7
http://www.cdc.gov/nchs/data/nhis/earlyrelease/200706 01.pdf.
Machine Translated by Google

3.5 Temas especiales 73

La aproximación proviene de suponer que el tamaño de la población N es grande.


Note que la Ec. (3.47) se reduce a la fórmula anterior (3.4) para una población completa
estimar cuando Pd = 1.
Si se estima la media por unidad de dominio, el tamaño de muestra requerido es
similar, pero se necesita una variación aproximada. Supongamos que la media es

estimado por y ˆ¯d = t ˆd Nˆd donde Nˆd = Nnd /n. Aproximación lineal y ˆ¯d
lleva a
. Una

y ˆ¯d ÿ y¯Ud = Nes,


Dakota del Norte

donde ¯es = s ei/n con ei = ÿi (yi ÿ y¯Ud ). La varianza aproximada es


entonces

. Una N2 norte

V y ˆ¯d = 1- S2mi
N2d norte norte

con S2 mi = (N ÿ 1)ÿ1 ei = 0 tu e2yo _ Como ei = yi ÿ y¯Ud para unidades en el dominio


2.
para unidades sin dominio, S2 mi = (N ÿ 1)ÿ1 El ud (yi ÿ y¯Ud) = PdS2 d.

entonces la revarianza de y ˆ¯d es

. Una norte
2
CV2 y ˆ¯d = 1- currículum
vitae _
npd norte

2
Estableciendo esto igual a CV 0 y resolviendo para n da

2 2
currículum . currículum

norte =
vitae
= vitae
.
2 2 (3.48)
2 currículum
PDCV 0
PDCV 0 +
vitae

norte

Este tamaño de muestra para estimar una media puede ser sustancialmente más pequeño que el
uno en la Ec. (3.47) para estimar el dominio total como se ilustra en la Tabla 3.7.
2
Para un dominio pequeño con unidad de revarianza de 1 (CV = 1) un srsd de 15,600 es
requerido para obtener un CV para el total estimado de 0.05. Sin embargo, una muestra
de 8.000 para estimar la media con un CV de 0,05. como el dominio
se vuelve más frecuente, es decir, Pd se vuelve más grande, los tamaños de muestra para los totales
y los medios se vuelven más cercanos entre sí.

Tabla 3.7: Tamaños de muestras aleatorias simples requeridas


para lograr un CV de 0,05 para los totales de dominio estimados
y medios para diferentes tamaños de dominios.

PD n para totales n para la media

0.05 15.600 8,000


0.25 2.800 1,600
0.50 1.200 800
0.75 667 533
1.00 400 400

Se supone que el tamaño de la población es grande;


la revarianza del dominio es CV = 1.d2
Machine Translated by Google

74 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

A continuación, considere una muestra de stsrswor. La media estimada para un


dominio se define nuevamente como el total estimado para el dominio (t ˆd) dividido por
una estimación del número de unidades en el dominio (Nˆd), es decir,

hiÿsdh whiyhi hiÿsdh Tˆd


ÿ
y ˆ¯d =
whi nd ,

donde whi es el peso muestral de la unidad hi y sdh es el conjunto de unidades


muestrales del estrato h que también son miembros del dominio d. En stsrswor el peso
de una unidad en el estrato h es whi = Nh /nh . En consecuencia, la media del dominio
se puede especializar para
h ¿Por qué?
y ˆ¯d = ,
h whpdh

donde pdh = ndh /nh y ¯yd,sh = yhi /ndh dondeSD


ndh refleja el número en el conjunto sdh
de unidades de muestra en el dominio d dentro del estrato h. La varianza aproximada
de y ˆ¯d (ver Cochran, 1977, Secc. 5A.14) es

Una W2h Nueva Hampshire


Nd ÿ 1
AV y ˆ¯d = 1- S2dh
(3.49)
P2 Nueva Hampshire
Nh ÿ 1
dh
Nueva Hampshire

nd + nd 2
1ÿ (¯yUdh ÿ y¯Ud ) ,
Nh ÿ 1 Nueva Hampshire

donde Pd = Nd /N es la proporción de unidades en el dominio en toda la población, Pdh


= Ndh /Nh es la proporción en el estrato h, Qdh = 1 ÿ Pdh, iÿUdh yhi /Ndh , Udh es la
estrato h que
población
están endel
el dominio.
dominio
yhi /Nd
unidades
, /(Ndhenÿ el
1) estrato
es la varianza
y¯Udh =entre
y S2unidades
h, ¯yUd =en
h,Udh
el
2
dh
= (yhi ÿ y¯Udh ) iÿUdh

Si la proporción muestral de unidades en el dominio, ndh /nh , es


aproximadamente igual a la proporción de la población, Pdh, entonces la varianza aproximada
se puede escribir de manera más sugerente como
2
. pdh W2h 2
AV y ˆ¯d =
Nueva Hampshire

1- S2dh + Qdh ( ¯yUdh ÿ y¯Ud )


. (3.50)
PD ndh Nueva Hampshire

decir, cuando el dominio se distribuye uniformemente entre los estratos de modo = Pdque
(es
Pdh . una clase cruzada uniformemente distribuida), esta fórmula se puede interpretar
aproximadamente como la suma de (i) la varianza que se obtendría si supiéramos la
pertenencia al dominio por adelantado y muestreó un número fijo de unidades de dominio
directamente y (ii) una contribución debido a la diferencia en las medias de dominio entre
los estratos. Con el
. propósito de determinar el tamaño de la muestra, la Ec. (3.50) es
uso. Si la expresión
difícil
ndh= depende
nhPdh, esto
solose
depuede
los nh.sustituir
Los métodos
en la Ec.
de (3.50)
asignación
para obtener
de muestras
un
a estratos cubiertos en la Secc. 3.1.2 puede usarse reemplazando S2 con Sÿ2
h
pdh 2
h
= Pd
2 S2dh + Qdh ( ¯yUdh ÿ y¯Ud ) . Para usar esta sustitución, bastante
_
Machine Translated by Google

3.6 Más discusión sobre los efectos del diseño 75

de información que se necesita: la proporción de unidades en cada estrato que está en el


dominio, la varianza del estrato entre las unidades del dominio y la media por unidad de dominio
en cada estrato. Por lo tanto, se necesitan estimaciones de muchos valores de población antes
del muestreo. Alternativamente, los métodos de dos fases son una forma sólida de controlar
aproximadamente los tamaños de muestra en los dominios. Estos métodos requieren métodos
especiales de estimación de la varianza que se tratarán más adelante.
Las fórmulas anteriores simplifican si un dominio consta de uno o más estratos de diseño
en su totalidad, es decir, un dominio de diseño enumerado al comienzo de esta sección. En
ese caso, pdh = Pdh = 1 para estratos en el dominio y 0 en caso contrario.
La media de dominio en stsrswor se especializa en

Por
qué¯h hÿSd
y ˆ¯d = ,
¿Qué?
hÿSd

donde Sd es el conjunto de estratos que están en el dominio y Nd = Dado que Nueva


Hampshire. hÿSd

Pdh = 1, la varianza en la Ec. (3.50) se convierte en

Una N2h Nueva Hampshire

V y ˆ¯d = 1- S2H. _ (3.51)


N2d Nueva Hampshire Nueva Hampshire

hÿSd

En otras palabras, la varianza depende únicamente de las contribuciones de los estratos que
están en el dominio. En este caso, una estimación muestral de la varianza en la ecuación.
(3.51) se construye fácilmente sustituyendo s2 por S2 siempre que
h asignación
se conozca
h individuales
a Nd
estratos
. La se
puede controlar directamente para que se puedan lograr los niveles deseados de precisión en
diferentes estratos.

3.6 Más discusión sobre los efectos del diseño

Los efectos de diseño se pueden utilizar para ajustar un tamaño de muestra calculado para
una muestra de una sola etapa para, al menos, aproximarse al tamaño necesario en una
muestra más complicada. El deff para algún estimador ˆÿ se define como

Vˆÿ
deff ˆÿ = ,
Vsrs ˆÿ

donde V denota la varianza bajo cualquier diseño de muestra que se use (estratificado,
agrupado, etc.) y Vsrs es la varianza srs del estimador srs del mismo parámetro de población.
Esta notación es un poco imprecisa porque la estimación ˆÿ probablemente no se calcule de la
misma manera en una muestra aleatoria simple y en una muestra más compleja. Si n se calcula
utilizando una fórmula de muestreo aleatorio simple, entonces n × deff es el tamaño de muestra
necesario en el diseño más complejo para lograr la misma varianza que la muestra aleatoria
simple.
Machine Translated by Google

76 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

En algunos diseños, este es un cálculo bastante tosco. Por ejemplo, en un diseño de dos
etapas en el que se muestrean los conglomerados y los elementos dentro de los conglomerados,
n × deff no dice nada acerca de cuántos conglomerados y elementos por conglomerado se
deben muestrear para una asignación eficiente. De hecho, el deff no se aplicará a menos que
la nueva muestra tenga la misma cantidad de conglomerados y elementos por conglomerado
que la utilizada para calcular el deff.
Si se obtiene un deff de un paquete de software, es importante entender cómo se calcula
el deff. Por ejemplo, SUDAAN (RTI International 2012) proporciona cuatro efectos de diseño
diferentes que explican algunos o todos los efectos de estratificación, agrupación, ponderación
desigual y sobremuestreo de subgrupos. Estos pueden ser informativos después de que se
haya seleccionado una muestra para medir la contribución a la varianza de los diferentes
factores. Una de las cosas más básicas que hay que entender es si la varianza de srs en el
denominador del deff se calcula utilizando una fórmula con reemplazo o sin reemplazo. Cuando
la fracción de muestreo es grande, estos pueden ser bastante diferentes.

A menudo, la muestra que se puede permitir es una pequeña parte de la población, por lo que
srswr es la opción adecuada para el denominador.
Sin embargo, los deff de una encuesta anterior pueden no ser tan útiles al planificar una
nueva encuesta. Es posible que no esté repitiendo el mismo tipo de diseño para el que el
software calculó los deff. Las definiciones de estratos y conglomerados pueden ser diferentes.
Los tamaños de muestra deseados para los subgrupos pueden ser diferentes. El método de
ponderación (p. ej., ajustes por falta de respuesta y uso de datos auxiliares) que utilizará puede
ser diferente. Si un nuevo diseño se apartará sustancialmente de uno anterior, los métodos de
tamaño de la muestra en los siguientes capítulos que consideran explícitamente los efectos de
los estratos, las metas de precisión para los subgrupos, los componentes de la varianza para
los diseños de etapas múltiples y otras características del diseño deberían dar respuestas más
útiles que las simples. ajustes de definición.

3.7 Software para selección de muestras

En el pasado, una organización de encuestas tenía que depender de programas informáticos


desarrollados por su propio personal para extraer las muestras aleatorias. Afortunadamente,
ahora hay software disponible para este propósito, lo que permite a los estadísticos más tiempo
para la fase de diseño del estudio. Revisamos varias funciones para dos de los paquetes de
software en las secciones siguientes: R y SAS.

3.7.1 Paquetes R

La siguiente es una lista de algunas de las funciones de muestreo de R actualmente disponibles


agrupadas por paquete:
Machine Translated by Google

3.7 Software para selección de muestras 77

Paquete Función Descripción

base muestra Seleccionar muestras srswr o srswor


pps pps Muestreo sistemático de ppswor
ppssstrat Muestreo sistemático estratificado de ppswor
ppswr muestreo pps con reemplazo
estrategas stsrswor

conglomerado de muestreo Muestreo por conglomerados en una sola etapa


juramento Seleccionar muestras juradas
Srswr Seleccionar muestras de srswr
Estratos Seleccione stsrswor, stsrswr, Poisson y muestras
sistemáticas
Aleatoriasistemática Muestreo sistemático de votos después de aleatorizar
el orden de la lista
upsampford Método de Sampford de ppswor

Por ejemplo, la función srswor(n,N) devuelve una secuencia de ceros y


unos donde un uno indica las n unidades seleccionadas al azar sin reemplazo
de una lista ordenada de N unidades. pps (Gambino 2005), muestreo (Till´e )
y Matei 2012), y los paquetes de samplingbook (Manitz 2012) ofrecen otros
funciones, no mostradas arriba, para seleccionar muestras de probabilidad desiguales.
Actualizaciones del software, incluidas nuevas funciones y nuevas características para
funciones actuales, están disponibles a través del sitio web de R. Usuario definido
Las funciones se crean fácilmente como se explica en este y otros capítulos; consulte
Apéndice C para obtener una lista completa de las funciones de R definidas por el autor utilizadas en este
texto.

Ejemplo 3.18. [Seleccione una muestra estratificada (stsrswor)]. Deseamos seleccionar diez
hospitales de cada uno de los seis estratos en el archivo de datos smho98 usando el R
estratos de función del paquete de muestreo. El siguiente código ilustra
cómo importar un archivo de transporte SAS (smho.xpt), crear una nueva variable llamada
stratum6 en el objeto de población y seleccione un stsrswor usando estratos.
Al leer datos y hacer cálculos especializados, como crear el
variable stratum6, siempre es aconsejable verificar su trabajo mirando la
contenido y tamaño del archivo de datos y tabulación de resúmenes de variables derivadas.
Mostramos algunos de estos pasos en los ejemplos 3.18 y 3.19 pero omitiremos
de la mayoría de los otros ejemplos en este libro. Sin embargo, el lector debe
tenga en cuenta que la verificación minuciosa es fundamental para hacer un trabajo de alta calidad:

# Cargar bibliotecas R
requerir (extranjero)
requerir (muestreo)
# Semilla aleatoria para la selección de muestras
set.seed(82841)
# Cargue el archivo de transporte SAS y examine
smho98 <- leer.xport("smho98.xpt")
tenue (smho98)
[1] 875 378
Machine Translated by Google

78 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

smho98[1:5,1:5]
ESTRATO LECHO EXPTOTAL SEENCNT EOYCNT
Una 1 81 9066430 1791 184
2 1 80 9853392 1870 244
3 1 26 3906074 1273 0
4 1 90 9853392 1781 154
5 1 71 9853392 1839 206

# Cree una variable de estrato de 6 niveles y verifique


smho98$estrato6 <- 0
smho98[( 1<=smho98$ESTRATO & smho98$ESTRATO<=2), "estrato6"] <- 1
smho98[( 3<=smho98$ESTRATO & smho98$ESTRATO<=4), "estrato6"] <- 2
smho98[( 5<=smho98$ESTRATO & smho98$ESTRATO<=8), "estrato6"] <- 3
smho98[( 9<=smho98$ESTRATO & smho98$ESTRATO<=10),"estrato6"] <- 4
smho98[(11<=smho98$ESTRATO & smho98$ESTRATO<=13),"estrato6"] <- 5
smho98[(14<=smho98$ESTRATO & smho98$ESTRATO<=16),"estrato6"] <- 6

tabla(smho98$stratum6,smho98$STRATUM)
Una 2 34 5 6 78 9 10 11 12 13 14 15 16
1 151 64 00 0 0 00 0 0 0 0 0 0 0 0
2 0 0 43 22 0 0 00 0 0 0 0 0 0 0 0
3 0 0 0 0 150 23 65 14 0 0 0 0 0 0 0 0
4 0 0 00 0 0 0 0 38 12 0 0 0 0 0 0
5 0 0 00 0 0 00 0 0 13 77 59 0 0 0
6 0 0 00 0 0 00 0 0 0 0 0 86 39 19

tabla(smho98$estrato6)
123456
215 65 252 50 149 144

# Seleccione 10 unidades por srswor por estrato


smp.IDs <- estratos(datos = smho98,
estratos = "estrato6",
tamaño = rep(10,6),
método = "srswor")

# Extraiga registros muestreados y verifique los recuentos de muestras


muestra1 <- getdata(smho98,smp.IDs)
tabla(muestra1$estrato6)
123456
10 10 10 10 10 10 10

Advertencia. Una "característica" potencialmente confusa de R es que diferentes paquetes


pueden usar los mismos nombres para funciones que hacen cosas diferentes. En
Ejemplo 3.18, usamos la función, estratos, del paquete de muestreo para seleccionar un
stsrswor. El paquete de supervivencia (Therneau 2012) también tiene
una función de estratos que hace algo diferente. Tenga en cuenta que la supervivencia puede
ser cargado sin que te des cuenta porque es usado por otros paquetes como
doBy (Højsgaard y Halekoh 2012), que usamos en capítulos posteriores. Si el
Machine Translated by Google

3.7 Software para selección de muestras 79

paquete de supervivencia se carga antes que el paquete de muestreo y usted intenta seleccionar
una muestra estratificada, es probable que ocurra un error porque R usará los estratos incorrectos.
Si es así, verifique el orden en que R busca archivos y empaqueta con search(). Si es necesario,
separa la supervivencia con el comando detach("paquete:supervivencia").

Ejemplo 3.19 (Seleccione una muestra pps estratificada). Se requiere una muestra de 50
hospitales para un estudio de las instituciones enumeradas en el archivo de datos smho98. En
lugar de seleccionar un stsrswor como en el Ejemplo 3.17, seleccionaremos una muestra pps
dentro de cinco estratos de diseño con una medida de tamaño definida como la raíz cuadrada del
tamaño del lecho, es decir, pp ( ÿx) discutida en la Secc. 3.5.2. Usaremos la función R ppssstrat
del paquete pps para dibujar una muestra proporcional (aproximada) dentro de los estratos. La
función de ronda se usa para eliminar los tamaños de muestra fraccionarios por conveniencia, de
ahí el uso de "aproximado" en nuestra discusión.
Debido a que los establecimientos para pacientes ambulatorios no están incluidos en la población
objetivo, todos los hospitales con cero camas se excluyen del marco de la lista antes de extraer
la muestra, como se muestra en el siguiente código:

# Cargar bibliotecas R
require(extranjeras) require(pps)

# Semilla aleatoria para selección de muestra


set.seed(4297005)
# Cargar archivo de transporte SAS
smho98 <- read.xport("smho98.xpt") dim(smho98) [1]
875 378

# Eliminar las instalaciones para pacientes ambulatorios


smho98 <- smho98[smho98$CAMAS > 0,] dim(smho98)
[1] 671 378

# Cree una variable de estrato de 5 niveles y verifique smho98$stratum5


<- 0 smho98[( 1<=smho98$STRATUM & smho98$STRATUM<=2), "stratum5"]
<- 1 smho98[( 3<=smho98$STRATUM & smho98$STRATUM<=4), "stratum5"] <- 2
smho98[( 5<=smho98$STRATUM & smho98$STRATUM<=8), "stratum5"] <- 3 smho98[( 9<=smho98$STRATUM
& smho98$STRATUM<=13),"stratum5"] <- 4 smho98[(14<=smho98$STRATUM &
smho98$STRATUM<=16),"stratum5"] <- 5 tabla(smho98$stratum5)

12345
215 64 216 44 132

# Crear medida de tamaño


smho98$sqrt.Beds <- sqrt(smho98$BEDS)

# Aprox. tamaños de muestra proporcionales smp.size <-


50 (strat.cts <- as.numeric(table(smho98$stratum5))) [1] 215 64
216 44 132 (strat.ps <- strat.cts / sum(strat.cts ) )) [1] 0,32041729 0,09538003
0,32190760 0,06557377 0,19672131
Machine Translated by Google

80 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

# Verificar que las proporciones de los estratos suman uno


suma(strat.ps) [1] 1

# Tamaños de muestra de estrato


smp.size.h <- round(strat.ps * smp.size,0) [1] 16 5 16 3 10
sum(smp.size.h) [1] 50

# Ordene el archivo de datos por estratos de muestreo y seleccione muestras smho98


<- smho98[order(smho98$stratum5),] smp.IDs <- ppssstrat(sizes = smho98$sqrt.Beds, strat =
smho98$stratum5, = smp.size.h )

norte

# Verificar que no haya duplicados en la muestra


length(smp.IDs) [1] 50 length(unique(smp.IDs)) [1] 50

# Subconjunto de registros muestreados


smp.data <- smho98[smp.IDs,]
tabla(smp.data$stratum5)
12345
16 5 16 3 10

Dos puntos a tener en cuenta son que ppssstrat selecciona una muestra
sistemática del marco del estrato sin realizar ningún orden dentro de los estratos.
Si desea aleatorizar el orden dentro de los estratos, use la función permuteinstrata
en el paquete pps. Además, se puede seleccionar exactamente la misma muestra
con estratos del paquete de muestreo con el código:

requerir (muestreo)
# Semilla aleatoria para la selección de muestras
set.seed(4297005) sam <- strata(data
= smho98,
stratanames = "stratum5", size =
smp.size.h, = "systematic", =
smho98$sqrt.Beds)
metodo
pik
Machine Translated by Google

3.7 Software para selección de muestras 81

3.7.2 SAS PROC ENCUESTA SELECCIONAR

El software estadístico SAS incluye un procedimiento llamado SURVEYSELECT8 que selecciona


muestras aleatorias dado un método específico. La sintaxis general para el procedimiento es

PROC SURVEYSELECT DATA=<archivo de datos de entrada> METHOD=<método> ...;


ESTRATOS <variables> / ... >;
CONTROL <variables>; TAMAÑO
<variables>; ID <variables>;

Por ejemplo, METHOD=SRS producirá una muestra segura del archivo de datos de entrada. Incluir
una variable STRATA dará como resultado muestras sólidas dentro de estratos explícitos, es decir,
una muestra sólida. Los estratos implícitos (es decir, las variables de clasificación) se identifican
con la instrucción CONTROL. Las muestras sistemáticas de una sola etapa se pueden seleccionar
con METHOD=SYS. Las muestras de pps se seleccionan con reemplazo usando METHOD=PPS.
También se incluyen algunos procedimientos de muestreo de pps especializados (Brewer, Murthy,
Sampford y Chromy), pero no los trataremos en este libro. Un lector interesado puede consultar
Cochran (1977) y Chromy (1979) para detalles de estos métodos.

Tenga en cuenta que SURVEYSELECT selecciona muestras solo dentro de una etapa particular
de un diseño. El código debe adaptarse y ejecutarse para cada etapa de un diseño de etapas
múltiples, como se analiza más adelante en los Caps. 9 y 10.

Ejemplo 3.20 (Seleccione stsrswor con SAS). En este ejemplo, reproducimos los resultados del
Ejemplo 3.18 usando SAS PROC SURVEYSELECT. Al igual que con el programa R del ejemplo
3.18, el primer paso es leer el archivo de transporte SAS.
Aquí, además, asignamos un número de identificación único a cada registro hospitalario:

*Cargar archivo de datos de transporte SAS; LIBNAME


inxp xport "... \smho98.xpt"; DATOS SMHO98
(MANTENER=STRATUM HOSPID CAMAS); SET inxp.SMHO98;
HospID = _n_; CORRER;

Después de crear la variable de estrato con valores 1–6, el stsrswor se selecciona usando

PROC ENCUESTA SELECCIONAR DATOS=SMHO98 SALIDA=MuestraDatos


METHOD=SRS SAMPSIZE = (10 10 10 10 10 10) SEED=82841;
ESTRATOS estrato6;
CORRER;

El archivo de datos de salida, SampData, contiene un registro para cada uno de los 60
hospitales muestreados aleatoriamente, todas las variables incluidas en el archivo de datos de
entrada smho98 y dos variables adicionales:

8
http://support.sas.com/documentation/.
Machine Translated by Google

82 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

1. SelectionProb: la probabilidad de selección en la muestra 2. SamplingWeight: el


peso de muestreo calculado como la probabilidad de selección inversa

El peso de muestreo también se denomina peso de diseño o peso base.


Tenga en cuenta que los estratos de la función R analizados en el ejemplo 3.18 no producen una
ponderación muestral. Los detalles sobre el cálculo de los pesos para una variedad de diseños de
muestra se pueden encontrar en los capítulos. 13 y 14.

Ejemplo 3.21 (Seleccione una muestra pps estratificada con SAS). Se seleccionó una muestra de
pp ( ÿx) de 50 establecimientos para pacientes hospitalizados en el Ejemplo 3.18 usando la función
R ppssstrat después de determinar una asignación proporcional aproximada a cinco estratos de
diseño. La asignación proporcional se puede calcular con una llamada inicial a PROC
SURVEYSELECT como se muestra en el código SAS a continuación:

DATOS SMHO98inp DROPCASE;


CONJUNTO SMHO98;
* Eliminar las instalaciones para pacientes ambulatorios;
SI CAMAS<1 ENTONCES SALIR CAJÓN;
MÁS HACER;
* Crear variable de estrato de 5 niveles;
SI 1<=ESTRATO<=2 ENTONCES estrato5=1;
DE LO CONTRARIO SI 3<=ESTRATO<=4 ENTONCES estrato5=2;
DE LO CONTRARIO SI 5<=ESTRATO<=8 ENTONCES estrato5=3;
DE LO CONTRARIO SI 9<=ESTRATO<=13 ENTONCES estrato5=4;
DE LO CONTRARIO SI 14<=ESTRATO<=16 ENTONCES estrato5=5;
* Medida de tamaño;
sqrtCAMAS = sqrt(CAMAS);
SALIDA SMHO98inp;
FINAL;
CORRER;

*Aprox. asignación proporcional; PROC SURVEYSELECT


DATA=SMHO98inp OUT=StratSiz N=50;
STRATA stratum5 / ALLOC=PROP NOSAMPLE;
CORRER;

El archivo de datos de salida, StratSiz, contiene la asignación para cada uno de los cinco estratos
de diseño. Nótese que los valores coinciden con los calculados “a mano” con R en el Ejemplo 3.18:

Muestra de estrato
Tamaño

Una dieciséis

2 5
3 dieciséis

4 3
5 10

50
Machine Translated by Google

3.7 Software para selección de muestras 83

Debido a que se usó la opción nosample, esta llamada de procedimiento solo calcula los
tamaños de muestra específicos del estrato. El siguiente código selecciona la muestra de 50
hospitales de hospitalización:

PROC ENCUESTA SELECCIONAR DATOS=SMHO98inp SALIDA=SampDat2


METHOD=PPS_SYS SAMPSIZE=StratSiz SEED=4297005;
ESTRATOS estrato5;
TAMAÑO CUADRADO CAMAS;

ID HospID;
CORRER;
Machine Translated by Google

84 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

Ejercicios

3.1. Según la Oficina de Estadísticas Laborales de EE. UU., el 71 % de todos los


trabajadores de la industria privada tenían acceso a planes de atención médica
patrocinados por el empleador, el 52 % de todos los trabajadores participaban en planes
de atención médica en marzo de 2006 y el 7 % de los trabajadores a tiempo parcial
participaban en un programa de cuidado de la vista (http://www.bls.gov/ncs/ebs/sp/
ebsm0004.pdf ; tablas 1 y 2). Calcule el tamaño de una muestra aleatoria simple de
empleados que se necesitaría para estimar cada una de estas proporciones usando los

objetivos de estimación en (a), (b) y (c). (a) Coeficiente de variación del 10 %. (b) Error
estándar de 3 % puntos. (c) MOE de 3% puntos. (d) Para cada uno de los tamaños de
muestra que calculó en (a), (b) y (c), ¿cuáles son los anchos medios anticipados de los
intervalos de confianza del 95 %? Usa la aproximación normal con un multiplicador de 1.96.

(e) Comente las diferencias en los tamaños de muestra que resultan de los tres objetivos
de precisión en (a), (b) y (c).

3.2. Explore la diferencia entre establecer un tamaño de muestra basado en un objetivo


para un coeficiente de variación de una proporción estimada y establecerlo en función de
un error estándar objetivo. Suponga que se selecciona una muestra aleatoria simple sin
reemplazo pero que el tamaño de la población es grande, por lo que el fpc es insignificante.

(a) Calcule CV (ps) y V (ps) para un tamaño de muestra de n = 100 para pU en (0.01,
0.05, 0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 0.95, 0.99 ) ). (b) Grafique los valores de
CV (ps) versus pU y V (ps) versus pU . (c) Discuta las diferencias en las relaciones.

3.3. Suponga que la población está compuesta por 1.000 establecimientos comerciales.
El número medio de empleados a tiempo completo por establecimiento es 50. La varianza
poblacional del número de empleados a tiempo completo es 150.

(a) Calcule el tamaño de una muestra aleatoria simple seleccionada sin reemplazo que
sería necesaria para producir un CV de la media muestral del 5 %. (b) ¿Qué pasaría
si anticipara que solo el 40 % de los establecimientos de la muestra respondería a una
solicitud de datos? ¿Cómo afectaría eso el cálculo del tamaño de la muestra en (a)?
(c) Suponga que realiza la encuesta y obtiene una tasa de respuesta del 35 %.
¿Esperaría que la media del 35 % que respondió fuera una buena estimación de la media
de la población? ¿Por qué o por qué no?

3.4. (a) Suponga que un investigador establece una tolerancia deseada e tal que Pr (|y¯s
ÿ y¯U | ÿ e)=1 ÿ ÿ. Suponiendo que ¯ys se puede tratar como una distribución normal,
demuestre que esto es equivalente a establecer el ancho medio de un intervalo de
confianza bilateral de 100 (1 ÿ ÿ) % igual a e = z1ÿÿ/2 V (¯ys) .
Machine Translated by Google

3.7 Software para selección de muestras 85

(b) Si requerimos que Pr y¯sÿy¯U ÿ e = 1 ÿ ÿ, demuestre que esto corresponde a establecer el


Yu
ancho medio de un intervalo de confianza bilateral de 100 (1 ÿ ÿ) % igual a e = z1 ÿÿ/2 CV
(¯ys).

3.5. Verifique la fórmula (3.12) para el tamaño de muestra necesario cuando se establece un
MOE e para estimar una proporción.

3.6. Verifique la fórmula (3.17) para el tamaño de muestra requerido derivado del cálculo de
MOE usando la aproximación normal para el log-odds de una proporción.

3.7. Un investigador quiere estimar la prevalencia de una característica que se especula que
es rara. La mejor conjetura del investigador es que la prevalencia es del 2 %. Le gustaría
estimar la prevalencia con un MOE de 0,005.

(a) ¿Qué tamaño de muestra se requiere?


(b) Dado que el investigador parece muy inseguro acerca de la prevalencia real, ¿qué cálculos
alternativos podría hacer para ilustrar los efectos de diferentes tamaños de muestra? (c)
Compare los resultados en (b) para los métodos normal estándar, de Wilson y de
probabilidades logarítmicas para calcular los tamaños de muestra.

3.8. Calcule las unidades de revarianza de:

(a) Las variables camas y egresos en la población hospitalaria (b) Las variables gasto
total (EXPTOTAL), número de camas de hospitalización
(BEDS), número de pacientes atendidos durante 1998 (SEENCNT), número de clientes en
los roles a finales de 1998 (EOYCNT), y número de visitas de pacientes (Y IP) en la
población smho98

3.9. Este problema utiliza los valores resumen para la población (smho98) de las organizaciones
de salud mental en la Tabla 3.2. Suponga que se seleccionará un jurado en cada estrato. En
todas las partes, redondee los tamaños de muestra calculados al entero más cercano.

(a) Encuentre la asignación de Neyman de un tamaño de muestra n = 115. Redondee los


tamaños de muestra al entero más cercano. Calcule el costo variable total de esta
asignación suponiendo costos variables por unidad de muestra de 1000, 400, 200, 1000,
200 y 1000 en los estratos. (b) Encuentre la asignación que minimice la varianza de la
media poblacional estimada de los gastos totales, suponiendo los costos variables del inciso
(a) y un presupuesto total para costos variables de $80 000. (c) Calcule el coeficiente de
variación de ¯yst para las asignaciones que encontró en (a) y (b). Compara los resultados.
Utilice tamaños de muestra redondeados para estos cálculos.

(d) Suponga que su objetivo para CV (¯yst) es 0.15 y que la estructura de costos es la misma
que en la parte (a). Calcule la asignación óptima y el costo total, C ÿ c0, para esa
asignación.
Machine Translated by Google

86 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

(e) ¿Cuáles son los CV para las medias de los estratos individuales estimados para sus
asignaciones en las partes (a), (b) y (d)? Comente los resultados. (f) Suponga que a su
cliente gubernamental le gustaría publicar estimaciones de estratos individuales, pero que la
agencia tiene una regla inequívoca de que una estimación debe tener un CV de 0,30 o
menos para ser publicable. ¿Alguna de sus asignaciones en (a), (b) y (d) satisface este
criterio? Encuentre una asignación que cumpla con el criterio de 0,30 CV para todos los
estratos; calcule su costo y el CV que da para la media poblacional estimada en todos los
estratos. ¿Cómo discutiría las compensaciones entre esta nueva asignación y las de (a),
(b) y (d) con el cliente? (g) ¿Cuáles son los efectos de diseño para ¯yst para las
asignaciones en las partes (a), (b),

y (f)?

3.10. El número de visitas de pacientes hospitalizados (IPV) durante un año calendario es la


variable Y IP en el archivo smho98.

(a) Utilice las organizaciones con un número positivo de IPV como población y determine el
número de unidades de muestra necesarias para estimar la media de IPV por organización
con un CV de 0,10. Suponga que la muestra se seleccionará con probabilidad proporcional
al número de camas de hospitalización (BEDS) y que se utilizará y ˆ¯ÿ. Determine qué
unidades deben tomarse todos y el desglose del tamaño de la muestra en tomas todas y
no tomas todas.
Designe cualquier unidad con una probabilidad de selección de 0.8 o mayor como toma
total.
(b) Repita la parte (a) con un CV objetivo de 0,15. (c)
Ahora, suponga que decide utilizar un estimador de regresión del número medio de descargas.
Utilice un modelo sin intercepción y con la raíz cuadrada de las camas y las propias
camas como predictores. Si este modelo es correcto, ¿cuál es el MOS óptimo para usar
en una muestra de pps? ¿Qué muestra se requeriría para obtener un CV anticipado de
0.10 con este estimador de regresión y una muestra seleccionada con el MOS óptimo?
(d) Explique cualquier diferencia en los resultados de las partes (a) y (c).

N2 2
3.11. Muestre que la Ec. (3.41) se reduce a Vˆ1 = (yi ÿ y¯s0nÿ1
) sis0la muestra s0 es srswr de
tamaño ny la muestra planificada debe ser srswr. Por eso,
2
Vˆ1 N2n = [n (n ÿ 1)]ÿ1 s0(yi ÿ y¯s0 ) .

3.12. Investigadores de una organización de salud están interesados en estimar el número de


altas en los últimos 12 meses de hospitales especializados en un nuevo procedimiento médico
(N = 393). El presupuesto del proyecto fue suficiente para permitir la recopilación de datos en
(n =) 50 hospitales. Con base en investigaciones previas, el estadístico del proyecto seleccionó
una muestra pps de tamaño 50 utilizando el número de camas de hospital como MOS. El
número total de camas tabuladas a partir del marco muestral de lista fue de 107.956. Los
datos de los 50 hospitales de muestra se encuentran en el archivo de texto hosp50.csv. Los
datos sobre el número de camas para los 393 hospitales del cuadro se encuentran en el
archivo hospital.txt u hospital.RData.
Machine Translated by Google

3.7 Software para selección de muestras 87

(a) Calcule las ponderaciones de diseño para los 50 hospitales de muestra. ¿Cómo podría
verificar que los pesos se calcularon correctamente? Mostrar la verificación. (b) Estime el
número promedio de descargas con base en la muestra utilizando el estimador ÿ de la media.
Suponga que se conoce el conteo de población, N = 393.

(c) Estime la varianza de la muestra para su estimación en (b) utilizando la fórmula para el
muestreo con reemplazo. (d) Estime el intervalo de confianza del 95 % para su estimación
en (b). ¿Qué suposiciones está haciendo al calcular este intervalo de confianza? (e) Suponga
que desea seleccionar una nueva muestra con probabilidades proporcionales a la raíz
cuadrada de las camas. Estime el V1 apropiado para este diseño.

¿Cuántos hospitales de muestra se necesitarían para cumplir con el CV objetivo yˆ¯ÿ =


0.15 con este diseño?

3.13. Seleccione diez muestras de tamaño 20 de la población del hospital utilizando la


probabilidad proporcional al número de camas como en el ejemplo 3.16. Calcule la estimación
Vˆ1 en la ecuación. (3.43) para el MOS alternativo ÿxi de cada muestra.
Suponga que establece un objetivo de CV0 = 0,10 para una nueva muestra. ¿Cuál es el rango
de tamaños de muestra anticipados necesarios para lograr este objetivo? Sugiera una forma de
intentar reflejar la variabilidad del estimador del componente de varianza V1 al determinar el
tamaño de una nueva muestra.

3.14. En preparación para un próximo estudio, se le ha pedido que realice cálculos del tamaño
de la muestra usando dos variables de análisis separadas, y1 e y2. La población, de la que se
seleccionará la muestra, contiene 1.000 unidades. Los datos recopilados durante un estudio
anterior utilizando un diseño de espada están contenidos en el archivo Domainy1y2.txt.

(a) Determine el tamaño de muestra necesario para alcanzar un CV objetivo = 0,05 para la
media estimada de las dos variables de análisis, y1 e y2. ¿Son diferentes los tamaños de
muestra estimados? Es así, ¿por qué? (b) Si el nivel de precisión del objetivo aumenta a un
CV = 0,03, ¿cómo
los cálculos en (a) cambian?
(c) Repita sus cálculos en las partes (a) y (b) para la proporción de unidades cuyos valores para
y1 son menores o iguales a 50 (y1 ÿ 50). (d) Repita sus cálculos en las partes (a) y (b) para
la proporción de unidades cuyos valores para y1 son menores o iguales a 22 (y1 ÿ 22). Compare
sus resultados de las partes (c) y (d).

3.15. Algunas poblaciones se pueden dividir en elementos que tienen un valor cero para una
variable y otros que tienen un valor distinto de cero. Por ejemplo, la ley fiscal de los EE. UU.
permite a las empresas reclamar un crédito fiscal por los sueldos y salarios de los empleados
que participan en la investigación, tal como se define en “Emisión coordinada de créditos para
todas las industrias por aumentar las actividades de investigación: gastos de investigación calificados”.
(18 de junio de 2004).9 Algunos empleados se dedican a la investigación calificada para algunos

9 Disponible en http://www.irs.gov/businesses/article/0,,id=182094,00.html.
Machine Translated by Google

88 3 Diseño y tamaño de la muestra para encuestas de una sola etapa

porcentaje de su tiempo (los distintos de cero); otros no investigan nada (los ceros). (a) Demuestre que
la varianza unitaria, S2 =
norte 2
yo=1
(yi ÿ y¯U ) /(N ÿ 1), se puede escribir
diez como

Una

S2 = (N1 ÿ 1) S2 + Ny¯2 U1P (1 ÿ P)


norte - 1 Una

.
= P S2 Una
+ Qy¯2 U1 ,

donde N1 es el número de elementos con valores distintos de cero, P = N1 /N es la proporción de


elementos con valores distintos de cero, Q = 1ÿP, ¯yU1 es la media de los elementos con valores
= 2
distintos de cero y S2 /(N1 ÿ 1) es la varianza entre elementos con valores
N1i distintos de
(yi ÿ y¯U1)
=1 cero. En
ejemplo,
Una
N1el
sería el número de empleados que realizaron investigación calificada de un total de N en una
empresa. (b) Suponga que se va a seleccionar una espada y que tanto N1 como N son grandes.

Demuestre que el número de elementos de la muestra requeridos para lograr CV Tˆ = CV0 se


puede escribir como

. Una
S2
norte
= Una

+Q
P ÿ CV 2
0 y¯2
U1

(c) Grafique el tamaño de la muestra en (b) versus P para valores de la unidad de varianza entre
elementos distintos de cero iguales a 1, 2 y 4.

3.16. Considere dos diseños de muestra diferentes para la población smho.N874.


Una es una muestra de 50 unidades seleccionadas con probabilidad proporcional a la raíz cuadrada
de las camas, es decir, ÿx donde x = número de camas de hospitalización. El otro es un diseño
estratificado donde se forman 25 estratos clasificando el marco de menor a mayor según ÿx. Luego se
forman los estratos para que cada uno tenga aproximadamente la misma suma de ÿx. Luego se
selecciona por jurado una muestra de 2 unidades de cada estrato.

(a) Compare las probabilidades de selección para estos dos diseños de muestra. Por ejemplo, calcule
la probabilidad de selección media de pps dentro de cada estrato y compárela con las
probabilidades de selección de stsrswor. (b) Grafique las probabilidades de stsrswor frente a las
probabilidades de selección de pps.

Sugerencia: las funciones R cumsum y cut serán útiles.

3.17. Utilice la población smho.N874 para estimar la potencia ÿ en el modelo EM (y) = ÿ1 ÿx + ÿ2x, VM
(y) = ÿ2xÿ. La variable Y son los gastos totales, que es la variable EXPTOTAL en el archivo smho.N874.
La variable x es número de camas (BEDS). Utilice las organizaciones con un número positivo de camas
como población. Con base en su estimación de ˆÿ, ¿qué tipo de método de muestreo pps sería
eficiente? ¿Qué tipo de estimador de regresión general recomendaría?
Machine Translated by Google

3.7 Software para selección de muestras 89

3.18. Suponga que la muestra de tamaño n se seleccionará con ppswr usando un MOS
x y que el estimador de pwr se usará para estimar la media.
Hay nt toma-todos identificados usando alguna regla empírica, digamos, xk ÿ Nx¯U /n.
Escriba el pwr -estimator para esta situación. Demuestre que el tamaño de la muestra de
no tomar todo requerido para lograr un coeficiente de variación de CV0 es

V1

nnt = 2

(Ny¯U CV0)
2

donde V1 = Unt pk (yk /pk ÿ Tnt) todos, siendo Unt el universo de no tomar
siendo los pk las probabilidades de selección de 1 sorteo de los que no se lo llevan todo,
Unt yk. Demuestre que el CV de y ˆ¯ÿ es y Tnt =

V1

CV y ˆ¯ÿ = .
Ny¯U ÿnnt

3.19. Planea seleccionar una muestra aleatoria simple sin reemplazo de la población de
Detroit, Michigan. El número de visitas a un médico por persona se estimará por separado
para afroamericanos y todas las demás personas. Los datos del censo muestran que los
afroamericanos son el 83 % de la población.
Tiene estas estimaciones de una encuesta anterior:

Grupo Población Número medio de


Grupo visitas de varianza por año

Afroamericano 4.2 1.4


Todos los otros 3.3 2.2

(a) Determine qué tamaño de muestra aleatoria simple se necesitaría para obtener CV
para el número medio estimado de visitas por persona de 0.01, 0.05, 0.10 y 0.20.
Suponga que la población es tan grande que N puede tratarse como infinito.

(b) Suponiendo que se seleccionará una sola muestra, ¿qué grupo determinará
el tamaño total de la muestra necesario para alcanzar los objetivos de CV?

3.20. Se selecciona una espada de tamaño n de una población de tamaño N. La


estimación de la media por unidad en el dominio d es y ˆ¯d = t ˆd Nˆd donde Nˆd = Nnd /n.
.
=
Una

(a) Demuestre que la aproximación lineal a y ˆ¯d es y ˆ¯d ÿ y¯Ud ei Ne¯s donde Dakota del Norte

e¯s = nÿ1 s con ei = ÿi (yi ÿ y¯Ud ). (b) Utilizando esto,


.
demuestre que la varianza aproximada de y ˆ¯d es V y ˆ¯d = (N ÿ 1)ÿ1 y ˆ¯d =
UnaN2 norte

N2d 1-
norte
S2 con S2
norte mi mi tu
e2
yo _

2 . 1 2
= npd
norte

(c) Demuestre que la revarianza de y ˆ¯d es CV 1- currículos


d. norte
Machine Translated by Google

Capítulo 4
Cálculos de potencia y tamaño de muestra
Determinación

En el cap. 3 calculamos los tamaños de muestra en función de los objetivos de coeficientes


de variación (CV s), márgenes de error y restricciones de costos. Otro método es determinar
el tamaño de muestra necesario para detectar un valor alternativo particular al probar una
hipótesis. Por ejemplo, al comparar las medias de dos grupos, una forma de determinar el
tamaño de la muestra es a través de un cálculo de potencia. En términos generales, el poder
es una medida de la probabilidad de que reconozca un cierto tamaño de diferencia en los
medios. Se determina un tamaño de muestra que permitirá detectar esa diferencia con alta
probabilidad (es decir, una diferencia detectable).
El poder también se puede determinar en un caso de una muestra en el que se prueba una
hipótesis simple frente a una alternativa simple. Usar la potencia para determinar los tamaños
de muestra es especialmente útil cuando se pueden identificar algunas comparaciones
analíticas importantes antes de seleccionar la muestra. Aunque no se cubre en la mayoría de
los libros sobre diseño de muestras, la mayoría de los profesionales inevitablemente tendrán
aplicaciones donde se necesitan cálculos de potencia.
Suponga que un diseñador de encuestas o un experimentador decide que es importante
reconocer una diferencia de ÿ (|ÿ| > 0) entre dos o más medias verdaderas (población). Si la
verdadera diferencia es ÿ, entonces nos gustaría que el tamaño de la muestra fuera lo
suficientemente grande para que haya una probabilidad específica de mostrar una diferencia
estadísticamente significativa entre las medias del dominio o del tratamiento. Establecer la
probabilidad de detección (es decir, potencia) en 0,80 o 0,90 es una práctica común.
La potencia también suele expresarse en porcentajes en lugar de probabilidades, por ejemplo,
0,80 es lo mismo que 80 % de potencia. Este método de determinación del tamaño de la
muestra es particularmente común en estudios médicos. Referencias útiles que cubren el
cálculo del tamaño de la muestra en varios tipos de estudios médicos incluyen Armitage y
Berry (1987), Lemeshow et al. (1990), Schlesselman (1982) y Woodward (1992).
El tamaño del presupuesto es crítico. Si el cálculo de la potencia conduce a un tamaño de
muestra inasequible, el experimento o la encuesta deberán reducirse.
En algunos casos, el estudio puede tener que abandonarse por completo si no se pueden
detectar diferencias significativas con el tamaño de la muestra que se puede permitir.
Este capítulo revisa la terminología utilizada en la prueba de hipótesis y el análisis de
potencia y describe la mecánica de los cálculos de potencia para uno y

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 91


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 4, © Springer Science+Business Media New York 2013
Machine Translated by Google

92 4 Cálculos de potencia y determinación del tamaño de la muestra

pruebas de dos muestras. Es necesario comprender las suposiciones y las entradas de


los cálculos de potencia para realizar los cálculos del tamaño de muestra correcto. Con
ese fin, proporcionamos algunos detalles algebraicos. Nos concentramos en las pruebas
de medias y proporciones y damos algunos ejemplos de cómo implementar los cálculos
del tamaño de la muestra en R, SAS, Excel y Stata.

4.1 Terminología y pruebas de una muestra

Esta sección analiza las ideas de los errores de tipo I y II al realizar pruebas de hipótesis,
potencia de una prueba y pruebas unilaterales y bilaterales, junto con pruebas de una y
dos muestras. Nos concentramos en las pruebas de medias, pero los términos se
aplican de manera más general a otros parámetros de población. La tabla 4.1 resume la
terminología utilizada al probar hipótesis junto con las decisiones que se pueden tomar
y los errores que se pueden producir. H0, que se muestra en la tabla, se denomina
tradicionalmente hipótesis nula; una hipótesis alternativa se denota por HA.

Tabla 4.1: Terminología: tamaño y potencia de una prueba.

Decisión
No rechazar H0 Rechazar H0
Error tipo I—de incorrecto
Decisión correcta con probabilidad
H0 es cierto Decisión con probabilidad ÿ habilidad 1
ÿ ÿ (nivel o tamaño de la prueba)

Error de tipo II: de incorrecta Decisión correcta con proba


H0 es una
decisión falsa con probabilidad ÿ (en bilidad 1 ÿ ÿ (potencia de prueba en
(HA es
verdadero) un valor alternativo específico)

Los analistas por lo general evitan decir que se acepta una hipótesis nula sobre la
base de que una hipótesis como H0 : ÿ = 3 nunca es probable que sea exactamente
cierta. Si la media real (con 3 decimales) fuera 3,01, entonces H0 sería falsa. A muchas
personas les gusta usar la declaración más evasiva "H0 no se rechaza" en lugar de "H0
se acepta", lo que implica que se ha demostrado que la hipótesis es cierta.

Caracterización de hipótesis y pruebas

Las hipótesis pueden ser simples o compuestas. Las pruebas se pueden caracterizar
como de un solo lado o de dos lados. Cuando una hipótesis contiene un solo valor, se
llama simple (p. ej., H0 : ÿ = 3 es simple). Una hipótesis que contiene más de un valor
es compuesta (p. ej., H0 : ÿ ÿ 3 es compuesta). Si una prueba es de uno o
Machine Translated by Google

dos caras depende de la alternativa. Si la hipótesis nula es H0 : ÿ = 3, una


alternativa unilateral es HA : ÿ > 3 porque los valores alternativos de interés
están solo en una dirección del valor nulo. Una alternativa de dos lados sería
HA : ÿ = 3 ya que las alternativas pueden ser mayores o menores que H0 : ÿ
= 3. La alternativa, HA : ÿ = 3, también es compuesta porque involucra
muchos valores.

Prueba de una muestra

Por una muestra, nos referimos a un caso en el que una sola media se prueba contra algún valor
hipotético. Para una hipótesis nula simple de una muestra versus una alternativa simple, estamos
probando:

H0 : ÿ = ÿ0 versus HA : ÿ = ÿ0 + ÿ

en el nivel ÿ para algún ÿ que puede ser positivo o negativo. Por lo general,
pensamos en probar la hipótesis nula simple frente a la alternativa compuesta:

HA : ÿ = ÿ0.

El estadístico de prueba estándar es


ˆ¯
y ÿ ÿ0
t= , (4.1)
ˆ¯
muy
ˆ¯ ˆ¯
donde y es una estimación de la media de la variable y y vy es una estimación de la varianza de y
ˆ¯. En el muestreo de encuestas, la media de la población finita se estima
como

ˆ¯ iÿs wiyi
y = , (4.2)
iÿs wi

donde wi es el peso de la encuesta para la unidad i y s denota el conjunto de unidades muestrales.


La muestra se puede seleccionar de forma compleja (p. ej., estratificada, multietápica con
probabilidades variables). Siempre que la varianza sea consistentemente1 estimada por t en (4.1)
ˆ¯
muy , se considera que tiene una distribución t (central) bajo la hipótesis nula. La aproximación
t puede ser deficiente cuando el tamaño de la muestra es pequeño y la variable y tiene una
distribución muy sesgada. Sin embargo, la t es un punto de partida útil para los cálculos de
potencia y tamaño de muestra de este capítulo. los

Una

pags
Machine Translated by Google

94 4 Cálculos de potencia y determinación del tamaño de la muestra

los grados de libertad para la t generalmente se basan en algunas reglas generales. Una
que se usa a menudo

df = número de UPM ÿ número de estratos. (4.3)

Por ejemplo, en un diseño con H estratos y nh unidades primarias de muestreo


H
(PSU) seleccionadas del estrato h, la regla general da (nh ÿ 1) = h=1
(n+ ÿ H) df con n+ = h nh. Para un diseño de hogar con 50 estratos y 2
muestra las UPM por estrato, la regla general sería df = 50, aunque
el número de hogares de muestra podría ser de cientos o miles.
Estas reglas no son necesariamente precisas, y algunas mejores aproximaciones a
df se puede calcular [ver, por ejemplo, (Rust 1984, 1985; Valliant y Rust 2010)].
Cuando la muestra de UPM es grande, la distribución t será aproximadamente la misma
como una distribución normal. Como siempre, es difícil dar una buena respuesta a la
pregunta: "¿qué es grande?" Los puntos críticos de las distribuciones t y normal son
muy cerca uno del otro para df ÿ 60. La siguiente tabla muestra los percentiles 97.5
de t para varios df, es decir, los puntos t0.975,df tales que Pr (t ÿ t0.975 (df)) = 0.975.
Para df = 60, t0.975,60 = 2, casi lo mismo que 1.96 para una normal estándar
distribución2.

df t0.975, df

1 12.71
5 2,57
10 2.23
30 2.04
60 2,00
100 1,98
ÿ 1,96

Se lanzan algunas reglas generales, como "(número de PSU)—(número


de estratos) debe ser 30 o más” para usar la aproximación normal.
Sin embargo, el df aproximado para un estimador de varianza se ve afectado por cómo
sesgados, los datos de entrada se suman al número de PSU y al número de
Estratos. Los ingresos familiares, por ejemplo, están muy sesgados, mientras que la prueba de educación
puntajes, como la Prueba de Aptitud Académica (SAT), generalmente se construyen para
tienen distribuciones casi normales entre los examinados. Datos de entrada sesgados
requerirá más PSU de muestra para que la estadística t sea aproximadamente normal
que los datos de entrada simétricos, casi normales. Extremadamente raro o frecuente
características también tendrán el mismo efecto. Por otra parte, conseguir un
una buena fijación en el df aproximado no es simple, y los practicantes generalmente son
contento con calcular el valor en (4.3) y adoptar un punto de corte, como 60, para
utilizando la aproximación normal.

2 Una distribución normal estándar es una distribución normal con media = 0 y


desviación estándar = 1, es decir, N(0, 1).
Machine Translated by Google

4.1 Terminología y pruebas de una muestra 95

Uso de correcciones de población finita en varianzas

Probando la hipótesis simple de que la media es un valor particular, H0 : ÿ = ÿ0, o, como


se explica más adelante en la Secc. 4.3, que las medias de dos grupos son iguales, H0 :
ÿX = ÿY , plantea unNo problema
es probable
que puede
que dos
parecer
mediasmolesto
poblacionales
pero quefinitas
vale la
sean
pena
exactamente
comentar.
iguales.
Usando el ejemplo anterior en esta sección, si una media es 3 y otra 3.01, estas son
diferentes. En consecuencia, cuando se prueban hipótesis, como H0 : que comparan
µX = µY , grupos, los analistas suelen considerar que se trata de pruebas sobre los
parámetros subyacentes de un modelo que describe razonablemente bien a la población.
Por lo tanto, incluso si se enumerara toda la población finita, las medias calculadas aún
tendrían varianzas porque seguirían siendo estimaciones de los parámetros desconocidos
subyacentes del modelo. De acuerdo con esa filosofía, las estimaciones de varianza no
deben incluir factores de corrección de población finita (como 1 ÿ n/N en srswor).

Ignorar el fpc en un estimador de varianza tiene implicaciones prácticas reales para los
cálculos del tamaño de la muestra en secciones posteriores. Si la fracción de muestreo es
superior a aproximadamente 0,05, los tamaños de muestra calculados para lograr un
cierto nivel de potencia pueden ser notablemente diferentes, dependiendo de si se incluye
o no un fpc. La incorporación de un fpc no despreciable reduce el valor de una estimación
de la varianza y, en consecuencia, reduce el tamaño de la muestra calculada para lograr
esa potencia. Por lo tanto, puede parecer que se puede ahorrar algo de dinero simplemente
inyectando un fpc en los cálculos. Sin embargo, el pensamiento de superpoblación anterior
diría que este es un razonamiento engañoso. En algunas aplicaciones, como las encuestas
de hogares, las fracciones de muestreo suelen ser tan bajas que no es necesario
preocuparse por un fpc. Sin embargo, puede enfrentar el problema en otras situaciones,
como encuestas escolares, donde la población es más pequeña.
Si su objetivo es realmente medir qué tan grande es la diferencia entre dos medias de
población finitas, entonces un cálculo de potencia probablemente no sea lo que desea. El
cálculo del tamaño de la muestra apropiado debe hacerse utilizando los métodos del Cap.
3 donde contabilizamos el fpc. En http:// web.cos.gmu.edu/ÿwss/wss070328paper.pdf.

Antes de explicar cómo calcular la potencia, damos algunas definiciones de términos


que se utilizan en la prueba de hipótesis.

Definición 4.1 (Error Tipo I). Un error de tipo I es rechazar una hipótesis nula cuando en
realidad es cierta. La probabilidad de que se rechace H0 en tal caso se denomina nivel o
tamaño de la prueba y, para una prueba bilateral, es

Pr |t| > t1ÿÿ/2 (df)|H0 es verdadero = ÿ,

donde tÿ (df) es el cuantil ÿ de la distribución t central con grados de libertad df, es decir,
Pr (t<tÿ (df)) = ÿ. Dicho de otra manera, el nivel de la prueba es la probabilidad de que el
estadístico de prueba se encuentre en la región de rechazo de la distribución cuando la
hipótesis nula es realmente cierta. Para una prueba unilateral de H0 : ÿ = ÿ0
Machine Translated by Google

96 4 Cálculos de potencia y determinación del tamaño de la muestra

versus HA : ÿ>ÿ0 la tasa de error Tipo I es

Pr (t>t1ÿÿ (df)|H0 es cierto) = ÿ.

Definición 4.2 (Error Tipo II). Un error tipo II es aceptar que una hipótesis nula es verdadera
cuando en realidad es falsa. La probabilidad de que se acepte H0 en tal caso para una prueba
bilateral es

Pr |t| ÿ t1ÿÿ/2 (df)|HA es verdadero = ÿ.

Para una prueba unilateral de H0 : ÿ = ÿ0 frente a HA : ÿ>ÿ0 , la tasa de error de tipo II es

Pr (t ÿ t1ÿÿ (df)|HA es verdadero) = ÿ.

Para calcular realmente ÿ, debemos pensar en un valor específico dentro de las


posibilidades que abarca HA.

Definición 4.3 (Poder). La potencia es 1 menos la tasa de error Tipo II, es decir, la probabilidad
de rechazar H0 cuando en realidad es falsa. La potencia y la tasa de error Tipo II varían
dependiendo del valor particular de la alternativa. Para una prueba bilateral, la potencia es la
probabilidad de que el estadístico de prueba esté en la región de rechazo cuando ÿ = ÿ0 + ÿ y es
igual a

Pr |t| > t1ÿÿ/2 (gl)|ÿ = ÿ0 + ÿ = 1 ÿ ÿ.

La potencia en una prueba unilateral de H0 : ÿ = ÿ0 frente a HA : ÿ>ÿ0 es

Pr (t>t1ÿÿ (df)|ÿ = ÿ0 + ÿ)=1 ÿ ÿ.

Note que podríamos usar la notación ÿÿ más elaborada ya que la potencia depende del valor
específico de la alternativa. (Los ejemplos 4.1 y 4.2 ilustran cálculos de potencia para valores
específicos de alternativas).

Definición 4.4 (valor p). Un valor p es el nivel de significación más pequeño en el que se rechazaría
una hipótesis nula en función del valor observado de la estadística de prueba que se está
utilizando. Suponga que el valor calculado de (4.1) es tobs.
Entonces, el valor p para una prueba bilateral es

Pr (|t| > tobs |H0 es verdadero).

Aquí no se considera ninguna hipótesis alternativa en particular; no se toma ninguna decisión


para elegir entre H0 y algo de HA. Cuando el análisis consiste en calcular un estadístico de
prueba y su valor p asociado, esto se denomina prueba de significación y es probablemente el
procedimiento más utilizado, especialmente en las ciencias sociales.

El valor p generalmente se toma como una medida de la fuerza de la evidencia a favor o en


contra de la hipótesis nula. Un valor p pequeño se interpreta como evidencia de que
Machine Translated by Google

4.2 Potencia en una prueba de una muestra 97

H0 es falsa, es decir, es muy poco probable que ocurra una estadística de prueba de tamaño tobs o
más extrema si H0 fuera verdadera. Cuanto menor sea el valor de p, mayor será la evidencia en
contra de H0. Esta interpretación es dudosa ya que el valor p asociado con un tamaño de efecto
dado depende del tamaño de la muestra. Citando a Royall (1986):

. . . una diferencia entre tratamientos que es solo estadísticamente significativa al nivel de 0.05 puede ser
tan pequeña que no tiene importancia clínica si los grupos de estudio son enormes, mientras que una
diferencia entre grupos más pequeños que producen el mismo valor p corresponde a un tratamiento
estimado mucho mayor efecto.

Debido a estos problemas, los valores de p no son útiles para determinar el tamaño de las muestras.

4.2 Potencia en una prueba de una muestra

La potencia para un tamaño de muestra dado depende de qué tan lejos esté el valor alternativo, ÿ0
+ ÿ, del valor nulo, ÿ0. Las alternativas que están lejos del nulo son naturalmente más fáciles de
detectar que las que están cerca. Se necesitan tres cosas para un cálculo del tamaño de la muestra
basado en la potencia:

1. Valor de ÿ 2.
Probabilidad deseada 1 ÿ ÿ (es decir, la potencia) de obtener un resultado de prueba significativo
cuando la diferencia real es ÿ
3. Nivel de significación ÿ de la prueba, que puede ser unilateral o bilateral.

Pruebas de 1 lado

Primero, considere una prueba unilateral de H0 : ÿ = ÿ0 versus HA : ÿ>ÿ0. La hipótesis nula será
rechazada si t>t1ÿÿ (df). Por ejemplo, con una prueba de nivel ÿ = 0.05 y una gran cantidad de gl,
se rechazará H0 si t>t0.95 (ÿ) = z0.95 = 1.645. Cuando la muestra de UPM es grande, t en (4.1)
puede tratarse como si tuviera una distribución N(0, 1) bajo H0. Si, por el contrario, la verdadera
media es ÿ = ÿ0 + ÿ para algún ÿ > 0, entonces la media de t es

d
,
ˆ¯
Vy
ˆ¯ ˆ¯ . ˆ¯
probabilidad de que
es lat esté
varianza
en lateórica
regiónde
deyrechazo
ˆ¯. Suponiendo
cuando que
ÿ = ÿ0
vy +donde
ÿ es V y =Vy , la
Machine Translated by Google

98 4 Cálculos de potencia y determinación del tamaño de la muestra

Pr (t>t1ÿÿ (gl)|ÿ = ÿ0 + ÿ) (4.4)


ˆ¯
. y ÿ ÿ0 d d
= PR ÿ ÿ

> z1ÿÿ ÿ ÿ = ÿ0 + ÿ
ÿ
ˆ¯ ˆ¯ ˆ¯
ÿ Vy Vy Vy ÿ

d
= PR ÿ ÿ
ˆ¯
ÿZ>z1ÿÿ ÿ Vy ÿ,

donde Z es una variable aleatoria normal estándar, es decir, de media 0 y varianza 1.


La expresión (4.4) es la potencia de la prueba frente a la alternativa ÿ = ÿ0 + ÿ.

La Figura 4.1 ilustra la situación. Si H0 es verdadero y t tiene media 0, la estadística


de prueba tendrá una distribución normal estándar (a la izquierda en la figura) dado
que el df es grande. La región de rechazo está marcada en gris claro y tiene un área
ÿ, 0,05 en este caso. Si la media es ÿ0 + ÿ > 0, entonces la media de t es ÿ V y y la
ˆ¯
distribución dedet se desplaza
rechazo hacia
de la la derecha.
distribución La probabilidad
desplazada de aestar
es el área en la región
la derecha de
z1ÿÿ = 1,645 (gris claro más gris oscuro).

Ejemplo 4.1 (Potencia de una encuesta anterior). Suponga que planea seleccionar
una muestra de hogares de una provincia canadiense en particular y medir el ingreso
familiar medio para los hogares de parejas casadas (y ˆ¯). Con base en encuestas
anteriores del mismo diseño y tamaño, anticipa que la media es de aproximadamente
$55 000 dólares canadienses y se estimará con un CV del 6 %. Le gustaría probar la
hipótesis H0 : ÿ = $55 000 versus HA : ÿ > $55 000 en el es 0.06 ˆ¯
× 55 000 =
ÿ = 0,05 nivel. Por lo tanto, el error estándar anticipado de y 3,
300. También le gustaría saber cuánto poder tiene para detectar que la media es
realmente $60,000. Sustituyendo en (4.4) y usando la aproximación normal, la
potencia anticipada es

d 60 000 ÿ 55 000
PR ÿ ÿ = Pr Z > 1,645 ÿ 3 300
ˆ¯
ÿZ>z1ÿÿ ÿ Vy ÿ
= 0,448.

Cuando se realiza la encuesta, la estimación muestral de la media resulta ser


de $59 000 con un CV del 7,5 %. El estadístico t para probar H0 : ÿ = $55 000
es, por lo tanto,
59 000 ÿ 55 000
tobs = 0,075 × 59.000 = 0,9040.

El valor p asociado con esta estadística es Pr (t > 0.9040 |ÿ = 55,000) . =


0.183. En consecuencia, parece dudoso que la media sea mayor que $55 000.
Una verificación de esta conclusión es calcular un intervalo de confianza para el
Machine Translated by Google

4.2 Potencia en una prueba de una muestra 99

media poblacional. En este caso, un intervalo unilateral del 95 % es 59 000 ÿ


1,645 × 0,075 × 59 000 = 51 721, que es menor que los $55 000 hipotéticos.

H0 DECIR AH

ÿ=ÿ0 ÿ=ÿ0+ÿ

ÿ2 0 2 4 6
Z

ˆ¯
Higo. 4.1: Densidades normales de las estadísticas de prueba bajo H0 y HA. ÿ V y se establece
igual a 3 en esta ilustración, de modo que E {t|HA es verdadero} = 3. Se realiza una prueba unilateral
en el nivel 0.05.

El cálculo de potencia también se puede realizar usando una distribución t si los


grados de libertad para el estimador de varianza no son grandes, digamos menos de
ˆ¯ ˆ¯
60. El estadístico y ÿ ÿ0 muy tendrá una distribución t no central con noncen
ˆ¯
parámetro de tralidad ÿ V y cuando la media es ÿ = ÿ0 + ÿ. La potencia de la prueba t es
entonces la probabilidad de que una variable aleatoria t no central con df grados de
libertad sea mayor que t1ÿÿ (df). Este es el método utilizado por la función de R
power.t.test en el paquete de estadísticas (R Core Team y colaboradores en todo el
mundo 2012c) descrito en la Secc. 4.4.
Supongamos que queremos que la potencia, es decir, la probabilidad de estar a la
derecha de z1ÿÿ sea 1 ÿ ÿ (p. ej., 0,80). Sea zÿ el punto de la distribución normal
estándar
ˆ¯ con área ÿ a su izquierda y 1 ÿ ÿ a su derecha. Ahora, suponga que = ÿ2 y /n
n donde n es el tamaño de muestra de las unidades analíticas y ÿ2 V y esy el ÿ ÿ2 /
varianza de la unidad de población de Y. A partir de (4.4), establecemos z1ÿÿ ÿ
ÿ y
igual a zÿ (= ÿz1ÿÿ) y resolvemos para el tamaño de muestra n para obtener

2 2
(z1ÿÿ ÿ zÿ) (z1ÿÿ + z1ÿÿ) = .
norte = ÿy ÿ ÿy ÿ (4.5)
Machine Translated by Google

100 4 Cálculos de potencia y determinación del tamaño de la muestra


ˆ¯
común para diseños que no sean srswor, V y = esÿ2
establecer
y/n no selacumple.
solución
Una
en solución
(4.5) igual al
tamaño efectivo de la muestra, definido como neff ˆ¯= n/deff donde
ˆ¯
deff = V y la relación de
la varianza bajo el diseño complejo a la variación bajo/VSRS
srswor.
añosPor, resuelve
supuesto,completamente
esto no
el problema ya que se requiere un valor para el deff para la variable de diseño y análisis
particular en cuestión. Su valor dependerá de si el diseño es estratificado, monoetápico,
conglomerado u otro y de cómo se asigne la muestra a los estratos y conglomerados.

Ejemplo 4.2 (Encontrar un tamaño de muestra para potencia especificada). En el Ejemplo


4.1, suponga que se usaron microdatos para estimar la desviación estándar de la
población a través de uno de los métodos discutidos en la Secc. 3.4 obteniendo ˆÿy = 74.000.
Si la media de la población es de $55 000, esto implica que la unidad de revarianza es
742/552 = 1,8. (Las revarianzas unitarias en el rango de 1 a 5 son típicas para las variables
continuas). Se debe realizar una prueba de nivel unilateral ÿ = 0.05 y se puede seleccionar
una muestra aleatoria simple de hogares. Suponga, en particular, que H0 : ÿ = $55 000 y
HA : ÿ > $55 000. .Si queremos una potencia de 0,80 (z1ÿÿ = z0,80 = 0,84) para detectar
que la media es $60 000, entonces el tamaño de la muestra de (4,5 ) es

2
(1,645 + 0,84) .
n = 74.000 5.000 = 1, 355 hogares.

Si se usa un diseño agrupado y estimamos que el deff es 1,6, entonces el tamaño de


muestra requerido es n = 1, 355 (1,6)=. 2, 170. Por otro lado, si queremos el mismo poder
contra una alternativa de $57,500, entonces el tamaño de la muestra ajustado por deff es

2
(1,645 + 0,84) .
n = 1,6 74.000 2.500 = 8, 670.

Claramente, los objetivos del análisis tienen un gran impacto en el tamaño de la muestra.
Se debe pensar cuidadosamente en el tamaño de la alternativa que es sustancialmente
importante para detectar.

En aplicaciones como el ejemplo 4.2, ÿy debe estimarse a partir de una muestra


anterior o adivinarse en función de la experiencia. El tamaño de la muestra de 8670 es en
sí mismo una estimación del tamaño realmente necesario para una potencia de 0,80.
Debido a que esto se hace de antemano, sería mejor llamarlo el poder anticipado. Cuando
se recopilan datos en la nueva encuesta, podemos estimar la potencia alcanzada en
función de esos datos. Siendo la variación aleatoria lo que es, el poder anticipado y logrado
rara vez es el mismo. Como medida de seguridad, se puede seleccionar una muestra de
más de 8670 en caso de que el ˆÿy sea demasiado pequeño.
Machine Translated by Google

4.2 Potencia en una prueba de una muestra 101

Pruebas de 2 caras

El cálculo de la potencia para una prueba bilateral es similar pero un poco más complicado.
La hipótesis nula se rechaza si |t| > t1ÿÿ/2 (gl). Si el objetivo es detectar una desviación
del valor de la hipótesis nula de ÿ en cualquier dirección, entonces las alternativas de
la forma ÿ0 ± ÿ son de interés. Examinaremos estos uno a la vez: primero ÿ = ÿ0 + ÿ
y luego ÿ = ÿ0 ÿ ÿ. Nuevamente, suponiendo que la aproximación normal es lo
suficientemente buena y observando que zÿ /2 = ÿz1ÿÿ/2, la probabilidad de error de
tipo II de que el estadístico de prueba esté en la región de aceptación, cuando ÿ = ÿ0
+ ÿ, es

Pr |t| ÿ t1ÿÿ/2 (gl)|ÿ = ÿ0 + ÿ


ˆ¯
. y ÿ ÿ0
= PR ÿ ÿ < z1ÿÿ/2 ÿ = ÿ0 + ÿ
ÿ
ˆ¯
ÿÿz1ÿÿ/2 ÿ Vy ÿ

ˆ¯
d y ÿ ÿ0 d d
= PR ÿÿz1ÿÿ/2 ÿ ÿ ÿ

< z1ÿÿ/2 ÿ ÿ = ÿ0 + ÿ ÿ
ˆ¯ ˆ¯ ˆ¯ ˆ¯
ÿ ÿÿz1ÿÿ/2 ÿ Vy Vy Vy Vy ÿ

d d
= PR ÿ ÿZ ÿ z1ÿÿ/ ÿ Z<z1ÿÿ/2 ÿ
ÿ
ˆ¯ ˆ¯
2ÿ Vy Vy ÿ

d ÿ ÿ PR ÿ d ÿ
= PR
ˆ¯ ˆ¯
Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 ÿ Vy ÿ.

La potencia de la prueba frente a la alternativa es entonces

Pr |t| > t1ÿÿ/2 (gl)|ÿ = ÿ0 + ÿ (4.6)

. ÿ d ÿ + PR ÿ d ÿ
=1 ÿ Pr
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 ÿ Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 ÿ Vy ÿ.

El último término del lado derecho de (4.6) estará cerca de 0 en muchos casos.
Mediante un cálculo similar, la potencia de la prueba frente a la alternativa
HA : ÿ = ÿ0 ÿ ÿ es

Pr |t| > t1ÿÿ/2 (gl)|ÿ = ÿ0 ÿ ÿ (4.7)

. ÿ d ÿ + PR ÿ d ÿ
=1 ÿ Pr
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 + Vy ÿ ÿZ ÿ ÿz1ÿÿ/2 + Vy ÿ.

En este caso, el segundo término del lado derecho de (4.7) a menudo estará cerca
ˆ¯
de 1 y la expresión (4.7) será aproximadamente Pr Z ÿ ÿz1ÿÿ/2 + ÿ V y .
Machine Translated by Google

102 4 Cálculos de potencia y determinación del tamaño de la muestra

Supongamos que queremos que la potencia contra ÿ0 +ÿ o ÿ0 ÿÿ sea 1ÿÿ. Podemos establecer
(4.6) o (4.7) en 1 ÿ ÿ y luego resolver para n. El uso de (4.6) o (4.7) conduce al mismo tamaño de
muestra que mostramos ahora. Primero, aproximar (4.7) por

ÿ
d ÿ ÿ
d ÿ
1 ÿ PR = PR
ˆ¯ ˆ¯
ÿZ ÿ z1ÿÿ/2 ÿ Vy ÿ ÿZ>z1ÿÿ/2 ÿ Vy ÿ

d
y establezca esto igual a 1 ÿ ÿ. Esto implica que z1ÿÿ/2 ÿ = zÿ. Usando V(yˆ¯)
ˆ¯
Vy = ÿ2 y/n y resolviendo da

2
z1ÿÿ/2 ÿ zÿ ÿ . (4.8)
n = ÿy

ˆ¯
Aproximando (4.7) por Pr Z ÿ ÿz1ÿÿ/2 + ÿ V y = z1ÿÿ, y resolviendo el , estableciendo ÿz1ÿÿ/2 +
d
tamaño de la muestra obtenemos V(yˆ¯)

2 2
z1ÿÿ/2 + z1ÿÿ z1ÿÿ/2 ÿ zÿ ÿ .
n = ÿy = ÿy (4.9)
ÿ

Tenga en cuenta que para calcular el tamaño de la muestra para una prueba bilateral en (4.9),
simplemente cambiamos ÿ en (4.5) para la prueba unilateral a ÿ/2. Comparando (4.9) con (4.5),
vemos que para obtener la misma potencia para detectar las alternativas ÿ0 ± ÿ, el tamaño de
muestra requerido será mayor que para detectar ÿ0 + ÿ solo porque z1ÿÿ/2 > z1ÿÿ. Por ejemplo,
z0,975 = 1,96 y z0,95 = 1,645. Cierta intuición para esto es que se necesita una muestra más
grande para detectar una alternativa que pueda estar en cualquier lado del valor nulo.

Como en el caso de 1 lado, la función R power.t.test hace un análisis más refinado.


versión del cálculo del tamaño de la muestra.

Ejemplo 4.3 (Tamaño de la muestra para una prueba de dos colas). Continuando con los ejemplos
4.1 y 4.2, suponga que se desea una potencia de 0,80 (es decir, 80 % de potencia) contra cualquiera
de las alternativas HA : ÿ = $50 000 o HA : ÿ = $60 000. Como antes, H0 : ÿ = $55 000 Sustituyendo
en (4.8) se obtiene

2
(1,96 + 0,84) n .
= 74.000 5.000 = 1.720.

Ajustando esto para un efecto de diseño de 1,6, el tamaño de la muestra es de


aproximadamente 2750. Si queremos una potencia de 0,80 contra HA : ÿ = $52 500 o
HA : ÿ = $57 500, entonces 5 000 se reemplaza por 2, 500 en la ecuación anterior para
dar n = 6, 880 o n = 11,000 ajustado para deff = 1.6.
Machine Translated by Google

4.3 Pruebas de dos muestras 103

La sección 4.4 ilustra cómo se pueden realizar estos cálculos en R. También se programan
fácilmente en Excel. Las figuras 4.2 y 4.3 muestran capturas de pantalla de una hoja de
cálculo que calculará los tamaños de muestra en los ejemplos 4.2 y 4.3. La figura 4.3 muestra
las fórmulas, mientras que la figura. 4.2 da resultados numéricos que coinciden con los de
los ejemplos. La hoja de cálculo también está disponible en el sitio web del libro. Otra
excelente referencia que combina R y Excel es Heiberger y Neuwirth (2009).

Higo. 4.2: Una hoja de cálculo de Excel para los cálculos de los ejemplos 4.2 y 4.3.

4.3 Pruebas de dos muestras

Comparar las medias de dos grupos diferentes de unidades es un objetivo analítico estándar.
El término prueba de “dos muestras” surge del objetivo de comparar parámetros para dos
grupos o poblaciones separados con una muestra que se selecciona de cada uno. Esta
sección describe los métodos usados para comparar medias o proporciones para dos de
esos grupos.

4.3.1 Diferencias de medias

Para un caso de dos muestras, podemos querer probar que

H0 : ÿX ÿ ÿY versus HA : ÿX > ÿY
Machine Translated by Google

104 4 Cálculos de potencia y determinación del tamaño de la muestra


Machine Translated by Google

4.3 Pruebas de dos muestras 105

en el nivel ÿ donde X es la variable aleatoria asociada a la primera muestra o


grupo e Y es la variable aleatoria asociada a la segunda. El estadístico de
prueba de la muestra es ˆ¯
d
td =
ˆ¯
v d

ˆ¯ ˆ¯ ˆ¯ ˆ¯ ˆ¯ ˆ¯
con d = xˆ¯ ÿ y ˆ¯, vd = v xˆ¯ + vy son ÿ 2cov x, y donde v xˆ¯ y vy
ˆ¯ ˆ¯
estimaciones basadas en el diseño de las varianzas de las medias y cov x, es una
estimación basada en el diseño de su covarianza. En una encuesta transversal,
normalmente compararemos las medias de dos dominios que no se superponen. Si cada
ˆ¯ ˆ¯
dominio es específico de diferentes estratos, entonces cov x, = el
0 por
agrupación, definición.
diseñoincluso Pero,
implicalos
la si
dominios que no se superponen, como masculino y femenino, pueden tener estimaciones
correlacionadas debido a la presencia de miembros de dominio dentro de las mismas PSU.

La hipótesis nula de que la media de Y es mayor o igual que la media


de X (H0 : ÿX ÿ ÿY ) será rechazada en muestras grandes si td > z1ÿÿ. Si
ˆ¯
d
la verdadera diferencia media es algo |ÿ| > 0, entonces la media de td es ÿ ! V
en lugar de 0. Haciendo que ÿD = ÿX ÿÿY , la la probabilidad de que td esté en el rechazo
región es entonces

ÿ d d ÿ
Pr {td > z1ÿÿ ÿD = ÿ } = Pr ˆ¯
> z1ÿÿ ÿ
ˆ¯
µD = ÿ
V d V d
ÿÿÿ td ÿ ÿÿÿ

. ÿ d ÿ
= PR . (4.10)
ˆ¯
V d
ÿÿÿ Z>z1ÿÿ ÿ ÿÿÿ

Esta es la potencia de la prueba frente a la alternativa ÿD = ÿX ÿ ÿY = ÿ y es


similar a (4.4) para el caso de una muestra.
Suponga que el tamaño de la muestra en cada dominio es el mismo y que d = ÿ2 d/n donde ÿ2 varianza
ˆ¯
la varianza de la diferencia se puede escribir como V de la unidad de población. Pores algo
d ejemplo,

esto se mantendrá si las estimaciones del dominio son independientes y sus varianzas se pueden escribir
como

ˆ¯ ÿ2 Una
X y =
V ÿ2 re = + ÿ2X + ÿ2y
norte norte norte

como sería el caso de srswor. Si las estimaciones del dominio están correlacionadas, entonces ÿ2 = ÿ2 + ÿ2
xÿ2ÿxy
d
siendo ÿxy la covarianza poblacional de X e Y.
y
Machine Translated by Google

106 4 Cálculos de potencia y determinación del tamaño de la muestra

Si ÿ2 = ÿ2 ÿ ÿ2 0, entonces la correlación a nivel de unidad entre y y x es ÿ = ÿxy/ÿ2 0


y X
y ÿ2 = 2ÿ2
d 0 (1 ÿ ÿ), que es una forma conveniente. Para encontrar la muestra requerida
d
igualamos zÿ a z1ÿÿÿ y resolvemos para el tamaño de muestra n para obtener
ÿ ÿ2 d/n

2
norte = ÿd (z1ÿÿ ÿ zÿ) . (4.11)
d

Tenga en cuenta que este es el tamaño de la muestra en cada dominio. Si ÿ2 = ÿ2 ÿ ÿ2 y ÿ = 0,


X y 0
entonces ÿ2 = 2ÿ2 0.
d
El cálculo de la potencia en una prueba bilateral conduce a fórmulas análogas a
(4.6) y (4.7). La figura 4.4 representa gráficamente la potencia en una prueba bilateral de H0 : ÿD = 0
contra HA : |ÿD| = ÿ para una prueba realizada al nivel del 5 % (es decir, ÿ = 0,05) suponiendo
que ÿd = 3. Se muestran cuatro tamaños de muestra de grupo diferentes: 10, 25, 50 y 100.
Si |ÿ| = 2, la potencia para n = 10 en cada grupo es de aproximadamente 0,30. Pero, si n = 50,
la potencia es superior a 0,90. Para un tamaño de muestra dado, la potencia se vuelve más grande a medida que
|ÿ| aumenta La función R power.t.test, descrita más adelante, se utilizó para
los cálculos de potencia mostrados en la Fig. 4.4.

1.0

n=100
n=50

0.8

n=25

potencia
0,6

0.4

n=10
0.2

ÿ4 ÿ2 0 2 4
Delta

Higo. 4.4: Potencia para tamaños de muestra de n = 10, 25, 50, 100 en una prueba bilateral de H0 :
ÿD = 0 frente a HA : |ÿD| = ÿ (ÿ = 0,05, ÿd = 3).

Muestras parcialmente superpuestas

También se puede tratar el caso de muestras parcialmente superpuestas (p. ej., véase
Woodward 1992). Por ejemplo, las personas pueden ser encuestadas en alguna fecha de referencia y
Machine Translated by Google

4.3 Pruebas de dos muestras 107

luego siguió en un momento posterior. Una estimación de la diferencia en la población.


Se pueden desear medios, pero las muestras no se superponen completamente porque
de abandonos, rotación de muestras planificada o falta de respuesta. Supongamos que s1 y

s2 son los conjuntos de unidades muestrales con datos recopilados solo en los tiempos 1 y 2 y
que s12 denota la superposición. Por lo tanto, las muestras completas en los tiempos 1 y 2 son

s1 ÿ s12 y s2 ÿ s12. Además, suponga que las muestras en los dos períodos de tiempo
son muestras aleatorias simples. Suponga que las muestras en los tiempos 1 y 2 son
no necesariamente del mismo tamaño, por lo que n1 = rn2 para algún número positivo r.
Las muestras pueden ser de diferentes tamaños debido a otros objetivos de la encuesta o porque
el presupuesto para la recopilación de datos es diferente para los dos tiempos. Un caso que es
cubierto por el análisis a continuación es uno donde se selecciona una muestra inicial de n1 ,
una parte de estos responde en el tiempo 2, y se seleccionan unidades adicionales para
obtener una muestra total de n2 para el tiempo 2. Tomando el caso de muestreo aleatorio simple
muestreo, la diferencia de medias se puede escribir como

ˆ¯ ˆ¯ Una Una

= xi yo .
d = xˆ¯ ÿ y
ÿ

xi - yi +
n1 n2 n1 n2
s1 s2 s12

La varianza se puede expresar como

ˆ¯
ÿ2X ÿ2 n12
V re = + y
ÿ 2ÿxy
, (4.12)
n1 n2 n1n2

donde n12 es el número de unidades en s12. Escribiendo n12 = ÿn1 y r = n1/n2,


ˆ¯
la varianza se convierte en V d = Una

ÿ2X + rÿ2 ÿ 2ÿrÿxy . Para una prueba unilateral de


n1 y
ˆ¯
dy
H0 : ÿD = 0 contra HA : ÿD = ÿ, igualamos zÿ a z1ÿÿ ÿ ÿ ! V
resolver para el tamaño de la muestra n1 para dar

Una

2 .
n1 = ÿ2X + rÿ2 (4.13)
ÿ2 y ÿ 2ÿrÿÿxÿy (z1ÿÿ ÿ zÿ)

Usando la simplificación de que ÿ2 = ÿ2 X


ÿ ÿ2 0, la varianza se puede reescribir como
ˆ¯ y
re = ÿ20
V [1 + r (1 ÿ 2ÿÿ)]. El tamaño de la muestra n1 se convierte en
n1

ÿ20 2 .
n1 = [1 + r (1 ÿ 2ÿÿ)] (z1ÿÿ ÿ zÿ) (4.14)
ÿ2

Si las muestras son independientes, entonces ÿ = 0 y la fórmula se reduce a

ÿ20 2 .
n1 = (1 + r) (z1ÿÿ ÿ zÿ) (4.15)
ÿ2

Tenga en cuenta que si n1 = n2, entonces r = 1 y (4.15) igual a (4.11) porque ÿ2 d en (4.11)
es igual a 2ÿ2
0. Dados los valores de r, ÿ y ÿ, se puede encontrar el tamaño de la muestra en el tiempo 1
Machine Translated by Google

108 4 Cálculos de potencia y determinación del tamaño de la muestra

vía (4.14) y, a su vez, n2 resuelto como n2 = n1/r. Para el caso más general,
si las estimaciones de las varianzas y covarianzas unitarias o, de manera equivalente, la unidad
correlación, están disponibles, entonces se puede usar (4.13) . La función R nDep2sam
insecto. 4.4 calculará los tamaños de muestra n1 y n2 con base en (4.13).

4.3.2 Diferencias en proporciones

La prueba de la diferencia de dos proporciones es similar a la de la diferencia de medias de


dos variables cuantitativas. Sin embargo, dado que la varianza en una distribución de Bernoulli
es una función de la media, el estadístico de prueba
está especializado para dar cuenta de esto. Supongamos que queremos probar la hipótesis
H0 : P1 = P2 donde Pk es la proporción de población en el dominio k. Asumir
que se seleccionan srs independientes de cada dominio, las proporciones estimadas son p1 y
p2, y que los tamaños de muestra en los dos dominios son n1 y
n2. Si la hipótesis nula es verdadera de modo que cada proporción de la población es igual
al mismo valor P¯, entonces la varianza de la diferencia es

Una Una

V ( pag1 - pag2 ) = PAG¯ 1 - PAG¯ + .


n1 n2

El estadístico de prueba es entonces

p1 ÿ p2
tÿp = , (4.16)
v (p1 - p2)

+ con ¯p = n1p1+n2p2 siendo el


donde v (p1 ÿ p2)=¯p (1 ÿ p¯)
Una Una

n1 n2 n1+n2
estimación “agrupada” de P¯. En muestras grandes (4.16) es aproximadamente normalmente
distribuida, lo que nos permite aproximar la potencia en diferentes alternativas y calcular
tamaños de muestra.
Como la varianza de las proporciones estimadas depende de sus medias,
la aritmética necesaria para obtener una fórmula de potencia es un poco diferente de la
solía llegar a (4.10). Para simplificar las cosas, cubrimos solo el caso de la
mismo tamaño de muestra n en cada grupo. Si la hipótesis nula de igualdad de proporciones
es verdadera, entonces v (p1 ÿ p2) = 2¯p (1 ÿ p¯) /n. Pero, si HA : P2 = P1 + ÿ es
correcto, la varianza estimada de p1 ÿ p2 no depende de un ¯p combinado
pero en cambio es (p1q1 + p2q2) /n. Esta es una estimación de la varianza teórica (P1Q1 +
P2Q2) /n. El poder de esta prueba para una alternativa unilateral
HA : P2 = P1 + ÿ es entonces
Machine Translated by Google

4.3 Pruebas de dos muestras 109

Pr (tÿp > z1ÿÿ |P2 ÿ P1 = ÿ )

= Pr p1 ÿ p2 > z1ÿÿ 2¯p (1 ÿ p¯) /n P2 ÿ P1 = ÿ

. p1 ÿ p2 d
= PR ÿ

>
(P1Q1 + P2Q2) /n (P1Q1 + P2Q2) /n

z1ÿÿ 2P¯ 1 ÿ P¯ /n ÿ ÿ
ÿ
P2 ÿ P1 = d
(P1Q1 + P2Q2) /n
ÿ

z1ÿÿ 2P¯ 1 ÿ P¯ /n ÿ ÿ
= PR ÿ ÿ
(4.17)
(P1Q1 + P2Q2) /n
ÿZ > ÿ.

La potencia para una prueba bilateral se calcula de manera similar a (4.6) y (4.7)
comenzando con Pr (|tÿp| > z1ÿÿ |P2 ÿ P1 = ÿ ) y siguiendo los pasos de (4.17). La
distribución de tÿp no se puede aproximar como una distribución t que requiere datos
de entrada normalmente distribuidos. Por lo tanto, solo se utiliza la aproximación normal
para evaluar la potencia.
El tamaño de muestra en cada grupo necesario para detectar una diferencia de ÿ se
encuentra igualando el lado derecho de la desigualdad en la última línea de (4.17) a zÿ
y resolviendo para n para dar
2
z1ÿÿÿ1 ÿ zÿÿ2 ÿ
norte = , (4.18)

donde ÿ1 = 2P¯ 1 ÿ P¯ y ÿ2 = ÿP1Q1 + P2Q2. Se necesitan estimaciones anticipadas


de P1, P2 y P¯ para evaluar (4.18). La función de R power.prop.test en el paquete stats,
descrita en la Secc. 4.4, usa un algoritmo de búsqueda para resolver n que dará una
respuesta similar a (4.18).
Cuando las muestras se superponen, los cálculos similares a los de la diferencia de
medias en la Secc. 4.3.1 se puede hacer. Suponga que las variables X e Y son iguales
a 1 con probabilidades Px y Py y que XY es igual a 1 con probabilidad Pxy. El evento,
XY = 1, podría corresponder a una unidad que tiene alguna característica en los tiempos
1 y 2. La distribución condicional de Y dada X es Py|x = Pxy/Py; Px|y se define de
manera similar. El evento de que Y = 1 dado que X = 0 podría significar que una unidad
tenía una característica en el tiempo 2 dado que no la tenía en el tiempo 1. Con estas
definiciones, ÿ2 = Px (1 ÿ Px), ÿ2 = Py (1 ÿ Py), ÿxy
X = Pxy ÿ PxPy, y y

ÿ = ( Pxy ÿ PxPy) [Px (1 ÿ Px) Py (1 ÿ Py)]1/2 .

Cuando los tamaños de muestra en los dos grupos son n1 y n2, n1 se encuentra
usando (4.13). En este caso, se requieren estimaciones (o conjeturas fundamentadas) para la
Machine Translated by Google

110 4 Cálculos de potencia y determinación del tamaño de la muestra

proporciones en los dos periodos de tiempo, Px y Py, y la proporción, Pxy, que conserva
la característica desde el primer tiempo hasta el segundo.
En la Secc. 4.4. Hay dos restricciones en Pxy que se implementan en la función.
Primero, dado que Pxy = Py|x Px ÿ Px y Pxy = Px|y Py ÿ Py, debe ser cierto que Pxy ÿ min
(Px, Py). En segundo lugar, dado que la correlación debe estar en [ÿ1, 1], debemos tener
PxPy ÿ ÿ ÿ Pxy ÿ PxPy + ÿ donde ÿ = [Px (1 ÿ Px) Py (1 ÿ Py)]1/2 .

Transformación de raíz cuadrada de arcoseno

Cuando una característica es extremadamente rara o muy prevalente, la aproximación


normal para (4.16) puede ser pobre. Una regla general es que np y n (1 ÿ p) deben ser al
menos 5 para usar la aproximación normal. Hay varias correcciones que se pueden usar
para muestras pequeñas y características raras (o muy frecuentes). Es posible realizar
cálculos exactos usando la distribución binomial (Korn 1986), pero incluso ellos tienen
algunas anomalías peculiares (Brown et al. 2001). El método de Wilson, que fue uno de
los arreglos utilizados en el cap. 3 para calcular tamaños de muestra para proporciones,
no parece ser adecuado para cálculos de potencia y tamaño de muestra de dos muestras.

Otro método consiste en utilizar una transformación estabilizadora de la varianza para


eliminar la dependencia de la varianza de una proporción estimada de la proporción
misma. Para p la transformación es la raíz cuadrada arcoseno definida como

ÿ = arcosen ÿp

donde arcoseno es la función seno inversa. La varianza de ÿ es de aproximadamente 1/4n


radianes. Un radián es una unidad de ángulo, por ejemplo, un círculo contiene 2ÿ radianes
y un ángulo recto tiene ÿ/2. Usando esta transformada, una prueba de H0 : P1 = P2 para
muestras independientes se basa en

ÿ1 ÿ ÿ2
tÿ = = ÿ 2n (ÿ1 ÿ ÿ2). (4.19)
V (ÿ1 ÿ ÿ2)

Esto usa la aproximación V (ÿ1 ÿ ÿ2) . = 1/4n + 1/4n


= 1/2n para muestras independientes.
Si HA : P2 = P1 + ÿ es correcto, defina ÿÿ = arcsen ÿP1 ÿ arcsen ÿP1 + ÿ. Entonces, la
potencia de una prueba unilateral es

Pr (tÿ > z1ÿÿ |P1 ÿ P2 = ÿ ) (4.20)

ÿÿ ÿÿ
= Pr tÿ ÿ > z1ÿÿ ÿ P1 ÿ P2 = d
V (ÿ1 ÿ ÿ2) V (ÿ1 ÿ ÿ2)
.
= Pr Z>z1ÿÿ ÿ ÿÿ ÿ 2n .
Machine Translated by Google

4.3 Pruebas de dos muestras 111

(Tenga en cuenta que V (ÿ1 ÿ ÿ2) es el mismo bajo H0 y HA , ya que la raíz cuadrada del arcoseno es la transformación
estabilizadora de la varianza en ambos casos). Establecer z1ÿÿÿÿÿ ÿ2n igual a zÿ conduce a la fórmula del tamaño de la
muestra

2
z1ÿÿ ÿ zÿ
norte = . (4.21)
ÿ2ÿÿ

Al igual que con la expresión (4.11), este es el tamaño de muestra requerido para cada dominio.
Para una prueba bilateral de H0 : P1 = P2 versus HA : P2 = P1 ± ÿ, cálculos

como los de (4.8) y (4.9) dan un tamaño de muestra en cada grupo de

2
z1ÿÿ/2 ÿ zÿ
norte = . (4.22)
ÿ2ÿÿ

Al igual que cuando se comparan las medias, se necesita una muestra más grande para que la prueba bilateral tenga la
misma potencia para detectar HA : P2 = P1 ± ÿ que la prueba unilateral para detectar HA : P2 = P1 + ÿ.

Transformación de probabilidades logarítmicas

La transformación log-odds es otra opción que puede ser útil para una característica rara o muy prevalente. En este
caso, defina

pags

ÿ = registro .
1 - pag

ÿ1
La varianza aproximada de ÿ bajo H0 : P1 = P2 es nP¯Q¯ donde P¯ es el valor común bajo H0 y Q¯ = 1 ÿ P¯. Las varianzas
de las diferencias en las transformaciones log-odds para dos muestras independientes son

2 Una

V (ÿ1 ÿ ÿ2) = bajo H0 y


norte
P¯Q¯

Una Una Una

V (ÿ1 ÿ ÿ2) = + bajo HA,


norte
P1Q1 P2Q2

suponiendo que los tamaños de muestra son los mismos en ambos grupos. El estadístico t tiene la misma forma que la

transformación arcoseno, tÿ = (ÿ1 ÿ ÿ2) V (ÿ1 ÿ ÿ2). Usando los mismos pasos que llevaron a (4.17), la potencia contra

la alternativa HA : P2 = P1 + ÿ es
Machine Translated by Google

112 4 Cálculos de potencia y determinación del tamaño de la muestra

ÿ1
ÿ z1ÿÿ 2 nP¯ 1 ÿ P¯ ÿ ÿÿ ÿ
Pr (tÿ > z1ÿÿ |P2 ÿ P1 = ÿ ) . = PR ,
ÿ1 ÿ1
nÿ1 (P1Q1) + (P2Q2)
ÿÿÿZ > ÿÿÿ

donde ÿÿ = log (P1/Q1) ÿ log (P2/Q2). Establecer el término en el lado derecho de


la desigualdad en zÿ y resolver para n da
2
z1ÿÿ ÿ2V0 ÿ zÿ ÿVA
norte = , (4.23)
ÿÿ
ÿ1 ÿ1
donde V0 = P¯ 1 ÿ P¯ + (P2Q2)
y VA = (P1Q1)
prueba de H0 : P1 = P2 ÿ1 . Para dos caras
versus HA : P2 = P1 ± ÿ, cálculos como los de (4.8) y (4.9) dan un tamaño de
muestra en cada grupo de
2
z1ÿÿ/2 ÿ2V0 ÿ zÿ ÿVA .
norte = (4.24)
ÿÿ

En la Secc. 4.4.

4.3.3 Caso especial: riesgo relativo

Los epidemiólogos y los analistas de salud pública a menudo prefieren el riesgo


relativo, R = P1/P2, para comparar dos grupos en lugar de la diferencia de proporciones.
Un valor de R mucho mayor que 1,0 podría significar que un grupo tiene una mayor
prevalencia de alguna enfermedad. La diferencia de proporciones se puede escribir
en términos del riesgo relativo como

P1 - P2 = P2 (R - 1).

En consecuencia, si se desea un tamaño de muestra para detectar un riesgo relativo de


Rÿ, esto corresponde a detectar una diferencia de ÿ = P2 (Rÿ ÿ 1). Con este valor de ÿ,
se puede usar (4.18) para calcular el tamaño de la muestra para cada grupo.
Observe que el método anterior es diferente de comenzar con un estadístico
de prueba basado en Rˆ = p1/p2 para probar la hipótesis H0 : R = 1. En ese caso,
se necesitaría una varianza aproximada en el denominador del estadístico de prueba

t = Rˆ - 1 ! v Rˆ . Debido al vínculo directo entre la diferencia


en proporciones y el riesgo relativo, se puede calcular un tamaño de muestra a partir
de (4.18) que será adecuado independientemente del método de comparación que
prefiera.
Machine Translated by Google

4.4 Funciones de potencia R 113

4.3.4 Caso especial: tamaños del efecto

Un tamaño del efecto generalmente se define como una medida de la diferencia estandarizada
entre dos valores de población. Cuando la diferencia es entre medias, una definición del tamaño
del efecto de la población es ÿE = (ÿx ÿ ÿy) /ÿ donde las ÿ son las medias en dos grupos y ÿ es
la desviación estándar unitaria común.
Esta es una medida habitual en el metanálisis y también se utiliza en la investigación educativa.
Una estimación de ÿE cuando se seleccionan muestras aleatorias simples de cada grupo es

x¯1 ÿ x¯2
ˆÿE = . (4.25)
s

En (4.25), ¯x1 y ¯x2 son las medias muestrales de cada uno de los dos grupos y s es la
desviación estándar combinada

(n1 ÿ 1) s2 + (n2 ÿ 1) s2 n1 +2
s= Una

n2 ÿ 2

donde s2 y s2 2 sonlas varianzas muestrales específicas del grupo. La forma en (4.25) se conoce
Una

como g de Hedge (Hedges y Olkin 1985). La idea general del tamaño del efecto se debe a
Cohen (1988). Si se utilizó el mismo tamaño de muestra en cada grupo y los grupos son
independientes, entonces los métodos de la Secc. 4.3.1 se puede utilizar. En particular, si
queremos detectar un tamaño del efecto de ÿÿ MI, Esto corresponde a
una diferencia de medias de ÿ = ÿÿ Eÿ. La expresión (4.11) se aplica para calcular el tamaño de
la muestra en cada grupo con ÿ2 = 2ÿ2. La desviación
d estándar de la unidad
ÿ podría estimarse mediante la estimación agrupada anterior si se dispone de muestras
anteriores o mediante la raíz cuadrada de la varianza de la muestra si se dispone de datos de
una sola muestra.

4.4 Funciones de potencia R

La función power.t.test, incluida en la biblioteca de estadísticas, calculará la potencia o el


tamaño de la muestra para un conjunto determinado de entradas. La forma de la llamada a la
función es

power.t.test(n = NULL, delta = NULL, sd = 1, sig.level = 0.05, power = NULL, type = c("dos.muestra",
"una.muestra", "emparejado"), alternativa = c("dos.lados", "un.lado"), estricto = FALSO)

Desde el archivo de ayuda de R:

Exactamente uno de los parámetros n, delta, power, sd y sig.level se debe pasar como NULL, y ese
parámetro se determina a partir de los demás. Tenga en cuenta que sd y sig.level tienen valores
predeterminados que no son NULL, por lo que se debe pasar NULL explícitamente si desea calcularlos.
Machine Translated by Google

114 4 Cálculos de potencia y determinación del tamaño de la muestra

Los argumentos son:


norte
Número de observaciones (por grupo)
delta Verdadera diferencia en las medias (es decir, deseada detectable
diferencia)
Dakota del Sur Desviación Estándar
ÿy para una prueba de una muestra
ÿx (o ÿy asumiendo que los dos son iguales) para una prueba de dos

muestras (más generalmente, ÿ2 d/2)


ÿxÿy, es decir, sd de diferencias dentro de pares para un
prueba emparejada

nivel de sig Nivel de significación (probabilidad de error tipo I)


energía Potencia de la prueba (1 menos probabilidad de error de tipo II)
escribe Tipo de prueba t (dos muestras, una muestra, emparejada)
el valor predeterminado es dos muestras

prueba alternativa de uno o dos lados


estricto Use interpretación estricta en caso de dos caras. Si
estricto = VERDADERO se usa, la potencia incluirá
la probabilidad de rechazo en la dirección opuesta del efecto verdadero,
en el caso de dos caras. Sin esto, el poder será la mitad del nivel de
significación.
si la verdadera diferencia es cero
Los cálculos en power.t.test se basan en una distribución t no central
en lugar de la aproximación normal.
La función power.prop.test (biblioteca de estadísticas) calculará la potencia
o tamaño de la muestra en una prueba de la diferencia de proporciones para un conjunto dado de
entradas. Los cálculos se basan en la aproximación normal; sin distribución t
los cálculos son apropiados para este caso. La forma de la llamada a la función es

power.prop.test(n = NULL, p1 = NULL, p2 = NULL,


sig.level = 0.05, potencia = NULL,
alternativa = c("dos.lados", "un.lado"),
estricto = FALSO)

Desde el archivo de ayuda de R:

Exactamente uno de los parámetros n, p1, p2, power y sig.level debe ser
pasa como NULL y ese parámetro se determina a partir de los demás. Darse cuenta de
sig.level tiene un valor predeterminado que no es NULL, por lo que se debe pasar NULL explícitamente si
quiere que se calcule.

Los argumentos son:


norte
Número de observaciones (por grupo)
p1, p2 Probabilidad en los grupos 1 y 2, respectivamente

sig.level Nivel de significación (Error tipo I probabil


idad)
Machine Translated by Google

4.4 Funciones de potencia R 115

energía Potencia de la prueba (1 menos probabilidad


de error tipo II) alternativa Prueba unilateral o
bilateral estricta
Usar interpretación estricta en dos colas
caso
Muchos otros paquetes de software realizarán cálculos de potencia de diferentes tipos.
SAS, por ejemplo, tiene los procedimientos POWER y GLMPOWER. Stata tiene sampsi y
varias funciones escritas por el usuario para glm y otras aplicaciones especializadas.
También hay bastantes paquetes independientes que no hacen más que cálculos de
potencia (p. ej., nQuery Advisor R PASS R Power y Precision R )., ,

Ejemplo 4.4 (Continuación del Ejemplo 4.1). En ese ejemplo, estábamos probando la
hipótesis H0 : ÿ = $55 000 y queríamos el poder de detectar que la media era realmente
$60 000 para una prueba unilateral de 0,05 niveles. Se especificó que el CV de la media
estimada era 0,06, por lo que el error estándar era 3300.
El código R para hacer esto y su salida son

power.t.test( n =
1000, power
= NULL, delta =
5000, sd =
3300*sqrt(1000), # resulta en sd/sqrt(n) = 3300 type = "one.sample", alt = "one .lado",
nivel de sig. = 0.05 )

La salida de esta llamada de función es

Cálculo de potencia de prueba t de una muestra

n = 1000
delta = 5000
sd = 104355.2
sig.level = 0.05 potencia
= 0.4479952 alternativa =
unilateral

Esto reproduce la potencia de 0.448 del ejemplo 4.1. Esta llamada de función usa un
pequeño truco para obtener power.t.test para calcular lo que queremos. Cuando la función
calcula sd/sqrt(n), el resultado es 3300*sqrt(1000)/sqrt(1000) = 3300, que es el error
estándar de la media estimada. Usar 1,000 no es crítico; algún otro tamaño de muestra
artificial grande habría arrojado la misma potencia. (Observe que 3, 300ÿ1,000 = 104,
355.2 no es la desviación estándar de la unidad en la población).

Ejemplo 4.5 (Continuación del Ejemplo 4.2). En ese ejemplo, queríamos una potencia del
80 % para una prueba unilateral para detectar una diferencia de $5 000 cuando ˆÿ = 74
000. El código R y la salida para calcular el tamaño de la muestra (excluyendo un ajuste
del efecto del diseño) es
Machine Translated by Google

116 4 Cálculos de potencia y determinación del tamaño de la muestra

power.t.test(n = NULL, power = 0.8, delta


= 5000, sd = 74000, type =
"one.sample", alt = "one.side",
sig.level = 0.05

La salida de esta llamada de función es

Cálculo de potencia de prueba t de una muestra

n = 1355.581
delta = 5000 sd =
74000 nivel sig =
0,05 potencia = 0,8 alternativa
= unilateral

El tamaño de la muestra resultante es aproximadamente el mismo que se encontró


anteriormente. Hay una pequeña diferencia debido al uso de la t no central en power.t.test.

Ejemplo 4.6 (Prueba de medias de dos muestras). Suponga que tenemos dos dominios
(masculino y femenino) y queremos tener muestras de igual tamaño de hombres y mujeres
que sean lo suficientemente grandes para detectar una diferencia en los pesos medios de 5
kg (es decir, ÿM = ÿF + 5) con una potencia de 0,80. Estimamos que ÿ2 =Por ÿ2 lo
=F tanto,
200
entrada
y ÿ2
sd =
en
de
400.
METRO
la
power.t.test
= 1,645. es ÿ2 una
Para d / 2potencia
= 400/2 =
deÿ 0,80,
200. Si se realiza
usamos z0,20una prueba=de
= ÿz0,80 nivel. 0.05
ÿ0,84 unilateral,
El tamaño de z0,95
d
muestra requerido de (4.11) es entonces (tratando 400 como si fuera la varianza verdadera ÿ2
d)

400 (1,645 + 0,84)2 52 .


norte = = 99.

Por otro lado, si quisiéramos una potencia de 0.90, entonces z0.90 = 1.282 y la muestra sería
137. Los mismos cálculos se pueden hacer en R de la siguiente manera:

power.t.test(power = 0.8, delta = 5, sd =


sqrt(200), type = "two.sample", alt =
"one.side", sig.level = 0.05 )

La salida de esta llamada de función es

Cálculo de potencia de prueba t de dos muestras

n = 99,60428
delta = 5
sd = 14,14214
nivel sig. = 0.05
Machine Translated by Google

4.4 Funciones de potencia R 117

potencia = 0.8
alternativa = unilateral

NOTA: n es el número en *cada* grupo

Para una potencia de 0,90, la llamada y la salida de la función son

power.t.test(power = 0.9, delta = 5, sd =


sqrt(200), type = "two.sample", alt
= "one.side", sig.level = 0.05 )

Cálculo de potencia de prueba t de dos muestras

n = 137,7033
delta = 5 sd =
14.14214
sig.level = 0.05 potencia = 0.9
alternativa = unilateral

NOTA: n es el número en *cada* grupo

R no tiene una función integrada para evaluar los tamaños de muestra en el


caso de dos muestras con muestras parcialmente superpuestas. Pero la función
nDep2sam que se desarrolló para el libro y se muestra en el Apéndice C maneja este caso.
Los nombres de los parámetros son S2x, S2y, g, r, rho, alt, del, sig.level y
pow y están diseñados para coincidir con los necesarios para evaluar (4.13).
Los parámetros, sig.level y pow, tienen valores por defecto de 0,05 y 0,80.

Ejemplo 4.7 (Prueba de dos muestras sobre medias con muestras superpuestas).
Le gustaría seleccionar una muestra de mujeres que son empleadas de una gran
empresa que también participan en un programa semanal de yoga. Al principio y
al final del año se pesará a las mujeres. Determine una muestra que permita
detectar una diferencia de 5 kg en el peso promedio con una potencia del 80 %.
Suponga que el 25 % de las personas de la muestra inicial abandonará el
programa a finales de año y que no se puede medir su peso. Además, suponga
que se tomarían muestras de mujeres adicionales al final del año para compensar
a las que abandonaron, pero que los pesos de estas mujeres al comienzo del
año no están disponibles. Estas mujeres adicionales pueden o no haber
participado en las clases de yoga durante todo el año. Por tanto, n1 = n2, r = 1 y
ÿ = 0,75 en (4.13). Como en el ejemplo 4.6, suponga
F períodos
que ÿ2de
= 200
tiempo.
en ambos
Supongamos también que la correlación entre los pesos al principio y al final
del año es de 0,9. La llamada a nDep2sam y su salida son
Machine Translated by Google

118 4 Cálculos de potencia y determinación del tamaño de la muestra

nDep2sam(S2x=200, S2y=200, g=0,75,


r=1, rho=0,9, alt="una cara",
del=5, sig.level=0,05, pow=0,80)

Comparación de medias de dos muestras


Cálculo del tamaño de la muestra para muestras superpuestas

n1 = 33
n2 = 33
S2x.S2y = 200, 200 delta = 5

gamma = 0,75 r=1

rho = 0.9 alt =


unilateral
nivel sig. = 0.05 potencia
= 0.8

Es decir, se debe seleccionar una muestra de 33 a principios de año. Por otro lado, si
quisiéramos detectar una diferencia de peso de 5 kg en cualquier dirección (pérdida o
ganancia), entonces calculamos
nDep2sam(S2x=200, S2y=200, g=0,75, r=1, rho=0,9,
alt="dos.lados", del=5, sig.level=0.05, pow=0.80)

resultando en la salida
Comparación de medias de dos muestras
Cálculo del tamaño de la muestra para muestras superpuestas

n1 = 41
n2 = 41
S2x.S2y = 200, 200 delta = 5

gamma = 0,75 r=1

rho = 0.9 alt =


dos caras
nivel sig. = 0.05 potencia
= 0.8

Tenga en cuenta que implícitamente estimamos la diferencia en los medios utilizando todas
las personas disponibles en cada período de tiempo. Una alternativa sería utilizar sólo a las
mujeres que permanecieron en el programa. Este sería el enfoque correcto si el objetivo fuera
estimar el efecto sobre el peso de participar en las clases semanales de yoga durante un año.
En ese caso, nDep2sam podría usarse para calcular un tamaño de muestra suponiendo una
superposición completa. La llamada para una prueba unilateral sería
nDep2sam(S2x=200, S2y=200, g=1, r=1, rho= 0.9, alt="una cara",
del=5, nivel sig.=0.05, pow=0.80)

lo que da como resultado n1 = 10. Al ajustar esto para la tasa de deserción del 25 %, se
obtiene alrededor de 14. Aunque esto es mucho más pequeño que el 33 calculado anteriormente, el
Machine Translated by Google

4.4 Funciones de potencia R 119

El resultado es perfectamente razonable cuando examinamos la varianza de la


diferencia de medias en los dos escenarios. Como se señaló en el desarrollo que
condujo
ˆ¯
a (4.13), la fórmula general para la varianza de la diferencia de medias es
re = ÿ2 + rÿ2 V ÿ 2ÿrÿxy . Cuando sólo se utilizan los casos superpuestos,
Una

n1 X y
ˆ¯
la varianza es V d = 2ÿ2 [1 ÿ ÿ] /n1 que se evalúa como 40/n1 en el Ejemplo
X

4.7. Utilizando todos los casos disponibles en cada período de tiempo, la varianza de la
diferencia es 130/n1, que es 3,25 veces mayor que 40/n1. Esto es, a su vez,
aproximadamente igual a la proporción de los tamaños de muestra, 33/10, que acabamos de calcular.
Por supuesto, también existe la importante diferencia conceptual en lo que se
estima cuando usamos solo casos coincidentes en comparación con todos los casos.
Para el primero, se puede argumentar que la diferencia en las medias de los casos
emparejados estima el efecto del programa de ejercicios sobre el peso. En este último,
la diferencia de medias se ve afectada por la posibilidad de que algunas mujeres no
hayan participado en todo el año.

Ejemplo 4.8 (Prueba de dos muestras sobre proporciones con muestras independientes).
Una de las preguntas estándar en las encuestas del personal militar del Centro de Datos
de Mano de Obra de Defensa es:

Tomando todas las cosas en consideración, ¿qué tan satisfecho está usted, en general, con cada uno de
los siguientes aspectos de estar en la (rama de servicio aquí, por ejemplo, Guardia Nacional/Reserva)?

A continuación se incluye una lista en el cuestionario, que incluye compensación,


oportunidades de promoción, tipo de trabajo y otras características de la vida militar.
Una de las opciones es "Su compensación total (es decir, salario base, asignaciones
y bonificaciones)". Supongamos que nos gustaría comparar las proporciones del
personal del Ejército y la Marina que dicen estar “muy insatisfechos” o “inconformes”
con la compensación total. Si los porcentajes son 15 % de personal del Ejército y 18
% de Infantería de Marina, nos gustaría poder detectar esto con un 80 % de potencia.
Para una prueba unilateral, las declaraciones R y la salida son:

power.prop.test(power = 0.8, p1 = 0.15, p2 =


0.18, alt = "unilateral", sig.level = 0.05 )

Comparación de dos muestras de cálculo de potencia de proporciones

n = 1891.846
p1 = 0,15 p2 =
0,18 nivel sig.
= 0,05 potencia = 0,8
Machine Translated by Google

120 4 Cálculos de potencia y determinación del tamaño de la muestra

alternativa = unilateral

NOTA: n es el número en *cada* grupo

Por lo tanto, se necesitaría una muestra de alrededor de n = 1, 900 en cada uno de los dos
servicios en estudio. Si ya se han seleccionado muestras de 1000 de cada servicio y los
porcentajes observados son 15 y 18, entonces el poder de detección de una diferencia de
3 puntos porcentuales es solo 0,56, como se muestra aquí:

power.prop.test(n = 1000, p1 = 0.15, p2


= 0.18, alt = "unilateral",
sig.level = 0.05 )

Comparación de dos muestras de cálculo de potencia de proporciones

n = 1000 p1
= 0,15 p2 =
0,18 nivel sig
= 0,05 potencia = 0,56456
alternativa = unilateral

NOTA: n es el número en *cada* grupo

Ejemplo 4.9 (Efecto del tamaño de las proporciones). Tenga en cuenta que la potencia se
ve afectada por el tamaño de las propias proporciones porque la estimación combinada de
la varianza depende de la p combinada, como se muestra en (4.16). Si los porcentajes del
ejemplo 4.8 son 50 para el ejército y 53 para los infantes de marina, la potencia para
detectar una diferencia real de 3 puntos porcentuales es 0,38 en lugar del 0,56 anterior.

power.prop.test(n = 1000, p1 = 0.50, p2


= 0.53, alt = "unilateral",
sig.level = 0.05 )

Comparación de dos muestras de cálculo de potencia de proporciones

n = 1000
p1 = 0.5 p2
= 0.53 nivel
sig. = 0.05 potencia =
0.3810421 alternativa =
unilateral

NOTA: n es el número en *cada* grupo


Machine Translated by Google

4.4 Funciones de potencia R 121

No hay una función R incorporada para calcular el tamaño de la muestra para un


prueba en la diferencia de proporciones cuando las muestras se superponen. La función,
nProp2sam, en el Apéndice C evaluará (4.13) para proporciones. La llamada
los parámetros son:
píxeles Probabilidad en un grupo
py Probabilidad en otros grupos
pxy Probabilidad de que una unidad en la superposición tenga la
característica en ambas muestras
gramo ÿ en la relación n12 = ÿn1
r Relación de tamaños de muestra de grupo, r = n1/n2
alternativa
Hipótesis alternativa: “unilateral” o “bilateral”
nivel de sig Nivel de significación (probabilidad de error tipo I)
pow Potencia de la prueba (1 menos probabilidad de error de tipo II)

La función devuelve un vector con n1 y n2 en las dos primeras posiciones y


otra información de parámetro de llamada. Como se indica en la Secc. 4.3.2, la función
comprueba las restricciones que deben satisfacerse sobre la probabilidad Pxy de tener
la característica en ambos periodos de tiempo.

Ejemplo 4.10 (Diferencia de proporciones con muestras superpuestas). Tomar


un ejemplo concreto, supongamos que se va a realizar una medición de referencia de
la proporción de votantes registrados que planean votar por el titular en el
próximas elecciones, dentro de seis meses. Se solicita una muestra de seguimiento de votantes
tres meses después por quien planean votar. Supongamos que el avance
Las estimaciones de las proporciones de votantes que votarán por el titular son
px = 0,5 y py = 0,55. La proporción que dice en ambas ocasiones que lo hará
el voto por el titular se estima en pxy = 0,45. Anticipas seleccionar
el mismo tamaño de muestra en cada período de tiempo, pero que sólo la mitad de la línea de base
muestra responderá a la segunda encuesta. Para una prueba de nivel 0.05 de dos caras que
detectará la diferencia de ÿ = 0.05 con potencia de 0.80, la llamada a la función y
salida son

nProp2sam(px=0,5, py=0,55, pxy=0,45, g=0,5,


r=1, alt="dos.lados")

Comparación de proporciones de dos muestras


Cálculo del tamaño de la muestra para muestras superpuestas

n1 = 1013
n2 = 1013
px.py.pxy = 0,50, 0,55, 0,45
gama = 0.5
r=1
alt = dos caras
nivel sig. = 0.05
potencia = 0.8

En cada muestra se necesitarán un total de 1.013 personas.


Machine Translated by Google

122 4 Cálculos de potencia y determinación del tamaño de la muestra

Ejemplo 4.11 (Prueba de dos muestras sobre proporciones con las transformaciones arcoseno
y log-odds). Repetiremos el Ejemplo 4.8 donde los porcentajes son 15 % para el personal del
Ejército y 18 % para la Infantería de Marina, y nos gustaría poder detectar esto con un 80 %
de potencia. No hay una función R incorporada para hacer esto, pero el siguiente código
evaluará (4.21) para una prueba unilateral.

p1 <- 0,15 p2 <-


0,18 alfa <- 0,05
potencia <- 0,80

phi1 <- asin(sqrt(p1)) phi2 <-


asin(sqrt(p2)) d.phi <- phi1 - phi2 n
<- ((qnorm(1-alfa) - qnorm(1-
potencia)) / sqrt( 2) / d.phi)ˆ2
norte

Salida del programa:


[1] 1889.337

El siguiente código usa la transformación log-odds para calcular el tamaño de la muestra:

p1 <- 0,15 p2 <-


0,18 alfa <- 0,05
potencia <- 0,80

phi1 <- log(p1/(1-p1)) phi2 <- log(p2/


(1-p2)) d.phi <- phi1 - phi2 p.bar <-
media(c(p1,p2))

V0 <- 1/p.bar/(1-p.bar)
AV <- 1/p1/(1-p1) + 1/p2/(1-p2)

n <- ( (qnorm(1-alpha)*sqrt(2*V0) - qnorm(1-power)*sqrt(VA)) / d.phi)ˆ2

norte

Salida del programa:


[1] 1888.571

Tanto las transformaciones de arcseno como log-odds dan prácticamente la misma respuesta.
Ambos están muy cerca del valor de alrededor de 1892 calculado en el ejemplo 4.8.

4.5 Cálculos de potencia y tamaño de muestra en SAS

SAS tiene el procedimiento, power, que hará cálculos de una y dos muestras. Repetimos
algunos de los ejemplos anteriores para proporcionar comparaciones con las funciones de R.
Machine Translated by Google

4.5 Cálculos de potencia y tamaño de muestra en SAS 123

Ejemplo 4.12 (Continuación del Ejemplo 4.5). El código SAS para hacer este cálculo de
muestra es

poder de proceso;
una muestra significa
media = 60000
total = .
desviación estándar = 74000
lados = 1
media nula = 55000
potencia = 0,80;
correr;

Los parámetros deben explicarse por sí mismos después de referirse al ejemplo anterior. Al
especificar ntotal = le pedimos a SAS.,que calcule el tamaño de muestra necesario
para 0,80 de potencia. Los resultados se muestran a continuación; el tamaño total de la muestra de 1356 es aproximadamente
lo mismo de antes.

El procedimiento de PODER

Prueba t de una muestra para la media

Elementos fijos del escenario

Distribución Normal
Método Exacto
Número de lados Una

Media nula 55000


Significar 60000
Desviación Estándar 74000
Potencia nominal 0.8
Alfa 0.05

N total calculado

Actual norte

Energía Total

0.800 1356

Ejemplo 4.13 (Continuación del Ejemplo 4.8). Prueba de proporciones para dos muestras:
en este ejemplo, queremos encontrar el tamaño de muestra necesario para obtener el 80 %
potencia para detectar una diferencia de 0,03 entre dos proporciones. El código SAS para
hacer este cálculo de dos muestras se muestra a continuación. La opción prueba = pchi
da como resultado que se utilice la aproximación normal, como se describe en la Secc. 4.3.2.
A diferencia de R power.prop.test, no especificamos cada una de las proporciones,
0,15 y 0,18. SAS requiere las dos opciones refproporción = 0.15 y
proporcionaldiff = 0.03 para hacer lo mismo.
Machine Translated by Google

124 4 Cálculos de potencia y determinación del tamaño de la muestra

poder de proceso;
frecuencia de dos muestras
prueba = pchi
refproporción = 0.15
diferencia de proporción = 0.03
lados = 1
potencia = 0,80
npergrupo = .
;
correr;

El resultado del tamaño de muestra por grupo es n = 1, 892 como en el ejemplo 4.8.

El procedimiento de PODER

Prueba Chi-cuadrado de Pearson para dos proporciones

Elementos fijos del escenario

Distribución Asintótica normal


Método Aproximación normal
Número de lados Una

Referencia (Grupo 1) Proporción 0.15


Diferencia de proporción 0.03
Potencia nominal 0.8
Diferencia de proporción nula 0
Alfa 0.05

N calculado por grupo


Actual N por
Energía Grupo

800 1892
Machine Translated by Google

4.5 Cálculos de potencia y tamaño de muestra en SAS 125

Ejercicios

4.1. El ingreso laboral disponible promedio por trabajador en México en 2002 fue de
aproximadamente $6,100 dólares estadounidenses (USD).3 Suponga que se realizará una
nueva encuesta en 2010 y le gustaría determinar el tamaño de la muestra aleatoria simple que
le permitiría detectar que el promedio ha subido a $7,000. Suponga que la unidad de revarianza
del ingreso en 2002 fue de 2,5 y que será aproximadamente la misma en 2010. Calcule un
tamaño de muestra para una prueba de nivel 0,05 cuando la potencia deseada es 0,80; trate la
media de 2002 como una constante para este problema.

4.2. Considere el ejemplo 4.6 , donde se usaron pruebas unilaterales para determinar los
tamaños de muestra con una potencia del 80 % y 90 % para detectar diferencias en las
estimaciones para hombres y mujeres.

(a) ¿Cómo cambia el tamaño de la muestra si ÿ2 (b)d = 200?


¿Cómo afecta ÿ2 = 800
d Compare
a su cálculo
susanterior?
resultados.
(c)

4.3. Continuando con el Ejercicio 4.2:

(a) ¿Qué diseño de muestra se asume bajo los cálculos? (b) ¿Cómo
cambia su cálculo en 4.2(a) si el diseño de la encuesta da como resultado un efecto de diseño
general de 1,0? ¿Un efecto de diseño de 3.2? (c) ¿Cómo ajustaría los tamaños de muestra
iniciales en 4.2(b) para abordar las tasas de respuesta diferencial por género, digamos una tasa
de respuesta del 75 % para las mujeres y una tasa de respuesta del 60 % para los hombres?

4.4. Su organización ha obtenido un contrato para realizar un estudio de la obesidad en niños


de 6 a 14 años. Los datos sobre hábitos alimentarios y niveles de ejercicio se recopilan a través
de un cuestionario para padres; las mediciones físicas son recopiladas por enfermeras
practicantes capacitadas. Su tarea es determinar los tamaños de las muestras en los siguientes
escenarios con una potencia del 80 % y un nivel de significación de 0,05. (a) El cliente está

interesado en determinar si el IMC promedio para los niños de primer grado (de 6 a 7 años) ha
aumentado en un 1,5 % desde un promedio estimado previamente de 17,5. ¿Cuál es el
tamaño de muestra necesario para detectar esta diferencia dado que la desviación estándar
de la población es 0.70? (b) ¿Cómo cambia el tamaño de la muestra si el cliente está
dispuesto a aceptar poder detectar un aumento del 3,0 %? (c) ¿Cómo cambia el tamaño de la
muestra si el cliente quiere detectar un 0,5 %

¿aumentar?
(d) Comente la diferencia en los cálculos del tamaño de la muestra.

4.5. Vuelva a trabajar en los cálculos del tamaño de la muestra del ejercicio anterior, suponiendo
que el cliente desea detectar un aumento o una disminución en el IMC promedio.

3
http://www.worldsalaries.org/employment-income.shtml
Machine Translated by Google

126 4 Cálculos de potencia y determinación del tamaño de la muestra

4.6. El monto promedio de los ingresos imponibles informados por los contribuyentes a la administración
de ingresos de un país en 2008 fue de 44 000 en la moneda local según una tabulación de todas las
declaraciones de impuestos. Debido a una recesión económica, se especula que el promedio puede
haber disminuido un 10 % en 2010. Suponga que la unidad de variación de la renta imponible en la
población es 3. ¿Qué tamaño de muestra aleatoria simple se necesitaría para detectar una disminución
del 10 % con una potencia de 0.90?
¿Cómo cambiaría tu respuesta si la unidad de revarianza fuera 6?

4.7. Se va a estimar el riesgo relativo de que una persona haya tenido paludismo en los últimos cinco
años para dos aldeas de Liberia. Planea seleccionar una muestra aleatoria simple del mismo tamaño
de cada pueblo. Debido a sus diferentes proximidades a los cuerpos de agua, se sabe que el pueblo B
tiene una tasa de incidencia mayor que el pueblo A.

(a) Anticipa que el pueblo A tendrá una incidencia del 20 % y el pueblo B tendrá una incidencia del 30
%. Le gustaría poder detectar un riesgo relativo de 1,5 con una potencia de 0,90 utilizando una
prueba unilateral. ¿Qué tamaño de muestra se necesita en cada pueblo? Suponga que el nivel de
la prueba es 0,05. (b) Suponga que la potencia deseada para el inciso (a) es 0.8. ¿Qué tamaño de
muestra es
¿requerido?
(c) El año pasado se seleccionaron muestras de 50 en cada pueblo y las tasas de incidencia de 5
años fueron 22 % en el pueblo A y 37 % en el pueblo B. ¿Cuál es el poder para detectar una
diferencia de 15 puntos porcentuales usando un 1- prueba de nivel de 0.10 lados? (d) Calcule un
intervalo de confianza bilateral del 90 % sobre la diferencia en proporción

ciones para la parte (c).

4.8. Se seleccionará una muestra de la población de un condado que tenga 18 años o más. Se medirá
la proporción de personas que están desempleadas.
Tres meses más tarde, la proporción de desempleados se registrará nuevamente en una muestra de
seguimiento. Se prevé que el 75 % de las veces la muestra 1 cooperará en el momento 2. Se mantendrá
el mismo tamaño de muestra en el momento 2 seleccionando personas adicionales.

(a) Si se prevé que la tasa de desempleo en el tiempo 1 sea del 8 % y desea poder detectar una
disminución de 1,5 puntos porcentuales con una potencia de 0,8 en una prueba unilateral de 0,05
niveles, ¿qué tamaño debe tener la muestra en cada período de tiempo? Tendrá que hacer
algunas suposiciones sobre la proporción de personas desempleadas en ambos momentos.
Describa su razonamiento para el valor que asume.

(b) Si solo puede permitirse el lujo de muestrear a 500 personas, ¿cuál será el poder para
detectar un cambio de 1,5 puntos porcentuales?

4.9. Los estudiantes de escuelas secundarias públicas y privadas se comparan en una prueba de
rendimiento estandarizada. En años anteriores la nota media ha sido de unos 600 (sobre 800). Suponga
que desea muestrear aproximadamente el doble de estudiantes de escuelas públicas que de estudiantes
de escuelas privadas, ya que hay algunos análisis adicionales que necesita.
Machine Translated by Google

4.5 Cálculos de potencia y tamaño de muestra en SAS 127

proyecto de las escuelas públicas. Se sabe que la revarianza poblacional de las puntuaciones
es de 0,6.

(a) ¿Qué tamaño de muestra de estudiantes públicos y privados se necesita para detectar un
tamaño del efecto de 0,10 con una potencia de 0,80? Suponga que las diferencias en
cualquier dirección deben detectarse a un nivel de significación de 0,05.
(b) ¿A qué diferencia de medias corresponde esto?

4.10. El Consejo de Gobiernos (COG) es una organización en el área de Washington DC que


está financiada por los gobiernos locales del Distrito de Columbia y los condados circundantes.
El COG quisiera financiar una encuesta para comparar las tasas de criminalidad en la ciudad
central con la de uno de los condados suburbanos. Le gustaría seleccionar una muestra de
hogares de las dos jurisdicciones y realizar entrevistas en persona para determinar si los
residentes de la ciudad central tienen más probabilidades de ser víctimas de cualquier tipo de
delito que los habitantes de los suburbios. La tasa general de delitos violentos contra la
propiedad en el área metropolitana es de 1.105 por cada 100.000 hogares. Los analistas de
COG creen que la tasa de delincuencia suburbana es aproximadamente el 75 % de la tasa
general. Si la tarifa de la ciudad central es el doble de la tarifa de los suburbios, a los
formuladores de políticas del COG les gustaría estar muy seguros de que su muestra reconocerá
esa gran diferencia. Por otro lado, a algunos analistas del COG les gustaría saber si la tarifa de
la ciudad central es 1,5 veces la tarifa suburbana. Para complicar las cosas, la cantidad de
dinero disponible para realizar la encuesta no está clara porque los municipios locales no han
aprobado sus presupuestos para el año fiscal actual. Dada esa incertidumbre, calcule un rango
de tamaños de muestra que pueda analizar con el COG. ¿Cómo describirá los pros y los contras
de sus alternativas al COG?

4.11. Una organización encuesta a sus empleados en enero y julio para medir la competencia
con el conjunto de software de análisis de datos que proporciona la empresa.
Los empleados realizan varias tareas y reciben un puntaje general entre 0 y 100. Suponga que,
según los datos anteriores, el puntaje promedio es 72 y que la desviación estándar unitaria de
los puntajes es 55, que es estable en el tiempo. Al departamento de tecnología de la información
le gustaría saber si el puntaje promedio ha cambiado un 10 % o más de enero a junio. Se
selecciona una muestra aleatoria simple de los empleados en enero. Los mismos empleados se
evaluarán en julio, si es posible, pero debido a la rotación, el ausentismo y los conflictos de
programación, espera que solo el 60 % de la muestra inicial se vuelva a evaluar en julio. Para
los análisis transversales, se desea el mismo tamaño de muestra en cada período de tiempo.
Suponga que la correlación entre las puntuaciones individuales en los dos momentos es 0,76.

(a) Calcule el tamaño de muestra requerido en enero (que será igual al tamaño en julio) que se
necesitará para detectar un cambio del 10 % con una potencia de 0,80.
Suponga que se utilizarán todos los casos en cada período de tiempo para calcular la
diferencia y que el nivel de la prueba es 0,05. (b) Repita la parte (a) pero suponga que solo
los casos superpuestos entre enero
Se utilizarán los meses de enero y julio.
Machine Translated by Google

128 4 Cálculos de potencia y determinación del tamaño de la muestra

(c) Calcule la varianza de la diferencia media estimada de los incisos (a) y (b) y discuta
cómo se relaciona esto con los tamaños de muestra que calculó en los incisos (a)
y (b).
(d) ¿Qué suposición está haciendo implícitamente para decir que la diferencia en las
medias estimadas en (a) y (b) es la misma? ¿Hay alguna razón para creer que
esta suposición es incorrecta? Explica tu respuesta.

4.12. En el caso de muestras parcialmente superpuestas descritas


ˆ¯
en la Secc. 4.3.1,
ˆ¯
d
que la varianza de la diferencia de medias, re =
= xˆ¯ ÿ yˆ¯, es V mostrar
ÿ2X ÿ2 n12
y
+ n1n2
n1 n2
ÿ2ÿxy como se muestra en (4.12). Cuando n12 = ÿn1 y r = n1/n2,
ˆ¯
X X
que esto se reduce a V muestre d = ÿ2
nÿ1
Una

ÿ2yÿ=2ÿrÿxy
+ =rÿ2 ÿ2 . Cuando ÿ2
y
0,
ˆ¯
d = ÿ2 0nÿ1 1 [1 + r (1 ÿ 2ÿÿ)].
mostrar que V
Machine Translated by Google

Capítulo 5
Programación Matemática

Los capítulos anteriores examinaron la determinación del tamaño de la muestra y la


asignación a los estratos para una sola variable. En realidad, casi todas las encuestas de
cualquier tamaño son multipropósito. En cada unidad de muestra se recopilan datos sobre
una serie de variables diferentes. Se realizan estimaciones de valores poblacionales para
la población total y para varios dominios o subpoblaciones. Además, se puede realizar una
variedad de tipos de estimaciones, que incluyen medias, totales, cuantiles y parámetros del modelo.
También existe una lista potencialmente larga de restricciones que deben satisfacerse.
Se pueden establecer tamaños de muestra mínimos para los dominios en base, por ejemplo,
a un cálculo de potencia asociado con una diferencia detectable. Se pueden establecer
objetivos para los coeficientes de variación (CV). Se debe cumplir con un cronograma, que
dicta decisiones logísticas como el modo de recopilación de datos y la cantidad de
recopiladores de datos a contratar. Sobre todo, suele haber una cantidad limitada de dinero
disponible. Los sobrecostos son comunes, pero la organización que realiza la encuesta no
puede contar con obtener un aumento de presupuesto para cubrirlos.
Múltiples metas y restricciones significan que el problema de asignación es
considerablemente más complicado de lo que se presentó anteriormente. En principio,
estos objetivos y restricciones se pueden acomodar utilizando las técnicas de programación
matemática que se ilustran en este capítulo. La programación matemática es un término
general que se refiere a elegir la mejor solución a algún problema de optimización entre las
alternativas disponibles. El término programación no se refiere a la programación informática,
aunque se han desarrollado sofisticados algoritmos informáticos para estos problemas. En
cambio, el programa se refiere a su uso por parte de las fuerzas armadas estadounidenses
para referirse a programas de entrenamiento y logística propuestos (Freund 1994; Dantzig
1963). El término fue acuñado por George Dantzig, quien inventó el área de programación
lineal.
Como en el resto de este libro, en este capítulo nos concentramos en aprender los
métodos de optimización multicriterio para el diseño de una sola etapa y no en la teoría. La
optimización para diseños más complejos se analiza en capítulos posteriores.
La ventaja de estos métodos es que proporcionan una forma formal de resolver lo que
pueden ser problemas de asignación extremadamente complejos. La alternativa es confiar
en una dieta cruda de intuición y sentido del olfato. Aunque en las manos adecuadas

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 129


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 5, © Springer Science+Business Media New York 2013
Machine Translated by Google

130 5 Programación Matemática

Los métodos de prueba y error pueden eventualmente conducir a soluciones eficientes, no todos los
diseñadores de muestras son igualmente buenos en esto. Tener una buena solución matemática ayuda a
eliminar las conjeturas. Además, tener un software de optimización sofisticado nos anima a enumerar
cuidadosamente todos los objetivos y limitaciones y, esperamos, producir mejores soluciones.

5.1 Optimización multicriterio

La formulación general del problema es minimizar (o maximizar) alguna función (objetiva) sujeta a
restricciones de costo, tamaño mínimo de muestra por estrato, tamaños mínimos de muestra en dominios
analíticos y CV de estrato u otras estimaciones de dominio. En general, un problema de optimización
consta de cuatro partes: 1. Función objetivo: una función de una o varias variables a optimizar 2. Variables

de decisión: las cantidades que se ajustan para encontrar una

solución, por ejemplo, tamaños de muestra


3. Parámetros: entradas fijas que se tratan como constantes, por ejemplo, pop de estrato
recuentos de cálculo y varianzas
4. Restricciones—restricciones sobre las variables de decisión o combinaciones de las
variables de decisión, por ejemplo, tamaños de dominio y costo

Una solución a estos problemas requiere algoritmos y software especiales. Algunas de las opciones de
software son Excel Solver, SAS proc nlp, SAS proc optmodel y el paquete R alabama (Varadhan 2010),
todos los cuales se describen en este capítulo para diseños de una sola etapa.

Cuando hay múltiples variables y estimaciones, se necesita hacer algún juicio sobre la importancia
relativa de cada una para los objetivos de la encuesta.
Una opción es utilizar una combinación ponderada de las revarianzas para diferentes estimadores como
función objetivo. Los pesos podrían seleccionarse en función de la "importancia" de cada estimación para
los objetivos de la encuesta. Si, por ejemplo, el objetivo es una combinación lineal de la revarianza para la
proporción estimada de empleados que prefieren horarios de trabajo flexibles y el número promedio
estimado de días de baja por enfermedad por empleado, entonces los pesos de importancia podrían ser
0,5 cada uno, asumiendo que estos dos las estimaciones son igualmente importantes.

Cuáles deben ser los pesos relativos es una cuestión de opinión y asignarlos requerirá consultar con el
patrocinador de la encuesta y, probablemente, algún debate entre el personal que realiza la encuesta. Al
final, probablemente serán necesarias algunas asignaciones arbitrarias. Los análisis de sensibilidad se
pueden realizar utilizando diferentes conjuntos de ponderaciones de importancia.

Las revarianzas son convenientes para formar la función objetivo ya que una revarianza no tiene
unidades, como se indica en la Secc. 3.1. La revarianza de la estimación
número medio de empleados, por ejemplo, tiene unidades (empleados2)/(empleados2 ).
Si se usaran las varianzas, una variable como el número de empleados eclipsaría el efecto de una variable
0–1, como si un establecimiento había despedido a algún trabajador en el último trimestre.
Machine Translated by Google

5.1 Optimización multicriterio 131

Ejemplo 5.1 (Enunciado formal de un problema de optimización). Suponga que se selecciona una
muestra estratificada de una sola etapa usando stsrswor. Sea y ˆ¯j = Why¯j,sh la media estratificada de
la variable j Hh=1
(j = 1, 2,...,J).
La media muestral del estrato es ¯yj,sh = iÿsh yjhi /nh siendo yjhi el valor de la variable j para la unidad
muestral hi. Como en la Secc. 3.1.2, la media estimada del dominio para la variable j se define como

h Whpdhy¯dj,sh ,
y ˆ¯dj =
whpdh
h

donde ¯ydj,sh = d dentro


iÿsdh del
yjhiestrato
/ndh esh la
y pdh
media
= ndh
muestral
/nh , la
deproporción
la variablede
j en
unidades
el dominio
en
el estrato h que están en el dominio d.

Una declaración formal de un problema de programación matemática podría ser la siguiente. Los
términos CV0jh y CV0dj a continuación son objetivos para los CV s de las medias estimadas para la
variable j para el estrato h (un dominio de diseño como se describe en el Capítulo 3) y dominios de
estratos cruzados (llamados clases cruzadas en el Capítulo 3). • Encuentra el conjunto de tamaños de
muestra {nh}H

para minimizar la suma ponderada de las


h=1
revarianzas (es decir, la función objetivo),

j
ÿ= ÿj relvar y ˆ¯j ,
j=1

donde {ÿj}J son los pesos de importancia asignados a las estimaciones j = 1,...,J y relvar y ˆ¯j = V y
j=1
ˆ¯j y¯2
Uj .
• Sujeto a las restricciones: (i) nh ÿ Nh

para todos los h (ii) nh ÿ nmin, un


tamaño de muestra mínimo en cada estrato (nmin ÿ 2 en
general)
2 para determinados estratos y variables
(iii) [CV (¯yj,sh)]2 ÿ (CV0jh) (iv) CV
2 2 para ciertos dominios y variables
yˆ¯dj (v) C = C0 + ÿ (CV0dj )
H
h=1 chnh
H
Las variables de decisión a ajustar para encontrar una solución son {nh} en este caso. h=1

Tenga en cuenta que


j
j=1 ÿj no necesita ser igual a 1 aunque normalizarlos es sensato
j
para que los tamaños relativos de los pesos sean fáciles de ver. El vector {ÿj}j=1
también puede contener algunos valores cero para indicar un objetivo “relajado”. Esto es especialmente
útil cuando se experimenta con la inclusión o exclusión de algunas variables de la función objetivo.

El problema anterior es no lineal en las variables de decisión porque los nh están en los
denominadores de la función objetivo, a través de relvar y ˆ¯j ,
Machine Translated by Google

132 5 Programación Matemática

2 y las restricciones, mediante [CV (¯yj,sh)]2 y CV yˆ¯dj . En casi todos los problemas
no lineales, no hay soluciones exactas de forma cerrada como las que observamos
para el muestreo estratificado en la Secc. 3.1.2. Se necesitan soluciones iterativas y
aproximadas, pero hay varias opciones de software disponibles, como se describe en
las siguientes secciones.
La forma exacta en que se establece un problema es importante tanto (i) para
obtener una solución que realmente aborde los objetivos de una encuesta como (ii)
para formular el problema de una manera que sea menos onerosa para el algoritmo de
solución. Algunas de las técnicas para resolver problemas de optimización no lineal
implican aproximaciones numéricas a derivadas parciales de la función objetivo ya
restricciones no lineales. La forma en que expresa un problema puede hacer que
encontrar una solución sea innecesariamente difícil para un algoritmo. En el ejemplo
5.1, podríamos haber definido el objetivo como la suma ponderada de CV s en lugar de las revarianza
Las restricciones (iii) y (iv) también podrían haberse establecido en términos de CV s.
Pero, más simple es mejor. Establecer la función objetivo y las restricciones no lineales
en términos de CV s hace que ambos sean “más” no lineales en los nh que el uso de
revarianzas debido a la función de raíz cuadrada requerida para CV s.
Plantear un problema que no tiene solución es ciertamente una posibilidad. Usar
restricciones que son incompatibles entre sí es un error que se puede cometer. Por
ejemplo, nh ÿ Nh y nh ÿ 100 son incompatibles para cualquier estrato con Nh < 100.
Naturalmente, son posibles errores más sutiles. Las restricciones estrictas sobre las
revarianzas pueden conducir a una violación de una restricción de costo, por ejemplo.
A menudo, la forma más fácil de descubrirlos es ejecutar la optimización y ver qué
sucede.
Un buen software producirá informes que informen si un problema se pudo resolver
o no y si se violó alguna restricción. El valor final de la función objetivo debe informarse
junto con una lista de las funciones restrictivas y sus valores finales. Una restricción
que se cumple exactamente en el límite o dentro de una pequeña tolerancia del límite
del valor permisible se etiqueta como vinculante; cambiar la restricción tendría un
efecto directo en la función objetivo. Las restricciones que se cumplen fácilmente (y
que podrían ajustarse en un problema de optimización posterior) se denominan no
vinculantes.
Se han desarrollado muchos algoritmos diferentes para resolver problemas de
optimización no lineal como el del ejemplo 5.1. Las matemáticas detrás de algunos de
estos se describen, por ejemplo, en Winston y Venkataramanan (2003). Además de
elegir un algoritmo, los paquetes de software suelen tener una variedad de parámetros
de ajuste que se pueden configurar para controlar los métodos utilizados para una
solución. Un usuario puede establecer el número de iteraciones antes de que finalice
el algoritmo, la duración del reloj que ejecuta el algoritmo antes de detenerse, el cambio
relativo entre iteraciones en la función objetivo utilizada para decidir si se ha alcanzado
un óptimo y una tolerancia. se utiliza para determinar si se viola o no una restricción.
Discutimos cuatro enfoques para realizar una optimización para diseños de una sola
etapa en las siguientes secciones.
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 133

5.2 Solucionador de Microsoft Excel

Solver, una herramienta incluida con Microsoft Excel, es bastante fácil de usar y puede
encontrar soluciones a problemas siempre que no haya demasiadas variables de decisión o
restricciones. El solucionador estándar permite hasta 200 variables de decisión (por ejemplo,
tamaños de estrato) y restricciones en hasta 100 celdas en la hoja de cálculo. Hay varias
versiones actualizadas que se pueden comprar por separado de Front line Systems, Inc.1
Las actualizaciones pueden manejar problemas mucho más grandes y complejos que los
que aborda el Solver estándar y también funcionan dentro de Excel.
Un texto introductorio legible sobre el uso de Solver y muchas otras características de Excel
es Powell y Baker (2003). El capítulo 10 de su libro, en particular, cubre problemas de
optimización no lineal y el uso de diferentes versiones de Solver.

Esta sección describe cómo configurar un problema en Excel y encontrar una solución
usando Solver. El siguiente ejemplo es pequeño pero ilustra características que son comunes
a los problemas de asignación de muestra.

Ejemplo 5.2 (Optimización de una muestra de establecimientos comerciales). La tabla 5.1


proporciona las medias de los estratos, las desviaciones estándar y las proporciones para
una población artificial de establecimientos comerciales. La ley fiscal de EE. UU. en 2000
permitió que se tomara un crédito fiscal para ciertos gastos asociados con la investigación
científica. La columna denominada “Crédito de investigación reclamado” da la proporción de
establecimientos dentro del sector comercial (área de clasificación) que reclamaron el crédito
en un año en particular. Supongamos que queremos encontrar una asignación de un stsr
swor a los estratos que minimice la revarianza del ingreso total estimado, Tˆrev = Nhy¯sh,
sujeto a estas
h
restricciones:

(i) Presupuesto de costos variables = $300,000 US.


(ii) CV ÿ 0,05 sobre el número total estimado de empleados. (iii) Se
muestrean al menos 100 establecimientos en cada sector, nh ÿ 100. (iv) El número
muestreado en cada estrato es menor que la población
contar, nh ÿ Nh.
(v) CV ÿ 0,03 sobre el número total estimado de establecimientos que reclaman
el crédito fiscal de investigación.

(vi) CV ÿ 0,03 sobre el número total estimado de establecimientos con filiales en el


extranjero

Las filiales extraterritoriales son empresas o entidades jurídicas que se establecen para
actuar como áreas de tenencia de inversiones. Esta puede ser una forma de reducir la
obligación tributaria y proteger los activos contra reclamos futuros, como procedimientos de
divorcio, bancarrota, acreedores y otros litigios.
En este ejemplo, se conocen los tamaños de la población en cada estrato y en general,
de modo que la optimización para los totales y las medias estimadas será la misma (como
se explica en la Sección 3.1). Recuerde que la revarianza de un total estimado en un
stsrswor es

Una

http://www.solver.com/excel-solver.htm.
Machine Translated by Google

134 5 Programación Matemática

varrel Tˆ = T ÿ2 Nueva Hampshire

Nueva Hampshire
ÿ 1 S2 h
h
Nueva Hampshire

siendo T el total de la población. Este es un problema a pequeña escala que es fácil de resolver
usando Solver. La hoja de cálculo utilizada en este ejemplo se puede encontrar en Example
5.2.Solver.xls en el sitio web de este libro. En la Fig. 5.1. Los pasos para usar Solver se enumeran
a continuación.

1. Agregue columnas a la hoja de cálculo que se utilizan para calcular las estadísticas para la
optimización. En este ejemplo, se agregaron las columnas L, M, N y O y contienen la fórmula
nh ÿ 1 S2
Nh el crédito de investigación y las filiales extraterritoriales.
nh h para ingresos, empleados,

H
2. Agregue una columna para contener las variables de decisión, {nh} h=1,(celdas K3–K7).
3. Cree una celda que contenga una fórmula que calcule la función objetivo.
Aquí, el objetivo es CV2 Tˆ = T variable siendo ÿ2 H h=1 nh ÿ 1 S2 con el
nh h Nueva Hampshire

el ingreso total (celda L11).


4. Agregue celdas, si es necesario, para contener fórmulas que calculen los valores que entran
en las restricciones. Aquí, el presupuesto total es la celda D12 y el costo calculado para la
asignación de muestra particular es D13. Los CV de los empleados, el crédito de
investigación y las filiales en el extranjero están en M12, N12 y O12.

5. Abra Solver eligiendo Herramientas/Solver en la pestaña Datos en Excel 2007 o 2010. Si Solver no
aparece en la lista, seleccione Herramientas/Complementos y marque Complemento de Solver para
activar la herramienta. En Excel 2010, seleccione Archivo/Opciones/Complementos/Administrar
complementos de Excel.
6. Rellene los siguientes cuadros en la pantalla Parámetros del solucionador: Establecer celda
objetivo, Igual a, Cambiando celdas y Sujeto a las restricciones. Los contenidos de las
celdas para este ejemplo son (ver Fig. 5.2):

Establecer objetivo: L11


Hasta: Mín.

Cambiando celdas variables: K3–K7,

Sujeto a las restricciones: $D$13


<= $D$12 (restricción de costo)
$K$3:K7 <= $C$3: $C$7 (nh ÿ Nh)
$K$3: $K$7 >= 100 (nh ÿ 100)
$M$11 <= 0.052 (revarianza de empleados totales estimados)
$N$11 <= 0,032 (revarianza del número total estimado de establecimientos que
reclaman el crédito fiscal por investigación)
$O$11 <= 0.032 (revarianza sobre número estimado de establecimientos con filiales
offshore)
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 135

Tenga en cuenta que Solver permite la notación de matrices, por lo que, por ejemplo, K3 a K7
se limitan a ser mayores que 100 (es decir, K3:K7 >= 100) en lugar de restringir cada celda por
separado. La figura 5.3 muestra la pantalla Cambiar restricción en la que se establece la
restricción D13 <= D12. Las otras restricciones se establecen de manera similar.

Los parámetros de ajuste que controlan cuánto tiempo se ejecuta el algoritmo, cuándo se
detiene y los métodos utilizados se configuran en la pantalla Opciones del solucionador (Fig.
5.4) que aparece después de hacer clic en Opciones en la pantalla Parámetros del solucionador.
Max Time e Iterations se explican por sí mismos. Algunas de las otras opciones relevantes para
la asignación de la muestra son:
Precisión de la restricción. Este número en la pestaña Todos los métodos determina qué tan
cerca debe estar el valor del lado izquierdo de una restricción del límite de la derecha para
que se cumpla. La configuración predeterminada es 10ÿ6. Establecer este valor en un
número extremadamente pequeño puede dar lugar a que (a) Solver informe que se ha
infringido una restricción cuando, en todos los aspectos prácticos, es simplemente vinculante
sin infringirse o (b) Solver informa que no se puede encontrar una solución. Establecer la
Precisión en un valor demasiado grande también puede resultar en una convergencia
“prematura”, es decir, se encuentra una solución que satisface todas las restricciones pero
no brinda el mejor valor de la función objetivo. Puede probar esto usted mismo experimentando
con diferentes valores de precisión en el ejemplo de esta sección.

Convergencia. Está en la pestaña GRG Nonlinear y representa el valor absoluto del cambio en
la función objetivo que se usa para declarar la convergencia. Si el cambio entre iteraciones
es menor o igual a este número, Solver se detiene.

Utilice el escalado automático. Cuando esta casilla está marcada en la pestaña Todos los
métodos, Solver intenta escalar los valores de las funciones objetivo y de restricción
internamente para minimizar los efectos de tener valores del objetivo, restricciones o
resultados intermedios que difieren en varios órdenes de magnitud.

Derivados. Esta opción en la pestaña GRG Nonlinear controla el rendimiento del método de
solución. El valor predeterminado de Reenviar se puede utilizar para la mayoría de los
problemas. En cada iteración se utilizan valores de derivadas del objetivo y las restricciones
con respecto a las variables de decisión. Estos derivados se aproximan mediante una técnica
conocida como diferenciación, la técnica que se selecciona en la opción Derivados. La
diferenciación central requiere más tiempo por iteración que la diferenciación directa, pero
puede generar una mejor dirección de búsqueda y menos iteraciones.

La solución a este problema de optimización se muestra en la Tabla 5.2. Hay tres informes
disponibles cuando se encuentra una solución: el Informe de respuestas, el Informe de
sensibilidad y el Informe de límites. Discutiremos los dos primeros; el tercero parece tener poca
utilidad en los problemas que abordamos.
El Informe de respuestas resume los valores originales y finales de las variables de decisión
y las restricciones, con información adicional sobre qué restricciones son vinculantes. La figura
5.5 muestra el informe de respuesta para este ejemplo.
En primer lugar, se enumeran los valores original y final de la función objetivo. Inicial
Machine Translated by Google

136 5 Programación Matemática

Tabla 5.1: Medias, desviaciones estándar y proporciones de la población de estrato para un


población artificial de establecimientos comerciales

Población Población estándar Población


medio desviación proporción

Estab- reclamado tenía


Negocio lishments Ingresos Ingresos investigación en alta mar
h sector Nh ch (millones) Empleados (millones) Empleados afiliados al crédito

1 Fabricación 6.221 120 85 511 170.0 255.50 0.8 0.06


2 Venta al por menor 11.738 80 11 21 8.8 5.25 0.2 0.03
3 venta al por mayor 4.333 80 23 70 23.0 35.00 0.5 0.03
4 Servicio 22.809 90 17 32 25.5 32.00 0.3 0.21
5 Finanzas 5.467 150 126 157 315.0 471.00 0.9 0.77

Población Total 50,568 1.834.157 5.316.946 21,254 9,855

Higo. 5.1: Configuración de la hoja de cálculo de Excel para usar con Solver

Tabla 5.2: Solución al problema de optimización del Ejemplo 5.2

Estrato Sector Nueva Hampshire

Una
Manufactura 413
2 Venta al por menor 317

3 Venta al por mayor 119


4 Servicio 1,399
5 Finanzas 598

Total 2,846

se necesitan valores para los nh para iniciar el algoritmo; se utilizó nh = 500


para todos los estratos en este caso. Una alternativa sería usar nuestro valor mínimo especificado,
nh = 100. En este ejemplo, ambos valores iniciales conducen a casi el
misma solución. A continuación, los valores originales y finales de las “celdas ajustables”,
es decir, se enumeran las variables de decisión.
La tercera sección en la Fig. 5.5 muestra las restricciones con sus valores finales de celda; una
columna de fórmula que muestra la fórmula de la hoja de cálculo ingresada por el usuario;
una columna de estado que muestra si la restricción era vinculante o no vinculante
en la solución; y el valor de holgura. La columna Nombre es la combinación de
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 137

Higo. 5.2: Captura de pantalla de la pantalla de diálogo de Excel Solver

Higo. 5.3: Captura de pantalla de la pantalla de diálogo Cambiar restricción

la etiqueta de fila y columna para la restricción, por ejemplo, la revarianza de t.hat


Offshore Nh*(Nh/nh - 1) * Shˆ2. La holgura es la diferencia entre el valor final y el límite
inferior o superior impuesto por esa restricción.
Una restricción vinculante, que se satisface con la igualdad o con un valor insignificante.
Machine Translated by Google

138 5 Programación Matemática

Higo. 5.4: Ventana de opciones del solucionador donde se pueden configurar los parámetros de ajuste y guardar los
modelos

diferencia, siempre tendrá una holgura de cero. El costo total de la muestra y la


variación de la proporción con las filiales en el extranjero son vinculantes. Por lo
tanto, la asignación final utiliza todos los fondos disponibles.
El informe de sensibilidad de la Fig. 5.6 proporciona información sobre cómo
cambiaría la solución por pequeños cambios en las restricciones o la función objetivo.
Las dos secciones del informe están etiquetadas como Celdas ajustables y
Restricciones. Las cifras debajo de las columnas, Gradiente reducido y Multiplicador
de Lagrange, se denominan valores duales. Para este ejemplo, los únicos valores
interesantes son los de Restricciones. El valor dual de una restricción es distinto de
cero solo cuando la restricción es vinculante. Mover el valor del lado izquierdo de la
restricción lejos del límite empeorará el valor de la función objetivo; relajar el límite
mejorará el objetivo. El valor dual mide el aumento en el valor de la función objetivo
por unidad de aumento en el límite de la restricción.
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 139

En las aplicaciones de fabricación en las que se construye una cierta cantidad de


productos, la interpretación del valor dual de una restricción puede ser bastante simple.
Por ejemplo, construir uno más de algún componente electrónico podría conducir a una
disminución de las ganancias de $100 si el multiplicador de Lagrange es negativo. La
interpretación en este ejemplo es menos sencilla. El costo está limitado a $300,000. Al
relajar este límite en 1 unidad (es decir, aumentar el presupuesto en $1), el objetivo
debería cambiar en ÿ1,644E ÿ 08 (es decir, la revarianza del ingreso total estimado se
reducirá ligeramente). Dado que este es un cambio minúsculo, un enfoque más significativo
sería preguntar cuál sería el efecto de aumentar el presupuesto en una cantidad sustancial.
Por ejemplo, si el presupuesto aumentara en $50 000, la varianza real cambiaría en 50
000 × (ÿ1,644E ÿ 08) = ÿ0,00082. Es decir, la revarianza cambiaría a 0,002167ÿ0,00082 =
0,001345. Esto corresponde a un cambio en el CV de ÿ0,002167 = 0,0466 a ÿ0,001345 =
0,0367.
La escala de la restricción es importante al interpretar un multiplicador de Lagrange.
Por ejemplo, supongamos que la restricción sobre la revarianza de las filiales
extraterritoriales fuera vinculante y su multiplicador de Lagrange fuera ÿ4. Un cambio de 1
unidad en la restricción de la varianza real que conduce a un cambio de -4 en la función
objetivo haría negativa la varianza real de los ingresos totales, lo cual no es posible. En
tal caso, la interpretación estándar del valor dual se puede hacer solo para cambios muy
pequeños en la restricción. Por ejemplo, suponga que el límite de CV en la estimación
extraterritorial aumenta de 0,030 a 0,032.
Esto implica que el cambio en la varianza real de esa estimación es 0,001024ÿ 0,0009 =
0,000124 (o un aumento del 14 % en la varianza real extraterritorial). Esto, a su vez,
significa que el valor objetivo debería cambiar en ÿ4 × 0,000124 = ÿ0,00049636. Por tanto,
el objetivo, que es la revarianza de los ingresos totales, debería cambiar a 0,002167 ÿ
0,000496 = 0,00167; o bien, el CV de los ingresos totales debería cambiar a ÿ0,00167 =
0,0409.
En lugar de pasar por este tipo de cálculo, lo más simple que se puede hacer en un
problema fácil es cambiar la restricción y volver a ejecutar el problema. El lector puede
verificar, al volver a ejecutar la optimización, que cambiar la restricción del presupuesto a
$350 000 conduce a un CV sobre los ingresos totales estimados de 0,0387 en lugar de
0,0367 como se predijo a partir del análisis del multiplicador de Lagrange.

Cuando se ejecutan variaciones en un problema cambiando los valores de las


restricciones, los pesos de importancia en el objetivo o cualquier otra cosa, una buena
práctica es guardar algunas o todas las variaciones para que puedan revisarse si es necesario.
Hay dos maneras de hacer esto. Una es guardar cada variación como una nueva hoja de
cálculo o una nueva pestaña dentro de una hoja de cálculo. La otra es guardar más de un
modelo en una pestaña de la hoja de cálculo. Para guardar un modelo, haga clic en el
botón Cargar/Guardar en la ventana Parámetros del solucionador en la Fig. 5.2. Al hacer
clic en el botón Cargar/Guardar modelo, aparece un cuadro de diálogo donde se puede
especificar el rango de celdas donde desea guardar el modelo. El diálogo le indica que
seleccione un rango vacío de celdas lo suficientemente largo como para contener la
información que Solver necesita almacenar. En el ejemplo de esta sección, se necesitan
diez celdas. Poner una celda de encabezado sobre este rango con un nombre significativo
es una buena documentación. Para guardar otro modelo, modifique la configuración del parámetro Solver
Machine Translated by Google

140 5 Programación Matemática

como desee, luego guarde el modelo en un rango diferente de celdas. Para cargar uno de
los modelos, abra la ventana Parámetros del solucionador, haga clic en Cargar/Guardar y seleccione
el rango de celdas que contiene el modelo que desea.
La sección 5.6 ofrece algunos comentarios generales sobre cómo realizar un seguimiento de las variaciones
de los problemas de optimización que pueden intentarse. Como en todas las aplicaciones, una buena contabilidad
es una parte crítica de una buena organización.

Higo. 5.5: Informe de respuesta del solucionador para el ejemplo de establecimiento comercial

Valores iniciales. Finalmente, notamos que la solución puede ser sensible a


los valores iniciales de las variables de decisión. En el establecimiento comercial
ejemplo, comenzamos con nh = 100 en cada estrato, pero otras posibilidades
sería la asignación proporcional, la asignación de Neyman para los ingresos, o una
de las otras asignaciones univariadas del Cap. 3. Es aconsejable encontrar soluciones utilizando
varios conjuntos diferentes de valores iniciales, que son sustancialmente
diferentes uno del otro. Si se obtiene la misma solución o una muy similar
de cada conjunto, esto proporciona cierta seguridad de que se ha alcanzado un óptimo global.
fundar. Esto generalmente se denomina análisis de sensibilidad porque está evaluando la
sensibilidad de la solución a, en este caso, los valores iniciales.
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 141

Higo. 5.6: Informe de sensibilidad de Solver para el ejemplo de establecimiento comercial

También puede hacer que Solver use múltiples valores iniciales automáticamente. En
la ventana Parámetros del solucionador, seleccione Opciones. Luego, en la ventana
Opciones, elija la pestaña GRG no lineal y marque la casilla Usar inicio múltiple. Si
esta casilla está seleccionada cuando hace clic en Resolver, el método GRG no lineal
se ejecutará repetidamente, comenzando desde diferentes valores iniciales (elegidos
automáticamente) para las variables de decisión. Este proceso puede encontrar una
mejor solución, pero requerirá más tiempo de cálculo que una sola ejecución del
método no lineal GRG.2
Limitaciones en el Número de Variables de Decisión. El solucionador estándar tiene un
límite de 200 variables de decisión para problemas lineales y no lineales.
Por “lineal” queremos decir que tanto la función objetivo como las restricciones son
combinaciones lineales de las variables de decisión. Sin embargo, una versión
mejorada de Solver tiene límites de 2000 variables de decisión para problemas lineales
y 500 para problemas no lineales.
Limitaciones en el Número de Restricciones. El solucionador estándar tiene un límite de
100 celdas que se pueden restringir; las variables de decisión no están incluidas en
esta lista. Aunque esto parece generoso, exceder este límite no es difícil de hacer. Si
una población tiene 110 estratos y se establece la restricción de que nh ÿ Nh por
separado en cada estrato, se excede el límite. Una solución es establecer una celda
igual a maxh(nh/Nh) y restringir esta celda para que sea menor o igual a 1. Por lo
tanto, 110 celdas de restricción se convierten en 1 restricción sin cambiar los objetivos
del problema. De manera similar, si se desea un CV de 0,05 para varias estimaciones
diferentes, se puede definir una sola celda que contenga un CV2 máximo sobre el
conjunto de estimaciones.

2
Hay disponible ayuda más detallada para esta y todas las demás opciones en www.solver.com/
excel2010/solverhelp.htm.
Machine Translated by Google

142 5 Programación Matemática

Solver también puede manejar problemas de programación lineal como se ilustra en el


siguiente ejemplo de selección de una submuestra de una muestra existente. Ejemplo 5.3
es un caso particular de muestreo de dos fases que cubrimos con más detalle en
Cap. 17. La idea general en el muestreo de dos fases es seleccionar una segunda fase
muestra de una muestra inicial (primera fase) basada en la información obtenida en
la primera etapa.

Ejemplo 5.3 (Determinación de los tamaños de las submuestras). Suponga que se selecciona una
muestra de hogares con el objetivo de obtener números específicos de niños en
los grupos de edad de 5 a 11 años, de 12 a 14 años y de 15 a 17 años. Una muestra inicial
de 27.400 hogares seleccionados y el número de niños en cada grupo de edad
en cada hogar se registra en base a una entrevista de selección. Los números
de niños en la muestra inicial y los tamaños de muestra objetivo para la submuestra
en cada subgrupo son:

grupo de edad Número de Tamaño de la muestra objetivo de


niños en niños en submuestra
muestra inicial
1 5–11 años 6.229 1,000
2 12–14 años 3.009 2,000
3 15–17 años 3.159 2,000
Total 12.397 5,000

Un hogar no puede tener niños en ninguno de estos grupos o niños en cualquier


combinación de los tres grupos. Podríamos simplemente hacer una lista de los niños en cada
grupo de edad y muestree cada lista por separado para obtener 1,000, 2,000 y 2,000
en cada grupo. Sin embargo, esto no ejercería ningún control sobre cuántos
Se seleccionaron HH; tampoco controlaría el número de niños muestreados por
S.S. Nos gustaría muestrear solo un niño por hogar para limitar el informe
carga. Solo los hogares (HH) que tienen niños en uno o más de los
los tres grupos de edad anteriores serán elegibles para la segunda fase de la encuesta. Estratos de
los hogares están indexados por los grupos de edad de los niños contenidos en el
HH: 1, 2, 3, 12, 23, 13 y 123. Por ejemplo, el estrato 13 está compuesto por
Hogares que tienen hijos en los grupos de edad (1) 5–11 y (3) 15–17. Para especificar
el problema claramente, necesitamos alguna notación:

ah = tasa de muestreo de HH en el estrato h (a determinar mediante programación mecánica


matemática)
Chi(k) = número de hijos en HH i, estrato h en el grupo de edad k (k=1, 2, 3)
Chi(+) = número de niños en HH i, estrato h en todos los grupos de edad
nh = número de HH de la muestra de primera fase que se encuentran en el estrato h
Machine Translated by Google

5.2 Solucionador de Microsoft Excel 143

Si se selecciona un niño al azar sin tener en cuenta el grupo de edad en un HH,


la probabilidad de selección dentro del HH es 1 Chi(+). El número esperado de
niños muestreados del grupo de edad k en HH hi es también la proporción de niños
en ese grupo de edad en el HH:

Chi(k)
fi(k) = .
Chi(+)

El número esperado de niños seleccionados del grupo de edad k en todos los HH es

ek = ah fi(k)
h iÿsh

= (5.1)
ahnhp¯h(k),
h

donde sh es el conjunto de HH de primera fase en el estrato h, y ¯ph(k) = nh iÿsh phi(k) es la


Una

proporción promedio de niños por HH en el estrato


h que están
3
en el grupo de edad k. El número total de niños submuestreados es
e+ = k=1 ek. El número total esperado de HH submuestreados es

EH = ahhh
h

Como solo tenemos siete estratos HH y tres grupos de edad de niños, la


varios parámetros se pueden mostrar en una tabla corta.

Estrato Muestreo No. de HH Proporción promedio de niños ¯ph(k) por


Velocidad HH que están en el grupo de edad k
para HH

h ah Nueva Hampshire
k = 12 3
Una
a1 n1 100
2 a2 n2 010
3 a3 n3 001
12 a12 n12 p¯12(1) p¯12(2) 0
13 a13 n13 p¯13(1) ¯p13(3)
23 a23 n23 0 0 p¯23(3)
123 a123 n123 p¯123(1) ¯p23(2) p¯123(2) p¯123(3)

Se puede formular el establecimiento de tasas de submuestreo para HH en cada uno de los 7 estratos
como un problema de programación lineal:

• Hallar el conjunto de tasas ah que minimizan el número esperado de HHs, EHH ,


seleccionado.
Machine Translated by Google

144 5 Programación Matemática

• Sujeto a estas restricciones:

(i) e1 = 1,000, e2 = e3 = 2,000 (ii)


mina < ah ÿ 1 para todos los estratos, siendo mina la tasa de muestreo mínima permitida
para cualquier estrato

Que este problema pueda resolverse o no depende, en parte, del valor de la mina. Si se
establece demasiado alto, puede que no sea posible encontrar una solución factible, es
decir, una que satisfaga todas las restricciones.
La hoja de Excel, Example 5.3 Subsampling age strata.xlsx, que se encuentra en el
sitio web de este libro, tiene este problema configurado en la herramienta de análisis de
datos Solver para el conjunto de valores para nh y ¯ph(k) que se muestra en Higo. 5.7.
La solución también se da en la Fig. 5.7. En este ejemplo, mina = 0,1. Los valores de
¯ph(k) se denotan por ph(k) en la hoja de cálculo. Las variables de decisión ah están en
las celdas B11:B17 de la hoja de cálculo. En este caso, la solución da 5000 niños
submuestreados en total y 5003 HH, una ligera discrepancia en el requisito de un niño por
HH debido al redondeo. Los estratos 12, 13 y 23 se submuestrean a la tasa mínima
permitida de 0,1. Los estratos 1, 2, 3 y 123 se submuestrean a tasas de alrededor de
0,161, 0,947, 0,793 y 1,00.

Higo. 5.7: Hoja de cálculo de Excel para encontrar tasas de submuestreo mediante programación lineal

El ejemplo 5.3 es una buena ilustración de la utilidad de la programación matemática en


un problema diferente de aquellos en los que el objetivo es minimizar las varianzas. Tenga
en cuenta que la programación matemática se puede aplicar en muchas situaciones
diferentes y puede brindar mejores soluciones a los problemas que los enfoques toscos
de prueba y error.
Machine Translated by Google

5.3 PNL PROC SAS 145

5.3 PNL PROC SAS

La optimización multicriterio en SAS se puede realizar utilizando los procedimientos proc nlp
(programación no lineal) o el proc optmodel más nuevo. Presentamos detalles asociados
con este último procedimiento en la siguiente sección. SAS proc nlp tiene menos restricciones
en factores como el número de restricciones que las que se observan con el solucionador
estándar. Proc nlp resolverá problemas de la forma

mín f(x), x = (x1,...,xp)


xÿRn

sujeto a
ci (x)=0 yo = 1,...,m1, ci (x) ÿ 0
yo = m1,...,m1 +=m2,1, . j.ÿ. xj
, pags.
ÿ uj j

El vector x contiene las variables de decisión; las ci (x) son restricciones de igualdad o
desigualdad. Las variables de decisión tienen límites inferior y superior especificados por j ÿ
xj ÿ uj . Tenga en cuenta que un problema de maximización, es decir, maxxÿRn f (x) puede
establecerse utilizando ÿf (x) como la función objetivo; sin embargo, el usuario puede
especificar si un objetivo debe ser minimizado o maximizado sin preocuparse por el signo de
f (x). Esta formulación general se ajusta a los problemas de asignación de muestras, siendo
x los tamaños de muestra. Algunas de las ventajas de proc nlp son:

• No existen límites específicos sobre el número de variables de decisión y restricciones


distintas de las impuestas por la memoria de la computadora y el tamaño del disco duro.

• La documentación detallada se produce en un archivo de registro SAS para la contabilidad


o para el archivo del proyecto. • Otras funciones de SAS están disponibles para la
manipulación y el análisis de datos.

La configuración de proc nlp difiere de Solver, aunque la formulación detrás de la


optimización es la misma. Como ejemplo, revisamos el Ejemplo 5.2 con un programa SAS
simple. Se puede obtener información detallada sobre técnicas más avanzadas en proc nlp
(y otros procedimientos) en el sitio web de SAS OnlineDoc.3 Una vez en el sitio web de SAS
OnlineDoc, elija el conjunto de documentos en línea (formato HTML o pdf) asociado con su
versión. de SAS.
NLP es parte del paquete de investigación de operaciones SAS/OR. La versión en pdf de la
documentación se utiliza mejor para imprimir. La sección sobre proc nlp brinda descripciones
de los diversos algoritmos que ofrece SAS junto con algunos consejos sobre qué considerar
al seleccionar un algoritmo.
En cualquier lenguaje informático en el que se escriba el código del programa para
realizar una tarea, es una buena práctica documentar el programa. Esto se puede hacer a
través de (i) comentarios dentro del programa, (ii) un archivo de "ayuda" de documentación
por separado, y/o (iii) en el caso de programas de propósito general más complicados, un

3
http://support.sas.com/documentation/.
Machine Translated by Google

146 5 Programación Matemática

guía de usuario. Para sus propios programas de propósito especial, la opción (i) debería ser
suficiente. Los comentarios deben incluir un encabezado que indique:

• Nombre del archivo que contiene el programa •


Propósito del programa • Nombre del programador
• Fecha de redacción • Fecha(s) de revisión y
cambios realizados en cada revisión Las opciones
(ii) y (iii) anteriores son utilizadas por R, SAS, Stata, y otros

paquetes multipropósito. Discutimos la documentación del programa con más detalle en el


Cap. 18

Ejemplo 5.4 (Resolver la imputación de establecimientos comerciales con SAS). PNL El código
proc nlp de SAS 9.2, el registro del programa y el archivo de salida utilizados en este ejemplo
se encuentran en los archivos del Ejemplo 5.4 (NLP) (archivos .sas, .log y .lst, respectivamente)
en el sitio web del libro. El código también se muestra en Código 5.1.

Asignar Valores Iniciales. Valores iniciales para las variables de decisión, {nh}5h=1,
se ingresan en un conjunto de datos llamado start500 que luego proc nlp carga a través
de la opción INEST. Cada tamaño de muestra de estrato se inicializó en 500 como en el
ejemplo de Solver. (El código SAS también crea un archivo llamado start100 que se
puede usar para la comparación. Ambos puntos de partida producen soluciones similares,
aunque los valores iniciales de 100 generarán un mensaje engañoso de que el algoritmo
convergió). Si los valores iniciales son no asignado, el procedimiento asignará sus propios
valores seleccionados aleatoriamente para nh que están cerca de cero. En este ejemplo,
asignar inicialmente 500 tamaños de muestra de todos los estratos no conduce a una
mejor solución.
Parámetros de optimización de carga. El primer paso dentro de proc nlp es cargar los valores
de los parámetros de optimización por estrato de diseño (sector empresarial), como se
usa en Solver, en un conjunto de variables SAS. Estos incluyen los recuentos de población
(Nh[5], es decir, una matriz de longitud 5), valores de costo (costo[5]), medias y
proporciones de población (p[4,5]) y las desviaciones estándar de población ( sd [4,5])
para las cuatro variables de análisis que se muestran en la Tabla 5.1.
El orden de las variables en las matrices de medias y desviaciones estándar (es decir,
matrices) es ingresos, empleados, crédito de investigación y filiales en el extranjero de
modo que, por ejemplo, las primeras filas (es decir, p[1,] y sd[1, ]) corresponden a los
valores para los ingresos. Tenga en cuenta que las desviaciones estándar para el crédito
de investigación y las filiales en el extranjero se calculan utilizando bucles DO en lugar de
"codificados" porque las estimaciones de las variables binarias se pueden calcular
directamente dentro del programa.
Declare las variables de decisión. Nuestro objetivo final es calcular el tamaño de la muestra
que se seleccionará dentro de cada sector empresarial para la encuesta. Los tamaños de
muestra del estrato se cargan en una matriz de longitud cinco, es decir, n[5], para usar
en la función objetivo y se definen como las variables de decisión en la instrucción
DECVAR. Tenga en cuenta que las variables en el conjunto de datos start500 se
denominan n1–n5 para coincidir con la matriz en DECVAR.
Machine Translated by Google

5.3 PNL PROC SAS 147

Defina las Restricciones. El primer conjunto de restricciones se define específicamente


para las variables de decisión. Con base en las especificaciones del problema,
cada tamaño de estrato debe estar acotado por debajo de 100 (n1-n5 >= 100) y
por arriba por el número de fotogramas correspondiente (p. ej., n4 <= 22809).
Además, el costo del estudio debe tener una restricción lineal (LINCON) para que
sea menor o igual al presupuesto máximo de $300 000, donde el costo se define
4 i=1 como costo[i] × n[i].
Se imponen restricciones no lineales adicionales (NLINCON) sobre la varianza
real de los totales de tres variables de análisis; consulte las restricciones (ii), (v) y
(vi) en el ejemplo 5.2. Las relavarianzas (cuadrados de los CV) se calculan de
nuevo utilizando matrices en la última parte del programa y están limitadas a ser
menores o iguales a los valores especificados (p. ej., relvar2 <= 0,0025 = 0,052).
Para facilitar el cálculo de la varianza real, las medias o proporciones de los cinco
estratos de cada variable se convierten a su correspondiente estimación del total
(m1-m20) multiplicando los valores originales por el tamaño de la población dentro
de cada sector. Como se aconseja en la Secc. 5.1, restringimos las revarianzas,
no las CV s, para simplificar la forma de las restricciones.

Especifique la función objetivo. El paso final es programar la función objetivo ÿ: la


suma ponderada por importancia de las revarianzas del total estimado de ingresos,
empleados, establecimientos totales que reclaman el crédito de investigación y
establecimientos totales con filiales en el extranjero.
Esto se logra en proc nlp asignando el peso de importancia (impwts[j]) multiplicado
por la relvarianza (relvar[j]) para cada variable a los elementos del arreglo, f1-f4.
La instrucción MIN f1-f4 indica el procedimiento para minimizar la suma de f1 a f4.
Dado que impwt[1]=1 y las otras ponderaciones de importancia son cero, se
minimiza la revarianza de solo los ingresos totales estimados. El código SAS está
escrito en términos generales para ilustrar cómo se plantearía un problema para
una función objetivo de múltiples componentes.

El procedimiento de optimización. El último paso antes de enviar el código proc nlp


es especificar la técnica de optimización entre una lista de 12 opciones (consulte
el sitio web de SAS OnlineDoc para obtener más detalles). Elegimos la técnica
simplex de Nelder-Mead (TECH=nmsimp) debido a que el problema tiene
restricciones no lineales (ver, por ejemplo, la restricción (iii) en la Sección 5.1).
La otra opción de algoritmo que permite restricciones no lineales es el método
cuasi Newton (TECH=quanew). Después de experimentar un poco, encontramos
que Nelder-Mead era preferible para los ejemplos de este capítulo.
Una nota rápida sobre el registro del programa. Como con cualquier programa, ver
el registro del programa es fundamental para determinar si el código se ejecutó
correctamente. Las notas SAS incluyen mensajes de compilación y ejecución. Si
hubiera errores de sintaxis, combinaciones ilegales de técnicas y opciones de
resolución u otras infracciones, dicha información se mostraría en el registro del programa.
El registro también muestra cuándo se ejecutó el programa y cuál fue la entrada y
Machine Translated by Google

148 5 Programación Matemática

los archivos de salida fueron, si los hubiere. Conservar el archivo de registro como parte de los registros del proyecto es
una parte esencial de una buena documentación.
Los resultados de la optimización. El archivo de salida (Ejemplo 5.4(NLP).lst)
contiene mucha información, pero nos centraremos solo en ciertas secciones.
En primer lugar, es importante comprobar las especificaciones de la sonda de
optimización, como las estadísticas de resumen que se presentan en la Tabla 5.3).

Los resultados de nuestra optimización se encuentran en la sección titulada,


Resultados de optimización. La Tabla 5.4 resume los resultados de Solver y NLP
junto con los de proc optmodel, que cubrimos en la siguiente sección.
Los resultados resumidos en el archivo SAS lst se enumeran en número de iteraciones,
violaciones máximas de restricciones y valor final de la función objetivo, entre
otras cosas. En este ejemplo, solo se necesitaron 11 iteraciones para encontrar una solución.
Los tamaños de muestra específicos del sector (n1-n5) en la Tabla 5.4 de proc nlp
son casi los mismos que se derivan de la optimización de Solver (consulte Estimar
columna en el archivo lst) y suma a un tamaño de muestra general de 2.848 después
redondeando cada valor. Esta asignación de muestra satisface el presupuesto del estudio.
restricción de $300,000 y las restricciones en los CV del total estimado
número de empleados y número de establecimientos que reclaman la investigación
crédito. Hay una violación menor en el CV para la cuarta variable, offshore
afiliados (relvar4 L 0.000900 -325E-21 Active NLIC), pero esto es
sin importancia práctica. También notamos que la revarianza estimada para
la cantidad total de ingresos está dada por la función objetivo (Valor de
Función Objetivo = 0.0021705237). Sacar la raíz cuadrada da
el CV de los ingresos totales de alrededor del 4,7 %, que es mayor que el del
otras estimaciones.

Tabla 5.3: Estadísticas resumidas de la salida de PROC NLP

Resumen estadístico Interpretación

Estimaciones de parámetros 5 Tamaño de la muestra por cinco sectores


Funciones (observaciones) 4 Relavarianzas para cuatro variables
límites inferiores 5 Tamaños de muestra (5) mayores a 100
límites superiores 5 tamaños de muestra (5) menos que tamaños pop
Restricciones lineales 1 modelo de costo
Restricciones no lineales 3 Restricciones en tres CV s

Código 5.1: código SAS 9.2 proc nlp para el problema de optimización del ejemplo 5.2

/**************************************************** *** **************/


/* EXPEDIENTE: */ Ejemplo 5.4 (NLP).sas /*
PROYECTO: Herramientas Prácticas para el Diseño y Ponderación de Encuestas */
/* */ Muestras /
* PROPÓSITO: Comparar los resultados de Solver para el ejemplo del curso. */
/* FECHA: 17/10/2010 */
Machine Translated by Google

5.3 PNL PROC SAS 149

/* AUTOR: J.Dever, R.Valliant */ /************************************ ****************************/opciones sin centro;

* Inicializar tamaños de muestra de estrato; inicio de datos100


(tipo = est); entrada _tipo_ $ n1 n2 n3 n4 n5; líneas de datos;

parms 100 100 100 100 100


;
correr;

inicio de datos500 (tipo = est); entrada _tipo_ $ n1


n2 n3 n4 n5; líneas de datos;

parámetros 500 500 500 500 500


;
correr;

**************************************************** **************; ** Optimización - Método Nelder-Mead.


**;
**************************************************** **************;

PROC NLP INEST=start500 TECH=nmsimp


SALIDA=aa;
*_____ CARGAR PARÁMETROS _____*;
** Recuentos de población **;
ARRAY Nh[5] 6221 11738 4333 22809 5467;
**Valores de costo de estrato**;
costo de ARRAY[5] 120 80 80 90 150;
** Medias y proporciones **; 17 126
ARRAY p[4,5] 85 511 11 23
21 70 32 157
0,8 0,2 0,5 0,3 0,9
0,06 0,03 0,03 0,21 0,77;

** Población Desviaciones estándar **; ARRAY sd[4,5] 170 8.8 23


25.5 315
255,5 5,25 35 32 471;
** Calcular para proporciones **;
HACER J=3 A 4;
HAGO YO=1 A 5;
sd[j,i] = sqrt(p[j,i] * (1 - p[j,i]) * Nh[i] / (Nh[i] - 1));
FINAL;
FINAL;

*_____ VARIABLES DE DECISIÓN _____*;


** Valores optimizados = Tamaños de muestra específicos de estrato **;
ARRAY n[5] n1-n5;
DECVAR n1-n5;

*_____ RESTRICCIONES _____*;


** Límites en tamaños de muestra específicos de estrato **;
LÍMITES n1-n5 >= 100,
Machine Translated by Google

150 5 Programación Matemática

n1 <= 6221, n2 <= 11738, n3 <= 4333, n4 <= 22809, n5 <= 5467;

** Restricción lineal = Restricción de costo general **;


LINCON 120*n1 + 80*n2 + 80*n3 + 90*n4 + 150*n5
<= 300000;
** Calcular Componentes de Estrato, Total General **;
MATRIZ m[4,5] m1-m20;
HACER J=1 A 4;
HAGO YO=1 A 5;
m[j,i] = p[j,i] * Nh[i];
FINAL;
FINAL;
** Revarianzas específicas de variables **;
ARRAY v[4,5] v1 - v20;
ARRAY var[4] var1 - var4;
ARRAY tot[4] tot1 - tot4;
ARRAY varrel[4] varrel1 - varrel4;

HACER J=1 A 4;
HAGO YO=1 A 5;
v[j,i] = ((Nh[i]**2/n[i]) - Nh[i]) * (sd[j,i]**2);
FINAL;

var[j] = v[j,1] + v[j,2] + v[j,3] + v[j,4] + v[j,5]; tot[j] = m[j,1] + m[j,2] + m[j,3] + m[j,4] + m[j,5]; varrel[j] =
var[j] / tot[j]**2;

FINAL;

** Restricciones no lineales = Valor máximo para CV **;


NLINCON varrel2 <= 0,0025, varrel3 <= 0,0009, varrel4 <= 0,0009;

*_____ FUNCIÓN OBJETIVA _____*;


Importaciones de ARRAY[4] 1 0 0 0; ** Pesos de importancia **;
ARREGLO f[4] f1-f4; ** Función a Minimizar **;
MÍN. f1-f4;

HACER J=1 A 4; f[j] =


impwts[j] * varrel[j];
FINAL;
CORRER;

/**************************************************** *** **************/

5.4 MODELO OPCIONAL DE PROC SAS

SAS contiene una serie de opciones para la optimización multicriterio. Además


de proc nlp, proc optmodel es muy útil para asignar casos de muestra a estratos
de diseño a través de una optimización no lineal. El procedimiento optmodel
tiene muchas de las mismas ventajas señaladas para proc nlp. Este nuevo SAS
Machine Translated by Google

5.4 MODELO OPCIONAL DE PROC SAS 151

Tabla 5.4: Resumen de resultados para Solver, proc nlp, proc optmodel y
soluciones de optimización constrOptim.nl

h Sobresalir SAS NLPa S.A.S. constrOptim.nl


solucionador (iniciar=500) OPTMODELa (iniciar=1,100)
(iniciar=500) con SQP

(iniciar=100)

Sector diferencia diferencia diferencia

1 Fabricación 413 413 0 363 ÿ50 430 17


2 Venta al por menor 317 318 Una 372 55 233 ÿ84
3 venta al por mayor 119 124 5 103 ÿ16 114 ÿ5

4 Servicio 1,399 1,397 ÿ2 1.384 ÿ15 1.535 136


5 Finanzas 598 596 ÿ2 626 28 550 ÿ48

2.846 2.848 2 2,848 0 2,862 dieciséis

CV CV % RelDiff CV % RelDiff CV % RelDiff


1 Ingresos (millones)b 4,65 % 4,66 % ÿ0,01 % 4,71 % 0,99 % 4,75 % 1,93 %

2 empleados 2,39 % 2,39 % 0,07 % 2,42 % 1,17 % 2,44 % 2,09 %


3 crédito de investigación 2,09 % 2,08 % ÿ0,11 % 2,08 % ÿ0,38 % 2,19 % 4,78 %

4 filiales en el extranjero 3,00 % 3,00 % —% 3,00 % —% 3,00 % —%

Función objetiva 0,217 % 0,217 % —% 0,221 % 2,07 % 0,226 % 4,15 %

a Los procedimientos fueron implementados en SAS 9.2


b
Minimizado en la optimización
c Diff = diferencia de la solución Solver

El procedimiento utiliza el "lenguaje optmodel" que se anuncia como que permite una rápida
traducción de un “problema verbal” de optimización en código de programa ejecutable.
Sin embargo, las técnicas de optimización no lineal enumeradas actualmente para este
procedimiento son menos que las especificadas para proc nlp.

Ejemplo 5.5 (Optimización con SAS optmodel). Reformulamos el proc nlp


código presentado en el Ejemplo 5.4 como código SAS 9.2 proc optmodel para comparación.
El código proc optmodel, el registro del programa y el archivo de salida utilizados en
este ejemplo se encuentran en el correspondiente Ejemplo 5.5 (OptModel)
archivos en el sitio web del libro. El código también se muestra en Código 5.2.
El código del programa sigue el esquema desarrollado para el proceso anterior.
Ejemplo de PNL con algunas excepciones. Por ejemplo, los parámetros de optimización en
este ejemplo se cargan desde el archivo de datos del Ejemplo 55 a través de un
instrucción LEER DATOS. Las declaraciones de optmodel PRINT en todo el
código imprime los valores iniciales en el archivo de salida (.lst) con fines de verificación.
Tanto las restricciones lineales como las no lineales se especifican con la declaración CON.
Además, renunciamos a los pesos de importancia en este ejemplo y en su lugar
minimizar sólo la revarianza de la variable de ingresos. En este caso, inicializar los tamaños
de muestra del estrato a 100 en lugar de 500 produce un valor más bajo
Machine Translated by Google

152 5 Programación Matemática

de la función objetivo. La inicialización se realiza con la instrucción que especifica las


variables de decisión:

VAR NSamp{i en 1..5} init 100;

La sección “SOLUCIÓN” del programa contiene sentencias que invocan la rutina


de optimización. La primera declaración SOLVE calcula una asignación óptima con un
método predeterminado que es apropiado para el problema de optimización
especificado. En este caso, la técnica predeterminada es SQP, un método general de
programación no lineal. Las sentencias PRINT subsiguientes muestran los tamaños
de estrato, el tamaño total de la muestra y la revarianza resultante para las cuatro
variables de análisis. El valor de la función objetivo (revarianza de los ingresos) es
ligeramente superior (0,002214 frente a 0,002171) que el método de Nelder-Mead
aplicado con proc nlp. Se obtuvieron resultados similares utilizando el método cuasi-
Newton (tech=quanew) en la segunda sentencia SOLVE. El tamaño total de la muestra
es similar entre los procedimientos optmodel y nlp, pero existen diferencias para los
tamaños de muestra específicos del estrato. Esto enfatiza aún más que son posibles
múltiples soluciones para un problema de optimización; comparar las soluciones bajo
diferentes técnicas de optimización (es decir, análisis de sensibilidad) es siempre una
práctica útil.
La última sección del código, antes de la instrucción QUIT, genera el ID del estrato
(Stratum) y la solución de optimización (Resp Alloc) en un archivo de texto denominado
OptModel.strata.out. Con este archivo de texto, se puede construir un programa SAS
posterior para inflar el número de encuestados por índices de inelegibilidad y falta de
respuesta especificados para producir el tamaño de muestra final (consulte el Capítulo
6) y luego seleccionar aleatoriamente los casos del marco de muestreo.
Sin este archivo de texto, los estadísticos deben, por ejemplo, cortar y pegar los
resultados de la optimización en el programa de muestreo, un problema cuando la
optimización se debe volver a ejecutar varias veces con cambios en las restricciones
y/o cuando el número de estratos es mucho más grande que el ejemplo presentado aquí.

Código 5.2: código SAS proc optmodel para el problema de optimización del ejemplo 5.2

/**************************************************** *** **************/ /* Programa: Ejemplo 5.5 (OptModel).sas */ /* Fecha:


17/10/10 */ /* Autor: J.Dever * / /* Propósito: Resolver problema de optimización de ejemplo. */ /
*************************************************** ***** ****************/opciones sinorientación central=retrato

TÍTULO1 "Ejemplo 5.5";

**************************************************** **************;
Título2 "Cargar información";
**************************************************** **************;

DATOS Ejemplo_55;
LONGITUD Estrato 3 Nh UnitCost Ingresos Empleados Revnu_SD Emply_SD
RCredit en alta mar 8;
ETIQUETA Estrato = "ID de estrato"
Machine Translated by Google

5.4 MODELO OPCIONAL DE PROC SAS 153

Nh = "Recuentos de marcos de muestreo por estrato"


UnitCost = "Coste de recopilación de datos específico de la unidad"
Ingresos = "Pob. Ingresos medios (millones)"
Empleados = "Pob. Media de empleados"
Revnu_SD = "Pob. Desviación estándar de ingresos (millones)"
Emply_SD = "Pob. Desviación Estándar Empleados"
RCredit = "Pob. Proporción de créditos de investigación reclamados"
OffShore = "Proporción de la población con filiales en el extranjero"; ENTRADA Estrato Nh UnitCost
Ingresos Empleados Revnu_SD Emply_SD
RCredit en alta mar; TARJETAS;
1 6221 120 85 511 170,0 255,50 0,8 0,06

2 11738 80 11 21 8.8 5,25 0,2 0,03


3 4333 80 23 70 23,0 35,00 0,5 0,03
4 22809 90 17 32 25,5 32,00 0,3 0,21
5 5467 150 126 157 315,0 471,00 0,9 0,77
;
CORRER;

*Desviaciones estándar para proporciones;


DATOS Ejemplo_55;
SET Ejemplo_55;
ARRAY p_s RCredit OffShore;
ARRAY sd_s RCrdt_SD OffSh_SD;

HACER MÁS p_s;


sd_s = SQRT(p_s * (1 - p_s) * Nh / (Nh - 1));
FINAL;
CORRER;

PROC PRINT DATA=Ejemplo_55 NOOBS UNIFORMES; CORRER;

**************************************************** **************;

Título 2 "Asignación de muestra: solución inicial";


**************************************************** **************;
MODELO OPCIONAL PROC;

*_____ CARGAR PARÁMETROS _____*;


*Recuentos de marcos de estrato;
NÚMERO Nh{1..5}; LEER
DATOS Ejemplo_55 EN [_n_] Nh; IMPRIMIR Nh;

*Costo por unidad;


NÚMERO CostoUnitario{1..5}; LEER
DATOS Ejemplo_55 EN [_n_] CostoUnitario; IMPRIMIR CostoUnitario;

*Medias poblacionales y desviaciones estándar;


NUMBER Ingresos{1..5}, Empleados{1..5}, RCredit{1..5}, OffShore{1..5}, Revnu_SD{1..5},
Emply_SD{1..5}, RCrdt_SD {1..5}, OffSh_SD{1..5}; LEER DATOS Ejemplo_55 EN [_n_]

Ingresos Empleados RCredit OffShore


Revnu_SD Emply_SD RCrdt_SD OffSh_SD;
IMPRIMIR Ingresos Revnu_SD;
Machine Translated by Google

154 5 Programación Matemática

*_____ VARIABLES DE DECISIÓN _____*;


*Tamaños de muestra de estrato con asignaciones de valores iniciales; VAR NSamp{i en
1..5} init 100; IMPRIMIR NSamp;

*_____ RESTRICCIONES _____*;


*Tamaños de estrato >= 100, <= Tamaños de estructura;
CON SampSize{i en 1..5}: 100 <= NSamp[i] <= Nh[i];

*Presupuesto de la
Encuesta; CON Presupuesto: (SUM{i en 1..5} UnitCost[i] * NSamp[i]) <= 300000;

*Revarianza para Número Medio de Empleados;


CON RelVar1:
(SUMA{i en 1..5} Nh[i]*(Nh[i]/NSamp[i]-1)*Emply_SD[i]ˆ2)
/ ((SUM{i en 1..5} Nh[i] * Empleados[i])ˆ2) <= (0.05ˆ2); IMPRIMIR
((SUMA{i en 1..5} Nh[i]*(Nh[i]/NSamp[i]-1)*Emply_SD[i]ˆ2)

/ ((SUM{i en 1..5} Nh[i] * Empleados[i])ˆ2));

*Revarianza por Proporción de Investigación Reclamada


créditos;
CON RelVar2:
(SUMA{i en 1..5} Nh[i]*(Nh[i]/NSamp[i]-1)*RCrdt_SD[i]ˆ2)
/ ((SUM{i en 1..5} Nh[i] * RCredit[i])ˆ2) <= (0.03ˆ2);

*Revarianza por Proporción que Tiene Afiliadas en el Extranjero;


CON RelVar3:
(SUMA{i en 1..5} Nh[i]*(Nh[i]/NSamp[i]-1)*OffSh_SD[i]ˆ2)
/ ((SUM{i en 1..5} Nh[i] * OffShore[i])ˆ2) <= (0.03ˆ2);

*_____ FUNCIÓN OBJETIVA _____*;

MIN f = (SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * Revnu_SD[i]ˆ2) / ((SUM{i en 1..5} Nh[i] *


Ingresos[i])ˆ2);

*_____ SOLUCIÓN _____*;

RESOLVER;

IMPRIMIR NSamp;
IMPRIMIR(SUMA{i en 1..5} NSamp[i]); PRINT
(SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * Revnu_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] *
Ingresos[i])ˆ2))); PRINT (SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) *
Emply_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * Empleados[i])ˆ2))); PRINT (SQRT((SUM{i en
1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * RCrdt_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * RCredit[i])ˆ2))); IMPRIMIR
(SQRT((SUMA{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) *
Machine Translated by Google

Paquete 5.5 R alabama 155

OffSh_SD[i]ˆ2) / ((SUM{i en
1..5} Nh[i] * OffShore[i])ˆ2)));

RESUELVE con NLPC;


IMPRIMIR NSamp;
IMPRIMIR(SUMA{i en 1..5} NSamp[i]); PRINT (SQRT((SUM{i
en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * Revnu_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * Ingresos[i])ˆ2))); PRINT
(SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * Emply_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] *
Empleados[i])ˆ2))); PRINT (SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) * RCrdt_SD[i]ˆ2) /
((SUM{i en 1..5 ) } Nh[i] * RCredit[i])ˆ2))); PRINT (SQRT((SUM{i en 1..5} Nh[i] * (Nh[i]/NSamp[i] - 1) *
OffSh_SD[i]ˆ2) / ((SUM{i en 1..5 ) } Nh[i] * Costa afuera[i])ˆ2)));

*_____ SALIDA SOLUCIÓN _____*;

NÚMERO i;
ARCHIVO "OptModel.strata.out"; PUT @1
"Estrato"
@10 "Resp_Alloc"; HACER
i=1 A 5;
PONER @1 yo
@10 NSamp[i];
FINAL;
CLOSEFILE "OptModel.strata.out";

ABANDONAR;

CORRER;

Paquete 5.5 R alabama

El software R tiene varias rutinas de optimización diferentes. Hasta la fecha, la


mayoría de funciones como solve.QP, nlminb y constrOptim solo permiten
restricciones lineales en las variables de decisión. El paquete de alabama
(Varadhan 2010) contiene una modificación de constrOptim, llamada
constrOptim.nl, que manejará restricciones no lineales. Utiliza lo que se conoce
como algoritmo Lagrangiano aumentado (Lange 2004; Madsen et al.
2004). Este algoritmo es diferente a los de Excel Solver y SAS.
El código 5.3 muestra el código R que repetirá la optimización del ejemplo 5.2.
Machine Translated by Google

156 5 Programación Matemática

El vector de variables de decisión, nh, la población del estrato cuenta, Nh,


los costos unitarios del estrato, ch, el presupuesto y las medias del estrato de los cuatro
variables (ingresos, empleados, establecimientos que reclaman el crédito de investigación,
y establecimientos con filiales en el extranjero) se asignan al comienzo de
el programa. Como en el código SAS nlp, las desviaciones estándar del estrato son
asignado para ingresos y empleados, pero computado para crédito de investigación y afiliados
en el extranjero. Las funciones, relvar.rev, relvar.emp, relvar.rsch,
y relvar.offsh, calcule las relavarianzas de los totales estimados para cada
variable. Aunque cada realvarianza utiliza la misma fórmula general, una de las
restricciones de constrOptim.nl es que la función objetivo y las funciones que definen
restricciones no lineales pueden tomar solo un parámetro: nh en
este caso. Por lo tanto, se escribieron funciones separadas para nuestro ejemplo.
La función constrOptim.nl puede tomar muchos parámetros de entrada, pero
solo se necesitan unos pocos para el ejemplo 5.2. Los que se usan aquí y sus explicaciones
del archivo de ayuda son:

par Vector de valores iniciales de variables de decisión


fn Función objetiva
hin Una función vectorial que especifica restricciones de desigualdad
tal que hin[j]>0 para todo j
heq Una función vectorial que especifica restricciones de igualdad
tal que heq[j]=0 para todo j
control.exterior
eps Tolerancia para la convergencia de las iteraciones externas del
algoritmo de barrera y/o lagrangiano aumentado
mu0 Parámetro para penalización de barrera
método Algoritmo en optim() a utilizar; por defecto es
Método de métrica variable "BFGS"

Código 5.3: código R constrOptim.nl para el problema de optimización del ejemplo 5.2

#**************************************************** * ****************
# ARCHIVO: constrOptim.ejemplo.R
# PROPÓSITO: Usar constrOptim.nl para resolver el negocio de asignación
# problema de asignación de establecimiento
# FECHA: 14/09/09
# AUTOR: R. Valliant
#**************************************************** * ****************

requerir (alabama)
require(numDeriv) # alabama requiere el paquete "numDeriv"

# Vars de decisión
nh <- vector("numérico", longitud = 5)

# Tamaños pop de estrato


Nh <- c(6221, 11738, 4333, 22809, 5467)
Machine Translated by Google

Paquete 5.5 R alabama 157

# Costos de estrato ch <-


c(120, 80, 80, 90, 150)
# Medias de estrato y DE
# Ingresos
mh.rev <- c(85, 11, 23, 17, 126)
Sh.rev <- c(170.0, 8.8, 23.0, 25.5, 315.0)
# Empleados
mh.emp <- c(511, 21, 70, 32, 157)
Sh.emp <- c(255,50, 5,25, 35,00, 32,00, 471,00)
# Proporción de establecimientos que reclaman crédito por investigación

ph.rsch <- c(0.8, 0.2, 0.5, 0.3, 0.9)


# Proporción de establecimientos con filiales en el extranjero
ph.offsh <- c(0.06, 0.03, 0.03, 0.21, 0.77) presupuesto = 300000 n.min <-
100

# Función Relvar utilizada en el objetivo relvar.rev <-


function(nh){ rv <- sum(Nh * (Nh/nh - 1)*Sh.revˆ2) tot <- sum(Nh *
mh.rev) rv/totˆ2

# Funciones relvar utilizadas en restricciones no lineales # Las restricciones no


lineales pueden tomar solo 1 argumento: en este caso # el vector de decisión vars relvar.emp <- function(nh)
{ rv <- sum(Nh * (Nh/nh - 1) *Sh.empˆ2) tot <- sum(Nh * mh.emp) rv/totˆ2

relvar.rsch <- función(nh){


rv <- sum( Nh * (Nh/nh - 1)*ph.rsch*(1-ph.rsch)*Nh/(Nh-1) ) tot <- sum(Nh * ph.rsch) rv/totˆ2

} relvar.offsh <- función(nh){


rv <- sum( Nh * (Nh/nh - 1)*ph.offsh*(1-ph.offsh)*Nh/(Nh-1) ) tot <- sum(Nh * ph.offsh) rv/totˆ2

} restricciones <- function(nh){ h <- rep(NA, 13)


# tamaños de muestra de estrato <=
tamaños de población de estrato h[1:longitud(nh)] <- (Nh + 0.01) - nh

# tamaños de muestra de estrato >= un mínimo


h[(longitud(nh)+1) : (2*longitud(nh)) ] <- (nh + 0.01) - n.min h[2*longitud(nh) + 1] <- 0.05ˆ2 - relvar.emp
(nh) h[2*longitud(nh) + 2] <- 0,03ˆ2 - relvar.rsch(nh) h[2*longitud(nh) + 3] <- 0,03ˆ2 - relvar.offsh(nh) h

} heq <- función(nh){


Machine Translated by Google

158 5 Programación Matemática

heq <- 1 - sum(nh*ch/presupuesto) heq

} ans <- constrOptim.nl( # parámetro y función objetivo par = rep(1100,5), # usar par = rep(100,5)
da error: # "el valor inicial viola la desigualdad #

restricciones"

fn = varrel.rev,
# límites de parámetros hin
= restricciones, heq = heq, control.outer =
list(eps = 1.e-10, mu0 = 1e-05, NMinit = TRUE,
method = "BFGS"

)
)
respuesta

En este ejemplo, escribimos una función llamada restricciones que devuelve un


vector de longitud 13 que contiene los valores de las restricciones de desigualdad.
Dado que las restricciones de desigualdad deben tener la forma hin[j]>0, las
restricciones de que el tamaño de la muestra de cada estrato sea menor que el
tamaño de la población y mayor o igual a 100 y se escribieron como
h[1:longitud(nh)] <- (Nh + 0.01) - nh h[(longitud(nh)+1) :
(2*longitud(nh)) ] <- (nh + 0.01) - n.min

Al sumar 0,01 a Nh y nh, establecemos restricciones en las que la desigualdad es


estrictamente mayor que 0 en lugar de mayor o igual que 0. La restricción de igualdad
heq establece el presupuesto en $300 000. Una seria limitación de constrOptim.nl es
que el valor inicial de par debe ser una solución factible, es decir, una que no viole
ninguna de las restricciones de desigualdad. Si el valor de par usado para llamar a la
función no es factible, la función generará un error y terminará; no tiene características
para corregir automáticamente los valores iniciales que violan cualquiera de las
restricciones de desigualdad. Puede ser necesario experimentar un poco para llegar a
una asignación de prueba que sea factible. Ninguna de las opciones de software de
optimización discutidas anteriormente tenía este requisito para el valor inicial de nh, lo
que las hace más fáciles de usar.
La función constrOptim.nl también es sensible a los tamaños relativos de los
valores en las restricciones de igualdad y desigualdad. Las revarianzas en el ejemplo
son números pequeños, por ejemplo, 0,032, mientras que el presupuesto de $300 000
es grande. Si la restricción de igualdad se establece directamente en sum(nh*ch)-
budget, el algoritmo presta más atención a cumplir con la restricción presupuestaria
que a minimizar la función objetivo, que es la revarianza de los ingresos totales.
Al definir la restricción de igualdad como 1-sum(nh*ch/presupuesto), teníamos una
cantidad que era 0 cuando el presupuesto se gastó por completo y cuyo rango estaba
en desviaciones relativas del presupuesto y no en dólares. Esta escala de la restricción
heq ayuda a lograr un valor más pequeño de la función objetivo.
Machine Translated by Google

5.6 Contabilización de las variaciones del problema 159

Los resultados pueden volcarse en la pantalla o asignarse a un objeto como en el Código 5.3.
La solución para los tamaños de muestra de estrato en este ejemplo está en ans$par; el valor
de la función objetivo está en ans$value. La salida para el ejemplo anterior es

$par
[1] 429,7308 233,4132 113,5080 1534,6032 550,4323 $valor [1] 0,002260288

Esta solución no es tan buena como la obtenida anteriormente, aunque la diferencia es


pequeña. El valor objetivo de 0,002260288 es aproximadamente un 4,3 % superior al 0,00216695
obtenido con Solver y proc nlp.

5.6 Contabilización de las variaciones del problema

Concluimos este capítulo con una nota sobre contabilidad. En las secciones anteriores,
enfatizamos que la optimización multicriterio en general es un proceso iterativo.
Por ejemplo, las restricciones se establecen y luego se relajan (o se endurecen) en función de
la solución de asignación inicial. Probar una serie de opciones de costos y precisión de las
estimaciones es una forma especialmente útil de explorar un problema. Esta también suele ser
una buena manera de ilustrar las compensaciones a los clientes. Recomendamos que los
investigadores establezcan y mantengan un sistema contable para documentar:

• Valores iniciales establecidos para el problema de


optimización • Resultados de optimización tales como restricciones alcanzadas y variable de decisión
valores
• Razones para cambiar los componentes de optimización • Nuevos
valores establecidos para el problema de optimización

Tener un sistema bien documentado minimizará la probabilidad de repetir problemas de


optimización implementados previamente pero descartados y facilitará la escritura de
documentación de muestreo para el estudio en cuestión.
Machine Translated by Google

160 5 Programación Matemática

Ejercicios

5.1. A un investigador le gustaría encuestar a los profesores de matemáticas de las escuelas


primarias y secundarias de los condados de Montgomery, Howard y Prince George en el estado
de Maryland. Los objetivos de la encuesta son estimar la proporción de maestros que usan
computadoras en la instrucción y, entre los maestros que sí usan computadoras, qué proporción
enseña el uso de hojas de cálculo. Las estimaciones se desean para (i) cada condado por
separado, (ii) para dominios definidos por primaria y secundaria combinadas en los tres condados,
y (iii) para dominios primarios y secundarios dentro de cada condado.

Al investigador también le gustaría poder reconocer diferencias a nivel de condado que superen
el 10 % de puntos. El presupuesto para la parte de recopilación de datos de la encuesta es de
$100,000 y se anticipa que encuestar a cada maestro costará alrededor de $150.

¿Cómo formularía el problema de asignación de muestras como un problema de optimización?


Enumere los parámetros de población que necesitaría para resolver el problema de optimización.
¿Qué haría con los valores de los parámetros si no se hubiera realizado una encuesta anterior
similar?

5.2. Con los datos del ejemplo 5.2 , calcule (a) la asignación proporcional, (b) la asignación de
Neyman para estimar el ingreso total y (c) la asignación restringida de costos para el ingreso,
suponiendo un presupuesto de $300 000. Tenga en cuenta que las asignaciones proporcionales
y de Neyman no tienen una restricción sobre los ingresos; cada uno debe encontrarse para el
tamaño total de la muestra de n = 2, 848 como en el Ejemplo 5.2. Para cada una de estas
asignaciones, calcule los CV para los ingresos totales estimados, el total de empleados, el número
total de establecimientos que reclaman el crédito de investigación y el número total de
establecimientos que tienen filiales en el extranjero.
¿Respetan las asignaciones (a), (b) y (c) las restricciones utilizadas en el ejemplo 5.2.

5.3. Resuelva el Ejemplo 5.2 con las siguientes restricciones:

(i) Presupuesto de costos variables = $300,000. (ii)


CV ÿ 0,05 sobre el número total estimado de empleados. (iii) Se
muestrean al menos 100 establecimientos en cada sector. (iv) El número
muestreado en cada estrato es menor que el recuento de la población, nh ÿ Nh.

(v) CV ÿ 0,03 sobre el número total estimado de establecimientos que reclaman


el crédito fiscal de investigación.

(vi) CV ÿ 0,05 sobre el número total estimado de establecimientos con descuento


afiliados a la costa.

En otras palabras, cambie la restricción en el CV del afiliado extranjero a 0,05 y vuelva a calcular
la asignación. Comente las diferencias en la asignación resultante en comparación con la del
Ejemplo 5.2.

5.4. Resuelva el Ejemplo 5.2 con las mismas restricciones CV que en el Ejercicio 5.3 (0.05 en
empleados, 0.03 en el total de establecimientos que reclaman el crédito de investigación,
Machine Translated by Google

5.6 Contabilización de las variaciones del problema 161

0,05 sobre el total de establecimientos con filiales en el extranjero), pero revisar el


objetivo para minimizar el costo total. Mantenga las restricciones de que la muestra
en cada estrato debe ser menor que el recuento de la población y que se muestreen
al menos 100 unidades en cada estrato.
Discuta por qué hay diferencias en las soluciones encontradas en los Ejercicios
5.3 y 5.4.

5.5. Determine la asignación a los estratos en el Ejemplo 5.2 con base en la siguiente
configuración. Minimizar ÿ = 0.75×relvar Tˆrev +0.25×relvar Tˆ elemp
total donde T de
, estimado Rvdo
es

ingresos y Tˆ Las restricciones en el problema son:


emp es el total estimado de empleados.

• Muestrear al menos 200 establecimientos en cada estrato.


• El número de muestras de un estrato debe ser inferior al 20 % de la población del
estrato. • Los CV sobre el número total estimado de establecimientos que
reclaman el crédito de investigación y tienen filiales en el extranjero deben ser como
máximo 0,02. • El presupuesto es de $600,000.
Machine Translated by Google

Capítulo 6
Tasas de resultado y efecto sobre el tamaño de la muestra

Las tasas de resultados, como el porcentaje de unidades de muestra que se niegan a


participar en una encuesta, generalmente tienen tres usos. El primero es medir el
rendimiento del estudio y las tasas de resultados a menudo también se denominan tasas
de rendimiento o indicadores de proceso. Por ejemplo, un cliente podría desear saber qué
proporción de la muestra resultó en una entrevista completa. El segundo uso es inflar un
tamaño de muestra calculado por pérdida de unidades de muestra. Por ejemplo, un
estadístico de encuestas determina el número de unidades de muestra necesarias para
detectar una diferencia de tres puntos porcentuales en las estimaciones para hombres y
mujeres para un tamaño y poder de prueba específicos, como se analiza en el Cap. 4.
Finalmente, las tasas de estudio también se pueden incorporar en los pesos de diseño
como factores de ajuste para crear pesos de análisis finales.
Hay mucho debate sobre las tasas de resultado de los estudios, y es importante señalar
que esas tasas no deben verse como medidas de la calidad de los datos (Groves 2006).
Sin embargo, las tasas de resultados guían las decisiones de campo y la lógica detrás de
ellas ayuda en las etapas de planificación de una encuesta. Por lo tanto, dedicaremos
tiempo en este capítulo a explicar estos dos primeros usos. La incorporación de las tasas
de resultados en los pesos de diseño se discutirá en la Parte III.
Comenzamos nuestra discusión enfocándonos en un conjunto común de códigos de
disposición que se necesitan para definir las tasas de resultados. Gran parte del material
resumido en este documento sigue las definiciones estándar proporcionadas por la
Asociación Estadounidense para la Investigación de la Opinión Pública (AAPOR) en su
documento titulado “Definiciones estándar: disposiciones finales de códigos de casos y
tasas de resultados para encuestas” (AAPOR 2011). En algunas encuestas, puede haber
diferencias de opinión entre los miembros del equipo del proyecto sobre cómo se deben
calcular las tasas. El uso de los estándares AAPOR es una buena manera de evitar debates
que consumen mucho tiempo sobre lo que se debe hacer.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 163


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 6, © Springer Science+Business Media New York 2013
Machine Translated by Google

164 6 Tasas de resultado y efecto sobre el tamaño de la muestra

6.1 Códigos de disposición

Códigos numéricos que describen el estado de recopilación de datos actual o final de cada
las unidades de muestra se conocen como códigos de disposición. AAPOR proporciona una lista de
códigos de disposición recomendados; sin embargo, estos códigos de disposición son generalmente
específicos de cada organismo de recopilación de datos. Por lo tanto, a veces puede ser necesario
negociar con la agencia de recopilación de datos para ampliar su conjunto de códigos.
Por ejemplo, los códigos de disposición de muestra registrados para el estado de mayo de 2004
of Forces Survey of Reserve Component Members (SOFReserves), una encuesta
realizado por Defense Manpower Data Center (2004) de Military Reservists,
se proporcionan en la Tabla 6.1. Si estos códigos de disposición también se utilizan para personalizar
contratación de trabajo de campo durante la recolección de datos, sería recomendable
diferenciar entre negativas y personal desplegado. Ambos códigos
actualmente se suman en la categoría 8.

Tabla 6.1: Terminología: ejemplos de disposiciones para el estudio de Reservas SOF de mayo de 2004.

Disposición
código Descripción

Una
No elegible—basado en la verificación del personal actualizado
registros
2 No elegible: informe propio/de apoderado, fallecido, enfermo, encarcelado,
apartado
3 No elegible: autoinforme de la encuesta
4 Respuesta elegible completa
5 Respuesta elegible incompleta
8 Rechazado: rechazo, despliegue, otro rechazo
9 En blanco (cuestionario devuelto)
10 No entrega postal (PND)
11 Otro no respondedor

Según la encuesta y el modo de recopilación de datos, el número de


los códigos de disposición pueden ser bastante grandes. Es útil especificar con anticipación
cómo se pueden agrupar los códigos de disposición para calcular posteriormente el rendimiento del estudio
tarifas AAPOR proporciona un mapa de los códigos de disposición a siete mutuamente
categorías exclusivas utilizadas en los cálculos de la tasa de resultados discutidos en el
Siguiente sección. Las categorías generales se describen a continuación (Tabla 6.2) junto con
con la notación correspondiente a los cálculos de la tasa. Tomamos prestada alguna notación
proporcionado en el documento AAPOR para mantener la coherencia.
Las unidades de muestra se asignan a la categoría I (entrevista completa) si brindan respuestas a
todas las preguntas apropiadas en el cuestionario. Si los participantes completan solo una parte de la
entrevista pero los datos son suficientes para
abordar los objetivos del análisis, luego los registros se clasifican en el grupo P
Machine Translated by Google

6.1 Códigos de disposición 165

(entrevista parcialmente completa). Registros con datos insuficientes (desgloses)


o asociado con aquellos que se niegan a participar (negativas) son colectivamente
llamada categoría R si se verifica que los participantes son elegibles para el estudio.

Tabla 6.2: Categorías de códigos de disposición utilizadas en el cálculo de la tasa de rendimiento.

símbolo en
categoría de tasas de estudio Elegibilidad del estudio

yo entrevista completa Elegible


PAGS
entrevista parcialmente completa Elegible
R Rechazo/ruptura Elegible
CAROLINA DEL NORTE sin contacto Elegible
tu Elegibilidad de estudio desconocida Desconocido
nordeste
no elegible Inelegible
O Otro Elegible

La categoría NC (sin contacto) contiene aquellos miembros de la muestra que nunca fueron
contactados para la entrevista pero se sabía que eran elegibles para el estudio, p.
un "timbre/sin respuesta" en una encuesta telefónica después de una cita de entrevista
programado con otro miembro del hogar. Los participantes del estudio clasificados como
no elegibles (categoría NE) generalmente se enumeran por separado de aquellos para quienes
nunca se estableció la elegibilidad (categoría U). En una encuesta telefónica, por
ejemplo, puede haber muchos números que se clasifiquen como timbre/sin respuesta
cuyo estado de elegibilidad para el estudio se desconoce. Pueden ser domicilios o números de
teléfono no asignados. La forma en que se manejan las incógnitas (U) puede hacer una
diferencia notable en las tasas de respuesta, como se analiza más adelante. Todos los casos
elegibles que no estén asignados a ninguna de las categorías mencionadas anteriormente
se asignan a una categoría "cajón de sastre" (O).
Cuando se usan en una fórmula, los símbolos de la tabla 6.2 representan el número
de unidades de muestra que caen dentro de cada categoría; la suma de las categorias
(I + P + R + NC + U + NE + O) es igual al tamaño total de la muestra (n).
La tarea principal en el cálculo de las tasas de resultados es mapear la disposición
códigos adoptados para una encuesta particular en las categorías AAPOR. Un ejemplo de mapeo
se demuestra en un artículo de Abraham et al. (2006). Un
A continuación se proporciona un extracto (Tabla 6.3) de su Tabla A-1 de American Time
Use los códigos de disposición de la Encuesta y la designación de categoría AAPOR
correspondiente.
Es importante tener en cuenta un par de cuestiones con respecto a la tarea de mapeo. Primero,
las asignaciones pueden diferir en función de las poblaciones objetivo. Es decir, para algunos
estudios, la categoría AAPOR finalizada puede diferir de la asignación ATUS que se muestra,
porque la población objetivo excluye a las personas institucionalizadas.
Esto daría como resultado un cambio para el código 19 (otro: persona designada institucionalizada)
de “otro no entrevistado” a “no elegible”. En segundo lugar, los investigadores
puede expresar diferentes preferencias sobre cómo deben ejecutarse las asignaciones.
Machine Translated by Google

166 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Tabla 6.3: Concordancia entre AAPOR y códigos de disposición interna para el año 2004
Encuesta estadounidense de uso del tiempo.

Disposición Descripción AAPOR


código cate
sangriento

entrevista completa yo

1 Parcial suficiente yo

2 No elegible: persona designada menor de edad nordeste

14 15 No elegible: persona designada fuera del hogar nordeste

miembro
18 Otro: persona designada ausente, enferma u hospitalizada O
19 Otro: persona designada institucionalizada O
21 Otro: barrera del idioma O
23 Elegibilidad desconocida: número de teléfono incorrecto tu
24 No elegible: persona designada en las Fuerzas Armadas NE
27 Elegibilidad desconocida: detector de privacidad tu
29 Otro: no entrevista O
100 No elegible: varios nordeste

104 Otro: entrada inválida O


108 No elegible: caso eliminado como reducción de muestra nordeste

109 Negativa: ruptura hostil, progreso de la entrevista R


logrado
112 Negativa: por padre/tutor/guardián R
113 Elegibilidad desconocida: contador de llamadas improductivo U
118 Sin contacto: devoluciones de llamadas incompletas CAROLINA DEL NORTE

119 Sin contacto: temporalmente no disponible CAROLINA DEL NORTE

121 Otro: barrera del idioma no resuelta O


124 Sin contacto: nunca contactado, número confirmado NC
125 Elegibilidad desconocida: nunca contactado, sin confirmar tu
número
126 Otro: error del instrumento O
127 Elegibilidad desconocida: nunca probado, sin teléfono tu
número
130 Negativa: el diario contiene menos de 5 actividades R
133 Rechazo: otros problemas de calidad de datos R

Nota: Tabla abreviada A-1 de Abraham et al. (2006)

Abrahán et al. (2006), por ejemplo, optó por no utilizar entrevistas parciales como
una categoría en sus tareas. Para un estadístico de encuestas es importante
abordar estos problemas con anticipación.

6.2 Definiciones de tasas de resultados

Esta sección describe cinco tasas generales de estudio que se aplican a la mayoría de las encuestas:
ubicación, contacto, elegibilidad, cooperación y respuesta. variaciones de estos
las tasas que son específicas para el modo de recopilación de datos se proporcionan como ejemplos.
Machine Translated by Google

6.2 Definiciones de tasas de resultados 167

Las cinco tasas que discutimos aquí tienen límites superior e inferior dependiendo de la
tratamiento de casos no elegibles y casos con elegibilidad desconocida. A menudo un
estimación de la proporción de elegibles entre las incógnitas se utiliza para crear
tasas más razonables que los límites extremos.

Tasa de ubicación

La tasa de ubicación especifica la proporción de unidades para las que se obtuvo información de contacto.
La fórmula se expresa en palabras de la siguiente manera junto con un
formulación de la tasa:

número de unidades de muestra localizadas


LOC =
número total de unidades de muestra

norte - tu I + P + R + NC + NE + O
= =
norte I + P + R + NC + U + NE + O

Por ejemplo, una muestra de mujeres que respondieron a la encuesta nacional de salud de 1993
La Encuesta de Entrevistas (NHIS) fue seleccionada para la Encuesta Nacional de Familia
Crecimiento (NSFG), Ciclo 5 (Potter et al. 1998). Información de contacto recopilada
durante el NHIS ya no era válido para algunos miembros de la muestra cuando el
NSFG fue enviado. Se utilizaron procedimientos de rastreo para localizar a muchos; sin embargo,
la tasa de localización fue inferior al 100 %. Los no contactos (NC) pueden sonar como si
son casos que no fueron localizados. Pero, en una encuesta de hogares, un no contacto podría ser un
caso en el que un guardián impide que un entrevistador
entrar en un edificio seguro. En esa instancia, el caso ha sido localizado, pero un
el contacto directo era imposible.
Una tasa de coincidencia de dirección es un ejemplo de una tasa de ubicación específica para el teléfono.
encuestas. Por lo general, los números de teléfono aleatorios seleccionados bajo un plan de muestreo
detallado se envían a un proveedor para que los procese, lo que se conoce como coincidencia inversa.
listas de direcciones Algunas de las empresas estadounidenses que venden este servicio son Telematch1,
el sistema GENESYS dentro de Marketing Systems Group (MSG)2, y Survey
Muestreo Internacional3. Envío de una carta anticipada (o de plomo) a través del correo
Se ha demostrado que a aquellos que tienen una dirección mejoran las tasas de respuesta telefónica.
(por ejemplo, Traugott y Goldstein 1993). Esto es en comparación con aquellas unidades sin información
de dirección que son contactadas sin notificación previa ("fría
llamadas”).

Una

http://www.relevategroup.com/.
2
http://www.msg.com/.
3
http://www.surveysampling.com/.
Machine Translated by Google

168 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Tasa de contacto

La tasa de contacto es ligeramente diferente de la tasa de ubicación y es la proporción de


unidades con un contacto inicial exitoso. AAPOR proporciona tres fórmulas
para tasas de contacto dependiendo del método utilizado para tratar con unidades sin
un estado de elegibilidad conocido. La primera fórmula, CON1, se calcula después de eliminar
los no elegibles conocidos y se considera un valor mínimo entre los
tres fórmulas de tasa de contacto:

número de unidades de muestra contactadas


CON1 =
número de unidades de muestra Excluyendo
inelegibles

yo + p + r + o
= n ÿ (NC + U + NE) =
n ÿ NE I + P + R + NC + U + O

Tenga en cuenta que la tasa AAPOR CON3, que excluye a aquellos con desconocido
elegibilidad (U), es el valor máximo porque el denominador es menor
que en la fórmula para CON1:

n ÿ (NC + U + NE) yo + p + r + o
CON3 = n ÿ =
(U + NE) I + P + R + NC + O

Un contacto exitoso se define aquí como un contacto en el que la ubicación


se verificó que la información es correcta. En una encuesta telefónica, las unidades de muestra
donde nunca se contactó a ninguna persona en el hogar puede considerarse como un
contacto "fallido" siempre que haya evidencia de que el número de teléfono
en realidad pertenece a un hogar. Por ejemplo, un mensaje de correo de voz residencial
normalmente se cuenta como evidencia suficiente de que se ha llegado a un hogar.
Una tercera tasa de contacto sugerida (CON2) no se muestra aquí, pero se puede encontrar
en la documentación de AAPOR (AAPOR (2011)). CON2 es similar a CON1
pero incluye en la base sólo los casos elegibles estimados entre los casos
con elegibilidad desconocida.
La definición de contacto varía según la investigación de la encuesta. Por ejemplo, el contacto
en una encuesta de marcación aleatoria de dígitos (RDD) puede significar que el entrevistador
verificó que el número de teléfono seleccionado estaba vinculado con una residencia
independientemente de la elegibilidad de las personas dentro del hogar. Como con otros
documentos del proyecto, las definiciones específicas del proyecto deben ser detalladas durante la
etapas de planificación.

Tasa de elegibilidad

Los criterios para clasificar una unidad de muestra como elegible o no elegible (categoría
NE) para el estudio se definen al principio del proceso de planificación. el conjunto de todos
elegibles define la población objetivo para la cual se producirán estimaciones.
Machine Translated by Google

6.2 Definiciones de tasas de resultados 169

La tasa de elegibilidad, denominada en el documento AAPOR como “e”, se calcula


como

número de estudio ÿ unidades de muestra elegibles


mi =
número de unidades de muestra con un estado de elegibilidad

I + P + R + NC + O
= norte ÿ (U + NE) =
norte - tu I + P + R + NC + NE + O

La elegibilidad se determina a través de un conjunto de preguntas preliminares:


a veces llamado filtro (cuestionario) para entrevistas en persona y telefónicas.
encuestas. Debido a que las preguntas de evaluación están sujetas a falta de respuesta, la tasa se
calcula entre aquellos cuyo estado de elegibilidad se determina (es decir, elegibles o no elegibles para
el estudio). La proporción de la muestra
unidades que completan la evaluación se conoce como la tasa de evaluación.
La elegibilidad se puede definir en más de una etapa del muestreo. Por ejemplo, en una encuesta
RDD asistida por lista, la unidad muestreada del marco de lista es
un número de teléfono Sin embargo, no todos los números de teléfono están asignados a un
familiar; algunos no están asignados y otros están asignados a negocios o
para uso comercial. Por lo tanto, el marco muestral contiene dos tipos de no elegibles para una
encuesta de RDD: números que no funcionan y números que no son residenciales.
La tarifa de número de trabajo y la tarifa residencial (elegibilidad) se definen como
sigue:

número de números de teléfono que funcionan


trabajo ÿ tasa de número = número
total de números de teléfono

número de números de teléfono elegibles


tasa residencial =
número total de números de muestra

Además de la coincidencia inversa, los proveedores como MSG brindan un servicio para
preseleccione los números de teléfono para eliminar (i) todos los números que no funcionan identificados
por una computadora a través de un tritono electrónico y (ii) para números residenciales
encuestas, todos los números no residenciales (por ejemplo, empresas).

Tasa de cooperación

La proporción de unidades de muestra elegibles para el estudio que brindan respuestas a un número suficiente
parte de la entrevista se llama tasa de cooperación. Esta tasa también ha sido
etiquetado como una tasa de respuesta entre los elegibles antes de las definiciones estandarizadas.
En el documento AAPOR se proporcionan cuatro tasas de cooperación según
sobre métodos para manejar entrevistas parcialmente completadas y unidades de muestra
con códigos de estado no resueltos (consulte la Sección 6.1 para obtener más información). Un general
fórmula se expresa como
Machine Translated by Google

170 6 Tasas de resultado y efecto sobre el tamaño de la muestra

número de entrevistas completas/parciales


COOP2 =
número de unidades elegibles contactadas
yo + p
= norte ÿ (R + NC + U + NE + O) =
n ÿ (NC + U + NE) yo + p + r + o

Examen de la fórmula en los documentos de definiciones estándar de AAPOR


muestra que el límite superior e inferior de la tasa de cooperación estimada
podría derivarse usando COOP1 y COOP3, respectivamente, en función de cómo
se clasifican los casos en la categoría “otros” (O). El inferior y el superior
Los límites de la cooperación se calculan de la siguiente manera:

yo
norte ÿ (P + R + NC + U + NE + O) =
COOP1 = n ÿ
(NC + U + NE) yo + p + r + o

yo
norte ÿ (P + R + NC + U + NE + O) =
COOP3 = n ÿ
(NC + U + NE + O) yo + p + r

Los miembros de la muestra con una entrevista parcialmente completa normalmente se clasifican
como encuestados si se ha recopilado información clave para abordar la principal
objetivos analíticos para el estudio. Exactamente qué elementos en un instrumento de encuesta
se consideran clave debe ser decidido por el personal del proyecto y el patrocinador de
el estudio. En algunos casos, algunas preguntas pueden considerarse clave; en otros un
Es posible que se deba responder una serie larga antes de que el caso se considere parcial.
completo.

Tasa de respuesta

La tasa de respuesta es probablemente la tasa más familiar de las discutidas. es un


extensión de la tasa de cooperación a todos los casos de muestra que son (potencialmente)
elegible. Las definiciones estándar de AAPOR incluyen seis variantes de la respuesta
fórmula. Uno que se reporta a menudo es

número de entrevistas completas/parciales


RR2 =
todos los miembros de la muestra ÿ no elegibles conocidos
yo + p
= norte ÿ (R + NC + U + NE + O) =
n ÿ NE I + P + R + NC + U + O

Otras tres fórmulas merecen atención especial en nuestra discusión: RR1, RR6,
y RR4. Las tasas RR1 y RR6 limitan la tasa de respuesta por debajo y por encima,
respectivamente, por la forma en que son tratados los completos parciales (P).
Esto se ve comparando las dos fórmulas a continuación:

yo
norte ÿ (P + R + NC + U + NE + O) =
RR1 = n
ÿ (U + NE) I + P + R + NC + O
Machine Translated by Google

6.3 Unidades de muestra con clasificación AAPOR desconocida 171

norte ÿ (R + NC + U + NE + O) yo + p
RR6 = n =
ÿ (U + NE) I + P + R + NC + O

Una directiva principal dada a los entrevistadores es recopilar información para establecer la
elegibilidad del estudio. Sin embargo, para muchos estudios, la elegibilidad nunca se verifica
para una proporción de las unidades de muestra. En 1982, el Council of American Survey
Research Organisations (CASRO) recomendó que se aplicara una tasa de elegibilidad (estimada)
(e) al número de unidades de muestra con elegibilidad desconocida (U). Una estimación del
número de inelegibles entre las incógnitas, (1ÿe)U, más el número de inelegibles conocidos (NE)
se resta del número total de casos de muestra, dejando solo el número total (estimado) de
elegibles en el denominador. Por lo tanto, nació la fórmula de tasa de respuesta de CASRO,
como RR4:

yo + p
RR4 =
I + P + R + NC + O + (e × U)

Tenga en cuenta que la tasa de respuesta, así como las demás tasas, se pueden calcular
para los dominios. Por ejemplo, algunos clientes están interesados en la proporción de
participantes elegibles contactados que completan con éxito la entrevista del estudio.
Algunos investigadores llaman a esto una tasa de finalización; se calcula de la misma manera
que RR5 en AAPOR (2011) o RR6 arriba.

6.3 Unidades de muestra con clasificación AAPOR desconocida

Como se muestra en las definiciones de las tasas de resultado en la sección anterior, los casos
de estado desconocido (U) se pueden manejar de diferentes maneras. Esta sección ofrece
algunos ejemplos que ilustran cómo las tasas calculadas pueden verse afectadas por la forma
en que se tratan las U. Debido a que las decisiones afectan directamente el valor numérico de la
tasa de estudio, deben justificarse en la documentación del proyecto. A continuación,
proporcionamos dos ejemplos para ilustrar este punto.

Ejemplo 6.1. La tabla 6.4 contiene el conteo de unidades de muestra por código de disposición
para una encuesta por correo ficticia. ¿Cómo deben tratarse las unidades de muestra U y cómo
afecta esta decisión a la tasa de ubicación?

• Escenario 1—Todas las unidades “sin respuesta” clasificadas como ubicadas

Digamos, por ejemplo, que su cliente declara que la lista de direcciones se actualiza regularmente,
por lo que los casos de "no respuesta" son en realidad rechazos. La tasa de ubicación resultante
se calcula como

(3000 ÿ (120 + 75)) =


93,5 % 3000

• Escenario 2—Ninguna Unidad “Sin Respuesta” Clasificada como Localizada


Machine Translated by Google

172 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Tabla 6.4: Resumen de recuentos de unidades de muestra de una encuesta por correo por código de disposición.

Disposición AAPOR Contar


categoría

completa yo 1,807
rechazos R 642
Inelegible nordeste 51
Ilocalizable CAROLINA DEL NORTE 120
falta de entrega postal CAROLINA DEL NORTE 75
Ninguna respuesta tu 305

Total 3,000

Con esta encuesta por correo, puede sospechar que los cuestionarios fueron entregados
a la dirección incorrecta para las unidades de "no respuesta" y que el hogar
residente simplemente tiró los materiales. La tasa de ubicación del escenario dos es
mucho más bajo que la tasa del escenario uno:

(3000 ÿ (120 + 75 + 305))


= 83,3%
3,000

• Escenario 3: una parte de las unidades “sin respuesta” clasificadas como ubicadas

De manera similar al ajuste de la tasa de elegibilidad "e", es posible que desee estimar la
número de unidades "sin respuesta" que se ubicaron usando solo esos casos
con un estado de ubicación conocido (es decir, condicionado a ser conocido). La tasa de ubicación
del escenario tres tiene un valor más cercano a la tasa del escenario uno debido a la
tasa de ubicación condicional alta:

3000 ÿ (120 + 75 + {(1 ÿ ) × 305})


= 92,8%,
3,000

donde = (1, 807 + 642 + 51) / (3,000 ÿ 305) = 92.8 % es la tasa de ubicación.

Ejemplo 6.2. La Tabla 6.5 contiene el conteo de unidades de muestra por código de disposición
para una encuesta RDD ficticia. Las tarifas para RR2 y RR6 difieren en menos de
4% puntos y se calculan de la siguiente manera:

yo + p
RR2 = = 37,3%
I + P + R + NC + O + U

yo + p
RR6 = = 41,0%
I + P + R + NC + O

Tenga en cuenta que no hay casos codificados como sin contacto u otros; por lo tanto NC=O=0 en
RR2 y RR6. Los casos en los que el teléfono siempre estuvo ocupado se codifican como NE.
Esto es una cuestión de juicio y no necesariamente se haría de la misma manera.
manera en cada encuesta.
Machine Translated by Google

6.4 Tasas ponderadas versus no ponderadas 173

Tabla 6.5: Resumen de recuentos de unidades de muestra de una encuesta de RDD por código de disposición.

Disposición AAPOR Contar


categoría

entrevista completa yo 3,264


Entrevista completa parcial P 550
Mensaje de voz R 350

barrera del idioma nordeste 75


Rechazo R 5,134
Timbrar—sin respuesta tu 914

siempre ocupado nordeste 10

no elegible nordeste 3,181


Máquina de fax nordeste 22

Total 13,500

El cálculo de la tasa de respuesta final es la tasa de respuesta de CASRO (AAPOR


RR4) que incluye el factor de ajuste e discutido en la sección anterior.
Al igual que con los cálculos anteriores, asumimos que los que no respondieron (casos R)
han sido verificados para ser elegibles. El factor e y el RR4 correspondiente
tasa se calculan de la siguiente manera:

yo + p + r
mi = = 13, 500 - (75 + 914 + 10 + 3, 181 + 22) = 0.7388
norte - tu 13, 500 - 914

yo + p
RR4 = I = 38,2%.
+ P + R + NC + (e × U)

Tenga en cuenta que el valor RR4 se encuentra entre los valores RR2 y RR6 porque
(a) RR2 cuenta todas las U = 914 incógnitas como elegibles mientras que (b) RR6 cuenta
ninguno de ellos como elegible. Tenga en cuenta que no hay casos codificados como otro; así O
= 0 en RR4.

6.4 Tasas ponderadas versus no ponderadas

Una pregunta importante que surge es: ¿debo calcular ponderado o no ponderado
tasas de rendimiento? La respuesta típica, aunque potencialmente agravante, es:
depende. Tenga en cuenta que las tasas ponderadas y no ponderadas son equivalentes si el
el diseño contiene ponderaciones iguales: un muestreo y una estimación de igual probabilidad
(EPSEM) utilizando el conocido acrónimo de Kish (1965). Si los miembros del equipo del
proyecto (incluido el cliente) desean evaluar el
muestra en el estudio actual, debe calcular las tasas no ponderadas. Para
Por ejemplo, al desarrollar el diseño de la muestra, estima que el 89 % de sus
las unidades de muestra se localizarán con éxito. Una tasa de ubicación no ponderada
Machine Translated by Google

174 6 Tasas de resultado y efecto sobre el tamaño de la muestra

muy por encima o por debajo de la tasa estimada podría sugerir el número adicional de
réplicas que se liberarán para la recopilación de datos, como se describe en la Secc. 6.5.
A la inversa, una tasa también puede verse como una estimación de un parámetro de
población. En este caso, se pueden utilizar pesos de diseño (probabilidades de inclusión
inversas) para calcular la tasa ponderada. Una tasa ponderada se considera una estimación
de la tasa que se obtendría si se incluyera en el estudio a toda la población objetivo (es decir,
un censo). Otra forma de pensar en las tasas ponderadas es la siguiente. La tasa no
ponderada es una función del diseño de muestra particular que puede incluir un muestreo
excesivo o insuficiente de ciertos dominios. La tasa ponderada se ajusta efectivamente a la
distribución subyacente de la población objetivo. Una cosa adicional a tener en cuenta es que
un intervalo de confianza alrededor de las tasas ponderadas puede facilitar un análisis de
qué tan sensibles son los cálculos del tamaño de la muestra a las diferentes tasas supuestas.

Sin embargo, dado el contraste entre las tasas ponderadas y no ponderadas, según
nuestra experiencia, los dos valores suelen estar cerca. Las tasas de muestreo y rendimiento
muy variables entre los subgrupos de unidades pueden exacerbar la diferencia. Esto sugiere
que tanto las tasas ponderadas (de diseño) como las no ponderadas se calculen como un
control de los pesos (ver el Capítulo 18 para una discusión detallada de los controles de peso).

6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial


de la muestra

Si los casos de muestra se pierden porque no se pueden contactar, no responden o se


pierden por alguna otra razón, se puede seleccionar una muestra inicial más grande.
Esto es especialmente importante si la encuesta tiene un número objetivo de respondedores.
El ajuste al tamaño de la muestra inicial puede usar algunas de las tasas de resultados
cubiertas en la Secc. 6.3, pero generalmente son más elaborados de lo necesario (o útil). Se
da un ejemplo en la Secc. 6.5.1. Otra opción, cubierta en la Secc. 6.5.2, es seleccionar
submuestras (o réplicas) que puedan liberarse para la recopilación de datos una a la vez
hasta que se alcance el número objetivo de respondedores.

6.5.1 Tasas de inflación del tamaño de la muestra en el trabajo

Las encuestas a menudo comienzan con un conocimiento insuficiente sobre la cantidad de


unidades de muestra que son elegibles para el estudio, la cantidad de unidades que se
pueden contactar durante el período de estudio o aquellas que están dispuestas a responder,
por dar solo algunos ejemplos. Las estimaciones de las tasas de resultados (a menudo
basadas en otros estudios similares) pueden ayudar a decidir cuántos casos se deben
muestrear para lograr registros suficientes para cumplir con el número objetivo de entrevistas.
Superar el número objetivo de entrevistas puede reducir innecesariamente el presupuesto restante del estud
Machine Translated by Google

6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 175

para, por ejemplo, el análisis y la redacción de informes. Un número insuficiente de


entrevistas disminuye el poder de las pruebas estadísticas o impide que se respondan
ciertas preguntas analíticas. Por lo tanto, es importante utilizar tasas que sean lo más
precisas posible para inflar el número de entrevistas objetivo. Una buena regla general
es realizar un análisis de sensibilidad de las tasas utilizando algunos valores superiores
e inferiores (límites) independientemente de la fuente de sus factores de inflación.
Considere una encuesta en persona de hogares seleccionados de un área
geográfica bajo un diseño de dos etapas. Se evaluará a los residentes del hogar de
muestra para determinar si al menos uno de ellos es un adulto elegible para el estudio.
Luego se selecciona un adulto elegible de entre la lista de elegibles identificados
dentro del hogar de muestra. Sus cálculos de potencia han determinado que 200
entrevistas completas (objetivo) cumplirán con sus objetivos analíticos. La siguiente
información sobre las tasas estimadas de rendimiento del estudio se recopiló durante
la primera semana del proyecto. Tenga en cuenta que las comunicaciones del equipo
del proyecto se han agregado en cursiva:

• Aproximadamente el 3 % de las unidades de vivienda (UH) están desocupadas


debido a nuevas construcciones y residencia de medio año. Como medida
conservadora, el equipo decide establecer un límite inferior y superior del 95 % y el
97 % para la tasa de HU elegibles. • Entre las UH ocupadas, se espera que
responda entre el 92 y el 95 %
la puerta cuando llegan los entrevistadores.
• Sin embargo, los miembros del equipo no están seguros del porcentaje que
completará el filtro de 5 m. Un miembro del equipo del proyecto especula que esta
tasa podría estar entre el 70 y el 87 %. El equipo decide colectivamente establecer
la tasa de detección en el rango de 70 a 82 %. • Las proyecciones del censo
estiman que aproximadamente el 85 % de los hogares tendrán al menos una persona
elegible. Para garantizar un número suficiente de casos elegibles, decide comparar
tasas de elegibilidad en el rango de 80 a 85 %.

• Finalmente, el cliente enfatiza que todos querrán participar en esta encuesta y


propone una tasa de cooperación de hasta el 98 %. Según la experiencia previa, la
tasa de cooperación optimista se redujo al rango de 70 a 75 %. Le comunica al
cliente que liberará una submuestra aleatoria inicial de la muestra completa basada
en la suposición del 98 % con los casos restantes liberados en réplicas según sea
necesario. Este procedimiento asegurará que los objetivos analíticos se cumplan
con el presupuesto actual del proyecto.

Pregunta. ¿Cuántas direcciones de hogares (también conocidas como líneas de


muestra) deben seleccionarse para obtener el número esperado de entrevistas en
persona?

Responder. Se deben seleccionar entre 415 y 584 líneas de muestra para el estudio.
La Tabla 6.6 infla las 200 entrevistas objetivo para las tasas discutidas anteriormente.
La forma más fácil de hacer esto es trabajar de "abajo" hacia arriba como se muestra
en la tabla. Comience con el número objetivo de entrevistas (es decir, el número mínimo
Machine Translated by Google

176 6 Tasas de resultado y efecto sobre el tamaño de la muestra

necesarios para los objetivos analíticos o el tamaño de muestra analítico deseado) y


aplicar con éxito los factores de inflación en orden inverso al temporal
en que ocurren en la encuesta. La “Tarifa HU Ocupada” tiene un
nombre, pero se puede clasificar como una tasa de elegibilidad entre unidades de vivienda. Nota
que si bien ninguna tasa individual parece excesivamente baja, en combinación,
más del doble de las 200 entrevistas objetivo. Sólo 318 a 417 líneas de muestra son
necesario si la tasa de cooperación cumple con las altas expectativas del cliente (es decir,
98 % se utiliza en la Tabla 6.6 para la tasa de cooperación). Por lo tanto, el proyecto
el equipo puede considerar crear aleatoriamente una réplica de 300 direcciones de muestra para
lanzamiento inicial seguido de réplicas adicionales de tamaño aproximado 100. Nosotros
describa esta técnica de manera más general en la siguiente sección.

Tabla 6.6: Ejemplo de inflar entrevistas objetivo por pérdida de muestra.

Entrevistas objetivo 200


Tasa de cooperación 0,7–0,75

Número de elegibles 267–286


Tasa de elegibilidad 0.8–0.85

Número examinado 314–357


Tasa de detección 0,7–0,82

Número contactado 383–510


Tasa de contacto 0,92–0,95

UH ocupadas 403–555
Tasa de HU ocupada 0,95–0,97

Ejemplos de direcciones 415–584

6.5.2 Réplicas

Una técnica que también se usa en la práctica es seleccionar al azar una gran
número de casos de muestra bajo un "peor escenario", subdividir aleatoriamente
la muestra completa en submuestras de recolección de datos (a veces llamadas réplicas),
y liberar solo el número de repeticiones necesarias para cumplir con el análisis
objetivos Como un ejemplo sencillo, suponga que un simple aleatorio
Se selecciona una muestra de 500 miembros de una asociación profesional con el objetivo
siendo obtener 100 cuestionarios cumplimentados (completos). los 500 podrían
dividirse al azar en 10 repeticiones de tamaño 50. Inicialmente, los tres primeros
es posible que se liberen réplicas. Si es necesario, se liberan réplicas adicionales
para obtener los 100 completos deseados. Tenga en cuenta que las réplicas no necesitan
contienen el mismo número de casos de muestra. Esto se hace por conveniencia y
Machine Translated by Google

6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 177

facilidad de contabilidad (es decir, para eliminar la necesidad de realizar un seguimiento de los
tamaños diferenciales al decidir liberar más muestras).
Las réplicas generalmente se forman de una manera diferente en una muestra de múltiples etapas.
En una muestra de área, como se describe en el Cap. 10, las réplicas pueden estar compuestas por
áreas geográficas. El procedimiento estándar en una muestra de área es seleccionar unidades
primarias de muestreo (PSU), que son condados o grupos de condados, en la primera etapa, y áreas
geográficas más pequeñas en la segunda etapa. Las unidades de la segunda etapa pueden ser
grupos de manzanas de la ciudad y, a menudo, se denominan segmentos. Una gran muestra de
segmentos puede seleccionarse inicialmente y dividirse en réplicas.
Debido a que las réplicas se construyen aleatoriamente, decidir retener cualquier réplica no niega
la aleatoriedad de la muestra; las ponderaciones de los casos presentados se ajustan adecuadamente
para reflejar solo las réplicas que se publicaron. Las réplicas identificadas para su publicación se
consideran una muestra aleatoria simple de la muestra original a efectos del cálculo del ajuste de
submuestreo. Sin embargo, una vez que se ha liberado una réplica para la recopilación de datos, se
deben trabajar todos los casos en esa réplica y se les debe dar un código de disposición.4 De lo
contrario, la colección completa de casos liberados no será una muestra probabilística. Nuevamente,
el objetivo final es asegurarse de tener una cantidad suficiente de casos para cumplir con los objetivos
analíticos, teniendo en cuenta cualquier ramificación en el presupuesto, el tiempo y, si corresponde,
los efectos de la ponderación desigual (consulte el Capítulo 14 para una discusión más detallada ). )
de efectos de ponderación desiguales).

Crear las réplicas por adelantado dividiendo una muestra grande en subconjuntos suele ser mucho
más fácil que seleccionar una muestra inicial y luego intentar agregarla más tarde, según el diseño de
la muestra. Agregar a una muestra aleatoria simple seleccionando otro srs de las unidades iniciales
que no son de muestra es legítimo. Pero, si la muestra inicial se selecciona con probabilidades
proporcionales al tamaño (pps), como podría ser el caso de una muestra escolar, seleccionar una
muestra suplementaria de tal manera que la muestra general sea pps no es sencillo. (Ver los ejercicios.)

4 Alternativamente, las unidades podrían trabajarse en un orden aleatorio, en cuyo caso, la recopilación de

datos podría detenerse a la mitad de una réplica. Sin embargo, trabajar casos en un orden aleatorio suele ser
poco práctico.
Machine Translated by Google

178 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Ejercicios

6.1. Calcule las siguientes tasas de rendimiento del estudio, no ponderadas y


ponderado, utilizando los datos proporcionados en la siguiente tabla: ubicación, contacto (CON1
y CON3), elegibilidad, cooperación (COOP1 y COOP2) y respuesta
(RR2 y RR4).

¿Elegible Completo? disipar disipar código de descripción Muestra Suma de


pesos de tamaño

Sí Sí Una
Encuesta devuelta: completa 18.658 432.359
Sí No Una
Encuesta devuelta— 754 18,046
incompleto
No No 2 Encuesta devuelta—fallecido 52 1,281
No No 3 Encuesta devuelta— 18 300
encarcelado
Sí Sí 8 Encuesta devuelta: completa 1,302 27,683
Sí No 8 Encuesta devuelta: parcial 102 2,507
completo
Sí No 14 Encuesta devuelta en blanco— 73 2,300
negativa activa
Sí No 17 Encuesta devuelta en blanco—no 42 1,251
razón
Sí No 26 Sin devolución, sin razón 2.500 25,000
Desconocido No 26 Sin devolución, sin razón 143 3,072
Desconocido No 27 falta de entrega postal 1.313 35,576
Desconocido No 29 Original no localizable 23 359
No No 30 Inelig antes del contacto— 18 116
fallecido
No No 31 Inelig antes del contacto— 2 150
encarcelado

Total 25,000 550,000

6.2. La siguiente tabla en la página siguiente contiene un extracto de una completa


lista de códigos de disposición desarrollados para una encuesta de RDD. Clasifica lo siguiente
códigos en las siete categorías de códigos de disposición que se muestran en la Tabla 6.2. Si usted es
incapaz de asignar el código de disposición a una sola categoría con la descripción
que se proporciona a continuación, qué información adicional sería necesario especificar para
usted para elegir entre las categorías?

6.3. Suponga que el número de unidades en una población es N y que un


la muestra inicial de n1 es seleccionada por srswor. Una muestra suplementaria de n2 es
luego seleccionadas de las N ÿ n1 unidades restantes, extraídas al azar simple
muestreo sin reemplazo:

(a) Demuestre que la probabilidad de selección de cada unidad en la muestra combinada


es (n1 + n2) /N.
Machine Translated by Google

6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 179

Código Descripción

1 entrevista completa
2 Entrevista parcialmente completada
3 devolución de llamada programada

4 Número de datáfono/fax
5 hospitalizado
6 barrera del idioma
7 Rechazo
8 No disponible durante la recopilación de datos
9 Rechazo suave: se asignará la devolución de llamada
10 Timbrar/sin respuesta
11 Miembro desplegado del ejército de EE. UU.
12 No encuestado elegible en HH
13 Negativa dura/hostil
14 Devolución de llamada: encuestado elegible no disponible, no hay entrevista

15 Otro

(b) Demuestre que si cada unidad muestral inicial tiene una probabilidad de respuesta de r1 y
cada unidad de muestra suplementaria tiene una tasa de respuesta de r2, entonces la inclusión
probabilidad de cada unidad, es decir, la probabilidad que tiene en cuenta el muestreo y
respuesta, es (r1n1 + r2n2) /N.
(c) ¿Cómo usaría el resultado de la parte (b) para seleccionar una muestra inicial grande
suficiente para producir una muestra de respuesta de algún tamaño deseado, nÿ?

6.4. La siguiente es una población de 4 escuelas con sus matrículas. A


Se selecciona probabilidad proporcional al tamaño de la muestra de n = 2 escuelas.

Muestra de estudiantes de escuela

1 110 X
2 58
3 223 X
4 133

Total 524

(a) Calcule las probabilidades de selección de las 4 escuelas en una muestra de tamaño 2.
(b) Suponga que la escuela 3 se niega a cooperar. Una escuela de reemplazo es
seleccionados de las escuelas 2 y 4 con probabilidad proporcional a sus tamaños relativos. Es
decir, seleccione una escuela con pps con el tamaño relativo calculado con respecto al tamaño
de la población restante después de las escuelas 1 y
3 se eliminan. Muestre que las probabilidades de selección de las escuelas 2 y 4
condicionada a que la muestra inicial de las escuelas 1 y 3 no sea igual a la
probabilidades de selección calculadas en (a).
Machine Translated by Google

180 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Calcule ÿÿ = ÿ2,dibuje1
2 + (1 ÿ ÿ2,dibuje1) ÿÿ para la ÿ2,dibuje1
escuela 2 con 2,dibuje2 de
= probabilidad
selección de la escuela 2 en la primera muestra de tamaño 2 ÿÿ = probabilidad de
selección condicional de2,lasorteo
las escuelas escuela
2 12,y dado
3. que en la primera muestra fueron seleccionadas

(c) Haga el mismo cálculo que en (b) asumiendo que las escuelas 1 y 4 fueron seleccionadas
inicialmente y que una escuela de reemplazo es seleccionada de las escuelas 2 y 3.
Repita el cálculo de ÿÿ 2 = ÿ2,dibujar1 + (1 ÿ ÿ2,dibujar1) ÿÿ 2, dibujar2
para la escuela 2 dado que inicialmente se seleccionaron las escuelas 1 y 4. ¿Es
su respuesta igual o diferente a la de la parte (b)? (d) Explique por qué el valor
de ÿÿ varía según las escuelas seleccionadas
2 implicación
en lade
muestra
esto para
inicial.
la selección
¿Cuál esde
la
sustitutos en el muestreo pps?

6.5. Debe realizar una encuesta de establecimientos comerciales minoristas en un


área metropolitana grande para evaluar sus planes de contratación o despido de
empleos en la segunda mitad del año calendario actual. El marco se comprará a un
proveedor comercial, pero se sabe que cualquier lista que proporcione el proveedor
tiene algunos problemas. La lista se actualiza una vez por trimestre calendario para
agregar nuevos negocios. El proveedor realiza solo una cantidad limitada de trabajo
para depurar su base de datos de establecimientos que han cerrado. La información
de contacto (números de teléfono, direcciones postales y direcciones de ubicación
física) está desactualizada para algunos establecimientos.

(a) Enumere los tipos de pérdidas de muestra que puede experimentar y que deben
tenerse en cuenta al determinar un tamaño de muestra inicial. (b) Discuta cómo
intentaría asignar porcentajes a estas pérdidas.

6.6. El equipo de la propuesta ha determinado que los datos de 500 entrevistas


completadas satisfarán los requisitos analíticos para el estudio de marcación de
dígitos aleatorios asistida por lista (Brick et al. 1995) que se detalla a continuación.
Su tarea es calcular el tamaño de la muestra de RDD que se seleccionará para
garantizar (en expectativa) 500 entrevistas. En concreto, realizarás las siguientes
tareas:

(a) Identifique las tasas de estudio relevantes (p. ej., tasas de respuesta y elegibilidad)
y los valores que deben considerarse para llegar a las 500 entrevistas completas
deseadas. (b) Estime la cantidad de números de teléfono que se seleccionarán
para el estudio y la cantidad correspondiente de entrevistadores necesarios para
completar el estudio a tiempo. (c) Determine el impacto de sus estimaciones de
la tarea dos en el presupuesto del estudio. (d) Resuma brevemente y justifique
sus resultados.

El cliente ha proporcionado algunos supuestos en la sección de descripción del


estudio que pueden ser útiles para su tarea. Debe considerar las ramificaciones de
cualquier suposición "demasiado optimista".
dormitorios
yotros
alojamientos
para
grupos Nota:
Los
datos
se
limitan
a
la
población
del
hogar
yexcluyen
a
la
población
que
vive
en
instituciones,
universidades 80
a
84
85
ymás 75
a
79 10
a
14
15
a
19 Menos
de
5a
9
20
a
24
25
29
30
a
34
35
a
39
40
44
45
a
49
50
54
55
a
59
60
a
64
65
a
69
70
a74 población
total Asunto
(Año)
Tabla
6.7:
Estimaciones
de
población
la
Encuesta
sobre
la
Comunidad
Estadounidense
de
2005
para
el
Distrito
de
Columbia.
1.8
1.4 2.7 7,3
7,0
5,4
5,9
4,1
5,0
9,2
8,3
6,9
6,7
6,2
4,6
3,5
2,7
11,3
515.118
+/
ÿ0,1
0,4
+/
ÿ0,2
+/
ÿ0,1
+/
ÿ0,5
+/
ÿ0,1
+/
ÿ0,4
+/
ÿ0,3
+/
ÿ0,2
+/
ÿ0,2
1.1 1.1 2.2 3.4
2.3 7,9
5,9
6,1
4,8
5,0
9,1
8,3
7,7
7,0
6,8
6,1
4,2
10,9
242.560
+/
ÿ593
0,1
+/
ÿ0,5
0,6
+/
ÿ0,3
0,4
+/
ÿ0,2
+/
ÿ0,8
0,7
+/
ÿ0,2
0,3
+/
ÿ0,5
+/
ÿ0,4
0,3
+/
ÿ0,3
+/
ÿ
1.7
2.4 3.2 6,8
5,0
5,8
3,5
9,2
8,3
6,3
6,7
6,6
6,3
4,9
3,7
2,9
11,7
272.558
Total
(%)
Margen
de
error:
Hombre
(%)
Margen
de
error:
Mujer
(%)
Margen
de
error
+/
ÿ0,3 +/
ÿ0,4 +/
ÿ0,4 +/
ÿ0,3 +/
ÿ0,4 +/
ÿ0,5 +/
ÿ0,5 +/
ÿ0,1 +/
ÿ0,2 +/
ÿ0,7 +/
ÿ0,7 +/
ÿ0,1 +/
ÿ0,2 +/
ÿ0,3 +/
ÿ0,3 +/
ÿ0,5 +/
ÿ0,5 +/
ÿ0,1 +/
ÿ593
181 6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra
Machine Translated by Google
Machine Translated by Google

182 6 Tasas de resultado y efecto sobre el tamaño de la muestra

Descripción del estudio del cliente. El Estudio de Interacción Social del Distrito de Columbia
de 2008 (DC-SIS) está patrocinado por el Consejo del Apretón de Manos Amigable de DC
(DCFH) para comprender mejor la dinámica social de los hombres en el Distrito y cómo estas
dinámicas cambian en presencia del alcohol. Todos los hombres no institucionalizados de 20
a 34 años que hayan vivido en cualquiera de los ocho distritos del DC5 durante al menos seis
meses son elegibles para el DC-SIS. Las estimaciones del conteo de población de la Encuesta
sobre la Comunidad Estadounidense de 2005 se brindan al final del problema en la Tabla 6.7.
El estudio es un diseño de muestreo de dos fases con:

• Fase 1: una entrevista de selección de CATI de 5 minutos para identificar a las personas
elegibles y hacer una cita para una entrevista cara a cara (sin incentivo para los participantes)

• Fase 2: una entrevista en persona de 45 minutos realizada lo antes posible después de la


entrevista de selección, con un pago de incentivo de $50 ($25 más por conversión de
rechazo)

Las entrevistas se llevarán a cabo en inglés o español. Un porcentaje insignificante de los


residentes de DC habla un idioma que no sea inglés o español.

Los casos de estudio se seleccionarán de los bloques de 1+ 100 números de números de


teléfono fijo proporcionados por un proveedor de su elección. Un bloque de 100 es un bloque
consecutivo de 100 números de teléfono. Por ejemplo, 202-123-1200 a 202-123-1299 es un
bloque de 100. Un bloque 1+ 100 es un bloque 100 que contiene al menos 1 número
residencial. Suponga que también elegirá un proveedor para descartar los números de teléfono
que no funcionan (aproximadamente el 65 % de la muestra) antes de la recopilación de datos
de la fase 1 y para hacer coincidir los números con las direcciones. En otras palabras, comprará
una lista inicial de números de teléfono y el proveedor determinará cuáles de estos números
son números residenciales en funcionamiento. Para cada número residencial que funcione, el
proveedor proporcionará una dirección postal, si hay alguna disponible. El porcentaje de
números para los que se puede proporcionar una dirección suele ser de alrededor del 65 %.

Anticipamos una tasa de cooperación de al menos el 50 % para la entrevista de pantalla


corta entre aquellos con domicilio disponible. Se enviará una carta por adelantado a cada
hogar para el que tenga una dirección. Entre los números sin dirección, la experiencia ha
demostrado que la cooperación es más pobre. Para este ejercicio, suponga que la tasa de
cooperación es del 25 % entre los números sin dirección. Además, suponga que la tasa de
personas elegibles es la misma para los registros con domicilio y sin domicilio. Entre los
participantes elegibles que completen la evaluación de 5 m, anticipamos una tasa de respuesta
general del 80 % a la entrevista en persona. Aproximadamente el 10 % de los encuestados
requerirá una conversión de rechazo.

El proyecto debe completarse dentro de una ventana de seis meses: un mes para el diseño
de la muestra, la selección de la muestra y la prueba previa; cuatro meses de recolección de
datos; y un mes para el procesamiento posterior a la encuesta y los informes finales.

5
http://planning.dc.gov/planning/frames.asp?doc=/planning/lib/planning/maps/docs/census tract.pdf .
Machine Translated by Google

6.5 Contabilización de las pérdidas de muestras al determinar el tamaño inicial de la muestra 183

Supuestos internos adicionales. Los entrevistadores telefónicos y de campo son


paga $10.00 y $13.50 por hora, respectivamente, y trabaja aproximadamente 24 h
por semana. En promedio, se requerirán aproximadamente 4,5 llamadas telefónicas para
completar una entrevista de selección y 1,5 visitas en persona para completar los 45 m
entrevista. Se espera que las llamadas y los contactos improductivos tarden 1,5 m y
30 m, respectivamente. Estimamos que los entrevistadores telefónicos dedican
aproximadamente el 70 % de sus horas semanales a tareas que no están relacionadas con la entrevista.
como la ubicación de la dirección, las tareas administrativas y la documentación. El
porcentaje de tiempo dedicado a programar entrevistas, tareas administrativas, cargar
datos y otras tareas similares es superior al 85 %.
Machine Translated by Google

Capítulo 7
El Proyecto de Diseño de la Encuesta de Personal:
Una solución

En el Cap. 2 para un diseño muestral estratificado de etapa única. En las siguientes secciones,
presentamos una solución a la pregunta de diseño multipropósito tomando prestado del material
presentado en los Caps. 3–6.
Se generó una serie de soluciones para la asignación de la muestra para probar la sensibilidad
de los supuestos. Además, un software diferente puede producir resultados diferentes pero
comparables. Finalmente, se debe elegir una solución única de este conjunto para la
implementación, como se analiza a continuación.

7.1 Resumen del Proyecto

El consejo sénior dentro de Verkeer NetUltraValid (VNUV) Corporation ha asignado a su equipo


de diseño la tarea de desarrollar una asignación óptima para su encuesta anual sobre el clima de
los empleados: la Encuesta sobre el clima de VNUV, ciclo 5. Los miembros de la muestra de la
encuesta se seleccionarán aleatoriamente a través de una encuesta estratificada de una sola
etapa. diseño como se empleó en encuestas climáticas VNUV anteriores. Las variables de análisis
de interés para la encuesta incluyen:

1. (Q5) En general, estoy satisfecho con VNUV como empleador en este momento
tiempo.

2. (P12) Existe un vínculo claro entre mi desempeño laboral y mi salario en


VNUV.
3. (Q15) En general, creo que me pagan de manera justa en comparación con las personas de
otras organizaciones que tienen trabajos similares al mío.
4. El número de clases de capacitación a las que asistieron los empleados en los últimos 12
meses.

El equipo de diseño se reunió durante un período de tres semanas para desarrollar la muestra.
diseño. Durante este período, ellos: (1)

Finalizaron las suposiciones utilizadas para la optimización (2)


Formularon el problema de optimización

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 185


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 7, © Springer Science+Business Media New York 2013
Machine Translated by Google

186 7 El Proyecto de Diseño de Encuestas de Personal: Una Solución

(3) Programas informáticos construidos e implementados para obtener múltiples


solución
(4) Desarrolló una presentación para destacar los resultados al Consejo Superior
(no mostrado)
(5) Resumió el trabajo en un informe final (no se muestra)

7.2 Formular el problema de optimización

La primera tarea para el modelado matemático, como se discutió en el Cap. 5 es


traducir las necesidades y limitaciones del cliente para una encuesta en un conjunto
de ecuaciones que se pueden resolver. Esto es similar a la tarea de traducir
problemas verbales en ecuaciones en nuestra primera clase de álgebra, aunque a
menudo es mucho más complicada. Siguiendo los componentes discutidos en la
Secc. 5.1, extraemos la información necesaria del Cap. 2 para construir el problema
de optimización multicriterio.

7.2.1 Funciones objetivo

La función objetivo es la ecuación que se minimiza o maximiza para desarrollar una


solución. Repasando el cap. 2, no encontrará una definición explícita para esta
función. Bienvenido a una de las muchas áreas donde la creatividad juega un papel
en la vida de los estadísticos de encuestas. A través de la experiencia, puede
desarrollar una preferencia por un tipo particular de función objetiva. De lo contrario,
el uso de más de una función objetivo (y un conjunto de supuestos) puede sugerir la
solidez de la solución final elegida.
Con base en la experiencia previa, el objetivo elegido por el equipo de diseño fue
similar a la ecuación utilizada para el Ejemplo 5.2. Es decir, la asignación debe
construirse para minimizar la suma de la revarianza del total estimado (Tˆ j ) para
las cuatro variables de análisis (Sección 2.1; repetida en la Sección 7.1 por conveniencia).
En otras palabras, la fórmula explícita para la primera función objetivo candidata es
4
ÿ= ÿjrelvar Tˆ j, (7.1)
j=1

donde ÿj son los pesos de importancia para la variable j (j = 1, ..., 4), relvar Tˆj es
la relvarianza correspondiente tal que

ÿ2
relavar Tˆj ÿ 1 S2 jh
Nueva Hampshire

= Tj Nueva Hampshire

h
Nueva Hampshire
Machine Translated by Google

7.2 Formular el problema de optimización 187

y S2 esequipo
la varianza unitaria
de diseño calculada
tuvo dentro del estrato
varias discusiones de pesos
sobre los diseñode
h (h = jh 1, ..., 18).
importancia El
utilizados
en la función objetivo. Después de consultar con el Consejo Superior, se llegó a la decisión
de que todas las variables de análisis tenían la misma importancia. En consecuencia, ÿj ÿ 1
para las cuatro variables, de modo que la expresión (7.1) se reescribe como

4
ÿ= relavar Tˆj . (7.2)
j=1

Se podrían haber probado varias funciones objetivo. Sin embargo, debido a los
compromisos de tiempo para el tiempo de diseño (una restricción común para los
investigadores), la función objetivo discutida en el Cap. 5 fue prestado para este proyecto.

7.2.2 Variables de decisión

Las variables de decisión corresponden a las soluciones producidas a partir del problema
de optimización, es decir, el tamaño de la muestra y la asignación asociada a los estratos.
Para la Encuesta de clima VNUV, se requiere la solución de asignación para los 18 estratos
de diseño (unidad de negocio (3 niveles) por grado de salario (3 niveles) por antigüedad en
el empleo (2 niveles)) que se muestran en la Tabla 2.2. Tenga en cuenta que la solución
se deriva para cumplir con ciertos objetivos analíticos especificados para la encuesta. Una
vez que se ha obtenido la solución, los valores deben inflarse para abordar la pérdida de
muestras asociada con la inelegibilidad del estudio y la falta de respuesta (Cap. 6).

7.2.3 Parámetros de optimización

Se definieron tres conjuntos de parámetros para el problema de optimización. Primero, HR


proporcionó recuentos de empleados elegibles por estratos de muestreo. Estos recuentos
de fotogramas se muestran en la Tabla 2.2 del Cap. 2. En segundo lugar, el equipo de
diseño incorporó las tasas de desempeño calculadas a partir del estudio del Ciclo 4 (Tabla
2.4) para garantizar que los objetivos analíticos pudieran cumplirse con el número total de
encuestados, así como con su distribución en los estratos de muestreo. El último conjunto
de parámetros incluye las estimaciones de población, medias/proporciones y errores
estándar, que se muestran en la Tabla 2.5. Antes de la implementación, el equipo de diseño
construyó desviaciones estándar de población a partir de los errores estándar estimados
utilizando la expresión (3.40):
ˆ¯
n0v y Una

Sˆ2 = ˆ¯ . (7.3)
1 ÿ f0 deff y
Machine Translated by Google

188 7 El Proyecto de Diseño de Encuestas de Personal: Una Solución


ˆ¯
Tenga en cuenta que defff y = 1 para los cálculos del Ciclo 5 porque la muestra para la
encuesta climática anterior fue seleccionada por un diseño srs. Visitamos el efecto de diseño
nuevamente para el diseño del Ciclo 5 en la Secc. 7.3.

7.2.4 Restricciones de levantamiento especificadas

Se formularon preguntas al Consejo Superior de VNUV para finalizar las restricciones de


optimización sobre el tamaño de la muestra y sobre la precisión de un conjunto de
estimaciones (Sección 2.2). La primera restricción fue dictada por el presupuesto de la
encuesta: hay fondos suficientes para que la encuesta climática del Ciclo 5 procese las
respuestas de 600 miembros de la muestra. Además de restringir la suma de los tamaños
de los encuestados generados a partir de la asignación, el equipo de diseño también requirió
que el número en cada estrato exceda un valor mínimo especificado para calcular un
componente de varianza. Debido a que el número real seleccionado para el estudio se
calculó como el tamaño del encuestado inflado por la pérdida de muestra (p. ej., falta de
respuesta) determinado a partir de la encuesta del Ciclo 4, el tamaño inflado se restringió
para que fuera menor que el recuento de marcos dentro del estrato. En resumen, se utilizó
el siguiente conjunto de ecuaciones para restringir la asignación de la muestra:

H
nh ÿ 600
h=1
2 ÿ nh
(nh/rh) ÿ nh

donde nh es el número de encuestados dentro del estrato h (h = 1, ..., 18) derivado de la


asignación óptima, Nh es el número total de empleados en el estrato h calculado a partir de
la lista actualizada de empleados proporcionada por HR (ver Tabla 2.2 ), y rh es la tasa de
inflación de pérdida de muestra del Ciclo 4 calculada como la tasa de elegibilidad (= 1 – tasa
de inelegibilidad) multiplicada por la tasa de respuesta (ver Tabla 2.4).

Se colocó un segundo conjunto de restricciones en el coeficiente de variación (CV) para


cuatro estimaciones (Q5, Q12, Q15 y el número promedio de clases de capacitación) dentro
de los dominios definidos por unidad comercial, grado salarial dentro de la unidad comercial
y antigüedad categorizada dentro unidad de negocio (Cuadro 2.1).
El equipo de diseño impuso un tercer conjunto de restricciones antes de finalizar la
optimización. Estas restricciones se derivaron de un análisis de poder discutido en la
siguiente sección.
Machine Translated by Google

7.3 Una solución 189

7.3 Una solución

7.3.1 Análisis de potencia

Habiendo especificado las restricciones conocidas para la tarea de optimización, el equipo de diseño
luego realizó un análisis de poder para establecer un tamaño de muestra mínimo para los dominios de
la unidad de negocios para cumplir con las diferencias detectables deseadas:

• Una diferencia de 5 puntos porcentuales (o mayor) para la estimación del clima de los empleados
compañeros

• Una diferencia de dos a tres clases de capacitación para el promedio en el trabajo


estimaciones de educación

Sin embargo, el equipo de diseño finalmente determinó a partir del análisis de poder que los niveles de
diferencia deseados no eran alcanzables dado el presupuesto del estudio, es decir, los fondos utilizados
para editar y analizar datos de 600 encuestados.
El análisis de potencia multivariable se centró en cuatro estimaciones. Comenzando con la proporción
de personal que (muy) está de acuerdo con las tres preguntas sobre el clima reafirmadas en la Secc.
7.1, Cuadro 2.6 del Cap. 2 mostró que la pregunta de compensación justa (Q15) tenía consistentemente
la tasa más baja de acuerdo en todas las unidades de negocio. El equipo de diseño notó que la
estimación Q15 tuvo la influencia más fuerte en los cálculos de potencia porque tiene la desviación
estándar más grande. Por lo tanto, Q5 y Q12 se apartaron y no se usaron en el análisis del tamaño
mínimo de la muestra. La influencia de Q15 en comparación con el número promedio de clases de
entrenamiento fue menos clara, por lo que se realizaron dos cálculos de potencia separados y luego se
combinaron.

La función R power.prop.test produjo los resultados que se muestran en la Tabla 7.1. Por ejemplo,
el código R utilizado para calcular el tamaño de la muestra para la unidad de negocio Survey Research
(SR) con una diferencia detectable de 0,05 (o delta = 5 puntos porcentuales) es

power.prop.test(p1=0.69, p2=0.74, sig.level = 0.05, power = 0.8, alternativa = "dos caras").

Se utilizó un código similar para calcular el tamaño mínimo de la muestra analítica para las unidades de
negocio CR y FO. Tenga en cuenta que cada valor en la Tabla 7.1 del análisis de poder con delta=5
puntos porcentuales viola la restricción de 600 encuestados. El equipo volvió a ejecutar el análisis
utilizando varias diferencias detectables; Los resultados de potencia para 10, 13 y 15 % se incluyen en
la tabla para comparación.
Los valores de 0,13 parecían más prometedores porque el tamaño total de la muestra estaba muy por
debajo del valor máximo y, con suerte, permitiría al algoritmo de optimización cierta flexibilidad en la
asignación de la muestra a través de los estratos. Luego, el equipo recurrió a un cálculo similar para el
número promedio de clases de capacitación.

El equipo accedió a R nuevamente para calcular el tamaño de muestra mínimo por unidad de
negocio para el número promedio de clases de capacitación con power.t.test
Machine Translated by Google

190 7 El Proyecto de Diseño de Encuestas de Personal: Una Solución

Tabla 7.1: Tamaño mínimo de muestra por unidad de negocio y diferencia detectable producida
por la función R power.prop.test para la pregunta de salario justo (Q15). Cálculos
se realizaron para una potencia del 80 % y un nivel de significancia de 0,05 para una prueba bilateral.

Negocio Q15 Ciclo 4 Diferencia detectable (%)


unidad estimar 5 10 15 13
RS 0,69 1,278 300 171 124
RC 0.83 777 165 86 59
FO 0,60 1.470 356 206 152
General 3.526,1 821 463 335

Tabla 7.2: Tamaño mínimo de muestra por unidad de negocio y diferencia detectable producida
por la función R power.t.test para la pregunta sobre el número de clases de entrenamiento.
Los cálculos se realizaron para una potencia del 80 % y un nivel de significancia de 0,05 para un modelo de dos caras.
prueba.

Estimaciones del ciclo económico 4 Diferencia detectable


unidad Media se std 1,0 1,5 2,0 2,5
RS 18,10 0,98 12,02 1.037 462 261 168
CR 12,60 0,90 8,21 491 219 124 80
FO 8,94 0,60 7,74 432 193 109 71
General 1,959 874 494 318

Tabla 7.3: Tamaño mínimo de muestra por unidad de negocio para la optimización del diseño del
Encuesta climática Verkeer NetUltraValid (VNUV), Ciclo 5. Efecto de diseño de 1.05 utilizado
para tener en cuenta la variación introducida a través de la ponderación.

Número mínimo de negocio def ajustado no.


unidad de encuestados de
RS 171 179
RC 86 90
FO 206 216
General 462 486

función. La tabla 7.2 contiene los resultados del segundo análisis de potencia para
un rango de número de clases incluidas como la diferencia detectable deseada.
Las desviaciones estándar (std) se calcularon con la expresión (7.3) con
ˆ¯
desafiar = 1. Se clasificaron las diferencias detectables entre 2 y 3 clases
por el Consejo Superior como significativo. Diferencias menores que estos números
fueron examinados para evaluar los requisitos de tamaño de muestra para niveles más altos de
precisión.
Habiendo examinado los resultados, el equipo decidió tomar “lo mejor de ambos
mundos.” El tamaño de muestra máximo requerido por unidad de negocio para una diferencia de 13
puntos porcentuales en las estimaciones climáticas y una diferencia de 2,5 en el
número promedio de clases de capacitación combina la información, lo que resulta en la
valores dados en el “Mínimo no. de los encuestados” de la tabla 7.3.
Debido a que el análisis posterior a la recopilación de datos del Ciclo 5 incluirá el uso de
pesos, a diferencia del Ciclo 4, se consultó a un estadístico senior sobre un
Machine Translated by Google

7.3 Una solución 191

efecto de diseño Se utilizó un defff conservador de 1,05 para inflar el tamaño de la muestra
analítica y tener en cuenta factores como las ponderaciones diferenciales introducidas a partir
de un ajuste por falta de respuesta. Estos valores inflados ubicados en la última columna de la
tabla se utilizaron en las rutinas de optimización que se analizan a continuación.

7.3.2 Resultados de la optimización

La asignación de la muestra se optimizó utilizando Excel Solver y SAS proc optmodel para la
comparación. Los archivos de salida de las optimizaciones se encuentran en el sitio web del
libro, como se explica a continuación.

solucionador

El archivo que contiene la salida de Solver se llama Project 1.Solver.xlsx.


El libro de trabajo contiene 14 hojas de trabajo, algunas correspondientes a la información
tabular provista en el Cap. 2:

• 1 Recuento de fotogramas (Tabla


2.2) • 2 Recodificar (Tabla 2.3) • 3
Tasas de estudio (Tabla 2.4) • 4 5
Estimaciones (Tablas 2.5 y 2.6) • 6 CV s (Tabla
2.1)

y algunos que contienen entradas o salidas de las optimizaciones:

• Datos de SAS (datos de entrada para el modelo de opción


de proceso de SAS) • Potencia (tablas de resumen de las
funciones de potencia de R) • Solver (optimización de Excel
Solver) • Informe de respuesta 1, Informe de sensibilidad 1, Informe de límites 1 (salida de
solucionador)

• Informe de respuesta 2 (salida de Solver con opción de inicio múltiple) •


Comparación (comparación entre Solver y las soluciones de modelo de opción de
proceso) • Sensibilidad (sensibilidad de la solución de Solver a los cambios en las tasas de
respuesta asumidas)

Los detalles de la optimización de Solver se resumen a continuación:

1. Se utilizaron los ajustes predeterminados para Solver, incluido el método de resolución no


lineal GRG, la restricción de precisión de 0,0001 y 1000 iteraciones. La optimización se
calculó con y sin la opción de "inicio múltiple", lo que resultó en ninguna diferencia.

2. Como se muestra en la Fig. 7.1, la función objetivo, Ec. (7.2), está tabulado en la celda S36
dentro de la hoja de cálculo Solver (o 'Solver'!$S$36 usando la notación de Excel). El
objetivo de la optimización es minimizar la suma de las cuatro revarianzas, una para cada
estimación. Las celdas de cambio, o el encuestado
Machine Translated by Google

192 7 El Proyecto de Diseño de Encuestas de Personal: Una Solución

tamaño de muestra por estrato, se ubican en la columna M, filas 10 a 27.


La serie de restricciones que se cargaron en el tercer cuadro de entrada incluyeron el
tamaño máximo de la muestra ($K$36 >= $M$36), el tamaño mínimo de la muestra por
unidad de negocio determinado a partir de los cálculos de potencia ($K$38 <= $M$38
hasta $K$40 <= $M$40), y una verificación adicional para garantizar que la asignación
inflada por pérdida de muestra no supere los recuentos de fotogramas por estrato
($N$10:$N$27 <= $E$10:$E$27) .
3. Se utilizó una asignación proporcional para los valores iniciales; consulte
'Resolver'!L9.
4. La optimización original se implementó usando un tamaño máximo de muestra de
encuestados de 600. Debido a que las restricciones se cumplieron fácilmente, el equipo
evaluó un tamaño reducido de muestra de encuestados en un intento por ahorrar
tiempo y fondos del proyecto. El tamaño de muestra final recomendado fue de 575 encuestados.

Modelo de opción de proceso SAS

Los programas, registros y archivos lst (salida) de SAS se identifican con la etiqueta Project
1 OptModel n=*, donde el asterisco (*) indica el tamaño máximo de muestra de encuestados
establecido para la rutina de optimización. El programador de SAS incluyó las restricciones
de tamaño de muestra en general y por unidad de negocio junto con las restricciones de
CV como variables macro al comienzo del programa. En cada sección del programa se
introducen las tablas especificadas en el Cap. 2 o calcula componentes para la optimización.
El procedimiento SQP (predeterminado) se utilizó en la optimización como se muestra en
los archivos de registro.
El equipo de diseño produjo inicialmente una optimización para 600 encuestados para
reflejar el trabajo realizado con Solver (ver los archivos Proyecto 1 OptModel n=600.*). Se
crearon dos programas SAS adicionales correspondientes a n=575 yn=550 encuestados.
Como se muestra en el archivo Proyecto 1 OptModel n=500.log, no se encontró una
solución factible con un máximo de 550 encuestados.

Comparación de Solver y SAS Proc Optmodel

En la Tabla 7.4 se muestra una comparación de los resultados de asignación de Excel


Solver y el modelo de opción de proceso de SAS . La solución a ambos algoritmos satisfizo
el tamaño de muestra revisado de encuestados de 575. Sin embargo, después de inflar la
asignación por pérdida de muestra (solución ajustada) y redondear aleatoriamente1 los
valores ajustados (redondeo aleatorio), la solución de Solver requirió la selección de 36
(=1,025 – 1.061) menos casos de muestra. Además, la función objetivo Solver fue

Una

Se generan números aleatorios de la distribución uniforme para cada valor que requiere redondeo.
Si el número aleatorio es menor o igual a 0,5, la parte entera del valor se utiliza como valor
redondeado. De lo contrario, la parte entera más uno se utiliza como valor redondeado.
Machine Translated by Google

7.4 Análisis de sensibilidad adicional 193

Higo. 7.1: Cuadro de entrada de parámetros de optimización de Excel Solver.

ligeramente inferior, lo que indica una solución algo mejor. Por lo tanto, el equipo de
diseño eligió la solución Solver como asignación de muestra incluida en el informe.

7.4 Análisis de sensibilidad adicional

El equipo de diseño completó un último análisis antes de finalizar el informe para el


Consejo Superior de VNUV para abordar las inquietudes sobre las tasas de respuesta
estimadas (consulte la respuesta a la pregunta n.° 8 en la Sección 2.2). Sin información
detallada sobre las tasas diferenciales probables por las características de
estratificación, el equipo evaluó el impacto de una reducción general en las tasas de
respuesta para identificar estimaciones de subgrupos que se verían más afectados. En resumen,
Machine Translated by Google

194 7 El Proyecto de Diseño de Encuestas de Personal: Una Solución

Tabla 7.4: Comparación de los resultados de optimización de Excel Solver y SAS proc
optmodel para la Encuesta Climática VNUV, Ciclo 5

Strata Business Salario Tenencia (Años) grado unitario solucionador Modelo de opción (SQP)

Solucióna Aleatoria ajustada Solución Aleatoria ajustada


soluciónb rondac solucióna ronda

Una RS A1-A3 <5 12.7 14.3 15 10.9 12.3 12


2 5+ 20.1 23.8 23 17.8 21.0 21

3 R1-R5 <5 34.1 73.2 74 33.5 71,9 71


4 5+ 65.1 83.8 83 81.4 104.8 104

5 M1-M3 <5 27.1 29.7 30 23.1 25.3 26


6 5+ 20.1 28.1 28 12.5 17.5 17

7 CR A1-A3 <5 12.8 23.5 23 54.6 100.3 100


8 5+ 20.3 40.7 41 42.8 85.7 86

9 R1-R5 <5 26,9 53.8 53 43.0 86,0 85


10 5+ 24,9 46.2 46 34.7 64.4 64

11 M1-M3 <5 11.9 11.9 12 10.5 10.5 10


12 5+ 17.9 22.6 22 30.3 38.4 38

13 FO A1-A3 <5 59.2 215.6 215 60,9 222.1 222


14 5+ 34.3 87.2 87 28,0 71.1 72

15 R1-R5 <5 103.8 162.8 162 53.3 83.6 84


dieciséis 5+ 45.7 65.3 sesenta y cinco 21.8 31.2 31

17 M1-M3 <5 19.3 19.3 20 8.1 8.1 8


18 5+ 18.9 26.4 26 7.5 10.5 10

Total 575,0 1.028,0 1,025 575,0 1.064,9 1,061

Función objetivo (RelVar) 0.0023 0.0024

Función objetivo (Pct CV) 4.82 4.87

una solución optimizada del paquete


b
Solución ajustada por pérdida de muestra, es decir, solución optimizada dividida por la
tasa de elegibilidad multiplicada por la tasa de respuesta
c Solución ajustada aleatoriamente redondeada a números enteros

ese grupo es la división SR. Los siguientes tres puntos son la comida para llevar
mensajes:

(1) Si las tasas de respuesta del Ciclo 5 son menos de 5 puntos porcentuales inferiores a
los valores del Ciclo 4 utilizados en la optimización, entonces habrá un valor insignificante
diferencia en los resultados.
(2) Si la diferencia entre las tasas de respuesta real y estimada del Ciclo 5 es
aproximadamente 5 puntos porcentuales, entonces la precisión de las estimaciones
dentro de las unidades de negocio probablemente caerá por debajo del CV deseado = 0,10.
(3) Si las tasas de respuesta reales son más de 5 puntos porcentuales inferiores a
los valores estimados, entonces la precisión de las estimaciones de la unidad de negocio
se acercará a un CV del 70%. Esto es especialmente cierto en el caso de la división SR.
estimaciones porque la restricción vinculante en el tamaño de la muestra como se muestra en
hoja de trabajo = "Informe de respuesta 2".
Machine Translated by Google

7.5 Conclusión 195

7.5 Conclusión

Luego, el equipo de diseño procedió a desarrollar un informe de diseño en torno a la


asignación recomendada producido por Excel Solver (Tabla 7.4). Este informe incluyó
una discusión de las restricciones de optimización, incluida la necesidad de aumentar la
valores para las diferencias detectables significativas dada la restricción de no
más de 600 encuestados (es decir, presupuesto). El equipo de diseño también justificó la
reducción del tamaño de la muestra de los encuestados de 600 a 575 al (1) demostrar
la convergencia del sistema de optimización bajo la muestra reducida
tamaño y (2) sugiriendo que los ahorros de costos podrían usarse en métodos para
aumentar la participación como un pequeño incentivo.
Machine Translated by Google

Parte II
Diseños de etapas múltiples
Machine Translated by Google

Capítulo 8
Proyecto 2: Diseño de una muestra de área

En este proyecto, diseñará una muestra de distritos censales, grupos de bloques y


personas del condado de Anne Arundel en el estado de Maryland en los Estados Unidos.
Teniendo en cuenta los subgrupos analíticos, la precisión deseada de las estimaciones y
el presupuesto disponible, se ha determinado que estos tamaños de muestra son para
ser seleccionado:

Grupo de edad (años) Tamaños de muestra

18–24 200
25–44 200
45–54 200
55–64 200
65+ 200

Total 1,000

Tratados de muestra 25
Ejemplos de grupos de bloques Una

por tramo

El diseño de la muestra utilizará distritos como PSU, grupos de bloques como SSU y personas
como elementos. Los objetivos del diseño muestral son seleccionar una muestra de
los tamaños anteriores mientras (1) logra una muestra autoponderada en cada una de las edades
grupos anteriores y (2) obtener una carga de trabajo igual en cada PSU de muestra. Tú
debe prestar especial atención a las áreas geográficas que tienen recuentos de población
pequeños y decidir cómo deben manejarse en el marco. Las herramientas
necesita para completar este proyecto se tratan en los capítulos. 9 y 10.
Utilice el método de Sampford para seleccionar las PSU y las SSU. Esta es una de varias
opciones para seleccionar muestras de probabilidad proporcional al tamaño. Sampford
funciona para muestras de cualquier tamaño y permite probabilidades de selección conjunta para

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 199


Muestras de encuestas, Estadísticas para las ciencias sociales y del comportamiento 51,
DOI 10.1007/978-1-4614-6449-5 8, © Springer Science+Business Media Nueva York 2013
Machine Translated by Google

200 8 Proyecto 2: Diseño de una muestra de área

ser calculado, un requisito para algunos de los estimadores de varianza descritos en el Cap. 15. Este
método de selección está disponible en R pps y paquetes de muestreo y en SAS proc surveyselect.
Para reproducir la solución dada más adelante en el Cap. 11, incluya la declaración

establecer.seed(-741881304)

al comienzo de su programa si usa R. Si usa SAS SurveySelect, use la opción de procedimiento

semilla = 1953.

Los entregables del proyecto serán: • Un informe de

muestreo • SAS o archivos de texto que proporcionen


las unidades utilizadas para el marco del área y los conteos censales relevantes y las medidas de
tamaño
• SAS o archivo de texto para la muestra seleccionada junto con los conteos censales relevantes,
medidas de tamaño, probabilidades de selección y pesos.

Contenido del Informe de Muestreo

A continuación se muestra una lista de áreas temáticas que deben incluirse en su informe. El orden
de las secciones en su informe no tiene que ser el mismo que se indica a continuación. Debe
construir su informe de una manera que presente los temas en un orden que le parezca lógico a su
equipo.
El informe debe escribirse a un cliente cuyo personal incluye gerentes y personal técnico. Los
gerentes estarán más interesados en comprender el esquema general de los pasos utilizados en la
ponderación. El personal técnico estará interesado en comprender los detalles de la selección de
muestras y el cálculo del peso, incluidas las fórmulas adecuadas. Debe considerar cómo estructurar
su informe para servir a estas audiencias. • Áreas temáticas para el informe de muestreo • Página de
título (título del proyecto, fecha de presentación y nombre del contacto del proyecto

persona)
• Introducción (resumen del documento) • Diseño de la
muestra

Objetivos del diseño de la muestra


marco muestral de área
Unidades, datos disponibles, fuente de los datos
Asignación de medidas de tamaño a unidades

• Selección de muestras

Método de selección
Unidades seleccionadas y características de cada una
Probabilidades de selección de unidades en cada etapa de selección
Descripción de cómo se deben seleccionar las personas de los listados de área
Machine Translated by Google

8 Proyecto 2: Diseño de una muestra de área 201

• Mapas

Condado de Anne Arundel


Tramos seleccionados y grupos de bloques

• Apéndice

CONTENIDO DEL PROC o libro de códigos de archivos marco y de muestra


Listado de las UPM de muestra y las UME de muestra con sus probabilidades de selección y
datos censales. En cada SSU de muestra, enumere la tasa de muestreo que usará para
seleccionar personas en cada dominio.

Archivos de datos y otra información

• AnneArundel.MD.xls—Census 2000 tract tract and block group data for Anne Arundel County •
Census.glossry2.pdf—Define términos geográficos usados por la Oficina del Censo • Mapas de
secciones y bloques del censo para Maryland de la Oficina del Censo;

American Factfinder en la Oficina del Censo: factfinder.census.gov www.census.gov/


geo/www/maps/CP MapProducts.htm

• Los mapas del condado también están en

Anne Arundel.blkgrps(calles).pdf Anne


Arundel.tracts(calles).pdf Anne
Arundel.tracts(sin calles).pdf
Machine Translated by Google

Capítulo 9
Diseño de muestras de varias etapas

Los capítulos anteriores han cubierto el diseño de muestras seleccionadas en una sola etapa.
Sin embargo, el muestreo a menudo se realiza utilizando más de una etapa. Hay varias razones
por las que se puede utilizar el muestreo por conglomerados o multietápico. El uso de muestras
de etapas múltiples a menudo puede ser una solución práctica y rentable en situaciones en las
que no se dispone de una lista de unidades elementales (o analíticas) para el muestreo directo.
En esos casos, se puede compilar una lista de unidades elementales solo dentro de los
conglomerados de muestra en lugar de para todo el marco. Esto es especialmente útil en
muestras de hogares si no se dispone de una lista de todos los hogares de un país, estado,
condado, etc. En otros casos, es posible que se deba obtener permiso a nivel de conglomerado
para realizar una encuesta. Por ejemplo, si el objetivo es administrar una prueba estandarizada
a una muestra de estudiantes, es posible que los administradores del distrito escolar o de la
escuela deban otorgar permiso para realizar la encuesta.
El modo de recopilación de datos también afectará la decisión de utilizar el muestreo por
conglomerados. Si los datos se van a recopilar mediante una entrevista personal, agrupar los
casos de muestra puede ser una forma de ahorrar costos de viaje. Esto es cierto
independientemente de si se dispone de una lista completa de los miembros de la población. Si
la entrevista se realizará por teléfono, entonces la agrupación de casos de muestra puede ser
innecesaria y estadísticamente ineficiente.
Algunos comentarios sobre la terminología están en orden. El muestreo por conglomerados
significa que se selecciona un grupo de unidades en la primera etapa del muestreo. Los
conglomerados pueden ser áreas geográficas, establecimientos, escuelas o algún otro tipo de
unidad agregada. También utilizaremos los términos unidad primaria de muestreo (PSU) o
unidad de primera etapa como sinónimo de conglomerado. Dentro de un conglomerado de
muestra, se muestrean unidades elementales. Algunos textos reservan el término “muestra de
conglomerado” para una muestra de etapa única en la que todas las unidades elementales
dentro de un conglomerado están incluidas en la muestra. En este libro, una muestra por
conglomerados incluirá tanto los casos de enumeración completa de un conglomerado como
de submuestreo en un conglomerado. Si se utiliza el submuestreo dentro de un conglomerado,
también lo llamaremos muestreo multietápico. Puede haber dos o más etapas de selección,
dependiendo de la aplicación. El término conglomerado final denota el agregado de las unidades
elementales a lo largo de las etapas de selección dentro de una UPM de muestra.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 203


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 9, © Springer Science+Business Media New York 2013
Machine Translated by Google

204 9 Diseño de muestras de varias etapas

Al diseñar muestras de UPM y submuestras dentro de las UPM, se deben considerar dos situaciones.
El primero es diseñar una muestra de fuente de alimentación desde cero. En ese caso, los problemas
son cómo formar las PSU; cómo deben estratificarse, el número de UPM de la muestra; cómo se asigna
la muestra a los estratos, el método de muestreo de las UPM; y finalmente, cómo se realizará el muestreo
dentro de las UPM seleccionadas.

El segundo caso es el uso de una muestra de fuente de alimentación existente. El enfoque entonces
es cómo diseñar eficientemente una muestra de unidades secundarias de muestreo (USM) y, para un
diseño de tres etapas, elementos dentro de las USM. Se deben tomar decisiones sobre el tamaño de la
muestra y el método de muestreo de las UME y el número de elementos a muestrear dentro de cada
UPM y UPM. La asignación de la muestra debe determinarse en función de la muestra de UPM. La teoría
de gran parte del material aquí se puede encontrar en Hansen et al. (1953a, vol. I, caps. 6–9), Hansen et
al. (1953b, vol. II, cap. 6), y en S¨arndal et al. (1992, cap. 4). De ahora en adelante nos referiremos a los
libros de Hansen, Hurwitz y Madow como HHM. A pesar de tener casi 60 años en este momento, HHM
todavía tiene una gran cantidad de información valiosa sobre muchos de los problemas prácticos que se
encuentran en el diseño de la muestra.

La sección 9.1 describe algunas de las unidades que se pueden utilizar como fuentes de alimentación.
La sección 9.2 presenta algunas de las fórmulas básicas de varianza para el muestreo en dos y tres
etapas. Estos se utilizan en la tercera sección para determinar las asignaciones óptimas en las que el
costo es una consideración. La cuarta sección del capítulo analiza la estimación de los componentes de
la varianza que se requieren para la asignación de la muestra. Las secciones 9.5 y 9.6, respectivamente,
cubren brevemente la estratificación de las UPM y los criterios para identificar las UPM que se seleccionan
con certeza, es decir, con probabilidad uno.

9.1 Tipos de fuentes de alimentación

Los tipos de unidades que constituyen una UPM dependen de la encuesta. En una muestra de
probabilidad de área, las unidades suelen ser áreas geográficas como condados, áreas de subcondados
u otras unidades administrativas locales. Un diseñador de encuestas puede tener cierta libertad en cómo
se combinan las áreas para formar las UPM. Discutimos estas opciones en profundidad en el Cap. 10.
En otros casos, las PSU son unidades naturales que se imponen al diseñador. Cambiarlos sería inviable
o ineficiente. Al encuestar escuelas, la jerarquía de distritos escolares, escuelas, aulas y estudiantes es
común en los EE. UU. Tratar de usar otro tipo de agregación como grupo requeriría definir unidades que
no son naturales para los administradores escolares y probablemente estarían en conflicto con la forma
en que se mantienen los registros escolares. Otros tipos de jerarquías naturales son:

• Establecimientos comerciales: los empleados o las cuentas pueden ser los elementos para
ser muestreado.
• Hospitales: los departamentos como la sala de emergencias, cuidados intensivos y cuidados a largo
plazo pueden ser una SSU. Los registros de pacientes pueden considerarse como anidados
Machine Translated by Google

9.2 Resultados de la varianza básica 205

dentro del departamento donde el paciente fue tratado por última vez o podría tomarse una
muestra directamente dentro de un hospital. • Personal militar: en el modelo estadounidense,
algunos de los niveles de jerarquía en orden descendente de tamaño son cuerpo, división,
brigada, regimiento, compañía, pelotón y escuadrón. Cualquiera de estos podría usarse
como SSU. Por otro lado, estos pueden no ser convenientes para el muestreo ya que todo
el personal en un nivel dado (una brigada, por ejemplo) puede no estar estacionado en el
mismo lugar. En ese caso, las bases militares, que son ubicaciones geográficas específicas,
pueden ser más útiles como PSU.

9.2 Resultados de la varianza básica

Para distribuir una muestra entre diferentes etapas de muestreo, se deben considerar las
contribuciones de las diferentes etapas a la varianza de un estimador. Estos componentes de
la varianza generalmente dependen de la variable de análisis y también de la forma del
estimador. En Sectas. 9.2.1–9.2.3, cubrimos algunos resultados básicos para estimadores
lineales y no lineales en muestreo en dos etapas. La Sección 9.2.4 presenta resultados
similares para muestras de tres etapas.

9.2.1 Muestreo en dos etapas

Considere un diseño de muestra de dos etapas en el que las unidades de la primera etapa se
seleccionan utilizando un muestreo ÿps, es decir, con probabilidades variables y sin reemplazo.
Los elementos se seleccionan en la segunda etapa a través de srswor. Se necesita bastante
notación, incluso en este caso bastante simple:

U = universo de PSU
M = número de PSU en el universo
Ui = universo de elementos en PSU i
Ni = número de elementos en la población para PSU i
N= iÿU Ni es el número total de elementos en la población
ÿi = probabilidad de selección de la UPM i
ÿij = probabilidad de selección conjunta de las UPM i y jm =
número de UPM de muestra ni = número de elementos de
muestra en la UPM is = conjunto de UPM de muestra si =
conjunto de elementos de muestra en la UPM i yik = análisis
variable para el elemento k en la UPM iy¯U = media por
elemento en la población y¯Ui = media por elemento en la
población en la UPM i
Machine Translated by Google

206 9 Diseño de muestras de varias etapas

El estimador ÿ del total de la población, tU = ysis iÿU kÿUi yk, de un anal


variable Y es
ti
tÿ=
Pi
yoÿs

donde t ˆi = (Ni/ni) kÿsi yk, que es la estimación del total para PSU i con una muestra
aleatoria simple. La varianza de diseño del total estimado se puede escribir como la
suma de dos componentes:

ti tj N2 no
V t ˆÿ = (ÿij ÿ ÿiÿj ) + Es
1- S2U2i (9.1)
ÿi ÿj ÿini Ni
iÿU jÿU iÿU

dónde

S2U2i = (yk ÿ y¯Ui)


kÿUi 2 $ (Ni ÿ 1)

es la varianza unitaria de Y entre los elementos de PSU i.


La fórmula (9.1) es difícil o imposible de usar para los cálculos del tamaño de la
muestra porque no se expone el número de UPM en la muestra. Una alternativa es
asumir la selección de PSU con reemplazo, como hicimos en el Cap. 3. Otro es analizar
el muestreo srs de PSU y SSU como en el Ejemplo 9.1 a continuación. Determinar los
tamaños de las muestras de minería de esta manera no significa que esté necesariamente
obligado a seleccionar las PSU y los elementos dentro de las PSU a través de srswr.
Basar los tamaños de muestra en un diseño que sea menos complicado que el que
realmente se usará es un enfoque común, aunque, como ilustraremos, puede ser
engañoso para algunas variables de análisis.

Ejemplo 9.1 (Caso especial: srswor en primera y segunda etapa). Suponga que la
primera etapa es una muestra de m de M PSU y la segunda etapa es una muestra de ni
elementos seleccionados por muestra de la población de Ni. El estimador ÿ es

Ni
METRO t ˆÿ = yik
metro
no
yoÿs kÿsi

Su varianza es igual a
M2 METRO - metro M N2 Ni ÿ ni
V t ˆÿ = S2U1 +
Es

S2U2i
metro metro
METRO
no Ni
iÿU

= iÿU (tiÿt ¯U )2
donde S2 siendo ti la población total de Y en la UPM ti M es el
U1 Mÿ1

yo y t ¯U = iÿU
total medio por UPM. La revarianza de t ˆÿ,
2
V t ˆÿ t tu , es

2 =
Una METRO - metro Una METRO
N2 Ni ÿ ni
V t ˆÿ t tu B2 +
Es

S2U2i (9.2)
metro
t2 tu m
METRO
iÿU no Ni
Machine Translated by Google

9.2 Resultados de la varianza básica 207

2
donde B2 = S2 U1/t tu = M2S2 U1/t2 U es la unidad de revarianza entre los totales de PSU.

Si se seleccionan ¯n elementos en cada UPM y las fracciones de muestreo de las UPM y los
elementos dentro de las UPM son todos pequeños, entonces la revarianza se puede escribir
como

V (t ÿ) B2 W2
= + (9.3)
t2tu metro Minnesota

con W2 = M N2 S2 U2i/t2
iÿU
U . La expresión (9.3) es la forma utilizada en la función R,
Es

BW2stageSRS, que se presenta más adelante en esta sección. Los libros de texto a menudo
enumeran una forma especializada de Eq. (9.2) que requiere que todas las UPM tengan el
mismo tamaño,
, muestreo
N¯ y que
de lasesegunda
seleccionen
etapa¯neselementos
¯n/N¯. Esto
enimplica
cada una.
que En
la muestra
ese caso,
esla fracción de
autoponderada: ÿiÿk|i = mn/M¯ N¯ . La revarianza en la ecuación. (9.2) se simplifica a

2 Una METRO - metro Una n¯ - n¯


V t ˆÿ t = B2 + W2 (9.4)
tu
metro METRO mn¯ NORTE

donde W2 = Una

iÿU S2U2i.
Mi¯2tu
Suponiendo que se seleccionan ¯n elementos en cada PSU de muestra, y que m/M e i son
pequeños,
también la escribir
se puede forma más general de
en términos de la relvarianza,
una medida deVhomogeneidad
t ˆÿ t2 n/N ¯ en ÿlacomo
ecuación.
sigue:(9.2), tu

V t ˆÿ .
= Vÿ k [1 + ÿ (¯n ÿ 1)] (9.5)
t2tu Minnesota

donde V ˜ = S2 tu /y¯2tu , k = (B2 + W2)/V~ , y

B2
d= . (9.6)
B2 + W2

Con algo de álgebra (vea el ejercicio 9.10), se puede demostrar que cuando Ni = N¯ y tanto M
como N¯ son grandes,
2
S2tu iÿU kÿUi ( Yik ÿ y¯U ) .
= = B2 + W2 (9.7)
y¯2
tu 1 y¯2
tu (N ÿ 1)

es decir, la varianza real de la población se puede escribir como la suma de las varianzas
reales entre y dentro de ellas. Si k = 1, la ecuación. (9.5) es igual a la expresión que se
encuentra en muchos libros de texto. Sin embargo, cuando el conteo de la población de
elementos por conglomerado varía, k puede estar lejos de 1, como se ilustrará en el ejemplo
9.2. En esos casos, la Ec. (9.5) con una estimación de la k real debe usarse para determinar
los tamaños de muestra y calcular las estimaciones anticipadas de los coeficientes de variación.
Con el muestreo srs de conglomerados de una sola etapa, ÿ es una correlación intraclase
[ver (Cochran, 1977, Cap. 8)] pero no con el muestreo de dos etapas. Sin embargo-
Machine Translated by Google

208 9 Diseño de muestras de varias etapas

menos, los practicantes habitualmente se refieren a ÿ como una correlación intraclase. A veces
se inserta un fpc ad hoc, 1 ÿ, mn¯ MN¯ en lalaecuación.
de reescribir Ec. (9.2). (9.5) aunque
Consulte esto no 9.11
el ejercicio se sigue
paradirectamente
conocer
los detalles necesarios para obtener la ecuación. (9.5). Hansen et al. (1953a, Secc . 6.6) y
Hansen et al. (1953b, Secc . 6.5) usan una forma más elaborada de ÿ, pero la Ec. (9.6) es más
que adecuado en la práctica.

La expresión (9.5) es útil para calcular el tamaño de la muestra, ya que el número de UPM
de muestra y las unidades de muestra por UPM están explícitamente en la fórmula. Aplicaremos
la fórmula en algunos ejemplos de la Secc. 9.4. La ecuación (9.5) también conecta la varianza
del total estimado con la varianza que se obtendría de una˜ muestra aleatoria simple, ya que V /
mn¯ es la revarianza del total estimado en una muestra de tamaño
muestreo
mn¯ cuando
es pequeña.
la fracción de

El producto k[1 + ÿ(¯n ÿ 1)] es un tipo de efecto de diseño. Cuando k = 1, el término 1 + ÿ (¯n ÿ
1) es el efecto de diseño aproximado que se encuentra en muchos libros de texto.
La expresión (9.5) con k = 1 parece tratarse a menudo como si se aplicara independientemente
de cómo se seleccionen las muestras de las UPM y los elementos dentro de las UPM y sin
tener en cuenta el tipo de estimador que se utilice. Si, por ejemplo, se selecciona una muestra
pps de UPM y se utiliza un estimador posestratificado de un total, la ecuación. (9.5) no refleja
ninguna de esas características. Un profesional debe darse cuenta de que se trata de una
fórmula especializada que no se aplica bien cuando se utilizan métodos de muestreo distintos
del srs en diferentes etapas. La Sección 9.2.3 cubre un diseño de dos etapas más general en el
que las UPM se seleccionan con probabilidades variables y proporciona fórmulas de revarianza
que se aplican a ese caso.
La Tabla 9.1 enumera algunos valores de 1+ÿ (¯n ÿ 1) para un rango de ÿ y dentro de los
tamaños de muestra de conglomerados. Incluso cuando la medida de homogeneidad es
pequeña, el efecto sobre la varianza de un total estimado puede ser sustancial si se muestrean
muchos elementos por conglomerado. Por ejemplo, si ÿ = 0,05, la varianza puede ser un 20 %
mayor que la varianza de srs cuando ¯n = 5, pero será casi seis veces mayor cuando n¯ = 100.
La intuición para esto es simplemente que aumentar la muestra dentro de cada El clúster agrega
información correlacionada (es decir, más de lo mismo) que es menos eficaz que agregar
información no correlacionada (nueva) de diferentes clústeres.

El tamaño de ÿ se ve afectado por el tamaño de un grupo. Aunque esto no siempre es cierto,


los elementos de un grupo pueden ser más parecidos cuando el tamaño del grupo es pequeño.
Esto es especialmente cierto cuando los clústeres se basan en áreas geográficas. Hansen et
al. (1953a, Cap. 6, Tabla 6) dan algunos ejemplos de variables que tienen diferentes tamaños
de ÿ. Para grupos de 3 hogares cercanos, el valor de ÿ para el número de personas en el hogar
fue 0,430 en su ejemplo. Para conglomerados de 9, 27 y 62 viviendas, los valores de ÿ fueron
0,439, 0,243 y 0,112, respectivamente. Estos son altos en comparación con muchas variables.
Para la variable indicadora hombre desempleado, los ÿ para conglomerados de 3, 9, 27 y 62
hogares fueron 0,060, 0,070, 0,045 y 0,034. Para las variables agrícolas, como si una finca
reporta producir un cultivo específico (p. ej., cebada, papas o trigo), los ÿ de 0,4 o mayores
pueden ser comunes siempre que los tamaños de los conglomerados sean de 4 o 5 fincas
cercanas. Estos datos son antiguos (Censo de EE. UU. de 1940), pero el hecho de que ÿ
disminuya a medida que aumenta el tamaño del conglomerado geográfico es un fenómeno
estándar.
Machine Translated by Google

9.2 Resultados de la varianza básica 209

Tabla 9.1: Efectos de diseño aproximados para diferentes tamaños de medida de homogeneidad ÿ
y número de elementos de muestra por conglomerado.

¯
1 + ÿ (¯n ÿ 1)
norte d = 0,01 d = 0,05 d = 0,20
5 1.04 1.20 1.80
10 1.09 1.45 2.80
25 1,24 2,20 5.80
50 1,49 3,45 10.80
100 1.99 5.95 20.80

Considerar dos ejemplos extremos puede ayudar a comprender cuándo ÿ es


grande o pequeño. Primero, piense en un indicador de si una persona tiene una universidad
grado o no. Suponga que las PSU son bloques de ciudades.

Alta correlación intraclase. Suponga que la mayoría o todas las personas en cualquier
bloque dado (PSU) tienen un título universitario o no. En ese caso, el
El componente de varianza dentro de la PSU está cerca de 0. La varianza entre las PSU
componente es aproximadamente igual a la varianza total, lo que implica
que d. = B2 B2 + W2 está cerca de 1. Una muestra grande de bloques
necesario para obtener una estimación precisa de la proporción de personas con
título universitario. Muestrear a más de 1 persona por bloque sería ineficiente
porque las personas en un bloque tienden a tener todos el mismo nivel de educación.

Correlación intraclase cero. Suponga que los bloques son del mismo tamaño y el
la proporción con títulos universitarios es la misma, ¯p, en cada bloque de la población. El total de
personas con títulos en cada PSU es ti = N¯ p¯, lo que
es una constante. La varianza entre es 0, lo que implica que ÿ = 0. Solo 1
el bloque necesita ser muestreado para estimar la proporción con un título universitario
porque todos los bloques son iguales. (Observe que si el Ni varía, ÿ sería
no ser cero, incluso si ¯p fuera el mismo en todos los bloques.)

La población del área de Maryland

El siguiente ejemplo utiliza el conjunto de datos MDarea.pop que contiene tres variables continuas y
dos binarias. Este conjunto de datos se basa en el censo de EE. UU.
cuenta desde el año 2000 para el condado de Anne Arundel en el estado de Mary land. Las divisiones
geográficas utilizadas en este conjunto de datos se denominan distritos y
grupos de bloques; estos serán explicados con más detalle en el Cap. 10. Los tratados son
construido para tener un tamaño de población deseado de 4.000 personas. Grupos de bloques
(BG) son más pequeños con un tamaño objetivo de 1.500 personas. Conteo de personas en
el conjunto de datos es el mismo para la mayoría de los distritos y grupos de bloques como en el 2000
Censo; cinco BG se ampliaron para tener al menos 50 personas cada uno. Obtener-
Machine Translated by Google

210 9 Diseño de muestras de varias etapas

Por lo general, es difícil obtener microdatos de personas dentro de áreas pequeñas,


como grupos de bloques, debido a las restricciones de confidencialidad. Así, hemos
utilizado modelos para generar valores para las personas. Las variables de análisis en
MDarea.pop se denotan por y1, y2, y3, ins.cov y hosp.stay y se generan a partir de
modelos. Las tres primeras variables son continuas y sesgadas positivamente. Las
variables binarias, ins.cov y hosp.stay, se basan en las tasas de cobertura de seguro y
estadía en el hospital en un período de 12 meses, según lo informado en la Encuesta
Nacional de Entrevistas de Salud (NHIS) de EE. UU. Creamos estas variables ajustando
modelos para varias variables en la Encuesta Nacional de Examen de Salud y Nutrición
de EE. UU. (NHANES) y conjuntos de datos de NHIS para obtener medias de regresión
que dependían de si una persona era hispana y de su sexo y edad. Los valores a nivel
de persona se crearon utilizando modelos de efectos aleatorios que tenían términos de
error para distritos, grupos de bloques y personas. Estas variables pretenden ilustrar
una gama de posibles medidas de homogeneidad sin dejar de ser algo realistas.

Debido a que los distritos y grupos de bloques en la población de Maryland son


extremadamente variables en tamaño, creamos otras dos variables llamadas PSU y
SSU y las agregamos al conjunto de datos. Cada UPM tiene aproximadamente el
mismo número de personas; Probablemente las SSU se crearon para tener
aproximadamente el mismo número de personas. Las PSU y SSU se formaron
después de ordenar el archivo por tramo y grupo de bloques dentro del tramo,
manteniendo así la proximidad geográfica de las personas agrupadas. Cada PSU
tiene alrededor de 5000 personas, mientras que una SSU tiene alrededor de 1000.
Recuerde que el supuesto para obtener la expresión (9.5) de la varianza de un
estimador en un muestreo bietápico es que todas las UPM tienen el mismo número de
elementos, N¯ . Se harán suposiciones similares para simplificar la varianza en el
muestreo de tres etapas. Aunque la suposición de igual tamaño de PSU, y luego igual
tamaño de SSU, puede parecer inocua, está lejos de serlo, como ilustraremos en el siguiente ejempl

Ejemplo 9.2 (Entre y dentro de los componentes de la varianza en el diseño srs/srs).


La función R BW2stageSRS calculará la unidad de revarianza de una población, B2 +
W2 para comparación, la relación k = (B2 + W2)/(S2 la versión completa detuÿ/y2
en
tu ),
la yEc.
(9.6). La función asume que todo el El código R para este ejemplo está en el Ejemplo
9.2.R; el código para BW2stageSRS está en un archivo separado. Primero calculamos
los resultados usando las variables PSU y SSU como conglomerados. Para la variable
y1 en la población de Maryland, el código es

BW2stageSRS(MDarea.pop$y1, psuID=MDarea.pop$PSU,
pop=MDarea.pop)
BW2stageSRS(MDarea.pop$y1, psuID=MDarea.pop$SSU,
pop=MDarea.pop)
Machine Translated by Google

9.2 Resultados de la varianza básica 211

B2 W2 S2
tu y¯2
tu B2 + W2 k d
PSU como clústeres
0.0079
y1 0.0069 y2 0.0090 y3 1,4553 1,4627 1,4631 1,0003 0,0054
0.0012 hosp.stay ins.cov
0.0175 1,0097 1,0163 1,0166 1,0003 0,0068
0,1048 0,1136 0,1137 1,0012 0,0787
0,2599 0,2611 0,2611 1,0003 0,0046
12,8831 12,8979 12,9006 1,0002 0,0014

SSU como clústeres


0.0365
y1 y2 0.0169 y3 0.0184 1,4277 1,4627 1,4642 1,0010 0,0249
ins.cov 0.0032 hosp.stay
0.0558 1,0004 1,0163 1,0173 1,0010 0,0166
0,0954 0,1136 0,1137 1,0012 0,1615
0,2581 0,2611 0,2613 1,0010 0,0124
12,8549 12,8979 12,9107 1,0010 0,0043

Los valores de ÿ oscilan entre 0,0014 y 0,0787 cuando las PSU son clústeres. Los deltas son
algo más grande cuando las SSU son grupos, lo que refleja el fenómeno común
que las áreas geográficas más pequeñas son algo más homogéneas que las grandes
en las poblaciones de hogares. Las columnas cuarta a sexta muestran
.
que la aproximación que S2 tu = B2 + W2 en la ecuación. (9.7) funciona bien en
tu y¯2
este caso.
A continuación, para ilustrar el efecto dramático que los diferentes tamaños de conglomerados pueden
tenemos, calculamos las mismas estadísticas que arriba usando extensiones y grupos de bloques
dentro de extensiones como grupos. Se calcula una variable llamada trtBG ya que los valores
de la variable, BLKGROUP, están anidados dentro de cada tracto:

trtBG <- 10*MDarea.pop$TRACTO + MDarea.pop$BLKGROUP

B2 W2 S2
tu y¯2
tu B2 + W2 k d
Tratados como grupos
y1 0.2605 1,8390 1,4627 2,0995 1,4353 0,1241
y2 0.2687 1,2662 1,0163 1,5349 1,5103 0,1750
y3 0.2707 0,1253 0,1136 0,3960 3,4856 0,6836
ins.cov 0,2624 0,3260 0,2611 0,5884 2,2538 0,4460
hosp.estancia 0,3078 16,3171 12,8979 16,6249 1,2890 0,0185

Grupos de distritos/bloques como clústeres

0.3489
y1 0.3485 y2 0.3492 y3 1,9499 1,4627 2,2987 1,5715 0,1518
0.3408 hosp.stay ins.cov
0.4246 1,3338 1,0163 1,6823 1,6553 0,2072
0,1220 0,1136 0,4712 4,1478 0,7411
0,3426 0,2611 0,6834 2,6180 0,4987
17,2695 12,8979 17,6941 1,3719 0,0240
Machine Translated by Google

212 9 Diseño de muestras de varias etapas

Los valores de ÿ van desde 0,0185 hasta 0,6836 cuando los tractos son agrupaciones.
Cuando los grupos de bloques son conglomerados, los valores de ÿ oscilan entre 0,0240 y
0,7411. Las medidas de homogeneidad aumentan sustancialmente cuando los tractos o
grupos de bloques son agrupaciones. Por ejemplo, cuando las UPM eran agrupaciones, ÿ =
0,0054 para y1 pero es 0,1241 cuando las secciones son agrupaciones. Esto se debe
enteramente al aumento de B2 cuando se utilizan unidades con tamaños muy variables. Por
ejemplo, B2 = 0,0079 para y1 cuando PSU es un clúster pero es 0,2605 cuando tract es un
.
clúster. Las columnas cuarta a sexta anteriores muestran que la tu
aproximación
W2
tu no S2 y¯2 = B2 +
no funciona bien cuando los distritos o los grupos de bloques son clústeres. Para y3 e
ins.cov, B2 + W2 es mucho mayor que S2 , lo que implica
tu /y2tu, que
ecuación.
establecer
(9.5)k puede
= 1 en no
la ser
muy precisa para algunas variables si los conglomerados varían en tamaño.

Cree clústeres con tamaños iguales si es posible

La variación de los tamaños de los tramos en la población de Maryland es considerablemente


mayor de lo que los médicos preferirían al definir las UPM. El rango del número de personas
por extensión es de 86 a 13.579. Tener una variación tan grande en los tamaños de las
fuentes de alimentación conduce a grandes diferencias en los tamaños de los grupos (Ni) y
los totales (ti). Esto hace que el componente de varianza entre B2 sea grande, lo que a su
vez conduce a las altas medidas de homogeneidad vistas anteriormente e ineficiencias si se
.
selecciona una muestra agrupada. Esta es también la razón por la que la aproximación S2 =
tu y¯2
tu
B2 + W2 es pobre en el ejemplo 9.2. La práctica estándar sería combinar los tramos
pequeños o grupos de bloques para que todas las UPM tengan un número mínimo prescrito
de personas. Aunque la variación en el tamaño de los conglomerados tiene un efecto
dramático en los factores, como ÿ, necesarios para diseñar una muestra, parece que esto
rara vez se enfatiza en los textos de muestreo. Si el diseñador tiene cierta flexibilidad para
formar los conglomerados, como suele ser el caso en una encuesta de hogares,
definitivamente se deben crear conglomerados con un número casi igual de elementos. En
algunas encuestas, los conglomerados son unidades naturales, como escuelas, aulas o
establecimientos. En esos casos, es posible que tenga que vivir con las unidades predefinidas,
pero será importante tener en cuenta la variación en el tamaño del conglomerado al
determinar los tamaños de muestra.

9.2.2 Estimadores no lineales en muestreo en dos etapas

Los componentes de varianza entre y dentro se pueden escribir para diseños y estimadores
más complicados. Con algunas suposiciones simplificadas, las fórmulas para un diseño de
dos etapas son análogas a las de la sección anterior.

Si se usa un estimador no lineal, como la razón de dos totales o medias estimados, un


enfoque general para obtener los componentes de la varianza es construir una aproximación
lineal al estimador no lineal y luego escribir el
Machine Translated by Google

9.2 Resultados de la varianza básica 213

varianza de la aproximación. Cubriremos esta técnica con más profundidad en el Cap.


15 cuando se analiza la estimación de la varianza. Una de las opciones descritas allí
es el método de sustitución lineal, que esbozamos aquí. El lector debe consultar la
Secc. 15.2 para más detalles. ˆÿ = y ˆ¯1 y ˆ¯2, Considere un estimador como el cociente
medias estimadas, dkyjk, dk es la inversa de dos
donde y ˆ¯j = t ˆjÿ Nˆÿ (j=1,2) con t ˆjÿ = de la iÿskÿsi

probabilidad de selección del elemento k, y Nˆÿ = de la iÿskÿsi dk Porque

cancelación de Nˆÿ, ˆÿ es una función de dos totales estimados, t ˆ1ÿ y t ˆ2ÿ.


Con alguna manipulación, la aproximación lineal a ˆÿ se puede escribir como

ˆÿ - ÿ . = dkzk + constantes
iÿskÿsi

ÿf(t
donde ÿ es la proporción de población a estimar, zk = 2j=1 ˆ) ÿt ˆjÿ yjk (k ÿ si),
ˆ ˆ ˆ
t = t ˆ1ÿ,t ˆ2ÿ y ÿft con
, respecto al total estimado.
ÿt ˆj es la
El derivada parcial
término zk se de sustituto
denomina t lineal. los
el
las j
"constantes" anteriores no entran en el cálculo de la varianza. la varianza de
ˆÿ se puede aproximar calculando la varianza de En el caso iÿskÿsi dkzk.
del muestreo aleatorio simple en ambas etapas, como en la Secc. 9.2.1, dk = y zk =
ni
METRO

y1k ÿ ÿy2k.
ni La relación se puede aproximar como
metro

METRO

ˆÿ.= t zi
metro
yoÿs

donde t ˆzi = Ni/ni de la misma


kÿsi zkmanera
. Por loque
tanto,
el total
la razón
estimado
aproximada
en el ejemplo
ˆÿ se puede
9.1. En
escribir
consecuencia, la revarianza de ˆÿ se puede expresar exactamente de la misma manera
que en la ecuación. (9.5), suponiendo que ni = ¯n:

Vˆÿ
.
= Vÿ k[1 + ÿ(¯n ÿ 1)]
ÿ2 Minnesota

donde V˜ es la unidad de revarianza de los zk , k = (B2 + W2)/V˜ y ÿ = B2/(B2 + W2).


Los componentes de realvarianza entre y dentro se escriben en términos de zk en
lugar de yk. Específicamente,
(tziÿt ¯Uz)2
B2 = S2
¯2t = iÿU
U1 _
tu con S2 U1 nÿ1 ,
tzi = kÿUi zk , y t ¯Uz = iÿU tzi M;
kÿUi (zkÿz¯U i)2
W2 =
METRO ÿ2 iÿU
N2 S2U2i con S2 U2i = y
Es
Niÿ1

= V˜ . kÿUi zk Ni ; z¯Ui
= B2 + W2.

Otros estimadores no lineales pueden manejarse con este mismo método. Para el examen = t ˆÿ
ˆ¯
Por ejemplo, una media estimada como y Nˆÿ o razón de probabilidades en una tabla de 2 × 2 puede
Machine Translated by Google

214 9 Diseño de muestras de varias etapas

ambos ser linealizados y escritos, aproximadamente, como un total estimado de sustitutos


lineales.

Ejemplo 9.3 (Razón de dos totales). Suponga que se va a estimar la proporción de


hispanos con cobertura de seguro. Defina y2k como 1 si una persona es hispana y 0 si no
lo es; ÿ1k = 1 si una persona tiene cobertura de seguro. Entonces, y1k = ÿ1ky2k es 1 si la
persona k tiene seguro y es hispana y es cero en caso contrario. El sustituto lineal es zk =
y1k ÿ ÿy2k donde ÿ es la proporción de hispanos con cobertura de seguro. En este caso,
zk puede tomar solo tres valores: ÿÿ, 0 y 1 ÿ ÿ. Si se selecciona una muestra aleatoria
simple de conglomerados y personas dentro de los conglomerados, se puede usar
BW2stageSRS para calcular B2, W2 y ÿ usando los sustitutos lineales como entradas.
Suponiendo que se dispone de toda la población, el código R es el siguiente. Hacemos el
cálculo para grupos definidos como extensiones o BG:

# recodificar Hispano para que sea 1=Hispano, 0 si no es y2 <-


abs(MDarea.pop$Hispano - 2) y1 <- y2 * MDarea.pop$ins.cov

# proporción de hispanos con seguro


p <- sum(y1) / sum(y2) # lineal sub
z <- y1 - p*y2 trtBG <-
10*MDarea.pop$TRACTO +
MDarea.pop$BLKGROUP BW2stageSRS(z, psuID=MDarea.pop$TRACTO )

BW2stageSRS(z, psuID=trtBG)

Los resultados son ÿ = 0,00088 para tractos y ÿ = 0,00276 para BG. Por lo tanto, el efecto
de la agrupación en esta proporción estimada es intrascendente: una muestra en dos
etapas estimará la proporción casi con la misma precisión que lo haría una srs.
Por el contrario, si la estimación es el número total de hispanos con seguro, llamamos
BW2stageSRS de esta manera:

BW2stageSRS(y1, psuID=MDarea.pop$TRACTO)
BW2stageSRS(y1, psuID=trtBG)
que devuelven ÿ = 0,02251 para tratados y ÿ = 0,04026 para BG. Estos son aún mucho
menores que los ÿ en el ejemplo 9.2 , que también usa extensiones y BG como grupos.
Por lo tanto, el efecto de la agrupación puede ser bastante diferente según la variable.

Insecto. 9.3, damos fórmulas para la asignación óptima de una muestra a


conglomerados y elementos dentro de conglomerados. Las asignaciones dependen, en
parte, del valor de ÿ. Los ejemplos 9.2 y 9.3 muestran que las decisiones de diseño
muestral sobre el número de conglomerados de muestra y personas por conglomerado
pueden ser muy diferentes según el tipo de estimación que consideremos. Esto será
especialmente cierto para los estimadores de calibración, que se tratan en el Cap. 14. Los
estimadores de calibración utilizan variables auxiliares para reducir las varianzas. Similar
a lo que acabamos de ver en el ejemplo 9.3, el efecto del agrupamiento en los estimadores
de calibración puede ser mucho menor que para los estimadores ÿ.
Machine Translated by Google

9.2 Resultados de la varianza básica 215

9.2.3 Diseños de dos etapas más generales

Las varianzas de los estimadores en diseños más complicados que el muestreo aleatorio
simple en cada etapa también se pueden escribir como una suma de componentes. Sin
embargo, estos tienen una utilidad limitada para determinar los tamaños de muestra. La
expresión (9.1) es un ejemplo de la fórmula de varianza de componentes para un diseño en
el que las UPM se seleccionan con probabilidades variables y sin reemplazo. El primer
término en la Ec. (9.1) tiene el problema de que el número de UPM no está explícito en la
fórmula.
Una formulación más útil es el caso en que las UPM se seleccionan con probabilidades
variables pero con reemplazo, y la muestra dentro de cada UPM se selecciona por jurado.
Como se señala en el Cap. 3, los diseños con reemplazo pueden no usarse a menudo en
la práctica, pero tienen una fórmula de varianza simple. El pwr -estimator de un total es

Una
ti
t ˆpwr = metro
Pi
yoÿs

donde t ˆi = kÿsiNi
yik es el total estimado para la PSU i a partir de una muestra aleatoria
no
simple y pi es la probabilidad de selección de una extracción de la PSU i. La varianza de t
ˆpwr de Cochran (1977, pp. 308–310) es

2
Una
ti N2 no
V t ˆpwr = Pi ÿ tu + Es
1- S2U2i. (9.8)
m
iÿU Pi mpini iÿU Ni

Haciendo la misma suposición que en la Secc. 9.2.1 que se seleccionan ¯n elementos


en cada PSU, la varianza se reduce a

S2 Una norte
N2 S2U2i
V t ˆpwr =
U1 (alimentación)
+ 1- Es

metro mn¯ Ni Pi
iÿU

2
=
donde, en este caso, S2 iÿU pi y suponiendo
ti
ÿ tu . Dividiendo esto por t 2
que
U1 (alimentación) pi tu
la fracción de muestreo dentro de la UPM, ¯n/Ni, es despreciable, obtenemos la revarianza
de t ˆpwr como , aproximadamente,

.
V t ˆpwr t2 = B2 + W2 = Vÿ k [1 + ÿ (¯n ÿ 1)] (9.9)
metro mn¯ Minnesota
tu

con V˜ = S2
tu /y¯2
tu , k = (B2 + W2)/V~ ,

S2
U1 (alimentación)
B2 = t2 , (9.10)
tu
Machine Translated by Google

216 9 Diseño de muestras de varias etapas

Una
S2U2i
W2 = N2 , (9.11)
Es

t2 Pi
UiÿU

ÿ = B2 B2 + W2 . (9.12)

Para su uso posterior en la estimación de componentes de varianza, también podemos escribir la ecuación. (9.8)
como

V t ˆpwr = VPSU + VSSU . (9.13)

La expresión (9.9) tiene la misma forma que la ecuación. (9.5) pero con diferentes definiciones
de B2 y W2. La expresión (9.9) también tiene
˜ la interpretación de una varianza srs o una varianza
no agrupada, V /mn¯, por un efecto de diseño, k[1 + ÿ(¯nÿ 1)],
de la misma manera que la Ec. (9.5) lo hizo.

Ejemplo 9.4 (ppswr en la primera etapa, srs en la segunda). Este ejemplo repite el
cálculos del ejemplo 9.2 para las variables en la población del área de Maryland.
Suponga que los conglomerados se seleccionarán proporcionalmente al recuento de personas en
cada racimo. La función BW2stagePPS calcula los valores de población de
B2, W2 y ÿ que se muestran en las Ecs. (9.10)–(9.12), que son apropiados para ppswr
muestreo de conglomerados. Se muestra el código para y1 que usa PSU o SSU como clústeres
abajo. Las variables, pp.PSU y pp.SSU, mantienen las probabilidades de un sorteo
pi que aparecen en la Ec. (9.8):

pp.PSU <- tabla(MDarea.pop$PSU) / nrow(MDarea.pop)


pp.SSU <- tabla(MDarea.pop$SSU) / nrow(MDarea.pop)
BW2stagePPS(MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU)
BW2stagePPS(MDarea.pop$y1, pp=pp.SSU,
psuID=MDarea.pop$SSU)

El código que usa tratados o BG como grupos es similar y está en el archivo Ejemplo
9.4.R. Los resultados son:
Con este diseño, el término intermedio es mucho más pequeño que el interno, en comparación
con los resultados del ejemplo 9.2. Esto es cierto ya sea que PSU y SSU
se utilizan como grupos o extensiones y se utilizan BG. Cuando se seleccionan clústeres
por srs, S2 U1 es la varianza de los totales del conglomerado en torno al total medio del
conglomerado. En contraste, con el muestreo pps de conglomerados, S2 U1(pwr) deeslos la varianza
totales
de población estimados, ti/pi, alrededor del total de población,
tu _ Cuando los conglomerados se seleccionan con probabilidad proporcional a Ni, entonces
ti/pi = Niy¯Ui/ (Ni/N) = Ny¯Ui. Si estas estimaciones de un conglomerado del total de la población
son bastante precisas, como lo son aquí, el término B2 puede ser bastante pequeño.
Esto conduce a valores mucho más pequeños de ÿ en el muestreo pps de conglomerados, lo que implica
que el efecto del agrupamiento es menos importante en esta población para un diseño
que selecciona conglomerados con probabilidades proporcionales a sus conteos de población.
Machine Translated by Google

9.2 Resultados de la varianza básica 217

B2 W2 B2 + W2 k d
PSU como clústeres
y1 0.0078 1.4553 1.4630 1,0002 0,0053
y2 0.0068 1.0097 1.0165 1,0002 0,0067
y3 0.0088 0,1048 0,1136 1,0002 0,0778
ins.cov 0.0012 0,2599 0,2611 1,0002 0,0046
hosp.stay 0.0173 12,8831 12,9004 1,0002 0,0013

SSU como clústeres


y1 0,0364 1,4277 1,4642 1,0010 0,0249
y2 0,0169 1,0004 1,0173 1,0010 0,0166
y3 0,0183 0,0954 0,1137 1,0008 0,1611
ins.cov 0,0032 0,2581 0,2613 1,0010 0,0124
estancia hospitalaria 0,0557 12,8549 12,9106 1,0010 0,0043

B2 W2 B2 + W2 k d
Tratados como grupos
0.0092
y1 0.0107 y2 0.0136 y3 ins.cov 1,4539 1,4631 1,0002 0,0063
hosp.stay 0.0223 0.0018 1,0058 1,0165 1,0002 0,0106
0,1001 0,1136 1,0002 0,1194
0,2593 0,2611 1,0002 0,0069
12,8786 12,9009 1,0002 0,0017

Grupos de distritos/bloques como clústeres


y1 0.0160 1.4478 1.4638 1,0007 0,0109
y2 0.0176 0.9994 1.0171 1,0007 0,0173
y3 0.0211 0,0926 0,1137 1,0006 0,1857
ins.cov 0.0039 0,2574 0,2612 1,0007 0,0148
hosp.stay 0.0509 12,8567 12,9076 1,0008 0,0039

Los practicantes habitualmente gravitan hacia el muestreo pps de conglomerados en lugar de


que srs. Este ejemplo deja en claro por qué esta elección suele ser buena. De
Por supuesto, se necesitan valores precisos de los tamaños de clúster para que pps sea efectivo,
y estos no siempre están disponibles.
Machine Translated by Google

218 9 Diseño de muestras de varias etapas

9.2.4 Muestreo en tres etapas

Un diseño común en las encuestas de hogares es seleccionar las UPM, las UPM dentro de las UPM y los
hogares dentro de las UPM. En los EE. UU., las SSU suelen ser áreas geográficas de subcondados, como
distritos censales o grupos de bloques. Estos se describen en detalle en el Cap. 10. En tal diseño de tres
etapas, naturalmente, hay tres componentes de varianza. Primero presentamos la fórmula de la varianza para
un total estimado cuando se utiliza un muestreo aleatorio simple en las tres etapas.

Muestreo aleatorio simple en las tres etapas

Lamentablemente, hay aún más notación en el muestreo de tres etapas para especificar la situación.
Supongamos que Ni es el número de población de SSU en PSU i y que ni es el número seleccionado por
srswor ; N = Ni es el número total de UME en la población; Qij es el número de población de
j dentro
elementos
de PSU
eni;SSU
y
iÿU
qij es el número de elementos seleccionados por srswor de PSU/SSU ij. El número total de elementos en PSU
i es Qi y en la población es Q. La población de SSU en PSU i es Ui; la población de elementos en PSU/SSU ij
es Uij .

Si se selecciona una espada en cada etapa, las probabilidades de selección de PSU, SSU y elementos son
m/M, ni/Ni y qij/Qij . El estimador ÿ del total es

Ni qij
METRO t ˆÿ =
metro
si,
no qij
yoÿs jÿsi kÿsij

donde si es el conjunto de SSU de muestra en PSU i y sij es el conjunto de elementos de muestra en PSU/SSU
ij. La revarianza del estimador ÿ es (Hansen et al. 1953b, Secc . 7.4)

M2 METRO - metro N2 Ni ÿ ni
V t ˆÿ =
METRO

S2U1 +
Es

S2U2i (9.14)
t2tu 1 t2 metro METRO metro
tu no Ni
iÿU

M Q2yo qij ÿ qij


Ni
+ S2U3ij ,
metro
ni qij Qij
iÿU jÿUi
dónde

= iÿU (tiÿt ¯U )2
S2U1 como en el Ejemplo 9.1
M-1
= 2
S2U2i ( tij ÿ t ¯Ui) siendoes la varianza unitaria de los totales de SSU en PSU
Una

kÿUij yk
Niÿ1 jÿUi
yo con tij = t ¯Ui la población total para PSU/SSU ij,

=
jÿUi tij Ni es el promedio total por SSU en PSU i
= 2
S2 es la varianza unitaria entre elementos en
Una

U3ij Qijÿ1 kÿUij (yk ÿ y¯Uij )

PSU/SSU ij con ¯yUij =


kÿUij yk Qij
Machine Translated by Google

9.2 Resultados de la varianza básica 219

Para escribir la Ec. (9.14) en una forma más útil para el cálculo del tamaño de la muestra,
suponga que se selecciona el mismo número de SSU, ¯n, de cada PSU y el mismo número de
elementos, q ¯¯, de cada SSU. Suponga además que el número de SSU en cada PSU es el
, yese
mismo, Ni = N¯ elementos en cada SSU es el mismo, Qij = Q¯¯. En quecaso
el número de la Ec.
especial,
(9.14)
se puede reescribir como

¯¯ ¯¯
V t ˆÿ t2 Una Una METRO - metro Una n¯ - n¯ Una
q ÿ q S2
= S2 +
Una S22 + ¯¯ 3 , (9.15)
tu
¯¯¯2 mn¯ N¯ mn¯ q
tu
años
metro METRO
Q¯¯

dónde

iÿU jÿUi kÿUij yk MN¯Q¯¯ y ¯¯¯U =


2
S2 = (M ÿ 1)ÿ1
Una U y ¯¯Ui ÿ y ¯¯¯U
¯¯
y ¯¯Ui = ti N¯Q es la media por elemento en PSU i
2
S22 = iÿU jÿUi (¯yUij ÿ y ¯¯Ui) MN¯ ÿ 1

y¯Uij = kÿUij yk Q¯¯ es la media por elemento en SSU ij


2
S23 = (yk ÿ y¯Uij ) MN¯ Q¯¯ ÿ 1
kÿUij

La expresión (9.15) también se encuentra en Cochran (1977, Ec. (10.26)). Aunque la Ec. (9.15)
es relativamente simple, las suposiciones de que cada UPM tiene el mismo número de población
de SSU y que cada SSU tiene el mismo número de población de elementos son limitaciones.
Suponiendo que las fracciones de muestreo de las UPM, las UPM dentro de las UPM y los
elementos dentro de las UPM son todos pequeños, se puede obtener una fórmula de realvarianza
más general que permite tamaños de población variables y aún requiere que se seleccionen ¯n
¯¯
UPM y q elementos.

V t ˆÿ t2 . B2 W22 W23
= + + mn¯q ¯¯, (9.16)
tu metro Minnesota

donde B2 = M2S2 U1/t2 U ,


W22
= M yoÿUN2 yo S2 U2i/t2 U , y
W23 Q2 ijS2 U3ij/t2
= METRO iÿUNi U .
jÿUi

Probabilidades variables en la primera etapa, muestreo aleatorio simple en etapas posteriores

En el caso del muestreo con reemplazo de UPM con probabilidades variables y con fuerza en
la segunda y tercera etapa, la revarianza se puede escribir (con algunos supuestos) en una
forma útil para los cálculos del tamaño de la muestra. Tratar el caso en el que las SSU se
seleccionan a través de srs (con o sin reemplazo) no es poco realista, ya que las SSU (como
los grupos de bloques) a menudo se crean para tener aproximadamente el mismo tamaño de
población.
Machine Translated by Google

220 9 Diseño de muestras de varias etapas

La varianza real del estimador pwr de un total se deriva de Hansen et al. (1953b, Cap. 9, p. 211) y S¨arndal
et al. (1992, pág. 149): V t ˆpwr t2

S2 Una N2 Ni ÿ ni
U1 (alimentación)
= +
Es

S2U2i
1 t2 metro metro
pini Ni
tu tu iÿU

ÿ
Una Una
Ni Q2yo qij ÿ qij (9.17)
+ S2U3ij
m pi iÿU no ÿ
jÿUi
qij Qij
ÿ

ÿ
{VPSU + VSSU + VTSU },
1 t2
tu

, VSSU
donde VPSU y VTSU ,
están definidos por la última igualdad. (“TSU” significa unidad de tercera etapa). En la
ecuación. (9.17) S2 es el mismo que se define en la expresión (9.8) y
U1 (alimentación)

2
S2U2i = es la varianza unitaria de los totales de SSU en PSU
Una

Niÿ1 jÿUi ( tij ÿ t ¯Ui)


yo con tij = t ¯Ui siendo kÿUij yk la población total para PSU/SSU ij
=
jÿUi tij Ni es el promedio total por SSU en PSU i

= 2
S2U3ij
Una

(yk ÿ y¯Uij ) es la varianza unitaria entre elementos en


Qijÿ1 kÿUij
PSU/SSU ij con ¯yUij = kÿUij yk Qij La

expresión (9.17) también se aplica si las entradas son sustitutos lineales, como se definió anteriormente en la
Secc. 9.2.2.

HHM presenta una versión más compleja de la ecuación. (9.17) en el que las UPM se estratifican y las
UME se subestratifican, pero no hemos agregado esa complicación aquí. Otra complicación que se omite aquí
es la selección de elementos de dominio a diferentes velocidades. Por ejemplo, un objetivo puede ser igualar
los tamaños de muestra de diferentes grupos raciales/etnicos.

La expresión (9.17) es lo suficientemente compleja como para no ser útil para la planificación del tamaño
de la muestra. Para obtener una fórmula más sencilla, suponga que se muestrean ¯n SSU en cada PSU de
muestra, las fracciones de muestreo de SSU en cada PSU, ¯n/Ni, son pequeñas y se seleccionan q elementos
¯¯
en cada SSU de muestra. Especializando la Ec. (9.17), la revarianza del pwr -estimator es entonces

V t ˆpwr B2 W22 W23


= + + mn¯ q ¯¯, (9.18)
t2tu metro Minnesota

donde B2 = S2 t2tu viene dada por la Ec. (9.10),


U1 (alimentación)

Una

W22 = N2 S2U2i pi;


Es (9.19)
t2
UiÿU

Ni
W23 = Q2 ijS2 U3ij . (9.20)
1 t2pi _
UiÿU jÿUi
Machine Translated by Google

9.2 Resultados de la varianza básica 221

La expresión (9.18) tiene la misma forma que la ecuación. (9.16) para un diseño srs/srs/srs
, y W2aplicaciones,
pero con diferentes definiciones para B2, W2 3 . En2algunas ad hoc, N¯ un
ÿ n¯fpc
N¯de segunda
donde N¯ esetapa
el
número promedio de SSU en cada PSU, y un fpc de tercera etapa ad hoc, (Q ÿq ¯¯)/Q donde Q es
¯¯ ¯¯ ¯¯
el número promedio de elementos en cada TSU, puede usarse
unaen
mejor
la ecuación.
aproximación.
(9.18) para obtener

La revarianza en la ecuación. (9.18) también se puede escribir en términos de dos medidas de


homogeneidad:

V t ˆpwr t2 = V˜ ¯¯ {k1ÿ1n¯q ¯¯+ k2 [1 + ÿ2 (q ¯¯ÿ 1)]} mn¯q (9.21)


tu
dónde
2 es
k1 = (B2 + W2)/V~ con V~ = (yk ÿ y¯U )
Una

y¯2
tu
Qÿ1 iÿU jÿUi kÿUij la unidad de
revarianza de y en la población

k2 = (W2 2 + W2 3 )/Vÿ

ÿ1 = B2/(B2 + W2)
W2 = Una = Una

(yk ÿ y¯Ui)
2
t2tu iÿU Q2 S2U3i pi con S2
Es U3i Qiÿ1 jÿUi kÿUij

y ¯yUi = entre es la varianza a nivel de elemento


jÿUi kÿUij yk Qi, es decir, S2 U3i
todos los elementos en PSU i ÿ2 =

W2 2 /(W2 2 + W2 ) 3

Hansen et al. (1953b, cap. 9) dan versiones más elaboradas de ÿ1 y ÿ2, pero las anteriores más
simples son adecuadas para la planificación del tamaño de la muestra.
Tenga en cuenta que el término W2 en ÿ1 no entra en la varianza en la ecuación. (9.18) , pero
se define por analogía con el término del muestreo en dos etapas de la ecuación. (9.10). Si los
elementos se seleccionaron directamente de las UPM de la muestra (en lugar de las UPM de la
primera muestra), entonces el W2 anterior sería el componente apropiado dentro de la UPM.
El término ÿ1 es una medida de la homogeneidad entre los totales de la PSU. Si la estimación
del total de la población de cada total de UPM, ti/pi, fuera exactamente igual, entonces B2 = 0 y ÿ1
de las UPM es mucho mayor que la, = 0. Es decir,
variación entresi las
la variación del total
UPM totales, de la población,
entonces tU dentro
ÿ1 será pequeño;
esta es la situación típica en las encuestas de hogares si todas las UPM tienen aproximadamente
el mismo número de elementos. Como vimos en el Ejemplo 9.2, la condición de PSU de igual
tamaño puede ser de importancia crítica para asegurar que B2 sea pequeño.

Si todas las SSU tienen aproximadamente los mismos totales, entonces W2 será pequeño y
2
tij , ÿ2 . Aunque se pueden hacer intentos para crear SSU que tengan aproximadamente la misma
= 0.
cantidad de elementos Qij , los totales tijde
deÿ2
otras
quevariables
son mayores
continuación
tienden
quea los
variar,
.de
. ÿ1,
lo que
comolleva
se a
analiza
valores
a

HHM tenga en cuenta que en algunas aplicaciones, k1 y k2 estarán cerca de 1, por lo que
esta versión más simple de la varianza real se puede usar para planificar:

.
V t ˆpwr t2 = V˜ ¯¯ {ÿ1n¯ q ¯¯+ [1 + ÿ2 (q ¯¯ÿ 1)]} . (9.22)
tu
mn¯ q
Machine Translated by Google

222 9 Diseño de muestras de varias etapas

El término entre llaves es el aumento en la varianza real sobre el muestreo aleatorio simple
debido al uso del muestreo en tres etapas. Si tanto ÿ1 como ÿ2 son 0, entonces el muestreo
en tres etapas será tan eficiente como el srs. Por lo general, ÿ1 y ÿ2 serán positivos, por lo
que habrá algún aumento en la revarianza en comparación con srs.
En los EE. UU., las UPM de las encuestas de hogares suelen ser condados o grupos de
condados. Estos varían en tamaño de población, pero pueden contener cientos de miles o
incluso millones de personas. Las SSU pueden ser distritos censales que son áreas más
pequeñas con 1500 a 8000 personas. Una alternativa para una SSU es un grupo de bloque,
que generalmente tiene entre 600 y 3000 personas. Las UPM de las encuestas de hogares
suelen ser áreas grandes y bastante heterogéneas, lo que implica que ÿ1 tiende a ser muy
pequeño para muchas variables, por ejemplo, 0,01 o menos. Las SSU son áreas más
pequeñas donde las personas tienden a ser más parecidas, lo que lleva a que ÿ2 sea un
número mayor, como 0,10. En las encuestas escolares, ÿ2 también puede ser mayor que ÿ1
si las PSU son distritos, las SSU son escuelas, los elementos son estudiantes y las variables
de análisis son diferentes tipos de pruebas de rendimiento. Como hemos señalado varias
veces antes, el hecho de que las PSU y las SSU tengan o no el mismo número de elementos
puede tener un gran impacto en las medidas de homogeneidad. Como siempre, los tamaños
de parámetros como ÿ1 y ÿ2 dependen de la población y las variables de análisis. Tener datos
relevantes es importante para hacer estimaciones anticipadas realistas para el diseño de la muestra.
La función R, BW3stagePPS, calculará B2, W2, W2 W2 3 , ÿ1 y ÿ2 definidos anteriormente2 ,para elmuestreo
ppswr/srs/srs y srs/srs/srs. La función es apropiada si está disponible un marco completo y toma los siguientes
parámetros: vector de datos vector de probabilidades de extracción única para PSU; la longitud es el número de PSU
X en el vector de población de ID para PSU; la longitud es el número de unidades en el vector

páginas de población de ID para SSU; la longitud es el número de unidades en la población. El


parámetro ssuID debe tener la forma psuID||(ssuID dentro de PSU)
psu ID

ssuID

Si el parámetro pp se establece igual a 1/M para todas las PSU, entonces B2 se calcula como
2¯2t
Mÿ1 (ti ÿ t ¯U tu
), que es aproximadamente
_
tu , igual al valor de srswr
de B2.

Ejemplo 9.5 (Tres etapas srs/srs/srs). En la población de Maryland, suponga que las variables
PSU y SSU definen las unidades de primera y segunda etapa y que las personas son
elementos en un diseño de tres etapas. Las UPM, las UME y las personas se seleccionan
mediante muestreo aleatorio simple. La llamada a BW3stagePPS para la variable y1 y los
resultados para y1, y2, y3, ins.cov y hosp.stay se enumeran a continuación:

M <- longitud(único(MDarea.pop$PSU)) pp.PSU <- rep(1/


M,M)

BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
Machine Translated by Google

9.2 Resultados de la varianza básica 223

Las PSU y las SSU son unidades de primera y segunda etapa


B2 W2 W2 2 W23 k2 ÿ2 ÿ1
K1 0.0078
Y1 0.0068 1.0097 0.01251.4553
1.00040.0358
1.00021.4277 1.0002
Y2 0.0088 1,0006 0,0053 0,0245
0.0012 0.25990.1048
0.00250.0119
0.25810.0954
1.00021.0002
Hosp. Y3 Ins.cov 0,9967 0,0067 0,0124
0,9439 0,0778 0,1105
0,9983 0,0046 0,0098
1,0004 0,0013 0,0037

Los valores de ÿ1 son casi los mismos que en el Ejemplo 9.2 donde también se usaron PSU .
seleccionado usando srs. Los valores de ÿ2 van desde 0.0037 hasta 0.1105, los cuales son
Bastante pequeño. Los valores de k1 y k2 están cerca de 1, lo que significa que B2 + W2 y
W22 + W2 3 están cerca de la unidad de la varianza en la población. A continuación, suponga
que los tractos y los BG dentro de los tractos son las unidades de primera y segunda etapa y
que las tres etapas son nuevamente seleccionadas por srs. El código para la variable y1
es

M <- longitud(único(MDarea.pop$TRACTO))
trtBG <- 10*MDarea.pop$TRACTO + MDarea.pop$BLKGROUP
pp.trt <- rep(1/M,M)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.trt,
psuID=MDarea.pop$TRACTO, ssuID=trtBG)

Como en el Ejemplo 9.2, la variable trtBG tiene un identificador único para el bloque
grupos Los resultados se enumeran a continuación. Observe que los valores de ÿ1 y ÿ2 son
mucho más grandes cuando se utilizan distritos y BG como unidades de muestreo que cuando
se utilizaron las variables PSU y SSU. Como en el ejemplo 9.2, esto se debe a la
tamaños muy variables de tractos y BG.

Los tractos y BG son unidades de primera y segunda etapa


B2 W2 W2 2 W23 k1 k2 ÿ2 ÿ1
y1 0,2577 1,8390 0,2699 2,1084 1,4334 1,6259 0,1229 0,1135
y2 0,2658 1,2662 0,2613 1,4442 1,5075 1,6781 0,1735 0,1532
y3 0.2678 0.1253 0.2609 0.1323 3.4605 3.4615 0.6813 0.6635
ins.cov 0.2597 0.3260 0.2584 0.3730 2.2432 2.4185 0.4434 0.4092
estancia.hosp. 0,3046 16,3171 0,3155 18,6391 1,2887 1,4696 0,0183 0,0166

Los valores de ÿ1 son casi los mismos que en el Ejemplo 9.2 donde también se
seleccionados en la primera etapa utilizando srs. Los valores de k1 y k2 son mucho mayores
que 1, lo que implica que B2 + W2 y W2 + W2 son diferentes a la unidad
2 3
Revarianza en la población. Esto se debe a los diferentes tamaños de los tractos y
BG.
Machine Translated by Google

224 9 Diseño de muestras de varias etapas

Ejemplo 9.6 (Tres etapas ppswr/srs/srs). Repetimos el cálculo en


Ejemplo 9.5 pero suponiendo un muestreo ppswr de las UPM. El cálculo para y1
El uso de PSU y SSU como unidades de muestreo de primera y segunda etapa se realiza a través de
esta llamada:

pp.PSU <- tabla(MDarea.pop$PSU) / nrow(MDarea.pop)


BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)

Los valores de ÿ1 y ÿ2 son como máximo 0,0236 a excepción de y3 que


tiene ÿ1 = 0.0776 y ÿ2 = 0.1097.

Las PSU y las SSU son unidades de primera y segunda etapa


B2 W2 W2 2 W23 k1 k2 ÿ2 ÿ1
y1 0,0078 1,4553 0,0358 1,4277 1,0002 1,0006 0,0051 0,0236
y2 0.0068 1.0097 0.0125 1.0004 1.0002 0.9967 0.0065 0.0114
y3 0.0088 0.1048 0.0119 0.0954 1.0002 0.9439 0.0776 0.1097
ins.cov 0.0012 0.2599 0.0025 0.2581 1.0002 0.9983 0.0044 0.0088
estancia hospitalaria 0,0173 12,8831 0,0480 12,8549 1,0002 1,0004 0,0011 0,0027

La situación cambia sustancialmente cuando se utilizan tratados y BG para


etapas uno y dos. La llamada para y1 es

trtBG <- 10*MDarea.pop$TRACTO + MDarea.pop$BLKGROUP


pp.trt <- tabla(MDarea.pop$TRACTO) / nrow(MDarea.pop)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.trt,
psuID=MDarea.pop$TRACTO, ssuID=trtBG)

Los tractos y BG son unidades de primera y segunda etapa


B2 W2 W2 2 W23 k1 k2 ÿ1 ÿ2
y1 0,0092 1,4539 0,2499 1,6873 1,0002 1,3243 0,0060 0,1284
y2 0.0107 1.0058 0.2379 1.1619 1.0002 1.3774 0.0103 0.1694
y3 0.0136 0.1001 0.2376 0.1073 1.0002 3.0356 0.1192 0.6889
ins.cov 0.0018 0.2593 0.2321 0.3011 1.0002 2.0424 0.0067 0.4351
estancia.hosp. 0,0223 12,8786 0,2728 14,8946 1,0002 1,1760 0,0015 0,0173

Los resultados se muestran arriba. Los valores de k1 son esencialmente 1, pero k2 es


mayor que 1 para todas las variables. Los valores de ÿ2 son mucho mayores que cuando
PSU se utilizó como unidad de primera etapa, con un rango de 0,0173 a 0,6889. Una vez
nuevamente, esto ilustra el gran efecto que puede tener la variación del tamaño de la unidad en el
Medidas de homogeneidad.

En la siguiente sección, discutimos cómo determinar las asignaciones óptimas de


el número de PSU, SSU y elementos de la muestra en las muestras de dos y tres etapas.
Machine Translated by Google

9.3 Funciones de costos y asignaciones óptimas para el muestreo multietápico 225

9.3 Funciones de costos y asignaciones óptimas


para el muestreo multietápico

Al determinar la asignación de una muestra multietapa, hay dos situaciones comunes. Uno es
diseñar una muestra de PSU desde cero en la que se determinará tanto el número de PSU de
muestra como el número de elementos por PSU. El segundo caso es uno en el que se utilizará
una muestra de PSU existente y la tarea es determinar cuántos elementos muestrear por PSU. En
ambos casos, se debe considerar el costo de tener una UPM en la muestra y el costo de recolectar
y procesar los datos de cada elemento.

9.3.1 Muestreo en dos etapas cuando el número de PSU de


muestra y elementos por PSU son ajustables

Una función de costo simple para el muestreo en dos etapas asume que hay un costo por PSU de
muestra y un costo por elemento de muestra. Como en el caso del muestreo estratificado del Cap.
3, esta estructura de costos es probablemente una simplificación excesiva, pero un modelo simple
puede tener algún uso práctico siempre que los tamaños relativos de los costos unitarios sean
razonables. Tomemos el caso de un número igual ¯n de unidades elementales muestreadas de
cada UPM. Modelamos el costo total como

C = C0 + C1m + C2mn, ¯

dónde

C0 = costos que no dependen del número de UPM y elementos de la muestra


C1 = costo por fuente de alimentación de muestra

C2 = costo por elemento

Groves (1989) es una buena fuente para las múltiples facetas de las encuestas que contribuyen a
los costos. Los costos por UPM en una encuesta de hogares pueden incluir el reclutamiento y la
capacitación de entrevistadores, el pago de supervisores de campo y los costos de listado de
campo. Los costos por elemento podrían incluir el tiempo del personal para realizar una entrevista,
los costos de impresión si se utilizan cuestionarios en papel y el tiempo del personal administrativo
para revisar sondeos especiales con cuestionarios completados o parcialmente completados. El
componente C0 puede incluir tiempo de personal para el personal de la oficina central, por ejemplo,
un gerente de proyecto, informáticos para programar el instrumento si se utilizan entrevistas
personales asistidas por computadora, programadores para editar los datos y estadísticos para
diseñar la muestra, idear un seguimiento de la falta de respuesta. establecer procedimientos y
desarrollar esquemas de ponderación. Como hemos señalado en otra parte, el seguimiento de
estos costos es difícil y, a menudo, no encaja bien con las prácticas contables de las encuestas.
Como resultado, es posible que deba conformarse con estimaciones de costos unitarios bastante aproximadas.
Machine Translated by Google

226 9 Diseño de muestras de varias etapas

Como se muestra en las Ecs. (9.5) y (9.9), la forma de la revarianza del total estimado es la
misma cuando el diseño es srs/srs o ppswr/srs y se seleccionan ¯n elementos en cada PSU
muestral:
ˆ
vt . V~
ÿ
=
k [1 + ÿ (¯n - 1)] . (9.23)
t2tu Minnesota

Por lo tanto, las fórmulas a continuación se aplican tanto a srs/srs como a ppswr/srs siempre que B2
y W2 están adecuadamente definidos. El número óptimo de unidades a seleccionar por
PSU, es decir, el número que minimiza la revarianza aproximada, es

C1 1 - ÿ
. (9.24)
n¯opt = d
C2

Tenga en cuenta que solo se necesita conocer la relación de los costos unitarios para
calcular ¯nopt. Cuanto más cuesta una fuente de alimentación, más elementos deben seleccionarse
dentro de cada PSU. Por otro lado, cuanto mayor es ÿ, menos elementos
debe seleccionarse por fuente de alimentación.

Para encontrar el m óptimo para un costo total fijo, sustituimos ¯nopt en el


función de costo para obtener

C - C0 .
fregar = (9.25)
C1 + C2n¯optar
2
Alternativamente, para encontrar el m óptimo para una varianza real fija, CV tute 0 , reemplazamos
¯nopt en la fórmula de la varianza real para obtener
˜
Vk
mopt = n¯optCV 2 [1 + ÿ (¯nopt - 1)] . (9.26)
0

Ya sea en el caso de encontrar tamaños de muestra para un costo total fijo o para un objetivo
CV, el tamaño total de la muestra es simplemente moptn¯opt donde el número de muestra
Las PSU y los elementos por PSU se calculan utilizando las Ecs. (9.24) y (9.25)
o (9.26). Si k = 1, la ecuación. (9.26) se reduce a la fórmula que se encuentra en la mayoría de los textos.
La figura 9.1 representa gráficamente el coeficiente de variación basado en la ecuación. (9.23), suponiendo
que k = 1 de un total estimado frente a un rango de valores de ¯n para ÿ = 0.01,
0,05, 0,10 y 0,20. Se coloca un punto en cada curva en el punto donde el
CV es un mínimo. En algunas situaciones, la sabiduría convencional es que “el
óptimo es plano” en el sentido de que un rango de tamaños de muestra dará un CV que
está cerca del valor mínimo. Ese suele ser el caso en el muestreo estratificado donde
la asignación a los estratos puede apartarse de la asignación óptima y aún así
ser razonablemente eficiente. En contraste, la figura 9.1 ilustra que la "planitud" de
el óptimo claramente depende del tamaño de ÿ. Si ÿ = 0.01, muestreo en cualquier lugar
de alrededor de 7 a 30 elementos por PSU es bastante eficiente. Para ÿ más grandes, el
el óptimo está más claramente definido. Por ejemplo, cuando ÿ = 0,20, ¯n de 2, 3 o
4 da un CV cercano al óptimo, pero asignando más que eso a cada PSU
rápidamente se vuelve ineficiente.
Machine Translated by Google

10 10

9.3 Funciones de costos y asignaciones óptimas para el muestreo multietápico 227


9
CV delta = 0,01 8 delta = 0,05
CV
C1/C2=3

7
9
8
7
6
C1/C2=2
6
C1/C2=1

0 5 10 15 20 25 30 0 5 10 15 20 25 30
10
nbar (unidades de muestra por PSU) nbar (unidades de muestra por PSU)

9
delta = 0,1 delta = 0,2
CV CV
8

7
13
12
11
10
9
8
7

0 5 10 15 20 25 30 0 5 10 15 20 25 30
nbar (unidades de muestra por PSU) nbar (unidades de muestra por PSU)

Higo. 9.1: Coeficientes de variación para una media estimada para diferentes números de
elementos de muestra por PSU. Las tres curvas de cada panel corresponden a ratios de costes
de C1/C2 = 3, 2, 1 (de arriba hacia abajo). Se supone que la unidad de revarianza V˜ es 1. La
presupuesto total es C ÿ C0 = $100 000 con C1 = 750, 500 y 250 y C2 = 250. Cada
el punto está en el punto óptimo.

Ejemplo 9.7 (Una función R para tamaños de muestra óptimos). La función R


clusOpt2 calculará mopt y ¯nopt para una muestra de dos etapas que utiliza
muestreo aleatorio simple en cada etapa o ppswr en la primera etapa y srs en
el segundo. Los argumentos de la función son

C1 costo unitario por PSU


C2 costo unitario por elemento
delta medida de homogeneidad ÿ
unidad.rv unidad de revarianza
k relación de B2 + W2 a la unidad de revarianza
CV0 currículum objetivo
costo total presupuesto total para costos variables, C ÿ C0
Solo uno de CV0 y tot.cost puede ser
introducido en una llamada a la función.
cal.sw 1, encontrar mopt óptimo para presupuesto total fijo
2, encuentre la fregona óptima para el objetivo CV0
Machine Translated by Google

228 9 Diseño de muestras de varias etapas

El siguiente código calculará la cantidad óptima de PSU y elementos por PSU


suponiendo que C1 = 750, C2 = 100, ÿ = 0,05, la unidad de revarianza y k son
1, y el presupuesto total para costos variables es de $100 000:

clusOpt2(C1=750, C2=100, delta=0.05, unidad.rv=1, k=1,


tot.cost=100000, cal.sw=1)

C1 = 750
C2 = 100
delta = 0,05
unidad varrel = 1
k=1
presupuesto = 1e+05
m.opt = 51,4 n.opt =
11,9 CV = 0,0502

En clusOpt2, y en todas las funciones de este capítulo, no hemos redondeado los


tamaños de muestra a números enteros. Puede hacer el redondeo usted mismo o usar
un método de selección de muestra donde el tamaño esperado se puede especificar
como un número no entero. La función también aceptará entrada vectorial para uno de
los parámetros a la vez. Por ejemplo, podemos ver el efecto de un rango de ÿ con

clusOpt2(C1=750, C2=100, delta=c(0.01,


0.05, 0.10, 0.20), unit.rv=1, k=1, tot.cost=100000, cal.sw=1)

C1 = 750
C2 = 100
delta = 0,01, 0,05, 0,10, 0,20
unidad varrel = 1
k=1
presupuesto = 1e+05
m.opt = 28,8, 51,4, 63,6, 77,1 n.opt = 27,2, 11,9, 8,2,
5,5 CV = 0,0401, 0,0502, 0,0574, 0,0670

Enviar los vectores de función para más de un parámetro (p. ej., C2=c(100, 120) y delta=c(0.01, 0.05)
generará un error.
Machine Translated by Google

9.3 Funciones de costos y asignaciones óptimas para el muestreo multietápico 229

9.3.2 Muestreo en tres etapas cuando los tamaños de muestra


son ajustables

Una función de costo para el muestreo en tres etapas, análoga a la del muestreo en
dos etapas de la Secc. 9.3.1, es
¯¯
C = C0 + C1m + C2mn¯ + C3mn¯ q. (9.27)

El término C0 es nuevamente costos que no dependen del tamaño de la muestra en diferentes


etapas; C1 es el costo por PSU; C2 es el costo por SSU; y C3 es el costo por elemento. La
función en la Ec. (9.27) no es, de ninguna manera, única. La función de costo para el muestreo
en tres etapas puede ser potencialmente más complicada que para el muestreo en dos etapas
porque es posible que se deban considerar más tipos de costos.
Por ejemplo, en una encuesta de hogares, los viajes entre SSU dentro de una UPM pueden ser
una consideración, especialmente si solo uno o dos entrevistadores cubren toda una UPM.
Hansen et al. (1953a, Cap. 9, Secc. 18) consideran esta función de costo para muestras de tres
etapas:

¯¯
C = C0 ÿm + C1m + C2mn¯ + C3mÿ n¯ + C4mn¯ q, donde C0 (9.28)

ÿm representa el costo de viajar entre PSU, C1 es el costo por PSU, C2 es el costo por SSU,
C3mÿn¯ es el costo total de viajar entre SSU, y C4 es el costo por elemento. Se encontró que
esta formulación era útil en el trabajo de la Oficina del Censo hace varias décadas, pero puede
no ser aplicable a encuestas con una estructura de costos más moderna. Aquí presentamos los
resultados para optima con la función de costo más simple (9.27) como ilustración.

Minimizando la revarianza ppswr/srs/srs en la ecuación. (9.21) sujeto a un fijo


el costo total da los siguientes valores óptimos (Hansen et al., 1953b, p. 225):

1 ÿ ÿ2 C2
q ¯¯optar = , (9.29)
ÿ2 C3

Una
1 ÿ ÿ2 C1 k2
n¯opt = q ¯¯ , (9.30)
ÿ1 C3 k1

C ÿ C0
fregona = ¯¯ . (9.31)
C1 + C2n¯ + C3n¯ q
2
Si se establece una revarianza objetivo 0, entonces las ecuaciones para encontrar los óptimos
en CV para q ¯¯opt y ¯nopt son los mismos que los anteriores, pero el número óptimo de
elementos para muestrear de cada SSU es

V
CV 0 n¯optq ¯¯opt
2 ˜ {k1ÿ1n¯opt q ¯¯opt + k2 [1 + ÿ2 (q ¯¯opt ÿ 1)]}. mopt = (9.32)

Ya sea en el caso de encontrar tamaños de muestra para un costo total fijo o para un objetivo
CV, el tamaño total de la muestra es moptn¯optq ¯¯opt, donde el número de UPM de la muestra,
Machine Translated by Google

230 9 Diseño de muestras de varias etapas

Las SSU y los elementos por SSU se calculan utilizando la ecuación. (9.31) o (9.32). El r
La función clusOpt3 proporciona una solución tanto para los problemas de minimizar
la varianza aproximada para un costo total fijo y minimizar el costo total para
un CV objetivo.
La función clusOpt3 también se puede utilizar para el muestreo de srs en los tres
etapas Los valores de ÿ1 y ÿ2 que se definen para la Ec. (9.21) debe calcularse con fórmulas
apropiadas para un muestreo aleatorio simple. En particular,
pi, la probabilidad de PSU de una extracción, se establecería igual a 1/M.
Si la función de costo más complicada en Eq. (9.28) es apropiado, explícito
No se pueden obtener soluciones para mopt, ¯nopt y q ¯¯opt . HHM da una iterativa
procedimiento para llegar a valores aproximados de mopt, ¯nopt y q ¯¯opt.

Ejemplo 9.8 (Tamaños de muestra óptimos en una muestra de tres etapas). La función R
clusOpt3 acepta los siguientes parámetros:

C1 costo unitario por PSU


C2 costo unitario por elemento
C3 costo por elemento
delta1 medida de homogeneidad dentro de las UPM, ÿ1
delta2 medida de homogeneidad dentro de las UME, ÿ2
unidad.rv unidad de revarianza
k1 relación de B2 + W2 a la unidad de revarianza
k2 2 + W2 3 a la unidad de revarianza
proporción de W2

CV0 currículum objetivo


costo total presupuesto total para costos variables, C ÿ C0
Solo se puede ingresar uno de CV0 y costo total
en una llamada a la función.
cal.sw 1, encontrar óptimos para un presupuesto total fijo
2, encontrar óptimos para un objetivo CV0

La función calcula los valores óptimos basándose en las Ecs. (9.29), (9.30) y
ya sea (9.31) o (9.32). Supongamos que C1 = 500, C2 = 100, C3 = 120,
ÿ1 = 0.01, ÿ1 = 0.10, la unidad de varianza es 1, al igual que k1 y k2, y el total
presupuesto para costos variables es de $100,000. La llamada a clusOpt3 es
clusOpt3(unidad.costo=c(500, 100, 120), delta1=0.01,
delta2=0.10, unidad.rv=1, k1=1, k2=1,
tot.cost=100000, cal.sw=1)

C1 = 500
C2 = 100
C3 = 120
delta1 = 0,01
delta2 = 0,1
unidad varrel = 1
k1 = 1
k2 = 1
presupuesto = 1e+05
Machine Translated by Google

9.3 Funciones de costos y asignaciones óptimas para el muestreo multietápico 231

cheque de costo = 1e+05


m.opt = 28.3 n.opt =
7.1 q.opt = 2.7 CV =
0.0499

La función repite los valores de los parámetros de entrada, devuelve los valores óptimos
y calcula el CV que se logrará con la asignación óptima. En la salida, el presupuesto es el
valor del costo total, mientras que la verificación del costo es el valor de los costos
variables que se encuentran al sustituir los valores óptimos en la ecuación. (9.27).
La función también aceptará una entrada vectorial para un parámetro sin costo en
un momento. Por ejemplo, podemos ver el efecto de un rango de ÿ1 con
clusOpt3(unit.cost=c(500, 100, 120), delta1=c(0.01,0.05,0.10),
delta2=0.10, unit.rv=2, k1=1,k2=1,tot.cost=100000, cal.sw=1)

C1 = 500
C2 = 100
C3 = 120
delta1 = 0,01, 0,05, 0,10
delta2 = 0,1
unidad relvar = 2 k1 = 1 k2 =
1
presupuesto

= 1e+05 control de costos


= 1e+05, 1e+05, 1e+05
m.opt = 28.3, 53.9, 68.6 n.opt = 7.1, 3.2, 2.2
q.opt = 2.7 CV = 0.0706, 0.0830, 0.0922

9.3.3 Muestreo en dos y tres etapas con un conjunto fijo de UPM

En algunas aplicaciones, se usa un conjunto fijo de PSU para múltiples encuestas y


la principal flexibilidad en el diseño es decidir cuántos elementos seleccionar de esas
PSU. Este suele ser el caso de las muestras de hogares en las que una organización
puede tener una muestra “maestra” de UPM que utiliza para diferentes encuestas de
hogares. Reutilizar una muestra dada de PSU ahorra el costo de recrear un marco
de PSU, diseñar la muestra y hacer las selecciones. Tener una muestra maestra de
UPM también puede permitir que se emplee el mismo grupo de personal de campo
capacitado y de confianza para la recopilación de datos.
Machine Translated by Google

232 9 Diseño de muestras de varias etapas

Si el costo total, C = C0 + C1m + C2mn¯, se fija junto con el conjunto de unidades de suministro de energía
de muestra, la cantidad de elementos por unidad de suministro de energía está determinada únicamente por
la restricción de costo:

C - C0 - C1m
n¯ = . (9.33)
C2m

Si este tamaño de muestra no es lo suficientemente grande para lograr los objetivos de CV


deseados, entonces dos opciones son (1) satisfacer con menor precisión que la deseada o (2)
aumentar el número de UPM de muestra. Esto último puede ser difícil de hacer de manera
que tenga una justificación basada en el diseño, dependiendo de cómo se seleccionó la
muestra inicial de UPM. La idea general sería agregar unidades de suministro de energía pero
disminuir la cantidad de elementos de muestra por unidad de suministro de energía de manera
que se mantenga dentro del presupuesto asignado. Esto puede o no ser posible. Una última
opción, que puede no ser factible, es aumentar el presupuesto y el tamaño total de la muestra.
Si se establece un CV objetivo y minimizamos el costo, entonces el número de elementos a muestrear
por PSU se encuentra resolviendo para
˜ ¯n en la fórmula de revarianza aproximada, V t ˆÿ t2
= V k [1 + ÿ (¯n ÿ 1)], lo que da
tu 1 min¯

1-ÿ
n¯ = ˜ . (9.34)
CV 20 - ÿ metro V k

La función R, clusOpt2fixedPSU, calculará ¯n utilizando la ecuación. (9.33) o (9.34). La función


toma como entrada el número fijo de PSU m además de los mismos parámetros que clusOpt2 que
se muestran en el Ejemplo 9.7.

Ejemplo 9.9 (Elementos por PSU para un conjunto fijo de PSU y costo total fijo).
El siguiente código determina el número de elementos de muestra por PSU para costos unitarios de
C1 = 500 y C2 = 100 cuando el número de PSU se fija en m = 100. Se utilizan presupuestos de $100
000, $500 000 y 1 millón de dólares:

clusOpt2fixedPSU(C1=500, C2=100, m=100, delta=0.05, unit.rv=2, k=1, CV0=NULL,


tot.cost=c(100000, 500000, 10ˆ6), cal.sw=1 )

C1 = 500
C2 = 100
metro = 100
delta = 0,05
unidad varrel = 2
k=1
presupuesto = 1e+05, 5e+05, 1e+06
n = 5, 45, 95
CV = 0,0693, 0,0377, 0,0346
Machine Translated by Google

9.3 Funciones de costos y asignaciones óptimas para el muestreo multietápico 233

Si la muestra es de tres etapas, hay cierta flexibilidad en cuanto a cuántas SSU y elementos
por SSU se muestrearán. Cuando la muestra de PSU es fija, el término B2 m en Eq. (9.18) es fijo.
¯¯
Los valores de ¯n y q se pueden ajustar para lograr una restricción
CV.
presupuestaria
En cualquier caso,
o un objetivo
el valor de
óptimo de q
¯¯
es

1 ÿ ÿ2 C2 .
q ¯¯optar =
ÿ2 C3

Si la muestra de la PSU es fija y el presupuesto viene dado por la ecuación. (9.27), entonces el
número implícito de SSU por PSU es

C ¯¯
n¯ = ¯¯ con C = mÿ1 (C ÿ C0) ÿ C1 = C2n¯ + C3n¯ q. (9.35)
C2 + C3q

Si se establece un coeficiente de variación objetivo, CV0 , entonces el número de SSU es

ÿ1
k2 metro

n¯ = ¯¯ [1 + ÿ2 (q ¯¯ÿ 1)] CV 2 ÿ k1ÿ1 . (9.36)


0
q V~

Note que la Ec. (9.36) implica una resta en el denominador. Por lo tanto, no hay garantía de
que el ¯n calculado sea positivo. Si la ecuación. (9.36) produce un número negativo, esta es una
señal obvia de que el CV objetivo no se puede lograr con la muestra de PSU fija. La función de R
clusOpt3fixedPSU calculará el número óptimo de SSU y elementos de muestra en una muestra de
tres etapas cuando la muestra de PSU es fija. La función toma como entrada el número fijo de
PSU m así como los parámetros definidos para clusOpt3 en el Ejemplo 9.8.

Ejemplo 9.10 (Número de SSU y elementos por SSU para un conjunto fijo de PSU y costo total
fijo). Suponga que una muestra de área existente contiene 100 PSU y que el costo por PSU es de
$500. La encuesta tiene un presupuesto total para costos variables de C ÿ C0 = $500 000. Los
costos unitarios de tener UME y personas en la muestra son C2 = 100 y C3 = 120. Esto implica
que tenemos $500 000 – $500*100 = $450 000 para cubrir el costo del muestreo dentro de las
UPM. El número óptimo de SSU y personas se encuentra con la función clusOpt3fixedPSU,
asumiendo que la unidad de revarianza es 1 y que las medidas de homogeneidad son ÿ1 = 0.01 y
ÿ2 = 0.05:

clusOpt3fixedPSU(unit.cost=c(500, 100, 120), m=100, delta1=0.01,


delta2=0.05, unit.rv=1, k1=1, k2=1, tot.cost=500000, cal.sw =1)

C1 = 500
C2 = 100
C3 = 120
Machine Translated by Google

234 9 Diseño de muestras de varias etapas

metro = 100
delta1 = 0,01
delta2 = 0,05
unidad varrel = 1
k1 = 1
k2 = 1
presupuesto variable = 450000
costo total = 5e+05
n = 7,8
q=4 CV
= 0,0217

Por lo tanto, los números de SSU por PSU y personas por SSU son 7,8 y 4. Ahora,
suponga que se establece un CV objetivo de 0,05. Los demás parámetros son
iguales, pero la unidad de varianza es 4. En este caso, llamamos a la función con
cal.sw=2. El número de SSU por PSU es 5,5 y el número de personas de la muestra
por SSU es 4:

clusOpt3fixedPSU(unit.cost=c(500, 100, 120), m=100,


delta1=0,01, delta2=0,05, unidad.rv=4, k1=1, k2=1, CV0=0,05, cal.sw=2)

C1 = 500
C2 = 100
C3 = 120
metro = 100
delta1 = 0,01
delta2 = 0,05
unidad varrel = 4
k1 = 1
k2 = 1
presupuesto variable = 317617.8 costo total =
367618
n = 5,5
q=4 CV
= 0,05
Verificación de CV = 0.05

En este caso, el objetivo de CV se puede lograr por un costo total de alrededor de $ 368
mil. (En el resultado, la comprobación de CV es un cálculo del CV a partir de la fórmula de
la varianza real utilizando los tamaños de muestra óptimos. Esto se hace para verificar
que los valores óptimos calculados producen el CV objetivo).

Finalmente, antes de pasar a la estimación de los ingredientes para las fórmulas del
tamaño de la muestra, notamos que las pérdidas anticipadas de muestras deben
contabilizarse tal como se hicieron en el Cap. 6. Por ejemplo, si se espera que la tasa de
respuesta de los elementos sea del 60 %, entonces el número de elementos de la muestra calculado
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 235

de funciones como clusOpt3 y fixedPSUclusOpt3fixedPSU debe inflarse en 1/0,60. Dependiendo de la


aplicación, la cantidad de PSU o SSU de muestra también puede tener que inflarse si esas unidades
se pueden perder por falta de elegibilidad, falta de respuesta o alguna otra razón.

9.4 Estimación de medidas de homogeneidad y componentes


de varianza

Los parámetros de las fórmulas de varianza anteriores nunca se conocen con exactitud.
Un diseñador de encuestas debe adivinar sus valores en función de la experiencia o debe estimarlos
a partir de encuestas similares anteriores. En esta sección, cubrimos varias formas de estimar los
componentes de la varianza necesarios para la asignación de la muestra.

9.4.1 Muestreo en dos etapas

Las expresiones (9.5) y (9.9) sugieren una forma rápida de estimar la medida de homogeneidad ÿ en
una muestra de dos etapas. Suponga que vt ˆÿ es una estimación de la varianza del estimador ÿ
apropiado para el diseño de muestra que se utilizó. (En el caso del muestreo ppswr en la primera
etapa, usamos vt ˆpwr ).
Hay varias formas alternativas de hacer esto, que cubrimos en el Cap. 15.
Dividir vt ˆÿ por una estimación de la varianza de un estimador ÿ de una muestra aleatoria simple del
mismo tamaño da el efecto de diseño, deff(t ˆÿ) = v(t ˆÿ)/vsrs.
Igualando deff(t ˆÿ) a 1 + ÿ (¯n ÿ 1) y resolviendo para ÿ se obtiene

Una Una
vt ˆÿ
ˆÿ = ÿ1
n¯ ÿ 1 k vSRS
(9.37)
kÿ1deff t ˆÿ ÿ 1
= .
n¯ ÿ 1

En la mayoría de las muestras de conglomerados, el efecto de diseño será mayor que 1. En esa
circunstancia, se espera que ˆÿ > 0, ya que los elementos dentro de un conglomerado son algo
parecidos. En la ecuación. (9.37) es importante utilizar una estimación de la varianza apropiada para
el diseño que se utilizó para seleccionar la muestra. Como las expresiones (9.5) y (9.9) tienen la misma
forma general, la Ec. (9.37) ofrece una estimación aproximada de la medida de la homogeneidad, ya
sea que las UPM se seleccionen con la misma probabilidad o con probabilidades variables.

Las estimaciones de ÿ son sensibles a los valores de ¯n como se ilustra en la Tabla 9.2, que usa k
= 1. Por ejemplo, si el efecto de diseño es 1.6, k = 1 y n¯ = 20, entonces ˆÿ = 0.032 . Pero, si ¯n = 5, ˆÿ
es mucho mayor a 0.15.
También se pueden hacer estimaciones directas de los componentes en algunos casos especiales.
S¨arndal et al. (1992, Resultado 4.3.1, p. 137) dan fórmulas generales para estimaciones
Machine Translated by Google

236 9 Diseño de muestras de varias etapas

Tabla 9.2: Estimaciones indirectas de ÿ basadas en efectos de diseño y número promedio de


elementos de muestra por grupo.

n¯ = 20 n¯ = 5
def ˆÿ def ˆÿ

1.1 0.005 1.1 0.025


1.2 0.011 1.2 0.050
1.3 0.016 1.3 0.075
1.4 0.021 1.4 0.100
1.5 0.026 1.5 0.125
1.6 0.032 1.6 0.150
1.7 0.037 1.7 0.175
1.8 0.042 1.8 0.200
1.9 0.047 1.9 0.225
2.0 0.053 2.0 0.250

de componentes de varianza en diseños de dos etapas. Podemos especializarlos al


caso de muestreo ppswr de UPM y muestreo aleatorio simple de elementos
dentro de las PSU, en cuyo caso V t ˆpwr = VPSU + VSSU como se muestra en la ecuación. (9.13).
Los estimadores de VPSU y VSSU son

Vˆi
vSSU = 2
yoÿs (ÿÿ ) Es

2
Una t ˆiÿ 1 ÿ ÿÿ Es

vPSU = ÿ t ˆpwr
ÿ

2 Vˆi
metro (metro - 1) yoÿs Pi (ÿÿ )
yoÿs Es

N2
Es

con Vˆi = (1 ÿ fi) Sˆ2 2i


no

2
donde ÿÿ = mpi, Sˆ2
2i = (ni ÿ 1) (yk ÿ y¯si)
kÿsi , y ¯ysi = kÿsi yk ni.
i (Observe que ÿÿ Es no es la probabilidad de selección de PSU i en con-reemplazo
muestreo, pero estará cerca de él si pi es pequeño). El primer término en vPSU es un
estimador de la varianza de t ˆpwr y se llama la varianza última del conglomerado
estimador. Cubrimos este estimador con más detalle en el Cap. 15. Si wk es el completo
peso de la muestra para el elemento k, el primer componente de vPSU también se puede escribir
como

2 2
Una t ˆiÿ metro

ÿ t ˆpwr
= wkykÿmÿ1 wkyk .
metro (metro - 1) yoÿs Pi mÿ1
iÿskÿsi iÿskÿsi

Los paquetes de software a menudo usan el último estimador de conglomerados ya que requiere
solo los pesos completos de la muestra. En el caso de que el mismo número de elementos,
ni = ¯n, se muestrea en cada PSU, podemos factorizar ¯n en vSSU . Los estimadores
correspondientes de B2 y W2 en las Ecs. (9.10) y (9.11) son entonces
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 237

2
Una Una
t ˆiÿ 1 ÿ ÿÿ yo
Bˆ2 = ÿ

Vˆi , (9.38)
ÿ t ˆpwr
tˆ2 _
poder
(m ÿ 1) yoÿs
Pi
yoÿs
mp2 Es

Una N2 Sˆ2i
W2 = t
Es
. (9.39)
ˆ2
pwr iÿs
mp2 Es

Para el estimador de W2 suponemos que la fracción de muestreo de segunda etapa,


n¯/Ni, es pequeño en cada fuente de alimentación. El estimador implícito de ÿ es entonces

ˆÿ = Bˆ2 Bˆ2 + Wˆ2 .

Una dificultad práctica con el estimador de B2 es que involucra una resta.


No hay garantía de que Bˆ2 sea positivo. Esto es similar al bien conocido problema con
los estimadores de análisis de varianza (ANOVA) de componentes de varianza. Si Bˆ2
es negativo, probablemente sea evidencia de que el componente es pequeño. Una
opción que puede ser menos propensa a este defecto es calcular la variación anticipada
del total estimado, como se describe más adelante en la Secc. 9.4.3.

Ejemplo 9.11 (Estimaciones de componentes de varianza en muestras de dos etapas).


La función, BW2stagePPSe, estimará los componentes de la varianza utilizando las Ecs.
(9.38) y (9.39) para un diseño en el que las PSU se seleccionan con ppswr y las SSU
con srswor. El siguiente código selecciona una muestra de dos etapas de la población
de Maryland y luego hace el cálculo para la variable y1. El paquete de muestreo se
utiliza para seleccionar sistemáticamente una muestra por conglomerados de 20 distritos
con probabilidades proporcionales al recuento de personas en cada distrito (Ni a
continuación). Observe que esta selección de UPM es sin reemplazo, pero usamos la
práctica estándar de aplicar un estimador de varianza con reemplazo.
La función cluster devuelve todas las unidades en los clusters de muestra con la
probabilidad de selección de cluster almacenada en el campo Prob. La función,
renombrar, del paquete reformar (Wickham 2011) cambia el nombre de Prob para que
sea pi1. Luego, las secciones de muestra se tratan como estratos y se selecciona una
muestra de ¯n = 50 personas de cada sección. La probabilidad de selección condicional
de las personas dentro de las zonas se renombra de Prob a pi2:

Requerir (muestreo)
Requerir (reformar) # tiene una función que permite #
renombrar variables
Ni <- tabla(MDarea.pop$TRACTO) m <- 20

probi <- m*Ni / suma(Ni)

# seleccione una muestra de grupos


set.seed(-780087528)
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 237

2
Una Una
t 1 ÿ ÿÿ yo
Bˆ2 = ˆiÿ ÿ t ˆpwr
ÿ

Vˆi , (9.38)
tˆ2 _ (m ÿ 1) Pi mp2
poder yoÿs yoÿs Es

Una N2 Sˆ2i
Es

W2 = t . (9.39)
ˆ2 mp2
pwr iÿs Es

Para el estimador de W2 suponemos que la fracción de muestreo de segunda etapa,


n¯/Ni, es pequeño en cada fuente de alimentación. El estimador implícito de ÿ es entonces

ˆÿ = Bˆ2 Bˆ2 + Wˆ2 .

Una dificultad práctica con el estimador de B2 es que involucra una resta.


No hay garantía de que Bˆ2 sea positivo. Esto es similar al bien conocido problema con los estimadores
de análisis de varianza (ANOVA) de componentes de varianza. Si Bˆ2 es negativo, probablemente sea
evidencia de que el componente es pequeño. Una opción que puede ser menos propensa a este defecto
es calcular la variación anticipada del total estimado, como se describe más adelante en la Secc. 9.4.3.

Ejemplo 9.11 (Estimaciones de componentes de varianza en muestras de dos etapas). La función,


BW2stagePPSe, estimará los componentes de la varianza utilizando las Ecs. (9.38) y (9.39) para un
diseño en el que las PSU se seleccionan con ppswr y las SSU con srswor. El siguiente código selecciona
una muestra de dos etapas de la población de Maryland y luego hace el cálculo para la variable y1. El
paquete de muestreo se utiliza para seleccionar sistemáticamente una muestra por conglomerados de
20 distritos con probabilidades proporcionales al recuento de personas en cada distrito (Ni a
continuación). Observe que esta selección de UPM es sin reemplazo, pero usamos la práctica estándar
de aplicar un estimador de varianza con reemplazo.

La función cluster devuelve todas las unidades en los clusters de muestra con la probabilidad de
selección de cluster almacenada en el campo Prob. La función, renombrar, del paquete reformar
(Wickham 2011) cambia el nombre de Prob para que sea pi1. Luego, las secciones de muestra se tratan
como estratos y se selecciona una muestra de ¯n = 50 personas de cada sección. La probabilidad de
selección condicional de las personas dentro de las zonas se renombra de Prob a pi2:

Requerir (muestreo) Requerir


(reformar) # tiene una función que permite # renombrar
variables
Ni <- tabla(MDarea.pop$TRACTO) m <- 20

probi <- m*Ni / suma(Ni)

# seleccione una muestra de grupos


set.seed(-780087528)
Machine Translated by Google

238 9 Diseño de muestras de varias etapas

sam <- cluster(data=MDarea.pop, clustername="TRACTO",


tamaño=m, método="sistemático",
pik=probi, descripción=VERDADERO)

# extraer datos para los grupos de muestra


samclus <- getdata(MDarea.pop, sam) samclus <-
renombrar(samclus, c(Prob = "pi1"))

# tratar los conglomerados de muestra como estratos y seleccionar #


srswor de cada uno
s <- estratos(datos = as.datos.marco(samclus),
stratanames = "TRACTO", tamaño
= rep(50,m), método="srswor")
# extrae los datos observados
samdat <- getdata(samclus,s) samdat <-
renombrar(samdat, c(Prob = "pi2"))

# extraer recuentos pop para PSU en la muestra


escoger <- nombres(Ni) %in% sort(unique(samdat$TRACTO))
Ni.sam <- Ni[elegir] d1 <-
Ni.sam / sum(Ni) wt <- 1/samdat$pi1/
samdat$pi2

BW2stagePPSe(Ni = Ni.sam, ni = rep(50,20), X=samdat$y1, psuID = samdat$TRACTO, w =


wt, m = 20, pp = pp)

La función BW2stagePPSe acepta siete parámetros:

Ni número de elementos en pop en PSU i


no número de elementos en muestra en PSU i vector
X de datos ID de PSU del vector (la longitud es la
psu ID misma que la longitud de X) peso total de la muestra
w número de PSU de muestra vector de probabilidades de
metro
selección de PSU de una extracción (la longitud es la
páginas misma que el de X)

Los resultados de las variables en el conjunto de datos de Maryland se muestran a continuación. Los
distritos se tratan como grupos.
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 239

Tratados como grupos


B2 W2 ÿ
y1 0.0418 1.3934 0.0291
y2 0.0208 1.0416 0.0196
y3 0.0101 ins.cov 0.0007 0.1028 0.0894
0,3051 0,0023
hosp.stay 0.1056 13,9161 0,0075

Estas estimaciones se comparan con los cálculos de población del ejemplo 9.4 , donde
Los tractos se utilizaron como grupos. Las estimaciones de la varianza entre y dentro
Los componentes anteriores difieren notablemente de los valores de la población. Esto lleva a
estimaciones muestrales de ÿ que son diferentes en esta muestra de la población
ÿ's. Las estimaciones de los componentes de la varianza son inherentemente inestables y
No sorprende que el error de estimación sea relativamente grande aquí.
Si las estimaciones de los componentes de la varianza se utilizan para la planificación, deben
examinados para decidir si sus tamaños parecen razonables. Análisis de sensibilidad
de los tamaños de muestra calculados se debe realizar para ver cuáles serían los tamaños
ser para un rango de ÿ y otros parámetros de diseño.

9.4.2 Muestreo en tres etapas

Estimaciones directas de los componentes de la ecuación. (9.17) también se puede hacer a partir de un
muestra. Las estimaciones que se presentan a continuación se basan en las de Hansen et al.
(1953b, Cap. 9, Secc. 10) para el caso de muestreo ppswr de m PSU y
muestreo aleatorio simple de ni SSU en PSU i y elementos qij en SSU ij.
Primero, defina

y¯sij = kÿsij yk qij , t ˆij = Qijy¯sij , la media muestral de elementos en SSU ij

el total estimado para SSU ij

Ni
t ˆiÿ = no jÿsi
t ij , el total estimado para PSU i
¯
2
Sˆ2 = (ni ÿ 1)ÿ1 t ˆij ÿ t ˆi , la varianza de la muestra entre estimados
2ai jÿsi
¯

Totales de SSU, donde t i = t ij ni


jÿsi
2
Sˆ2 = (qij ÿ 1)ÿ1 en (yk ÿ y¯sij ) , la varianza muestral entre elementos
3ij kÿsij
SSU ij
Q2yo Qijÿqij
Vˆ3ij = Sˆ2 la varianza estimada del total estimado t ˆij para
qij Qij 3ij ,
SSU ij
Sˆ2 = Una

2bi ni jÿsi Vˆ3ij

Sˆ2 = Sˆ2 ÿ Sˆ2


2i 2ai 2bi
Machine Translated by Google

240 9 Diseño de muestras de varias etapas

2
t
Sˆ2 = ˆiÿ ÿ t ˆÿ pi
1a 1 mÿ1 iÿs
N2
Sˆ2 = 1 yo miÿs pini
1b (1 ÿ f2i) Sˆ2 2ai + f2iS2 2bi donde f2i = ni/Ni

Sˆ2 = Sˆ21a ÿ Sˆ2


Una 1b

Como se muestra en Hansen et al. (1953b), Sˆ2 estima el parámetro de población finita en la ecuación.
Una

(9.8) o (9.17), Sˆ2 y Sˆ2 eter S2 estima


2i S2 estima U1( 2u,
pwr ) 3ij
S2 , VSSU , y VPSU son
U3ij . Los estimadores de VTSU

Una N2 Es

vTSU = 2 Vˆ3ij
n2
yoÿs (mpi) Es
jÿsi
Una N2 Es

vSSU = 2 (1 ÿ f2i) Sˆ2 2i


(mpi) no
yoÿs

vPSU = Sˆ2 1 metro

La revarianza del estimador ppswr se estima luego mediante

vt ˆpwr t =
Una

(vPSU + vSSU + vTSU ).


ˆ2 t2
poder poder

Cuando se selecciona el mismo número de SSU de muestra, ¯n, en cada UPM, se selecciona el mismo
número de elementos de muestra, q ¯¯, en cada SSU, y las fracciones de muestreo de UPM, SSU y
elementos son todas pequeñas, la la revarianza estimada se puede escribir como
ˆ
vt poder Bˆ2 Wˆ 22 Wˆ 32
= + + ¯¯,
t2 metro mn¯ mn¯ q
poder

dónde
Sˆ2
Bˆ2 =
Una

,
tˆ2
poder

Una N2
Wˆ 22 = Es

Sˆ2i,
t2 mp2 Es
potencia iÿs

y
ÿ ÿ
Una Una N2
Wˆ 32 = Es
.
ÿ Q2 ijSˆ2 3ij ÿ
t2 mp2 no
poder Es
jÿsi
ÿ iÿs ÿ

Cada uno de estos estima los componentes en las Ecs. (9.10), (9.19) y (9.20).
Similar al caso del muestreo en dos etapas, Bˆ2 y Wˆ 2 pueden ser negativos
2 ya que ambos implican una
resta. Calcular la varianza anticipada del total estimado y usar estimadores de componentes de varianza
basados en modelos puede
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 241

solucionar este problema, como se describe en la Secc. 9.4.3. Los estimadores


complementarios de las medidas de homogeneidad son ÿ1 = Bˆ2/(Bˆ2 + Wˆ 2) y Wˆ 2
= 1 Q2 ijSÿ2
t ˆ2 yoÿs i mp2 ,
poder Es

ÿ1
2
donde S˜2 = ,
Es
jÿsi kÿsij wk jÿsi kÿsij wk yk ÿ y ˆ¯i jÿsi kÿsij wk,

y ˆ¯i = jÿsi kÿsij wkyk y

ˆÿ2 = Wˆ 22 /(Wˆ 22 + Wˆ 2 3).

Ejemplo 9.12 (Componentes de la varianza en una muestra de tres etapas). La función,


BW3stagePPSe, estimará los componentes de la varianza para un diseño ppswr/srs/srs.
En este ejemplo, se utiliza la población de Maryland y las PSU son extensiones; grupos
de bloques de SSU; y elementos personas. Los conjuntos completos de código, que son
extensos, se encuentran en los archivos Ejemplo 9.12aR y Ejemplo 9.12bR y no se
muestran aquí. El paquete de muestreo se utiliza para seleccionar sistemáticamente una
muestra por conglomerados de 30 distritos con probabilidades proporcionales al conteo
de personas en cada distrito. Como en el ejemplo 9.9, las UPM se seleccionan sin
reemplazo, pero se utiliza un estimador de varianza con reemplazo. Las UPM seleccionadas
se tratan como estratos y se selecciona una muestra de 2 UPM de cada UPM.
Las UME seleccionadas son, a su vez, tratadas como estratos y una muestra de 50
personas seleccionadas de cada UME de muestra. La función BW3stagePPSe acepta
seis parámetros:

eso Marco de datos para elementos de muestra con identificadores


de PSU y SSU, pesos y variables de análisis. El marco de datos
debe clasificarse en orden jerárquico: por PSU y SSU dentro de
PSU Nombres obligatorios para las columnas: psuID =
identificador de PSU ssuID = identificador de SSU. Estos deben
ser únicos, es decir, la numeración no debe reiniciarse dentro de
cada PSU w1i = vector de pesos para PSU w2ij = vector de
pesos para SSU (peso de PSU*peso de SSU dentro de PSU) w
= peso de muestra completo Nombre o número de columna en
dat con variable a analizar m-vector de número de UME en la
población en la muestra UPM m-vector de número de elementos
en la población en la muestra UPM Vector de número de
v elementos en la población en la muestra UPM Número de
muestra UPM
Ni

Qi

Qij

metro
Machine Translated by Google

242 9 Diseño de muestras de varias etapas

La muestra de tres etapas debe seleccionarse fuera de la función. Dada la entrada


valores anteriores, BW3stagePPSe devuelve los valores de vPSU Wˆ 2, Wˆ 2 , vSSU , vTSU , Bˆ2,
2, Wˆ 32 , ˆÿ1 y ˆÿ2. La llamada de función para la variable y1 es

BW3stagePPSe(dat=samdat, v="y1", Ni=Ni.sam, Qi=Qi.sam,


Qij=Qij.sam, m=30)

Consulte el archivo con el código de este ejemplo para ver cómo son los valores de entrada
construido. Utilizando la PSU de campo como unidad de primera etapa, la SSU como unidad de
segunda etapa y las personas como TSU, parte de la salida de BW3stagePPSe es:

PSU como unidad de primera etapa, SSU como unidad de segunda etapa
Bˆ2 Wˆ 2 ˆÿ2 Wˆ 22 Wˆ 32 ˆÿ1

y1 0,0375 1,3660 0,0016 0,0544 0,0265 0,0282


y2 0,0153 0,9481 0,0005 0,0381 0,0157 0,0111
y3 0,0084 0,0961 0,0004 0,0037 0,0804 0,1081
ins.cov 0,0041 0,2709 0,0000 0,0109 0,0147 0,0018
hosp.stay 0,1633 14,5448 0,0026 0,5867 0,0109 0,0034

Estas estimaciones se comparan con las cifras de población del ejemplo 9.6. Las medidas estimadas
de homogeneidad son similares a los valores de la población. Sin embargo,
las estimaciones de VSSU (que no se muestran aquí) son negativas.
Las estimaciones que utilizan el tramo como unidad de primera etapa y el grupo de bloques (BG) como
la unidad de segunda etapa se muestran a continuación:

Tract como unidad de primera etapa, BG como unidad de segunda etapa


Bˆ2 Wˆ 2 ˆÿ2 Wˆ 22 Wˆ 32 ˆÿ1

y1 0,0150 1,4613 0,1835 1,7326 0,0099 0,0952


y2 0,0085 0,9680 0,1914 1,1528 0,0085 0,1418
y3 0,0096 0,0935 0,1891 0,1051 0,0930 0,6426
ins.cov 0,0119 0,2742 0,1659 0,3014 0,0414 0,3547
estancia.hosp 0,0855 14,7706 0,1321 16,6331 0,0055 0,0071

Estos también se comparan con los valores de la población en el Ejemplo 9.6. Por ejemplo, los
valores poblacionales para las medidas de homogeneidad para y1 fueron
ÿ1 = 0,0060 y ÿ2 = 0,1284 y las estimaciones son 0,0099 y 0,0952, respectivamente. Aunque los tamaños
relativos de los valores de la población y la muestra
las estimaciones son similares, sus tamaños absolutos son notablemente diferentes. Esto ilustra un
punto que hemos señalado antes: las estimaciones de los componentes de la varianza son variables
y pueden estar distantes de los valores subyacentes de la población.
en una muestra particular. Si las estimaciones de ÿ1 y ÿ2 se utilizan para determinar
tamaños de muestra, haga un análisis de sensibilidad. Calcular tamaños de muestra para un rango de
valores alrededor de ˆÿ1 y ˆÿ2.

La discusión de la estimación del componente de varianza en una muestra de tres etapas puede
también se encuentra en S¨arndal et al. (1992, pág. 149). Derivan la varianza de diseño del estimador
ÿ en un muestreo de tres etapas para una probabilidad general
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 243

diseño de muestra Cuando sea conveniente, nos referiremos al libro de S¨arndal, Swensson
y Wretman como SSW. Las fórmulas SSW son bastante generales pero requieren el
conocimiento de las probabilidades de selección conjunta en cada etapa. El ejercicio 9.12
le pide que especialice sus resultados para la varianza del diseño teórico al caso de srswor
en cada etapa. Existe cierto potencial de confusión al comparar los resultados de HHM y
SSW. HHM supone que las fuentes de alimentación se seleccionan con probabilidades
proporcionales al tamaño y con reemplazo. Luego usan un estimador de varianza ppswr
para el componente de varianza PSU. Por otro lado, SSW presenta estimadores de
componentes de varianza para el estimador ÿ de un total (no un estimador pwr). En
consecuencia, los estimadores HHM discutidos aquí no son los mismos que los de SSW.
Creemos que la formulación HHM está más cerca de la práctica estándar en la forma en
que se maneja la muestra de PSU y, a menudo, será más factible computacionalmente.

9.4.3 Uso de variaciones anticipadas

Las fórmulas de las secciones anteriores para la estimación de los componentes de la


varianza son especializadas y algo complejas. Ser capaz de utilizar las muchas rutinas de
software que están disponibles para la estimación de componentes de varianza sería una
verdadera ventaja. Los estimadores de componentes de la varianza basados en el diseño
que se encuentran, por ejemplo, en S¨arndal et al. (1992) puede ser negativa, dependiendo
de la configuración de los datos. El uso de varianzas anticipadas permite escribir la
varianza del estimador pwr en términos de los componentes de la varianza del modelo.
Los componentes del modelo se pueden estimar utilizando algoritmos que pueden evitar
los problemas numéricos que tienen las fórmulas básicas de análisis de varianza basadas
en el diseño. Searle et al. (1992) revisan los métodos disponibles, incluida la estimación
cuadrática imparcial de varianza mínima (MIVQUE0), la máxima verosimilitud y la máxima
verosimilitud restringida (REML). El uso de varianzas anticipadas también aclarará el papel
clave que tienen los tamaños de PSU y SSU en la determinación de las medidas de
homogeneidad. Sin embargo, la integración de los componentes de la varianza del modelo
debe realizarse con cuidado, como mostramos en esta sección.
Para incorporar un modelo de componente de varianza, usamos una varianza
anticipada (Isaki y Fuller 1982) definida como
ˆ 2
AV t .
= EM + Eÿ t ˆÿ tU 2 , ÿ EM - Eÿ t ˆÿ tU .

Si el estimador es insesgado
ˆ por diseño o aproximadamente así, es decir, Eÿ(tˆ) . = , después
el AV es AV t tU = EM varÿ t ˆÿ tU . Por lo tanto, la expectativa del modelo de una
fórmula como la Eq. (9.8) se puede calcular, dando componentes de varianza del modelo
que se pueden estimar usando software estándar.
En una población agrupada, el modelo más simple a considerar es uno con com
media mon, ÿ, y efectos aleatorios para conglomerados, ÿi, y elementos, ÿij :
Machine Translated by Google

244 9 Diseño de muestras de varias etapas

yk = ÿ + ÿi + ÿik , k ÿ Ui, (9.40)

con ÿi ÿ 0, ÿ2 ÿ, ÿik ÿ 0, ÿ2 ÿ, y siendo los errores independientes. los


la expectativa del modelo de la varianza del diseño se puede calcular bajo este modelo,
pero para el cálculo del tamaño de la muestra, solo las expectativas aproximadas de B2
y W2 para el muestreo en dos etapas. En esta sección sólo consideramos
los componentes de la varianza en el muestreo srs/srs para un diseño en dos etapas. Similar
se pueden hacer cálculos para un diseño ppswr/srs. Después de un poco de álgebra, el
expectativas del modelo de S2 U1 y S2 U2i de la ecuación (9.2) son (ver Ejercicio 9.16)

EM S2 U1 = ÿ2 ÿ + ÿ2 S2 norte
+ N¯ 2ÿ2ÿ + ÿ2 ÿ,

EM S2 U2i = ÿ2 ÿ,

donde N¯ = =
iÿU 2 Ni M es el número promedio de elementos por grupo, S2 norte

iÿU Ni ÿ N¯ (M ÿ 1), y se supone que M es grande. el anticipado


medida de homogeneidad es entonces

(ÿ2ÿ + ÿ2)ÿ2 + ÿ2 + ÿ2 /N¯ 2


= norte ÿ ÿ
, (9.41)
EM (ÿ).
( ÿ2ÿ + ÿ2)ÿ2 norte
+ ÿ2 ÿ + ÿ2 ÿ 1+(ÿ2 norte + N¯ ÿ2)

donde ÿ2 norte
= S2 norte /N¯ 2 es la revarianza de los tamaños de PSU. Si Ni = N¯ , es decir, todos
los grupos son del mismo tamaño, entonces ÿ2 = 0. En ese caso, si N¯ es grande,
norte

ÿ2ÿ + ÿ2 NORTE
. ÿ2ÿ
= ÿ
= . (9.42)
EM (ÿ). 2 ÿ2ÿ + ÿ2
ÿ2ÿ + ÿ2 ÿ
1+1N¯ ÿ

La expresión (9.42) es la correlación bajo el modelo (9.40) de dos elementos cualesquiera


en el mismo clúster. Si el modelo se cumple para la población y se toma una muestra
seleccionado de él, se puede usar un software que no sea de encuesta para estimar la varianza
componentes, como se muestra en el siguiente ejemplo.

Ejemplo 9.13 (Componentes de la varianza anticipada de un modelo en dos etapas)


muestreo). El paquete R lme4 (Bates et al. 2012) estimará la varianza
componentes para modelo (9.40) y para modelos más elaborados. Usando
la población completa de Maryland como en el ejemplo 9.4, el código para ajustar el modelo
usar las variables PSU y SSU como clústeres es

requerir (lme4)
m.y1a <- lmer(y1 ˜ (1 | PSU), datos = MDarea.pop)
m.y1b <- lmer(y1 ˜ (1 | SSU), datos = MDarea.pop)
tt <- resumen(m.y1a)
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 245

Parte del resumen de m.y1a es

Efectos aleatorios:
Grupos Nombre Desv. estándar de la varianza
Fuente (Intersección) 36.801 6.0664
Residual
de alimentación 7072.180 84.0963

Número de obs: 403997, grupos: PSU, 80

Las estimaciones de los componentes de la varianza están en el objeto tt@REmat. La función


lmer devuelve lo que se conoce como objetos de clase S4. La sintaxis @ se utiliza para
componentes de acceso. Puede ver los nombres de todos los componentes de tt usando
nombres de ranura (tt). La estimación de la correlación del modelo en la ecuación. (9.42) puede
computarse como

vmat <- datos.marco(tt@REmat)


vc <- como.numérico(como.carácter(vmat[,3]))
delta <- vc[1] / suma(vc)

Los resultados para todas las variables usando PSU, SSU, distritos y grupos de bloques como
Los clústeres se muestran a continuación. Las estimaciones de ÿ cuando las UPM y las UME son
clústeres son casi los mismos que en el Ejemplo 9.2 donde srs se usa en cada
escenario. Pero, cuando los tractos y los BG son grupos, los ÿ aquí son muy diferentes
de los del ejemplo 9.2. Como se ve en la Ec. (9.42), la fórmula basada en el diseño para
B2 B2 + W2 estimará lo mismo que el cálculo basado en modelos
si los conglomerados tienen el mismo tamaño pero no de otro modo. Así, las grandes diferencias
vemos entre el Ejemplo 9.2 y este ejemplo para los tratados y los BG se deben
a los tamaños muy variables de esas unidades en la población de Maryland. Usando
la fórmula para el ÿ anticipado en la ecuación. (9.41) en el banco inferior de la mesa
a continuación arroja valores mucho más cercanos a los del ejemplo 9.2.

Valores de correlación del modelo


Fuentes de alimentación variables como SSU como Tratados como Tramo/bloque
racimos racimos racimos grupos como
racimos
y1 0.0052 0.0240 0.0082 0.0117
y2 0,0066 0.0157 0.0129 0.0172
y3 0,0786 0,1608 0.1476 0.1906
ins.cov 0,0044 0,0114 0.0076 0.0144
hosp.stay 0,0012 0,0033 0.0016 0.0032
Valores de ÿ de la expresión (9.41)
0.0172 y2 0.0082
0.1476 0.0117
0.1906 y1
y3 0.0139
ins.cov 0.1306 0.1561
0.0076 0.0144 0.0016
0.0032 0.1790 0.2115
0,6908 0,7464
0,4454 0,4970
estancia.hosp 0.0173 0.0222
Machine Translated by Google

246 9 Diseño de muestras de varias etapas

En una población donde el muestreo en tres etapas es apropiado, el modelo más simple
a considerar es uno con media común (ÿ) y efectos aleatorios para
PSU (ÿi), SSU (ÿij ) y elementos (ÿijk):

yk = ÿ + ÿi + ÿij + ÿijk , k ÿ Uij , (9.43)

con ÿi ÿ 0, ÿ2 ÿ , ÿij ÿ 0, ÿ2 ÿ , ÿijk ÿ 0, ÿ2 dent. A ÿ, y los errores son independientes


continuación, consideramos solo el diseño srs/srs/srs. Se pueden realizar cálculos similares
para el diseño ppswr/srs/srs. En la expresión (9.16) y siguientes, las expectativas del
modelo de B2, W2, W2 se pueden encontrar 2de , ylaW2
siguiente
3 manera (ver Ejercicio 9.17):

2
EM t tu B2 =M Mÿ2 ÿQ¯2 ÿ2 Q +1 + ÿ2 ÿ NiQ¯2 yo ÿ2 Qi+1 + ÿ2 ÿMN¯Q¯¯ +M2 ÿ2 Q¯2 ÿ2 Q +1 ,
iÿU

(9.44)

EM t 2 UW2 = METRO ÿ2ÿ + ÿ2 ÿQ¯2 ÿ2 P+1 , (9.45)


EM t 2 UW2 2 = M ÿ2 ÿ+ÿ2 N2 Q¯2 ÿ2 Qi +Mÿ2 ÿ
Es Es
N2 Q¯2 ÿ2 Qi +1 +Mÿ2
Es Es ÿ niqi,
iÿU iÿU iÿU

(9.46)

EM t 2 UW2 3
= Mÿ2 ÿ
N2i Q¯2 i ÿ2Qi + 1 , (9.47)
iÿU

2
donde ÿ2 = Qi ÿ Q¯ /
q
= S2 Q/Q¯2 es la revarianza de los tamaños de fuente de alimentación Qi, S2 iÿU

Q (M ÿ 1), Q¯ = Q/M; ÿ2 S2 Qi = S2 Qi/Q¯2 i (Ni


es ÿla1),
revarianza
y Q¯i = Qi/Ni.
de los tamaños de SSU Qij , /
2
= expresiones (9.44) y
Qi(9.45)
Las pueden
jÿUi usarse
Qij ÿ Q¯ipara
.
evaluar EM (ÿ1) =
EM B2 EM B2 + EM W2 . Tenga en cuenta que estas expectativas dependen de las variaciones tanto de Qi
como de Qij . Suponga que todas las SSU tienen el mismo número de elementos, Qij = Q¯¯, y que todas las PSU

contienen el mismo número = 0 y Qi = N¯Q ¯¯. de SSU, Ni = N¯. Estas restricciones implican que S2 = S2 Q

Qi
En ese caso, la expectativa aproximada del modelo de ÿ1 es

ÿ2 ÿ2ÿ
ÿ
ÿ2ÿ + +
MINNESOTA
MN¯Q¯¯ . ÿ2ÿ
= = (9.48)
EM (ÿ1) .
ÿ2ÿ + ÿ2 + ÿ2 ÿ
1+ 1+
Una Una

ÿ2ÿ + ÿ2 ÿ + ÿ2 ÿ
ÿ
MINNESOTA
MN¯Q¯¯

asumiendo que MN¯ y MN¯Q¯¯ son grandes. Esta es la correlación del modelo de dos
elementos que están en la misma SSU, pero la reducción en la ecuación. (9.48) ocurre
solo cuando las PSU y las SSU tienen todos los mismos tamaños.
Machine Translated by Google

9.4 Estimación de medidas de homogeneidad y componentes de varianza 247

Las expresiones (9.46) y (9.47) pueden usarse para evaluar EM (ÿ2) . =


EM W2 2 / EM (W2 2 ) + EM (W2 3 ). En el caso especial de fuentes de alimentación del mismo tamaño

y SSU (Qij = Q¯¯ y Ni = N¯), la expectativa aproximada de ÿ2 es

ÿ2 ÿ

ÿ + MN¯Q¯¯
ÿ2 ÿ2
. ÿ
= = . (9.49)
EM (ÿ2) .
ÿ2 + ÿ2ÿ 1+
Una ÿ2
ÿ
+ ÿ2ÿ
ÿ MN¯Q¯¯

Tenga en cuenta que la ecuación. (9.49) no es el modelo de correlación de dos elementos en el


misma SSU, que sería (ÿ2 + ÿ2 ÿ)/ ÿ2 ÿ + ÿ2salida
ÿ
+ ÿ2ÿÿ del
. Sin embargo,
software de la
estimación del componente de varianza estándar se puede utilizar para
evaluar las ecuaciones. (9.48) y (9.49). Estas serán estimaciones apropiadas de ÿ1 y
ÿ2, pero solo cuando todas las PSU y todas las SSU tienen los mismos tamaños. De lo contrario,
los componentes de la varianza de las rutinas estándar pueden ser ingredientes de la
evaluación de EQs. (9.44)–(9.47).

Ejemplo 9.14 (Componentes de la varianza anticipada de un modelo en tres etapas)


muestreo). Utilizando la población total de Maryland, calculamos la previsión
medidas de homogeneidad utilizando PSU/SSU y tramos/BG como principal y
unidades secundarias. Este ejemplo da los resultados de usar expresiones (9.48)
y (9.49), que son apropiados si cada unidad primaria tiene el mismo número de población
de unidades secundarias y cada unidad secundaria tiene el mismo número
de elementos Comparamos estos con los resultados de usar las expresiones (9.44)–
(9.47), que dan cuenta de diferentes tamaños. El código R está en el archivo Ejemplo
9.14.R. Los resultados para las mismas variables que en el ejemplo 9.13 se enumeran
abajo.

variable PSU, extensiones de SSU, BG


ÿ1 ÿ2 ÿ1 ÿ2

Calculado a partir de las ecuaciones. (9.48) y (9.49)


y1 0,0005 0,0235 0,0040 0,0078
y2 0,0044 0,0114 0,0089 0,0092
y3 0,0579 0,1097 0,1116 0,1002
ins.cov 0,0027 0,0088 0,0017 0,0128
estancia.hosp. 0,0006 0,0027 0,0004 0,0028
Calculado a partir de las ecuaciones. (9.44)–(9.47)
y1 0,0053 0,0245 0,1282 0,1130
y2 0,0067 0,0124 0,1769 0,1545
y3 0,0762 0,1105 0,6822 0,6650
ins.cov 0,0046 0,0098 0,4415 0,4044
estancia hosp. 0,0013 0,0037 0,0171 0,0164

Cuando las variables PSU y SSU se utilizan como primera y segunda etapa
unidades, los valores de ÿ1 y ÿ2 son casi los mismos que en el Ejemplo 9.5 donde
se asumió un srs/srs/srs. Esto es cierto cuando las Ecs. (9.48) y (9.49)
Machine Translated by Google

248 9 Diseño de muestras de varias etapas

o Ecs. (9.44)–(9.47) se utilizan para evaluar ÿ1 y ÿ2. Cuando los tratados y los BG son
utilizado para unidades de primera y segunda etapa, la correspondencia con el Ejemplo 9.5
Los resultados no se acercan en absoluto cuando las Ecs. Se utilizan (9.48) y (9.49) . Esto es debido a
el hecho de que los supuestos de que el número de SSU, N¯ en cada tracto y el número de ,
elementos, Q¯¯, en cada BG son constantes no se sostienen bien. En
por otro lado, cuando las Ecs. (9.44)–(9.47), que dan cuenta de diferentes tamaños de
unidades, se utilizan, las medidas de homogeneidad son muy similares a los valores
en el ejemplo 9.5.

Los ejemplos en la literatura del uso de estimaciones de componentes de varianza basados en


modelos en el diseño de encuestas parecen limitados, aunque los profesionales a menudo usan
la técnica. Algunos ejemplos son Chromy y Myers (2001), Hunter et al.
(2005), Judkins y Van de Kerckhove (2003), Valliant et al. (2003), y
Waksberg et al. (1993). Cómo llegar a fórmulas de componentes utilizando varianzas anticipadas
parece que rara vez se explica en la literatura.
El paquete lme4 en R es el sucesor del anterior nlme (Pinheiro y
Bates 2000). Hemos encontrado algunos ejemplos en los que un componente de varianza está
algo cerca de cero y lmer no encontrará la respuesta correcta.
directamente. En cualquier caso donde lmer devuelve un componente de varianza cero, es
recomendable llamar al algoritmo con un número de valores iniciales aleatorios y
seleccione la solución con el mayor AIC (criterio de información de Akaike) o verosimilitud de
registro. Otra opción es usar la función lme en el paquete nlme,
que no parece ser tan susceptible a este problema.

Muestreo informativo y estimación de componentes de varianza

Los sesgos de los estimadores de componentes de varianza se ven afectados por si el muestreo es
informativo o no informativo. La idea de informatividad se aplica a la estimación de los parámetros
del modelo. Por ejemplo, suponga que los efectos aleatorios
modelo en la Ec. (9.40) se cumple para la población. Una muestra no es informativa
cuando se cumple el mismo modelo tanto para la muestra como para la población. En
en ese caso, se puede ignorar el diseño de la muestra y se pueden usar estimadores de
componentes de la varianza no ponderados. El paquete R lme4, el procedimiento SAS proc
mixed, y la rutina xtmixed en Stata proporcionará las estimaciones no ponderadas. Los estimadores
ponderados que cubrimos en esta sección también
proporcionar estimadores aproximadamente insesgados del modelo de los parámetros del modelo,
ÿ2ÿ y ÿ2 ÿ en muestreo en dos etapas, y ÿ2ÿ, ÿ2ÿ, y ÿ2 ÿ en tres etapas asumiendo
que las unidades utilizadas en las diferentes etapas sean todas del mismo tamaño.
Las muestras de probabilidad pura no son informativas. Por "pura" nos referimos a una muestra
en la que algún mecanismo de probabilidad que está completamente bajo control
del diseñador de la muestra se utiliza para seleccionar la muestra. Si se pierde ese control,
la estimación es más difícil. Una muestra puede ser informativa si la falta de respuesta selectiva
o se produce un error de medición que está fuera del control del diseñador de la muestra.
Por ejemplo, si la probabilidad de respuesta depende de la variable y en el
Machine Translated by Google

9.5 Estratificación de las UPM 249

modelo y esto no se puede corregir mediante algún tipo de ajuste por falta de respuesta, la
muestra será informativa. (Cubrimos algunos de los métodos utilizados para intentar corregir
la falta de respuesta en los capítulos 13 y 14).
Sin embargo, incluso en una muestra de probabilidad pura, es posible que sea necesario
considerar algunas características de un diseño de muestra al ajustar un modelo de
componente de varianza (o cualquier otro tipo de modelo). Por ejemplo, en una muestra
estratificada, diferentes modelos pueden ser apropiados para los diferentes estratos. Esto
podría describirse como "tener en cuenta el diseño" o "usar el modelo apropiado".
Pfefferman et al. (1998) y Korn y Graubard (2003) abordan el problema de estimar los
componentes de la varianza a partir de muestras de encuestas. Las estimaciones del
componente de varianza ponderado de antes en esta sección pueden estar sesgadas cuando
la muestra es informativa. Korn y Graubard ilustran los sesgos con algunos ejemplos
artificiales y proponen algunos estimadores alternativos. Las alternativas pueden no ser
factibles en muchos conjuntos de datos de encuestas porque requieren varios pesos
condicionales que pueden no estar disponibles. Sin embargo, brindan un ejemplo de una
encuesta real en la que algunas soluciones prácticas parecen tener algunas ventajas sobre
los tipos de estimadores que cubrimos anteriormente. No nos ocuparemos de estas
alternativas aquí, aunque puede valer la pena considerarlas para algunas aplicaciones.

9.5 Estratificación de las UPM

En la mayoría de los diseños, las fuentes de alimentación están estratificadas. Las razones
para la estratificación son las mismas que se tratan en el Cap. 3, secc. 3.1.2, que
recapitulamos brevemente aquí. La estratificación es, en general, una buena manera de
restringir la distribución de la muestra. Al seleccionar una muestra de UPM de cada estrato,
se eliminan algunas muestras mal distribuidas. Es posible que se necesiten estimaciones
separadas para algunos o todos los estratos. Por ejemplo, en una encuesta de hogares, las
regiones del país pueden ser estratos o regiones atravesadas por densidad de población
(urbana, suburbana, rural). En una encuesta escolar, las UPM pueden ser escuelas y los
elementos, estudiantes dentro de las escuelas. Los estratos pueden basarse en los niveles
de grado de una escuela, que generalmente están relacionados con la edad de los niños.
También puede haber razones administrativas para estratificar las UPM. En una encuesta
escolar en una región dentro de un estado, puede ser necesario comunicarse con el
superintendente de cada distrito para obtener permiso para encuestar escuelas y estudiantes.
Suponiendo que el número de distritos sea limitado, las escuelas podrían estratificarse por
distrito para controlar el número al que se debe contactar para obtener permiso para recopilar
datos.
Otras consideraciones son el número de estratos y la asignación de UPM a los estratos.
Si se necesitan estimaciones para ciertos estratos, eso puede determinar el número que se
crea. Si los estratos se crean principalmente para restringir la distribución de las UPM de la
muestra, entonces se pueden invocar las mismas técnicas que en el Cap. 3.
Si las UPM se van a seleccionar con probabilidades proporcionales a una medida de
Machine Translated by Google

250 9 Diseño de muestras de varias etapas

(MOS), se pueden crear estratos para tener totales aproximadamente iguales de MOS o de
alguna potencia de MOS como en el Ejemplo 3.13.
En las muestras de área, se determina el número de UPM de la muestra y, por lo general, se
crean suficientes estratos para que se seleccionen 1 o 2 UPM en cada estrato. La selección de
una UPM por estrato permite una gran cantidad de control sobre la distribución lograda de la
muestra, pero crea algunos problemas de estimación de la varianza. Abordaremos estos en el
Cap. 15.
Otra consideración importante en algunos diseños de encuestas es tener flexibilidad para
expandir o contraer la muestra de la PSU. Si la encuesta es longitudinal, el presupuesto puede
no ser el mismo para cada ronda de la encuesta. Si se recorta el presupuesto, la forma más fácil
de reducir los costos puede ser eliminar las unidades de suministro de energía completas de la
muestra. Esto también puede ser razonablemente eficiente desde el punto de vista estadístico
si el componente de varianza entre las UPM es pequeño. En un diseño de 2 UPM por estrato,
se puede eliminar aleatoriamente una UPM de la muestra en algunos estratos para lograr la reducción.
En un diseño de una UPM por estrato, los estratos deben emparejarse de antemano para la
estimación de la varianza, como se explica en el Cap. 15. Una fuente de alimentación podría
eliminarse al azar de uno o más pares para reducir la muestra.
Tener una ruta preestablecida para la expansión de la muestra de PSU también es útil
cuando la muestra debe acumularse a lo largo del tiempo para hacer estimaciones. En la
NHANES, se realizan exámenes físicos extensos a los encuestados.
Los centros de examen móviles (MEC) que transportan equipos de diagnóstico se transportan
de una PSU a otra. Mover los MEC lleva mucho tiempo y es costoso, y solo se puede hacer un
subconjunto de la muestra nacional completa de PSU cada año. Se deben acumular dos o más
años de muestra para hacer estimaciones nacionales confiables.

9.6 Identificación de certezas

En el muestreo de probabilidad proporcional al tamaño, los tamaños de algunas UPM pueden


ser tan grandes que se seleccionarían con probabilidad 1. Estas UPM se designarían como
certezas. A veces, la regla se relaja de modo que cualquier PSU que se seleccionaría con una
probabilidad mayor que, digamos, 0,80 se convierte en una certeza.
En las muestras de área, las UPM a menudo se seleccionan con probabilidades proporcionales
al tamaño de su población. Las áreas metropolitanas extremadamente grandes por lo general
serán certezas. Sin embargo, existe cierta flexibilidad en la definición de las UPM. Se pueden
utilizar diferentes tipos de áreas geográficas (p. ej., áreas estadísticas metropolitanas, condados,
distritos o grupos de bloques) como PSU. Cubrimos este tema más adelante en el Cap. 10
Machine Translated by Google

9.6 Identificación de certezas 251

Ejercicios

9.5. Explore los efectos de diferentes tamaños de ÿ1 y ÿ2 en la asignación de una


muestra de tres etapas con un presupuesto total de $500 000 y componentes de
costo (C1, C2, C3) = (1000, 200, 120). Suponga que se usa el estimador ÿ, que el
número de UPM de la muestra es m, el mismo número de UPM, que se asigna ¯n
a cada UPM y que se seleccionan
todas las combinaciones
q elementos de
decada
ÿ1 = UPM.
(0,001,Calcule
0,01, 0,05)
el optiy para
los
Calcule los CV anticipados para
valores
cadamínimos
combinación
de m,suponiendo
¯n y q ÿ2 = (0,05,
que la 0,10,
unidad0,25).
de
revarianza de la variable de análisis es 2.

9.7. Use la población completa de Maryland y la función BW3stagePPS para


responder lo siguiente: (a) Calcule B2, W2, W2
W23 , ÿ1 y ÿ2 para las variables Hispano, Género y
2,

Edad. Recodifique Hispano y Género para que sean variables (0,1).


Machine Translated by Google

252 9 Diseño de muestras de varias etapas

Trate la Edad como continua para este ejercicio (aunque esté codificada en 23 categorías
ordenadas). Realice los cálculos asumiendo que el muestreo de tres etapas se utilizará
con distritos como UPM, grupos de bloques dentro de los distritos como UME y personas
como elementos. La muestra en las tres etapas se seleccionará mediante srswr.

(b) Repita los cálculos para un diseño en el que las PSU se seleccionan a través de ppswr
en lugar de srswr.
(c) Discuta las diferencias en los resultados. En particular, comente por qué el
los valores de ÿ1 son diferentes en los dos diseños.

9.8. Utilice la población de Maryland y la función BW3stagePPSe para calcular los


componentes de varianza de una muestra de 30 PSU (sectores), 2 SSU (grupos de bloques)
por distrito y 50 personas por SSU de muestra. Suponga que las zonas se seleccionan con
probabilidades proporcionales al número de personas en la zona y que las SSU y las
personas se seleccionan a través de srs. Utilice set.seed(1696803792) en R.

(a) Realice el cálculo para las variables y2, y3, ins.cov y hosp.stay. (b) ¿Cómo se comparan
sus respuestas con los resultados de la población completa en el examen?
por favor 9.12?

(c) Use los valores


¯¯
estimados de ÿ1 y ÿ2 para calcular los valores óptimos de en una muestra
presupuesto parade tres
costos
etapas
variables
dondeesC1
de=$100,000.
500, C2 = ¿Cómo
100, C3se= 120,
puedem,estimar
¯n y q ylaelunidad
total
de revarianza para cada variable?

(d) Discuta sus resultados en (c). ¿Es óptima la misma asignación para cada una de las
cinco variables? ¿Qué asignación usaría en la práctica?

9.9. Utilice la Población de la fuerza laboral para calcular entre y dentro de los componentes
de la varianza y la medida de homogeneidad, ÿ en una muestra de dos etapas para las
variables Horas por semana y Salario semanal. La variable cluster define las unidades de la
primera etapa.

(a) Realice el cálculo utilizando la función BW2stageSRS y BW2stagePPS.


¿Cómo se comparan las respuestas? ¿Cuáles son los supuestos para los diseños
muestrales en estas funciones?
(b) Repita los cálculos usando lmer en el paquete lme4 R. ¿A qué resultados espera que se
acerquen más los resultados del lmer: BW2stageSRS o BW2stagePPS? (Se deben usar
varios inicios aleatorios para lmer y seleccionar la mejor solución (AIC mínimo); la función
no dará estimaciones correctas sin buscar).

9.10. Considere una población que se divide en M conglomerados, cada uno de los cuales
tiene N¯ elementos como en el Ejemplo 9.1. Demuestre que cuando tanto M como N¯ son
.
grandes, la unidad de varianza de una variable y se puede escribir tu
como
Todos
tu S2
definen
y¯2
los =términos
en
B2 el
+ W2.
se
1
ejemplo 9.1. Use la forma W2 = S2 para iÿU U2i
Mi¯2tu
derivar el resultado.
Machine Translated by Google

9.6 Identificación de certezas 253

n¯ÿn¯
9.11. Demuestre que V t ˆÿ t 2tu = Mÿm
B2 +
Una

W2 en la ecuación. (9.3) puede ser


metro METRO
Una

Minnesota
˜ NORTE

reescrito como V k [1 + ÿ (¯n ÿ 1)] mn¯, es decir, igual a la Ec. (9.5) con k = (B2 +

W2)/V˜ . Necesitarás hacer la sustitución, (M ÿ m) /M ÿ (M ÿ 1) /M,


para obtener el resultado.

9.12. S¨arndal et al. (1992, p. 149) derivan la varianza de diseño del estimador ÿ en un
muestreo en tres etapas para un diseño de muestra general. Suponer que
U es la población de UPM; UIIi es la población de SSU dentro de las PSU
i; Uij es la población de elementos dentro de PSU/SSU ij; ÿIi es la selección
probabilidad de PSU i en la primera etapa; ÿIII es la probabilidad de selección conjunta
de las fuentes de alimentación i e i ; ÿIIj|i es la probabilidad de selección condicional de SSU j dada
que se selecciona PSU i; ÿIIjj i es la probabilidad condicional conjunta de que las SSU j
y j se seleccionan dentro de la PSU i; ÿk|ij es la probabilidad de selección condicional
del elemento k dentro de PSU/SSU ij; y ÿkk ij es la probabilidad de selección conjunta
de los elementos k y k dentro de PSU/SSU ij. La varianza del estimador ÿ es
entonces V t ˆÿ = VPSU + VSSU + VTSU donde

ti ti
VPSU = iÿU yo ÿU ÿiii siendo ti la población total de la
ÿIi ÿii
variable de análisis para PSU i y ÿIii = ÿIii ÿ ÿIiÿIi
tij tij
|i = ÿIIjjVIIi/ÿIi
VSSU = ÿIIjj |i ÿIIjj iÿU |i ÿ ÿIIj|icon
ÿIIj |i VIIi
, = jÿUi j ÿUi ,
ÿIIj |i ÿIIj |i
siendo tij la población total para
PSU/SUU ij
Una
vij si si
VTSU = iÿU con Vij= kÿUij k ÿUijÿIIkk |ij
,
ÿIi UIIi ÿIIj|i ÿk|ij ÿk |ij
ÿIIkk |ij = ÿkk |ij ÿ ÿk| ij ÿk | ij

(a) Especialice esta fórmula para el caso de muestreo aleatorio simple en cada
escenario. En particular, suponga que se seleccionan m PSU de M usando
Srta. En PSU, supongo que ni SSU se seleccionan de Ni en PSU i
y que los elementos qij se seleccionan de Qij en PSU/SSU ij. es decir, mostrar
que
2
VPSU =
Mÿm M2 S2 con S2 = (ti ÿ t ¯U ) (M ÿ 1) donde
METRO metro U1 U1 iÿU

t ¯U = iÿU ti M

N2 ni-ni 2
VSSU = la
METRO
S2U2i con S2 Es = Una

es
miÿU no Ni U2i Niÿ1 jÿUi ( tij ÿ t ¯Ui)
varianza unitaria de los totales de SSU en PSU i con tij = el total de la población siendo kÿUij yk

para PSU/SSU ij, t ¯Ui = total por SSU en PSU i jÿUi tij Ni es el promedio

METRO
Ni Q2yo Qijÿqij
VTSU = S2
miÿU ni jÿUi qij 2 U3ij
qij
con S2 = Una

U3ij (yk ÿ y¯Uij )


Qijÿ1 kÿUij

(b) Demuestre que, si ni = ¯n y qij = q ¯¯, es decir, el mismo número de SSU de muestra es
seleccionado de cada fuente de alimentación de muestra, se selecciona el mismo número de elementos de muestra.
Machine Translated by Google

254 9 Diseño de muestras de varias etapas

seleccionado de cada SSU, y el número de SSU es N¯ en cada PSU y


el número de elementos en cada SSU es Q¯¯, entonces la revarianza de t ˆÿ puede
escribirse como
V (t ÿ) = Mÿm B2
+ n¯ÿn¯ W22 + Q¯¯ÿq ¯¯ W23 ¯¯ con
t2tu METRO metro NORTE Minnesota
Q¯¯ mn¯ q
B2 = M2S2 t2 = MN¯ 2 t2 y
U1 tu , W22 iÿU
S2U2i tu ,
2
W23 = MN¯Q iÿU jÿUi
S2
U3ij
t2U. _

9.13. Suponga que una muestra aleatoria simple de m UPM y ¯n elementos es


seleccionados por muestra PSU. Suponga que el costo de la encuesta se puede modelar
como C = C0 + C1m + C2mn¯ y que la revarianza del estimador ÿ es
.
V (t ÿ) = B2 + W2 =
V˜ [1 + ÿ (¯n ÿ 1)].
Una

t2
tu
metro Minnesota Minnesota

(a) Demuestre que el número de elementos de muestra por PSU que minimiza el
la revarianza es

C1 W2 . C1 1-ÿ
n¯opt = = .
C2 B2 C2 d

CÿC0
(b) Use la restricción de costo total para mostrar que mopt = C1+C2n¯opt . (Sugerencia: use un

Función de Lagrange definida como ÿ = V t ˆÿ t2 tu +ÿ (C ÿ C0 ÿ C1n ÿ C2mn¯ )

9.14. Considere la situación en una muestra de dos etapas donde la muestra de PSU es
fijado.

(a) Demuestre que, si el costo total, C = C0 + C1m + C2mn¯, es fijo, entonces el


CÿC0ÿC1m
número de elementos a muestrear por PSU es ¯n = C2m .
(b) Si se establece un CV objetivo, entonces el número de elementos a muestrear por PSU es
n¯ = 1ÿÿ .
CV 02 m/V en ÿÿ

9.15. (a) En una muestra de tres etapas donde el conjunto de PSU es fijo, demuestre que si
el presupuesto es fijo o se establece un CV objetivo, el número óptimo de
¯¯
elementos a muestrear es q = 1ÿÿ2 C2
C3 .
ÿ2
(b) Si el presupuesto es fijo, demuestre que el número óptimo de SSU por
PSU es ¯n = C
¯¯ con C = mÿ1 (C ÿ C0) ÿ C1 = C2n¯ + C3n¯ q ¯¯.
C2+C3q
(c) Si se establece un coeficiente objetivo de CV0, entonces el número de SSU es
ÿ1
n¯ = Una
CV 02 ÿ ÿ1 .
q¯¯ [1 + ÿ2 (q ¯¯ÿ 1)] metro V~

9.16. En una población agrupada, considere este modelo con media común y
efectos aleatorios para grupos y elementos:

yk = ÿ + ÿi + ÿik , k ÿ Ui,

con ÿi ÿ 0, ÿ2 ÿ, ÿik ÿ 0, ÿ2 ÿ, y siendo los errores independientes. Definir


= 2
S2 U1 iÿU (ti ÿ t ¯U ) /(M ÿ 1) como en el caso del muestreo srswr de conglomerados
Machine Translated by Google

9.6 Identificación de certezas 255

(ykÿy¯U i)2
y S2 kÿUi =
U2i Niÿ1 como para el muestreo aleatorio simple de elementos dentro
grupos
de muestras. Otros términos se definen en las Seccs. 9.2.1 y 9.2.2.

(a) Demuestre que bajo el modelo anterior


.
EM S2 U1 = ÿ2 ÿ + ÿ2 S2 norte + N¯ 2ÿ2ÿ + ÿ2 ÿ,

EM S2 U2 = ÿ2 ÿ,

donde N¯ = iÿUNi M es el número promedio de elementos por grupo, (M ÿ 1), y se supone que
2
S2norte = iÿU Ni -N¯ M es grande.
. 2
U1ÿ + ÿ2 EM W2 . = ÿ2ÿ , EM B2 .
(b) Si Ni = N¯, entonces EM S2 = N¯ 2ÿ2 = N¯ 2ÿ2 ÿ + ÿ2
ÿ (Nÿ) ,
ÿ2, y que ÿ

ÿ2ÿ + ÿ2 ÿ NORTE
. ÿ2ÿ
EM (ÿ). = = .
2 ÿ2ÿ + ÿ2
ÿ2ÿ + ÿ2 ÿ 1+1N¯ ÿ

9.17. En una población en la que el muestreo en tres etapas sea adecuado, considere este
modelo con una media común y efectos aleatorios para las UPM, las UME y los elementos:

yk = ÿ + ÿi + ÿij + ÿijk , k ÿ Uij ,

con ÿi ÿ 0, ÿ2 ÿ , ÿij ÿ 0, ÿ2 ÿ , ÿijk ÿ 0, ÿ2 dent. ÿ, y los errores son independientes


Usando las fórmulas para B2, W2 W2 debajo2 , (9.16)
3de
laEq.
yfórmula para W2 definida debajo de la
expresión (9.21) con pi = 1/M, verifique que las expectativas de su modelo estén dadas
por las Ecs. (9.44)–(9.47). Úselos para mostrar que si el número de SSU en cada PSU
es N¯ y que el número de elementos en cada SSU es Q¯¯, entonces las expectativas
aproximadas de ÿ1 y ÿ2 son

ÿ2ÿ
EM (ÿ1) . = ,
ÿ2ÿ + +ÿ2ÿ2ÿ ÿ

ÿ2
ÿ
EM (ÿ2) . = .
ÿ2 + ÿ2ÿ
ÿ

l Muestre que EM (ÿ2) no es la correlación modelo de dos elementos en el mismo


SSU, que sería ÿ2 + ÿ2 ÿ2 + ÿ2 + ÿ2 ÿÿ ÿ ÿ ÿ .
Machine Translated by Google

Capítulo 10
Muestreo de área

El muestreo por áreas es un término general para un conjunto de procedimientos en los que
las áreas geográficas se seleccionan como unidades intermedias en el camino hacia el
muestreo de unidades de nivel inferior que son los objetivos de una encuesta. El muestreo por
áreas es solo un ejemplo de muestreo en etapas múltiples, pero debido a que se utilizan
fuentes de datos y métodos especiales, le dedicamos un capítulo aparte. Los cálculos para
determinar las asignaciones de la muestra a las diferentes etapas son los mismos que se tratan en el Cap. 9.
Hay varias razones por las que se utiliza el muestreo multietápico. Una es que la agrupación
puede reducir los costos si se necesita una lista de campo o si se realizan entrevistas en
persona. Tener las unidades de muestra agrupadas en áreas geográficas relativamente
pequeñas permite contratar recolectores de datos en un número limitado de áreas y reduce
los costos de viaje. Otra razón es que es posible que no esté disponible una lista completa de
las unidades objetivo de la encuesta. Al muestrear áreas pequeñas, se puede compilar una
lista en el campo y usarla para el muestreo. En algunas encuestas, como muestras escolares,
es posible que se deba obtener permiso de una unidad administrativa de alto nivel, como un
distrito escolar, para recopilar datos. En ese caso, el muestreo de distritos es una forma de
limitar el número de unidades organizativas con las que se debe negociar. Una aplicación
importante del muestreo por áreas es en las encuestas de hogares, donde los datos se
recopilan mediante entrevistas personales. En los EE. UU., ni el gobierno ni las organizaciones
privadas mantienen una lista completa de personas y hogares. Incluso si estuviera disponible,
una muestra no agrupada sería extremadamente ineficiente para entrevistas personales
debido a que el área del país es muy grande. El muestreo de área ciertamente no se limita al
muestreo de hogares. Otras poblaciones objetivo donde el muestreo de área puede ser
eficiente son establecimientos comerciales, escuelas, cuerpos de agua y similares, cualquier
población que requiera que se recolecten datos donde las unidades están ubicadas físicamente.

La descripción del muestreo de área que se presenta en este capítulo se centra


principalmente en los EE. UU. Nos concentramos en los tipos de áreas geográficas que ha
desarrollado la Oficina del Censo de EE. UU., principalmente para encuestas de hogares (Sección 10.1).
Sin embargo, las técnicas generales son aplicables a otros países donde se han definido
varios niveles de áreas geográficas con fines administrativos y estadísticos. Por lo tanto,
incluimos algunos ejemplos fuera de los EE. UU. para comparar.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 257


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 10, © Springer Science+Business Media New York 2013
Machine Translated by Google

258 Muestreo de 10 áreas

Los conteos de población, las distribuciones demográficas y las estimaciones detalladas se


resumen dentro de las diversas áreas geográficas para su uso en la construcción del diseño de
muestra de área (multietapa) en lugar de un registro de población. Estos datos se obtienen a través
de varias fuentes, incluido el Censo de los EE. UU. (un censo, ordenado por la Constitución de los
EE. UU. que se realiza cada 10 años, de la población que reside en los 50 estados, el Distrito de
Columbia y Puerto Rico) y una gran encuesta de hogares conocida como la encuesta de la
comunidad estadounidense o simplemente ACS (Sección 10.2). Debido a que los conteos y otra
información utilizada en las diversas etapas del muestreo (Sección 10.3) son sensibles al tiempo,
incluimos una discusión de los procedimientos para abordar los cambios en la distribución de la
población después de que se haya extraído la muestra inicial de unidades (Sección 10.6). Además
de la ACS, se analizan los detalles del diseño de algunas encuestas de ejemplo, incluido el marco
de muestreo y las etapas del diseño (Sección 10.4).

Muchas encuestas de etapas múltiples, incluido uno de nuestros estudios de ejemplo, están
diseñadas para cumplir con el tamaño de la muestra y otros criterios para varios dominios
simultáneamente dentro de la etapa más baja de muestreo. A diferencia de un stsrs donde los
estratos se pueden diseñar para reflejar los dominios, las encuestas de etapas múltiples a veces se
basan en el muestreo pps con medidas de tamaño compuestas para lograr los objetivos de diseño
mientras se mantienen los costos bajo control (Sección 10.5).
Finalmente, el muestreo de área tiene muchos beneficios y algunos inconvenientes. Por
ejemplo, es importante contar con información oportuna y precisa sobre la población antes de
seleccionar la muestra multietapa. Sin embargo, la migración y/o el tiempo transcurrido desde el
último censo introducen diferencias entre los datos del marco o estimaciones y lo que se puede
encontrar “en el campo”. Las técnicas implementadas para abordar estos cambios de población se
analizan en la Secc. 10.6. Otro rasgo menos que deseable para las muestras de área es la cantidad
de tiempo y fondos necesarios para desarrollar y seleccionar unidades en las etapas inferiores de
muestreo. Se revisa un tipo relativamente nuevo de metodología de muestreo, conocido como
muestreo basado en direcciones (ABS), como remedio para las encuestas con recursos limitados
(Sección 10.7).

10.1 Unidades Geográficas del Censo

La Oficina del Censo de EE. UU. utiliza varias capas de áreas geográficas para sus operaciones de
encuesta. Estos también son de uso común por parte de organizaciones de encuestas privadas.
Las áreas consisten en divisiones administrativas existentes y otras unidades construidas para uso
estadístico. La Figura 10.1 muestra la jerarquía de las áreas.
Desde el más grande hasta el más pequeño en términos de tamaño de población y área
geográfica, la jerarquía de áreas es estado, área metropolitana, condado, sector censal, grupo de
bloque y bloque. En algunas partes de los EE. UU., se utilizan términos distintos de condado, como
parroquia o división civil menor, para denotar diccionarios de jurisprudencia del gobierno local que
son equivalentes a condados, pero no es necesario que nos preocupemos por eso aquí.
Machine Translated by Google

10.1 Unidades Geográficas del Censo 259

NACIÓN Áreas AIANNH*


(Indio americano, Alaska
nativo hawaiano
Áreas)

REGIONES

Areas urbanas
Áreas de tabulación de código postal DIVISIONES
Áreas estadísticas básicas
Distritos escolares ESTADOS
Distritos del Congreso Áreas de Crecimiento Urbano
condados
Distritos legislativos estatales

Áreas de microdatos de uso público


Distritos electorales

Zonas de análisis de tráfico Lugares

Subdivisiones del condado

Sectores censales

Divisiones Civiles Submenores

Grupos de bloques

Bloques censales

Higo. 10.1: Jerarquía geográfica de unidades definida por la Oficina del Censo de EE. UU. Ver EE . UU.
Oficina del Censo (2011).

Las áreas metropolitanas están definidas por la oficina de administración y presupuesto


(OMB), una agencia federal de EE. UU. Parte del trabajo de OMB es proporcionar
definiciones coherentes para recopilar, tabular y publicar estadísticas federales para un
conjunto de áreas geográficas. Cuatro de las áreas más grandes definidas por OMB son:
Área estadística metropolitana (MSA): contiene al menos un área urbanizada de al
menos 50,000 personas, más cualquier territorio adyacente que tenga un alto grado
de integración social y económica con el núcleo, según lo medido por los lazos de
desplazamiento. Había 374 MSA en 2009 (366 en los EE. UU. y 8 en Puerto Rico),
justo antes del censo de EE. UU. de 2010 (Boletín de la OMB n.° 10-02).1 Viajar al
trabajo es parte de la definición porque algunas personas pueden viajar una distancia
una distancia considerable a una ciudad central, uniendo así un área. Aproximadamente
el 84% de la población de EE. UU. reside dentro de una MSA.

División metropolitana: un condado o grupo de condados dentro de una MSA


que tiene un núcleo de población de al menos 2,5 millones.

Una

http://www.census.gov/population/www/metroareas/metrodef.html.
Machine Translated by Google

260 Muestreo de 10 áreas

Áreas estadísticas micropolitanas: un área que contiene uno o más grupos urbanos de al
menos 10,000 pero menos de 50,000 habitantes, más el territorio adyacente.

Área estadística combinada: áreas estadísticas metropolitanas y micropolitanas adyacentes;


las combinaciones se basan en lazos de desplazamiento.

Hay 3,141 condados en los EE. UU., un mapa de los cuales para todo EE. UU. se puede
encontrar en

ftp2.census.gov/geo/maps/general_ref/us_base/
stco2003/stco2003.pdf.

Los mapas de coropletas de EE. UU. con condados marcados por porcentaje de población en
pobreza e ingreso familiar promedio en 2008 se encuentran en www.census.gov/did/www/saipe/
data/statecounty/maps/2008.html.

Las secciones censales, las manzanas y los grupos de manzanas son las unidades que se
utilizan con mayor frecuencia en el muestreo dentro de las unidades primarias de muestreo
(PSU) para las encuestas de hogares. Los distritos son pequeñas subdivisiones estadísticas de
un condado o entidad equivalente. Los distritos generalmente tienen entre 1500 y 8000
personas, con un tamaño deseado de 4000 personas. Los condados y entidades equivalentes
con menos de 1500 habitantes tienen un solo distrito censal. Los tratados no cruzan las
fronteras estatales. El primer censo decenal en el que todo Estados Unidos estuvo cubierto por
tramos censales fue en 2000.
Los bloques censales son áreas limitadas por todos lados por características visibles, como
calles, carreteras, arroyos y vías férreas, y por límites invisibles, como límites de ciudades,
pueblos, municipios y condados, límites de propiedad y extensiones cortas e imaginarias de
calles y caminos. Los bloques suelen tener un área pequeña, pero en áreas escasamente
pobladas pueden contener muchas millas cuadradas de territorio. A todo el territorio de los 50
Estados Unidos, el Distrito de Columbia, Puerto Rico y las Áreas Insulares gobernadas por los
Estados Unidos se le han asignado números de bloque.
Un grupo de bloques (BG) es un grupo de bloques censales. Los BG generalmente contienen
entre 600 y 3000 personas, con un tamaño objetivo de 1500 personas. Los BG en reservaciones
de indios americanos, tierras en fideicomiso fuera de reservaciones y lugares especiales deben
contener un mínimo de 300 personas. Los lugares especiales incluyen instituciones
correccionales, instalaciones militares, campus universitarios, dormitorios de trabajadores,
hospitales, hogares de ancianos y hogares grupales. Estos lugares especiales también se
denominan alojamientos de grupo. Por lo general, hay tres BG por tracto. Los recuentos de las
distintas áreas para el censo de 2010 fueron:
Machine Translated by Google

10.2 Datos del Censo y Datos de la Encuesta sobre la Comunidad Estadounidense 261

condados 3.141
Sectores censales 74.002
Grupos de bloques 217.740
bloques 11.078.297

Los conteos por estado del número de distritos, grupos de bloques y bloques usados en el Censo del 2000 se
pueden encontrar en www.census.gov/geo/www/2010census/.
El número de condados y otras divisiones administrativas por estado se encuentran en www.census.gov/geo/
www/tallies/ctytally.html. Los archivos de límites para áreas están disponibles en www.census.gov/geo/www/
cob/index.html en lo que se conoce como la base de datos TIGER (codificación y referencia geográfica
integrada topológicamente). Estos son una colección de archivos de bases de datos cartográficas que están
disponibles para el público y se utilizan en una variedad de productos comerciales de sistemas de información
geográfica (GIS) o software de mapeo. Los archivos de límites definen áreas geográficas usando polígonos
con lados basados en coordenadas de longitud y latitud.

10.2 Datos del Censo y Datos de la Encuesta sobre la Comunidad


Estadounidense

En los EE. UU., la información demográfica extensa se ha recopilado tradicionalmente en una muestra grande
de personas como parte de cada censo decenal. En el censo de 2000, aproximadamente una sexta parte de la
población que vive en los EE. UU. recibió un “formulario largo”. Desde entonces, la muestra de formato largo
ha sido reemplazada por la ACS, que recopila esta misma información en una muestra actualizada
continuamente (www.census.gov/acs/www/). El Censo de 2010 recopiló lo siguiente:

• Elementos a nivel de dirección:

Número de personas que vivían en la dirección el 1 de abril de 2010


Tenencia: si la residencia era propia o alquilada
• Artículos recolectados para cada persona:
Años
Género

Etnicidad (si la persona es de origen hispano, latino o español)


Raza (se enumeran 14 opciones, además una persona puede completar una opción no listada)

Los conteos de personas para cada bloque en los EE. UU. están disponibles en el censo de 2010.
Además, los recuentos a nivel de bloque estarán disponibles para todas las características enumeradas
anteriormente.

En la ACS, se hacen preguntas detalladas sobre el estatus socioeconómico de cada persona y las
características de la unidad de vivienda, que incluyen:
Machine Translated by Google

262 Muestreo de 10 áreas

Años Ingreso
Lugar de nacimiento lengua hablada en casa
Ciudadanía Estado civil
El mas alto nivel de educación Número de habitaciones en la vivienda
unidad

Estado de Empleo Presencia de fontanería interior.


Etnicidad La raza
Género Tiempo dedicado a viajar al trabajo
valor de la vivienda Año en que se fundó la vivienda
construido

La Oficina del Censo tabula estimaciones de muestra de la ACS en una variedad


de niveles geográficos. La ACS publica informes de uno, tres y cinco años
promedios móviles ya que la muestra en un solo mes es pequeña. A partir de 2010, el
planificado, el tamaño total de la muestra de ACS fue de aproximadamente tres millones de direcciones en un año.
Las estimaciones en todos los niveles geográficos en la Fig. 10.1 hasta BG se publican
para estimaciones superpuestas de cinco años, por ejemplo, 2006–2010 y 2007–2011. un año
y las estimaciones de tres años superpuestas se publican solo para niveles más altos de
geografía. La importancia de esto para el diseño de la muestra es que las estadísticas para el
Las áreas geográficas pequeñas que se utilizan a menudo como unidades de muestreo no se referirán a
un punto particular en el tiempo, sino que serán valores promedio sobre extendidos
períodos de tiempo. En realidad, esto puede ser ventajoso para diseñar una muestra.
ya que la forma en que se distribuye la población es siempre cambiante. Los conteos de población del
censo decenal se vuelven progresivamente más desactualizados
a medida que transcurre una década. Waksberg et al. (1997) analizan los efectos del uso de tales
información censal desactualizada al hacer un sobremuestreo geográfico
en mejorar las estimaciones para dominios demográficos pequeños. Cuanto más alejado
desde la fecha del censo es una encuesta, menos precisa es la cuenta del censo para pequeños
las áreas son. En consecuencia, las medias móviles de la ACS darán una idea más
imagen actual de la población.

10.3 Unidades en diferentes etapas de muestreo

Las muestras multietapa pueden usar PSU, unidades de muestreo secundarias (SSU) y, en
algunos casos, unidades en etapas posteriores. En las muestras de área, las dos primeras etapas son
áreas geográficas con SSU anidadas dentro de PSU. Unidades en el tercero o posterior
Las etapas suelen ser hogares o personas.
Machine Translated by Google

10.3 Unidades en diferentes etapas de muestreo 263

10.3.1 Unidades primarias de muestreo

Las UPM en muestras de área son áreas geográficas que colectivamente cubren toda el área
dentro del alcance de una encuesta. Las UPM se utilizan como primera etapa del muestreo en
una muestra probabilística de área. Las UPM generalmente se estratifican por geografía para
garantizar la representación de regiones u otros tipos de subáreas. El número de UPM de
muestra puede basarse en cálculos aproximados de optimización para tener en cuenta las
contribuciones de las varianzas entre las UPM a estimadores simples (como el estimador ÿ),
como se describe en el Cap. 9. A la inversa, se pueden utilizar reglas empíricas; 100 PSU es
un tamaño de muestra común, pero algunas encuestas como la encuesta de población actual
(CPS; la encuesta de la fuerza laboral de EE. UU.) utilizan cientos de PSU de muestra.
El número se ve afectado principalmente por si se necesitan estimaciones subnacionales, como
áreas regionales o locales. La muestra generalmente se asigna a estratos que dan cuenta del
deseo de hacer estimaciones regionales. Las muestras de PSU a menudo se usan durante
largos períodos de tiempo, por ejemplo, diez años entre censos decenales, y para muchas
encuestas diferentes.

Reglas para definir PSU

Hay algunas reglas generales que son útiles al definir las UPM para el marco de muestreo de
áreas. Estos se utilizan en muchas encuestas de hogares, como CPS; otros tipos de encuestas
pueden usar reglas diferentes:

1. Las PSU están contenidas dentro de los límites estatales. Esto facilita las tabulaciones
por estado
2. Cada PSU es un condado o grupo de condados, excepto en Nueva Inglaterra
estados donde se utilizan otras áreas equivalentes.
3. A veces, las MSA se definen como PSU separadas. Se pueden hacer excepciones a esta
regla porque algunos MSA son demasiado grandes para ser eficientes para el trabajo de
campo y/o podrían resultar en ser seleccionados varias veces con algunos métodos de
muestreo.
4. El área de una PSU no debe exceder un área máxima (por ejemplo, 3000 millas cuadradas
o aproximadamente 7770 kilómetros cuadrados en CPS). Esto ayuda a limitar la distancia
que deben viajar los entrevistadores.
5. La población de PSU debe ser superior a un mínimo (p. ej., 7500 en CPS) siempre que no
se infrinja la regla 4. La idea es permitir que la muestra sea lo suficientemente grande para
proporcionar una carga de trabajo razonable para los entrevistadores, así como el cálculo
de estimaciones eficientes dentro de la UPM. Por ejemplo, una UPM con un pequeño
número de miembros de la muestra puede requerir que todos sean seleccionados para la
encuesta, introduciendo ponderaciones desiguales en el diseño, así como estimaciones
potencialmente inestables si no se logra el 100 % de respuesta.
Otra consideración puede ser apoyar una encuesta longitudinal donde las personas están
en la encuesta durante un número determinado de olas y luego se rotan
Machine Translated by Google

264 Muestreo de 10 áreas

fuera y reemplazado por otras personas de la muestra. Es posible que una fuente de alimentación
demasiado pequeña no permita realizar el número deseado de rotaciones.
6. Evite la longitud extrema. Al igual que la regla 4, esto está diseñado para limitar los viajes en las
encuestas realizadas por entrevista personal. Por ejemplo, las PSU diseñadas para tener una
distancia aproximadamente cuadrada (p. ej., 50 kilómetros cuadrados) son más rentables que los
grupos excesivamente rectangulares del mismo tamaño (p. ej., 5 km por 500 km).

La regla 3 se aplica cuando se utiliza un área metropolitana para tabulación y publicación.


Para el índice de precios al consumidor (IPC) de EE. UU., se publican índices separados para algunas
áreas metropolitanas.2 Por ejemplo, las siguientes MSA tienen sus propios índices: Detroit-Ann Arbor-
Flint, Michigan; Nueva York-Norte de Nueva Jersey-Long Island, que cubre partes de los estados de
Nueva Jersey, Nueva York y Connecti cut; San Francisco-Oakland-San José, California; Washington
DC-Baltimore, que cubre el Distrito de Columbia y partes de Maryland, Virginia y Virginia Occidental.

La Regla 3 es una que se ha vuelto menos beneficiosa con el tiempo en los EE. UU. debido a las
grandes áreas geográficas cubiertas por algunas MSA. El MSA de Washington Baltimore es un caso
en el que el área es extremadamente grande, con unas 150 millas (240 km) desde la esquina noroeste
hasta la esquina sureste. La Figura 10.2 es un mapa de este MSA. Cubrir toda la MSA en automóvil
implicaría mucho manejo por parte de un trabajador de campo que realiza entrevistas personales en
áreas que pueden estar extremadamente congestionadas por el tráfico. Si las áreas metropolitanas
no son de interés para los objetivos de la encuesta, no es necesario que se utilicen como UPM. Por
ejemplo, en la encuesta de consumo de energía de edificios comerciales (CBECS), realizada por el
Departamento de Energía de EE. UU., los condados son PSU sin tener en cuenta las definiciones de
MSA.3 Las zonas climáticas son más importantes para definir las PSU y los estratos en esa encuesta.

10.3.2 Unidades secundarias de muestreo

Las SSU son unidades seleccionadas primero dentro de cada PSU de muestra. Estas también son
áreas geográficas, pero son mucho más pequeñas que la PSU típica. Las SSU pueden ser extensiones,
grupos de bloques o áreas de código postal (entrega postal). Las áreas de códigos postales no se
usan a menudo para el muestreo de hogares en los EE. UU. porque las estadísticas y los mapas están
fácilmente disponibles para distritos y BG. Sin embargo, los códigos postales pueden ser útiles para
el muestreo de establecimientos si son las áreas más pequeñas para las que hay datos comerciales
disponibles. En ese caso, los datos del código postal se pueden utilizar para asignar medidas de
tamaño a las áreas.
Algunas encuestas de área a gran escala incluyen hasta cinco etapas de muestreo. Por ejemplo,
la Encuesta Nacional de Hogares sobre Uso de Drogas y Salud (NSDUH), discutida con más detalle
en la Secc. 10.4.2, tiene un total de cuatro muestreo

2
http://www.bls.gov/cpi/. http://
3
www.eia.gov/emeu/cbecs/.
Machine Translated by Google

10.3 Unidades en diferentes etapas de muestreo 265

Higo. 10.2: Un mapa del área estadística metropolitana de Washington–Baltimore y subdivisiones


más pequeñas. Fuente: Oficina del Censo: Áreas Estadísticas Metropolitanas y Micropolitanas, http://
www.census.gov/population/www/metroareas/metroarea.html.

etapas y el estudio de vigilancia de salud mental NSDUH (NSDUH-MHSS) tiene cinco.


Por lo general, la tercera etapa de muestreo y las subsiguientes justo antes de la última
etapa no tienen una etiqueta especial y se identifican solo por el número de etapa, es
decir, la cuarta etapa de muestreo.
Las UME y las etapas previas a la etapa final de muestreo (Sección 10.3.3) se utilizan
generalmente cuando las listas de las unidades elegibles para la encuesta no están
disponibles de antemano y se deben hacer listas de campo. La mayoría de las
organizaciones de EE. UU., por ejemplo, no tienen una lista completa de los hogares de
los cuales tomar muestras, y estos marcos históricamente han sido construidos por
personal de campo que sondea un área seleccionada al azar. Este procedimiento
generalmente se conoce como conteo y listado y el personal de campo como registradores
de campo (hogares); véase, por ejemplo, Eckman y O'Muircheartaigh (2011) y Wright y
Marsden (2010, cap. 2). Con el NSDUH, por ejemplo, los segmentos de área (SSU) se
construyen para tener al menos 150 unidades de vivienda urbana o 100 unidades de
vivienda rural. Se envían lististas capacitados al campo con mapas y material de registro
(sistema de posicionamiento global, GPS, registradores o listas impresas) para obtener
información de identificación de todas las unidades de vivienda contenidas dentro de los
límites establecidos de los segmentos de área elegidos al azar. Una vez compilada, esta lista se utiliza c
Machine Translated by Google

266 Muestreo de 10 áreas

marco muestral y nuevamente para aislar el hogar elegido para la encuesta. La información
recopilada incluye la ubicación física (p. ej., dirección de la calle, cruce de calles y una
descripción de la casa en lugar de una dirección física; ubicación en la propiedad de otra
dirección; coordenadas GPS) y otros paradatos (p. ej., identificación de juguetes o equipos
asociados con niños pequeños; probabilidad de que una casa esté actualmente ocupada;
graffiti y basura en el vecindario como predictor de cooperación en la encuesta). A los
enumeradores se les puede proporcionar una lista parcial de direcciones de una encuesta
anterior o de registros administrativos; a todos se les da un punto de partida en el mapa de
segmentos que muestra los límites del área, así como la dirección en la que debe viajar el
registrador para registrar las unidades de vivienda.

10.3.3 Unidades finales de muestreo

La última etapa de muestreo (independientemente de su número) es de particular importancia


y se denomina unidad final de muestreo (USU). Ejemplos de USU son un pequeño grupo de
unidades de vivienda (p. ej., 4); hogares individuales o personas; establecimientos comerciales
y edificios. En la siguiente sección se examinan ejemplos adicionales específicos de una
encuesta en particular. Tenga en cuenta que la última etapa del muestreo puede no ser
equivalente a la unidad de análisis más pequeña. En el caso de una encuesta de hogares
como la Encuesta Nacional de Victimización por Delitos (NCVS), el hogar se etiqueta como
USU porque se les pide a todos los miembros del hogar mayores de 12 años que participen en
el estudio (es decir, selecciones de certeza dentro del hogar) , pero la unidad de análisis es
una persona.4 El USU para la NSDUH es un grupo de personas porque se seleccionan cero,
una o dos personas del hogar de muestra.5

10.4 Ejemplos de muestras de probabilidad de área

Para comprender mejor cómo se implementan en la práctica las muestras de área, resumimos
los diseños de algunas de las principales encuestas de hogares en EE. UU. y Alemania.
Estos diseños tienen similitudes, pero cada uno tiene algunos objetivos y características únicos.

4
La NCVS es realizada por la Oficina de Estadísticas de Justicia del Departamento de EE. UU.
de Justicia. http://bjs.ojp.usdoj.gov/index.cfm?ty=dcdetail&iid=245.
5
No se pueden muestrear personas de hogares con características comunes para que los fondos
del estudio puedan usarse para sobremuestrear hogares con características más raras (p. ej.,
hogares con niños o de una determinada raza/etnicidad minoritaria).
Machine Translated by Google

10.4 Ejemplos de muestras de probabilidad de área 267

10.4.1 Encuesta de población actual

La CPS es la encuesta de la fuerza laboral de EE. UU. y es la principal fuente de datos para
estimar diversas tasas de desempleo y características de la fuerza laboral.6 Los detalles de
la metodología de la encuesta se encuentran en la Oficina del Censo de EE . UU . (2006). La
encuesta es pagada por la Oficina de Estadísticas Laborales y la muestra es seleccionada y
los datos recopilados por la Oficina del Censo. La población objetivo es la población civil no
institucionalizada de 16 años o más que reside dentro de los 50 estados y el Distrito de
Columbia. La encuesta está diseñada para producir estimaciones nacionales y estatales, y
también estimaciones subestatales en California (Los Ángeles y el resto del estado) y en el
estado de Nueva York (Ciudad de Nueva York y el resto del estado).

La Oficina del Censo mantiene un archivo maestro de direcciones (MAF) que intenta
cubrir todas las HU en los EE. UU. En la práctica, es imposible tener una lista completamente
actualizada, pero el MAF está más cerca de la actualidad que cualquier otra lista, incluida la
mencionada DSF. El MAF no está disponible para ninguna organización privada de encuestas
ni para otras agencias gubernamentales, a menos que la propia Oficina del Censo realice el
muestreo y la recopilación de datos. Tener el MAF le da al CPS ya otras encuestas realizadas
por el Censo algunas opciones que no están disponibles para otras organizaciones de
encuestas.
Usando el MAF, se hacen esfuerzos para coordinar el muestreo de CPS con otras nueve
encuestas realizadas por el Censo; véase Oficina del Censo de EE . UU. (2006, págs. 3–7).
El objetivo es evitar que se seleccionen hogares para múltiples encuestas, lo que aumentaría
la carga y probablemente disminuiría las tasas de respuesta. La muestra completa de UME
durante una década se selecciona a la vez. Esto hace que la selección de muestras sea más
especializada que para muchas muestras de área.
Los objetivos de precisión de la encuesta son alcanzar un CV del 1,9 % sobre la tasa de
desempleo mensual nacional, suponiendo que la tasa sea del 6 %. Además, una diferencia
de 0,2 puntos porcentuales en la tasa nacional de desempleo en dos meses consecutivos
debería ser significativa al nivel de 0,10. La meta para cada área estatal y subestatal y el
Distrito de Columbia es tener un CV del 8 % en las estimaciones de la tasa de desempleo
anual promedio, suponiendo que la tasa sea del 6 %.

Etapas del Muestreo: UPM y Grupos de Hogares

El tamaño total de la muestra nacional es de unas 72.000 unidades de vivienda (UD), aunque
este número puede fluctuar según el presupuesto asignado a la encuesta.
Se seleccionan muestras independientes para cada área estatal y subestatal para las cuales
se realizan estimaciones separadas. En la primera etapa, se seleccionan 824 PSU, que son
MSA o combinaciones de condados en áreas que no son MSA. El diseño tiene 446 PSU de
certeza y 378 de no certeza. Una PSU de cada no certeza

6
http://www.census.gov/cps/.
Machine Translated by Google

268 Muestreo de 10 áreas

el estrato se selecciona con probabilidad proporcional al conteo de población del censo más
reciente.
En la segunda etapa, la SSU es un grupo de cuatro HU adyacentes. (Los grupos de HU o
grupos de bloques geográficos a veces se denominan segmento).
Observe que un grupo de cuatro HU es mucho más pequeño que los grupos de bloques o bloques
mencionados anteriormente. El muestreo directo de una SSU tan pequeña depende de que el
censo tenga el MAF. Dado que no se realizan más submuestreos, la SSU también puede
considerarse la USU en la mayoría de las PSU. Hay algunas excepciones a esto. En los casos en
que las direcciones “no son reconocibles sobre el terreno”, se utiliza el muestreo de área para
seleccionar las USU. Luego, a veces se usa una tercera etapa si una SSU es grande en área o
número de hogares. Esta tercera etapa se utiliza principalmente en las zonas rurales. Las
entrevistas se realizan con todos los miembros del hogar que tienen al menos 15 años de edad.

El CPS también usa una muestra de permiso de construcción dentro de las PSU de muestra
para cubrir las viviendas construidas después de compilar la lista de direcciones. El método
utilizado para compilar el marco del permiso es similar a la opción 1 en la Secc. 10.6.

Formación de fuentes de alimentación

Las PSU se forman usando las reglas de la Secc. 10.3 con algunas adaptaciones específicas de
CPS. Las MSA se utilizan para las PSU, excepto que las PSU no cruzan las fronteras estatales.
Cuando una MSA cruza los límites estatales, lo cual es común en la parte este de los EE. UU., la
MSA se divide en dos o más PSU. El tamaño mínimo de población de una PSU es de 7500,
excepto cuando esto requiera crear una PSU con un área de 3000 millas cuadradas. Después del
censo de 2000, se crearon un total de 2025 PSU de los 3141 condados.

Estratificación y selección de UPM

Las UPM están estratificadas dentro del estado. Las variables clave utilizadas para la estratificación
son el número de hombres desempleados, el número de mujeres desempleadas, el número de
familias con una mujer como cabeza de familia y la proporción de unidades de vivienda ocupadas
con tres o más personas, de todas las edades, respecto al total de unidades de vivienda ocupadas.
Los estratos se crean para contener UPM que son similares entre sí en estas variables, utilizando
un algoritmo de agrupamiento. Cualquier PSU que forme parte de las 151 áreas metropolitanas
más grandes es una certeza. Esto, junto con el requisito de CV para las estimaciones estatales,
lleva a que nueve estados completos sean PSU de certeza. Estos son geográficamente pequeños
pero densamente poblados: Connecticut, Delaware, Hawaii, Massachusetts, New Hampshire, New
Jersey, Rhode Island, Vermont y el Distrito de Columbia.

Los estratos de UPM que no se representan a sí mismas se forman para tener aproximadamente
la misma población total. Se selecciona una UPM de cada estrato con probabilidad proporcional a
la población total. Cada fuente de alimentación está construida para suministrar una
Machine Translated by Google

10.4 Ejemplos de muestras de probabilidad de área 269

muestra de 35–55 HU, que es lo suficientemente grande como para ser una carga de trabajo para un
recopilador de datos.

Selección de USU

El marco para seleccionar USU en cada PSU tiene cuatro partes: (1) el marco de la lista de direcciones de la
unidad de vivienda (HU) que es el MAF, (2) un marco de área, que se usa cuando una dirección del censo no
se puede usar para ubicar una HU , (3) un marco de alojamiento de grupo (GQ) y (4) un marco de permiso de
construcción. Para las operaciones de levantamiento, las HU y los alojamientos de grupo se definen como:

• Unidades de vivienda (HU): un grupo de habitaciones o una habitación individual ocupada como vivienda
separada (o destinada a serlo). Alrededor del 98% de la población estadounidense enumerada en un
censo reside en una HU; el resto está en alojamientos grupales o no tienen hogar.

• Alojamientos grupales (GQ): los residentes comparten instalaciones comunes o reciben atención formalmente
autorizada. Ejemplos de alojamientos para grupos son los dormitorios universitarios, los asilos de
ancianos, los asilos de ancianos y las comunas. Dado que CPS cubre solo a la población no
institucionalizada, los alojamientos grupales institucionales, como prisiones e instalaciones militares, no
están dentro del alcance.

Los GQ militares e institucionales se dejan en el marco en caso de que se conviertan en una unidad dentro
del alcance antes de la entrevista.
Como un breve aparte, tenga en cuenta que algunas encuestas el término unidad de vivienda (DU)
también se utiliza para referirse a la unidad de vivienda (HU). Muchas veces, un marco de USU tendrá
unidades que resultarán ser más de una DU o HU. Por ejemplo, la casa en 104 Cherry Street en realidad
puede contener una familia en el primer piso y un inquilino en un apartamento en el sótano. La mayoría de las
encuestas clasificaría que se trata de dos UC, aunque el marco muestral lo mostrara como uno solo. Por esta
razón, algunas organizaciones se refieren a las listas de direcciones en el marco como líneas en lugar de HU
o DU porque su estado no se determina por completo hasta el momento de la entrevista. Una vez que se
determina el estado de la línea, a menudo se utiliza el muestreo de selección y multifase para apuntar a
ciertos grupos demográficos, tipos de establecimientos o edificios, como se describe en el Cap. 17

La muestra de HU está diseñada para superponerse entre períodos de tiempo. Los datos se recopilan
mensualmente. Una HU está en la muestra durante cuatro meses, está fuera de la muestra durante los
siguientes ocho meses y luego vuelve a estar en la muestra durante otros cuatro meses. Las HU se rotan de
tal manera que 3/4 de las HU se superponen entre meses consecutivos; La mitad de las HU se superponen
entre muestras con 12 meses de diferencia. La superposición mensual ayuda a estimar el cambio mensual,
mientras que la superposición entre muestras separadas por 12 meses reduce la varianza para una estimación
del cambio anual. Muchos países utilizan alguna forma de muestreo superpuesto en sus encuestas de
población activa. El patrón 4-8-4 en el CPS es solo una de muchas posibilidades. Canadá, por ejemplo,
retiene las HU durante seis meses y
Machine Translated by Google

270 Muestreo de 10 áreas

luego los gira hacia afuera. Esto lleva a que no haya superposición entre las muestras.
12 meses de diferencia.
Las unidades de vivienda y las USU se seleccionan para que se auto ponderen dentro de un estado.
Es decir, cada HU tiene la misma probabilidad de selección. Por lo tanto, no hay un muestreo diferencial
dentro de los dominios (p. ej., género) definidos dentro de cada estado.
Aunque se publican estimaciones para dominios, el diseño de la muestra no
controlar directamente los tamaños de muestra del dominio.

10.4.2 Encuesta Nacional sobre Consumo de Drogas y Salud

Otra gran encuesta de hogares que tiene algunas características diferentes de la CPS
es la Encuesta Nacional sobre Uso de Drogas y Salud (NSDUH) en los EE. UU. patrocinada por la
Administración de Servicios de Salud Mental y Abuso de Sustancias
y recopilados por RTI International.7 Una descripción detallada del diseño de la muestra de 2006 se
encuentra en Morton et al. (2006). La muestra se selecciona en cuatro etapas.
y publica estimaciones para una variedad de dominios demográficos. El objetivo
población es la población civil no institucionalizada de 12 años o más
mayores que residen dentro de los 50 estados y el Distrito de Columbia. La encuesta también cubre a los
residentes de alojamientos grupales no institucionales (p. ej., albergues para
personas sin hogar, casas de huéspedes, dormitorios y hogares grupales) y civiles
residentes en bases militares.
El tamaño total de la muestra objetivo de 67 500 personas se distribuye equitativamente entre
tres grupos de edad: personas de 12 a 17 años, de 18 a 25 años y de 26 años o más. El gran tamaño de
la muestra permite que la encuesta obtenga suficientes casos en otros grupos demográficos importantes.
grupos para hacer estimaciones nacionales separadas sin sobremuestrearlos. También se hacen
estimaciones separadas para cada estado.
En la primera etapa del diseño, cada estado se maneja por separado y, por lo tanto,
puede ser considerado un estrato. Las UPM en cada estado fueron secciones censales.
Las UPM se estratificaron dentro de cada estado. Muestreo estatal (SS)
se formaron las regiones. Con base en una medida de tamaño compuesto, los estados se dividieron
geográficamente en regiones que tenían aproximadamente la misma población total.
El uso de una medida compuesta de tamaño (MOS) es una técnica interesante que
cubriremos con más profundidad en la Secc. 10.5. El efecto de usar el compuesto.
MOS fue que se podrían formar regiones de modo que cada área produjera, como expectativa,
aproximadamente el mismo número de entrevistas durante cada período de recopilación de datos.
Los estados más pequeños se dividieron en 12 regiones SS, mientras que los ocho más grandes
Los estados se dividieron en 48 regiones SS. Se formaron un total de 900 regiones SS.
en todos los estados.
En algunos casos, se combinaron pequeñas secciones censales para obtener un mínimo
número de unidades de vivienda (UD). En las zonas urbanas el mínimo fue de 150 UD;
en las zonas rurales fue de 100. Dentro de cada región de la SS se seleccionaron 48 UPM

7 http://oas.samhsa.gov/nsduh.htm.
Machine Translated by Google

10.4 Ejemplos de muestras de probabilidad de área 271

con probabilidad proporcional al MOS compuesto, dando un total de 43,200 PSU. Por lo
tanto, alrededor de dos tercios de los distritos en los EE. UU. están en la muestra.
Las 48 SSU en cada estado se asignaron al azar a seis grupos de rotación de cuatro para
usar como SSU de muestra primaria, mientras que las otras 24 eran una muestra de reserva
que se usaría si fuera necesario para compensar la falta de respuesta. Las 24 SSU
primarias se asignaron a años y trimestres calendario utilizando un plan de rotación simple
que se muestra en la Fig. 10.3. Las submuestras 1 y 2 se asignaron al año 1 para la
recopilación de datos. La submuestra 1 se rotó en el año 2; se retuvo la submuestra 2 y se
rotó la submuestra 3 para el año 2; y así. Otras encuestas como la CPS usan planes de
rotación más elaborados, pero la Fig. 10.3 transmite la idea principal detrás de la rotación.
Mirando hacia abajo en una columna para un año determinado, la combinación de
submuestras en todos los estados para ese año debe representar a la nación. Por ejemplo,
en el año 4, se pueden hacer estimaciones para cada estado a partir de las submuestras 4
y 5, y se puede usar la combinación de las submuestras 4 y 5 en todos los estados para
estimar las estadísticas nacionales.
Las SSU (o segmentos) en el diseño son grupos de bloques agregados para cumplir
con los mismos tamaños mínimos de UD que para las PSU, es decir, 150 UD en áreas
urbanas y 100 en áreas rurales. Se seleccionó una SSU con pps en cada PSU de muestra.
El MOS para cada SSU es un MOS compuesto basado en datos del censo de 2000
ajustados a datos más recientes de un proveedor comercial.
La tercera etapa consiste en seleccionar una muestra de igual probabilidad de DU
dentro de cada SSU de muestra. En la mayoría de las UME, el personal de campo enumeró
todas las DU y se seleccionó una muestra de la lista. Como se indica en la Secc. 10.1, un
tratado contiene un objetivo de unas 4000 personas, pero puede tener hasta 8000. Para
extensiones grandes donde no era económico enumerar todos los DU, se hizo un conteo
aproximado de DU en las calles de una extensión. El personal de la oficina central luego
dividió la SSU en dos o más partes y se seleccionó una para la lista completa. La cuarta
etapa de selección fue de personas dentro de una muestra de UH. El entrevistador
construyó una lista de todas las personas elegibles en la HU, y las personas fueron
seleccionadas con diferentes tasas según su edad (12–17, 18–25 y 26 o más). Las tasas
de muestreo fueron preestablecidas por grupo de edad y estado. En un hogar determinado,
se seleccionaron 0, 1 o 2 personas utilizando tasas de muestreo predefinidas para cinco
grupos de edad dentro del estado establecido durante la fase de diseño del proyecto. La
información de la lista se ingresó directamente en un instrumento de selección electrónico,
que implementó automáticamente la cuarta etapa de selección basada en las tasas
estatales y de grupos de edad.

10.4.3 Panel Arbeitsmarkt und Soziale Sicherung

El Panel Arbeitsmarkt und soziale Sicherung (PASS) es una encuesta de población activa
en Alemania realizada por el Instituto para la Investigación del Empleo, un organismo federal
Machine Translated by Google

272 Muestreo de 10 áreas

Higo. 10.3: Plan de rotación de las UCE en la Encuesta Nacional sobre Consumo de Drogas y Salud.

agencia.8 Sus objetivos son evaluar los efectos de varios programas de desempleo y asistencia
social. Los datos también permiten el examen de preguntas como (1) qué factores ayudan a
las personas a pasar de estar desempleados a tener un trabajo, (2) qué caminos llevan a las
personas al desempleo y (3) cómo la situación personal (por ejemplo, salud, finanzas) ,
integración en la sociedad) cambio para las personas que reciben tales beneficios.

PASS es una encuesta longitudinal de doble marco que proporciona un buen ejemplo del
uso de registros administrativos que están disponibles para el muestreo en algunos países
europeos. PASS combina una muestra de probabilidad de área con una muestra de
beneficiarios de beneficios de una base de datos administrativa. Se selecciona un total de 300
áreas de código postal (PSU) con probabilidad proporcional a la población.
Dentro de cada PSU de muestra, se seleccionan dos muestras paralelas: una de beneficiarios
de asistencia de una lista de registros administrativos y una segunda utilizando una lista de
direcciones que cubre a todas las personas. En cada PSU, una base de datos comercial de
direcciones proporciona el marco para la segunda muestra. La base de datos comercial es
comparable al Archivo de Secuencia de Entrega de EE. UU. mencionado más adelante en la Secc. 10.7.
Se utilizan varias fuentes para construir indicadores a nivel de edificios para el estado de
beneficiario, la movilidad residencial, los grupos de edad predominantes y el tipo de edificio.
Se agregan al menos cinco hogares para definir un edificio. Estos indicadores se añaden luego
al marco de direcciones.
De la lista de perceptores en cada UPM, se selecciona una muestra y se recopila
información para todo el hogar al que pertenece el perceptor. Del marco de direcciones se
selecciona una muestra, se determina el número de hogares en la dirección y se muestrea uno
de los hogares. Luego se recopila la información de todo el hogar.

Al ser una muestra de marco dual y longitudinal, PASS tiene algunos problemas de
ponderación especiales que no abordaremos aquí. Un problema es que el marco de la lista de
direcciones incluye los lugares donde viven los destinatarios. Por lo tanto, se debe tomar una
decisión sobre si se debe permitir que un destinatario ingrese la muestra a través de ambas
fuentes o solo a través de la muestra del destinatario. Además, PASS rastrea a las personas a
lo largo del tiempo para determinar cuánto tiempo permanecen en los programas de asistencia
y qué puede hacer que las personas se trasladen a uno de los programas. El seguimiento conduce a

8
http://fdz.iab.de/de/FDZ Datos individuales/PASS.aspx.
Machine Translated by Google

10.5 MOS compuesto para áreas 273

algunos problemas operativos difíciles ya que el 15 % o más de las personas pueden mudar
sus residencias en un año típico.

10.5 MOS compuesto para áreas

Como señalamos en la Secc. 10.4.2, la NSDUH utiliza un MOS compuesto tanto para PSU
como para SSU. Los propósitos del MOS compuesto son obtener:

1. Muestras autoponderadas de cada uno de varios dominios 2.


Igual carga de trabajo en cada UPM, es decir, el mismo tamaño de muestra total en cada
UPM (en todos los dominios)

Cuando se van a muestrear todos los elementos a la misma tasa, el cálculo para determinar
las tasas de muestreo dentro de la UPM es simple. Suponga que la tasa general deseada es
f y la probabilidad de selección de PSU i es ÿi. Para obtener una muestra autoponderada, la
tasa dentro de la UPM debe establecerse de modo que ÿiÿk|i = f donde k denota cualquier
elemento en la UPM. Esto implica que ÿk |i = f/ÿi. Por lo tanto, la frecuencia de muestreo
dentro de la UPM se ajusta según la probabilidad de selección de la UPM, pero el ajuste no
depende de la pertenencia al dominio.
La técnica de MOS compuesto refina esto para permitir que se seleccionen muestras
autoponderadas dentro de diferentes dominios mientras se obtiene el mismo tamaño de
muestra dentro de cada PSU en todos los dominios.

10.5.1 Diseño de la muestra desde cero

La presentación del método aquí se simplifica un poco en comparación con lo que se


implementa en NSDUH y se basa en Folsom et al. (1987). Necesitamos la siguiente notación:

Nd = Número de unidades elementales (es decir, la unidad de análisis más pequeña) en


un dominio único d en la población, por ejemplo, el número de personas en una edad
grupo
norte =
D
re = 1 Nd, el número total de unidades elementales en la población nd =
Tamaño de muestra deseado en el dominio d (valores basados en precisión, potencia,
y consideraciones presupuestarias)
norte =
D
d=1 nd, tamaño total de la muestra en todos los
dominios fd = nd/Nd, tasa de muestreo deseada para unidades en el
dominio d Ni (d) = Número de unidades elementales en el dominio d en PSU i en la
población i ÿ U , el universo de UPM n¯ = Tamaño de muestra deseado en cada UPM
en todos los dominios. Este es el requisito de igual carga de trabajo m = Número de PSU
de muestra
Machine Translated by Google

274 Muestreo de 10 áreas

Tenga en cuenta que los dominios deben dividir la población objetivo en grupos
grupos exclusivos. Los grupos de edad utilizados en el tamaño compuesto de NSDUH de 2005
las medidas fueron de 12 a 17, de 18 a 25, de 26 a 34, de 35 a 49 y de 50 años o más, donde el
las personas dentro de las dos categorías más jóvenes fueron sobremuestreadas. el compuesto
MOS para PSU i se define como

Si = fdNi (d). (10.1)


re=1

Este es el tamaño de muestra esperado del dominio d en la PSU si se desea


Se utilizó la tasa de muestreo general para ese dominio. Suponga que las UPM se muestrean con
probabilidades proporcionales a Si , de modo que Pr (i ÿ s) = ÿi = mSi/S+
donde S+ = Si, la suma
iÿU de los MOS en todas las PSU. El MOS total
se puede escribir como

D D
S+ = iÿU re=1 fdNi (d) = re=1 f.d. iÿU
ni (d).

Es decir, la suma de los MOS es igual al tamaño de muestra total deseado. A continuación, establezca
el tamaño de muestra deseado en PSU i y dominio d para ser

ni (d)
nÿi (d)=¯nfd . (10.2)
Si

Se requiere que la frecuencia de muestreo dentro de la UPM para las unidades en el dominio d sea
nÿ (d) =
Es
norte

ÿk|i (d) = fd. Por lo tanto, la tasa dentro de la UPM es una modificación de
ni(d) Si
la tasa global. Esto es posible siempre que fd ÿ Si/¯n para todas las fuentes de alimentación. Comprobación
si alguna PSU viola este requisito es un paso importante en la calidad
control (consulte el Capítulo 18 para obtener más detalles sobre los controles de calidad).
A continuación, podemos comprobar la carga de trabajo. Usando el hecho de que Si = d fdNi (d),
el número total esperado de unidades de muestra en la UPM i es

norte

nÿ (d) = d fdNi (d).


identificación
Si

Es decir, los tamaños de muestra de dominio dentro de la PSU se suman a la carga de trabajo deseada
en cada fuente de alimentación. La muestra para un dominio también es autoponderada en cada dominio.
Suponiendo que las UPM se seleccionan pp (Si), la probabilidad de selección general para
una unidad k en el dominio d es

Si nÿ (d) Si
norte
Es
= metro
ÿiÿk|i (d) = metro fd = fd,
S+ ni (d) S+ Si

donde usamos el hecho de que mn¯ = n = S+.

Ejemplo 10.1 (Medidas compuestas de tamaño). Supongamos que el marco muestral tiene
10 fuentes de alimentación y que hay dos dominios. La tabla 10.1 enumera la población
Machine Translated by Google

10.5 MOS compuesto para áreas 275

recuentos de unidades por PSU y dominio. Queremos muestrear cuatro fuentes de alimentación y 45
unidades por muestra PSU. Las tasas de muestreo de dominio deseadas y los tamaños de muestra
se dan en la Tabla 10.2.

Tabla 10.1: Conteos de población y MOS compuestos para el Ejemplo 10.1.

ni (d) Número total Compuesto sonda de fuente de alimentación Probabilidad dentro de la


de unidades en MOS capacidad fuente de alimentación, ÿk|i (d)
PSU Dominio d=1 fuente de alimentación Dominio
re=2 Si Pi re=1 re=2
Una 50 50 100 17,5 0,389 0,643 0.257
2 50 30 80 15,5 0,344 0,726 0.290
3 50 90 120 21,5 0,478 0,523 0.209
4 50 40 90 16.5 0.367 0.682 0.273
5 50 25 75 15.0 0,333 0.750 0.300
6 70 40 110 21.5 0,478 0,523 0.209
7 50 80 130 20,5 0,456 0,549 0.220
8 50 65 115 19,0 0,422 0,592 0.237
9 50 30 80 15,5 0,344 0,726 0.290
10 50 50 100 17,5 0,389 0,643 0.257

Totales 520 500 1,000 180

Tabla 10.2: Tasas de muestreo y tamaños de muestra deseados en el Ejemplo 10.1.

Dominio tasa de muestreo, Dominio deseado


f.d. tamaño de la muestra, da
Una 0.25 130
2 0.10 50
Total 180

En un pequeño ejemplo como este, una hoja de cálculo es conveniente para hacer los cálculos. Por
ejemplo, el tamaño de muestra total esperado en el dominio 1 es 0.25*520 =
130. De (10.1), el MOS compuesto para PSU 1 es 50*0.25 + 50*0.10 = 17.5;
para PSU 6 es 70*0,25 + 40*0,10 = 21,5. La probabilidad de selección para PSU
1 es 4*17,5/180 = 0,389. La tasa de muestreo dentro de la PSU para unidades en la PSU 1
y el dominio 1 es 45*0.25/17.5 = 0.643 usando ÿk |i (d)=¯nfd/Si. Lo esperado
el tamaño de la muestra en la PSU 1 es 50*0,643 + 50*0,257 = 32,1 + 12,9 = 45, que es
la carga de trabajo deseada. Aunque la carga de trabajo a nivel de PSU es un número entero, tenga en cuenta
que los tamaños de muestra esperados en cada dominio no lo son. Por lo tanto, es importante
muestrear las unidades de dominio a las tasas especificadas, no muestreando un
número fijo de unidades basado en tamaños de muestra redondeados. También podemos comprobar
que la muestra para cada dominio será autoponderada. Tomando PSU 8 como un
Machine Translated by Google

276 Muestreo de 10 áreas

ilustración, la probabilidad de selección de unidades en el dominio 1 es 0.422*0.592 =


0,25; para el dominio 2 tenemos 0,422*0,237 = 0,10.

Más de dos etapas de muestreo

Los cálculos anteriores son para una muestra de dos etapas: PSU seguidas de unidades
dentro de dominios. Si interponemos otras etapas de muestreo entre UPM y
unidades elementales, las probabilidades de selección siguen funcionando. El requisito
clave es que tanto las UPM como las subáreas deben seleccionarse con probabilidades
proporcional al MOS compuesto. Suponga que el diseño utiliza fuentes de alimentación,
SSUs, y elementos como etapas de selección. Definir:

Qij (d) = Número de elementos en PSU i, SSU j que están en el dominio d


Qi+ (d) = Número de elementos en PSU i que están en el dominio d
Sij = d fdQij (d) para ser el MOS compuesto para SSU j en PSU i
Ui = Universo de SSU dentro de la PSU i
m = Número de PSU de muestra
n = Número de SSU de muestra en cada PSU
¯¯
q = Número promedio de elementos seleccionados y entrevistados por SSU (es decir,
inflado por la pérdida de muestra asociada con la inelegibilidad y la falta de respuesta)

Suponiendo que tanto las PSU como las SSU se muestrean pps utilizando compos Si+
Sij =
ite MOS, la probabilidad de selección de SSU ij es ÿiÿj|i = m norte
S++ Si+ Sij

S++ donde Si+ = Sij = Si+jÿUi


= mn d fdQi+ (d) y S++ = iÿU

d fdQ++ (d). Tenga en cuenta también que S++ = mnq ¯¯, el tamaño total de la muestra. A continuación, establezca
el número esperado para ser muestreado del dominio d en PSU/SSU ij para ser
qÿij (d) = qf¯¯ dQij (d) /Sij y la tasa de muestreo dentro de PSU/SSU ij para ser
ÿk|ij (d) = qf¯¯ d/Sij . La probabilidad de selección general es entonces
¯¯ ¯¯
Sij q mnq
ÿiÿj|i ÿk |ij (d) = mn fd = fd = fd
S++ Sij S++

de modo que se obtenga la tasa global deseada. Las cargas de trabajo por SSU y PSU
son
¯¯ Una
¯¯
qÿyo (d) = q fdQij (d) = q
d Sij d

y
¯¯ Una
¯¯
qÿyo (d) = q fdQij (d) = nq.
djÿsi jÿsi
Sij d

Es decir, la carga de trabajo es la misma en cada SSU y PSU. Tenga en cuenta que el
el recuento de población de elementos en SSU ij no tiene que ser distinto de cero en cada
Machine Translated by Google

10.5 MOS compuesto para áreas 277

dominio para que esto sea cierto. El SSU MOS Sij puede basarse solo en el subconjunto
de dominios que tienen elementos en el SSU.
Como en el caso del muestreo en dos etapas, los controles de calidad son importantes.
Por ejemplo, determine si:
1. qÿij (d) ÿ Qij (d) para cada SSU y dominio. Dado que qÿ yo (d) = qf¯¯ dQij (d)/Sij ,
esto es equivalente a fd ÿ Sij/q ¯¯. Tenga en cuenta que si Qij (d) = 0, yo (d)=0
entonces nÿ para que no se haga un intento de muestrear algo de la nada.
Pero, el álgebra bien puede resultar en un intento de muestrear más de un
dominio
¯¯
en una SSU de lo que la población puede soportar. 2. q 3. nq ÿ Qi+ en
cada ¯¯ÿPSU.
Qij en4.cada
ÿi, ÿj|i
SSU.y ÿk |ij son menores o iguales a 1.

Si se viola alguna de estas condiciones, las PSU o SSU pequeñas se pueden


combinar con otras.

10.5.2 Uso del MOS compuesto con una muestra de fuente de


alimentación existente

Algunas organizaciones de encuestas seleccionan una muestra de PSU de propósito


general una vez por década utilizando nueva información del censo y usan esa muestra
durante diez años (o más). Este “enfoque de selección cada x año” era común en el pasado
porque diseñar y seleccionar una muestra nacional de PSU era difícil y requería mucho
tiempo. Ahora, algunas organizaciones están configuradas para hacer esto de manera más eficiente.
Cuando se utiliza una muestra de UPM durante varios años, es probable que las UPM
no se seleccionen con el MOS compuesto apropiado para una nueva encuesta. Las
SSU se pueden seleccionar con el MOS compuesto que refleja las tasas de
submuestreo del dominio deseadas. En esta situación, solo se puede cumplir uno de estos objetivos:

1. Seleccione una muestra autoponderada para unidades en cada dominio, pero tenga
diferentes tasas de muestreo para los dominios.
2. Obtener una carga de trabajo constante en cada fuente de alimentación.

Suponga que el diseño de la muestra utiliza UPM, UME y elementos con UME como
etapas del muestreo. La notación aquí es la misma que la anterior. también usaremos
Uij (d) = el universo de elementos en el dominio d en SSU ij.
Para que la muestra sea autoponderada necesitamos ÿiÿj|i ÿk |ij (d) = fd, lo que
implica que ÿk |ij (d) = fd ÿiÿj|i . Esta tasa de muestreo condicional se puede utilizar
independientemente de cómo se seleccionen las SSU siempre que fd ÿ ÿiÿj|i para
cada PSU y segmento.
El tamaño de muestra esperado en PSU i, es decir, la carga de trabajo, es

fd .
djÿUi ÿj|ikÿUij (d) ÿk |ij (d) = djÿUi ÿj|ikÿUij (d) ÿiÿj|i
Machine Translated by Google

278 Muestreo de 10 áreas

Para una carga de trabajo igual en cada PSU, necesitamos que sea igual a mn¯. El
tamaño de muestra esperado Si+/ÿi depende de la PSU i y, en general, no se puede convertir
en una constante. Insecto. 10.5.1, las matemáticas resultaron para tener la misma carga de
trabajo en cada PSU cuando las PSU se seleccionaron con pp (Si) porque ÿi = mSi/S+ y Si/
ÿi = S+/m, que es una constante. Sin embargo, la probabilidad de selección de la PSU no
tiene esta forma especial en todas las muestras.
La variación en la carga de trabajo dependerá de cuánto varía Si+/ÿi . En la práctica, es
deseable tener múltiplos enteros de alguna carga de trabajo mínima por PSU. Los tamaños
de muestra de la PSU pueden configurarse para tener suficiente carga de trabajo para 1, 2 o
3 entrevistadores. Por lo general, la carga de trabajo se configura para que sea lo
suficientemente grande para al menos dos entrevistadores. Tener solo un entrevistador es
arriesgado porque si ese entrevistador renuncia o no puede trabajar por alguna otra razón
(enfermedad, razones familiares, etc.), no hay respaldo. Se tendría que contratar y capacitar
a una nueva persona de reemplazo. Alternativamente, un entrevistador de otra área podría
viajar a la UPM para recopilar datos.

Dos formas de implementar el diseño

Suponga que el MOS para SSU j en PSU i se calcula como S ij =


re
fdNij (d) /ÿi. Este es el tamaño de muestra esperado si los elementos en el dominio
re = 1

d, SSU i se muestrearon directamente a la tasa fd/ÿi. La suma de estos MOS es

= S
Si + jÿUi ij .

Esta es la carga de trabajo esperada en la PSU i cuando los elementos se muestrean a una tasa fd/
ÿi. Si las SSU dentro de la PSU i se seleccionan con probabilidades proporcionales a S, entonces ÿj|
i = mS La Esto
opción
es 1autoponderado
es establecer laSi
yo ya
tasa
+. de
que muestreo
ÿiÿj|i
constante
ÿk |ij (d) en
porqueSSUfdij ÿiÿj|i
= ÿiÿj|i , ij para
= fd.que
La sea ÿkde
carga |ij (d) = fd ÿiÿj|i
trabajo no es.

ÿj|yo ÿk|ij (d) = Si+/ÿi


djÿUi kÿUij (d)

como se muestra arriba.

Una segunda opción es establecer el tamaño de la muestra en SSU ij para que sea

nf¯ nf¯
nÿij d (d) = ÿiS ij d Nij (d) = Nij (d).
Sij

Suponiendo que se selecciona una muestra de igual probabilidad de los elementos en SSU
ij en el dominio d, la probabilidad de selección es entonces

nÿ (d) nf¯ nf¯d _


ij = = .
ÿk|ij (d) =
Nij (d) d ÿiSij Sij
Machine Translated by Google

10.5 MOS compuesto para áreas 279

Para que esto sea factible, debemos tener fd ÿ Sij/¯n. La muestra no logra la tasa de muestreo
general deseada en cada dominio porque

mS nf¯
ij =
Minnesota

ÿiÿj|i ÿk |ij (d) = ÿi fd = fd. (10.3)


Si + d ÿiSij Si +

Tenga en cuenta que la tasa de muestreo para las unidades en el dominio d es la misma en
cada SSU en la PSU i ya que (10.3) no depende de j. El problema es que S. =
yo+
re
fdNi (d) ÿi no es una constante en cada PSU. Sin embargo, la carga de trabajo es
re = 1

constante porque

mS ij
nf¯ .
djÿUi ÿj|ikÿUij (d) ÿk |ij (d) = djÿUi Si + d kÿUij (d) ÿiS ij

Para una muestra de PSU dada, hacer cálculos usando las dos opciones le permitirá sopesar
las alternativas.

Ejemplo 10.2 (Submuestreo con una muestra de PSU existente: obtención de una muestra
autoponderada). La Tabla 10.3 muestra los conteos y las medidas compuestas de tamaño
en dos UPM de una muestra de UPM más grande. Se deben seleccionar dos SSU de cada
PSU. La primera PSU contiene cuatro SSU; el segundo tiene cinco SSU. Las tasas deseadas
para los dominios 1 y 2 son 0,015 y 0,035. El compuesto SSU fdNij (d) /ÿi. Por ejemplo, el
re
=
PSU 1 es (5*0,015 + 90*0,035)/0,1117
para PSUre=1, =28,9.
MOS
1SSU El
3.para
muestreo
MOS
La tasa dede
se SSU
calcula
concomo
muestreo ij pp SSda
dentroijde
SSU
ÿj|iSSU
=3
0.0.643
en
para
el dominio d es ÿk |ij (d) = fd ÿiÿj|i . Para PSU 1, SSU 3, esto es 0,015/0,1117/0,643 = 0,209
para elÿiÿj|i
dominio
En PSU
ÿk |ij 1.
(1)Esta
= combinación
SSU produce
1,0,1117*0,643*0,209
3, la probabilidad una
de muestra
selección
= 0,015. autoponderada
Para el de 2 en esaen
los elementos
dominio cada
del
SSU dominio.
dominio
tenemos1 es
0,1117*0,643*0,487 = 0,035. Sin embargo, el tamaño de muestra esperado no es el mismo
en cada UPM. En la PSU 1, la carga de trabajo esperada es 2*44,9=89,8 mientras que en la
PSU 2 es 2*39,4=78,8, lo que el lector puede verificar. Estos son diferentes de la carga de
trabajo esperada por fuente de alimentación según las tasas de dominio generales: (0,15*4000
+ 0,035*2000)/2 = 65.

Ejemplo 10.3 (Submuestreo con una muestra de PSU existente: obtención de cargas de
trabajo iguales). La tabla 10.4 repite los conteos y las medidas compuestas de tamaño del
ejemplo 10.2. Los MOS compuestos de SSU son los mismos que en el ejemplo anterior. Las
tasas deseadas para los dominios 1 y 2 son de nuevo 0,015 y 0,035. El tamaño de muestra
deseado en cada SSU es n¯ = 65/2 = 32,5. El muestreo de dos SSU con pp S da ÿj|i = 0.0.618
para PSU 1, SSU 3, como en el ejemplo 10.2. La frecuencia de yo muestreo
para eldentro de la
dominio SSU
d es ÿk |ij
(d)=¯nfd ÿiS ij . Para PSU 1, SSU 3, esto es 32,5*0,015/0,1117/28,9 = 0,151 para el dominio
1. Para el dominio 2 en PSU 1,
Población
total
4.000
2.000
6.000 total fuente
de
alimentación total fuente
de
alimentación fuente
de
alimentación
ÿi
(incluye
todas
las
fuentes
de
alimentación) 2 2 2 2 2 Una Una Una Una
0.1567
5 0.1567
4 0.1567
3 0.1567
2 0.1567
1 0.1117
4 0.1117
3 0.1117
2 0.1117
1 probabilidad
de
fuente
alimentación
Tabla
10.3:
Conteos
de
población
yMOS
compuestos
para
el
Ejemplo
10.2.
SSU
Dominio
Qij
S
60 45 20 40 40 35 5 25 20 re=1
re=2 Qij
(d) Tamaño
de
la
población
del
dominio
20
80
10.2 30
75 35
55 100
140
26,2 80 35
70
15,7 90
95 45
70
17,5 80
470
78.8 120
21,7 335
89.8 100
27,8 contar Total
11.0 9.7 28,9 MOS compensación
yo
0.259 0.279 0.247 0.664 0.551 0.349 0.643 0.389 0.618 ÿj|
yo probabilidad
SSU
0,370
0,862 0,343
0,800
15,4
24,0
39,4 0,388
0,905 0,144
0,336
5,8
33,6 0,174
0,406
7,0
32,5 0,385
0,898
13,5
31,4
44,9 0,209
0,487
1,0
43,8 0,345
0,806
8,6
36,3 0,217
0,507
4,3
40,5 d=1
d=2
Total Dominio ÿk|
ij probabilidad Dentro
de
SSU
22,2
17,2 7,8
31,7
39,4 Dominio Fuente
de
alimentación,
SSU tamaño
dentro Muestra
esperada
39.4 39.4 39.4 44,9 44,9 44,9
Muestreo de 10 áreas 280
Machine Translated by Google
total
4.000
2.000
6.000 total fuente
de
alimentación total fuente
de
alimentación fuente
de
alimentación
ÿi de
SSU
probabilidad Dentro
(incluye
todas
las
fuentes
de
alimentación) Población 2 2 2 2 2 Una Una Una Una
0.1567
5 0.1567
4 0.1567
3 0.1567
2 0.1567
1 0.1117
4 0.1117
3 0.1117
2 0.1117
1 probabilidad
de
fuente
alimentación
SSU
Dominio
Qij
S SSU tamaño
dentro
de
la
fuente
de
alimentación,
Muestra
esperada
60 45 20 40 40 35 5 25
45
70
17,5 20 re=1
re=2 Qij
(d) Talla población Dominio
Tabla
10.4:
Conteos
de
población
yMOS
compuestos
para
el
Ejemplo
10.3.
20
80
10.2 30 35 100
140
26,2 80 35
70
15,7 90 80
470
78.8 75 55 120
21,7 335
89.8 95 100
27,8 contar Total
11.0 9.7 28,9 MOS compensación
yo
0.259 0.279 0.247 0.664 0.551 0.349 0.643 0.389 0.618 ÿj|
yo probabilidad
SSU
0,305
0,711 0,283
0,659 0,320
0,746 0,119
0,277 0,143
0,335 0,279
0,650 0,151
0,353 0,250
0,583 0,157
0,367 re=1
re=2 Dominio ÿk|
ij de
SSU
probabilidad Dentro
18,3
14,2 12,7
19,8 6,4
26,1 4,8
27,7
32,5 5,7
26,8
32,5 9,8
22,8
32,5 0,8
31,7
32,5 6,3
26,3
32,5 3,1
29,4
32,5 d=1
d=2
Total Dominio Fuente
de
alimentación,
SSU tamaño
dentro Muestra
esperada
32.5 32.5 32.5
0.012
0.029 0.012
0.029 0.012
0.029 0.012
0.029 0.012
0.029 0.011
0.025 0.011
0.025 0.011
0.025 0.011
0.025 Dominio Oferta
general
problema
281 10.5 MOS compuesto para áreas
Machine Translated by Google
Machine Translated by Google

282 Muestreo de 10 áreas

SSU3, la tasa es 32,5*0,035/0,1117/28,9 = 0,353. Esta combinación produce la misma


carga de trabajo en cada SSU. Por ejemplo, en PSU 1, SSU 3, el tamaño de muestra
esperado es 5*0,151 + 90*0,353 = 32,5. Por otro lado, la muestra no es autoponderada. Las
probabilidades de selección para los dominios 1 y 2 son 0,011 y 0,025 en la PSU 1, pero
son 0,012 y 0,029 en la PSU 2. En este ejemplo, la muestra no está lejos de la
autoponderación, pero esto no siempre es cierto.

10.6 Efectos del cambio demográfico: el nuevo


Problema de construcción

Las SSU (BG, tramos, etc.) para muestras de área y diseños de etapas múltiples en general
casi siempre se seleccionan con probabilidades proporcionales a algunos MOS.
Ejemplos de MOS son:

• Población total •
Hogares totales • Una
combinación ponderada de recuentos de población de dominio (p. ej., el compuesto
MOS discutido en las secciones anteriores)

En términos generales, cuanto mayor sea el MOS relativo de un área, mayor será su
probabilidad de selección en la mayoría de los diseños. Si estos se basan en datos del
censo decenal, cuanto más lejos esté la fecha de selección de la muestra del censo, más
desactualizados se vuelven estos conteos. La Tabla 10.5 muestra las tasas de crecimiento
de la población y las unidades de vivienda entre los censos de 1960 a 2000. La población
del país aumentó en alrededor de cien millones durante este período. Tenga en cuenta que
el crecimiento de las unidades de vivienda (HU), que generalmente se muestrean en alguna
etapa de una encuesta de hogares, no es igual al crecimiento de la población. Las décadas
de 1960 y 1980 vieron un aumento relativamente grande en las HU en comparación con la
población. Como ilustra la Tabla 10.6 , puede haber mucha variación regional en las tasas
de crecimiento. Nevada y Arizona son destinos populares para jubilados.
Durante el período 1990-2000, esto condujo a un auge en la construcción con la construcción
de muchas unidades de vivienda nuevas. Entre 2000 y 2010, el crecimiento continuó en los
mismos estados. Otras áreas, como el Distrito de Columbia, tuvieron un bajo crecimiento o
perdieron población entre 1990 y 2000, pero volvieron a crecer entre 2000 y 2010.

Las áreas pequeñas pueden verse especialmente afectadas por los cambios de
población entre censos. Algunos MOS serán demasiado grandes (debido a demoliciones,
vacantes y desastres naturales); algunos serán demasiado pequeños debido a la nueva
construcción. Cualquiera de estos puede conducir a algunas ineficiencias graves en un
diseño de muestra. Por ejemplo, en 2005, un huracán destruyó gran parte de Nueva Orleans
en la costa del Golfo de México en el sur de los Estados Unidos. Barrios residenciales
enteros fueron destruidos y no se reconstruyeron durante años. A partir de 2011, algunos barrios todavía es
Machine Translated by Google

10.6 Efectos del cambio demográfico: el problema de la nueva construcción 283

Tabla 10.5: Cambio en la población de EE. UU. entre censos decenales.

Población Unidades habitacionales

Año Total Cambio porcentual Total cambio porcentual


desde el último censo del último censo
1960 179,323,175 58,326,357 18.5
68,704,315 203,302,031 226,542,199 26.4
1970 248,709,873 102,263,67813.4
281,421,906 115,904,641
88,410,627 17.8
1980 11.4
308,745,538 131111 . (1999) 28.7
1990 9.8 15.7
2000 13.2 13.3
2010 9.7 13.6

Cuadro 10.6: Cambio porcentual en la población y unidades de vivienda, 1990–2000, para


estados seleccionados.

Estado Cambio porcentual 1990–2000 Cambio porcentual 2000–2010


Unidades de vivienda de la población Unidades de vivienda de la población
Nevada 66.3 59.5 35.1 41,9
Arizona 40,0 31,9 24.6 29,9
Utah 29.6 28.4 23.8 27.5
Nueva York 5.5 6.3 2.1 5.6
Connecticut 3.6 4.9 4.9 7.4
Distrito de Columbia ÿ5,7 ÿ1,3 5.2 8.0

vacante. El uso de datos del Censo 2000 sobre conteos de población conduciría a extensiones
y BG que se están muestreando y que prácticamente no tienen personas viviendo en ellos. Este
reduciría el tamaño de la muestra y conduciría a un trabajo de campo costoso e improductivo
si se envía personal para intentar entrevistas en áreas desocupadas.
En otros casos, la construcción de nuevas viviendas dará lugar a los recuentos del censo.
siendo demasiado pequeño. En consecuencia, se puede seleccionar una SSU con una menor
probabilidad basada en recuentos de población obsoletos de lo que merece en función de
su tamaño real. Para ilustrar el problema, suponga que el diseño requiere
HU dentro de una SSU de muestra que se seleccionará a razón de 1/4 y el recuento del censo de
HU (el MOS) es 100. El personal de campo llega a la SSU para contar y enumerar todas las HU
contenido dentro del área y descubre que un nuevo complejo de apartamentos ha
construido de manera que el total real de viviendas es de 500. Con la tasa de
1/4, el tamaño de muestra esperado es 25 (= 100×0.25). Si usamos la tarifa planificada,
el tamaño real de la muestra será 125 (= 500 × 0,25). El tamaño de muestra más grande es
probablemente estadísticamente ineficiente porque la correlación intraclase, discutida
en el cap. 9, será alto para al menos algunas variables. También es probable que ni
el presupuesto ni el cronograma pueden tolerar 100 entrevistas adicionales.
Hay varios enfoques para manejar este problema. Una es usar la tasa de muestreo planificada
inicialmente, que tiene las desventajas que se acaban de señalar. Otro
Machine Translated by Google

284 Muestreo de 10 áreas

es reducir la tasa de muestreo para seguir el plan inicial de seleccionar 25 unidades de muestra. En ese
caso, las ponderaciones de cada unidad dentro de la SSU serán 20 en lugar de 4. Esto puede crear una
disparidad indeseable con las ponderaciones de otras SSU, lo que a su vez puede aumentar las varianzas
(véase la Sección 14.4.1). Se pueden usar otras modificaciones del diseño de la muestra que sean
preferibles. La Oficina del Censo publica estimaciones de población actualizadas anualmente para todos
los condados y lugares incorporados.
9 Estos pueden ser de alguna utilidad para actualizar parcialmente los

conteos de población para algunas áreas de subcondados. Pero, dado que los lugares no necesariamente
coinciden con las secciones censales o los grupos de bloques, las estimaciones de población no se
pueden usar para actualizar las medidas de tamaño de las unidades que normalmente se usan para
construir las UME.
Este problema se conoce como el problema de la nueva construcción. El problema es de eficiencia
más que de sesgo. Si no se hace nada especial, el vecindario existente con nueva construcción tendrá
alguna posibilidad de ser seleccionado en una muestra de área y probablemente no se perderá por
completo. Dado que todas las áreas tienen alguna posibilidad de ser seleccionadas, es probable que
algunas construcciones nuevas se seleccionen por casualidad. Pero, en la única muestra que seleccione,
podrían pasarse por alto desarrollos importantes. Esto causa problemas de validez aparente. Como
resultado, se han ideado métodos para evitar omisiones flagrantes. Los que cubrimos aquí se basan en
Bell et al. (1999) y Montaquila et al. (1999).

Opción 1: Ejemplos de permisos de construcción

Los gobiernos locales en los EE. UU. generalmente requieren que se obtengan permisos de construcción
cuando se emprenden nuevos proyectos de construcción. Se requieren permisos para asegurar que la
construcción planeada no viole las ordenanzas de zonificación. La idea general de esta opción es obtener
listas de permisos emitidos por jurisdicciones locales y tomar muestras de esas listas. Una fuente de
información es la encuesta de permisos de construcción (BPS, por sus siglas en inglés) de la Oficina del
Censo, que es una encuesta mensual de las oficinas de permisos de construcción. Se publican
estadísticas agregadas para condados y lugares (p. ej., ciudades y lugares incorporados) sobre el
número de permisos emitidos, HU autorizadas y valoraciones. A partir de estas estadísticas, se puede
hacer un juicio acerca de si las UPM de muestra individuales requerirán muestras especiales de nueva
construcción. Una vez que se ha identificado una jurisdicción que necesita una nueva muestra de
construcción, se deben visitar las oficinas de permisos locales para obtener las direcciones de los nuevos
proyectos de construcción. Se podría compilar una lista completa de permisos para usar como marco de
muestra. Si el número de permisos es grande, una opción es formar nuevos "segmentos" de construcción
definidos por la oficina local de emisión de permisos y el período de tiempo. Por ejemplo, suponga que
el deseo es seleccionar una muestra de permisos para el período de julio de 2003 a junio de 2006 en el
condado de Montgomery,

9
www.census.gov/popest/estimates.html.
Machine Translated by Google

10.6 Efectos del cambio demográfico: el problema de la nueva construcción 285

Maryland (MD). Los segmentos, creados para tener permisos para aproximadamente la misma cantidad
de unidades de vivienda, pueden ser:

• Todos los permisos residenciales emitidos por la oficina de permisos de Gaithersburg, MD, en los
períodos (1) julio de 2003 a junio de 2004, (2) julio de 2004 a junio de 2005 y (3) julio de 2005 a
Junio de 2006 (La oficina de Gaithersburg es el principal emisor de permisos en el condado)

• Todos los permisos emitidos por (4) los otros permisos del condado de Montgomery, MD
oficinas entre julio de 2003 y junio de 2006

Se puede seleccionar una muestra de dos de estos cuatro segmentos con probabilidad proporcional al
número de permisos. Se visitarían las oficinas de permisos locales seleccionadas y se obtendrían listas de
los permisos mismos. Se enumerarían las HU correspondientes a los permisos y se seleccionaría una
submuestra. Las HU de nueva construcción pueden seleccionarse solo del marco del permiso, no de la
muestra del área. Alternativamente, se puede permitir la superposición en las unidades del marco del
permiso y del área; sin embargo, la probabilidad de selección asociada para una unidad en ambas listas
es algo más complicada de calcular. Las implicaciones de estos dos escenarios para la ponderación se
describen a continuación.

Las ventajas de la opción del permiso de construcción incluyen (1) se garantiza la muestra de algunas
construcciones nuevas y (2) se controla la variación no planificada en el tamaño de los segmentos del
área. Las desventajas de esta opción son:

1. Alrededor del 5 % de las nuevas UH se construyen en áreas que no requieren permisos.


2. No se requieren permisos de construcción para la colocación de casas móviles. Por lo general, se
encuentran en parques de casas móviles, que son comunes en algunas áreas, pero inexistentes en
otras.
3. El hecho de que se emita un permiso no significa que alguna vez se haya construido una HU; sin
embargo, solo alrededor del 1 % no están construidos. Por lo tanto, la lista de permisos puede contener
un pequeño número de no elegibles.
4. También puede haber una demora entre el momento en que se emite un permiso y se construye
realmente una HU. En el ejemplo anterior, algunas HU pueden haber sido construidas en el período
de julio de 2003 a junio de 2006 y pueden haber tenido sus permisos emitidos antes de julio de 2003.
Por otro lado, algunos proyectos de construcción asociados con permisos emitidos entre julio de 2003
y junio de 2006 no se construirán. hasta más tarde.
5. Algunas oficinas de permisos no cooperan o tienen registros deficientes. Esto puede hacer que tratar
con ellos sea costoso e improductivo debido al tiempo de personal adicional necesario para acceder a
los registros y procesarlos.
6. Los casos de permisos de muestra no están necesariamente agrupados. Esto puede aumentar los
costos de viaje para las entrevistas.

Un problema operativo es el manejo adecuado de las HU tanto en el área como en la muestra del permiso
para su ponderación. Si se usa la regla de que una HU en el marco del permiso solo puede seleccionarse
de ese marco, entonces se debe determinar si una HU en la muestra del área podría haber sido
seleccionada a través de la muestra del permiso. Si pudiera, entonces la unidad se eliminaría del marco
de muestra del área. Para decidir si una HU de muestra de área estaba en el marco del permiso es
Machine Translated by Google

286 Muestreo de 10 áreas

Es más fácil decirlo que hacerlo. La coincidencia de una dirección para una HU de muestra de área
suele ser propensa a errores debido a las variaciones de direcciones que se pueden usar.
Una alternativa es que el personal de campo adivine si se construyó una HU en el período cubierto
por el marco del permiso. Esto es fácil para viviendas más antiguas, pero no para las más nuevas. A
los encuestados de la muestra del área se les puede preguntar cuándo se construyó su HU. Se excluiría
cualquier HU de muestra de área que se haya informado que se construyó en el período cubierto por el
marco del permiso. El personal de campo no es igualmente preciso al estimar la edad de una unidad
de vivienda, y no todos conocen la fecha de construcción de su HU. Por lo tanto, este método también
es propenso a errores.

Otra posibilidad es permitir que se seleccionen nuevas construcciones en el área o muestras de


permisos. La probabilidad de selección se puede calcular como

Pr (HU seleccionada en muestra de área) + Pr (HU seleccionada en muestra de permiso)


ÿ Pr (HU seleccionado en ambos).

Esto tampoco resuelve el problema sin ambigüedades, ya que aún debemos identificar aquellas
unidades que tuvieron la posibilidad de ser seleccionadas de ambos marcos. Con esta opción, es
inevitable un control menos que perfecto sobre el resultado del trabajo de campo y la ponderación
(aunque se puede decir esto de casi todas las encuestas).

Opción 2: Muestra de Segmentos de Dos Fases

Como debe quedar claro a partir de las consideraciones anteriores, el uso de una muestra de permiso
no es sencillo. Un procedimiento algo más simple es utilizar una variación del muestreo en dos fases.
Cubriremos el tema general del muestreo multifásico en el Cap. 17, pero la aplicación a la nueva
construcción es fácil de entender.
La idea general es seleccionar una muestra extra grande de segmentos de área o SSU y actualizar el
MOS para cada uno. Luego, seleccione una submuestra de la muestra del segmento de la primera fase
utilizando los MOS actualizados. Los pasos más específicos son:

1. Usar los datos del Censo BPS para actualizar los conteos de población en lugares individuales
en una fuente de alimentación.

2. Convierta los conteos de HU del BPS a conteos de personas usando un factor de conversión para
personas por HU, por ejemplo, se podrían usar 2.6 personas por HU.
3. Aplicar el ajuste de población específico del lugar a cada SSU contenida en el lugar. Esto proporciona
un nuevo conjunto de medidas de tamaño para las SSU en la PSU.

4. Seleccione una muestra grande de SSU. Montaquila et al. (1999) sugieren que la muestra de la
primera fase sea de 5 a 10 veces mayor que el número de UME que finalmente se desea. Este es
un múltiplo grande, y el costo de manejar las SSU determinará qué tan grande puede ser la muestra
de SSU de la primera fase.
5. “Contadores”, es decir, enumeradores de campo experimentados (Sec. 10.3.2), luego viajan a las
SSU de la primera fase y cuentan las HU. Las imágenes satelitales pueden ayudar en esto
Machine Translated by Google

10.6 Efectos del cambio demográfico: el problema de la nueva construcción 287

tarea. Estos no tienen que ser perfectos, pero deben identificar áreas donde el conteo de HU ha
cambiado sustancialmente desde la fecha a la que se refieren los marcos MOS.

6. Actualice las medidas de tamaño para cada SSU en función de los recuentos de campo.
7. Seleccione una muestra de segmentos de la segunda fase de todas las unidades de la primera
fase utilizando los nuevos MOS.

Este método tiene varias ventajas. Sí conduce a que la muestra de SSU se seleccione con MOS que
reflejan mejor los tamaños de población actuales en áreas donde ha habido un cambio considerable.
Este enfoque identificará áreas donde ha habido crecimiento y también aquellas donde las
demoliciones eran comunes. Esto puede ser especialmente relevante donde han ocurrido desastres
naturales. Todas las SSU se convierten en SSU de área normal. No hay necesidad de lidiar con las
oficinas de permisos, que pueden ser una molestia costosa en algunas áreas. El tiempo de viaje se
reduce para los entrevistadores ya que todas las HU de la muestra están agrupadas por área SSU.
Se elimina la pregunta de selección sobre si una HU se construyó en la última década (o en algún
otro período de tiempo específico).

Hay, por supuesto, desventajas. La principal es que el conteo de segmentos de la primera fase
es un costo extra, exhibido tanto en tiempo calendario como en fondos del proyecto. Este costo de
campo adicional puede incluso ser mayor que el del muestreo de permisos.
Se deben desarrollar materiales de capacitación para los contadores, se debe realizar la capacitación
y se debe realizar el conteo de campo. Se necesita un sistema de procesamiento de datos para
incorporar la información actualizada sobre las UME.
Finalmente, notamos que se podría usar una combinación de permiso y muestreo de UME en dos
fases—permiso en áreas de alto crecimiento y dos fases (o ninguna) en las de bajo crecimiento.

Opción 3: Técnica de intervalo semiabierto

La última opción que discutimos es una que ha estado en práctica desde la década de 1960.
El procedimiento de "intervalo medio abierto" (HOI) se atribuye a Kish (1965) como un método para
asegurar la cobertura del marco HU en un área geográfica ya seleccionada para una encuesta. Con
el procedimiento HOI, los miembros del personal de campo reciben una lista de marcos para un área
en particular, ordenada en algún orden. Su tarea es identificar cualquier HU que no esté en el marco
(p. ej., nueva construcción) que exista entre la HU de la muestra y la siguiente HU de la lista. Cualquier
unidad recién descubierta se incluye automáticamente en la muestra. El procedimiento HOI, como lo
señalaron muchos investigadores, es efectivo solo cuando los entrevistadores de campo están
ampliamente capacitados y la técnica se implementa correctamente (Eckman 2010; Eckman y
O'Muircheartaigh 2011).
Machine Translated by Google

288 Muestreo de 10 áreas

10.7 Listas de direcciones especiales

El muestreo de hogares por área puede ser poco práctico para encuestas con un presupuesto limitado
o una pequeña ventana de recopilación de datos. Como se señaló anteriormente, el desarrollo
de un marco de HU a través de procedimientos de conteo y listado (ya sea con o sin HOI) puede
tomar meses. Iannacchione et al. (2003) recurrió a un marco de lista de correo residencial como una
forma rentable de seleccionar y encuestar al azar
aproximadamente 15,000 hogares en 2000 para el Dallas Heart Study (Victor
et al., 2004). Se pidió a un subconjunto aleatorio del grupo de encuestados que proporcionara
muestras de sangre y orina al final de la entrevista, de ahí la necesidad de una recolección de datos
en persona. Este proyecto seminal abrió una nueva área de investigación.
ampliamente conocido ahora como muestreo basado en direcciones o simplemente ABS. la investigación a
fecha que incluye la cobertura de este tipo de encuadre se sintetiza en un artículo de
Iannacchione (2011) y se resumen a continuación.
Todos los marcos de muestreo de ABS en los EE. UU. generalmente se derivan de una sola fuente:
el sistema de administración de direcciones (AMS) del servicio postal de EE. UU. (USPS). La
información contenida en este sistema incluye: nombre y número de la calle, número de buzón (si
corresponde), ciudad, estado, código postal de nueve dígitos, secuencia de entrega
número (orden en que un transportista de USPS entrega el correo) e indicadores de vacantes de
direcciones. Solo los vendedores comerciales que soliciten y califiquen para una licencia pueden
acceder a los datos de USPS-AMS a través de un archivo electrónico llamado archivo de secuencia
de entrega computarizada (CDS). Otros archivos de direcciones postales, denominados
productos de datos, están disponibles para los vendedores. Sin embargo, el CDS en combinación con
el archivo CDS No-Stat que contiene, entre otras cosas, las direcciones
de las HU en construcción ha demostrado tener una cobertura casi completa
de la población de los hogares de EE . UU. (Iannacchione, 2011).
Además de las características de USPS-AMS, los proveedores comerciales de muestras de
encuestas venden versiones “mejoradas” del CDS. Las mejoras pueden
incluir números de teléfono fijo, un nombre asociado con la dirección,
Indicador de apellido español, edad estimada del jefe de hogar, así como
como alguna información geocodificada (es decir, latitud y longitud) y del tramo censal.
La información de geocodificación es necesaria para mapear la geografía ABS con la geografía del
censo (Sección 10.1). La calidad de esta información depende de factores como
como la tasa de coincidencia de la dirección y el número de teléfono, la edad del contacto del hogar
información, errores de geocodificación atribuidos al mapeo aproximado de la
dirección postal a una ubicación física, y el número de HU vinculadas a una
dirección postal particular.
En la literatura se señalan al menos cuatro ventajas del CDS. Primero,
los costos de recopilación de datos pueden reducirse utilizando la información del marco de lista
directamente en combinación con una técnica de IOH en lugar de los procedimientos de conteo y
listado o proporcionando información inicial al personal encargado del listado.
Los investigadores han notado problemas con esta primera ventaja. por ejemplo, un
La lista de artículos citados en Iannacchione (2011) apunta a niveles variables de subcobertura en
marcos de ABS para áreas rurales de EE. UU. Además Eckman (2010)
encontró que el personal de campo tiende a ratificar que la lista inicial es correcta en lugar de
Machine Translated by Google

10.7 Listas de direcciones especiales 289

comprobación de omisiones: un problema para ABS, así como cuando se implementa el


procedimiento HOI independientemente del marco de muestreo.
Una segunda ventaja es que se pueden seleccionar muestras no agrupadas dentro de
una PSU, lo que reducirá el SE de muchas estimaciones. Las implicaciones de costos pueden
ser mínimas solo si el tamaño de las UPM, medido en términos de distancia de viaje para el
personal de campo, no es grande. En tercer lugar, si son precisos, los elementos a nivel del
hogar, como la raza/origen étnico y la edad, pueden mejorar la eficiencia de una muestra al
permitir la selección de diferentes grupos. En cuarto lugar, nuevamente si la información de
contacto es correcta, se pueden usar varios modos para contactar a los miembros de la
muestra con el objetivo final de aumentar las tasas de respuesta.
Aunque el apodo ABS puede ser específico de los EE. UU., el uso de listas de correo
residenciales como marcos de muestreo de encuestas no es único. Por ejemplo, muestras
para la Encuesta de Panel de Hogares Británicos (http://www.iser.essex.ac.uk/bhps ) se
extrajeron del archivo de direcciones de código postal (PAF),10 un archivo que contiene
aproximadamente veintiocho millones de direcciones comerciales y residenciales del Reino
Unido. Como parte de la Encuesta Social Europea de 2008, los investigadores seleccionaron
muestras aleatorias utilizando "puntos de entrega postal" proporcionados por el Servicio
Postal de Croacia.11

10 www.postcodeaddressfile.co.uk.
11
ess.nsd.uib.no/ess/round4/surveydoc.html.
Machine Translated by Google

290 Muestreo de 10 áreas

Ejercicios

10.1. Se realizará un estudio de la aldea de Loon Lake para determinar


el estado de salud de la población local. La ciudad tiene cuatro distritos censales y
dos serán muestreados. Los recuentos de población del Censo 2000 y el número de
Los permisos emitidos desde el año 2000 se muestran a continuación. Supongamos que dos tratados
se muestrearán con probabilidades proporcionales a los conteos del censo. A
Se seleccionará una muestra autoponderada de 300 personas.

Población Permisos emitidos


Tramo censo 2000 desde 2000
1234 6.000 5.200 0
2.120 3.700 100
17.020 875
6
Total 981

(a) Determine las probabilidades de selección de las secciones utilizando los conteos de población
del censo, las tasas de muestreo de personas dentro de la sección y el
número de personas seleccionadas por tramo.
(b) A continuación, utilice el número de permisos emitidos para obtener una estimación actualizada de
el número de personas en cada tramo. Suponga que hay 2.6 personas
asociado con cada unidad de vivienda y que un permiso está asociado con
una HU.
(c) Utilizando las tasas de muestreo calculadas en (a) y la población actualizada
cuenta a partir de (b), ¿cuántas personas espera muestrear en cada tramo?
si es uno de los dos seleccionados? Discutir los efectos sobre la carga de trabajo del uso
cuenta la población obsoleta.
(d) Usando las estimaciones de población actualizadas, calcule las probabilidades de selección
para tramos, tasas de muestreo dentro del tramo de personas y número esperado
de personas de la muestra en cada tramo. Discuta cómo se comparan estos con los de
(a) y (c).

10.2. La siguiente tabla muestra una población de cuatro PSU con los conteos de
personas en cada uno de los dos dominios en cada PSU. Supongamos que el total deseado
las tasas de muestreo para los dominios son f1 = 0,05 y f2 = 0,10. tú quieres
seleccione una muestra de dos UPM con probabilidades proporcionales al compuesto
MOS descrito en la Secc. 10.7.

fuente de alimentación
Ni (1) Ni (2) N
1 50 50 100
2 20 100 120
3 90 60 150
4 160 70 230

Totales 320 280 600


Machine Translated by Google

10.7 Listas de direcciones especiales 291

Calcula lo siguiente:

(a) Tamaños de muestra totales esperados para los dos dominios.


(b) MOS compuesto para cada PSU y el total entre las PSU. Verifique que el
gran total es igual al tamaño de muestra total esperado.
(c) Probabilidad de selección para cada UPM.
(d) Tamaño de muestra de dominio esperado y tasa de muestreo de dominio dentro de cada UPM.
¿Los tamaños de muestra esperados son números enteros? Si no, ¿qué método se puede utilizar?
para el muestreo dentro de una fuente de alimentación que logrará la tasa deseada?
(e) Verifique que los tamaños de muestra esperados para cualquiera de las dos UPM sumen el
tamaño total esperado de la muestra que calculó en (a).

10.3. Se va a realizar una encuesta de personas en dos etapas en la que el 5 % de las personas tiene
Se muestrearán los menores de 35 años y el 15 % de los mayores de 35 años. Cuatro fuentes de alimentación
ser seleccionado usando el MOS compuesto definido en la Secc. 10.5. una auto ponderación
la muestra debe ser seleccionada dentro de cada dominio, y la carga de trabajo debe ser la
misma en cada fuente de alimentación seleccionada. Calcula lo siguiente:

fuente de alimentación Dominio Cuenta total


Ni (d) Ni
ÿ 35 d=1 >35,
, d=2
1 80 20 60 20 50 90 80 100
2 10 50 25 90 20 50 8050 80
3 65 55 25 50 50 140
4 90
5 75
6 110
7 130
8 115
9 80
10 100

Totales 615 405 1,020

(a) Tamaños de muestra totales esperados para los dos dominios y el tamaño de muestra total
a través de dominios.

(b) MOS compuesto para cada PSU y el total entre las PSU. Verifique que el
gran total es igual al tamaño de muestra total esperado.
(c) Probabilidad de selección para cada UPM.
(d) Tasa de muestreo de dominio y tamaño de muestra de dominio esperado dentro de cada UPM.
¿Los tamaños de muestra esperados son números enteros? Si no, ¿qué método se puede utilizar?
para el muestreo dentro de una fuente de alimentación que logrará la tasa deseada?
(e) Verifique que los tamaños de muestra esperados para cualquiera de las cuatro UPM suman el
tamaño total esperado de la muestra que calculó en (a).
Machine Translated by Google

292 Muestreo de 10 áreas

10.4. Las dos PSU a continuación son una muestra de PSU existente seleccionada algunos años
atrás. Se realizará una nueva encuesta en estas UPM. Las probabilidades de selección
para PSU 1 y PSU 2 fueron 0,5 y 0,3. Estos son fijos y no se pueden modificar.
El objetivo es seleccionar una muestra de los dominios 1 y 2 a tasas de 0,030 y 0,125.
Dentro de cada dominio, la muestra debe ser autoponderada. Dos SSU de muestra
se seleccionará en cada PSU.

probabilidad de fuente de alimentación Tamaño de la población Total


del dominio población
Nij (d)
fuente de SSU d=1 1 d=2 nij
alimentación
ÿi 1 0,1263889 40 2 25 335 80 120
1 0,1263889 1 0,1263889
1 0,1263889 4 105 45 70
90 125
35 140

2 0.2805556 Una 80 180 260


2 0.2805556 2 40 200 240
2 0.2805556 3 20 85 105
2 0.2805556 4 85 150 235
2 0.2805556 5 110 60 170

Pop totales 5,000 2,200 7,200


(incluye todos
fuentes de alimentación en marco)

(a) Calcule los tamaños de muestra esperados en cada dominio en cada SSU y el
tamaño total de la muestra en cada SSU en todos los dominios. Suponga que las tasas de
0,03 y 0,01 se utilizan para los dominios 1 y 2. Tenga en cuenta que la población
los totales para los dominios son 5000 y 2200, como se muestra en la tabla anterior.
(b) Calcule el MOS compuesto para cada SSU utilizando el método de la Secc. 10.5.
(c) Calcule las probabilidades de selección de la UME suponiendo que la muestra de la UME
será seleccionado con probabilidades proporcionales al MOS compuesto.
(d) Calcule las probabilidades dentro de la SSU requeridas para la muestra en cada
dominio para ser auto ponderado.
(e) Calcule la carga de trabajo esperada en cada SSU si fuera a ser muestreada.
¿Son estos iguales? Si no, explique por qué.
(f) Verificar que las probabilidades de la SSU y dentro de la SSU calculadas en (c) y
(d) producir un muestreo autoponderado en cada dominio.
(g) Determinar un esquema de muestreo para UME y unidades dentro de UME que
dar una carga de trabajo igual en cada SSU. Realice los cálculos para SSU
y dentro de las probabilidades de selección SSU, y verificar que el total esperado
el tamaño de la muestra en los dos dominios es el mismo en cada SSU.
(h) ¿El esquema que diseñó en (g) conduce a una muestra autoponderada? Por qué
o porque no? Sustente su respuesta con cálculos.
Machine Translated by Google

Capítulo 11
El diseño muestral del área: una solución

El proyecto del Cap. 8 le pidió que diseñara una muestra de veinticinco


secciones censales (m = 25) y un grupo de manzanas por sección censal de muestra (n=1).
El tamaño de muestra total deseado es de 1000 personas, que se dividió en partes iguales entre
cinco grupos de edad. Por lo tanto, el requisito de una carga de trabajo igual por grupo de bloques
¯¯
(BG) conduce a q = 1.000/ (mn) = 40 personas en cada BG. La tabla 11.1 muestra
la población cuenta desde el censo de 2000 para los cinco dominios de edad. cada
dominio iba a recibir un tamaño de muestra de 200. El rango de tasas de muestreo implícitas
desde alrededor del 0,12 % para las edades de 25 a 44 años hasta el 0,51 % para las edades de 18 a 24 años.

Tabla 11.1: Población, tamaño de muestra y tasa de muestreo general para cinco dominios de edad
en el condado de Anne Arundel, Maryland.

edad dominio d Población Porcentaje del tamaño de la muestra Muestreo de dominio


población (%) tasa fd (%)
18–24 39.448 10,76 0,5070 200
25–44 160.940 43.92 200 0.1243
45–54 71.657 19.55 200 0.2791
55–64 45.637 12.45 200 0.4382
65+ 48.765 13.31 200 0.4101
Total 366.447 100.00 1,000 0.2729

Dado que se desea una muestra autoponderada dentro de cada grupo de edad junto con
la misma carga de trabajo en cada fuente de alimentación, la medida compuesta de tamaño (MOS)
método, descrito en la Secc. 10.5, se puede utilizar. En particular, el compuesto
MOS para BG j en el tramo i es

Sij = fdQij (d),


d

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 293


Muestras de encuestas, Estadísticas para las ciencias sociales y del comportamiento 51,
DOI 10.1007/978-1-4614-6449-5 11, © Springer Science+Business Media Nueva York 2013
Machine Translated by Google

294 11 El diseño muestral del área: una solución

donde Qij (d) es el número de personas en el grupo de edad d en el tracto i y BG j.


El MOS para el tramo i es entonces Si+ = fdQi (d) donde Sijes=el conjunto
jÿUi Ui d de todos los BG en el tramo
i. El MOS total en todos los tramos y BG es S++.
La asignación del proyecto le pide que seleccione distritos y BG utilizando el procedimiento de
Sampford, que es un método de selección de probabilidad proporcional al tamaño en el que se pueden
calcular las probabilidades de selección conjunta. Si seleccionamos una muestra pp (Si+) de distritos
seguida de una muestra pp (Sij ) de 1 BG en cada distrito, entonces la probabilidad de selección de
ese BG es

Si+ Sij = 25 Sij .


ÿij = ÿj|i ÿiÿj|i = 25
S++ Si+ S++

Esta es la misma probabilidad de selección que se obtendría al seleccionar una muestra de 25 BG


directamente del marco de BG. Sin embargo, tenga en cuenta que este diseño de muestra de
seleccionar distritos primero, seguido de un solo BG por distrito, no es lo mismo que seleccionar los BG
directamente. Si seleccionamos BG directamente usando Sampford, todos los pares de BG tendrían
probabilidades de selección conjunta distintas de cero.
Dado que seleccionamos distritos y luego 1 BG por distrito, la probabilidad de selección conjunta de
dos BG cualesquiera en un distrito determinado es cero.
La hoja de cálculo, AnneArundel.MD.solution.xls, muestra el valor del MOS compuesto para cada
tramo y BG, junto con recuentos de población por grupo de edad y una variedad de otros cálculos.
Tenga en cuenta que algunas edades están fuera del alcance de esta encuesta (0–5 años, 6–11, 12–
17). Estos están excluidos del MOS compuesto.

Se deben realizar una serie de controles de calidad para determinar si algunos BG pequeños deben
combinarse con otros. Entre los controles se encuentran si cada BG proporcionará una carga de trabajo
adecuada y si algunos BG tendrán probabilidades de selección relativamente pequeñas y, por lo tanto,
grandes pesos en relación con otros BG. La combinación de BG termina cuando cada carga de trabajo
es adecuada y ningún peso será extremadamente diferente de los anteriores. La creación de PSU que
sean geográficamente grandes no es deseable porque limitar los viajes de los entrevistadores también
puede ser un objetivo.

La primera verificación es si el muestreo a las tasas deseadas es posible en todos los BG. Como
se indica en la Secc. 10.7, el número esperado de personas muestreadas en cada dominio en cada
SSU (BG) debe ser menor que el recuento de población en la SSU. Además, la suma de estos
recuentos esperados en un BG en todos los dominios debe ser menor que la población en el BG. Hay
seis BG que violan el requisito de que qÿ (d) sea el número esperado de personas de la muestra ij en
BG ij del dominio d. Los seis se (d)Por
edad. ÿ Qij
muestran en(d)
ejemplo, donde
la Tabla
el tramoqÿ
11.2. Cada
yo launo
701400, violadela
muestra
grupo restricción
enbloques
al menos delgrupo
un
3 tiene tamaño
una dede
población de 16 en el grupo 25–44, pero el algoritmo de muestreo requiere un tamaño de muestra
esperado de 16,4; la población es 7 en el grupo de 65+, pero el tamaño de muestra deseado es 23,6.
Un caso límite es el tramo 741100 donde la población de 18 a 24 es 10 y la muestra debe ser 10,1.
Machine Translated by Google

11 El diseño muestral del área: una solución 295

En la Tabla 11.2 se muestran otros dos BG que no tienen población en ningún


de los grupos de edad incluidos en el estudio. Estos podrían dejarse en el marco en caso de que algunos
personas elegibles se han mudado desde el censo de 2000. O, si estamos seguros de que todo el
BG está fuera del alcance, podría clasificarse como no elegible y eliminarse del marco. De hecho,
la inspección del mapa en Anne
Arundel.blkgrps(streets).pdf revela que el tract.BGs 740602.1
y 740603.1 están en una reserva militar o en una reserva de vida silvestre en el
parte occidental del condado. Si el universo elegible cubre solo la población de hogares no
institucionales, podría ser seguro descartar estos BG. En cambio,
los combinamos con BG 2 en sus respectivos tratados para este ejercicio. los
otros BG deficientes se combinaron con otros tractos. BG como se muestra en la
mesa.
También hay un tramo que tiene una probabilidad de selección relativamente pequeña
en base a los cálculos iniciales. El tracto 741100 tiene una probabilidad de selección de
0,005; el siguiente más pequeño es 0.022. Este tracto más pequeño contiene un solo BG,
que, como se muestra en la Tabla 11.2, se combinó con tract.BG 740603.2. Tracto
741100 se combina, por lo tanto, con el tracto 740603.

Tabla 11.2: Grupos de bloques donde la carga de trabajo esperada excede el conteo de población.

Tracto BG 18–24 25–44 45–54 55–64 65+ Acción: combinar


con tracto.BG
701400 3 Población 0 dieciséis 0 0 7 701400.2
701400 3 Carga de trabajo 0 16.4 0 0 23.6
740602 1 Población 0 0 0 0 0 740602.2
740602 1 Carga de trabajo NA NA NA NA NA
740603 1 Población 0 0 0 0 0 740603.2
740603 1 Carga de trabajo NA NA NA NA NA
740603 3 Población 5 101 0 0 0 740603.2
740603 3 Carga de trabajo 6.7 33.3 0 0 0
741100 1 Población 10 42 dieciséis 12 0 740603.2
741100 1 Carga de trabajo 10.1 10.4 8.9 10.5 0
750600 1 Población 0 0 45 0 7 750600.2
750600 1 Carga de trabajo 0 0 32.6 0 7.4
750700 2 Población 0 4 0 0 0 750700.1
750700 2 Carga de trabajo 0 40 0 0 0
758001 5 Población 0 21 30 8 0 750801.4
758001 5 Carga de trabajo 0 7.2 23.1 9.7 0
NA no aplicable

Como muestra este ejemplo, es posible que los tramos que son geográficamente adyacentes no
tener números de identificación consecutivos. La figura 11.1 es un mapa esquemático de
las extensiones en el condado. Consultar un mapa como este puede ser necesario para
hacer combinaciones razonables. Alternativamente, centroides de longitud-latitud para
Los tratados están disponibles en la Oficina del Censo. Estos se pueden utilizar para calcular
Machine Translated by Google

296 11 El diseño muestral del área: una solución

la distancia entre los centros de los tractos para determinar cuáles están geográficamente cerca uno del
otro. Este enfoque permitirá que los tramos se combinen
a través de un algoritmo informático sin intervención manual. Esto es particularmente
útil cuando el marco de los tratados es grande.

Tabla 11.3: Resúmenes de las probabilidades y pesos de selección de tracto y BG después


combinando pequeñas unidades.

Probabilidad mín. Primer cuartil Mediana Media Tercer cuartil Máx.


o peso
Pi 0.0225 0,1828 0,2673 0,2660 0.3329 0.5920
ÿij 0.0015 0,0489 0,0783 0,0828 0.1030 0.4385
1/ÿi 1.69 3.00 3,75 5,25 5,48 44,44
1/ÿij 2.28 9.71 12.78 22.08 20,45 684,90

Después de hacer estas combinaciones, las probabilidades de selección de los distritos


y los BG se resumen en la Tabla 11.3. El rango de probabilidades de selección.
para BG es 0.0015–0.4385 mientras que el rango de pesos para BG es 2.28–684.90.
Aunque el rango de probabilidades de BG es sustancial, una muestra autoponderada
de personas todavía se pueden seleccionar de cada dominio ya que no hay deficiencias
BG después de combinar. Se utilizó el método de Sampford para seleccionar una muestra de
25 tractos y luego 1 BG por tracto de muestra. El código para combinar BG y
tratados está en el archivo Anne Arundel.MD.analysis.R.
Los tramos de muestra seleccionados y los BG se enumeran en la Tabla 11.4 y están sombreados
en la Fig. 11.2. Las cargas de trabajo esperadas en cada BG también se muestran en la tabla.
Las cargas de trabajo no son números enteros. Esto significa que cuando las muestras de personas
dentro de una muestra se seleccionan los BG, el muestreo se realizará utilizando tasas fijas
tamaños de muestra no fijos. Por ejemplo, tract.BG 701102.2 tiene una población
de 76 en el grupo de edad de 18 a 24 años y el tamaño de la muestra es 6,3 en la Tabla 11.4. personas en
ese grupo de edad y BG serían muestreados a una tasa de 6.3/76. = 0,08289.

Comprobaciones de control de calidad

Siempre es importante comprobar la corrección de su trabajo. En este caso, hay


son algunas evaluaciones simples que ayudarán a determinar si los cálculos
y las selecciones de muestra son correctas. El peso de una muestra BG es 1/ÿij . Estas
se puede usar para hacer estimaciones de población que podemos comparar para enmarcar
números. Hay dos condiciones que deberían cumplirse exactamente para cualquier muestra
que ha sido seleccionado. Primero, defina

yij (d) = fdQij (d).


Machine Translated by Google

11 El diseño muestral del área: una solución 297

Tabla 11.4: Muestras de distritos y grupos de bloques dentro de distritos con cargas de trabajo esperadas
en cada BG.

cargas de trabajo

Tracto Bloquear 18–24 25–44 45–54 55–64 65+ Carga de trabajo total
grupo
701102 701102.2 6.3 6.1 7.5 7,8 12,3 40
701200 701200.3 5.6 9.3 6.5 8.3 10.3 40
701300 701300.2 5.8 6.1 10.2 8.6 9.3 40
702100 702100.4 7.7 7.8 12 7.2 5.2 40
702300 702300.4 4.3 4.8 8.1 15 7.8 40
702401 702401.2 1.3 0.6 2 5,4 30,6 40
702700 702700.3 5.7 10.2 6.9 9.2 8 40
706300 706300.2 2.8 6.6 7.6 8,5 14,4 40
706600 706600.5 19.3 7.8 6.2 4.6 2.2 40
708000 708000.1 7.2 7 6.6 10 9.2 40
730100 730100.3 6.8 10.3 5.2 8 9.7 40
730402 730402.2 7.4 6.8 6.2 8,5 11,1 40
730502 730502.2 11.9 7.7 7.3 6.3 6.8 40
730601 730601.4 6.4 5.8 12.3 10.3 5.2 40
730800 730800.2 2 3.9 9.4 12,2 12,5 40
731204 731204.1 8.2 7.8 6.4 7 10.5 40
740102 740102.1 8.3 5.3 8.7 9.7 8 40
740201 740201.4 8.8 12.6 9.1 5.5 4 40
740301 740301.2 10.1 15.4 8 4.7 1.8 40
740500 740500.1 9.1 14.6 8.6 5.4 2.3 40
740601 740601.3 17.9 21.4 0.7 0 0 40
740700 740700.2 9.3 15.6 6.4 4.2 4.4 40
750804 750804.1 8 10.4 4.8 6 10.8 40
751000 751000.1 6.9 5.9 6.7 8.2 12.3 40
751103 751103.2 5.6 5.9 4.7 16.5 7.3 40

El estimador ÿ del total de esta variable a través de los dominios en un BG es

t1= d yij (d) /ÿij

¯¯
ya que S++ = mnq ¯¯. en este caso q = 40. Así, el estimador del total de
yij (d) en cualquier grupo de bloques es la misma constante, 40. El estimador de la
población total de yij (d) es

t ˆ2 = diÿsjÿsi yij (d) /ÿij , (11.1)

lo cual se puede verificar usando el hecho de que ÿij = mnSij/Si+ y la definición


de Sij . Dado que S++ es el tamaño total de la muestra, este estimador ÿ debe ser 1000.
Machine Translated by Google

298 11 El diseño muestral del área: una solución

Los totales de población del número de personas en cada dominio y en todos los dominios
también se pueden calcular como

t ˆ3 (d) = Qij (d) /ÿij , d = 1,..., 5


iÿsjÿsi

t4= Qij (d) /ÿij .


diÿsjÿsi

Estos no necesariamente equivalen a los conteos de población, pero sirven más como un
control de razonabilidad. Si las estimaciones están lejos de los recuentos de cuadros, entonces
se justifica una verificación adicional para decidir si se han producido errores. Para esta
muestra, tenemos t 1 = 40 para cada dominio, t 2 = 1 000, t 3 (d) = (38 011,38, 173 593,95, 63
811,75, 45 011,18, 52 714,43) y t 4 = 373 142,7. Las estimaciones t ˆ3 y t ˆ4 están
razonablemente cerca de los recuentos de población de la tabla 11.1.
Estos controles también se pueden encontrar en Arundel.MD.analysis.R.

consideraciones adicionales

Pasamos algún tiempo preocupándonos por los efectos de los tractos y grupos de bloques
con pequeños MOS compuestos. Una de las paradojas del diseño de muestras es que se
dedica una cantidad significativa de tiempo a considerar eventos que pueden no suceder. Es
posible que no seleccionemos uno de los BG con un MOS extremadamente pequeño, pero si
lo hacemos, es posible que su tamaño no admita los tamaños de muestra deseados para los dominios.
Además, su peso será grande y puede aumentar innecesariamente las varianzas.
Este tema será abordado nuevamente en el Cap. 14
El hecho de que solo se seleccione 1 BG por tramo podría plantear la cuestión de si se
pueden estimar las varianzas con este diseño. Todavía podemos estimar las varianzas del
diseño porque el número de unidades de primera etapa es 25, el número de tramos de
muestra. Sin embargo, existen diseños alternativos que podrían valer la pena considerar. Si
se supiera que los residentes de diferentes áreas del condado tienen características diferentes,
sería recomendable estratificar por geografía de subcondado de alguna manera. Los números
de BG asignados por la Oficina del Censo se pueden usar para ordenar los BG en un orden
más o menos geográfico y en estratos creados a partir de la lista ordenada. Se debe consultar
un mapa de BG para asegurarse de que la clasificación numérica logre sus objetivos de
estratificación. Un mapa de BG para el condado de Anne Arundel se encuentra en el archivo,
Anne Arundel.blkgrps(streets).pdf, en el sitio web de este libro.
Machine Translated by Google

11 El diseño muestral del área: una solución 299

Higo. 11.1: Mapa de tramos del condado de Anne Arundel, Maryland. Fuente: Departamento de
Planificación de Maryland, División de Servicios de Datos de Planificación, enero de 2001.
Machine Translated by Google

300 11 El diseño muestral del área: una solución

Higo. 11.2: Zonas seleccionadas en el condado de Anne Arundel.


Machine Translated by Google

Parte III
Ponderaciones y análisis de encuestas
Machine Translated by Google

Capítulo 12
Proyecto 3: Ponderación de una Encuesta de Personal

En este proyecto, desarrollará pesos de encuesta y entregará un archivo de análisis para


una encuesta del personal militar. A los miembros de las reservas militares se les hizo una
variedad de preguntas sobre la satisfacción laboral. Algunos ejemplos de las preguntas.
son:

• Suponga que tiene que decidir si continúa participando en la Guardia Nacional/Reserva.


Suponiendo que pudieras quedarte, ¿cuál es la probabilidad de que elijas hacerlo?

• En general, ¿cómo calificaría el nivel actual de estrés en su entorno personal?


¿vida?

• Tomando todas las cosas en consideración, ¿qué tan satisfecho está usted, en general,
con cada uno de los siguientes aspectos de estar en la Guardia Nacional/Reserva?
El tipo de trabajo que realiza en su trabajo militar Su
compensación total (es decir, salario base, asignaciones y bonificaciones)

El archivo de datos incluye registros de todas las personas que estaban en la muestra
inicial: encuestados, no encuestados y no elegibles. También hay varias variables
demográficas de archivos de registros administrativos para cada persona de la muestra.
Los archivos que se utilizarán se enumeran al final de este capítulo.
Las siguientes tareas aún no se han completado y están asignadas a su equipo. Cada
tarea debe documentarse en el informe final del proyecto; asegúrese de justificar las
decisiones que ha tomado su equipo.

(1) Desarrolle los pesos de diseño (inversos de las probabilidades de selección) para este
diseño de muestreo aleatorio simple estratificado de etapa única y verifique sus
cálculos. El campo ESTRATO define los estratos del diseño muestral.
Cada registro contiene recuentos del número de personas en la población (NSTRAT)
y la muestra (NSAMP) en el estrato de diseño al que pertenece el registro. El campo
V STRAT identifica los estratos de diseño que se fusionaron para la estimación de la
varianza. Tenga en cuenta que, si se necesita un recuento de población para un
estrato de varianza, será necesario sumar los valores de NSTRAT para los estratos
de diseño que se combinan en un V STRAT.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 303


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 12, © Springer Science+Business Media New York 2013
Machine Translated by Google

304 12 Proyecto 3: Ponderación de una encuesta de personal

(2) Especifique cómo clasificará los diversos códigos de estado de respuesta (RESPSTAT)
en las categorías generales (respondedor elegible, no elegible elegible, no elegible o
desconocido) descritas en el Cap. 6. Los valores de las variables y las etiquetas de
valores para RESPSTAT se proporcionan en la siguiente sección, Archivos de datos y
otra información.
(3) Aplique ajustes de peso a los pesos de diseño y verifique sus cálculos. Debe incluir los
métodos de ajuste que hemos discutido en clase: elegibilidad desconocida, falta de
respuesta y calibración. En el caso de elegibilidad desconocida o ajustes por falta de
respuesta, compare la celda de ponderación y los ajustes de propensión llevando a cabo
su propia implementación de cada método. Es posible que encuentre algunos casos, ya
sea en el archivo de datos de los encuestados o en el archivo de recuentos de población,
en los que falten datos para los campos que le gustaría utilizar en la ponderación. Si es
así, debe explicar cómo los manejó en los diversos pasos utilizados en la ponderación.

(4) Prepare un archivo de análisis (en formato SAS, Stata o de texto) que contenga las
variables del archivo de datos original (SOFR.sas7bdat), las ponderaciones base, las
ponderaciones finales del análisis (puede elegir solo un conjunto de la tarea 3 anterior ),
y cualquier ajuste aplicado a los pesos de diseño para crear los pesos finales. Además,
cree los indicadores necesarios que necesitaría para analizar las respuestas del
cuestionario y eliminar cualquier registro de datos innecesario. Todas las variables deben
tener una etiqueta descriptiva. Para cualquier variable categórica recién creada,
proporcione una descripción de los valores de las variables en el informe.

(5) Usando los pesos de su análisis final, tabule las proporciones de personal
quien es

(a) Insatisfechos o muy insatisfechos con su compensación total


(RA006A)
(b) Muy improbable o improbable que permanezca en las Reservas (RA008)

Haga estas tabulaciones por separado para cada servicio y para el personal y oficiales
alistados. Incluya las estimaciones puntuales de proporciones y errores estándar.
Describa el método que utiliza para la estimación del error estándar y cualquier limitación
que pueda tener el método.
(6) Incluir una descripción para los usuarios de datos de qué casos y pesos se deben usar
para varios tipos de análisis de datos. Proporcione algunos ejemplos breves de código
de software que se usaría para estimar medias o proporciones asociadas con un
elemento típico del cuestionario. Se deben dar ejemplos para al menos dos paquetes de
software. Su informe debe describir cómo se debe usar el software para tener en cuenta
los pesos y las características de diseño, como los estratos.
Machine Translated by Google

12 Proyecto 3: Ponderación de una encuesta de personal 305

Contenido del Informe de Ponderación

A continuación se muestra una lista de áreas temáticas que deben incluirse en su informe de ponderación.
En cada sección se incluyen preguntas y sugerencias para ayudar con el desarrollo del texto. El orden de
las secciones en su informe no tiene que ser el mismo que se indica a continuación. Debe construir su
informe de una manera que presente los temas en un orden que le parezca lógico a su equipo.

El informe debe escribirse a un cliente cuyo personal incluye gerentes y personal técnico. Los gerentes
estarán más interesados en comprender el esquema general de los pasos utilizados en la ponderación. El
personal técnico estará interesado en comprender los detalles del cálculo del peso, incluidas las fórmulas
adecuadas, y en poder analizar los datos de forma adecuada.

Debe considerar cómo estructurar su informe para servir a estas audiencias.


Áreas temáticas para el informe de ponderación:

• Página de título (título del proyecto, fecha de envío y nombre del contacto del proyecto)
persona)
• Introducción (resumen del documento) • Pesos del estudio:
breve discusión sobre el diseño de muestreo Métodos para
calcular los pesos de diseño Tipos de ajustes de peso
y por qué se usaron. Comparación de ajustes
Evaluación de pesos y métodos utilizados para verificar o comparar cálculos

• Archivo de análisis:
Resumen del contenido del archivo de análisis (incluya PROC CONTENTS o el equivalente en un
apéndice)
Variables de interés •
Referencias • Apéndice

PROC CONTENTS o libro de códigos del archivo de datos

Archivos de datos y otra información

• SOFR codebook.pdf —valores de código para cada variable en SOFR.sas7bdat


archivo de datos.

• Libro de códigos RCCPDS57.pdf: valores de código para cada variable en el archivo de


datos RCCPDS57.sas7bdat.
• Cuestionario anotado.pdf: el cuestionario de la encuesta con anotaciones que muestran nombres de
variables y valores de código para todas las preguntas. Tenga en cuenta que el archivo de datos de
este proyecto contiene solo un subconjunto de las preguntas de la encuesta. Además, algunas
preguntas se recodificaron para tener nombres diferentes y menos valores en el archivo de datos que
en el cuestionario.
Machine Translated by Google

306 12 Proyecto 3: Ponderación de una encuesta de personal

• SOFR.sas7bdat: archivo de datos editado de la encuesta en formato SAS versión 9.


Los mismos datos están en el archivo de transporte SAS, SOFR.xpt.
• RCCPDS57.sas7bdat: archivo de recuentos de población. Los mismos datos están en el
Archivo de transporte SAS, RCCPDS57.xpt.
Este archivo es el resultado de cotejar el marco muestral con el archivo de personal más
actualizado disponible al comienzo del período de recopilación de datos.
El archivo de personal se compone de todas las personas en la nómina a la fecha del archivo
fue construido. Por lo tanto, estos recuentos deben cubrir solo los casos elegibles . los
las etiquetas para los nombres de campo contienen el nombre de la variable en soft.sas7bdat
al que corresponden los conteos.
• formatos.sas7bcat: biblioteca de formatos para ambos archivos de datos SAS.
Para acceder a esta biblioteca en un programa SAS, incluya el siguiente tipo de
declaración libname:
biblioteca LIBNAME ''C:\PracTools'';
Para asegurarse de que SAS busque formatos en esa biblioteca, use
opciones fmtsearch=(biblioteca)
El nombre de la carpeta PracTools debe cambiarse a la ubicación donde
guardas el archivo de formato. Esta biblioteca de formato dará acceso a la variable
y etiquetas de valor para los campos en soft.sas7bdat.

Valores de variable y etiquetas de valor para la variable RESPSTAT:

Cuestionario devuelto: completado


1 Cuestionario devuelto—(Suficiente) Parcialmente completo
2 Cuestionario devuelto—(Insuficiente) Parcialmente completo
3 Cuestionario devuelto: no elegible
4 Cuestionario devuelto: en blanco
5 Sin retorno—Fallecido
18 19 Sin retorno: encarcelado
22 Sin Retorno—Separado/Retirado
23 Sin devolución—Rechazo activo
25 Sin retorno—Otro
26 Sin devolución: elegible en función de los registros administrativos
27 Falta de entrega postal
29 No localizable
35 No elegible—No se envió el cuestionario
Machine Translated by Google

Capítulo 13
Pasos básicos en la ponderación

Las ponderaciones de las encuestas son un componente clave para producir estimaciones de
población. Por ejemplo, un total estimado tiene la forma t ˆ=swiyi dondepor
provista yi el
esi-ésimo
una respuesta
miembro
de la muestra y wi es el peso de análisis correspondiente. Sin su uso, las estimaciones pueden
reflejar solo los matices de una muestra en particular y pueden contener niveles significativos
de sesgo. Este es el primero de dos capítulos que abordan las técnicas para calcular los pesos
de análisis que se utilizan actualmente en la investigación de encuestas. Artículos que detallan
nuevas investigaciones sobre la superficie de ponderación de encuestas en la literatura
constantemente. Por lo tanto, alentamos a los investigadores de encuestas a utilizar estos
capítulos como base de comprensión y confiar en artículos de revistas para técnicas de
vanguardia.
Hay una serie de pasos en la ponderación que se llevan a cabo en la mayoría de las
encuestas, si no en todas. Estos incluyen el cálculo de ponderaciones base (también conocidas
como ponderaciones de diseño), ajustes por elegibilidad desconocida, ajustes por falta de
respuesta y uso de datos auxiliares para reducir las variaciones y, en algunos casos, corregir
las deficiencias del marco. Cubrimos los primeros tres de estos pasos en este capítulo. El
Capítulo 14 abordará el uso de datos auxiliares. Las secciones 13.1 y 13.2 brindan una
descripción general de la ponderación y describen enfoques teóricos generales que se utilizan
para justificar el uso de ponderaciones en la estimación.
En las muestras probabilísticas, las ponderaciones base son inversas de las probabilidades
de selección. En la Secc. 13.3 para varios diseños. Estos se pueden usar para ponderar una
muestra a la población finita completa si el marco es perfecto y todas las unidades de muestra
responden. En algunas aplicaciones, se encuentra disponible un marco completo de unidades
para el muestreo y los problemas del marco no son una preocupación. En otros, el marco
puede contener algunas unidades que no son elegibles y puede omitir unidades que sí lo son.
Tener unidades no elegibles en un marco es un tipo de sobrecobertura. En la Secc. 13,4; el
problema de la subcobertura del marco se trata en el Cap. 14

La falta de respuesta de algunas unidades es una preocupación en la mayoría de las


encuestas. Sin ajustar por falta de respuesta, los estimadores pueden tener niveles
significativos de sesgo. Existen diferentes métodos de ajuste, que presentamos en la Secc. 13.5. Antes

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 307


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 13, © Springer Science+Business Media New York 2013
Machine Translated by Google

308 13 pasos básicos en la ponderación

cubriendo herramientas específicas utilizadas en la ponderación, se necesitan algunos comentarios generales


sobre métodos de inferencia y cómo afectan el cálculo del peso.

13.1 Descripción general de la ponderación

El objetivo general de la ponderación es encontrar un conjunto de pesos, wi, que pueda usarse
en prácticamente todos los análisis para producir estimaciones para la población objetivo bajo
estudiar. Por ejemplo, un total estimado tiene la forma t ˆ= wiyi y una media s
ˆ¯
se puede calcular como y =
s wiyi/ s wi para un conjunto de unidades en la muestra s (es decir,
yo ÿ s). Otras estadísticas que se pueden escribir como combinaciones de totales estimados
usaría el mismo conjunto de pesos. Los análisis de modelos de regresión, por ejemplo,
a menudo comienzan con un tipo de total estimado que se utiliza para derivar parámetros
estimados. Las estimaciones de medianas y otros cuantiles dependen de la misma
pesos utilizados para estimar los totales. Bien construido, un juego de pesas puede
proporcionar estimaciones aproximadamente imparciales y consistentes1 de muchos
cantidades de población. Como resultado, un juego de pesas puede servir para muchos propósitos,
lo cual es una gran ventaja práctica.
La figura 13.1 muestra el conjunto general de pasos que se utilizan para ponderar en
muchas encuestas. La muestra completa (casilla A en la figura) se puede dividir en la
unidades cuya elegibilidad está determinada (A1) y aquellas para las cuales se desconoce la
elegibilidad (A2). Las incógnitas tienen su peso distribuido en el paso W1
entre los casos de muestra conocidos (A1a, A1b y A1c). Tenga en cuenta que si se conoce la
elegibilidad para todos los casos de muestra (por ejemplo, a través de registros administrativos), entonces
el paso W1 no es necesario. El siguiente paso, W2, es hacer un ajuste para
falta de respuesta Hay diferentes formas de hacer tanto la elegibilidad desconocida
y ajustes por falta de respuesta, como se analiza en las Seccs. 13.4 y 13.5. de una sola mano
es poner a los encuestados y no encuestados en clases y hacer un común
ajuste a todos los encuestados dentro de cada clase. Las clases se pueden formar en base
sobre propensiones de respuesta estimadas o algoritmos de clasificación.
En algunas encuestas, no se utilizan más pasos y los pesos finales son los
pesos ajustados por falta de respuesta. En otros casos, la calibración a los valores de población
(paso W3) se puede utilizar para corregir las deficiencias del marco y reducir la
varianzas de los estimadores, como se describe en el Cap. 14. Los datos auxiliares utilizados en
la calibración puede provenir de un marco actualizado o de una fuente independiente
como un censo de población. Tanto los encuestados elegibles (A1a) como los conocidos
los no elegibles (A1c) pueden entrar en este paso, dependiendo de la fuente de los datos auxiliares.
Hay una variedad de métodos para usar datos auxiliares que todos
caen bajo el título de calibración. Entre ellos se encuentran la posestratificación, la estimación de
regresión general y el rastrillado, todos los cuales se analizan en el Cap. 14
Además, discutimos en el Cap. 14 investigaciones asociadas con la combinación de pasos
W2 y W3 en un solo procedimiento de ponderación.

Una

Mira la sección. 4.1 para una discusión de estimaciones imparciales y consistentes.


Machine Translated by Google

13.2 Teoría de Ponderación y Estimación 309

Higo. 13.1: Pasos generales utilizados en la ponderación.

13.2 Teoría de Ponderación y Estimación

Los pesos se utilizan en la construcción de estimadores. El objetivo clave en la construcción


de ponderaciones debería ser, por lo tanto, construir buenos estimadores. Para saber si un
estimador es bueno o no, debemos evaluar sus propiedades, como el sesgo y la varianza,
con respecto a alguna distribución estadística. Existen tres métodos para generar la
distribución utilizada para la inferencia que enfatizaremos en este capítulo y en los siguientes:

1. Basado en diseño o aleatorización 2.


Basado en modelo 3. Asistido por modelo
Machine Translated by Google

310 13 pasos básicos en la ponderación

Hay otros enfoques, sobre todo el bayesiano [ver Gelman et al. (1995)] que tienen algún
mérito, pero no los trataremos en este libro. Es importante tener al menos una comprensión
intuitiva del pensamiento detrás de los tres enfoques anteriores para comprender por qué
ciertos estimadores funcionan bien o mal en diferentes circunstancias. En la práctica, el
método asistido por modelos es el más utilizado, como explicaremos a continuación.

En el enfoque de muestreo basado en el diseño, las propiedades de los estimadores,


como el sesgo y la varianza, se evalúan con respecto al muestreo repetido. Se debe
seleccionar una muestra probabilística para usar este enfoque, es decir, se usa un mecanismo
aleatorio para seleccionar las unidades y, en principio, cada unidad tiene una probabilidad de
selección conocida, como se describe en el Cap. 3. Sin embargo, no es raro que los
estadísticos “estiren los límites” aplicando análisis de muestreo repetido a muestras que en
realidad no están seleccionadas con mecanismos de probabilidad. Para calcular, digamos, la
expectativa de un estimador, uno piensa en un experimento conceptual donde las muestras
se seleccionan repetidamente usando el mismo plan. La estimación se calcula para cada
muestra. Si estos valores promedian el valor completo de la población finita de la cantidad
que se estima, entonces el estimador tiene un diseño imparcial. Otras propiedades, como la
varianza del diseño, se calculan de manera similar.
Hay una serie de buenas razones para utilizar el muestreo probabilístico. Si se utiliza un
mecanismo aleatorio en la selección, se eliminan los sesgos conscientes e inconscientes al
seleccionar la muestra. El público y los usuarios de datos perciben el muestreo aleatorio
como objetivo. También proporciona una base matemática para calcular las propiedades de
las estimaciones. Sin embargo, la mayoría de las muestras que comienzan como muestras
probabilísticas no terminan así debido a la falta de respuesta (NR) y otros problemas que
resultan en la pérdida de algunas unidades de muestra. Por lo tanto, la inferencia estrictamente
basada en el diseño no suele ser factible. Se necesitan modelos de falta de respuesta,
cobertura insuficiente y otros errores ajenos al muestreo para reflejar completamente los
procesos que producen una muestra. Sin embargo, el cálculo de las ponderaciones base (es
decir, las inversas de las probabilidades de selección) suele ser el primer paso en el cálculo
de ponderaciones en las encuestas que utilizan muestras probabilísticas.
Tener buenas propiedades basadas en el diseño es reconfortante. Sin duda, es razonable
que un profesional pueda decir que, si selecciona muestras aleatorias a lo largo de su carrera,
los métodos utilizados producirán respuestas correctas en promedio. Sin embargo, el enfoque
basado en el diseño no nos proporciona una forma sistemática de construir buenos
estimadores. La relación de las variables de respuesta con los predictores no se considera
formalmente en la inferencia basada en el diseño. Pensar en modelos que describan las
variables en una población proporciona alguna estructura que puede usarse como guía.

Por el contrario, un enfoque estrictamente basado en modelos ignora el diseño de la


muestra y considera solo la estructura de la población (es decir, un modelo) al decidir sobre
un estimador y los pesos correspondientes. Este enfoque se puede aplicar a muestras
probabilísticas o no probabilísticas. Por ejemplo, los cursos de estadística matemática usan
estimadores con el supuesto de que las unidades se extraen de una población infinita. Los
estimadores resultantes son insesgados bajo el
Machine Translated by Google

13.3 Pesos base 311

modelo utilizado para construir los estimadores, pero puede estar sesgado si el modelo
está mal especificado o si el modelo que se ajusta a la muestra es diferente del que
describe a la población como un todo. En algunos casos, la estimación basada en modelos
es la única opción. En una encuesta por Internet de participantes voluntarios, no hay un
diseño de muestra probabilístico y los estimadores deben construirse utilizando modelos.
Si los voluntarios son tan diferentes de la población total que la estimación es imposible
se convierte en una preocupación seria.
Sin embargo, es inevitable que se tengan en cuenta los modelos al desarrollar
ponderaciones, incluso en muestras probabilísticas. Cualquier muestra con algún grado de
falta de respuesta requiere supuestos sobre la naturaleza de las variables de análisis para
los que no respondieron y sobre el mecanismo de respuesta. Cuando se calculan las
ponderaciones para una encuesta de voluntarios, se pueden hacer suposiciones sobre el
mecanismo que describe la probabilidad de que una persona participe. Estos supuestos,
ya sean explícitos o implícitos, son modelos.
Hay buenos argumentos, aunque bastante técnicos, de por qué la distribución aleatoria
en sí misma no debería ser la base para la inferencia [p. ej., véase Valliant et al. (2000)],
incluso en ausencia de falta de respuesta. La línea general de razonamiento es que
promediar sobre una distribución de aleatorización implica promediar sobre muestras que
pueden ser muy diferentes de la realmente seleccionada. Es decir, la inferencia basada en
el diseño requiere que consideremos eventos que en realidad no sucedieron y, por lo
tanto, son irrelevantes. Estos argumentos no necesariamente tienen que ser considerados
para desarrollar un conjunto de pesos que proporcionen estimadores razonables. Un lector
interesado puede consultar las referencias anteriores junto con Royall (1976) y Smith
(1976, 1984, 1994) para la discusión de los temas fundamentales.
Un enfoque híbrido utiliza tanto el pensamiento basado en modelos como el basado en
diseño y se denomina asistido por modelos. Se selecciona una muestra probabilística, se
calculan los pesos y uno o varios modelos guían la elección del estimador. Las inferencias
se realizan utilizando la distribución generada por el plan de muestreo probabilístico, no
un modelo. La investigación sugiere que los pesos brindan cierto nivel de protección contra
la especificación incorrecta del modelo. Este es el enfoque que S¨arndal et al. (1992)
esponer

13.3 Pesos base


Las ponderaciones base (o ponderaciones de diseño) se calculan cuando la muestra es
una muestra probabilística extraída de una población finita. Como se define en (S¨arndal
et al. 1992 Cap. 1) y en el Cap. 3 de este libro, una muestra probabilística es aquella
realizada bajo cuatro condiciones:

1. El conjunto de todas las muestras S = {s1, s2,...,sM } que se pueden seleccionar de una
población finita U se puede definir dado un procedimiento de muestreo específico.
2. Una probabilidad conocida de selección p (s) está asociada con cada posible
muestra s en S.
Machine Translated by Google

312 13 pasos básicos en la ponderación

3. Cada elemento en la población objetivo tiene una probabilidad distinta de cero de seleccionar
con el procedimiento de muestreo aleatorio especificado.
4. Se selecciona una muestra sÿ mediante un mecanismo aleatorio bajo el cual cada s en S recibe la
probabilidad p (s).

La función p (s) define una distribución de probabilidad en S, el conjunto de todas las muestras posibles.
El valor de p (s) está asociado con cada muestra s y difiere de la probabilidad de selección de una
unidad individual dentro de la muestra. Para calcular los pesos base, no es necesario que podamos
calcular p (s).
Solo necesitamos las probabilidades de selección de los elementos individuales: ÿi =
Probabilidad de selección (o inclusión) del elemento i.
Los pesos base, d0i = 1/ÿi, son los inversos de las probabilidades de selección.
Las probabilidades de selección se pueden calcular como el producto de las probabilidades condicionales
en diferentes etapas de selección, como se ilustra en algunos de los ejemplos a continuación. Tenga
en cuenta que el tamaño de la muestra no es necesariamente un valor fijo y también está asociado con
el procedimiento de muestreo (ver, por ejemplo, la discusión sobre el muestreo de Poisson en el
Capítulo 3).
Los pesos base deben crearse tan pronto como se seleccione la muestra, si es posible.
Esto facilita los análisis preliminares, como los cálculos de la tasa de rendimiento, y asegura que los
elementos necesarios para el cálculo de los pesos base no se pierdan. Es necesario realizar
verificaciones de control de calidad en los pesos calculados. Cubrimos esto en detalle en el Cap. 18,
pero aquí hay algunas cosas a tener en cuenta: • Las probabilidades de selección están todas dentro

del rango (0,1). • Los pesos base deben sumar el número total de elementos en la población o una
estimación razonable del tamaño de la población. las sumas de los pesos deben hacerse para los
principales subgrupos (género, raza/etnicidad, establecimientos en el comercio minorista, etc.)

Pesos base: una excepción. Usar los inversos de las probabilidades de selección como ponderaciones
base suele ser el primer paso en la ponderación. Una excepción a esto es un método de muestreo en
el que se permite seleccionar algunas unidades más de una vez. Estos métodos se utilizan a veces en
la primera etapa de una muestra multietapa. Por ejemplo, considere una muestra de escuelas donde
los distritos escolares se seleccionan en la primera etapa con probabilidades proporcionales al número
de estudiantes en cada distrito. Se pueden seleccionar distritos muy grandes más de una vez, en cuyo
caso se podría seleccionar una submuestra más grande de escuelas dentro del distrito. Cuando se
permite que algunas unidades se seleccionen más de una vez, se debe rastrear el número esperado de
selecciones o "aciertos"; estos pueden ser mayores que 1. El peso base sería entonces el inverso del
número esperado de selecciones.

En el resto de esta sección, mostramos el cálculo de los pesos base


para algunos diseños específicos.

Ejemplo 13.1 (Muestreo aleatorio simple sin reemplazo (srswor)).


Cuando se seleccionan n unidades (fijas) de una población de tamaño N, la probabilidad de selección
de cada unidad es la misma: ÿi = n/N. El peso básico es
Machine Translated by Google

13.3 Pesos base 313

d0i = ÿÿ1 Es = N/n y también es el mismo para todas las unidades. Un srswor se llama auto
ponderación o epsem (método de muestreo y estimación de igual probabilidad)—ver
Kish (1965).

Ejemplo 13.2 (Muestreo aleatorio simple estratificado sin reemplazo (stsr swor)). La población se
divide en h = 1,...,H estratos mutuamente excluyentes
que cubren a toda la población. Se selecciona un srswor de tamaño nh en cada estrato de una
población de tamaño Nh. La probabilidad de selección de la unidad i en
el estrato h es ÿhi = nh/Nh y el peso base es d0hi = ÿÿ1 hola = Nh/nh. Este
es el mismo para cada unidad de muestra en el estrato h, pero las tasas de muestreo pueden
ser diferente de un estrato a otro.

Ejemplo 13.3 (Muestreo en dos etapas que conduce a epsem). Supongamos que una muestra
de estudiantes se selecciona en dos etapas—escuelas en la primera etapa y estudiantes
en la segunda etapa. En este caso, las unidades de muestreo primarias (o de primera etapa)
(PSU) son escuelas. Suponga que se seleccionan m UPM con probabilidades
proporcional al tamaño (pps) del alumnado y que una probabilidad igual
Se selecciona una muestra de ¯n estudiantes en cada UPM. Las escuelas se seleccionan de tal
manera que las probabilidades de inclusión son:

ÿi = mNi/N para la escuela i


Ni = número de estudiantes en la PSU i
norte = Ni = número total de estudiantes en la población
iÿU

Si se selecciona una muestra de igual probabilidad de ¯n estudiantes en cada escuela de la muestra,


entonces la probabilidad de seleccionar un estudiante dentro de una escuela es ÿj|i = ¯n/Ni para
estudiante j dentro de la escuela i. La probabilidad global de selección es

mNi norte Minnesota


=
ÿij = ÿiÿj|i = norte Ni norte

y el peso base para el estudiante j en la escuela i es d0ij = ÿÿ1 yo = N/mn¯. Este


tipo particular de muestra es autoponderada ya que cada estudiante tiene la misma
peso básico.

Cuando el marco contiene poca o ninguna información auxiliar útil, pero el objetivo
se desean tamaños de muestra para algunos dominios, muestreo de dos fases o multifase
se puede utilizar, como se describe en el Cap. 17. Los pesos base se pueden calcular como
el producto de los pesos asociados con cada fase.

Ejemplo 13.4 (Muestreo en dos etapas por dominios). Una muestra de m PSU es
seleccionadas y ni unidades secundarias de muestreo (UME) se seleccionan dentro de la UPM i
con probabilidades proporcionales al número de personas en cada USM. Para
conveniencia, dejemos que las UPM se definan en términos de pequeños segmentos geográficos de
un país y SSU como hogares dentro de los segmentos para una encuesta de hogares de área.
Cada hogar puede contener una o más personas. Suponer que
Machine Translated by Google

314 13 pasos básicos en la ponderación

las personas en cada SSU de muestra se enumeran y clasifican en G = 4 grupos de edad:


menos de 18, 18–25, 26–64 y 65 y más. Cada persona dentro de una SSU y un grupo de edad
determinado se selecciona con la misma tasa. Suponga que la probabilidad de selección de la
PSU i es la misma que en el ejemplo 13.3 y que la SSU j en la PSU i se selecciona con
probabilidad niQij/Qi, donde Qij es el tamaño de la población de la SSU ij. La probabilidad de
selección de cada persona en SSU ij y grupo g es

mniQij
ÿij (g) = fij (g),
q

donde Q es el recuento total de la población y fij (g) es la tasa a la que se muestrea el grupo
de edad g en la SSU ij. Las tasas para los dominios de edad a menudo se establecerán de tal
manera que se obtenga una muestra autoponderada en cada grupo de edad.
El peso base para la persona k en el grupo de edad g es entonces d0ij (g) = ÿÿ1yo(g).

13.4 Ajustes por elegibilidad desconocida

Los marcos y las muestras pueden contener unidades cuya elegibilidad no se puede
determinar. Entre las unidades elegibles, la mayoría de las encuestas tendrán algunas que no
respondan. El Capítulo 6 discutió estos problemas en el contexto de determinar los tamaños
de muestra iniciales. Los ajustes de ponderación para elegibilidad desconocida y falta de
respuesta también se realizan generalmente para permitir que los encuestados ponderen hasta
la población elegible completa. Para su uso a continuación, defina estos conjuntos de unidades de muestra:

s = Conjunto inicial de todas las unidades


de muestra sIN = Conjunto de unidades en s que se sabe que no
son elegibles sER = Conjunto de unidades que son encuestados
elegibles sENR = Conjunto de unidades que son elegibles no
encuestados sKN = Conjunto de unidades cuya elegibilidad se conoce (sIN ÿ sER ÿ sENR,
donde ÿ denota la unión de uno o más conjuntos)
sUNK = Conjunto cuya elegibilidad se desconoce

Algunos miembros del marco de muestreo pueden no ser elegibles a pesar de nuestros
mejores esfuerzos para limpiar el marco por adelantado. En una encuesta de militares actuales,
el marco puede ser el archivo de personal a junio del año en curso, con un plan para recopilar
datos en agosto. Para cuando se envíe la encuesta en agosto, algunas personas habrán
dejado el ejército. Estos "abandonos" no son elegibles, suponiendo que la población objetivo
son todos los miembros en el momento de la recopilación de datos. Otro ejemplo sería una
encuesta telefónica a hogares en la que algunos números de teléfono resultan ser de empresas.
En una encuesta de hogares sobre inmunizaciones infantiles, los hogares que no tienen niños
no son elegibles.
Machine Translated by Google

13.4 Ajustes por elegibilidad desconocida 315

Por una variedad de razones, puede que no sea posible determinar la elegibilidad para todas las
unidades de muestra. Algunos casos cuya elegibilidad para una encuesta de hogares puede permanecer
desconocida una vez finalizada la recopilación de datos son:

• Llamada/no responde en una encuesta telefónica •


Direcciones que no se pueden entregar en una encuesta
por correo • Nunca en casa en una encuesta de visita personal

Como en la fig. 13.1, suponga que la clasificación final de las unidades de muestra es:

• Estado de elegibilidad conocido:


Encuestados elegibles
No respondedores elegibles
No elegibles
• Estado de elegibilidad desconocido

Si se sabe que hay unidades no elegibles en la muestra, esto es evidencia de que hay otras unidades
no elegibles en la parte de elegibilidad desconocida de la muestra y también en la no muestra. Sin
embargo, se pueden tomar diferentes decisiones en diferentes encuestas acerca de cómo se manejan
las incógnitas. Por ejemplo, en una encuesta de establecimiento realizada por correo, las incógnitas
pueden ser todas direcciones que no se pueden entregar, en cuyo caso todas podrían estar codificadas
como fuera del negocio y, por lo tanto, no elegibles.
La mecánica para ajustar la elegibilidad desconocida generalmente se mantiene bastante simple. Un
método para manejar las incógnitas es distribuir el peso total de la muestra entre aquellos cuyo estado
de elegibilidad se conoce. Por lo general, se utilizan métodos simples para hacer esto, en parte porque
se puede saber poco sobre los casos con elegibilidad desconocida y en parte porque la falta de respuesta
se considera un problema más serio que debe recibir más atención. Se puede utilizar un enfoque basado
en la clase, que se describe a continuación, para el ajuste de elegibilidad desconocido.

El mismo enfoque se puede utilizar para el ajuste por falta de respuesta. Cubrimos formas de formar
clases en la Secc. 13.5.1. La idea general es hacer ajustes a los pesos de los casos con estado conocido:

1. Formar b = 1,...,clases B basadas en la información del marco conocida para todos los casos.
Las clases pueden atravesar los estratos de diseño. En la práctica, las clases de ajuste de
elegibilidad y de ajuste por falta de respuesta pueden ser las mismas.
2. Sea sb el conjunto de unidades muestrales en la clase b, independientemente de su elegibilidad o
estado de respuesta, y sea sb,KN = sb ÿ sKN el conjunto con elegibilidad conocida en la clase b. El
símbolo ÿ identifica el conjunto de unidades en sb y en sKN (es decir, la intersección).

3. El ajuste de elegibilidad desconocido para unidades de muestra en la clase b es a1b =


ÿsb d0i
donde d0i es el peso base.
d0i ,
iÿsb,KN
4. El peso ajustado para la unidad i en sb,KN es d1i = a1bd0i. El factor 1/a1b funciona como una
estimación de la probabilidad de tener un estado conocido. Los pesos para las unidades restantes
en la clase b, aquellas con elegibilidad desconocida, se fijan en cero, es decir, a1b = 0 para sb,UNK
= sb ÿ sUNK.
Machine Translated by Google

316 13 pasos básicos en la ponderación

Ejemplo 13.5 (No elegibles en una encuesta telefónica). Una encuesta telefónica de los
miembros de una organización de estudiantes del campus se lleva a cabo. La lista está algo
desactualizada, por lo que algunos números de teléfono son incorrectos. Algunas personas
en la lista pueden haber abandonado la escuela y, por lo tanto, no son elegibles. A
se puede identificar una parte de estos no elegibles; El 9,1 % de la muestra nunca es
contactados por lo que su elegibilidad es incierta. Una sola clase de ajuste es
usó. Se muestran las sumas de los pesos para diferentes categorías de casos.
abajo. La suma de todos los pesos de la muestra es 110 y es 100 para las personas con
elegibilidad conocida.

Categoría yo ÿsb d0i Ajuste porcentual Adj. suma


dist. de pesos
Encuestados elegibles (R) 50 45,5 1.1 55
No respondedores elegibles (NR) 40 36,4 1.1 44
No elegible (IN) 10 9,1 1.1 11
Elegibilidad desconocida (UNK) 10 9,1
Total 110 110

El peso de las incógnitas (UNK) se asigna a R:NR:IN en proporciones de 5:4:1.


Cada peso base individual para los casos con elegibilidad conocida se incrementa
por el factor 110/100 = 1,1. Aquí B = 1 y a1 = 1.1.

13.5 Ajustes por falta de respuesta

El ajuste por falta de respuesta puede ser simple o elaborado, dependiendo de


cuánto se sabe acerca de los que no respondieron. Las Secciones 13.5.1–13.5.2 discuten
clases de ponderación y métodos de puntaje de propensión, junto con algunos enfoques
a la formación de clases. Primero, esbozamos algunas de las ideas necesarias para seleccionar
un método de ajuste por falta de respuesta. La respuesta se puede considerar como
determinista o estocástico (Kalton y Maligalig 1991):

1. Determinista—Cada unidad elegible en la población responderá


o no si se le pide que participe. La elección no es aleatoria, por lo que las unidades podrían
clasificarse a priori en encuestados y no encuestados.
2. Estocástico: cada unidad tiene una probabilidad distinta de cero de responder.
Cuando se le pide que participe, una unidad hace una elección aleatoria entre cooperar o
no.

El sesgo de una media simple cuando hay una respuesta determinista es

NR.Sesgo y ˆ¯r = MY¯r ÿ Y¯m N, (13.1)

donde y ˆ¯r es la media estimada de los encuestados, Y¯r es la verdadera media de la población
encuestada, Y¯m es la verdadera media de la población que no responde, y
Machine Translated by Google

13.5 Ajustes por falta de respuesta 317

M/N es la tasa de falta de respuesta de la población calculada como la razón del tamaño de la población
que no responde, M, sobre el tamaño de la población, N. En el modelo determinista
situación, existe un sesgo si la media de la población para los encuestados es diferente de la de los no
encuestados. La idea detrás de la clase de ponderación
método de ajuste es tratar de agrupar las unidades de tal manera que el
las medias de clase para encuestados y no encuestados son iguales, es decir, Y¯r = Y¯m.
Condicionado por el patrón de respuesta exhibido en la muestra, el sesgo de no respuesta en (13.1)
se puede estimar usando ponderaciones base (o ponderaciones base )
ajustado para la elegibilidad del estudio desconocido), indicado a continuación como di, como

nr.sesgo (¯yr)= ¯m (¯yr ÿ y¯m), (13.2)

donde ¯yr = ridiyi yoÿs yoÿs ridi, la media estimada de y para la población encuestada con
ri = 1 si el i-ésimo miembro de la muestra es un encuestado (ri = 0
de lo contrario); ¯ym = (1 ÿ ri) di,
yoÿs (1 ÿ ri) estimada
la media bricolaje yoÿs

dentro de la población que no responde; y ¯m = di, yoÿs (1 ÿ ri) di yoÿs


la tasa ponderada de falta de respuesta. Tenga en cuenta que los valores de y son necesarios para ambos
encuestados y no encuestados para evaluar (13.2). Esto generalmente significa que
deben utilizarse las variables de marco disponibles para todas las unidades.

Este tipo de pensamiento se traslada a la respuesta estocástica, pero el álgebra


está más involucrado. A pesar de la complejidad añadida, el enfoque estocástico
subyace a la mayoría de las técnicas de ajuste de falta de respuesta que se utilizan en la práctica.
Defina dos indicadores para estar en la muestra y responder:

si la unidad que seleccioné para la muestra

yo = / 1 0 que no

si la unidad i responde dado que está en la muestra


0
Ri = / 1 si la unidad no responde

La probabilidad de estar en la muestra es Pr (Ii = 1) = ÿi mientras que la probabilidad de responder


dado que la unidad i está en la muestra es Pr (Ri = 1| Ii = 1) =
phi i. Rosenbaum y Rubin (1983) llaman a ÿi el puntaje de propensión para la unidad i. Si
ÿi = 0 para algunas unidades, es decir, algunas unidades son no respondedores "incondicionales" que
nunca participaría en una encuesta, esto podría causar sesgo. Si todas las unidades tienen
alguna probabilidad distinta de cero de responder, entonces puede ser posible producir
estimaciones que son, en algún sentido estadístico, imparciales.
Suponga que d0i = 1/ÿi es el peso base que asignamos a la unidad i y considere esto
estimador simple de una media: y ˆ¯ÿ = d0i. Bajo la iÿsR d0iyi de "cuasi
configuración iÿsR aleatorización", donde tanto el
muestreo como la respuesta se consideran
ser aleatorio, Kalton y Maligalig (1991) demostraron que el sesgo de y ˆ¯ÿ es

. Una

=
B y ˆ¯ÿ yi ÿ Y¯U ÿi ÿ ÿ¯ , (13.3)
Nÿ¯
Machine Translated by Google

318 13 pasos básicos en la ponderación

donde ÿ¯ es la probabilidad promedio de respuesta de la población. En palabras, el sesgo


depende de la covarianza de la variable de respuesta y su propensión a responder. Si yi
y ÿi no están relacionados, no hay sesgo y no es necesario corregir la falta de respuesta,
al menos al estimar una media.
Sin embargo, en general, necesitamos hacer algo para reducir o eliminar el sesgo.
Un tipo de imparcialidad por el que podríamos esforzarnos es la imparcialidad del
mecanismo de diseño/respuesta. Suponga que wÿ es eldel
i después
Es peso quepor
ajuste asignamos a la unidad
falta de respuesta
y considere este estimador simple de un total:

Tˆ = wÿi yi, sR = conjunto de encuestados.


iÿsR

El promedio de este estimador sobre el muestreo y la respuesta es

EREI Tˆ = EREI iÿU RiIiwÿ yo yi


= iiÿUyiEREI (RiIi). wÿ

hacer wÿ iiÿU yi. Dadosupuesto,


que
= 1/EREI
EREIrequiere
(IiRi)
(IiRi),=esto
EI
que[IiER
se reduce
(Ri|
tanto ÿi Ii)]
al=total
como ÿiÿi, de
el peso
ÿi sean ladistintos
población,
sería de
. Esto,
si podemos
cero.por

ÿ1
wÿ = (ÿiÿi)
yo

Antes de analizar las técnicas para ajustar la elegibilidad desconocida y la falta de


respuesta, debemos comprender las ideas de ausencia completamente aleatoria (MCAR),
ausencia aleatoria (MAR) y falta de respuesta no ignorable (NINR). Esta terminología
fue introducida por Little y Rubin (2002). Lohr (1999, Secc. 8.4) brinda una discusión
clara de estas ideas; damos un bosquejo simplificado de ellos aquí. La definición de cada
término requiere que pensemos en una tercera distribución, una para una variable de
análisis Y (en otras palabras, un modelo para Y). De hecho, si en cada unidad se recogen
K variables de análisis, se debe considerar yi = (yi1, yi2,...,yiK) . Supongamos, además,
que hay un conjunto de variables auxiliares xi = (xi1, xi2,...,xip) disponibles para cada
unidad de muestra responda o no. Estos pueden ser elementos como la edad, la raza y
el sexo en una encuesta de hogares o el tipo de negocio y el número de empleados en
una encuesta de establecimientos comerciales. Las x también pueden incluir información
utilizada en el diseño de la muestra, como la región del país y el tipo de área (urbana,
suburbana o rural) u observaciones reportadas por los entrevistadores sobre la condición
de un vecindario. Estos datos de observación se conocen como paradatos y se analizan
en Kreuter et al. (2010).

Sin embargo, se requiere cierta precaución al usar algunos tipos de paradatos para el
ajuste de la falta de respuesta. Kreuter y Olson (2011) ilustran que si, por ejemplo, la
basura en las calles de un vecindario o la dificultad para encontrar a alguien en casa no
están relacionadas con las variables de análisis recopiladas en una encuesta, el uso de
esos paradatos en el ajuste por falta de respuesta puede hacer más daño que bien. . El
uso de datos irrelevantes puede inyectar una variabilidad sin sentido en las estimaciones
sin corregir ningún sesgo.
Machine Translated by Google

13.5 Ajustes por falta de respuesta 319

Falta completamente al azar. Si la probabilidad de respuesta ÿi no depende de yi o xi,


entonces los datos que faltan son MCAR. En nuestra encuesta de personal en el Proyecto
1 (Capítulos 2 y 7), la falta de respuesta sería MCAR si una persona respondiera o no
dependiera de la unidad de negocios, grado salarial, antigüedad o cualquiera de las
medidas de satisfacción laboral recopiladas en la encuesta. .
Si todos tienen la misma probabilidad de responder, ÿ, entonces los no respondedores son
MCAR.

Falta al azar. Si la probabilidad de respuesta no depende de yi pero sí de algunos o todos


los auxiliares xi, entonces los datos que faltan son MAR. En este caso, se puede formar un
modelo de respuesta que depende de xi ya que conocemos los auxiliares tanto para los
encuestados como para los no encuestados.
En la encuesta de personal, la respuesta podría depender del grado salarial: los trabajadores
con salarios más bajos podrían querer hacer sonar sus quejas y responder a tasas más
altas que otros. Esto, como señala Lohr (1999) , a veces se denomina falta de respuesta
ignorable, lo que significa que si el mecanismo de respuesta se modela correctamente y
se hacen ajustes para la falta de respuesta, entonces son posibles las inferencias a la
población.

Falta de respuesta no ignorable. Si las posibilidades de responder dependen de una o más


variables de análisis (es decir, las y), y esta dependencia no se puede eliminar modelando
la respuesta basada en las x que se conocen tanto para los encuestados como para los no
encuestados, entonces tenemos NINR. Supongamos que, en la encuesta de personal,
pudiéramos modelar la respuesta en función de la unidad de negocio, nivel de pago, etc.
además de una variable de análisis que califica si los empleados pensaban que había un
vínculo claro entre la calificación de desempeño y el pago. Si el coeficiente de la variable
de calificación fuera significativo, esto sería evidencia de NINR. El problema práctico de
ajustar este tipo de modelo es que la calificación de los que no respondieron no estará
disponible. En consecuencia, NINR es difícil o imposible de detectar excepto a través de un
estudio de seguimiento de falta de respuesta.

13.5.1 Ajustes de clases de ponderación

Si podemos crear grupos o clases donde todas las unidades tengan aproximadamente la
misma probabilidad de respuesta o aproximadamente los mismos valores de y, entonces
el sesgo de no respuesta en (13.1) se eliminará aproximadamente. Por lo tanto, el conjunto
ideal de clases estará relacionado tanto con las y como con las probabilidades de respuesta,
como recomiendan Kalton y Maligalig (1991) y Little y Vartivarian (2003, 2005). La dificultad
práctica con esto es que los valores de las variables de respuesta no están disponibles
para los que no responden. Además, un conjunto dado de clases no será igualmente
efectivo para todas las y. En consecuencia, un conjunto de clases suele identificarse en función de
Machine Translated by Google

320 13 pasos básicos en la ponderación

sobre las probabilidades de respuesta. Si las covariables utilizadas para formar las clases también son
predictores de y variables, esto es un bono.
En esta sección, cubrimos la mecánica del uso de clases para hacer ajustes de falta de respuesta.
Existen diferentes formas de formar clases, las cuales
describir en las Secciones. 13.5.2 y 13.5.3. Indexamos las clases por c = 1,...,C. los
El objetivo de formar clases es juntar unidades que tengan la misma respuesta.
propensión. Como se señaló anteriormente, también es deseable tener una asociación entre
los medios de análisis de las variables y la forma en que se forman las clases. Si todas las unidades
en una clase tienen los mismos valores de covariable, xc, y la propensión a la respuesta es una
función de xc, entonces ÿi = ÿ (xc) para todas las unidades en c. Denotar el conjunto de muestra
casos en la clase c como sc, el conjunto de encuestados elegibles como sER, y el conjunto de
no respondentes elegibles por sENR, como en la Secc. 13.4. Los casos que se conocen
para ser elegible en la clase c son sc,E = sc ÿ (sER ÿ sENR) y el conjunto de elegibles
encuestados en la clase c es sc,ER = sc ÿ sER. El ajuste por falta de respuesta para
unidades en la clase c se calcula usando los pesos ajustados de elegibilidad desconocida
discutido en la Secc. 13.4:

iÿsc,E d1i
a2c = ,
iÿsc,ER d1i

es decir, la relación de la suma de los pesos de entrada para todos los casos elegibles en el
clase a la suma de los pesos de entrada para los encuestados elegibles en esa clase.
El ajuste resultante a2c se aplica solo a los encuestados en la clase c. los
el ajuste se establece en cero para los no encuestados elegibles desconocidos o conocidos,
sUNK ÿ sENR, y a uno para los supuestos de no elegibilidad conocida, sIN . los
peso para la unidad i en la muestra inicial, luego de los ajustes por incógnita
elegibilidad y falta de respuesta, es entonces

ÿ d1ia2c i ÿ sc,ER,
d2i = ÿ
d1i i ÿ SEN ,
0
ÿ i ÿ HUNDIDO ÿ SENR,
ÿ d0ia1ba2c
i ÿ sb,KN ÿ sc,ER,
=
ÿ
d0ia1b i ÿ sb,KN ÿ sIN i ÿ ,
0
ÿ hundido ÿ sENR .

Por lo tanto, las personas elegibles obtienen tanto el ajuste por elegibilidad desconocida
y el ajuste por falta de respuesta. Los no elegibles conocidos (sKN ÿsIN ) obtienen solo el
ajuste de elegibilidad desconocido. Los desconocidos (sUNK) y los elegibles que no respondieron
(sENR) se retiran .
El ajuste a2c no necesariamente tiene que usar los pesos d1i . Poco
y Vartivarian (2003) señalan que si todas las unidades en un ajuste por falta de respuesta
clase tienen la misma probabilidad de respuesta, luego un ajuste no ponderado,
a2c = nc,E/nc,ER, será imparcial con respecto al modelo de respuesta y
puede dar ajustes NR más estables. Esto será cierto incluso si los d1i varían
dentro de cada clase.
Machine Translated by Google

13.5 Ajustes por falta de respuesta 321

Las clases de ajuste por falta de respuesta pueden formarse simplemente tabulando las
tasas de respuesta entre los elegibles conocidos de diferentes maneras y tratando de crear
clases con diferentes tasas. Formas más formales y efectivas de crear clases son usar
modelos de propensión o algoritmos de clasificación, como se describe en las siguientes
dos secciones.

13.5.2 Ajustes de puntuación de propensión

Como se señaló en la sección anterior, resultará un estimador de un total que no esté


sesgado sobre el proceso combinado de muestreo/respuesta si el peso es d2i = 1/ÿiÿi. Si ÿi
= ÿ (xi), podemos tratar de modelar las probabilidades de respuesta siempre que midamos
las covariables en todos los casos de muestra inicial. Hay problemas cuando las unidades
no son MAR o MCAR. Por ejemplo, si ÿi = ÿ (yi), no tenemos y para los que no respondieron
(R = 0). Si los que no respondieron siguen un modelo diferente al de los que respondieron,
no lo sabremos. Otro caso problemático sería ÿi = ÿ (Ui) donde Ui contiene las covariables
no medidas o las covariables medidas incorrectamente omitidas del modelo. Por ejemplo,
puede darse el caso de que la respuesta dependa de la edad, la raza/etnia y el sexo, pero
omitimos la raza/etnia. Una situación común sería que la respuesta dependiera de una
covariable que no se mide ni en los encuestados ni en los no encuestados.

Podemos temer que estemos operando con información inadecuada, pero, en la práctica,
los parámetros del modelo deben estimarse en función de lo que se sabe tanto de los
encuestados como de los no encuestados. Un enfoque es ajustar un modelo de regresión
binaria para los indicadores de respuesta Ri. El valor esperado del indicador es

ER (Ri| Ii = 1) = Pr (Ri = 1| Ii = 1) = ÿ (xi).

Esta es la probabilidad condicional de respuesta dado que se selecciona una unidad para
la muestra. Esto también influye en el uso o no de pesos base para ajustar el modelo, como
se analiza más adelante en este capítulo.

Respuesta como un proceso de variable latente

Una característica interesante de este problema es que responder a una encuesta


puede modelarse como la realización de un proceso variable latente. Esta línea de
pensamiento proporciona alguna motivación para los modelos de regresión binaria que
a menudo se usan para modelar la respuesta a una encuesta. El indicador Ri es la
variable manifiesta (la que vemos). Supongamos que hay una variable
es continua
latente pero
Es Rÿ que
no
observada. Si el valor de Rÿ excede algún umbral (digamos, más grande que
Es

algún ÿ), la unidad i responde; de lo contrario, no lo hace. La variable latente es la


“motivación” de una unidad para participar.
Machine Translated by Google

322 13 pasos básicos en la ponderación

Otros ejemplos que se pueden modelar como procesos de variables latentes son los
decisión de volver a alistarse en el ejército y la decisión de votar por algún candidato
para cargos políticos. En el primer caso, vemos si una persona se reincorpora o
no. Por qué o por qué no puede requerir la consideración de la satisfacción laboral, la familia
situación, ingresos futuros potenciales después de dejar el ejército, habilidades laborales, edad,
tiempo en servicio, etc. Votar por un candidato puede depender de la recepción del votante
de la honestidad del candidato y de las promesas del candidato de mejorar.
escuelas o disminuir el crimen. Al final lo que se observa es qué candidato
obtiene el voto de una persona.

Para enmarcar esto matemáticamente, supongamos que Rÿ se distribuye Es

simétricamente. La figura 13.2 ilustra la situación. Si el no observable Rÿ excede


Es

un umbral, entonces la unidad responde; de lo contrario, es un no respondedor.

0.4

0.3

0.2
densidad

0.1

0.0 R=0 R=1

0 2 4 6 8
R*

Higo. 13.2: Densidad de la variable latente para la respuesta de la encuesta.

Supongamos que la variable latente sigue un modelo lineal, Rÿ = xT ÿ + ui, donde ui


Es Es

tiene función de distribución F (no necesariamente normal). Entonces, la probabilidad


de respuesta, dada la selección de la muestra, es

ÿ (xi) = Pr (Ri = 1| Ii = 1)
= Pr(R* > ÿ).
Es

Ubicación de la R* distribución es arbitraria, por lo que podemos establecer ÿ = 0 o pensar


Es

sobre R* ÿ ÿ, que tiene la misma varianza que Rÿ yo _ La probabilidad de respuesta


entonces puedo ser escrito como

ÿ (xi) = Pr (Rÿ > 0) = Pr x T


Es Es
ÿ + ui > 0
= Prui > ÿxT ÿ Es

= 1 - F -xT ÿ=FxT ÿ
Es Es
Machine Translated by Google

13.5 Ajustes por falta de respuesta 323

suponiendo una distribución simétrica F para ui. Usando diferentes distribuciones F,


conduce a diferentes modelos de regresión binaria.
La función de enlace es una transformación que convertirá la probabilidad en una
función lineal de las covariables, xi. El vínculo está determinado por F [ÿ (xi)] ÿ1=
xT ÿ. Por lo tanto, el vínculo da una cantidad, Fÿ1[ÿ (xi)], que se modela como un
Es

combinación de covariables, xT ÿ. La ecuacion Es

F ÿ1
[ÿ (xi)] = F =
ÿ1
[ER (Ri | Ii = 1)]
xT ÿ Es

se llama modelo lineal generalizado. Algunos ejemplos son la logística, probit,


y modelos logarítmicos complementarios.

modelo probit

En probit, la probabilidad se modela igual al valor de la


función de distribución normal acumulada, ÿ (xi) = ÿ xT Es
ÿ. Aquí, ÿ = F
es la función de distribución normal estándar, es decir, ui ÿ N (0, 1). El enlace probit
es ÿÿ1 [ÿ (xi)] = xT ÿ, es decir, la función de distribución acumulativa gaussiana inversa
Es

o función cuantil gaussiana. Los valores de enlace tienen un rango de (ÿÿ, ÿ)


porque son cuantiles de la distribución normal estándar.

Regresión logística

exp(xT i ÿ) y la F ÿ1 el enlace es el
En un modelo de regresión logística, ÿ (xi) =
1+exp(xT i ÿ)
logit, definido como

ÿ (xi) = xT ÿ.
Iniciar sesión
Es

1 ÿ ÿ (xi)

Los logit tienen un rango de (ÿÿ, ÿ). La forma de la distribución logística,


F (u) = exp (u) / [1 + exp (u)], es similar a la distribución normal pero con
colas más pesadas a medida que u oscila sobre (ÿÿ, ÿ). La distribución logística tiene media 0
y varianza ÿ2 3.

Log-Log Complementario (c-log-log)

La probabilidad de respuesta en un modelo log-log complementario es ÿ (xi) =


1 ÿ exp ÿ exp xT ÿ. Esto también se llama distribución log-Weibull. los
Es

el enlace log-log complementario es

log {ÿ log [1 ÿ ÿ (xi)]} = xT Es


ÿ.
Machine Translated by Google

324 13 pasos básicos en la ponderación

Usar este modelo es equivalente a suponer que el término de error en el modelo de variable
latente tiene lo que se llama una distribución de "valor extremo":

F (ui) = eÿeÿui .

La distribución de valores extremos tiene una media de aproximadamente -0,577 (conocida como
constante de Euler) y una varianza ÿ2 6 (Weisstein 2010).
Hay algunas diferencias en estas distribuciones, pero no son extremas.
La figura 13.3 muestra las probabilidades en el eje vertical graficadas frente a los enlaces
estandarizados en el eje horizontal. El enlace estandarizado para cada distribución se define
como [u ÿ E (u)] /ÿu. Probit y logit son casi idénticos mientras que c-log log tiene más probabilidad
en valores más bajos de la función de enlace.
El ejemplo 13.6 ilustra cómo estimar las probabilidades de respuesta en R. Se debe elegir si
usar los pesos base de la encuesta al estimar los parámetros del modelo. Dado que se desean
probabilidades condicionadas a ser seleccionado para la muestra, esto implica que se deben
ajustar las regresiones no ponderadas. Si se utilizaran las ponderaciones base, entonces los
parámetros estimados serían para el modelo de ajuste censal, es decir, los que se estimarían si
se dispusiera de toda la población. Si Pr (Ri = 1| Ii = 1) = Pr (Ri = 1), entonces los estimadores
no ponderados y ponderados apuntarían a las mismas cantidades. Sin embargo, incluso en ese
caso, el uso de ponderaciones base variables puede generar estimadores con varianzas más
altas, un punto ilustrado por Little y Vartivarian (2003) en el contexto de los ajustes por falta de
respuesta de clase.
1.0

0.8

logit
probit
cÿlogÿlog

probabilidad
0,6
0,4
0,2
0,0

ÿ4 ÿ2 0 2 4
valor de enlace estandarizado

Higo. 13.3: Gráfica de probabilidades versus enlaces estandarizados para modelos logit, probit y c-log-log.

Ejemplo 13.6 (Modelos no ponderados). Los datos del NHIS de 2003 (nhis.RData) consisten en
3.911 casos. Identificamos a los que no respondieron como personas que respondieron a la
pregunta sobre ingresos personales como Rechazado, No determinado y No sabe o que
informaron sus ingresos solo por encima o por debajo de $20,000. la respuesta
Machine Translated by Google

13.5 Ajustes por falta de respuesta 325


0.8

0.7

0.6

0.5

obstruir logístico probit


0.8

0.7

0.6

predicciones
probit

predicciones
cÿlogÿlog

0.5
0,80
0,75
0,70
0,65
0,60
0,55
0,50

0.5 0.6 0.7 0.8 0.5 0.6 0.7 0.8

predicciones logísticas predicciones logísticas

Higo. 13.4: Comparaciones de probabilidades pronosticadas de modelos logísticos, probit y log-


log complementarios para la respuesta. Se dibuja una línea de 45o en la segunda fila donde el
las probabilidades serían iguales.

variable tiene valores de 0 para los no respondedores y 1 para los respondedores. Sobre
El 31 % no responde a este criterio. Ajustamos logit, probit y c-log-log
modelos utilizando las siguientes covariables:
Edad (continua)
educación sobre la edad
Expediente educativo (1 = escuela secundaria, educación general
grado de desarrollo (GED), o menos, 2 = algo de universidad
3 = Licenciatura o título de asociado
4 = Maestría y superior)
padres Origen étnico hispano (1 = hispano, 2 = no hispano)
hisp r Padre(s) de la persona de la muestra presente en la familia
(1 = Sí, 2 = No)
la raza Raza (1 = Blanco, 2 = Negro, 3 = Otro)

A continuación se muestra el código para ajustar un modelo logístico (no ponderado) en R. Algunos de los
la salida está en la Tabla 13.1. Las variables hisp, padres y raza se tratan como R
variables factoriales (variables de clase en SAS). R crea automáticamente variables ficticias
y omite el primer nivel de cada una (nivel de referencia) para calcular el parámetro
soluciones:
Machine Translated by Google

326 13 pasos básicos en la ponderación

# Regresión logística
glm.logit <- glm(resp ˜ edad + as.factor(hisp)
+ as.factor(raza) +
as.factor(parents_r) +
as.factor(educ_r),
family=binomial(link = "logit"),
datos = nhis)

resumen (glm.logit)

# extraer valores de enlace L.hat


<- glm.logit$linear.predictors # transformar valores de
enlace a escala de probabilidad
pred.logit <- exp(L.sombrero) / (1 + exp(L.sombrero) )

Para ajustar los modelos probit y c-log-log, use

family=binomial(enlace = "probit")
family=binomial(enlace = "cloglog")

en la llamada a glm. Supongamos que los modelos resultantes se almacenan en los objetos
glm.probit y glm.cloglog. Para vincular valores a probabilidades pronosticadas:

L.sombrero <- glm.probit$linear.predictores pred.probit <-


pnorm(L.sombrero)

L.sombrero <- glm.cloglog$linear.predictores pred.cloglog


<- 1 - exp(-exp(L.sombrero) )

Los valores AIC para los tres modelos son: logístico, 4777.2; probit, 4777.1; y c-log-log,
4777.1, lo que implica que los tres encajan igualmente bien, al menos según la medida
AIC. La figura 13.4 muestra diagramas de caja de las probabilidades predichas de los tres
modelos y diagramas de dispersión de las predicciones probit y c-log-log frente a las del
modelo logístico. Estos gráficos también confirman que los tres modelos producen
resultados muy similares en este ejemplo.
Los mismos modelos no ponderados también se pueden ajustar en SAS usando proc
genmod, el procedimiento diseñado para analizar datos a través de un modelo lineal
generalizado con una función de enlace específica:

proc datos genmod = nhis; clase hisp


carrera padres_r educ_r;

modelo resp = edad hisp raza padres educ_r


/ dist = enlace binomial = logit /* o probit o
cloglog */ ; correr;
Machine Translated by Google

13.5 Ajustes por falta de respuesta 327

Los mismos modelos se pueden ejecutar con los pesos base usando svyglm en el
Paquete de encuestas R (Lumley 2012). Debido a que los pesos base no están disponibles en
el archivo de uso público de NHIS, hemos utilizado los pesos finales de la encuesta (svywt) para
ilustración.

Ejemplo 13.7 (Modelos ponderados). El código R para ajustar el modelo logístico es


mostrado a continuación. Primero, se crea un objeto de diseño de encuesta con svydesign:

requerir (encuesta)
nhis.dsgn <- svydesign(ids = ˜psu, estratos = ˜estrato,
datos = nhis,
nido = VERDADERO,

pesos = ˜svywt) # Nota: el peso base debe


# ser usado si está disponible

glm.logit <- svyglm(resp ˜ padres_r + educ_r, edad + hisp + raza +

familia = binomio(enlace = "l


diseño = nhis.dsgn)

Las estimaciones ponderadas de los parámetros se muestran en la Tabla 13.1 junto con las
valores no ponderados del Ejemplo 13.6. Los mismos parámetros son significativos.
tanto en el ponderado como en el no ponderado, aunque a diferentes niveles.

La figura 13.5 traza las probabilidades de respuesta pronosticadas a partir de la ponderación


modelos frente a los de los modelos no ponderados en cada uno de los tres modelos. Las tasas de
respuesta generales para este conjunto de datos son del 69,0 % (sin ponderar) y
70,4% (ponderado). Las predicciones ponderadas por la encuesta en la Fig. 13.5 son principalmente
algo más alto que las predicciones no ponderadas, en consonancia con una mayor
tasa de respuesta global estimada.
En SAS, proc Surveylogistic se puede utilizar para calcular estimaciones ponderadas de
probabilidades. SAS no cuenta con procedimientos para el ajuste probit y
modelos c-log-log con datos de encuestas, aunque esto probablemente no sea una limitación real
ya que la logística se usa con más frecuencia. Uno podría usar proc genmod con pesos

Tabla 13.1: Estimaciones de parámetros no ponderados y ponderados de modelos logísticos.

No ponderado Encuesta ponderada


Parámetro Estimar valor z Pr(>|z|) Estimar valor z Pr(>|z|)
(Interceptar) 0,583 4,63 0,000 *** 0,667 4,00 0,000 ***

Edad ÿ0,013 ÿ5,74 0,000 *** ÿ0,013 ÿ5,74 0,000 ***

como.factor(hisp)2 0.306 3,36 0,001 *** 0,220 1,76 0,083 .

como.factor(raza)2 ÿ0,160 ÿ1,61 0,109 ÿ0,214 ÿ1,61 0,111

como.factor(raza)3 ÿ0,374 ÿ2,31 0,021 * ÿ0,449 ÿ2,23 0,028 *

como.factor(padres r)2 0,522 4,74 0,000 *** 0,547 4,84 0,000 ***

como.factor(educ r)2 0.249 2,54 0,011 * 0.341 3,07 0,003 **

como.factor(educ r)3 0.346 3,79 0,000 *** 0,383 3,99 0,000 ***

como.factor( educación r)4 0.276 1,94 0,052 . 0,310 2,15 0,035 *


Machine Translated by Google

0.8 0.8
0.80

328 13 pasos básicos en la ponderación


0.7 0.7
0.70

Logístico probit Registro-registro complementario


0.6

0.5

Probabilidades
ponderadas
predichas
encuesta
de
la Probabilidades
ponderadas
predichas
encuesta
0,5
de
0,6
la Probabilidades
ponderadas
predichas
encuesta
0,50
0,60
de
la

0.5 0.6 0.7 0.8 0,5 0,7 0,8 0.6 0,50 0,55 0,60 0,65 0,70 0,75 0,80
Probabilidades predichas no ponderadas Probabilidades predichas no ponderadas Probabilidades predichas no ponderadas

Higo. 13.5: Comparación de probabilidades predichas no ponderadas y ponderadas de modelos


logísticos, probit y log-log complementarios. En cada panel se dibuja una línea de 45o .

para obtener estimaciones puntuales para probit y c-log-log; los errores estándar (y por lo tanto
la prueba de significación) no tendrá en cuenta características de diseño como la agrupación.

Uso de las propensiones estimadas para el ajuste por falta de respuesta

Las propensiones de respuesta se pueden utilizar para los ajustes por falta de respuesta, ya sea
individualmente o agrupando las unidades en clases. Las opciones son:

1. Ponderación de propensión: ajuste la ponderación para una persona que responda


unidad por 1 ÿˆi con ÿˆi calculado a partir de una regresión binaria.

2. Estratificación de propensión—Utilice los ÿˆi para crear clases y hacer un ajuste común dentro
de cada clase para todos los encuestados.

La ponderación de propensión se discutió en las secciones anteriores. El uso de


La estratificación de la propensión fue introducida por Rosenbaum y Rubin (1983) para
estudios observacionales. Los puntajes de propensión han encontrado muchos usos, particularmente
en la inferencia causal (Stuart 2010). En un estudio observacional puede haber una
"tratamiento" y un grupo de "control", pero no se utiliza la aleatorización a los grupos.
Con este tipo de “datos encontrados” puede haber muchas diferencias entre los
composiciones de los grupos que dificultan la inferencia. Por ejemplo, podemos
recopilar datos sobre fumadores y no fumadores y medir la variable de resultado
cáncer de pulmón. Los fumadores y los no fumadores pueden diferir en muchas covariables distintas
que solo si fuman o no. Una diferencia observada en las tasas de
el cáncer de pulmón en los dos grupos puede deberse a algo más que fumar
a menos que el efecto de las covariables se pueda “ajustar” de alguna manera.
Una forma de hacer el ajuste es crear clases. El objetivo general en
la creación de clases es agrupar unidades que tienen las mismas o muy similares propensiones
de estar en el grupo de “tratamiento” (p. ej., fumadores). Las unidades en una clase tendrán
la misma configuración de covariables, o, al menos, aproximadamente el mismo ÿ (x), que
resume el efecto de las covariables. En teoría, la diferencia entre el
las medias estimadas de tratamiento y control no están sesgadas para conjuntos de unidades con
mismo puntaje de propensión. Dentro de cada clase, las unidades se tratan como si fueran
aleatorizado a tratamiento o control ya que cada uno tiene la misma probabilidad ÿ (x)
Machine Translated by Google

13.5 Ajustes por falta de respuesta 329

de tratamiento Por ejemplo, podríamos agrupar a personas que tienen propensiones similares a
fumar. Luego, calcule las proporciones de fumadores y no fumadores con cáncer de pulmón en cada
clase. La idea es que cualquier diferencia en covariables como edad, raza/etnicidad y clase social
se haya ajustado dentro de cada grupo porque ÿ (xi) resume los efectos de las covariables (al menos
las del modelo) y ÿ (xi ) ) están cerca uno del otro para todas las unidades en un

grupo.
En el caso de respuesta/falta de respuesta, los que responden son equivalentes a los tratados y
los que no responden a los controles. La probabilidad de tratamiento es la probabilidad de respuesta.
Creamos clases para que cada unidad en una clase tenga la misma o similar probabilidad de
responder y hacemos el mismo ajuste de falta de respuesta para cada encuestado en una clase
dada. Little (1986) fue el primero en sugerir esto para el ajuste por falta de respuesta; Czajka et al.
(1992) dan un ejemplo utilizando declaraciones de impuestos.

Estratificación de propensión: creación de clases

Primero, se ajusta un modelo de regresión binaria utilizando las covariables disponibles tanto para
los encuestados como para los no encuestados. Idealmente, estas covariables están relacionadas
tanto con la propensión a responder como con las y que se miden. En la práctica, el conjunto de x
disponibles puede ser extenso o bastante limitado, según el tipo de encuesta. En una encuesta de
satisfacción de los empleados, como la del Proyecto 1, se puede saber bastante sobre todas las
unidades de la muestra. Las encuestas de panel también pueden tener datos sobre los que no
respondieron en ciclos posteriores si las unidades respondieron en un ciclo inicial y proporcionaron
algunos datos. En una encuesta telefónica, es posible que no se sepa casi nada de los que no
respondieron, aparte, posiblemente, de la ubicación geográfica del número de teléfono. Incluso esto
está cambiando en los EE. UU., donde los usuarios de teléfonos móviles pueden conservar el mismo
número de teléfono dondequiera que vayan.
Los pasos generales en la formación de clases son:

1. Calcular ÿˆ (xi) para cada unidad en la muestra utilizada para modelar.


2. Ordene el archivo por ÿˆ (xi), de menor a mayor.
3. Formar clases con aproximadamente el mismo número de unidades de muestra iniciales
(encuestados + no encuestados) en cada una.

Por lo general, se recomiendan cinco clases con base en algunos análisis de Cochran (1968). Con
una muestra grande, no hay razón para no crear más clases. Esto puede ayudar a que cada uno
sea más homogéneo en cuanto a covariables y puntajes de propensión.
Más clases pueden disminuir el sesgo debido a la falta de respuesta, pero pueden aumentar las
variaciones al crear una mayor dispersión en los pesos. En el Cap. 14

Si el rango de ÿˆ (xi) en cada clase es pequeño, entonces es razonable usar un solo valor de
propensión para cada clase. En algunos conjuntos de datos, puede haber agrupamiento de
probabilidades estimadas, es decir, grupos de unidades que tienen aproximadamente el mismo
Machine Translated by Google

330 13 pasos básicos en la ponderación

ÿˆ (xi). Si hay separación entre los grupos, entonces crear clases con
el mismo número de unidades puede ser una mala idea ya que mezclaría unidades con
diferentes propensiones de respuesta. Hay varias opciones para calcular un
ajuste único en cada clase c:

1. ÿˆc = iÿsc ÿˆ (xi) nc, propensión estimada promedio no ponderada donde


nc es el número no ponderado de casos en la clase c
2. ÿˆc = diÿˆ (xi)iÿsc iÿsc di, propensión estimada media ponderada;

donde di es el peso de entrada al paso NR y el número estimado iÿsc di = Nˆc, la


de unidades de población en la clase c
3. ÿˆc = ncR/nc, tasa de respuesta no ponderada donde ncR es el número no ponderado
nmero de encuestados en la clase c
4. ÿˆc = di iÿscR iÿsc di, estimación ponderada de la tasa de respuesta

5. ÿˆc = mediana ÿˆ (xi) , propensión estimada mediana no ponderada


iÿsc

Si todas las unidades de una clase tienen la misma probabilidad de responder, es decir, el
agrupamiento es muy efectivo, entonces (3) ÿˆc = ncR/nc es lo mejor [ver Little y Varti varian
(2003)]. Si los valores de ÿˆ (xi) varían dentro de una clase, se puede usar (1) o (2). los
cuarta opción, ÿˆc = di, es unaiÿscR di
estimación deiÿsc
la población
tasa de respuesta en clase c asumiendo MAR. Esta estimación es aproximadamente imparcial
con respecto al mecanismo compuesto de muestreo/respuesta o con
respecto a un modelo con una probabilidad de respuesta común dentro de cada clase.
La cuarta opción puede ser ineficiente si los pesos varían mucho dentro de la clase y
unidades tienen un ÿi común. La opción (5), la mediana, podría considerarse si la
las probabilidades de respuesta varían bastante dentro de una clase o la distribución
de las probabilidades estimadas está sesgada. Compararemos estas opciones en
un ejemplo a continuación. En muchas aplicaciones, las opciones darán muy similar
respuestas

Comprobación del saldo en covariables

D'Agostino (1998) da un método simple para verificar el balance de covariables


dentro de las clases formadas en la estratificación de propensión. Una vez formadas las clases,
la idea es verificar el alcance de las diferencias en las medias de las covariables.
Las medias de las covariables deben ser diferentes entre las clases, pero dentro de un
clase, las medias de las covariables deben ser las mismas para encuestados y no encuestados.
La última condición es consistente con la propensión a la respuesta
siendo el mismo para todas las unidades dentro de una clase. Supongamos que las clases se forman en base
en quintiles de ÿˆ (xi) dando cinco clases. Defina una variable p.class con cinco
valores y tratarlo como un factor, es decir, p.class <- as.factor(seq(1:5)).
Además, defina la variable indicadora resp = 1 si una unidad es un encuestado y 0 si
un NR. A continuación, ajuste los modelos para la media de cada covariable usando p.class y
resp como predictores:
Machine Translated by Google

13.5 Ajustes por falta de respuesta 331

• Para las x cuantitativas, ajuste un modelo de análisis de varianza (ANOVA), x = p.clase resp
p.clase*resp. • Para x dicotómicas, ajuste un modelo logístico, logit(x) = p.class resp p.class*resp

Los coeficientes de resp y el término de interacción p.class*resp no deberían ser significativos si las
medias de las covariables no difieren para Rs y NRs dentro de la clase de quintil. Los coeficientes
de p.class deben ser distintos de cero y diferentes entre sí, ya que las unidades con diferentes
valores de las propensiones y, en consecuencia, las covariables, entran en las diferentes clases.
Otro paso simple y descriptivo es observar las medias de las covariables en una tabla p.class*resp.
La comprobación del equilibrio también es relevante para otros tipos de estudios. Por ejemplo,
Harder et al. (2010) analizan el equilibrio en la inferencia causal en estudios psicológicos.

Ejemplo 13.8 (Formar clases a partir de propiedades). Continuando con los análisis NHIS dados en
el Ejemplo 13.6, el objeto pred.logit contiene las probabilidades de respuesta pronosticadas del
modelo logístico no ponderado. El siguiente código R divide a las personas en cinco clases y verifica
el conteo de personas por clase:

# Determinar quintiles de propensiones de respuesta quintiles <- quantile(pred.logit,


probs = seq(0,1,0.2))
# Cree un factor para contener los ID de clase # include.lowest=TRUE
se asegura de que sea el más pequeño #
la propensión se asigna a una clase p.class <-
cut(round(pred.logit,3), breaks = quintiles,
incluir.más bajo=VERDADERO)
tabla(p.clase)
(0.453,0.631] (0.631,0.677] (0.677,0.714] (0.714,0.752] 788
778 773 786
(0.752,0.818]
786

A continuación, comparamos las cinco formas de estimar la propensión de respuesta de la clase:

# (1) Propensión de respuesta promedio no ponderada por (data =


pred.logit, p.class, mean)
# (2) Propensión de respuesta ponderada
por(datos = datos.marco(pred.logit,
wt = nhis[,"svywt"]), p.class,
function(x) {weighted.mean(x$pred.logit,
x$wt)})
# (3) Tasa de respuesta no ponderada por
(as.numeric(nhis[, "resp"]), p.class, mean)

# (4) Tasa de respuesta ponderada por(data =


data.frame(resp = as.numeric(nhis[,"resp"]),
wt = nhis[,"svywt"]), p.class, function(x)
{weighted.mean(x$resp, x$wt)})

# (5) Propensión de respuesta mediana no ponderada por (pred.logit,


p.class, mediana)
Machine Translated by Google

332 13 pasos básicos en la ponderación

La tabla 13.2 enumera los valores de propensión que se utilizarían para cada clase
basado en los cinco métodos anteriores. En los datos del NHIS, todos los métodos dan resultados similares.
resultados. Aunque los cinco métodos dan una propensión creciente monótonamente
valores a través de las clases, esto no tiene por qué ser cierto. El no ponderado y
las tasas de respuesta ponderadas, en particular, no tienen que aumentar desde la clase 1
a 5, aunque las propensiones estimadas del modelo sí lo hacen.

Tabla 13.2: Cinco métodos para estimar las propensiones de respuesta dentro de las clases basadas
sobre el ajuste de un modelo logístico a los datos del NHIS.

(Una) (2) (3) (4) (5)


Límites de clase Recuento No ponderado Ponderado No ponderado Mediana ponderada
de promedio promedio RR RR
personas propensión propensión
Una
[0.453,0.631] 778 0.588 0.591 2 (0.631,0.677] 773 3 0.589 0.591 0.595

(0.677,0.714] 788 4 (0.714,0.752] 786 5 0.655 0.655


(0.752,0.818] 786 0.662 0.679 0.657
0.696 0.696 0.694 0.702 0.696
0.732 0.732 0.707 0.717 0.733
0.777 0.778 0.796 0.804 0.775

[0.453,0.631] (0.631,0.677] (0.677,0.714] (0.714,0.752] (0.752,0.818]

Higo. 13.6: Diagramas de caja de probabilidades predichas basadas en regresión logística después de clasificar
en cinco clases de propensión.

La figura 13.6 muestra diagramas de caja de las probabilidades de regresión logística dentro de
cada una de las cinco clases de propensión. La línea horizontal en cada cuadro es el
media no ponderada de las propensiones en la clase. La clase con las propensiones más pequeñas tiene
un rango más amplio que los demás, lo cual es típico en
Machine Translated by Google

13.5 Ajustes por falta de respuesta 333

estas aplicaciones. El rango de propensiones en las últimas cuatro clases es mucho más
corto. Usar la media u otro valor único para ajustar la falta de respuesta
eliminar los ajustes más extremos. Por ejemplo, en la primera clase, el
la propensión estimada más pequeña es 0.453 cuyo inverso es 2.21. el no ponderado
la media en esa clase de la tabla 13.2 es 0,588 con una inversa de 1,70. De este modo,
el uso de la media reduciría el ajuste en aproximadamente un 23 %.
Ilustramos una verificación del equilibrio de covariables ajustando un modelo ANOVA
a la edad, que es continua. No usamos los pesos de la encuesta a continuación ya que
el interés está en si se ha logrado el equilibrio en la muestra que se
seleccionado. Las comprobaciones pueden hacerse utilizando los pesos, en cuyo caso la comprobación
dependería de si el modelo de ajuste del censo muestra evidencia de equilibrio:

chk1 <- glm(edad ˜ datos = nhis) p.clase + resp + p.clase*resp,

resumen (chk1)
Coeficientes:
Estime el valor de t Pr(>t)
(Intersección) 56,12 63,06 < 2e-16 ***
p.clase(0.631,0.677] p.clase(0.677,0.714] -7.84 -5.91 3.79E-09 ***
p.clase(0.714,0.752] p.clase(0.752,0.818] -11,36 -8,37 < 2e-16 ***
-12,98 -9,43 < 2e-16 ***
-23.12 -15.00 < 2e-16 ***
resp -0.06 -0.05 0.957
p.clase(0.631,0.677]:resp -0.01 -0.01 p.clase(0.677,0.714]:resp -1.24 -0.73 0.994
p.clase(0.714,0.752]:resp 0.22 0.13 p.clase(0.752,0.818]: resp 1.57 0.86 0.464
Códigos de signif: 0.896
0.390

0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1''1

En este caso, todos los factores p.class tienen coeficientes que son significativos
mientras que las interacciones p.class*resp no lo son—los resultados deseados si son medios
la edad difiere entre las clases, pero es la misma para los encuestados y los no encuestados
dentro de una clase. Otra verificación es colocar un segundo modelo que incluye solo
p.class y para probar si los modelos son equivalentes:

chk2 <- glm(edad ˜ anova(chk2, p.clase, datos = nhis)


chk1, test="F")

El estadístico F es 0,457 con 3906 y 3901 grados de libertad y tiene un


valor p de 0,8084. Así, el modelo sin factor de respuesta se juzga
ser adecuado.
El equilibrio sobre la etnicidad hispana se puede verificar con una regresión logística
después de recodificar hisp = 1, 2 a una nueva variable binaria new.hisp=0,1:

nuevo.hisp <- abs(nhis$hisp-2)


chk1 <- glm(nuevo.hisp ˜ p.clase + resp + p.clase*resp,
familia = binomial (enlace = "logit"),
datos = nhis)
resumen (chk1)
Coeficientes:
Machine Translated by Google

334 13 pasos básicos en la ponderación

Estimación z Pr(>z)
(Intersección) -0,51 -4,4 9.69E-06 ***
p.class(0.631,0.677] p.class(0.677,0.714] -0.17 -0.9 0.344
p.class(0.714,0.752] p.class(0.752,0.818] -0,76 -3,9 9.64E-05 ***
resp p.class(0.631,0.677]:resp -0.25 -1.84 -7.1 1.75E-12 ***
-1.1 p.clase(0.677,0.714]:resp -0.05 -2.92 -6.2 4.51E-10 ***
-0.2 p.clase(0.714,0.752]:resp -0.04 0,08 0,5 0.612
-0.1 p.clase(0.752,0.818]:resp -0.99 -1.7 0.253
0.842
0.901
0.097

Tres de los cuatro coeficientes para p.class son significativos mientras que el
Las interacciones p.class*resp no lo son (al menos en el nivel 0.05). Resultados
para raza, padres r y educ r son similares. Tenga en cuenta que race y educ r
deben recodificarse en variables binarias para usar la logística. También podemos caber un segundo
modelo con solo p.class para comparar con el anterior:

chk2 <- glm(nuevo.hisp ˜ p.clase,


familia = binomial (enlace = "logit"),
datos = nhis)
anova(chk2, chk1, prueba="Chisq")

La declaración ANOVA prueba si los dos modelos definidos por chk1 y


chk2 son equivalentes en el sentido de que tienen el mismo valor de ÿ2 logaritmo de
verosimilitud. El estadístico chi-cuadrado es 3,7566 con cinco grados de libertad y
tiene un valor p de 0.585. En consecuencia, también se obtuvo equilibrio en hispano.

Nota numérica

El modelo logístico para verificar el equilibrio de covariables en los padres tiene anomalías
resultados que parecen ocurrir bastante a menudo en la práctica y merecen un comentario.
El modelo

nuevo.par <- abs(nhis$padres_r-2)


chk <- glm(nuevo.par ˜ p.clase + resp + p.clase*resp,
familia = binomial(enlace = "logit"),
datos = nhis) resumen (chk)

conduce a un error estándar extremadamente grande en p.class(0.752,0.818]


y el término de interacción p.class(0.752,0.818]:resp. La salida de
este modelo es

Coeficientes:
Estimar SE z Pr(>z)
(Intersección) -0,54 0,12 -4,64 3,49E-06 ***
p.clase(0.631,0.677] p.clase(0.677,0.714] -1,11 0,20 -5,45 5,10E-08 ***
p.clase(0.714,0.752] p.clase(0.752,0.818] -1,81 0,26 -7,07 1,51E-12 ***
-3,27 0,47 -7,00 2,49E-12 ***
-19,03 850,18 -0,02 0,982
resp -0,22 0,15 -1,45 0,148
p.clase(0.631,0.677]:resp 0.47 0.25 1.85 0.064
Machine Translated by Google

13.5 Ajustes por falta de respuesta 335

p.clase(0.677,0.714]:resp 0.38 0.31 1.23 0.220 p.clase(0.714,0.752]:resp -1.19


0.75 -1.58 0.113 p.clase(0.752,0.818]:resp 0.22 952.65 0.00 1.000

Este es un síntoma de separación “casi completa” en el conjunto de datos, es decir, hay


una o más observaciones con una probabilidad prevista igual o cercana a 1.
En esta situación, la estimación de un parámetro divergerá hasta el infinito. En el ejemplo
de NHIS, no hay casos en la clase 5 donde los padres de la persona de la muestra vivan
en el hogar (padres r=1). Esto no tiene ningún efecto negativo sobre la formación de las
propias clases de propensión. Dado que el valor de la covariable de los padres r es el
mismo para todos los asignados a esa clase, se logró el objetivo de igualar los valores de
la covariable. (Por supuesto, si este problema surgiera en el análisis logístico donde el
objetivo es encontrar covariables relacionadas con la aparición de alguna característica,
tendría que abordarse).
A continuación se muestra el código SAS para crear clases y verificar el saldo de las
covariables de edad e hisp. Aquí se usa el procedimiento logístico, pero proc genmod
también es una opción, como se ilustró anteriormente en este capítulo. El resultado no
aparece en la lista, aunque se recomienda a los usuarios de SAS que prueben el código
utilizando los datos del NHIS:

proc import out= work.nhis datafile= "C:


\nhis.csv" dbms=csv replace;
obtener nombres=sí; fila de datos
= 2;

correr;
* Modelo de probabilidad de respuesta; datos
logísticos del proceso = nhis; clase hisp (ref = '1')
carrera (ref = '1') padres_r (ref = '1') educ_r (ref =
'1') / param=ref; modelo resp(evento = '1') =
edad hisp carrera padres_r educ_r;

salida out = pred pred = pr;


correr;

* Crear quintiles basados en el puntaje de propensión estimado;


proc rank grupos = 5 out = r; rangos rangos;

varpr;
correr;

datos a;

establecer r; pclase = rnks + 1;


correr;

* Mostrar el desglose de unidades por clase de propiedad y respuesta; datos de frecuencia de


proceso = a; tablas pclass * RESP;

correr;
Machine Translated by Google

336 13 pasos básicos en la ponderación

* Realizar ANOVA de 2 vías y regresiones logísticas para determinar; * si se eliminó la diferencia en las medias
de las covariables; * mediante la creación de clases. datos de proc glm = a; clase pclase; edad del modelo =
pclass resp pclass * resp; ;

correr;

proc datos logísticos = a;


clase pclass(ref = '1') resp(ref = '0');

modelo hisp (evento = '2') = pclass resp pclass * resp;


correr;

Casos especiales de modelos de propensión a la respuesta

Ver a qué se reduce un modelo de propensión en algunos casos especiales es


instructivo. Primero, considere un modelo con efectos e interacciones principales. Por
ejemplo, supongamos que tenemos género (masculino, femenino) y raza/etnia
(hispano, blanco no hispano, negro no hispano, otra raza/etnia no hispana).
Esto da 2 × 4 = 8 niveles o clases en el modelo. El modelo de variable latente definido
sin un término de intersección para la unidad i en el nivel j de género y el nivel k de
raza/etnicidad es
Rÿ = ÿj + ÿk + (ÿÿ)jk + ui,
Es

donde
ÿj es el efecto del j-ésimo nivel de género (masculino o
femenino) ÿk es el efecto del k-ésimo nivel de etnicidad (hispano, no hispano, blanco, no hispano)
Negro hispano, otro no hispano) (ÿÿ)jk
es un efecto de la interacción de género y etnicidad ui es un término
de error que se supone que tiene una distribución normal estándar, es decir,
ui ÿ N (0, 1)
(Si ui tiene una varianza ÿ2 = 1, entonces el modelo puede reformularse en términos de Rÿ /ÿ. Es

Dado que la variable latente no es observable, no se trata de una suposición que


pueda verificarse de todos modos). ) ).

Esto es equivalente a un modelo de ajuste de clase de género × raza/etnicidad, como


mostramos ahora. Supongamos que se utiliza la regresión logística para predecir la
probabilidad de respuesta de una persona con género j y raza/etnicidad k:

ÿ (xi) = exp ÿj + ÿk + (ÿÿ)jk 1 + exp ÿj + ÿk + (ÿÿ)jk .

Esta probabilidad es la misma para cada unidad i en cada combinación jk. Esto lleva a que
la estimación de ÿ (xi) sea nR jk njk en el caso no ponderado.
estimada Es decir,jklaesprobabilidad
para las unidades simplemente la
proporción de la muestra en la clase que son encuestados, es decir, la tasa de respuesta no
ponderada.
Machine Translated by Google

13.5 Ajustes por falta de respuesta 337

Si se utilizan pesos de encuesta, obtenemos iÿsRjk di iÿsjk di , el ponderado


la tasa de respuesta, siendo sjk el conjunto de unidades de muestra en el nivel jk jk el conjunto
y sR de los encuestados. Si el modelo apropiado incluye solo efectos principales, de modo
que ÿ (xi) = exp (ÿj + ÿk) / [1 + exp (ÿj + ÿk)], esto no se reduce al modelo de clase, y las
predicciones logísticas aún deben ser utilizado en lugar de un ajuste de clase de ponderación.

Si ninguna x es significativa en el modelo y un intercepto solo es el mejor modelo,


entonces esto es evidencia de que la falta de respuesta es MCAR. Si es así, entonces es
apropiado un ajuste general de NR.

Pros y contras: ajuste de clase frente a modelos de propensión

Una pregunta obvia es qué método es mejor: ajuste de clase con clases definidas por cruces
de variables categóricas o modelos de propensión con ajustes basados en propensiones de
respuesta individuales o clases de propensión.
El modelo de propensión puede ser más flexible que el ajuste de clase por varias razones,
entre ellas:

• Las variables categóricas no tienen que estar completamente interactuadas.


• Las x continuas se pueden usar solas o en combinación con variables categóricas. • Se
puede hacer un modelo explícito para decidir qué variables deben incluirse.

Por supuesto, el modelado puede llevar a elegir el ajuste de clase si el modelo incluye solo
los efectos principales para las variables categóricas y todas las interacciones. Si se sabe
poco acerca de los que no responden, el modelo de propensión no ganará mucho sobre el
ajuste de clase y puede ser equivalente. En las encuestas de hogares, por ejemplo, pueden
estar disponibles pocos elementos específicos de personas o de hogares. Los datos del
vecindario pueden ser más comunes.
En el otro extremo, si hay una serie de variables disponibles para encuestados y no
encuestados, los modelos de propensión pueden dar una gama bastante amplia de
probabilidades estimadas. En ese caso, agrupar las propensiones en clases, como se
describió anteriormente, conducirá a una menor dispersión en los ajustes de ponderación.
Por otro lado, si el modelo se ajusta bien, los ajustes de ponderación que sean inversos de
las propensiones individuales eliminarán el sesgo, mientras que los ajustes de clase no lo harán.
El ajuste de clase eliminará el sesgo si todas las unidades de la clase tienen la misma
probabilidad de respuesta, pero si cada unidad tiene una probabilidad de respuesta separada,
un ajuste de clase puede ser demasiado grueso para eliminar el sesgo. (El sesgo al que se
hace referencia aquí es sobre las distribuciones de muestreo y respuesta). Dado que los
modelos generalmente no son completamente confiables, el uso de la estratificación de
propensión es más común en la práctica.
Un último punto computacional es este: un factor y sus niveles pueden ser simples o
elaborados. Por ejemplo, un factor simple es el género (masculino, femenino). El equivalente
a cruzar dos variables categóricas simples sería crear una sola variable que pudiera tomar
todos los valores del cruce. Por ejemplo, género ×
Machine Translated by Google

338 13 pasos básicos en la ponderación

raza/etnicidad con niveles (masculino, femenino) × (hispano, blanco no hispano, negro no


hispano, otro no hispano) podría codificarse como una sola variable con ocho niveles. Esto
permite cierta flexibilidad en el uso de un conjunto de variables que interactúan parcialmente en
un modelo. Como ilustración, podríamos tener género × raza/origen étnico y género × educación
como dos factores en un modelo de propensión.

13.5.3 Algoritmos de clasificación

Otro método para formar clases para los ajustes por falta de respuesta es a través de un
algoritmo de clasificación. La idea de clasificar unidades matemáticamente en función de
características fue introducida por Morgan y Sonquist (1963). Muchos algoritmos ahora están
disponibles, incluidos árboles de clasificación y regresión (CART; Breiman et al. (1993)), máquinas
de vectores de soporte (Vapnik 1995) y detección de interacción automática de chi cuadrado
[CHAID, (Kass 1980)]. Cubriremos el algoritmo CART que está disponible en el paquete R rpart
(Therneau et al. 2012). El objetivo será clasificar las unidades como encuestadas o no
encuestadas en función de las covariables disponibles para todos los casos de muestra. Por lo
tanto, los datos de entrada son los mismos que para el modelo de propensión. Algunas de las
principales aplicaciones de los algoritmos de clasificación se encuentran en la construcción de
árboles de decisión. Uno de los ejemplos más conocidos es si el piloto del transbordador espacial
debe usar el aterrizaje automático o aterrizar manualmente (Michie 1989; Venables y Ripley
2002) según la dirección y velocidad del viento, la visibilidad y otros factores.

En la solicitud de no respondedor, el árbol de decisiones clasificará los casos utilizando las


covariables disponibles en clases que están relacionadas con su probabilidad de ser
respondedores. Las ventajas de CART en comparación con el modelo de propensión son las
siguientes:

1. Las interacciones de las covariables se manejan automáticamente.


2. La forma en que las covariables ingresan al modelo no tiene que hacerse
explícito.
3. Selección de qué covariables e interacciones asociadas deben ser
incluido se hace automáticamente.
4. Los valores de las variables, ya sean categóricos o continuos, se combinan (agrupan)
automáticamente.

Judkins et al. (2005) y Rizzo et al. (1996) son dos artículos que comparan modelos de propensión
y algoritmos de árboles para el ajuste por falta de respuesta. Como en la sección anterior,
queremos formar clases para poder afirmar que tenemos MAR, es decir, dadas las x que definen
clases, todas las unidades tienen la misma probabilidad de respuesta.

El siguiente código R usa el paquete rpart para identificar un árbol usando el


Conjunto de datos NHIS basado en las mismas variables que en el modelo de propensión:
Machine Translated by Google

13.5 Ajustes por falta de respuesta 339

require(rpart)
set.seed(15097) nhis
<- data.frame(nhis) t1 <- rpart(resp
˜ edad + hisp + carrera + padres_r
+ educ_r, método = "clase", control = rpart.control(minbucket
= 50, cp=0), datos = nhis)

print(t1, digits=2) plot(t1,


uniform=TRUE, compress=TRUE, margin = 0.1) text(t1, use.n=TRUE,
all=TRUE, digits=4, cex=1.2, pretty=1.2, elegante = VERDADERO, xpd =
VERDADERO, fuente = 3)

Hay cierta aleatoriedad en la forma en que el algoritmo determina el árbol. La


instrucción set.seed obliga al generador interno de números aleatorios a comenzar en
un lugar particular, lo que permite que los resultados se reproduzcan en diferentes
ejecuciones del mismo código.
El parámetro minbucket = 50 en rpart.control requiere que haya al menos 50 casos
(respondientes + no encuestados) en cada agrupación final de valores de variables
conocido como nodo terminal del árbol. El parámetro cp=0 es un parámetro de
complejidad que evita que se realicen divisiones a menos que la medida de ajuste
mejore al menos en unidades cp. Venables y Ripley (2002) explican con cierto detalle
los criterios utilizados por rpart para ajustarse al árbol. En nuestra aplicación, en cada
paso, se encuentra una división basada en una covariable del conjunto disponible de
covariables que maximiza la probabilidad logarítmica de ser un encuestado. Aunque
el valor predeterminado de cp=0.1 parece pequeño, hemos encontrado que rpart a
menudo no construye ningún árbol con el valor predeterminado. Establecer cp=0, es
decir, sin penalización por complejidad, puede ser necesario para construir un conjunto
útil de clases. La función print da una lista bastante compacta de los detalles del árbol:

imprimir (t1, dígitos = 2)

node), split, n, loss, yval, (yprob) * denota nodo terminal

1) root 3911 1200 1 (0.31 0.69) 2) educ_r< 1.5


1964 690 1 (0.35 0.65) 4) age>=56 588 240 1 (0.41 0.59)
* 5) age< 56 1376 450 1 (0.33 0.67) 10) padres_r< 1.5
277 110 1 (0.40 0.60) 20) edad>=32 67 31 0 (0.54
0.46) * 21) edad< 32 210 75 1 (0.36 0.64) * 11) padres_r>=1.5
1099 340 1 0.31 0.69) *

3) educ_r>=1.5 1947 520 1 (0.27 0.73) *

El árbol NHIS tiene cinco nodos terminales (u hojas) marcados con *. Cada fila de la
lista muestra el número del nodo, la división, que es la combinación
Machine Translated by Google

340 13 pasos básicos en la ponderación

ción de valores de variables para casos en el nodo, el número total de casos en el


nodo (etiquetados como n), el número de casos que están mal clasificados
(etiquetados como pérdida), la categoría de la mayoría de los casos en el nodo (0
=no respondedor, 1=respondedor, etiquetado como yval) y la proporción de casos
que son 0 y 1 (etiquetados como yprob). Por ejemplo, el nodo etiquetado como 4
en el resultado de la declaración de impresión anterior contiene personas que
tienen educación secundaria o menos (educ r<1.5) y que tienen 56 años o más.
Hay 588 personas en ese nodo, la mayoría de los cuales son encuestados (yval=1).
Si todas las personas del nodo se clasificaran como encuestados, 240 estarían
mal clasificados (pérdida=240). La proporción de casos que son encuestados es de 0,59.

1 | 1212/2699

educa_r< 1.5
educa_r>=1.5

1 689/1275 1 523/1424

edad>=55.5
edad< 55.5

1 239/349 1 450/926

padres_r< 1.5
padres_r>=1.5

1 111/166 1 339/760

edad>=32.5
edad< 32,5
1
0 36/31 75/135

Higo. 13.7: Árbol de clasificación para las clases de ajuste por falta de respuesta en los datos del NHIS.

La Figura 13.7 es una imagen del árbol, que puede aclarar la combinación de
factores en cada nodo. Por ejemplo, el nodo etiquetado como 11 en el resultado
de la impresión se define por casos con educación secundaria o menos (educ r<
1.5), edad < 56 y ninguno de los padres de la persona de la muestra presente en
el hogar (padres r> =1.5). El nodo 11 tiene una tasa de respuesta del 69 %.
Observe que las definiciones de los nodos implican que existe cierta interacción
entre las variables que se tiene en cuenta al modelar la respuesta. El hispano y la
raza no se usaron en la construcción del árbol, aunque estos factores fueron
significativos en el modelo logístico de la Tabla 13.1. Sin embargo, el uso de
categorías más detalladas para la presencia de los padres y la educación conducirá
a que se incluya a los hispanos, como se ilustra en uno de los ejercicios. Observe
que el árbol de regresión ha identificado una interacción triple de educación, edad y padres.
Machine Translated by Google

13.5 Ajustes por falta de respuesta 341

como siendo importante. Esta interacción no estaba incluida en el modelo logístico


anterior, y probablemente solo podría haberse identificado mediante un largo proceso de
prueba y error si nos limitáramos al modelo logístico.
Una consideración práctica al formar clases de ajuste por falta de respuesta es
asegurar que el tamaño de la muestra en cada clase no sea demasiado pequeño. Decidir
qué es "demasiado pequeño" es subjetivo: a veces se utilizan 50 casos (encuestados +
no encuestados). El tamaño de la muestra en un nodo terminal se controla configurando minbucket.
Tenga en cuenta que esto no establece una restricción sobre la varianza de la tasa de
respuesta estimada en una clase porque la varianza dependería de la tasa de respuesta
en sí. En algunos casos, un nodo no se dividirá aunque el número de casos en una clase
sea mucho mayor que el valor de minbucket. Por ejemplo, el nodo terminal 3 en nuestro
ejemplo tiene 1947 casos, pero no se divide porque no se pudo realizar ninguna mejora
en la probabilidad logarítmica que se está maximizando.
Hay una serie de parámetros que se pueden usar en el texto para controlar la impresión
del árbol (consulte el archivo de ayuda para text.rpart en el paquete rpart).
Es posible que desee experimentar con estos para obtener una imagen del árbol que
prefiera. Por ejemplo, establecer fancy=TRUE representó los nodos intermedios mediante
elipses y los nodos terminales mediante rectángulos. Los bordes que conectan los nodos
están etiquetados por divisiones izquierda y derecha. Si se utiliza el valor predeterminado
de fancy=FALSE, se omiten las elipses y los rectángulos y los bordes no se etiquetan.
Cuando un árbol tiene muchas ramas y nodos, fancy=FALSE producirá una imagen menos
desordenada.
En este ejemplo, los nodos terminales son los números 4, 20, 21, 11 y 3, con
proporciones de encuestados iguales a 0,59, 0,46, 0,64, 0,69 y 0,73. El rango es de 0,46
a 0,73. Recuerde que cuando se crearon cinco clases a partir de puntuaciones de
propensión, el rango de probabilidades de respuesta fue de 0,59 a 0,78 utilizando la
propensión promedio no ponderada en cada clase (consulte la Tabla 13.2). Aunque
tenemos cinco clases tanto en el análisis de clases de propensión como en el modelo
CART, los casos asignados a cada clase no son necesariamente los mismos. La
asignación de cada caso a un nodo se da en el componente t1$where, que es un vector
de longitud 3.911. El recuento de casos en cada nodo terminal viene dado por

tabla(t1$donde)
36789
588 67 210 1099 1947

Las etiquetas (3, 6, 7, 8, 9) no son las mismas que las etiquetas mostradas por print(t1,
digits=2) arriba. La etiqueta 3, por ejemplo, significa el tercer nodo producido por la
impresión:

4) edad>=56 588 240 1 (0,41 0,59} *


El ajuste por falta de respuesta para las unidades en el nodo terminal c se puede
calcular como el inverso de la tasa de respuesta no ponderada, 1 ÿˆc = nc/ncR, o como el

inverso de la tasa de respuesta ponderada, 1 ÿˆc = di. Las tasasiÿsc di


de respuesta iÿscR no y
ponderadas
ponderadas son Estas tasas se pueden calcular
Machine Translated by Google

342 13 pasos básicos en la ponderación

Ajuste No ponderado Ponderado


clase RR RR
3 0.5935 0.6089
6 0.4627 0.4527
7 0.6429 0.6446
8 0,6915 0.7026
9 0,7314 0.7466

y fusionado en el archivo de datos nhis para hacer los ajustes de falta de respuesta
utilizando el siguiente código R:

# calcula los ajustes de NR basados en las clases formadas


# por árbol
# Tasa de respuesta no ponderada
unwt.rr <- by(as.numeric(nhis[, "resp"]), t1$where, mean)
# Tasa de respuesta ponderada
wt.rr <- by(data = data.frame(resp = as.numeric(nhis[,"resp"]),
wt = nhis[,"svywt"]),
t1$donde,
function(x) {media ponderada(x$resp, x$wt)} )
# combinar la clase NR y las tasas de respuesta en el archivo nhis
nhis.NR <- cbind(nhis, NR.class=t1$where)
tmp1 <- cbind(NR.class=as.numeric(names(wt.rr)), unwt.rr, wt.rr)
nhis.NR <- merge(nhis.NR, data.frame(tmp1), by="NR.class")
nhis.NR <- nhis.NR[pedido(nhis.NR$ID),]

La fusión utiliza el campo común NR.class que está tanto en el nhis.NR


y objetos tmp1. Aunque creamos un campo que tenía el mismo nombre en
los dos objetos, la declaración de combinación es lo suficientemente flexible como para permitir la combinación
usando campos que tienen nombres diferentes.

13.6 Colapsar Clases Predefinidas

Los diseñadores de encuestas a menudo tienen una larga lista de opciones de ajuste por falta de respuesta.
clases, del tipo descrito en la Secc. 13.5.1, en mente cuando se desarrollen
sistemas de ponderación. Sin embargo, el uso de clases con un pequeño número de muestra
casos conducirá a estimaciones imprecisas de las propensiones de respuesta. Si la muestra
el tamaño de una clase es pequeño, la clase puede colapsarse con una adyacente.
La justificación convencional del colapso es que la posibilidad de crear
los pesos extremos se reducen al igual que las varianzas de las estimaciones. Sin embargo, un pobre
La elección del método de colapso puede dar lugar a estimaciones bastante
sesgado.
Kalton y Maligalig (1991) y Kim et al. (2007) dan alguna orientación
sobre cómo debe hacerse el derrumbe, que aquí resumimos. Colapsando
conduce a un sesgo cuando las tasas de respuesta y las medias de clase de las clases iniciales son
Machine Translated by Google

13.7 Ponderación para diseños de etapas múltiples 343

correlacionados dentro de una clase colapsada. El sesgo puede ser positivo o negativo,
dependiendo de la correlación. Las clases deben contraerse en función de la similitud de las
tasas de respuesta, las medias de las clases de población o ambas para evitar sesgos.
Este método de colapsar puede ser muy diferente de los procedimientos que solo colapsan las
clases "adyacentes", por ejemplo, mediante la combinación de grupos de edad contiguos. Si
la adyacencia coincide con clases que tienen tasas de respuesta o medias similares, no se
produce ningún sesgo.
Hay al menos dos problemas prácticos con el colapso basado en las medias de clase.
Una es que, si bien la teoría de los dos artículos anteriores nos indica colapsar en función de
las medias de la población, en una muestra particular solo tendremos estimaciones para la
muestra que responde. Si la falta de respuesta es sustancial, las medias de las partes de la
muestra que respondieron y las que no respondieron pueden ser considerablemente diferentes,
incluso dentro de las clases iniciales. Este sería un caso de NINR. En ese caso, el ajuste
basado únicamente en el conjunto inicial de clases o combinaciones de ellas no puede corregir
el sesgo por falta de respuesta. Un segundo problema práctico es que en la mayoría de las
encuestas se recopilan datos sobre muchos elementos. Es posible que colapsar según las
medias de clase para una variable no funcione bien para otras variables. En ese caso, el
compromiso, sugerido por Little y Vartivarian (2005) para el ajuste por falta de respuesta, de
colapsar en base a algún promedio ponderado de las medias de un conjunto importante de
variables podría ser una buena solución. Sin embargo, solo tendremos medios para los
encuestados. En la mayoría de las encuestas no se puede verificar si las medias de los que no
respondieron difieren ni en qué medida.
El software de árbol de regresión, como rpart en R, tiene esquemas de colapso
automatizados que se basan en la optimización de algún criterio (como maximizar una
probabilidad logarítmica o minimizar una suma de cuadrados de error) asociado con el método
elegido para particionar los datos. Como se muestra en la figura. 13.7, la función R combinó la
variable edad continua en grupos de 55,5 años y más, y menos de 55,5 años.

13.7 Ponderación para diseños de etapas múltiples

Las secciones anteriores abordaron los ajustes de ponderación dentro de una sola etapa del
diseño de la encuesta. Estas mismas técnicas básicas se pueden usar dentro de cada etapa
de un diseño de etapas múltiples y deben reflejar secuencialmente cualquier ajuste apropiado
del nivel anterior. Proporcionamos algunos ejemplos descriptivos a continuación.

Considere una encuesta estratificada de establecimientos en dos etapas en la que se


selecciona aleatoriamente una muestra estratificada de empresas de una lista en la primera
etapa, y los empleados se seleccionan aleatoriamente en los estratos de la segunda etapa de
las empresas muestreadas. En este ejemplo, un establecimiento es una PSU y un empleado
es una SSU. Los establecimientos pueden estratificarse por tipo de negocio (minorista,
manufactura, etc.). Los empleados dentro de un establecimiento pueden estratificarse por
clase ocupacional (profesional, oficinista, etc.). El peso base para los negocios
Machine Translated by Google

344 13 pasos básicos en la ponderación

i en el estrato de primera etapa h (h = 1,...,H ÿ 2) se calcula como la inversa


probabilidad de selección, d0hi = ÿÿ1 hola , como se describe en la Secc. 13.3. El mecanismo
de muestreo particular no es importante para el ejemplo y se deja al
imaginación del lector. El peso base correspondiente (incondicional) para
empleado k dentro del estrato j se define como se define como

dhijk = ÿÿ1 hola


ÿÿ1
jk|hola,

donde ÿÿ1 es el peso base para el empleado jk dentro de la empresa hi, es decir, dado
jk|hi
that business hi fue seleccionado en la primera etapa del diseño. Si no se puede confirmar la elegibilidad para el
estudio para la empresa, como su estado operativo o
si la empresa todavía fabrica un producto en particular, entonces la PSU
el peso base debe ajustarse para la elegibilidad desconocida, whi = dhia1hi. los
el peso a nivel de negocio resultante se usaría para crear el empleado final
pesos de análisis tales como

whijk = dhi a1hi a2hijk

donde a2hijk significa, por ejemplo, un ajuste de falta de respuesta a nivel de SSU.
Un segundo ejemplo es una encuesta de maestros que instruyen a los estudiantes entre
la edad de 14 y 16 años. Las escuelas (SSU) se eligen al azar de una muestra
grupos geográficos (PSU) como distritos escolares o condados; los maestros son
luego seleccionados de los tostadores proporcionados por un administrador de la escuela. Si el estado de
la escuela i en PSU h no se puede determinar y el administrador de la escuela se niega
para participar en el estudio para algunas escuelas, entonces al menos un ajuste
debe aplicarse al peso SSU:

wj = ÿÿ1 ÿÿ1 a (Una) a (2)


Es
j|yo 2ij 2ij ,

donde ÿÿ1 es el peso base de la PSU, ÿÿ1 es el peso base SSU condicional,
Es
j|i
un(1) es el ajuste de elegibilidad desconocido (incondicional) para SSU hi que
2ij
y un (2) ÿÿ1
se calculó con peso de entrada dij = ÿÿ1 yo , Es
2ij es el correspondiente
ing (incondicional) ajuste de falta de respuesta calculado con peso de entrada
w(2) = ÿÿ1 ÿÿ1 un(1)
2ij j|i
Es
2ij . Tenga en cuenta que ni un ajuste de elegibilidad desconocido ni
se requeriría un ajuste por falta de respuesta para las etapas de un diseño de encuesta que
involucrar conglomerados geográficos como la unidad de muestreo ya que, presumiblemente,
saber si cada unidad geográfica es elegible y todos responderán. Sin embargo,
si se obtuvo el permiso de los funcionarios del distrito escolar para comunicarse con las escuelas de muestra.
requerido, entonces también se justificaría un ajuste de falta de respuesta a nivel de PSU.
La ponderación ajustada al nivel de la escuela, wij arriba, se usaría para construir
un peso de análisis ajustado por falta de respuesta para el maestro k, wijk = wij a3ijk.
Machine Translated by Google

13.8 Próximos pasos en la ponderación 345

13.8 Próximos pasos en la ponderación

Las secciones anteriores trataron sobre el desarrollo de los pesos base, el inverso
probabilidades de selección, así como ajustes para abordar problemas con
elegibilidad del estudio desconocida y sesgo de falta de respuesta. El próximo capítulo se completa.
la imagen centrándose en el uso de datos auxiliares (o covariables) cuyo
los totales son conocidos para la población objetivo. El uso de datos auxiliares puede reducir
varianzas de los estimadores y puede ajustarse para marcos de muestreo incompletos, un problema
también conocido como subcobertura. Estos muchos ajustes de peso, especialmente
para encuestas de etapas múltiples, puede inflar innecesariamente la variación en el análisis
ponderaciones que a su vez disminuyen la precisión en las estimaciones del estudio. También se
discuten las técnicas utilizadas para manejar esta inflación.
Machine Translated by Google

346 13 pasos básicos en la ponderación

Ejercicios

13.1. Considere el muestreo aleatorio simple estratificado sin reemplazo (stsr swor). Se selecciona
un srswor de tamaño nh en cada estrato de una población
de tamaño Nh, h = 1,...,H. La probabilidad de selección de la unidad i en el estrato h es
ÿhi = nh/Nh y el peso base es d0hi = ÿÿ1 hola = Nh/nh. Muestre que el
la suma de los pesos base de todas las unidades de la muestra es igual a la población
tamaño N y que la suma dentro de cada estrato es igual a la población del estrato
tamaño, Nh.

13.2. Se necesita una muestra en dos etapas de las UPM y de las personas dentro de las UPM para
un estudio piloto sobre el transporte público. Una muestra de tres UPM geográficas
ha sido seleccionado con probabilidades proporcionales a su población total
conteos, Ni, basados en registros administrativos. El muestreo se realizó de tal
manera que la probabilidad de seleccionar PSU i es mNi/N, usando la notación
de antes en este capítulo. Las personas se clasificarán en dos razas/etnias
grupos de muestreo: blancos no hispanos y otros. te gustaría
seleccione submuestras de blancos no hispanos y otros para que la muestra
de cada uno de estos dos grupos es autoponderado. Las frecuencias de muestreo deseadas
son 0,01 para los blancos no hispanos y 0,04 para los demás.

fuente de alimentación
Ni No Hispano Otros
Blanco NW i Otro,i
1 1,000 800 200
2 850 400 450
3 150 110 40

Estallido. total N 10.000

Encuentra el siguiente:

(a) Probabilidades de selección para las tres UPM de la muestra


(b) Tasas de muestreo dentro de la UPM necesarias para lograr el muestreo general deseado
tarifas
(c) Pesos base para cada unidad
(d) Número esperado de personas de la muestra en cada UPM por raza/grupo étnico
y en total

13.3. Repita el ejercicio 13.2 suponiendo que las tasas de muestreo objetivo son 0,02
para los blancos no hispanos y 0,06 para los demás. ¿Ves algún problema con
¿este diseño? Si es así, ¿qué remedio sugeriría?

13.4. La siguiente tabla proporciona sumas de pesos para muestras de establecimientos


en tres ciudades que fueron clasificadas como pertenecientes al comercio minorista según la página amarilla
listados:
Machine Translated by Google

13.8 Próximos pasos en la ponderación 347

Ciudad Elegible Elegible Conocido Desconocido Total


resp. no resp. elegibilidad no elegible

Una 50 46 11 17 124
2 77 89 19 12 197
3 44 31 8 23 106

Total 171 166 38 52 427

(a) Ajuste los pesos por separado en cada ciudad primero para elegibilidad desconocida
y luego por falta de respuesta. Muestre sus cálculos en cada paso.
(b) ¿Cuál es el número total estimado de unidades elegibles en cada ciudad y
en todas las ciudades?

(c) ¿Cuál es el número estimado de establecimientos no elegibles en el muestreo?


¿cuadro?

(d) ¿En qué circunstancias sería razonable combinar las tres ciudades
juntos para hacer los ajustes por elegibilidad desconocida y falta de respuesta? ¿Esas
circunstancias se mantienen aquí?

13.5. Se realiza una encuesta telefónica a una muestra de 500 miembros de una organización
profesional de podólogos. Los 500 son una muestra aleatoria simple
de la lista de 2000 miembros actuales. Se determina definitivamente que cuatrocientas
personas de la muestra son elegibles. Entre ellos, 320 responden a la encuesta y
80 basura. La lista está algo desactualizada, por lo que algunos números de teléfono son
incorrecto. No se puede contactar con éxito a setenta personas de muestra. de los 70,
hay 45 a los que contesta el contestador, pero nunca se contacta directamente con una
persona; 16 personas toman el teléfono pero inmediatamente cuelgan cuando
escuchan que se está haciendo una encuesta; para nueve de los números de teléfono tampoco
una persona ni un contestador contesta nunca. Algunas personas en la lista
pueden haber abandonado la organización y, por lo tanto, no son elegibles. Tú
son capaces de identificar 30 personas de muestra que han dejado de ser miembros:

(a) ¿En qué estado de elegibilidad clasificaría a las 70 personas (45 contestadores automáticos,
16 cuelgan, 9 no contestan): desconocidos, no elegibles o elegibles?
¿rechazo? ¿Por qué?
(b) Dada su decisión en (a), use una sola clase de ajuste para ajustar por
elegibilidad desconocida. ¿Qué casos reciben el ajuste? Cuál es el
valor de ajuste para cada uno?
(c) Después del ajuste por elegibilidad desconocida, ¿cuál es el número estimado
bras en la población de elegibles y no elegibles?

13.6. Ajuste los modelos logísticos, probit y c-log-log no ponderados a la variable resp en el
conjunto de datos NHIS, nhis.RData:

(a) Use las covariables edad, sexo, hisp y raza.


(b) ¿Qué variables son predictores significativos en cada uno de los modelos?
Machine Translated by Google

348 13 pasos básicos en la ponderación

(c) Compare las probabilidades predichas de los tres modelos.

13.7. Continuando con el Ejercicio 13.6, use las probabilidades de respuesta


pronosticadas de la regresión logística que usó todas las covariables y cree dos
versiones de clases de propensión:

(a) Cinco clases con igual número de encuestados más no encuestados en


cada uno y
(b) Diez clases. Indique los descansos utilizados para las clases cinco y diez y el
número de casos asignados a cada clase. (Verifique que a todos los casos se les
haya asignado un valor de clase que no falte. Use el parámetro useNA=“siempre”
en la tabla si usa R para ver si se crearon NA). (c) Calcule los cinco valores
alternativos de ajuste de peso NR que se muestra en el ejemplo 13.8. Para los ajustes
ponderados, utilice la variable svywt. Discuta cómo se comparan los cinco valores
alternativos de los ajustes dentro de (a) y (b) y cómo se comparan entre sí los
ajustes que utilizan cinco y diez clases.

(d) ¿Cómo se comparan los ajustes de clase con el uso de los inversos de los
estimaciones de propiedad como ajustes?
(e) ¿Qué conjunto de valores de ajuste recomendaría y por qué?

13.8. Utilizando los conjuntos de cinco y diez clases de propensión que creó en el
ejercicio 13.7, realice las comprobaciones sugeridas por D'Agostino (1998) para ver
si la clasificación de propensión logró equilibrar las covariables. Si no se logró el
equilibrio, discuta cuáles podrían ser las implicaciones de esto para usar las clases
para el ajuste por falta de respuesta.

13.9. Usando el conjunto de datos de NHIS, ajuste un árbol de clasificación para la


variable de respuesta (resp) usando las covariables edad, sexo, hisp, raza, padres y
educ. Requerir que se asigne un mínimo de 50 casos a cada nodo. Describe la
composición de cada nodo con palabras y haz un dibujo del árbol. Calcule las tasas
de respuesta no ponderadas en cada uno de los nodos que se forman.

13.10. Calcule los valores no ponderados y ponderados del ajuste de peso NR


(alternativas 3 y 4) que se muestran en el ejemplo 13.8 para las clases identificadas
en el ejercicio 13.9. Para los ajustes ponderados, utilice la variable svywt. ¿Cómo se
comparan estos conjuntos de valores? ¿Cuál recomendarías y por qué?
Machine Translated by Google

capitulo 14
Calibración y otros usos de auxiliares
Datos en Ponderación

El capítulo anterior describió los primeros pasos utilizados en el cálculo de la ponderación:


ponderaciones base, ajustes de elegibilidad desconocida y ajustes por falta de respuesta. El
último paso, que es extremadamente importante en muchas encuestas, es utilizar datos
auxiliares para corregir los problemas de cobertura y reducir los errores estándar. Por datos
auxiliares, nos referimos a información que está disponible para todo el marco o población
objetivo, ya sea para cada unidad de población individual o en forma agregada. Estos pueden
obtenerse porque se utilizó un marco de todas las unidades de la población para seleccionar
la muestra y cada listado en el marco contiene algunos datos. Las encuestas de
establecimientos comerciales o instituciones pueden tener dichos marcos.
Los totales de población para algunas variables pueden estar disponibles en una fuente
separada de la encuesta, como un censo. En una encuesta comercial, el marco podría tener
el número de empleados de un período de tiempo anterior para cada establecimiento. En
una encuesta de hogares, los conteos de personas en grupos definidos por edad, raza/
etnicidad y género pueden publicarse a partir de un censo o de proyecciones de población
que se tratan como altamente precisas.
La figura 14.1 muestra dos poblaciones donde una variable de encuesta y está relacionada
con una variable auxiliar x. Independientemente del tipo de diseño de muestra utilizado,
explotar la relación entre y y x puede brindar estimadores más precisos que ignorarla. El uso
de x reducirá más las varianzas de la estructura en el panel de la izquierda que en el de la
derecha debido a que la asociación (lineal) entre las dos variables es más fuerte. En cualquier
caso, se pueden utilizar estimadores que aprovechen la relación. Usamos una sola variable
auxiliar para facilitar la demostración. Los estadísticos generalmente usan un conjunto de p
(p > 1) variables auxiliares, denotadas en forma de vector transpuesto como xi = (xi1,
T
xi2 ,...,xip) para i Otro uso de los datos auxiliares es corregir los errores de cobertura en un
cuadro.
unidad de muestra, para ajustar los pesos.

Por ejemplo, suponga que una encuesta de hogares estima que el número de hombres
afroamericanos, de 18 a 24 años, es solo el 75 % del último censo o proyección de población
para ese grupo, incluso después del ajuste por falta de respuesta.
Al crear ponderaciones que reproduzcan los recuentos del censo o las proyecciones de
población, podemos "corregir" la cobertura insuficiente. Para ser eficaz, la respuesta

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 349


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 14, © Springer Science+Business Media New York 2013
Machine Translated by Google

350 14 Calibración y otros usos de datos auxiliares en la ponderación

20 30 40 50 60 70 80 20 30 40 50 60 70 80
X X

Higo. 14.1: Diagramas de dispersión de dos relaciones hipotéticas entre una variable de encuesta
y y un auxiliar x.

los casos de muestra tienen que ser una buena representación de la población total. Este
significa que o bien (a) los ajustes de pesos, tratados en el Cap. 13, corregir cualquier sesgo potencial
debido a la falta de respuesta, o (b) las variables de análisis para
los encuestados siguen el mismo modelo que se muestra en la población completa
y ese modelo puede ser aproximado por las técnicas de calibración en este
capítulo.
Este capítulo cubrirá algunas de las herramientas que están disponibles para emplear
datos auxiliares en la estimación y los pesos que están implícitos. Sección 14.1
describe el método general de estimación de calibración junto con algunos ejemplos. Dos de los usos
más comunes de los datos auxiliares son la posestratificación.
y rastrillar, cubierto en la Secc. 14.2. Estimación de regresión general (GREG) y
algunos ejemplos de la clase más amplia de estimadores de calibración se discuten en
Secta. 14.3.
Los pasos de cálculo de pesos base, ajustes de falta de respuesta y calibración pueden dar como
resultado pesos cuyos tamaños varían bastante. Los practicantes generalmente desconfían de tener
pesas que tienen un rango amplio, ya que algunas son extremadamente
los pesos grandes pueden desestabilizar las estimaciones al aumentar el estándar asociado
errores (SE). Tener pesos variables puede o no ser algo de qué preocuparse
sobre. Los subgrupos que respondan a tasas muy diferentes darán lugar a diferentes
tamaños de los ajustes por falta de respuesta. Los pesos que varían considerablemente también pueden
ser estadísticamente eficiente, como en el caso de la asignación óptima a los estratos que
estudiado en el cap. 3. Sin embargo, si los pesos varían por ninguna de estas razones, este
puede ser ineficiente. La Sección 14.4 describe la programación cuadrática y los métodos de recorte de
peso que permiten acotar directamente los pesos mismos.
También discutimos dos tipos de efectos de diseño que a veces son útiles cuando
evaluar la variabilidad del peso.
Machine Translated by Google

14.1 Calibración de peso 351

14.1 Calibración de peso

El término estimador de calibración fue introducido para la estimación de encuestas por


Deville y S¨arndal (1992). Kott (2009) ofrece una buena revisión de las matemáticas de la técnica. La
idea general es utilizar variables auxiliares para mejorar
la eficiencia de los estimadores. Los auxiliares pueden provenir del marco, registros administrativos,
estadísticas publicadas u otras fuentes. Entre el potencial
Los beneficios de la calibración son:

• Disminución de las varianzas


• Corrección de sesgo para la cobertura del marco y otros errores topográficos
• Ajuste por falta de respuesta

Se pueden usar múltiples auxiliares, pero para ilustrar el método, comenzamos con
uno de los casos más simples de calibración: el estimador de razón.

Ejemplo 14.1 (Estimador de razón). El estimador de razón de una media para una muestra aleatoria
simple (srswor), introducido al final de la Secc. 3.2.2, es ¯yR =
y¯sx¯U /¯xs donde ¯ys = yi/n y ¯xss= xi/n son medias no ponderadas
s
de
una variable de análisis y y una variable auxiliar x y ¯xU es la población
media de x La variable de respuesta podría ser el número de empleados a tiempo completo en un
establecimiento en el momento actual y x el número correspondiente
de hace un año. Para calcular la estimación de la razón de una muestra, necesitamos la
valores de x para las unidades de muestra individuales de modo que se pueda calcular ¯xs, y
necesitamos la media de su población, ¯xU . Observe que los valores individuales de x
para las unidades no muestrales no se requieren para calcular ¯yR, aunque podríamos
tenerlos del marco. Una propiedad del estimador de razón es que, si
trata a y como la variable auxiliar, entonces ¯ys = ¯xs y la estimación de la razón se reduce
a ¯xU . Por lo tanto, la estimación se calibra (o compara) en el sentido de que
reproduce el valor de población conocido cuando sustituimos el auxiliar
variable para la variable de análisis.

El estimador de razón es un miembro de una clase más general que cubre muchos
de los estimadores utilizados en la práctica. Suponga que los pesos utilizados en el paso de calibración
el
se denotan por di para la i unidad en la muestra, como una persona o
un establecimiento comercial, para el cual se recopilan datos. En el cap. 13 el producto de una
ponderación base, un ajuste de elegibilidad desconocido y una falta de respuesta
El ajuste se llamó d2i. Quitamos el subíndice 2 aquí para reducir la notación. El objetivo de la
calibración es encontrar un nuevo conjunto de pesos, w = {wi}iÿs usando
notación de conjuntos, que están cerca de los pesos de entrada, d = {di}iÿs, pero cuando se usan para
estimar los totales de los auxiliares, reproducir exactamente los totales de la población.
La idea de mantener los pesos cercanos en valor es que los pesos de salida
puede "tomar prestadas" las buenas propiedades de estimación inherentes a los pesos de entrada.
Por ejemplo, si los pesos base están asociados con una media ponderada que es
diseño imparcial, luego la misma estimación calculada con los pesos de salida
debe ser (aproximadamente) un diseño imparcial también. Por otra parte, si el
pesos de entrada producen estimaciones de varianza alta, creando nuevos pesos que son
Machine Translated by Google

352 14 Calibración y otros usos de datos auxiliares en la ponderación

cerca de los viejos no hay mejora. Sin embargo, muchas estimaciones eficientes
están en la clase de calibración, por lo que vale la pena estudiar la clase.

Formalmente, el siguiente problema se resuelve con la calibración del peso:


Encuentra el conjunto de pesos {wi}iÿs que:

• Minimizar una medida de la distancia, L (w, d), entre los pesos entrantes
y los pesos calibrados.
• Sujeto a restricciones:
Wix = xk, (14.1)
yoÿs kÿU

T
donde xi = (xi1, xi2,...,xip) es el conjunto de p variables auxiliares para la unidad
i y wi = digi, una función del peso de entrada y un ajuste (el
peso g) que satisface las restricciones.

Nos referiremos a los wi como los pesos finales. Para determinar los pesos,
necesitamos los valores de x para las unidades de muestra individuales y los totales de la población
por esas x. Por lo general, no se necesita información auxiliar para los que no respondieron.
Recuerde que los métodos de ajuste por falta de respuesta que estudiamos en
Cap. 13, al igual que los ajustes de propensión, requería que la información de las covariables
individuales estuviera disponible tanto para los encuestados como para los no encuestados. Los
auxiliares pueden ser cuantitativos, como el número total de estudiantes en un
escolar, o cualitativo, como un indicador de género=masculino.
Una elección de L es la función de distancia de mínimos cuadrados,

2
L(ancho, fondo) = (wi ÿ di) di. (14.2)
s

Minimizando esto, sujeto a la restricción en Eq. (14.1), conduce a la general


estimador de regresión o GREG. Los GREG incluyen muchos de los estimadores
utilizado en la práctica y estudiado en libros de muestreo estándar. Los cubrimos en
más detalle en la Secc. 14.3. Otra función de distancia es

Wisconsin

L(ancho, fondo) = registro de wi ÿ wi + di . (14.3)


di
s

Esto conduce a un tipo de estimador de clasificación, que analizamos en la Secc. 14.2.


Por lo general, hay un modelo bajo el cual un estimador de calibración particular
será especialmente eficiente en términos de la varianza de muestreo repetido. Nosotros
analice los modelos asociados con el estimador en las secciones. 14.2 y 14.3. Si el
modelo describe correctamente la dependencia de una variable de análisis en un conjunto de
auxiliares, entonces el estimador de calibración también será imparcial. En
seleccionando un conjunto de auxiliares, una buena política es hacer algún modelo usando el
auxiliares como covariables. Esto ayudará a decidir qué auxiliares usar y
si alguno de los auxiliares debe transformarse, por ejemplo, tomando el cuadrado
Machine Translated by Google

14.2 Estimadores posestratificados y de rastrillo 353

o logaritmo. Algunas técnicas de verificación de modelos se examinan en la sección. 14.3.2; los


lectores interesados pueden consultar textos estándar como Cook y Weisberg (1982) y Weisberg
(2005) para obtener información adicional. En Li y Valliant (2009, 2011) y Liao y Valliant (2012a,b)
se pueden encontrar diagnósticos especializados para ser apropiados para datos de encuestas
complejas .

14.2 Estimadores posestratificados y de rastrillo

Los estimadores posestratificados y de raking son dos de los estimadores de calibración más
utilizados. Prevalecen especialmente en las encuestas de hogares de personas en las que las
variables auxiliares son indicadores de grupos demográficos. Por ejemplo, las personas pueden
clasificarse por grupo de edad, género y raza/etnicidad.
La estratificación posterior se implementa dentro de las clases de ponderación de calibración
formadas cruzando todas las categorías de las variables cualitativas y construyendo ponderaciones
que reproducen los recuentos de población específicos de la clase en las estimaciones ponderadas.
La posestratificación también se puede hacer usando una sola variable como el grupo de edad.
Formalmente, el estimador posestratificado de un total se define como

GRAMO

TˆyPS = Nÿ t ˆyÿ Nˆÿ ,


ÿ=1

donde t ˆyÿ = diyi essÿel total estimado de y en la clase de ponderación (o posestrato) ÿ con base
en los pesos de entrada, sÿ es el conjunto de unidades de muestra en el posestrato ÿ, Nˆÿ = dk
es el tamaño de poblaciónsÿestimado
conteo del
de población
posestrato(también
ÿ basadoconocido
en los pesos
comode
control
entrada,
o control
Nÿ estotal)
el
para el posestrato ÿ, y G es el número total de posestratos. El peso final implícito para la unidad i
en el posestrato ÿ es

Nÿ
wi = di , (14.4)
Nˆÿ

donde gi = Nÿ Nˆÿ es el ajuste posterior a la estratificación (factor). Este es el peso g en la


ecuación genérica wi = digi. Con esa definición del peso, Tˆ podemos escribir el estimador como
datos yPS . iÿs wiyi,=es decir, una suma ponderada de los valores de

Las clases de ponderación se denominan posestratos porque se aplican después de


seleccionar la muestra y recopilar los datos. No se utilizan necesariamente en la etapa de diseño
para seleccionar la muestra. De hecho, la posestratificación es una buena manera de usar
auxiliares que usted cree que son predictores efectivos de variables importantes recolectadas en
la encuesta pero que no pueden usarse fácilmente para la selección de muestras. Por ejemplo,
en una encuesta de hogares, muchos países no tienen un marco de personas que incluya raza/
etnicidad y nivel educativo.
Machine Translated by Google

354 14 Calibración y otros usos de datos auxiliares en la ponderación

Podemos usarlos como posestratos siempre que la población cuente de personas


en el cruce de esas dos variables están disponibles a partir de un censo o algún otro
fuente externa como recuentos de población proyectados. En este ejemplo, postestratos
se definiría como una combinación de raza/etnicidad y educación categorizada. Suponga que
la raza/etnicidad está codificada en tres categorías (1=Blanco,
2=afroamericano, 3=otro) mientras que la educación, definida como el nivel más alto
de la escuela completada, se codifica en cuatro categorías: 1=menos de la escuela secundaria);
2=graduado de secundaria; 3=universidad o alguna universidad; y 4 = título de posgrado
(maestría, doctorado, título profesional más allá de la licenciatura). Entonces, la cruz
de estas variables conduce a G=12 clases que podrían usarse como posestratos.
Una nota de precaución antes de continuar: el uso de muchas variables auxiliares importantes
para la posestratificación puede reducir el sesgo, pero puede dar como resultado clases de
ponderación vacías o con una pequeña cantidad de casos de encuestados. Esto resulta en
estimaciones inestables Nˆÿ de los controles de población y agrega innecesariamente a
la variabilidad de los pesos finales—deben evitarse ambos casos.
El estimador posestratificado es un caso especial del GREG con la función de distancia en
la ecuación. (14.2). El modelo que naturalmente acompaña a TˆyPS es
uno donde las unidades tienen una media y una varianza comunes dentro de un posestrato:

EM (yi) = ÿÿ, V arM ( yi) = ÿ2ÿ. (14.5)

El vector x para una unidad tiene componentes G, cada uno con un indicador 0–1
para saber si una unidad está o no en un posestrato particular. El postEstratificar
La función en el paquete de encuestas R se puede usar para calcular la estimación, como
se muestra a continuación en el ejemplo 14.2.

Ejemplo 14.2 (Estimador posestratificado). Para ilustrar la posestratificación,


seleccione una muestra aleatoria simple de tamaño 250 de la gran población NHIS
suministrado con este libro. Los posestratos se definen por grupos de edad cruzados con
Hispanidad. Primero, calculamos la proporción de personas cubiertas por Medi caid (un tipo de
asistencia del gobierno de EE. UU. para la atención médica brindada a los
pobre) en dominios definidos por grupo de edad e hispanidad. La variable hisp
en el archivo se recodifica en la variable de 3 categorías y se denomina hisp.r. los
categorías de grupo de edad e hispanidad se muestran en la Tabla 14.1 junto con

Tabla 14.1: Porcentajes de personas en la gran población del NHIS que informaron recibir Medicaid.

Grupo de edad (años)


Hispanidad menores de 18 18–24 25–44 45–64 65+
Hispano 32.2 10.7 7.6 11.0 27.2
Blanco no hispano 12.6 Negro no 6.6 3.8 3.1 3.7
hispano 31.3 y otros 12.7 8.8 6.4 16.5

raza/etnicidad
Machine Translated by Google

14.2 Estimadores posestratificados y de rastrillo 355

los porcentajes de personas que reciben Medicaid. Los hispanos y los negros no hispanos
menores de 18 años tienen porcentajes mucho más altos que otros grupos de edad; Los
hispanos de 65 años o más también tienen una alta tasa de Medicaid. Por supuesto,
podríamos ajustar un modelo para predecir si las personas reciben Medicaid, pero la tabla
cruzada es suficiente para mostrar que existe una interacción entre el grupo de edad y la
hispanidad.
Este es el código utilizado para producir los porcentajes:

adjuntar("nhis.large.RData", pos=2) # contraer hisp


= 3,4 hisp.r <- nhis.large$hisp
hisp.r[nhis.large$hisp == 4] <- 3 nhis.large1 <-
data.frame(nhis.large, hisp.r) t1 <-
table(nhis.large1$medicaid, nhis.large1$age.grp,

nhis.large1$hisp.r) 100 *
round(prop.table(t1[,,1],2),3) 100 *
round(prop.table(t1[,,2],2),3) 100 *
round(prop.tabla(t1[,,3],2),3)

A continuación, seleccionamos la muestra y luego creamos un objeto de diseño srswor y un


objeto de diseño posestratificado:

# crear una sola variable para identificar age.grp x # hisp.r poststrata m


<- max(nhis.large1$hisp.r) nhis.large1$PS <- (nhis.large1$age.grp - 1)*m
+ nhis .large1 $hisp.r N.PS <- tabla(PS = nhis.large1$PS)

# seleccionar espada de tamaño n


set.seed(-1570723087) n <- 250 N <- nrow(nhis.large1)
sam <- sample(1:N, n) samdat <- nhis.large1[sam, ]

# calcula los pesos de srs y la fracción de muestreo d <- rep(N/n, n)


f1 <- rep(n/N, n)

# objeto de diseño srswor


nhis.dsgn <- svydesign(ids = ˜0, # sin conglomerados
estratos = NULL, fpc # sin estratos
= ˜f1, datos =
data.frame(samdat), pesos = ˜d)

# objeto de diseño posestratificado


ps.dsgn <- postStratify(diseño = nhis.dsgn,
estratos = ˜PS,
población = N.PS)

La función postStratify toma tres parámetros principales: diseño (objeto de diseño de la


encuesta), estratos (fórmula o marco de datos de variables posestratificadoras) y población
(tabla o marco de datos con frecuencias de población).
Machine Translated by Google

356 14 Calibración y otros usos de datos auxiliares en la ponderación

Hay varios pasos anteriores donde se deben observar requisitos de sintaxis particulares.
Se creó una sola variable para denotar los posestratos. Las declaraciones

m <- max(nhis.large1$hisp.r) nhis.large1$PS


<- (nhis.large1$edad.grp - 1)*m + nhis.large1$hisp.r

Numere el grupo de edad × posestratos de hispanidad del 1 al 15 (=5*3). La función


poststratify acepta una sola variable (llamada PS en este caso) para definir los postestratos.

La función svydesign crea un objeto, nhis.dsgn, que contiene la información de diseño


de srswor. Los pesos están en d y son todos iguales a N/n.
Para incluir un factor de corrección de población finita (fpc) en las estimaciones de varianza,
se debe especificar el parámetro fpc al crear el objeto de diseño. El parámetro debe ser un
vector cuya longitud sea igual al tamaño de la muestra. El uso de un escalar generará un
error, incluso cuando la corrección finita sea un valor único. En lugar de especificar 1 ÿ n/
N, que es la definición de libro de texto de un fpc, el paquete de la encuesta requiere que
el parámetro fpc sea el total de la población N o la fracción de muestreo, n/N. Esto puede
parecer idiosincrásico, pero tanto Stata como SAS utilizan la misma convención.

Los recuentos de control de la población, Nÿ , están contenidos en N.PS. el nombre p.d.


dado a la mesa en la declaración

N.PS <- tabla(PS = nhis.large1$PS)

debe coincidir con el nombre de la variable en el conjunto de datos que contiene los
estratos posteriores. A continuación, podemos verificar que los pesos posestratificados se
suman a los recuentos de población utilizando la función svytotal a continuación. Solo se
muestran los primeros cuatro de los 15 posestratos. Los recuentos estimados coinciden
con los recuentos de población (que el lector puede verificar). Los SE de las estimaciones
son cero ya que no hay variación de una muestra a otra en las estimaciones; siempre serán
iguales a los recuentos de población. Este tema se revisa en el Cap. 18 donde cubrimos
las tabulaciones de control de calidad con más detalle:

# Verifique que los pesos estén calibrados para x's svytotal(˜as.factor(PS),


ps.dsgn)

SE total como
factor(PS)1 1952 como factor(PS)2 2870 0
como factor(PS)3 1169 como factor(PS)4 0
0
581 0

Tenga en cuenta que los pesos de los casos de muestra individuales se pueden examinar
con el comando, pesos (ps.dsgn). La proporción estimada de personas que reciben
Medicaid, sus SE y coeficientes de variación (CV) son producidos por
Machine Translated by Google

14.2 Estimadores posestratificados y de rastrillo 357

# Errores estándar de PS y CV
svytotal(˜ as.factor(medicaid), ps.dsgn, na.rm=TRUE) cv(svytotal(˜ as.factor(medicaid),
ps.dsgn, na.rm=TRUE))
# error estándar srs y cv's
svytotal(˜ como.factor(medicaid), nhis.dsgn, na.rm=TRUE) cv(svytotal(˜ como.factor(medicaid),
nhis.dsgn, na.rm=TRUE))

El parámetro, na.rm=TRUE, se usa porque en algunos casos faltan valores para Medicaid;
sin él, todos los resultados serán NA (es decir, faltantes). Para obligar a Medicaid a ser
tratado como una variable de clase (factor), se utiliza as.factor. Las estimaciones
postestratificadas y juradas para el número total de personas que reciben Medicaid son

CV Total SE
Postestratificado 1870.8 344.5 0.184
juramento 1899.7 385.3 0.203

En esta muestra, los totales estimados srswor y posestratificados son similares y el último
tiene un SE y un CV ligeramente más pequeños.

Ejemplo 14.3 (Estimador posestratificado como una forma de corregir por encubrimiento).
Supongamos que el marco muestral solo cubre el 75 % de los subgrupos de población
de negros hispanos y no hispanos y otras razas/etnias:

# crear marco con subcobertura # 75% de cobertura de


hispanos y negros no hispanos y # otros. Estos corresponden a los postestratos #
1,3,4,6,7,9,10,12,13 y 15.

PS.prob <- rep(c(0.75, 1, 0.75), 5) cov.prob <-


PS.prob[nhis.large1$PS]
N <- nrow(nhis.large1) rn <- runif(N)
nhis.cov <- nhis.large1[rn <= cov.prob, ]

El código anterior genera una variable aleatoria uniforme en el intervalo [0,1] para cada
persona de la población. Este número aleatorio se compara con la tasa de cobertura
(0.75 o 1) para el postestrato que contiene a cada persona y se crea una población
"cubierta" con la declaración

nhis.cov <- nhis.large1[rn <= cov.prob, ]

Esto trata la cobertura como un fenómeno aleatorio: cada persona tiene alguna posibilidad
de estar en el marco. Esta puede ser o no una suposición realista, pero es típica en la
literatura que analiza los efectos de la cobertura insuficiente. Se necesita algún vínculo
entre las unidades en el marco, la muestra seleccionada de él y el resto del universo para
hacer inferencias para todo el objetivo.
Machine Translated by Google

358 14 Calibración y otros usos de datos auxiliares en la ponderación

población. Modelar la cobertura como una ocurrencia aleatoria es una forma de hacerlo.
Luego, seleccionamos una muestra de srswor de n = 500 de nhis.cov usando la semilla,
set.seed (610376119) y calculamos los pesos posestratificados (no se muestra el código).

Los totales estimados de beneficiarios de Medicaid, sus SE y CV se muestran en la Tabla


14.2. Los totales para hispanos y no hispanos se pueden calcular con la declaración

svyby(˜as.factor(medicaid), ˜hisp.r, ps.dsgn, svytotal,


na.rm=VERDADERO)

Las proporciones se encuentran sustituyendo svymean por svytotal.


Las estimaciones calculadas con ponderaciones base (no ajustadas) se etiquetan como
estimaciones ÿ en este ejemplo y en el texto posterior para distinguirlas de las estimaciones
calculadas con ponderaciones finales (ajustadas). Como se muestra en la Tabla 14.2, los
totales estimados por ÿ son demasiado pequeños debido a la subcobertura, pero las
estimaciones posestratificadas están mucho más cerca de los totales de la población. Las
estimaciones de ÿ tienen EE más pequeños, pero los intervalos de confianza del 95 % no
contendrían los totales de la población. (El método de estimación de la varianza que se usa
aquí se llama linealización. Cubriremos los métodos de estimación SE con más detalle en el Capítulo 15).
Por supuesto, esto es solo una muestra. En otras muestras, es posible que las estimaciones
posestratificadas sean demasiado grandes y que las estimaciones ÿ se acerquen más a la
verdad. Sin embargo, la posestratificación, en promedio, reducirá el sesgo debido a la
cobertura insuficiente en las aplicaciones prácticas (p. ej., consulte Kim et al. 2007), lo que la
convierte en una de las técnicas estándar para corregir la cobertura insuficiente.

La Tabla 14.2 también muestra las proporciones estimadas para ambos tipos de pesos.
En este ejemplo, la posestratificación hace menos diferencia en las estimaciones puntuales o
en los EE. Esto también es típico: las estimaciones que son proporciones a menudo se ven
menos afectadas por los problemas de cobertura que los totales estimados.
Una alternativa popular a la estratificación posterior es el rastrillo, que también puede usar
más de una variable auxiliar. En el ejemplo anterior con grupo de edad e hispanidad, todas
las clases de ponderación formadas por la clasificación cruzada se utilizan como posestratos.
Se necesita un valor de control de población para cada clase de ponderación. Además,
normalmente se imponen requisitos de tamaño mínimo de muestra; de lo contrario, Nˆÿ puede
ser inestable. Al rastrillar solo se necesita el grupo de edad marginal y los conteos de control
de hispanidad. Esto es especialmente relevante cuando solo se dispone de recuentos
marginales en las fuentes publicadas.
Al igual que con el estimador posestratificado, el estimador rastrillado también está
asociado con un modelo lineal. Por ejemplo, el modelo en un problema de clasificación de
dos variables es
EM (yi) = ÿ + ÿj + ÿk , V arM ( yi) = ÿ2 (14.6)

para i teniendo nivel j de la primera variable y nivel k de la segunda. Los parámetros ÿ y ÿ


son efectos fijos. El modelo posestratificado para la media que naturalmente va con el cruce
de dos variables es EM (yi) = ÿ + ÿj + ÿk + (ÿÿ)jk donde (ÿÿ)jk es un término de interacción.
Este modelo es equivalente a
Machine Translated by Google

14.2 Estimadores posestratificados y de rastrillo 359

Tabla 14.2: Comparación de estimaciones ÿ y estimaciones posestratificadas en el Ejemplo 14.3


de totales y proporciones de personas que reciben Medicaid cuando el marco tiene
cobertura.

Estadística Estimar SE CV
Totales estimados
población completa
Estimación ÿ total de la 2,281
población real 1.770 246 0,139
Estimación de PS 2.381 322 0,135
Hispano
Estimación ÿ total de la 935
población real 616 150 0,243
Estimación de PS 954 209 0.219

Proporciones estimadas
población completa
Proporción de población real 0.107
estimación de ÿ 0,093 0,013 0,139
Estimación de PS 0,112 0,015 0,135
Hispano
Proporción de población real ÿ- 0.189
estimación 0,184 0,041 0,223
Estimación de PS 0,190 0,042 0,219

expresión (14.5). Por lo tanto, el modelo de clasificación solo tiene efectos principales y menos
parámetros
Incluso cuando el modelo de efectos principales parece inadecuado, el rastrillado es a menudo
una forma de utilizar más variables que pueden ser predictores importantes del análisis
variables o de las tasas de cobertura de fotogramas. En la postestratificación, cruzando varios
las variables pueden crear rápidamente más clases de las que puede admitir la muestra.

Ejemplo 14.4 (Rasting por grupo de edad e hispanidad). Para ilustrar el procedimiento,
reelaboramos el ejemplo 14.3 clasificando el grupo de edad y la hispanidad
márgenes. Se utiliza la misma muestra jurada de 500 de la población cubierta,
y se crea un objeto de diseño de encuesta denominado nhis.dsgn. El siguiente código usa
la función de calibración para hacer el rastrillo. Una alternativa es la función rake,
que dará la misma respuesta (ver Lumley 2010, Secc. 7.3):

# crear totales pop marginales


N.edad <- tabla(nhis.large1$edad.grp)
N.hisp <- tabla(nhis.large1$hisp.r)
pop.totals <- c('(Intercepción)' = N, N.edad[-1], N.hisp[-1])

# crear pesos rastrillados


rake.dsgn <- calibrar(diseño = nhis.dsgn,
formula = ˜as.factor(edad.grp) + as.factor(hisp.r),
calfun = "rastrillar",
población = población total)
Machine Translated by Google

360 14 Calibración y otros usos de datos auxiliares en la ponderación

La función de calibración acepta una serie de parámetros:

encuesta de diseño fórmula del objeto


de diseño fórmulacalibración
del modelovectores
para la de población del
modelo de totales de columna de población para la matriz del modelo en el
modelo de calibración o lista de dichos vectores para cada
función de calibración de conglomerados. Los valores
calfun permitidos son calfun=c("linear","raking","logit","rrz").

La función es lo suficientemente flexible como para aceptar también una


función de distancia definida por el usuario.

Observe cómo se define el vector de totales de población. La primera posición es para


la población total de una intersección ÿ en Eq. (14.6), que es solo el número de
unidades en la población. Cuando las variables categóricas están en un modelo, la
convención de R es eliminar el primer nivel para que se pueda resolver el sistema de
ecuaciones de estimación para los parámetros. Es decir, la primera categoría se trata
como el nivel de referencia. Los primeros niveles de age.grp y hisp.r se omiten al formar
el vector pop.totals al "sustraer" la primera posición del vector, por ejemplo, N.age[-1].
Para aquellos versados en álgebra matricial, esto asegura que las ecuaciones de
calibración se puedan resolver creando una matriz auxiliar con rango de columna
completo. Al igual que en la posestratificación, podemos comprobar que la calibración
se ha realizado con éxito estimando los totales de las dos variables auxiliares:

# Comprobar que los pesos están calibrados para x's


svytotal(˜as.factor(age.grp), rake.dsgn)

ES total
as.factor(age.grp)1 5991 0 as.factor(age.grp)2
2014 0 as.factor(age.grp)3 6124 0
as.factor(age.grp)4 5011 0 as.factor(age.grp)
grp)4 5011 0 como factor(edad.grp)3 grp)5
2448 0

svytotal(˜as.factor(hisp.r), rake.dsgn) SE total as.factor(hisp.r)1


5031 0 as.factor(hisp.r)2 12637
0 as.factor(hisp.r)3 3920 0

Los totales, proporciones y sus SE y CV se pueden estimar utilizando svytotal, svymean


y cv como en el ejemplo 14.3. Los resultados están en la Tabla 14.3. Las estimaciones
son muy parecidas a las de posestratificación del cuadro 14.2. Tenga en cuenta, sin
embargo, que solo se garantiza que los totales de control marginales se satisfarán con
el rastrillado, no los totales de control para la clasificación cruzada.
Machine Translated by Google

14.3 GREG y Estimación de Calibración 361

Tabla 14.3: Estimaciones de rastrillaje en el Ejemplo 14.3 de totales y proporciones de personas


recibiendo Medicaid cuando el marco tiene subcobertura.

CV Total SE
Totales estimados

población completa 2.360 316 0,134


Hispano 943 210 0,223

Proporciones estimadas
población completa 0,111 0,015 0,134

Hispano 0,187 0,042 0,223

14.3 GREG y Estimación de Calibración

Para definir el GREG, necesitamos alguna notación vectorial y matricial que sea más
elaborado que el utilizado en otras partes de este libro. S¨arndal (2007) da una buena
discusión general de los GREG. Entender la notación no es esencial.
para seguir los ejemplos más adelante en este capítulo, y algunos lectores pueden desear
pase a las ilustraciones del uso de software para calcular GREG. para discutir el
GREG, es más fácil comenzar con los totales que con los medios. Supongamos que hay
son n unidades muestrales. El estimador GREG de la población total de y puede ser
Escrito como

T
B
TˆyGREG = t ˆy + tx ÿ ˆtx
= T ÿ1
1 + tx ÿ ˆtx XT DVÿ1X xi/vi bricolaje
yoÿs

donde t ˆy = diyi es sel estimador del total basado en la entrada


pesos, el superíndice T representa la transpuesta del vector especificado,
T
tx = (tx1,...,txp) es el vector p × 1 de los totales de población (o control) de
los p auxiliares usando el número de filas por el número de columnas matriz
notación, ˆtx = dixi ess la estimación de los totales de las x con base en el di
pesos, xi es el vector p × 1 de valores auxiliares para el i el unidad de muestra,

D = diag (di) es la matriz diagonal n × n de pesos de entrada,


xT
ÿ ÿ
Una

xT2
X= ..
.
ÿÿÿÿ xT
norte
ÿÿÿÿ es la matriz n × p de auxiliares para las n unidades muestrales,
ÿ1
Bˆ = XT DVÿ1X XT DVÿ1y
T
con y = (y1,...,yn) siendo el vector de y's para las unidades muestrales, y
V = diag (vi) es una matriz diagonal n × n de valores asociados con el
parámetros de varianza en un modelo lineal subyacente. Es posible formular
Machine Translated by Google

362 14 Calibración y otros usos de datos auxiliares en la ponderación

el GREG usando una diagonal de bloque o alguna otra covarianza no diagonal


matriz, pero esto rara vez se hace en la práctica.
El vector p×1, Bˆ , es un estimador de la pendiente en el modelo yi = xT Es
ÿ+ÿi
donde los ÿi tienen media 0 y varianza vi. Tenga en cuenta que en el caso de srswor
ÿ1
diseño y pesos base, Bˆ se reduce a XT X XT y, familiar para muchos de
un curso de modelado de regresión. Si todos los errores del modelo fueran 0, entonces Bˆ = ÿ y
el GREG se reduce a tT X ÿ, que también es la suma poblacional de las y, Ty.

En ese caso, la y para cada unidad de la población se puede predecir sin


error como xT ÿ, y el GREG sería exactamente igual a Ty en cada muestra.
Es

Como resultado, cuanto mejor sea el predictor de que x es de y, menor será la varianza
del GREG.

Un total estimado para ay se calcula como wiyi, una función =
yGREG s
de los pesos resultantes del procedimiento de calibración de la forma:

wi = digital

El término entre paréntesis se denomina peso g o ajuste de calibración.


(factor) en este texto y muchas otras referencias sobre calibración como, por
Ejemplo, S¨arndal et al. (1992) y Stukel et al. (1996). Observe que la final
Los pesos de wi no dependen de ninguna variable de análisis (y's). Como resultado, el
Se puede usar el mismo conjunto de pesos para cualquier total estimado. Como señalamos en
el comienzo del cap. 13, estimaciones de muchas cantidades, como medios, modelo
los parámetros y los cuantiles dependen de la estimación de los totales. Por ejemplo, una media
se estimaría como y ˆ¯GREG = wiyi/ s s Wisconsin.

Un GREG es aproximadamente imparcial en el muestreo repetido si el marco


proporciona una cobertura completa de la población objetivo, y ˆtx es un indicador imparcial (o,
al menos consistente) estimador del total de la población, tx. Mas o menos,
la falta de sesgo se obtiene si los pesos de entrada, di, conducen a que t ˆy = diyi sea
s
un estimador insesgado del total de la población y la diferencia tx ÿ ˆtx
estima 0. En el caso de subcobertura del marco, t ˆy será demasiado pequeño en
promedio, pero también lo hará ˆtx. Por lo tanto, tx ÿˆtx será positivo y proporcionará una corrección
para el encubierto. Algunas de las otras consideraciones prácticas en el uso
Los GREG son:

(1) Los totales de población de los auxiliares, tx, que también se denominan controles de
calibración, idealmente deberían ser valores verdaderos y conocidos sin error. Si
los totales de la población x son incorrectos, entonces txÿˆtx no estimará
0 cuando debería, o tx ÿˆtx no dará el ajuste de cobertura correcto.
En algunas encuestas, sin embargo, puede ser conveniente utilizar estimaciones de la
controles de tx de una encuesta más grande o de mayor calidad que la que está
ponderación (véase, por ejemplo, Dever y Valliant 2010). Esto puede ser cierto si hay
son x que se consideran muy predictivos de las variables de análisis, pero solo
las estimaciones de población de otra encuesta están disponibles.
(2) Los totales auxiliares estimados, ˆtx = dixi, deben medirse
s en el
de la misma manera en la población que en la encuesta. Por ejemplo, supongamos que uno
de las x es el ingreso anual del hogar. Si un censo y la encuesta recogen
Machine Translated by Google

14.3 GREG y Estimación de Calibración 363

ingreso usando diferentes formulaciones de preguntas, esta falta de comparabilidad podría


sesgar tx ÿ ˆtx.
(3) Como se mencionó anteriormente en este capítulo, existe una asociación entre el resultado
y las variables auxiliares y está “efectivamente” representada por un modelo lineal. Aunque
no es necesaria una estrecha asociación entre las x y las variables de análisis para que el
GREG sea aproximadamente imparcial, un modelo que se ajuste bien producirá varianzas
más bajas. En consecuencia, algún ajuste de modelo formal es un paso importante en la
ponderación.
norte

(4) El hecho de que los ajustes de calibración {gi} son necesidades dependientes
yo=1
de la muestra que deben tenerse en cuenta en la estimación de la varianza. Cubriremos los
métodos para hacer esto en el Cap. 15.

14.3.1 Vínculos entre modelos, diseños muestrales y


estimadores: casos especiales

Aunque algunos practicantes prefieren pensar en los GREG como libres de modelos, creemos
que esto es, en el mejor de los casos, oscurantista. La motivación para elegir una forma
particular de GREG es mucho más fácil de entender cuando se considera un modelo
subyacente. Muchas combinaciones de diseño de muestra/estimador utilizadas en la práctica
son casos especiales de GREG. En la Tabla 14.4 se dan algunos ejemplos de combinaciones
de estimador/diseño de muestra/modelo . Estos estimadores se describen en varios textos
como Cochran (1977) y S¨arndal et al. (1992).1 Los GREG fluyen de varios tipos de modelos
lineales, como se señaló anteriormente. Sin embargo, a menudo se utilizan para estimar
totales de variables binarias 0–1, aunque esto implica que un modelo lineal describe la
asociación con una variable dicotómica. Aunque ajustar un modelo lineal a una variable binaria
probablemente sería considerado un error por la mayoría de los analistas de datos, es un lugar
común en la estimación de encuestas. Esto es una derivación del uso de estimadores de la
forma Tˆ = En algunos casos, como el modelo de posestratificación (14.5) donde cada unidad
s
wiyi.
en una clase de ponderación tiene la misma media, un modelo lineal está bien para una variable
binaria.
Pero, en otros donde se utilizan auxiliares cuantitativos, las predicciones implícitas para las
variables 0–1 pueden estar fuera del rango [0,1] para algunas unidades. Se ha realizado una
cantidad limitada de trabajo sobre el uso de modelos de regresión binaria tradicionales para
estimar totales de 0–1 variables en encuestas (p. ej., Lehtonen y Veijanen 1998; Valliant 1985).
Sin embargo, estos métodos pueden dar como resultado pesos g que son una función de las
variables de análisis y no son de uso común en las encuestas.
No discutiremos más estas técnicas aquí.

Una

La forma del estimador de regresión combinado que se muestra en la Tabla 14.4 es de S¨arndal et al. (1992) y
difiere del de Cochran (1977).
Regresión
separada
estratificada Regresión
combinada
estratificada Razón
separada
estratificada Ratio
de
combinación
estratificado expansión estratificado Juramento
posestratificado Relación Expansión Estimador
Diseño
Total
estimado
stsrswor stsrswor stsrswor stsrswor stsrswor juramento juramento
Tabla
14.4:
Estimadores
GREG
de
población
total
por
diseño
ysupuestos
del
modelo.
TSL
= TCL
=
con TSR
= TCR
= Ty,st
= Tipos
= TR
=
N
¯s T0
=
N
¯s
ˆ ˆ ˆ ˆ ˆ ˆ ˆ ˆ
=
˜sxy
˜s2 ¯xst
=
X
=
Ty,st
+
N
ˆB
(¯xU
ÿ¯xst) Ty,
calle
ˆ ˆ
h h h h sol
=
1 ¯xs
¯xU
Nh
¯yhs
+ Nh
yhs
nh
shh h Nh
yhs
Nh
¯xhs
N,
ˆB
=
x˜s2
˜sxy/
nh
sh
h Ng
ˆtyg
ˆNg
N
¯xU
Nh
¯xhs
¯xhs
¯xUh
(xhi
ÿ¯xhs)2
Bh
(¯xUh
ÿ¯xhs) (xhi
ÿ¯xhs)
(yhi
¯yhs)
ˆ
EM
(yhi)
=
ÿh
+
ÿhxhi
V
ar
M
(yhi)
=
ÿ2 EM
(yhi)
=
ÿ+
ÿxhi EM
(yhi)
=
ÿhxhi EM
(yhi)
=
ÿxhi EM
(yhi)
=
ÿh EM
(yi)
=
ÿg ME(y)
=
ÿx EM(y)
=
ÿ media
del
modelo
V
ar
M
(yhi)
=
ÿ2 V
ar
M
(yhi)
=
ÿ2
hxhi V
ar
M
(yhi)
=
ÿ2xhi V
ar
M
(yhi)
=
ÿ2 V
ar
M
(yi)
=
ÿ2 V
ar
M
(y)
=
ÿ2x V
ar
M
(y)
=
ÿ2 variación
del
modelo
gramo
h h
14 Calibración y otros usos de datos auxiliares en la ponderación 364
Machine Translated by Google
Machine Translated by Google

14.3 GREG y Estimación de Calibración 365

14.3.2 Ejemplos más generales

Para ilustrar un GREG que usa tanto auxiliares cuantitativos como cualitativos, usamos la
población de la Encuesta de Organizaciones de Salud Mental. El archivo, smho.N874, contiene
874 hospitales y es un subconjunto del archivo smho98 presentado en el Cap. 3. Las variables
en el archivo son:

hosp.type tipo de hospital (1=psiquiátrico, 2=residencial/veteranos, 3=general,


4=ambulatorio/caso parcial, y 5=multiservicio/abuso de sustancias)

EXPTOTAL gastos totales en 1998 total de camas


número de clientes/pacientes
de hospitalización
atendidosCAMAS
durante el
SENTIDO año sin duplicar
El hospital FINDIRCT recibe dinero de la agencia estatal de salud mental (1=sí, 2=no)

El siguiente código cargará el conjunto de datos en R:


smho.N874 <- read.csv("smho.N874.csv", fila.nombres = 1)

Supongamos que el objetivo es estimar el total de gastos en algún año posterior a 1998, pero
usamos el archivo de 1998 para explorar si alguna de las covariables, BEDS, SEENCNT,
EOYCNT y FINDIRCT, serían predictores útiles. Para esta ilustración, eliminamos los casos
con tipo de hospital = 4. Muchos de estos son unidades de pacientes ambulatorios que no
tienen camas para pacientes hospitalizados; las camas obviamente no estarán relacionadas
con los gastos para ellas. Las 725 organizaciones distintas del tipo 4 se pueden conservar con
el siguiente código R. Tenga en cuenta que el signo de exclamación le indica al software que
mantenga solo los registros en smho.N874 que no están en el vector de eliminación:

borrar <- smho.N874$hosp.tipo == 4 smho <- smho.N874[!


borrar, ]

Un primer paso útil es hacer una matriz de diagrama de dispersión de las variables
cuantitativas en el problema, como se muestra en la Fig. 14.2. La correlación de gastos
(EXPTOTAL) con el número de camas (BEDS) es razonablemente alta, 0,70, pero es menor
para el recuento de pacientes (SEENCNT) y el recuento de pacientes al final del año (EOYCNT),
0,35 y 0,30, respectivamente. Sin embargo, las dos variables de conteo pueden ser predictores
útiles. Para explorar más las relaciones, dibujamos la Fig. 14.3 que grafica gastos versus
camas por separado para cada tipo de hospital. La línea gris en cada panel es un suavizador
no paramétrico diseñado para reflejar la relación de dos variables sin especificar ningún modelo
en particular. Existe alguna evidencia de que la pendiente de las camas depende del tipo de
hospital. Lo mismo puede ser cierto para las pendientes de SEENCNT y EOYCNT, pero, para
este ejemplo, no buscaremos esta posibilidad.

A continuación, podemos hacer un modelado más formal. El siguiente código R se ajusta a


un modelo con pendientes comunes para SEENCNT y EOYCNT pero una pendiente diferente
para CAMAS en cada tipo de hospital:
Machine Translated by Google

366 14 Calibración y otros usos de datos auxiliares en la ponderación

0 200 600 1000 1400 0 4000 8000 12000

EXPTOTAL 2.0e+08
1.0e+08
0.0e+00

1200
800
400
0

0.70 CAMAS

25000
10000
0

0.35 0.15 SENTIDO

10000
4000
0

0.30 0.14 0.86 EOYCNT

0.0e+00 1.0e+08 2.0e+08 0 5000 15000 25000

Higo. 14.2: Matriz de gráfico de dispersión de variables en el conjunto de datos smho.N874.

# Pendiente separada en camas en cada tipo de hospital


m2 <- glm(EXPTOTAL ˜SEENCNT + EOYCNT +
como.factor(FINDIRCT) +
as.factor(hosp.type):CAMAS,
datos = smho)

resumen (m2)
Coeficientes:
Estimación estándar Error valor t Pr(>t)
(Interceptar) 1318589.1 912432.2 1.445 0.148856
SENTIDO 1033.9 310,6 3,329 0,000918 ***
EOYCNT 2036.2 603,6 3,373 0,000782 ***
as.factor(FINDIRCT)2 78026.1 965237.6 0.081 0.935595

as.factor(tipo.hosp.)1:CAMAS 98139.3 as.factor(tipo.hosp.)2:CAMAS 3318.8 29.570 < 2e-16 ***

39489.4 as.factor(tipo.hosp.)3:CAMAS 77578.4 5644.5 6.996 6.05e-12 ***

as.factor(tipo.hosp.) )5:CAMAS 36855.8 15082.2 5.144 3.48e-07 ***


8650.5 4.261 2.31e-05 ***
---

signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Todas las estimaciones de parámetros son significativamente diferentes de 0 excepto por


FINDIRCT y el intercepto. Mostramos un diagrama de diagnóstico final en la Fig. 14,4;
aunque hay muchos que se podrían hacer. Esta figura traza el estudentizado
Machine Translated by Google

14.3 GREG y Estimación de Calibración 367

psiquiátrico residencial o veteranos

(millones)
Gastos

200
150
100
50
0 200
150
100
50
0

0 200 400 600 800 100012001400 0 200 400 600 800 1000 1200
Camas Camas

general multiservicio, abuso de sustancias

200
150
100
50
0 200
150
100
50
0

0 50 100 150 200 250 0 200 400 600 800


Camas Camas

Higo. 14.3: Parcelas de gastos versus camas para los cuatro tipos de hospitales. la línea en
cada panel es un suavizador no paramétrico.

10

psiquiátrico
residencial o veteranos
general
5 multiservicio, abuso de sustancias

0
estudentizados
Residuos

ÿ5

0 200 400 600 800 1000 1200 1400


Camas

Higo. 14.4: Residuos estudentizados trazados frente a camas para los datos de smho.N874.sub.
Las líneas de referencia se dibujan en ±3.
Machine Translated by Google

368 14 Calibración y otros usos de datos auxiliares en la ponderación

residuales del modelo versus lechos. Los tipos de hospitales se muestran en diferentes
tonos. La mayoría de los puntos caen dentro de las bandas dibujadas en ±3, pero hay un
número fuera de las bandas. Parte de esto puede deberse a la varianza no homogénea,
que es visible en la figura 1. 14.3. El uso de una regresión ponderada con pesos
proporcionales a las camas con alguna potencia podría ayudar, pero algunos de los
hospitales más pequeños tienen residuos estandarizados grandes. Algunos de los más
extremos son los hospitales psiquiátricos que tienen un gran número de camas o un gran
valor de los gastos.
En el primer panel de la Fig. 14.3, vimos que la gráfica de gastos versus camas era
extremadamente difusa para los hospitales psiquiátricos. Si estas grandes organizaciones
pudieran reconocerse antes del muestreo, podrían seleccionarse con certeza, como se
describe en el Cap. 3. Después de seleccionar la muestra, podría ser prudente excluir
dichas unidades, ya sean certezas o no, del proceso de cálculo de los pesos de
calibración. Pueden tener un efecto perjudicial sobre las ponderaciones y las estimaciones
resultantes, ya que la pendiente implícita en una estimación GREG puede verse afectada
por puntos extremos. Por supuesto, los residuos de variables distintas de los gastos
totales pueden no ser extremos. Como resultado, la decisión de excluir unidades
particulares del cómputo de pesos no es clara.

Para ilustrar la calibración, seleccionaremos una muestra del subconjunto de smho98


que excluye el hospital tipo 4 y usaremos el mismo modelo que el anterior. El siguiente
código utiliza el paquete de muestreo para seleccionar una muestra con probabilidad
proporcional a la raíz cuadrada de las camas (recodificadas). El método de selección
consiste en aleatorizar el orden de la población y luego seleccionar una muestra
sistemática (ver Hartley y Rao 1962). Primero, el valor de las camas se recodifica para
tener un mínimo de 5; de lo contrario, no se podrá seleccionar ningún hospital con 0
camas. Los pesos base están en el vector d:

require(muestreo) x <-
smho[,"BEDS"]
# recodificar hospitales pequeños para tener un MOS mínimo
x[x <= 5] <- 5 x <-
sqrt(x) n <- 80
set.seed(428274453)
pk <- n*x/sum(x) sam <-
UPrandomsystematic(pk)
sam <- sam= =1 sam.dat <- smho[sam, ]
d <- 1/pk[sam]

Los conteos de unidades de muestra por tipo de hospital son 33, 15, 17 y 15 para que
todos los tipos estén representados. A continuación, el paquete de encuestas se usa
para crear un objeto de diseño, smho.dsgn, que luego se usa en la función de calibración
para calcular los pesos GREG. Esta función acepta un número de parámetros como se
discutió en el Ejemplo 14.4:
Machine Translated by Google

14.3 GREG y Estimación de Calibración 369

smho.dsgn <- svydesign(ids = ˜0, # sin grupos


estratos = NULL, datos # sin estratos
= data.frame(sam.dat),
pesos = ˜d)

# Calcular pop totales de auxiliares


# Tenga en cuenta que estos son los originales, no las x recodificadas
x.camas <- por(smho$CAMAS, smho$hosp.tipo, suma)
x.visto <- sum(smho$SEENCNT)
x.eoy <- suma(smho$EOYCNT)
N <- nrow(smho)

pop.tots <- c('(Intercepción)' = N,


SEENCNT = x.visto,
EOYCNT = x.eoy,
x.camas = x.camas)

sam.lin <- calibrar(diseño = smho.dsgn,


fórmula = ˜SEENCNT + EOYCNT +
as.factor(hosp.type):CAMAS,
población = pop.tots,
calfun="lineal")

La configuración del parámetro calfun=c("linear") da como resultado pesos GREG


siendo computado. Al igual que en la posestratificación y el rastrillado, podemos comprobar si
se cumplieron las restricciones de calibración:

svyby(˜CAMAS, by=˜as.factor(hosp.type), design=sam.lin,


DIVERSIÓN=svytotal)
como.factor(tipo.hosp.) CAMAS 1 37978 se.CAMAS
Una 1.826570e-12
2 2 13066 6.289865e-13
3 3 9573 6.799993e-13
5 5 10077 1.398118e-12

svytotal(˜SEENCNT, sam.lin)
total SE
SEENCNT 1349241 5.755e-11

svytotal(˜EOYCNT, sam.lin)
total SE
EOYCNT 505345 1.911e-11

Dado que los SE son esencialmente 0, se ha obtenido un conjunto de pesos que satisfacen
s wixi = tx. La función de calibración también emitirá un mensaje de error si el
la calibración falla por alguna razón. Examinar estadísticas de resumen para los pesos
siempre es sabio. Cuando se hace esto, vemos que al menos un peso GREG
(-0.3983) es negativo a pesar de que el peso base más pequeño fue 2.714:

resumen(pesos(smho.dsgn))
mín. 1er cuarto Mediana Media 3er Qu. 2.714 5.693 8.150 máx.
8.763 10.090 33.680
resumen(pesos(sam.lin))
Machine Translated by Google

370 14 Calibración y otros usos de datos auxiliares en la ponderación

mín. 1er cuarto Mediana Media 3er Qu. máx.


-0.3983 5.7470 8.8320 9.0630 10.9300 33.8300

No hay nada en el algoritmo GREG que evite los pesos negativos, aunque en una
muestra donde todas las probabilidades de selección son pequeñas y los pesos de entrada
resultantes son grandes, es poco probable que esto suceda. En teoría, incluso con
ponderaciones negativas, el GREG será aproximadamente insesgado de diseño y, si el
modelo se especifica correctamente, será insesgado de modelo para los totales de la
población. Sin embargo, las ponderaciones negativas podrían tener un efecto grave en las
estimaciones de algunos dominios y, en general, los usuarios se sienten incómodos con
las ponderaciones negativas. De hecho, algunos paquetes de software no permitirán pesos
negativos. Para ayudar a solucionar este posible problema, la función de calibración tiene
un parámetro de límites que proporciona la cantidad relativa en la que los pesos finales
pueden diferir de los pesos de entrada. Para hacer la delimitación, esta restricción se
agrega a la sonda de calibración descrita en la Secc. 14.1:

Wisconsin

Lÿ ÿ U para todo i ÿ s.
di
En palabras, el peso calibrado para cada caso de muestra debe ser mayor que un límite
inferior L multiplicado por el peso de entrada y menor que un límite superior U multiplicado
por el peso de entrada. (Esto es sinónimo de acotar los pesos g porque wi = digi). Por lo
tanto, el límite está en el cambio relativo en el peso inicial, no en el peso final en sí. Los
límites son arbitrarios. Por ejemplo, es posible que desee exigir que el peso final esté entre
1/2 y 3 veces el peso inicial. Si las ponderaciones de entrada son positivas (que lo serán si
son inversas de las probabilidades de selección o probabilidades inversas ajustadas por
falta de respuesta), entonces las ponderaciones acotadas serán positivas. Es fácil hacer
que los límites sean tan estrechos que la calibración fallará, y es posible que se necesite
algo de prueba y error para llegar a valores que funcionen en un problema en particular.

Insecto. 14.4 el tema de la variabilidad del peso se tratará con más detalle.
Aquí, ilustramos cómo limitar los cambios de peso utilizando las funciones GREG o de
distancia de rastrillado. En este caso, se requiere que los pesos finales estén entre 0,4 y 3
veces los pesos de entrada. Cuando se establecen límites, se utiliza un procedimiento
iterativo para llegar a un conjunto final de pesos. Tres parámetros que pueden ser útiles
son:

máximo Número de iteraciones permitidas antes de que se detenga el


procedimiento. Valor predeterminado 50 Tolerancia en el total
épsilon de la población coincidente. Valor predeterminado 10ÿ7
Devuelve una respuesta incluso si no se logró la precisión
fuerza especificada. El valor predeterminado es FALSO

Si no se obtiene la convergencia con la configuración predeterminada, puede resultar útil


aumentar el número de iteraciones permitidas y reducir la tolerancia. Si force=TRUE, aún
se devolverá el objeto de diseño calibrado aproximadamente. Comprobación
Machine Translated by Google

14.3 GREG y Estimación de Calibración 371

el grado de satisfacción de las restricciones puede ayudar a determinar por qué falló la calibración.
El parámetro de límites se puede utilizar con los mínimos cuadrados
o funciones de distancia de rastrillado como se muestra a continuación (el parámetro, límites, no es
disponible si calfun = "logit"):

# Calibración lineal con límites


sam.linBD <- calibrar(diseño = smho.dsgn,
fórmula = ˜SEENCNT + EOYCNT +
as.factor(hosp.type):CAMAS,
población = pop.tots,
límites = c(0.4, 3),
calfun = "lineal")

# Comprobar controles
svyby(˜CAMAS, by=˜as.factor(hosp.type), design=sam.linBD,
DIVERSIÓN=svytotal)
svytotal(˜CAMAS, sam.linBD)
svytotal(˜SEENCNT, sam.linBD)
svytotal(˜EOYCNT, sam.linBD)

# rastrillar
sam.rake <- calibrar(diseño = smho.dsgn,
˜
fórmula = SEENCNT + EOYCNT + as.factor(hosp.type):CAMAS,
población = pop.tots,
límites = c(0.4, 3),
calfun = "rastrillar",
maxit = 100, épsilon = 1e-4)

En el código de clasificación anterior, la configuración maxit = 100, epsilon = 1e-4


Se utilizaron para obtener la convergencia. Con la configuración predeterminada, la tasa de
calibración informará que no se logró la convergencia, aunque por motivos prácticos.
propósitos ha sido.
Los resultados se generan con las funciones svytotal y cv R (como en
ejemplo 14.2) y se resumen en la tabla 14.5. Las estimaciones son mayores
que el total de la población, pero en este caso, una aproximación normal del 95 %
el intervalo de confianza contendrá la población real total de $ 8.774 mil millones
en todos los casos. Por ejemplo, el intervalo de confianza basado en la estimación GREG
se puede encontrar con

Tabla 14.5: Totales estimados de gastos, errores estándar y coeficientes de


variación para la estimación de ÿ, GREG, GREG acotado y estimaciones de raking acotadas en una muestra pps
de un subconjunto de la Encuesta de organizaciones de salud mental
población.

Estimador (objeto de diseño) Total estimado (000s) SE (000s) CV (%)


Estimación ÿ 8,774,651
de la población (smho.dsgn)1 9.322.854 915.126 9,81
GREG (sam.lin) 9.563.683 748.596 7,82
GREG acotado (sam.linBD) 9.612.035 744.746 7,75
Rastrillo limitado (sam.rake) 9.529.511 732.273 7,68
Machine Translated by Google

372 14 Calibración y otros usos de datos auxiliares en la ponderación

confint(svytotal(˜ EXPTOTAL, sam.lin))

Como muestra la tabla 14.5 , las estimaciones GREG, GREG acotada y raking acotada
tienen SE y CV estimados más pequeños que la estimación ÿ en esta muestra. Cada uno
de los CV para las estimaciones calibradas es aproximadamente el 79 % del de la
estimación ÿ. Por lo tanto, la calibración proporciona un aumento sustancial de la precisión.
Vale la pena explorar cómo se comparan los pesos de estos diferentes métodos. La
figura 14.5 muestra una gráfica de los pesos para los tres métodos de calibración ods
frente a los pesos base en el panel de la izquierda. Se dibuja una línea de 45° donde los
pesos serían iguales a los pesos base. La mayoría de los pesos aumentan ligeramente
para alcanzar los totales de control, pero algunos disminuyen notablemente. En el panel
de la derecha, las proporciones, wi/di, se representan frente a los pesos base. El límite
superior de 3 claramente no tiene efecto. La unidad con el peso negativo está marcada
con una flecha. El uso de un límite inferior de 0,4 hace que varios pesos, incluido el
negativo, se muevan hacia el límite. Al comparar los puntos del GREG lineal ilimitado y
los dos métodos acotados, es evidente que la delimitación no afectaría mucho a la mayoría
de las unidades, pero eliminaría el peso negativo objetable.

peso lineal ilimitado


rastrillado limitado
lineal limitado

35
30
25
20
15
10
5
0

3,0 /
peso
2,5
2,0
1,5
1,0
0,5
0,0
día

5 10 15 20 25 30 5 10 15 20 25 30
d d

Higo. 14.5: Gráficas de pesos para los diferentes métodos de calibración en una muestra pps.
Se dibuja una línea de 45ÿ en el panel de la izquierda. Las líneas de referencia se dibujan en los
límites de peso, 0,4 y 3, en el panel de la derecha.

La selección de covariables para usar en la calibración es, en cierto modo, incluso


más difícil que en un problema de modelado típico porque los pesos se pueden usar para
muchas variables de respuesta. Para ilustrar cuánta diferencia puede hacer la elección de
las covariables, volvemos a calcular los pesos GREG utilizando un modelo que tiene
parámetros para SEENCNT, EOYCNT, una pendiente común para BEDS y efectos
principales para el tipo de hospital. Esto difiere del modelo anterior que tenía una pendiente
separada para cada tipo de hospital y no incluía controles sobre el número de hospitales.
El código para calcular pesos GREG ilimitados es el siguiente:
Machine Translated by Google

14.3 GREG y Estimación de Calibración 373

N.hosp <- table(smho$hosp.type) x.beds <-


sum(smho$BEDS) pop.tots <- c(BEDS = x.beds,
SEENCNT = x.seen, EOYCNT = x.eoy, HOSP =
N.hosp)

sam.lin2 <- calibrar(diseño = smho.dsgn,


fórmula = ˜0 + CAMAS + SEENCNT + EOYCNT
+ as.factor(hosp.tipo),
población = pop.tots, límites=c(-Inf,Inf),
calfun="lineal")

A continuación, estimamos el total de gastos y la proporción de hospitales que reciben


financiamiento de las agencias estatales de salud mental (FINDIRCT). Los resultados están
en la Tabla 14.6. El CV de los gastos totales, el total cuantitativo, es de 7,77 % para el nuevo
modelo, etiquetado como GREG 2 en la tabla. Esto es casi lo mismo que para el modelo con
una pendiente separada para camas en cada tipo de hospital y sin controles en los recuentos
de hospitales por tipo, denominado GREG 1. Pero, para FINDIRCT, la estimación GREG-2
tiene un CV de 9,91 % en comparación con 16,92% para GREG 1.
Esta ganancia es consistente con el hecho de que las proporciones de población en los
cuatro tipos de hospitales son muy diferentes: 0,67, 0,80, 0,94 y 0. Es decir, las medias
difieren según el tipo de hospital, lo que implica que un factor de tipo de hospital debe estar
en un modelo predecir FINDIRCT.
En base a estos dos ejemplos, podría preferirse un modelo con BEDS + SEENCNT +
EOYCNT + as.factor(hosp.type). Sin embargo, puede haber otras variables de análisis para
las cuales otro conjunto de auxiliares podría ser más eficiente. Cuando se calculan las
ponderaciones en la mayoría de las encuestas, el uso de diferentes auxiliares para diferentes
variables de análisis es engorroso y poco práctico.
El objetivo es encontrar un conjunto de pesos de propósito general que sea razonablemente
eficiente para la mayoría de los estimadores. Puede ser necesario considerar un amplio
conjunto de variables de análisis para tomar una buena decisión sobre cuáles seleccionar.
En algunos aspectos, considerar las covariables parece haber dificultado mucho el
problema de estimación debido a la incertidumbre sobre cuáles usar. Usar el estimador ÿ,
por el contrario, es simple ya que solo calculamos las probabilidades de selección y las
invertimos y tenemos un conjunto de pesos. Sin embargo, esta simplicidad es engañosa
porque un conjunto de buenas covariables reducirá considerablemente los EE, como se
ilustra en las tablas 14.5 y 14.6.
Lo desafortunado que sucede a menudo en la práctica es que los pesos se calculan sin
examinar ninguna variable de análisis en absoluto. Esto puede deberse a que el cronograma
es tan ajustado que la ponderación y la edición de los datos deben ocurrir en forma paralela,
por lo que las variables de análisis no están disponibles para el personal que elabora las
ponderaciones. O puede ser que una organización siempre haya hecho la ponderación sin
el beneficio de las variables de análisis (estén o no disponibles). Divorciar la ponderación del
análisis es común en encuestas únicas que no se repetirán. En ese caso, se pueden usar
reglas generales generales para seleccionar covariables o un procedimiento simple como
postestratificación.
Machine Translated by Google

374 14 Calibración y otros usos de datos auxiliares en la ponderación

Cuadro 14.6: Totales estimados de gastos y proporción de hospitales con


financiamiento estatal, errores estándar y coeficientes de variación para la estimación ÿ y
dos opciones de GREG en una muestra pps de un subconjunto de la Encuesta de Salud Mental
Población de las organizaciones.

Estimar o SE CV
valor de la población (%)
Gastos totales (miles)
Estimación ÿ 8,774,651
de la población 9.322.854 915.126 9,82
GREG 1 9.563.683 748.596 7,83
REG 2 711.633 7,77 9.161.491
Proporción con financiamiento de la agencia estatal de salud mental
Población 0.336
estimación de ÿ 0.323 0,059 18,16
GREG 1 0.303 0,051 16,92
gregorio 2 0.340 0,034 9,91

puede ser usado. En encuestas continuas que se repiten periódicamente, hay


una oportunidad de usar datos previos para guiar la creación de peso. a pesar de
circunstancias, ver cómo una implementación propuesta de posestratificación, rastrillado, GREG, etc.,
se desempeña para algunas estimaciones importantes es siempre una
buena práctica.

14.4 Variabilidad del peso

Tener pesos de encuesta que varían es común. Las razones de la variabilidad incluyen:

(1) Probabilidades de selección variables como ocurriría en el muestreo pps o en el muestreo


estratificado con diferentes tasas de muestreo en los estratos
(2) Grupos de unidades de sobremuestreo o submuestreo en muestreo de dos fases basado en
membresía de dominio
(3) Tasas de respuesta desiguales (y/o tasas de elegibilidad desconocida) en diferentes
subgrupos que conducen a ajustes de peso desiguales
(4) Calibración de auxiliares para reducir las variaciones o corregir la cobertura del marco
errores

En algunos casos, se pueden diseñar diferentes pesos en la muestra, como en (1)


y (2) arriba. En otras aplicaciones, se necesitan pesos variables para corregir
para el posible sesgo de falta de respuesta o subcobertura diferencial como en (3) y (4).
Sin embargo, las ponderaciones muy diferenciales pueden aumentar las varianzas de las estimaciones.
incluso si disminuyen el sesgo.
Los profesionales a menudo se preocupan por tener pesos desiguales, particularmente
en las encuestas de hogares. Si esto es una preocupación genuina depende de la
Machine Translated by Google

14.4 Variabilidad del peso 375

situación. Esta sección revisa algunas medidas de la variabilidad del peso, cómo
se derivan y cómo deben interpretarse. También mostramos cómo
usar programación cuadrática y métodos de reducción de peso más arbitrarios
para atar pesos.

14.4.1 Cuantificación de la variabilidad

Kish (1965, 1992) introdujo un "efecto de diseño debido a la ponderación" que es igual
a uno más la revarianza de los pesos muestrales:

defw =1+ varrel(w)


2 w¯2 ,
=1+ nÿ1 (wi ÿ w¯)
s

donde ¯w = nÿ1 wi. El término deffw también se conoce como ponderación desigual.
s
efecto (por ejemplo, Liu et al. 2002). Este es un método ampliamente utilizado, y posiblemente sobreutilizado,
medida que se interpreta como el incremento en la varianza de un estimador debido
a tener pesos que no son todos iguales. Por ejemplo, Kish también escribe
defw como 1 + L, siendo L la inflación por encima de la varianza que
obtenerse con una muestra autoponderada. Los practicantes a menudo calculan defww
mientras desarrolla los pesos finales y utilícelos para hacer un juicio sobre
si los pesos deben modificarse porque son "demasiado variables".
No parece haber reglas empíricas universalmente aceptadas para medir cuándo
defw es "grande". Para bien o para mal, los valores de defw de 1.5 o mayores con frecuencia
llevar a que se tome alguna acción.
Para entender si esta medida es aplicable a una encuesta específica,
necesita entender cómo se deriva. Considere un stsrswor con muestra nh
unidades asignadas al estrato h. El número de unidades en el estrato de población.
es Nh, y la proporción de la población en el estrato h es Wh = Nh/N.
Como se muestra en Kish (1965), deffw es el cociente de la varianza de la estratificada
H
expansión vari, ¯yst = ance del mismo estimador
h=1
Why¯sh,con
conasignación
ponderación
proporcional,
desigual al suponiendo
estimador de
estrato
las varianzas son iguales:

V (¯yst) con asignación no proporcional


por defecto = .
V (¯yst) con asignación proporcional

El supuesto clave es que una asignación proporcional es óptima para el


estudiar. Esta asignación, como se discutió en la Secc. 3.1.2, se utiliza sólo cuando el
suposición de que las desviaciones estándar de la población del estrato son todas iguales
(Sh = S) es razonable. En este caso especial, defw mide el cambio en
la varianza asociada con la desviación del diseño óptimo supuesto.
Sin embargo, la variación en los pesos es apropiada si el supuesto Sh = S
no es razonable o si alguna de las condiciones discutidas al comienzo de
Machine Translated by Google

376 14 Calibración y otros usos de datos auxiliares en la ponderación

Secta. 14.4 existen. Aunque defww está motivado por el muestreo estratificado, comúnmente se aplica a
cualquier tipo de muestra donde los pesos varían.
La medida deffw puede ser útil si la ponderación igual es adecuada, es decir, las varianzas de los estratos
son iguales o, al menos, no se espera que sean extremadamente diferentes.
Esto puede ser cierto en las encuestas de hogares. Sin embargo, defw es en gran medida irrelevante en
muchas aplicaciones. Entre ellos se encuentran: • Encuestas de establecimientos o instituciones donde se

sabe que las varianzas difieren


entre estratos
• Encuestas de hogares en las que se muestrean intencionalmente diferentes subgrupos en
diferentes tasas para obtener los tamaños de muestra deseados
• Encuestas en las que los diferentes grupos responden a tasas sustancialmente diferentes, de modo que los
ajustes por falta de respuesta, que son necesarios para reducir el sesgo, crean pesos de diferente tamaño,
aunque la muestra inicial pueda ser autoponderada.

En estos casos, como señala Kish (1992), las ponderaciones diferenciales pueden ser mucho más eficientes
que las ponderaciones iguales.
El mejor uso de deffw puede ser como diagnóstico después de calcular los pesos.
Los valores grandes pueden indicar que los resultados de diferentes pasos deben verificarse para ver si se
han producido errores o si un paso en particular inyecta mucha variabilidad injustificada en los pesos. El paso
de ajuste por falta de respuesta suele ser bastante sensible a cómo se forman las clases de ponderación o
cómo se estiman las propensiones. Si se considera que los ajustes extremos no son confiables y no corrigen
realmente el sesgo, esta es una buena razón para modificar el procedimiento de alguna manera.

Para tener una idea de los valores que puede tomar deffw, considere el caso de dos estratos y un diseño
de stsrswor. Supongamos que la proporción de la muestra en el estrato h es ph = nh/ny el peso de cada
unidad en el estrato h es wh (h = 1, 2). Cuando las fracciones muestrales son despreciables en cada estrato,
se puede demostrar que el valor de 1 + L de Kish es (ver los ejercicios):

p1w2 + p2w2
Una 2
deffw = 2. (14.7)
(p1w1 + p2w2)

Esto se evalúa para unos valores de w1 y w2 para f1 = f2 = 0.5 en la Tabla 14.7. Si la relación de pesos
en los estratos 1 y 2 es 3:1, entonces SE (¯yst) se infla solo un 12 %. Si la relación es 50:1, deffw = 1,39. Las
proporciones del peso máximo al mínimo pueden ser mucho mayores que 50:1 en algunas encuestas.

Por ejemplo, en la Encuesta estadounidense de organizaciones de salud mental (SMHO) de 1998 que estamos
usando como ejemplo en este libro, esta proporción fue de aproximadamente 160:1 (Li y Valliant, 2009). Los
ejercicios dan un ejemplo usando smho.N874 donde, en una muestra de pps, deffw es casi 20. Sin embargo,
para interpretar inteligentemente estas proporciones, siempre tenga en cuenta la advertencia de que se pueden
necesitar pesos desiguales para una estimación eficiente. Debe considerar las características de las variables
de la encuesta en particular para decidir si la variabilidad del peso es un problema.

Kish (1987b) también sugirió una medida similar a deffw para muestras de conglomerados. Una
justificación formal de la medida utilizando un modelo fue dada por
Machine Translated by Google

14.4 Variabilidad del peso 377

Tabla 14.7: Medida de deffw de Kish para la inflación de la varianza debido a una ponderación
desigual para un caso de dos estratos con asignaciones iguales (f1 = f2 = 0,5) a los estratos.

w1 3 5 10 15 20 50
w2 111111

deffw 1.25 1.44 1.67 1.77 1.82 1.92


deffw 1.12 1.20 1.29 1.33 1.35 1.39

Gabler et al. (1999). Suponga que se selecciona una muestra por conglomerados y cada unidad de
muestra se asigna a una de las clases de ponderación ÿ = 1,...,G. El número de unidades de muestra

en la clase ÿ es nÿ n = nÿ . Suponga que el siguiente modelo


ÿ variable
de de
varianza
análisis
simple
yij asociada
se cumple
con para
la unidad
una
j en el conglomerado i (i = 1,...,I):

ÿ ÿ2 yo = yo , j = j ,

CovM (yij , yij ) = ÿÿ2 yo = yode,j=


lo j , (14.8)
ÿ
0ÿ contrario.

En palabras, todas las unidades tienen una varianza común ÿ2, diferentes unidades en el mismo
conglomerado tienen una correlación ÿ y unidades en diferentes conglomerados no están
correlacionadas. Gabler et al. (1999) consideró la media muestral ponderada, ¯yw = iÿsjÿsi wij .

una clase de ponderación tengan


Demostraron
el mismo
que,
peso
en (wi
el caso
= wÿ,dei ÿque
sÿ),todas
la relación
las unidades
entre laiÿsjÿsi
varianza
wijyij
delen
modelo de ¯yw según (14.8) y la varianza de la media no ponderada bajo un modelo donde todas las
y no están correlacionadas es

ÿ nÿw2 ÿ
def2w = norte 2 [1 + ÿ (bÿ ÿ 1)] ,

ÿ nÿwÿ

donde b* = s wÿniÿ
ÿ w2 ÿnÿ siendo niÿ el número de unidades de muestra
2!ÿ
en la clase de ponderación ÿ que están en el conglomerado i. Si el tamaño de la muestra en cada
conglomerado es el mismo, ¯b, entonces deff2w está acotado arriba:

ÿ nÿw2 ÿ
def2w ÿ norte 2 1 + ÿ ¯ segundo - 1 .

ÿ nÿwÿ

El valor del límite fue la sugerencia de Kish (1987b).


SUDAAN (RTI International, 2012), software diseñado para analizar encuestas y otros datos
correlacionados mencionados en el Cap. 3, permite el cálculo de cuatro efectos de diseño diferentes.
Las distintas versiones se calculan mediante
Machine Translated by Google

378 14 Calibración y otros usos de datos auxiliares en la ponderación

diferentes suposiciones utilizadas para el estimador de la varianza del denominador. Las fórmulas
estiman la cantidad de inflación de la varianza asociada con las combinaciones de las características
del diseño (es decir, agrupamiento, estratificación, tasas de muestreo diferencial y ponderaciones
desiguales). Procedimientos específicos de SUDAAN, accesibles
dentro de un programa SAS a través de su versión "SAS-llamable", se discuten en
Cap. 15.
Una medida que se acerca más a dar cuenta de la posibilidad de que la variable
pesos pueden ser eficientes es uno derivado por Spencer (2000). Supongamos que pi es
la probabilidad de selección de 1 sorteo de la unidad i y que pi y una variable de análisis
yi están correlacionados. Por ejemplo, esto sería razonable en los hospitales
población si se tuviera una probabilidad proporcional al número de camas (xi) muestra
seleccionado y la variable de análisis fue el número de pacientes dados de alta. En eso
caso, pi ÿ xi, y como vimos en el Cap. 3, el número de descargas está relacionado
al número de camas. Supongamos que este modelo lineal se cumple para Y :

yi = ÿ + ÿpi + ÿi . (14.9)

Las estimaciones de mínimos cuadrados ordinarios de población finita de ÿ y ÿ son


ÿU = ¯yU ÿ ÿU p¯U y

2
ÿU = (pi ÿ p¯U ) ,
tu (yi ÿ y¯U ) (pi ÿ p¯U ) $ U

donde ¯yU y ¯pU son medias poblacionales finitas. Estas ecuaciones se pueden reescribir pi/N = 1/
diez usando el hecho de que ¯pU = tu N. La población finita
varianza de los errores, ÿi = yi ÿ (ÿU + ÿU p¯U ) , es ÿ2 ÿ2 con
ÿ = 1 ÿ ÿ2 sí y
= N y siendo ÿyp(yilaÿcorrelación
ÿ1 2
ÿ2
y tu y¯U ) poblacional entre
y y p. El peso de la unidad i es wi = 1/ (npi). Si la muestra es seleccionada
con reemplazo, el pwr -estimator de Sect. 3.2.1 del total de la población
es Tˆ = = nÿ1 2.
poder s
wiyi. Su varianza de diseño es V Tˆ poder tu (yi/pi ÿ T )
Sustituyendo valores del modelo (14.9) en esta fórmula de varianza y tomando
la razón del resultado a la varianza del total estimado bajo srs con
reemplazo, Spencer obtuvo la siguiente expresión aproximada para un
efecto de diseño debido a la ponderación desigual:

2
norte norte
ÿU
defSw = 1 ÿ ÿ2 w¯u + w¯U ÿ 1 , (14.10)
sí norte norte
y

donde ¯wU =
iÿU wi N es el peso medio de la población. DeffSw de Spencer
puede ser estimado por

2
ÿˆ
def sw = 1 ÿ ÿˆ2 sí
[1 + varrel(w)] + varrel(w),
ÿˆy

donde ˆÿ2 y ˆÿ son los valores de intercepción estimados y R-cuadrado



calculado a partir del modelo de ajuste (14.9) por mínimos cuadrados ponderados por encuesta.
Machine Translated by Google

14.4 Variabilidad del peso 379

2
La varianza estimada de la unidad de población es ˆÿ2 =
y s wi (yi ÿ y¯w) s Wisconsin

2
y [1 + relvar (w)] = n como en el deffws w2 ( Cuando
dek Kish. s semana) ÿy es

grande en relación con ÿ y ÿyp = 0, las medidas de Spencer y Kish son aproximadamente
mismo. Tenga en cuenta que, en general, el deffSw de Spencer depende de y y will, por lo tanto,
ser diferente dependiendo de la variable de análisis considerada.
Una deficiencia de la fórmula de Spencer es que sólo se aplica a un estimador pwr.
En la práctica, en los casos en que se utilizan variables auxiliares en el muestreo, se
también se utiliza en la estimación. Henry (2011) llenó este vacío al extender el modelo de Spencer
resultado a los estimadores GREG.
El siguiente ejemplo evalúa los efectos de diseño de Kish y Spencer para una muestra de una
población donde existe una relación clara entre y y an.
variable auxiliar utilizada en la selección de la muestra. A modo de ilustración, utilizamos una
población artificial "HMT" generada de la misma manera que la de Hansen et al.
(1983), que es un artículo famoso publicado por tres de las figuras históricas más importantes del
muestreo aplicado. El modelo generador fue yi = ÿ + ÿxi + ÿi
donde x e y tienen distribuciones gamma y los errores tienen una varianza
que aumenta en proporción a x3/2. La función R, HMT.fcn, en el libro
sitio web se utilizó para crear una población de 5.000 unidades. La figura 14.6 es un diagrama
de una muestra de 500 unidades de la población.

Ejemplo 14.5 (Comparación de las deff de Spencer y Kish). Usando la R


paquete de muestreo, se seleccionó una muestra de n = 80 de la población HMT con probabilidades
proporcionales a x. Las desventajas de Kish y Spencer fueron
calculado usando el siguiente código:

# cargar paquete de muestreo


requerir (muestreo)
# Función de carga para generar pop HMT
fuente("HMT.fcn.R")
#Semilla aleatoria para la selección de muestras
establecer.seed(-500398777)

# Generar población HMT


pop.dat <- as.data.frame(HMT.fcn())
#Tamaño de la poblacion
N <- nfila(pop.dat)

# Calcular probabilidades de selección de 1 sorteo - pps


#MOS = x
mos <- pop.dat$x
#Calcular probabilidades de selección de 1 sorteo
pop.dat$prbs.1d <- mes / suma(mes)

# Seleccionar muestra - pps


#Definir tamaño de muestra
n <- 80
# probabilidades de seleccionar una muestra de n
pk <- n * pop.dat$prbs.1d
# muestra PPS
sam <- UPrandomsystematic(pk)
Machine Translated by Google

380 14 Calibración y otros usos de datos auxiliares en la ponderación

sam <- sam==1


sam.dat <- pop.dat[sam, ]
# Pesos base
dsgn.wts <- 1/paquete[sam]

# La desventaja de Spencer
# Calcular valores WLS
sam.wls <- lm(y ˜ # prbs.1d, datos = sam.dat, pesos = dsgn.wts)
componente DEFF - var de y
sam.mean.y <- sum(sam.dat$y * dsgn.wts) / sum(dsgn.wts)
sam.var.y <- sum(dsgn.wts * (sam.dat$y - sam.mean.y)ˆ2) /
sum(dsgn.wts)
# componente DEFF - alfa al cuadrado
sam.alpha2 <- sam.wls$coeficientes[1] \ˆ{}2
# componente DEFF - correlación al cuadrado
sam.rho2.yP <- resumen(sam.wls)$r.squared
# Componente DEFF - Kish
kish.deff <- n*sum(dsgn.wtsˆ2) / (sum(dsgn.wts)ˆ2)
#DEFF de Spencer
spencers.deff <- as.numeric((1 - sam.rho2.yP) * kish.deff +
(sam.alpha2 / sam.var.y) * (kish.deff - 1))

Los valores resultantes de las dos fórmulas de efecto de diseño son


kish.deff
[1] 1.882999
spencers.deff
[1] 0.6468291

El deff de Kish afirma que la varianza del estimador ÿ es un 88 % mayor que


sería con una muestra de igual probabilidad. Por otro lado, Spencer
deff de 0.65 dice que el muestreo pp(x) y la ponderación desigual resultante
será más eficiente que el muestreo de probabilidad igual. Basado en la trama de
Higo. 14.6, el muestreo de pps es obviamente mejor en esta población.

15

10
y
5

0
0 10 20 30 40
X

Higo. 14.6: Gráfico de una submuestra de 500 puntos de Hansen, Madow y Tepping
(1983) población.
Machine Translated by Google

14.4 Variabilidad del peso 381

A pesar de la impresión incorrecta que transmite la definición de Kish en el ejemplo


anterior, es probable que tener ponderaciones extremadamente variables sea ineficiente
para al menos algunas variables recopiladas en una encuesta. En la siguiente sección,
cubrimos varias formas de limitar la variación de peso.

14.4.2 Métodos para limitar la variabilidad

Los procedimientos se utilizan a menudo para recortar pesos extremos, especialmente los
grandes. Los métodos utilizados en la práctica son principalmente ad hoc pero pueden
mejorar la eficiencia de los estimadores para algunas variables. Hemos explorado algunas
técnicas anteriormente que están orientadas a limitar los pesos extremos. Por ejemplo, en la
Secc. 13.5.1, se crearon clases de ponderación para el ajuste de falta de respuesta en
función de las propensiones de respuesta. El uso de clases en lugar de propensiones
individuales puede ser una forma de eliminar algunos ajustes importantes por falta de
respuesta. Calibración restringida, discutida en la Secc. 13.5.1, es otra forma de intentar
evitar ajustes de peso excesivos. También existen procedimientos improvisados que se
pueden utilizar para limitar el rango de pesos base. Por ejemplo, la cantidad de líneas
telefónicas o la cantidad de residentes del hogar pueden codificarse en la parte superior
cuando se calculan las probabilidades de selección dentro de un hogar.
El primer método que cubrimos es la programación cuadrática (QP) con restricciones.
Al igual que GREG con límites de peso, QP permite encontrar un conjunto final de pesos
que está calibrado para los totales de población para algunas variables auxiliares. El segundo
método es menos formal pero probablemente más común en la práctica. Los pesos grandes
se recortan arbitrariamente hasta un límite superior. El peso total eliminado se reparte entre
las otras unidades de muestra.

Programación cuadrática

Una opción para limitar el rango de pesos es la programación cuadrática como se describe
en Isaki et al. (2004). Un problema QP con restricciones tiene la siguiente forma general:

Encuentre el vector k para minimizar ÿ =


Una

2kT ÿk ÿ zT k
Sujeto a las restricciones CT k ÿ c0

donde ÿ es una matriz simétrica de constantes y z es un vector de constantes. La tarea de


encontrar pesos restringidos se puede expresar como un problema QP. Suponga que las
ponderaciones de entrada, que podrían ser ponderaciones base o ponderaciones ajustadas
por falta de respuesta, son dk (k ÿ s). Los pesos finales a calcular son {wk}kÿs. Si requerimos
que los pesos finales se calibren a los totales de población de algunos auxiliares x, entonces
una formulación QP es
Machine Translated by Google

382 14 Calibración y otros usos de datos auxiliares en la ponderación

2
Encuentre el conjunto de pesos {wk}kÿs que minimiza s (sem ÿ dk) dk
Sujeto a wkxk = stx y L ÿ wk ÿ U.

Para ver que esto encaja en el molde QP general, primero tenga en cuenta que

2
s (sem ÿ dk) dk = wT Dÿ1w ÿ 2dDÿ1w + dDÿ1d
= wT Dÿ1w ÿ 21T nw + s dk

T
con D = diag (dk), w = (w1,...,wn) , y 1n representando un vector n × 1
de unos La formulación anterior corresponde entonces al problema general con
k = w, z = 2 ÿ 1n y ÿ = Dÿ1. La suma de los pesos de entrada, dk, es una s
constante, dada la muestra. Entonces, resolver el problema de calibración de peso es
equivalente a minimizar

ÿ = wT Dÿ1w ÿ 21T nw.

Los límites de los pesos se ajustan a la forma general, CT k ÿ c0, con

Xs tx
C = ÿ En ÿ y c0 = ÿ L1n ÿ

ÿ ÿEn ÿ ÿ ÿU1n ÿ ,

donde Xs es la matriz n×p de auxiliares para las unidades muestrales, In es una matriz n×n
matriz identidad, y k = w como antes. Tenga en cuenta que los límites L ÿ wk ÿ U
son diferentes de los límites, L ÿ wk/dk ÿ U, utilizados para los pesos GREG
insecto. 14.3.2. El uso de L ÿ wk ÿ U es, en cierto modo, preferible al método anterior .
Restricción GREG porque limita directamente los tamaños de los pesos finales.
Por el contrario, la restricción GREG limita sólo el cambio relativo de la
pesos iniciales, es decir, el tamaño de los pesos g. Si los pesos iniciales son extremos,
entonces es probable que los pesos GREG finales también lo sean.
El paquete R quadprog (Turlach y Weingessel 2011) puede resolver el QP
problema. Para ilustrar esto, trabajamos una variación del ejemplo en la Secc. 14.3.2
utilizando el conjunto de datos smho.N874. Los auxiliares son CAMAS, SEENCNT, EOYCNT,
y tipo.hosp.

Ejemplo 14.6 (Restringir pesos usando programación cuadrática). Este ejemplo usa la
misma muestra de 80 hospitales que en la Secc. 14.3.2, que fue seleccionado
con semilla 428274453, luego de recodificar todas las unidades para tener un mínimo de 5 camas
y tras eliminar los hospitales tipo 4. El rango de ponderaciones base en la muestra que se
seleccionó con probabilidades proporcionales a la raíz cuadrada de
las camas recodificadas fueron de 2,71 a 33,68. Supongamos que queremos restringir el
los pesos estén en el rango [L, U] = [2, 18]. El modelo es el mismo que el
uno en la sección anterior e incluye los auxiliares, SEENCNT, EOYCNT,
y as.factor(hosp.type):CAMAS. La lista completa de código para seleccionar
Machine Translated by Google

14.4 Variabilidad del peso 383

la muestra y el cálculo de los pesos QP se encuentran en el archivo Ejemplo 14.6


quadprog.wts.R en el sitio web; a continuación se muestran extractos.
El paquete quadprog contiene una función, solve.QP, que resuelve problemas
generales de programación cuadrática. Como en la sección anterior, los datos de
muestra están en el objeto sam.dat y los pesos base están en d. Los nombres de los
objetos en el código a continuación coinciden bastante con los vectores y matrices anteriores.
Una cosa a tener en cuenta es la función model.matrix que crea la matriz de valores
auxiliares para las unidades de muestra implícita en un modelo que tiene una
pendiente separada en las camas para cada tipo de hospital (X.hosp). La versión
transpuesta de esta matriz se combina con los auxiliares cuantitativos (BEDS,
SEENCNT, EOYCNT) para crear una matriz llamada X. Un requisito de solve.QP es
que todas las restricciones de igualdad se enumeren primero en CT k. Esto se logra
en la declaración que crea Cmat colocando el vector de unos para el número total
general de hospitales (uno) y X primero. Luego, en la llamada a solve.QP, el parámetro
meq=7 le dice a la función que las primeras siete restricciones en el vector bvec son
igualdades. Los pesos de muestra resultantes se calibran a los totales de población
deseados. El hecho de que esto haya tenido éxito se comprueba en el Ejemplo 14.6
quadprog.wts.R. Los pesos, w, están contenidos en fs.wts$solution:

biblioteca (quadprog)
# Tabular pop totales para restricciones
x.beds <- by(smho$BEDS, smho$hosp.type, sum) x.seen <-
sum(smho[,"SEENCNT"]) x.eoy <- sum(smho[,"EOYCNT"])

N <- nrow(smho)
X.hosp <- model.matrix(~ 0 + as.factor(hosp.type):BEDS, data = sam.dat)

X <- rbind(sam.dat[, "SEENCNT"], sam.dat[,


"EOYCNT"], t(X.hosp)) c0a <- c(N, x.visto,
x.eoy, x.camas )

# Límites de peso inferior y superior


L <- 2
U <- 18
# Calcule los pesos completos de la muestra a través de QP
In <- diag(nrow = n) uno <- rep(1,
n) c0b <- c(L * uno, -U * uno)

Cmat <- rbind(uno, X, In, -In) fs.wts <-


solve.QP(Dmat = diag(1/d), dvec = 2 * uno, Amat = t(Cmat),
bvec = c(c0a ) , c0b), meq
= 7 # las primeras 7
restricciones son igualdad

restricciones
)
Machine Translated by Google

384 14 Calibración y otros usos de datos auxiliares en la ponderación

Una advertencia en el uso de solve.QP es que puede quedarse sin memoria


cuando el tamaño de la muestra es grande. La función requiere que Dmat se
ingrese como una matriz n × n aunque sea diagonal y se disponga de métodos de
almacenamiento más compactos. Aumentar la cantidad de memoria disponible
para R puede ayudar. En Windows, haga esto con el comando memory.limit(size=4095).
La medida en que las restricciones afectan los pesos de entrada depende de
qué unidades se muestrean aleatoriamente. Esta variación no se reflejará en las
fórmulas de varianza estándar, pero una opción es utilizar un estimador de
varianza de replicación. Cubriremos esto con más detalle en el Cap. 15, pero
aprovecharé esta oportunidad para ilustrar una versión de la replicación: la navaja.
La idea detrás del jackknife es eliminar una unidad de la muestra, ajustar los pesos
de entrada para el submuestreo jackknife, calcular los pesos de cualquier manera
que se utilice y luego usar los pesos resultantes para calcular una estimación. El
proceso se repite hasta que se han calculado n estimaciones repetidas. Luego se
calcula la variación de las estimaciones replicadas alrededor de la estimación de
la muestra completa. Para muchos tipos de estimaciones, por ejemplo, totales,
medios y combinaciones de ellos, se ha desarrollado una teoría para justificar el uso de la navaj
Sin embargo, no funciona para todos los tipos de estimaciones, y no existe una
teoría que diga que se produce un estimador de varianza consistente o no sesgado
cuando los pesos están restringidos cuadráticamente. En este ejemplo, la navaja
produce respuestas razonables y la usamos como ilustración.
El siguiente código recorre todas las unidades de la muestra, eliminando una a
la vez y resolviendo el programa cuadrático para dar un conjunto de n=80 pesos
jackknife. Luego usamos el paquete de encuestas para calcular estimaciones y SE.
Los resultados se enumeran en las filas "Bounded QP" de la Tabla 14.8. A modo
de comparación, incluimos estimaciones generadas a partir de otros métodos de
calibración con svytotal y cv en los ejemplos anteriores (también se calculan en el
Ejemplo 14.6 quadprog.wts.R.):
# Calcular la versión jackknife de los pesos
# Matriz para sostener pesos de navaja
rep.wts <- matriz(0, nrow = n, ncol = n)

para (k en 1:n){ llenar <-


(1:n)[-k]
In <- diag(nrow = n-1) uno <- rep(1,
n-1) c0b <- c( L * uno,

-U * uno)
Cmat <- rbind(rep(1,n-1), X[,-k], Entrada, -Entrada)

wts <- solve.QP(Dmat = diag(1/d[-k]), dvec = 2 * uno, Amat =


t(Cmat), bvec = c(c0a, c0b), meq = 7) rep.wts[ k,
llenar] <- wts$solución

}
Machine Translated by Google

14.4 Variabilidad del peso 385

# hacer un objeto de diseño jackknife


biblioteca (encuesta)
qp.dsgn <- svrepdesign(pesos = fs.wts$solución,
repweights = t(rep.wts),
tipo = "JK1",
escala = (n-1)/n, #JK ajuste de submuestreo
datos = datos.marco(sam.dat),
combinado = VERDADERO)

Como muestra la Tabla 14.8 , las ponderaciones QP arrojan un CV para los gastos totales
estimados que es algo menor que para la estimación ÿ (9,3 % frente a 8,4 %).
Las estimaciones GREG y GREG acotadas tienen CV más pequeños. Pero, la ganancia
de los pesos QP es sustancial para los gastos medios. Para la media, la
Los CV para QP, GREG y GREG acotado son los mismos que para el estimado
totales porque el número total de hospitales es una restricción, lo que implica que
el denominador de la media es una constante, N. Este no es el caso para el
ÿ-estimación. QP, GREG y GREG acotado son solo un poco más eficientes
que el estimador ÿ para la proporción de hospitales que reciben financiamiento de
agencias estatales de salud mental. Como se señaló anteriormente, un modelo que tiene hosp.type
como factor sería más eficiente para esta estadística.

Tabla 14.8: Gastos totales estimados y proporciones de hospitales que reciben


financiamiento directo, errores estándar y coeficientes de variación para la estimación ÿ,
Estimaciones GREG y pesos de programa cuadráticos acotados en una muestra pps de
un subconjunto de la población de la Encuesta de Organizaciones de Salud Mental.

Estimador (objeto de diseño) Estimar o SE CV


valor de la población (%)
Gastos totales (miles)
Estimación ÿ 8,774,651
de la población (smho.dsgn) 9.322.854 915.126 9,82
GREG ilimitado (sam.lin) 9.563.683 748.596 7,83
GREG acotado (sam.linBD) 9.612.035 744.746 7,75
QP acotado (qp.dsgn) 9.509.333 800.769 8,42

Gastos medios (000s)


Estimación ÿ 12,103
de la población (smho.dsgn) 13.299 1.712 12,88
GREG ilimitado (sam.lin) 13.191 1.033 7,83
GREG acotado (sam.linBD) 13.258 1.027 7,75
QP acotado (qp.dsgn) 13.116 1.105 8,42

Proporción con financiamiento de la agencia estatal de salud mental


Población 0.336
ÿ-estimación (smho.dsgn) 0,323 0,059 18,16
GREG ilimitado (sam.lin) 0,303 0,051 16,92
GREG acotado (sam.linBD) 0,302 0,051 16,87
QP acotado (qp.dsgn) 0,306 0,053 17,39
Machine Translated by Google

386 14 Calibración y otros usos de datos auxiliares en la ponderación

Ajuste simultáneo por falta de respuesta y calibración

Una pregunta obvia es si la calibración a los totales de la población por sí sola


ser suficiente para corregir la falta de respuesta y cualquier error de cobertura. Los ajustes de
calibración acotados, así como los ajustes de falta de respuesta acotados, se pueden
producido con el procedimiento WTADJUST a partir de SUDAAN v.10. Este
El procedimiento SUDAAN implementa los métodos discutidos en Folsom y Singh
(2000) donde el ajuste de peso se calcula por medio de un
modelo exponencial. Ambos ajustes se calculan secuencialmente a partir de este
tipo de modelo observando que ambos pueden verse como un problema de calibración—
Los pesos de entrada se pueden calibrar a la suma de los pesos de entrada (en
un paso de ajuste por falta de respuesta) o a los totales de control de la población (en un
paso de calibración). Los diferentes ajustes son generados por los siguientes
especificaciones:

• Ajuste por falta de respuesta. El modelo se especifica con una variable dependiente.
igual al indicador de respuesta (1=respondedor, 0=no respondedor). los
límite inferior recomendado en el ajuste de peso es 1,0 para garantizar que
cada miembro de la muestra al menos se representa a sí mismo en la población objetivo
estimados.
• Ajuste de calibración. El modelo se especifica con una variable dependiente igual a un indicador
de calibración (1=unidades incluidas en la calibración, 0=otro). El límite inferior recomendado
en el ajuste de peso es 0 para que los pesos de entrada puedan reducirse para cumplir con
el control.
totales

AJUSTAR
Ejemplo 14.7 (Restringir pesos usando ). La sintaxis SUD AAN invocable por SAS para PROC
WTADJUST utilizada para volver a calcular el ejemplo 14.6 es
proporcionado a continuación. A modo de comparación, primero se creó un archivo de transporte SAS
del marco de datos que contiene la muestra de 80 hospitales (sam.dat en
Secta. 14.3.2) y con pesos de diseño adjuntos (llamados dwt) usando el siguiente código R:

requerir (SASxport)
smho_80 <- cbind(sam.dat, dwt=d)
escribir.xport(smho_80, archivo="C:\\SMHO\\DATA\\Ex14_7.dat")

Tenga en cuenta que SAS no admite "períodos" ni en los nombres de variables ni en


nombres de archivos de transporte, de ahí el uso del subrayado en los datos aumentados
marco llamado smho 80.
El archivo de transporte SAS se carga en el programa SAS utilizando PROC COPY,
verificado (no se muestra el código) y enviado al procedimiento SUDAAN para producir pesos
calibrados con ajustes de peso restringidos. Actualmente, el
El procedimiento solo permite totales de control codificados (POSTWGT) en lugar de obtener la
información de un archivo de datos. El ajuste de calibración y final
los pesos calibrados se denominan ADJFACTOR y WTFINAL en el archivo de datos SAS
PESO CAL. Se ha cambiado el nombre de la información de salida para que sea más descriptiva.
Machine Translated by Google

14.4 Variabilidad del peso 387

títulos variables. El lector interesado puede verificar las sumas de peso por las variables
de calibración con el procedimiento DESCRIPT a continuación. Las estadísticas resumidas
resultantes se proporcionan debajo del programa:

opciones sin centro;

NOMBRELIB en "C:\\SMHO\\DATA";
LIBNAME tmp "C:\\";

* Cargue el archivo de transporte SAS y cree ID únicos *;


LIBNAME smho_xpt XPORT "C:\SMHO\DATA\Ex15_7.dat"; PROC COPIA
entrada=smho_xpt SALIDA=tmp; CORRER; DATOS SMHO_80;

LONGITUD ID 3;
SET tmp.SMHO_80;
identificador = _n_; CORRER;

* Calibración restringida *; PROC DATOS AJUSTE


WT=CAL_WTS DISEÑO=AJUSTE WR=POST; NIDO _uno_; PESO TPM; BD INFERIOR
* Sin estratificación
0.4; UPPERBD 3.0; CLASE HOSP_TIPO; MODELO _uno_ ni agrupación;
= SEENCNT EOYCNT
HOSP_TYP*CAMAS;

* Corresponde a pop.tots en el programa R;


POSTWGT 725 1349241 505345 37978 13066 9573 10077;
IDVAR ID SEENCNT EOYCNT HOSP_TYP CAMAS;
SALIDA / PREDICCIÓN = TODO NOMBRE DE ARCHIVO = BCAL_WTS REEMPLAZAR;
CORRER;

* Cambiar el nombre de calibración restringida *;


DATOS BCAL_WTS;
SET BCAL_WTS(DROP=_uno_
RENOMBRAR=(WTFINAL=BCAL_WT ADJFACTOR=BCAL_ADJ));
LABEL BCAL_WT = "Pesos calibrados con ajustes acotados"
BCAL_ADJ = "Ajustes de calibración limitados";
CORRER;

PROC DESCRIPCIÓN DATOS=BCAL_WTS DISEÑO=WR;


NIDO _uno_;
PESO BCAL_PESO;
CLASE HOSP_TIPO;
VAR _one_ SEENCNT EOYCNT CAMAS;
TABLAS HOSP_TYP;
IMPRIMIR TOTAL SETOTAL / ESTILO=NCHS;
CORRER;

PROC MEDIOS DATOS=BCAL_WTS NOLABELS MIN P25 P50 MEDIO P75 MAX;
VAR DWT BCAL_WT;
CORRER;
Machine Translated by Google

388 14 Calibración y otros usos de datos auxiliares en la ponderación

Peso Min 25 Mediana Media 75 Max Suma


%-tile %-teja
Base 2,71 5,69 WTADJ con límites
5,93 1,41
GREG 8,15 8,76 10,11 33,68 701,00
ÿ0,39 5,75 GREG con límites 1,30 5,78 8,91 9,06 11,03 33,75 725,00
8,83 9,06 10,93 33,83 725,00
8,91 9,06 10,92 33,92 725,00

A modo de comparación, también mostramos los resúmenes para el GREG ilimitado


pesos y los pesos GREG acotados de la Secc. 14.3.2. Los cuantiles
de los pesos de WTADJ y GREG acotado son muy similares en este caso.

Recorte y redistribución de peso

Potter (1990, 1993) describe varios otros métodos de reducción de peso. Alguno
trate de identificar un método de recorte que minimice el error cuadrático medio;
otros solo miran la distribución de los pesos cuando deciden cómo
recortar. Estos métodos son ad hoc y en gran parte teóricos. La forma de peso
recorte que puede ser más común se puede resumir de la siguiente manera:

(1) Establecer los límites superior e inferior de los pesos. Métodos para establecer los límites.
son generalmente arbitrarios y una cuestión de preferencia de la agencia o histórica
precedencia. Por ejemplo, un método utilizado en la Evaluación Nacional
de Progreso Educativo (Centro Nacional de Estadísticas Educativas 2008)
es recortar cualquier peso superior a 3,5 veces el peso medio (3,5wmed,
decir) de vuelta a 3.5wmed.
(2) Cualquier peso mayor que el límite superior (menor que el límite inferior) se restablece a
el límite Eso es,

ÿ U semana ÿ U,

semana, recortar = semana L< semana < U,


ÿ
ÿ L semana ÿ L.

Defina {wk,trim}kÿs como el conjunto de pesos recortados.


(3) Determine la suma K = |wk ÿ wk,trim|, eskÿsdecir, la cantidad neta de
peso perdido por el recorte.
(4) Distribuya K uniformemente entre las unidades cuyos pesos no se recortaron.
(5) Repita los pasos (2) a (4) hasta que ningún peso falle la verificación de límites.

Si los pesos de entrada respetan un conjunto de totales de control, los pesos recortados
típicamente no lo hará. Uno podría entonces recalibrar los pesos después de recortar y
iterar a través de los pasos de recorte y calibración hasta que se obtenga un conjunto de pesos.
obtenidos que respetan los límites de peso y los controles. Desde el mismo
se logra por el método de programación cuadrática, es dudoso que
esto valdría la pena.
Machine Translated by Google

14.4 Variabilidad del peso 389

La función trimWeights en el paquete de encuestas R recortará los pesos a un límite


especificado y redistribuirá la cantidad recortada a las otras unidades de muestra. Al usar
el parámetro, estricto = VERDADERO, la función se llama a sí misma recursivamente
hasta que se satisfacen los límites.

Ejemplo 14.8 (Recortar y redistribuir pesos). Repetimos el Ejemplo 14.6 en el que se


selecciona una muestra de pps de hospitales de smho.N874 después de eliminar las
instalaciones de tipo 4. El objeto de diseño es smho.dsgn. Luego calibramos con el
modelo SEENCNT + EOYCNT + as.factor(hosp.type):BEDS, como en el ejemplo de la
Secc. 14.3.2, para crear el objeto sam.lin. El código completo de R para este ejemplo se
encuentra en trim.wts.R, que se muestra en el Apéndice A y en el sitio web del libro. El
código para recortar los pesos al rango [2, 18] y resumir los resultados es:

sam.lin.tr1 <- trimWeights(diseño = sam.lin, inferior = 2, superior = 18,


estricto = VERDADERO)

resumen(pesos(sam.lin.tr1))
mín. 1er cuarto Mediana Media 3er Qu. máx.
2.002 5.957 9.043 9.062 11.140 18.000

Como muestra el resumen, se cumple la restricción de rango en los pesos. Sin embargo,
los pesos ya no están calibrados. Por ejemplo, la población total de la SEENCNT es
1.349.241, pero la estimación con los pesos recortados es

svytotal(˜SEENCNT, sam.lin.tr)
total SE
SEENCNT 1426878 240798

Tenga en cuenta que el SE es distinto de cero usando las fórmulas de varianza para un
diseño con reemplazo.
La figura 14.7 es un gráfico de los pesos recortados frente a los pesos base y los
pesos GREG. Los pesos GREG se muestran en negro. Se han recortado nueve puntos
hasta los límites [2, 18]. Los cambios de los pesos GREG a los pesos recortados son
mínimos para los otros puntos. Los pesos base (inversos de las probabilidades de
selección) se representan en gris. Hay una cantidad considerable de cambio entre los
pesos base y los pesos GREG y los pesos GREG recortados.

El procedimiento SUDAAN WTADJUST también se puede utilizar para recortar pesos.


Continuando con el ejemplo 14.6, se colocan límites en los pesos de entrada agregando
declaraciones WTMIN y WTMAX como se muestra en el código a continuación. Tenga en
cuenta que la variable WTFINAL ha cambiado de nombre a CAL WTinit en el conjunto de
datos CAL WTS creado en el paso de calibración anterior:

PROC DATOS AJUSTE WT=CAL_WTS DISEÑO=AJUSTE WR=POST;


NIDO _uno_; * Sin estratificación ni agrupación;
PESO CAL_WTinit;
Machine Translated by Google

390 14 Calibración y otros usos de datos auxiliares en la ponderación

15

10

recortados
Pesos

peso de diseño
Pesos calibrados

0 5 10 15 20 25 30 35
Pesos de diseño y pesos calibrados

Higo. 14.7: Pesos recortados graficados versus pesos base y pesos GREG en una muestra de la población
smho.N874. La línea diagonal es una línea de referencia de 45ÿ.
Las líneas horizontales se dibujan en 2 y 18.

CLASE HOSP_TYPE;
BDINFERIOR 0;
BD SUPERIOR 18;
WTMIN 2;
PESO MÁX. 18;
MODELO _uno_ = N SEENCNT EOYCNT HOSP_TYPE*CAMAS;

* Corresponde a pop.tots en el programa R;


POSTWGT 725 1349241 505345 37978 13066 9573 10077;
AJUSTE DE SALIDA WTFINAL
/ NOMBRE DE ARCHIVO = CAL_WTS2 TIPO DE ARCHIVO = SAS REEMPLAZAR;
CORRER;

La declaración POSTWGT anterior se usa para forzar que las ponderaciones recortadas y
limitadas también satisfagan los totales de control usados en el ejemplo 14.6. Tenga en
cuenta que los totales de control deben ingresarse como constantes en la instrucción
POSTWGT; no se pueden leer desde un archivo.

Ejercicios

14.1. Utilice el conjunto de datos smho.N874 para completar este ejercicio sobre
posestratificación. Seleccione una muestra aleatoria simple de tamaño n = 80 sin reemplazo.
Si usa R, establezca la semilla del número aleatorio en ÿ530049348 con el comando
set.seed.
Machine Translated by Google

14.4 Variabilidad del peso 391

a) ¿Cuáles son los medios de gasto en los cinco tipos de hospitales de la población? ¿Qué debe
buscar para que valga la pena considerar la posestratificación? (b) Calcule los recuentos de
población de las instalaciones por tipo de hospital, tratando el conjunto de datos smho98
como la población total. Calcule los recuentos de muestras no ponderadas por tipo de hospital
para verificar que cada tipo esté representado en la muestra. Si uno de los tipos de
hospitales no estuviera representado en la muestra, ¿cuáles serían las implicaciones
prácticas y teóricas? Analice esto en el contexto de la inferencia basada en el diseño y en el
modelo. (c) Calcule el conjunto de pesos posestratificados para la muestra utilizando el tipo
de hospital como variable de posestratificación. ¿A qué se suman los pesos antes y después
de la posestratificación? ¿Es esto lo que esperas? (d) Verificar que los controles de calibración
sean cumplidos por el conjunto de posestratificados

pesos
(e) Estime el total de gastos de la población y su error estándar para el estimador de expansión
bajo el diseño de espada y para el estimador posestratificado. Asegúrese de incorporar un
factor de corrección de población finita en las estimaciones de varianza. Discuta cualquier
similitud o diferencia en los totales estimados y los EE.

14.2. Repita el ejercicio anterior después de seleccionar una probabilidad proporcional al tamaño
de la muestra.

(a) Si está usando R, use la función UPrandomsystematic en el paquete de muestreo para


seleccionar una muestra de probabilidad proporcional al tamaño.
Defina la medida del tamaño (mos) como una versión recodificada de la raíz cuadrada de
las camas. Después de sacar la raíz cuadrada de las camas, recodifique cualquier mos ÿ 5 a 5.
Si usa R, establezca la semilla del número aleatorio en ÿ530049348 y seleccione una
muestra de tamaño n = 80. (b) Calcule los recuentos de muestra no ponderados por tipo de
hospital para verificar que
cada tipo está representado en la muestra.
(c) Calcule el conjunto de pesos posestratificados para la muestra utilizando el tipo de hospital
como variable de posestratificación. ¿A qué se suman los pesos antes y después de la
posestratificación? ¿Es esto lo que esperas? (d) Verificar que los controles de calibración
sean cumplidos por el conjunto de posestratificados
pesos
(e) Estime el total de gastos de la población y su error estándar para el estimador ÿ bajo el
diseño pps y para el estimador posestratificado.
Discuta cualquier similitud o diferencia en los totales estimados y los EE.

14.3. Utilice el modelo CAMAS + SEENCNT + EOYCNT + como factor (tipo hosp.) y la muestra
descrita en la Secc. 14.3.2 para calcular los pesos GREG.
Es decir, seleccione una muestra con probabilidades proporcionales a la raíz cuadrada
recodificada de las camas (usando la semilla de número aleatorio 428274453 si está usando R).
Restringir la población a establecimientos distintos al tipo 4.
Machine Translated by Google

392 14 Calibración y otros usos de datos auxiliares en la ponderación

(a) Verifique que los pesos estén calibrados, es decir, s wixi = tx, para el auxiliar
las variables en el modelo de calibración.
(b) ¿Cuáles son los rangos de los pesos base y los pesos calibrados?
(c) Experimente limitando los ajustes de peso usando inferior y superior
límites de [L, U] = [0.01, 3]. Use FORCE=TRUE en la función de calibración
si no se obtiene la convergencia. ¿Estas pesas están completamente calibradas? gráfico
los pesos GREG sin límites y los pesos de ajuste acotados
frente a los pesos base. Use diferentes símbolos o colores para distinguir los
conjuntos de pesas. ¿Qué te dicen estos resultados sobre los problemas numéricos?
que puede ocurrir con la calibración limitada?

14.4. Considere una muestra aleatoria simple estratificada en la que nh unidades son
seleccionados de Nh unidades en el estrato h. La varianza unitaria en el estrato h es S2 H. los
la asignación proporcional a los estratos tiene nh/n = Nh/N con n = N = h nh y
Nueva Hampshire. El peso de cada unidad i en el estrato h es whi ÿ kh = Nh/nh.
h
Defina la revarianza de los pesos como

Nueva Hampshire

varrel(w) = nÿ1 (whi ÿ w¯)


h yo=1 2 $ w¯2

con ¯w = nÿ1 i=1 whi.hDerive las tres versiones, (a), (b) y (c), a continuación
Nueva Hampshire

de la fórmula 1+L de Kish. Es decir, en el caso de S2 h = S2 en cada estrato,


muestra esa
1+L= V (¯yst|asignación general)
V (¯yst|asignación proporcional)
=( h ¿Qué?) ( h Wh/kh) = (a)
.
1+ var relativo (w) (b)
Nueva Hampshire

= norte
h yo=1
w2
hola
2 (C)
(h
Nueva Hampshire

i = 1 whi)

14.5. Demuestre que, en el caso de H = 2 estratos con un valor seleccionado en cada uno
estrato, la medida 1 + L de Kish es

p1w2 + p2w2 2
Una

deffw = 2.
(p1w1 + p2w2)

donde ph = nh/n y el peso de cada unidad en el estrato h es wh (h = 1, 2).


Suponga que las fracciones de muestreo son despreciables en cada estrato.
Utilice esta fórmula para verificar los cálculos de la tabla 14.7.

14.6. Usando el valor semilla aleatorio de 15097 en R, seleccione una muestra de n=50
hospitales del archivo de datos Hospital pop.txt con probabilidades proporcionales a la raíz
cuadrada del número de CAMAS, es decir, pps x1/2 . el hospital
El archivo tiene 393 registros.

(a) Calcule los efectos de diseño estimados usando la fórmula de Spencer y la de Kish
aproximación.
Machine Translated by Google

14.4 Variabilidad del peso 393

(b) Describa los estimadores del total de la población a los que Kish y
Spencer definitivamente se refiere. ¿Por qué difieren los valores calculados? que haces
¿Crees que es lo más relevante aquí? ¿Por qué?
(c) Estime el total de descargas (y) en la población utilizando el estimador ÿ junto con su SE y CV.
¿Cómo se compara esto con el
estimación de la varianza del total a partir de una muestra aleatoria simple de
n=50. Estime la varianza de la fuerza de la muestra de 50 seleccionados para
este problema. (Sugerencia: necesita usar los métodos del Capítulo 3 para estimar
una varianza de la población).

14.7. Use el conjunto de datos nhispart.xpt y la encuesta R calibre


función para calcular algunos conjuntos de pesos de calibración. Los pesos serán
con base en las variables categóricas x, SEXO, R EDAD1 y RACRECI2, códigos
para los cuales se dan a continuación junto con los recuentos de control de población para
cada categoría. La función read.xport en el paquete externo (R Core
Equipo y colaboradores en todo el mundo 2012a) se pueden usar para leer los datos en R.

SEXO Código Pop R EDAD1 Código emergente RACRECI2 Código emergente


totales Rango de edad totales La raza totales
Hombre 1 2000 18–24 2100 3 500 Blanco 1 3,350
Mujer 2 25–44 45–64 65– 4 1800 negro 2 650
69 70– 5 1,000 Todos los demás 3 100
74 75+ 6 250
7 250
8 300

Los recuentos en el archivo nhispart.xpt se encuentran a continuación. Debes usar estos para
compruebe que ha leído el archivo correctamente.

Archivo de código SEXO R EDAD1 Archivo de código RACRECI2 Código emergente


totales Rango de edad totales La raza totales
Hombre 1 1805 18–24 2119 3 512 Blanco Una
3,138
Mujer 2 25–44 45–64 65– 4 1555 negro 2 601
69 70– 5 1.255 Todos los demás 3 185
74 6 164
7 150
75+ 8 288

(a) Seleccione una muestra aleatoria simple sin reemplazo de tamaño n = 200,
estableciendo la semilla aleatoria en 15097. Enumere los índices de la muestra que
seleccionados ordenados de menor a mayor. (Sugerencia: use la función de muestra).
(b) Crear una nueva variable igual a 1 si el ingreso familiar es menor a 1.5
veces el umbral de pobreza y 2 en caso contrario. La proporción de los ingresos familiares.
al umbral de pobreza es RAT CAT y tiene los valores a continuación. mantener el
incógnitas como una categoría separada. Mostrar una tabla con los recuentos de muestras
de su nueva variable. También cree versiones de las variables R EDAD1 y
RACRECI2 que tengan un mínimo de 10 casos por categoría. Haz esto por
Machine Translated by Google

394 14 Calibración y otros usos de datos auxiliares en la ponderación

colapsando R AGE1=6 y 7 juntos y RACRECI2=2 y 3 juntos.


Tabular los números de casos de muestra en las versiones recodificadas de RAT CAT,
R AGE1 y RACRECI2.

Código Relación entre el ingreso familiar y el


umbral de pobreza
01 Menos de 0,50
02 0,50 a 0,74
03 0,75 a 0,99
04 1,00 a 1,24
05 1,25 a 1,49
06 1,50 a 1,74
07 1,75 a 1,99
08 2.00 a 2.49
09 2,50 a 2,99
10 3.00 a 3.49
11 3,50 a 3,99
12 4.00 a 4.49
13 4,50 a 4,99
14 5.00 y más
99 Desconocido

(c) Cree un conjunto de pesas calibradas utilizando la función de distancia lineal y sin
límites en los ajustes de peso. Verifique que sus pesas estén calibradas.
Muestre el mínimo, el máximo y los tres cuartiles de los pesos.
(Sugerencia: use el extractor de pesos y la función de resumen).
(d) Cree un conjunto de pesos usando la función de distancia lineal con menor y
límites superiores en los ajustes de peso de 0,5 y 1,6. Verifique que su
los pesos están calibrados. Muestre el mínimo, el máximo y los tres cuartos de los
pesos.
(e) Cree un conjunto de pesos con la función de distancia de rastrillado sin límites
en los ajustes de peso. Verifique que sus pesas estén calibradas. Espectáculo
el mínimo, el máximo y los tres cuartiles de los pesos.
(f) Usando los tres conjuntos de pesos (lineal sin límites, lineal con límites,
y rastrillar sin límites), compare los pesos unitarios individuales con un
parcela de pares. Comenta las comparaciones.
(g) Usando los cuatro conjuntos de pesos: srs, lineal sin límites, lineal con
límites y rastrillar sin límites, estimar las proporciones de los
población con renta familiar inferior a 1,5 y superior o igual
a 1,5 veces la razón de ingresos de pobreza y sus errores estándar estimados.
(Sugerencia: use svymean.) Comente las estimaciones.

14.8. Usando el archivo de datos smho.N874, responda lo siguiente:

(a) Calcule las probabilidades para todas las unidades de población en una muestra de 50
seleccionados con probabilidades proporcionales a la siguiente medida de tamaño
(MOS): EXPTOTAL. Identificar certezas, si las hay, es decir, unidades con selección
Machine Translated by Google

14.4 Variabilidad del peso 395

probabilidad mayor que o igual a 1. Si hay certezas, asígneles probabilidad 1 y recalcule las
probabilidades de selección para la parte de la población que no tiene certeza, manteniendo
la muestra total en 50. (b) Seleccione una muestra de tamaño 50 usando el probabilidades
calculadas en (a). Si usted
use R, establezca la semilla del número aleatorio en 429336912.
(c) Calcule 1 + L de Kish y la definición de Spencer para esta muestra. En el caso de la deff de
Spencer, utilice la variable SEENCNT como y. (d) Explique con palabras el significado del
valor que obtuvo en (c) para 1 + L.
¿Qué se debe considerar para determinar si el valor es excesivamente grande o no? ¿Cómo
se comparan las medidas de Kish y Spencer en este problema?

(e) Repita las partes (a)–(d) usando BEDS como MOS. Establezca el MOS para cualquier unidad
con BEDS = 0 en el valor mínimo de BEDS para aquellas con BEDS distintas de cero. Use
EXPTOTAL como la y para la diferencia de Spencer y 429336912 como la semilla del número
aleatorio. Puede que le resulte útil examinar los pesos individuales cuando analice las medidas
de Kish y Spencer.

14.9. Muestre que cuando se selecciona una muestra de probabilidad proporcional a x, los pesos
se calibran al total de x en la población. Es decir, wi = tx donde wi es el inverso de la probabilidad
s
de
selección de la unidad i y tx es el total de x en todas las unidades del marco. ¿Piensa que el
estimador ÿ es el estimador más eficiente, es decir, la varianza más pequeña, en cualquier
población donde el muestreo pp(x) es razonable? ¿Por qué o por qué no?

14.10. Utilizando el archivo de datos smho.N874, seleccione una muestra de n=50 unidades con
probabilidades proporcionales a BEDS recodificadas como medida de tamaño. Establezca el MOS
para cualquier unidad con BEDS = 0 en el valor mínimo de BEDS para aquellas con BEDS distintas
de cero. Si usa R, establezca la semilla del número aleatorio en 429336912.

(a) Indique el resumen de los pesos resultantes, es decir, el mínimo, el máximo, los cuartiles y la
media. ¿Alguna unidad tiene pesos que parezcan preocupantes? (b) Use programación
cuadrática para acotar los pesos en el rango [1, 50].
Grafique los pesos resultantes frente a los pesos base. ¿Cuál fue el efecto de la delimitación?
¿Es la programación cuadrática una forma efectiva de acotar los pesos aquí?

(c) Vuelva a hacer las partes (a) y (b) pero recodifique cualquier unidad con BEDS = 0 a BEDS=10.
Discuta sus resultados. ¿Son los ajustes de peso tan extremos como en (b)?
Machine Translated by Google

Capítulo 15
Estimación de varianza

En capítulos anteriores consideramos la varianza de los estimadores para determinar el


tamaño de la muestra y la asignación a los estratos de diseño. Después de recopilar los
datos de la muestra, se realizan estimaciones y se deben calcular sus varianzas y errores
estándar (EE). Un SE (raíz cuadrada de la varianza estimada) es una medida básica de
precisión que se puede utilizar como estadística descriptiva, por ejemplo, como parte de un
coeficiente de variación (CV), o para hacer inferencias sobre los parámetros de la población
a través de intervalos de confianza. . Nuestro objetivo es estimar SE que reflejen fielmente
todas las fuentes de (o una parte significativa de) la variabilidad en un diseño de muestra y
un estimador, pero esto puede ser complicado.
Esto es especialmente cierto cuando varios ajustes de peso (aleatorios) descritos en los
Caps. 13 y 14 se utilizan. Por ejemplo, cuando se aplica un ajuste por falta de respuesta y
luego se ponderan los controles de población, ambos procedimientos contribuyen a la
varianza de un estimador además de la aleatoriedad debido a la selección de la muestra
inicial en sí.
Muchos analistas, sin embargo, a menudo estiman los EE de formas que no tienen en
cuenta todas las fuentes de variabilidad. Esto puede deberse a información inadecuada
sobre cómo se recopilaron los datos y se realizaron las estimaciones, el uso de software
inadecuado, el desconocimiento de los procedimientos adecuados o alguna combinación de
estos. Además, los archivos de análisis publicados pueden contener solo el conjunto final
de pesos de análisis en lugar de proporcionar a los usuarios los ajustes de peso individuales.
Como se discutió en este capítulo, este problema se soluciona en muchos archivos de datos
de uso público mediante ponderaciones múltiples (repetidas). La importancia de capturar
los diversos componentes aleatorios se demuestra en este capítulo junto con los métodos
utilizados para cumplir con este objetivo que son específicos para el diseño de la muestra y
el estimador puntual.
Existen varios métodos alternativos de estimación de la varianza que se tratarán en este
capítulo: fórmulas exactas, linealización y estimadores de varianza por replicación.
Resumimos los métodos junto con algunas de sus fortalezas y debilidades, incluida la
facilidad con la que cada uno puede explicar las diferentes fuentes de variabilidad. Los
métodos exactos están cubiertos en la Secc. 15.1 y se aplican a un número limitado de
diseños de muestra y estimadores. Sin embargo, uno de los

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 397


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 15, © Springer Science+Business Media New York 2013
Machine Translated by Google

398 15 Estimación de la varianza

métodos exactos en el muestreo de etapas múltiples, llamado el último estimador de conglomerados,


es la base de parte de la teoría que apoya la linealización y la replicación
estimadores. Estrictamente hablando, el último estimador de conglomerados es exacto solo
para diseños de muestreo donde se seleccionan las unidades primarias de muestreo (PSU)
con reemplazo, pero es una aproximación útil en otros diseños cuando el
la fracción de muestreo de las UPM es pequeña.
Los métodos exactos no se aplican cuando un estimador no es lineal; Secta. 15.2
describe las circunstancias que hacen que un estimador no sea lineal. Insecto. 15,3;
cubrimos estimadores de varianza de linealización, que se aplican a muchos estimadores
para los cuales no se dispone de fórmulas exactas. La Sección 15.4 contiene una discusión
de tres métodos de estimación de varianza replicados: jackknife, balance repetido
replicación y arranque, que son aplicables a la mayoría de los análisis de uso público
archivos que han sido tratados para minimizar la identificación de los pantalones de parte de la encuesta.
Las técnicas de linealización y estimación de la varianza por replicación, la
métodos más aplicables a la estimación basada en el diseño, se basan en hacer
algo con las fuentes de alimentación o unidades de primera etapa. Por ejemplo, una linealización
El método calcula una varianza basada en las diferencias entre la fuente de alimentación ponderada
totales En los métodos de replicación, las submuestras llamadas réplicas están formadas por
designando subconjuntos de las UPM. La muestra completa de unidades dentro de una fuente de alimentación es
retenido si una fuente de alimentación está en una réplica.

Las últimas dos secciones de este capítulo discuten algunos temas especializados:
combinación de UPM o estratos para la estimación de la varianza y formas de manejar ciertas UPM al
estimar las varianzas.

15.1 Métodos exactos

En unos pocos casos simples, las varianzas teóricas y sus estimadores tienen
fórmulas Encontramos por primera vez estas situaciones en el cap. 3 donde la notación
que usamos a continuación se definió. Hay tres diseños: muestras aleatorias simples, muestras aleatorias
simples estratificadas y muestreo de probabilidad variable con
reemplazo—que hemos tratado con más frecuencia que admiten varianza exacta
fórmulas Por ejemplo, si una muestra aleatoria simple estratificada sin reemplazo (stsrswor; discutida en
H
la Sec. 3.1.1) de tamaño n = la media de la población se estima con ¯yst = se
seestima conh=1 nh y
selecciona
H
h=1 Por qué, entonces su varianza

H
1 - fh
v (¯yst) = W2h Sˆ2
h,
Nueva Hampshire

h=1

2
donde Sˆ2
h = (nh ÿ 1)ÿ1 (yhi ÿ y¯sh)
iÿsh y Wh = Nh/N.
Otro diseño común es seleccionar unidades con diferentes probabilidades y
sin reemplazo. Si se seleccionan n unidades y ÿi es la probabilidad de selección
norte

de la unidad i, el estimador ÿ es ˆyÿ = yi/ÿi. Definiendo


yo=1 ÿij como la probabilidad
Machine Translated by Google

15.1 Métodos exactos 399

que las unidades i y j se seleccionan para una muestra, uno de los estimadores de varianza
recomendados para ˆyÿ es el estimador de Yates-Grundy:
norte norte 2
ÿ1 ÿij ÿ ÿiÿj yo yj
varY G (ˆy) =
ÿ

. (15.1)
ÿij Pi ÿj
2 i=1 j=1

Una dificultad con este estimador es que las muestras a veces se seleccionan utilizando un
muestreo sistemático para que algunos de los ÿij sean cero. En ese caso, no existe un estimador de la
varianza sin sesgo de diseño. S¨arndal et al. (1992, cap. 3) proporcionan los detalles técnicos. Incluso
si se usa un diseño donde el estimador YG podría ser factible, es posible que los ÿij no estén
disponibles. Esto es especialmente cierto cuando se realiza un análisis de datos secundarios utilizando
un archivo preparado por otra persona, como una agencia gubernamental.

Si se selecciona una muestra con probabilidades variables y con reemplazo (ppswr) y se usa el
Una
yo
estimador pwr, y ˆ¯pwr =, su varianza es Nns Pi ,
estimado con

2
Una Una
yo
vy ˆ¯pwr = ÿ t ˆpwr (15.2)
N2 norte (n ÿ 1) Pi
yoÿs

ˆ
es el conjunto de unidades de muestra, t probabilidad
poder = Ny
(esˆ¯pwr,
decir,yla
piprobabilidad
es la selección
de de
selección
1 sorteo
si donde
solo ses
selecciona una unidad). Esto tiene la ventaja obvia de no requerir ningún ÿij .

Otro caso importante en el que se aplica la fórmula pwr es un diseño multietapa en el que las
unidades de la primera etapa se seleccionan con reemplazo. En ese diseño, la fórmula (15.2) se puede
utilizar con yi definido como el total estimado para las unidades en la unidad de primera etapa i. El
requisito técnico es que yi debe ser un estimador insesgado de la PSU total de y. Si las UPM están
estratificadas, entonces nÿ1 el pwr -estimador de una media es y ˆ¯pwr = N iÿsh y hi/phi, donde phi es
ÿ1
selección de la UPM i en el estrato h y y hola h la hprobabilidad de 1 sorteo de
=

kÿshi dk|hi yhik es el total estimado solo para unidades en PSU hi. El conjunto de unidades de muestra en PSU hi es
shi mientras que dk|hi es el peso de la unidad k en PSU hi que expande la muestra de PSU a solo la población de esa
PSU. El peso completo para la unidad k en shi es dk = dk|hi phi , donde dk|hi a veces se denomina peso condicional

dentro de la PSU para la unidad k (condicional a que se seleccione PSU hi) y dk como el peso incondicional. La fórmula
de la varianza de pwr es entonces

2
Una Una
y hi
vy ˆ¯pwr = ÿ t ˆpwr,h , (15.3)
N2 fi
h nh (nh ÿ 1) iÿsh

donde t ˆpwr,h = nÿ1 h sh y hola/phi. Esta fórmula también se suele escribir como

Una
2
Nueva Hampshire

vy ˆ¯pwr = Yˆhi ÿ Yˆ¯h , (15.4)


N2
h (nh ÿ 1) iÿsh
Machine Translated by Google

400 15 Estimación de la varianza

donde Yˆhi = Yˆhi. La dkyk


forma
kÿshi enylaYEc.
ˆ¯h (15.4)
= nÿ1 esh conveniente
iÿsh porque usa el peso de la muestra
completa, dk, en lugar del peso de 1 extracción, 1/phi, y el peso condicional dentro de la
PSU, dk|hi . Normalmente, un analista no tendrá 1/phi y dk|hi por separado. La fórmula en la
Ec. (15.3) o la ecuación. (15.4) se denomina estimador último de la varianza de conglomerados
(Hansen et al. 1953a).

La terminología de PSU puede ser potencialmente confusa en muestras de probabilidad


de área. Como se discutió en los Caps. 9 y 10, el término PSU generalmente denota un área
geográfica que es una o más jurisdicciones del gobierno local, como un condado. Algunas
PSU pueden seleccionarse con probabilidad 1 (las certezas) mientras que otras tienen
probabilidades de selección menores a 1. Las PSU de certeza no son las unidades de primera
etapa, aunque los profesionales las denominan habitualmente PSU.
Una PSU de certeza es en realidad un estrato compuesto por unidades de nivel inferior. Con
certeza, las unidades de primera etapa son en realidad distritos censales, grupos de bloques
o alguna otra unidad de subcondado. Por ejemplo, Washington DC podría ser una PSU de
certeza en una muestra de área de EE. UU., pero se podrían muestrear 20 grupos de bloques.
Los 20 grupos de bloques son las PSU a efectos del cálculo de la varianza. En este capítulo,
cuando nos referimos a las UPM para la estimación de la varianza, en realidad nos referimos
a “unidades de primera etapa”. Debe tener esto en cuenta al configurar un archivo de datos
para la estimación de la varianza.
Muchos estimadores de varianza que se muestran en los libros de texto de muestreo
asumen con muestreo de reemplazo. Sin embargo, la mayoría de los diseños no utilizan
muestreo sin reemplazo en la primera etapa. En consecuencia, la ecuación. (15.2) o la
ecuación. (15.4) no es estrictamente apropiado para la mayoría de los diseños utilizados en
la práctica. La utilidad real de las fórmulas con reemplazo radica en el hecho de que son
buenas aproximaciones a la varianza de los estimadores en muchas situaciones en las que
se utiliza el muestreo sin reemplazo. Los practicantes a menudo hacen uso de este tipo de
pensamiento. En el cap. 3, la fórmula de la varianza con reemplazo fue un vehículo útil para
calcular los tamaños de muestra cuando se seleccionó una muestra con probabilidades variables.
De manera similar, cuando se analizan datos que ya se han recopilado, la ecuación. (15.2) o
la ecuación. (15.4) es más fácil de calcular que la mayoría de las fórmulas exactas que tienen
en cuenta el muestreo sin reemplazo. Debido a su conveniencia, la expresión (15.4), en
particular, es el bloque de construcción para muchas de las estimaciones de varianza que
proporcionan los paquetes de software. Cubriremos esta idea con más detalle en la Secc. 15.3.

15.2 Estimadores lineales versus no lineales

Ser capaz de usar una fórmula de varianza exacta depende no solo del diseño de la muestra,
sino también de usar lo que se conoce como un estimador lineal, que tiene un significado
particular en el mundo basado en el diseño. Saber qué es (y qué no es) un estimador lineal
será importante ya que los estimadores de varianza de replicación y linealización que se
tratan en secciones posteriores están diseñados para manejar estimadores no lineales.
Machine Translated by Google

15.2 Estimadores lineales versus no lineales 401

En estadística matemática o basada en modelos, un estimador lineal suele ser


definido para tener la forma ˆÿ = iÿs ÿiyi donde las ÿ son constantes en el
muestra aleatoria s (i ÿ s) y las variables y se tratan como variables aleatorias
bajo algún modelo, por ejemplo, yi = ÿ0 + ÿ1xi + ÿi . En el muestreo basado en el diseño, el
la aleatoriedad proviene de cómo se selecciona la muestra. Una variable aleatoria es
definido para si una unidad está en la muestra o no:

,
ÿi = /1 si0 la unidad
si no (ii /ÿ
está
s). en la muestra (i ÿ s)

La probabilidad de que ÿi = 1 es la probabilidad de selección de la unidad i, es decir, ÿi usando


la notación establecida. Una discusión detallada sobre esta diferencia conceptual es
encontrado en, por ejemplo, Valliant et al. (2000). Hay varias definiciones de lineal que
se han propuesto para el muestreo basado en el diseño [ver (Wolter 2007, cap. 1)]. Nosotros
usaremos una versión ligeramente simplificada que es lo suficientemente precisa para nuestros propósitos.
Un estimador lineal es aquel que se puede escribir como ˆÿ = ÿiÿiyi dondeiÿU
U es
el conjunto de todas las unidades en la población finita, y el valor de ÿi es el mismo
independientemente del conjunto de unidades muestrales que se seleccione.
Un estimador no lineal es aquel en el que los ÿi se combinan de una manera que es
más complicado que una simple suma ponderada. Por ejemplo, un estimador
definido como ˆÿ = ÿiÿiyi iÿU iÿU ÿiÿixi es no lineal ya que es

la razón de dos estimadores lineales. El estimador posestratificado, TˆyPS = Nÿ t ˆyÿ Nˆÿ de la Secc .
GRAMO

ÿ=1 14.2, es no lineal. El peso de cada muestra.

la unidad es wi = diNÿ Nˆÿ donde di representa el peso base; Nÿ el conteo de población en el

postestrato ÿ; y Nˆÿ = di, la estimación iÿUÿ ÿidi = iÿsÿ


de Nÿ definido para Uÿ, el conjunto de todas las unidades de población, y para sÿ, el conjunto de
unidades muestrales que se encuentran en el posestrato ÿ. El hecho de que Nˆÿ esté en el denominador
hace Tˆ yPS no lineal.
Cuando se utilizan ajustes de clase de ponderación por falta de respuesta, como en
Secta. 13.5.1, se crea un estimador no lineal. Los pesos ajustados implican
términos como

iÿsc,E
d1i
a2c = ,
iÿsc,ER
d1i

donde c es una clase de ponderación, d1i es una ponderación base ajustada por elegibilidad
desconocida, sc,E es el conjunto de unidades de muestra elegibles en c, y sc,ER es el conjunto de
unidades de muestra elegibles que respondieron en c. Un total estimado utilizando este tipo de
el peso ajustado por la falta de respuesta se puede escribir como Tˆ =
a2cd1iyi. c iÿsc,ER
Tanto el numerador como el denominador de a2c son aleatorios con respecto al
diseño de la muestra, lo que hace que el estimador ajustado por falta de respuesta no sea lineal.
Otro ejemplo es un estimador GREG en la Secc. 14.3, que implica la
inversa de una matriz de muestra, entre otras complicaciones, que la hacen altamente
no lineal Si la calibración GREG está precedida por un ajuste de falta de respuesta,
luego se inyecta aún más no linealidad en el estimador.
Machine Translated by Google

402 15 Estimación de la varianza

Estimar la varianza de un estimador no lineal es algo más difícil que para un estimador
lineal. Sin embargo, el método de linealización, descrito en la siguiente sección, es una
solución a este problema (al menos en principio).

15.3 Estimación de la varianza de linealización

Esta sección describe cómo funciona la estimación de la varianza de linealización.


También cubrimos algunos asuntos más especializados que naturalmente acompañan a
la estimación de varianza, incluida la construcción de intervalos de confianza, grados de
libertad para estimadores de varianza, contabilidad de fracciones de muestreo, estimación
de dominio y los efectos de múltiples pasos en la ponderación de varianzas.

15.3.1 Método de estimación

La linealización es un método de aproximación de varianzas. La técnica también se


conoce como la serie de Taylor o método delta. La idea general es aproximar un estimador
complicado como una razón, una razón de probabilidades o un coeficiente de regresión
mediante una función lineal. La varianza teórica basada en el diseño se calcula para la
aproximación lineal y luego la varianza teórica se estima en función del diseño que se
haya utilizado para seleccionar la muestra. Aunque comprender los detalles del método
no es esencial para la presentación aquí, vale la pena comprender el enfoque general.
Suponga que un estimador puede escribirse como una función f de los totales estimados:

ˆÿ = pies ˆ1,...,t ˆp .

Cada total estimado debe ser un estimador lineal de la forma, t ˆj = iÿs ÿiyji.

La elección estándar para ÿi es la inversa de la probabilidad de selección, de modo que t


ˆj es un estimador ÿ. Por ejemplo, en el caso de una razón, podríamos tener ˆÿ = t ˆ1 t ˆ2
donde t ˆ1 = diyi y st función
ˆ2 = dixino
. Ellineal
primer s
ˆÿ: paso es formar una aproximación lineal a la

pags
ˆ
ÿft ÿt
ˆÿ - ÿ . = t j ÿ tj (15.5)
j=1 ˆj
T
ˆ
donde ˆÿ es la estimación del parámetro poblacional
ˆ ÿ; t = t ˆ1,...,t ˆp ÿt ˆj es la derivada ,
estimados; ÿft respecto al j-ésimo total estimado
parcial
en t ˆ;
deyftjcon
es el total
vectordede
la totales
población para
la j-ésima variable. La teoría detrás de la aproximación requiere que las derivadas
parciales se puedan derivar y se evalúen en los valores de la población
Machine Translated by Google

15.3 Estimación de la varianza de linealización 403

(que, por supuesto, no sabemos). Las estimaciones de muestra se sustituyen por las
cantidades de población para calcular una varianza estimada como se muestra a
continuación.
El problema aparentemente complicado de estimar la varianza de los ˆÿ no lineales
se reduce, por lo tanto, al problema más simple de estimar la varianza de una
combinación ponderada de los t ˆj . Luego calculamos la varianza del lado derecho de
la ecuación. (15.5) elevando al cuadrado ambos lados de la ecuación y evaluando la
expectativa con respecto al diseño de la muestra obteniendo así
ˆ 2 ˆ ˆ
=
. pags

ÿft ÿt pags pags

ÿft ÿt ÿft
Vˆÿ V t ˆj + cov t ˆj ,t ˆk . (15.6) ÿt ˆk
ˆj ˆj
j=1 j=1 k = j

Los términos, ÿ y tj , en la ecuación. (15.5) no tienen que ser considerados en la


aproximación de la varianza ya que son valores poblacionales que se tratan como
constantes.
Para muchos diseños de muestra diferentes, sabemos cómo calcular las varianzas
y covarianzas en la ecuación. (15.6). Por ejemplo, si el diseño es stsrs, V t ˆj tiene la
forma V t ˆj = (1 ÿ fh)Hh=1
S2 N2
h hnh.
similares
Las covarianzas,
con S2 reemplazada
covde
poblacional t ˆjlas
,t ˆkvariables
por
de este
una covarianza
diseño
jth y kthson , por debajo
. Para
calcular el estimador de varianzahmuestral
covarianzas
resultante,
en la ecuación.
aquí las derivadas,
(15.6) denotados
varianzascomo y
vL se evalúan utilizando sus estimaciones de muestra correspondientes.
ˆÿ ,

Ejemplo 15.1 (Estimador de varianza de linealización para la razón de dos totales).


Considere unˆ estimador puntual definido como la razón de dos totales estimados: ˆÿ =
t ˆ1 t ˆ2 ÿ ft 1,t=ˆ2ft con t ˆjuna
ˆ1,t ˆ2 = diyjk (j =kÿs
función 1,
de2). Usando
eldos la poblacional
parámetro notación
estimadores anterior,
únicos. ÿEsta decimos
= t1/t2,
cantidad que
ÿ = ˆÿ
dondeestima
f
, comenzamos
(t1, t2) y tj = kÿU yjk (j=1,2). Para calcular el estimador de varianza de linealización,

con una expansión de Taylor como se muestra en la ecuación. (15.5):

ÿf(t) ÿf (t)
ˆÿ - ÿ . = t ˆ1 ÿ t1 + ÿt2 t 2 ÿ t2
ÿt1

de modo que

2 2
2
=
. ÿf(t) ÿf(t) 2
ˆÿ ÿ ÿ t 1 ÿ t1 2 + t 2 ÿ t2
ÿt1 ÿt2

+2ÿf (t) ÿf (t) ÿt2 t 1 - t1 t 2 - t2 .


ÿt1

Tomando la expectativa de ambos lados del signo igual con respecto al diseño de
muestra particular en uso, obtenemos
Machine Translated by Google

404 15 Estimación de la varianza

2
V ˆÿ = Eÿ ˆÿ ÿ ÿ
. 2 2
= ÿf(t) ÿt1 V t ˆ1 + ÿf(t) ÿt2 V t ˆ2 + 2 ÿf(t) ÿf(t) ÿt2 Cov t ˆ1,t ˆ2
ÿt1

2
donde ÿf(t) = y ÿf(t) = ÿt1 . Estimar valores para V t ˆ1 , Vt ˆ2 ,
ÿt1 1 t2 ÿt2 1 t2

Cov t ˆ1,t , y las derivadas se generan utilizando el diseño muestral y la muestra


ˆ2 datos y se conectó a esta fórmula para obtener la ˆÿ , estimada
varianza vL de ˆÿ.

Un método alternativo que evita calcular las varianzas y covarianzas individuales en la


ecuación. (15.6) se denomina método de sustitución lineal (Wolter, 2007, Secc. 6.5). La
idea es sustituir la fórmula de t ˆj en la ecuación. (15.5) e invertir la suma de variables y
unidades antes de calcular la varianza. Suponga que se usa un diseño de etapas múltiples
y t ˆj = dkyjk es la estadística de interés, donde dk es el peso base para la unidad k en
iÿskÿsi
UPM
la i
e yjk es el valor de la j-ésima variable de análisis para la unidad k en la UPM i. Entonces,
la inversión de la Ec. (15.5) conduce a

ˆÿ - ÿ . = dkzk + constantes (15.7)


iÿskÿsi

ÿf(t
con zk =
pj=1 ˆ) ÿt ˆj yjk (k ÿ si). Las "constantes" en la ecuación. (15.7) dependen de
los totales y derivados de la población y ninguno contribuye a la varianza de diseño. La
suma ˆz = dkzk es el total estimado de los se
varianza zk lineales.
, iÿskÿsientonces
reduce , que
El se adenominan
problema la sustitutos
de estimación
estimar de de
varianza la un
único total estimado. A menudo, el último estimador de varianza de conglomerados en Eq.
(15.4) se utiliza. Si el diseño fuera una muestra estratificada por conglomerados, entonces,
utilizando los sustitutos lineales, la fórmula final del conglomerado sería

2
vL
ˆÿ = Nueva Hampshire

zˆhi ÿ z ˆ¯h ,
(nh ÿ 1) iÿsh
h

donde zhi = dkzk y z ˆ¯h = nÿ1 h zhi.


kÿshi iÿsh

Ejemplo 15.2 (Continuación del Ejemplo 15.1, razón de dos totales). Tome el estimador
de una razón definida en el ejemplo 15.1, ˆÿ = t ˆ1 t ˆ2 con t ˆj = (j=1,2). El sustituto
kÿs
lineal
diyjk
ÿ1
es zk = t la varianza es V (si el diseño es sólido, entonces
2 ( y1kla ÿ varianza
ÿy2k). El estimada
dkzk aproximado).
es
s Cómo se estima esto depende del diseño de la muestra.

N2 2
norte
( zk ÿ z¯s)
v ˆÿ = 1- s
norte norte norte ÿ 1
Machine Translated by Google

15.3 Estimación de la varianza de linealización 405

siendo ¯zs la media muestral no ponderada de los zk. Si el diseño es ppswr, entonces

2
Una
zk
v ˆÿ = ÿ t ˆpwr,z
norte (norte - 1) paquete
kÿs

con t ˆpwr,z = nÿ1 zk/pk. Sis se usó un diseño de dos etapas (o más), entonces se usaría una
fórmula de varianza apropiada para ese diseño.

Ejemplo 15.3 (Log-odds en una tabla de 2 × 2). Suponga que la siguiente tabla proporciona los
recuentos estimados de personas que tienen diabetes clasificadas por género.
Suponga que se utiliza una muestra estratificada de etapas múltiples y que cada

tiene diabetes
tener diabetes
Masculino t1 t2
Femenino t3 t4

total tiene la forma t ˆj = dkyjk. Observe que cada celda de la tabla es un dominio, por lo que yjk
hola kÿshi
es 1 (k ÿ shi) si la unidad k está en la celda j (j = 1, 2, 3, 4) y 0 si no. El logaritmo de la razón
entre las probabilidades de que los hombres tengan diabetes y la razón de probabilidades para
las mujeres es

t 1t 4
ˆÿ = logaritmo = Iniciar sesión t ˆ1 ÿ Iniciar sesión t ˆ2 ÿ Iniciar sesión t ˆ3 + Iniciar sesión t ˆ4 .
t 2t 3

y1k y2k y3k y4k


El sustituto lineal es zk = estimador ÿ ÿ

+ y el log-odds es dkzk. La
t1 t2 t3 t4 ,
.
aproximadamente ˆÿ, en = este caso, es varianza del clúster final
hola kÿshi

2
v ˆÿ =
Nueva Hampshire

zˆhi ÿ z ˆ¯h ,
h
(nh ÿ 1)
iÿsh

donde ˆzhi = kÿshi


dkzk y z ˆ¯h = nÿ1 h sh
zhi. Para evaluar v ˆÿ , reemplazamos
cada tj en el sustituto lineal zk con su estimación muestral.

Los paquetes de software tienen programados ciertos casos especiales de la fórmula del
sustituto lineal. El usuario especifica el diseño de la muestra y el tipo de estimador, y el software
evalúa la fórmula adecuada. R, Stata, SUDAAN y SAS utilizan el método de sustitución lineal
como una de sus opciones. El usuario está limitado a las estadísticas para las que se ha
programado el sustituto lineal. Para estadísticas personalizadas, el estadístico puede necesitar
construir su propio programa especializado.
Machine Translated by Google

406 15 Estimación de la varianza

15.3.2 Intervalos de confianza y grados de libertad

Los intervalos de confianza generalmente se calculan utilizando la aproximación normal o t. Un


intervalo de confianza de 100 (1 ÿ ÿ) % para ÿ es

ˆÿ
ˆÿ ± z1ÿÿ/2 vL ˆÿ o ˆÿ ± t1ÿÿ/2 (df) vL

donde z1ÿÿ/2 es el punto en una distribución normal estándar con 1 ÿ ÿ/2 del área a su izquierda y t1ÿÿ/
2 (df) es el punto correspondiente en una distribución t central con df grados de libertad . A continuación
se describen algunas de las reglas generales utilizadas para establecer los grados de libertad.

Los grados de libertad son una característica de un estimador de varianza al igual que el diseño de
la muestra. Si los datos, y1,...,yn, fueran generados cada uno independientemente por una distribución
normal con media ÿ y varianza ÿ2, entonces ÿ2 tiene una distribución chi-cuadrado con n-1 grados de
norte 2
yo=1
(yi ÿ y¯s) libertad. En la teoría basada en el diseño, no se hacen suposiciones sobre una
distribución de modelo subyacente. Como resultado, la teoría de muestras grandes se utiliza para
asignar grados de libertad aproximados a los estimadores de varianza (p. ej., véase Rust (1984, 1985)).

La regla general estándar es

df = (número de UPM de muestra) - (número de estratos de diseño). (15.8)

H
Si hay n = h=1 nh PSU de muestra y H estratos, la regla dice que df = n ÿ H. En otras palabras, se
toman nh ÿ 1 grados de libertad de cada estrato.

La precisión de esta regla depende de la variabilidad y la curtosis de la variable de análisis, que en


esta sección es el sustituto lineal zk. La curtosis es una medida de qué tan "pico" es la distribución de
yk o zk en comparación con una distribución normal estándar. En muchos casos, la regla general puede
ser deficiente, como se ilustra en Valliant y Rust (2010). Entre las cosas que afectarán su precisión
están:

(i) No normalidad del zk que puede ser causada por un pequeño número de
PSU de muestra.
(ii) El zk que tiene colas más pesadas que una distribución normal. (iii) Las
varianzas subyacentes de las variables de análisis son diferentes entre
Estratos.
(iv) La estadística es la proporción de la población que tiene una característica rara. Esto puede
resultar en una distribución de colas pesadas del zk. (v) Las UPM y/o los estratos se colapsan
para reducir la carga computacional. Esto es común cuando se usan los estimadores de varianza de
replicación discutidos en las secciones subsiguientes. El colapso se describe en la Secc. 15.5.

Ejemplo 15.4 (Evaluación de derivadas parciales: estimador de razón de una media).


Para construir un estimador de varianza de linealización, a veces se presentan alternativas
Machine Translated by Google

15.3 Estimación de la varianza de linealización 407

disponibles para evaluar las derivadas parciales en la ecuación. (15.5). El radio


estimador de una media bajo srswor, ¯yR = ¯ysx¯U /¯xs, que cubrimos en
Secta. 3.5.2, ilustrará las opciones. La aproximación lineal a ¯yR es

.
y¯R ÿ y¯U = ÿy¯R ÿy¯R
(¯ys ÿ y¯U ) + (¯xs ÿ x¯U ).
ÿy¯s ÿx¯s

El teorema que conduce a la aproximación dice que los parciales deben ser
evaluados en valores poblacionales. Eliminando los términos en ¯yU y ¯xU la parte ,
de la aproximación que depende de las cantidades de la muestra es

ÿy¯R ÿy¯R ÿy¯R ÿy¯R


y¯s + x¯s = nÿ1 si + xk _
ÿy¯s ÿx¯s s ÿy¯s ÿx¯s

La derivada parcial de ¯yR con respecto a ¯ys es ¯xU /¯xs. Si se evalúa en cantidades de población,
entonces la derivada parcial es igual a uno. De lo contrario, si
la derivada parcial se evalúa en cantidades muestrales, tenemos ¯xU /¯xs. los
parcial con respecto a ¯xs es ÿy¯sx¯U x¯2 s. Cuando se evalúa en la población y

cantidades muestrales, esta derivada parcial es ¯yU /¯xU y ÿy¯sx¯U x¯2 s, respeto
tivamente. Por lo tanto, dos opciones para las aproximaciones lineales son
. Yu
y¯R ÿy¯U = nÿ1 s yk - x¯U derivados xk evaluados en valores poblacionales
. Yu
y¯R ÿ y¯U = nÿ1 x¯U s yk ÿ x¯U xk derivados evaluados en muestra esti
x¯s
compañeros

La primera aproximación conduce al estimador de varianza srswor

2
N2 norte
y¯s
v0 = 1- yk ÿ xk .
norte norte
s
x¯s

Usamos ¯ys/¯xs en lugar de ¯yU /¯xU en el término al cuadrado porque la población


se desconoce la media de las y. La segunda aproximación conduce a

2 2
N2 norte
x¯U y¯s
v2 = 1- yk ÿ xk .
norte norte x¯s s
x¯s

El estimador v2 tiene un mejor rendimiento condicional que v0. Por “condicional” queremos decir que v2
rastrea la varianza de ¯yR mejor que v0 para muestras donde ¯xs difiere de ¯xU . Más formalmente, buen
desempeño condicional
significa que un estimador es insesgado (o aproximadamente) bajo un modelo
que describe la dependencia de y respecto de x. En este caso, el modelo que motiva el estimador de razón
es EM (yi) = ÿxi, VM (yi) = ÿ2xi. El estimador v2
es tanto modelo imparcial como aproximadamente diseño imparcial bajo srswor lo que le da una especie
de doble robustez, un término utilizado en la literatura de ensayos clínicos
(Kang y Schafer 2007).

Para llegar a v2, se hace una elección un tanto arbitraria para evaluar los parciales de una manera
diferente a la dictada por el teorema de Taylor. Un interesante
Machine Translated by Google

408 15 Estimación de la varianza

característica de los estimadores de replicación, discutida en la Secc. 15.4 es que


automáticamente son aproximadamente imparciales en cuanto al diseño y al modelo. Esto
no es tan bueno como parece porque la falta de sesgo del diseño está bajo el muestreo de
reemplazo de las PSU, y la falta de sesgo del modelo está bajo un modelo para el cual el
estimador puntual en sí mismo es imparcial. El diseño real puede no ser con reemplazo, y el
modelo bajo el cual el estimador de la varianza de la replicación no está sesgado puede no
ser el mejor para la variable de análisis. Sin embargo, la replicación transmite una especie
de doble robustez automática, mientras que esto no siempre es cierto para los estimadores
de varianza de linealización.

15.3.3 Contabilización de fracciones de muestreo no


despreciables

La teoría general de muestras grandes para la linealización se basa en el supuesto de que


las UPM se seleccionan con reemplazo. Como se señaló anteriormente, esto no es una gran
limitación si el tamaño de la muestra de las unidades de primera etapa es pequeño en
comparación con el tamaño de la población de las unidades de primera etapa. La
contabilización de grandes fracciones de muestreo de UPM o selecciones de UPM que no
pueden tratarse como aproximadamente independientes es difícil, excepto en algunos diseños simples.
Si las selecciones de PSU no pueden tratarse de manera realista como independientes,
entonces la pregunta básica para un analista es si (a) el software que está utilizando tiene
una fórmula de varianza que coincide con el diseño o (b) puede programar la fórmula
correcta usted mismo . Si (b) está a su alcance, entonces se puede programar una fórmula
elaborada que tenga en cuenta completamente la complejidad del diseño y el estimador. Sin
embargo, para la mayoría de los analistas, (a) es probablemente más realista. Esto es
especialmente cierto si su análisis requiere muchas estimaciones de dominio diferentes.
Programarlos correctamente no es un ejercicio trivial.
SUDAAN admite más tipos de diseños de muestra que los otros paquetes que cubrimos (ver
RTI International 2012, cap. 3). Por ejemplo, cubre diseños en los que (15.1) es la fórmula
correcta, pero el usuario debe ingresar los valores de ÿi y ÿij . Los valores de ÿij , en particular,
pueden no estar disponibles.
Una opción que ofrecen R, SAS, Stata y SUDAAN es incluir un factor de corrección de
población finita (fpc) ad hoc en la fórmula (15.4) aplicada a zˆ en lugar de y ˆ¯pwr. Esto es
teóricamente correcto si las UPM se seleccionan por srswor o stsrswor donde fpc es 1 ÿ n/N
o 1 ÿ nh/Nh, y no hay submuestreo dentro de cada UPM. Si las PSU se seleccionan con
probabilidades variables sin reemplazo, entonces este tipo de fpc puede ser tosco. En el
paquete de encuestas R, la opción fpc está incluida en la declaración de svydesign; en Stata,
el fpc está incluido en la declaración svyset; en cada procedimiento SAS (como encuestafreq)
la declaración es tarifa. En R y Stata, el valor de la frecuencia de muestreo, n/N, es el valor
de la variable fpc, no 1 ÿ n/N, que es la definición de libro de texto de fpc. En R, el fpc debe
ser un vector de la misma longitud que el número de registros en el archivo de muestra;
podría ser una columna en
Machine Translated by Google

15.3 Estimación de la varianza de linealización 409

el objeto que contiene los datos de muestra. Dimos un ejemplo de la sintaxis R en la


Secc. 15.2. En Stata y SAS, fpc o tasa debe ser un campo en el archivo de datos de
muestra.
Además, se pueden incluir fpc para diferentes etapas de muestreo en R, Stata y
SUDAAN. Estos son apropiados solo cuando cada etapa es una muestra aleatoria
simple seleccionada sin reemplazo de las unidades en cada etapa.
Los diseños de varias etapas con srswor en cada etapa son bastante inusuales, pero
está disponible la opción de incluir varios fpc. Debe consultar el manual del paquete de
software que está utilizando para saber cómo debe configurarse el archivo de datos
para utilizar esta opción.

Ejemplo 15.5 (Contabilización de fpc's). Ilustramos el efecto de usar fpc seleccionando


un stsrswor de la población smho.N874. Se selecciona una muestra de nh = 50 en
cada uno de los estratos H = 5 definidos por tipo de hospital. La función de estratos en
el paquete de muestreo selecciona la muestra. Las fracciones de muestreo específicas
del estrato, nh/Nh (0,23, 0,43, 0,20, 0,34 y 0,35 para los estratos 1 a 5, respectivamente),
se almacenan en sam$Prob, cuya longitud es la de la muestra completa, 250 (5* 50)
porque esta tasa es la misma para cada unidad de muestra en un estrato dado. El
conjunto completo de código R para este ejemplo se encuentra en "Ejemplo 15.5
FPCs.R".

Requerir (encuesta)
Requerir (muestreo)
# Recuentos de estrato de población Nh <-
table(smho.N874[, "hosp.type"])

# Seleccione una muestra aleatoria simple estratificada dentro de # conjunto de estratos


de tipo de hospital.seed(428274453)

n <- 50 H <-
length(Nh) sam <-
strata(data = smho.N874, stratanames = "hosp.type", size = rep(n,H), method=c("srswor"), description =
TRUE) sam.dat <- smho.N874[sam\$ID\_unit,] d <- 1/sam$Prob sam.rates <-
sam$Prob # Crear un objeto de diseño con smho.dsgn de fpc <- svydesign(ids
= ˜0, # sin conglomerados estratos = ˜hosp.type, fpc = ˜sam.rates, data = data.frame(sam.dat), pesos =
˜d)

cv(svyby(˜EXPTOTAL, by=˜as.factor(hosp.type), design=smho.dsgn,


DIVERSIÓN=svytotal))
cv(svytotal(˜EXPTOTAL, diseño=smho.dsgn))

# Crear un objeto de diseño sin fpc


smho.nofpc.dsgn <- svydesign(ids = ˜0, estratos = ˜hosp.type,
Machine Translated by Google

410 15 Estimación de la varianza

datos = datos.marco(sam.dat),
pesos = ˜d)
cv(svyby(˜EXPTOTAL, by=˜as.factor(hosp.type),
diseño=smho.nofpc.dsgn, DIVERSIÓN=svytotal))
cv(svytotal(˜EXPTOTAL, diseño=smho.nofpc.dsgn))

Se crean dos objetos de diseño: smho.dsgn, que utiliza fpc y smho.


nofpc.dsgn, que no lo hace. Los resultados para CV del total estimado de
a continuación se detallan los gastos por estrato y en general. Omitir los cables del fpc
a SE y CV sobrestimados del 12 al 33 %. El aumento de tamaño SE

Estrato Una 2 3 4 5 completo

estallido.

CV (%) con fpc CV (%) 17,6 11,3 9,5 17,1 13,1 8,7
sin fpc 20,1 15,0 10,6 21,0 16,3 10,1
Relación de CV s 1,14 1,33 1,12 1,23 1,24 1,16

podría resultar, por ejemplo, en no rechazar la hipótesis nula especificada para


una prueba estadística cuando la hipótesis podría haber sido rechazada o suprimida
de las estimaciones de la encuesta si superan algún error estándar relativo especificado.

15.3.4 Estimación de dominio

Las estimaciones para dominios (es decir, subpoblaciones o dominios) son importantes en
el análisis de los datos de la mayoría de las encuestas. Las estimaciones para las celdas en una tabla cruzada
son ejemplos de estimaciones de dominio. Una forma de caracterizar los dominios (también
denominadas subpoblaciones o subgrupos) depende de si el tamaño de la muestra
del dominio está fijado por el diseño o no. Si el tamaño de la muestra del dominio
es fijo, entonces el análisis del dominio se puede hacer creando un subarchivo que
contiene sólo las unidades en el dominio. Por ejemplo, si los empleados de una
empresa están estratificados por división en la que trabajan (procesamiento de datos, campo
operaciones, estadísticas, recursos humanos, etc.), entonces cada división se puede analizar por
separado. Si los tamaños de muestra no son fijos, entonces la aleatoriedad de los
el tamaño de la muestra del dominio debe incorporarse en las estimaciones de la varianza. En el
encuesta de empleados, nos podría interesar el dominio de las personas que se sienten
que están subempleados teniendo en cuenta sus niveles de educación. Asumiendo
que no sabemos quiénes son esas personas antes de hacer la encuesta, sus
el tamaño de la muestra será aleatorio.
La técnica utilizada para estimar la varianza de diseño de una estimación de dominio
para el cual el tamaño de la muestra es aleatorio es codificar una unidad como si tuviera un valor de 0
si no están en el dominio y como teniendo su valor observado si está en el
dominio:
Machine Translated by Google

15.3 Estimación de la varianza de linealización 411

si k está en el dominio
yk (d) = / yk0 d, si no.

Algunos textos usan una variable indicadora, ÿi (d) = 1 si la unidad i está en el dominio d y 0 si
no. Entonces yk (d) = ykÿi (d). El yk (d) recodificado se usa luego en cualquier fórmula de
varianza que sea apropiada para el diseño. Para un estimador de varianza de linealización, se
usa yk (d) en el sustituto lineal. Como veremos en la Secc. 15.4, este truco de codificación cero
es innecesario en la estimación de la varianza de replicación, otra ventaja del enfoque de
replicación.

15.3.5 Supuestos y Limitaciones

La teoría está disponible para que los estimadores de varianza de linealización muestren cuándo
son aproximadamente imparciales y consistentes. Krewski y Rao (1981) proporcionan la teoría
fundamental, que también se resume en Wolter (2007). Se debe considerar el tipo de diseño de
la muestra, en particular si las UPM se muestrearon con o sin reemplazo. En un caso sencillo
como stsrs, el enfoque de linealización se puede aplicar a diseños sin reemplazo, como se ilustra
en los ejemplos 15.1 y 15.2. En muestras de etapas múltiples, gran parte de la teoría se ha
desarrollado para diseños en los que las UPM se pueden seleccionar con probabilidades
variables pero con reemplazo. En ese caso, el último estimador de varianza de conglomerados
se puede aplicar a los sustitutos lineales. Cuando el muestreo de la UPM es sin reemplazo, un
estimador de varianza con reemplazo suele ser conservador, pero este es un compromiso que la
mayoría de los profesionales pueden aceptar.

También se necesitan algunas suposiciones matemáticas para derivar la teoría que se aplica
a los estimadores no lineales. Tres de los requisitos matemáticos clave son que (i) el número de
unidades de suministro de energía de la muestra sea grande, (ii) las variables que se analizan
(las y) no pueden ser muy variables ni verse afectadas por valores atípicos extremos, y (iii) la
debe
función no lineal, ˆÿ = ft ˆ1,...,t ˆp , con respecto a sus t ˆj componentes. ser diferente
Diferentes tipos de
diseños pueden satisfacer el requisito (i). En un diseño estratificado con un número limitado de
estratos, debe haber una gran cantidad de UPM en cada estrato. Un diseño estratificado con un
pequeño número de unidades por estrato puede satisfacer (i) si el número de estratos es grande.

Como se señaló anteriormente, los estimadores de varianza de linealización se utilizan para

intervalos de confianza (IC) de la forma ˆÿ ± z1ÿÿ/2 vL calcular ˆÿ. Hay dos

supuestos necesarios para decir que este intervalo (o la versión que usa un
multiplicador) cubre la cantidad de población deseada en el 100 (1 ÿ ÿ) % de las muestras:
(i) La distribución de ˆÿ es aproximadamente normal cuando la muestra es
grande. (ii)
ˆÿ vL
es un estimador consistente de la varianza teórica, V ˆÿ , en
pags

el sentido de que vL ˆÿ V ˆÿ ÿÿ 1 a medida que la muestra se hace grande.


Machine Translated by Google

412 15 Estimación de la varianza

Por "muestra grande" queremos decir que el número de unidades de suministro de energía de la
muestra es "grande". Esto, por supuesto, plantea la pregunta: ¿qué tan grande debe ser la muestra
de PSU para que se considere grande? Naturalmente, esta es una pregunta sin una respuesta clara.
Las variables continuas muy sesgadas necesitarán un tamaño de muestra mayor que las más
simétricas. Las características raras o predominantes requerirán una muestra más grande que
aquellas cuya proporción es más cercana.
Algunos profesionales dirán que 30 PSU son suficientes para que los CI funcionen como se
anuncia. Preferimos un número mucho mayor: 60 o más. Incluso si 30 fuera suficiente para tratar
ˆÿ como normal, un estimador de varianza basado en 30 UPM puede ser bastante inestable. Esto
perjudicará seriamente el desempeño de los intervalos de confianza. Tener al menos 60 PSU
ofrece un mínimo de protección contra la estimación de varianza inestable. Regresaremos a este
punto más adelante en el capítulo en la discusión de los estimadores de varianza de replicación.

El método descrito anteriormente no funciona para estimar la varianza de un cuantil, como la


mediana o el primer y tercer cuartil. Sin embargo, Francisco y Fuller (1991) desarrollaron un método
similar a la linealización para los cuantiles . Su método está disponible en el paquete de encuestas
R y en SUDAAN.
El ejemplo 15.8 ilustra su cálculo junto con otro método debido a Woodruff (1952).

15.3.6 Casos especiales: posestratificación y cuantiles

En el cap. 14, varios ejemplos mostraron errores estándar estimados mediante linealización. Los
ejemplos 14.2, 14.3 y 14.4 cubrieron los estimadores posestratificados y rastrillados y sus errores
estándar. El siguiente ejemplo muestra un caso más simple de linealización que a menudo se
usaría para conjuntos de datos de uso público proporcionados por gobiernos federales.

Ejemplo 15.6 (Estimación de la varianza de linealización). El conjunto de datos nhis.large puede


tratarse como un diseño de conglomerados estratificado con 2 UPM seleccionadas por estrato.
Dado que esto se extrajo de un conjunto de datos de uso público publicado por el gobierno de los
EE. UU., no se proporcionó información de diseño más que identificadores (ID) para los estratos
de diseño y las UPM y una ponderación de la encuesta. El siguiente código R utiliza la versión
RData de este archivo para estimar las proporciones de la población en cinco grupos de edad. Se
utiliza el estimador de varianza con reemplazo ya que no tenemos información para hacer algo
más elaborado. La función svydesign define un objeto de diseño que especifica la variable que
contiene los ID de PSU (id), los estratos (strata), los pesos de la encuesta (pesos) y el conjunto de
datos utilizado para crear el objeto. Tenga en cuenta que las variables de identificación, estratos y
pesos deben ingresarse como una fórmula dentro del frente. Después de crear el objeto de diseño,
se pueden realizar tabulaciones de diferentes tipos. En este caso, svymean se usa para calcular
proporciones, sus errores estándar de linealización y un efecto de diseño para cada estimación de
celda. La función ftable se utiliza para formatear
Machine Translated by Google

15.3 Estimación de la varianza de linealización 413

la mesa de una manera un poco mejor que la predeterminada de svymean. El conjunto


completo de código se encuentra en el archivo Ejemplo 15.6 lin var.

adjuntar("C:\\nhis.large.RData", pos=2) require(sampling) # crear un


objeto de diseño

nhis.dsgn <- svydesign(ids = ˜psu,


estratos = ˜estrato, nido =
VERDADERO, datos = nhis.grande,
pesos = ˜svywt)

a <- svymean(˜factor(age.grp), deff=TRUE, design=nhis.dsgn) b <- ftable(a, nombres de fila = lista(edad = c("<
18", "18-24", " 25-44", "45-64", "65+")))

redondo (b, 3)

edad
< 18 media 0,253
SE 0.004
Def 1.575
18-24 media 0,101
SE 0.004
Deff 3.872
25-44 media 0,285
SE 0.004
Deff 1.463
45-64 media 0,240
SE 0.004
Deff 2.092
65+ media 0,122 0,004 Deff
SE 3,268

La misma tabulación se puede hacer en Stata con este código después de decirle al
paquete que use el conjunto de datos nhis.large:

svyset psu [pweight=svywt], strata(stratum) svy: tab agegrp, percent se deff

Después de leer los datos en un archivo llamado nhis large, el código SAS para la tabla es:

proc encuestafreq data=nhis_large; tablas agegrp /dff; estrato


estrato; fuente de alimentación del grupo; peso svywt;

correr;

(La variable agegrp se usa arriba porque SAS y Stata no admiten nombres de variables que
contengan ciertos caracteres, como un punto, por ejemplo, age.grp).
Machine Translated by Google

414 15 Estimación de la varianza

Ignorar la calibración de los controles de población suele ser un error grave en la


estimación de la varianza. La gravedad del error depende de qué tan bien se ajuste a los
datos el modelo que subyace al tipo de calibración utilizado. (Cubrimos los vínculos entre la
calibración y los modelos en la Sección 14.3.1.) Cuanto mejor sea el ajuste, mayor será el
error. No tener en cuenta la calibración en la estimación de la varianza es un error
especialmente fácil de cometer cuando se analizan datos de conjuntos de datos de uso
público. A veces, no se proporciona una guía especial sobre cómo estimar las variaciones
con diferentes paquetes de software. Los códigos de estrato y PSU pueden estar en el
archivo, y la documentación puede decir que las ponderaciones se ajustaron para alcanzar
ciertos controles de población, como los recuentos de edad/sexo/raza-etnicidad en una encuesta de hogare
Sin embargo, no se proporcionan recuentos de población a los usuarios, o la documentación
de la encuesta no brinda definiciones explícitas de las categorías de control. En tal caso, es
posible que aún pueda hacer algo que sea más o menos correcto (o, al menos, mejor que
ignorar el hecho de que se usaron controles).
Tomemos el caso de la posestratificación como ilustración. La suma de los
pesos finales en cada posestrato satisfará

ÿ
Nˆÿ
semana ÿ = Nÿ,
ÿ = kÿsÿ ÿ

donde sÿ es el conjunto de unidades muestrales en el posestrato ÿ y Nÿ es la población de


control. La varianza de las estimaciones posteriores al conteo de estrato Nˆÿ es cero debido
a la igualdad forzada con los controles de población anteriores. Por lo tanto, si tiene una
suposición razonable sobre cuáles son las definiciones posteriores a los estratos, puede
recuperar los totales de control. Es posible que necesite usar esos controles para crear un
nuevo conjunto de ponderaciones posestratificadas, según los requisitos del paquete de
software que esté usando. Para ilustrar la posibilidad de que ignorar la posestratificación
sea un error, volvamos al ejemplo 15.2.

Ejemplo 15.7 (Linealización con posestratificación). El código R para este ejemplo está en
el archivo Example 15.7 poststrat.R. Recuerde que en el ejemplo 15.2, se seleccionó una
muestra de 250 casos de esta gran población.
Se utilizaron quince postestratos de grupos de edad x hispanidad. Se creó un objeto
de diseño llamado nhis.dsgn y, a su vez, se utilizó para crear un objeto con pesos
posestratificados, ps.dsgn.

# colapsar hisp = 3,4 hisp.r <-


nhis.large$hisp hisp.r[nhis.large$hisp ==4] <-
3 nhis.large1 <- data.frame(nhis.large, hisp.r)

# crear una sola variable para identificar poststrata


max(nhis.large1$hisp.r)
age.grp
nhis.large1$PS
x hisp.r # m <-
<- (nhis.large1$age.grp
- 1)*m + nhis .large1$hisp.r N.PS <- table(PS = nhis.large1$PS) ps.dsgn
<- postStratify(diseño = nhis.dsgn,

estratos = ˜PS,
población = N.PS)
Machine Translated by Google

15.3 Estimación de la varianza de linealización 415

(En este ejemplo, en contraste con el ejemplo 15.2, omitimos un fpc). Un requisito
fundamental es que el nombre asociado con el vector total de la población, N.PS,
debe ser el mismo que el nombre de la variable utilizada para identificar los estratos
posteriores. . La sentencia, table(PS=nhis.large1$PS), asegura que el nombre PS
se utilice para los totales de población. Los totales postestratificados estimados de
personas que reciben Medicaid (Medicaid=1) o no (Medicaid=2) se estiman con:

svytotal(˜ as.factor(medicaid), ps.dsgn, na.rm=TRUE)


total SE
como.factor(medicaid)1 1870.8 346.47 como.factor(medicaid)2
19467.6 372.59

Por otro lado, podemos usar los pesos posestratificados para formar un objeto de
diseño asumiendo que la muestra fue seleccionada con probabilidades variables y
con reemplazo, y luego estimar el mismo total.

wts <-weights(ps.dsgn) # objeto de


diseño ignorando PS noPS.dsgn <-
svydesign(ids = ˜0, strata = NULL, data = data.frame(samdat),
weights = ˜wts)

svytotal(˜ as.factor(medicaid), noPS.dsgn, na.rm=TRUE) total


SE
como factor(medicaid)1 1870.8 384.73 como
factor(medicaid)2 19467.6 470.38

Los totales estimados son, por supuesto, los mismos con estas dos alternativas.
Sin embargo, los EE para el número total de personas que reciben Medicaid son
346,47, teniendo en cuenta la posestratificación, y 384,73, ignorándola. En
consecuencia, sobrestimaríamos el SE en aproximadamente un 11 % (384,73 frente
a 346,47). Para el total estimado de no recibir Medicaid, el SE estaría sobrestimado
en un 26 % (470,38 vs. 372,59). La sobreestimación también ocurriría con los
métodos de replicación, considerados posteriormente, si se ignora la posestratificación.

Estimar el SE de un cuantil estimado requiere métodos diferentes de los


introducidos anteriormente para la linealización. Los métodos de Francisco y Fuller
(1991, FF) y Woodruff (1952) están disponibles en R. Ambos métodos calculan
primero un intervalo de confianza (IC) en un cuantil. Luego se calcula un error
estándar dividiendo la longitud del IC por 2z1ÿÿ/2 donde 100 (1 ÿ ÿ) % es el nivel de
el intervalo de confianza FF usa lo que se llama un método de inversión de prueba.
Para la mediana, por ejemplo, el IC consta de todos los valores de la población
potencial que serían aceptados en una prueba de hipótesis de que el valor fuera
igual a la mediana. El método de Woodruff es más simple y consiste,
aproximadamente, en colocar un IC alrededor de la proporción asociada con el
cuantil (como la mediana) y luego traducir los puntos finales del IC a la escala de datos.
Machine Translated by Google

416 15 Estimación de la varianza

Ejemplo 15.8 (Cuantiles). Usamos la población smho.N874 para ilustrar


el cómputo de cuantiles y la misma muestra descrita en la Secc. 15.3.2.
Los hospitales tipo 4 se eliminan y la variable, camas, se recodifica para tener un
valor mínimo de 5. Se selecciona una muestra de 80 hospitales de la lista editada
marco con probabilidades proporcionales a la raíz cuadrada del número de
camas (recodificadas). El conjunto completo de código se proporciona en el archivo Ejemplo 15.8
Cuantil FF.R.

smho.dsgn <- svydesign(ids = ˜0,


estratos = NULO,
datos = datos.marco(sam.dat),
pesos = ˜d)

# cuantiles de población
popq <- cuantil(smho$SEENCNT, c(0.25, 0.50, 0.75))

# Calcular cuantiles y CI
# Método Francisco-Fuller
FF <- svyquantile(˜SEENCNT, design=smho.dsgn,
cuantiles = c(0.25, 0.50, 0.75),
ci=VERDADERO, intervalo.tipo="puntuación",
se = VERDADERO)

# Método Woodruff
madera <- svyquantile(˜SEENCNT, design=smho.dsgn,
cuantiles = c(0.25, 0.50, 0.75),
ci=VERDADERO, intervalo.tipo="Wald",
se = VERDADERO)
round(cbind(t(FF$cuantiles), t(FF$CIs[,,1])), 0)
SEENCNT (superior inferior)
0.25 581 846 208
0.5 1458 846 1613
0.75 1932 1654 4182

round(cbind(t(madera$cuantiles), t(madera$CIs[,,1])), 0)
SEENCNT (superior inferior)
0.25 581 753 184
0.5 1458 829 1622
0.75 1932 1663 4759

# extraer SE
redondo (SE (FF), 1)
0,25 0,5 0,75
162,8 195,7 644,9

redondo(SE(madera),1)
0,25 0,5 0,75
145,3 202,4 790,0

El objeto sam.dat contiene los datos de los 80 hospitales de muestra. La función


svyquantile calcula el primer y tercer cuartiles y la mediana a través de la
parámetro, cuantiles = c(0.25,0.50,0.75). El FF y Woodruff
Machine Translated by Google

15.3 Estimación de la varianza de linealización 417

los métodos se especifican con interval.type="score" o "Wald", respectivamente. El resultado es


una lista con componentes denominados cuantiles y CI.
Para FF, los examinamos vinculando las estimaciones puntuales y los límites de IC
Juntos con

round(cbind(t(FF$quantiles), t(FF$CIs[,,1])), 0).

Una declaración similar muestra los resultados de Woodruff. El error estándar


las estimaciones se extraen con SE(FF) y SE(madera).

Efecto de Valores Duplicados en un Cuantil. Una palabra de advertencia es


apropiado aquí para variables que tienen muchos valores duplicados. en físico
mediciones, por ejemplo, los datos de algunos artículos pueden redondearse a números enteros
para su inclusión en un conjunto de datos aunque, en principio, el subyacente
la medición es continua. Por ejemplo, los archivos de datos NHANES proporcionados
por el Centro Nacional de Estadísticas de Salud de EE. UU. tienen muchos vínculos con el
colesterol de lipoproteínas de alta densidad (HDL). HDL se mide en miligramos por
decilitro, que es un número entero, pero conceptualmente HDL podría tomar un continuo de
valores. Los IC y los SE de los cuantiles son sensibles a los vínculos en los valores de los datos.
Dependiendo de cómo se manejen, las estimaciones puntuales diferirán un poco,
pero los CI y los SE pueden diferir mucho. La función R svyquantile tiene dos
opciones: lazos=''discreto'' y lazos=''redondeado''. Con el anterior,
los datos se tratan como genuinamente discretos, de modo que la CDF es una función escalonada.
Con redondeado, la interpolación se usa para construir la CDF. Si la discreción
de los datos es un artefacto del proceso de medición o informe, luego usando
ties=''rounded'' parece preferible.

15.3.7 Manejo de varios pasos de ponderación con


Linealización

Las implementaciones de linealización en paquetes de software normalmente no


tener en cuenta los efectos de múltiples etapas de ajuste de peso. Por ejemplo,
si se utilizan ajustes por falta de respuesta, seguidos de posestratificación a los totales de control
de la población, las fórmulas de linealización que están preprogramadas en R,
Stata, SAS y SUDAAN contabilizarán solo la estratificación posterior si se
especificado (ver Ejemplo 15.7).
La teoría del método ciertamente se puede adaptar para reflejar ambos pasos.
Sin embargo, como se señaló anteriormente, los usuarios no suelen tener toda la información que
sería necesario para calcular correctamente una varianza de linealización. Por ejemplo, suponga
que se formaron celdas de ajuste por falta de respuesta, como se describe en
Secta. 13.5.1, y los pesos de entrada ajustados por la relación de sumas de pesos
para la muestra completa y para los encuestados. Si se estima un total de algún y,
el analista tendría que saber en qué celda cayó cada encuestado y no encuestado, junto con la
suma de los pesos de entrada para la muestra completa
Machine Translated by Google

418 15 Estimación de la varianza

y para los encuestados en cada celda. Si además se utiliza un estimador posestratificado, se


debe conocer el posestrato de cada unidad. Los posestratos pueden ser diferentes de las
celdas de ajuste por falta de respuesta. Los usuarios pueden tener los códigos posteriores al
estrato pero no la información de ajuste de falta de respuesta. En algunos conjuntos de datos
de uso público, los usuarios no tendrán ninguno.
Por otro lado, la replicación, discutida en la siguiente sección, hace que sea relativamente
fácil dar cuenta de estos múltiples pasos de ponderación. Siempre que las ponderaciones
replicadas se construyan correctamente, un analista puede usarlas para obtener estimaciones
de SE correctas incluso si el analista no tiene conocimiento de si se usaron ajustes por falta
de respuesta, posestratificación, rastrillado, estimación GREG u otra cosa.

15.4 Replicación

El otro método general para estimar la varianza de los estimadores no lineales es la


replicación. La idea es crear una serie de submuestras, es decir, réplicas, cada una de las
cuales puede usarse para estimar el mismo parámetro que la muestra completa. Luego se
calcula la varianza entre las estimaciones repetidas. Hay tres alternativas que cubriremos: el
jackknife, la replicación repetida balanceada (BRR) y el bootstrap.

En cada uno de los métodos, se seleccionan submuestras de las UPM, no de las unidades
dentro de las UPM. Una submuestra se conoce como una réplica. Si se selecciona una PSU
para una réplica, se retienen todas las unidades de muestra dentro de la PSU. Los pesos
base para las unidades en una réplica se ajustan de una manera que depende del método
de réplica. Luego, cualquier ajuste de peso adicional, como la calibración (si se utilizan), se
realiza por separado para cada réplica.
Esto conduce a un conjunto de ponderaciones para cada réplica además de las ponderaciones
de muestra completa generadas para la estimación de la varianza lineal (Sección 15.3). Estos
pesos se adjuntan al registro de cada unidad de muestra y se utilizan para calcular las
estimaciones repetidas.
En las secciones subsiguientes se revisan tres tipos de estimadores de varianza
replicados. Para cada uno, proporcionamos una descripción general de los procedimientos
para calcular los pesos correspondientes, referencias para los detalles teóricos y las ventajas
y limitaciones.

15.4.1 Replicación Jackknife

El método jackknife básico crea repeticiones descartando una unidad de primera etapa y
volviendo a ponderar las unidades restantes para producir una estimación de población completa.
Por ejemplo, si se elimina la unidad i de n unidades de primera etapa, entonces el peso de la
unidad k es
Machine Translated by Google

15.4 Replicación 419


norte

dk(yo) = norte - 1 dk,

donde (n ÿ 1)/n es la fracción de submuestreo o probabilidad de retener las n ÿ 1 unidades de primera


el
etapa en la muestra i replicada. El total estimado para una variable y basada en la réplica i es

t ˆ(i) = dk(i)yk,
kÿs(i)

donde s (i) denota el conjunto de unidades de muestra excluyendo la unidad i. El estimador de


varianza de jackknife se calcula a través de las estimaciones de n réplicas usando

norte

nÿ1 2
vJ = t ˆ(i) ÿ t , (15.9)
norte

yo=1

donde t ˆ= dkyk, la estimación de muestra completa de t = dkyk. Existen


kÿs kÿU
algunas otras variaciones de la navaja derivadas de centrar las estimaciones replicadas en torno a la
media de las t ˆ(i) y algunas otras opciones (p. ej., véase Krewski y Rao 1981). Todos estos son
numéricamente casi iguales en muestras grandes.

Como ejemplo, considere el estimador de un total de un simple aleatorio


muestra, t ˆ= Ny¯s. La expresión (15.9) se reduce a

N2 2
(yk ÿ y¯s) ,
norte (n ÿ 1) s

que es la fórmula estándar para la varianza de t ˆin srswr. Dado que este estimador de varianza se
ˆ
puede calcular directamente, el jackknife no tiene ninguna ventaja para t Ny¯s ni para ningún otro =
estimador lineal.
El beneficio de la navaja es que es aproximadamente imparcial y consistente para la varianza de
los estimadores no lineales. Si el estimador no lineal, ˆÿ = ft ˆ1,...,t ˆp , unidad i y calculando ˆÿ(i) = ft
1(i),...,t ˆÿ(2), ..., ˆÿ(n) sese está analizando,
calcula el jackknife
correspondiente se construye
a la eliminación eliminando
de cada una de las n unidades de
ˆ ˆ
la muestra. Cada estimación duplicada tienecompleta.la misma Luego,
forma
p(yo) que
. los
Cadala
resultados
estimación
réplica se de
estimareemplazan
la muestraen la Ec.
ˆÿ(1),

(15.9) para estimar la varianza.

Si se selecciona una muestra de varias etapas, "eliminar una unidad" significa "eliminar una PSU".
Al eliminar una PSU, queremos decir que todas las unidades de muestra en una PSU se eliminan
cuando se elimina la PSU. Dejar caer una unidad a la vez desde dentro de una PSU dará estimaciones
de varianza incorrectas. Con un diseño multietapa estratificado, se omite una PSU a la vez para crear
una réplica, y el ajuste de peso para una réplica se aplica solo a las PSU dentro del estrato donde se
dejó caer una PSU. Suponga que la PSU i en el estrato h (h = 1,...,H) se elimina para formar una
réplica (hi). Denote el peso base ajustado para la unidad k en la réplica (hi) por dk (hi). Luego, los
pesos base dk se ajustan de esta manera:
Machine Translated by Google

420 15 Estimación de la varianza

ÿ0 si la unidad k está en la UPM i en el estrato


nh
dk(hola) = ÿ dk h, si la unidad k está en el estrato h pero no en la UPM (15.10)
nhÿ1
ÿ dk i, si la unidad k no está en el estrato h.

En otras palabras, todas las unidades en la UPM eliminada hi tienen sus ponderaciones
establecidas en 0. Todas las unidades en las otras UPM (nh ÿ 1) dentro del estrato h tienen sus
ponderaciones base multiplicadas por nh/ (nh ÿ 1), el inverso de la fracción de submuestreo dentro
del estrato. Las unidades en los estratos donde no se dejó caer ninguna fuente de alimentación
conservan su peso original. Por lo tanto, los pesos de las unidades retenidas en el estrato h se
ajustan para representar el estrato completo y los pesos de las unidades en otros estratos se dejan
como están.
Luego, los pesos ajustados se usan de la misma manera que lo harían en una muestra de una
sola etapa para calcular una estimación replicada denotada por ˆÿ(hi). El estimador de varianza
jackknife estratificado es entonces

nh ÿ 1 2
vJ ˆÿ = ˆÿ(hola) ÿ ˆÿ , (15.11)
Nueva Hampshire

h iÿsh

donde sh denota la muestra de UPM en el estrato h y ˆÿ es la estimación de la muestra completa


calculada, por ejemplo, con la ponderación de linealización o como el promedio ponderado de las
estimaciones replicadas. La expresión (15.11) a veces se denomina fórmula JKn. Dado que se
elimina una PSU para formar cada réplica, el número total de réplicas en JKn es igual al número
de PSU de muestra. Como en el caso no estratificado, existen otras opciones sobre cómo se
puede centrar la estimación de la varianza. Pero, mientras la muestra de PSU sea grande, serán
numéricamente similares.

Casos especiales

Hay dos casos especiales de la navaja que a veces surgen en la literatura que merecen una breve
discusión. Uno es el jackknife no estratificado, presentado al comienzo de esta sección, que a
veces se denomina JK1.
Este es realmente solo un caso especial de JKn con un estrato. Dos PSU de muestra en cada
estrato conducen a otro caso especial. Cuando nh = 2, la fórmula JKn para un total estimado, t ˆ=
dkyk, se reduce a h 2 i=1 kÿshi

ˆ 2
vjt _ = Yˆh1 ÿ Yˆh2 , (15.12)
h

donde Yˆhi = dkyk como


kÿshi se define a continuación (15.4). Expression (15.12) se conoce como JK2
y solo está disponible en WesVar. Dado que JK2 solo requiere eliminar la primera PSU en cada
estrato, es importante evitar numerar las PSU como 1 y 2 de forma sistemática. Por ejemplo, si la
UPM 1 es siempre la de menor tamaño poblacional y el tamaño está relacionado con las variables
de análisis, entonces JK2 puede estar sesgado. Como resultado, es una buena idea numerar
aleatoriamente las PSU como 1 o 2 dentro de cada estrato.
Machine Translated by Google

15.4 Replicación 421

El estimador de varianza JK2 no tiene un apoyo teórico particular para los estimadores
no lineales, pero conduce a que se utilicen menos réplicas que en JKn.
Dentro de JKn, se necesitarían 2H repeticiones en un diseño de 2 por estrato donde H es el
número de estratos. En JK2 solo se necesitan réplicas H. Esto podría ser un gran ahorro si
el número de estratos es grande. Sin embargo, el método BRR que se tratará en la Secc.
15.4.2 se aplica en el caso de 2 unidades por estrato y se ha demostrado que funciona para
estimadores no lineales y para cuantiles como la mediana.
Ni JKn ni JK2 convergen a la varianza correcta para los cuantiles. BRR también requiere
solo un poco más de repeticiones que JK2. Por lo tanto, no parece haber una buena razón
para usar JK2 en ninguna aplicación.

Estimación y replicación de dominios

Jackknife, BRR y bootstrap manejan correctamente la estimación del dominio sin realizar la
codificación cero explícita para los miembros que no pertenecen al dominio que se necesitaba
para la linealización. El uso de la variable recodificada, yk (d) = 0 para unidades fuera del
dominio y yk para unidades de dominio, sigue siendo correcto para la replicación.
Pero, esto es equivalente a eliminar las unidades codificadas en cero al calcular ˆÿ(hi) y ˆÿ
para usar en la ecuación. (15.11). Descartar las unidades que no pertenecen al dominio es
la forma estándar de calcular las estimaciones de varianza jackknife (o BRR o bootstrap).
Recuerde que eliminar las unidades que no pertenecen al dominio y calcular una estimación
de la varianza de linealización de ese subconjunto del archivo generalmente sería un error.

Suposiciones, ventajas y limitaciones

Los supuestos para que el jackknife sea aproximadamente insesgado y consistente para la
varianza de un estimador no lineal son los mismos que para la linealización: la muestra de
la PSU debe ser grande, la variable de análisis y no tiene valores atípicos extremos y no es
muy variable, y debe ser posible tomar todas las primeras derivadas de la función no lineal.
Krewski y Rao (1981) dan el conjunto completo de condiciones técnicas. La teoría de la
navaja básicamente dice que es equivalente al estimador de linealización en muestras muy
grandes. Por lo tanto, en cualquier lugar donde funcione la linealización, la navaja debería
funcionar.
La gran ventaja de jackknife (y BRR y bootstrap) es que también puede reflejar
implícitamente los efectos sobre las variaciones de la falta de respuesta y los ajustes de
calibración. Si se utiliza un procedimiento de ajuste por falta de respuesta para la muestra
completa, se debe realizar el mismo procedimiento por separado para cada repetición del
peso. Por ejemplo, si se utiliza la calibración, digamos a través de postestratificación o
GREG, también se debe realizar por separado para cada réplica. La razón por la que el
jackknife refleja estos ajustes es que incluso con una serie de ajustes no lineales, muchos
estimadores pueden escribirse de la forma ˆÿ = ft ˆ1,...,t ˆp . Por ejemplo, el estimador
posestratificado, Tˆ
=
PD Gÿ=1
Nÿ t ˆyÿ Nˆÿ , es una función de los totales estimados 2G—
Machine Translated by Google

422 15 Estimación de la varianza

t ˆy1,...,t ˆyG, Nˆ1,..., NˆG. Si, además, se utilizan ajustes por falta de respuesta dentro
de las celdas, esto simplemente agrega algunos totales estimados más a la f no lineal.
El software disponible que realiza la estimación de la varianza de la linealización, por
lo general, no tiene en cuenta los efectos de las múltiples etapas del ajuste del peso.
Las razones de esto son dos: (i) el sustituto lineal apropiado que representa todas las
etapas del muestreo no está programado y (ii) los usuarios generalmente no pueden
proporcionar toda la información que sería necesaria para que el software calcule el
sustituto lineal apropiado. Con una estimación de la varianza de la réplica como la navaja,
todo lo que se necesita es volver a calcular cada ajuste por separado para cada réplica.
El jackknife implícitamente estima la varianza de la aproximación lineal para un estimador
no lineal complicado y, por lo tanto, implícitamente da cuenta de todos los pasos de
ajuste. En consecuencia, si el constructor de la base de datos ha calculado los pesos
replicados de esta manera, cualquier analista puede usarlos y obtener estimaciones de
varianza correctas.
Los paquetes de software que calcularán los pesos base de las réplicas de jackknife
utilizando el archivo de muestra completo incluyen R Survey, WesVar y el paquete svr,
que es un complemento de Stata (invierno de 2002). Estos paquetes también calcularán
los pesos base de BRR, que se tratarán más adelante en este capítulo. Cualquier ajuste
de peso adicional que se aplique a los pesos de la muestra completa para abordar la falta
de respuesta o la calibración deberá aplicarse como un segundo paso a cada peso base
replicado. Otros paquetes de software requieren los pesos replicados finalizados como
entradas para los procedimientos.

Ejemplo 15.9 (estimación de la varianza JKn). En este ejemplo, mostramos la sintaxis


necesaria en R para realizar la tabulación del Ejemplo 15.6 utilizando la estimación de
varianza JKn. Como en el ejemplo anterior, creamos un objeto de diseño llamado
nhis.dsgn. Luego, los pesos JKn se calculan llamando a la función as.svrepdesign.

# crear un objeto de diseño nhis.dsgn


<- svydesign(ids = ˜psu,
estratos = ˜estrato, nido =
VERDADERO, datos =
nhis.grande, pesos =
˜svywt)
#JKn
jkn.dsgn <- as.svrepdesign(diseño = nhis.dsgn, tipo = "JKn") # tabla unidireccional a <-
svymean(˜factor(age.grp), deff=TRUE, design=jkn.dsgn) ftable (a, nombres de
fila = lista (edad = c ("< 18", "18-24", "25-44", "45-64", "65+"))))

Los resultados de esta tabla son exactamente los mismos con tres decimales que los de
la linealización del ejemplo 15.6 y no se muestran. Los ajustes de ponderación utilizados
para la estimación de la varianza JKn se pueden examinar con la función de extractor

pesos(jkn.dsgn)
Machine Translated by Google

15.4 Replicación 423

La muestra nhis.large es un diseño de 2 PSU por estrato. La función como. svrepdesign


realiza un ajuste de peso de 2 al peso de cada unidad en la PSU que se retiene en un
estrato particular para una réplica. El peso de cada unidad en una PSU eliminada se
establece en 0. El peso de las PSU en estratos donde no se elimina ninguna PSU no
cambia. La dimensión de pesos(jkn.dsgn) es 21588 × 150, es decir, el número de
personas en el archivo por el doble del número de estratos.

Ejemplo 15.10 (JKn con ajustes de celda sin respuesta). Como se discutió anteriormente,
los ajustes por falta de respuesta deben aplicarse por separado para las réplicas a fin de
reflejar sus efectos en las varianzas. En este ejemplo, usamos este conjunto de datos y
las clases de ajuste de falta de respuesta determinadas usando rpart en la Secc. 13.5.3.
A continuación se muestran algunos fragmentos del código R. El programa completo se
encuentra en el archivo Ejemplo 15.10 JKn NR.R. El código usa los paquetes rpart y
doBy además de encuesta.

# crear un objeto de diseño nhis.dsgn


<- svydesign(ids = ˜psu,
estratos = ˜estrato, nido =
VERDADERO, datos = nhis,
pesos = ˜svywt)

#JKn
jkn.dsgn <- as.svrepdesign(diseño = nhis.dsgn,
tipo = "JKn")
# Calcular un árbol usando rpart; código no mostrado
# Almacenar celdas en t1$donde # agregar
clases NR a este objeto
nhis.NR <- data.frame(nhis, NR.class=t1$where)
# ajustes de peso para JKn (los valores son 0, 1 o 2)
JKwtadj <- pesos(jkn.dsgn) nreps <-
ncol(JKwtadj) fswts <- nhis$svywt rep.adjwt
<- matriz(0, nrow=nrow(JKwtadj), ncol=nreps)

# calcular los ajustes de NR para la muestra completa


wt.rr <- by(data = data.frame(resp = as.numeric(nhis$resp), wt =fswts), nhis.NR$NR.class,
function(x) {weighted.mean(x$resp, x$wt)}) tmp1 <-
cbind(NR.class=as.numeric(nombres(wt.rr)), wt.rr)

sam.nr <- merge(nhis.NR, data.frame(tmp1), by = "NR.class") sam.nr$fs.adjwt <- sam.nr$svywt /


sam.nr$wt.rr sam. nr <- data.frame(ID = sam.nr$ID, fs.adjwt = sam.nr$fs.adjwt, wt.rr = sam.nr$wt.rr)
sam.nr <- orderBy(˜ID, data =sam.nr) fs.adjwt <- sam.nr$fs.adjwt

# calcula los ajustes de NR para cada réplica para (r en 1:nreps){


Machine Translated by Google

424 15 Estimación de la varianza

adjwts <- fswts * JKwtadj[,r]


# peso RR; adjwts=0 para unidades no replicadas wt.rr <- by(data =
data.frame(resp = as.numeric(nhis.NR$resp), wt = adjwts), nhis.NR$NR.class, function(x )
{media.ponderada(x$resp, x$wt)})

tmp1 <- cbind(NR.class=as.numeric(nombres(wt.rr)), wt.rr)

sam.nr <- merge(nhis.NR, data.frame(tmp1), by = "NR.class") sam.nr <- data.frame(sam.nr, wt.rr


= sam.nr$wt.rr ) sam.nr <- orderBy(˜ID, data=sam.nr) # ajustar rep wts para NR rep.adjwt[,r] <-
adjwts / sam.nr$wt.rr

# asignar nombres a las columnas rep.adjwt y # agregar


ponderaciones ajustadas por NR en este archivo de datos rname <-
vector("carácter", longitud=nreps) for (r en 1:nreps){

rnombre[r] <- pegar("repwt",r,sep="")

} dimnames(rep.adjwt)[[2]] <- rname

R <- nhis$resp == 1 nhis.NR <-


cbind(nhis[R==1, ], fs.adjwt=fs.adjwt[R==1],
rep.adjwt[R==1,]) # extraer
wts solo para los encuestados rep.adjwt <- rep.adjwt[R==1,]

# Objeto de diseño JKn con pesos ajustados por NR


jkn.NR.dsgn <- svrepdesign(datos = nhis.NR[,1:16],
repweights = rep.adjwt, tipo = "JKn",
pesos = nhis.NR$fs.adjwt,
combine.weights = TRUE, scale = 1, rscales
= rep(1/2,nreps))

svytotal(˜factor(edad_r), diseño=jkn.NR.dsgn) a <- svymean(˜factor(edad_r),


diseño=jkn.NR.dsgn) b <- ftable(a, nombres de fila = lista(edad_r = c( "18-24
años",
"25-44 años","45-64 años","65-69 años","70-74 años","75 años y
más")))
redondo (b, 4)

18-24 años media 0.1281


SE 0.0070
25-44 años media 0.3984
SE 0.0097
45-64 años media 0.3153
SE 0.0096
65-69 años media 0.0434
SE 0.0038
Machine Translated by Google

15.4 Replicación 425

70-74 años media 0,0417 0,0044


SE
75 años y más media 0,0731 0,0058
SE

En primer lugar, se crea un objeto de diseño de encuesta, jkn.dsgn, con pesos


replicados JKn. El conjunto de datos de nhis tiene 87 estratos y 2 UPM de muestra por estrato.
En consecuencia, hay 174 réplicas de JKn. El objeto JKwtadj contiene los ajustes de
peso para cada réplica, no los pesos ajustados en sí.
En un diseño de 2 PSU por estrato, los ajustes de JKn son 0, 1 o 2, es decir, el caso
especial de la ecuación. (15.10) con nh = 2. En este ejemplo, el ajuste por falta de
respuesta en cada clase es el inverso de la tasa de respuesta ponderada, calculada
usando la función, ponderada.media, para la muestra completa y para cada una de las
nreps=174 repeticiones . Usamos la función by para obtener la tasa de respuesta en
cada clase.
Luego se crea otro objeto de diseño usando svrepdesign. El parámetro,
combine.weights = TRUE, significa que las ponderaciones de las réplicas incluyen las
ponderaciones de la muestra completa y los ajustes utilizados al formar las réplicas. Los
parámetros scale y rscales se relacionan con la forma en que R Survey forma la fórmula
de la varianza replicada. Como se describe en Lumley (2010, Secc. 2.3.1), la fórmula
utilizada es

METRO

2
var ˆÿ = a• aa ÿÿ ÿ ¯ÿÿ
ÿ
,
ÿ=1

donde ÿ denota una réplica, a• es el parámetro de escala, aÿ es el rscales es una


estimaciones. Para
ÿ
estimación
que esto corresponda
de réplica, y ¯ÿÿ
a laes
Ec.la(15.11),
media del
establecemos
parámetro de
A=réplica,
1 y ar ÿÿ
= (nh
ÿ 1) /nh = 1/2. La estimación de la varianza replicada se centra en torno a la media de
las estimaciones replicadas, a diferencia de la varianza en la ecuación. (15.11) que se
centra en la estimación de la muestra completa. La varianza centrada en la media será
algo menor que la centrada en la estimación de la muestra completa. Sin embargo, la
diferencia será leve cuando la muestra de PSU sea grande. En este caso, los SE de JKn
que dan cuenta del ajuste por falta de respuesta son muy poco diferentes de los SE de
linealización que lo ignoran. Puede verificar esto con el código del Ejemplo 15.10 JKn
NR.R.

Ejemplo 15.11 (JKn con posestratificación). El efecto de la calibración también se puede


reflejar con un estimador de varianza jackknife. El ajuste posterior a la estratificación
debe repetirse por separado para cada réplica. Ilustramos el cálculo en R con el mismo
ejemplo de posestratificación que se usó en los Ejemplos 15.2 y 15.7. La lista completa
del código R se encuentra en el Ejemplo 15.11 JKn poststrat.R. Se crea un objeto de
diseño llamado nhis.dsgn como en el Ejemplo 15.7; as.svrepdesign crea el diseño
jackknife no estratificado, que se especifica mediante type="JK1". Los pesos de jackknife
posestratificados se calculan con postStratify utilizando los totales de posestrato
almacenados en N.PS.
Machine Translated by Google

426 15 Estimación de la varianza

jk1.dsgn <- as.svrepdesign(design = nhis.dsgn, type = "JK1") # objeto de diseño posestratificado jk1.ps.dsgn
<- postStratify(design = jk1.dsgn,

estratos = ˜PS,
población = N.PS)

# Verifique que los pesos estén calibrados para x's svytotal(˜ as.factor(PS),
jk1.ps.dsgn)
# Errores estándar de PS y CV
svytotal(˜ as.factor(medicaid), jk1.ps.dsgn, na.rm=TRUE) total
SE
como.factor(medicaid)1 1870.8 390.60 como.factor(medicaid)2
19467.6 416.89

Los resultados de la línea, svytotal( as.factor(PS), jk1.ps.dsgn), que no se enumeran aquí,


muestran que el SE del número total estimado de personas en cada posestrato es 0,
como debería ser.
En este ejemplo, el SE jackknife para el total de personas que reciben Medicaid es
algo mayor que la estimación de linealización que ignora la estratificación posterior
(390,60 arriba frente a 384,73 en el Ejemplo 15.7). El SE jackknife para las personas que
no reciben Medicaid es menor que la estimación de linealización que ignora la
posestratificación (416,89 frente a 470,38 en el ejemplo 15.7). Esta aparente contradicción
es un reflejo del hecho de que las estimaciones del error estándar son solo eso:
estimaciones. Las ganancias esperadas debido a la estratificación no necesariamente se
manifiestan en el SE para cada estimación. Además, no se garantiza que la
posestratificación reduzca los EE para todas las estimaciones, solo aquellas para las
variables que están relacionadas con las que se usan para crear los postestratos.

15.4.2 Replicación repetida equilibrada

La replicación repetida equilibrada (BRR) o medio muestreo equilibrado es un método


ideado por McCarthy (1969) para diseños en los que se seleccionan dos UPM en cada
estrato. Este tipo de diseño es común en muestras de probabilidad de área donde el
objetivo suele ser distribuir las UPM geográficamente tanto como sea posible.
El número de estratos y la dispersión geográfica se pueden maximizar seleccionando
solo 1 UPM por estrato. Sin embargo, un diseño de uno por estrato no permite estimar un
componente de varianza dentro del estrato, mientras que un diseño de dos por estrato sí
lo permite. Generalmente, cuando se selecciona una muestra de 1 UPM por estrato, los
estratos que contienen cada uno de ellos una UPM se emparejan para formar “estratos
analíticos” siguiendo el orden en que se seleccionaron las UPM. Luego se trata el diseño
como si fueran 2 UPM por estrato. En ese caso, BRR se puede aplicar a los estratos
combinados.
Cuando nh = 2, sería posible formar una estimación de la varianza de la replicación
seleccionando al azar una de las dos UPM de cada estrato y haciéndolo varias veces.
Sin embargo, habría 2H medias muestras posibles que podrían seleccionarse
aleatoriamente. McCarthy ideó un método ingenioso que, para lineal
Machine Translated by Google

15.4 Replicación 427

estimadores, produce la misma estimación de la varianza que se obtendría al seleccionar


todas las medias muestras 2H , pero toma muchas menos repeticiones. Las réplicas se
designan de una manera prescrita usando algo llamado matriz de Hadamard.
El número de réplicas, A, necesario es el múltiplo más pequeño de 4 que sea mayor o
igual que el número de estratos, es decir, H ÿ A ÿ H + 3. Un conjunto de réplicas que
sigue esta prescripción se llama conjunto ortogonal. Los ahorros en el número de
réplicas en comparación con el uso de todas las medias muestras 2H son sustanciales.
Los ahorros aumentan drásticamente a medida que aumenta H, como lo demuestra esta
tabla:

HA 5 2H
8 32 10 12 1.024
20 24 1.048.576

Las matrices de Hadamard generalmente se representan con +1 y -1. Un ejemplo de 4


× 4 es
+1 +1 +1 +1
ÿ +1 ÿ1 +1 ÿ1 ÿ
H= .
+1 +1 ÿ1 ÿ1
ÿÿÿ
+1 ÿ1 ÿ1 +1 ÿÿÿ

Las filas son para estratos; las columnas son para réplicas. La primera columna que
tiene todos +1 significa que la primera fuente de alimentación de cada estrato debe
seleccionarse para la categoría de réplica 1. La segunda columna de (+1, ÿ1, +1, ÿ1)
significa que la segunda réplica contiene la fuente de alimentación 1 del estrato 1, PSU
2 del estrato 2, PSU 1 del estrato 3 y PSU 2 del estrato 4. Si H = 4, el número de
réplicas necesarias para un conjunto ortogonal es 4.
También existe un concepto llamado balance ortogonal completo para el cual el número de
medias muestras debe ser divisible por 4 pero debe ser estrictamente mayor que H. El balance
ortogonal completo da como resultado que el promedio de las estimaciones replicadas sea igual
a la estimación de la muestra completa para los estimadores lineales. (pero no para estimadores
no lineales). Los paquetes R Survey y WesVar calculan conjuntos ortogonales de ponderaciones
base BRR y ninguno calcula los conjuntos balanceados ortogonalmente completos. Al igual que
con las ponderaciones jackknife, el conjunto final de ponderaciones BRR analíticas se calcula a
partir de las ponderaciones base después de aplicar los ajustes utilizados para generar la
ponderación de la muestra completa. Hasta la fecha, otros paquetes de software dependen del
analista para proporcionar las ponderaciones BRR finales.
Al igual que la navaja, eliminar una fuente de alimentación significa que se elimina toda la
muestra dentro de la fuente de alimentación. Los pesos base para las unidades en las PSU
que se retienen se multiplican por 2. Por lo tanto, los pesos para las unidades en la réplica ÿ son

si la unidad k está en una UPM que no está en la media muestra,


dk(ÿ) = / 02dk si la unidad k está en una UPM que está en la media muestra.

Los pesos ajustados se utilizan luego para calcular una estimación replicada denotada
por ˆÿÿ. Si la estimación de la muestra completa tiene la forma ˆÿ = ft ˆ1,...,t ˆp , entonces
Machine Translated by Google

428 15 Estimación de la varianza

la estimación de la mitad de la muestra es ˆÿÿ = ft ˆ1ÿ,...,t ˆpÿ donde t ˆjÿ es el total estimado
para la j-ésima variable con base en las unidades de la mitad de la muestra ÿ. El estimador de
varianza BRR es entonces
A
2
ˆÿ = Aÿ1 ˆÿÿ ÿ ˆÿ . (15.13)
vBRR
ÿ=1

El estimador de varianza se puede centrar en cantidades distintas a la estimación de la muestra


completa, pero todas serán similares cuando el número de estratos sea grande. De hecho, el
paquete de encuestas R usa la media de las estimaciones replicadas en la ecuación. (15.13) en
lugar de ˆÿ. WesVar, por otro lado, usa la estimación de muestra completa como en la ecuación.
(15.13).

Fay BRR

Un problema potencial con el BRR estándar es que la mitad de la muestra se elimina para
formar una réplica. Esto puede conducir a la inestabilidad de las estimaciones de dominio. Si un
dominio ocurre solo en un subconjunto de las UPM, todas las unidades de muestra en el dominio
podrían descartarse en una réplica particular. Aunque esto no sesgará el estimador de varianza,
hará que el propio estimador de varianza sea inestable, es decir, la varianza del estimador de
varianza puede ser innecesariamente alta.

Una modificación de BRR debida a Robert Fay (Fay 1984; Dippo et al. 1984; Judkins 1990)
aborda este problema. En lugar de dejar caer una fuente de alimentación por completo, el Fay
BRR simplemente la reduce. Las medias muestras se identifican usando una matriz de Hadamard
como se indicó anteriormente. Los pesos se calculan entonces como

si la unidad k está en una UPM que no está en la media


dk(ÿ) = / ÿdk (2 ÿ ÿ) n muestra, si la unidad k está en una UPM que está en la media
muestra,
(15.14) donde 0 ÿ ÿ < 1. Si ÿ = 0, este es el estándar BRR. Si, por ejemplo, ÿ = 0,5, las
ponderaciones de las UPM en una media muestra se multiplican por 1,5; los pesos de las
unidades en las otras UPM se multiplican por 0,5. Otra opción, que Judkins (1990) encontró que
funciona bien, es ÿ = 0,3.
El Fay BRR resuelve el problema del dominio pequeño porque ninguna fuente de
alimentación se elimina por completo de la muestra. Incluso si el dominio tiene pocos casos de
muestra, siempre estará en cada réplica.

Suposiciones, ventajas y limitaciones

El estimador de varianza BRR es aproximadamente imparcial y consistente para la varianza de


las estimaciones no lineales, como lo es el jackknife. Los supuestos son similares a los de los
estimadores de linealización y jackknife. Para la teoría de muestras grandes, el requisito es que
el número de estratos H sea grande, ya que cada estrato debe tener nh = 2 UPM.
Machine Translated by Google

15.4 Replicación 429

Una característica importante de BRR y Fay BRR es que ambos proporcionan


estimaciones legítimas de la varianza de un cuantil, a diferencia de la navaja. Rao y
Wu (1985) y Rao y Shao (1999) proporcionan el apoyo teórico.
Una propiedad clave que BRR comparte con el jackknife es que puede usarse para
reflejar múltiples etapas de ajuste de peso, como ajuste y calibración de falta de
respuesta. Siempre que el constructor de la base de datos rehaga los pasos de
ponderación por separado para cada réplica, BRR proporcionará estimadores de varianza correctos.

Ejemplo 15.12 (estimación de la varianza BRR). El diseño nhis.large es de 2 PSU por


estrato. Por lo tanto, BRR es apropiado. En R, los objetos de diseño BRR y Fay-BRR
se pueden crear a partir del objeto nhis.dsgn utilizado en los ejemplos anteriores. El
siguiente código crea un objeto para BRR estándar llamando a as.svrepdesign con
type="BRR" y otro objeto para Fay BRR usando type="Fay". El parámetro ÿ para Fay
BRR está definido por fay.rho = 0.3.

brr.dsgn <- as.svrepdesign(diseño = nhis.dsgn, tipo = "BRR") faybrr.dsgn <- as.svrepdesign(diseño =


nhis.dsgn,
tipo = "Fay", fay.rho = 0.3)

Los ajustes de peso se pueden examinar con


pesos(brr.dsgn) o pesos(fay.brr.dsgn).
En este caso la dimensión de la matriz de ajuste de peso es de 21588 × 80 siendo 80
el tamaño de la matriz de Hadamard que se utilizó. Aunque el diseño del NHIS tiene
75 estratos y el múltiplo de 4 más pequeño mayor o igual a 75 es 76, una matriz de
Hadamard de dimensión 80 es la que tiene disponible R.

Ejemplo 15.13 (varianza cuantil con BRR). BRR y Fay BRR se pueden utilizar para
estimar los SE de los cuantiles. El siguiente código usa smho.N874 y estratifica la
población por una medida de tamaño basada en BEDS. BEDS se recodifica para
eliminar los valores cero. Luego se forman los estratos y se selecciona un stsrswor.
El método de estratificación es el descrito en la Secc. 3.2.1 donde la población se
clasifica por tamaño y se forman estratos para que cada uno tenga aproximadamente
la misma medida total de tamaño. La función de corte es útil para esto. La selección
de un stsrswor es muy similar al muestreo de pps. En este ejemplo, formamos 25
estratos y seleccionamos 2 hospitales de muestra por estrato para un total de 50.

x <- smho.N874$BEDS x[x <=


10] <- 10 x <- sqrt(x) smho.N874
<- smho.N874[order(x), ] x <-
sort(x)

N <- nfila(smho.N874)
n <- 50
H <- 25

cumx <- cumx(x) tamaño <-


cumx[N]/H
Machine Translated by Google

430 15 Estimación de la varianza

brks <- (0:H)*size strat <-


cut(cumx, breaks = brks, label = 1:H) pop <- data.frame(smho.N874,
strat = strat) set.seed(428274453) sam < - strata(data = pop,
stratanames = "strat", size = rep(2,H), method=c("srswor")) sam.dat <-
pop[sam$ID\_unit,] d <- 1/ sam$Prob smho.dsgn <- svydesign(ids = ˜0,
strata = ˜strat, data = sam.dat, fpc = sam$Prob,
pesos = ˜d) smho.BRR.dsgn <- as.svrepdesign(design
= smho.dsgn, tipo = "BRR") smho.FayBRR.dsgn <- as.svrepdesign(diseño
= smho.dsgn, tipo = "Fay", fay.rho = 0.3)

svyquantile(˜EXPTOTAL, diseño = smho.BRR.dsgn, cuantil=0.5, intervalo.tipo="cuantil")

svyquantile(˜EXPTOTAL, diseño = smho.FayBRR.dsgn, cuantil=0.5,


intervalo.tipo="cuantil")

Se utilizaron dos versiones de BRR: BRR estándar y BRR de Fay con ÿ = 0,3.
Una cosa a tener en cuenta es que los objetos de replicación en R no usarán
fpc. Aunque los fpc de nivel de estrato se encuentran en el objeto smho.dsgn
anterior, se eliminan cuando se crean los objetos de diseño BRR. El paquete de
la encuesta le advertirá que esto está sucediendo. Los resultados de svyquantile
son que la mediana es 6 966 393 con SE estimados de 1 015 020 con BRR y 1
009 630 con Fay BRR. Los CV estimados con los dos métodos son 14,6 % y
14,5 %, muy próximos entre sí.

15.4.3 Arranque

El bootstrap, inventado por Efron (1982), se ha vuelto extremadamente popular


en las estadísticas que no son de encuestas porque es fácil de calcular y parece
ser bueno para todo. La idea general es nuevamente seleccionar submuestras
de la muestra completa, hacer esto muchas veces y resumir las propiedades de
una estadística en las submuestras. Hay varias variaciones que se han propuesto
para el bootstrap para la estimación de población finita. Uno debido a Rao H y
Wu
(1988) se aplica a un diseño multietapa estratificado con n = h = 1 nh PSU
muestreadas y utiliza los siguientes pasos. Hay algunas variaciones en el
arranque para la estimación de población finita (p. ej., Saigo et al. 2001; Shao y
Sitter 1996; Sitter 1992), pero actualmente solo la versión Rao-Wu está disponible
en cualquier paquete de software.
Machine Translated by Google

15.4 Replicación 431

(1) En cada estrato, extraiga una srswr de mh PSU de la muestra inicial nh , indique el número
PSU. Sea mÿ de vecesnhque se selecciona la PSU i de = mh. Tenga en cuenta que
i=1
hola estrato h para que m* hola mÿ = 0 para las UPM no seleccionadas
hola muestra de
para
arranque.
la
Cree una ponderación replicada para cada unidad de muestra k dentro de las UPM de la
muestra inicial (k ÿ shi) como
mh
nh
d*k mh (nhÿ1)0 + (nhÿ1) hola mh
mÿ
= dk /1 ÿ ,
= dkBhi

donde Bhi está definida por la última igualdad. Esto se calcula para las unidades de todas
las UPM de muestra, no solo para las de la muestra inicial. Siempre que mh ÿ (nh ÿ 1),
todos esos pesos serán no negativos, pero no de otro modo.
(2) Calcular ˆÿ, la estimación deseada, utilizando pesos dÿ (3) k en lugar de dk.
Repetir este proceso B > 1 vez. Denota el bootstrap correspondiente
estimaciones muestrales como ˆÿ(1), ˆÿ(2),... ˆÿ(B).

Nos referiremos al proceso en los pasos 1 a 3 como el arranque de Rao-Wu. El estimador de


varianza bootstrap es

B
Una
2
vboot ˆÿ = ˆÿ(b) ÿ ˆÿ .
si
si=1

Podemos elegir mh para que sea cualquier valor mayor o igual a 1. La elección más simple es
mh = nh ÿ 1, en cuyo caso

Nueva Hampshire

d*k = ns
(nh ÿ 1)mÿ hola.

Por lo tanto, las unidades no incluidas en una réplica bootstrap dada obtienen peso 0, las
incluidas exactamente una vez obtienen peso

Nueva Hampshire

dk ,
nh ÿ 1

aquellos en dos veces obtienen


2nh
dk (nh ÿ 1),

y así. Si mh = nh ÿ 1, entonces las unidades no incluidas en la muestra bootstrap obtienen


ponderaciones distintas de cero, como en el Fay BRR. Si mh = nh, entonces un peso bootstrap
puede incluso ser negativo ya que 1 ÿ nh/ (nh ÿ 1) < 0.
Vale la pena examinar el caso de dos PSU por estrato, ya que vimos anteriormente que
BRR nos brindó una forma especialmente eficiente de formar réplicas. Si mh = nhÿ1 y nh = 2,
entonces mh = 1. Por lo tanto, el bootstrap es como BRR en este caso, pero sin el control sobre
el número de repeticiones. Solo para estimar la varianza de una estadística, BRR es una opción
más económica en el caso de 2 por estrato. Pero, el bootstrap tiene ventajas incluso en ese
caso, particularmente para construir intervalos de confianza, como se describe a continuación.
Machine Translated by Google

432 15 Estimación de la varianza

Suposiciones, ventajas y limitaciones

El bootstrap de Rao-Wu proporciona un estimador consistente y aproximadamente


imparcial de la varianza de las estadísticas no lineales y de la varianza de un cuantil. Los
supuestos para derivar la teoría de bootstrap son los mismos que para jackknife y BRR.
En particular, para muestras de etapas múltiples, se supone que las UPM se seleccionan
con reemplazo. Rao y Wu (1988) dan algunas formas especializadas de construir las
estimaciones de arranque que darán cuenta de algunos tipos de diseños que utilizan
muestreo sin reemplazo. Sin embargo, estos no están disponibles en el software que
cubrimos.
Un importante punto de venta del bootstrap es que se puede usar para aproximar la
distribución completa de una estadística, ˆÿ, no solo su varianza. Tomando muchas
muestras de arranque y calculando una estimación de cada una, se puede formar una
distribución empírica de ˆÿ. Un intervalo de confianza para ÿ se puede construir de una de
dos maneras:

(i) Método de percentil Bootstrap. Ordene las estimaciones de bootstrap de menor a


mayor. El límite de confianza inferior de 100 (ÿ/2) % para ÿ es el punto de 100 (ÿ/2)
% de la distribución empírica de las estimaciones de arranque. El 100 (1 ÿ ÿ/2)
punto % superior de la distribución empírica es el límite de confianza superior. (ii)
Método bootstrap estudentizado. En cada muestra de arranque, calcule t(b) = ˆÿ(b)
ÿ ˆÿ ÿv(b) donde v(b) es una estimación de la varianza de ˆÿ(b) basada únicamente en la

b-ésima muestra de arranque. El valor de v(b) podría generarse a partir de cualquier


estimador consistente apropiado para el diseño, por ejemplo, linealización, jackknife
o BRR. Después de determinar los puntos 100 (ÿ/2) % y 100 (1 ÿ ÿ/2) %, así como t
y tÿ de la distribución de ÿ/2 1ÿÿ/2, t(b), el IC es luego se calcula como
ÿ

ÿ ÿ

ˆÿ ÿ t 1ÿÿ/2 varranque ˆÿ , ˆÿ ÿ t ÿ/2 vboot ˆÿ .

Si la distribución de ˆÿ(b) es bastante simétrica, entonces la opción (a) funciona bien


en el sentido de dar una probabilidad de cobertura cercana al 100 (1 ÿ ÿ) %. Si la
distribución es extremadamente asimétrica o el tamaño de la muestra es pequeño, (a)
puede no funcionar tan bien. En las estadísticas que no son de encuestas, la opción (b)
parece ser la mejor en teoría (Efron y Tibshirani 1998). Rao y Wu (1988) demostraron que
el segundo método proporciona tasas de cobertura correctas en muestras grandes cuando
se utilizan los pesos de arranque de Rao-Wu. El método (b) es más exigente desde el
punto de vista computacional, especialmente si se usa un estimador de varianza de
replicación como el jackknife en cada muestra de arranque. Además, el método bootstrap
estudentizado no está disponible en la encuesta R. Se necesitará una programación especial.

Ejemplo 15.14 (Bootstrap). Este ejemplo usa el mismo tipo de muestra de smho.N874 que
en el Ejemplo 15.13. Se estratifica la población por una medida de tamaño basada en
camas y se selecciona una muestra de 2 por estrato de tamaño 50
Machine Translated by Google

15.4 Replicación 433

(es decir, H = 25 y nh = 2). A modo de comparación, también seleccionamos una


muestra aleatoria simple no estratificada de 50 (es decir, H = 1 y nh = n = 50).
Estimamos el recuento total de pacientes al final del año (EOYCNT) y obtenemos
IC del 95 % utilizando el método de percentil de arranque y la aproximación t
para comparar. Parte del código se muestra a continuación; el archivo Example
15.14 bootstrap.R contiene todo el código R. Después de seleccionar la muestra,
se crea el objeto de diseño, smho.dsgn, y, a su vez, se usa para crear un objeto,
smho.boot.a, que contiene los pesos de arranque de Rao Wu de la muestra
estratificada. El objeto de arranque para la muestra aleatoria simple es
smho.boot.b. Para crear el objeto bootstrap, as.svrepdesign se llama con el
parámetro type="subbootstrap". Se utilizan quinientas réplicas. Aunque smho.dsgn
contiene un fpc, este no se conserva cuando se crea el objeto de diseño de
arranque. La encuesta R le advertirá que esto está sucediendo.

# stsrswor de estratos basados en una medida de tamaño # crear diseño con


boostrap wts.
# Versión de Rao-Wu utilizada con mh = nh-1
smho.boot.a <- as.svrepdesign(diseño = smho.dsgn,
type = "subbootstrap", réplicas =
500) # media y CI para EOYCNT
basado en RW bootstrap
a1 <- svytotal(˜EOYCNT, diseño = smho.boot.a,

na.rm=VERDADERO, return.replicates = VERDADERO)


# Calcule el CI basado en el método de percentil de arranque.
ta1 <- cuantil(a1$replicas, c(0.025, 0.975))

# Aproximación t con v.boot La <- a1$mean


+ qt(0.025,df=degf(smho.boot.a)*sd(a1$replicates)
Ua <- a1$media + qt(0.975,df=grados(smho.boot.a)*sd(a1$replicas) c(La[1], Ua[1])

# srswor del mismo tamaño que el anterior sam


<- sample(1:N, n) sam.dat <- pop[sam,] d <- rep(N/n,n)
smho.dsgn <- svydesign(ids = ˜0 , datos = sam.dat, pesos
= ˜d)

smho.boot.b <- as.svrepdesign(diseño = smho.dsgn,


tipo = "subbootstrap", réplicas =
500) b1 <- svytotal(˜EOYCNT,
diseño = smho.boot.b,

na.rm=VERDADERO, return.replicates = VERDADERO)


# Calcule el CI basado en el método de percentil de arranque.
tb1 <- quantile(b1$replicas, c(0.025, 0.975)) # aproximación t con v.boot
Lb <- b1$mean + qt(0.025,df=degf(smho.boot.b)*sd(b1$replicas ) )

Ub <- b1$media + qt(0.975,df=grados(smho.boot.b)*sd(b1$replicas) c(Lb[1], Ub[1])


Machine Translated by Google

434 15 Estimación de la varianza

Llamar a svytotal arriba con return.replicates=TRUE guarda las estimaciones replicadas.


A continuación se muestra el código para resumir los resultados y trazar histogramas
de las estimaciones de réplicas.

# pop total
sum(pop$EOYCNT) # totales
\& SEs
rbind(c(a1$media, SE=SE(a1)), c(b1$media,
SE=SE(b1)))

# CI
rbind("arranque stsrswor" = ta1,
"stsrswor t CI" = c(La[1], Ua[1]), "srswor boot" = tb1,
"srswor t CI" = c(Lb[1], Ub[1]))

par(mfrow = c(2,1), mar =


c(3,3,1,1)) r <-
range(a1$replicas/10ˆ3, b1$replicas/10ˆ3) truehist(a1$replicas/10ˆ3, nbins =25,
xlim = r, col = "gray85") abline(v = a1$mean/10ˆ3, col="gray50") title(paste("stsrswor,
n =",n), cex.main = 1) truehist (b1$replicas/10ˆ3, nbins=25, xlim = r,
col = "gray85") title(paste("srswor, n =",n), cex.main = 1) abline(v = b1$mean/10ˆ3 ,
col="gris50")

La población total de EOYCNT es de 727.723. Los totales estimados y los SE de las


dos muestras son:

Total Estimado SE
stsrswor 528.635 122.674
juramento 732.867 221.723

La muestra estratificada es claramente mucho más eficiente, en el sentido de tener un


SE más pequeño, pero su total estimado está más alejado de la realidad. Los intervalos
de confianza del 95 % (en miles) son:

Inferior superior
encuadernado encuadernado

stsrswor bootstrap percentil IC 280 766 stsrswor t IC 276 781


srswor bootstrap percentil IC 388 1,227 srswor t IC 287 1,178

Los intervalos t se calculan con 25 gl para la muestra estratificada (donde n ÿ H es igual


a 50–25) y 49 gl para la muestra aleatoria simple (para n ÿ 1 es 50 – 1). Todos los
intervalos cubren el total de la población en esta muestra, pero el
Machine Translated by Google

15.4 Replicación 435

Los CI no son los mismos para el arranque y los intervalos t. Los intervalos percentiles bootstrap
no son simétricos en torno a la estimación puntual del total, mientras que, por supuesto, los
intervalos t sí lo son.
Observar los histogramas de las estimaciones de réplica de bootstrap en la figura 15.1 aclara
por qué esto es así. Ninguno de los histogramas es simétrico y la distribución de arranque de
srswor está notablemente sesgada.
Por el contrario, no pudimos obtener esta información de otros métodos de replicación.
Por ejemplo, en la muestra estratificada, BRR nos daría solo 28 réplicas de estimaciones. En la
muestra aleatoria simple, la navaja daría 50 estimaciones repetidas. Ni 28 ni 50 estimaciones
repetidas son suficientes para dibujar un histograma. Pero, con 500 estimaciones bootstrap,
podemos tener una buena idea de la distribución subyacente del estimador del total.

No calculamos los CI de arranque estudentizados en el último ejemplo. Esto se puede hacer,


pero el usuario debe hacer algo de programación. Como ejemplo, suponga que se va a estimar
la media de EOYCNT en la población smho.N874. En el diseño estratificado anterior, los pesos
de arranque se pueden recuperar con pesos (smho.boot.a). Para cada conjunto de pesos
replicados, forme un objeto de diseño que utilice el método deseado de estimación de la varianza
(linealización, jackknife o BRR). Utilice la función svyttest para comprobar que la media de
EOYCNT es 0. El estadístico t es

ÿ
t
(b) = ˆÿ(b) ÿv(b),

donde ˆÿ(b) es la media estimada de la réplica b y v (b) es su varianza estimada. Esta estadística
t estará disponible en svyttest$statistic. Ajuste el estadístico t para obtener t(b) = ˆÿ(b) ÿ ˆÿ

ÿv(b) restando ˆÿ ÿv(b) donde ˆÿ es la

media estimada de la muestra completa. A continuación, se puede utilizar un bucle para calcular y
recopilar estas estadísticas t ajustadas de todas las réplicas. Se usó un enfoque similar en el ejemplo
15.10 , donde se calcularon los ajustes por falta de respuesta para las réplicas de JKn. De la colección
de estadísticas t, ubique los puntos 100 (ÿ/2) % y 100 (1 ÿ ÿ/2) %, t de la distribución de t(b). Luego,
ÿ ÿ
y t 1ÿÿ/
estos se usarían para calcular el intervalo de arranque estudentizado, ˆÿ ÿ2,tÿ ˆÿ ÿ tÿvboot
1ÿÿ/2podría
vboot usarse
ÿ/2
ÿ/2
para tabulaciones más elaboradas, como una tabla de medias, proporciones o totales

ˆÿ , ˆÿ . El mismo algoritmo

El bootstrap también se puede utilizar para estimar el SE de un cuantil y para


obtener un error estándar para un cuantil, como se muestra en el siguiente ejemplo.

Ejemplo 15.15 (Cuantiles de Bootstrap). Continuando con el ejemplo 15.13 con la misma
muestra, creamos un objeto de arranque con 500 réplicas. Los objetos de diseño BRR y Fay
BRR, smho.BRR y smho.FayBRR, también se utilizan para crear IC del 95 % para la mediana
de los gastos, EXPTOTAL. El código completo se encuentra en el Ejemplo 15.15 bootstrap
quantile.R.
Machine Translated by Google

436 15 Estimación de la varianza

espada, n = 50

0,0030
0,0020
0,0010
0,0000

200 400 600 800 1000 1200 1400 1600


0.0020

espada, n = 50

0.0010

0.0000

200 400 600 800 1000 1200 1400 1600

Higo. 15.1: Histogramas de estimaciones de arranque del recuento total de pacientes al final del año en
la población SMHO. escalas horizontales en miles; se dibuja una línea de referencia gris
en la estimación de la muestra completa.

smho.boot <- as.svrepdesign(diseño = smho.dsgn,


tipo="subarranque",
réplicas = 500)

a1 <- svyquantil(˜EXPTOTAL, diseño = smho.BRR, cuantil=0.5,


intervalo.tipo="cuantil")
a2 <- svyquantile(˜EXPTOTAL, design = smho.FayBRR, quantile=0.5,
intervalo.tipo="cuantil")
a3 <- svyquantile(˜EXPTOTAL, design = smho.boot, quantile=0.5,
intervalo.tipo="cuantil",
retorno.replicas = VERDADERO)

# t aproximación con BRR


Machine Translated by Google

15.5 Combinación de PSU o estratos 437

La1 <- a1 + qt(0.025,df=grados(smho.BRR))*SE(a1)


Ua1 <- a1 + qt(0.975,df=grados(smho.BRR))*SE(a1)

# Aproximación t con Fay.BRR La2 <- a2 +


qt(0.025,df=degf(smho.FayBRR))*SE(a2)
Ua2 <- a2 + qt(0.975,df=grados(smho.FayBRR))*SE(a2)

# t aproximación con v.boot


La3 <- a3 + qt(0.025,df=grados(smho.boot))*sd(a$replicas)
Ua3 <- a3 + qt(0.975,df=degf(smho.boot))*sd(a$replicas) ta3 <- cuantil(a3$replicas, c(0.025,
0.975))

enlazar(c(La1[1], Ua1[1]), c(La2[1], Ua2[1]),


c(La2[1], Ua2[1]), ta3)

Los resultados para los IC en la mediana (en miles) son:

Inferior superior
R$ 4.876 9.057
Fay BRR 4.887 9.046
Arranque t 4.723 9.209
Percentil de arranque 4.750 8.272

La mediana de la población es 6240 (también en miles). Los intervalos t para BRR y Fay
BRR son casi idénticos, mientras que el intervalo t de arranque es más amplio.
El intervalo de percentil de arranque es notablemente diferente. Una de las razones de esto
es el histograma irregular de las estimaciones de arranque que se muestran en la Fig. 15.2.
Se necesitaría un estudio de simulación para decidir si esto proporciona una mejor tasa de
cobertura que los intervalos simétricos.

15.5 Combinación de PSU o estratos

Hay dos razones para combinar estratos o UPM: una es reducir el número de repeticiones
requeridas cuando se usan los métodos jackknife o BRR, y la otra es crear pseudoestratos
(o analíticos) para la estimación de la varianza cuando se ha seleccionado una UPM por
estrato o cuando sólo participa una UPM en un estrato. Ambos casos se tratan en esta
sección.

15.5.1 Combinación para reducir el número de réplicas

En algunos diseños de muestra, la cantidad de UPM puede ser extremadamente grande.


Esto es especialmente cierto en las encuestas sobre educación y establecimientos donde
puede haber miles de unidades de primera etapa. Si bien los estimadores de varianza de
replicación son atractivos debido a su capacidad para reflejar múltiples etapas de ajustes de
peso, una aplicación estricta de, digamos, la navaja puede conducir a muchas más réplicas
y bases de datos mucho más grandes de lo que la mayoría de los profesionales creen que son factibles.
Machine Translated by Google

438 15 Estimación de la varianza

5000 6000 7000 8000 9000 10000

Higo. 15.2: Histograma de estimaciones bootstrap del gasto medio total en el


población SMHO. escalas horizontales en miles; se dibuja una línea de referencia gris en
la estimación de la muestra completa.

En tales casos, las UPM o los estratos, o ambos, pueden agruparse. Replicación
luego se aplica a los grupos. Estimadores de replicación agrupados correctamente hechos
todavía puede ser consistente y aproximadamente imparcial.
El Apéndice D del manual de WesVar (Westat 2007) describe cómo se pueden realizar
legítimamente las agrupaciones para varios tipos de diseños de muestra. óxido (1984,
1985) también analiza algunas opciones. Resumimos algunas de las consideraciones
aquí. La tabla 15.1 muestra un caso simple para ilustrar las posibilidades. Existen
3 estratos de diseño y un total de 14 PSUs. Si la estimación de la varianza JKn fuera
utilizado, se requerirían 14 repeticiones. Las columnas tercera y cuarta muestran
las combinaciones de estratos (etiquetados como VarStrat) y de PSU (etiquetados como VarUnit)
que también podría usarse para la estimación de la varianza JKn. Los términos VarStrat y
VarUnit son los que se usan en WesVar y son apropiados para transmitir su uso
como los estratos combinados y las UPM utilizadas para la estimación de la varianza.
Los tres estratos de diseño se combinan para formar dos VarStrat—estratos de diseño
1 y 2 se combinan como VarStrat 1, y el estrato de diseño 3 se deja solo como
VarStrat 2. Los estratos de diseño 1 y 2 contienen 4 PSU. Estos se agrupan
en 2 VarUnits en cada estrato de diseño. PSU 1 y 2 de cada diseño
los estratos 1 y 2 se agrupan en VarUnit 1. Las PSU 3 y 4 de cada diseño
los estratos 1 y 2 se agrupan en VarUnit 2. Si se usa una versión agrupada de JKn,
se formarían dos réplicas a partir de VarStrat 1: una eliminando VarUnit 1
Machine Translated by Google

15.5 Combinación de PSU o estratos 439

Tabla 15.1: Ejemplo de agrupación de estratos y UPM para estimación de varianza.

Diseño PSU VarStrat VarUnits VarUnits


estrato para JKn para BRR
1 11 1 Una

2 11
3 22
4 22
2 11 1 Una

2 11
3 22
4 22
3 12 1 Una

2 11
3 21
4 22
5 32
6 32
Total 14 5 4

(PSU 1 y 2 de cada uno de los estratos de diseño 1 y 2) y otro dejando caer


VarUnit 2 (PSU 3 y 4 de los estratos de diseño 1 y 2). En VarStrat 2 (diseño
estrato 3), se forman tres VarUnits. las PSU 1 y 2 son VarUnit 1; fuentes de alimentación 3
y 4 son VarUnit 2; y las PSU 5 y 6 son VarUnit 3. Un total de 5 VarUnits
se forma, que se compara con las 14 fuentes de alimentación originales.
Al crear VarUnits dentro de VarStrat, el tamaño de la estimación de la varianza puede verse
afectado por las agrupaciones. Por ejemplo, en VarStrat 2, si
ordenaron las seis UPM en función de su tamaño del total ponderado de una variable y
luego asignó las tres VarUnits como se muestra en la Tabla 15.1, esto tendería a
producir una gran varianza estimada de un total, al menos para ese y en particular. Si
ordenamos aleatoriamente las PSU y asignamos las VarUnits como (1, 1, 2, 2, 3, 3),
como se muestra en la tabla, esto daría un mejor reflejo de la varianza de
un total estimado. El procedimiento recomendado es la ordenación aleatoria dentro de un estrato
de diseño antes de la numeración. Una excepción a esto sería un caso
en el que las PSU se substratificaron implícitamente dentro de un estrato de diseño, digamos, por
ordenar el marco y usar la selección sistemática. En ese caso, un mejor procedimiento sería
tratar los sustratos como estratos de diseño explícito y luego decidir
cómo agrupar estratos o UPM.
El estimador de varianza jackknife agrupado se calcula usando una fórmula
que es paralela a la Ec. (15.11):

H~ gh 2
G~ ÿ 1
vGJ ˆÿ = , (15.15)
ˆÿ(hg˜ ) ÿ ˆÿ
gh
h~=1 gramo=1

donde Gh˜ es el número de VarUnits en VarStrat h˜, H˜ es el número total

de VarStrat, y ˆÿ(hg˜ ) es la estimación calculada después de eliminar VarUnit g


Machine Translated by Google

440 15 Estimación de la varianza

en VarStrat h˜. Para calcular ˆÿ(hg˜ ), el peso de cada unidad retenida en hg˜ se
, ponderaciones
multiplica por Gh˜ Gh˜ ÿ 1, el inverso de la fracción
aumentan
de submuestreo.
para reflejar
Eseldecir,
hecho lasde
que se utiliza un grupo menos para realizar la estimación replicada cuando se elimina
el grupo hg˜. En el ejemplo anterior, H˜=2, G1=2 y G2=3. El número total de réplicas
creadas es
Hÿ GRAMO = hÿ =1 Ghÿ . En el ejemplo, tenemos G=5. Sin la agrupación de estratos y
UPM, se formarían G=14 repeticiones.
Para declarar VarStrat y VarUnits para usar con un paquete de software,
simplemente diría que la variable de estrato era el campo que contiene los
códigos de VarStrat; la variable PSU sería el campo para los códigos VarUnit.
El valor de Gh˜ ÿ 1 Gh˜ se especifica en el parámetro rscales de la encuesta R.
Otros paquetes de software contarán los valores de Gh˜ .
Hay muchas referencias que exploran las propiedades del estimador de varianza
de navaja agrupada (p. ej., Kott 1999; Kott 2001; Lu et al. 2006 y (Wolter 2007, cap.
4). Aunque no existe una forma única de crear los grupos, es posible crear un
estimador de varianza sesgado haciendo que la agrupación sea legítima
gravemente. Como regla general cada réplica estima ˆÿ(hg˜ )
estimación para toda la población. En la Tabla 15.1, si hubiéramos numerado todas
las VarUnits del estrato de diseño 1 como "1" y todas las VarUnits del estrato de
diseño 2 como "2", al eliminar VarUnit 1 en VarStrat 1 se eliminaría toda la muestra
del estrato de diseño 1. De la misma manera , eliminar VarUnit 2 eliminaría todo el
estrato de diseño 2. Como resultado, ni ˆÿ(11) ni ˆÿ(12) estarían sesgados.
y vGJ Se crea otro tipo de problema si el númeroestimaciones para grupo
de UPM en cada la población
dentro total
de
un VarStrat no es el mismo. En la Tabla 15.1, por ejemplo, si en VarStrata 2,
ponemos 4 PSU en VarUnit 1 y 2 en VarUnit 2, el estimador de varianza jackknife en
Eq. (15.15) estaría nuevamente sesgada. La razón es que el ajuste de ponderación,
Gh˜ Gh˜ ÿ 1 es demasiado tosco para que cada una de las estimaciones replicadas
sea imparcial. Si el número de, PSU por grupo varía, una opción más imparcial es

gh 2
ˆÿ = nh˜ ÿ nhg˜
vGJ2 , (15.16)
ˆÿ(hg˜ ) ÿ ˆÿ
h gramo=1
Nueva Hampshire

donde nh˜ es el número total de PSU en VarStrat h˜ y nhg˜ es el número de PSU en


el grupo hg˜. El ajuste de ponderación aplicado a los casos retenidos cuando se
elimina VarUnit hg˜ es nh˜ nh˜ ÿ nhg˜ . En otras palabras,
de cuántas PSUeloriginales
ajuste de se
peso depende
descarten.
Como se ilustra en Valliant et al. (2008), incluso pequeñas diferencias en el número
de UPM por grupo pueden producir grandes sesgos si la fórmula JKn en Eq. (15.15)
se usa junto con los ajustes de peso Gh˜ Gh˜ ÿ 1. Es más probable que esto sea un
problema en las encuestas de una sola etapa donde hay una gran cantidad de
unidades en algunos estratos, y el número no se divide por igual en la cantidad
deseada de grupos. La fórmula (15.16) no está disponible en el software estándar y
debe
Machine Translated by Google

15.5 Combinación de PSU o estratos 441

ser programado por el usuario. Por eso, crear VarUnits dentro de un VarStrat que tenga
el mismo número de PSU de muestra originales es la mejor solución práctica.

La agrupación también se puede utilizar para BRR, pero se deben crear dos VarUnits
en cada VarStrat. La última columna de la tabla 15.1 muestra una forma de hacer esto
en nuestro pequeño ejemplo. El único cambio de la agrupación utilizada para JKn es
en VarStrat 2, donde las PSU 1–3 se agrupan en VarUnit 1 y las PSU 4–6 en VarUnit
2. Los pesos de cada unidad retenida para una media muestra se multiplicarían por 2
para el BRR estándar o por ÿ o 2 ÿ ÿ para Fay BRR como en la ecuación. (15.14). En
cuanto a JKn, el estimador de varianza está sesgado si cada VarUnit no contiene el
mismo número de UPM, y se usa un ajuste de peso de 2 para el BRR estándar o 2 y
2ÿÿ para el Fay BRR. Antes de asignar las PSU en VarStrat 2 a VarUnits, deben
ordenarse al azar y luego codificarse como (1, 1, 1, 2, 2, 2). Esto evitará sesgar el
estimador de varianza al seleccionar una característica relacionada con la variable de
análisis.

15.5.2 Cuántos grupos y qué estratos


y fuentes de alimentación para combinar

Si la agrupación es legítima, las preguntas naturales son cuántos grupos formar y qué
estratos y UPM debemos combinar. El número de grupos está relacionado con los
grados de libertad (gl) del estimador de varianza. Cuanto más gl tiene un estimador de
varianza, más estable tiende a ser el estimador de varianza.
En consecuencia, el objetivo básico es tener un gran número de df. Idealmente, esto se
haría para estimaciones de población completa y para estimaciones de dominio. Los
dominios que se encuentran en todos los estratos y UPM no necesitarán una
consideración especial: se comportan casi igual que la población total. En una encuesta
de hogares donde las UPM están estratificadas geográficamente, los dominios definidos
por género (masculino, femenino) se distribuirán en todos los estratos. Para los dominios
que ocurren solo en un subconjunto de los estratos, lograr la creación eficiente de
grupos puede ser complicado. Las regiones de un país serían ejemplos de dominios
que ocurren solo en algunos de los estratos. Cuando las estimaciones de la región son
importantes, es posible agrupar los estratos de tal manera que la estimación de cada
región conserve casi el mismo número de gl que para un estimador de varianza no
agrupado, aunque la agrupación pierda gl para las estimaciones de población completa.
Ilustraremos esto a continuación con un ejemplo simple.
La regla general que se utiliza a menudo para las estimaciones de población
completa es que df es igual al número de UPM de muestra menos el número de
estratos. Es decir, cada estrato contribuye con el número de UPM de la muestra menos
1 al gl general. Cuando se utiliza la agrupación de estratos y/o UPM, la regla general
se aplica al número de VarStrat y VarUnits.
Machine Translated by Google

442 15 Estimación de la varianza

Tabla 15.2: Coeficientes de variación aproximados de estimadores de varianza y patrón


estimadores de error basados en diferentes números de grados de libertad.

df CV de varianza CV de estándar
estimador de error del estimador
(%) (%)
10 45 22
25 28 14
50 20 10
75 16 8
100 14 7
200 10 5
400 7 4

Suponga que v es un estimador de varianza y V es la varianza teórica de


algún estimador. Si tratamos gl ÿ v/V como si tuviera una distribución chi-cuadrado con
df grados de libertad, entonces los CV de v y de ÿv se pueden aproximar
=
como se muestra en la Tabla 15.2. En particular, CV (v)=2ÿdf y CV (ÿv) .
CV (v) /2. Si queremos que CV (v) sea del 10 %, necesitamos 200 df. Si el criterio
es CV ( ÿv)=0.10, entonces necesitamos df = 50. Si usamos agrupación, la regla de
pulgar es que df = G ÿ H˜ . Para una estimación de dominio, la regla general es
calcule df = Gÿ H˜ pero solo sobre el VarStrat en el que ocurre el dominio.
Si usamos el método BRR, deberíamos crear al menos 50 VarStrat para tener
CV (ÿv)=0,10. Teniendo en cuenta que algunos dominios pueden ocurrir solo en un subconjunto
de los estratos de diseño, tener G ÿ H˜ igual a por lo menos 100 parece prudente.
Para responder a la pregunta de qué estratos de diseño combinar, la posibilidad de
se debe considerar hacer estimaciones de dominio. Por ejemplo, supongamos que
un diseño tiene H = 10 estratos y 2 UPM de muestra por estrato como se muestra en
Tabla 15.3. Los estratos 1–5 están en la región 1 mientras que los estratos 6–10 están en la región 2.
regla empírica dice que hay 10 df para el diseño completo y 5 para cada
región. El método BRR completo requiere 12 repeticiones: el múltiplo más pequeño de
4 mayor o igual al número de estratos. Si queremos usar 8 réplicas
en lugar de 12, se pueden crear H˜ = 8 VarStrat, cada uno de los cuales tiene 2 VarUnits.
La tabla 15.3 enumera dos formas de crear los 8 VarStrat. En el conjunto 1, diseñar estratos 1
y 2 se combinan como estratos de diseño 6 y 7. Los grados de libertad basados
en la regla general son 8 para estimaciones de muestra completa y 4 para estimaciones de
ambas regiones 1 y 2. En el conjunto 2, los estratos de diseño 1 y 6 se combinan mientras que 2
y 7 se combinan. El número de VarStrat asignado a cada una de las regiones 1
y 2 es 5. Por lo tanto, el conjunto 2 tiene el mismo df para cada región que el original
diseño de muestra Mediante la creación juiciosa de grupos, reducimos el df de muestra completa
de 12 a 8, pero retiene el mismo gl para las regiones que en la muestra completa.
Por otro lado, otros dominios pueden ocurrir en todos los estratos. grados de
se perdería libertad para sus estimaciones de varianza. La reducción sería
de 12 a 8, como es el caso de las estimaciones de población completa.
Machine Translated by Google

15.5 Combinación de PSU o estratos 443

Tabla 15.3: Dos opciones para combinar los estratos de diseño para reducir el número de BRR
replica

Serie 1 conjunto 2

región de Región Región


Diseño Diseño
Diseño diseño VarStrat en en
Estratos Estratos
estrato estrato VarStrat VarStrat
1 1 1, 2 1 1, 6 1,2
12 1 2 34 1 2, 7 1,2
3 1 3 1 34 Una

4 Una 4 5 Una Una

5 Una 5 6, 7 2 5 Una

6 2 6 8 9 10 2 8 2
7 2 7 2 9 2
8 2 8 2 10 2
9 2
10 2

15.5.3 Combinación de estratos en una PSU por estrato


diseños

Como se discutió en el Cap. 10, las muestras de probabilidad de área a menudo se estratifican para
tal grado que solo se selecciona una PSU de cada no autorrepresentante
estrato. Esta profunda estratificación permite un mayor control sobre la geografía
dispersión de las UPM que seleccionar dos por estrato o un número mayor.
El problema con este método es que ni un diseño imparcial ni consistente
Se dispone de un estimador de la varianza, incluso para estimadores lineales. Este es un problema de
larga data en el muestreo de encuestas y se estudia en Hansen et al. (1953a,
Secta. 9.15) y Wolter (2007, Secc. 2.5).
El procedimiento habitual es combinar los estratos en pares para la estimación de la varianza. La
terminología alternativa, utilizada por Wolter, es "colapsar" los estratos. Después
Se pueden utilizar estratos de emparejamiento, BRR, Fay BRR o jackknife. La resultante
estimador de varianza generalmente será una sobreestimación. Como enfatiza HHM,
los estratos deben combinarse en función de las características a nivel de estrato, no aquellas
de las fuentes de alimentación seleccionadas. Por ejemplo, si el tamaño de la población y el grado de
urbanización se usaron para formar estratos, entonces dos estratos de UPM urbanas y de tamaño similar
podría combinarse. Para una muestra sistemática, el marco generalmente se ordena por
características dentro de un estrato de diseño. Estas características son a veces
denominado estratificación implícita en comparación con el diseño explícito
Estratos. Por lo tanto, las unidades de muestra se seleccionan en un orden preespecificado definido por
los estratos implícitos. Este orden debe mantenerse al formar la PSU
pares Un proceso de pensamiento útil es considerar qué estratos habrían sido
juntos si el plan hubiera sido seleccionar dos UPM por estrato.
La combinación de estratos en función de las características de la muestra podría generar resultados negativos.
estimaciones de varianza sesgadas, al menos para algunas estimaciones puntuales. para tomar un
caso extremo, supongamos que queremos estimar los gastos totales en el
Población hospitalaria del SMHO a partir de una muestra de 1 hospital por estrato. hospitales
Machine Translated by Google

444 15 Estimación de la varianza

se estratifican por número de camas y se selecciona una al azar de cada estrato. Si


recolectamos datos y emparejamos estratos cuyas UPM de muestra tienen gastos cercanos
entre sí, este procedimiento, aplicado repetidamente a diferentes muestras, daría estimaciones
de varianza para gastos totales que son artificialmente bajos. Al observar los datos para
hacer el emparejamiento, disminuimos el valor de la contribución estimada de la varianza
dentro del grupo. Los estratos que se emparejan pueden variar de una muestra a otra según
los datos que se observen. Por otro lado, si emparejamos estratos adyacentes por similitud
en el número de camas por hospital, estos pares se configurarían una sola vez y no variarían
dependiendo de cómo salieran las muestras.

En un caso simple, Wolter (2007, Secc. 2.5) muestra que el sesgo del estimador de la
varianza del estrato colapsado (con el conjunto colapsado antes de ver los resultados) es
positivo y depende de

H~
2
µhÿ1 ÿ µhÿ2
,
h~=1

donde h˜ es un estrato colapsado y ÿhg˜ es la población total de la variable de análisis para


el estrato g en el estrato colapsado h˜. Es posible que el emparejamiento aún no nos dé todo
el crédito por las ganancias de la estratificación, pero se eliminaría la posibilidad de un sesgo
negativo.
Debe mencionarse una nota final sobre el colapso de los estratos y las UPM. El diseño
de la muestra es una fuente para generar una situación de una sola UPM por estrato.
Otro está relacionado con la pérdida de muestras, como la falta de respuesta o la inelegibilidad.
Por ejemplo, considere un estrato de diseño que contenga 5 escuelas de muestra (PSU)
donde los estudiantes se seleccionan dentro de la escuela muestreada al azar. Si dos
escuelas cierran antes de la recopilación de datos (no elegibles) y los administradores de
otras dos escuelas se niegan a participar debido a restricciones de financiamiento y tiempo,
entonces los datos de una sola escuela de muestra están disponibles para análisis dentro de este estrato.
Luego se forman los estratos de varianza y las UPM utilizando los mismos criterios que se discutieron
anteriormente.

15.6 Manejo de PSU de certeza

Hay dos casos a considerar cuando las UPM se seleccionan con certeza (es decir, la
probabilidad de selección es igual a 1,0): (1) certezas en una muestra de etapa única y (2)
unidades de primera etapa de certeza en encuestas de etapas múltiples. En ambos casos,
necesitamos determinar cómo deben manejarse las certezas cuando se usan varianzas de
linealización o para crear réplicas para estimaciones de varianza de replicación. Como se
señaló en capítulos anteriores, las certezas también se denominan autorrepresentativas (SR),
mientras que otras unidades se denominan no autorrepresentativas (NSR). En una sola etapa
Machine Translated by Google

15.6 Manejo de PSU de certeza 445

muestra, una certeza no contribuye a la varianza del muestreo repetido.


Para los estimadores de varianza de linealización, a cada certeza se le puede asignar su propio
código de estrato y tiene un peso base igual a 1.0. En el estimador de varianza de replicación, se
puede forzar que una certeza sea miembro de cada réplica.
Tanto en la muestra completa como en una réplica, cada certeza tiene un peso de 1.
En consecuencia, para los estimadores lineales, la contribución de cada certeza se restará
cuando se tome la diferencia en una estimación replicada y la estimación de muestra completa.
Por ejemplo, en JKn, para un estimador lineal:

ˆÿ(hi) = (contribución de los SR) + (contribución de los NSR en la réplica), ˆÿ


= (contribución de los SR) + (contribución de los NSR en la muestra completa).

La contribución de los SR se resta al calcular ˆÿ(hi) ÿ ˆÿ.


En una muestra de etapas múltiples con unidades de suministro de energía de SR, las SR
son realmente estratos que contienen unidades de muestra de nivel inferior. Por ejemplo, suponga
que se selecciona una muestra de probabilidad de área en los EE. UU. y que el condado de
Cook, Illinois, que contiene a Chicago, es una certeza. En el estrato del condado de Cook, las
unidades de primera etapa pueden ser grupos de bloques (BG), como se analiza en el Cap. 10.
Los BG son las PSU en el condado de Cook a los efectos de la estimación de la varianza.
Un enfoque común en las muestras de área es usar BRR para las varianzas. Las unidades
de la primera etapa dentro de los SR a menudo se dividen en solo dos VarUnits. Hay dos
preocupaciones con esto: (i) dos VarUnits dan 1 df en cada SR que puede ser mucho menor que
el número máximo de df disponible, y (ii) si no hay un número par de unidades de primera etapa
en un SR , los ajustes de peso de réplica estándar y las fórmulas de varianza pueden estar
sesgados, como se discutió anteriormente para el jackknife. En el ejemplo de Chicago, suponga
que se seleccionan 20 BG. BRR se puede usar si se crean 2 VarUnits de 10 BG, lo que da como
resultado 1 df. Pero podemos crear fácilmente 10 VarUnits de 2 BG y obtener 10 df. Dada la
velocidad computacional y la capacidad de almacenamiento de las computadoras modernas,
apenas vale la pena ahorrar unas pocas réplicas en el ejemplo de 2-VarUnit.

Para la segunda preocupación mencionada anteriormente, el procedimiento más prudente es


seleccionar un número par de unidades de primera etapa dentro de cada SR. A veces, eso no se
puede hacer debido a las restricciones de carga de trabajo para el personal de campo o la
complementación de la muestra para cumplir con un número objetivo de encuestados (consulte
la Sección 6.5.2 sobre el uso de réplicas de recopilación de datos). Si el número final de unidades
de primera etapa (como BG) en un SR es impar, un enfoque práctico es combinar dos BG. Este
es un ejemplo de una VarUnit formada por la combinación de unidades de primera etapa.

Ejemplo 15.16 (Manejo de certezas). Usando la población smho98, que incluye un hospital
extremadamente grande, como se ve en el Cap. 3, seleccionamos una muestra de etapa única
de 80 de los 875 hospitales de la población. La muestra es pps
Machine Translated by Google

446 15 Estimación de la varianza

con la medida de tamaño en función del número de camas. Cualquier valor de


BEDS que sea inferior a 10 se recodifica como 10. Con este plan, 9 unidades
son certezas y 71 no certezas. El código R está en el ejemplo 15.16 certezas.R.
Para notificar al paquete de encuestas que hay certezas, se crea una variable
llamada estrato, que tiene un valor de 1 para las no certezas y 2 para las
certezas. El fpc=0 para todos los hospitales de la muestra en el estrato 1 y
fpc=1 para el estrato 2.

pop <- smho98 #


recodificó BEDS como MOS
set.seed(428274453) n <- 80

N <- nrow(pop) x <-


pop$BEDS x[x<10] <-
10 pik <- n*x/sum(x)

# verifique las certezas y ajuste las sondas de selección de #


no certezas
n.cert <- sum(pik >= 0.8) certificados <-
(1:N)[pik >= 0.8] x.nc <- x[-certs]

n.nc <- n - n.cert


pik <- n.nc*x.nc/sum(x.nc) sam <-
UPrandomsystematic(pik) pop.nc <- pop[-certs,]

# extraer filas para no certezas, luego agregar filas #


para certezas
sam.dat <- pop.nc[sam==1,] sam.dat <-
rbind(sam.dat, pop[certificados,])

# agregar códigos de estratos y fpc # estrato = 1 para


no certificados, 2 para certificados # fpc = 0 para no certificados, 1
para certificados
estrato <- c(rep(1,n.nc), rep(2,n.cert)) fpc <- c(rep(0,n.nc), rep(1,n.cert))
sam.dat < - cbind(sam.dat, stratum, fpc) probs <- c(pik[sam==1],
rep(1,n.cert)) d <- 1/probs

# Crear un objeto de diseño con smho.dsgn de fpc <-


svydesign(ids = ˜0, strata = ˜stratum, fpc = ˜fpc, data = data.frame(sam.dat),
weights = ˜d)

svytotal(˜EXPTOTAL, diseño=smho.dsgn) cv(svytotal(˜EXPTOTAL,


diseño=smho.dsgn)) svytotal(˜SEENCNT, diseño=smho.dsgn)
cv(svytotal(˜SEENCNT, diseño=smho.dsgn))
Machine Translated by Google

15.6 Manejo de PSU de certeza 447

El objeto de diseño, smho.dsgn, usa las variables stratum y fpc. A modo de comparación, un
objeto de diseño (no se muestra arriba pero en el código
file) también se creó que no incluía los fpc. Los totales estimados
de gastos y pacientes atendidos, junto con los SE y CV, se muestran
abajo. Si se tienen en cuenta las certezas, los CV son 8,6 % y 11,0 %.
Pero, si las certezas se agregan con las selecciones de no certeza para SE
cálculo, los CV son 9,9 % y 16,5 %. Por lo tanto, ignorando el hecho de que hay
son certezas conduce a una exageración sustancial de CV sy SEs.

Variable Total estimado Con fpc sin fpc


(millones) SE 8711.50 748.78 CV SE 8,6 % CV
EXPTOTAL 1.17 0.13 864,17 11,0 % 9,9%
SENTIDO 0,19 16,5%

La contabilidad de las certezas también se puede lograr con la navaja


usando el código de abajo. Primero, se asigna un código de estrato separado a cada uno de
las 9 certezas y almacenadas en strat.rep. La declaración

options(survey.lonely.psu="certainty")

da como resultado que las UPM únicas en un estrato se omitan de los cálculos de varianza
(pero no de estimaciones de medias, totales, etc.).

strat.rep <- c(rep(1,n.nc), 2:(2 + (n.cert-1)))


options(survey.lonely.psu="certainty")
rep.dsgn <- svydesign(ids = ˜0,
estratos = ˜strat.rep,
datos = datos.marco(sam.dat),
pesos = ˜d)

jkn.dsgn <- as.svrepdesign(diseño = rep.dsgn, tipo = "JKn")

Los totales estimados y SE de EXPTOTAL y SEENCNT son los mismos


como los anteriores, un resultado que puede verificar ejecutando el código para este
ejemplo.
Machine Translated by Google

448 15 Estimación de la varianza

Ejercicios

15.1. Considere las situaciones que se describen a continuación. En cada caso, clasifique las
estimador como lineal o no lineal y explique su razonamiento. De los cuales
¿Usaría los siguientes métodos de estimación de la varianza: fórmula exacta, linealización o
replicación? Explique sus opciones. Si hay más de un método
se pueden utilizar, analice las consideraciones que deben tenerse en cuenta al seleccionar
un estimador de varianza particular.

(a) Muestra aleatoria simple estratificada de establecimientos comerciales seleccionados sin


reemplazo. La estimación es la razón del estimador ÿ del total
beneficios antes de impuestos (en todos los establecimientos) al estimador ÿ de los ingresos
totales (nuevamente en todos los establecimientos).
(b) Muestra aleatoria simple estratificada de establecimientos comerciales seleccionados sin
reemplazo. La estimación es un estimador ÿ de los gastos totales en capital
mejoras en 2001.
(c) Diseño muestral estratificado en dos etapas de los hogares. En la primera etapa, un
muestra de unidades primarias de muestreo (PSU) se selecciona con probabilidad variable
sin reemplazo. Las PSU son áreas geográficas como condados
o grupos de condados. El marco de las UPM está estratificado por región de la
país. Se seleccionan cuatro UPM de cada estrato. En la segunda etapa
se selecciona una muestra de hogares de igual probabilidad dentro de cada UPM
seleccionados en la primera etapa. La cantidad de población a estimar es
el ingreso familiar promedio para los hogares cuyo cabeza de familia se clasifica como
Hispano. El estimador es el estimador ÿ.
(d) Se selecciona una muestra de escuelas de una sola etapa con probabilidades proporcionales
a la raíz cuadrada de la matrícula de un año académico anterior. el marco es
ordenados jerárquicamente con base en las siguientes variables: región del país, ubicación
de la escuela (urbana, suburbana, rural) y el porcentaje
de estudiantes en la escuela que reciben almuerzos gratis oa precio reducido. los
La cantidad de población a estimar es la proporción de estudiantes que
obtuvo una puntuación igual o superior a un nivel de competencia específico en una prueba estandarizada
de matemáticas.

15.2. Los siguientes datos se recopilaron de una muestra de dos PSU seleccionadas
de cada uno de los dos estratos.

h fuente de alimentación yhi

1 15
1 26
2 1 10
2 24
Total 25

Yhi es la UPM total ponderada observada para la UPM i en el estrato h.

(a) Calcule el estimador de varianza de replicación repetida balanceada (BRR) para


2 2
el total estimado ˆy = h=1 yo=1
hola Especifique qué forma del BRR
Machine Translated by Google

15.6 Manejo de PSU de certeza 449

estimador que está utilizando. Utilice la siguiente matriz ortogonal donde las filas
designan los estratos y las columnas las réplicas:

++++
ÿ+ÿ+ÿ ÿ
un = ÿ ÿ

++ÿÿ ÿ

ÿ+ÿÿ+ ÿ

(b) ¿Cuál es la fórmula de varianza para el total estimado ˆy si se supone que las UPM se
seleccionan con reemplazo? Evalúe esta fórmula utilizando los datos de la tabla
anterior. ¿Cómo se compara con su respuesta en la parte (a)?

15.3. ¿Cuáles son los valores de "reglas generales" para las siguientes combinaciones de
diseño de muestra y estimadores de varianza?

(a) 2 UPM de muestra seleccionadas por estrato con reemplazo y con probabilidades
variables, estimador de varianza de replicación repetida balanceada (BRR). (b) Un
diseño con H estratos, nh UPM seleccionadas en el estrato h, y el
Estimador jackknife de eliminación estratificada.
(c) 2 UPM de muestra seleccionadas por estrato con reemplazo y con variables
probabilidades, estimador de varianza Fay-BRR con ÿ = 0.3.
(d) Un diseño con 100 estratos y dos UPM de muestra seleccionadas por estrato con
reemplazo. Las UPM se numeran aleatoriamente 1 o 2 dentro de cada estrato.
Luego, los estratos se combinan en 25 superestratos con 8 UPM por superestrato.
Las UPM con el número 1 en un superestrato se tratan como un grupo, mientras que
las UPM con el número 2 se tratan como un segundo grupo. Se utiliza un estimador
de varianza BRR tratando los superestratos como estratos de estimación de varianza.

15.4. Suponga que ˆy es una estimación no sesgada de una población finita total, Y.
Estás interesado en el estimador g (ˆy) = ÿyˆ. (a) Escriba

la aproximación de la serie de Taylor de primer orden a g (ˆy). (b) Con base en


su respuesta a (a), ¿cuál es la varianza de diseño aproximada de g (ˆy)? Escriba su
respuesta en términos generales que se apliquen a cualquier diseño.

(c) Especialice su respuesta en (b) a los siguientes diseños: muestreo aleatorio simple sin
reemplazo, muestreo aleatorio simple estratificado sin reemplazo y un diseño de etapa
única donde las unidades se seleccionan con probabilidades variables con reemplazo.

15.5. Utilice el conjunto de datos nhis.large, que es un diseño de conglomerado estratificado


con 2 UPM seleccionadas por estrato. Estimar las proporciones de la población en cada
grupo de edad (edad.grp) que pasó una noche en el hospital (estancia hospitalaria). Estime
los errores estándar usando linealización, BRR, Fay BRR con ÿ = 0.5 y el jackknife de JKn.
¿Cómo se comparan los SE estimados?
Machine Translated by Google

450 15 Estimación de la varianza

15.6. Utilice el archivo nhis.large como población y seleccione una muestra aleatoria
simple de tamaño n = 500. Si está utilizando R, utilice una semilla de número aleatorio
de 428274453. Postestratifique la muestra para recuentos de población para age.grp.

(a) Calcule la proporción estimada de la población que informó haber visitado al médico
(doc.visit) en las dos semanas anteriores a la entrevista. (b) Calcule los EE utilizando
el método de linealización y JKn. ¿Cuál sería el efecto sobre los EE estimados de ignorar
la posestratificación? (c) Estime las proporciones y los EE de la población que
informó una visita al médico en una tabla definida por etnicidad hispana (hisp). Combine
las categorías 3 y 4 de hisp juntas. ¿Cuál sería el efecto de ignorar la posestratificación
para estas estimaciones?

15.7. Utilice la muestra del ejemplo 15.8 de la población smho.N874.


Estime los cuartiles (30, 50 y 75) del recuento de pacientes al final del año (EOYCNT).
Encuentre los IC y SE del 95 % estimados por los métodos de Woodruff y Francisco-
Fuller. ¿Cuáles son los EE implícitos en estos dos métodos? Si intenta estimar el primer
cuartil y su SE utilizando el método de Francisco Fuller, se producirá un error. ¿Qué
características de los datos de la muestra cree que causan el error?

15.8. Repita el Ejercicio 15.6 sobre posestratificación utilizando el método bootstrap con
500 repeticiones. Si usa R, use una semilla de número aleatorio de - 711384152. ¿Cómo
se comparan sus estimaciones de errores estándar y CV con las estimaciones de
linealización y jackknife del ejercicio 15.6?

15.9. Repita el ejemplo 15.8 utilizando el método de arranque de Rao-Wu con 500
repeticiones. Elimine los hospitales tipo 4 y recodifique la variable camas para que tenga
un valor mínimo de 5. Estime los cuantiles 25, 50 y 75 de SEENCNT en smho.N874 y los
intervalos de confianza del 95 % para cada uno utilizando la aproximación t. Si está
usando R, use una semilla de número aleatorio de -711384152.
Dibuje histogramas de las estimaciones de réplica de arranque para los cuantiles 25, 50
y 75 de SEENCNT. ¿Cómo se comparan los IC del 95 % del método de percentil de
arranque con los de los métodos de Woodruff y Francisco-Fuller?

15.10. Utilice la población smho.N874 y seleccione una muestra estratificada por tipo de
hospital.

(a) Determine la asignación proporcional de 120 hospitales y el muestreo


fracción en cada estrato.
(b) Seleccione una muestra aleatoria simple estratificada sin reemplazo utilizando los
tamaños de muestra calculados en (a). Si está usando R, use una semilla de número
aleatorio de -69716384.
(c) Calcule el número promedio estimado de camas por hospital en general y para cada
tipo de hospital. Utilice los métodos de linealización y JKN de estimación de la
varianza y tenga en cuenta las correcciones de población finita.
Machine Translated by Google

15.6 Manejo de PSU de certeza 451

(d) ¿Cómo se comparan los EE del inciso (c)? ¿Hay alguna razón para preferir un método de
estimación de la varianza sobre el otro para esta muestra? explique
Tu respuesta.

15.11. Suponga que sabe por la documentación de la encuesta que el archivo nhis.large se estratificó
posteriormente por grupo de edad (edad.grp) y raza (raza).

(a) Describa cómo puede explicar esto al estimar los errores estándar. (b) Usando su método de (a),
calcule estimaciones de las proporciones de personas que retrasaron la atención médica en los últimos
12 meses (delay.med) para diferentes niveles de ingresos (inc.grp). Calcule sus SE utilizando la
linealización.

(c) ¿Cuáles son los EE de los totales estimados y las proporciones de la población?
que están en cada uno de los dominios age.grp × race?

15.12. Repita el ejercicio 15.11 usando BRR y Fay BRR con ÿ = 0,5.

15.13. Utilice el archivo nhis.large y calcule los SE a través de la linealización, BRR y Fay BRR con ÿ
= 0,5, pero ignore la posestratificación.

(a) Calcule estimaciones de las proporciones de personas que retrasaron la atención médica en los
últimos 12 meses (delay.med) para diferentes niveles de ingresos (inc.grp). ¿Las estimaciones
de proporciones son iguales o diferentes de las de los ejercicios 15.11 y 15.12? (b) Compare los
EE que ignoran la posestratificación con los que la tienen en cuenta de los ejercicios 15.11 y
15.12. ¿Qué tan grave sería el error al ignorar la posestratificación?

15.14. La siguiente tabla enumera las PSU en una muestra nacional en los EE. UU. Las regiones
están numeradas del 1 al 4. Las PSU con nombres de condado (p. ej., Kings County NY, Maricopa
County AZ) son certezas (o no autorrepresentativas).
Las PSU que no son de certeza o que no se representan a sí mismas se etiquetan como region.nsr.nn.
Por ejemplo, NE.nsr.1 es la primera fuente de alimentación NSR en la región noreste. Cada una de
estas UPM es una muestra de tamaño 1 de un estrato de UPM NSR. Se han formado estratos dentro
de cada región para que los estratos adyacentes tengan un tamaño de población similar, es decir, las
UPM de NSR numeradas consecutivamente dentro de una región pertenecen a estratos similares.
Suponga que cada UPM tiene 10 conglomerados de hogares de muestra.

(a) Si empareja PSU de NSR dentro de una región y divide aleatoriamente cada PSU de SR en dos
grupos de 5 conglomerados, ¿cuántos grados de libertad tendría un estimador de varianza para
las estimaciones nacionales y para las estimaciones regionales?
Use la regla empírica estándar para contar df.
(b) ¿Cuál es otro método que podría usar dentro de cada fuente de alimentación SR para recoger más
df? ¿Cuál sería el gl total resultante con este método?
Machine Translated by Google

452 15 Estimación de la varianza

(c) Suponga que comienza con los pares de PSU NSR y divisiones de
PSU SR como se usa en la parte (a). Si planea utilizar el método BRR
de la estimación de la varianza con solo 20 repeticiones, ¿cómo podría combinar
estratos para lograr esto de una manera que preserva el mismo número
de grados de libertad para las estimaciones de varianza para estimaciones regionales
como en (a)?

Región Estrato Región Estrato Región Estrato Región Estrato


Una
Reyes 2 Cocinar 3 Miami 4 Maricopa
Condado, Condado Dade Condado, Arizona
Nueva York
IL(1) Condado,
Florida

Una
reinas 2 Cocinar 3 harris 4 los Angeles
Condado, Condado Condado, CA(1)
Nueva York
IL(2) Texas

Una NE.nsr.1 2 MW.nsr.1 3 dallas 4 los Angeles


Condado, CA(2)
Texas

Una NE.nsr.2 2 MW.nsr.2 3 S.nsr.1 4 San Diego


Condado, CA
Una NE.nsr.3 2 MW.nsr.3 3 S.nsr.2 4 Naranja
Condado, CA
Una NE.nsr.4 2 MW.nsr.4 3 S.nsr.3 4 W.nsr.1
Una NE.nsr.5 2 MW.nsr.5 3 S.nsr.4 4 W.nsr.2
Una NE.nsr.6 2 MW.nsr.6 3 S.nsr.5 4 W.nsr.3
Una NE.nsr.7 NE.nsr.8 3 S.nsr.6 4 W.nsr.4
Una 3 S.nsr.7 4 W.nsr.5
3 S.nsr.8 4 W.nsr.6
3 S.nsr.9
3 S.nsr.10
Machine Translated by Google

capitulo 16
Ponderación de la Encuesta de Personal: Uno
Solución

El proyecto asignado en el Cap. 12 fue calcular un conjunto de pesos para una encuesta
de miembros de las reservas militares. Se seleccionó una muestra aleatoria simple
estratificada del personal y se le preguntó sobre la satisfacción con su trabajo. El proyecto
brinda la oportunidad de poner en práctica las técnicas cubiertas en los Caps. 13–15.
Completar el proyecto requiere el cálculo de ponderaciones base, un ajuste para tener en
cuenta los casos cuyo estado de elegibilidad se desconoce, un ajuste por falta de
respuesta y la calibración a algunos totales de población finitos. Hay varios problemas
prácticos por resolver, incluida la selección de un método particular de ajuste por falta de
respuesta, la decisión de cómo utilizar los recuentos de población disponibles y la
determinación de cómo manejar los valores faltantes tanto en los casos de muestra como
en los recuentos de población.

Aunque este capítulo no está escrito como un informe formal para ser entregado a un
cliente como se solicitó en el Cap. 12 , queremos enfatizar nuevamente la importancia de
una buena documentación. La documentación clara de todos los pasos de ponderación es
fundamental por varias razones. Puede ser necesario repetir algunos o todos los pasos
más adelante. Por ejemplo, se pueden descubrir errores en algunos detalles de los
cálculos, o se pueden encontrar problemas en uno de los conjuntos de datos de entrada.
Si una encuesta se repetirá en una fecha posterior, un informe de ponderación bien
redactado puede guiar el trabajo en la próxima encuesta. Memorandos de especificación
muy detallados, como los descritos en el Cap. 18, eliminará cualquier duda sobre lo que
debe hacerse y puede conducir a una reducción de costos si la encuesta se repite en una
fecha posterior.
El código R para la solución de este proyecto está en los archivos,

16.1 Solución bwt-desconocido adj.R 16.2 Solución


NR adj.R 16.3 Calibración de solución adj.R 16.4
Tabulaciones de ejemplo.R

todos los cuales están en el sitio web del libro.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 453


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 16, © Springer Science+Business Media New York 2013
Machine Translated by Google

454 16 Ponderación de la Encuesta de Personal: Una Solución

16.1 Los archivos de datos

Se proporcionaron dos archivos de datos para el proyecto. Un archivo (SOFR.sas7bdat


o SOFR.xpt) contenía registros de todos los 71.701 miembros de la muestra que estaban
seleccionado inicialmente. El archivo incluye las 19 variables que se muestran en la Tabla 16.1.
Los campos incluyen el número de identificación, el código de estado del encuestado final, el
identificador del estrato, el conteo de la muestra del estrato y el conteo de la población, las variables del marco

Tabla 16.1: Contenido del archivo de datos SOFR.sas7bdat.

# Variable etiqueta
1 ID DE REGISTRO Número de identificación de registro único
2 RESPSTAT Código de estado del encuestado final
3 SRMARST ¿Cuál es su estado civil?
4 RA006A Tomando todas las cosas en consideración, ¿qué tan satisfechos están
usted, en general, con cada uno de los siguientes aspectos de
estar en la Guardia Nacional/Reserva? Su compensación total
(es decir, salario base, asignaciones y bonificaciones)
5 RA006B Tomando todas las cosas en consideración, ¿qué tan satisfechos están
usted, en general, con cada uno de los siguientes aspectos de
estar en la Guardia Nacional/Reserva? El tipo de
trabajo que hace en su trabajo militar
6 RA008 Suponga que tiene que decidir si continuar
para participar en la Guardia Nacional/Reserva. Suponiendo
que pudieras quedarte, ¿cuál es la probabilidad de que lo hicieras?
elegir hacerlo?
7 RA115 En general, ¿qué tan bien preparado está para realizar su
trabajo de guerra?
8 RA118 En general, ¿cómo calificaría el nivel actual de estrés
en tu vida personal?
9 SRED ¿Cuál es el grado o nivel de estudios más alto que
¿Han completado? Marque la única respuesta que describe
el grado o grado más alto que hayas completado
10 RA112RA En los últimos 12 meses, ¿cuántos días pasó en
un estatus de Reserva/Guardia compensado?
11 Servicio XSRRCR
12 XACT2R Activado 30 días—nivel 3: En los últimos 24 meses fueron
¿Alguna vez activó más de 30 días consecutivos?
13 XRETH4R Raza/origen étnico imputado: nivel 2
14 XSEXR Registrado: sexo imputado
15 XCPAY1R Recodificado: grado salarial imputado grupo 1
16 NSAMP Recuento de muestras de estrato

17 NSTRAT Recuento de población por estrato


18 V STRAT Estrato de estimación de la varianza
19 ESTRATO Estrato de diseño
Machine Translated by Google

16.2 Pesos básicos 455

Tabla 16.2: Contenido del archivo de datos RCCPDS57.sas7bdat.

# Variable etiqueta
Una SERVICIO (XSRRCR) Rama del servicio militar
2 GÉNERO (XSEXR) Género
3 GRUPO PG (XCPAY1R) Grupo de grado de pago
4 CARRERA (XRETH4R) Raza/etnicidad
5 EDUCCAT (SRED) Grado/nivel escolar más alto completado
6 marit (SRMARST) Estado civil actual
7 ACTIVATD (XACT2R) Activado más de 30 días consecutivos o
menos en los últimos 24 meses
8 CUENTAS recuento de personas

(género, nivel salarial, raza, etc.), y las respuestas de los encuestados a las preguntas clave.
La variable RESPSTAT para el código de estado del encuestado final tiene información
sobre la elegibilidad y el estado de respuesta de cada miembro de la muestra.
Los campos NSAMP y NSTRAT contienen el número de casos en la muestra
y en el marco del estrato al que pertenece una persona. los valores son
lo mismo para todos los registros de personas en un estrato dado. Basado en la inspección
En el archivo de personas de la muestra, hubo 404 estratos, definidos por combinaciones de
rama del servicio, raza/etnicidad, género y nivel de pago.
Como se muestra en la Tabla 16.2, el otro archivo de datos (RCCPDS57.sas7bdat o
RCCPDS57.xpt) tiene recuentos de población para siete variables de marco (rama de
el servicio, género, nivel de pago, raza/etnicidad, educación, estado civil y
si una persona ha sido llamada al servicio activo por más de 30 años consecutivos
días en los últimos 24 meses). Estas variables de marco tienen nombres diferentes a
en el archivo de datos de muestra, pero los nombres alternativos se indican en las etiquetas.
Los recuentos de población se proporcionan en la variable COUNT.

16.2 Pesos base


Los pesos base se pueden calcular tan pronto como se seleccione la muestra. hacemos
no es necesario conocer las disposiciones de ninguno de los casos de muestra porque la
los pesos base en esta encuesta dependen solo de los conteos de marcos y la muestra
tamaños en cada uno de los estratos de diseño. Dado que una muestra aleatoria simple estratificada
fue seleccionado, la probabilidad de selección de cada persona i en el estrato h fue
ÿhi = nh/Nh donde

nh = número de personas muestreadas del estrato h,

Nh = número de personas en el marco en el estrato h.


Machine Translated by Google

456 16 Ponderación de la Encuesta de Personal: Una Solución

El peso base para la persona hi es el inverso de la probabilidad de selección:


whi = Nh/nh. Esto se calcula como NSTRAT/NSAMP. la suma de la base
pesos es 870.373, que es exactamente igual a la cuenta de las personas en el
marco ya que la muestra es stsrs.

16.3 Códigos de disposición y mapeo en ponderación


Categorías

La Tabla 16.3 da conteos de personas por los códigos de disposición en el RESPSTAT


campo. Estos códigos son específicos para la encuesta del personal de la Reserva, al igual que
evidente de algunas de las categorías. Por ejemplo, el código 22 (sin retorno—
separados/retirados) probablemente no se utilizarían en las encuestas de la mayoría de las demás
poblaciones. Debido a que hubo un lapso de tiempo entre el momento en que se tomó la muestra
seleccionados y se recopilaron los datos, el estado de algunas personas cambió.
Esta es la razón de tener códigos para jubilados, fallecidos, encarcelados, etc.
Las direcciones de algunos miembros del personal están desactualizadas, lo que impide que el
servicio postal para entregar la encuesta (código 27). Para calcular los pesos, los códigos de
disposición deben asignarse a los grupos:
Urgencias
Encuestados elegibles
ENR No respondedores elegibles
EN No elegibles conocidos
Desconocido Elegibilidad desconocida

Tabla 16.3: Recuentos para cada código de estado de encuestado final.

Estado del encuestado (almacenado en la variable RESPSTAT) 1 Contar


= cuestionario devuelto—completado 2 = cuestionario devuelto— 25,539
(suficiente) parcialmente completado 3 = cuestionario devuelto— 20
(insuficiente) parcialmente completo 4 = cuestionario devuelto—no elegible 524
5 = cuestionario devuelto—en blanco 18 = no Regreso—fallecido 503
97
9
19 = sin retorno—encarcelado 2
22 = sin Retorno—separado/retirado 23 = sin 35
Retorno—rechazo activo 193
25 = sin retorno—otro 8
26 = sin devolución: elegible según los registros administrativos 27 = falta 39,872
de entrega postal 29 = no localizable 1,339
6
35 = no elegible: no se envió ningún cuestionario 3,554
Total 71,701
Machine Translated by Google

16.3 Códigos de disposición y mapeo en categorías de ponderación 457

Para calcular las diversas tasas de respuesta AAPOR descritas en el Cap. 6, el


los códigos de disposición se asignan a un conjunto ligeramente diferente de categorías:
yo
entrevista completa
PAGS
entrevista parcialmente completa
R Rechazo/ruptura
nordeste
no elegible
U Elegibilidad desconocida
O Otro no entrevista elegible
Las asignaciones que usamos para las categorías de ponderación y AAPOR son
se muestra en la Tabla 16.4. Hay que tomar una serie de decisiones sobre cómo
mapear las disposiciones. Algunas opciones son obvias, como asignar el código 1 (que tennaire
devolvió—Completado) a ER e I. Otras lo son menos, como los códigos
5 (cuestionario devuelto—en blanco), 25 (sin devolución—otro), 27 no entregado por correo) y 29
(no localizable). A menos que se sepa más sobre tales casos, un
Un enfoque conservador sería considerar la elegibilidad de estas personas
como desconocido, lo que hicimos en la Tabla 16.4. Ya que hay un código de disposición
26 (sin devolución—elegible en base a registros administrativos), es evidente que
se hicieron esfuerzos para cotejar el archivo de muestra con los registros de personal. En
consecuencia, podría formularse el argumento alternativo de que las personas en los códigos
5, 25, 27 y 29 no son elegibles. Claramente, hay algo de subjetividad en el
cartografía.
La tabla 16.5 muestra los recuentos de casos en las categorías de ponderación y AAPOR. A
juzgar por los conteos, la elegibilidad desconocida es un problema menor. En
por otro lado, la tasa de respuesta está muy por debajo del 50%. Así, concentrando
los esfuerzos en el ajuste por falta de respuesta son prudentes en esta muestra.
El Capítulo 6 revisó varias tasas de resultados que se pueden calcular en un
encuesta. Como ilustraciones, calculamos RR1 y RR4 que se definen como

100i
RR1= ,
(I + P) + (R + O) + U

100 (I + P)
RR4 = ,
yo + pag + r + o + e ÿ u
dónde
yo + p + r + o
mi =
I + P + R + O + NE

es la proporción de incógnitas que se asignan para ser elegible. En esto


muestra, e = 0,941, RR1 = 37,78% y RR4 = 37,83%. Dado que el número de
desconocidos es una pequeña parte de la muestra completa, los valores de estas dos respuestas
Las tarifas son prácticamente las mismas.
35
=
no
elegible:
no
se
envió
ningún
cuestionario 29
=
no
localizable 27
=
falta
de
entrega
postal 26
=
Sin
devolución:
elegible
según
los
registros
administrativos 25
=
Sin
retorno
otro
— 22
=
no
regreso
sretirado
—23
=
no
regreso
ractivo
—eparado/
echazo 19
=
sin
retorno
encarcelado
— Entrevista
parcialmente
completa
1=
cuestionario
devuelto
c18
—=
no
devuelto
fompletado
—allecido Estado
de
respuesta
(almacenado
en
RESPSTAT)
Código
de
ponderación
Categoría
de
ponderación
AAPOR
código
descripción
2
=
cuestionario
devuelto
(parcialmente
—completo
3
=
cuestionario
devuelto
(suficiente)
—parcialmente
completo
4
=
cuestionario
devuelto
n

insuficiente)
elegible
5
=cuestionario
devuelto
e

blanco
on
Tabla
16.4:
Mapeo
de
códigos
disposición
en
estados
colapsados
de
encuestados.
UNK
Elegibilidad
desconocida UNK
Elegibilidad
desconocida ENR
Elegible UNK
Elegibilidad
desconocida ENR
Elegible UNK
Elegibilidad
desconocida ENR
Elegible
Urgencias Urgencias
EN EN EN EN EN
Inelegible No
respondedor
no
elegible
no
respondedor Inelegible Inelegible Inelegible no
respondedor encuestado
elegible encuestado
elegible
NE
No
elegible NE
No
elegible NE
No
elegible NE
No
elegible NE
No
elegible
tu tu O tu R tu R PAGS
yo
Elegibilidad
desconocida Elegibilidad
desconocida Otra
no
entrevista
elegible Elegibilidad
desconocida Rechazo/
ruptura Elegibilidad
desconocida Rechazo/
ruptura entrevista
completa
16 Ponderación de la Encuesta de Personal: Una Solución 458
Machine Translated by Google
Machine Translated by Google

16.4 Ajuste por elegibilidad desconocida 459

Tabla 16.5: Conteos para cada ponderación y categoría AAPOR.

Disposición Indicador Contar por ciento

Categoría de ponderación (códigos de disposición)


Encuestado elegible (1,2) Urgencias
25.559 35.6
No respondedor elegible (3,23,26) NR 40.589 56,6
No elegible conocido (4,18,19,22,35) EN 4.103 5.7
Elegibilidad desconocida (5,25,27,29) Desconocido 1.450 2.0
Total 71.701 100.0

Categoría AAPOR (códigos de disposición)


completo (1) yo
25,539 35.6
parcial (2) PAGS 20 0.03
Negativa/ruptura (3,23) R 717 1.0
Otra no entrevista elegible (26) O 39.872 55,6
No elegible (4, 18, 19, 22, 35) nordeste
4.103 5.7
Elegibilidad desconocida (5, 25, 27, 29) tu 1.450 2.0
Total 71.701 100.0

16.4 Ajuste por elegibilidad desconocida

Usando los pesos base, podemos estimar el número de personas en el marco


que están en las categorías de ponderación, ER, ENR, IN y UNK:

categoría de peso Porcentaje de conteo estimado (%)


encuestado elegible Urgencias
320.677 36.8
NR elegible que no responde 474.675 54.5
No elegible conocido EN 55.770 6.4
Elegibilidad desconocida Desconocido 19.251 2.2
Total 870.373 100.0

Los recuentos de población estimados se distribuyen aproximadamente de la misma manera que los
recuentos no ponderados en la Tabla 16.5. Dado que se estima que solo el 2,2% del marco
ser incógnitas, haremos un ajuste general que, usando la notación
de la secta 13.4, es igual a

yo ÿs d0i = 320, 677 + 474, 675 + 55, 770


a1 = = 1,0226.
iÿsKN d0i 870, 373

El ajuste se realiza en el archivo “16.1 Solution bwt-unknown adj.R”.


Machine Translated by Google

460 16 Ponderación de la Encuesta de Personal: Una Solución

16.5 Variables disponibles para el ajuste por falta de respuesta

Hay cuatro variables que tienen datos no faltantes tanto para la muestra
encuestados y no encuestados: rama del servicio, raza/etnicidad, sexo y grado salarial.
Estas son las mismas variables que se usaron para definir
estratos de diseño. Las demás características personales: educación, estado civil,
y si una persona pasó más de 30 días consecutivos en servicio activo en
los últimos 2 meses— faltan para casi todos los que no respondieron. Tabla 16.6
muestra recuentos de muestra de personas que respondieron y que no respondieron para cada uno de
las variables que podemos usar para el ajuste por falta de respuesta; La tabla 16.7 muestra

Tabla 16.6: Conteos de muestras de encuestados y no encuestados y conteos de población


para las cuatro variables sin datos faltantes para las personas de la muestra.

(Valor de código) variable No demandado Demandado Controles de población


(antes de la imputación)
norte% n % Total N %
Servicio
(1) Guardia Nacional del Ejército 10.060 65,0 5.424 35,0 15.484 61,9 322.053 40.2
(2) Reserva del Ejército 8.398 5.179 38,1 13.577 56,4 190.235 23.7
(3) Reserva Naval 4.686 3.617 43,6 8.303 70,6 3.283 77.022 9.6
(4) Reserva del Cuerpo de Marines 7,869 29,4 11.152 53,6 4.207 46,4 36.094 4.5
(5) Guardia Nacional Aérea 4.855 9.062 55,1 3.849 44,949 105.092 13.1
(6) Reserva de la Fuerza Aérea 4.721 71.022 8.9
Perdido
– ––––

291 0.04
Raza/etnicidad
(1) Blanco no hispano 20,625 55,1 16.833 44,9 37.458 540.473 67.4
(2) Total minoritario 19.964 69,6 8.726 30,4 28.690 260.734 32.5
Perdido
– ––––

602 0.1
Género
(1) Hombre 34.100 61,9 21.007 38,1 55.107 663.122 82.7
(2) Mujer 6.489 58,8 4.552 41,2 11.041 138.574 17.3
Perdido
– ––––

113 0.01
grupo de pago
(1) E1–E3 7,026 82.5 1,494 17.5 8,520 12,936 112.244 14.0
(2) E4 75.8 4,125 24.2
5,653
17,061
35.8 15,799
10,146 2,810
64.2 198.048 24.7
(3) E5–E6 47.1 3,162 52.9
57.95,972
2,343987
3,185
42.1
45.1,356 265.388 33.1
(4) E7–E9 110.397 13.8
(5) W1-W5 10.948 1.4
(6) O1–O3 41.176 5.1
(7) O4–O6 63.608 7.9
– – –
Perdido
––––

Grandes totales 40,589 61,4 25.559 38,6 66.148 801,809 100.0


Machine Translated by Google

16.5 Variables disponibles para el ajuste por falta de respuesta 461

Tabla 16.7: Conteos de muestras de encuestados y no encuestados y conteos de población


por nivel educativo, estado civil y activación.

Variable (Valor del código) No encuestado Encuestado Controles de población


(antes de la imputación)
norte% n % Total N %
Educación
(1) 12 años o menos de 0 0,0 146 100,0 146 10,819 1.3
escuela (sin diploma)
(2) escuela secundaria 0 0,0 2.059 100,0 2.059 116,933 14.6
Graduate de secundaria
diploma o equivalente
(3) algún crédito universitario Una
0,0 2.465 100,0 2.466 113,512 14.2
pero menos de 1 año
(4) Uno o más años 2 0,0 4.967 100,0 4.969 223,581 27,9
de la universidad, sin título
(5) Título de asociado Una
0,0 2.399 100,0 2.400 0,1 96.073 12.0
(6) Licenciatura 8 7.750 99,9 7.758 0,0 4.912 147.450 18.4
(7) maestría, doctorado, Una
100,0 4.913 66.614 8.3
o escuela profesional
la licenciatura

Perdido 40,576 97,9 861 2,1 41.437 26,827 3.3


Estado civil
(1) casado 233 1,4 16.934 98,6 17.167 1,5 455.603 56,8
(2) Separado 6 397 98,5 403 11.748 1.5
(3) divorciado 40 1,6 2.538 98,4 2.578 75.025 9.4
(4) viudo 0 0.0 75 100.0 75 3.324 0.4
(5) nunca se casó 157 2,7 5.577 97,3 5.734 38 0,1 254.468 31.7
Perdido 40,153 99.9 40.191 1.641 0.2
activado más
de 30 días
(1) Activado ÿ 30 días 7 1.1 611 98.9 618 37.171 4.6
(2) Activado 30 días 148 1,1 12.912 98,9 13.060 0,2 250.808 31.3
(3) No activado 24 11.814 99,8 11.838 99,5 222 508.083 63.4
Perdido 40.410 0,5 40.632 5.747 0.7
Grandes totales 40,589 61,4 25.559 38,6 66.148 801,809 100.0

recuentos similares para las otras tres variables demográficas que están disponibles
principalmente para los encuestados. Las dos tablas también muestran recuentos de población de la
Archivo RCCPDS57.XPT.
El archivo a partir del cual se realizaron los recuentos de población tenía algunos datos faltantes
para cada variable, excepto el grupo de pago. Por ejemplo, rama del servicio
en la Tabla 16.6 faltaba para 291 personas; faltaba la raza/etnicidad para
602 personas. Más tarde, en la Secc. 16.7, cuando calibramos a los conteos de población,
se tendrán que hacer imputaciones para esos valores faltantes.
Machine Translated by Google

462 16 Ponderación de la Encuesta de Personal: Una Solución

16.6 Ajustes por falta de respuesta

Dos opciones para el ajuste por falta de respuesta que cubrimos en el Cap. 13 son para
use propensiones de respuesta estimadas y celdas formadas con un árbol de regresión.
Ambas alternativas se examinan en esta sección.

Modelos de propensión

Primero, examinaremos la opción de crear clases basadas en estimados


probabilidades de respuesta o propensiones. Un modelo con efectos principales y todo
interacciones bidireccionales, utilizando las cuatro variables disponibles, se ajustó sin
utilizando los pesos de la encuesta. El código R se muestra a continuación y se encuentra en el archivo “16.2
Solución NR adj.R”. La variable resp es 1 para encuestados y 0 para
no respondedores:

glm.logit2 <- glm(resp ˜ as.factor(xsrrcr)*as.factor(xreth4r)


+ como.factor(xsrrcr)*como.factor(xsexr)
+ como.factor(xsrrcr)*como.factor(xcpay1r)
+ como.factor(xreth4r)*como.factor(xsexr)
+ como.factor(xreth4r)*como.factor(xcpay1r)
+ como.factor(xsexr)*como.factor(xcpay1r),
familia = binomial (enlace = "logit"),
datos = softr.d1.elig)
anova(glm.logit2, prueba="Chisq")

El conjunto de datos sofr.d1.elig es un subconjunto de softr.sas7bdat que contiene


sólo los 66.148 encuestados y no encuestados elegibles. Parte de la salida
del comando anova se muestra a continuación (todos los grados de libertad de desviación
son más de 66.000):

Desviación Df P(> Chi)


as.factor(xsrrcr) as.factor(xreth4r) 5 951.3 < 2.2e-16 ***
as.factor(xsexr) as.factor(xcpay1r) 1 1376.9 < 2.2e-16 ***
as.factor(xsrrcr):as.factor(xreth4r) Una 13,2 0,0002764 ***
5 as.factor(xsrrcr):as.factor(xsexr) ) 6 6081.2 < 2.2e-16 ***
5 as.factor(xsrrcr):as.factor(xcpay1r) 30 as.factor(xreth4r):as.factor(xsexr) 71,0 6,379e-14 ***
as.factor(xreth4r):as.factor(xcpay1r) 6 as.factor(xsexr): como.factor(xcpay1r) 6 15,9 0,0070584 **
209.9 < 2.2e-16 ***
Una 31.2 2.291e-08 ***
7.2 0.3004589
36.8 1.937e-06 ***
---

signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1' ' Una

Todos los efectos e interacciones principales son muy significativos, excepto el


interacción xreth4r*xcpay1r. En una regresión ponderada por encuesta, el mismo
factores e interacciones fueron significativas. Con un tamaño de muestra tan grande,
probablemente también podría encontrar algunas interacciones tripartitas significativas. Pero, por esto
proyecto, no intentaremos extender el modelo anterior.
Machine Translated by Google

16.6 Ajustes por falta de respuesta 463

Dadas las probabilidades de respuesta pronosticadas de este modelo, podemos crear


clases basadas en sus cuantiles. La tabla 16.8 muestra los rangos de propensiones y
conteos de personas en cada clase cuando se crean 5 y 10 clases.
Observe que los conteos de personas en cada clase no son iguales. Dado que el modelo
utiliza solo factores como predictores, existen muchos vínculos entre las propensiones
estimadas, lo que lleva a divisiones desiguales entre las clases. El uso de 10 clases
parece distinguir mejor entre diferentes tasas que el de 5 clases. Las tasas estimadas
dentro de las clases en las últimas cinco columnas de la Tabla 16.8 son bastante
similares, independientemente del método de cálculo.
La figura 16.1 muestra diagramas de caja de las propensiones estimadas del modelo
para los desgloses de 5 y 10 clases. Los rangos son bastante amplios en cada una de
las 5 clases, pero notablemente menores dentro de cada una de las 10 clases. Como
diagnóstico adicional, podemos verificar si se logró el equilibrio para las covariables en el
desglose de 10 clases. El siguiente código R crea un indicador de si una persona está en
la Guardia Nacional del Ejército y verifica el saldo:
v1 <- rep(0,nrow(sofr.d1.elig)) v1 <-
sofr.d1.elig$xsrrcr == 1 # Army National Guard chk <- glm(v1 ˜as.factor(p.class.10) +
como.factor(resp) +
as.factor(p.class.10)*as.factor(resp), family=binomial(link =
"logit"), data = sofr.d1.elig) anova(chk, test="Chisq")

Parte de la salida de la instrucción anova es


Desviación Df P(>Chi)
como.factor(p.clase.10) 9 12764.8 < 2.2e-16 ***
como.factor(resp) Una 8.9 0.00288 **
como.factor(p.clase.10):as.factor(resp) 9 24.5 0.00364 **

Verificaciones similares (que no se muestran aquí) revelan que el término de interacción


es significativo al predecir si una persona está en la Reserva del Ejército, está en el grupo
de pago E1-E3 o es un blanco no hispano. Como resultado, el modelo con interacciones
bidireccionales no logra el equilibrio estadístico. En parte, esto probablemente se deba a
la muestra extremadamente grande en la que los efectos pequeños resultan
estadísticamente significativos y, en parte, a la especificación incorrecta del modelo en
sí. En particular, puede haber interacciones de orden superior. Usar un árbol de regresión
puede ser una forma de encontrarlos.

Árbol de regresión

Usando las mismas cuatro variables anteriores (servicio, grupo de pago, género y raza/
etnicidad), ajustamos un modelo CART con este código:

t1 <- rpart(resp ˜ xcpay1r + xreth4r + xsexr + xsrrcr,


método = "clase", control =
rpart.control(minbucket = 250, cp=0), datos = softr.d1.elig)
cada
clase. Tabla
16.8:
Rangos
de
propensiones
respuesta
estimadas
para
5
y10
clases
con
junto
cinco
estimaciones
de
propensión
respuesta
dentro
Total [0.098,
0.166]
8,218
(0.166,
0.213]
5,350
(0.213,
0.264]
7,600
(0.264,
0.300]
5,939
(0.300,
0.360]
6,053
(0.360,
0.446]
7,024
(0.446,
0.519)
0,627]
6.136
(0,627,
0,735]
6.615 ) , 10
clases [0,098,
0,213]
13ÿ568
(0,213,
0,300]
13ÿ539
(0,300,
0,446]
13ÿ077
(0,446,
0,569]
13ÿ213
(0,569,
0,735]
12ÿ751 propensiones
5
clases Rango
de
estimado
66,148 personas número
de
muestras
0.665 0.595 0.555 0.481 0.409 0.336 0.285 0.244 0.191 0.140 0.631 0.520 0.375 0.262 0.160 significar no
ponderado
0.667 0.599 0.551 0.472 0.403 0.335 0.284 0.242 0.198 0.147 0.635 0.509 0.387 0.251 0.172 significar Ponderado
0.667 0.588 0.558 0.478 0.409 0.346 0.290 0.236 0.190 0.141 0.629 0.521 0.380 0.260 0.160 Tasa
de
respuesta
no
ponderada
0.687 0.611 0.542 0.494 0.437 0.350 0.313 0.256 0.226 0.177 0.651 0.517 0.416 0.267 0.201 Tasa
de
respuesta
ponderada
0.649 0.591 0.555 0.484 0.398 0.326 0.281 0.238 0.190 0.137 0.628 0.520 0.375 0.264 0.166 propensión
de
respuesta Mediana
16 Ponderación de la Encuesta de Personal: Una Solución 464
Machine Translated by Google
Machine Translated by Google

16.6 Ajustes por falta de respuesta 465

Probabilidades pronosticadas por 5 clases de ajuste Probabilidades pronosticadas por 10 clases de ajuste
Los puntos representan la media de la clase Los puntos representan la media de la clase

0.7 0.7

0.6 0.6

0.5 0.5

0.4 0.4

0.3 0.3

0.2 0.2

0.1 0.1

Higo. 16.1: Boxplots de propensiones de respuesta estimadas agrupadas en 5 y 10 clases.


Modelo de propensión estimado en base a las cuatro variables disponibles para encuestados y no
encuestados utilizando un modelo con efectos principales y todas las interacciones bidireccionales.
Un punto marca la propensión promedio en cada clase.

El árbol con 13 nodos terminales se muestra en la Fig. 16.2. Como se desprende


de la figura, la estructura tiene algunas combinaciones complicadas. La Tabla 16.9 da
las descripciones de los nodos. Las clases CART están numeradas de manera
diferente por el método de impresión que en el objeto t1$where. Los oficiales de más
alto rango tienen las tasas de respuesta más altas; esto se refleja en la clase 25 que
contiene los grupos de pago O4-O6 que tiene una tasa de respuesta de 0,631 (no
ponderada) y 0,672 (ponderada). El personal alistado no respondió bien: CART colocó
todos los E1-E6 en la clase 2, que tiene tasas no ponderadas y ponderadas de 0,272
y 0,321. Entre el personal mejor pagado, los infantes de marina son algunos de los
que peor responden. Por ejemplo, la clase 21, que contiene E7-E9, blancos no
hispanos en la Reserva del Cuerpo de Marines tuvo una tasa no ponderada de 0,385
(0,410 ponderada). El número de personas en las clases de CART oscila entre 296 y
41.380, lo que obviamente está lejos de las clases de tamaño casi igual en el análisis
de propensión. Tenga en cuenta que 41.380 de los 66.148 elegibles (62,6%) están en
la misma clase y se les asigna la misma tasa de respuesta.
Dado que las clases formadas por el árbol de regresión parecen capturar la
complejidad del proceso de respuesta mejor que el modelo logístico, las clases de la
tabla 16.9 se utilizarán para el ajuste por falta de respuesta. Usamos tasas de
respuesta ponderadas para hacer el ajuste de peso en cada clase. Los valores
ponderados se muestran en la última columna de la Tabla 16.9. Como se menciona
en el Cap. 13, no todos los profesionales estarán de acuerdo en si las tasas ponderadas o no ponde
Machine Translated by Google

466 16 Ponderación de la Encuesta de Personal: Una Solución

xcpay1r< 3.5 |
0
40589/25559

xcpay1r< 6.5 1

0 30108/11272 10481/14287

xreth4r>=1.5 1

6982/8301 1 3499/5986

xsrrcr< 4.5 xsrrcr>=3.5


0 1
2543/2423 4439/5878

xsrrcr>=3.5 xsrrcr< 4.5


0 1
1961/1766 1 582/657 1980/2396 1 2459/3482

xsrrcr< 1.5 xcpay1r< 4.5 0


0 579/476
0 384/285 1577/1481 1 1401/1920

xsrrcr< 2.5
1
0 615/510 962/971 0 304/190 1 275/286

xsexr>=1.5
0
830/807 1 132/164

xcpay1r< 4.5 1
579/585
0 251/222

0 283/279 1 296/306

Higo. 16.2: Árbol de regresión para predecir la respuesta en función de las cuatro variables disponibles para
encuestados y no encuestados.

debería ser usado. El uso de tasas ponderadas es, en cierto sentido, una solución de compromiso.
Condicionados a las clases formadas, las tasas ponderadas son modelo insesgado bajo un
modelo en el que cada persona en una clase tiene una probabilidad común de responder. También
son estimaciones aproximadamente imparciales de las tasas de respuesta de la población en
muestreo repetido dado el conjunto particular de clases utilizado.

16.7 Calibración para recuentos de población

El último paso de ponderación en este proyecto será la calibración de algunos de los recuentos
de población disponibles. La función estadística a la que sirve aquí la calibración es principalmente
para reducir los errores estándar. Dado que los registros administrativos militares deben ser
precisos, no debe corregirse una cobertura excesiva o insuficiente sistemática. Además, la
calibración tiene cierto atractivo cosmético aquí. Tener conteos estimados exactamente iguales a
los de los registros del personal administrativo le dará a los resultados de la encuesta validez
aparente, una característica que puede ser importante para muchos usuarios de datos. Hay dos
cuestiones operativas importantes que deben abordarse:
(t1$donde) clase
CARRITO
25 24 23 22 21 17 dieciséis 15 14 12 9 7 2
795
W1-
W5,
O1-
O3,
Minoría,
Reserva
del
Ejército, 396 (impresión) clase CARRO
7 27 53 105
W1-
W5,
O1-
O3,
blanco
no
hispano, 104 25 199 794 98 48 2 Tabla
16.9:
Clases
de
ajuste
por
falta
de
respuesta
creadas
usando
un
árbol
de
regresión.
O4-
O6 Reserva,
Reserva
Naval Blanco,
Guardia
Nacional
Del
Ejército,
Ejército E7-
E9,
W1-
W5,
O1-
O3,
no
hispano Reservar Blanco,
Guardia
Nacional
Aérea,
Fuerza
Aérea E7-
E9,
W1-
W5,
O1-
O3,
no
hispano Reserva
del
Cuerpo
de
Marines Reservar E7-
E9,
Blanco
no
hispano,
Infantería
de
Marina Guardia
Nacional,
Reserva
de
la
Fuerza
Aérea E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Aire Reservar E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Naval Masculino E7-
E9,
Minoría,
Reserva
del
Ejército,
Masculino Reserva,
Mujer E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Ejército Guardia
Nacional E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Ejército Reserva
del
cuerpo E7-
E9,
W1-
W5,
O1-
O3,
Minoría,
Marina E1-
E3,
E4,
E5-
E6 Descripción
hijos No.
de
por
669
41,380
9,485 5,941 3,321 1,239 1,125
561 494 296 602 562 473
Velocidad Respuesta
no
ponderada
0.631 0.586 0.578 0.510 0.385 0.530 0.554 0.508 0.496 0.469 0.453 0.426 0.272
Velocidad respuesta Ponderado
0.672 0.586 0.612 0.509 0.410 0.544 0.525 0.517 0.485 0.471 0.481 0.406 0.320
467 16.7 Calibración para recuentos de población
Machine Translated by Google
Machine Translated by Google

468 16 Ponderación de la Encuesta de Personal: Una Solución

• ¿Qué variables y/o combinaciones de variables se deben usar para cali


bración?
• ¿Cómo se deben manejar los valores faltantes para las variables de calibración en el
archivo de muestra y el archivo de recuentos de población?

El código para completar los análisis esbozados a continuación se encuentra en el archivo 16.3
Calibración de la solución adj.R en el sitio web.
Otras cuestiones que no abordaremos aquí, pero que serían importantes en
una encuesta real, son:

• ¿En qué período de tiempo se deben realizar los conteos de población cuando hay
retraso entre la selección de la muestra y la recopilación de datos?
• ¿Qué personas deben contarse para obtener los controles?

Las bases de datos de registros administrativos generalmente se actualizan periódicamente: una vez
al mes, una vez al trimestre, etc. También puede haber un retraso entre el período de tiempo de la
base de datos y el momento en que está disponible para la tabulación. Esto significa que los
recuentos de población pueden no ser para el período de tiempo en que se recopilan los datos.
Además, la recopilación de datos puede extenderse a través de dos o más actualizaciones de los
datos administrativos. Por ejemplo, puede haber un retraso de 2 meses entre la selección de la
muestra y la recopilación de datos, el período de la encuesta puede durar 10 semanas y los registros
administrativos pueden actualizarse una vez al mes. Cuando ocurre tal retraso, las personas
encuestadas serán los “sobrevivientes”, es decir, los que estaban en el marco cuando se seleccionó
la muestra y aún son elegibles cuando se recopilan los datos. No se incluirían en la muestra nuevos
ingresos a la población. Si los recuentos de población se realizan cerca del momento de la
recopilación de datos e incluyen a todas las personas elegibles según las reglas de la encuesta,
entonces los recuentos incluirían a los nuevos participantes que no tuvieron posibilidad de ser
incluidos en la muestra. Si calibramos estos conteos, estamos diciendo que las actitudes de los
nuevos entrantes pueden ser predichas por aquellas de las personas de la muestra que han estado
en la población por más tiempo. Otra opción sería tabular los recuentos de control usando solo
personas que hayan estado en el ejército durante al menos dos meses, si ese es el tiempo de retraso
entre el muestreo y la recopilación de datos. En algunas encuestas, como las de la población de
hogares de los EE. UU., tales tabulaciones selectivas pueden no ser factibles.

En este proyecto, utilizaremos los conteos de población que se dan en el RCCPDS57. archivo
sas7bdat. Como se señala en el Cap. 12, este archivo provino de la comparación del marco muestral
con el archivo de personal más actual disponible al comienzo del período de recopilación de datos.
Es decir, los conteos son los de los sobrevivientes. Por lo tanto, estos recuentos deben cubrir solo los
casos elegibles.

Identificación de variables a usar

El archivo de recuentos de población contiene combinaciones de servicio, género, grupo de pago,


raza/etnicidad, educación, estado civil y duración de la activación. Todos
Machine Translated by Google

16.7 Calibración para recuentos de población 469

de estos son categóricos y se pueden usar solos o en cualquier número de


combinaciones. Podríamos, por ejemplo, usar solo los recuentos marginales de servicio,
grupo de pago y género. O bien, podríamos usar servicio × grupo de pago y servicio ×
género o servicio × grupo de pago × género. Algunos modelos son un enfoque útil para
guiar la decisión. El objetivo será determinar un conjunto de pesos que sea
razonablemente eficiente para las variables importantes medidas en la encuesta.
Tenemos seis variables de análisis enumeradas en la Tabla 16.10 (RA006a, RA006B,
RA008, RA115, RA118 y RA112RA) para ayudar a tomar la decisión.
Para hacer el modelado creamos varias variables binarias. La satisfacción con la
compensación (RA006A) y el tipo de trabajo (RA006B) se codificaron como satisfecho/
muy satisfecho = 1 y 0 en caso contrario. La probabilidad de reincorporarse (RA008) se
codificó como probable/muy probable = 1 y 0 en caso contrario. La preparación para el
trabajo (RA115) se codificó como bien preparado/muy bien preparado = 1 y 0 en caso contrario.
El nivel de estrés (RA118) se codificó como más de lo habitual/mucho más de lo habitual
= 1 y 0 en caso contrario. Finalmente, se utilizó como variable continua los días en
estado compensado (RA112RA).
En lugar de ajustar regresiones binarias donde la forma de los predictores se
especifica de antemano, nuevamente usamos árboles de regresión para permitir que el
algoritmo identifique las variables y combinaciones de niveles más importantes para la
predicción. Dado que la intención de volver a alistarse es una variable clave en esta
encuesta, presentamos esos resultados aquí. La figura 16.3 muestra el árbol de regresión
para predecir si es probable o muy probable que una persona se vuelva a alistar. El
código para calcular el árbol y dibujar la figura es
t1 <- rparte(ra008R ˜ xsrrcr + xsexr + xcpay1r + xreth4r + sred + srmarst +
xact2r, método = "clase", control = rpart.control
(minbucket = 250, cp = 0), datos = archivo de datos)

plot(t1, uniform=TRUE, compress=TRUE, margin = 0.1, branch=0) text(t1, use.n=TRUE,


all=TRUE, digits=15, cex=1.2, pretty=1.2, fancy=TRUE, fwidth=0.7, xpd = VERDADERO,
fuente = 3)

Las descripciones de las variables, xsrrcr, xsexr, etc., se dan en la Tabla 16.1. El
parámetro branch=0 en plot da un árbol con ramas en forma de V, lo que, en este caso,
hace que las etiquetas de las ramas sean más fáciles de leer. Grupo de pago, rama de
servicio, si una persona ha estado activa durante 30 días o más y el estado civil se
incluyen en el árbol; el género, la raza/etnicidad y la educación no lo son.

La Tabla 16.10 resume qué variables se incluyeron en los árboles para predecir las
seis variables de análisis. El género se seleccionó solo para predecir si las personas se
sentían preparadas para hacer su trabajo. Examen del individuo
RA112RA
Estado
pagado RA118 RA115 RA008 RA006B RA006A
Compensación Nombre
Tabla
16.10:
Variables
incluidas
en
árboles
de
regresión
para
predecir
seis
variables
de
análisis.
Estrés Preparación volver
a
alistarse Tipo
de
trabajo Variable
de
análisis
Servicio
Género
Pago predictores
grupo
Raza/
etnicidad
Educación
Matrimonial
estado
Activación
16 Ponderación de la Encuesta de Personal: Una Solución 470
Machine Translated by Google
Machine Translated by Google

16.7 Calibración para recuentos de población 471

1 5605/19954

xcpay1r< 2.5
xcpay1r>=2.5
1 2257/3362 1 3348/16592
xsrrcr< 4.5
xsrrcr>=4.5
1 1719/2167 1 538/1195
xsrrcr>=3.5
xsrrcr< 3.5
Una

0 398/241 1321/1926
xsrrcr<2.5
xsrrcr>=2.5
1 1036/1242 1 285/684
xact2r< 2.5
xact2r>=2.5
0 621/600 1 415/642
srmast>=4
srmast< 4
0 360/276 1 261/324

Higo. 16.3: Árbol de regresión para predecir la probabilidad de reincorporación.

Los árboles muestran que las interacciones servicio × pago y servicio × activación
siempre están presentes. A menudo hay interacciones más complicadas, como en la Fig.
16.3, donde hay una combinación de servicio, grupo de pago, activación y estado civil.
Sin embargo, incluir interacciones de 3 y 4 vías daría lugar a muestras muy escasas en
algunas combinaciones de niveles, aunque hay más de 25 000 encuestados. En base a
estos resultados, decidimos utilizar un modelo de calibración con:

• Principales efectos por servicio, género, grupo de pago, raza/etnicidad, educación, mar
estado actual y activación; •
Interacciones para servicio × pago y servicio × activación.

Aunque el género solo aparece una vez en la Tabla 16.10, lo incluimos por el beneficio
cosmético de hacer coincidir el recuento de registros administrativos para hombres y
mujeres.

Imputación de valores faltantes

Las tablas 16.6 y 16.7 mostraron que el archivo a partir del cual se realizaron los
recuentos de población tenía valores faltantes para algunas personas por servicio, raza/
etnicidad, género, educación, estado civil y activación. El porcentaje de personas con
valores faltantes osciló entre el 0,04 % para el servicio y el 3,3 % para la educación. Para
imputar los valores faltantes, solo necesitamos imputar un valor de covariable siempre
que falte en el archivo RCCPDS57.sas7bdat. Por ejemplo, había 159 registros de este
tipo en el archivo a los que les faltaba un valor para el servicio:
Machine Translated by Google

472 16 Ponderación de la Encuesta de Personal: Una Solución

servicio género pg grupo raceth educat marit activatd 2 45 3


. 2 2

Para imputar el servicio que falta, se hace un sorteo aleatorio de los códigos permitidos en
proporción a los recuentos de códigos de población para los registros que no faltan.
El código R para hacer las imputaciones de conteo de población está en la función, imputar,
en el archivo “16.3 Calibración de la solución adj.R”.
El archivo de muestra también tiene algunos registros con datos faltantes sobre las
covariables que se utilizarán para la calibración. La Tabla 16.7 muestra que el 2,1% de los
25.559 encuestados no tiene educación, el 0,1% no tiene estado civil y el 0,5% no tiene el
campo de activación. Cualquier valor faltante para un encuestado de la muestra se imputó
con un sorteo aleatorio de los códigos permitidos para una variable.
Los sorteos se realizaron en proporción a la distribución entre los códigos para personas
con datos no faltantes. El código R para hacer las imputaciones de muestra está en la
función, imputar.sam, que también está en “16.3 Calibración de la solución adj.R”.

Estos métodos de imputación son sencillos y podrían criticarse por no tener en cuenta
ninguna relación multivariada entre diferentes variables.
Dada la pequeña cantidad de datos faltantes para todas las variables, elegimos mantener
los métodos simples.

Estimación GREG

Usando los archivos de encuestados de muestra y conteos de población con todos los
valores faltantes imputados, calibramos los totales de población usando un estimador
GREG. Al usar la función de calibración en la encuesta R, se necesita cierto cuidado para
asegurarse de que el vector de los totales de la población esté exactamente en el mismo
orden en que se usa internamente por calibración. La función model.matrix creará la matriz
modelo de covariables que calibran los usos para una fórmula particular. En esta aplicación,
verificamos el pedido con

# comprobar cómo se forma la matriz de diseño en calibrar mm <- model.matrix(˜


as.factor(xsrrcr) * as.factor(xcpay1r) + as.factor(xsrrcr) * as.factor(xact2r) + as.factor (sred) ) +
como.factor(xsexr) + como.factor(xreth4r) + como.factor(srmarst),
data = sofr.cal)

dimnombres(mm)[[2]]

La última instrucción enumera los nombres de las columnas de la matriz del modelo. Las
interacciones están en orden de "fila principal". Por ejemplo, los primeros cinco valores de
la interacción servicio × grado de pago son

"como.factor(xsrrcr)2:como.factor(xcpay1r)2"
Machine Translated by Google

16.7 Calibración para recuentos de población 473

"como.factor(xsrrcr)3:como.factor(xcpay1r)2"
"como.factor(xsrrcr)4:como.factor(xcpay1r)2"
"como.factor(xsrrcr)5:como.factor(xcpay1r)2 "
"como.factor(xsrrcr)6:como.factor(xcpay1r)2"

Es decir, el servicio se incrementa antes que el grado de pago. A continuación se muestra el


código para colocar los controles de población en el orden correcto y para calcular los pesos
GREG. Antes de este código, se realizaban y almacenaban en los objetos svc.pay1 y svc.act1:
servicio × grado de pago y servicio × activación:

# reordenar los totales emergentes para los términos de interacción # para


que coincidan con la forma en que calibrar crea la matriz del modelo
svc.pay1 <- svc.pay[pedido(svc.pay[,2]),] svc.act1 <-
svc.act[pedido(svc.act[,2]),] del1 <- svc.pay1[, 1]==1 |
svc.pay1[,2]==1 del2 <- svc.act1[,1]==1 | svc.act1[,2]==1

pop.tots <- c(N,


svc[-1,2],
pay[-1,2],
activado[-1,2], educ[-1,2],
gender[-1,2], raceth[-1,2],
marital[ -1,2], svc.pay1[!
del1,3], svc.act1[!del2,3])

sam.lin.ub <- calibrar(diseño = softr.cal.dsgn,


fórmula = ˜como.factor(xsrrcr)*como.factor(xcpay1r) + como.factor(xsrrcr)
* como.factor(xact2r) + como.factor(sred) + como.factor(xsexr) +
como.factor(xreth4r ) + as.factor(srmarst), población = pop.tots, límites
= c(-Inf,Inf), calfun = c("lineal") )

La tabla 16.11 proporciona algunas estadísticas resumidas sobre los pesos después de cada
paso del proceso. La ponderación media es aproximadamente la misma antes y después del
paso GREG, mientras que el rango es mayor para las ponderaciones GREG que para las
ponderaciones ajustadas por falta de respuesta. La suma de los pesos es la más pequeña
después del paso GREG (801,809), lo que explica el hecho de que algunas personas dejaron de
ser elegibles entre el muestreo y la recopilación de datos y que los totales de control son solo
para los sobrevivientes.
En esta solución, no se utilizó el recorte de peso, aunque algunos practicantes podrían
considerarlo. Aunque el rango de pesos finales es bastante amplio (1,199 a 613,4), los pesos
base comenzaron con un amplio rango debido a las tasas de muestreo altamente diferenciales
que se utilizaron. Los pesos base se ajustaron para reflejar tasas de respuesta sustancialmente
diferentes entre algunos tipos de personal.
Machine Translated by Google

474 16 Ponderación de la Encuesta de Personal: Una Solución

Tabla 16.11: Resumen de pesos y conteos de personas después de cada paso.

ponderación mín. 1er cuarto Mediana Media 3er Qu. máx. Suma Personas
paso
Base Una 2.201 5.049 12.14 14.27 178,3 870.373 71.701
ajustado para 1.023 2.251 5.05 12.3 14.59 182,3 813.342 66.148
desconocido
elegibilidad
ajustado para 1.521 4.746 14.63 31.82 34.31 514,7 813.342 25.559
falta de respuesta
GREG 1.199 4.672 13.43 31.37 30.91 613,4 801.809 25.559

En consecuencia, los pesos finales tienen un amplio rango. Esto es necesario para corregir el sesgo
de falta de respuesta en algunos subgrupos. Sin embargo, el cuantil 99 de la
pesos finales es de unos 385 mientras que el peso final máximo es de 613,4. Guarnición
del 1% más grande de los pesos podría reducir los SE para estimaciones de población completa
sin introducir demasiado sesgo, pero las estimaciones para los subgrupos con
las tasas de respuesta muy bajas podrían entonces estar sesgadas. Como siempre, nos enfrentamos a
objetivos en conflicto sin una forma única de lograrlos.

16.8 Escritura de archivos de salida

El archivo resultante con los pesos GREG se puede escribir en formato delimitado por comas.
(csv) archivos de texto para su uso en otro software estadístico. El código de abajo
el peso GREG al archivo, selecciona campos para la salida y escribe los archivos de texto.
La función write.foreign en el paquete outsider (R Core Team y
colaboradores en todo el mundo, 2012a) también escribirá código para ser utilizado en la importación
los archivos csv en algunos otros paquetes. Ilustramos el proceso a continuación para
SAS y Stata:

# agregar pesos GREG al archivo de datos de 25,559 encuestados


softr.cal$d3 <- pesos(sam.lin.ub)
# especificar campos para los archivos de texto, SAS y Stata
campos <- c("rec.id", "nr.class", "respstat", "estrato",
"nsamp", "nstrat", "v.strat",
"srmarst", "sred", "xsrrcr", "xact2r",
"xreth4r", "xsexr", "xcpay1r",
"ra006a", "ra006b", "ra008", "ra115",
"ra118", "ra112ra",
"pred.logit", "p.class.10", "unwt.rr", "wt.rr",
"d0", "d1", "a1",
"d2", "a2",
"d3")

escribir.extranjero(df = softr.cal[, campos],


archivo de datos = pegar (archivo_loc2, "softr.cal.sas.csv", sep=""),
Machine Translated by Google

16.9 Tabulaciones de ejemplo 475

archivo de código = pegar (file_loc2, "softr.sas", sep=""), paquete = "SAS")

escribir.extranjero(df = softr.cal[, campos],


archivo de datos = pegar (archivo_loc2, "sofr.cal.stata.csv", sep=""), archivo de código = pegar
(archivo_loc2, "sofr.ado", sep=""), paquete = "Stata")

La variable, file loc2, es una cadena de texto que especifica la carpeta donde se
escribirán los archivos de salida. El lector puede consultar los programas 16.1 Solution
bwt-unknown adj.R, 16.2 Solution NR adj.R, y 16.3 Solution calibración adj.R, para ver
cómo se crearon las diferentes variables.

Aunque los datos se pueden importar a paquetes estadísticos distintos de R, una


preocupación es que los otros paquetes no tienen procedimientos integrados que
reconozcan que los pesos se calcularon a través del procedimiento GREG. Esto, por lo
general, significa que las estimaciones de la varianza de la linealización se calcularán
utilizando el método de conglomerado final analizado en el Cap. 15 que no utiliza el
conjunto correcto de residuales. Como resultado, los SE de linealización calculados a
partir de los otros paquetes generalmente no serán correctos. Este problema se puede
evitar si se utiliza la replicación. En ese caso, el conjunto de pesos de replicación puede
reflejar apropiadamente los diferentes pasos de la ponderación, particularmente el tipo
de calibración que se usó. Los pesos replicados se incluyen con el conjunto de datos,
y un paquete como SAS o Stata solo necesita saber qué método de replicación se usó
(jackknife, BRR o bootstrap) para producir SE legítimos.

16.9 Tabulaciones de ejemplo

Finalmente, en esta sección, presentamos algunas tabulaciones simples utilizando el


archivo con los pesos finales. El código R asociado se encuentra en el archivo 16.4
Tabulaciones de ejemplo.R. Las proporciones de personas que respondieron en las
categorías de la pregunta de reincorporación (ra008) se pueden estimar con

# proporciones para el elemento de reenganche reenganche


<- svymean(˜ as.factor(ra008), design = sam.lin.ub, na.rm = TRUE)

# formato con etiquetas de fila


print(ftable(volver a listar, nombres
de filas = lista(c("Muy improbable",
"Improbable",
"Ni probable ni improbable",
"Probable",
"Muy probable") ) ),
dígitos = 3)
Machine Translated by Google

476 16 Ponderación de la Encuesta de Personal: Una Solución

La función ftable permite utilizar etiquetas para la salida impresa. los


los resultados, incluso con el uso de ftable que mejora la apariencia, no son
hermoso:

muy improbable media 0.06608


SE 0.00357
diferentemente media 0.10924
SE 0.00428
Ni probable ni improbable media 0,09280
SE 0.00386
Probable media 0.31757
SE 0.00611
muy probable media 0.41431
SE 0.00619

Si se necesita una tabla para un informe, una opción es importar la salida


en una hoja de cálculo donde se puede aplicar un formato más atractivo.
Supongamos que el resultado de print(ftable(reenlist, ...)) se guarda en
un objeto llamado. Código que se convertirá en un marco de datos, ponga
la proporción y SE uno al lado del otro, y escribe el resultado en un archivo llamado
tabla.csv es

fuera <- data.frame(fuera)


fuera <- cbind(fuera[1:5,], fuera[6:10,])
fuera <- fuera[, c(1,3,6)]
dimnames(fuera)[[2]] <- c("Respuesta", "Proporción", "SE")
escribir.csv(fuera, archivo = "c:\\tabla.csv")
Machine Translated by Google

Parte IV
Otros temas
Machine Translated by Google

capitulo 17
Diseños multifase

Se desarrollan diseños de muestra y se eligen estimadores para cumplir de manera eficiente los
planes de análisis especificados. La eficiencia generalmente se define para abarcar tres áreas
principales: estimaciones precisas (sesgo) con altos niveles de precisión (pequeños errores
estándar) calculadas a partir de datos recopilados con procedimientos que hacen un uso
económico de los fondos del estudio sin exceder el presupuesto especificado (costo). Secciones
3.1 y 3.2 y Cap. 15 detallan las ganancias en precisión que se logran si se puede utilizar
información auxiliar altamente asociada con las variables de análisis. Esto incluye, por ejemplo,
variables auxiliares utilizadas (i) en el muestreo como variable de estratificación o para construir
la medida del tamaño para un diseño de probabilidad proporcional al tamaño (pps) o (ii) en la
estimación con un estimador de regresión (o razón). Sin embargo, ¿qué pasa si el único marco
muestral disponible no tiene información auxiliar útil? Sin la información auxiliar, ¿cómo podría
el estadístico abordar las preocupaciones de que el tamaño de muestra inflado requerido para
el nivel de precisión especificado excederá el presupuesto del estudio?

Una solución para estos problemas utilizada por los estadísticos en varios campos se conoce
en términos generales como diseño multifase. En las siguientes secciones, brindamos una
definición (Sección 17.1) para diferenciar este tipo de diseño de muestra de otros discutidos en
este libro, así como ejemplos de la vida real de diseños multifásicos (Sección 17.2). Habiendo
establecido una definición de trabajo de los diseños multifásicos, examinamos los componentes
necesarios para desarrollar los pesos base y de análisis (Sección 17.3). Luego, los pesos se
utilizan en la presentación de algunas estimaciones puntuales y varianzas (Sección 17.4),
tomando prestadas fórmulas discutidas en otros capítulos de este texto junto con algunos
resúmenes de investigaciones publicadas.
Los métodos para determinar el tamaño total de la muestra y la asignación a las fases se
proporcionan en la Secc. 17.5 junto con los métodos utilizados para justificar la necesidad de un
estudio multifase cuando estas encuestas a veces requieren un largo período de recopilación de datos.
Concluimos este capítulo con una breve discusión del software disponible para la selección y el
análisis de muestras (Sección 17.6).

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 479


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 17, © Springer Science+Business Media New York 2013
Machine Translated by Google

480 17 diseños multifásicos

17.1 ¿Qué es un diseño multifásico?

La mayoría de los principales libros de texto de muestreo contienen una discusión sobre diseños de dos fases.
Estos diseños utilizan al menos dos marcos de muestreo secuenciales:

(1) Un marco de población que cubre la población objetivo


(2) Un marco que contiene información auxiliar (población) y respuestas de encuesta para una muestra
aleatoria seleccionada del marco de población

Pensar en un levantamiento genérico puede aclarar las características que distinguen un diseño multifásico.

Considere una encuesta donde los datos se recopilan a través de un modo relativamente económico en
una muestra aleatoria de unidades extraídas de un marco de muestreo que cubre la población objetivo. Llame
a esto la muestra de fase 1 seleccionada de un marco de muestreo de fase 1. La información recopilada en la
primera fase junto con los datos auxiliares del marco muestral de la fase 1 forman el marco muestral de la
segunda fase.
Luego, los datos se recopilan de una submuestra aleatoria de unidades de muestra de la fase 1, denominada
muestra de la fase 2. La recopilación de datos en la segunda fase suele implicar una metodología más costosa
que la utilizada en la primera fase.
La discusión estándar del libro de texto incluye solo dos fases de diseño y unidades en ambas fases
seleccionadas a través del muestreo de una sola etapa. Extender el diseño a un muestreo complejo dentro de
la primera fase o a tres o más fases complica las derivaciones teóricas y la estimación de la varianza (así
como los procedimientos de mantenimiento de registros en las encuestas reales), pero cumple un propósito,
como se analiza más adelante en este capítulo. Independientemente del número de fases, el tipo de unidad
analítica es el mismo en todas las fases (por ejemplo, personas).

La característica distintiva de los diseños multifase es la selección de al menos una submuestra aleatoria
extraída de una muestra inicial, como se destaca en nuestra encuesta genérica de dos fases anterior. El
submuestreo puede ocurrir una o varias veces, como un diseño de etapas múltiples (Capítulos 9 y 10). De
hecho, los diseños multietapa son un tipo especializado de diseño multifase. Revisemos nuestra encuesta
genérica de dos fases desde arriba; suponga que las unidades de la segunda fase se seleccionan de grupos
de unidades muestreadas aleatoriamente en la primera fase. S¨arndal et al. (1992, Secc. 4.3.1) clasifican este
estudio como un diseño de dos etapas si y solo si se cumplen dos propiedades: independencia e invariancia.
La propiedad de independencia indica que las unidades de la fase 2 se seleccionan al azar de cada
conglomerado de la fase 1 independientemente de los otros conglomerados de muestra. La propiedad de
invariancia es un poco más complicada y se enfoca en la teoría del muestreo repetido. En palabras
(ligeramente teóricas), esto significa que el mecanismo de muestreo de la fase 2 (por ejemplo, el esquema de
muestreo, las probabilidades de selección) para las unidades dentro de un conglomerado de la fase 1 en
particular no está influenciado por la presencia o ausencia de otros conglomerados de la fase 1 en
implementaciones repetidas del mismo. mecanismo de muestreo de fase 1. Esta "regla de no mirar a
escondidas" establece que las unidades de la fase 2 se seleccionan independientemente de los resultados de
la fase 1 obtenidos para otros grupos. Como se señaló en S¨arndal et al. (1992), la esperanza teórica y la
varianza de un estimador tomado con respecto a los diseños muestrales implementados en cada
Machine Translated by Google

17.1 ¿Qué es un diseño multifásico? 481

la fase no cambia con la muestra particular de la fase 1 seleccionada en un solo sorteo.

Una forma sencilla de pensar en las propiedades independientes y de invariancia es que si


el diseño de la muestra para la segunda etapa se especifica de antemano y no cambia
independientemente del conjunto de unidades de la primera etapa que se seleccione (o los
resultados de las unidades de la primera etapa). ), entonces la encuesta se realiza a través de
un diseño en dos etapas. De lo contrario, el diseño es un diseño de dos fases. La violación de la
independencia o la invariancia no solo cambia la etiqueta de diseño de multietapa a multifase,
sino que también puede afectar la fórmula de varianza utilizada para el estimador puntual de
interés. Posponemos la discusión de la varianza hasta más adelante en este capítulo. Allí, la
distinción entre diseños multietapa y multifase se hace más concreta a través de un ejemplo. La
diferencia puede ser sutil como esperamos ilustrar.

Ejemplo 17.1 (Encuestas de educación de EE. UU.). El Estudio Longitudinal de Educación de


2002 (ELS:2002)1 y el Estudio Longitudinal de Escuelas Secundarias de 2009 (HSLS:09),2
ambos realizados bajo contrato con el Centro Nacional de Estadísticas de Educación (NCES)
ubicado en el Instituto de Educación del Departamento de Educación de los Estados Unidos.
Ciencias de la educación, se enfoca en comprender los caminos elegidos por los estudiantes
desde los primeros años de la escuela secundaria hasta los años de educación postsecundaria
(es decir, la universidad) y sus carreras laborales. Estas encuestas incorporan recuentos de la
población estudiantil por raza/grupo étnico en las tasas de muestreo para seleccionar primero
las escuelas (etapa 1 de muestreo) y luego seleccionar estudiantes al azar de forma independiente
dentro de cada escuela muestreada (etapa 2 de muestreo). La información de población se
obtiene de archivos NCES disponibles públicamente que contienen datos recopilados uno o dos
años antes. Con la información del marco fechado, la distribución porcentual por grupo racial
encontrada en una escuela participante puede diferir de los porcentajes del marco de muestreo
de NCES. Sin embargo, las tasas de muestreo iniciales pueden permanecer a menos que se
violen ciertas reglas, como se indica a continuación.
Cuando el diseño se ejecuta según lo planeado, es claramente de dos etapas. Sin embargo,
se pueden realizar algunos cambios en la segunda etapa sin convertir el diseño en dos fases. Si
el tamaño de la muestra de estudiantes que utiliza la tasa de muestreo preestablecida de la
etapa 2 excede los máximos establecidos para el estudio,3 entonces los estadísticos normalmente
ajustarán las tasas de muestreo con una escuela determinada utilizando la información actualizada.
Suponga que estos ajustes se realizan de forma independiente dentro de cada escuela (propiedad
de independencia) y se habrían introducido independientemente de la distribución de otras
escuelas en la muestra (propiedad de invariancia). Por lo tanto, la reivindicación de un diseño en
dos etapas (es decir, un diseño especializado en dos fases) aún se mantiene.

Una

http://nces.ed.gov/surveys/els2002/ http://
2
nces.ed.gov/surveys/hsls09/ Las tasas de
3 muestreo generalmente se establecen para limitar la variación en los pesos base y para limitar la
carga impuesta a las escuelas participantes según lo medido por el tamaño de la muestra de
estudiantes.
Machine Translated by Google

482 17 diseños multifásicos

Ejemplo 17.2 (Encuestas de educación de EE. UU., revisada). Siguiendo con lo anterior
ejemplo escolar, suponga que después de recopilar datos en menos de la mitad de las escuelas de la
muestra, el estadístico proyecta que el estudio obtendrá un resultado insuficiente.
número de estudiantes participantes en un grupo de raza/etnicidad para cumplir con los
requisitos especificados en el plan de análisis. Si el investigador decide ajustar colectivamente las tasas
de muestreo preestablecidas para las escuelas restantes para seleccionar una
muestra más grande para el grupo con poca potencia, entonces se violan las propiedades de
independencia e invariancia. En consecuencia, la etiqueta de diseño en dos etapas no es
más válido. Dicho de otra manera, los cambios se introducen a mitad de la recopilación de datos para
abordar los problemas introducidos por la respuesta aleatoria imprevista.
patrón exhibido en la muestra. Un tema espinoso es cómo estimar una varianza
en este caso. Estrictamente hablando, un estimador de varianza especializado para dos fases
debe utilizarse el muestreo. En la práctica, sin embargo, el sistema de dos etapas (en lugar de
dos fases) se puede utilizar un estimador de varianza. La fórmula de dos etapas puede ser
adecuado dependiendo del grado en que la independencia e invariancia
las propiedades están relajadas. La sección 17.4.2 analiza los problemas de estimación de la varianza en
mas detalle.

En esta sección, le proporcionamos un ejemplo general para diferenciar


Estudios multietapa y multifase. En la siguiente sección, pasamos a ejemplos
de proyectos del mundo real para distinguir tres tipos de diseños multifásicos.

17.2 Ejemplos de diferentes diseños multifásicos

Los estudios multifásicos se conocen con diferentes nombres dependiendo del propósito.
del diseño Los tres tipos de estudios multifásicos discutidos en este
y en el resto del capítulo, son el muestreo doble para estratificación, el submuestreo de no respondedores
y los diseños receptivos. Una visión general de
cada diseño se analiza a continuación, junto con las encuestas asociadas que se encuentran en el
literatura. Los detalles sobre la ponderación y la estimación de la varianza para estos estudios se encuentran
dispuesto en las secciones siguientes.

17.2.1 Muestreo doble para estratificación

Lohr (1999) y otros señalan que el muestreo en dos fases, también conocido como doble
muestreo, fue introducido por primera vez por Neyman (1938) como un método para obtener
información auxiliar importante de una gran muestra de unidades por medio de un método relativamente
económico y luego usar estos datos para submuestrear las unidades
para un procedimiento de recopilación de datos más intenso y costoso. muestreo doble
para la estratificación es un tipo específico de diseño de dos fases donde la información auxiliar obtenida
de la recopilación de datos de la fase 1 se utiliza en combinación con
la información del marco de la fase 1 para formar los estratos de diseño de la fase 2 dentro de los cuales
Se seleccionan muestras independientes.
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 483

Higo. 17.1: Transición de casos muestrales por los estados de una encuesta bajo un muestreo
doble para diseño de estratificación.

Estas palabras se traducen en una imagen que se muestra en la Fig. 17.1 para demostrar
la transición de casos de estado a estado dentro de una encuesta. En palabras, una muestra
de fase 1 de tamaño n(1) se selecciona de un marco de muestreo disponible de tamaño N.
Machine Translated by Google

484 17 diseños multifásicos

La muestra particular se elige a través de un esquema de muestreo aleatorio que utiliza


un conjunto de variables auxiliares X = (x1, x2, ...) , donde xg denota
para un vector
la g- ésima de valores
variable de
longitud N. Ejemplos de variables auxiliares son el tipo de negocio utilizado para la
estratificación en una encuesta de establecimientos o el número de estudiantes por raza/
etnicidad en una escuela utilizada para el muestreo pps en una encuesta de educación.
(Tenga en cuenta que X es un vector de N unos cuando las unidades de la fase 1 se
extraen a través de un muestreo aleatorio simple). Los datos auxiliares adicionales Z =
(z1, z2, ...), incluida la información del proceso conocida como paradatos, se obtienen
de la n (1)R encuestados e incluidos en el marco muestral de la fase 2.
Los ejemplos de paradatos incluyen registros de historial de llamadas o contactos, con la cantidad de
contactos y resultados de contactos anteriores, y observaciones de campo, como la presencia de juguetes
en el patio para indicar una unidad de vivienda ocupada muy probablemente con niños (Kreuter et al.
2010) .
La información auxiliar de la fase 1 (z) y muy probablemente la información del marco original (X) se
utilizan para desarrollar el diseño de la fase 2. Por ejemplo, en una encuesta de hogares, la edad y la
raza/origen étnico (z) de cada persona en los hogares de la fase 1, junto con los ingresos del hogar y la
condición de arrendatario, podrían determinarse en una entrevista inicial. Esa información podría luego
ser utilizada para

estratificar la muestra de la fase 2. Se selecciona aleatoriamente un total de n(2) unidades (ÿ n(1)R) para
una recopilación de datos de segunda fase bajo un protocolo que generalmente difiere de la primera fase
(por ejemplo, un modo diferente de recopilación de datos). Las variables de análisis clave y = (y1, y2, ...)

luego se recopilan de tantos miembros de la muestra de la fase 2 como sea posible.

En la literatura se citan varios diseños de dos fases (o muestreo doble).


Enumeramos cinco aquí, pero hay muchos más:

(1) Los investigadores que trabajaban para desarrollar una definición de caso para los síntomas no
diagnosticados en el personal estadounidense que sirvió en la Guerra del Golfo Pérsico de 1991
encuestaron una muestra aleatoria simple estratificada de veteranos de la era de la Guerra del Golfo
(Iannacchione et al. 2011). Con base en las respuestas de la encuesta de salud militar de EE. UU.
(USMHS) en la primera fase, los encuestados se clasificaron como probables de tener o no cierto
tipo de enfermedad. Se solicitaron muestras de sangre de encuestados de fase 1 seleccionados al
azar dentro de los estratos de enfermedad y se analizaron mediante pruebas costosas. Por lo tanto,
la variable analítica crítica para el estudio de dos fases del USMHS se vinculó a los datos biológicos
recopilados solo de los encuestados de la fase 2.

(2) Otro ejemplo proviene de la encuesta European Pain in Cancer (EPIC). Para esta encuesta telefónica,
se seleccionó una muestra de la fase 2 de los encuestados de la fase 1 examinados para niveles
significativos de dolor relacionado con el cáncer para que los investigadores pudieran estimar mejor
la prevalencia y la gravedad del dolor crónico y la utilidad de varios regímenes de tratamiento para
mejorar la calidad de vida (Breivik et al. 2009).

(3) La encuesta trimestral de productos básicos minoristas (QRCS) realizada por Estadísticas
Canadá se utiliza para obtener "información detallada sobre las ventas minoristas de productos
básicos" en una submuestra de empresas seleccionadas para la encuesta mensual de ventas minoristas.
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 485

comercio (MRTS). Información actualizada recopilada a través de la (fase 1)


MRTS se utiliza para volver a estratificar la muestra antes de extraer la muestra de la
fase 2 de QRCS (Hidiroglou 2001).
(4) La Encuesta de Actividades de Niños, Niñas y Adolescentes (EANNA)4 o Encuesta de
Niños, Niñas y Adolescentes es una muestra de dos fases diseñada para medir la
igualdad de género y el trabajo infantil en Chile. En la fase 1 se selecciona una muestra
nacional de domicilios y se determinan las edades de las personas en los hogares. En
la segunda fase, los niños y adolescentes se estratifican en los grupos de edad 5 a 8, 9
a 11, 12 a 14 y 15 a 18 y se selecciona una submuestra de cada estrato.

(5) Algunos estudios han utilizado un marco de muestreo formado por los encuestados de la
Encuesta Nacional de Entrevistas de Salud (NHIS).5 Por ejemplo, el Ciclo 5 de la
Encuesta Nacional de Crecimiento Familiar (NSFG-V) se submuestreó a partir de los
encuestados de NHIS de 1993 para producir estimaciones nacionales de prácticas de
fertilidad y salud sexual de mujeres en los EE. UU. de 15 a 44 años de edad (Potter, et
al 1998). El diseño de muestra para los ciclos subsiguientes de NSFG hasta la fecha es
una muestra de probabilidad de área de 4 etapas con una fase de seguimiento de falta
de respuesta que se describe en la siguiente sección. (Lepkowski et al. 2010). Otro
ejemplo es el componente Medical Expenditure Panel Survey (MEPS HC) donde se
producen estimaciones nacionales de cobertura de seguro médico y gastos de atención
médica a partir de una submuestra de hogares que respondieron al NHIS de años
anteriores (Ezzati-Rice et al. 2008).
(6) Un último ejemplo de dos fases presentado en esta sección introductoria es para las
aves. Los investigadores utilizaron un método económico y algo inexacto para estimar
la densidad de aves que anidan en una gran muestra de áreas geográficas en Alaska
(Bart y Earnst 2002). Se llevaron a cabo métodos intensivos dentro de una muestra de
fase 2 para estimar un ajuste de error de medición. Este ajuste se aplicó luego a la
muestra completa de la fase 1 para estimar la densidad de anidación de aves de la
población. En todos los ejemplos, no existía un marco de muestreo de la fase 2 antes
del estudio de la primera fase.

17.2.2 Submuestreo de no respondedores

Todos los estudiantes de investigación de encuestas han estado expuestos a la teoría y la


metodología que asume el 100 % de participación de las unidades de muestra. Sin embargo,
sabemos que la falta de respuesta es un hecho muy real de la vida de la encuesta y debe
abordarse antes, durante y después de la realización de un estudio. Por ejemplo, las
discusiones previas a la recopilación de datos pueden centrarse en el uso de incentivos solo
después de un número específico de intentos para contactar a un miembro de la muestra o convertirlo en

4
http://www.lanacion.cl/eanna-primera-radiografia-de-los-ninos-y-adolescentes-de chile/
noticias/2012-02-15/133220.html http://www.cdc.gov/ nchs/nhis.htm
5
Machine Translated by Google

486 17 diseños multifásicos

un participante. Durante la recopilación de datos, el equipo del proyecto revisará los registros para
garantizar que los casos de difícil acceso se contacten en diferentes momentos del día y de la semana
para aumentar la tasa de contacto. Finalmente, con las respuestas editadas de la encuesta en la
mano, se ha demostrado que los ajustes de ponderación del muestreo reducen los errores por falta de
respuesta (ver, por ejemplo, el capítulo 15 de este texto; S¨arndal et al. 1992; Kott 2006).
Los procedimientos para ajustar el posible sesgo de falta de respuesta son innecesarios solo si los
que no responden no son diferentes de los que responden en el conjunto de variables analíticas
importantes para el estudio. En referencias como Little y Rubin (2002), esto se conoce como falta de
respuesta ignorable o perdida completamente al azar (MCAR discutido en la Sección 13.5 ). Pocos
investigadores están dispuestos a hacer esta suposición a ciegas ya que muchos estudios no tienen
datos que puedan usarse para verificar similitudes entre los encuestados y los no encuestados (por
ejemplo, registros administrativos) aparte de la información del marco. Para limitar la dependencia de
los ajustes de peso para corregir cualquier sesgo debido a la falta de respuesta, muchos investigadores
hacen todo lo posible para maximizar la tasa de respuesta junto con la calidad de los datos.

Lograr tasas de respuesta iguales o superiores a las utilizadas en los cálculos del tamaño de la
muestra también es importante para cumplir con los objetivos analíticos establecidos para el estudio
(consulte el Capítulo 6). Si se obtienen menos cuestionarios completos de los deseados, es posible
que las pruebas estadísticas no tengan suficiente potencia o que las estimaciones para ciertos
subgrupos sean inestables. Los problemas con el sesgo y el bajo tamaño de las muestras de los
encuestados pueden sugerir la necesidad de cambiar el protocolo del estudio durante la recopilación
de datos para incluir el uso de incentivos (mayores), más devoluciones de llamadas, cuestionarios
abreviados, diferentes contactos o métodos de recopilación de datos, y similares ( véase, por ejemplo, Dillman et al.
2009). La mayoría de los cambios introducidos agregarán una carga al presupuesto del proyecto, así
como la duración de la recopilación de datos. ¿Qué pasa si el presupuesto del proyecto no es lo
suficientemente grande para manejar estos modos más intensivos de recopilación de datos para todos
los que no respondieron? El submuestreo de personas que no respondieron es un método propuesto
para cuantificar las diferencias entre los que respondieron inicialmente (fase 1) y los que no
respondieron, para reducir el sesgo por falta de respuesta y para aumentar el número de participantes en el estudio.

Ejemplo 17.3 (Sesgo potencial debido a la falta de respuesta). Este sencillo ejemplo ilustra por qué
se debe seleccionar una submuestra de personas que no respondieron si se teme que puedan ser
diferentes del conjunto de personas que respondieron inicialmente. Suponga que la población se
puede dividir en dos estratos: un estrato contiene casos que responden a la fase inicial de recopilación
de datos y el otro estrato incluye casos que no. Denotar las proporciones de la población en los dos
estratos por W1 y W2 = 1 ÿ W1 y las medias de población por ¯yU1 y ¯yU2, respectivamente . La media
poblacional es ¯yU = W1y¯U1 + W2y¯U2. Se selecciona una muestra aleatoria simple y solo responden
los casos del estrato 1 (por definición). Si la media poblacional se estima mediante la media muestral,
¯y1, entonces el valor esperado de ¯y1 es ¯yU1, es decir, E (¯y1)=¯yU1. Ahora, suponga que ¯yU2 = k
y¯U1. El sesgo relativo (relbias) de ¯y1 como estimador de ¯yU se calcula como

E (¯y1) ÿ y¯U
relbias (¯y1) = y¯U (17.1)
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 487

k = 0,8
relbias

k = 0,85

k = 0,9

k = 0,95

ÿ0,05
ÿ0,10
ÿ0,15
0,15
0,10
0,05
0,00
k=1

k = 1,05

k = 1,1

k = 1,15

k = 1,2

0.0 0,2 0,4 0,6 W2: proporción de no 0.8


respondedores

Higo. 17.2: Relación de los relbias de una media poblacional estimada con las medias
de encuestados y no encuestados.

y para este ejemplo se encuentra fácilmente que es

W2 (1 ÿ k) .
realbias(¯y1) =
1 - W2 (1 - k)

La Figura 17.2 grafica los relbias de la media de los encuestados versus la proporción de no
respuesta para valores de k que van desde 0.8 a 1.2. Las relbias pueden
ser positivo o negativo dependiendo de si la media de los no encuestados es menor (k < 1) o mayor
(k > 1) que la de los encuestados. los
el valor absoluto de las relaciones aumenta a medida que aumenta la proporción de no encuestados
aumenta y a medida que el valor de k se aleja de 1. Dado que la media de
se desconoce quiénes son los que no respondieron, el único síntoma de posible sesgo en este
ejemplo es la proporción de no respondedores en la muestra.

Aunque no hay sesgo en el ejemplo 17.3 si k = 1, siempre que la respuesta


tasa no es cero, es natural tener miedo de que las estimaciones estén sesgadas
cada vez que no hay respuesta. Selección de una submuestra de personas que no respondieron
es una forma de tratar de obtener representación de ese grupo y evitar el sesgo de falta de
respuesta. El ejemplo anterior está demasiado simplificado porque probablemente
cierta aleatoriedad en cuanto a si una unidad determinada responde, lo que implica que una
población no puede clasificarse claramente en estratos de encuestados y no encuestados.
Sin embargo, el ejemplo es lo suficientemente realista como para mostrar que el sesgo por falta de respuesta es
algo de qué preocuparse.
Un estudio que incluye un submuestreo de no respondedores, también conocido como
un estudio de seguimiento por falta de respuesta (NRFU) o muestreo doble por falta de respuesta
(DSNR), implica la selección de una submuestra aleatoria de la fase 1
no respondedores A menudo, el equipo de estudio utilizará diferentes, más costosos
métodos de recopilación de datos que los utilizados para la primera fase con el objetivo de
Machine Translated by Google

488 17 diseños multifásicos

obtener la cooperación completa de la submuestra de la fase 2. Siempre que el número de


encuestados de la fase 2 sea considerable, en teoría, los investigadores pueden probar las
diferencias en los encuestados y no encuestados de la fase 1, así como reducir el sesgo de
falta de respuesta. La definición de "considerable" se basa en los cálculos de potencia
asociados para determinar esta diferencia detectable (consulte el Capítulo 4).

La figura 17.3 contiene una representación pictórica de este tipo de diseño de dos fases.
Comparando esta figura con la Fig. 17.1, podemos ver las diferencias entre el doble muestreo
para la estratificación y el doble muestreo para la falta de respuesta. Como antes, se
selecciona una muestra de fase 1 de tamaño n(1) de un marco muestral utilizando un
conjunto de variables auxiliares X. Las respuestas al cuestionario ( y11, y12, ...) y otra
información auxiliar (z) se recopilan de n (1)R encuestados durante la primera fase, dejando
(n(1) ÿ n(1)R) > 0 casos de muestra sin datos de entrevista. Dado que n(1)R > 0, el equipo
del proyecto debe justificar la inclusión de una segunda fase que podría extender la
recopilación de datos. Las razones pueden incluir un tamaño insuficiente de la muestra de
encuestados n(1)R para los objetivos analíticos o una indicación de sesgo considerable
(estimado) de falta de respuesta usando X.
Si este análisis sugiere que otra fase no sería rentable, entonces el archivo de análisis del
estudio se finaliza con solo las respuestas de la fase 1. Por el contrario, si se determina que
se puede llevar a cabo una segunda fase con los fondos disponibles y que es necesaria para
alcanzar los objetivos analíticos, el estadístico selecciona aleatoriamente una submuestra de
n(2) casos utilizando el conjunto completo de no encuestados de la fase 1. Este diseño
generalmente incluye información auxiliar utilizada en el diseño de la muestra de la fase 1,
así como paradatos útiles obtenidos durante la recopilación de datos de la fase 1, como el
número de contactos para cada caso. A continuación, la muestra de la fase 2 se envía
normalmente con un protocolo de recopilación de datos diferente (por ejemplo, modo,
incentivo, cuestionario abreviado) que el implementado en la primera fase.
Los datos de los encuestados de las fases 1 y 2 se combinan luego para producir el archivo
de datos de análisis de registros nR = n(1)R + n(2)R a partir de los cuales se producen las
estimaciones de población.
El muestreo doble para la estratificación y el muestreo doble para la falta de respuesta
son similares en el sentido de que la recopilación de datos de la fase 1 produce información
de estratificación utilizada para el diseño de la muestra de la segunda fase. Sin embargo, las
matemáticas necesarias para analizar los dos diseños son diferentes. La duplicación del
muestreo para la estratificación supone que, para una muestra dada de la fase 1, siempre se
formarían los mismos estratos. Si la respuesta se trata como aleatoria, la división entre los
que respondieron y los que no respondieron en un conjunto determinado de unidades de la
fase 1 variará. Los ejemplos del muestreo de duplicación para el diseño de estratificación
incluyen la identificación de adultos con una condición médica rara o hogares que contienen
niños dentro de un cierto rango de edad. El estado de respuesta es el estratificador principal
para el último diseño. Expresado en términos de la etiqueta de muestreo doble, la tasa de
muestreo de la fase 2 para el estrato de encuestados de la fase 1 es 1 (es decir, muestreado
con certeza para el estudio) y el muestreo para el estrato de no encuestados de la fase 1 es
generalmente menor que 1. Véase la Secc. 17.5.2 para métodos para determinar las tasas de muestreo.
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 489

Higo. 17.3: Transición de casos muestrales por los estados de una encuesta bajo un diseño
de doble muestreo por no respuesta.

Los diseños DSNR del tipo representado en la Fig. 17.3 se incluyen en muchos estudios.
A continuación se proporcionan cuatro ejemplos:

1. La Encuesta de Salud de los Veteranos de la Guerra del Golfo del Décimo Aniversario se
realizó para estimar la prevalencia de ciertas condiciones de salud adversas en los EE. UU.
Machine Translated by Google

490 17 diseños multifásicos

personal militar que sirvió en la Guerra del Golfo Pérsico de 1991 (Singh et al.
2004, 2005). Después de obtener una baja tasa de respuesta de una encuesta por correo utilizando
una muestra aleatoria simple estratificada, 1.000 personas que no respondieron fueron aleatoriamente
submuestreado para un seguimiento telefónico. El tamaño de la muestra de no respondedores fue
determinada por los fondos disponibles del proyecto y la muestra asignada a la
estratos de fase 1 para minimizar un conjunto de restricciones de varianza.
2. La Encuesta Social General6 rastrea el “cambio social en los Estados Unidos”
y facilita las comparaciones con otros países a través de un conjunto compartido de
preguntas. Algunos conjuntos de preguntas son estáticos (denominados módulos centrales),
mientras que otros módulos se han introducido recientemente para capturar datos sobre problemas puntuales.
El instrumento se administra principalmente en un entorno cara a cara a un
muestra nacional de adultos mayores de 18 años seleccionados al azar a través de
un diseño complejo, de varias etapas. El submuestreo de no respondedores ha sido un
componente de diseño GSS desde aproximadamente mediados de la década de 1990 para aumentar la
grupo de encuestados y para reducir el sesgo de falta de respuesta.7
3. La Encuesta sobre la Comunidad Estadounidense (American Community Survey, ACS) es una encuesta
nacional de hogares en curso realizada por la Oficina del Censo de los EE .

no han devuelto un cuestionario completo. Finalmente, una submuestra de no encuestados y hogares


no contactados a través de los otros modos (por ejemplo,
correo devuelto sin entregar) se elige para una visita en persona.
4. La Encuesta Social Europea (ESS)9 se implementa en más de 30 países
con el objetivo de evaluar los cambios transversales en las actitudes sociales y
patrones de comportamiento dentro y entre estas naciones. En 2006, cuatro países
implementó una encuesta de falta de respuesta (ESS-NRS) para estimar la falta de respuesta
niveles de sesgo y correlaciones para el ESS (Matsuo et al. 2010). Por ejemplo,
el ESS-NRS belga muestreó a todos los que no respondieron en la puerta inmediatamente después de
recibir un rechazo de la encuesta y solicitó información solo para un
instrumento abreviado de siete preguntas. A diferencia de la encuesta belga de dos etapas, los
investigadores del ESS-NRS noruego implementaron una encuesta de dos etapas.
diseño mediante submuestreo de ESS que no respondieron a diferentes tasas basadas en el
categoría de gravedad de falta de respuesta. La muestra noruega de ESS fue seleccionada
de un registro de población con un diseño sistemático de una etapa.

La falta de respuesta es la principal motivación para los diseños de dos fases con un seguimiento o
submuestra de no respondedores. En la siguiente sección, revisamos brevemente una
diseño especializado que se ha vuelto popular en nuestra historia reciente.

6
http://www3.norc.org/GSS+Sitio web
7
http://www.irss.unc.edu/odum/jsp/content node.jsp?nodeid=83
8
http://www.census.gov/acs/www/
9 http://www.europeansocialsurvey.org/
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 491

17.2.3 Diseños receptivos

El término diseño receptivo fue acuñado por Groves y Heeringa (2006) para describir un
tipo particular de encuesta que intenta descubrir e implementar la mejor combinación de
condiciones de encuesta (incentivos, modo, tiempo de contacto, etc.) para maximizar la
participación. Las mejores condiciones de la encuesta podrían incluir, por ejemplo, una
encuesta por correo con un incentivo de 5 dólares (denominado preincentivo) seguida de
una postal de recordatorio o una entrevista telefónica después de las 8:00 p. m. durante
un día laborable. Como se insinuó aquí, las mejores condiciones probablemente difieren
para varios grupos de personas.
Los diseños receptivos emplean dos o más condiciones de encuesta. Como se
muestra en la figura. 17.4 para un diseño receptivo de dos fases, los n(1) casos de
muestra de la fase 1 se asignan únicamente a una de las condiciones de encuesta D(1)
(ÿ 1), es decir, D(1) d=1 n(1)d , donde n(1)d es el número de casos de fase 1
puede ser aleatoria
dados entre
o puede
n(1) basarse
= muy condición
en investigaciones
d. La asignación
previas.
deSicasos
D(1) =
a 1,
condiciones
todos los
casos reciben la misma condición de encuesta. Se lleva a cabo la entrevista de fase 1,
dando como resultado D(1) en n(1)R = d=1 n(1)dR encuestados con n(1)dR representando
el número de encuestados de la condición de encuesta d-ésima y un total de n( 1) ÿ n(1)R
no respondedores. Tenga en cuenta que Groves y Heeringa (2006) y
muchos otros investigadores
planeen o nollaman
submuestrear
a esto lapara
primera
la segunda
fase delfase.
estudio,
Por ya
ejemplo,
sea que
considere
una encuesta que utilizará el correo/la Web o el teléfono para recopilar respuestas donde
la literatura no sugiera el modo preferido. Las condiciones de la encuesta D(1) = 4 podrían
ser: (i) un cuestionario por correo enviado con un pequeño incentivo; (ii) un cuestionario
por correo que incluye la opción de completar la entrevista en la Web junto con un
incentivo prometido al completarla; (iii) una entrevista telefónica donde al miembro de la
muestra se le envió inicialmente un incentivo junto con información sobre el estudio; y
(iv) una entrevista parcial realizada por teléfono y el resto se completa en la Web y un
incentivo prometido.

La información obtenida en la primera fase, como paradatos o respuestas del


evaluador, junto con los valores del marco de muestreo, se utilizan para crear el conjunto
de condiciones de encuesta D(2) = 1 fase 2. Si D(1) es grande por construcción, entonces
el conjunto de la fase 2 puede ser un subconjunto de las condiciones rentables de la fase
1. La información de la fase 1 también se usa para asignar la submuestra de no
respondedores de la fase 2 a las condiciones. Utilizando el ejemplo anterior D(1) = 4, los
resultados de la primera fase podrían sugerir que la condición de encuesta de “entrevista
telefónica parcial” es más rentable que las otras condiciones desarrolladas para el
estudio. Luego, a todos oa una submuestra de los encuestados de la fase 1 se les
administraría esta condición con el objetivo de mejorar la participación. Este análisis se
discute con más detalle después de que tengamos una comprensión del panorama
general. Los encuestados de la entrevista de la fase 2 se combinan con los encuestados
de la fase 1 para formar el archivo de análisis.
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 491

17.2.3 Diseños receptivos

El término diseño receptivo fue acuñado por Groves y Heeringa (2006) para describir un
tipo particular de encuesta que intenta descubrir e implementar la mejor combinación de
condiciones de encuesta (incentivos, modo, tiempo de contacto, etc.) para maximizar la
participación. Las mejores condiciones de la encuesta podrían incluir, por ejemplo, una
encuesta por correo con un incentivo de 5 dólares (denominado preincentivo) seguida de
una postal de recordatorio o una entrevista telefónica después de las 8:00 p. m. durante
un día laborable. Como se insinuó aquí, las mejores condiciones probablemente difieren
para varios grupos de personas.
Los diseños receptivos emplean dos o más condiciones de encuesta. Como se
muestra en la figura. 17.4 para un diseño receptivo de dos fases, los n(1) casos de
muestra de la fase 1 se asignan únicamente a una de las condiciones de encuesta D(1)
(ÿ 1), es decir, D(1) d=1 n(1)d , donde n(1)d es el número de casos de fase 1
puede ser aleatoria
dados entre
o puede
n(1) basarse
= muy condición
en investigaciones
d. La asignación
previas.
deSicasos
D(1) =
a 1,
condiciones
todos los
casos reciben la misma condición de encuesta. Se lleva a cabo la entrevista de fase 1,
dando como resultado D(1) en n(1)R = d=1 n(1)dR encuestados con n(1)dR representando
el número de encuestados de la condición de encuesta d-ésima y un total de n( 1) ÿ n(1)R
no respondedores. Tenga en cuenta que Groves y Heeringa (2006) y
muchos otros investigadores
planeen o nollaman
submuestrear
a esto lapara
primera
la segunda
fase delfase.
estudio,
Por ya
ejemplo,
sea que
considere
una encuesta que utilizará el correo/la Web o el teléfono para recopilar respuestas donde
la literatura no sugiera el modo preferido. Las condiciones de la encuesta D(1) = 4 podrían
ser: (i) un cuestionario por correo enviado con un pequeño incentivo; (ii) un cuestionario
por correo que incluye la opción de completar la entrevista en la Web junto con un
incentivo prometido al completarla; (iii) una entrevista telefónica donde al miembro de la
muestra se le envió inicialmente un incentivo junto con información sobre el estudio; y
(iv) una entrevista parcial realizada por teléfono y el resto se completa en la Web y un
incentivo prometido.

La información obtenida en la primera fase, como paradatos o respuestas del


evaluador, junto con los valores del marco de muestreo, se utilizan para crear el conjunto
de condiciones de encuesta D(2) = 1 fase 2. Si D(1) es grande por construcción, entonces
el conjunto de la fase 2 puede ser un subconjunto de las condiciones rentables de la fase
1. La información de la fase 1 también se usa para asignar la submuestra de no
respondedores de la fase 2 a las condiciones. Utilizando el ejemplo anterior D(1) = 4, los
resultados de la primera fase podrían sugerir que la condición de encuesta de “entrevista
telefónica parcial” es más rentable que las otras condiciones desarrolladas para el
estudio. Luego, a todos oa una submuestra de los encuestados de la fase 1 se les
administraría esta condición con el objetivo de mejorar la participación. Este análisis se
discute con más detalle después de que tengamos una comprensión del panorama
general. Los encuestados de la entrevista de la fase 2 se combinan con los encuestados
de la fase 1 para formar el archivo de análisis.
Machine Translated by Google

492 17 diseños multifásicos

Higo. 17.4: Flujo de casos de muestra a través de un diseño de respuesta de dos fases simulado.

Ahora que hemos revisado el panorama general de este tipo de diseño,


puede aventurarse de nuevo al análisis de la fase 1 mencionado brevemente anteriormente. Durante
la recopilación de datos, varias medidas de finalización, calidad y costo son típicamente
monitoreadas. Las medidas de finalización pueden incluir tasas de casos completados
(por ejemplo, entrevistas, muestras biológicas), las tasas de respuesta proyectadas dado el flujo
Machine Translated by Google

17.2 Ejemplos de diferentes diseños multifásicos 493

Higo. 17.5: Flujo de casos de muestra de diseño receptivo asignados a la condición de encuesta 1(1)
en la fase uno.

de casos completados por importantes subgrupos de informes, y la probabilidad de


obtener una respuesta del resto de los que no respondieron (propensiones de respuesta) dados
los datos del marco de muestreo y posiblemente los paradatos. medidas de calidad,
discutido en detalle en el Cap. 18, puede incluir análisis de sesgo de falta de respuesta y
estimaciones de precisión para un conjunto de variables de estudio importantes nuevamente por
subgrupos de informes importantes. Medición de la rentabilidad de la “encuesta esencial
condiciones” para la fase actual es la tercera vertiente del análisis. esto puede
incluir, junto con las propensiones de respuesta, un análisis que sugiera qué
la condición de la fase 1 es más adecuada para un determinado conjunto de personas que no responden a la fase 1.

Por ejemplo, como se muestra en la Fig. 17.5, no respondedores en fase 1 condición 1(1)
puede asignarse a una de las condiciones D(2) según este análisis. Los resultados
también puede sugerir las características incluidas en las condiciones de la fase 2 tales
como el tamaño de la cantidad de incentivo incrementada. Una vez que el estadístico del proyecto
ha compilado el análisis, utiliza un conjunto de reglas de decisión predefinidas para
determinar (i) cuándo las condiciones de la fase 1 ya no son rentables, (ii)
que se requiere más recopilación de datos para cumplir con los objetivos analíticos, y
(iii) si es necesario revisar las características del muestreo o la recopilación de datos. En este punto,
se introduce una nueva fase del diseño del estudio.
Muchos estarían de acuerdo en que la mayoría de las encuestas tienen algunas características
de diseño receptivo. Por ejemplo, los entrevistadores usan una variedad de técnicas para solicitar
cooperación de los miembros de la muestra, y los niveles crecientes de incentivos pueden ser
dado el historial de rechazo de una determinada unidad de muestra. Sin embargo, aquí nos
reserve la etiqueta "diseño receptivo" para estudios NRFU con diferentes encuestas
condiciones en al menos la segunda fase (es decir, D(2) > 1). Una encuesta que encaja
esta definición y es el primero citado como un diseño receptivo es la Encuesta Nacional de
Crecimiento Familiar (NSFG), Ciclos 6 y superiores (Groves y Heeringa )
2006).10
El NSFG está patrocinado por el Centro Nacional de Estadísticas de Salud,
Departamento de Salud y Servicios Humanos de los Estados Unidos, y fue inicialmente
diseñado para recopilar información sobre fecundidad y salud para la población no institucionalizada
de mujeres de 15 a 44 años seleccionada a través de una muestra probabilística de área.
Comenzando con el ciclo 6, una muestra correspondiente de varones de edad

10
http://www.cdc.gov/nchs/nsfg.htm
Machine Translated by Google

494 17 diseños multifásicos

También se seleccionó de 15 a 44 años para obtener estimaciones sobre la paternidad y la


participación con sus hijos. Como se describe en Axinn et al. (2011) y Groves y Heeringa
(2006), el diseño receptivo Cycle-6 se implementó en tres fases que incluyen submuestreo
de casos y cambios en el protocolo de recopilación de datos. Los estratos de submuestreo
se desarrollaron con base en los resultados de los modelos de propensión a la respuesta.
Además, se realizaron análisis periódicos de paradatos y estimaciones de estudios
importantes a lo largo de la fase de recopilación de datos con un sistema de "tablero" (ver,
por ejemplo, Lepkowski et al. 2010) en un intento de predecir un punto rentable en la ventana
de recopilación de datos. para cambiar las fases del estudio.

17.2.4 Diseños generales multifásicos

Concluimos esta sección con una breve discusión de un diseño multifase general antes de
pasar a los detalles de las ponderaciones de las encuestas multifase. Como sugiere nuestra
discusión actual, el submuestreo (y los cambios en el conjunto inicial de condiciones
esenciales de la encuesta) pueden ocurrir varias veces dentro de la ventana de recopilación
de datos. La figura 17.6 muestra la configuración general para un diseño multifásico con un
número ilimitado de fases. El número de fases está naturalmente limitado por el tiempo y los
fondos del proyecto. Para algunos, el número de contactos, especialmente después de un
rechazo inicial, puede estar limitado por un comité de supervisión (p. ej., Junta de Revisión
Institucional o IRB) que, entre otras responsabilidades, protege a los miembros de la muestra
de la coerción y la carga excesiva de los participantes.

17.3 Ponderaciones de la encuesta

17.3.1 Pesos base

La forma de los pesos base (o de diseño) para un diseño multifásico sigue la receta descrita
en el Cap. 13 para diseños de varias etapas. Los pesos base de la primera fase d(1)0k se
calculan para reflejar el diseño de muestreo como si el diseño contuviera solo una fase. Por
ejemplo, con un diseño estratificado de dos etapas, la ponderación base incondicional para
el elemento k -ésimo (segunda etapa) es

d(1)0k = ÿÿ1 (1)hiÿÿ1


(1)k|hola , (17.2)

el
es decir, la probabilidad de selección inversa para i grupo en el estrato h ÿÿ1 (1)hi

multiplicada por la probabilidad de selección inversa para el k-ésimo elemento en el


conglomerado hi, condicionado a que el conglomerado sea muestreado en la primera etapa
ÿÿ1 (1)k|hi . los
Machine Translated by Google

17.3 Ponderaciones de la encuesta 495

Higo. 17.6: Transición de casos muestrales a través de los estados de una encuesta bajo un
diseño general multifásico.

el subíndice entre paréntesis indica la fase de muestreo asociada, es decir, “(1)” representa
las probabilidades de selección asociadas con la fase uno. Las unidades analíticas pueden
seleccionarse de estratos dentro de cada grupo; suprimimos el indicador adicional del estrato
de la segunda etapa de la notación solo por simplicidad.
Esta notación de dos etapas utilizada aquí implica que los elementos se seleccionan solo con
respecto a la selección del conglomerado hi y ningún otro conglomerado en la muestra. Por
lo tanto, las propiedades de independencia e invariancia se conservan para que la etiqueta
de "dos etapas" sea apropiada. Esto difiere del diseño de la segunda fase como se analiza a
continuación.
Los pesos base de la segunda fase se calculan condicionados al resultado de la primera
fase, el tercero condicionado al segundo, y así sucesivamente. El peso base incondicional
para la k -ésima unidad de muestra de la segunda fase tiene el siguiente general
forma:
d(2)0k = d(1)0kÿÿ1
(2)k|(1) , (17.3)

donde d(1)0k es el peso base de la primera fase definido en la ecuación. (17.2) y ÿ(2)k|(1) es
la probabilidad de selección de la fase 2 para la k-ésima unidad condicionada a la información
de la fase 1. En otras palabras, el subíndice “|(1)” dice que la muestra de la fase 2 se eligió al
azar del marco generado por la muestra de la fase 1. Nótese que la expresión (17.3) indica
que se selecciona la k-ésima unidad en ambas fases, independientemente del tipo de diseño
multifásico. El diseño de muestra de la fase 2 puede incluir estratificación y selecciones
aleatorias dentro de
Machine Translated by Google

496 17 diseños multifásicos

múltiples etapas que dan como resultado un algoritmo complejo para construir ÿ(2)k|(1).
La notación en la expresión (17.3) sigue siendo algo simplista para esta discusión general. Los
siguientes ejemplos proporcionarán las formas específicas de diseño para los componentes de peso.

Ejemplo 17.4 (Pesos para un diseño de dos fases stsrs/stsrs). Considere un estudio similar a la
encuesta EPIC mencionada en la Secc. 17.2.1. El plan de análisis desarrollado al inicio del proyecto
establece que el estudio examinará los factores asociados con una alta calidad de vida entre los
pacientes de cáncer con niveles moderadamente altos de dolor experimentado durante el tratamiento.
El plan de muestreo dicta que todos los centros de tratamiento del cáncer dentro de una región del
país deben seleccionarse con certeza.11

Una vez definidos los estratos de muestreo, los pacientes con cáncer se eligen aleatoriamente
para el estudio utilizando tasas de muestreo definidas a partir de las estadísticas históricas de
inscripción de pacientes:

ÿ(1)h = n(1)h N(1)h,

donde n(1)h es el número de miembros de la muestra seleccionados del centro de tratamiento h


(h=1, . . . , H ), N(1)h esrecibir
el número de pacientes
tratamiento, nuevos
y d (1)0hk queesselaespera
= ÿÿ1 que
base de ingresen
fase al centro h para
1 asociada
(1) hora
H
peso. A los n(1) (= h=1 n(1)h) miembros de la muestra recién reclutados se les pide que completen un
breve cuestionario (de selección). Dentro de su tercera semana de tratamiento, a los miembros de la
muestra se les administra un cuestionario de 20 m para recopilar información de salud, así como
entradas para escalas sobre el umbral del dolor y la calidad de vida. La siguiente variable indicadora
se generó a partir de los resultados de la entrevista de la segunda fase 1:

ÿ(1)dk = / 1 si0 el
demiembro
lo contrario,
de la muestra k tiene la característica d,

donde el dominio 1 (d = 1) representa a aquellos pacientes que experimentan al menos un nivel de


dolor moderadamente alto (puntaje alto en la escala de dolor) que también reportan una alta calidad
de vida (puntaje alto en la escala de calidad de vida), y el dominio 2 (d = 2) identifica pacientes con
niveles moderadamente altos de dolor pero que experimentan una baja calidad de vida. Los miembros
de la muestra que tienen niveles bajos o nulos de dolor constituyen el tercer subgrupo dentro de
nuestra muestra de fase 1 y no son elegibles para el estudio de fase 2. El estadístico del proyecto
determinó las tasas de muestreo

11
Los centros de tratamiento del cáncer bajo este diseño se tratan como los estratos de primera
etapa para la estimación puntual y de varianza porque todos los centros y no una muestra están
incluidos en el estudio. Aparte, los modeladores matemáticos etiquetarían esta "variable de
tratamiento del cáncer" como un efecto fijo. Si se eligiera aleatoriamente un subconjunto de centros,
estos conglomerados de la primera etapa (PSU) generalmente se modelarían con efectos aleatorios.
Machine Translated by Google

17.3 Ponderaciones de la encuesta 497

dentro de cada uno de los dos estratos de la segunda fase para cumplir con los objetivos del análisis
comparativo. Por lo tanto, las probabilidades de selección de la fase 2 condicional son

ÿ(2)hd|(1) = n(2)hd n(1)hd,

donde n(2)hd (n(2)hd ÿ n(1)hd) es el número de pacientes con cáncer seleccionados


aleatoriamente para la muestra de la fase 2 del número total de pacientes de la fase 1
identificados como miembros del estrato d, es decir, n(1)hd =cuestionario
kÿs(1)h ÿ(1)dk, a través
de la fase 1.del
Luego se administra un segundo cuestionario a los n(2) (= d=1 n(2)hd) miembros de la
2
submuestra de la fase
Hh=1 con2 el
para
apoyo
recopilar
social,información
la religiosidad
detallada
y la vida
sobre
familiar.
cuestiones relacionadas

Combinando las dos probabilidades de selección, la base incondicional de la fase 2


el peso para el k-ésimo miembro de la muestra es

= N(1)h n(1)hd .
d(2)0hk = d(1)0hk ÿÿ1 (2)alta definición|(1)
n(1)h n(2)hd

Como verificación de calidad, la suma de las ponderaciones base para todos los miembros de la
muestra de la fase 1, independientemente de su estado de elegibilidad para la fase 2, es igual al número
total de pacientes con cáncer que reciben tratamiento en centros de tratamiento del cáncer dentro de la
región designada del país, es decir,

H H

N(1)h n(1)h = N(1)h n(1)h = N(1)h = N(1).


kÿs(1) h=1 kÿs(1)h h=1

La suma de los pesos base de la fase 2 estima el número total de pacientes con cáncer con niveles de
dolor de moderados a altos durante el tratamiento.

Ejemplo 17.5 (Pesos para un NRFU stsrs). Reformulemos el diseño del estudio del ejemplo 17.4 como
uno que incluye dos entrevistas (evaluador y umbral de dolor combinado y cuestionario de apoyo social).
Todos los n(1) miembros de la muestra de la fase 1 respondieron al filtro, pero solo una parte, n(1)R
n(1), respondió a la entrevista más amplia. Un análisis inicial realizado por el estadístico del proyecto
identificó una diferencia significativa en las estimaciones para los encuestados n(1)R y los no
encuestados n(1)R¯ (= n(1) ÿ n(1)R) calculados a partir del filtro y administrativo . registrar los datos, es
decir, existe la posibilidad de sesgo por falta de respuesta (consulte la Sección 13.5). En consecuencia,
se desarrollaron tasas de submuestreo condicional 2H para los centros de tratamiento con la siguiente
forma:

¯
un estrato de fase 1 NR en el centro h,
ÿ(2)hd|(1) = /n(2)hd n(1)hd si d = R,si d = R, el estrato fase1 R,
Una

donde NR representa a los que no respondieron y R a los que respondieron. Se desarrolla una versión
abreviada del instrumento de fase 1 y se administra a la submuestra de n(2) pacientes seleccionados
de los n(1)R¯ que no respondieron .
Utilizando los pesos base de la fase 1 definidos en el ejemplo anterior, el
Machine Translated by Google

498 17 diseños multifásicos

pesos base incondicionales resultantes incluidos en el archivo de análisis preliminar


de n(1) = n(1)R + n(2) registros son

d(2)0hk = d(1)0hk ÿÿ1 (2)alta definición|(1)

ÿ n(1)h n(1)hd
, fase 1 NR seleccionados para fase 2 ,
n(1)h n(2)hd
= 0, fase 1 NR no seleccionados para fase 2, fase
ÿÿ
n(1)h
ÿÿ
, 1 Rs.
n(1)h

17.3.2 Pesos de análisis


Los ajustes como los de falta de respuesta se aplican a los pesos base
para formar los pesos finales del análisis multifásico. Los procedimientos de ajuste de
la creación de los factores de ajuste sigue el material presentado en los Caps. 13
y 14 para diseños multietapa. Esta información se resume en una serie
de pasos a continuación para los diseños de dos fases y NRFU. la disposición
el estado de respuesta para los casos en estos dos diseños se muestra en las Figs. 17.2 y 17.3;
respectivamente. La sección concluye con una breve discusión de los pesos para
diseños multifásicos generales.

Diseños de dos fases. El primer paso en la construcción de pesos de análisis para


los encuestados de la fase 2 dentro de un diseño de dos fases es desarrollar la fase 1
pesos de analisis De acuerdo con la notación utilizada en el Cap. 13, la fase 1
pesos w(1)k toman la siguiente forma:

w(1)k = d(1)0k a(1)1k a(1)2k g(1)k (17.4)

donde d(1)0k es la ponderación base calculada como la probabilidad inversa de selección para
la muestra de la fase 1, a(1)1k es un ajuste por estado de elegibilidad desconocido, a(1)2k es
un ajuste por falta de respuesta aplicado a la base
peso ajustado por elegibilidad desconocida (d(1)1k = d(1)0ka(1)1k), y g(1)k
es el ajuste de calibración realizado a los pesos base ajustados, d(1)2k =
d(1)0k a(1)1k a(1)2k, utilizando controles generados a partir de la población. Cualquier
encuestado que se clasifique como no elegible para el estudio de fase 2 se elimina del
el marco muestral. Se utilizan los pesos y los datos del cuestionario de la fase 1
en la selección de la muestra de la segunda fase.
Después de recopilar los datos de los miembros de la muestra de la fase 2 que respondieron,
se construye de manera similar la ponderación final incondicional del análisis de la fase 2.
como sigue:

w(2)k = w(1)k a(2)0k|(1) a(2)1k|(1) a(2)2k|(1) (17.5)


Machine Translated by Google

17.3 Ponderaciones de la encuesta 499

donde w(1)k es el peso final de la fase 1 especificado en la Expresión (17.4), a(2)0k|(1) es el ajuste por
submuestreo condicionado a las respuestas de la fase uno, y a(2)1k|(1 ) ) y a(2)2k|(1) son ajustes por
elegibilidad desconocida y falta de respuesta estrictamente asociados con la muestra de la fase 2. Se
podría aplicar un ajuste por elegibilidad desconocida si, por ejemplo, algunos miembros de la muestra no
se pueden ubicar durante la ventana de recopilación de datos de la fase 2. La expresión (17.5) también
podría incluir un segundo ajuste de calibración, g (2)k|(1), que incluye controles asociados con la población
de interés, así como recuentos estimados tabulados a partir de las respuestas de la fase 1 y los pesos
finales de la fase 1.

A través de un estimador de regresión general (GREG; ver Cap. 14), estos ajustes de calibración se
pueden realizar de manera simultánea o secuencial. Discutimos este tema con más detalle en la Secc.
17.3. El conjunto de unidades que se usaría para la estimación serían generalmente los encuestados

elegibles en la fase 2, s(2)R. O si los totales de control utilizados para la calibración de la fase 2 incluyen
elementos no elegibles, entonces el conjunto de unidades utilizadas para el análisis es s(2)R ÿs(2)IN donde
s(2)IN representa el conjunto de unidades de muestra de la fase 2 conocidas por ser inelegible.

Diseños NRFU. Como se muestra en la figura. 17.3, (NRFU) o muestreo doble para estudios de falta
de respuesta difieren de los diseños de dos fases en que todos o una parte de los datos recopilados en la
fase 1 también se recopilan en la segunda fase. Los pesos finales de la fase 1

w(1)k = d(1)0ka(1)1kg(1)k se (17.6)

calculan ajustando el peso base (d(1)0k) para cualquier elegibilidad desconocida (a(1)1k) y
luego calibrando a la población los totales de control (g(1)k) antes de seleccionar la submuestra
de n(2) (< n(1)R¯) que no respondieron para el seguimiento en la fase 2. Una vez finalizada la
recopilación de datos de la fase 2, los pesos de entrada para los miembros de la muestra de la
fase 2 (w(1)k) se corrigen por submuestreo (a(2)0k|(1)) y cualquier elegibilidad desconocida
(a(2)1k|(1)) o falta de respuesta (a(2)2k |(1)), resultando en ponderaciones ajustadas de la forma:

d(2)2k = w(1)ka(2)0k|(1)a(2)1k|(1)a(2)2k|(1), (17.7)

Tenga en cuenta que el peso base incondicional para los casos de muestra de la fase 2 está definido por
los dos primeros componentes anteriores, es decir,

d(2)0k = w(1)ka(2)0k|(1). (17.8)

El archivo de análisis del estudio contendrá los valores del cuestionario para los encuestados de la fase 1
n(1)R , así como para los encuestados de la fase 2 n(2)R (ÿ n(2)) . Se puede aplicar un ajuste de calibración
final (g (2)k|(1)), utilizando los totales de control de la población, a todos los registros de los encuestados
para generar las ponderaciones del análisis de la fase 2 incondicional.

ÿ w(1)ka(2)0k|(1)a(2)1k|(1)a(2)2k|(1)g (2)k|(1), para


w(2)k = los no respondedores de la fase 1 seleccionados para la fase 2
ÿ
ÿ w(1)k × gramo (2)k|(1), para los participantes de la fase 1
(17.9)
Machine Translated by Google

500 17 diseños multifásicos

para componentes definidos para la expresión (17.7). A diferencia de los otros bifásicos
diseño, los pesos, en general, están calibrados solo para controles de población
y no a los datos recogidos en la primera fase.

Diseños generales multifásicos. Ponderaciones para diseños de encuestas con más de


dos fases (ver, por ejemplo, Figs. 17.4 y 17.3) siguen la prescripción descrita
arriba. Se aplican los ajustes de peso apropiados a cada submuestra y
resultados asociados de los esfuerzos de recopilación de datos específicos de la fase. Una palabra
Es necesario expresar precaución en este punto: a medida que aumenta el número de fases del
submuestreo, también aumenta la variabilidad en los pesos de análisis resultantes.
la secta 14.4 La discusión resaltó el daño potencial que pueden causar pesos muy variados a las
estimaciones topográficas, lo que hace que la precisión sea tan pobre que
es posible que los resultados del estudio no se publiquen. Además de las técnicas de suavizado de
pesos, también se han desarrollado procedimientos óptimos de submuestreo para
minimizar este problema. Discutimos algunos de estos más adelante en la Secc. 17.5.

Ejemplo 17.6 (Pesos base para un NRFU stsrs). Suponga que un estadístico de proyectos desarrolla
la asignación para un diseño estratificado de una sola etapa, asumiendo
que la tasa de respuesta será suficiente para obtener al menos 1,000 encuestados
según lo requiera el plan de análisis. Se elige una asignación proporcional porque
de la limitada información disponible sobre los tamaños relativos de la población
varianzas a través de cuatro estratos de muestreo. La siguiente tabla contiene los recuentos de
población y el tamaño de la muestra por estrato, junto con el número estimado
de los encuestados con una tasa de respuesta de al menos el 61 %. El muestreo general
fracción, utilizada en cada uno de los estratos, fue 0,022 o 1.650/75.000, resultando
una muestra de igual probabilidad con un peso base idéntico de 45,45 (1/0,22).

Se procedió a la recolección de datos con la muestra de casos seleccionados aleatoriamente. Cómo

Muestra de población de estrato estimada


Talla tamaño de los encuestados
(Nh) (nh) (derecha)
1 12,882 284 173
2 27,332 601 366
3 18,361 404 246
4 16.425 361 220
Total 75.000 1.650 1.005

Sin embargo, la tasa de respuesta conservadora percibida del 61 % resultó demasiado optimista.
se recopilaron datos de solo 972 miembros de la muestra (57,7 respuestas no ponderadas
Velocidad). Un análisis posterior determinó que el conjunto existente de respuestas
produjo una precisión inadecuada basada en el plan de análisis aprobado, y
que la continuación del protocolo de estudio actual sería ineficaz. los
equipo recibió la autorización adecuada para introducir un más caro
metodología de recopilación de datos que la implementada inicialmente, incluida una
Machine Translated by Google

17.3 Ponderaciones de la encuesta 501

incentivo para la participación. Debido al mayor costo de recopilación de datos y


disminución de los fondos del proyecto, el equipo determinó que esta segunda fase podría
implementarse en un máximo de 120 no encuestados de la fase 1. El estadístico de muestreo dibujó
un srs de igual tamaño dentro de los estratos de muestreo de la fase 1.

Fase 1 Fase 2
Estrato Muestra Encuestados Marco de respuesta Muestra Muestreo
fracción de tamaño Velocidad

h n(1)h (%) N(2)h n(2)h 79,9 57 30 (%)


1 284 227 44,9 331 30 55,0
70,1
182108
30 30 52.6
2 601 270 58,9 678 120 9.1
3 404 222 16.5
4 361 253 27.8
General 1,650 972 17.7

Los pesos base específicos de fase, iguales dentro de los estratos, se construyeron como
sigue:

Fase 1 Fase 2
Estrato Encuestados Base Muestra Submuestra Base
peso peso Talla
h n(1)h d(1)0h n(2)h a(2)0h(1) d(2)0h
1 227 45,4 30 1,9 86,2
2 270 45,5 30 11,0 501,8
3 222 45,4 30 6,1 275,7
4 253 45,5 30 3,6 163,8
General 972 120

Ejemplo 17.7 (Ponderaciones de análisis ajustadas por falta de respuesta para un NRFU de stsrs).
Continuando con el Ejemplo 17.6, 45 de los 120 miembros de la muestra participaron
en la fase 2 de recopilación de datos. Aunque solo se logró una tasa de respuesta de fase 2
condicional no ponderada del 37,5 % (= 45/120), un total de 1.017
los casos completados fueron procesados para el archivo de análisis final.
Los pesos de los 45 encuestados se ajustaron por falta de respuesta específica a
la segunda fase usando un ajuste de clase de ponderación estándar (ver Secc. 13.5)
con los pesos base incondicionales definidos en la expresión (17.5) dentro de cada
de cuatro estratos de diseño. Los resultados resumidos se proporcionan a continuación.
Machine Translated by Google

502 17 diseños multifásicos

Encuestados de la fase 1 del estrato Encuestados de la fase 2


Muestra Ajustada Muestra Base Sub- No Ajustada
Talla peso tamaño peso muestra respuesta peso
h n(1)h w(2)k n(2)h d(1)0h a(2)0h a(2)2h 4 45,4 w(2)k
1 227 45,4 7,50 1,36 2,50 4,29
1,9 646.4
2 270 45,5 22 45,5 11,0 12 45,4 684.2
3 222 45,4 6,1 7 45,5 3,6 45 689.3
4 253 45,5 702.0
General 972

El peso ajustado para los encuestados de la fase 1 es aproximadamente el


igual que el peso base, es decir, d(1)0h . = 45,4 para cada encuestado. el ajustado
el peso para los encuestados de la fase 2 es el peso base de la fase 1 multiplicado
por el submuestreo condicional y las ponderaciones de no respuesta, a(2)0h y a(2)2h,
respectivamente. Tenga en cuenta que, aunque las ponderaciones de los encuestados de la fase 1
son todos iguales y los pesos para los casos NRFU son similares entre sí
(que va desde 646,4 a 702), hay bastante variación de peso en el
conjunto de casos que responden (45.4 a 702). Si el seguimiento de la falta de respuesta es
estadísticamente eficiente o no debe evaluarse utilizando los datos recopilados en
la encuesta.

17.4 Estimación

Ahora que se han definido los pesos de análisis para el diseño multifase,
volver a la construcción de estimaciones puntuales y de varianza producidas a partir de la
estudiar datos

17.4.1 Estimación puntual descriptiva

La forma de las estimaciones puntuales descriptivas, como medias y totales de


Los diseños multifásicos siguen la misma fórmula especificada para otros diseños. los
Los siguientes ejemplos se analizan en la literatura para el diseño de dos fases, principalmente
para demostrar la eficiencia (o ineficiencia) de ciertas estimaciones de varianza. (i) El estimador
de doble expansión (DEE; Kott y Stukel 1997) para
una población total en un diseño de dos fases se calcula como

t ˆ(2)y = w(2)k yk (17.10)


kÿs (2)

donde w(2)k es el peso incondicional de la fase 2 definido en la expresión (17.9);


yk es la característica de interés; y s(2) significa la muestra de segunda fase
(y en consecuencia cualquier característica de diseño como estratificación y agrupamiento)
Machine Translated by Google

17.4 Estimación 503

tering). Un estimador asociado, encontrado por Kott y Stukel (1997) que tiene varianzas
más pequeñas que el DEE, se conoce como el estimador de expansión reponderado (REE).
Expresado como media para un diseño en dos fases, el REE tiene la siguiente forma:

H
Una

y¯(2) = Nˆ(1)hy¯(2)h, (17.11)


Nˆ(2) h=1

donde Nˆ(2) = kÿs(2)población


w(2)k, elusando
númeroponderaciones
estimado de unidades
generadas
en el
a partir
tar kÿs(1)
de laobtiene
expresión
la
(17.9); h = 1,...,H indexa los grupos mutuamente excluyentes, como los estratos, asociados
con el diseño de muestra de dos fases; Nˆ(1)h = kÿs(1) w(1)k, el número estimado de
unidades en el estrato h con w(1)k definido en la expresión (17.6);
estimación deylakÿs(2)h w(2)kyk
media de es la
población
y¯(2)h = kÿs(2)h w(2)k en el estrato h con base en la muestra de la fase 2 y los pesos
ÿ1

incondicionales.

Sesgo de los estimadores


Una nota final antes de pasar a los estimadores de varianza. La expectativa incondicional
basada en el diseño de un estimador multifase se evalúa como una función de las
expectativas condicionales dentro de cada fase sucesiva del diseño (ver, por ejemplo,
Casella y Berger 2002, Teorema 4.4.3). La fórmula para un diseño de dos fases es

mi ˆÿ = mi(1) mi(2) ˆÿ (1) . (17.12)

Trabajando primero con el término entre paréntesis más interno, se evalúa la expectativa
del estimador puntual genérico ˆÿ con respecto al diseño de la muestra de la segunda fase
condicional a los componentes del diseño de la fase 1, por ejemplo, el tamaño de la muestra
es fijo. A continuación, se evalúa la expectativa del estimador resultante tratando la
selección de la muestra de la fase 1 como aleatoria. Usando esta misma partición, la
expresión anterior se puede expandir a más de dos fases evaluando la expectativa
condicional y sustituyendo en la ecuación anterior, por ejemplo,

E(2) ˆÿ (1) = E(2) E(3) ˆÿ (2) (1) .

Además de cuantificar el sesgo teórico de un estimador, esta igualdad es útil para construir
estimadores de varianza como se muestra en la siguiente sección.

Ejemplo 17.8 (Expectativa de un estimador de dos fases de un total). Considere el estimador


de dos fases ˆÿ = t ˆ(2)y del total de la población ty = donde t ˆ(2)y = kÿs(2) d(2)0k yk ykÿUyk ,
el peso
base no ajustado d(2)0kincondicional
definida como
y d(2)0k = ÿÿ1 (1)kÿÿ1 una función de la fase 1
(2)k|(1),
Machine Translated by Google

504 17 diseños multifásicos

probabilidades condicionales de selección de fase 2 como se define en la expresión


(17.3). La expectativa incondicional de la población estimada es

E t ˆy = E(1) E(2) kÿs(2) d(2)0k yk (1)

= mi(1) mi(2) kÿU d(2)0k yo(2) yk (1) .

donde I(2) es una variable binaria para identificar las unidades de población seleccionadas para
la muestra de la fase 2. Tenga en cuenta que la selección en la muestra de la fase 2 es una
función de la selección de la fase 1 y la selección de la fase 2 condicional, es decir, I(2) = I(1) × I(2|1).
Sustituyendo la fórmula para d(2)0k e I(2), tenemos

E t ˆy = kÿU ÿÿ1 (1)kÿÿ1 (2)k|(1) E(1) I(1) E(2) I (2)|(1) (1) yk


=
kÿU ÿÿ1 (1)kÿÿ1
(2)k|(1) ÿ(1)kÿ(2|1)kyk
= ty.

Por lo tanto, t ˆy es un estimador insesgado de ty. Esto supone que el marco


utilizado para la muestra de la fase 1 cubre a toda la población. Si hay problemas de
subcobertura de marcos y falta de respuesta en una o ambas fases, la imparcialidad
depende de las suposiciones sobre los mecanismos de falta de respuesta y cobertura
junto con las propiedades de los pasos (como la calibración) tomados para corregir
esos problemas.

17.4.2 Estimación de la varianza

Las técnicas de estimación de la varianza para encuestas generales se cubrieron en el Cap. 15.
Una vez aumentado, el mismo enfoque es útil para los diseños multifásicos discutidos
en esta sección. Al igual que en el capítulo anterior, esta sección incluye una discusión
de linealización (serie de Taylor) y varianzas de replicación.

Estimadores de varianza de linealización

El procedimiento para desarrollar un estimador de varianza multifase para una


estimación puntual genérica, ˆÿ, comienza con la derivación de la fórmula incondicional
(ver, por ejemplo, Casella y Berger 2002, Teorema 4.4.7):

V ˆÿ = V(1) E(2) ˆÿ (1) + E(1) V(2) ˆÿ (1) (17.13)

donde, de forma similar a la expresión (17.12), E(1) y V(1) son la esperanza y la


varianza teóricas con respecto al diseño muestral de la fase 1 y E(2) ˆÿ (1)
Machine Translated by Google

17.4 Estimación 505

y V(2) ˆÿ (1) son las cantidades correspondientes para el diseño de la muestra de la fase
2 condicionadas a la muestra de la fase 1 realizada. La evaluación de la expresión
(17.13) para el diseño completo da como resultado un componente de varianza de
linealización de la serie de Taylor que da cuenta de la selección aleatoria dentro de cada fase.

Ejemplo 17.9 (Varianza de un total estimado para un diseño genérico de dos fases).
Considere el estimador de un total, t ˆ(2)y = kÿs(2) d(2)0k yk, discutido en el Ejemplo 17.8
deseado para una encuesta de dos fases donde el diseño de muestra para cada fase se
clasifica solo en genéricos términos. Lo primero a tener en cuenta es que, de forma
similar a la descomposición para un diseño en dos etapas, el estimador se puede
expresar como una función de la fase 1, la fase 2 y los términos de la población. A saber,

t ˆ(2)y ÿ ty = t ˆ(1)y ÿ ty + t ˆ(2)y ÿ t ˆ(1)y


= Dˆ(1) + Dˆ(2)

donde t ˆ(1)y = kÿs(1) d(1)0k yk, la población estimada utilizando los datos de la
fase 1; y Dˆ(1) = t ˆ(1)y ÿ ty y Dˆ(2) = t ˆ(2)y ÿ t ˆ(1)y representan el error asociado
con los diseños de muestreo aleatorio de fase 1 y fase 2, respectivamente . La
varianza de t ˆ(2)y se evalúa entonces como

V ar t ˆ(2)y = V ar t ˆ(2)y ÿ ty =
V(1) - E(2) t ˆ(2)y ÿ ty (1) . + E(1) - V(2) t ˆ(2)y ÿ ty (1) ..

Trabajando con las fórmulas más internas, tenemos

E(2) t ˆ(2)y ÿ ty (1) = E(2) Dˆ(1) + Dˆ(2) (1) = Dˆ(1)

suponiendo que el estimador de la fase 2, t ˆ(2)y, es un estimador insesgado del


estimador de la fase 1, t ˆ(1)y (condicional a la muestra de la fase 1). La varianza de la
fase 2, dada la muestra de la fase 1, es V(2) t ˆ(2)y ÿ ty (1) = V(2) t ˆ(2)y (1) .
Por lo tanto, la varianza de muestreo de dos fases para el total estimado se define como

V t ˆ(2)y = V(1) t ˆ(1)y + E(1) - V(2) t ˆ(2)y (1) . . (17.14)

En consecuencia, la varianza del estimador de dos fases, t ˆ(2)y, será mayor que la
varianza del total poblacional tabulado como si todos los datos se obtuvieran en la
primera fase. Pero, como se señaló anteriormente, el punto de hacer una segunda fase
es usar métodos que serían demasiado costosos para aplicar a todas las unidades de la
primera fase o enfocar la muestra de una manera que no sería factible usando una
muestra de una sola fase.
Una formulación general de la expresión (17.14) se da en el Resultado 9.3.1 de
S¨arndal et al. (1992) y reformulado de la siguiente manera utilizando la notación
específica de este capítulo:
Machine Translated by Google

506 17 diseños multifásicos

ÿ(1)kl si yl
V t ˆ(2)y =
ÿ(2)kl ÿ(1)k ÿ(1)l
s(2)

ÿ(2)kl|(1) si yl
+ (17.15)
ÿ(2)kl|(1) ÿ(2)k ÿ(2)l
s(2)

donde ÿ(2)kl y ÿ(2)kl|(1) son las probabilidades de inclusión de la fase 2 incondicional y


condicional, respectivamente; ÿ(2)kl = ÿ(1)kl ÿ(2)kl|(1), la probabilidad de inclusión
conjunta incondicional definida como el producto de la probabilidad de fase 1 y la
probabilidad de fase 2 condicional; ÿ(1)kl = ÿ(1)kl ÿ ÿ(1)k ÿ(1)l y ÿ(2)kl|(1) = ÿ(2)kl|(1)ÿÿ(2)k|
( 1) ÿ(2)l|(1), las probabilidades de inclusión conjunta de la fase 1 y la fase 2 (condicional)
para las unidades k y l, respectivamente. Una fórmula explícita para la varianza de la
población en la expresión (17.14) se define una vez que se especifican los diseños
muestrales en cada fase. En general, se obtiene una estimación de la varianza de la
muestra consistente con el diseño sustituyendo las estimaciones de la muestra por los
valores de la población. El siguiente ejemplo proporciona tal especialización para un tipo
de diseño de dos fases.

Ejemplo 17.10 (Varianza para un diseño de dos fases srs/stsrs, continuación del Ejemplo
17.9 ). Considere el muestreo doble para el diseño de estratificación donde el diseño de
la fase 1 es un srs de tamaño n(1) y se selecciona una muestra aleatoria de segunda
H
en cuenta que
fasen(2)
de tamaño
= la población
h=1 n(2)h
totaldeestimada
los estratos
DEErecién
del ejemplo
identificados.
17.9 puede
Primero,
reexpresarse
tenga
como una función de las medias estimadas del estrato:

H H norte n(1)h
t ˆ(2)y = h=1 kÿs(2)h d(2)0k yk = h=1 kÿs(2)h n(1) n(2)h
si

donde h indexa los estratos identificados a partir de la muestra de la fase 1, w(1)h = y y


n(1)h n(1) , se ˆ¯(2)h = kÿs(2)h yk n(2)h . Por tanto, la expresión (17.15)
evalúa como

H
S2 s2
(1)h
V t ˆ(2)y = N2 1 ÿ f(1) + E(1) w2 1 ÿ f(2)
(1)h
n(1) h=1 n(2)h

con las fracciones de muestreo específicas de fase, f(1) = n(1) N y f(2)h = n(2)h n(1)h ; la varianza del

muestreo de la población, S2 = (N ÿ 1)ÿ1 kÿU yk; y el muestreo de la fase 1


2 ÿ1
(yk ÿ y¯)
kÿU varianza , y media, ¯y = N

ÿ1 2
s2 = n(1)h ÿ 1 (1)h yˆ(1)k ÿ y ˆ¯(1)h
kÿs(1)h

con media y ˆ¯(1)h = nÿ1(1)kÿs(1)h


hora yˆ(1)k donde ˆy(1)k = d(1)0k yk. El segundo término en
V t ˆ(2)y se deja como una expectativa porque w(1)h y n(2)h son variables aleatorias. Rao
(1973) y S¨arndal et al. (1992, Secc. 9.4) como
Machine Translated by Google

17.4 Estimación 507

H
1 ÿ f(1) Una
n(1) - n(1)h
Vˆ1 w(1)h 1 ÿ n(2)h s2
(2)h
= n(1) h=1 n(1) - 1
H
n(1) 2
+ n(1) ÿ 1 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2)
h=1

H s2
(2) h
y Vˆ2 = 1 ÿ f(2)hh=1 w2 de muestreo
fracción . Sumando estos y asumiendo que el n(1) ÿ 1
(1)h n(2)h
.
=
de primera fase, f(1), es pequeña y que n(1)h ÿ 1 w(1)h, la varianza
estimada de t ˆ(2)y es

H H
s2
Una
(2)h
vt ˆ(2)y ÿ= N2 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2) 2+ w2 ,
(1)h
n(1) h=1 h=1 n(2)h

H
donde y ˆ¯(2) = h=1 w(1)hy ˆ¯(2)h, y ˆ¯(2)h = kÿs(2)h yk n(2)h, y
ÿ1 2
s2 = n(2)h
(2)hÿ 1
.
kÿs(2)h yˆ(1)k ÿ y ˆ¯(1)h

Damos una ilustración numérica del muestreo de dos fases srs/stsrs para la estratificación
en el ejemplo 17.12.
Debería quedar claro a partir de los ejemplos anteriores que a medida que los diseños de
muestra se vuelven más complejos, también lo hace el estimador de varianza. Esto también
es cierto con un aumento en el número de fases de muestreo. El software para calcular
estimaciones de varianza de dos fases hasta la fecha es limitado y actualmente no existe para
diseños multifásicos. Debido a que los investigadores deben desarrollar y programar la
fórmula, muchos recurren a replicar las variaciones que, en general, son más fáciles de
implementar.

Estimadores de varianza de replicación

Los estimadores de varianza replicados, como el jackknife, son aplicables a una variedad de
estimadores y diseños de muestra. Como se discutió en el Cap. 15, la estimación de la
varianza es una función de la desviación de las estimaciones replicadas A, ˆÿ (2),
(r) calculada
los pesoscon

replicados, w(r) (2), de un valor agregado, ˆÿ (ÿ) (2) ,

A
Una
2
v ˆÿ(2) = ˆÿ (r) ÿ ˆÿ (ÿ) ,
(2) (2)
Cr =1

donde C es una constante que depende del método de replicación (jackknife, BRR o bootstrap). El valor
agregado, ˆÿ (ÿ) promedio de las estimaciones replicadas, ˆÿ (ÿ) podría generarse como (2) ,
= Rÿ1 ˆÿ (r) o usando el completo (2),
(2)
estimación de datos de la fase 2 y el peso del análisis original (peso de la muestra completa).
Machine Translated by Google

508 17 diseños multifásicos

Kott y Stukel (1997) y Kim y Yu (2011) discuten las propiedades teóricas y empíricas del
estimador de varianza jackknife mientras que Fuller (1998) estudió la replicación repetida
balanceada. El trabajo de Kim et al. (2006) cubrieron las variaciones de replicación pero no se
enfocaron en una forma de replicación específica. Hasta la fecha, no se ha llevado a cabo ninguna
investigación sobre los estimadores bootstrap para diseños multifásicos.

El proceso genérico para crear los pesos replicados de dos fases es summa
Rizado en tres pasos:

(1) Identifique una unidad de muestra o un grupo de unidades (para un estimador de varianza de
eliminación de un grupo) del archivo de datos de análisis y establezca sus ponderaciones
de análisis en cero. Las unidades restantes se clasifican como la submuestra replicada.
(2) A continuación, ajuste los pesos base para el submuestreo implementado en el paso 1 para
formar el peso base replicado.
(3) Finalmente, vuelva a aplicar cualquier ajuste de peso utilizado para producir los pesos de la
muestra completa para calcular el peso del análisis de réplica final.

Para una varianza jackknife, los tres pasos se repiten R veces, de modo que cada unidad se
excluya una vez para formar una réplica del peso. Una estimación de la varianza de un grupo
aleatorio es similar en el sentido de que las unidades se agrupan aleatoriamente y todos los
grupos o un subconjunto aleatorio se eliminan para formar las ponderaciones repetidas.
Como se implementó con una muestra de una sola fase (p. ej., consulte Valliant 1993, 2004),
los ajustes de ponderación, como la falta de respuesta y la calibración, se aplican nuevamente a
cada réplica para que la varianza capture cualquier propiedad aleatoria adicional que no sea el
proceso de muestreo. Por ejemplo, si los pesos de la fase 2 se calibran con un conjunto de
estimaciones de la fase 1, se calculan nuevos controles estimados para cada réplica antes de
este ajuste. Se han investigado ajustes replicados adicionales, incluido uno para capturar la
variación en los controles estimados de la fase 1 (Fuller 1998) y una corrección de población finita
de la fase 1 no despreciable (Korn y Graubard 199912, Lee y Kim 2002) , así como una corrección
por sesgo que es inherente a la navaja (Kim y Yu 2011).

Los tres pasos anteriores están más especializados para los atributos del diseño de la fase 1.
Por ejemplo, si el diseño de la muestra de la fase 1 está agrupado y se utiliza la navaja, los
conglomerados se eliminan para formar réplicas y los pesos de todas las unidades en un
conglomerado de la fase 1 eliminado se establecen en cero en el paso 1. Como se señaló en Kim
et al. Alabama. (2006), si se dispone de un estimador de varianza consistente para las
estimaciones bajo el diseño de la fase 1, entonces esta propiedad se mantendrá para una
extensión multifase.

Ejemplo 17.11 (Varianza para diseño de dos fases con muestreo por conglomerados). Considere
un estudio que requiere estimaciones generadas a partir de pruebas psicológicas administradas
en persona. Se usaron datos de una batería inicial de preguntas (fase uno) para asegurar que la
muestra en persona (fase dos) incluye mujeres

12
Además, vea el panel de discusión sobre los usos apropiados de un fpc en http://web.cos.
gmu.edu/ÿwss/wss070328paper.pdf.
Machine Translated by Google

17.4 Estimación 509

cabeza de familia con relativamente buena salud y calidad de vida (QoL) como
así como aquellos con enfermedades físicas o mala calidad de vida. Se selecciona una muestra de mh
segmentos de área de la región h (h = 1, 2, 3, H = 4) para la fase uno; todos
mujeres jefas de hogar en los segmentos de la muestra se incluyeron en un primer
entrevista telefónica.
El srs de la segunda fase se seleccionó de tres estratos (G=3) dentro de cada
segmento con estratos definidos por la categorización de la escala de puntuación de la fase 1
de calidad de vida alta, media y baja. Todas las incógnitas, es decir, los que no respondieron, fueron
agrupados en el estrato “medio” en base a investigaciones previas. Se debería notar
que la naturaleza agrupada del diseño de la fase 1 no solo permitió una metodología rentable para
realizar la entrevista en persona de la fase 2, sino
también permitió el seguimiento en persona con los que no respondieron en la fase 1.
El estadístico del proyecto optó por calcular pesos de dos fases replicados para
el archivo de datos analíticos. La construcción de los pesos base comenzó antes
implementación de la recopilación de datos de la fase 2. Supongamos que la base de muestra completa
el peso definido para el conglomerado i en el estrato h de la fase 1 es d(1)0hi. Cuando racimo (st)
se elimina, el peso base replicado de jackknife se creó como

ÿ d(1)0hi h = s, yo = t,
d (S t) = h = s, yo = t,
(1)0hola ÿ d(1)0hi × (mh/mh ÿ 1)
ÿ 0 h = s, yo = t.

Tenga en cuenta que todos los miembros del grupo fueron seleccionados con certeza en el
muestra de fase 1, de modo que w(1)hi se aplicó a todas las unidades de muestra en el conglomerado
hola. El peso base condicional para la entrevista de la segunda fase se definió
como d(2)0hij|(1) = n(1)hig n(2)hig para el miembro de muestra j en el estrato anidado hig
(j ÿ shig), donde n(1)hig es el número de miembros elegibles de la muestra de la fase 1
en el estrato g dentro del conglomerado hi (es decir, el número de mujeres jefas de estado de la fase 1)
hogares) y n(2)hig es el tamaño de muestra de la fase 2 correspondiente. Combinatorio
los dos, el peso base de réplica de la fase 2 incondicional para la muestra de la fase 2
(S t) ×
miembro j en fase 2 estrato hig se calculó como d = d(st)
(2)0hij (1)0hola
d(2)0hij|(1).

El estimador de varianza jackknife para DEE o REE tiene un sesgo negativo que, al menos en
algunos casos, es insignificante (Kim y Yu 2011). Para
ejemplo, si los conglomerados son seleccionados por srswor, el sesgo es pequeño cuando el primero
la fracción de muestreo de fase es pequeña. Cuando la fracción de muestreo de la primera fase es
no despreciable, Kim y Yu (2011) dan métodos de replicación de construcción
estimaciones que eliminan el sesgo.

Un comentario sobre diseños multifásicos complejos


La literatura hasta la fecha se centra principalmente en lo que se puede clasificar como diseños de
dos fases de "etapa única". Estos diseños incluyen, por ejemplo, una sola etapa
de selección (fase uno) seguida de una segunda etapa única de selección (fase
dos) como el diseño srs/stsrs analizado en el ejemplo 17.10. este paradigma
Machine Translated by Google

510 17 diseños multifásicos

sigue el utilizado para desarrollar la teoría original que da como resultado componentes
de varianza que son familiares para quienes tienen al menos un curso de muestreo.
Sin embargo, la literatura que incluye estimadores de varianza de linealización para
diseños más complejos que incluyen agrupamiento en la primera fase, como en el ejemplo
17.11, es limitada. Se han realizado más investigaciones sobre la replicación. La revisión
de algunos informes metodológicos, como el NSFG-V (Potter et al. 1998) y la Encuesta
estadounidense sobre el uso del tiempo (Bureau of Labor Statistics 2012), indica que las
ponderaciones del estudio (fase 2 incondicional) se deben usar con software flexible
estándar. ware que da cuenta de la agrupación (fase 1). Esto sugiere que solo el primer
componente de la expresión (17.14) se tiene en cuenta en la estimación de la varianza.
Si es cierto, la implicación de ignorar el componente de varianza “dentro de la fase 2” (es
decir, la subestimación potencial de la varianza) requiere investigación adicional.

17.4.3 Estimador de regresión generalizado (GREG)

El uso de datos auxiliares sólidos para seleccionar una muestra es parte de la justificación
de las encuestas multifase. Si aún no está disponible, esta importante información se
recopila en fases anteriores para las siguientes. El estimador de regresión generalizada o
GREG discutido en el Cap. 15 aprovecha la información auxiliar para reducir el sesgo y la
varianza de las estimaciones. En esta sección, se analizan los GREG producidos a partir
de diseños multifásicos.
Pesos GREG y estimación puntual
Kim y Yu (2011), junto con S¨arndal y Lundstr¨om (2005) y S¨arndal et al. (1992),
analizan los beneficios de los estimadores de regresión relacionados con la reducción del
sesgo y la mejora de la eficiencia en las estimaciones de precisión sobre los estimadores
de expansión. La fórmula, reproducida del Cap. 14, para calcular un GREG para un total
de población es

t ˆyGREG = t ˆy + tx ÿ ˆtx Bˆ (17.16)


ÿ1
= 1 + tx ÿ ˆtx XT DVÿ1X xk/vk dkyk,
kÿs

donde tx es el vector de totales de control, ˆtx es el vector asociado de estimaciones


muestrales, gk es el término entre paréntesis en la segunda línea y wk = gkdk.
El término gk a veces se denomina peso g o peso de calibración.
Centrándonos en un diseño de dos fases por conveniencia, tenemos un total de tres
escenarios de calibración de peso. Es decir, las ponderaciones de la fase 2 se calibran (i)
solo para los totales de control estimados de la fase 1, (ii) solo para los totales de control
de población, o (iii) para la fase 1 y los controles de población simultáneamente.
Se debe considerar la calibración a los totales de control estimados de la fase 1,
escenario 1 anterior, para situaciones en las que no hay información (o estimaciones poco
confiables) para la población objetivo de interés. Con este procedimiento, el
Machine Translated by Google

17.4 Estimación 511

Los pesos base (ajustados) d(2)k para los encuestados del estudio de fase 2 están calibrados
para satisfacer las restricciones

w(2)k z(2)k = ˆt(1)z , (17.17)


kÿs(2)R

donde z(2)k es un vector de variables recolectadas en la fase 1 y pobladas con


información para los encuestados de la fase 2 (s(2)R); w(2)k es el peso de análisis
calibrado resultante; y ˆt(1)z = kÿs(1)R w(1)k z(1)k es el vector de
controles estimados calculados a partir de los encuestados de la fase 1. Así, dentro
expresión (17.16), tenemos tx = ˆt(1)z y ˆtx = ˆt(2)z = kÿs(2)R d(2)k z(2)k.
Una muestra de encuesta también se puede calibrar con estimaciones de una encuesta
independiente. El Estudio de Salud y Retiro,13 por ejemplo, calibra su
ponderaciones a las distribuciones de composición familiar estimadas a partir de la Encuesta de
Población Actual,14 que es una encuesta de hogares independiente. para calibración
a los controles estimados, la situación ideal es tener estimaciones topográficas altamente precisas de
un estudio que es mucho más grande que la encuesta que requiere calibración
(Dever y Valliant 2010).
Cuando el grupo de encuestados de la fase 1 es de tamaño insuficiente para producir
estimaciones eficientes para la calibración, los investigadores deben seguir, si es posible, el escenario
2 y ajuste los pesos a los controles de población. Aquí la base (ajustada)
los pesos d(2)k para los encuestados del estudio de fase 2 están calibrados para satisfacer las
restricciones

w(2)k x(2)k = tx, (17.18)


kÿs(2)R

donde x(2)k es un vector de variables conocidas para la muestra del estudio y que contiene datos
para los encuestados de la fase 2; w(2)k es el peso de análisis calibrado final resultante; y tx es el
vector de los totales de población definidos
en la expresión (17.16). Para estudios con NRFU, este estilo más tradicional
de calibración de peso podría ser apropiado, especialmente si la fase 1 y
los encuestados de la fase 2 parecen diferir en las características relevantes para el
estudiar.
S¨arndal y Lundstr¨om (2005, Cap. 8) analizan el uso de los totales de control
estimado a partir de la muestra de la primera fase inicialmente o simultáneamente con los totales de
control de la población (escenario de calibración 3). Nos referimos a estos como secuenciales.
calibración y calibración simultánea, respectivamente, y adaptar su discusión para un diseño de dos
fases. Una calibración secuencial de dos pasos para la fase
2 encuestados se producen de la siguiente manera:

Paso 1: Calibrar los pesos base (ajustados) para los encuestados del estudio de la fase 2 a los
totales estimados de la fase 1 como se define para el escenario 1 anterior. los

13
http://hrsonline.isr.umich.edu/
14
http://www.census.gov/cps/
Machine Translated by Google

512 17 diseños multifásicos

el peso calibrado resultante se define como w(2)k|(1) y se etiqueta como


“condicional” porque se basa en la muestra extraída para la fase uno.
Paso 2: Calibre simultáneamente los pesos ajustados del paso 1 para los encuestados del estudio, w(2)k|
=
(1), para satisfacer las restricciones = ˆt(1)z, tx kÿs(2)R w(2)k xÿk
T T
ˆtÿ
X,
con los xÿ
donde vectores componente =Si
k respectivamente. y ˆtÿ
z(2)k,
bien x(2)k definidos
se conserva la para lasy expresiones
(17.18),
restricción (17.17)
de calibración del
X

control estimado especificada en el paso 1, el procedimiento del paso 2 obliga


adicionalmente a las estimaciones de los encuestados a igualar los controles de la
población.

Para estudios de fase K con K=2, el vector total de control podría ser
=
ampliado para incluir estimaciones de las fases de diseño K-1, ˆtÿ ˆt(1)z, ˆt(2)z,..., ˆt(Kÿ1)z, tx . En este X

escenario, la ponderación base de los encuestados de la segunda fase, ajustada por cualquier pérdida de
muestra en la primera fase, se calibraría con los totales de la población y las estimaciones calculadas a partir
de las respuestas del cuestionario de la fase 1. Hasta la fecha, los beneficios de un escenario sobre otro no
están bien definidos y justifican una mayor investigación.

Estimadores de varianza de linealización


GREG La estimación de varianza GREG se basa en un modelo (lineal) que
contiene la información auxiliar que representa efectivamente la característica de la
población que se estima. Un modelo efectivo es aquel que conduce a un estimador
con una varianza menor que la que se obtendría al no utilizar los auxiliares. Dicho de
otra manera, este modelo dará como resultado residuos pequeños, la desviación del
valor de y y el valor estimado de y, es decir, ek = ykÿyˆk es pequeña. El residual es el
componente clave del estimador de varianza GREG.
El estimador GREG de un total, t ˆyGREG dado en Eq. (17.16), está escrito en
términos de un diseño de una sola fase usando solo información auxiliar basada en
la población X. Como se mencionó anteriormente, la información auxiliar, un
componente importante en la calibración, se obtiene de las diversas fases del diseño
junto con cualquier información fuentes. Si consideramos la calibración de peso
simultánea a los controles de población y a los controles estimados desde la primera
fase, entonces el estimador de varianza de dos fases GREG es una función de dos residuales estim

Fase 1: e(1)k = yk ÿ xT (2)kBˆ (1)

ÿ1

Bˆ = ÿ w(2)kx(2)kxT ÿ kÿs(2)(2)k ÿ w(2)kx(2)kyk ÿ2


(1)
(1)k
ÿ2 (1)k ÿ kÿs(2)

Fase 2: e(2)k = yk ÿ xÿT (2) B


k

ÿ1

= ÿ w(2)kxÿ kxÿT k ÿ w(2)kxÿ kyk ,



(2)
ÿ2k ÿ2k
ÿ kÿs(2) ÿ kÿs(2)
Machine Translated by Google

17.5 Opciones de diseño 513

T
donde xÿde
un=las
vector
recopilaciones
z(2)k, x(2)k , datos de
de valores auxiliares
de para la muestra
la fase de encuestados
2 y la fase k tomados
1, respectivamente; y
los modelos para cada fase se especifican con una varianza supuesta de ÿ2 y ÿ2 (1)k.
k
Tenga en cuenta si se supone que la varianza del modelo es un valor constante

ÿ ÿ2 para todo k ÿ s(1)), entonces las cantidades en el numerador y el


k
(es decir, ÿ2
denominador se cancelan, produciendo así una forma más familiar de los
coeficientes de regresión. Como se discutió en la Secc. 9.7 de S¨arndal et al.
(1992), el estimador de varianza asociado toma la forma general

vt ˆ(2)y = s(2) ÿˆ(1)kl g(1)keˆ(1)k g(1)leˆ(1)l


(17.19)
+ ÿˆ(2)kl g(2)keˆ(2)k g(2)leˆ(2)l ,
s(2)

donde ˆe(1)k = e(1)k w(1)k y ˆe(2)k = e(2)k w(2)k son residuos estimados del modelo; los pesos g
específicos de fase son

ÿ1

w(1)kx(2)kx (2)k ÿ2 x(2)k


g(1)k =1+ tx ÿ ˆtx y
kÿs(2) (1)k ÿ2 (1)k
ÿ1

w(2)kxÿ kxÿT k xÿk


g(2)k =1+ ˆtÿ X
ÿ ˆtÿ .
(2)x ÿ2 (2)k ÿ2
kÿs(2) (2)k

Las covarianzas estimadas para las unidades seleccionadas en los diseños de


muestra de la fase 1 y la fase 2 se designan como ÿˆ(1)kl y ÿˆ(2)kl. Como en la Secc.
17.4.2, el primer componente en la expresión (17.19) es la contribución de la varianza
de la fase 1 y el segundo componente está asociado con la segunda fase.

Estimadores de varianza replicados GREG


Hacemos una breve mención de los estimadores de varianza de replicación para el
GREG ya que siguen los mismos pasos que se discutieron anteriormente. Principalmente,
cualquier calibración introducida en los pesos debe implementarse de forma independiente
dentro de cada réplica.

17.5 Opciones de diseño

Una elección de diseño básica es si se utiliza más de una fase o se apega a una sola
fase. Las situaciones en las que se puede utilizar de forma rentable el muestreo
multifásico se analizan en la Secc. 17.5.1. Si se utilizan dos fases, se debe determinar
cómo asignar la muestra a las fases. La Sección 17.5.2 cubre el cálculo del tamaño de la
muestra cuando se realiza un muestreo doble para la estratificación y cuando se realiza
un estudio de seguimiento por falta de respuesta.
Machine Translated by Google

514 17 diseños multifásicos

17.5.1 Multifásico versus monofásico


El muestreo multifásico implica complicaciones y costos adicionales en comparación con un
diseño de una sola fase. Se debe desarrollar un sistema administrativo para rastrear los casos
y distinguir los asignados a diferentes fases y sus sitios de disposición (es decir, estado de
respuesta) después de cada fase. Se deben escribir programas especiales para traducir las
disposiciones finales en los pesos de análisis. Como se señaló anteriormente y se discutió con
más detalle en la Secc. 17.6, existen pocas opciones con software de estimación de varianza
para diseños multifásicos a la fecha de este escrito, y las opciones actuales tienen capacidades
limitadas. Estos problemas plantean la cuestión de si vale la pena usar un diseño multifásico.
Hay al menos tres usos importantes de los diseños multifásicos que se mencionaron en
secciones anteriores para distinguirlos de los diseños monofásicos:

(1) Para mejorar la precisión de las


estimaciones (2) Para obtener tamaños de muestra objetivo en algunos
subgrupos analíticos (3) Para intentar reducir los sesgos de falta de respuesta a

través de un estudio NRFU Cada uno de estos se analiza a continuación. Hansen et al. (1953a,
cap. 11, Secc. 3) brindan otra discusión sobre estos usos y sus eficiencias en comparación
con otras opciones.
Neyman (1938) introdujo la idea de que se podría aumentar la precisión recopilando datos
en la fase 1 para usarlos como variables de estratificación para la muestra de la fase 2, o como
covariables para las estimaciones de regresión de la fase 2. Hansen et al. (1953a) ilustran que
si se puede recolectar información de estratificación en la fase 1 que es altamente efectiva
para separar unidades en grupos homogéneos, entonces el muestreo doble para la
estratificación con una asignación óptima a los estratos de la fase 2 puede producir varianzas
de las medias estimadas que son mucho menores que se obtendría sin estratos. Por ejemplo,
piense en empresas de muestreo. Si no hay información sobre el tamaño de la empresa, los
recuentos de empleados pueden recopilarse en la primera fase y utilizarse para crear estratos
para el muestreo de la fase 2. De manera similar, si una variable auxiliar que está altamente
correlacionada con las variables de análisis se puede recolectar en la fase 1, entonces se
puede usar para construir estimadores de regresión eficientes de un total usando las respuestas
de la fase 2. Hansen y Tepping (1990) dan un ejemplo de esto en el control de calidad de los
programas gubernamentales de bienestar.
Hansen et al. (1953a) dan las condiciones bajo las cuales habrá ganancias cuando se utilice
muestreo doble para la estimación de estratificación o regresión. Las aplicaciones donde se
acumulan estas ganancias son bastante especializadas y es más probable que ocurran en
encuestas de empresas e instituciones.
Kalton y Anderson (1986) discuten varias técnicas para muestrear poblaciones raras. Sin
buena información sobre la prevalencia dentro de la población, destacan varios ejemplos de
cuestionarios de detección por correo enviados a los hogares para identificar adultos con una
característica particular (p. ej., discapacidad).
Luego, los individuos pueden ser muestreados a tasas revisadas basadas en la información
de detección para obtener tamaños de muestra objetivo en los subgrupos. Cuando el objetivo
es obtener tamaños de muestra objetivo de ciertos grupos y estimaciones con las que establecer
Machine Translated by Google

17.5 Opciones de diseño 515

las tasas de muestreo no están disponibles, entonces no hay más opción en los EE. UU. que
seleccionar y submuestrear. Las listas comerciales utilizadas en el muestreo basado en
direcciones pueden ayudar a identificar algunos dominios de personas (p. ej., raza/etnicidad
según el apellido15), pero las listas actualmente están incompletas y la precisión estimada no
está documentada. En otros países, por ejemplo, los de Escandinavia, los registros de
población permiten una identificación muy precisa de algunos tipos de personas. Pero también
están limitados por los elementos que se encuentran en el registro.
Por lo tanto, para los usos (1) y (2) anteriores, el muestreo multifase es claramente útil y
puede ser la única forma de lograr los objetivos de algunas encuestas. Al hacer un seguimiento
de los que no respondieron, la decisión es menos clara. En algunas encuestas, un estudio
NRFU puede ser la única forma de lograr una tasa de respuesta ponderada deseada (ver, por
ejemplo, AAPOR 2011; Singh et al. 2004) o un tamaño de muestra objetivo de encuestados.
Esto es especialmente cierto si la encuesta se realiza bajo contrato y el contrato especifica la
tasa de respuesta mínima o el tamaño de la muestra que se debe lograr. En algunas
encuestas, la única esperanza de agregar más encuestados después de la primera fase es
cambiar el modo de recopilación, comenzar a ofrecer incentivos para participar o ambas
cosas para una submuestra. En tales casos, la encuesta se convierte forzosamente en varias
fases.

17.5.2 Cálculos del tamaño de la muestra

Los cálculos del tamaño de la muestra para diseños multifásicos siguen muchas de las
técnicas ya discutidas en este libro. Discutimos algunos enfoques a continuación para orientar
el proceso de pensamiento, comenzando con un muestreo doble para la estratificación, luego
encuestas con un seguimiento de la falta de respuesta y, finalmente, diseños receptivos.

Muestreo doble para diseños de estratificación Los


cálculos del tamaño de la muestra con muestreo doble para diseños de estratificación (y
diseños multifásicos en general) se realizan utilizando varios enfoques.
Los métodos dependen de si los estratos conocen las estimaciones de población para una
variable analítica clave (i) durante el diseño del estudio de la fase 1 o (ii) solo después de que
se recopilan los datos de la fase 1. Cochran (1977, Secc. 12.3) analiza una asignación óptima
a los estratos de la fase 2 minimizando la varianza sujeta a un modelo de costo lineal.
Demostramos la técnica a través de un ejemplo.

Ejemplo 17.12 (Cálculo del tamaño de la muestra para el diseño srs/stsrs con estimaciones
de población). Considere un estudio piloto de salud mental que se llevará a cabo a través de
una entrevista telefónica asistida por computadora (CATI). El instrumento contiene un conjunto
de preguntas psicológicas (VDF-14) para identificar enfermedades mentales graves que han
sido validadas dentro de un entorno clínico pero no con CATI.

15
Consulte, por ejemplo, http://www.msg.com/Web/genesys/List-Enhancement-Matching.aspx .
Machine Translated by Google

516 17 diseños multifásicos

Aunque validado, el costo de realizar el estudio completo en un entorno clínico


tiene un costo prohibitivo y, por lo tanto, se está investigando esta opción de menor costo
como una alternativa viable. Se propuso un muestreo doble para el diseño de estratificación
en el que se le pedirá a una submuestra de encuestados CATI (fase uno) que
participar en una segunda entrevista con un psicólogo capacitado (fase dos).
Los encuestados de la Fase 1 se agruparán en uno de los cuatro estratos según
la puntuación de salud mental producida como una combinación lineal de respuestas a
el VDF-14. A cada estrato se asignará igual número de personas.
(Wh = 0,25). Además, las proporciones estimadas de enfermedad mental grave por
( Ph ) se calcularon a partir de una serie de pequeños estudios clínicos para evaluar
la sensibilidad de las preguntas CATI. Las varianzas de población asociadas
fueron tabulados usando la fórmula estándar Ph (1 ÿ Ph) e incluidos en el
tabla a continuación con la otra información. Los resultados (asignación de Neymar) son
proporcionada en la última columna y justificada a continuación.

Estrato Wh Ph S2
h neyman
asignación
1 0,25 0,02 0,0196 0,25 31
2 0,12 0,1056 0,25 0,37 72
3 0,2331 0,25 0,54 0,2484 107
4 0,26 0,1936 110
General 320

Cochran (1977) y Neyman (1938) dan la varianza de dos fases cuando la fase
1 es una muestra aleatoria simple, la fase 2 es stsrs y una asignación óptima para
Los estratos se utilizan en la segunda fase. Las fracciones de muestreo en ambas etapas
se supone que son despreciables. La proporción óptima de la muestra de la fase 2
asignar al estrato h para estimar la media poblacional es n(2)h n(2) =
WhSh/ h WhSh. La fórmula para la varianza de una media estimada con
esta asignación es

2 2
h Wh (F - P) ( h WhSh) = V(1) + V(2) ,
Voto = +
n(1) norte (2) n(1) norte (2)

donde Sh = S2 H. Se estima que una entrevista CATI de fase 1 es 1/5 de la


costo asociado con una entrevista clínica de fase 2. En particular, supongamos que
el modelo de costo lineal utilizado en la optimización de la variación de costos toma la forma
C = c(1)n(1) +c(2)n(2) donde c(1) = $10 y c(2) = $50. Si todas las entrevistas fueran
realizado en persona por un médico, supongamos que el estudio solo podría permitirse
400 entrevistas, es decir, $20.000/c(2). Cochran (1977) luego da lo siguiente
expresión para la tasa de submuestreo que minimiza la expresión de la varianza
arriba:
norte (2)
= .
n(1) V(2) V(1)!c(2) c(1)
Machine Translated by Google

17.5 Opciones de diseño 517

Las fórmulas para los tamaños de muestra de la fase 1 y la fase 2 que minimizan Vopt
sujetas a un costo total fijo C son

C
n(1) = ,
c(1) + c(2) ÿ K

n(2) = n(1) ÿ K,
dónde
K = V(2) V(1) c(2) c(1) .

Utilizando las estimaciones de población anteriores, los componentes de la varianza


se calculan como V(1) = 0,0419 y V(2) = 0,1307, de modo que n(2) n(1) = 0,79.
Utilizando las fórmulas anteriores, los tamaños de muestra óptimos de la fase 1 y la
fase 2 son n(1) = 404 y n(2) = 319. El tamaño de la muestra de la fase 2 se distribuiría
entre los cuatro estratos con la asignación de Neyman como se muestra en la tabla de
arriba. El tamaño de la muestra aleatoria simple con costo total C con cada unidad
costando c(2) es nsrs = C/c(2). La varianza de un srs de ese tamaño (despreciando un
fpc) es Vsrs = S2/nsrs donde S2 es la varianza de la unidad de población. La ganancia,
si la hay, del doble muestreo es Vopt/Vsrs. En este ejemplo, Vopt/Vsrs = 1,06.
Aunque en realidad hay una pequeña pérdida en la precisión de la media poblacional
estimada mediante el uso de muestreo doble, el objetivo real suele ser obtener ciertos
tamaños de muestra en los estratos. Si es así, el muestreo doble puede lograrlo, y la
asignación de Neyman probablemente no sea lo que se necesita.
La función R, dub, en PracTools calculará los resultados para este
ejemplo. Sus entradas son:

c1 Costo por unidad en la fase 1


c2 Costo por unidad en la fase 2
Ctot Costo variable total
Nh Sh Vector de conteos o proporciones de población de estrato
Yh.bar Vector de desviaciones estándar de población de estrato
Vector de medios de población del estrato

Las entradas y la llamada a la función para este ejemplo son:


Wh <- rep(0.25,4)
Ph <-c(0.02,0.12,0.37,0.54)
Sh <- sqrt(Ph*(1-Ph)) c1 <- 10

c2 <- 50
Ctot <- 20000
dub(c1, c2, Ctot, Nh=Wh, Sh, Yh.bar=Ph)

Si no se dispone de información sobre la característica de interés durante la etapa


de planificación, entonces el estadístico puede usar una variable que es altamente
Machine Translated by Google

518 17 diseños multifásicos

correlacionado (o se cree que lo está) con la variable de análisis y continúe con la técnica discutida
anteriormente. De lo contrario, el tamaño de la muestra de la fase 2 y la asignación a los estratos se crean
solo después de que se analicen los datos de la primera fase usando los procedimientos discutidos en la
Parte I del texto. Liu y Aragon (2000), por ejemplo, señalan que el efecto de diseño de las ponderaciones (es
decir, el efecto de ponderación desigual) se minimiza si se utiliza una probabilidad proporcional a la
ponderación de la fase 1 para extraer la muestra de la fase 2.

Diseños de seguimiento de falta de respuesta


Volvemos a la aplicación NRFU presentada en la Secc. 17.2.2 y presentar un ejemplo basado en
S¨arndal et al. (1992, ejemplos 15.4.4 y 15.4.5). Suponga que se selecciona un srswor inicial, s(1) , seguido
de una submuestra srswor de los que no respondieron. En esta situación sencilla, podemos determinar los
tamaños de muestra para las fases para (i) minimizar una nueva variación por un costo fijo o (ii) minimizar el
costo por una nueva variación fija. Suponga que se selecciona una muestra inicial de tamaño n(1) . Hay
n(1)R encuestados y n(1)NR no encuestados. Las proporciones de encuestados y no encuestados en la
muestra de la fase 1 son

p(1)R = n(1)R/n(1) y p(1)NR = n(1)NR/n(1).

Se selecciona una muestra NRFU s(2) de n(2) unidades mediante un muestreo aleatorio simple de los
n(1)NR de la fase 1 que no respondieron. Los datos sobre las variables de la encuesta se recopilan en los
encuestados iniciales y en las unidades participantes en la muestra NRFU. Tenga en cuenta que esto es
diferente de las aplicaciones de dos fases en las que solo se utilizan en la estimación los datos de los
encuestados recopilados en la segunda fase.
Los pesos base para las unidades de muestra son

norte

n(1)
k ÿ s(1)R, k
d(2)k = N n(1)NR n(1)
n(2)
ÿ s(2).

Algunas unidades de la muestra de la fase 2 tampoco responderán, por lo que solo responderá n(2)R . A
continuación, se calcula una ponderación ajustada por la falta de respuesta, utilizando una correlación global.

norte

norte (1)
k ÿ s(1)R, k
w(2)k = N n(1)NR n(2) n(1) (17.20)
n(2) n(2)R
ÿ s(2)R.

Utilizando los pesos de la expresión (17.20), el estimador del total poblacional de una variable y es

N norte
n(1)NR
t ˆ(2)y = yk + yk (17.21)
n(1) s(1)R s(2)R n(1) n(2)R

= norte p(1)R y¯(1)R + p(1)NR y¯(2)R


Machine Translated by Google

17.5 Opciones de diseño 519

donde ¯y(1)R = s(1)R yk n(1)R, la media no ponderada de la respuesta de la fase 1 yk n(2)R,


abolladuras, y ¯y(2)R s(2)R la media no ponderada de la n(2)R ˆ¯
= encuestados en la submuestra. La media poblacional se estima mediante yt ˆ(2)y =
N. Tenga en cuenta que este estimador deja espacio para la posibilidad de que los
encuestados de la primera y segunda fase representen grupos cuyas medias
poblacionales son diferentes, como en el ejemplo 17.3.
Suponiendo que la respuesta es un proceso aleatorio y que cada unidad de
muestra tiene una probabilidad ÿ de responder a la fase 1, los números de encuestados
y no encuestados, n(1)R y n(1)NR, son aleatorios. Modificando el argumento de
S¨arndal et al. (1992, ejemplo 15.4.5) ligeramente, la varianza de y ˆ¯, que es un caso
especial de la ecuación. (17.15), se puede encontrar como

= 1 ÿ f(1) S2
ˆ¯ 1 ÿ f(2)R
Vy S2
yU + E(1)ERD p2 (1)NR y(1)NR s(1) , n(2)
n(1)

donde ERD es la expectativa con respecto a las distribuciones de respuesta de las


fases 1 y 2, S2 es la varianza unitaria entre los no respondedores de la fase 1, y(1)NR
y f(2) = n(2)R n(1)NR es la fracción que responde de las abolladuras sin respuesta de la fase 1.
Debido a que n(1)NR es aleatorio, establecemos la fracción de muestreo de la segunda fase lograda
en una constante, ÿ = f(2)R, que permitirá encontrar los valores óptimos de n(1) y ÿ. Tenga en cuenta
que ÿ incluye tanto la tasa de submuestreo inicial de los no respondedores de la fase 1 como la
proporción de la submuestra de la fase 2 que responde. Si la varianza unitaria entre los que no
respondieron es la misma que la varianza unitaria de todas las unidades, S2 = S2 , la revarianza de
la media se puede mostrar y(1)NR yU , como

2
CV 1ÿv
CV 2 yU
t ˆ(2)y = 1 ÿ f(1) + (1 ÿ ÿ) , (17.22)
v
n(1)

2 donde CV yU es la unidad de la varianza en la población (el ejercicio 17.1 le pide


para derivar este resultado y los siguientes).
Ahora, suponga que c0 es el total de costos fijos que no dependen del tamaño de
la muestra, c1 es el costo por unidad en la fase 1 promediado entre encuestados y no
encuestados y que c2 es el costo unitario de recopilar y procesar datos de una unidad
en fase 2. La función de costo lineal se expresa como

C = c0 + c1n(1) + c2n(2).

Debido a que n(2) no es una constante debido a la aleatoriedad de la respuesta en la


primera fase, calculamos el costo esperado para usar en la optimización:

DER (C ÿ c0) = c1n(1) + c2ÿ (1 ÿ ÿ) n(1). (17.23)

El valor óptimo de ÿ que minimiza la varianza real (17.22) para un costo fijo o minimiza
el costo para una varianza real fija es

c1
ÿoptar = .
c2ÿ
Machine Translated by Google

520 17 diseños multifásicos

Para que este sea un valor factible, necesitamos c1/c2 ÿ ÿ. Por lo tanto, el costo unitario de la fase 1
puede tener que ser sustancialmente menor que el de la fase 2 si la respuesta de la fase 1
probabilidad es baja. El valor óptimo de la muestra de la fase 1 para un costo fijo
se encuentra sustituyendo ÿopt en la función de costo:

C- c0
n(1)opt = . (17.24)
c1 + c2ÿopt (1 ÿ ÿ)

2
Cuando la revarianza se fija en un valor de CV 0, el valor óptimo es

Una
1 ÿ ÿ (1 ÿ ÿopc)
n(1)opt = .
currículo 2
ÿopt 0
+
Una

CV 2 norte
yU

Seleccionar una muestra de seguimiento de falta de respuesta puede ser inquietantemente ineficiente
en comparación con simplemente seleccionar un srs más grande en primer lugar. la revarianza
2
de una media estimada de un srs, despreciando el fpc, es CV CV srs (¯ysrs) =
2
yU nsrs. Igualando esto a la Ec. (17.22) y resolviendo para nsrs da
ÿ1
nsrs = n(1) ÿ + (1 ÿ ÿ) /ÿ ÿ f(1) el tamaño . Si solo ÿ de estas unidades responde, el
de srs inicial requerido es

ÿ1
n(1) 1-ÿ
nsrs = ÿ ÿ+ ÿ f(1) . (17.25)
v

Suponiendo que el costo unitario del srs es c1 y que ÿ responde, el total


el costo del srs de nsrs unidades será Csrs = c1nsrs. La relación de las dos fases
costo al srs costo es entonces

Ctot c2
= n(1) 1+ v (1 - ÿ) . (17.26)
rsc nsrs c1

Este cálculo supone que, dentro de las fases, todas las unidades tienen la misma probabilidad de
responder, lo que puede ser poco realista. La posibilidad de responder puede depender de
características demográficas y la composición demográfica de la fase
La submuestra 2 puede ser diferente de la de la muestra de la fase 1. En el cap. 13 nosotros
analizó algunas técnicas que explicarán tales diferencias demográficas
al hacer ajustes por falta de respuesta. Para hacerse una idea de la muestra
tamaños necesarios para la primera y segunda fase de un diseño NRFU, el más simple
los cálculos anteriores siguen siendo útiles.
La función R NRFUopt del Apéndice C calculará los valores de vopt
y n(1) optar por un costo fijo o un coeficiente de variación objetivo. los
La función acepta los siguientes parámetros:
Machine Translated by Google

17.5 Opciones de diseño 521

Ctot Costo variable total


c1 Costo por unidad en la fase 1
c2 Costo por unidad en la fase 2
theta Probabilidad de respuesta para cada unidad
CV0 Coeficiente de variación objetivo para el total o la media
estimados
CVpop Coeficiente de variación unitario
norte
Tamaño de la poblacion; el valor predeterminado es Inf.

tipo.sw Tipo de asignación


''costo'' = costo variable total objetivo ''cv'' =
coeficiente de variación objetivo

Además de vopt y n(1)opt, los resultados de la función incluyen el tamaño esperado de


la muestra de la segunda fase, el tamaño de srs de la ecuación. (17.25), y la relación de
costos en la ecuación. (17.26).

Ejemplo 17.13 (Tamaños de muestra óptimos para un presupuesto fijo). Suponga que el
presupuesto para los costos variables totales es de $100 000, los costos unitarios para
las fases 1 y 2 son de $50 y $200, la probabilidad de respuesta es 0,5 y el coeficiente de
variación unitario es 1. El coeficiente de variación objetivo para la media es 0,05 . La
llamada a la función con estos valores de parámetros es

NRFUopt(Ctot=100000, c1=50, c2=200, theta=0.5, CV0=NULL, CVpop=1, type.sw="cost")

la salida es

$asignación [1]
"costo fijo"
$'Coste variable total' [1] 1e+05
$'Tasa de respuesta' [1] 0.5 $CV [1]
0.0382 $v.opt [1] 0.7071 $n1.opt [1]
828 $'N2 esperado' [1 ] 293 $'Casos
totales esperados (2 fases)' [1] 1121
$'Muestra de srs para el mismo
cv' [1] 1373 $'Relación de costos:
Dos fases a srs' [1] 1.457

El CV previsto es 0,0382 con tamaños de muestra de 828 para la fase 1 y 293 en la fase
2 para un total de 1121. La fracción de submuestreo de la fase 1
Machine Translated by Google

522 17 diseños multifásicos

no respondedores es 0.7071. Para obtener un CV de 0,0382 seleccionando un srs inicial


más grande, necesitaríamos seleccionar 1373 de los cuales se esperaría que respondieran
0,5*1373 = 687. Tenga en cuenta que la segunda fracción de muestreo, 0,7071, es bastante
alta. Si la falta de respuesta de la fase 2 es superior al 30 %, la solución anterior no será
factible. Además, tenga en cuenta que la muestra de dos fases sería más cara que un srs
inicial de 1373 por un factor de 1,457.

El ejemplo anterior parece implicar que sería mejor seleccionar una muestra inicial más
grande que anticipe cuánta falta de respuesta habrá. Usamos este método en el Cap. 6 para
ajustar los tamaños de muestra. Sin embargo, una muestra inicial más grande no siempre
es una solución. Por ejemplo, se puede obtener una tasa de respuesta inesperadamente
baja en la fase 1. Además, el modo inicial de recopilación de datos puede llegar al límite de
su eficacia. Por ejemplo, en un envío por correo de cuestionarios en papel, la tasa de
respuesta puede ser del 30 %, pero se requiere una tasa de respuesta final del 50 %. Si
más envíos darán como resultado pocas o ninguna respuesta adicional, entonces se
necesitará una muestra de seguimiento de falta de respuesta con un modo diferente si hay
alguna esperanza de obtener una respuesta del 50 %.

Ejemplo 17.14 (Tamaños de muestra óptimos para un CV objetivo). En un estudio NRFU de


dos fases, suponga que se desea un CV de 0,10 para la media estimada. Los costos
unitarios para las dos fases son c1 = $75 y c2 = $150. El CV unitario en la población es 3 y
se prevé que la tasa de respuesta a la primera fase sea del 70 %.
Determinar la asignación de la muestra a ambas fases y el costo variable estimado de la
encuesta. La llamada a la función y sus resultados son:

NRFUopt(Ctot=NULO, c1=75, c2=150, theta=0.7, CV0=0.10,


CVpop=3, tipo.sw="cv")
$asignación [1]
"CV fijo"
$'Coste variable total' [1] 107320.2
$'Tasa de respuesta' [1] 0.7 $CV [1]
0.1 $v.opt [1] 0.8452 $n1.opt [1] 949
$'N2 esperado' [1] 241 $'Casos
totales esperados (2 fases)' [1] 1190
$'Muestra de srs para el mismo
cv' [1] 1286 $'Relación de costos:
Dos fases a srs' [1] 1.113

El costo esperado es de aproximadamente $107,320 con 1,190 unidades divididas entre


949 unidades de la fase 1 y 241 unidades de la segunda fase. Se necesitaría un srs
monofásico de 1.286 para obtener el mismo CV de 0,10.
Machine Translated by Google

Software 17.6R 523

Diseños responsivos
La clave para el diseño receptivo es la incapacidad de planificar durante la etapa de diseño
del proyecto para los puntos en el tiempo en los que es necesario realizar un cambio en las
condiciones esenciales de la encuesta. Por ejemplo, dos meses después de la recopilación de
datos para el Estudio X, el equipo decide, basándose en el análisis del estado actual del proyecto,
enviar un incentivo adicional para aumentar la participación.
Sin embargo, hasta la fecha se ha publicado poca información sobre reglas de decisión específicas
para invocar la siguiente fase en un diseño receptivo. Esbozamos a continuación los procedimientos
generales basados en nuestra experiencia personal partiendo del punto de vista del estudio desde
al menos tres ángulos diferentes:

(1) Propensión a la respuesta. El equipo del proyecto monitorea las tasas de respuesta y las
propensiones de respuesta a lo largo del período de recopilación de datos. Los indicadores
(y posiblemente las covariables del modelo de respuesta) pueden incluir una combinación
de información del marco, paradatos, información “sobre el terreno” de los entrevistadores,
experiencia pasada y tiempo/financiación en el período restante de recopilación de datos.
Mediante el mejor y el peor de los casos, el equipo identifica un punto en el que es improbable
que se alcance el tamaño de muestra requerido (general y dentro de los subgrupos), ya sea
analítica o contractualmente, dada la muestra actual.

(2) Análisis de sesgo de falta de respuesta. Algunos equipos de proyecto pueden realizar análisis
periódicos de sesgo de falta de respuesta con variables conocidas para los encuestados y
los no encuestados (ver, por ejemplo, Ingels et al. 2011). Los resultados pueden sugerir que
ciertos subgrupos tienen un bajo rendimiento y que las áreas necesitan atención adicional
por parte del personal de campo.
(3) Precisión de las estimaciones clave. Además del análisis de la propensión a responder y del
sesgo de no respuesta, se puede analizar un conjunto de estimaciones clave utilizando los
datos actuales. Especialmente con el análisis de subgrupos, los bajos niveles de precisión
en las estimaciones pueden sugerir la publicación de una muestra adicional o la necesidad
de cambiar los métodos para solicitar la participación.

Los resultados comunes entre estos y otros análisis pueden indicar que los fondos utilizados para
"negocios como siempre" se desperdiciarán. En este punto, el equipo del proyecto puede decidir
(i) finalizar la recopilación de datos, (ii) liberar a los miembros de la muestra de reserva o (iii)
implementar un cambio de procedimiento en una submuestra de los casos que no respondieron.
Cualquier decisión también debe incluir los fondos restantes disponibles para la recopilación de
datos. Como se señaló para el muestreo doble, se debe tener especial cuidado para garantizar
que cualquier submuestreo no introduzca sesgos al seleccionar intencionalmente aquellos que,
en términos relativos, tienen más probabilidades de responder.

Software 17.6R

Concluimos este capítulo con una discusión sobre el software. No existe ningún software para
extraer explícitamente muestras multifásicas porque la muestra para la fase r + 1 depende de la
información recopilada de la fase r -ésima . En consecuencia, el
Machine Translated by Google

524 17 diseños multifásicos

la selección de la muestra debe implementarse de manera única dentro de cada fase


usando software desarrollado para diseños de una sola fase. Lo mismo se dice para los
diseños de etapas múltiples donde las muestras se extraen secuencialmente dentro de
cada etapa. Algunos de estos procedimientos se discutieron en otros capítulos de este texto
y no se repiten aquí.
Solo un paquete de software estaba disponible para analizar diseños de dos fases
durante el tiempo que se desarrolló este texto. El lenguaje de programación R incluye
funciones para analizar datos de un diseño de dos fases bajo el supuesto de que las
unidades de la primera fase fueron dibujadas por srs o mediante un diseño agrupado. Al
igual que con otros diseños de encuestas, se debe construir un objeto de encuesta R de
dos fases antes de realizar el análisis utilizando la función de dos fases16.

Ejemplo 17.15 (Análisis de un objeto de diseño de levantamiento de dos fases srs/srs en R).
Tomando prestados los datos pbc de la biblioteca R, el siguiente código se usa para
desarrollar un objeto R apropiado para el diseño. Estos datos provienen de un ensayo de
Mayo Clinic en cirrosis biliar primaria (CBP) del hígado realizado entre 1974 y 1984. El
paquete de supervivencia R describe el conjunto de datos con más detalle.
La opción de subconjunto en el código a continuación identifica las unidades de muestra de
la fase 2, que se definen como personas con valores faltantes de la variable trt:

# muestreo aleatorio simple en dos fases. datos(pbc,


paquete="supervivencia") pbc$id <- 1:nrow(pbc) d2pbc <- dos
fases(id=lista(˜id, ˜id), datos=pbc,

subconjunto = ˜I(es.na(trt)))

Ejemplo 17.16 (Muestreo en dos fases para estratificación utilizando la población del NHIS).
Suponga que se selecciona una muestra inicial de n = 2,000 personas de la población
nhis.large. Se determina la edad de cada persona y la primera fase se estratifica en cinco
grupos: < 18 años, 18–24 años, 25–44 años, 45–64 años y 65+. Se seleccionó una muestra
estratificada de fase 2 con n(2)h=100 en cada estrato con la idea de que se desea la misma
precisión para los análisis de personas en los diferentes grupos de edad. Tenga en cuenta
que esto es diferente de los ejemplos en el Cap. 10 donde se establecieron por adelantado
tasas de muestreo fijas para subgrupos en una muestra de área en dos etapas. Aunque las
tasas en esos ejemplos se diseñaron para producir ciertos tamaños de muestra objetivo, las
tasas dentro del conglomerado podrían determinarse por adelantado. En este ejemplo, las
tasas de la segunda fase dependen de cuántas personas se encontraron en los grupos de
edad en la primera fase.
El código R para seleccionar la muestra de dos fases y estimar la proporción de personas
se muestra a continuación. La función en el paquete de encuestas que maneja

dieciséis

http://rss.acs.unt.edu/Rdoc/library/survey/html/twophase.html
Machine Translated by Google

Software 17.6R 525

las muestras bifásicas son bifásicas. Se debe construir un marco de datos (p1.dat) en este
ejemplo que tenga un registro para cada elemento de la fase 1 con indicadores de si un
elemento estaba en la muestra de la segunda fase o no (p1.dat$p2).
El parámetro

subconjunto = ˜p2

en la llamada a twophase especifica el campo que identifica los elementos de la segunda


fase.
En este ejemplo, el 5,89 % de las personas retrasó la atención médica en los 12 meses
anteriores debido al costo. Los más jóvenes (< 18) y mayores (65+) tenían menos
probabilidades (5 % y 2 %) de retrasar la atención que las personas de los otros grupos:

adjuntar("nhis.large.RData", pos=2) require(muestreo)


require(encuesta) set.seed(1716768836)

nhis <- como.data.frame(nhis.grande) n1 <- 2000

N <- nfila(nhis.grande)

# recodificar delay.med para ser 0,1


nhis$delay.med <- abs(nhis$delay.med-2) # seleccione una
muestra de fase 1 de n1 sam <- sort(sample(1:N, n1))
p1.dat <- nhis[sort(sam ) ), ]

# Pesos de la fase 1
p1.dat$p1wts <- rep(N/n1, n1) n2 <-
rep(100,5) p2.str.sam <-
strata(data.frame(p1.dat),
estratanames = c("edad.grp"), tamaño =
n2, método = "srswor")

# establecer una variable V/F para determinar si la persona está en la muestra de la fase 2
p1.dat$p2 <- FALSO p1.dat$p2[p2.str.sam$ID_unit] <- TRUE # Pesos condicionales de la fase 2
p1.dat $p2wts <- 0 p1.dat$p2wts[p2.str.sam$ID_unit] <- 1/p2.str.sam$Prob # Objeto de diseño de
2 fases d2.nhis <- dos fases(id = lista(˜ID, ˜ID), datos = p1.dat, estratos=lista(NULL, ˜edad.grp),
pesos = lista(˜p1wts, ˜p2wts), subconjunto = ˜p2, método = "aprox")

mns <-svymean(˜factor(retraso.med), diseño = d2.nhis, na.rm = TRUE) ftab <- ftable(mns, nombres
de fila=lista(retraso.med = c("No","Sí") )) ronda(ftab,4)
Machine Translated by Google

526 17 diseños multifásicos

retraso.med
No media 0.9411
SE 0.0114
Sí media 0.0589
SE 0.0114

edad.mns <- svyby(formula= ˜delay.med, by=˜edad.grp,


DIVERSIÓN = svymean, diseño = d2.nhis, na.rm = TRUE)
ronda(edad.mns,4)

age.grp retraso.med se.delay.med


Una 0.0500 0.0219
2 0.0800 0.0272
3 0.0612 0.0243
4 0.0800 0.0272
5 0.0200 0.0140

Las estimaciones de los componentes de la varianza debida a las fases (Vˆ1 y Vˆ2 en el
ejemplo 17.10) se pueden extraer con el siguiente código, que se aplica a la
estimación general de la proporción que retrasó la atención médica:

V <- vcov(svymean(˜factor(delay.med), design = d2.nhis, na.rm = TRUE))


V1 <- attr(V, "fases")$fase1
V2 <- attr(V,"fases")$fase2

En este caso, V1= 2.79e-05 y V2= 1.028e-04 para que la segunda fase
representa alrededor del 79 % de la varianza de t ˆ(2)y.
¿Cómo se compara la muestra doble estratificada con una srs de n = 500 para
la estimación general? Si hubiéramos seleccionado 500 personas por srs y obtuviéramos un
estimación de 0.0589, el error estándar habría sido

(0.058943 (1 ÿ 0.058943) /500) = 0.0105

en comparación con 0.0114 anterior. Por lo tanto, la muestra doble es un poco menos precisa,
pero el número esperado de personas en los cinco grupos de edad en un srs de 500
son 139, 47, 142, 116 y 57. Las edades de 18–24 y 65+ tienen menos que el objetivo
de 100. El muestreo de dos fases dio una precisión general similar a la de un srs de
del mismo tamaño pero permitió el número de personas de la muestra en cada grupo de edad
ser controlado. Por supuesto, la detección para determinar la edad cuesta dinero que
no se gastaria en un srs.

Tenga en cuenta que, además de permitir el uso de funciones de encuesta estándar, como
svymean, la función de calibración producirá pesos GREG para un diseño de dos fases. Sin
embargo, la calibración está actualmente reservada solo para la fase
2 unidades.
Machine Translated by Google

Software 17.6R 527

Ejercicios

17.1. Considere un estudio de seguimiento de falta de respuesta en el que la primera fase se


selecciona de forma jurada de la población y la segunda fase se selecciona de forma jurada
de los no respondedores de la fase 1. La notación se define en la Secc. 17.5.2.

(a) Demuestre que el estimador de expansión doble es t


ˆ(2)y = N p(1)Ry¯(1)R + p(1)NRy¯(2)R .
(b) Comenzando con la expresión

1 ÿ f(1) 1 ÿ f(2)
V t ˆ(2)y = S2 + E(1)ERD p2 S2
yU (1)NR y(1)NR s(1)
n(1) n(2)

Demostrar que la varianza es igual a

S2 1ÿv
yU
V t ˆ(2)y = 1 ÿ f(1) + (1 - ÿ) .
v
n(1)

donde ÿ = f(2)R es la fracción de muestreo lograda de la segunda fase fija (es decir, el
número de los que votaron en la fase 2 dividido por el número de los que no respondieron
en la fase 1) y ÿ es la probabilidad de que cualquier unidad responda. Suponga que si
una unidad responde es independiente de cualquier otra unidad. (c) Demuestre que si la
función de costo es C = c0 + c1n(1) + c2n(2) donde n(2) se trata como aleatoria, entonces
ERD (C ÿ c0) = c1n(1) + c2ÿ (1 ÿ ÿ) n(1). (d) Demuestre que el valor óptimo de la fracción
de submuestreo de la fase 2 es ÿopt =
c1/c2ÿ.
(e) Si la varianza se minimiza sujeta a un costo total (esperado) fijo, entonces Cÿc0 muestra
que n(1)opt = c1+c2ÿopt(1ÿÿ) . (f) Si se minimiza el costo
por un valor fijo, CV0, del coeficiente de variación

de t ˆ(2)y, entonces
Una
1 ÿ ÿ (1 ÿ ÿopc) .
n(1)opt = CV 02
ÿopt 2 1+
CV norte
yU

17.2. Suponga que el presupuesto para costos variables totales en un estudio NRFU es de
$500 000, los costos unitarios para las fases 1 y 2 son $25 y $200, la probabilidad de
respuesta es 0.3 y la variación del coeficiente unitario es 1. Encuentre la asignación óptima
para dos -Fase muestral para minimizar el coeficiente de variación de la media estimada.
Discuta los resultados.

17.3. En un estudio NRFU de dos fases, suponga que se desea un CV de 0,10 para la media
estimada. Los costos unitarios para las dos fases son c1 = $75 y c2 = $350. El CV unitario en
la población es 2 y se prevé que la tasa de respuesta a la primera fase sea del 40 %.
Determinar la asignación de la muestra a ambas fases y el costo variable estimado de la
encuesta.
Machine Translated by Google

528 17 diseños multifásicos

17.4. En un estudio NRFU de dos fases, suponga que se desea un CV de 0,10 para la
media estimada. Los costos unitarios para las dos fases son c1 = $75 y c2 = $150. El
CV unitario en la población es 2 y se prevé que la tasa de respuesta a la primera fase
sea del 40 %. Es decir, los supuestos son los mismos que en el ejercicio 17.3, excepto
que el costo de la fase 2 es mucho menor. Determinar la asignación de la muestra a
ambas fases y el costo variable estimado de la encuesta. Discuta sus resultados.

17.5. Utilice la población nhis.large para estudiar el muestreo doble para la


estratificación. Seleccione una muestra inicial de n = 2000 personas. En el uso de R,
inicialice el generador de números aleatorios con set.seed (1716768836). Se determina
la edad de cada persona y la primera fase se estratifica en cinco grupos: < 18 años, 18–
24 años, 25–44 años, 45–64 años y 65+. Se seleccionó una muestra estratificada de
fase dos con n(2)h=100 en cada estrato. (a) Estime la proporción de personas y los SE
de la proporción de personas que pasaron una noche en el hospital en los 12 meses
anteriores. (b) ¿Qué proporción de la variación en (a) se debió a la fase 1 y la fase
2? (c) Estime las proporciones y los EE para los cinco grupos de edad. (d) ¿Cómo se
comparan los SE en (a) y (c) con un srs de n = 500 seleccionado en una sola fase?

17.6. Considere una situación en la que se intenta una ola inicial de recopilación de
datos. Algunas unidades responden y otras no. Supongamos que la población se puede
dividir en dos estratos, uno de los casos que responden a la fase inicial y otro de los
casos que no. Denotar las proporciones de la población en los dos estratos por W1 y
W2 = 1 ÿ W1 y las medias de población por ¯yU1 y ¯yU2. Se selecciona una muestra
aleatoria simple y solo responden los casos del estrato 1. Ahora, suponga que ¯yU2 = k
y¯U1. Muestre que el relbias de ¯y1 como estimador de ¯yU es

W2 (1 ÿ k) .
relbias (¯y1) =
1 - W2 (1 - k)

17.7. En este problema revisamos el ejemplo 17.7.

(a) Calcule el efecto de ponderación desigual para los pesos finales w(2)k. Por qué
podría ser importante examinar esto.
(b) ¿Qué cambios sugeridos implementaría si tuviera el actual
resultados como su información histórica?

17.8. Se propone un diseño de doble muestreo por estratificación para un estudio con
cuestionario de cribado telefónico en fase uno. A una submuestra de encuestados se le
administrará un cuestionario más largo y detallado en la segunda fase.
La fase 1 es srs y la fase 2 es stsrs. Las siguientes estimaciones de población son
proporcionadas por los dos estratos:
Machine Translated by Google

Software 17.6R 529

Estrato Nh Wh Ph 1.580
Una 0,79 0,19 430
2 0,21 0,52
Total 2010

(a) Determine los tamaños generales de muestra para la primera y segunda fase del diseño
utilizando el método descrito en el ejemplo 17.12 con un valor de costo general de C =
$10 000, c1 = 10 y c(2) = $100. Comente sus hallazgos. ¿Hay alguna ganancia al usar
doble muestreo con una asignación óptima a los estratos en comparación con
seleccionar un srs con el mismo costo total?
¿Por qué o por qué no? Suponga que cada unidad en el srs cuesta c(2). Si no hay
ganancia, ¿por qué podría seguir utilizándose el doble muestreo?
(b) ¿Cómo cambian sus resultados si C=$10,000 pero el costo de la recopilación de datos
de la fase 2 es el doble (es decir, c(2) = $200). Comente sus hallazgos.
Machine Translated by Google

capitulo 18
Control de Procesos y Medidas de Calidad

Hasta ahora hemos descrito una amplia variedad de herramientas y tareas necesarias para
el muestreo y la ponderación. Sin embargo, la clave para un proyecto exitoso no es solo el
dominio de las herramientas y saber qué herramienta usar cuándo, sino también el
seguimiento del proceso real, así como la documentación cuidadosa de los pasos tomados
y la posibilidad de replicar cada uno de esos pasos. Para cualquier proyecto, se deben
tomar ciertas medidas de control de calidad antes de la recopilación de datos durante la
construcción del marco de muestreo y la selección de la muestra y después de la
recopilación de datos durante la edición, el cálculo del peso y la construcción de la base de datos.
Los proyectos bien planificados están diseñados para que sea posible el control de calidad
durante el proceso de recopilación de datos y que se puedan tomar medidas para mejorar
la calidad antes del final del período de recopilación de datos. Obviamente, las medidas
específicas de control de calidad variarán según el tipo de proyecto realizado. Por ejemplo,
los esfuerzos repetidos de recopilación de datos longitudinales permiten realizar
comparaciones con años anteriores, mientras que las encuestas transversales únicas a
menudo sufren de incertidumbre con respecto a los procedimientos y resultados. Sin
embargo, hemos descubierto que un conjunto básico de herramientas es útil para casi
todos los diseños de encuestas y las presentaremos en este capítulo. Queremos enfatizar
que si bien es tentador pensar que la garantía de la reproducibilidad y la buena
documentación solo valen el esfuerzo para encuestas complejas que se repetirán, según
nuestra experiencia, incluso la encuesta más pequeña "funciona" mejor cuando las herramientas presenta
El material de este capítulo solo está arañando la superficie de lo que se puede hacer
y se centra en particular en elementos de relevancia clave para los investigadores.
Este capítulo está organizado en tres períodos de tiempo distintos de una encuesta:
recolección previa a los datos (diseño del estudio, construcción del marco y selección de
muestras), recolección intermedia de datos (técnicas de monitoreo y tasas de desempeño)
y recolección posterior a los datos (edición, ponderación, redacción de especificaciones y
documentación). Recomendamos enfáticamente leer las Directrices de calidad
proporcionadas por varias agencias estadísticas y otras organizaciones como Eurostat
(Aitken et al. 2004), la Oficina de Administración y Presupuesto de EE. UU. (2006),1 Canadá (2009), la
Una

http://www.whitehouse.gov/sites/default/files/omb/inforeg/statpolicy/standards
encuestas estadisticas.pdf

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 531


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5 18, © Springer Science+Business Media New York 2013
Machine Translated by Google

532 18 Control de procesos y medidas de calidad

la Oficina de Estadísticas Nacionales del Reino Unido2 y la Asociación Estadounidense para


la Investigación de la Opinión Pública3; informes de grandes proyectos de encuestas como
CAHPS Hospital Survey4 y el Programa para la Evaluación Internacional de Estudiantes
(PISA)5; y libros de texto y otras fuentes como Biemer y Lyberg (2003), Blasius y Thiessen
(2012) y las Directrices de encuestas transculturales alojadas en la Universidad de Michigan.6

18.1 Diseño y Planificación

El diseño y la planificación del proyecto es un primer paso fundamental para garantizar la


administración oportuna de la encuesta y la recopilación de datos de alta calidad. El orden y
las interdependencias de las tareas de estudio deben entenderse y especificarse al comienzo
del proyecto. Varias herramientas de gráficos son útiles durante la etapa general de
planificación del proyecto. Los que se utilizan a menudo son los diagramas de Gantt, el
método de la ruta crítica y los diagramas de flujo.
Los diagramas de Gantt y los diagramas conocidos como métodos de ruta crítica están
diseñados para visualizar la dependencia del tiempo de varias tareas del proyecto y para
reflejar cómo la demora en un paso del proyecto afectará el resultado final. Los diagramas
de Gantt son una combinación de tablas y gráficos y enumeran una tarea en cada fila del diagrama.
Al lado de cada tarea se ingresan las fechas estimadas de inicio y finalización, así como la
duración del proyecto. Una representación gráfica del tiempo que toma esta tarea es la parte
de la firma de un diagrama de Gantt (ver Fig. 18.1). El eje horizontal en la representación
gráfica es el tiempo, ya sea en tiempo absoluto o en tiempo desde el inicio del proyecto. El
tiempo de resolución depende del proyecto y puede ser de días, semanas o meses. Las filas
individuales de un diagrama de Gantt se pueden vincular entre sí. Por lo tanto, si una de las
tareas tarda más (o menos) de lo esperado, las filas restantes pueden cambiar en
consecuencia. El diagrama de Gantt debe actualizarse regularmente a lo largo de la duración
del proyecto.
La Figura 18.1 muestra una parte de un diagrama de Gantt que usamos para un proyecto
en 2011 en el Instituto de Investigación de Empleo (IAB) en Alemania. La segunda columna
de este gráfico representa una lista de todas las tareas necesarias para el proyecto, seguida
de una indicación de la fecha de inicio y finalización, a partir de la cual se calculan los días
de duración (pista: importante no olvidar los días festivos y los períodos de vacaciones). La
pantalla visual se encuentra en el lado derecho del gráfico, donde los dos tonos indican el
nivel de finalización de estas tareas individuales. Si bien son fáciles de crear y comprender,
los diagramas de Gantt han sido criticados por su diseño de cuadrícula pesada,

2http: //www.ons.gov.uk/ons/guide-method/best-practice/gss-best-practice/gss-quality-good-
practice/index.html
3
http://www.aapor.org/Best Practices1.htm http://
4
www.hcahpsonline.org/home.aspx http://
5
nces.ed.gov/surveys/pisa/pdf/20111025.pdf http://
6
ccsg.isr.umich.edu/quality.cfm
Machine Translated by Google

18.1 Diseño y Planificación 533

Higo. 18.1: Diagrama de Gantt de ejemplo (usando el software MS Project): proyecto de pregunta de
filtro en IAB.

la escasez de la visualización de datos y su incapacidad para mostrar claramente la importancia relativa


de las tareas individuales (Tufte 1990; DeMeyer et al. 2002).
La importancia relativa y la dependencia de las tareas se visualizan más claramente en los gráficos
basados en el método de la ruta crítica. Los métodos de ruta crítica utilizan diagramas de red para mostrar
la secuencia y las dependencias de cada una de las tareas.7 Muestran claramente qué tareas pueden
ocurrir simultáneamente y cuáles deben terminarse antes de que puedan comenzar otras tareas. La ruta
más larga determina la longitud total del proyecto. Si las actividades fuera de la ruta crítica se aceleran o
se ralentizan, el tiempo total del proyecto no cambia. La cantidad de tiempo que se puede retrasar una
actividad de ruta no crítica sin retrasar todo el proyecto se denomina tiempo de holgura. El método de la
ruta crítica se desarrolló para actividades bastante complejas pero rutinarias. Para proyectos menos
rutinarios, las estimaciones de los tiempos de finalización son inestables, lo que limita la utilidad del método
de la ruta crítica.

Los diagramas de flujo se utilizan a menudo en la planificación de proyectos para visualizar los pasos
dentro de una tarea. Los diagramas de flujo son representaciones semánticas de un algoritmo o un proceso.
Los diagramas de flujo se pueden usar para aspectos técnicos del proyecto, como la ponderación, pero
también son bastante útiles en otras partes del proyecto (p. ej., visualizar el flujo de cuestionarios o detallar
los pasos de reclutamiento y los procedimientos de seguimiento de falta de respuesta). La Figura 18.2
muestra el comienzo de un diagrama de flujo de diseño de estudio

7 Se puede acceder a una conferencia en línea gratuita sobre el uso de CPM con un ejemplo de
encuesta aquí: http://gunston.gmu.edu/healthscience/ProjectManagementInIT/ CriticalPathMethod.asp
Machine Translated by Google

534 18 Control de procesos y medidas de calidad

tal como se utiliza en el Manual de Mejores Prácticas del Centro de Operaciones de Investigación
de Encuestas de la Universidad de Michigan en los EE. UU.
Aunque no siempre se utilizan para la investigación de encuestas, los símbolos de diagramas
de flujo estandarizados se han desarrollado en el contexto de la programación informática
(Organización Internacional de Normalización 1985). Por ejemplo, los cuadros se usan para
representar tareas (o procesos) y los diamantes se usan para puntos de decisión.
Cada rama que sale de un rombo muestra las acciones que siguen a cada resultado en el punto
de decisión. La figura 18.2 utiliza cuadros de tareas y rombos de decisión.
8
El Handbook on Improving Quality by Analysis of Process Variables, publicado por Eurostat,
muestra una serie de diagramas de flujo para cada paso del proceso de la encuesta. Vimos un
diagrama de flujo para la ponderación en el Cap. 13. Para la programación, este diagrama de
flujo debería especificarse con mucho más detalle. Los diagramas de flujo son muy útiles para
proporcionar una visión general de alto nivel del proceso y sus interconexiones. Sin embargo, a
diferencia del método de la ruta crítica, no dan una indicación de cómo un retraso en una tarea
afectará a otras tareas.

18.2 Control de calidad en la creación de marcos y selección


de muestras

Después de construir o adquirir un marco muestral, se aconseja a los estadísticos de encuestas


que realicen una serie de controles de calidad en los archivos. Esas verificaciones de control de
calidad generalmente involucran identificar y excluir registros duplicados y erróneos, verificar
que el conteo en el marco coincida con lo que se sabe que está presente en la población general
y posiblemente dentro de ciertos subgrupos, y comparar la distribución de variables en el marco
con otras fuentes para la población. En algunas situaciones, puede ser posible verificar la
consistencia de los datos del marco con otros marcos o datos administrativos.

Por ejemplo, las encuestas que usan el Archivo de Secuencia de Entrega del Servicio Postal de
EE. UU., mencionado en los Caps. 1 y 10, debe verificar si hay áreas en el archivo que no están
cubiertas en comparación con los conteos de viviendas del censo (Iannacchione 2011).
Las variables en el marco que se usarán para el muestreo también deben verificarse en
busca de valores faltantes o inadmisibles. En un marco de escuelas, por ejemplo, las variables
que se pueden usar para el diseño de la muestra son el número de estudiantes matriculados en
cada escuela, que puede ser una medida del tamaño para el muestreo de pp, y el rango de
grado de cada escuela, que puede ser utilizado para la estratificación o para excluir unidades de
muestra no elegibles. Los marcos de hospitales, hogares y empresas tendrán diferentes tipos
de controles que se deben realizar en las variables de diseño. Cuando faltan datos, es posible
que se necesiten imputaciones antes de que se pueda usar el marco para la selección de la
muestra. Regresaremos brevemente al tema de la edición de datos de cuadros en la Secc. 18.5.

8
http://www.processdox.com/pix/ImprovingQuality.pdf
Machine Translated by Google

18.2 Control de calidad en la creación de marcos y selección de muestras 535

El equipo de propuestas revisa


la literatura, los datos de estudios El líder del proyecto
El líder del proyecto asigna el
anteriores y/o consulta a expertos revisa el diseño del
equipo del proyecto
para establecer el diseño del estudio en la
estudio. propuesta

Estadísticas y Métodos

La unidad ajusta y/o elabora


el diseño según sea necesario

Estadísticas y Métodos El equipo del proyecto


La unidad escribe la descripción del desarrolla parámetros de
diseño del estudio diseño responsivo, protocolos

Estadísticas y Métodos Los entrevistadores


Listado necesario? Sí
Unidad extrae muestra realizan la lista

No

Estadísticas y Métodos

Unidad selecciona elementos


de muestra

Data Manager carga la


muestra en el sistema de
gestión de muestras

El equipo del El equipo del


Los entrevistadores
proyecto evalúa
proyecto ajusta el
comienzan la
los parámetros del diseño diseño y los
recopilación de datos.
receptivo procedimientos según sea necesario

Los entrevistadores

completan la
recopilación de datos

Estadísticas y líder de proyecto o


Unidad de Métodos Estadísticas y El líder del proyecto
escribe informe Unidad de Métodos analiza y documenta

técnico, documentos redacta las lecciones

experimentos aprendidas

decisiones de diseño metodológicos

Higo. 18.2: Diagrama de flujo de ejemplo: diseño de estudio y muestreo del manual de mejores prácticas
de SRO.
Machine Translated by Google

536 18 Control de procesos y medidas de calidad

Muchos paquetes de software permiten comprobaciones sencillas de duplicados.9 Sin embargo, si


los marcos incluyen nombres y posibles errores tipográficos, el software de vinculación de registros
debe utilizarse para la deduplicación (Herzog et al. 2007). Dos paquetes de software gratuitos orientados
específicamente al uso en estadísticas oficiales e investigación de encuestas
son Matcher-2 (Porter y Winkler 1997) y Merge ToolBox (Schnell
et al. 2004). Algunas agencias gubernamentales han desarrollado su propio software
para hacer coincidir como el Sistema Generalizado de Vinculación de Registros de Statistics Canada
(GRLS) (Thomas 1999, Willenborg y Heerschap 2012).
Durante el período de campo algunas evaluaciones sobre la calidad del marco
se pueden tomar en función de lo que se encuentra para la muestra, por ejemplo, se pueden verificar las
decisiones sobre las unidades fuera del alcance y se pueden agregar las unidades perdidas (Eckman y
O'Muircheartaigh 2011). Si las direcciones se publican en réplicas (ver
Cap. 6), la composición y número de miembros del hogar al inicio de cada réplica debe ser similar; si no,
los efectos de aprendizaje del entrevistador
podría afectar la forma en que se lleva a cabo el proceso de selección. En algunas encuestas, los entrevistadores
se les indica que seleccionen un encuestado al azar en cada hogar de la muestra. Los controles de
calidad de varias encuestas europeas mostraron claramente que la
miembros del hogar seleccionados eran desproporcionadamente mujeres, lo que sugiere que
entrevistador "seleccionó al azar" a la persona de contacto como encuestados (Kohler
2007).
La selección de la muestra puede ser un proceso complicado que requiere su propia calidad.
comprobaciones de control. Las comprobaciones básicas son si se ha procesado el marco completo para
el muestreo, si se ha obtenido el número deseado de unidades de muestra.
seleccionados, y si las probabilidades de selección de las unidades se pueden calcular
y, en caso afirmativo, si se han registrado. Como se describe en la Secc. 18.7, se deben escribir
especificaciones que expliquen claramente todos los pasos en la construcción del marco,
limpieza y selección de muestras.

18.3 Supervisión de la recopilación de datos

Los esfuerzos exitosos de recopilación de datos requieren un seguimiento estrecho de la muestra durante
producción. Dicho monitoreo puede ayudar a identificar posibles deficiencias para lograr el resultado
deseado, como, por ejemplo, una tasa de respuesta específica o
otros objetivos asociados con el muestreo y la calidad de los datos. Para hacer el seguimiento,
es necesario identificar las variables clave del proceso. Suelen ser variables que
puede variar con cada repetición del proceso y tener un fuerte efecto en el
calidad de la encuesta. Ejemplos de variables de proceso son códigos de disposición para
los intentos de contacto (ver Cap. 6), las medidas de los recursos utilizados o la codificación
errores Insecto. 18.4, enumeraremos una serie de tales indicadores. Mientras que los indicadores
podrían ser monitoreados en tablas como parte de los informes, las pantallas gráficas son a menudo
más eficiente para el seguimiento.

9 En R esto sería: duplicado(x, incomparables = FALSO, ...).


Machine Translated by Google

18.3 Supervisión de la recopilación de datos 537

Una

0.9

0.8

Destinatario W5
0.7
Muestra

Muestra de
0.6 destinatario W5 (PSU nuevas)
Generación W5. Estallido.

0.5 Muestra (PSU nuevas)


Panel HH W4

0.4 abandono Panel


HH W4 Entrevista

0.3
Dividir hogares

0.2

0.1

0
6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40

Calendario de la semana

Higo. 18.3: Tasas de contacto para cada submuestra por semana natural en la encuesta PASS del Instituto de
Investigación del Empleo, Alemania (M¨uller, 2011).

Común en las aplicaciones de la industria son los gráficos de control de procesos (Deming 1982).
Su uso en encuestas es menos común, a pesar de que uno de sus principales defensores, el propio
Deming, trabajó en la Oficina del Censo de EE. UU. entre 1939 y 1945. Sin embargo, el aumento
constante de los procedimientos de recopilación de datos asistidos por computadora también flujo
durante la recopilación de datos. En consecuencia, vemos un renovado interés en el control de
procesos estadísticos y gráficos relacionados para monitorear y administrar los procedimientos de
trabajo de campo (Jans et al. 2013). En su forma más simple, los gráficos para monitorear el trabajo
de campo en curso muestran variables clave del proceso en el desarrollo durante días o semanas
del período de trabajo de campo. Más informativas son las visualizaciones por subgrupos relevantes,
como el gráfico de la Fig. 18.3.
Aquí vemos las tasas de contacto por semana calendario divididas por submuestras; se puede ver
en el gráfico que los hogares del panel fueron contactados a una tasa mucho más alta que los
hogares muestreados como cajas de refrescos en esta encuesta del panel. Estas tasas de contacto
diferenciales pueden tener efectos importantes en la calidad general de la encuesta.
Idealmente, esos gráficos informan las intervenciones. El resultado de una intervención exitosa
se puede ver en la Fig. 18.4 que muestra las tasas de respuesta por subgrupos importantes en la
Encuesta Nacional de Crecimiento Familiar. A partir de la tercera semana de recopilación de datos,
se encontró que los hombres hispanos entre 20 y 44 años de edad estaban rezagados en las tasas
de respuesta. Se lanzó una intervención en la que se pidió a los entrevistadores que aumentaran su
esfuerzo en esos casos, y se enviaron entrevistadores itinerantes con capacidades bilingües a
segmentos que contenían casos de muestra en esos subgrupos. Como resultado de esta intervención,
disminuyó el coeficiente de variación en las tasas de respuesta entre los subgrupos relevantes
(Kirgis y Lepkowski 2010).
Machine Translated by Google

538 18 Control de procesos y medidas de calidad

Una

0.9

0.8

0.7

0.6

RR 0.5

0.4

0.3

0.2

0.1

0
Una 8 15 22 29 36 43 50 57 64 71 78
Día
Hombres negros 15-19 Hombres hispanos 15-19 Otros Hombres 15-19

Hombres negros 20-44 Hombres hispanos 20-44 Otros hombres 20-44

Higo. 18.4: Tasas de respuesta acumuladas por subgrupos en la encuesta nacional de familia
crecimiento, la intervención se inició durante la zona gris (Lepkowski et al., 2010).

Para un gerente de trabajo de campo y aquellos que monitorean la muestra durante la recolección de datos
colección, es importante no reaccionar a la variación "normal" en el proceso clave
indicadores. Sería un desperdicio de recursos intervenir si el proceso es
todavía en control. Por lo tanto, una característica típica de los gráficos de control, tal como se
propagan en la literatura de control de procesos estadísticos, es su capacidad para separar
Causas comunes y especiales que influyen en un proceso dado. Esta separación es
importante porque el paso de acción requerido para abordar causas especiales es muy
diferentes de los que abordan causas comunes. Un buen ejemplo para las encuestas.
es el tiempo de respuesta de la entrevista a lo largo del período de campo. En muchas encuestas,
el tiempo de la entrevista se reduce a medida que los entrevistadores se acostumbran cada vez más a
administrar una encuesta determinada (Olson y Peytchev 2007). Si tal reducción
en la entrevista el tiempo amenaza la calidad de la entrevista, la gerencia tiene que
intervenir y cambiar el sistema. Un ejemplo para una causa especial sería
un entrevistador individual o área local en la que una reducción (o un aumento)
en la entrevista el tiempo es visible. Aquí una única intervención local del
el personal operativo podría ser suficiente.
Un gráfico que muestra tanto la variación por causa común como la variación por causa especial
es el gráfico de Shewhart (1931) (véase el ejemplo en la figura 18.5). Aquí control
límites (generalmente tres veces la desviación estándar de la variable clave del proceso)
indicado en la figura como una línea discontinua) se muestran junto a un eje x que
agrupa los datos de forma significativa. Este agrupamiento se hace a menudo para ciertos
intervalos de tiempo (aquí días en el campo), pero áreas geográficas, porciones de muestra o
los entrevistadores también podrían formar el eje x. Si la variación no muestra un
patrón típico y cae dentro de los límites de control, entonces la variación se dice
Machine Translated by Google

18.3 Supervisión de la recopilación de datos 539

Higo. 18.5: Proporción de llamadas incompletas por días en campo. Datos de la encuesta de práctica del
Programa Conjunto en Metodología de Encuestas (JPSM) de 2011.

deberse a una causa común. Sin embargo, si hay desviaciones fuera de los límites de control
o si hay variación en un patrón típico, se dice que se debe a una causa especial.

El gráfico de Shewhart en la Fig. 18.5 muestra las proporciones de llamadas para cada
día en el campo. Los casos pueden recibir varias llamadas al día (por ejemplo, si la primera
llamada estaba ocupada). La mayoría de los días, la proporción de llamadas incompletas
supera con creces el 80 %. En el día cinco, el número de llamadas incompletas es
inusualmente bajo. El gráfico no juzga lo bueno o lo malo; sólo indica lo que es común y lo
que es inusual. En este caso, la variabilidad es muy alta porque se realizaron muy pocas
llamadas el día cinco. Muchos de ellos podrían haber sido citas concertadas previamente, lo
que provocó que el número de llamadas incompletas fuera inferior al límite esperado para el
tamaño de muestra dado. Pero también podría darse el caso de que una proporción
inusualmente baja de llamadas incompletas sea el resultado de un error de programación o
un problema tecnológico (por ejemplo, los casos se codifican erróneamente como completos),
un error del entrevistador o incluso una falsificación por parte de los entrevistadores. Entonces,
cuando los números son inusualmente buenos, es posible que sean demasiado buenos para
ser verdad y, de hecho, sean indicativos de algún tipo de problema subyacente.
Machine Translated by Google

540 18 Control de procesos y medidas de calidad

Para un uso óptimo, las variables clave de entrada del proceso deben especificarse antes de
recopilación de datos, junto con umbrales establecidos. El trabajo de campo debe detenerse si
esas variables clave del proceso exceden los umbrales o en el lenguaje del proceso
control "salir de control". ¿Qué variables clave del proceso se monitorean en cualquier
determinada encuesta será una función de la propia encuesta y su diseño. Sin embargo,
se debe tener cuidado para seleccionar indicadores que sean significativos con respecto a
la calidad del resultado, y no solo aquellos que son fáciles de medir o fácilmente
disponibles (Morganstein y Marker 1997).

18.4 Indicadores y tasas de rendimiento

Anteriormente mostramos las tasas de contacto y respuesta en las Figs. 18.3 y 18.4. Estas
Las tasas son dos tasas de rendimiento importantes que la mayoría de las encuestas rastrean. Ya sea
se calculan durante la recopilación de datos o al final de los esfuerzos de recopilación de datos, los
indicadores de desempeño son herramientas importantes de control de calidad. los
La Asociación Estadounidense de Investigación de Opinión Pública (AAPOR) ha proporcionado
definiciones estándar para el cálculo o la estimación de dicho rendimiento
muchos de ellos relacionados con la especificación adecuada de las tasas de respuesta.
Mucho más amplios son los términos y tarifas especificados por la Documentación de Datos
Iniciativa (DDI), que está diseñado para documentar y administrar datos a través de
el ciclo de vida completo desde la especificación de las características del diseño de la encuesta hasta la encuesta
resultados y archivo (www.ddialliance.org). Es importante observar que
no todos los investigadores siguen las definiciones proporcionadas por AAPOR o DDI. En
consecuencia, es aconsejable comunicar un entendimiento común dentro de
el equipo del proyecto y es esencial utilizar términos estándar para comparar los resultados de las
encuestas. Muchas revistas requieren que se describan explícitamente las tasas de rendimiento y se
puede hacer referencia fácilmente al documento DDI o AAPOR en
informes de estudios y artículos de revistas. El capítulo 6 tiene definiciones y explicaciones .
para las cuatro tasas más comunes: tasa de ubicación, tasa de elegibilidad, cooperación
tasa y tasa de respuesta.
Las tarifas discutidas en el Cap. 6, en particular las tasas de respuesta, son objetivos de resultados
muy populares establecidos por los clientes. Sin embargo, no hay necesariamente un vínculo
entre las tasas de respuesta y el sesgo de falta de respuesta, que es el punto real de
preocupación para la mayoría de los clientes. Groves y Peytcheva (2008) revisan 59 estudios
metodológicos que fueron diseñados para estimar la magnitud de la falta de respuesta
sesgo en una variedad de estadísticas. Encontraron muy poca relación entre
tasa de respuesta y sesgo. Por lo tanto, si bien se solicitarán las tasas de respuesta, éstas
solo llevan una cantidad limitada de información sobre la calidad de la encuesta. En respuesta,
se han realizado intentos para desarrollar medidas alternativas que capturen información adicional
sobre la composición de la muestra de respuesta. Aquellos
las tasas también se pueden rastrear durante la recopilación de datos, dado que hay información
auxiliar disponible sobre los encuestados y los no encuestados.
Machine Translated by Google

18.4 Indicadores y tasas de rendimiento 541

Indicadores R

Un conjunto de indicadores que describen la composición de los encuestados en relación


con la composición de la muestra se denominan indicadores de representatividad o
indicadores R (http://www.risq-project.eu/). Están diseñados para capturar desequilibrios en
las propensiones de respuesta entre subgrupos de unidades muestreadas. En su forma
simple, el indicador R estimado para una encuesta con un tamaño de muestra n es
proporcional a la desviación estándar de las propensiones de respuesta de los individuos
estimadas utilizando un conjunto de covariables. Suponiendo probabilidades de muestreo
iguales, se expresa a través de
norte

( ˆÿi ÿ ÿˆ¯)2, (18.1)


norte - 1
yo = 1
Rˆ(ÿ)=1 ÿ 2 899: 1

donde ˆÿi son las propensiones de respuesta individuales y ÿˆ¯ es la propensión de respuesta promedio
en todos los casos de muestra (Schouten y Cobben 2007; Bethlehem et al. 2011; Schouten et al.
2009).10 El indicador R usa la información disponible sobre ambos encuestados y no respondedores
para estimar las propensiones de respuesta, ya sea a través de modelos de regresión logística o árboles
de clasificación. Si todas las propensiones de respuesta fueran iguales, entonces los no respondedores
faltarían completamente al azar (MCAR) como se describe en la Secc. 13.5. Por lo tanto, cuanto mayor
es Rˆ(ÿ), más se apartan los datos de MCAR.

Indicadores de saldo

Similar en espíritu al indicador R es el indicador Q2 desarrollado por S¨arndal y Lundstr¨om (2008), que
se define como la varianza de las probabilidades de respuesta inversa pronosticadas. Los valores más
pequeños del indicador Q2 implican que puede haber más trabajo necesario en los ajustes de peso para
corregir el posible sesgo de falta de respuesta. En ambos casos, el potencial de sesgo por falta de
respuesta puede evaluarse solo para aquellas variables que están disponibles tanto para los encuestados
como para los no encuestados. Esta es una fuerte limitación de ambos enfoques.

A menudo, las variables que están disponibles tanto para los encuestados como para los no encuestados
no están fuertemente relacionadas con las variables de resultado de la encuesta (y esas son aquellas
en las que se teme el sesgo). Sin embargo, los indicadores R y otros indicadores de equilibrio se utilizan
para monitorear el grupo de encuestados entrantes. De manera similar al seguimiento de las tasas de
respuesta para los subgrupos (como se muestra en la Sección 18.3), esos indicadores pueden ayudar a
reasignar los esfuerzos de reclutamiento. Tenga en cuenta que los ajustes por falta de respuesta podrían
realizarse utilizando las mismas covariables utilizadas para estimar las propensiones de respuesta en
Rˆ(ÿ). Si estas covariables son buenos predictores de la respuesta y de las variables del análisis de la
encuesta, entonces el sesgo de falta de respuesta se puede reducir mediante la ponderación. Pero, quitando

10 En el caso de una varianza de muestreo desigual, esta ecuación cambia para reflejar los pesos
de diseño. Las ponderaciones muestrales no se incluyen en la estimación de los modelos de
propensión, pero se utilizan cuando se construye la varianza.
Machine Translated by Google

542 18 Control de procesos y medidas de calidad

desequilibrio entre los encuestados y los no encuestados durante la recopilación de datos puede
reducir la variación en los pesos de ajuste de la falta de respuesta y disminuir
la carga de la ponderación para corregir el sesgo de falta de respuesta.
La Encuesta Nacional de Crecimiento Familiar utiliza el indicador de Fracción de Información
Faltante (FMI) para seguir el progreso del trabajo de campo. El FMI busca medir la incertidumbre
segura sobre los valores imputados para los elementos faltantes (Rubin 1987;
Little y Rubin 2002). No hemos cubierto los procedimientos de imputación en este
libro y, por lo tanto, no entrará en detalles sobre cómo se estima el FMI. Sin embargo,
se puede encontrar una explicación detallada del entorno de la encuesta en Wagner (2010).

Indicadores específicos del entrevistador

A menudo se pasa por alto, pero es muy importante, el papel de los entrevistadores en las encuestas
personales y telefónicas, en particular con respecto a los indicadores discutidos en la sección anterior.
Además de realizar la encuesta en sí,
los entrevistadores juegan un papel importante en el reclutamiento y dentro del hogar
selección de encuestados. Muchas de las tasas de desempeño discutidas aquí varían significativamente
entre los entrevistadores. Para monitorear a los entrevistadores, por lo tanto, es útil
para calcular tasas de datos faltantes por entrevistador, varias estadísticas por entrevistador
como la duración promedio de la entrevista, el costo por entrevista, las tasas de conversión de rechazo,
nivel de esfuerzo del entrevistador, etc. En las encuestas cara a cara, los entrevistadores trabajan
a menudo sólo en una zona geográfica. Por lo tanto, la variación en las tasas de respuesta
podría deberse a la variación en las características de los encuestados o a la ubicación geográfica
agrupación, así como los entrevistadores. En las encuestas telefónicas, los casos generalmente se
asignan al azar a los entrevistadores y varios entrevistadores pueden tener
“tocó” un caso antes de que el demandado acepte participar. Sin embargo,
los pocos estudios que permitieron una separación de los efectos del entrevistador y los efectos
de otras fuentes muestran claramente el papel que juegan los entrevistadores tanto con respeto
al error de medición (O'Muircheartaigh y Campanelli 1998, Schnell y
Kreuter 2005) , así como la falta de respuesta (O'Muircheartaigh y Campanelli
1999, Durrant y Steele 2009, West y Olson 2010).
Los indicadores específicos del entrevistador pueden tomar varias formas y formas. Oeste
y Groves (2013) desarrollaron recientemente indicadores de puntuación del entrevistador ajustados
por propensión que tienen en cuenta la información de las covariables de los encuestados. Para
efectos de los entrevistadores en las respuestas de la encuesta, efectos de diseño específicos del entrevistador
pueden ser indicadores útiles (Kreuter et al. 2010). La Figura 18.6 muestra para 18 entrevistadores en
una encuesta CATI la contribución relativa de cada entrevistador a la
efecto de diseño general. Más específicamente, el coeficiente de correlación intraclase ÿ
se estima 18 veces, cada vez que se excluyen todas las entrevistas realizadas por un
de los entrevistadores. La línea horizontal en la Fig. 18.6 muestra el promedio de ÿ con
todos los entrevistadores. Hay dos valores atípicos en este gráfico. Al eliminar al entrevistador #3, ÿ
cayó de un promedio de 0.0130 a 0.009 (ID de entrevistador
marque los símbolos de la trama). Con una carga de trabajo promedio de 75 la muestra efectiva
tamaño en una encuesta de 1600 casos sería 816 sin el entrevistador #3 y solo
Machine Translated by Google

543
.014
18.5 Edición de datos

.012

40

21 25 23
.01 3930
12 4 2614 57
28 53
58999
56

entrevistador
estimado
casos
Rho
del
sin
#

.008

0 50 100 150 200


Número de casos entrevistados

Higo. 18.6: Contribución del entrevistador a rho en la encuesta telefónica DEFECT, basada
sobre Kreuter (2002); los datos de la encuesta se describen en Schnell y Kreuter (2005).

209 con este entrevistador.11 Tras un examen más detenido de la entrevista


personal, se encontró que este entrevistador era el único entrevistador masculino entre un
personal de entrevistadoras telefónicas en una encuesta sobre el miedo a la delincuencia.

18.5 Edición de datos

La edición de datos es un paso común de control de calidad. Si bien algunas encuestas, y en


Encuestas particulares realizadas a través de agencias estadísticas, sufren de edición excesiva (Lyberg et
al. 1997), hay varios pasos de edición que necesitan ser
hecho en (casi) todas las encuestas. Los datos limpios facilitan la selección de muestras, la creación de
pesos de análisis, tablas de análisis y el conjunto de datos final del proyecto. Alguno
las ediciones también deben realizarse de forma fluida, por ejemplo, para identificar rápidamente
problemas con los entrevistadores, para verificar patrones de omisión en cuestionarios electrónicos
en los primeros días del período de campo, y comprobar si todas las variables que forman un
índice se capturan adecuadamente. Es posible que también se necesite algo de edición para alimentar
los gráficos de seguimiento discutidos anteriormente. Por lo tanto, idealmente, las especificaciones de edición
se desarrollan durante la fase de planificación de un proyecto y se actualizarán a medida que
el proyecto avanza. En general, es justo decir que la fase de edición de datos
es tan bueno como las especificaciones. De acuerdo con el alcance de este libro.
no hablaremos en detalle sobre las especificaciones para editar las variables del cuestionario
pero concéntrese en aquellos que son relevantes para crear un marco de muestreo, elegibilidad

11
1600/(1 + 0,09 ÿ (74)) = 208,88; y 1600/(1 + 0,0130 ÿ (74)) = 815,49
Machine Translated by Google

544 18 Control de procesos y medidas de calidad

variables de calidad, códigos de disposición y variables de ponderación. Nuestras sugerencias para


escribir las especificaciones reales se discuten en la Secc. 18.7.

18.5.1 Edición de códigos de disposición

En el cap. 6 introdujimos códigos de disposición (ver Tabla 6.2) utilizados para calcular
o estimar las tasas de rendimiento. Si bien estos códigos parecen sencillos, en
práctica que a menudo no lo son. Se deben discutir dos puntos con un cliente: primero,
el mapeo de códigos de disposición detallados en una de las siete categorías y,
segundo, la jerarquía de los códigos de resultado para determinar un estado actual o final.

Cartografía

Cuando se asignan códigos de disposición específicos de la encuesta a los que se usan en las definiciones
de tasas estandarizadas, las asignaciones pueden diferir en función de las poblaciones objetivo. Por
ejemplo, algunos estudios excluyen a las personas institucionalizadas. De este modo,
una persona que está (temporalmente) institucionalizada sería clasificada en una encuesta como “otro no
entrevistado”, mientras que en la otra la misma persona sería
"no elegible." En segundo lugar, los investigadores pueden expresar diferentes preferencias sobre cómo
las asignaciones deben ser ejecutadas; esto es particularmente cierto para el uso de parcial
entrevistas Es importante abordar estos problemas con anticipación. Por ejemplo,
los códigos de disposición de muestra registrados para la Encuesta sobre el estado de las fuerzas de los
miembros del componente de la reserva (SOFReserves) de mayo de 2004, una encuesta realizada por
Centro de datos de mano de obra de defensa ( Centro de datos de mano de obra de defensa 2004) de
Reservistas Militares, se proporcionan en la Tabla 18.1. Si estos códigos de disposición son
también se utiliza para adaptar el reclutamiento de trabajo de campo durante la recopilación de datos, sería
Conviene diferenciar entre negativas y personal desplegado. Ambas cosas
de estos códigos se agrupan actualmente en una categoría de disposición: 8. Según la encuesta y el modo
de recopilación de datos, el número de disposición
los códigos pueden ser bastante grandes.
Es útil especificar con anticipación cómo se pueden agrupar los códigos de disposición
para calcular posteriormente las tasas de rendimiento del estudio. En la tarea de mapeo es importante
para capturar todos los resultados vistos en la encuesta. Por lo tanto, en algunos casos, las asignaciones
realizadas antes de la recopilación de datos deberán revisarse una vez que se obtengan los datos de campo.
están disponibles. Los estadísticos de la encuesta deben revisar el mapeo del código de disposición
para asegurarse de que se puedan realizar todas las asignaciones necesarias para la ponderación. Incluso
antes de la recopilación de datos, es importante que los supervisores y los recolectores de datos
comprender lo que se necesita más tarde para fines de ponderación. Una vez que se recopilan los datos,
la designación de un caso a un código de disposición específico puede cambiar dada la
cantidad de datos proporcionados por el encuestado (es decir, la clasificación en parte completa frente a la
clasificación de no encuestados) y la calidad de los datos
proporcionado (los datos se restablecen a faltantes después de fallar las verificaciones de edición/consistencia).
Machine Translated by Google

18.5 Edición de datos 545

Tabla 18.1: Ejemplo de disposiciones para el estudio de reservas SOF de mayo de 2004

Disposición Descripción
código

Una
No elegible basado en verificación de personal actualizado
registros
2 No elegible: informe propio/de apoderado, fallecido, enfermo,
encarcelado, separado
3 Autoinforme de encuesta no elegible
4 Respuesta elegible completa
5 Respuesta elegible incompleta
8 Rechazado: rechazo, despliegue, otro rechazo
9 En blanco (cuestionario devuelto)
10 No entrega postal (PND)
11 Otro no respondedor

Jerarquía

Más difíciles y a menudo más importantes que las decisiones sobre el mapeo son
las decisiones relativas a la jerarquía de los códigos de resultado. Muchos casos de muestra
será contactado repetidamente a lo largo de la encuesta y los recolectores de datos difieren
en sus traducciones de códigos de estado de respuesta preliminar al resultado final del caso
códigos. Si se utiliza el código de estado más reciente para determinar el resultado final,
entonces la asignación es sencilla, aunque podría no reflejar adecuadamente
el caso. Por ejemplo, si se contactó exitosamente con una unidad de muestra al principio del
período de campo, pero los intentos de contacto posteriores no condujeron a una entrevista
y el intento de contacto final es sin contacto, algunos investigadores contarían
tal caso como una negativa, mientras que otros considerarían esto como una falta de contacto.
Las variaciones en cómo se toman las decisiones de codificación pueden hacer comparaciones entre
tasas de rendimiento de diferentes encuestas difícil. Si las decisiones se toman en base
en todo el historial de códigos de resultado, una codificación de prioridad puede ser muy útil.
Aquí uno debe estar de acuerdo con el cliente por adelantado sobre la jerarquía de los códigos.
Por ejemplo, si una unidad de muestra que tuvo un rechazo en su historial y no
se registra una conversión de rechazo exitosa, entonces este caso se clasificaría como un
rechazo incluso si el último código de resultado fue un no contacto. Una discusión detallada
sobre los efectos de varios códigos de resultados, en particular al comparar encuestas
entre países está dada por Blom (2008).

18.5.2 Edición de las variables de ponderación

En el proceso de edición, los estadísticos de la encuesta también deben asegurarse de que


las variables de ponderación están disponibles ya sea haciendo coincidir con el marco de muestreo
Machine Translated by Google

546 18 Control de procesos y medidas de calidad

o porque han sido recogidos en la entrevista. El cotejo con el marco debe ser sencillo, aunque en
la práctica los archivos que salen del campo pueden no tener las variables de identificación
adecuadas que permitan un cotejo con el marco muestral. Si se planea hacer coincidir la
información del marco, la necesidad de estas variables debe comunicarse claramente a los
gerentes de campo. Si las variables utilizadas para la ponderación se basan en las respuestas de
los encuestados durante la entrevista, entonces, antes de la recopilación de datos, se debe tener
cuidado de que las preguntas formuladas en la encuesta coincidan con las de las encuestas
comparativas. Incluso para las variables demográficas, esto parece una tarea sencilla, pero a
menudo no lo es tanto.
Por ejemplo, las preguntas sobre raza/etnicidad en la Fig. 18,7 se incluyeron en el censo decenal
de EE. UU. de 2010.
Si una encuesta no pregunta por raza/etnicidad exactamente de la misma manera, la estimación
de la encuesta de, digamos, el número de hispanos en la población no será comparable con el
recuento del censo. En ese caso, calibrar las ponderaciones de la encuesta con los recuentos del
censo puede introducir un sesgo en lugar de reducirlo.

18.6 Control de calidad de los pasos de ponderación

Comprobar variables de ponderación

Antes de iniciar el proceso de ponderación, debe comprobar que se dispone de un archivo limpio
de variables de ponderación. Esto significa que las variables de ponderación no deben tener
códigos ilegales ni valores faltantes (o tenerlos imputados si es necesario); todos los códigos de
estrato y UPM utilizados en el muestreo deben indicarse claramente; los identificadores de dominio
deben estar presentes si se usaron diferentes tasas de muestreo para los dominios (p. ej.,
diferentes tasas de muestreo para diferentes grupos raciales y étnicos, diferentes grupos de edad);
y las variables que no se utilizan en el muestreo deben estar presentes si se planifican para
posestratificación u otros tipos de calibración. Al planificar los pasos de ponderación, se debe tener
cuidado de que las variables de ponderación se editen antes de cualquier edición de las variables
sustantivas del cuestionario, de modo que se pueda proceder a la ponderación.

Compruebe las probabilidades de selección

Las probabilidades de selección, también conocidas como probabilidades de inclusión, son la


piedra angular de las ponderaciones en la mayoría de las encuestas. En general, las probabilidades
de selección deben estar entre (0,1). Esta verificación de rango se aplica a la mayoría de las
encuestas. Por otro lado, algunos diseños permiten seleccionar unidades más de una vez (ver Secc. 13.3).
Esto puede suceder en muestras donde las unidades se seleccionan con probabilidad proporcional
al tamaño y algunas unidades son muy grandes o en muestras seleccionadas con reemplazo. En
tales casos, la probabilidad de selección se reemplaza por el número esperado de aciertos, que
puede ser mayor que uno. tienes que repetir
Machine Translated by Google

18.6 Control de calidad de los pasos de ponderación 547

Higo. 18.7: Preguntas sobre etnicidad y raza utilizadas en el censo decenal de 2010.

esta verificación para cada etapa del diseño de muestreo (PSU, SSU, etc.) y almacena
las probabilidades de selección en campos separados, al mismo tiempo que crea un
campo adicional con el producto de todos ellos. Si el diseño es un diseño autoponderado
para algunos subgrupos, debe verificar la igualdad de las probabilidades de selección
dentro de cada grupo. La Encuesta Nacional de Examen de Salud y Nutrición
(NHANES), por ejemplo, se auto pondera con respecto a los dominios de edad, género
y raza/etnicidad; la Encuesta de Consumo de Energía de Edificios Comerciales (CBECS,
por sus siglas en inglés) es auto ponderada dentro del tamaño del edificio y las
categorías de uso del edificio. En la práctica, a menudo será necesario permitir
excepciones. Se requiere una buena documentación de las probabilidades de selección
en las encuestas internacionales que tienen que asegurar la comparabilidad entre
países. El estudio del Programa para la Evaluación Internacional de Competencias de Adultos (PIAAC
Machine Translated by Google

548 18 Control de procesos y medidas de calidad

la Oficina de Cooperación y Desarrollo Económicos (OCDE)12 proporciona las siguientes


instrucciones para la recopilación de información para cada etapa de selección:

• Una lista de variables utilizadas para la estratificación y sus categorías •


Procedimientos utilizados para construir el marco muestral y para estratificar y seleccionar
unidades de
muestreo • La definición de unidad de
muestreo • Fuentes de datos utilizadas para formar unidades
de muestreo • Tamaño de conglomerado promedio, mínimo y
máximo • Lista de unidades de certeza, como unidades de muestreo primarias
grandes • Medida del tamaño de las unidades de muestreo, así como la medida mínima de tamaño
• Una descripción de las unidades colapsadas para obtener la medida mínima de tamaño • Una
fórmula que describe la probabilidad de selección para cada unidad de muestreo • Una hoja de
trabajo de selección de muestra que proporciona los siguientes detalles:

– Totales de la población objetivo para cada nivel de estratificación


– Número de unidades de muestreo en el marco para cada nivel de estratificación
– Medida total de tamaño en el marco para cada nivel de estratificación
– Tamaño de la muestra objetivo, o tasa, antes del muestreo para cada estrato
– Tamaño real de la muestra para cada estrato, para certeza y no certeza
unidades

– Estimaciones de muestra ponderada para cada nivel de estratificación, donde el peso es


igual a la inversa de la probabilidad de selección general para la unidad de muestreo de la
etapa de selección actual

Comprobaciones exactas de recuentos de registros y sumas de peso

Al verificar los pesos, es útil recordar que la cantidad de registros dentro de un archivo de entrada
que ingresa a cada paso debe ser igual a la cantidad de registros en el archivo de salida que sale
del paso más cualquier registro descartado. Asimismo, las sumas de los pesos entrantes y
salientes en cada paso deben cuadrar. Por ejemplo, la suma de las ponderaciones en el archivo
de entrada que tiene encuestados y no encuestados debe ser igual a la suma de las ponderaciones
de los encuestados en el archivo saliente después de que se hayan realizado ciertos tipos de
ajustes por falta de respuesta.

Comprobaciones estadísticas

Finalmente, la suma de los pesos debe ser una estimación del número de unidades en la población.
Por lo tanto, debe comparar la suma de los pesos con el recuento de la población externa. Le
sugerimos que haga esta verificación después de cada
12
Normas Técnicas y Directrices de PIAAC, Segundo Borrador presentado en la Reunión
ing of the National Project Managers, 23–27 de marzo de 2009, Barcelona, España.
Machine Translated by Google

18.7 Escritura y programación de especificaciones 549

paso de ponderación (véanse los capítulos 13 y 14): ponderación base, ajustes por elegibilidad
desconocida y ajustes por falta de respuesta. Si se utiliza la calibración, la estimación del total
de cada variable de calibración debe ser exactamente igual a su total de control y debe tener
un error estándar de 0, como vimos en el Cap. 14. Por ejemplo, si se utilizan postestratos de
grupos de edad en una encuesta de hogares, el número total estimado de personas en cada
grupo de edad debe ser igual al total de control de la población. Si se utiliza un método de
estimación de varianzas que tenga en cuenta adecuadamente la posestratificación, los EE del
número total estimado de personas en cada posestrato deberían ser 0.

Otro extracto de la instrucción PIAAC con respecto a los procedimientos generales de


control de calidad en los pasos de pesaje es el siguiente:

• Los controles de calidad se realizarán después de cada paso del proceso de ponderación.
Los controles incluirán:

– Revisar la distribución de pesos en cada etapa para identificar cualquier valor faltante o
extremo.
– Calcular las frecuencias ponderadas de las características importantes de la encuesta
después de cada ajuste de ponderación para mostrar cómo cada ajuste afecta las
estimaciones de las variables clave de la encuesta. Además, las frecuencias ponderadas
se compararán con totales externos confiables.
– Revisar una lista aleatoria de registros en busca de anomalías.
– Producir la media, la mediana, el mínimo y el máximo y verificar el peso de cada réplica
de jackknife después de cada ajuste de peso.
– Después de producir las ponderaciones finales, generar errores estándar preliminares y
efectos de diseño en las variables de la encuesta como verificación de las ponderaciones
repetidas.

Aunque estos están destinados a PIAAC e incluyen algunos elementos específicamente para
los métodos utilizados en ese programa (p. ej., verificaciones de pesos repetidos), los pasos
generales se aplican a muchas encuestas.

18.7 Escritura y programación de especificaciones

Escribir buenas especificaciones ahorrará mucho trabajo más adelante, evitará ambigüedades
en los pasos que se deben completar y, al final, conducirá a proyectos mejor documentados.
En proyectos más pequeños, es tentador ni siquiera escribir especificaciones porque la misma
persona estaría escribiendo la especificación y el código de programación. No obstante, dar el
paso adicional de escribir especificaciones permite una comunicación efectiva con el equipo,
una buena documentación del trabajo y la realización de cambios posteriores.

Cuando se escriben memorandos de especificaciones, es útil escribir solo un memorando para


cada tarea. Tener un formato estándar para los nombres de los archivos que contienen las
notas es una buena práctica. El nombre de archivo real de una nota de especificación debe
incluir indicadores para la tarea dentro de una secuencia de tareas, incluir la versión
Machine Translated by Google

550 18 Control de procesos y medidas de calidad

Higo. 18.8: Registro de notas del proyecto.

Higo. 18.9: Ejemplo de nota.

número de la nota, e indicar el propósito de la tarea. Por ejemplo, un nombre


de archivo S1.2.doc puede contener la segunda versión de una nota de
especificación relacionada con la primera tarea en la sección de muestreo.
Un archivo maestro debe proporcionar un buen mapeo entre cada tarea
individual, el programa y, preferiblemente, también el programador. Un
ejemplo de tal mapeo se da en la Fig. 18.8. En la Fig. 18.9.
Machine Translated by Google

18.8 Documentación y archivo del proyecto 551

Recomendamos escribir programas separados que realicen tareas individuales. La programación


modular permite realizar un seguimiento de los cambios en partes del proceso. La figura 18.10
muestra un ejemplo de declaraciones de comentarios de encabezado que podrían usarse en un
programa SAS escrito para una tarea específica. Por supuesto, cómo se define una tarea es cuestión
de gustos. Las tareas pueden ser grandes o pequeñas dependiendo del estilo organizacional del
programador. Como ejemplo, considere una encuesta escolar. “Construir un marco de muestra”
podría ser una tarea, pero puede ser más manejable dividirla en varios pasos:

• Descarga el último universo escolar de la web del Departamento de Educación


sitio.
• Eliminar las escuelas no elegibles según los criterios de elegibilidad de la encuesta.
• Verifique el archivo para ver si faltan datos. • Crear códigos de estrato. • Escribir
archivo de salida.

Uno o más de estos pasos pueden merecer un número de tarea y un programa por separado,
según los detalles necesarios para un paso. Más adelante en la Fig. 18.11. (La ponderación incluye
una serie de otros pasos que siguen al bloque de continuación en la parte inferior del gráfico, pero
que no se muestran aquí). Las tareas particulares en el diagrama de flujo, como W0, W1 y WP0,
tienen sus propios memorandos de especificación. Las especificaciones para estas tareas se pueden
guardar en archivos cuyos nombres incluyen los números de tarea como se muestra en

Higo. 18.8.
Dentro de cada programa, se deben incluir comentarios para resaltar las subtareas y su propósito.
Del mismo modo, los programas necesitan comentarios para vincular diferentes operaciones con los
pasos de la especificación, como los sugeridos en el registro de notas del proyecto (Fig. 18.8). Los
números en los nombres de los archivos del programa se pueden usar para mantener los pasos en
secuencia (vea la última columna de la figura 18.8). Recomendamos crear y mantener archivos de
registro de salida de programas que incluyan encabezados de programa, como se ilustra en la Fig.
18.10, que indican la tarea del programa (y el archivo de registro principal correspondiente). Las
reglas generales sobre la documentación de los códigos de programación y la codificación efectiva
se pueden encontrar en Long (2009) y Kohler y Kreuter (2012).

18.8 Documentación y archivo del proyecto

Un proyecto de calidad requiere una documentación adecuada. Dicha documentación debe estar
bien organizada para que las decisiones se registren y se puedan rastrear más adelante. Si surgen
problemas, los proyectos bien documentados pueden abordarlos fácilmente. La documentación del
proyecto debe estar lista para la auditoría en cualquier momento. Al pensar en cómo estructurar su
documentación, podría ser útil desarrollar un sistema de documentación para uso externo y otro para
uso interno.
Machine Translated by Google

552 18 Control de procesos y medidas de calidad

Higo. 18.10: Cabecera del programa (archivo SAS).

Documentación externa

La documentación externa debe incluir un informe de diseño de muestra con detalles


suficientes para que el trabajo sea reproducible y defendible. El informe de diseño de
muestra también debe permitir una comparación de las promesas contractuales con el
resultado final (y las razones de cualquier cambio). Eso significa que un informe de
diseño de la muestra incluiría información sobre la población objetivo, el marco de la
muestra, el tamaño de la muestra, el diseño de la muestra, la selección de la muestra,
las tasas de respuesta (y otros indicadores de desempeño preespecificados), el
seguimiento de la muestra y el control de calidad de la muestra. pasos. Asimismo, los
informes de ponderación incluirían todos los detalles sobre el diseño de los pesos y los
ajustes y, lo que es más importante, una evaluación de los pesos finales (p. ej.,
variación de peso). Dado que el cliente recibirá un archivo de datos, el informe externo
también debe incluir un diseño del archivo de análisis y un libro de códigos. El diseño
general del archivo debe determinarse con el cliente (recomendamos de antemano),
pero generalmente incluye todos los elementos del cuestionario editados, valores
imputados y marcas de imputación, pesos de muestra y códigos de disposición, pesos
finales y pesos de ajuste individuales. Dependiendo de los acuerdos de confidencialidad,
las variables utilizadas solas o en combinación para identificar a un participante deben
enmascararse. El libro de códigos en sí mismo describe el diseño del archivo, los
nombres y etiquetas de las variables, las etiquetas de valores, etc. A veces, los libros
de códigos se crean en forma de cuestionario anotado. Se pueden encontrar buenos
libros de códigos de ejemplo para la Encuesta Social General (GSS, http://www3.norc.org/
GSS+Website) y la Encuesta Nacional de Entrevistas de Salud (http://www.cdc.gov/nchs/nhis/nhis cu
Machine Translated by Google

18.8 Documentación y archivo del proyecto 553

Higo. 18.11: Diagrama de flujo para la ponderación en la encuesta NAEP.


Machine Translated by Google

554 18 Control de procesos y medidas de calidad

Documentación Interna

La documentación interna suele ser mucho más detallada que la documentación externa.
Se incluyen memorandos de especificaciones junto con un diccionario de las
archivos que contienen notas y programas. Archivos intermedios que se crean
durante la creación del marco, la selección de la muestra, la recopilación de datos de campo
y el cálculo del peso serán parte de la documentación interna.
Machine Translated by Google

Apéndice A
Glosario de notación

Este apéndice recopila gran parte de la notación utilizada en los capítulos de este libro.
Se pueden encontrar descripciones más detalladas en los capítulos a los que se hace referencia a
continuación.

Diseño y tamaño de la muestra para encuestas de una


sola etapa (Cap. 3)

Notación general

N = número de elementos en la población


norte
y¯U = i=1 yi N = media poblacional finita de una variable de análisis y
norte
tU = i=1 yi = población total de una variable de análisis y yi/n = media muestral
norte

y¯s = yo=1 de una variable y


norte 2
S2 = yo=1 (yi ÿ y¯U ) (N ÿ 1) = varianza poblacional o varianza unitaria de y
CVU = S/¯yU = coeficiente de variación de la población (o unidad) de y. 2
CV = población (o unidad) realvarianza U
= S2 y¯2 tu
ˆÿ es un estimador de algún parámetro de población, por ejemplo, un total o una
media, E ˆÿ = valor esperado de ˆÿ en muestreo repetido bajo un muestreo particular
diseño
V ˆÿ = varianza de un estimador ˆÿ

SE ˆÿ = V ˆÿ = error estándar de ˆÿ

v ˆÿ = estimador de V ˆÿ

se ˆÿ = v ˆÿ = error estándar estimado de ˆÿ

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 555


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

556 Un glosario de notación

CV ˆÿ = V ˆÿ ! ÿ = coeficiente de variación (CV ) de ˆÿ cv ˆÿ = v ˆÿ ! ˆÿ

= estimador muestral de CV ˆÿ
2
varrel ˆÿ = cv ˆÿ = revarianza estimada de ˆÿ
Una Una

V (¯ys) = S2 = varianza de ¯ys en una muestra aleatoria simple seleccionada


ÿ

norte norte

sin reemplazo (srswor)


t ˆ= Ny¯s es un estimador de la población total de y en un srswor pU =
proporción poblacional de una característica 0–1; qU = 1 ÿ pU

Muestreo de una sola etapa

srswor = muestra aleatoria simple seleccionada sin reemplazo srswr =


muestra aleatoria simple seleccionada con reemplazo ppswr =
probabilidad proporcional a alguna medida de tamaño seleccionada con reemplazo n =
número de elementos de la muestra pwr = “probabilidad con reemplazo”, utilizada
para referirse a cualquier diseño en el que las unidades de primera etapa se seleccionan
con reemplazo yi/n = media de y en una muestra aleatoria simple de n elementos

norte

y¯s yo=1
= pd = iÿs yi n es un estimador de pU a partir de una muestra aleatoria simple de n elementos

pi = probabilidad de selección de un sorteo para la unidad i en una muestra seleccionada


con probabilidades variables ÿi = probabilidad de selección de la unidad i en una
muestra de tamaño n seleccionada con probabilidades variables ÿij = probabilidad de
selección conjunta de las unidades i y j en una muestra de tamaño n seleccionados
con probabilidades variables y ˆ¯ÿ = N yi/ÿi = ÿ-estimador de la población total de y;
también llamado estimador de Horvitz-Thompson y ˆ¯pwr = = estimador de
ÿ1
“probabilidad con
yoÿs reemplazo” de un
probabilidades total cuando
variables y conlareemplazo
muestra se selecciona
y ˆ¯r con
= y ˆ¯ÿ + bj x¯Uj ÿ xˆ ¯ÿj
= estimador de regresión general de un total; ¯xUj es la media poblacional de una
yo
Una

variable auxiliar
Nns xjPi
(j=1,
de .la. .pendiente
,p); xˆ¯ÿj es
deelxjestimador
en una regresión
ÿ del total
dede
y en
xj ;todos
bj es los
un px
estimador

pags

j=1

Muestreo estratificado de una sola etapa

stsrswor = muestra aleatoria simple estratificada seleccionada sin reemplazo en cada


estrato
Machine Translated by Google

Un glosario de notación 557

Nh = número de elementos de población en el estrato h


Wh = Nh/N = proporción poblacional de unidades en el estrato h
yhi = valor de una variable de análisis para la unidad i en el estrato h
2
S2 =
Nueva Hampshire

h yo=1 (Nh ÿ 1) = varianza poblacional o unitaria en el estrato


(yhi - y¯Uh)
h
Uh= conjunto de todas las unidades de la población del estrato h
Nueva Hampshire

y¯Uh = i=1 yhi Nh = media poblacional en el estrato h


H
y¯U = h=1 Why¯Uh = media poblacional expresada como una suma ponderada de stra
vuelta significa

sh = muestra de elementos del estrato h


nh = número de elementos muestrales del estrato h en una muestra aleatoria simple estratificada
muestra
y¯hs = iÿsh yhi nh = media muestral de elementos en el estrato h
H
y¯st = h=1 Why¯sh = media estimada cuando se selecciona un stsrs
H
pst = h=1 Whpsh = proporción estimada de unidades con una característica
cuando se selecciona un stsrs; psh = proporción de unidades en la muestra en
estrato que tiene la característica
H 1ÿfh
h=1 W2
V (¯yst) = = varianza en S2h de ¯yst donde fh = nh/Nh
h stsrswor Nueva Hampshire

ch = costo por elemento de todos los costos que varían con el número de muestra
elementos

Diseño de muestras de etapas múltiples (Cap. 9)

Muestreo en dos etapas

U = universo de PSU
M = número de PSU en el universo
Ui = universo de elementos en PSU i
Ni = número de elementos en la población para PSU i
N= iÿU Ni = número total de elementos en la población
ÿi = probabilidad de selección de PSU i
ÿij = probabilidad de selección conjunta de las UPM i y j
m = número de PSU de muestra
ni = número de elementos de muestra en PSU i
s = conjunto de PSU de muestra
si = conjunto de elementos de muestra en PSU i
yik = variable de análisis para el elemento k en la PSU i
y¯U = media por elemento en la población
y¯Ui = media por elemento en la población en PSU i
tu = iÿU kÿUi yk = población total de una variable de análisis y
Machine Translated by Google

558 Un glosario de notación

ti
t ˆÿ = = ÿ-estimador
yoÿs Pi de la población total de y donde t ˆi = (Ni/ni) kÿsi yk. El diseño de la muestra

es de dos etapas con UPM seleccionadas


seleccionados con probabilidades
con igual probabilidad variables
dentro de cada UPM y(tiÿt
elementos
¯U )2 =
varianza entre los totales de las UPM, siendo ti la población

iÿU
S2U1 = Mÿ1

ción total de y en PSU i ti M es el


t ¯U = iÿU total medio por PSU (ykÿy¯U i)2
kÿUi
S2U2i = = varianza unitaria de y entre los elementos en PSU i
Niÿ1
M2 M N2
Mÿm
S2 ni-ni S2U2i
V t ˆÿ = + metro METRO miÿU yo ni Ni

U1 = varianza del estimador ÿ en una muestra de dos etapas en la que las UPM son
seleccionadas por srswor y las unidades dentro de las UPM de la muestra son seleccionadas por
espada
B2 = S2 ¯2
U1 t tu = Revarianza unitaria entre los totales de la
1
W2 =
Mi¯2U iÿU t S2U2i PSU = Revarianza dentro de la PSU entre los elementos
1 ˆi
t ˆpwr = = pwr
miÿs -estimador
pi de un total cuando las UPM se seleccionan con reemplazo; t ˆi = kÿsi yik
Ni
es el total estimado para la PSUnoi a partir de una muestra
probabilidad aleatoria
de selección de simple y pi
1 sorteo dees
la la
PSU i.

Cuando se seleccionan m PSU con reemplazo y se selecciona una espada de tamaño ni en la


muestra de PSU i, la varianza de t ˆpwr es
2
Una ti N2
Es
no
Pi ÿ tu + 1- S2U2i
V t ˆpwr =
m Pi mpini iÿU Ni
iÿU (A.1)

ÿ VPSU + VSSU .

Caso especial de la varianza de t ˆpwr cuando se seleccionan m PSU con reemplazo ment y ¯n
elementos se seleccionan por srswor en cada PSU:

S2 Una norte N2 S2U2i


U1 (alimentación) Es

V t ˆpwr = + 1- .
metro mn¯ Ni Pi
iÿU

Caso especial de la revarianza de t ˆpwr cuando las UPM se seleccionan con reemplazo ment, ¯n
elementos son seleccionados por srswor en cada UPM, y la fracción de muestreo dentro de la
UPM, ¯n/Ni, es insignificante:

V t ˆpwr t2 . B2 W2 B2 + W2 [1
= + min¯ =
+ ÿ (¯n ÿ 1)]
tu metro Minnesota

B2 = S2
2

U1 (alimentación) tu
toneladas

= entre componente de revarianza


Machine Translated by Google

Un glosario de notación 559

1 S2U2i
W2 = N2 Es

t2 Pi
U iÿU =

dentro del componente de revarianza ÿ = B2 B2 + W2 (A.2)

= medida de la homogeneidad de los elementos dentro de las UPM

Estimación de componentes de varianza en muestreo en dos etapas

En un diseño en el que las UPM se seleccionan mediante ppswr y los elementos dentro de
las UPM se seleccionan mediante un muestreo aleatorio simple, la varianza del estimador
pwr es V t ˆpwr = VPSU + VSSU como se define en (A.1). Los estimadores de los
componentes de la varianza son

Vˆi
vSSU = 2
yoÿs
(ÿÿ ) Es

= un estimador de VSSU en (A.1)


2
Una
t ˆiÿ 1 ÿ ÿÿ yo2
Vˆi
ÿ

vPSU = ÿ t ˆpwr
metro (metro - 1)
yoÿs
Pi
yoÿs
(ÿÿ )
Es

= un estimador de VPSU en (A.1)

N2 2
donde Vˆi = (1 ÿ fi) Sˆ2 Sˆ2 donde ÿÿ = mpi, = (ni ÿ 1) (yk ÿ y¯si) ,
yo ni 2i Es 2i kÿsi
y ¯ysi =
kÿsi yk ni.
Los estimadores de los componentes entre y dentro de la varianza en (A.2) para una muestra
ppswr/srs son
2
Bˆ2 = Una
t ˆiÿ ÿ
1ÿÿÿ Es

tˆ2 _ Pi ÿ t ˆpwr yoÿs


poder / 1 (mÿ1) iÿs mp2 Es

Vˆi 0 y
N2i Sˆ2i
W2 = 1 t ˆ2
poder yoÿs mp2 Es

Muestreo en tres etapas

Ui = población de SSU en PSU i Uij =


población de elementos en PSU/SSU ij Ni = número
de población de SSU en PSU i Ni = número total de
iÿU
SSU en la población N =
m = número de UPM de muestra ni
= número de UPM de muestra; Cap. 9 da resultados aplicables al muestreo srswor de las
UME Qij = número de población de elementos en la UPM/UIM ij
Machine Translated by Google

560 Un glosario de notación

Qi = jÿUi Qij = número total de elementos en PSU i en la población es Q


qij = número de elementos seleccionados por srswor de PSU/SSU ij la media muestral de

población total para PSU/SSU


suponiendo ij elementos
que se tij en SSU
= t ˆij = Qijy¯sij
selecciona una ij y¯sij
, el
muestra =estimado
totalde kÿsij
igualykprobabilidad
qij
para, siendo kÿUij
la SSU ij ykdela
dentro

la SSU t ˆiÿ =

Ni
t ˆij , el total estimado para PSU i suponiendo que las SSU son ni jÿsi
seleccionado por srs
M ni Qij
tÿ= miÿs ni jÿsi qij kÿsij yk = ÿ-estimador si se selecciona un srswor (u otro tipo de
muestra de igual probabilidad) en cada etapa. = varianza entre los totales de la PSU ( tij ÿ t ¯Ui)
= iÿU (tiÿt ¯U )2
S2U1 M-1
2
S2U2i = Una

= varianza unitaria de los totales de SSU en PSU i donde


Niÿ1 jÿUi

t ¯Ui = jÿUi tij Ni es el promedio total por SSU en PSU i (yk ÿ y¯Uij )
2
S2 = Una

= varianza unitaria entre elementos en


U3ij Qijÿ1 kÿUij

PSU/SSU ij donde ¯yUij = kÿUij yk Qij

Relavarianza del estimador ÿ en el muestreo de tres etapas cuando cada etapa del
muestreo es srswor:

V (t ÿ) Mÿm M N2 ni-ni
= Una

S2U1 + Es
S2U2i +
t2tu t2U +M2 m METRO miÿU no Ni
METRO Ni Q2ij Qijÿqij
miÿU ni jÿUi qij Qij S2 U3ij, .

A continuación se presenta un caso especial de la revarianza del estimador ÿ en un muestreo en


tres etapas. Los requisitos son que todas las etapas se srswor el mismo número de SSU, ¯n, se
selecciona de cada PSU, el mismo número de elementos, q ¯¯, se selecciona de cada SSU, el
número de SSU en la población para cada PSU es el mismo, Ni = N¯ y el número de elementos de
, el mismo, Qij = Q ¯¯:
la población en cada SSU es

¯¯ ¯¯
V t ˆÿ Una Una METRO - metro Una n¯ - n¯ Una
q-q
= S2 +
Una
S22 + ¯¯ S23
t2tu ¯¯¯2
tu metro METRO mn¯ N¯ mn¯ q
años Q¯¯

¯¯
donde y ¯¯¯U = iÿU jÿUi kÿUij yk MN¯Q
2
S2 = (M ÿ 1)ÿ1 ; y ¯¯Ui = ti N¯Q¯¯ es la media por elemento
Una
U y ¯¯Ui ÿ y
¯¯¯U ment en PSU i
2
S22 = (¯yUij ÿ y ¯¯Ui) MN¯ ÿ 1
iÿU jÿUi
¯¯
y¯Uij = kÿUij yk Q es la media por elemento en SSU ij; y (yk ÿ y¯Uij ) kÿUij
2
S23 = MN¯ Q¯¯ ÿ 1
Otro caso especial de la revarianza cuando todas las etapas son seleccionadas por
srswor es
Machine Translated by Google

Un glosario de notación 561


¯¯ ¯¯
V t ˆÿ t2
Una METRO - metro Una n¯ - n¯ Una
q-q
= B2 + W2 2+ ¯¯ W2 3
metro METRO Minnesota N¯ mn¯ q Q¯¯
tu

con B2 = S2 ¯¯¯2
y 1tu , W2 2 y tu , y W2
= S22¯¯¯2
3
= S23¯¯¯2
y tu

Cuando las fuentes de alimentación se seleccionan con reemplazo, el pwr -estimator de un total es: t ˆi 1 miÿs pi

t ˆpwr =
donde t ˆi es un estimador de diseño no sesgado del total para PSU i y pi es la probabilidad de
selección de 1 sorteo de PSU i.

Relvarianza del estimador pwr en una muestra de tres etapas en la que la primera etapa se
selecciona con probabilidades variables y con reemplazo y la segunda y tercera etapa se
seleccionan por srswor:

V (t ˆpwr) = Una
1 i + miÿU pini N2 ni-ni
t2tu t2 metro
Ni S2 U2i+
U /S2 U1 (alimentación)
Una
Ni Q2 Qijÿqij ij (A.3)
1 miÿU Pi ni jÿUi qij qij S2 U3ij,
ÿ
1 t2
{VPSU + VSSU + VTSU }
tu

2
S2
= ti - ÿ tU iÿU es
pi cuando
la varianza
se selecciona
unitaria apropiada
la primera
para
etapa
el estimador
con reemplazo
pwr
U1 (alimentación) pi

.
V (t ˆpwr) = B2 + W22 + Q¯¯ÿq ¯¯ W23
¯¯ es un caso especial del sam de tres etapas
t2tu metro Minnesota
Q¯¯ mn¯ q

Revarianza de muestreo en un diseño ppswr/srswor/srswor que supone que se muestrean ¯n SSU en cada PSU de muestra, las fracciones

de muestreo de SSU en cada PSU, ¯n/Ni, son pequeñas y q elementos


¯¯ en cada SSU de muestra. Los componentes son B2 = S2 W2 N2

S2 U2i pi y W2 U1(pwr)
2

tu ,
toneladas
= =
2 1 t2 iÿU Es 3
tu
Una
Ni
t2tu iÿU pi jÿUi Q2 ijS2
U3ij

Una versión reescrita de la relvarianza en un diseño ppswr/srswor/srswor es

.
V t ˆpwr t2 = V˜ ¯¯ {k1ÿ1n¯q ¯¯+ k2 [1 + ÿ2 (q ¯¯ÿ 1)]} , (A.4)
tu
mn¯q

donde
2
k1 = Vÿ1 Vÿ con Vÿ = (yk ÿ y¯U )Qÿ1 iÿU jÿUi kÿUij varianza Una

t2
tu
siendo el
unitaria de y en la población k2 = Vÿ2 Vÿ con Vÿ2 =
¯¯ ¯¯
W2 ÿ 1 W2 + Q B2ÿW2/Q¯ ÿ1 = 2eselementos
una medida
homogeneidad
de 3 de qlasdePSU
dentro

Vÿ1 (es decir, ignorando la pertenencia a la SSU);


Vÿ1 = B2 + Q¯ ÿ 1 W2 Q¯, Q¯ =

iÿU
Qi M es el número medio de elementos por PSU
Machine Translated by Google

562 Un glosario de notación

= 2
W2 = Una

Q2 S2U3i pi con S2
Una

(yk ÿ y¯Ui) y
t2tu iÿU Es U3i Qiÿ1 jÿUi kÿUij

y¯Ui = U3i es la varianza a nivel de elemento entre


jÿUi kÿUij yk Qi, es decir, S2
todos los elementos en PSU i
W22 ÿW2 3 /Q¯¯
ÿ2 = es una medida de la homogeneidad de los elementos dentro de las SSU
V~2

Estimación de componentes de varianza en muestreo trietápico

Estimaciones directas de los componentes de la varianza del pwr -estimador de


el total en (A.3) se puede hacer a partir de una muestra. Las estimaciones que se presentan a continuación
son para el caso de muestreo ppswr de m UPM y muestreo aleatorio simple
de ni SSU en PSU i y elementos qij en SSU ij. Primero, defina
¯ 2
Sˆ2 = (ni ÿ 1)ÿ1 t ˆij ÿ t ˆi jÿsi , la varianza de la muestra entre estimados
2ai
¯

Totales de SSU, ti= t ˆij ni y t ˆij = Qijy¯sij , el estimado


jÿsi
donde el total de SSU ij
2
Sˆ2 = (qij ÿ 1)ÿ1 en (yk ÿ y¯sij ) , la varianza muestral entre elementos
3ij kÿsij
SSU ij
Q2yo Qijÿqij
Vˆ3ij = Sˆ2 la varianza estimada del total estimado t ˆij para
qij Qij 3ij ,
SSU ij
2
Sˆ2 = (qij ÿ 1)ÿ1 en (yk ÿ y¯sij ) , la varianza muestral entre elementos
3ij kÿsij
SSU ij, un estimador de S2 U3ij
Q2yo Qijÿqij
Sˆ2 la varianza estimada del total estimado t ˆij para
Vˆ3ij = qij Qij 3ij ,
SSU ij;
Sˆ2 = Una

2bi ni jÿsi Vˆ3ij


Sˆ2 = Sˆ2 ÿ Sˆ2 un estimador de S2 la varianza de los totales de SSU;
2i 2ai 2bi, 2UI
2
Sˆ2 = Una
t ˆiÿ
;
1a mÿ1 iÿs Pi ÿtÿ
N2
Sˆ2 = Una Es

(1 ÿ f2i) Sˆ2 2ai + f2iS2 2bi donde f2i = ni/Ni


1b miÿs pini

Sˆ2 = Sˆ2 ÿ Sˆ2 un estimador de S2


Una 1a 1b, U1 (alimentación)

El estimador del componente de la tercera etapa,

Una Una
Ni Q2yo qij ÿ qij
VTSU = S2
U3ij ,
metro
Pi no qij Qij
iÿU jÿUi

en (A.3) es
Una
N2 Es

vTSU = 2 Vˆ3ij .
(mpi) n2 Es
yoÿs jÿsi

El estimador del componente de segunda etapa,


N2
Una Es
ni-ni
VSU = miÿU Ni
S2u2i, en (A.3) es
pini
Machine Translated by Google

Un glosario de notación 563

Una N2 Ni ÿ ni
vSSU =
Es
Sˆ2
2i.
2
(mpi) no Ni
yoÿs

El estimador del componente de la primera etapa, VPSU = S2 U1(pwr) m,en (A.3) es

vPSU = Sˆ2 1 metro

Caso especial de la revarianza del estimador pwr en el muestreo de tres etapas para el caso del mismo
número de SSU de muestra, ¯n, y el mismo número de elementos de muestra, q ¯¯, y elementos de
población, Q ¯¯, en cada SSU; se usa un fpc ad hoc en el componente de la segunda etapa, donde N¯
norte¯ - norte¯ norte¯ , es el número promedio de SSU por PSU:

¯¯
vt ˆpwr t Bˆ2 n¯ - n¯ Wˆ 22 Q¯¯ ÿ q Wˆ 2
3
= + + ¯¯,
ˆ2 metro NORTE mn¯ Q¯¯ mn¯ q
poder

Sˆ2 donde Bˆ2 = t ˆ2 Una

,
poder

Wˆ 22 = 1 N2 yo
Sˆ2i, y
t ˆ2
iÿs mp2
poder Es

= 1 N2
1 mp2
Wˆ 2 Es

3 t ˆ2 + iÿs jÿsi
poder Es
no Q2 ijSˆ2 3ij, .

Los estimadores complementarios de las medidas de homogeneidad en (A.4) son:


Bˆ2ÿWˆ 2/Q¯ ÿ1 = V ˆÿ1 V ˆÿ1 = Bˆ2 + Q¯ ÿ 1 Wˆ 2 Q¯ y
con

Wˆ 2 = Una
Q2 ijSÿ2 i
, dónde
t2 yoÿs
mp2
poder Es

ÿ1
2
T~2 = wk
Es
jÿsi kÿsij kÿsij wk yk ÿ y ˆ¯i jÿsi

y ˆ¯i = wk
jÿsi kÿsij wkyk jÿsi kÿsij

Wˆ 2 ÿWˆ 2
2 3 /Q¯¯
ˆÿ2 = con V ˆ˜2 = Wˆ 2 2 + Q¯¯ ÿ 1 Wˆ 2 3 Q¯¯
V ˆ˜2

Funciones de costo en muestreo de dos y tres etapas

C = C0 + C1m + C2mn¯ es una función de costo para el muestreo en dos etapas con
C0 = costos que no dependen del número de UPM y elementos de la muestra;
C1 = costo por muestra PSU; C2 = costo por elemento es una función de costo
¯¯
C = C0 + C1m + C2mn¯ + C3mn¯ q para el muestreo en tres etapas con C0, C1 definido como en el
muestreo en dos etapas; C2 es el costo por SSU; y C3 es el costo por elemento
Machine Translated by Google

564 Un glosario de notación

Pasos básicos en la ponderación (Cap. 13)

d0i = ÿÿ1 Es
= peso base para la unidad i en una muestra de una sola etapa, calculado como
la inversa de la probabilidad de selección, ÿi. Si se utiliza la estratificación, una
el subíndice h se agrega para dar d0hi

d0ij = ÿÿ1 yo = peso base para el elemento j en el conglomerado i en una muestra de dos etapas
donde ÿij = ÿiÿj|i con
ÿi = probabilidad de selección del conglomerado i
ÿj|i = probabilidad de selección del elemento j dentro del grupo i
s = conjunto inicial de todas las unidades de muestra

sIN = conjunto de unidades en s que se sabe que no son elegibles


sER = conjunto de unidades que son encuestados elegibles
sENR = conjunto de unidades que son no respondentes elegibles
sKN = conjunto de unidades cuya elegibilidad se conoce (sIN ÿ sER ÿ sENR, donde ÿ
denota la unión de uno o más conjuntos)
sUNK = conjunto cuya elegibilidad se desconoce
d0i
ÿsb
a1b = = ajuste de peso para elegibilidad desconocida, asumiendo
d0i
iÿsb,KN
que los elementos se colocan en b = 1,...,B clases de ajuste; sb es el
conjunto de todos los elementos de la muestra en la celda b; sb,KN es el conjunto de elementos cuyo
se conoce el estado de elegibilidad
d1i = a1bd0i = peso ajustado para la unidad i insb,KN
d1i
iÿsc,E
a2c = d1i
= ajuste de clase de peso por falta de respuesta, asumiendo que
yo ÿsc,ER
los elementos se colocan en c = 1,...,C clases de ajuste; sc, E es el
conjunto de casos que se sabe que son elegibles en la clase c; sc,ER es el conjunto de elegibles
encuestados en la clase c
El peso de la unidad i en la muestra inicial, después de los ajustes por incógnita
elegibilidad y falta de respuesta, depende de si la unidad es un caso elegible para responder, un caso
que se sabe que no es elegible o un caso que no responde o de elegibilidad desconocida:

ÿ d1ia2c i ÿ sc,ER,
,
d2i = ÿ d1i i ÿ SEN 0 i ÿ
ÿ HUNDIDO ÿ SENR,
ÿ
d0ia1ba2c i ÿ sb,KN ÿ sc,ER,
= d0ia1b i ÿ sb,KN ÿ sIN i ÿ hundido ,
ÿ
0 ÿ sENR,
ÿ

Calibración (Cap. 14)

El estimador GREG de la población total de y es

T
TˆyGREG = t ˆy + tx ÿ ˆtx B
= T ÿ1
1 + tx ÿ ˆtx XT DVÿ1X xi/vi bricolaje,
yoÿs
Machine Translated by Google

Un glosario de notación 565

donde t ˆy = s diyi es el estimador del total basado en los pesos de entrada


T
tx = (tx1,...,txp) es el vector p × 1 de los totales de población (o control) de p
auxiliares utilizando el número de filas por el número de notación de matriz de
columna (el superíndice T denota la transposición de un vector)
tx= s dixi es la estimación de los totales de las x con base en las ponderaciones di
(pueden ser ponderaciones base o ponderaciones ajustadas para elegibilidad
desconocida y falta de respuesta) xi es el vector p × 1 de valores auxiliares para la i
el
unidad de muestra

D = diag (di) es la matriz diagonal n × n de pesos de entrada


xT Una

ÿ xT2
ÿ
X= ..
.
ÿÿÿÿ
xT norte ÿÿÿÿ es la matriz n × p de auxiliares para las n unidades de muestra
ÿ1 T
Bˆ = XT DVÿ1X XT DVÿ1y con y = (y1,...,yn) y's para siendo el vector de
las unidades de muestra V = diag (vi) es una matriz
diagonal n × n de valores asociados con los parámetros de varianza en un modelo lineal
subyacente
El peso GREG para el elemento i es

wi = digital
T ÿ1
ÿ di 1 + tx ÿ ˆtx XT DVÿ1X xi/vi .

El término entre paréntesis se llama peso g.

Estimación de la varianza (Cap. 15)

Para estimar las varianzas basadas en el diseño, se debe considerar el diseño de la


muestra de forma más explícita que cuando se calculan las ponderaciones. En
consecuencia, la notación debe incluir las etapas de muestreo que se utilizaron.

Diseño muestral: la muestra se selecciona con probabilidades variables y con reemplazo


(ppswr). El estimador pwr de la media es y ˆ¯pwr = 1 donde pi es la probabilidad de
selección
yo
de 1 sorteo. Su varianza es esti Nn s emparejada con
Pi

2
Una Una
yo .
vy ˆ¯pwr = N2 norte (n ÿ 1) yoÿs ÿ t ˆpwr
Pi

Diseño de la muestra: se estratifican las UPM y se selecciona una muestra


bietápica. Las PSU se seleccionan con reemplazo. El pwr - estimador de la
media es
Machine Translated by Google

566 Un glosario de notación

ÿ1
y ˆ¯pwr = N iÿsh y hhi/phi
nÿ1 donde phi = probabilidad
h
de 1 sorteo de selección de PSU i en el estrato h
=
muestra en PSU
kÿshi
hi dk|hi
dk|hi=yhik
peso= total
para estimado
la unidad solo
k enpara
PSUunidades
hi que expande
en PSUlahi.
muestra
y hi shide
= conjunto
PSU a solo
de la
unidades
población
de
de esa PSU.

dk = dk|hi phi = peso completo para la unidad k en shi donde dk|hi a veces se denomina peso condicional dentro de la fuente de
alimentación para la unidad k. La fórmula de varianza de pwr para y ˆ¯pwr es

2
vy ˆ¯pwr =
Una

N2 h nh(nhÿ1) iÿsh
Una
hola _
ÿ t ˆpwr,h ,
fi

donde t ˆpwr,h = nÿ1h sh


y hola/phi,
Yˆhi = dkyk y Yˆhi.
kÿshi
Y ˆ¯h = nÿ1
h iÿsh

Estimador de varianza Jackknife

Diseño de la muestra: Se selecciona una etapa única de tamaño n. En el método jackknife


básico, se forman estimaciones repetidas, eliminando una unidad a la vez y volviendo a
ponderar las unidades restantes. El estimador de la varianza jackknife del total estimado, t
ˆ= dkyk, que se usa en este libro eskÿs

ˆ norte - 1
norte
2
vjt _ = , (A.5)
norte
t ˆ(i) ÿ t
yo=1

dónde
t ˆ(i) = kÿs(i) dk(i)yk = el total estimado para una variable y basado en la réplica

i d(k)i = nÿ1 dk = peso de la unidad k que se retiene para la réplica i


norte

s (i) denota el conjunto de unidades muestrales excluyendo la


unidad i La fórmula (A.5) también se aplica a un estimador no lineal ˆÿ = ft ˆ1,...,t ˆp que es
T
una función diferenciable de la vector de totales estimados, t ˆ= t ˆ1,...,t ˆp .

Diseño de la muestra: Se selecciona una multietápica estratificada con n UPM; se puede


utilizar cualquier número de etapas dentro de las fuentes de alimentación. El estimador de
varianza Jack Knife de una función diferenciable de totales estimados, ˆÿ = ft ˆ1,...,t ˆp , es
Machine Translated by Google

Un glosario de notación 567

2
ˆÿ = nh ÿ 1
vJ ˆÿ(hola) ÿ ˆÿ
,
h
Nueva Hampshire

iÿsh

donde
sh = el conjunto de UPM de muestra en el estrato h
ˆÿ(hi) es la estimación de la réplica de hi que se encuentra al descartar todas las unidades de muestra en
PSU hola y reponderando las unidades de muestra restantes
El peso base ajustado para la unidad k cuando se elimina PSU hi es

ÿ0 si la unidad k está en la UPM i en el estrato


nh h, si la unidad k está en el estrato h pero no en la UPM i, y
dk(hola) = ÿ nhÿ1dk
dk ÿ
si la unidad k no está en el estrato h.

Estimador de varianza de replicación repetida balanceada (BRR)

BRR se utiliza principalmente en muestras de PSU, pero se aplica generalmente cuando la muestra
se estratifica y se seleccionan dos unidades de primera etapa en cada estrato. Suponga que el
una función
estimador de la muestra completa es ˆÿ = ft ˆ1,...,t ˆp , un vector de totales diferenciable
estimados. de
Las submuestras
duplicadas se forman mediante la identificación de medias muestras usando el método prescrito en la
Secc. 15.4.2. El estimador de varianza BRR estándar es

A
2
vBRR
ˆÿ = Aÿ1 ˆÿÿ ÿ ˆÿ ,
ÿ=1

dónde

ˆÿÿ = ft ˆ1ÿ,...,t ˆpÿ donde t ˆjÿ es el total estimado para la j-ésima variable
basado en las unidades en media muestra ÿ
A = número de repeticiones
Los pesos replicados para el BRR estándar son

si la unidad k está en una UPM que no está en la media muestra,


2dk si la unidad k está en una UPM que está en la media muestra.
dk(ÿ) = / 0

El Fay BRR utiliza todas las unidades de la muestra para calcular estimaciones replicadas.
Los pesos de las unidades en réplicas son

si la unidad k está en una UPM que no está en la media muestra,


dk(ÿ) = /ÿdk (2 ÿ ÿ) n si la unidad k está en una UPM que está en la media muestra,

donde 0 ÿ ÿ < 1.
Machine Translated by Google

568 Un glosario de notación

Estimador de varianza Bootstrap

El arranque se implementa seleccionando un srswr de mh PSU de las nh PSU de muestra


iniciales en el estrato h:

mÿ = número de veces que la PSU i se selecciona del estrato h


m*
hola nh hola = mh; mÿ
i=1 hola
= 0 para PSU no seleccionadas para la muestra de arranque.

El peso replicado para cada unidad de muestra k dentro de las UPM de la muestra inicial
(k ÿ shi) es

mh
m* hola
Nueva Hampshire

d*k (nhÿ1) mh (A.6)


= dk /1 ÿ mh (nhÿ1)0 +
= dkBhi,

donde Bhi está definida por la última igualdad. Esto se calcula para las unidades de todas
las UPM de muestra, no solo para las de la muestra inicial.
El estimador de varianza bootstrap de Rao-Wu es

B
Una 2
vboot ˆÿ = ,
B ˆÿ(b) ÿ ˆÿ
b=1

donde ˆÿ(b) es la estimación de la muestra de arranque b calculada usando los pesos en


(A.6).

Diseños Multifásicos (Cap. 17)

Los diseños multifase se refieren a diseños de muestra en los que se utilizan dos o más fases para
seleccionar la muestra. Generalmente, la información se recopila sobre un conjunto inicial de unidades
(la primera fase) y se utiliza para seleccionar una submuestra de unidades para la siguiente fase (la
segunda fase). Este patrón se puede continuar en las fases posteriores. Los subíndices entre
paréntesis se utilizan para indicar las fases: n(1), n(1)R = número de unidades de muestra iniciales
seleccionadas en la fase 1 y el
numero que responde
n(2), n(2)R = número de unidades de muestra seleccionadas en la fase 2 y el número que responde
n(p)d = número de unidades de la fase p dada la condición de encuesta d. Una condición de
encuesta podría definirse por si se ofreció un incentivo y, de ser así, el monto del incentivo

D(p) = número de condiciones de estudio utilizadas en la fase p


Machine Translated by Google

Un glosario de notación 569

La siguiente notación se refiere a un diseño de muestra en el que se selecciona una muestra


estratificada de conglomerados seguida de una muestra de elementos dentro de cada conglomerado
de muestra.

ÿ(1)hi = probabilidad de selección para el conglomerado i-ésimo en el estrato h en la fase


1 ÿ(1)k|hi = probabilidad de selección para el elemento k-ésimo en el conglomerado hi
condicionado a que el conglomerado sea muestreado en la primera etapa d(1)0k =
ÿÿ1 × ÿÿ1 = peso
(1) hola base
de selección
de un 2elemento
fase de
seleccionado
la fase
en 2
la para
muestra
en la k-ésima
fase
de la
1 =fase
unidad
peso
1 (1)k|hi
base
condicionada
de
ÿ(2)k|(1)
la unidad
=a probabilidad
ser
k en la

d(2)0k = d(1)0k ÿÿ1 (2)k|(1)

Los pesos de análisis para los elementos de la fase 1 se pueden calcular si se recopilan datos de
ellos que se puedan analizar por separado. En ese caso, un peso de análisis, w(1)k, se puede
calcular como w(1)k = d(1)0ka(1)1ka(1)2kg(1)k = peso de análisis para un elemento en la fase 1

muestra de respuesta donde

a(1)1k = ajuste por condición de elegibilidad desconocida del elemento k


a(1)2k = ajuste por falta de respuesta aplicado a la ponderación base ajustada por elegibilidad
desconocida d(1)1k = d(1)0k × a(1)1k g(1)k = ajuste de calibración realizado a los
pesos base ajustados, d(1)2k = d(1)0k a(1)1k a(1)2k, utilizando controles generados a partir
de la población s(2)R = conjunto de encuestados elegibles de la muestra en la fase 2

Después de recopilar los datos de los miembros de la muestra de la fase 2 que respondieron, se
puede construir la ponderación final incondicional del análisis de la fase 2 para los elementos en
s(2)R de la siguiente manera:

w(2)k = w(1)k a(2)0k|(1) a(2)1k|(1) a(2)2k|(1) g (2)k|(1),

dónde

w(1)k = ponderación final de la fase


1 a(2)0k|(1) = ajuste por submuestreo condicionado a las respuestas de la fase uno, a(2)1k|(1) =
ajuste por elegibilidad desconocida estrictamente asociado con la muestra de fase 2

a(2)2k|(1) = falta de respuesta estrictamente asociada con la muestra de la fase 2 =


w(1)k a(2) ajuste de calibración
0k|(1) a(2)1k|(1) aplicado
a(2)2k|(1) a los
t ˆ(2)y pesos ajustados
= kÿs(2)R g (2)k|(1)
w(2)k yk = estimadord(2)2k =
de doble
expansión de la población total de y
Machine Translated by Google

570 Un glosario de notación

Estimación de la varianza en un diseño de dos fases

Considere el muestreo doble para el diseño de estratificación donde el diseño de la fase uno es un srs
de tamaño n(1) y una muestra aleatoria de segunda fase de tamaño n(2) = h=1 n(2)h se selecciona de
H
los recién identificados Estratos. La varianza del estimador de doble expansión es

s2
S2 (1) h
V t ˆ(2)y = N2 1 ÿ f(1) norte(1) + mi(1) Hh=1 w2(1)h 1 ÿ f(2) n (2) h
,

= V1 + V2
(A.7)
donde E(1) es la expectativa sobre el diseño de muestra de la fase 1 f(1) = n(1) N =
fracción de muestreo de la fase 1 f(2)h = n(2)h n(1)h = fracción de la fase 1 muestra
en el estrato h que es
muestreado para la fase 2
2
S2 = (N ÿ 1)ÿ1 s2 = n(1)h kÿU (yk= ÿ y¯U )
ÿ 1 (1)h = la varianza de la población (unidad) kÿs(1)h
ÿ1 2
varianza de lalas
entre unidad de lade
unidades fase 1
muestra de la fase 1 en el estrato
yˆ(1)k ÿ y ˆ¯(1)h
hy ˆ¯(1)h = nÿ1 k ÿs(1)h yˆ(1)k = media de ˆy(1)k = d(1)0k yk entre los elementos de la fase

1 Las estimaciones
(1) hora de los
soncomponentes de las varianzas asociadas con las fases 1 y 2 en (A.7)

1ÿf(1) H Una
n(1)ÿn(1)h
Vˆ1 = n(1) h=1 w(1)h 1 ÿ n(2)h s2 (2)h+
n(1)ÿ1
n(1) H 2
n(1)ÿ1 h=1 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2)

H
s2
(2) h
Vˆ2 = w2 1 ÿ f(2)h ,
(1)h
h=1 n(2)h

dónde

H
y ˆ¯(2) h= 1w(1)h
=y

ˆ¯(2)h, y kÿs(2)h yk n(2)h


ÿ1 2
ˆ¯(2)h =s2 = n(2)h ÿ 1
(2)h kÿs(2)h yˆ(1)k ÿ y ˆ¯(1)h

Sumando Vˆ1 y Vˆ2 y suponiendo que la fracción de


. muestreo de la primera fase, f(1), es
pequeña y que n(1)h ÿ 1 n(1) ÿ 1 = w(1)h, la varianza estimada de t ˆ(2 )y es

H H
s2
Una
(2)h
vt ˆ(2)y ÿ= N2 w(1)h y ˆ¯(2)h ÿ y ˆ¯(2) 2+ w2 .
(1)h
n(1) h=1 h=1 n(2)h
Machine Translated by Google

apéndice B
Conjuntos de datos

En este libro se utilizan varios conjuntos de datos como ejemplos. Este apéndice proporciona
una breve descripción de cada uno. Estos archivos de datos también se incluyen en el paquete
complementario de R, PracTools.

Dominioy1y2

En un ejercicio se utiliza un pequeño conjunto de datos con 30 observaciones y dos variables,


y1 e y2.

hospital

Los datos del hospital provienen de la Encuesta Nacional de Alta Hospitalaria realizada por el
Centro Nacional de Estadísticas de Salud de EE. UU. La encuesta recopila las características
de los pacientes hospitalizados dados de alta de hospitales de corta estancia no federales en
los Estados Unidos. Esta población es de la encuesta de enero de 1968 y contiene observaciones
sobre 393 hospitales.

Descripción de variables
y Número de pacientes dados de alta por el hospital en
enero de 1968
X Número de camas de hospitalización en el hospital.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 571


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

572 Conjuntos de datos B

mano de obra

Esta población es una población agrupada de 478 personas extraída del


Septiembre de 1976 Encuesta de Población Actual (CPS) en los Estados Unidos. los
Los conglomerados son áreas geográficas compactas que se utilizan como una de las etapas del muestreo.
en el CPS y por lo general se componen de alrededor de cuatro hogares cercanos. los
las unidades dentro de los conglomerados para esta población ilustrativa son personas individuales.

variable Descripción
h Estrato de racimos
hsub Sustrato (cada estrato contiene dos sustratos)

grupo Número de clúster (o segmento). Cada segmento es un


pequeño grupo de personas que viven cerca unos de otros
persona número de persona
gato Años
de edad Categoría de edad
1 = 19 años y menos
2 = 20–24
3 = 25–34
4 = 35–64
5 = 65 años y más
la raza Raza (1 = no negra; 2 = negra)
sexo Género (1 = masculino; 2 = femenino)
HoraPorSemana Usuario número de horas trabajadas por semana
Salario Semanal Cantidad habitual de salarios semanales (en dólares estadounidenses
de 1976)
y Una variable artificial generada para seguir un modelo.
con un medio común. Las personas en el mismo grupo están
correlacionadas. Personas en diferentes grupos
no están correlacionados bajo el modelo

MDarea.pop

Un conjunto de datos de 403,997 personas basado en el censo estadounidense decenal de 2000 para Anne
Condado de Arundel en el estado de Maryland. Se generaron registros de personas
basado en conteos del censo de 2000. Los valores individuales para cada persona fueron
generado usando modelos. Los agrupamientos para formar las variables PSU y SSU fueron
hecho después de clasificar el archivo del censo por distrito y grupo de bloques dentro del distrito.
Machine Translated by Google

Conjuntos de datos B 573

variable Descripción
fuente de alimentación
unidad primaria de muestreo; una agrupación de grupos de bloques (BLKGROUP)
que tiene unas 5.000 personas
SSU unidades de muestreo secundarias; una agrupación de grupos de bloques que tiene
unas 1.000 personas
TRACTO Un área geográfica definida por la Oficina del Censo. Tratados en general
tienen entre 1.500 y 8.000 personas pero tienen un rango mucho más amplio
en el condado de Anne Arundel
GRUPO BLK Grupo de bloques. Un área geográfica definida por la Oficina del Censo.
Los grupos de bloque generalmente tienen entre 600 y 3,000 personas.
Hispano Origen étnico hispano (1=hispano; 2=no hispano)
Género Género (1 = masculino; 2 = femenino)
Años Categoría de edad de 23 niveles:
1 = menos de 5 años
2 = 5–9 años
3 = 10–14 años
4 = 15–17 años
5 = 18–19 años
6 = 20 años
7 = 21 años
8 = 22–24 años
9 = 25–29 años
10 = 30–34 años
11 = 35–39 años
12 = 40–44 años
13 = 45–49 años
14 = 50–54 años
15 = 55–59 años
16 = 60–61 años
17 = 62–64 años
18 = 65–66 años
19 = 67–69 años
20 = 70–74 años
21 = 75–79 años
22 = 80–84 años
23 = 85 años y más
persona Contador para persona dentro de tramo/grupo de bloque/hispano/género/
combinación de edad
y1 variable continua artificial
y2 variable continua artificial
y3 variable continua artificial
ins.cov Cobertura médica:
0 = la persona no tiene cobertura de seguro médico
1 = la persona tiene cobertura de seguro médico
estancia.hosp Estancia hospitalaria durante la noche:
0 = la persona no pasó la noche en el hospital en la última
12 meses
1 = la persona pasó la noche en el hospital en los últimos 12 meses
Machine Translated by Google

574 Conjuntos de datos B

nhis

La Encuesta Nacional de Entrevistas de Salud (NHIS, por sus siglas en inglés) se usa para monitorear las
condiciones de salud en los EE. UU. Los datos se recopilan a través de entrevistas personales en los hogares.
Solo las variables demográficas se incluyen en este subconjunto que se recopiló
en 2003. El conjunto de datos del nhis contiene observaciones de 3.911 personas. el archivo
contiene solo personas mayores de 18 años.

variable Descripción
IDENTIFICACIÓN variable de identificación
estrato Estrato de diseño de muestra (1–100)
fuente de alimentación Unidad primaria de muestreo, numerada dentro de cada estrato (1,2)
svywt peso de la encuesta
sexo Género (1 = masculino; 2 = femenino)
años Edad, continuo
edad r Edad recodificada:
3 = 18–24 años
4 = 25–44 años
5 = 45–64 años
6 = 65–69 años
7 = 70–74 años
8 = 75 años y más
hisp Etnia hispana:
1 = hispano
2 = no hispano
marital Estado civil:
1 = separados
2 = divorciado
3 = casado
4 = soltero/nunca casado
5 = ventana
9 = estado civil desconocido
padres Padre(s) de la persona de la muestra presente en la familia:
1 = madre, sin padre
2 = padre, sin madre
3 = madre y padre
4 = ni madre ni padre
padres r Padre(s) de la persona de la muestra presente en el registro familiar (1 = sí;
2 = no)
Machine Translated by Google

Conjuntos de datos B 575

variable Descripción
educar Educación:
1 = 8vo grado o menos
2 = 9.º a 12.º grado, sin diploma de escuela secundaria
3 = graduado de secundaria
4 = destinatario del título de desarrollo de educación general (GED)
5 = algo de universidad, sin título
6 = título de asociado, técnico o vocacional
7 = título de asociado, programa académico
8 = licenciatura (BA, BS, AB, BBA)
9 = título de maestría, profesional o doctorado
educación Récord de educación:
1 = escuela secundaria, título de desarrollo de educación general (GED), o
menos

2 = algo de universidad
3 = licenciatura o título de asociado
4 = maestría y superior
la raza Raza (1 = Blanco; 2 = Negro; 3 = otro)
resp. Encuestado (0 = no encuestado; 1 = encuestado)

nhis.grande

La Encuesta Nacional de Entrevistas de Salud (NHIS, por sus siglas en inglés) se usa para monitorear las
condiciones de salud en los EE. UU. Los datos se recopilan a través de entrevistas personales en los hogares.
Las variables demográficas y algunas variables relacionadas con la salud se incluyen en este
subconjunto. El conjunto de datos nhis.large contiene observaciones sobre 21.588 personas.
nhis.large es un conjunto de 21.588 personas extraídas de la encuesta estadounidense de 2003. los
El archivo contiene solo personas mayores de 18 años.
Machine Translated by Google

576 Conjuntos de datos B

variable Descripción
IDENTIFICACIÓN variable de identificación
estrato Estrato de diseño de muestra (1–100)
fuente Unidad primaria de muestreo, numerada dentro de cada estrato (1,2)
de alimentación peso de la encuesta
sexo Género (1 = masculino; 2 = femenino)
edad.grp Grupo de edad:
1 = < 18 años
2 = 18–24 años
3 = 25–44 años
4 = 45–64 años
5 = 65+
hisp Etnia hispana:
1 = hispano
2 = Blanco no hispano
3 = Negro no hispano
4 = no hispanos todos los demás grupos raciales
padres Padres presentes en el hogar:
1 = madre, padre o ambos presentes
2 = ninguno presente
educar Máximo nivel de estudios alcanzado:
1 = graduado de escuela secundaria, grado de equivalencia de posgrado menos
2 = algo de universidad
3 = licenciatura o título de asociado
4 = maestría o superior
NA = falta
la raza La raza:
1 = Blanco
2 = negro
3 = todos los demás grupos raciales
inc.grp Grupo de ingresos familiares:
1 = < $ 20K
2 = $20,000-$24,999
3 = $25,000-$34,999
4 = $35,000-$44,999
5 = $45,000-$54,999
6 = $55,000-$64,999
7 = $65,000-$74,999
8 = $75K+
NA = falta
retraso.med Atención médica retrasada en los últimos 12 meses debido al costo:
1 = sí;
2 = no;
NA = falta
estancia.hosp Pasó una noche en el hospital en los últimos 12 meses:
1 = sí;
2 = no;
NA = falta
Machine Translated by Google

Conjuntos de datos B 577

variable Descripción
doc.visit Durante 2 semanas antes de la entrevista, ¿la persona vio a un médico u otro
profesional de la salud en un consultorio médico, una clínica, una emergencia
habitación, o algún otro lugar? (excluyendo la estadía nocturna en el hospital)?
1 = sí
2 = no
seguro de enfermedad Cubierto por medicaid, un programa de subsidio gubernamental para los
pobre:
1 = sí
2 = no
NA = falta
notcov No cubierto por ningún tipo de seguro médico
1 = Sí;
2 = No;
NA = falta
haciendo.lw ¿Qué estaba haciendo la persona la semana pasada?
1 = trabajo por pago en un trabajo o negocio
2 = con un trabajo o negocio pero no en el trabajo
3 = buscando trabajo
4 = trabajando, pero no por pago, en un trabajo o negocio
5 = no trabaja y no busca trabajo
NA = falta
limitado ¿Está la persona limitada de alguna manera en alguna actividad debido a
problemas físicos, mentales o emocionales?
1 = limitado de alguna manera
2 = no limitado de ninguna manera
NA = falta

smho.n874

La Encuesta de Organizaciones de Salud Mental de 1998 (SMHO) fue realizada por


la Administración de Servicios de Salud Mental y Abuso de Sustancias de EE. Recopiló datos
sobre organizaciones de atención de la salud mental y hospitales generales que
proporcionar servicios de atención de salud mental, con el objetivo de desarrollar estimaciones
a nivel nacional y estatal para el gasto total, personal equivalente a tiempo completo, camas
recuento y número total de casos por tipo de organización. La población omite uno
observación extrema en la población smho98 y contiene observaciones sobre
874 instalaciones.
Machine Translated by Google

578 Conjuntos de datos B

variable Descripción
EXPTOTAL Gastos totales en 1998
CAMAS Camas hospitalarias totales
SENTIDO Recuento de clientes/pacientes no duplicados atendidos durante el año
EOYCNT Fin de año conteo de pacientes en el rol
ENCONTRAR Hospital recibe dinero de la agencia estatal de salud mental
(1=sí; 2=no)
hosp.tipo Tipo de hospital:
1 = psiquiátrico
2 = residencial o veteranos
3 = generales
4 = ambulatorio, atención parcial
5 = multiservicio, abuso de sustancias

smho98

El SMHO de 1998 fue realizado por el Departamento de Abuso de Sustancias y Salud Mental de EE.
Administración de Servicios de Salud. Recopiló datos sobre organizaciones de atención de salud
mental y hospitales generales que brindan servicios de atención de salud mental, con
un objetivo para desarrollar estimaciones a nivel nacional y estatal para el gasto total, el personal
equivalente a tiempo completo, el número de camas y el número total de casos por tipo de
organización.

variable Descripción
ESTRATO Estrato de diseño de muestra
1 = hospital psiquiátrico
2 = residencial
3 = hospital general
4 = veteranos militares
5 = atención parcial o ambulatorio
6 = multiservicio o abuso de sustancias
CAMAS Camas hospitalarias totales
EXPTOTAL Gastos totales en 1998
SENTIDO Recuento de clientes/pacientes no duplicados atendidos durante el año
EOYCNT Fin de año conteo de pacientes en el rol
IP Y Número de visitas de pacientes hospitalizados durante el año
OPCSFRST Número de pacientes ambulatorios en los roles el primer día del año de informe

OPCSAÑADE Número de pacientes ambulatorios admitidos, readmitidos o transferidos a


la organización durante el año del informe por menos de 24 h
período y no durante la noche
OPCSVIST Número de visitas ambulatorias durante el año del informe por menos
de un período de 24 h y no durante la noche
EMGWALK Número de visitas de emergencia durante el año del informe
PSYREHAB Número de visitas a los servicios de rehabilitación psiquiátrica
IPCSAÑADE Número de pacientes residenciales añadidos durante el año del informe
o pacientes ingresados por más de un período de 24 h
Machine Translated by Google

Apéndice C
Funciones R utilizadas en este libro

Muchos ejemplos del libro se desarrollaron utilizando el lenguaje de programación R (R


Core Team, 2012). A continuación, proporcionamos una breve descripción general de R,
incluidos los pasos para descargar una versión nueva o actualizada (Sección C.1). Las
funciones del paquete R PracTools se enumeran en la Secc. C.2.

C.1 Descripción general de R

R abarca un lenguaje estadístico y una interfaz gráfica de usuario completa (RGui) con
capacidades gráficas, de manipulación y análisis de datos. El software está disponible
gratuitamente para todos desde el sitio web de R, http://www.r-project.org/.

Documentación y Recursos

Los manuales de usuario gratuitos y descargables se encuentran en el sitio web de R en


el enlace Documentación—Manuales.1 Además, todas las funciones de R tienen una
pantalla de ayuda asociada que se ve al (i) escribir un signo de interrogación y el nombre
de la función en el R línea de comando o (ii) mediante el uso de la función de ayuda (p.
ej., ?mean o help(mean)) en la RGui o (iii) mediante la ejecución de una "búsqueda en el
sitio R" en el sitio web (consulte el enlace R Project—Search). El sitio web también
contiene una lista abreviada de libros sobre diversos temas para usuarios, incluidas guías
para traducir conceptos y códigos de SAS o Stata a R. Un ejemplo de un texto completo
utilizado por los autores es Crawley (2007).

Una

http://cran.r-project.org/manuals.html.

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 579


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

580 Funciones de CR utilizadas en este libro

Descargar una nueva versión de R

Para obtener una nueva versión de R, acceda al sitio web y seleccione “Descargar,
Paquetes–CRAN” de la lista en el lado izquierdo de la pantalla. Selecciona un espejo
sitio cerca de usted y la versión de R más apropiada para su sistema informático
(por ejemplo, Windows). Seleccione los enlaces "base" y luego "descargar".

Paquetes R/Bibliotecas

Los usuarios de R han creado muchas funciones, examinadas por el R Core Team,
y puesto a disposición de todos en la comunidad R. Estas funciones escritas por el usuario
están organizados en paquetes también conocidos como bibliotecas. Algunos paquetes clave
utilizados en este libro se enumeran a continuación.

paquete R Finalidad de las funciones asociadas


alabama Optimización no lineal (Varadhan, 2010)
doBy Estadísticas resumidas por subgrupos específicos (Højsgaard y
Halekoh, 2012)
extranjero Importar/exportar datos creados desde/hacia otro software como
SAS o Stata (R Core Team y colaboradores en todo el mundo, 2012a)
gráficos Gráficos (R Core Team y colaboradores de todo el mundo, 2012b)
lme4 Efectos mixtos lineales para estimar componentes de varianza (Bates
et al., 2012)
nlme Modelos lineales y no lineales de efectos mixtos (Pinheiro y Bates,
2000)
pps Selección de muestras de poblaciones finitas (Gambino, 2005)
quadprog Programación cuadrática (Turlach y Weingessel, 2011)
reformar Manipulación de tramas de datos (Wickham, 2011)
rpart Análisis del árbol de clasificación y regresión (CART) (Therneau
et al., 2012)
muestreo Selección de muestras de poblaciones finitas (Till´e y Matei,
2012)
Samplebook Tamaño y estimación de la muestra actualmente para diseños de una sola etapa
(Manitz, 2012)
estadísticas Funciones estadísticas que incluyen prueba de hipótesis clásica y
regresión (R Core Team y colaboradores en todo el mundo, 2012c)
encuesta Análisis de datos de encuestas complejas (Lumley, 2012)
de supervivencia Archivos de datos y funciones analíticas para el análisis de supervivencia
(Therneau, 2012)

Las funciones dentro de la mayoría de los paquetes están disponibles para su uso solo después de que la biblioteca haya
se ha instalado desde un espejo CRAN seleccionado y se ha accedido durante una sesión R.
Para instalar un paquete externo no incluido con la instalación básica, elija
"Instalar paquete (s)" en el menú "Paquetes" dentro de RGui, seleccione un local
Espejo CRAN y luego elija uno o más paquetes de la lista resultante.
Algunas bibliotecas, como MASS, se cargan automáticamente cuando se inicia una sesión de R.
comienza Se accede a otros paquetes instalados mediante require o
las funciones de la biblioteca, por ejemplo, require(survey) o library(survey).
Machine Translated by Google

C.1 Descripción general de R 581

Actualización de R

El paquete base de R se actualiza ocasionalmente sin un cronograma establecido. Los usuarios deben
consulte regularmente el sitio web de R para ver una nueva versión del paquete base junto con
actualizaciones de los paquetes de funciones. La versión más reciente del software.
disponible para descargar aparece en la sección "Noticias" en la página web principal de R.
Para actualizar a la última versión, primero desinstale la versión actual de R de
su sistema y luego instale la última versión de R desde el sitio web. Nota
que a pesar de que el software ha sido desinstalado, la carpeta R que contiene
los paquetes de funciones descargados anteriormente aún permanecen.
Al igual que con el paquete base, los paquetes de funciones se actualizan periódicamente
para incluir nuevas funciones o mejoras a las funciones antiguas. Los paquetes de funciones
previamente descargados se actualizan usando update.packages()
función o seleccionando el nombre de archivo apropiado de los "Paquetes/Actualizar
Paquetes... “Lista RGui. Con una versión actualizada del paquete base, simplemente
copie los paquetes de funciones de la antigua carpeta R a la nueva carpeta antes de
ejecutando las actualizaciones.

Creación y ejecución de código R

El código R se ejecuta de forma interactiva (a través de RGui) en una de tres formas:

(1) Ingresando el código línea por línea, presionando la tecla enter después de cada línea
entrada
(2) Copiando y pegando un conjunto completo de código desarrollado en un editor de texto
(3) Incluyendo un programa R completo usando la función source('''') expediente

nombre

Además, los programas R se pueden ejecutar en modo por lotes. Hay varios
editores de texto diseñados para trabajar de cerca con R—RWinEdt,2 Tinn-R,3
y RStudio4 son tres. R también viene con un editor incorporado que tiene menos
capacidades. RWinEdt es un paquete R que utiliza el editor WinEdt5, que
también es una opción popular para editar con el lenguaje de composición tipográfica LaTex6.
Estos editores especializados tienen varias características interesantes, incluido el resaltado de
emparejar paréntesis, corchetes y llaves; posibilidad de resaltar, copiar y
pegue el código R directamente en R Console; y acentuando R palabras reservadas, como
nombres de funciones y operadores.

2
http://cran.r-project.org/web/packages/RWinEdt/.
3 http://www.sciviews.org/Tinn-R/.
4
http://rstudio.org/.
5 http://www.winedt.com/.
6
http://miktex.org/ o http://www.latex-project.org/.
Machine Translated by Google

582 Funciones de CR utilizadas en este libro

C.2 Funciones R definidas por el autor

Las funciones desarrolladas por los autores para su uso con este libro de texto se detallan a
continuación en orden alfabético. Estas funciones están disponibles en la biblioteca PracTools
disponible para descargar en el sitio web del libro y en el sitio web principal de R.
Siguiendo el ejemplo de los archivos de ayuda de R, cada descripción a continuación contiene:

• El nombre de la función y el resumen de su propósito • Sintaxis


junto con una descripción de los argumentos • Los valores devueltos
por la función • Código de ejemplo

Se pueden encontrar más detalles para cada función en los archivos de ayuda de PracTools.
Otras funciones útiles se pueden encontrar en, por ejemplo, Valliant et al. (2000).

BW2stagePPS: componentes de revarianza para muestra de 2 etapas

Descripción
Calcule los componentes de la varianza real para un diseño de muestra donde las unidades primarias
de muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño (pps) y los elementos
se seleccionan mediante un muestreo aleatorio simple (srs). La entrada es un marco de muestreo
completo.

Uso
BW2stagePPS(X, pp, psuID)

Argumentos

X vector de datos; longitud es el número de elementos en la población. vector de


páginas probabilidades de 1 extracción para las PSU. Este vector debe ser tan largo como
X. Cada elemento en una PSU dada debe tener el mismo valor en pp. Las PSU
deben estar en el mismo orden que en X. psuID vector de números de identificación
de PSU. Este vector debe tener la longitud de X. Cada elemento de una PSU determinada debe
tener el mismo valor en psuID. Las fuentes de alimentación deben estar en el mismo
orden que en X.

Valor
Objeto de lista con elementos:
B2 varianza real entre unidades de PSU
W2 varianza real dentro de la unidad de PSU
B2+W2 suma de estimaciones entre y dentro de la varianza delta correlación
intraclase estimada como B2/(B2 + W2)
Machine Translated by Google

C.2 Funciones R definidas por el autor 583

Ejemplos
datos (MDarea.pop)
# Use las variables PSU y SSU para definir las pp.PSU de psu <-
table(MDarea.pop$PSU) / nrow(MDarea.pop) pp.SSU <- table(MDarea.pop$SSU) /
nrow(MDarea.pop)

# componentes con fuente de alimentación definida por la variable PSU


BW2stagePPS(MDarea.pop$y1, pp=pp.PSU, psuID=MDarea.pop$PSU) # componentes con fuente
de alimentación definida por la variable SSU BW2stagePPS(MDarea.pop$y1, pp= pp.SSU,
psuID=MDarea.pop$SSU)

# Usar distritos censales y grupos de bloques para definir las psu


trtBG <- 10*MDarea.pop$TRACT + MDarea.pop$BLKGROUP pp.trt <-
table(MDarea.pop$TRACT) / nrow(MDarea.pop) pp.BG <- table(trtBG) / nrow(MDarea.
estallido)
# componentes con fuentes de alimentación definidas por tractos
BW2stagePPS(MDarea.pop$ins.cov, pp=pp.trt,
psuID=MDarea.pop$TRACTO)
# componentes con fuentes de alimentación definidas por grupos de bloques
BW2stagePPS(MDarea.pop$ins.cov, pp=pp.BG, psuID=trtBG)

BW2stagePPSe: componentes de relavarianza estimados para una muestra de 2 etapas

Descripción
Estime los componentes de la varianza real para un diseño de muestra donde las unidades primarias de
muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño (pps) y los elementos se
seleccionan mediante un muestreo aleatorio simple (srs). La entrada es una muestra seleccionada de esta manera.

Uso
BW2stagePPSe(Ni, ni, X, psuID, w, m, pp)

Argumentos

Ni vector de número de elementos en la población de cada muestra PSU;


longitud es el número de PSU en la muestra. vector de número de
no elementos de muestra en cada PSU de muestra; longitud es el número
de PSU en la muestra. Las PSU deben estar en el mismo orden que en
X. vector de datos para elementos de muestra; longitud es el número de
X elementos en la muestra. Estos deben estar en orden de fuente de
alimentación. Las PSU deben estar en el mismo orden que en X. psuID
vector de números de identificación de PSU. Este vector debe tener la
longitud de X. Cada elemento de una PSU determinada debe tener el mismo valor en
psuID.
Machine Translated by Google

584 Funciones de CR utilizadas en este libro

w vector de pesos de muestra completos. Este vector debe ser tan largo como X.
El vector debe estar en el mismo orden que X. número
metro
de PSU de muestra vector de probabilidades de 1
páginas extracción para las PSU. Este vector debe ser tan largo como X. Cada elemento en una
PSU dada debe tener el mismo valor en pp. El vector debe estar en el mismo orden que X.

Valor

Objeto de lista con elementos:


vpsu varianza estimada entre unidades de fuente de alimentación
Vssu varianza estimada dentro de la unidad de fuente de alimentación
B2 Revarianza estimada entre unidades de PSU Revarianza
W2 estimada dentro de unidades de PSU

correlación intraclase delta estimada como B2/(B2 + W2)

Ejemplos

Requerir (muestreo)
Requerir (reformar) datos # tiene una función que permite renombrar vars
(MDarea.pop)
Ni <- tabla(MDarea.pop$TRACTO) m <- 20

probi <- m*Ni / sum(Ni) # seleccionar


muestra de conglomerados
sam <- cluster(data=MDarea.pop, clustername="TRACTO", tamaño=m,
method="systematic", pik=probi,
description=TRUE) # extraer datos para los
grupos de muestra
samclus <- getdata(MDarea.pop, sam) samclus <-
rename(samclus, c(Prob = "pi1")) # tratar los conglomerados de
muestra como estratos y seleccionar srswor de
cada
s <- estratos(datos = as.datos.marco(samclus),
stratanames = "TRACTO", tamaño
= rep(50,m), método="srswor")
# extrae los datos observados
samdat <- getdata(samclus,s) samdat <-
renombrar(samdat, c(Prob = "pi2"))
# extraer recuentos de pop para PSU en selección de muestra
<- nombres (Ni) %in% sort(unique(samdat$TRACT))
Ni.sam <- Ni[pick] pp <-
Ni.sam / sum(Ni) wt <- 1/samdat$pi1/
samdat$pi2

BW2stagePPSe(Ni = Ni.sam, ni = rep(50,20), X = samdat$y1,


psuID = samdat$TRACT, w = wt, m = 20, pp =
pp)
Machine Translated by Google

C.2 Funciones R definidas por el autor 585

BW2stageSRS: componentes de revarianza para muestra de 2 etapas

Descripción
Calcule los componentes de la varianza real para un diseño de muestra donde las unidades
primarias de muestreo (PSU) y los elementos se seleccionan mediante un muestreo aleatorio
simple (srs). La entrada es un marco de muestreo completo.

Uso
BW2stageSRS(X, psuID)

Argumentos
X vector de datos; longitud es el número de elementos en la población. psuID
vector de números de identificación de fuente de alimentación. Este vector debe tener la
longitud de X. Cada elemento de una PSU determinada debe tener el mismo
valor en psuID. Las fuentes de alimentación deben estar en el mismo orden que en X.

Valor
Objeto de lista con elementos: entre
B2 unidades de fuente de alimentación, unidad de
W2 unidad de unidad de fuente de alimentación,

unidad de unidad de unidad de fuente de alimentación, unidad de unidad relvar,


unidad de unidad para delta de población, correlación intraclase completa

Ejemplos

data(MDarea.pop) # las
fuentes de alimentación están definidas por la variable de
fuente de alimentación BW2stageSRS(abs(MDarea.pop$Hispanic-2),
psuID=MDarea.pop$PSU)
# fuentes de alimentación están definidas por la variable
SSU BW2stageSRS(abs(MDarea.pop$Hispanic-2),
psuID=MDarea.pop$SSU)

BW3stagePPS: componentes de revarianza para muestra de 3 etapas

Descripción
Calcular los componentes de la varianza real para un diseño de muestra donde las unidades
de muestreo primarias (PSU) se seleccionan con probabilidades proporcionales al tamaño y
con reemplazo (ppswr) y las unidades de muestreo secundarias (SSU) y los elementos dentro
de las SSU se seleccionan mediante un muestreo aleatorio simple (srs) . La entrada es un
marco de muestreo completo.
Machine Translated by Google

586 Funciones de CR utilizadas en este libro

Uso
BW3stagePPS(X, pp, psuID, ssuID)

Vector de datos
vector de probabilidades
de argumentos;
de 1longitud
extracción
es elpara
número
las PSU.
de elementos
Este vector
endebe
la población
ser tan largo
X ción.
como X y contendrá el mismo valor para las unidades que están en la
páginas misma fuente de alimentación. Las PSU deben estar en el mismo orden
que en X. psuID vector de números de identificación de PSU. Este vector
debe tener la longitud de X. Cada elemento de una PSU determinada debe
tener el mismo valor en psuID. Las PSU deben estar en el mismo orden
que en X. ssuID vector de números de identificación de SSU. Este vector debe tener la
longitud de X. Cada elemento de una SSU determinada debe tener el
mismo valor en ssuID. Las PSU y las SSU deben estar en el mismo orden
que en X. ssuID debe tener la forma psuID||(ssuID dentro de PSU).

Valor
Objeto de lista con elementos:
B Revarianza entre unidades de PSU
W Revarianza entre unidades de PSU calculada como si la muestra fuera de
dos etapas Revarianza de unidades entre los totales de SSU Revarianza de
W2 unidades entre elementos dentro de PSU/SSU delta1 Medida de homogeneidad
W3 entre elementos dentro de PSU delta2 Medida de homogeneidad entre
elementos dentro de SSU

Ejemplos

datos (MDarea.pop)
M <- length(unique(MDarea.pop$PSU)) # srs/srs/srs design
pp.PSU <- rep(1/M,M)

BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
# diseño ppswr/srs/srs
pp.PSU <- tabla(MDarea.pop$PSU) / nrow(MDarea.pop)
BW3stagePPS(X=MDarea.pop$y1, pp=pp.PSU,
psuID=MDarea.pop$PSU, ssuID=MDarea.pop$SSU)
Machine Translated by Google

C.2 Funciones R definidas por el autor 587

BW3stagePPSe: componentes de la varianza estimada para una muestra de 3 etapas

Descripción
Estimar los componentes de la revarianza para un diseño muestral donde las unidades
primarias de muestreo (PSU) se seleccionan con probabilidades proporcionales al tamaño y
con reemplazo (ppswr) y unidades de muestreo secundarias (SSU) y elementos
dentro de las UME se seleccionan mediante muestreo aleatorio simple (srs). La entrada es un
muestra.

Uso
BW3stagePPSe(dat, v, Ni, Qi, Qij, m)

Argumentos
SSU, pesos ymarco
variable(s)
de datos
de análisis.
para elementos
El marcode
demuestra
datos debe
con identificadores de PSU y

ordenarse en orden jerárquico: por PSU y SSU dentro de PSU.


Nombres requeridos para las columnas:
psuID = identificador de fuente de alimentación

ssuID = identificador de SSU. Estos deben ser únicos, es decir, la numeración


no debe reiniciarse dentro de cada PSU. Configuración de ssuID =
psuID||(ssuID dentro de PSU) es un método para hacer esto.
w1i = vector de pesos para fuentes de alimentación
w2ij = vector de pesos para SSU (peso de PSU*peso de SSU
dentro de la fuente de alimentación)

w = peso total de la muestra


v nombre o número de columna en dat con variable a analizar.
Ni m-vector del número de SSU en la población en la muestra
PSU; m es el número de PSU de muestra.
Qi m-vector de número de elementos en la población en la muestra
fuentes de alimentación

Qij vector de números de elementos en la población en la muestra


SSU
metro
número de PSU de muestra

Valor
Objeto de lista con elementos:
vpsu varianza estimada entre unidades de fuente de alimentación

Vssu varianza estimada de unidades de segunda etapa entre los totales de SSU
Vtsu varianza unitaria estimada de la tercera etapa
Machine Translated by Google

588 Funciones de CR utilizadas en este libro

B Revarianza estimada entre unidades de fuente de alimentación


W Revarianza estimada dentro de la unidad de fuente de alimentación calculada como si la
muestra fuera de dos etapas
W2 Revarianza unitaria estimada entre los totales de SSU
W3 Revarianza estimada de la unidad de tercera etapa entre los elementos dentro
PSU/SSU
delta1 medida de homogeneidad estimada entre elementos dentro de las UPM
delta2 medida de homogeneidad estimada entre elementos dentro de SSU

Ejemplos
Consulte el archivo de ayuda para BW3stagePPSe en el paquete PracTools para obtener una
ejemplo extendido.

clusterOpt2: calcule los tamaños de muestra óptimos para una muestra de dos etapas

Descripción
Calcule los tamaños de muestra que minimizan la varianza del pwr -estimator,
el estimador “p-expandido con reemplazo” desarrollado por Hansen y
Hurwitz (1943), de un total en una muestra bietápica.

Uso
clusOpt2(C1, C2, delta, unit.rv, CV0 = NULL, tot.cost =
NULO, cal.sw)

Argumentos
C1 costo unitario por unidad primaria de muestreo (PSU)
C2 costo unitario por elemento
delta medida de homogeneidad
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo

tot.cost presupuesto total para costos variables


cal.sw especificar tipo de óptimo 1 = encontrar óptimo m.opt para fijo
presupuesto total 2 = encontrar el m.opt óptimo para el objetivo CV0

Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por elemento
delta medida de homogeneidad
Machine Translated by Google

C.2 Funciones R definidas por el autor 589

unidad relvar unidad relvarianza o B2 + W2


costo presupuesto total para costos variables, C–C0
m.opt número óptimo de PSU de muestra
n.opt CV número óptimo de elementos de muestra por PSU
currículum objetivo

Ejemplos

# óptimo para un presupuesto total fijo


clusOpt2(C1=750, C2=100, delta=0.05, unidad.rv=1,
tot.cost=100000, cal.sw=1)
# óptimo para un CV objetivo
clusOpt2(C1=750, C2=100, delta=0.01, unidad.rv=1,
CV0=0.05, cal.sw=2)

clusOpt2fixedPSU: número óptimo de elementos de muestra por primario


unidad de muestreo (PSU) en una muestra de dos etapas

Descripción
Calcule el número óptimo de elementos de muestra por PSU para un conjunto fijo
de PSU.

Uso

clusOpt2fixedPSU(C1, C2, m, delta, unit.rv, CV0=NULL,


tot.cost, cal.sw)

Argumentos
C1 costo unitario por PSU
C2 costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta medida de homogeneidad
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo

tot.cost presupuesto total para costos variables


cal.sw especifica el tipo de óptimo
1 = encontrar el ¯n óptimo para el presupuesto total fijo
2 = encontrar el ¯n óptimo para el objetivo CV0
Machine Translated by Google

590 Funciones de CR utilizadas en este libro

Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por elemento
metro
número de PSU de muestra (fijas)
homogeneidad delta unidad de medida
relvariance o B2 +relvar unidad
W2 presupuesto
total para costos variables, C ÿ C0 presupuesto número
objetivo CV óptimo de elementos de muestra por PSU
norte

CV

Ejemplos

# óptimos para un vector de presupuestos


clusOpt2fixedPSU(C1=500, C2=100, m=100, delta=0.05,
unit.rv=2, CV0=NULL,
tot.cost=c(100000, 500000, 10ˆ6), cal.sw=1) # valores
óptimos para un CV objetivo y un vector de costos de
PSU clusOpt2fixedPSU(C1=c(500,1000, 5000), C2=100, m=100,

delta=0.05, unidad.rv=2, CV0=0.05, costo total=NULL, cal.sw=2)

clusterOpt3: calcule los tamaños de muestra óptimos para una muestra de tres etapas

Descripción
Calcule los tamaños de muestra que minimizan la varianza del estimador pwr de un total en una
muestra de tres etapas. El estimador “p-expandido con reemplazo” (pwr) se analiza en Hansen
y Hurwitz (1943).

Uso

clusOpt3(unit.cost, delta1, delta2, unit.rv, CV0=NULL,


tot.cost=NULL, cal.sw)

Argumentos
unit.cost vector con tres componentes para costos unitarios: C1 = costo
unitario por unidad primaria de muestreo (PSU)
C2 = costo unitario por unidades de muestreo secundarias (SSU)
C3 = costo unitario por elemento
delta1 medida de homogeneidad entre elementos dentro de las UPM medida de
homogeneidad entre elementos dentro de las SSU delta2
Machine Translated by Google

C.2 Funciones R definidas por el autor 591

unit.rv unidad relvariance o B2 + W2 objetivo CV


CV0 tot.cost presupuesto total para
costes variables cal.sw especificar tipo de óptimo 1 =
encontrar m.opt óptimo para presupuesto total fijo 2
= encontrar m.opt óptimo para CV0 objetivo

Objeto
de Lista de valores con
C1 elementos: costo
C2 unitario por PSU costo
C3 unitario por SSU costo
unitario por elemento delta1 medida de homogeneidad entre elementos
dentro de las PSU delta2 medida de homogeneidad entre elementos dentro
de las SSU unidad
para costos
unidadvariables
relvariance
m.opt
relvar
número
presupuesto
óptimo de
presupuesto
PSU de muestra
total
n.opt número óptimo de SSU de muestra por PSU q.opt número óptimo de
elementos de muestra por SSU CV

CV objetivo si cal.sw=2 o CV alcanzado si cal.sw=1

Ejemplos

# óptimos para un presupuesto total fijo


clusOpt3(unit.cost=c(500, 100, 120), delta1=0.01, delta2=0.10, unit.rv=1,
tot.cost=100000,cal.sw=1)

# óptimos para un CV objetivo


clusOpt3(unidad.coste=c(500, 100, 120), delta1=0,01, delta2=0,10, unidad.rv=1,
CV0=0,01, cal.sw=2)

clusOpt3fixedPSU: calcule el número óptimo de unidades de muestreo secundarias (SSU)


de muestra y elementos por unidad de muestreo primaria (PSU) en una muestra de tres etapas

Descripción
Calcule los tamaños de muestra que minimizan la varianza del estimador pwr de un total en
una muestra de tres etapas cuando la muestra de PSU es fija. El estimador “p expandido con
reemplazo” (pwr) se analiza en Hansen y Hurwitz (1943).
Machine Translated by Google

592 Funciones de CR utilizadas en este libro

Uso

clusOpt3fixedPSU(unit.cost, m, delta1, delta2, unit.rv,


CV0=NULL, tot.cost=NULL, cal.sw)

Argumentos
unit.cost 3-vector de costes unitarios:
C1 = costo unitario por PSU
C2 = costo unitario por SSU
C3 = costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta1 medida de homogeneidad entre elementos dentro de las UPM
delta2 medida de homogeneidad entre elementos dentro de SSU
unit.rv unidad relavarianza o B2 + W2
CV0 currículum objetivo

tot.cost presupuesto total para costos variables, incluidos los costos de PSU
cal.sw especifica el tipo de óptimo. 1 = encontrar m.opt óptimo para fijo
presupuesto total; 2 = encontrar m.opt óptimo para el objetivo CV0

Valor
Objeto de lista con elementos:
C1 costo unitario por PSU
C2 costo unitario por SSU
C3 costo unitario por elemento
metro
número de PSU de muestra (fijo)
delta1 medida de homogeneidad entre elementos dentro
fuentes de alimentación

delta2 medida de homogeneidad entre elementos dentro


SSU
unidad relvar unidad relavarianza
restricción presupuestaria de verificación de costos (tot.cost); usado si cal.sw=1
costo costo calculado; usado si cal.sw=2
norte
número óptimo de SSU de muestra por PSU
q número óptimo de elementos de muestra por SSU
CV CV alcanzado, utilizado si cal.sw=1, o CV objetivo,
usado si cal.sw=2
verificación de currículum CV calculado basado en tamaños de muestra óptimos; usó
solo si cal.sw=2

Ejemplos

# óptimos para un presupuesto total fijo


clusOpt3fixedPSU(unit.cost=c(500, 100, 120), m=100,
delta1=0.01, delta2=0.05,
unidad.rv=1, costo total=500000, cal.sw=1)
# óptimos para un CV objetivo
clusOpt3fixedPSU(unit.cost=c(500, 100, 120), m=100,
Machine Translated by Google

C.2 Funciones R definidas por el autor 593

delta1=0.01, delta2=0.05,
unidad.rv=1, CV0=0.05, cal.sw=2)

gamEst: parámetro del modelo de varianza estimado

Descripción
Realiza una regresión de Y en un conjunto de covariables X donde VM (yi) = ÿ2ÿ y luego
realiza la regresión de los residuos al cuadrado en log(x) para estimar ÿ.

Uso
juego(X1, x1, y1, v1)

Argumentos
X1 matriz de predictores en el modelo lineal para y1
x1 vector de x para unidades individuales en la especificación asumida
de var(y)
y1 vector de variables dependientes para unidades individuales
v1 vector proporcional a var(y)

Valor
La estimación de ÿ.

Ejemplos

datos (hospital)
x <- hospital$x
y <- hospital$y
X <- cbind(raíz cuadrada(x), x)
juego(X1 = X, x1 = x, y1 = y, v1 = x)

gammaFit: estimación del parámetro del modelo de varianza ÿ

Descripción
Calcula iterativamente la estimación de ÿ en un modelo con EM (yi) = xT Es ÿy
VM (yi) = ÿ2ÿ.
Machine Translated by Google

594 Funciones de CR utilizadas en este libro

Uso
gammaFit(X, x, y, maxiter = 100, show.iter = FALSE, tol
= 0,001)

Argumentos
X matriz de predictores en el modelo lineal para y
X vector de x para unidades individuales en la especificación asumida de
var(y)
y vector de variables dependientes para unidades individuales
maxiter número máximo de iteraciones permitidas
show.iter ¿deberían imprimirse valores de ÿ de cada iteración? Verdad o
FALSO
tol tamaño de la diferencia relativa en ˆÿ entre iteraciones consecutivas
utilizadas para determinar la convergencia. El algoritmo termina
cuando la diferencia relativa es menor que tol

Valor
Objeto de lista con elementos:
g.hat estimación de ÿ cuando se detuvo el procedimiento iterativo
convergencia VERDADERO o FALSO dependiendo de si la convergencia fue
obtenido
pasos número de pasos utilizados por el algoritmo

Ejemplos

datos (hospital)
x <- hospital$x
y <- hospital$y
X <- cbind(raíz cuadrada(x), x)
ajustegamma(X = X, x = x, y = y, maxiter=100, tol=0.001)

nCont: calcule un tamaño de muestra aleatorio simple para una media estimada

Descripción
Calcule un tamaño de muestra aleatorio simple usando un coeficiente objetivo de
variación, CV0, o varianza objetivo, V0, para una media estimada.

Uso

nCont(CV0=NULO, V0=NULO, S2=NULO, ybarU=NULO, N=Inf,


CVpop=NULO)
Machine Translated by Google

C.2 Funciones R definidas por el autor 595

Argumentos
CV0 valor objetivo del coeficiente de variación de ¯ys
V0 valor objetivo de la varianza de ¯ys unidad
S2 (población) varianza ybarU población
media de la variable objetivo número de unidades en
norte
una población finita
CVpop unidad (población) coeficiente de variación

Tamaño

de la muestra numérica del valor

Ejemplos

nCont(CV0=0.05, CVpop=2)
nCont(CV0=0.05, CVpop=2, N=500)
nCont(CV0=0.10/1.645, CVpop=1)

# tamaño de muestra para el estimador de razón en smho98 pop data(smho98)


# extraer certezas

cert <- smho98[,"CAMAS"] > 2000 tmp <- smho98[!


cert, ] tmp <- tmp[tmp[, "CAMAS"] > 0, ] x <-
tmp[,"CAMAS"] y <- tmp[, "EXPTOTAL"] m <- lm(y ÿ
0 + x, pesos = 1/x) ybarU <- media(y)

S2R <- sum(m$residualesˆ2/(longitud(x)-1)) nCont(CV0=0.15,


S2=S2R, ybarU=ybarU)

nDep2sam: tamaño de muestra aleatorio simple para la diferencia de medias

Descripción
Calcule un tamaño de muestra aleatorio simple para la diferencia de medias cuando las muestras
se superponen.

Uso

nDep2sam(S2x, S2y, g, r, rho, alt, del, sig.level=0.05, pow=0.80)


Machine Translated by Google

596 Funciones de CR utilizadas en este libro

Argumentos
S2x varianza unitaria de la variable de análisis x en la muestra 1
S2yg varianza unitaria de la variable de análisis y en la muestra 2
proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alt correlación a nivel de unidad entre x e y
rho si la prueba debe ser de 1 cara o de 2 caras; los valores permitidos son
alt="una.cara" o alt="dos.caras".
del tamaño de la diferencia entre las medias a detectar
sig.level nivel de significación de la prueba de hipótesis
pow potencia deseada de la prueba

Valor
Objeto de lista con elementos:
n1 tamaño de la muestra en el grupo 1
n2 tamaño de la muestra en el grupo 2
S2x.S2y varianzas unitarias en los grupos 1 y 2
diferencia en los medios de grupo para ser detectado
gama
proporción delta de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
ro correlación a nivel de unidad entre variables de análisis en grupos
1y2
alternativa
tipo de prueba: unilateral o bilateral
sig.level nivel de significancia de la prueba
energía poder de la prueba

Ejemplos

nDep2sam(S2x=200, S2y=200,
g=0,75, r=1, rho=0,9,
alt="una.cara", del=5,
sig.level=0.05, pow=0.80)

nLogOdds: calcule el tamaño de muestra aleatoria simple para estimar una proporción

Descripción
Calcule el tamaño de la muestra aleatoria simple para estimar una proporción usando
la transformación log-odds.

Uso
nLogOdds(moe.sw, e, alpha=0.05, pU, N=Inf)
Machine Translated by Google

C.2 Funciones R definidas por el autor 597

Argumentos
interruptor moe.sw para configurar el margen de error deseado (1 = medio ancho de CI en
la proporcion; 2 = CI medio ancho en una proporción dividida por
pu)
mi margen de error deseado
alfa 1 - (nivel de confianza)
pU proporción de la población
número de unidades en población finita
norte

Valor
tamaño de la muestra numérica

Ejemplos

nLogOdds(moe.sw=1, e=0.05, alpha=0.05, pU=0.2, N=Inf)


nLogOdds(moe.sw=2, e=0.05, alpha=0.05, pU=0.2, N=Inf)

nProp: calcule el tamaño de la muestra aleatoria simple (srs) para estimar una proporción
ción

Descripción
Calcule el tamaño de la muestra aleatoria simple para estimar una proporción basada
en diferentes requisitos de precisión.

Uso
nProp(CV0 = NULL, V0 = NULL, pU = NULL, N = Inf)

Argumentos
valor objetivo del coeficiente de variación del pro estimado
porción CV0
V0 valor objetivo de la varianza de la proporción estimada
PU proporción de la población
norte
número de unidades en una población finita

Valor
tamaño de la muestra numérica

Ejemplos

# tamaño de muestra srs para que CV de proporción estimada


# es 0,05 suponiendo que la población es grande y pU=0,01
# Ambos ejemplos a continuación son equivalentes.
Machine Translated by Google

598 Funciones de CR utilizadas en este libro

nProp(V0=0.0005ˆ2, N=Inf, pU=0.01) #o


nProp(CV0=0.05, N=Inf, pU=0.01)
# srswor tamaño de muestra para que la mitad del ancho de 2 lados
# IC 95% es 0.005
nProp(V0=(0.005/1.96)ˆ2, N=Inf, pU=0.01)

nProp2sam: tamaño de muestra aleatorio simple para diferencia en proporciones

Descripción
Calcule un tamaño de muestra aleatorio simple para la diferencia de proporciones cuando
las muestras se superponen.

Uso
nProp2sam(px, py, pxy, g, r, alt, sig.level=0.05, pow=
0.80)

Argumentos
px proporción en el grupo 1
py proporción en el grupo 2
pxy proporción en la superposición tiene la característica en ambos
muestras
gramo proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alternativa si la prueba debe ser de 1 cara o de 2 caras; los valores permitidos son
alt="una.cara" o alt="dos.caras".
sig.level nivel de significación de la prueba de hipótesis
pow potencia deseada de la prueba

Valor
Objeto de lista con elementos:
n1 tamaño de la muestra en el grupo 1
n2 tamaño de la muestra en el grupo 2
px.py.pxy valores de entrada de los parámetros px, py, pxy
gama proporción de la muestra 1 que se superpone con la muestra 2
r relación entre el tamaño de la muestra 1 y el de la muestra 2
alternativa
tipo de prueba: unilateral o bilateral
sig.level nivel de significancia de la prueba
energía poder de la prueba

Ejemplos

nProp2sam(px=0,5, py=0,55, pxy=0,45, g=0,5, r=1,


alt="dos.lados")
Machine Translated by Google

C.2 Funciones R definidas por el autor 599

nPropMoe: tamaño de muestra aleatoria simple (srs) para una proporción basada en el
margen de error

Descripción
Calcula un tamaño de muestra aleatorio simple basado en un margen de error especificado.

Uso
nPropMoe(moe.sw, e, alpha = 0.05, pU, N = Inf)

Argumentos
moe.sw modificador para establecer el margen de error deseado (1 = medio ancho de CI
en la proporción; 2 = medio ancho de CI en una proporción dividida por pU
margen de error deseado; ya sea e = z1ÿÿ/2 V (¯ ) ys) o e = z1ÿÿ/2 CV (¯ys)
mi
alfa 1 - (nivel de confianza) proporción de la población pU número de
unidades en una población finita N

Tamaño

de la muestra numérica del valor

Ejemplos
# tamaño de la muestra srs de modo que la mitad del ancho de un IC del 95 % sea 0,01 # la
población es grande y la proporción de la población es 0,04
nPropMoe(moe.sw=1, e=0.01, alfa=0.05, pU=0.04, N=Inf)
# tamaño de muestra de srswor para un rango de márgenes de error # definido como la
mitad del ancho de un 95\% IC nPropMoe(moe.sw=1, e=seq(0.01,0.08,0.01), alpha=0.05,
pU=0.5) # tamaño de la muestra de srswor para un rango de márgenes de error # definido como la
proporción en que la mitad del ancho de un # IC del 95% es de pU

nPropMoe(moe.sw=2, e=seq(0.05,0.1,0.2), alfa=0.05, pU=0.5)

NRFUopt: tamaños de muestra para un estudio de seguimiento de falta de respuesta

Descripción
Calcule los valores óptimos del tamaño de muestra de la primera fase y la fracción de
muestreo de la segunda fase en una muestra de dos fases.
Machine Translated by Google

600 Funciones de CR utilizadas en este libro

Uso

NRFUopt(Ctot=NULO, c1, c2, theta, CV0=NULO, CVpop=NULO,


N=Inf, tipo.sw)}

Argumentos
Ctot costo variable total
c1 costo por unidad en la fase 1
c2 costo por unidad en la fase 2
theta probabilidad de respuesta para cada unidad
CV0 coeficiente de variación objetivo para el total estimado o
significar

CVpop coeficiente de variación unitario


norte
tamaño de la poblacion; el valor predeterminado es Inf.

type.sw tipo de asignación; "coste" = coste variable total objetivo,


"cv" = coeficiente de variación objetivo

Valor
Objeto de lista con elementos:
asignación tipo de asignación: ya sea "fijo
costo" o "CV fijo"
"Costo variable total" costo total esperado: costo fijo
si type.sw="cost" o calculado
costo si type.sw="cv"
"Tasa de respuesta" tasa de respuesta de la primera fase
CV coeficiente de variación anticipado
(CV) si type.sw="cost" u target
CV si tipo.sw="cv"
v.optar fracción óptima de personas que no respondieron en
la primera fase para seleccionar para la segunda fase
hacer un seguimiento

n1.optar número óptimo de unidades para muestrear en


primera fase
"Esperado n2" número esperado de encuestados
obtenido en la segunda fase
"Casos totales esperados número esperado de encuestados
(2 fases)" en ambas fases
Tamaño de "muestra srs para el mismo cv" de una sola fase aleatoria simple
muestra (srs) necesaria para obtener la misma
CV como muestra de dos fases
"Relación de costes: dos fases relación de costo esperado para dos fases
a srs" muestra a costo de srs monofásicos

Ejemplos

# óptimos para CV objetivo fijo


NRFUopt(Ctot=NULO, c1=50, c2=200, theta=0.5, CV0=0.05,
Machine Translated by Google

C.2 Funciones R definidas por el autor 601

CVpop=1, type.sw = "cv") # optima


para costo total fijo
NRFUopt(Ctot=100000, c1=50, c2=200, theta=0.5, CV0=NULO,
CVpop=1, tipo.sw = "coste")

nWilson: calcule un tamaño de muestra aleatoria simple (srs) para estimar una proporción

Descripción
Calcular un tamaño de muestra aleatoria simple para estimar una proporción utilizando
el método de Wilson.

Uso
nWilson(moe.sw, alfa = 0.05, pU, e)

Argumentos
moe.sw interruptor para establecer el margen de error deseado (1 = CI medio
ancho en la proporción; 2 = CI medio ancho en una proporción
dividida por pU alfa 1 - (nivel de confianza) proporción de la
población pU margen de error deseado; ya sea el valor del ancho medio de CI
o el valor del ancho medio dividido por pU
mi

Tamaño

de la muestra numérica del valor

Ejemplos

# tamaño de la muestra srs utilizando el método de Wilson, de modo que el ancho medio # de un
IC del 95 % sea 0,01. La proporción de la población es 0,04 nWilson(moe.sw = 1, pU = 0,04, e =
0,01)

strAlloc: asigna una muestra a los estratos

Descripción
Calcule las asignaciones proporcionales, de Neyman, con restricciones de costos y
con restricciones de varianza en una muestra aleatoria simple estratificada.
Machine Translated by Google

602 Funciones de CR utilizadas en este libro

Uso

strAlloc(n.tot = NULL, Nh = NULL, Sh = NULL, costo = NULL,


ch = NULL, V0 = NULL, CV0 = NULL, ybarU = NULL, alloc)

Argumentos
n.tot vector de tamaño de muestra
de población
total
Nhfijo
ciones
de tamaños
(Wh) desviaciones
de estrato de
estándar
población
de unidad
(Nh) o proporciones
de estrato (Sh),
de estrato
requerido a menos que alloc = costo "prop" costo variable total
Sh

ch vector de costos por unidad en el estrato


V0 ch meta de varianza fija para la media estimada
CV0 CV objetivo fijo para la media estimada ybarU
población media de y (¯yU alloc tipo de asignación;
debe ser uno de "prop", "neyman",
"totcost", "totvar"

Vector
numérico de valor de tamaños de muestra de estrato

Ejemplos

# Asignación de Neyman Nh <- c(215, 65, 252, 50, 149, 144)


Sh <-c(26787207, 10645109, 6909676, 11085034,
9817762, 44553355)
strAlloc(n.tot = 100, Nh = Nh, Sh = Sh,
alloc = "neyman") #
asignación restringida al costo ch <- c(1400,
200, 300, 600, 450, 1000) strAlloc(Nh = Nh, Sh = Sh, cost =
100000, ch = ch, alloc = "totcost" ) # asignación con CV objetivo de 0.05

strAlloc(Nh = Nh, Sh = Sh, CV0 = 0.05, ch = ch, ybarU = 11664181, alloc =


"totvar")

wtdvar: calcular la varianza ponderada

Descripción
Calcule una estimación de la varianza de una unidad de población a partir de una muestra compleja
con ponderaciones de encuesta.

Uso
wtdvar(x,w)
Machine Translated by Google

C.2 Funciones R definidas por el autor 603

Argumentos x
vector de datos w
vector de pesos de la encuesta; debe tener la misma longitud que X

Estimación numérica del valor de la varianza de la unidad de población

Ejemplos

x <- c(1:3) wts <-


c(4, 6, 8) wtdvar(x=x,
w=wts)
Machine Translated by Google

Referencias

APOR (2011). Definiciones estándar: Disposiciones finales de códigos de casos y tasas de resultados
para encuestas, 7ª ed. tecnología rep., Asociación Estadounidense para la Investigación de la
Opinión Pública, Deerfield, IL, URL http://www.aapor.org/pdfs/standarddefs 4.pdf Abraham KG,
Maitland A., Bianchi SM (2006). Falta de respuesta en la Encuesta estadounidense sobre el uso del
tiempo: ¿Quién falta en los datos y cuánto importa?
Public Opinion Quarterly 70(5):676–703 Aitken
A., H¨orngren J., Jones N., Lewis D., Zilh˜ao MJ (2004). Manual sobre la mejora de la calidad mediante
el análisis de las variables del proceso. tecnología rep., Luxemburgo, URL http://
epp.eurostat.ec.europa.eu/portal/page/portal/quality/documents/
HANDBOOK%20ON%20IMPROVING%20QUALITY.pdf Armitage P., Berry G. (1987). Métodos
estadísticos en investigación médica, 2ª ed.
Blackwell, Oxford
Axinn WG, Link CF, Groves RM (2011). Diseño de encuestas receptivas, recopilación de datos
demográficos y modelos de comportamiento demográfico. Demografía 48(3):1127–1149 Bart J.,
Earnst S. (2002). Muestreo doble para estimar la densidad y las tendencias de la población
en pájaros El AuK 119(1):36–45
Bates D., Maechler M., Bolker B. (2012). lme4: modelos lineales de efectos mixtos usando S4
clases URL http://CRAN.R-project.org/package=lme4
Bell B., Mohadjer L., Montaquila J., Rizzo L. (1999). Creación de un marco de unidades de nueva
construcción para encuestas de hogares. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 306–310
Belén J., Cobben F., Schouten B. (2011). Manual de No Respuesta en Encuestas de Hogares. John
Wiley & Sons, Inc., Nueva Jersey Biemer P., Lyberg L. (2003). Introducción a la Calidad de la
Encuesta. John Wiley e hijos,
Inc., Nueva Jersey
Blasius J., Thiessen V. (2012). Evaluación de la calidad de los datos de la encuesta. SABIO PÚBLICO
cationes Ltd., Londres
Blom A. (2008). Medición de la falta de respuesta a nivel internacional. ISER Working Paper Series
URL http://ideas.repec.org/p/ese/iserwp/2008-41.html, no. 2008–41 Breiman L., Friedman J., Stone
C., Olshen R. (1993). Clasificación y regresión
Árboles. Chapman & Hall, Londres
Breivik H., Cherny N., Collett B., de Conno F., Filbet M., Foubert AJ, Cohen R., Dow L. (2009). Dolor
relacionado con el cáncer: una encuesta paneuropea de prevalencia, tratamiento y actitudes de los
pacientes. Anales de oncología 20 (8): 1420–1433
Brick JM, Waksberg J., Kulp D., Starer A. (1995). Sesgo en el teléfono asistido por lista
muestras Opinión Pública Trimestral 59(2):218–235

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 605


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

606 Referencias

Brown L., Cai T., Das Gupta A. (2001). Estimación de intervalos para una proporción binomial.
Ciencia Estadística 16:101–133
Oficina de Estadísticas Laborales (2006). Datos de Hogares (Tablas A, mensuales: Tablas D, trimestrales).
Empleo y Ganancias. URL http://www.bls.gov/cps/eetech métodos. pdf

Oficina de Estadísticas Laborales (2009). Comunicado de prensa económica: Índice de precios al


consumidor del IPC, junio de 2009. URL http://www.bls.gov/news.release/cpi.nr0.htm Oficina de
Estadísticas Laborales (2012). Guía del usuario de la Encuesta estadounidense sobre el uso del tiempo. URL
http://stats.bls.gov/tus/atususersguide.pdf
Canadá S. (2009). Directrices de calidad de Statistics Canada. tecnología representante, Ottawa CA
Casella G., Berger R. (2002). Inferencia estadística. Duxbury Press, Pacific Grove CA Centro para el Control
y la Prevención de Enfermedades (2005). Encuesta Nacional de Altas Hospitalarias: Resumen anual 2005
con datos detallados de diagnósticos y procedimientos. Estadísticas vitales y de salud (165), URL http://
www.cdc.gov/nchs/data/series/sr 13/sr13 165. pdf.

Centro para el Control y la Prevención de Enfermedades (2009). Encuesta Nacional de Examen de Salud
y Nutrición: URL del contenido de la encuesta de 1999–2010 www.cdc.gov/nchs/data/ nhanes/survey
content 99 10.pdf
Chromy JR (1979). Métodos de selección secuencial de muestras. En: Actas de la Sección de Métodos de
Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 401–406 Chromy JR,
Myers LE (2001). Modelos de varianza aplicables a la NHSDA. En: Actas de la Sección de Métodos de
Investigación de Encuestas, Asociación Estadounidense de Estadística

Cochran W. (1968). La eficacia del ajuste por subclasificación para eliminar el sesgo en los estudios
observacionales. Biometría 24:295–313
Cochran W. (1977). Técnicas de muestreo. John Wiley & Sons, Inc., Nueva York Cohen J. (1988).
El análisis del poder estadístico para las ciencias de la conducta. Lorenzo
Erlbaum Associates, Nueva Jersey
Cook RD, Weisberg S. (1982). Residuos e influencia en la regresión. Chapman & Hall Ltd, Consejo de
Londres de la Unión Europea (1998). Reglamento del Consejo (ec) no. 577/98 sobre la organización de
una encuesta de fuerza de trabajo en la comunidad. Diario Oficial de las Comunidades Europeas Consejo
de la Unión Europea (2003). Reglamento del Consejo (ec) no. 1177/2003 sobre estadísticas comunitarias
sobre ingresos y condiciones de vida. Diario Oficial de las Comunidades Europeas Crawley M. (2007).
El libro R. John Wiley & Sons, Chichester Reino Unido Czajka J., Hirabayashi S., Little RJA, Rubin DB
(1992). Proyectar a partir de datos avanzados utilizando modelos de propiedad: una aplicación a las
estadísticas de ingresos e impuestos. Revista de Estadísticas Comerciales y Económicas 10:117–131
D'Agostino RB (1998). Métodos de puntaje de propensión para la reducción del sesgo para la comparación
de un tratamiento con un grupo de control no aleatorio. Estadísticas en Medicina 17:2265–2281

Dantzig GB (1963). Programación Lineal y Extensiones. Prensa de la Universidad de Princeton, Princeton


NJ
Deak MA, Helba C., Lee K., Rockwell D., Perry S., Simmons RO, D'Amato-Neff AL, Ferro G., Lappin BM
(2002). Tabulaciones de las respuestas de la Encuesta del personal del componente de reserva de
2000: Centro de datos de mano de obra de defensa Volumen 2 Planes militares, entrenamiento militar y
unidad militar. URL http://www.dtic.mil/cgi-bin/GetTRDoc?AD=ADA415264&Location=U2&doc=GetTRDoc.pdf
_ Centro de datos de mano de obra de defensa (2004). Mayo de 2004 Encuesta sobre el estado de las
fuerzas de los miembros del componente de la Reserva: administración, conjuntos de datos y libro de
códigos. tecnología Reps. No.
2004–013, Centro de datos de mano de obra de defensa, Arlington, VA
Machine Translated by Google

Referencias 607

DeMeyer A., Loch CH, Pick MT (2002). Gestión de la incertidumbre del proyecto: de la variación al caos.
MIT Sloan Management Review 30: 60–67
Deming WE (1982). Fuera de la Crisis. Prensa de la Universidad de Cambridge, Cambridge Dever
JA, Valliant R. (2010). Una comparación de estimadores de varianza para poststratifi
cación a los totales de control estimados. Metodología de la encuesta 36:45–56
Deville JC, S¨arndal C. (1992). Estimadores de calibración en el muestreo de encuestas. Diario
de la Asociación Estadounidense de Estadística 87(418):376–382
Dillman DA, Smyth JD, Christian LM (2009). Encuestas por Internet, correo y modo mixto: el método de
diseño personalizado. John Wiley & Sons, Inc., Hoboken, NJ Dippo CS, Fay RE, Morganstein DR
(1984). Cálculo de varianzas de muestras complejas con pesos repetidos. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 489–494
Durrant GB, Steele F. (2009). Modelado multinivel de rechazo y no contacto en encuestas de hogares:
Evidencia de seis encuestas del gobierno del Reino Unido. Revista de la Royal Statistical Society, Serie
A 172 (2): 361–381

Eckman S. (2010). Errores en el Listado de Unidades de Vivienda y sus Efectos en las Estimaciones de
la Encuesta. Universidad de Maryland, College Park MD, URL http://drum.lib.umd.edu// handle/
1903/10302 Eckman S., Kreuter F. (2011). Sesgo de confirmación en la cotización de viviendas.
Opinión Pública
ión trimestral 75 (1): 139–150
Eckman S., O'Muircheartaigh C. (2011). Rendimiento del intervalo semiabierto perdido
procedimiento de unidad de vivienda. Métodos de investigación de encuestas 5(3):125–131
Efron B. (1982). El Jackknife, el Bootstrap y otros planes de remuestreo. SIAM
[Sociedad de Matemáticas Industriales y Aplicadas], Filadelfia
Efron B., Tibshirani R. (1998). Una introducción al Bootstrap. Prensa CRC LLC,
Boca Ratón FL
Ezzati-Rice T., Rohde F., Greenblatt J. (2008). Diseño de la muestra del componente de hogares de la
encuesta de panel de gastos médicos, 1998–2007. tecnología Reps. Informe Metodológico No. 22,
Agencia para la Investigación y la Calidad de la Atención Médica Fay RE (1984). Algunas propiedades
de las estimaciones de la varianza basadas en el método de replicación ods. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 495–500
Folsom RE, Singh AC (2000). El modelo exponencial generalizado para la calibración del peso del
muestreo para valores extremos, falta de respuesta y posestratificación. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 598–603

Folsom RE, Potter FJ, Williams SR (1987). Notas sobre una medida de tamaño compuesto para
muestras autoponderadas en múltiples dominios. En: Actas de la Sección de Métodos de Investigación
de Encuestas, Asociación Estadounidense de Estadística, págs. 792–796
Francisco C., Fuller WA (1991). Estimación de cuantiles con un diseño de encuesta complejo.
Anales de estadísticas 19: 454–469
Freund R. (1994). Profesor George Dantzig: el fundador de la programación lineal cumple 80 años.
Noticias SIAM
Fuller WA (1998). Estimación de la varianza de replicación para muestras de dos fases. Statistica Sínica
8: 1153–1164
Gabler S., Haeder S., Lahiri P. (1999). Una justificación basada en modelos de la fórmula de Kish para
efectos de diseño para ponderación y agrupación. Metodología de la encuesta 25(1):105–106
Gambino JG (2005). pps: Funciones para muestreo PPS. URL http://CRAN.
R-project.org/paquete=pps
Gelman A., Carlin J., Stern H., Rubin DB (1995). Análisis de los datos. Chapman &
Hall/CRC., Boca Ratón FL
Vicepresidente de Godambe, Joshi VM (1965). Admisibilidad y estimación de Bayes en el muestreo de
poblaciones finitas - I. Annals of Mathematical Statistics 36: 1707–1723
Machine Translated by Google

608 Referencias

Groves RM (1989). Errores de encuesta y costos de encuesta. John Wiley & Sons, Inc., Nueva
york
Arboledas RM (2006). Tasas de falta de respuesta y sesgo de falta de respuesta en las encuestas de hogares.
Public Opinion Quarterly 70(5):646–675 Groves RM,
Heeringa SG (2006). Diseño receptivo para encuestas de hogares: herramientas para controlar activamente
los errores y costos de las encuestas. Revista de la Royal Statistical Society, Serie A: Estadísticas en la
sociedad 169(3):439–457 Groves RM, Peytcheva E. (2008). El impacto de las tasas de falta de respuesta
en la falta de respuesta
parcialidad. Opinión pública trimestral 72: 167–189
Groves RM, Fowler F., Couper M., Lepkowski J., Singer E., Tourangeau R. (2004).
Metodología de la Encuesta. John Wiley & Sons, Inc., Nueva York
Hansen MH, Hurwitz WH (1943). Sobre la teoría del muestreo de poblaciones finitas. Annals of Mathematical
Statistics 41:517–529 Hansen MH, Tepping BJ (1990). Estimaciones de regresión en programas federales
de control de calidad del bienestar (C/R: P864-873). Revista de la Asociación Estadounidense de Estadística
85: 856–864

Hansen MH, Hurwitz WH, Madow WG (1953a). Sample Survey Methods and Theory, volumen I. John Wiley &
Sons, Inc., Nueva York Hansen MH, Hurwitz WH, Madow WG (1953b). Métodos de encuesta de muestra y

Teoría, Volumen II. John Wiley & Sons, Inc., Nueva York
Hansen MH, Madow WG, Tepping BJ (1983). Una evaluación de las inferencias de muestreo probabilísticas y
dependientes del modelo en encuestas por muestreo. Revista de la Asociación Estadounidense de
Estadística 78: 776–793
Harder V., Stuart E., Anthony J. (2010). Técnicas de puntaje de propensión y la evaluación del balance de
covariables medido para probar asociaciones causales en la investigación psicológica. Métodos psicológicos
15(3):234–249
Hartley HO, Rao JNK (1962). Muestreo con probabilidades desiguales y con reemplazo. Annals of Mathematical
Statistics 33(2):350–374 Hedges LV, Olkin I. (1985). Métodos estadísticos para metanálisis. prensa
academica,
orlando
Heiberger RM, Neuwirth E. (2009) R a través de Excel: una interfaz de hoja de cálculo para estadísticas,
análisis de datos y gráficos. Springer, Nueva York Henry KA (2011). Métodos de ajuste de peso y su
impacto en la inferencia basada en muestras. Tesis de doctorado, College Park MD, URL http://drum.lib.umd.edu/
handle/ 1903/12278

Henry KA, Valliant R. (2009). Comparación de estrategias de muestreo y estimación en poblaciones de


establecimientos. Métodos de investigación de encuestas 3:27–44 Henry KA, Testa VL, Valliant R. (2008).
Estimación de varianza para un estimador de cambio entre años en los totales de dos muestras de Bernoulli
estratificadas. En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación
Estadounidense de Estadística, págs. 1108–1115

Herzog TN, Scheuren FJ, Winkler WE (2007). Calidad de datos y vinculación de registros.
Springer, Nueva York
Hidiroglou, MA (2001). Muestreo doble. Survey Methodology, 27, 143–154 Højsgaard S., Halekoh U.
(2012). doBy: doBy: estadísticas de resumen por grupos, contrastes lineales generales, medias de población
(medias de mínimos cuadrados) y otras utilidades. URL http://CRAN.R-project.org/package=doBy,
(contribuciones de J. Robison-Cox, K. Wright, A. A. Leidi)

Hunter SR, Bowman KR, Chromy JR (2005). Resultados del análisis de componentes de la varianza de la
asignación de la muestra por edad en la Encuesta Nacional sobre Consumo de Drogas y Salud.
En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de
Estadística, págs. 3132–3136 Iannacchione VG (2011). Síntesis de la investigación: El papel cambiante
del muestreo basado en direcciones en las encuestas. Opinión pública trimestral 75 (3): 556–576
Machine Translated by Google

Referencias 609

Iannacchione VG, Staab JM, Redden DT (2003). Evaluación del uso de listas de correo
residenciales en una encuesta de hogares metropolitanos. Opinión Pública Trimestral 67(2):202–
210
Iannacchione VG, Dever JA, Bann CM, Considine KA, Creel D., Carson CP, Best HL, Haley RW
(2011). Validación de una definición de caso de investigación de la enfermedad de la Guerra
del Golfo en la población militar estadounidense de 1991. Neuroepidemiología 37(2):129–140
Ingels SJ, Pratt DJ, Herget D., Dever JA, Ottem R., Rogers J., Jin Y., Leinwand S. (2011).
Documentación del archivo de datos del año base del estudio longitudinal de la escuela
secundaria de 2009 (HSLS:09) (NCES 2011-328). tecnología rep., Centro Nacional de
Estadísticas Educativas, Instituto de Ciencias de la Educación, Departamento de Educación de
EE. UU., Washington DC
Servicio de Impuestos Internos (2004). Boletín de Rentas Internas: 2004–20, Gastos de Comidas
y Entretenimiento. URL http://www.irs.gov/irb/2007-23 IRB/ar10.html Servicio de Impuestos
Internos (2007). Guía de Técnicas de Auditoría de Segregación de Costos. URL http://www.irs.gov/
Businesses/Cost-Segregation-Audit-Techn iques-Guide---Table-of-Contents

Organización Internacional de Normalización (1985). Procesamiento de información: símbolos y


convenciones de documentación para diagramas de flujo de datos, programas y sistemas,
diagramas de red de programas y diagramas de recursos del sistema. tecnología rep., Ginebra,
Suiza, URL http://www.iso.org/iso/iso catalog/catalogue tc/catalogue detail.htm?csnumber=11955

Isaki CT, Fuller WA (1982). Diseño de encuestas bajo el modelo de superpoblación de regresión.
Revista de la Asociación Estadounidense de Estadística 77(377):89–96 Isaki CT, Tsay JH,
Fuller WA (2004). Datos de la muestra de ponderación sujetos a independientes
controles de abolladuras. Metodología de la encuesta 30(1):35–44
Jans M., Sirkis R., Morgan D. (2013). Gestión de indicadores de calidad de datos con herramientas
estadísticas de control de calidad basadas en paradatos. En: Kreuter F. (ed) Mejorando las
encuestas con Paradata: haciendo uso de la información del proceso, John Wiley & Sons, Inc.,
New York Jovanovic BD, Levy PS (1997). Una mirada a la regla de tres. Las estadísticas americanas
Ticiano 51:137–139
Judkins D. (1990). Método de estimación de la varianza de Fay. Diario de Estadísticas Oficiales
6:223–239
Judkins D., Van de Kerckhove W. (2003). Optimización RECS 2005. preparado para nosotros
Departamento de Energía, no. 16.3, Tarea 98-010, número de contrato: De-ac01-96e123968.
tecnología representante, Westat, Rockville MD
Judkins D., Hao H., Barrett B., Adhikari P. (2005). Modelado y pulido de la propensión a la falta de
respuesta. En: Proceedings of the Survey Research Methods Section, American Statistical
Association, pp 3159–3166
Kalton G. (1993). Muestreo de poblaciones raras y escurridizas. tecnología Reps. INT-92-P80-16E,
Departamento de Información Económica y Social y Análisis de Políticas, Naciones Unidas

Kalton G., Anderson D. (1986). Muestreo de poblaciones raras. Diario de la Real


Sociedad Estadística A 149:65–82
Kalton G., Maligalig DS (1991). Una comparación de métodos de ajuste de ponderación por falta
de respuesta. Actas de la Conferencia Anual de Investigación de la Oficina del Censo de EE.
UU., págs. 409–428
Kang JDY, Schafer JL (2007). Desmitificando la doble robustez: una comparación de estrategias
alternativas para estimar una media poblacional a partir de datos incompletos.
Ciencia estadística 22 (4): 523–539
Kass GV (1980). Una técnica exploratoria para investigar grandes cantidades de gato
datos egóricos. Estadística aplicada 29(2):119–127
Kim JJ, Li J., Valliant R. (2007). Colapso celular en postestratificación. Metodología de la encuesta
33(2):139–150
Machine Translated by Google

610 Referencias

Kim JK, Yu CL (2011). Estimación de la varianza de la replicación bajo muestreo en dos fases.
Metodología de la encuesta 37(1):67–74
Kim JK, Navarro A., Fuller WA (2006). Estimación de la varianza de la replicación para un muestreo
estratificado en dos fases. Revista de la Asociación Estadounidense de Estadística 101(473):312–320
Kirgis N., Lepkowski J. (2010). Un modelo de gestión para la recolección continua de datos: Reflexiones
de la Encuesta Nacional de Crecimiento Familiar, 2006-2010. Documento NSFG n.° 10–011 URL http://
www.psc.isr.umich.edu/pubs/pdf/ng10-011.pdf

Kish L. (1965). Muestreo de encuestas. John Wiley & Sons, Inc., Nueva York Kish L.
(1987a). Diseño Estadístico para la Investigación. John Wiley & Sons, Inc., Nueva York Kish L. (1987b).
Ponderación en destreza. El estadístico de encuestas Kish L. (1992). Ponderación para pi desigual. Revista
de Estadísticas Oficiales 8(2):183–200 Kohler U. (2007). Encuestas desde adentro: una evaluación del
sesgo de falta de respuesta de la unidad con criterios internos. Métodos de investigación de encuestas
1(2):55–67 Kohler U., Kreuter F. (2012). Análisis de datos usando Stata, 3ra ed. StataPress, Universidad

Estación TX
Korn EL (1986). Tablas de tamaño de muestra para acotar proporciones pequeñas. Biometría
42:213–216
Korn EL., Graubard BI (1998). Intervalos de confianza para proporciones con un pequeño número esperado
de recuentos positivos estimados a partir de datos de encuestas. Metodología de la encuesta 24:193–201

Korn EL, Graubard BI (1999). Análisis de Encuestas de Salud. John Wiley e hijos,
Nueva York
Korn EL, Graubard BI (2003). Estimación de los componentes de la varianza mediante el uso de datos de
encuestas. Revista de la Royal Statistical Society, Serie B: Metodología estadística 65(1):175–190

Kostanich D., Dippo CS (2002). Encuesta de Población Actual: Diseño y metodología (documento técnico
63RV). tecnología rep., Oficina del Censo y Oficina de Estadísticas Laborales, Washington, DC

Kott PS (1988). Corrección de población finita basada en modelos para Horvitz-Thompson


estimador. Biometrika 75:797–799
Kott PS (1999). Algunos problemas y soluciones con un jackknife de eliminación de un grupo. En: Comité
Federal de Conferencia de Investigación de Metodología Estadística, Vol. 4, EE. UU.
Oficina del Censo, págs. 129–135 Kott PS
(2001). La navaja de eliminar un grupo. Diario de Estadísticas Oficiales
17(4):521–526
Kott PS (2006). Uso de la ponderación de calibración para ajustar la falta de respuesta y la cobertura
errores Metodología de la encuesta 32(2):133–142
Kott PS (2009). Ponderación de calibración: combinación de muestras de probabilidad y modelos de
predicción lineal. En: Handbook of Statistics, volumen 29B, Sample Surveys: Inference and Analysis,
Elsevier, Amsterdam Kott PS, Liu Y. (2009). Intervalos de cobertura unilateral para una proporción
estimada a partir de una muestra aleatoria simple estratificada. International Statistical Review 77:251–265
Kott PS, Stukel DM (1997). ¿Se puede usar el jackknife con una muestra de dos fases?

Metodología de la encuesta 23:81–89


Kreuter F. (2002) Kriminalit¨atsfurcht: Messung und methodische Probleme. Leske y Budrich, Berlín Kreuter
F., Olson K. (2011). Múltiples variables auxiliares en el ajuste por falta de respuesta.

Métodos e investigación sociológicos 40: 311–332


Kreuter F., Couper M., Lyberg L. (2010). El uso de paradatos para monitorear y administrar la recopilación
de datos de encuestas. En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación
Estadounidense de Estadística, págs. 282–296
Machine Translated by Google

Referencias 611

Krewski D., Rao JNK (1981). Inferencia a partir de muestras estratificadas: propiedades de los métodos de
linealización, jackknife y replicación repetida equilibrada. Annals of Statistics 9:1010–1019 Lange K. (2004).
Mejoramiento. Springer, Nueva York Lee H., Kim JK (2002). Estimación de la varianza de Jackknife para
muestras de dos fases con fracciones de muestreo altas. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 2024–2028

Lehtonen R., Veijanen A. (1998). Estimadores de regresión generalizada logística. Encuesta


Metodología 24:51–55
Lemeshow S., Hosmer D., Klar J., Lwanga S. (1990). Adecuación del tamaño de la muestra en estudios de salud.
John Wiley & Sons, Inc., Chichester Lepkowski J., Axinn WG, Kirgis N., West BT, Ndiaye SK, Mosher W., Groves
RM (2010). Uso de paradatos en un marco de diseño receptivo para gestionar una recopilación de datos de campo.
NSFG Survey Methodology Working Papers (10-012), URL http://www.psc.isr.umich.edu/pubs/pdf/ng10-012.pdf

Li J., Valliant R. (2009). Encuesta de matriz de sombreros ponderados y apalancamientos. Método de encuesta
ología 35:15–24
Li J., Valliant R. (2011). Diagnóstico de regresión lineal para datos de encuestas no agrupadas.
Revista de Estadísticas Oficiales 27:99–119 Liao D.,
Valliant R. (2012a). Índices de condición y descomposiciones de varianza para diagnosticar la colinealidad en el
análisis de modelos lineales de datos topográficos. Metodología de la encuesta 38:53–62

Liao D., Valliant R. (2012b). Factores de inflación de la varianza en el análisis de complejos


datos de la Encuesta. Metodología de la encuesta 38:189–202
Link MW, Battaglia MP, Frankel MR, Osborn L., Mokdad AH (2008). Una comparación de muestreo basado en
direcciones (ABS) versus marcación aleatoria de dígitos (RDD) para encuestas de población general. Opinión
pública trimestral 72(1):6–27
Pequeño RJA (1986). Ajustes de la falta de respuesta de la encuesta para las estimaciones de las medias. Enterrar
Revisión estadística nacional 54(2):139–157
Pequeño RJA, Rubin DB (2002). Análisis estadístico con datos perdidos. John Wiley & Sons, Inc., New Jersey Little
RJA, Vartivarian S. (2003). Sobre la ponderación de las tasas en pesos de no respuesta.

Estadísticas en Medicina 22:1589–1599 Little


RJA, Vartivarian S. (2005). ¿Ponderar la falta de respuesta aumenta la
varianza de las medias de la encuesta? Metodología de la encuesta 31:161–168
Liu J., Aragón E. (2000). Estrategias de submuestreo en encuestas longitudinales. En: Actas de la Sección de
Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística, págs. 307–312

Liu J., Iannacchione VG, Byron M. (2002). Descomposición de los efectos del diseño para el muestreo estratificado.
En: Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de Estadística,
págs. 2124–2126 Lohr SL (1999). Muestreo: Diseño y Análisis. Prensa de Duxbury, Pacific Grove CA Long JS
(2009). El flujo de trabajo del análisis de datos usando Stata. StataPress, Universidad

Estación TX
Lu W., Brick JM, Sitter R. (2006). Algoritmos para la construcción de jackknife agrupados en estratos combinados y
replicaciones repetidas balanceadas con dominios. Revista de la Asociación Estadounidense de Estadística 101:
1680–1692
Lumley T. (2010). Encuestas Complejas. John Wiley & Sons, Inc., Nueva York Lumley T. (2012).
encuesta: análisis de muestras de encuestas complejas. URL http://CRAN.
R-project.org/package=encuesta
Lyberg L., Biemer P., Collins M., de Leeuw E., Dippo CS, Schwarz N., Trewin D.
(1997). Encuesta de Medición y Calidad de Procesos. John Wiley & Sons, Inc., Nueva York
Machine Translated by Google

612 Referencias

Madsen K., Nielsen HB, Tingleff O. (2004). Optimización con restricciones. tecnología rep., Universidad
Técnica de Dinamarca, URL http://www2.imm.dtu.dk/pubdb/views/edoc download.php/4213/pdf/
imm4213.pdf , 2ª ed. Manitz J. (2012). Samplingbook: Procedimientos de muestreo de encuestas.
URL http://CRAN.
R-project.org/package=libro de muestras, (contribuciones de M. Hempelmann, G.
Kauermann, H. Kuechenhoff, S. Shao, C. Oberhauser, N. Westerheide, M. Wiesen farth)

Matsuo H., Billiet J., Loosveldt G., Berglund F., Kleven Ø. (2010). Medición y ajuste del sesgo de falta
de respuesta basado en encuestas de falta de respuesta: el caso de Bélgica y Noruega en la Ronda
3 de la Encuesta Social Europea. Survey Research Methods 4:165–178 McCarthy PJ (1969).
Pseudo-replicación: Medias muestras. Revista de la Internacional

Instituto de Estadística 37: 239–264


Michie D. (1989). Problemas de formación de conceptos asistidos por computadora. En Aplicaciones de
Sistemas expertos 2. Turing Institute Press/Addison-Wesley
Montaquila J., Bell B., Mohadjer L., Rizzo L. (1999). Una metodología para el muestreo de hogares a
finales de una década. En: Actas de la Sección de Métodos de Investigación de Encuestas,
Asociación Estadounidense de Estadística, págs. 311–315
Morgan JN, Sonquist JA (1963). Problemas en el análisis de los datos de la encuesta y una propuesta.
Revista de la Asociación Estadounidense de Estadística 58:415–434 Morganstein DR, Marker DA
(1997). Mejora continua de la calidad en los organismos de estadística. En: Lyberg L., Biemer P.,
Collins M., De Leeuw ED, Dippo CS, Schwarz N., Trewin D. (eds) Survey Measurement and Process
Quality, John Wiley & Sons, Inc., Nueva York

Morton K., Chromy JR, Hunter SR, Martin P. (2006). Informe de diseño de muestra de la Encuesta
Nacional sobre Consumo de Drogas y Salud 2005. tecnología Reps. Preparado bajo el contrato no.
283-2004-00022 por Research Triangle Institute, Administración de Servicios de Salud Mental y
Abuso de Sustancias.
Muller G. (2011). Seguimiento del trabajo de campo en pase. tecnología rep., Institut f¨ur Arbeitsmarkt
und Berufsforschung, URL http://www.iab.de/de/veranstaltungen/ konferenzen-und-workshops-2011/
paradata.aspx
Centro Nacional de Estadísticas Educativas (2008). Procedimientos de ponderación de NAEP:
procedimientos de ponderación de 2003 y estimación de varianza. tecnología rep., Centro Nacional
de Estadísticas Educativas, URL http://nces.ed.gov/nationsreportcard/tdw/weighting/2002 2003/
weighting 2003 studtrim.asp Newcombe RG (1998). Intervalos de confianza bilaterales para la
proporción única: Com
parison de siete métodos. Estadísticas en Medicina 17(8):857–872
Neyman J. (1938). Contribución a la teoría del muestreo de poblaciones humanas. Revista de la
Asociación Estadounidense de Estadística 33(201):101–116 Olson K., Peytchev A. (2007). Efecto
de la experiencia del entrevistador sobre el ritmo de la entrevista y las actitudes del entrevistador.
Public Opinion Quarterly 71:273–286 O'Muircheartaigh C., Campanelli P. (1998). El impacto relativo
de los efectos del entrevistador y los efectos del diseño de la muestra en la precisión de la encuesta.
Revista de la Royal Statistical Society, Serie A 161 (1): 63–77

O'Muircheartaigh C., Campanelli P. (1999). Una exploración multinivel del papel de los entrevistadores
en la falta de respuesta a la encuesta. Revista de la Royal Statistical Society, Serie A 162(3):437–
446 Pfeffermann D., Skinner CJ, Holmes DJ, Goldstein H., Rasbash J. (1998). Ponderación de
probabilidades de selección desiguales en modelos multinivel. Revista de la Royal Statistical Society
Serie B-Metodología estadística 60 (Parte 1): 23–40 Pinheiro JC, Bates DM (2000). Modelos de
efectos mixtos en S y S-PLUS. Saltador,

Nueva York
Machine Translated by Google

Referencias 613

Porter EH, Winkler WE (1997). Comparación aproximada de cadenas y su efecto en un sistema


avanzado de vinculación de registros. En: Alvey W., Jamerson B. (eds) Record Linkage – 1997:
Actas de un Taller y Exposición Internacional, Oficina de Administración y Presupuesto de EE.
UU., págs. 190–199 Potter FJ (1990). Un estudio de procedimientos para identificar y recortar
pesos de muestreo extremos. En: Actas de la Sección de Métodos de Investigación de Encuestas,
Asociación Estadounidense de Estadística, págs. 225–230

Potter FJ (1993). El efecto del recorte de peso en las estimaciones de encuestas no lineales. En:
Actas de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de
Estadística, págs. 758–763 Potter FJ, Iannacchione VG, Mosher W., Mason R., Kavee JA
(1998). Diseño muestral, pesos muestrales, imputación y estimación de varianza en la Encuesta
Nacional de Crecimiento Familiar 1995. Estadísticas Vitales y de Salud, Centro Nacional de
Estadísticas de Salud 124(2)

Powell SG, Baker KR (2003). El arte de modelar con hojas de cálculo: ciencia administrativa,
ingeniería de hojas de cálculo y artesanía de modelado. John Wiley & Sons, Inc., Nueva York

Equipo central R (2012). R: un lenguaje y entorno para la computación estadística. R Foundation


for Statistical Computing, Viena, Austria, URL http://www.
R-proyecto.org/
R Core Team y colaboradores en todo el mundo (2012a). foráneo: Leer datos almacenados por
Minitab, S, SAS, SPSS, Stata, Systat, dBase,. URL http://CRAN.R-project.org/paquete=extranjero
_
R Core Team y colaboradores en todo el mundo (2012b). gráficos: funciones R para gráficos base.
URL http://finzi.psych.upenn.edu/R/library/graphics/html/ 00Index.html

R Core Team y colaboradores en todo el mundo (2012c). stats: funciones estadísticas de R. URL
http://finzi.psych.upenn.edu/R/library/stats/html/00Index.html
Rao JNK (1973). Sobre doble muestreo para estratificación y encuestas analíticas (Corr: V60
p669). Biometrika 60:125–133 Rao JNK, Shao J. (1999). Replicación repetida balanceada
modificada para datos de levantamientos complejos. Biometrika 86(2):403–415 Rao JNK, Wu CFJ
(1985). Inferencia a partir de muestras estratificadas: análisis de segundo orden de tres métodos
para estadísticas no lineales. Revista de la Asociación Estadounidense de Estadística 80: 620–630

Rao JNK, Wu CFJ (1988). Inferencia de remuestreo con datos de encuestas complejas. Día
nal de la Asociación Estadounidense de Estadística 83:231–241
Rizzo L., Kalton G., Brick JM (1996). Una comparación de algunos ajustes de ponderación para la
falta de respuesta del panel. Survey Methodology 22:43–53 Rosenbaum P., Rubin DB (1983).
El papel central del puntaje de propensión en obser
estudios tradicionales para efectos causales. Biometrika 70: 41–55
Royall RM (1976). Avances actuales en la teoría del muestreo: Implicaciones para los estudios
observacionales humanos. American Journal of Epidemiology 104:463–473 Royall RM (1986).
El efecto del tamaño de la muestra sobre el significado de las pruebas de significación.
El estadístico estadounidense 40: 313–315
RTI Internacional (2012). Manual de idioma SUDAAN, versión 11.0. Trian de investigación
gle parque NC
Rubin DB (1987). Multiples imputaciones por la falta de respuesta en las encuestas. John Wiley y
Hijos, Nueva York
Rust KF (1984). Técnicas de estimación de varianzas para encuestas por muestreo. Tesis de
doctorado, Universidad de Michigan, Ann Arbor MI, Rust KF inédito (1985). Estimación de la
varianza para estimadores complejos en encuestas por muestreo.
Revista de estadísticas oficiales 1: 381–397
Machine Translated by Google

614 Referencias

Saigo H., Shao J., Sitter R. (2001). Un bootstrap repetido de media muestra y réplicas repetidas balanceadas para
datos imputados aleatoriamente. Metodología de la encuesta 27(2): 189–196

S¨arndal C. (2007). El enfoque de calibración en la teoría y la práctica de las encuestas. Survey Methodology
33(2):99–119 S¨arndal C., Lundstr¨om S. (2005). Estimación en Encuestas con No respuesta. John

Wiley & Sons, Inc., Inglaterra


S¨arndal C., Lundstr¨om S. (2008). Evaluación de vectores auxiliares para el control del sesgo de falta de respuesta
en el estimador de calibración. Journal of Official Statistics 24:167–191 S¨arndal C., Swensson B., Wretman J.
(1992). Muestreo de encuesta asistido por modelo.
Springer, Nueva York
Schlesselman J. (1982). Estudios de casos y controles: diseño, realización y análisis. oxford
Prensa universitaria, Nueva York
Schnell R., Kreuter F. (2005). Separación de los efectos del entrevistador y del punto de muestreo. Journal of
Official Statistics 21(3):389–410 Schnell R., Bachteler T., Bender S. (2004). Una caja de herramientas para la
vinculación de registros. Austrian Journal of Statistics 33(1–2):125–133 Schouten B., Cobben F. (2007). Índices R
para la comparación de diferentes estrategias de trabajo de campo y modos de recolección de datos. tecnología
Reps. Documento de debate 07002, Voorburg, Países Bajos, URL http://www.risq-project.eu/papers/ schouten-
cobben-2007-a.pdf

Schouten B., Cobben F., Belén J. (2009). Indicadores de la representatividad de la respuesta a la encuesta. Survey
Methodology 35(1):101–113 Searle S., Casella G., McCulloch C. (1992). Componentes de la varianza. John
Wiley y
Hijos, Nueva York
Shao J., niñera R. (1996). Bootstrap para datos de encuestas imputados. Revista de la Asociación Estadounidense
de Estadística 91: 1278–1288 Shewhart WA (1931). Control Económico de la Calidad del Producto Fabricado.
Van Nostrand Reinhold Co., Princeton, NJ, republicado en 1981 por la Sociedad Estadounidense de Control de
Calidad, Milwaukee, WI Singh AC, Dever JA, Iannacchione VG (2004). Tasas de respuesta compuestas para
encuestas con seguimiento de falta de respuesta. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 4343–4350

Singh AC, Dever JA, Iannacchione VG, Chen S. (2005). Estimación eficiente de las tasas de respuesta cuando se
selecciona una pequeña submuestra de personas que no respondieron para la conversión de seguimiento. En:
Conferencia del Comité Federal de Metodología Estadística (FCSM), Arlington, VA, URL http://www.fcsm.gov/
05papers/Singh Iannacchione etal VIIB.pdf

Niñera R. (1992). Comparación de tres métodos de arranque para datos de encuestas. The Canadian Journal of
Statistics / La Revue Canadienne de Statistique 20:135–154 Smith PJ, Hoaglin DC, Battaglia MP, Khare M.,
Barker LE (2005). Metodología estadística de la Encuesta Nacional de Inmunizaciones, 1994–2002. Estadísticas
Vitales y de Salud, Centro Nacional de Estadísticas de Salud 2(138)

Smith TMF (1976). Los fundamentos del muestreo de encuestas: una revisión. Revista de la Sociedad Real de
Estadística A 139: 183–204 Smith TMF (1984). Posición actual y desarrollos potenciales: Algunas opiniones
personales, encuestas de muestra. Revista de la Royal Statistical Society A 147:208–221 Smith TMF (1994).
Encuestas por muestreo 1975–1990; una era de reconciliación? interna

Revisión estadística nacional 62:5–34


Spencer BD (2000). Un efecto de diseño aproximado para la ponderación desigual cuando las mediciones pueden
correlacionarse con las probabilidades de selección. Metodología de la encuesta 26(2):137–138

Estuardo E. (2010). Métodos de emparejamiento para la inferencia causal: una revisión y una mirada hacia el futuro.
Ciencias Estadísticas 25(1):1–21
Machine Translated by Google

Referencias 615

Stukel DM, S¨arndal C., Hidiroglou MA (1996). Estimación de varianza para estimadores de calibración:
una comparación de jackknifing versus linealización de Taylor. Survey Methodology 22(2):117–125
Thayer WC, Diamond GL (2002). Concentraciones de plomo en la sangre de mujeres adultas de
EE. UU.: estadísticas resumidas de las fases 1 y 2 de la Encuesta Nacional de Evaluación de la Salud
y la Nutrición (NHANES III). URL http://www.epa.gov/superfund/lead/products/nhanes.pdf _

Therneau T. (2012). Supervivencia: análisis de supervivencia, incluida la probabilidad penalizada. URL


http://CRAN.R-project.org/package=survival
Therneau T., Atkinson B., Ripley B. (2012). rpart: Partición recursiva. URL
http://CRAN.R-project.org/package=rpart
Tomás B. (1999). Software de vinculación de registros probabilísticos: una evaluación de GRLS y
Automatch de Statistics Canada. En: Actas de la Sección de Métodos de Investigación de
Encuestas, Asociación Estadounidense de Estadística, págs. 187–192 Till´e Y., Matei A. (2012).
Muestreo: Encuesta Muestreo. URL http://CRAN.R-proyecto.
org/paquete=muestreo
Tourangeau R., Kreuter F., Eckman S. (2012). Subregistro motivado en entrevistas de cribado. Public
Opinion Quarterly 76(3):453–469 Traugott MW, Goldstein K. (1993). Evaluación de muestras de
fotogramas duales y letras avanzadas como medio para aumentar las tasas de respuesta. En: Actas
de la Sección de Métodos de Investigación de Encuestas, Asociación Estadounidense de
Estadística, págs. 1284–1286 Tufte E. (1990). Información de visualización. Prensa gráfica,
Cheshire CT Turlach BA, Weingessel A. (2011). quadprog: Funciones para resolver Problemas de
Programación Cuadrática. URL http://CRAN.R-project.org/package=quadprog Oficina del Censo de los
Estados Unidos (1991). El Censo de Población y Vivienda de 1990. Población

y recuentos de viviendas: 1790–1990


Oficina del Censo de los Estados Unidos (2001a). Características de la Vivienda: 2000. Resumen del
Censo 2000. URL http://www.census.gov/prod/www/abs/briefs.html Oficina del Censo de los
Estados Unidos (2001b). Cambio y distribución de la población 1990–2000. Resumen del censo de
2000. URL http://www.census.gov/prod/www/abs/briefs.html Oficina del Censo de los Estados
Unidos (2002). Fuente y precisión de las estimaciones de pobreza en los Estados Unidos: 2001. URL
http://www.census.gov/prod/2002pubs/p60-219sa.pdf Oficina del Censo de EE. UU. (2006) Encuesta
de Población Actual: Diseño y Metodología. URL
http://www.census.gov/prod/2006pubs/tp-66.pdf
Oficina del Censo de EE. UU. (2011). Datos de redistribución de distritos del censo de 2010 (Ley
pública 94-171) Archivo resumido. URL http://www.census.gov/prod/cen2010/doc/pl94-171.pdf
Valliant R. (1985). Teoría de la predicción no lineal y estimación de proporciones en una población
finita. Revista de la Asociación Estadounidense de Estadística 80:631–641 Valliant R. (1993).
Postestratificación y estimación de la varianza condicional. Diario
de la Asociación Estadounidense de Estadística 88: 89–96
Valiente R. (2004). El efecto de múltiples ajustes de peso en la estimación de la varianza.
Revista de Estadísticas Oficiales 20:1–18
Valliant R., Rust KF (2010). Aproximaciones de grados de libertad y reglas generales.
Journal of Official Statistics 26:585–602 Valliant
R., Dorfman AH, Royall RM (2000). Muestreo e inferencia de población finita: un enfoque de predicción.
John Wiley & Sons, Inc., Nueva York Valliant R., G¨oksel H., Barrett B. (2003). Informe de diseño
de muestra de la encuesta de consumo de energía de edificios comerciales de 2003, preparado para
el Departamento de Energía de EE. UU. bajo el contrato no. DE-AC01-96E123968. tecnología
representante, Westat, Rockville MD Valliant R., Brick JM, Dever JA (2008). Ajustes de peso para
el estimador de varianza de navaja agrupada. Journal of Official Statistics 24(3):469–488 Vapnik VN
(1995) La naturaleza de la teoría del aprendizaje estadístico. Springer, Nueva York
Machine Translated by Google

616 Referencias

Varadhan R. (2010). alabama: Optimización no lineal restringida. URL http://CRAN.R-project.org/


package=alabama , (con contribuciones de Gabor Grothendieck). Paquete R versión 2010.10-1

Venables WN, Ripley BD (2002). Estadística Aplicada Moderna con S, 4ª ed.


Springer, Nueva York
Victor RG, Haley RW, Willett DL, Peshock RM, Vaeth PC, Leonard D., Basit M., Cooper RS, Iannacchione
VG, Visscher WA, Staab JM, Hobbs HH, Dal·las Heart Study Investigators (2004) . The Dallas Heart
Study: una muestra probabilística basada en la población para el estudio multidisciplinario de las
diferencias étnicas en la salud cardiovascular. Revista estadounidense de cardiología 93(12):1473–
1480, URL http://www.ncbi.nlm.nih.gov/pubmed/15194016

Wagner J. (2010). La fracción de información faltante como herramienta de seguimiento de la


calidad de los datos de la encuesta. Opinión pública trimestral 74 (2): 223–243
Waksberg J., Sperry S., Judkins D., Smith V. (1993). Encuesta Nacional de Crecimiento Familiar, evaluación
de diseño vinculado. Estadísticas vitales de salud 2 (117), (PHS) 93– 1391

Waksberg J., Judkins D., Massey JT (1997). Sobremuestreo geográfico en encuestas demográficas de
estados unidos. Metodología de la encuesta 23:61–71 Weisberg S. (2005). Regresión lineal aplicada,
3ª ed. John Wiley & Sons, Nueva
york
Weisstein EW (2010). Distribución de valores extremos. URL http://mathworld.wolfram. com/
ExtremeValueDistribution.html, de MathWorld–A Wolfram Web Resource West BT, Groves RM (2013).
Un indicador de desempeño del entrevistador ajustado por propensión. Public Opinion Quarterly 77: por
publicar West BT, Olson K. (2010). ¿Cuánto de la varianza del entrevistador es realmente falta de
respuesta?
varianza de error? Opinión pública trimestral 74(5):1027–1045
Westat (2007). Guía del usuario de WesVar 4.3. Westat, Rockville MD, URL www.westat.
com
Wickham H. (2011). reformar: Reformar datos de forma flexible. URL http://CRAN.R-proyecto.
org/paquete=reformar
Willenborg L., Heerschap H. (2012). Pareo. tecnología rep., La Haya, URL http://www.cbs.nl/NR/rdonlyres/
0EDC70A4-C776-43F6-94AD-A173EFE58915/0/2012Matchingart.pdf , método Serie no. 12

Wilson EB (1927). Inferencia probable, ley de sucesión e inferencia estadística.


Revista de la Asociación Estadounidense de Estadística 22:209–212
Winston W., Venkataramanan M. (2003). Introducción al Programa Matemático
Ming, 4ª ed. Prensa de Duxbury, Pacific Grove CA
Invierno N. (2002). svr: Paquete de replicación de Stata SurVey. URL http://facultad.virginia. edu/nwinter/
progs/ Walter KM (2007). Introducción a la estimación de la varianza, 2ª ed. Springer, Nuevo

york
Woodruff RS (1952). Intervalos de confianza para medianas y otras medidas de posición.
Revista de la Asociación Estadounidense de Estadística 47:635–646
Woodward M. (1992). Fórmulas de tamaño de muestra, potencia y riesgo relativo mínimo detectable en
estudios médicos. El Estadístico 41:185–196
Wright J., Marsden P. (2010). Manual de investigación de encuestas, 2ª ed. Emerald Group Publishing
Limited, Reino Unido
Machine Translated by Google

Soluciones a ejercicios seleccionados

Capítulo 3

3.2
(a) Calcule CV (ps) y V (ps) para un tamaño de muestra de n = 100.
n <- 100 p <-
c(0,01, 0,05, 0,1, 0,2, 0,3, 0,4, 0,5, 0,6, 0,7, 0,8, 0,9, 0,95, 0,99)

SE <- sqrt(p*(1-p)/n)
CV <- SE/p
cbind(p, SE = redondo(SE,4), CV = redondo(CV,4))
pags
SE CV
[1,] 0.01 0.0099 0.9950 [2,] 0.05
0.0218 0.4359 [3,] 0.10 0.0300 0.3000
[4,] 0.20 0.0400 0.2000 [5,] 0.30
0.0458 0.1528 [6,] 0.40 0.0490 0.1225
[7,] 0.50 0.0500 [1000 [1000 [1000
[1000 [[1000 [3000 [3000 [ 8,] 0,60
0,0490 0,0816 [9,] 0,70 0,0458 0,0655
[10,] 0,80 0,0400 0,0500 [11,] 0,90
0,0300 0,0333 [12,] 0,95 0,0218
0,0229 [19,0,099] 0,91

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 617


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

618 Soluciones a ejercicios seleccionados

(b) Grafique los EE frente a p.

1.0
0.8

CV
0.6

0,4
0,2
0,0
EE

SE

0.0 0.2 0.4 0.6 0.8 1.0


pags

(c) Discuta las diferencias:


Los CV para p pequeña son extremadamente grandes, lo que implica que este criterio
sería difícil de usar para características raras. Las diferencias relativas en el SE son
menores en el rango de p que para el CV. Para establecer un objetivo de precisión para
ps , el SE puede ser un criterio más fácil de entender que el CV.

3.8

(a) Relavarianzas de las variables camas y egresos en la población hospitalaria


ción

(a) lechos, descargas

0.6024728 # unidad de variación de lechos 0.5239741 # unidad de


variación de caudales

(b) Relavarianzas de las variables gastos totales (EXPTOTAL), número de camas de hospitalización (BEDS), número de
pacientes atendidos durante 1998 (SEENCNT), número de clientes en los roles al cierre de 1998 (EOYCNT) y número
de visitas hospitalarias (Y IP) en la población smho98.

variable significar varrel


camas 4,546172e+04 2,746972e+02 0,6024728
altas 3.477412e+05 8.146539e+02 0.5239741 smho exp 5.893495e+14 1.166418e+07
4.3317602 camas smho 2.559340e+04 8.389371e+01 3.6363792

smho visto 3.612683e+07 2.259911e+03 7.0737089 smho eoy 1.145212e+07


9.327166e+02 13.1639586 smho yip 2.834705e+08 7.574629e+03 4.9406626

3.10

(a) Determine n para CV (IPV) = 0.10.


CV0 <- 0.10
adjuntar("C:\\Datos\\smho98.RData") pop <- smho98[smho98\
$Y\_IP 0, ]
N <- nfila(pop)
norte
Machine Translated by Google

Soluciones a ejercicios seleccionados 619

[1] 484 pk
<- pop$CAMAS / sum(pop$CAMAS) y <- pop$Y_IP

T <- suma(y)
T
[1] 6627800 ybarU
<- media(y)
V1 <- suma(pk*(y/pk - T)ˆ2)
V1
[1] 3.19933e+13 n <- V1 /
(N*ybarU*CV0)ˆ2 n <- techo(n)

norte

[1] 73 pk1
<- n*pk resumen(pk1)

mín. 1er cuarto Mediana Media 3er Qu. máx.


0,001301 0,039040 0,095660 0,150800 0,163300 1,766000

certs <- (1:N)[pk1 $>$= 0.80] certs # Números de


unidad de certezas
[1] 154 155 156 157 161 179 189 191 192
longitud (certificados)
[1] 9 n - longitud
(certificados) 64

# Recalcular excluyendo certezas pk <- pop$BEDS[-certs] /


sum(pop$BEDS[-certs]) y <- pop$Y_IP[-certs]

T <- suma(y)
T
[1] 5706952
V1 <- suma(pk*(y/pk - T)ˆ2)
V1
[1] 2.552992e+13
nNc <- V1/ (N * ybarU * CV0)ˆ2 nNc <- techo (nNc)

nNc
[1] 59
# Vuelva a comprobar para ver si hay nuevas certezas.
# No hay ninguno. resumen
(nNc * pk)
mín. 1er cuarto Mediana Media 3er Qu. máx.
0,001233 0,037000 0,088790 0,124200 0,149200 0,731300
# tamaño total de la muestra
longitud (certificados) + nNc[1] 68

# comprobar que CV0 cumple


CV <- raíz cuadrada (V1)/(N * raíz cuadrada (nNc) * ybarU)
CV
[1] 0.09924974

(b) Repita la parte (a) con un CV objetivo de 0,15. No hay certezas. n=33.
Machine Translated by Google

620 Soluciones a ejercicios seleccionados

(c) Ahora, suponga que decide utilizar un estimador de regresión del número medio
de visitas de pacientes hospitalizados. Utilice un modelo sin intercepción y con
la raíz cuadrada de las camas y las propias camas como predictores. Si este
modelo es correcto, ¿cuál es la medida de tamaño óptima para usar en una
muestra pps? ¿Qué muestra se requeriría para obtener un CV anticipado de 0.10
con este estimador de regresión y una muestra seleccionada con el MOS óptimo?
El MOS óptimo para el modelo EM (y) = ÿ1 ÿx + ÿ2x, VM (y) = ÿ2x es ÿx.

CV0 <- 0,10


#Crear variables de modelo x <- pop[,
"BEDS"] y <- pop$Y_IP rtvBar <- mean(sqrt(x)) vBar <-
mean(x)

rtvBar; barra virtual


[1] 9.397201 [1]
115.8926

#Objeto que contiene resultados de funciones de x # modelado en ym <- glm(y ˜


#Resultados del modelo ybarU <- mean(y)
0 + sqrt(x) + x, pesos = 1/x)

S2R <- sum(m\$residualesˆ2/(longitud(x)-1)) nCont(CV0=0.15, S2=S2R,


ybarU=ybarU, N=670)
[1] 41.88943
# comprobar si hay certezas con n=42 y # pp(sqrt(x)) muestreando newPk <-
42 * sqrt(x)/sum(sqrt(x)) summary(newPk)

mín. 1er cuarto Mediana Media 3er Qu. máx.


0,009234 0,0550580 0,079170 0,086780 0,103400 0,340200

No hay certezas con este plan.


(d) Explique cualquier diferencia en los resultados de las partes (a), (b) y (c). los
los tamaños de muestra en (a), (b) y (c)
son: 59 incertidumbres más 9 certezas con pp(x) y CV0 = 0,10 33 con
0 certezas con pp(x) y CV0 = 0,15 42 con 0 certezas con pp (sqrt(x)),
un estimador de regresión, y CV0 = 0.10

Con pp(x) y el estimador pi, naturalmente se requiere una muestra más pequeña para
un CV objetivo de 0,15 que de 0,10. Si se usa un estimador de regresión más eficiente,
se requieren 42 unidades en lugar de 70 para CV0=0.10. Por lo tanto, el muestreo con
pps no obtiene toda la eficiencia posible de una muestra cuando está presente una
fuerte relación yx.
3.12

(a) Calcule las ponderaciones de diseño para los 50 hospitales de muestra. ¿Cómo
podría verificar que los pesos se calcularon correctamente? Mostrar la verificación.
Machine Translated by Google

Soluciones a ejercicios seleccionados 621

hosp50 <- read.csv("C:\\Data\\hospital_50.txt", header=TRUE) wts <- sum(hospital[, "x"]) / 50 /


hosp50[, "x"]
N <- nrow(hospital) n <-
nrow(hosp50) wts <- 1/pik[sam
== 1] sum(wts) [1] 442.3302 # suma
de camas wtd debe ser igual a pop
total de camas

sum(wts*hosp50\$x) [1]
107956 sum(hospital\$x)
[1] 107956

(b) Estime el número promedio de descargas con base en la muestra utilizando el


estimador ÿ de la media.

que <- sum(wts*hosp50\$y) ybarHat <-


que / N que; sum(hospital\$y)

[1] 317339.5 [1]


320159 ybarHat;
media(hospital\$y) [1] 807.4796 [1]
814.6539

(c) Estime la varianza de la muestra para su estimación en (b) utilizando la fórmula


para el muestreo con reemplazo. Si usó más de un estimador en (b), calcule la
varianza estimada de cada uno.
y <- hosp50$y pk <-
1/(n*wts)
V1Hat <- sum( (y/pk -- mean(y/pk))ˆ2 ) / (n-1) vHat <- V1Hat/Nˆ2/n vHat

[1] 918,535
sqrt(vHat) [1]
30,30734
sqrt(vHat) / ybarHat [1]
0,03753326

(d) Estime el intervalo de confianza del 95 % para su estimación en (b).


# 95% IC LB
<- ybarHat - 1.96*sqrt(vHat)
UB <- ybarHat + 1,96*raíz cuadrada(vHat) c(LB,
UB) [1] 748,0772 866,8820

(e) Suponga que desea seleccionar una nueva muestra con probabilidades
proporcionales a la raíz cuadrada de las camas. Estime el V1 apropiado para este diseño.
¿Cuántos hospitales de muestra se necesitarían para alcanzar el CV objetivo
(¯yst) = 0,15 con este diseño?
qk <- sqrt(hospital\$x) / sum(sqrt(hospital\$x)) qk <- qk[sam==1]

V1 <- sum(yˆ2/pk/qk)/n - (media(y/pk))ˆ2 + vHat


V1
Machine Translated by Google

622 Soluciones a ejercicios seleccionados

[1] 13791105407
CV0 = 0,04

ybarU <- media(hospital\$y) nuevoN <-


V1/ (N * ybarU * CV0)ˆ2
nuevoN
[1] 84.09064

3.14

(a) Determine el tamaño de muestra necesario para alcanzar un CV objetivo = 0,05 para la
media estimada de las dos variables de análisis, y1 e y2. ¿Son diferentes los tamaños
de muestra estimados? Es así, ¿por qué?

domy1y2 <- read.table("C:\\Data\\Domainy1y2.txt", header=TRUE) ybar1 <-


mean(domy1y2\$y1) ybar2 <- mean(domy1y2\$y2)
s2y1 <- var(domy1y2 \$y1) s2y2 <- var(domy1y2\$y2) nCont(CV0=0.05, S2=s2y1,
ybarU=ybar1, N=100)

[1] 41.28193
nCont(CV0=0.05, S2=s2y2, ybarU=ybar2, N=100) [1] 25.941

s2y1[1] 552.5725
s2y2
[1] 706.7866 s2y1/
ybar1ˆ2
[1] 0.1757633
s2y2/ybar2ˆ2 [1]
0.08756869

Los tamaños de las muestras son diferentes porque la unidad de revarianza de y2 es más pequeña.
Sin embargo, tenga en cuenta que la varianza de y2 es mayor que la de y1.
(b) Si el nivel de precisión del objetivo aumenta a un CV = 0,03, ¿cómo cambian sus cálculos
en (a)?
nCont(CV0=0.03, S2=s2y1, ybarU=ybar1, N=100)
[1] 66.13528
nCont(CV0=0.03, S2=s2y2, ybarU=ybar2, N=100) [1] 49.31539

(c) Repita sus cálculos en las partes (a) y (b) para la proporción de respuestas y1 que son
menores o iguales a 50 (y1 ÿ 50).
menos50 <- rep(0, longitud(domy1y2$y1)) menos50[domy1y2\
$y1 $<$= 50] <- 1 ybar1 <- mean(less50)
nProp(CV0=c(0.05,0.03), pU=ybar1 , N=100)

[1] 80.16032 91.81893

(d) Repita sus cálculos en las partes (a) y (b) para la proporción de respuestas y1 que son
menores o iguales a 22 (y1 ÿ 22). Compare sus resultados de las partes (c) y (d).

menos22 <- rep(0, longitud(domi1y2\$y1)) menos22[domi1y2\


$y1 $<$= 22] <- 1
Machine Translated by Google

Soluciones a ejercicios seleccionados 623

ybar1 <- media(menos22)


nProp(CV0=c(0.05,0.03), pU=ybar1, N=100)
[1] 99.15377 99.69370

3.16

(a) Compare las probabilidades de selección para estos dos diseños de muestra. Para
ejemplo, calcule la probabilidad de selección media pps dentro de cada estrato
y compararlo con las probabilidades de selección de stsrs.
adjuntar("C:\\Datos\\smho.N874.RData",pos=2)
hospPop <- smho.N874[smho.N874\$CAMAS > 0, ]
x <- sqrt(hospPop$CAMAS)
hospPop <- hospPop[orden(x), ]
x <- ordenar(x)
N <- nrow(hospPob)
n <- 50
cumx <- cumsum(x)
H <- 25
tamaño <- cumx[N]/H
frenos <- (0:H)*tamaño
estratos <- corte(cumx, roturas = brks, etiquetas = 1:H)
Nh <- tabla(estratos)
strSelprobs <- rep(2,H) / Nh
todosStrProbs <- NULL
para (h en 1:H){
allStrProbs <- c(allStrProbs, rep(strSelprobs[h], Nh[h]))
}
# probabilidades de selección para pp(sqrt(x))
ppsSelprobs <- n*x / sum(x)
ambos <- NULL
ambos <- cbind(estrato = estratos, pps = ppsSelprobs,
stsrs = todos los StrProbs)
parcela(ambos[, c(2,3)])
abline(0,1)
round(cbind(stsrs = strSelprobs,
ppsMeans = por (ambos [, 2], estratos, media)), 4)
stsrs ppsMedios
1 0.0263 0.0259
2 0.0357 0.0357
3 0.0417 0.0415
4 0.0465 0.0467
5 0.0526 0.0524
6 0.0571 0.0577
7 0.0625 0.0622
8 0.0667 0.0674
9 0.0714 0.0711
10 0.0769 0.0749
11 0.0769 0.0785
12 0.0833 0.0814
13 0.0833 0.0853
14 0,0909 15 0.0902
0,0952 16 0,1000 0.0947
0.1010
Machine Translated by Google

624 Soluciones a ejercicios seleccionados

17 0,1111 18 0.1076
0,1111 0.1134
19 0.1250 0.1232
20 0.1333 0.1377
21 0.1538 0.1477
22 0.1538 0.1583
23 0.1818 0.1835
24 0.2222 0.2070
25 0.2500 0.2704

(b) Grafique las probabilidades de stsrs frente a las probabilidades de selección de pps.

Capítulo 4

4.2 Considere el Ejemplo 4.6 donde se usaron pruebas unilaterales para determinar
tamaños de muestra con 80 y 90 % de poder para detectar diferencias en las estimaciones para
masculinos y femeninos.

= 200?
(a) ¿Cómo cambia el tamaño de la muestra si ÿ2
d

ÿ2d 2 = 200/2 = 10

potencia.t.prueba(potencia = 0.8,
delta = 5,
dt = 10,
tipo = "dos.muestra",
alt = "de un solo lado",
nivel sig. = 0.05
)
# Cálculo de potencia de prueba t de dos muestras
n = 50,1508
Machine Translated by Google

Soluciones a ejercicios seleccionados 625

delta = 5 sd = 10

sig.level = 0.05 potencia = 0.8


alternativa = unilateral

NOTA: n es el número en *cada* grupo

power.t.test(power = 0.9, delta = 5, sd = 10,


type = "two.sample", alt = "one.side",
sig.level = 0.05 )

# Cálculo de potencia de prueba t de dos muestras


n = 69,19782
delta = 5 sd = 10
nivel sig. =
0.05 potencia = 0.9 alternativa
= unilateral

(b) ¿Cómo afecta


d un ÿ2 = 800 a su cálculo anterior?

ÿ2d 2 = 800/2 = ÿ 400

power.t.test(power = 0.8, delta = 5, sd =


sqrt(400), type = "two.sample", alt
= "one.side", sig.level = 0.05 )

# Cálculo de potencia de prueba t de dos muestras


n = 198,5217
delta = 5 sd = 20
nivel sig. =
0.05 potencia = 0.8 alternativa
= unilateral

power.t.test(power = 0.9, delta = 5, sd =


sqrt(400), type = "two.sample", alt =
"one.side", sig.level = 0.05 )

# Cálculo de potencia de prueba t de dos muestras


n = 274,7222
delta = 5
Machine Translated by Google

626 Soluciones a ejercicios seleccionados

sd = 20
sig.level = 0.05 potencia = 0.9
alternativa = unilateral

4.4

(a) El cliente está interesado en determinar si el IMC promedio para los niños de primer grado (de 6 a
7 años) ha aumentado en un 1,5 % desde un promedio estimado previamente de 17,5. ¿Cuál es
el tamaño de muestra necesario para detectar esta diferencia dado que la desviación estándar
de la población es 0.70?
d <- 17.5 * 1.015 - 17.5 power.t.test(power =
0.8, delta = d, sd = 0.7, type = "one.sample",
alt = "one.side", sig.level = 0.05 )

# Cálculo de potencia de prueba t de una muestra


n = 45,34875 delta =
0,2625
dt = 0,7
sig.level = 0.05 potencia = 0.8
alternativa = unilateral

(b) ¿Cómo cambia el tamaño de la muestra si el cliente está dispuesto a aceptar un 3,0 %
¿aumentar?

d <- 17,5 * 1,03 - 17,5


power.t.test(power = 0.8, delta = d, sd = 0.7,
type = "one.sample", alt = "one.side",
sig.level = 0.05 )

# Cálculo de potencia de prueba t de una muestra


n = 12,46081
delta = 0,525
dt = 0,7
sig.level = 0.05 potencia = 0.8
alternativa = unilateral

(c) ¿Cómo cambia el tamaño de la muestra si el cliente quiere detectar un 0.5%


¿aumentar?

d <- 17,5 * 1,005 - 17,5


power.t.test(power = 0.8, delta = d, sd = 0.7,
type = "one.sample",
Machine Translated by Google

Soluciones a ejercicios seleccionados 627

alt = "unilateral", sig.level = 0.05 )

# Cálculo de potencia de prueba t de una muestra


n = 397,0399
delta = 0,0875
dt = 0,7
sig.level = 0.05 potencia = 0.8
alternativa = unilateral

4.6 ¿Qué tamaño de muestra aleatoria simple se necesitaría para detectar una disminución
del 10 % con una potencia de 0,90? ¿Cómo cambiaría tu respuesta si la unidad de revarianza
fuera 6?

capGain <- 44000 d <-


capGain - 0.9*capGain unitRv <- 3 sd1 <-
sqrt(unitRv * capGainˆ2) power.t.test(power = 0.9,
delta = d, sd = sd1, type = "one.sample" , alt = "unilateral",
sig.level = 0.05

# Cálculo de potencia de prueba t de una muestra


n = 2570.508
delta = 4400
dt = 76210,24
sig.level = 0.05 potencia = 0.9
alternativa = unilateral

d <- capGain - 0.9*capGain unitRv <- 6 sd1 <-


sqrt(unitRv * capGainˆ2) power.t.test(power = 0.9,
delta = d, sd = sd1, type = "one.sample", alt = " one.side",
sig.level = 0.05 )

# Cálculo de potencia de prueba t de una muestra


n = 5139.661
delta = 4400 sd =
107777.5
sig.level = 0.05 potencia = 0.9
alternativa = unilateral
Machine Translated by Google

628 Soluciones a ejercicios seleccionados

4.8

(a) Si se prevé que la tasa de desempleo en el tiempo 1 sea del 8 % y desea poder detectar
una disminución de 1,5 % puntos con una potencia de 0,8 en una prueba unilateral de
0,05 niveles, ¿qué tamaño debe tener la muestra en cada uno? ¿periodo de tiempo?
Suponga que 0.08-0.015=0.065 estará desempleado en ambos momentos.

p1 <- 0.08 p2
<- p12 <- 0.065
nProp2sam(px=p1, py=p2,
pxy=p12, g=0.75, r=1,
sig.level = 0.05,
alt="una.cara") # Dos-
muestra comparación de
proporciones cálculo
muestra paradelmuestras
tamaño de la
superpuestas

n1 = 1228
n2 = 1228
px.py.pxy = 0,080, 0,065, 0,065 gamma = 0,75 r=1

alt = unilateral
nivel sig. = 0.05 potencia
= 0.8

(b) Si solo puede permitirse muestrear a 500 personas, ¿cuál será el poder para
detectar un cambio de punto de 1,5 %?

p1 <- 0,08 p2
<- p12 <- 0,065 Sxy <- p12 -
p1*p2 Vd <- (p1*(1-p1) +
p2*(1-p2) - 2*0,75*1*Sxy) / 500 Z <- 1,645 - (p1-p2)/raíz cuadrada (Vd) 1 -
pnorm(Z) # [1] 0,4768264

4.10 El Consejo de Gobiernos (COG) es una organización en el área de Washington DC


que está financiada por los gobiernos locales del Distrito de Columbia y los condados
circundantes. El COG quisiera financiar una encuesta para comparar las tasas de criminalidad
en la ciudad central con la de uno de los condados suburbanos.

cTasa <- 1105/100000


c1 <- 0.75 * tasa c
c2 <- 2*c1
pow <- seq(0.5, 0.9, 0.05) samsize <-
vector("numeric", length(pow)) for (k in 1:length(pow))\{ samsize[k]
<- powerPropTest(n=NULL,

p1 = c1, p2
= c2, alt =
"unilateral", sig.level = 0.05,
Machine Translated by Google

Soluciones a ejercicios seleccionados 629

potencia = potencia[k])\$n
}
fuera <- cbind(samsize = techo(samsize), power = pow)
afuera

tamaño del poder


[1,] 968 0,50
[2,] 1121 0.55
[3,] 1288 0,60
[4,] 1474 0,65
[5,] 1682 0,70
[6,] 1923 0,75
[7,] 2210 0,80
[8,] 2569 0.85
[9,] 3060 0,90

Capítulo 5

5.2 Utilizando los datos del ejemplo 5.2 , calcule (a) la asignación proporcional,
(b) la asignación de Neyman para estimar los ingresos totales, y (c) la asignación
restringida de costos para los ingresos, asumiendo un presupuesto de $300,000.

Costo
constreñido Apuntalar. neyman
h Nueva Hampshire
asignación asignación
1 413 350 845
2 318 661 83
3 124 244 80
4 1,397 1.284 465
5 596 308 1,376

Total 2,848 2,848 2,848

Costo $300,000 $276,211 $362,556


CV
Ingresos 0,047 0,061 0.033
Empleados 0,024 0,031 0.016
Investigación
crédito 0.021 0.019 0.035
offshore 0.030 0.031 0.050

La asignación proporcional cumple con la restricción presupuestaria. Neymar no. El CV


proporcional sobre los ingresos es peor que el limitado en costes, pero Neyman es mejor
(0,033 frente a 0,047). CV proporcional de los empleados, el crédito de investigación cumple con
las restricciones. CV en alta mar está cerca. Neymar cumple con la restricción de CV en los empleados
Machine Translated by Google

630 Soluciones a ejercicios seleccionados

pero no en crédito de investigación y en alta mar. La restricción de nh ÿ 100 se cumple con


Asignación proporcional pero violada por Neymar.

5.4 Resuelva el Ejemplo 5.2 con las mismas restricciones CV que en el Ejercicio 5.3
(0,05 sobre empleados, 0,03 sobre el total de establecimientos que reclaman el crédito de investigación,
0,05 sobre el total de establecimientos con filiales offshore) pero revisar el objetivo
estar minimizando el costo total.

h Nueva Hampshire CV de t.hat


1 129 0.09716
2 245 0.0500
3 108 Investigación 0.0300
4 511 Costa afuera 0.0500
5 129

Total 1.122

Capítulo 9

9.2

(a) Calcule el coeficiente de variación que esperaría de un


muestra de 20 UPM, 2 UPM por UPM y diez personas por UPM de muestra.
(b) Repita el cálculo del coeficiente de variación para una muestra de 20
PSU, 5 SSU por PSU y cuatro personas por SSU de muestra.

#(a)
p<-0,32; q <- 1-p
delta1 <- 0,003; delta2 <- 0,174
m<-20; nbar <- 2; qDbar <- 10
V <-q/p
a <- V/(m*nbar*qDbar)
b <- delta1*nbar*qDbar
c <- 1 + delta2*(qDbar-1)
CV <- sqrt(a*(b+c))
CV
# [1] 0.1181128
#(b)
p<-0,32; q <- 1-p
delta1 <- 0,003; delta2 <- 0,174
m<-20; nbar <- 5; qDbar <- 4
V <-q/p
a <- V/(m*nbar*qDbar)
b <- delta1*nbar*qDbar
c <- 1 + delta2*(qDbar-1)
CV <- sqrt(a*(b+c))
Machine Translated by Google

Soluciones a ejercicios seleccionados 631

CV#[1] 0.09167538

9.4 Suponga que se selecciona una muestra en dos etapas y se usa el estimador ÿ
del total para una serie de variables de análisis. El número promedio de elementos de
muestra por conglomerado es 23. ¿Cuáles son las estimaciones aproximadas de la
medida de homogeneidad para efectos de diseño iguales a 1.1, 1.2, 1.3, . . . , 2.7, 2.8,
2.9 y 3.0? ¿Cómo cambian tus respuestas si ¯n = 13?

deltaCalc <- function(desde,hasta,por,m){


deff <- seq(de=1.1,a=3.0,por=0.1)
nbar <- m delta
<- (deff-1)/(nbar-1) cbind(deff,delta)

}
#Para nbar = 23

deltaCalc(1.1,3.0,0.1,23) deff delta [1,]


1,1 0,004545455 [2,]
0,009090909
1,2
[3,] 1,3 0,013636364 [4,] 1,4
0,018181818 [5,] 1,5 0,0222727273
[6,727273 ],] 1.7 0.031818182 [8,] 1.8
0.036363636 [9,] 1.9 0.040909091
[10,] 2.0 0.045454545 [11,] 2.1
0.050000000 [12,] 2.2 0.054545455
[13,] 2.3059090909 [14, 2.44,
2.06363636606060 años. ] 2.5
0.068181818 [16] 2.6 0.072727273
[17] 2.7 0.077272727 [18] 2.8
0.081818182 [19] 2.9 0.086363636 [20]
3.0 0.090909091

#Para nbar = 13
deltaCalc(1.1,3.0,0.1,13) deff delta [1,]
1,1 0,008333333 [2,]
0,0166666667
1,2
[3,] 1,3 0,025000000 [4,] 1,4
0,0333333333 [5,] 476,66 ] 1,6
0,050000000 [7,] 1,7 0,0583333333 [8,]
1,8 0,066666667 [9,] 1,9 0,075000000
[10,] 2,0 0,083333333
Machine Translated by Google

632 Soluciones a ejercicios seleccionados

[11,] 2.1 0.0916666667 [12,] 2.2


0.100000000 [13,] 2.3
0.1083333333 [14,] 2.4
0.116666667 [15,] 2.5
0.12500000000 [16,] 2.6
0.133333333 [17,] 2.7 0.14166667
[18,] 2.8.120000 ,] 2,9 0,158333333
[20,] 3,0 0,166666667

9.6 Repita los cálculos del ejemplo 9.11 para el muestreo en dos etapas usando
grupos de bloques como UPM en la población de Maryland. Use set.seed(-780087528)
en R. Seleccione 20 BG con probabilidades proporcionales al número de personas
por zona y 50 personas por BG usando srswor. Compare sus resultados con los del
Ejemplo 9.9 , donde se usaron tratados como PSU.

adjuntar("C:\\Datos\\MDarea.pop.RData", pos=2)
trtBG <- 10*MDarea.pop$TRACT + MDarea.pop$BLKGROUP MDpop <-
cbind(MDarea.pop, trtBG) require(muestreo) require(reforma)

# tiene función que permite renombrar # variables

Ni <- tabla(MDpop$trtBG)
metro <- 20
probi <- m*Ni / sum(Ni) # seleccionar
muestra de conglomerados
set.seed(-780087528) sam <- cluster(data=MDpop,
clustername="trtBG", size=m, method="systematic", pik= probi, descripción=VERDADERO)

# extraer datos para los grupos de muestra


samclus <- getdata(MDarea.pop, sam) samclus <-
rename(samclus, c(Prob = "pi1")) table(samclus$trtBG) # tratar los
conglomerados de muestra como estratos y seleccionar srswor de
cada s <- strata(data = as.data.frame(samclus), stratanames = "TRACTO",

tamaño = rep(50,m), método="srswor")


# extrae los datos observados
samdat <- getdata(samclus,s) samdat <-
rename(samdat, c(Prob = "pi2")) table(samdat$trtBG) # extraer
recuentos pop para PSU en la muestra

escoger <- nombres(Ni) \%in\% sort(unique(samdat$trtBG))


Ni.sam <- Ni[pick] pp <-
Ni.sam / sum(Ni) wt <- 1/
samdat$pi1/samdat$pi2

BW <- rbind(BW2stagePPSe(Ni = Ni.sam, ni = rep(50,20), X = samdat$y1, psuID =


samdat$TRACT, w = wt, m = 20, pp = pp),
BW2stagePPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$y2, psuID = samdat$TRACTO,
w = wt,
Machine Translated by Google

Soluciones a ejercicios seleccionados 633

m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$y3,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$ins.cov,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp),
BW2etapaPPSe(Ni = Ni.sam, ni = rep(50,20),
X = samdat$hosp.stay,
psuID = samdat$TRATO, w = peso,
m = 20, pp = pp)
)
redondo (ancho y ancho, 4)

# W delta vpsu Vsu B


#[1,] 1,369864e+12 1,051959e+12 0,0347 1,3761 0,0246
#[2,] 1.068294e+10 9.071762e+09 0.0226 0.9935 0.0222
#[3,] 7.540980e+11 1.089802e+11 0.0118 0.0884 0.1177
#[4,] 4.256465e+07 2.575943e+07 0.0084 0.2651 0.0309
#[5,] 6.128648e+06 1.045993e+07 0.1449 12.7945 0.0112

Los resultados del ejemplo 9.11 están a continuación. Cuando los BG se utilizan como grupos,
las medidas de homogeneidad son mayores.

Tratados como grupos BG como


racimos

B2 W2 d d
y1 0,0418 1,3934 0,0291 0,0246
y2 0,0208 1,0416 0,0196 0,0222
y3 0,0101 0,1028 0,0894 0,1177
ins.cov 0,0007 0,3051 0,0023 0,0309
hosp.stay 0,1056 13,9161 0,0075 0,0112

9.8 Use la población de Maryland y la función BW3stagePPSe para


calcular los componentes de la varianza a partir de una muestra de 30 PSU (sectores), 2 SSU
(grupos de bloques) por tramo, y 50 personas por SSU de muestra. Asumir que
los tramos se seleccionan con probabilidades proporcionales al número de personas en el
tramo y que las UME y las personas se seleccionan a través de srs. Usar
set.seed(1696803792) en R. (a) Realice el cálculo de las variables
y2, y3, ins.cov y hosp.stay. (b) ¿Cómo se comparan sus respuestas con la totalidad
resultados de la población en el ejemplo 9.12? (c) Utilice los valores
¯¯
estimados de ÿ1 y
ÿ2 para calcular los valores óptimos de m, ¯n y q en tres etapas donde
C1 = 500, C2 = 100, C3 = 120 y el presupuesto total para costos variables es
$100,000. ¿Cómo se puede estimar la unidad de revarianza para cada variable? (d)
Discuta sus resultados en (c).

#(a) Realice el cálculo para las variables y2, y3, ins.cov y


Machine Translated by Google

634 Soluciones a ejercicios seleccionados

hosp.stay. #
seleccione una muestra de 3 etapas de la población de Maryland

adjuntar("C:\\Data\\MDarea.pop.RData", pos=2) trtBG <-


10*MDarea.pop$TRACT + MDarea.pop$BLKGROUP MDpop <- cbind(MDarea.pop,
trtBG) require( muestreo) requerir (reformar)

# tiene una función que permite renombrar variables


# realizar recuentos de SSU y elementos por PSU
xx <- do.call("rbind",list(by(1:nrow(MDpop),MDpop$trtBG,head,1))) pop.tmp <- MDpop[xx,]

Ni <- tabla(pop.tmp$TRACTO)
Qi <- tabla(MDarea.pop$TRACTO)
Qij <- tabla(MDpop$trtBG)
metro <- 30 # no. de fuentes de alimentación para seleccionar

probi <- m*Qi / suma(Qi)

#------------------------------------------------ - -------------------------------------
# seleccionar muestra de conglomerados
establecer.seed(1696803792)
sam <- cluster(data=MDpop, clustername="TRACTO", tamaño=m,
método="sistemático", pik=probi,
descripción=VERDADERO)
# extraer datos para los grupos de muestra
samclus <- getdata(MDpop, sam) samclus <-
renombrar(samclus, c(Prob = "p1i")) samclus <-
samclus[order(samclus$TRACT, samclus$BLKGROUP),]

#------------------------------------------------ - -------------------------------------
# tratar los conglomerados de muestra como estratos y seleccionar una parte del bloque
grupos de cada
# identificar los ID de psu para la primera instancia de cada ssuID xx <-
do.call("rbind",list(by(1:nrow(samclus),samclus$trtBG,head,1)))
SSU <- cbind(TRACT=samclus$TRACT[xx], trtBG=samclus$trtBG[xx],
BG=samclus$BLKGROUP[xx])
# seleccione 2 BG por tracto
n <- 2
s <- estratos(datos = as.datos.marco(SSU), nombres de estrato = "TRACTO",
tamaño = rep(n,m), método="srswor")
s <- renombrar(s, c(Prob = "p2i"))
# extraer los datos de glucosa en sangre

# s contiene pruebas de selección de SSU, necesita colocarlas en


archivo de datos

SSUsam <- SSU[s$ID\_unidad, ]


SSUsam <- cbind(s, SSUsam[, 2:3])
# identificar filas en la muestra de PSU que corresponden a las SSU de muestra tmp <- samclus$trtBG
%in% SSUsam$trtBG
SSUdat <- samclus[tmp,]
SSUdat <- fusionar(SSUdat, SSUsam[, c("p2i","trtBG")], by="trtBG") rm(tmp)

#------------------------------------------------ - -------------------------------------
# seleccione srswor de cada muestra BG
n.BG <- m*n
s <- estratos (datos = as.data.frame (SSUdat), stratanames = "trtBG",
size = rep(50,n.BG), method="srswor") s <- rename(s, c(Prob
= "p3i")) samclus <- getdata(SSUdat, s) del <- (1:ncol( samclus))[dimnames(samclus)
[[2]] \%en\%

c("ID\_unidad","Estrato")]
Machine Translated by Google

Soluciones a ejercicios seleccionados 635

samclus <- samclus[, -del]

#------------------------------------------------ - -------------------------------------
# extraer recuentos pop para PSU en la muestra
escoger <- nombres(Qi) \%in\% sort(unique(samclus$TRACT))
Qi.sam <- Qi[elegir]
# extraer recuentos pop de SSU para PSU en la muestra
escoger <- nombres(Ni) \%in\% sort(único(samclus$TRACTO))
Ni.sam <- Ni[pick] # extraer
recuentos pop para SSU en la muestra
escoger <- nombres(Qij) \%in\% sort(unique(samclus$trtBG))
Qij.sam <- Qij[elegir]

# calcule el peso completo de la muestra y los pesos para PSU y SSU


wt <- 1 / samclus$p1i / samclus$p2i / samclus$p3i w1i <- 1 / samclus$p1i w2ij <- 1 /
samclus$p1i / samclus$p2i

samdat <- data.frame(psuID = samclus$TRACT, ssuID = samclus$trtBG,


w1i = w1i, w2ij = w2ij, w = wt, samclus[,
c("y1","y2","y3","ins.cov",
"hosp.estancia")])

#------------------------------------------------ - --------------
# llamar a fcn para calcular las estimaciones de los componentes de la varianza
wtdvar <- function(x, w){ xbarw <-
sum(w*x) / sum(w) varw <- sum(w * (x-
xbarw)ˆ2) / sum(w)
Varw

BW3 <-

rbind(BW3stagePPSe(dat=samdat, v="y1", Ni=Ni.sam, Qi=Qi.sam,


Qij=Qij.sam, m),
BW3stagePPSe(dat=samdat, v="y2", Ni=Ni.sam, Qi=Qi.sam, Qij=Qij.sam, m),
BW3stagePPSe(dat=samdat, v= "y3", Ni=Ni.sam, Qi=Qi.sam, Qij=Qij.sam, m),
BW3stagePPSe(dat=samdat, v="ins.cov", Ni=Ni.sam, Qi=Qi.sam , Qij=Qij.sam, m),
BW3stagePPSe(dat=samdat, v="hosp.stay", Ni=Ni.sam, Qi=Qi.sam, Qij=Qij.sam, m)

)
redondo (BW3,4)
vpsu Vsu Vtsu B W W2 W3 delta1 delta2
[1,] 5.634050e+11 1.877326e+12 4746976662057 0.0178 1.2553 0.3554 1.5477 0.0138 0.1863 [2,] 7.820266e+09 1.512943e+10 387598924 0.0221 0.9307

0.2929299999999929992992992992992992992992992992992992992992992992992992992992992999299929NACIÓN. 44878287984 0,0402 0,0909 0,2458 0,1027

0,3065 0,7052 [4,] 8,769247e+07 1,420352e+08 [5,] 5,905489e+05 8,930217e+05


10750509 0,0250 0,2612 0,2318 0,3162 0,0873 0,4227

4235957 0,0203 12,4614 0,2102 14,9988 0,0014 0,0132

(c) Use los valores estimados de delta1 y delta2 para calcular el


valores óptimos de mbar, nbar y qbarbar en tres etapas donde C1=500, C2=100, C3=120, y el presupuesto total para
costos variables es \$100,000.

# estimar la unidad de revarianza para cada variable

wtdrelvar <- función(x, w){


xbarw <- suma(w*x) / suma(w) varw <-
suma(w * (x-xbarw)ˆ2) / suma(w)
c(media = xbarw, varrel = varw/xbarwˆ2)
}
Machine Translated by Google

636 Soluciones a ejercicios seleccionados

rv.y1 <- wtdrelvar(samdat[,"y1"], wt) rv.y2 <- wtdrelvar(samdat[,"y2"], wt)

rv.y3 <- wtdrelvar(samdat[,"y3"], wt ) rv.inscov <- wtdrelvar(samdat[,"ins.cov"],

wt) rv.hosp <- wtdrelvar(samdat[,"hosp.stay"], wt)

ronda

(enlazar (y1) = rv.y1,

y2 = rv.y2, = rv.y3,

y3 = rv.inscov,
inscov

hosp.estancia = rv.hosp), 4)

clusOpt3(unidad.coste=c(500, 100, 120),

delta1=0.0138, delta2=0.1863, unidad.rv=rv.y1[2], costo

total=100000,

cal.sw=1)

C1 = 500

C2 = 100

C3 = 120

delta1 = 0.0138

delta2 = 0.1863

unidad varrel = 1.344438

presupuesto = 1e+05
cheque de costo = 1e+05

opción m = 31,2 opción

n = 8,2 opción q = 1,9

CV = 0,0617

clusOpt3(unidad.coste=c(500, 100, 120), delta1=0,0230, delta2=0,1994,

unidad.rv=rv.y2[2],

coste total=100000,

cal.sw=1)
C1 = 500

C2 = 100

C3 = 120

delta1 = 0,023

delta2 = 0.1994

unidad varrel = 1.002332

presupuesto = 1e+05
cheque de costo = 1e+05

opción m = 38,4 opción

n = 6,6 opción q = 1,8

CV = 0,0559

clusOpt3(unidad.coste=c(500, 100, 120),


delta1=0,3065, delta2=0,7052,

unidad.rv=rv.y3[2],

coste total=100000,

cal.sw=1)
C1 = 500

C2 = 100

C3 = 120

delta1 = 0,3065

delta2 = 0,7052
Machine Translated by Google

Soluciones a ejercicios seleccionados 637

unidad varrel = 0,1266218


presupuesto = 1e+05 comprobación
de costes = 1e+05
m.opt = 92.6

n.opt = 3.4

q.opt = 0.6
CV = 0,0301

clusOpt3(unidad.coste=c(500, 100, 120),

delta1=0,0873, delta2=0,4227,

unidad.rv=rv.inscov[2],

tot.cost=100000, cal.sw=1)

C1 = 500

C2 = 100

C3 = 120

delta1 = 0,0873

delta2 = 0,4227

unidad varrel = 0,2722481

presupuesto = 1e+05
cheque de costo = 1e+05

opción m = 61,7 opción

n = 4,9 opción q = 1,1

CV = 0,0354

clusOpt3(unidad.coste=c(500, 100, 120),

delta1=0.0014, delta2=0.0132,

unidad.rv=rv.hosp[2],
coste total=100000,

cal.sw=1)
C1 = 500

C2 = 100

C3 = 120

delta1 = 0,0014

delta2 = 0.0132

unidad varrel = 12.95215

presupuesto = 1e+05
cheque de costo = 1e+05

m.opt = 13 n.opt =

6.9 q.opt = 7.9

CV = 0,1464

ÿ1 2

semana semana (yk ÿ y¯w) semana

s s 2 $ s por semana $ s
Machine Translated by Google

638 Soluciones a ejercicios seleccionados

cada variable. Si todas las variables fueran igualmente importantes, podríamos promediar
las asignaciones y el uso m=45, n¯=6, q ¯¯=2, dando un costo total de alrededor de $114,000.
Sin embargo, la importancia relativa para la encuesta de las cinco variables habría
a considerar, junto con (como siempre) el presupuesto.

Capítulo 10

10.2

(a) Tamaños de muestra totales esperados para los dos dominios. Dominio 1: 16; dominio
2: 28.

(b) Medida compuesta de tamaño para cada UPM y el total entre las UPM. Verificar
que el gran total es igual al tamaño de muestra total esperado.
(c) Probabilidad de selección para cada UPM.
(d) Tasa de muestreo de dominio y tamaño de muestra de dominio esperado dentro de cada UPM.
¿Los tamaños de muestra esperados son números enteros? Si no, ¿qué método se puede utilizar?
para el muestreo dentro de una fuente de alimentación que logrará la tasa deseada?

(b) (C) (d) Dom. Muestreo Dom. tamaño de la muestra


Velocidad

fuente de alimentación fuente de alimentación fuente de alimentación Una 2 12


MOS problema

1 7,5 0,34091 0,14667 0,29333 7,3 14.7


2 11 0,50000 0,10000 0,20000 2,0 20.0
3 10,5 0,47727 0,10476 0,20952 9,4 12.6
4 15 0,68182 0,07333 0,14667 11,7 10.3

(e) Verifique que los tamaños de muestra esperados para dos cualesquiera de la suma de la PSU para
el tamaño total esperado de la muestra que calculó en (a).

Sumas de tamaños de muestra para 2


fuentes de alimentación

(1,2) 44,0
(1,3) 44,0
1,4) 44.0
(2,3) 44,0
(2,4) 44,0
(3,4) 44,0

10.4 Las dos UPM a continuación son una muestra de UPM existente seleccionada algunos años
atrás. Se realizará una nueva encuesta en estas UPM.
Machine Translated by Google

Soluciones a ejercicios seleccionados 639

(a) Calcule los tamaños de muestra esperados en cada dominio en cada SSU y el tamaño
de muestra total en cada SSU en todos los dominios. Suponga que se utilizan tasas de
0,03 y 0,01 para los dominios 1 y 2. Tenga en cuenta que los totales de población para
los dominios son 5000 y 2200, como se muestra en la tabla anterior.
Dominio 1: 75; dominio 2: 11. (b)
Calcule el MOS compuesto para cada SSU utilizando el método de la Secc. 10.5 (c) Calcule
las probabilidades de selección de la SSU suponiendo que la muestra de la SSU se
seleccionará con probabilidades proporcionales al MOS compuesto. (d) Calcule las
probabilidades dentro de la SSU requeridas para que la muestra en cada dominio sea
autoponderada. (e) Calcule la carga de trabajo esperada en cada SSU si fuera a ser
muestreada.
¿Son estos iguales? Si no, explique por qué.
(f) Verifique que las probabilidades SSU y dentro de SSU calculadas en (c) y (d) produzcan
un muestreo autoponderado en cada dominio.

(g) Determinar un esquema de muestreo para las SSU y las unidades dentro de las SSU
que proporcionen una carga de trabajo igual en cada SSU. Realice los cálculos para
las probabilidades de selección de la SSU y dentro de la SSU y verifique que el tamaño
total esperado de la muestra en los dos dominios sea el mismo en cada SSU. (h) ¿El
esquema que diseñó en (g) conduce a una muestra autoponderada?
¿Por qué o por qué no? Sustente su respuesta con cálculos.
Machine Translated by Google

640 Soluciones a ejercicios seleccionados

Capítulo 13

13.2 Encuentre lo siguiente:

(a) Probabilidades de selección para las tres UPM de la muestra


(b) Tasas de muestreo dentro de la fuente de alimentación necesarias para lograr la muestra general deseada
tasas de pling
(c) Pesos base para cada unidad
(d) Número esperado de personas de la muestra en cada UPM por raza/grupo étnico
y en total

(a) (b) (C) (d)


Dentro de
fuente de alimentación
No esperado.
tarifas pesos unitarios en la muestra
No No no
no suyo su Total
Hispano pánico
fuente de alimentación
Hispano pánico fuente de alimentación

fuente de alimentación mi Blanco Otro problema piBlanco Otro Blanco Otro Blanco Otro muestra
Una
1,000 800 200 0,3000 0,0333 0,1333 100 25 26,7 26,7 53,3
2 850 400 450 0,2550 0,0392 0,1569 100 25 15,7 70,6 86,3
3 150 110 40 0,0450 0,2222 0,8889 100 25 24,4 35,6 60,0

Población total M+ 10.000

13.4 La siguiente tabla proporciona sumas de pesos para muestras de establecimientos


en tres ciudades que fueron clasificadas como de comercio minorista con base en amarillo
listados de paginas

1. Ajuste los pesos por separado en cada ciudad primero para elegibilidad desconocida
y luego por falta de respuesta. Muestre sus cálculos en cada paso.
2. ¿Cuál es el número total estimado de unidades elegibles en cada ciudad y
en todas las ciudades?

3. ¿Cuál es el número estimado de establecimientos no elegibles en el mismo


marco plegable?
4. ¿En qué circunstancias sería razonable combinar las tres ciudades?
juntos para hacer los ajustes por elegibilidad desconocida y falta de respuesta? ¿Esas
circunstancias se mantienen aquí?
(d)
¿En
qué
circunstancias
sería
razonable
combinar
las
tres
ciudades
para
hacer
los
ajustes
por
elegibilidad
desconocida?
yla
falta
de
respuesta?
¿Esas
circunstancias
se
mantienen
aquí?
Si
todas
las
ciudades
tuvieran
las
mismas
tasas
de
elegibilidad
conocida
yrespuesta,
podrían
ser
conjunto.
Esto
no
es
cierto
aquí
porque
las
tasas
conocidas
son
0,86,
0,94
y0,78;
los
RR
son
0,52,
0,46
y0,59.
Total
171
166
38 12
3 Ciudad
50
46
77
89
44
31 R
NR Elegible Suma
de
pesos
11
19
8 inelegible Conocido
52 17
12
23 Elegibilidad
desconocida
Total
427 124
197
106
0,8629
0,9391
0,7830 un(1)
KN
semana
semana
57,9
53,3
82,0
94,8
56,2
39,6 Elegible Pesos
ajustados
por
elegibilidad
desconocida
196,1
187,7
43,2
427 R
NR
12,7
20,2
10,2 Conocido
inelegible
124
0,5208
111,3
197
0,4639
176,8
106
0,5867
95,8 Semana
total
de
ER
un(2)
semana
383.8 R
NR Elegible Pesos
ajustados
por
falta
de
respuesta
0
43.2 12,7
20,2
10,2 no
elegible
Total Conocido
427 106 197 124
641 Soluciones a ejercicios seleccionados
Machine Translated by Google
Machine Translated by Google

642 Soluciones a ejercicios seleccionados

13.6 (a) Logística


˜
glm(formula = resp as.factor(raza), edad + como.factor(sexo) + como.factor(hisp) +
family=binomial(link="logit"), data=nhis)
Coeficientes:
Estimación estándar Error valor z Pr(>z)
(Intersección) edad 1.014972 0.114182 8.889 $<$ 2e-16 ***
como factor(sexo)2 -0.009686 0.002039 -4.749 2.04e-06 ***
-0.077060 0.069995 -1.101 0.2709
como factor(hisp)2 0.404795 0.088047 4.598 4.28e-06 ***
como.factor(raza)2 -0.212043 0.098400 -2.155 0.0312 *
como.factor(raza)3 -0.352277 0.160388 -2.196 0.0281 *
---

signif. códigos: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1' ' Una
AIC: 4813.5

L.hat <- glm.logit$linear.predictores


# transformar valores de enlace a escala de probabilidad
pred.logit <- exp(L.sombrero) / (1 + exp(L.sombrero) )

probit
˜
glm(formula = resp as.factor(raza), edad + como.factor(sexo) + como.factor(hisp) +
family=binomial(link="probit"), data=nhis)
Coeficientes:
Estimación estándar Error valor z Pr(>z)
(Interceptar) 0,622283 0,069330 8,976 $<$ 2e-16 ***
edad -0.005824 0.001237 -4.710 2.48e-06 ***
como factor(sexo)2 -0.046346 0.042339 -1.095 0.2737
como.factor(hisp)2 0.245814 0.053728 4.575 4.76e-06 ***
como.factor(raza)2 -0.128363 0.059762 -2.148 0.0317 *
como.factor(raza)3 -0.216234 0.098442 -2.197 0.0281 *
AIC: 4813.6

L.hat <- glm.probit$linear.predictores


pred.probit <- pnorm(L.sombrero)

obstruir
˜
glm(formula = resp as.factor(raza), edad + como.factor(sexo) + como.factor(hisp) +
family=binomial(link="cloglog"), data=nhis)
Coeficientes:
Estimación estándar Error valor z Pr(>z)
(Interceptar) 0,271632 0,068058 3,991 6,57e-05 ***
edad -0.005551 0.001211 -4.583 4.59e-06 ***
como factor(sexo)2 -0.044086 0.041044 -1.074 0.2828
como.factor(hisp)2 0.240590 0.053616 4.487 7.21e-06 ***
como.factor(raza)2 -0.124046 0.058554 -2.118 0.0341 *
como.factor(raza)3 -0.219619 0.099917 -2.198 0.0279 *
AIC: 4814

L.sombrero <- glm.cloglog$linear.predictores


pred.cloglog <- 1- exp(-exp(L.hat) )
Machine Translated by Google

Soluciones a ejercicios seleccionados 643

(b) ¿Qué variables son significativas? Las mismas variables son significativas en
todos los modelos: intercepto, edad, hisp y raza.

13.9 Usando el conjunto de datos de NHIS, ajuste un árbol de clasificación para la


variable de respuesta (resp) usando las covariables edad, sexo, hisp, raza, padres y
educ. Requerir que se asigne un mínimo de 50 casos a cada nodo. Describe la
composición de cada nodo con palabras y haz un dibujo del árbol. Calcule las tasas
de respuesta no ponderadas en cada uno de los nodos que se forman.

require(rpart)
set.seed(15097) nhis <-
data.frame(nhis) t1 <- rpart(resp ˜edad +
sexo + hisp + raza + padres + educación, método = "clase", control = rpart.control( minbucket = 50, cp=0),
data = nhis) print(t1, dígitos=2)

par(mfrow=c(1,1)) plot(t1,
uniform=TRUE, compress=TRUE, margin = 0.1) text(t1, use.n=TRUE, all=TRUE, digits=4,
cex=1, pretty =1, fantasía=VERDADERO, xpd = VERDADERO, fuente = 3) título("Árbol para
identificar celdas de ajuste de falta de respuesta

en el conjunto de datos NHIS")

n = 3911
node), split, n, loss, yval, (yprob) * denota nodo terminal

1) raíz 3911 1200 1 (0,31 0,69)


2) educación$<$ 4 1964 690 1 (0.35 0.65)
4) edad$>$=56 588 240 1 (0,41 0,59)
8) hisp$<$ 1.5 88 44 0 (0.50 0.50) * 9) hisp$>$=1.5 500 200 1 (0.39
0.61) 18) edad$>$=82 73 36 1 (0.49 0.51) * 19) edad$ <$ 82 427
160 1 (0,37 0,63)

38) educa$>$=2 261 100 1 (0.39 0.61)


76) edad$<$ 60 52 25 0 (0,52 0,48) * 77) edad$>$=60 209 76 1
(0,36 0,64) *
39) educa$<$ 2 166 56 1 (0.34 0.66) *
5) edad$<$ 56 1376 450 1 (0,33 0,67)
10) padres$<$ 3.5 277 110 1 (0.40 0.60) 20) edad$>$=32 67 31 0 (0.54
0.46) * 21) edad$<$ 32 210 75 1 (0.36 0.64) * 11) padres$> $=3.5
1099 340 1 (0.31 0.69) *

3) educa$>$=4 1947 520 1 (0.27 0.73) *


Machine Translated by Google

644 Soluciones a ejercicios seleccionados

capitulo 14

14.1 Use el conjunto de datos smho.N874 para completar este ejercicio sobre
posestadificación.

a) ¿Cuáles son los medios de gasto en los cinco tipos de hospitales de la población?
¿Qué debe buscar para que valga la pena considerar la posestratificación? (b)
Calcule los recuentos de población de las instalaciones por tipo de hospital, tratando
el conjunto de datos smho98 como la población total. Calcule los recuentos de muestras
no ponderadas por tipo de hospital para verificar que cada tipo esté representado
en la muestra. Si uno de los tipos de hospitales no estuviera representado en la
muestra, ¿cuáles serían las implicaciones prácticas y teóricas? Analice esto en el
contexto de la inferencia basada en el diseño y en el modelo.

(c) Calcule el conjunto de pesos posestratificados para la muestra utilizando el tipo de


hospital como variable de posestratificación. ¿A qué se suman los pesos antes y
después de la posestratificación? ¿Es esto lo que esperas? (d) Verificar que los
controles de calibración sean cumplidos por el conjunto de posestratificados
pesos
(e) Estime el total de gastos de la población y su error estándar para el estimador de
expansión bajo el diseño de espada y para el estimador posestratificado. Asegúrese
de incorporar un factor de corrección de población finita en las estimaciones de
varianza. Discuta cualquier similitud o diferencia en los totales estimados y los EE.
Machine Translated by Google

Soluciones a ejercicios seleccionados 645

adjuntar("C:\\Datos\\smho98sub.RData", pos=2)
requerir (muestreo)
requerir (hacer por)
establecer.seed(-530049348)
smho <- smho98sub
# (a) población media de gastos por tipo de hospital
resumenPor(EXPTOTAL ˜ hosp.tipo hosp.type, data = smho98sub, fun = mean)
EXPTOTAL.media
Una Una 21240408
2 2 10852136
3 3 4913008
4 4 6118415
5 5 12041188

Poststrata será efectivo si los PS tienen diferentes medios, lo que hacen en


este caso.

# Seleccione un srswor y publíquelo


n <- 80
N <- nrow(smho)
# seleccione srswor de tamaño n
sam <- muestra(1:N, n)
samdat <- smho[sam, ]

# (b) Recuentos de población y muestra por tipo de hospital


table(smho[, "hosp.tipo"])
12345
215 115 252 149 143
table(samdat[, "tipo.hosp"])
12345
17 13 23 15 12

Si uno de los posestratos no estuviera representado en la población, la implicación práctica


es que tendría que colapsarse con uno de los otros.
poststrata para calcular una estimación. Esto crea una especie de adaptación
procedimiento para el cual la teoría basada en el diseño para el estimador posestratificado
no se aplica. La suposición habitual allí es que cada posestrato está en
la muestra. Si se aplica un modelo diferente en cada posestrato, por ejemplo, cada PS
tiene una media diferente, entonces el estimador PS no es modelo insesgado para eso
configuración de las unidades de muestra.

# (c) pesos posestratificados, pesos srs


d <- rep(N/n, n)
f1 <- rep(n/N, n)
N.hosp <- table(smho[, "hosp.tipo"])
requerir (encuesta)
smho.dsgn <- svydesign(ids = ˜0, estratos = NULL, fpc # sin grupos
= ˜f1, # sin estratos

datos = datos.marco(samdat),
Machine Translated by Google

646 Soluciones a ejercicios seleccionados

pesos = ˜d)

# forma vector de pop totales y posestratificar


pop.tots <- c('(Intercept)'= 874, Ng = N.hosp[-1]) ps.calib <- calibrate(design =
smho.dsgn, ˜ as.factor(hosp.type),población = pop.tots, límites = c(-Inf,Inf), calfun =
fórmula = c("lineal"), )

# suma de pesos antes y después de PS


sum(weights(smho.dsgn)) [1] 874 sum(weights(ps.calib)) [1] 874

Ambos conjuntos de ponderaciones suman el tamaño de la población N=874 como deberían.

# (d) Verifique que se cumplan los controles de calibración svytotal(˜


as.factor(hosp.type), ps.calib)
total SE
as.factor(tipo.hosp.)1 215 1.829e-14 as.factor(tipo.hosp.)2 115
2.974e-15 as.factor(tipo.hosp.)3 252 9.790e-15
as.factor(tipo.hosp.) 4 149 3.897e-15 como factor(tipo.hosp.)5
143 6.476e-15

# (e) Estimar la población total de gastos y SE


# Error estándar de PS y cv svytotal(˜
EXPTOTAL, ps.calib) total
SE
EXPTOTAL 9406934020 1323048236
cv(svytotal(˜ EXPTOTAL, ps.calib))
EXPTOTAL
0.1406461
# srs error estándar y cv svytotal(˜ EXPTOTAL,
smho.dsgn) total
SE
EXPTOTAL 9085181570 1363966973
cv(svytotal(˜ EXPTOTAL, smho.dsgn))
EXPTOTAL
0.1501310

El total real de la población es 9.686.295.207, por lo que la estimación PS está más cerca del total
de la población en esta muestra en particular. El SE del estimador PS es ligeramente inferior, pero la
posestratificación no ha mejorado mucho la precisión del total estimado. Por supuesto, una muestra
no nos dice nada sobre el rendimiento a largo plazo.

14.6 Utilizando el valor inicial aleatorio de 15097 en R, seleccione una muestra de n=50 hospitales
del archivo de datos Hospital pop.txt con probabilidades proporcionales a la raíz cuadrada del número
de CAMAS, es decir, pps x1/2 .
Machine Translated by Google

Soluciones a ejercicios seleccionados 647

# cargar paquete de muestreo


require(muestreo) # adjuntar Hospitales pop
adjuntar("C:\\Data\\hospital.RData")

#Semilla aleatoria para selección de muestra


set.seed(15097)
# Calcular probabilidades de selección de 1 sorteo - pps
mes <- sqrt(hospital$x)
#Calcular probabilidades de selección de 1 sorteo hospital$prbs.1d <-
mos / sum(mos) resumen(hospital$prbs.1d)

mín. 1er cuarto Mediana Media 3er Qu. máx.


0,0005277 0,0016850 0,0025470 0,0025450 0,0033080 0,0052400

# Seleccionar muestra - pps


#Definir tamaño de muestra
n <- 50
# probabilidades de seleccionar una muestra de n pk <- n * hospital$prbs.1d
#PPS sample sam <- UPrandomsystematic(pk) sam <- sam==1 sam.dat <-
hospital[sam, ]

#Pesos de diseño
dsgn.wts <- 1/pk[sam] sum(dsgn.wts)
[1] 393.8783 resumen(dsgn.wts)

mín. 1er cuarto Mediana Media 3er Qu. máx.


3.955 5.383 6.837 7.878 9.746 27.490

(a) Calcule los efectos de diseño estimados utilizando la fórmula de Spencer y la


aproximación de Kish.

#Calcular valores WLS prbs.1d,


data=sam.dat, weights=dsgn.wts) sam.wls <- lm(y ˜
Componente #DEFF - var de y
sam.mean.y <- sum(sam.dat$y * dsgn.wts) / sum(dsgn.wts) sam.mean.y [1] 805.9594
sam.var.y <- sum(dsgn.wts * (sam ) .dat$y - sam.mean.y)ˆ2) /

sum(dsgn.wts)
sam.var.y [1]
263510.3 #DEFF
componente - alfa cuadrado sam.alpha2 <-
sam.wls$coeficientes[1] ˆ2 sam.alpha2 (Intercepción)

141821.9
Componente #DEFF - correlación cuadrada sam.rho2.yP <-
resumen(sam.wls)$r.squared sam.rho2.yP [1] 0.8261859 Componente
#DEFF - Kish
Machine Translated by Google

648 Soluciones a ejercicios seleccionados

kish.deff <- n*sum(dsgn.wtsˆ2) / (sum(dsgn.wts)ˆ2)


kish.deff
[1] 1.231421
#DEFF de Spencer
spencers.deff <- as.numeric((1 - sam.rho2.yP)*kish.deff + (sam.alpha2/
sam.var.y)*(kish.deff-1))
spencers.deff [1]
0.3385895

(b) Describa los estimadores de la población total a los que se refieren los deff de Kish y
Spencer. ¿Por qué difieren los valores calculados? ¿Cuál crees que es el más relevante
aquí? ¿Por qué?
La definición de Kish es 1,23; Spencer es 0,34. Si el objetivo es estimar el total de
descargas (y), entonces el de Spencer es más apropiado. (c) Estime el total de descargas
(y) en la población usando el estimador ÿ junto con su SE y CV. ¿Cómo se compara esto con
la estimación de la varianza del total de una muestra aleatoria simple de n=50? Estime la
varianza de la fuerza de la muestra de 50 seleccionados para este problema.

h.dsgn <- svydesign(ids = ˜0,


estratos = NULL, datos
= data.frame(sam.dat), pesos = ˜dsgn.wts)

svytotal(˜y, h.dsgn) total y 317450


14682 cv(svytotal(˜y,
SE h.dsgn))

y
0.04624832
# estimar el EE si se hubiera seleccionado una respuesta w <- dsgn.wts y <-
sam.dat$y wm <- ponderado.mean(x=y, w=w) sig2 <- (n/(n-1) * suma(w*(y - wm)ˆ2) /
(suma(w)-1))

SE.srs <- sqrt(N*(N/n - 1)* sig2)


SE.srs
[1] 51365.75

El SE es mucho más pequeño para el estimador ÿ en el muestreo de pps que en el de srswor


(14682 frente a 51365,75). Esto se debe a que las descargas (y) están relacionadas con los lechos
(x) y la raíz cuadrada de los lechos. La defensa de Spencer refleja este hecho, pero la de Kish no.

14.8 Usando el archivo de datos smho.N874, (a) calcule las probabilidades para todas las
unidades de población en una muestra de 50 seleccionados con probabilidades
proporcionales a la siguiente medida de tamaño (MOS): EXPTOTAL. (a) Seleccione una

muestra de tamaño 50 utilizando las probabilidades calculadas en (a).


Machine Translated by Google

Soluciones a ejercicios seleccionados 649

# set mos = gastos mos <-


smho$EXPTOTAL n <- 50

N <- nrow(smho) cert <-


mos N * mean(mos)/n certs1 <- (1:N)[cert]
certs1

[1] 161

set.seed(429336912) n.nc <- n


- length(certs1) pk <- n.nc * mos / sum(mos[-
certs1]) pk[certs1] <- 1 sam <- UPrandomsystematic(pk[-
certs1 ) ]) nc.unidades <- (1:N)[-certs1]

# Las unidades de muestra son:


noncerts <- nc.units[sam == 1] sam.units <-
sort(c(certs1, nc.units[sam == 1])) sam.units

[1] 18 21 28 61 68 79 81 84 93 152 155 156 159


161 162 163 168 171 189 190 193 199 204 207 221 246 250
286 315 386 506 515 539 557 610 628 660 666 674 679 695
696 713 722 728 754 802 819 822 864
sam.dat <- smho[sam.units, ] wk <- 1/
pk[sam.units] resumen(semana)

mín. 1er cuarto Mediana Media 3er Qu. 1.000 4.425 7.971 máx.
19.820 19.650 206.600

(b) Calcule la definición de Kish y Spencer para esta muestra. En el caso de la


deff de Spencer, use la variable SEENCNT como y.

p.d1 <- pk/n.nc p.d1[certs1]


<- mos[certs1]/sum(mos) sam.dat$prbs.1d <- p.d1[sam.units]

#Calcular valores WLS prbs.1d,


sam.wls <- lm(SEENCNT ˜ #DEFF data=sam.dat, pesos=semana)
componente - var de y
sam.mean.y <- sum(sam.dat$SEENCNT * semana) / sum(sem) sam.mean.y [1]
2306.742 sam.var.y <- sum(sem*(sam.dat$SEENCNT-sam ) .media.y)ˆ2)/
suma(semana)

sam.var.y [1]
6359677 #DEFF
componente - alfa cuadrado sam.alpha2 <-
sam.wls$coeficientes[1] ˆ2 sam.alpha2 (intersección)

3352160
#Componente DEFF - correlación cuadrada sam.rho2.yP <-
resumen(sam.wls)$r.squared sam.rho2.yP [1] 0.09294825 #Componente
DEFF - Kish
Machine Translated by Google

650 Soluciones a ejercicios seleccionados

kish.deff <- n*sum(sem2) / (suma(sem)2)


kish.deff
[1] 4.268636 #DEFF
de Spencer
spencers.deff <- as.numeric((1 - sam.rho2.yP)*kish.deff +
(sam.alpha2/sam.var.y)*(kish.deff-1))
spencers.deff [1]
5.59476

(c) Explique con palabras el significado del valor que obtuvo en (c) para 1+L?
¿Qué se debe considerar para determinar si el valor es excesivamente grande
o no? ¿Cómo se comparan las medidas de Kish y Spencer en este problema?

Un valor de 4,27 significa que la varianza de una media es 4,27 veces mayor
de lo que sería si la ponderación igual fuera óptima. Sin embargo, el muestreo
pps con probabilidades proporcionales a EXPTOTAL puede ser muy eficiente
para algunas estimaciones. Los estimandos que son importantes en la muestra
deben ser considerados para decidir si 4.27 es un problema o no. En este
caso, las deff de Kish y Spencer son grandes porque SEENCNT solo está
débilmente relacionado con MOS, EXPTOTAL. Ambos dicen que EXPTOTAL
no es un buen MOS si SEENCNT es la variable de análisis más importante. (d)
Repita las partes (a)–(d) usando BEDS como MOS. Establezca el MOS para
cualquier unidad con BEDS = 0 en el valor mínimo de BEDS para aquellas con
BEDS distintas de cero.

# (a) Calcular MOS #


establecer mos = CAMAS
mos <- smho$BEDS
mos[mos == 0] <- min(mos[mos 0])
n <- 50
N <- nrow(smho) cert <-
mos N * mean(mos)/n sum(cert) [1] 0 certs1 <-
(1:N)[cert] certs1

# no hay certificados en este caso


entero (0)

# (b) Seleccione una muestra de tamaño 50.


set.seed(429336912) pk <- n *
mos / sum(mos) sam <-
UPrandomsystematic(pk)
# Las unidades de muestra son:
unidades.sam <- (1:N)[sam == 1] unidades.sam

[Una] 6 9 33 49 77 82 106 111 129 154 157 163


167 179 181 190 193 197 207 210 233 242 246 265 268
271 288 334 338 352 360 384 393 403 416 481 499 500
513 549 614 742 762 770 782 791 822 823 850 852
sam.dat <- smho[sam.units, ] wk <- 1/
pk[sam.units]
Machine Translated by Google

Soluciones a ejercicios seleccionados 651

resumen (semana)
mín. 1er cuarto Mediana Media 3er Qu. máx.
1.049 4.198 10.630 45.980 19.380 1424.000

# (c) Calcule las deffs de Kish y Spencer para esta muestra. p.d1 <- pk/n sam.dat$prbs.1d <-
p.d1[sam.units]

#Calcular valores WLS sam.wls <-


lm(EXPTOTAL ˜ prbs.1d, datos=sam.dat, pesos=semana)

Componente #DEFF - var de y


sam.mean.y <- sum(sam.dat$EXPTOTAL * semana) / sum(sem) sam.mean.y [1]
4664970 sam.var.y <- sum(sem * (sam.dat$EXPTOTAL -

sam.mean.y)ˆ2) / sum(wk)
sam.var.y [1]
8.229275e+13

#DEFF componente - alfa cuadrado sam.alpha2 <-


sam.wls$coeficientes[1] ˆ2 sam.alpha2 (Intersección) 4.167288e+12

#DEFF componente - correlación al cuadrado sam.rho2.yP <-


resumen(sam.wls)$r.squared sam.rho2.yP [1] 0.6500734

#DEFF componente - Kish kish.deff


<- n*sum(wkˆ2) / (sum(wk)ˆ2) kish.deff

[1] 19.69660

#DEFF de Spencer
spencers.deff <- as.numeric((1-sam.rho2.yP)*kish.deff + (sam.alpha2/sam.var.y)*(kish.deff-1))

spencers.deff [1]
7.839158

El valor de Kish de 19,7 es extremadamente grande, pero también lo es la definición de Spencer de 7,8.
El resumen de ponderación muestra que la ponderación más grande es 1424, que corresponde a una
unidad cuyo MOS se recodificó de 0 a 1. De hecho, la siguiente ponderación más pequeña es 178,0.
Este parece ser un caso en el que sería recomendable (i) usar una recodificación diferente para el
MOS, por ejemplo, hacer que el valor mínimo sea 5 o 10 en lugar de 1 o (ii) limitar los pesos. La
programación cuadrática puede ser una buena opción para hacer esto.

14.10

(a) Indique el resumen de los pesos resultantes, es decir, el mínimo, el máximo, los cuartiles y la
media. ¿Alguna unidad tiene pesos que parezcan preocupantes?
Machine Translated by Google

652 Soluciones a ejercicios seleccionados

smho.N874 <- leer.csv("C:\\Datos\\smho.N874.csv",


fila.nombres = 1)
smho <- smho.N874
# establecer meses = CAMAS
mos <- smho$CAMAS
mos[mos == 0] <- min(mos[mos 0])
n <- 50
N <- nrow(smho)
establecer.seed(429336912)
pk <- n * meses / suma (meses)
sam <- UPrandomsystematic(pk)
# Las unidades de muestra son:
sam.unidades <- (1:N)[sam == 1]
unidades.sam
[Una] 6 9 33 49 77 82 106 111 129 154 157 163 167
179 181 190 193 197 207 210 233 242 246 265 268 271 288
334 338 352 360 384 393 403 416 481 499 500 513 549 614
742 762 770 782 791 822 823 850 852
sam.dat <- smho[sam.unidades, ]
d <- 1/paq[unidades sam]
resumen (d)
mín. 1er cuarto Mediana Media 3er Qu. máx.
1.049 4.198 10.630 45.980 19.380 1424.000
ordenar (d)
[1] 1.049462 1.200776 1.206881 1.382641
1,849506 2,401551 2,831252 2.401551 2.579928 2.738692
3,901699 3.966908 4.045795 4.653987
5.353835 5.394394 5.606772 6.593148 6.593148
6.846731 7.697946 9.494133 9.889722 10.029014
10.549037 10.707669 13.309533 13.309533 13.435094
14.241200 14.241200 14.531837 14.990737 15.479565
16.001348 17.581728 18.988267 19.508493 19.779444
20.344571 20.942941 21.577576 22.969677 37.476842
44.503750 59.338333 61.918261 71.206000 178.015000
1424.120000

El peso más grande de 1424 es mucho más grande que cualquier otro. esto no es probable
para ser eficiente
(b) Use programación cuadrática para acotar los pesos en el rango [1, 50].
Grafique los pesos resultantes frente a los pesos de diseño. cual fue el efecto
de la delimitación? ¿Es la programación cuadrática una forma efectiva de acotar
los pesos aquí?

# Tabular pop totales para restricciones


x.camas <- sum(smho$CAMAS)
x.visto <- sum(smho[,"SEENCNT"])
x.eoy <- suma(smho[,"EOYCNT"])
X.hosp <- modelo.matriz(~ 0 + as.factor(hosp.type):CAMAS,
datos = sam.dat)
X <- rbind(sam.dat[, "CAMAS"],
sam.dat[, "SEENCNT"],
sam.dat[, "EOYCNT"]
)
Machine Translated by Google

Soluciones a ejercicios seleccionados 653

c0a <- c(x.camas, x.visto, x.eoy)


# Calcule los pesos completos de la muestra a través de la programación cuadrática
En <- diag(nrow = n)
L <- 1
U <- 50
uno <- rep(1, n) c0b <-
c( L * uno,
-U * uno)
Cmat <- rbind(X, In, -In) fs.wts <-
solve.QP(Dmat = diag(1/d), dvec = 2 * uno, Amat = t(Cmat),
bvec = c(c0a, c0b ) ), #1st
3 son restricciones de
igualdad meq = 3

)
sort(fs.wts$solution) [1] 1,000000
1,000000 1,000000 1,000000 1,000000 1,000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 2.821197
2.982887 3.181804 5.488968 9.867670 12.623416 14.049774
14.235627 14.577856 14.728491 17.755924 18.204255 19.235434
19.393679 19.535066 22.993572 24.105195 27.706496 28.908379
29.005913 31.769392 32.262358 33.271899 34.805294 40.470829
50.000000 50.000000 50.000000 50.000000 50.000000 50.000000
50.000000 50.000000
plot(d,fs.wts$solución) abline(0,1)
50

40

30

20
$solución
fs.wts.

10

0 200 400 600 800 1000 1200 1400


d

Hay ocho pesos que se redujeron a 50; de lo contrario, la mayoría de los pesos no se
modificaron demasiado.
(c) Vuelva a hacer las partes (a) y (b) pero recodifique cualquier unidad con BEDS = 0 a BEDS=10.
Discuta sus resultados. ¿Son los ajustes de peso tan extremos como en (b)?
Machine Translated by Google

654 Soluciones a ejercicios seleccionados

mos <- smho$BEDS


mos[mos $<$ 10] <- 10 n <- 50

N <- nrow(smho)
set.seed(429336912) pk <- n *
mos / sum(mos) sam <-
UPrandomsystematic(pk)
# Las unidades de muestra son:
unidades.sam <- (1:N)[sam == 1] unidades.sam

[Una] 6 26 49 52 53 77 82 94 111 116 129 136 154


155 157 163 167 179 181 183 189 190 193 197 233 271 288
352 360 481 499 500 513 535 721 742 769 782 788 791 802
811 823 826 832 838 852 864 865 872

sam.dat <- smho[sam.units, ] d <- 1/pk[sam.units]


resumen(d)

mín. 1er cuarto Mediana Media 3er Qu. 1.078 máx.


4.301 10.720 17.460 17.400 146.300
# Tabular pop totales para restricciones x.beds <-
sum(smho$BEDS) x.seen <- sum(smho[,"SEENCNT"]) x.eoy <-
sum(smho[,"EOYCNT"])

X.hosp <- model.matrix(~ 0 + as.factor(hosp.type):BEDS, data = sam.dat)

X <- rbind(sam.dat[, "BEDS"], sam.dat[,


"SEENCNT"], sam.dat[, "EOYCNT"]

)
c0a <- c(x.camas, x.visto, x.eoy)
# Calcule los pesos completos de la muestra a través de la programación cuadrática
En <- diag(nrow = n)
L <- 1
U <- 50
uno <- rep(1, n) c0b <- c( L
* uno,
-U * uno)
Cmat <- rbind(X, In, -In) fs.wts <-
solve.QP(Dmat = diag(1/d), dvec = 2 * uno, Amat = t(Cmat),
bvec = c(c0a, c0b ) ), #1st 3
son restricciones de igualdad
meq = 3

) sort(fs.wts$solution) [1] 1.000000


1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 1.000000 1.000000 1.000000 1.000000
1.000000 1.000000 3.043553 3.839364 4.839955 6.087290
7.387588 8.230181 13.038428 14.421487 16.876299 17.517496
18.532730 20.903125 22.139108 22.909465 23.599381 23.914943
25.941203 28.815430 29.358972 29.982384 32.729851 32.849170 37.342522 37.523764 38.214365
45.850978 50.000000 50.000000
Machine Translated by Google

Soluciones a ejercicios seleccionados 655

50.000000 50.000000 50.000000

plot(d,fs.wts$solución)
abline(0,1)
50

40

30

20
$solución
fs.wts.

10

0 50 100 150
d

El rango inicial de los pesos (1.078, 146.3) es mucho más pequeño aquí debido a
la grabación del MOS. Esto puede ser eficiente, pero las variables de análisis específicas
Habría que examinarlo para estar seguro.

Capítulo 15

15.2 Los siguientes datos se recopilaron de una muestra de dos UPM seleccionadas
de cada uno de los dos estratos.

h fuente de alimentación yhi

11 5
12 6
2 1 10
22 4
Total 25

Yhi es la UPM total ponderada observada para la UPM i en el estrato h.

(a) Calcule el estimador de varianza de replicación repetida balanceada (BRR) para


2 2
el total estimado ˆy = estimador h=1 yo=1 hola Especifique qué forma del BRR
que está utilizando. Use la siguiente matriz ortogonal donde las filas
designar los estratos y columnas las réplicas:
Machine Translated by Google

656 Soluciones a ejercicios seleccionados

++++
ÿ+ÿ+ÿ ÿ
un = ÿ ÿ

.
ÿ

++ÿÿ ÿ

ÿ+ÿÿ+ ÿ

Un conjunto equilibrado de réplicas tiene un número de réplicas igual al número más


pequeño mayor o igual que el número de estratos, 4 en este caso. Podemos usar cualquiera
de las dos filas de la matriz. Utilice las dos últimas filas de arriba para indicar los estratos,
ya que esto le dará 4 estimaciones diferentes. Podríamos usar las filas 1 y 2, pero esto solo
dará dos estimaciones diferentes. Sin embargo, en el caso de 2 estrato, la estimación de la
varianza BRR estándar será la misma ya sea que usemos las filas 1–2 o 3–4. Usando las
filas 3–4: Repita 1: 2*5 + 2*10=30 ; Réplica 2: 2*5 + 2*4=18 ; Réplica 3: 2*6 + 2*4=20;
Réplica 4: 2*6 + 2*10=32

1
vB = (30 ÿ 25)2 + (18 ÿ 25)2 + (20 ÿ 25)2 + (32 ÿ 25)2 [25 + 49 + 25
4
= 1
+ 49] = 37
4

(b) ¿Cuál es la fórmula de varianza para el total estimado ˆy si se supone que las UPM se
seleccionan con reemplazo? Evalúe esta fórmula utilizando los datos de la tabla anterior.
¿Cómo se compara con su respuesta en la parte (a)?

2
Nueva Hampshire

Yˆhi ÿ Yˆ¯h
La fórmula de la varianza es vW R= h nhÿ1 sh
.

15.6 Use el archivo nhis.large como población y seleccione una muestra aleatoria simple de
tamaño n = 500. Si está usando R, use una semilla de número aleatorio de 428274453.
Postestratifique la muestra para recuentos de población para age.grp. (a)
Calcule la proporción estimada de la población que informó una visita al médico (doc.visit) en las
2 semanas anteriores a la entrevista. (b) Calcule los EE utilizando el método de linealización y
JKn. ¿Cuál sería el efecto sobre los EE estimados de ignorar la posestratificación? (c) Estime las
proporciones y los EE de la población que informó una visita al médico en una tabla definida por
etnicidad hispana (hisp). Combine las categorías 3 y 4 de hisp juntas. ¿Cuál sería el efecto de
ignorar la posestratificación para estas estimaciones?

adjuntar("C:\\Datos\\nhis.large.RData", pos=2) require(muestreo)


require(encuesta) # colapsar hisp = 3,4 hisp.r <- nhis.large$hisp
hisp.r[ nhis.large$hisp ==4] <- 3 tabla(hisp.r)

123
5031 12637 3920

nhis.large1 <- data.frame(nhis.large, hisp.r) t1 <- table(nhis.large$doc.visit,


nhis.large1$hisp.r)
Machine Translated by Google

Soluciones a ejercicios seleccionados 657

100*redondo(prop.table(t1,2),3); 123

1 12,0 17,2 14,7


2 88,0 82,8 85,3

nhis.large1$PS <- nhis.large1$edad.grp N.PS <- tabla(PS =


nhis.large1$PS)
N. PD
PD
12345
5991 2014 6124 5011 2448
# seleccione srswor de tamaño n
set.seed(428274453) n <- 500

N <- nrow(nhis.large1) sam <-


muestra(1:N, n) samdat <-
nhis.large1[sam, ] n.PS <- table(samdat[, "age.grp"])
as.vector (n.PS) [1] 155 46 128 107 64

# calcular los pesos de srs y la fracción de muestreo d <- rep(N/n, n) # objeto de


diseño de srswor nhis.dsgn <- svydesign(ids = ˜0, strata = NULL, data =
data.frame(samdat), pesos = ˜ d)

# Desviaciones de linealización # objeto de diseño


posestratificado ps.dsgn <- postStratify(design = nhis.dsgn,

estratos = ˜PS, población


= N.PS)
# Comprobar que los pesos están calibrados para x's svytotal(˜ as.factor(PS),
ps.dsgn) total SE as.factor(PS)1 5991 0 as.factor(PS)2 2014 0 as.factor(PS)3 6124 0
como factor(PS)4 5011 0 como factor(PS)5 2448 0

# Errores estándar de linealización PS y cv's a1.lin <- round(svymean(˜


as.factor(doc.visit), ps.dsgn, na.rm=TRUE), 4)

a2.lin <- round(cv(svymean(˜ as.factor(doc.visit),


ps.dsgn, na.rm=TRUE))), 4) # tabla cruzada:
grupo de edad x hispano b1.lin <- round(svyby(˜as.factor(doc.visit),
by = ˜hisp.r, design = ps .dsgn, svymean, na.rm=TRUE), 4)

b2.lin <- round(cv(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = ps.dsgn,


Machine Translated by Google

658 Soluciones a ejercicios seleccionados

svymean, na.rm=TRUE)), 4)

# errores estándar de linealización y cv ignorando # posestratificación wts <- pesos


(ps.dsgn) # objeto de diseño ignorando PS noPS.dsgn <- svydesign (ids = ˜0, estratos
= NULL, data = data.frame (samdat), pesos = ˜wts) a1.noPS <- round(svymean(˜
as.factor(doc.visit),

noPS.dsgn, na.rm=VERDADERO), 4)
a2.noPS <- round(cv(svymean(˜ as.factor(doc.visit),
noPS.dsgn, na.rm=TRUE)), 4) b1.noPS <-
round(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = noPS.dsgn, svymean, na. rm=TRUE), 4) b2.noPS
<- round(cv(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = noPS.dsgn,
svymean, na.rm=TRUE)) ,

# Variaciones de navaja
jk1.dsgn <- as.svrepdesign(diseño = nhis.dsgn, tipo = "JK1")
# objeto de diseño posestratificado
jk1.ps.dsgn <- postStratify(diseño = jk1.dsgn, estratos = ˜PS, población = N.PS)

# Errores estándar PS JK1 y cv's


a1.jk <- round(svymean(˜ as.factor(doc.visit), jk1.ps.dsgn, na.rm=TRUE), 4)

a1.jk
significar SE
as.factor(doc.visit)1 0.1602 0.0162 as.factor(doc.visit)2 0.8398
0.0162

a2.jk <- round(cv(svymean(˜ as.factor(doc.visit), jk1.ps.dsgn, na.rm=TRUE)), 4)

a2.jk
como.factor(doc.visita)1 como.factor(doc.visita)2
0.1008 0.0192

# tabla cruzada: grupo de edad x hispano


b1.jk <- round(svyby(˜as.factor(doc.visit), by = ˜hisp.r,
design = jk1.ps.dsgn, svymean, na.rm=TRUE), 4) b2.jk <-
round(cv(svyby(˜as.factor(doc.visit), by = ˜hisp.r, design = jk1 ) .ps.dsgn, svymean, na.rm=TRUE)), 4)

SE <- cbind(b1.noPS, b1.lin, b1.jk)


SEs <- SEs[, -c(1,6,11)] # eliminar columnas de ID de hisp pt.ests <- SEs[, c(1,5,9)] # mantener
pt. ests de prop. con doc # visita

SE <- SE [, c(3,7,11)] dimnames(pt.ests)


[[1]] <-
dimnames(SEs)[[1]] <- c("Hispano", "blanco no hispano",
"No-Hisp Black & Other") dimnames(pt.ests)
[[2]] <- c("noPS doc=1","lin PS doc=1", "jk doc=1")
Machine Translated by Google

Soluciones a ejercicios seleccionados 659

pt.ests
noPS doc=1 lin PS doc=1 jk doc=1
Hispanos no 0,0785 0,0785 0,0785
hispanos blancos no 0.2077 0.2077 0.2077
hispanos Negros y otros 0.1044 0.1044 0.1044
dimnames(SE)[[2]] <- c("noPS SE doc=1","lin SE doc=1",
"jk SE doc=1")

# SE sobre proporciones estimadas de personas con visitas al médico


# por la variable hispana.
SE
noPS SE doc=1 lin SE doc=1 jk SE doc=1
Hispanos no 0.0253 0.0252 0.0255
hispanos blancos no 0.0235 0.0228 0.0230
hispanos Negros y otros 0.0331 0.0330 0.0336

CV <- cbind(b2.noPS, b2.lin, b2.jk)


CVs <- CVs[, c(1,3,5)] # mantener CV ests de proporción con doc
visitar

dimnames(CV)[[1]] <- c("Hispano", "blanco no hispano",


"negros no hispánicos y otros")
dimnames(CV)[[2]] <- c("noPS CV doc=1","linCV doc=1",
"jkCV doc=1")
# CV sobre proporciones estimadas de personas con visitas al médico
# por la variable hispana.
CV
noPS CV doc=1 linCV doc=1 jkCV doc=1
Hispanos no 0,3222 0,3253 0.3213
hispanos blancos no 0.1132 0.1098 0.1109
hispanos Negros y otros 0.3173 0.3164 0.3215

Discusión: Las estimaciones puntuales de las proporciones con visitas al médico no son
afectados por la elección del método de estimación de la varianza. En este ejemplo, hay
hay muy poca diferencia en las estimaciones de SE y CV si la posestratificación
se contabiliza o no. Los SE y CV de linealización y jackknife son muy
similar.

15.8 Repita el ejercicio 15.6 utilizando el método de arranque con 500 repeticiones. Si
está usando R, use una semilla de número aleatorio de -711384152. ¿Cómo se comparan sus
estimaciones de errores estándar y CV con la linealización y el jackknife?
estimaciones del ejercicio 15.6?

adjuntar("C:\\Data\\nhis.large.RData", pos=2)
requerir (muestreo)
requerir (encuesta)
# colapsar hisp = 3,4
hisp.r <- nhis.large$hisp
hisp.r[nhis.large$hisp ==4] <- 3
mesa(hisp.r)
nhis.grande1 <- data.frame(nhis.grande, hisp.r)
nhis.large1$PS <- nhis.large1$edad.grp
N.PS <- tabla(PS = nhis.large1$PS)
Machine Translated by Google

660 Soluciones a ejercicios seleccionados

# seleccione srswor de tamaño n


set.seed(-711384152) n <- 500

N <- nrow(nhis.large1) sam <-


muestra(1:N, n) samdat <-
nhis.large1[sam, ] n.PS <- table(samdat[, "age.grp"])
as.vector (n.PS)

# calcular los pesos de srs y la fracción de muestreo d <- rep(N/n, n) # objeto de


diseño de srswor nhis.dsgn <- svydesign(ids = ˜0, strata = NULL, data =
data.frame(samdat), pesos = ˜ d) # crear diseño con boostrap wts.

# Versión de Rao-Wu usada con mh = nh-1 nhis.boot <-


as.svrepdesign(design = nhis.dsgn, type = "subbootstrap", replicates = 500) # objeto de
diseño postestratificado boot.ps <-
postStratify(design = nhis.boot,

estratos = ˜PS, población


= N.PS)

# Errores estándar de arranque de PS y cv's a1.boot <-


round(svymean(˜ as.factor(doc.visit),
boot.ps, na.rm=TRUE), 4) a2.boot <-
round(cv(svymean(˜ as.factor(doc.visit),
boot.ps, na.rm=TRUE)), 4) # tabulación
cruzada: grupo de edad x hispano
b1.boot <- round(svyby(˜as.factor(doc.visit), by = ˜hisp.r,
diseño = boot.ps, svymean, na.rm=TRUE), 4)
b2.boot <- round(cv(svyby(˜as.factor(doc.visit), by = ˜hisp.r,
diseño = boot.ps, svymean, na.rm=TRUE)), 4)

ests <- cbind(b1.boot, b2.boot) ests <- ests[, c(2,4,6)] #


mantener ests para prop. with doc visit dimnames(ests)[[1]] <- c("Hispano", "blanco no hispano",

"negros no hispánicos y otros")


dimnames(ests)[[2]] <- c("doc=1", "SE","CV") ests

doc=1 SE CV
Hispanos 0,1613 0,0338 0,2096
blancos no hispanos 0.2032 0.0232 0.1140 Negros no hispanos y otros 0.1097
0.0314 0.2863
Machine Translated by Google

Índice de autores

AAPOR 163, 168, 171, 515 Breivik, H. 484


Abraham, KG 165, 166 Adhikari, Brick, JM 180, 338, 440 Brown,
P. 338 Aitken, A. 531 Anderson, L. 39, 40, 110 Oficina de
D. 514 Anthony, J. 331 Aragon, Estadísticas Laborales 32, 510 Byron, M.
E. 518 Armitage, P. 91 Atkinson, 375
B. 338, 580 Axinn, GT XXI, 485,
494, 538 Cai, T. 39, 40, 110
Campanelli, P. 542
Canada, S. 531 Carlin,
J. 310 Carson, CP 484
Casella, G. 243, 503,
Bachteler, T. 536 504 Center for Disease Control
Baker, KR 133 Bann, and
CM 484 Barker, LE Prevención 9, 32
6 Barrett, B. 248, Chen, S. 490 Cherny,
338 Bart, J. 485 Basit, N. 484 Christian, LM
M. 288 Bates, D. 244, 486 Chromy, JR 52, 81,
580 Bates, DM 248, 580 248, 270 Cobben, F. 541 Cochran,
Battaglia, MP 4, 6 Bell, W. 35, 50, 52, 63, 69, 72, 74 , 81,
B. 283, 284, 286 Bender, 207, 215, 219, 329, 363, 515, 516 Cohen, J.
S. 536 Berger, R. 503, 504 113 Cohen, R. 484 Collett, B. 484 Collins,
Berglund, F. 490 Berry, G. M. 543 Considine, KA 484 Cook, RD 353
91 Best, HL 484 Bethlehem, Cooper, RS 288 Consejo de la Unión Europea
J. 541 Bianchi, SM 165, 31 Couper, M. 2, 318, 484, 542 Crawley, M. ix,
166 Biemer , P. 2, 532, 579 Creel, D. 484 Czajka, J. 329
543 Billiet, J. 490 Blasius,
J. 532 Blom, A. 545 Bolker,
B. 244, 580 Bowman, KR
248 Breiman, L. 338

D'Agostino, RB 330, 348


Investigadores del estudio del corazón de Dallas 288

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 661


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

662 Índice de autores

D'Amato-Neff, AL 32 Hansen, MH 72, 204, 208, 218, 220,


Dantzig, GB 129 Das 221, 229, 239, 240, 379, 400, 443, 514,
Gupta, A. 39, 40, 110 de 588, 590, 591 Hao, H. 338 Harder, V. 331
Conno, F. 484 de Leeuw, E. Hartley, HO 368 Hedges, LV 113 Heeringa,
543 Deak, MA 32 Defense SG 491, 493, 494 Heerschap, H 536
Manpower Data Center 164, Heiberger, RM 103 Helba, C. 32 Henry , KA
544 DeMeyer, A. 533 Deming, WE 537 Dever, 53, 64, 379 Herget, D. 523 Herzog, TN 536
JA 362, 440, 484, 490, 511, 515, Hidiroglou, MA 362 Hirabayashi, S. 329
Hoaglin, DC 6 Hobbs, HH 288 Højsgaard, S.
78 , 580 Holmes, DJ 249 H¨orngren, J. 531
523 Hosmer, D. 91 Hunter, SR 248, 270 Hurwitz,
Deville, JC 351 WH 72, 204, 208, 218, 220,
Diamante, GL 32
Dillman, DA 486
Dippo, CS 7, 428, 543
Dorfman, AH 29, 45, 51, 59, 61, 311, 401,
582 Dow, L. 484 Durrant, GB 542

Earnst, S. 485
Eckman, S. 7, 265, 287, 288, 536
Efron, B. 430, 432 Ezzati-Rice, T.
485
221, 229, 239, 240, 400, 443, 514, 588,
590, 591
Fay, RE 428
Ferro, G. 32
Iannacchione, VG 4, 167, 288, 375, 484,
Filbet, M. 484
490, 510, 515, 534 Ingels, SJ 523
Folsom, RE 273, 386
Servicio de Rentas Internas 32
Foubert, AJ 484 Fowler, Organización Internacional de
F. 2 Francisco, C. 412,
Normalización 534 Isaki, CT 53, 60, 243,
415 Frankel, MR 4 381
Freund, R. 129 Friedman,
J. 338 Más completo,
WA 53, 60, 243, 381, Jans, M. 537
412, 415, Jin, Y. 523
508
Jones, N. 531
Joshi, VM 53
Gabler, S. 377 Jovanovic, BD 70
Gambino, JG 77, 580 Judkins, D. 248, 262, 338, 428
Gelman, A. 310 Godambe,
VP 53 G¨oksel, H. 248 Kalton, G. 70, 316, 317, 319, 338, 342,
Goldstein, H. 249 514
Goldstein, K. 167 Kang, JDY 407 Kass,
Graubard, BI 70, 249, 508 GV 338 Kavee, JA
Greenblatt, J. 485 Arboledas, 167, 510 Khare, M. 6
RM xxi, 2, 163, 225, 485, 491, Kim, JJ 342, 358 Kim,
JK 508–510 Kirgis, N.
493, 494, 538, 540, 542 xxi, 485, 494, 537, 538
Kish, L. 4 , 70, 173, 287, 313, 375,
Haeder, S. 377 376 Klar, J. 91 Kleven, Ø. 490
Halekoh, U. 78, 580
Haley, RW 288, 484
Machine Translated by Google

Índice de autores 663

Kohler, U. 536, 551 Korn, McCarthy, PJ 426


EL 70, 110, 249, 508 Kostanich, D. 7 McCulloch, C. 243 Michie,
Kott, PS 57, 70, 351, 440, 486, 502, D. 338 Mohadjer, L. 283,
503, 508 Kreuter, F. xxi, 7, 318, 484, 542, 543, 284, 286 Mokdad, AH 4 Montaquila,
J. 283, 284, 286 Morgan, D. 537
Morgan, JN 338 Morganstein, DR 428,
551 540 Morton, K. 270 Mosher, W. xxi,
Krewski, D. 411, 419, 421 Kulp, D. 167, 485, 494, 510, 538 Müller, G. xxi,
180 537 Myers, LE 248

Lahiri, P. 377
Lange, K. 155
Lappin, BM 32 Lee, H.
508 Lee, K. 32
Lehtonen, R. 363 Centro Nacional de Estadísticas de Educación
Leinwand, S. 523 388
Lemeshow, S. 91 Navarro, A. 508
Leonard, D. 288 Ndiaye, SK xxi, 485, 494, 538 Neuwirth, E.
Lepkowski, J. xxi, 2, 103 Newcombe, RG 39 Neyman, J. 482,
485, 494, 537, 538 Levy, PS 70 Lewis, D. 531 Li, J. 514, 516 Nielsen, HB 155
342, 353, 358, 376 Liao, D. 353 Link, CF 494 Link,
MW 4 Little, RJA 318–320, 324 , 329, 330, 343, 486,
542 Liu, J. 375, 518 Liu, Y. 70 Loch, CH 533 Lohr,
SL 44, 318, 319, 482 Long, JS 551 Loosveldt, G. 490 Olkin, I. 113
Lu, W. 440 Lumley, T. 327, 359, 425, 580 Lundstr¨om, Olshen, R. 338
S. 510, 511, 541 Lwanga, S. 91 Lyberg, L. 2, 318, Olson, K. 318, 538, 542
484, 532, 542, 543 O'Muircheartaigh, C. 265, 287, 536, 542 Osborn, L. 4
Ottem, R. 523

Perry, S. 32
Peshock, RM 288
Peytchev, A. 538
Peytcheva, E. 540
Pfeffermann, D. 249 Pick,
MT 533 Pinheiro, JC 248,
580 Porter, EH 536 Potter, FJ
167, 273, 388, 510 Powell, SG
133 Pratt, DJ 523

Madow, GT 72, 204, 208, 218, 220,


221, 229, 239, 240, 379, 400, 443, 514 Madsen,
K. 155 Maechler, M. 244, 580 Maitland, A. 165, 166 R Core Team ix, 10, 579 R Core
Maligalig, DS 316, 317, 319, 342 Manitz, J. 77, 580 Team y colaboradores en todo el mundo
Marker, DA 540 Marsden, P. 265 Martin, P. 270 99, 393, 474, 580 Rao, JNK 368, 411,
Mason, R. 167, 510 Massey, JT 262 Matei, A. 77, 419, 421, 429, 430, 432, 506 Rasbash, J. 249
580 Matsuo, H. 490 Redden, DT 4, 288 Ripley, B. 338, 580 Ripley,
BD 338, 339 Rizzo, L. 283, 284, 286, 338 Rockwell,
D. 32 Rogers, J. 523
Machine Translated by Google

664 Índice de autores

Rohde, F. 485 Till´e, Y. 77, 580


Rosenbaum, P. 317, 328 Royall, Tingleff, O. 155
RM 29, 45, 51, 59, 61, 97, 311, 401, 582 RTI Tourangeau, R. 2, 7
International 76, 377, 408 Rubin, DB 310, 317, 318, Traugott, MW 167 Trewin,
328, 329, 486, 542 Óxido, KF 94, 406, 438 D. 543 Tsay, JH 381 Tufte,
E. 533 Turlach, BA 382, 580

Saigo, H. 430
Oficina del Censo de EE . UU . xx, 7, 259, 267, 283
S¨arndal, C. 5, 46, 52, 54, 59, 64, 66, 204, 220, 235,
242, 243, 253, 311, 351, 361–363, 399, 480, 486 ,
Vaeth, PC 288 Valliant,
505, 506, 510, 511, 513, 518, 519, 541 Schafer, JL
R. 29, 45, 51, 53, 59, 61, 64, 94, 248, 311, 342, 353,
407 Scheuren, FJ 536 Schlesselman, J. 91 Schnell,
358, 362, 363, 376, 401, 406, 440, 508, 511, 582
R. xxi, 536, 542, 543 Schouten, B. 541 Schwarz, N.
543 Searle, S. 243 Shao, J. 429, 430 Shewhart, WA
Van de Kerckhove, W. 248 Vapnik,
538 Simmons, RO 32 Singer, E. 2 Singh, AC 386, 490,
VN 338 Varadhan, R. 130, 155, 580
515 Sirkis, R. 537 Sitter, R. 430, 440 Skinner, CJ 249
Vartivarian, S. 319, 320, 324, 330,
Smith , PJ 6 Smith, TMF 311 Smith, V. 248 Smyth, JD
343 Veijanen, A. 363 Venables, WN 338, 339
486 Sonquist, JA 338 Spencer, BD 378 Sperry, S. 248
Venkataramanan, M. 132 Victor , RG 288 Visscher,
Staab, JM 4, 288 Starer, A. 180 Steele, F. 542 Stern,
WA 288
H. 310 Stone, C. 338 Stuart, E. 328, 331 Stukel, DM
362, 502, 503, 508 Swensson, B. 5, 46, 52, 54, 59, 64,
66,

Wagner, J. 542
Waksberg, J. 180, 248, 262
Weingessel, A. 382, 580 Weisberg,
S. 353 Weisstein, EW 324 West, BT
xxi, 485, 494, 538, 542 Westat 438
Wickham, H. 237, 580 Willenborg, L. 536
Willett, DL 288 Williams, SR 273 Wilson, EB 39
Winkler, WE 536 Winston, W. 132 Winter, N.
422 Wolter, KM 401, 404, 411, 440, 443,

444
Woodruff, RS 412, 415 Woodward,
M. 91, 106 Wretman, J. 5, 46, 52,
204, 220, 235, 242, 243, 253, 311, 362, 363, 399,
54, 59, 64, 66,
480, 486, 505, 506, 510, 513, 518, 519
204, 220, 235, 242, 243, 253, 311, 362, 363, 399,
480, 486, 505, 506, 510, 513, 518, 519 Wright, J.
Tepping, BJ 379, 514 Testa, 265 Wu, CFJ 429, 430, 432
VL 64 Thayer, WC 32 Therneau,
T. 78, 338, 580 Thiessen, V.
532 Thomas, B. 536 Tibshirani, R.
432 Yu, CL 508–510

Zilh-ao, MJ 531
Machine Translated by Google

Índice de materias

valor p, 95 modelos implícitos en, 363


distribución t, 94, 99 estimador posterior a la estratificación ,
353–360 estimador de raking,
Muestreo en dos etapas 353–360 estimador de razón, 351
con un conjunto fijo de PSU restricción de pesos en, 371 ajuste
ejemplo de, 232 simultáneo por falta de respuesta y
calibración, 386 uso en proyecto de
Anagrama ponderación, 466
Verkeer NetUltraValid, 16
estimación de la varianza
Tamaño de muestra de
varianza anticipada basado en, 59, 60, 243 efecto de ignorar la calibración, 413
ejemplo de muestreo en dos etapas de, 243, Oficina del Censo, 6, 267
244 Unidades de certeza en la muestra, 250
muestreo de área Coeficiente de variación

Datos de la Encuesta sobre la Comunidad definido, 27


Estadounidense, 257, 261–262 establecer un valor objetivo, 31
Datos del censo, 257, 261–262 Combinación de estratos y UPM, 438
Unidades geográficas del censo, 258–261 Núcleo común de datos, 42
grupos de bloques, 260 distritos , 260 enfermedad coronaria, 3
medidas compuestas de tamaño, uso de, Consejo de la Unión Europea, 31 conteo y
273–282 medidas compuestas de tamaño, uso listado, 265
de proyecto de muestreo en el área, 293 Encuesta de población actual, 6, 267–270

Centro de datos de mano de obra de defensa, 544


nueva construcción, 282–287 Grados de libertad
efecto de combinar estratos y UPM,
Oficina de Estadísticas Laborales, 31 441
estimaciones de dominio, 442
Comparación efecto sobre los intervalos de confianza, 406
de calibración de estimaciones de diferentes de un estimador de varianza, 406 regla
métodos, 373 con restricciones de peso, 385 empírica, 94, 406
función de distancia utilizada en, 352 estimador Archivo de secuencia de entrega, 288
de regresión general, 361–374 ejemplos de, 365– Inferencia
374 pesos g, 362 consideraciones prácticas en el basada en diseño de diseño, 309
uso, 362 Efecto de diseño
definido, 5, 75
discusión de, 75

R. Valliant et al., Herramientas prácticas para diseñar y ponderar 665


muestras de encuestas, Estadísticas para ciencias sociales y del
comportamiento 51, DOI 10.1007/978-1-4614-6449-5, © Springer Science+Business Media New York 2013
Machine Translated by Google

666 Índice de materias

debido a la programación lineal


comparación de pesos de las medidas de submuestreo niños, ejemplo de,
Kish y Spencer, 379 142–144
Medida de Kish, 375–377 optimización multicriterio, 130–132
Medida de Spencer, 378–381 programación no lineal, 131 función objetivo,
Códigos de disposición, 164–166 130 orígenes de, 129 parámetros, 130
asignación de proyectos de
ponderación en categorías de ponderación,
457 SAS
Coeficiente proc nlp, 145 proc
de variación de los dominios, caso especial de, optmodel, 150–155
72 Solver, 133
estimación para, 70–75 valores duales, 138
tipos de, 70 uso como limitaciones, 141
estratos, 70 informes, 135–139
guardar un modelo, 139
Tamaño de muestra sensibilidad a valores iniciales, 140
efectivo Ajuste del tamaño de muestra, parámetros de ajuste, 134 uso en proyecto
99 definido, 5 de diseño de muestra, 186–188 uso de
relavarianzas en función objetivo, 130
Factor de corrección de población finita
definido, 29 uso en estimación de varianza, Medida de estimación de
95 homogeneidad, 235–249
muestreo en dos etapas, 207
Estimador de regresión general estimación con deff, 235
definido, 59, 361 en proyecto de Medida de tamaño (MOS)
ponderación, 466 sistema de determinar un MOS, 53
posicionamiento global (GPS), 265 Faltan mecanismos de datos que
faltan al azar, 318 faltan
Inferencia, métodos de, 309 completamente al azar, 318 falta de respuesta
Servicio de Impuestos Internos, 31, 64 no ignorable, 318
Modelos
variable latente estimación del parámetro de varianza para, 53
respuesta como, 321 para posestratificación, 354 para clasificación,
358 para respuesta, 323–328 log-log
Programación matemática paquete complementario, 323 logit, 323 probit, 323
alabama R, 155 constrOptim.nl, problemas de estimación, 334 casos especiales,
158 establecer restricciones en, 336
158 tener en cuenta las variaciones
del problema, 159 límites en las variables de
decisión, establecer,
133 Estimador GREG, implícito en, 363 inferencia
ejemplo de establecimiento comercial, 133, asistida por modelo, 311 inferencia basada
146 en modelo, 310 uso para determinar tamaños
comparación de resultados para Solver, de muestra, 51, 53, 59–63
proc nlp, proc optmodel y alabama, 150
vinculación de restricciones, significado de, Muestreo multietapa
131 configuración, 130 ejemplo de declaración medidas compuestas de tamaño, usos de, 273–
formal de un problema, 130 282 correlación intraclase, 207 medida de
homogeneidad, 207 tamaños de muestra
óptimos, 225, 229, 235 terminología, 203
conglomerado final, 203
Excel, 133
pesos de importancia en objetivo, 130
Machine Translated by Google

Índice de materias 667

de tres etapas, 218–224 de modelo para, 354


dos etapas, 205–217 estimación de varianza, 412
efecto de ignorar la posestratificación,
Evaluación Nacional de la Educación 413
Progreso, 388 Poder de una prueba
Centro Nacional de Estadísticas Educativas, prueba de una
42 muestra descrita,
Centro Nacional de Estadísticas Sanitarias, 42 93 ejemplo de, 98
Encuesta Nacional de Victimización por Delitos, 266 uso para encontrar el tamaño de la muestra,
97, 100 prueba unilateral descrita, 95, 97
Examen Nacional de Salud y Nutrición
Encuesta Nacional (NHANES), 9, 31 terminología, 92
prueba de dos muestras, 103–113
Encuesta Nacional de Inmunización (NIS), 6 diferencias en medias, 103, 106
Encuesta Nacional de Crecimiento Familiar diferencias en proporciones, 108 tamaño
(NSFG), 537 del efecto, 113 muestras parcialmente
Encuesta Nacional sobre Consumo de Drogas y Salud superpuestas, 106,
(NSDUH), 264, 266, 270–271 109
plan de rotación de las UME, 271 ; riesgo relativo, 112
Nueva construcción, 282–287 técnica prueba de dos caras
de intervalo semiabierto, 287 muestreo de descrita, 95, 101 uso
permisos de construcción, 284 muestra para encontrar el tamaño de la muestra, 102
bifásica de segmentos, 286 Errores tipo I y II, 92, 95
Sesgo de falta Unidades primarias de muestreo (PSU)
de respuesta debido que identifican certezas, 250 reglas
a, 316 ajuste de puntaje de propensión para, para definir, 263 tamaño de, 212
321–338 estratos de propensión estratificación de, 249 tipos de, 204

comprobación de saldo en covariables, 330


Probabilidad proporcional al tamaño del
Definición de muestreo, 51
objetivos en una encuesta, 2 Muestreo probabilístico
Tasas de resultado definido, 6, 311
Definiciones de AAPOR, 163, 166 índice Control de procesos, 531–554
de contacto, 167 índice de cooperación, método de la ruta crítica, 533
169 índice de elegibilidad, 168 manejo edición de datos, 543–546
de incógnitas, 171 índice de ubicación, códigos de disposición, 544
167 índice de respuesta, 170 ponderado documentación, archivo, 551 encabezados
vs. sin ponderar, 173 de programa, 145, 551 diagramas de
flujo, 533
Diagramas de Gantt,
532 en creación de marcos, selección de muestras,
Panel Arbeitsmarkt und soziale Sicherung 534
(PASS), 271 Estimación de monitorear las tasas de contacto y respuesta,
parámetros de población a partir de una 536
muestra, 64–68 obtenidos de fuentes índices e indicadores de desempeño, 540–543
secundarias, 42 Poblaciones del área de Maryland, indicadores de equilibrio, 541 fracción de
Mdarea.pop, 209 Encuesta de organizaciones de información faltante indicadores del
salud mental, smho98, smho.N874, 365 Estimador entrevistador, 542 , 542
posestratificado como corrección de errores de
cobertura, 357 R-indicadores, 540
Gráfico de Shewhart,
escritura de especificaciones 538 , programación,
549
Machine Translated by Google

668 Índice de materias

pasos de ponderación, 546–549 solve.QP, 383


Proyectos strAlloc, 47 svyglm,
que diseñan una muestra de área, 199–201 327 svyquantile,
solución, 293–298 416 trimWeights, 388
diseño de muestra de personal, 15–23 paquetes R paquete
programación matemática en, alabama, 155 paquete lme4,
186–188 244 paquete pps, 76 paquete
solución, 189–194 de muestreo, 76 características
ponderación de una encuesta de personal, 303–306 raras
solución, 453–476
Estimación del
tamaño de la muestra de proporciones determinar el tamaño de la muestra para, 35, 68–70
para el método de la raíz cuadrada del arcoseno, 110, regla de tres, 70
122 método de probabilidades logarítmicas, 40, 111, Árboles de regresión
122 aproximación normal, 38 formación de ajuste de no respuesta
método wilson, 39 clases, 338–342
Relvarianza
programación cuadrática definida, 27
paquete quadprog, 382 de un estimador, 27
ponderaciones restrictivas, uso para, 381 razones de uso, 27 unidad
estimación de varianza jackknife, 384 de revarianza, 27, 34
Cuantiles Replica
efecto de valores duplicados en, 417 submuestras para trabajo de campo, 176
método de Francisco-Fuller, 415
estimación de la varianza, 412, 415 Métodos de selección de muestras
método Woodruff, 415 Bernoulli, 64
Poisson, 64
R functions probabilidad proporcional al tamaño, 78
BW2stagePPSe, 237 contabilización de unidades grandes, 55
BW2stagePPS, 216 certezas de identificación, 55 relación con la
BW2stageSRS, 210, 214 estratificación por tamaño,
BW3stagePPSe, 241 57
BW3stagePPS, 222 muestreo aleatorio simple
as.svrepdesign, 433 calibrate, sin reemplazo, 28 muestreo
359, 369, 371, 373 clusOpt2fixed, 232 aleatorio simple estratificado, 43,
clusOpt2fixed , 232 clusOpt2 , 53 226 76
clusOpt . gammaFit, 53 glm, 462 nCont, notación, 43
30, 32, 33 nDep2sam, 117–119 nLogOdds, sistemática, 64
40 nProp2sam, 121 nPropMoe, 38 nProp, Cálculo del tamaño de la
35 nWilson, 39 postStratify, 355 muestra teniendo en cuenta las pérdidas de la
power.prop.test, 114, 119–121 muestra, 174–177 basado en el margen de error,
37, 39 basado en el modelo de regresión, 59–63
criterios para determinar el tamaño de la muestra,
28
diferencias en medias, 50 para
costo fijo, 48 para muestra de
declaraciones de impuestos, 31 para
coeficiente de variación objetivo, 29, 30, 33, 34,
55 medias, 29, 37 proporciones, 34, 38–40
muestreo estratificado, 47 cuando se muestrea
con probabilidades variables, 51
uso en proyecto de diseño de muestra, 189
power.t.test, 113–117 paquete quadprog, 382
Machine Translated by Google

Índice de materias 669

al muestrear con probabilidades ejemplo de, 223


variables con reemplazo, 54 función de costo para, 225, 229
fracción de muestreo medidas de homogeneidad
efecto en el cálculo del tamaño de la muestra, 30, definidas, 221 fórmula de
35 varianza usando, 221 modelo para,
Marco muestral 245 tamaños de muestra óptimos para,
definido, 3 229, 235 muestreo aleatorio simple en todas
SAS las etapas,
proc genmod, 326 proc 218
nlp, 145 proc optmodel, ejemplo de, 222
150 proc power, 122–124 componentes de varianza, 218, 220
proc surveyselect, 81–83 estimación de, 239–243 con conjunto
fijo de PSU, 231 ejemplo de, 233
Unidades secundarias de muestreo (USM), 264
software, comercial Muestreo en dos etapas
SAS, 81, 122, 145 pps en la primera etapa, srs en la segunda, 215
solucionador, 133 efecto de la correlación intraclase, 208 modelo
SUDÁN, 76, 377, 386 para, 243 estimadores no lineales en, 212
Solver, 133 notación, 205 tamaños de muestra óptimos para,
configuración de parámetros, 134 225 muestreo aleatorio simple en ambas etapas,
Listas especiales de direcciones, 288 206 componentes de la varianza, 210 resultados
Muestreo estratificado de varianza para, 205–209 con un conjunto fijo
métodos de asignación de PSU, 231
asignación restringida por costos, 45, 47
asignación equitativa, 45, 47 para comparar
las medias de los estratos, 50
asignación de Neyman, 45, 47, 48
asignación proporcional, 45, 47 Unidades finales de muestreo
asignación restringida por varianza, 45, definidas, 266
47
por una medida de tamaño, 44 efecto de los componentes
eligiendo variables de estratificación, 44 creando de la varianza del muestreo informativo, 248
estratos con igual MOS total, estimación del muestreo en dos etapas, 235
59 ejemplo de, 237
Sustitución por falta de respuesta, 57
SUDAAN Estimación de la varianza, 397–447
proc wtadjust, 386, 389 efectos de replicación repetida balanceada, 426–
diseño calculados por, 377 430 supuestos, ventajas, limitaciones,

Definición de población 428


objetivo, 3 ejemplo de cuantiles, 429
Terminología, 1–7, 26–28 Método de Fay, 428
variable auxiliar, 27 coeficiente bootstrap, 430–437
de variación de una estimación, histogramas de estimaciones, 435
27 cuantiles, 435 PSU de certeza, 444
coeficiente de variación de población o manejo, ejemplo de, 445 combinación
unidad, 27 revarianza de población o de PSU o ejemplos de estratos de,
unidad, 27 varianza de población o unidad, 438 cuántos grupos combinar, 441 para
27 desviación estándar de población, 27 error reducir el número de repeticiones, 437
estándar de una estimación, 27 grados de libertad de un estimador de
varianza, 406 estimación de dominio, 410
Muestreo en tres etapas, 218–224 pps
en la primera etapa, srs en la segunda y tercera,
219
Machine Translated by Google

670 Índice de materias

en replicación, 421 Pesos


métodos exactos, 398–400 pesos base, 311–314
jackknife, 418–426 calibración, 349–390
supuestos, ventajas, limitaciones, comparación de pesos en un ejemplo, 372, 389
421 limitación de la variabilidad de, 381–390
agrupados, 439 ajustes por falta de respuesta, 316–342 celdas de
casos especiales de, 420 ajuste, 319–321 celdas de ajuste colapsadas, 342
con ajuste por falta de respuesta, 423– comparación de modelos de propensión y ajustes
425 con posestratificación, 425 lineal de clase, 337 determinista vs. pensamiento
vs. estimadores no lineales, linealización estocástico,

400–402

316
en proyecto de ponderación, 462
suposiciones, limitaciones, 411
ajustes de puntaje de propensión, 321–
descrito, 402 ejemplo de log-odds,
338, 462 estratificación de propensión,
405 ejemplo de razón, 403, 404
329 árbol de regresión en proyecto de
sustituciones lineales, 404 pasos de
ponderación,
ponderación múltiple, manejo, 463
árboles de regresión, 338–342
417
descripción general de, 308 rango
derivadas parciales, evaluación, 406 restrictivo de programación
fracciones de muestreo no despreciables, cuadrática, 381 recorte, 388–390
contabilización, 408–410 diseños de una elegibilidad desconocida, ajuste para,
PSU por estrato, 443 replicación, 418–437 314–316
estimador final de conglomerados, 236
en proyecto de ponderación, 459
Wes Var, 438 variabilidad de, 374–390

También podría gustarte