Está en la página 1de 41

Demostración.

P Se ve fácilmente que para el modelo ANOVA (7.5.3), el


término s ěks es igual a cero. Del resultado 7.5.1, tenemos ŷk = B̂g = ỹsg
siempre que k ∈ Ug , por lo tanto, el estimador de regresión es simplemente

X G X
X G
X
t̂yr = ŷk = ŷk = Ng ỹsg (7.6.2)
U Ug
g=1 g=1

Los residuales requeridos Ek y eks se siguen inmediatamente de las ecuaciones


(7.5.11) y (7.5.12) en el Resultado 7.5.1. Finalmente, al identificar el coefi-
ciente de yk /πk , en (7.6.2), encontramos que los valores de g son gks = Ng /N̂g
para todos los k ∈ sg .

Para estimar la media poblacional, divida (7.6.1) por N y el estimador


de varianza por N 2 . Aquı́, se conoce N , ya que se requiere que todos los Ng
sean conocidos. Hay varios casos prácticos en los que es aplicable el Resultado
7.6.1.

a) La pertenencia al grupo [es decir, el vector δk definido por (7.5.4)] se


conoce para todos los k ∈ U . Los grupos pueden identificarse antes del
muestreo y servir como estratos para un diseño de muestreo estratifi-
cado. Si los grupos y los estratos son idénticos, y si se usa el diseño
EST M AS, entonces (7.6.1) es simplemente el π estimador ordinario
discutido en la Sección 3.7, y nsg = ng se fija de antemano para todos
los estratos.

b) La pertenencia al grupo se proporciona en el marco para todos los


elementos k ∈ U , como en el caso (a), pero nos abstenemos de usar los
grupos como estratos. Las consideraciones prácticas pueden favorecer
algún otro diseño (quizás más simple o menos costoso), como M AS
o M ASC. Después de la selección de la muestra, se observa yk para
los elementos k ∈ s, y el marco de muestreo se utiliza para establecer
la pertenencia al grupo δk para cada elemento de la muestra. En este
caso, la información de pertenencia al grupo se utiliza en la etapa de
estimación, no en la etapa de diseño.

c) La pertenencia al grupo no se conoce de antemano para los N elemen-


tos de la población. Sin embargo, de fuentes externas (como un censo u
otro registro confiable), tenemos información
P precisa sobre los tamaños
de los grupos de población Ng = δ
U gk . Después de alguna forma
conveniente de muestreo, observamos no solo yk sino también la perte-
nencia al grupo δgk para cada elemento k ∈ s. La inclusión de δk entre

1
las variables a observar aumenta la carga del encuestado, que debe te-
nerse en cuenta al planificar la encuesta. La alta carga de encuestados
puede causar una mayor falta de respuesta. Tenga en cuenta también
la importancia de utilizar tamaños de grupo precisos Ng , en la fórmula
del estimador. Los recuentos de grupos obsoletos introducirán sesgos
en el estimador posterior a la estratificación (7.6.1)

Aquı́, los casos (b) y (c) representan postratificación, es decir, los gru-
pos se identifican después del muestreo solo para elementos muestreados. Al
comparar los casos (a) y (b), surge una pregunta interesante. ¿Se pierde pre-
cisión en el caso (b) al renunciar a la información de pertenencia al grupo
en la etapa de diseño y al usarla ”solo”para la postratificación? La respuesta
depende, como se puede sospechar, de la naturaleza exacta del muestreo. Si
el muestreo EST M AS con asignación proporcional se usa en el caso (a), y si
el muestreo M AS (con el mismo tamaño de muestra) se usa en el caso (b),
es un hecho que los dos métodos son casi igualmente eficientes, como se verá
más adelante en esta sección. Pero si se utilizó el muestreo por conglomerados
en el caso (b), se puede perder precisión adicional debido a la homogeneidad
positiva del conglomerado. Holts y Smith (1979), Doss, Hartley y Somayajulu
(1979) y Jagers, Odén y Trulsson (1985) examinan la postratificación desde
varios puntos de vista. La postratificación está relacionada con la pondera-
ción del grupo de ajuste por falta de respuesta, como se discutió en la Sección
15.6; véanse también Jagers (1986) y Belén y Kersten (1985). Apliquemos el
Resultado 7.6.1 a algunos diseños de muestreo especı́ficos. Denotamos el es-
timador (7.6.1) como t̂ypos , donde pos indica postratificación.

El diseño M AS

Esta es la aplicación clásica de la postratificación. Usando el Resultado


7.6.1 con πk = n/N = f para todo k y πkl = f (n − 1)/(N − 1) para todo
k 6= l, obtenemos fácilmente las expresiones (7.6.3) a (7.6.5) a continuación.
El estimador es
G
X
t̂ypos = Ng ȳsg (7.6.3)
g=1

donde
P ȳsg es la media directa de la muestra del grupo g, es decir, ȳsg =
sg yk /nsg . El recuento de grupos nsg es aleatorio, pero la suma,

G
X
nsg = n
g=1

2
está arreglado. Una simple derivación muestra que
G
21 −f X 0 2
AVM AS (t̂ypos ) = N W S (7.6.4)
n g=1 g yUg
0
con Wg = (Ng − 1)/(N − 1) y SyUg es la varianza del grupo,

2 1 X
SyU = (yk − ȳUg )2
g
Ng − 1 Ug

El estimador de varianza toma la forma


G 2
X Sys
V̂M AS (t̂ypos ) = (1 − f ) Ng2 g
(7.6.5)
g=1
n2sg

2
donde Sysg
es la varianza de la muestra del grupo gth,

2 1 X
Sys = (yk − ȳsg )2
g
ns g − 1 sg

Al derivar (7.6.5) de (7.2.11), hemos aproximado n(nsg − 1)/(n − 1)nsg por


unidad. Tenga en cuenta que ĒUg = ēsg = 0, que simplifica las expresiones
AV y V̂ .
Algunos comentarios están en orden.
La ecuación (7.6.3) no se aplica si ocurre el evento

nsg = 0 para algunos g = 1, . . . , G

Si el tamaño total de la muestra n es sustancial, y si ningún grupo repre-


senta una porción muy pequeña de toda la población, entonces el evento en
cuestión tiene una probabilidad cercana a cero y no es necesario que sur-
ja ningún problema práctico. Si algunos de los grupos planificados parecen
ser demasiado raros, la fusión de los grupos debe realizarse en la etapa de
planificación para resolver el problema con recuentos cero. Todos los grupos
cuentan nsg , deben ser de un tamaño respetable para evitar estimaciones de
grupo inestables ȳsg . Si todos nsg son por lo menos 20, uno debe estar en el
lado seguro.
Se da una mejor aproximación a la varianza que (7.6.4) (ver Sección 7.10
para una derivación), con Wg = Ng /N , por
G G
21 −f X 2 21 − f
X
2
VM AS (t̂ypos ) =
˙ N Wg SyUg + N (1 − Wg )SyU (7.6.6)
n g=1 n2 g=1 g

3
En esta fórmula, el primer término, de orden n−1 , está muy de acuerdo con
el AV dado por (7.6.4); el término adicional es de orden n−2 .
Para el muestreo M AS, las observaciones de la muestra n se distribuyen al
azar sobre los grupos G, con un recuento esperado en el grupo gth de

ng = E(nsg ) = nNg /N = nWg

Es decir, los recuentos de grupos esperados están de acuerdo con una asigna-
ción proporcional a los grupos. Sabemos por la Sección 3.7 que si los grupos
fueran estratos y se usara el muestreo EST M AS con asignación proporcio-
nal, la varianza del π estimador estarı́a dada por el primer término en el
lado derecho de (7.6.6). El segundo término de (7.6.6) representa el aumento
(al orden n−2 ) causado por recuentos grupales que no son exactamente, sino
solo en promedio, asignados proporcionalmente. Concluimos que el muestreo
M AS con postratificación es esencialmente tan eficiente como el muestreo
EST M AS con asignación proporcional, a menos que la muestra sea muy
pequeña. El muestreo M AS con postratificación es a menudo mucho más
eficiente que el muestreo M AS sin postratificación. Para ver esto, considere
la descomposición ANOVA habitual de la suma total de cuadrados de y:
G
X G
X
2 2
(N − 1)SyU = (Ng − 1)SyUg + Ng (ȳUg − ȳU )2
g=1 g=1

2
Dividir por (N − 1)SyU y establecer

G
X G
X
2
(Ng − 1)SyUg
Ng (ȳUg − ȳU )
g=1 g=1
R2 = 1 − 2
= 2
(N − 1)SyU (N − 1)SyU

que mide el grado en que el modelo ANOVA (7.5.3) explica la variación en


y. Ahora, bajo muestreo M AS sin postratificación,
1−f 2
VM AS (N ȳs ) = N 2 SyU
n
para que, de (7.6.4)
G
!
X
AVM AS Ng ȳsg
g=1
˙ 1 − R2
)=
VM AS (N ȳs

4
Cuando la variación entre grupos es grande (es decir, cuando 1 − R2 está
cerca de cero), la postratificación reduce en gran medida la varianza.

Un fuerte incentivo para la postratificación (en lugar de emplear a los


grupos como estratos para un diseño EST M AS) surge en encuestas multi-
propósito, es decir, encuestas en las que se estudian muchas variables. (Las
encuestas suelen ser de carácter multipropósito.) Si se utilizara un diseño
EST M AS, los estratos se arregları́an de una vez por todas. Estos estratos
pueden reducir la varianza para una o algunas de las variables y, pero podrı́an
ser ineficientes para muchas otras variables y. Por lo tanto, usando M AS o
algo similar El diseño simple junto con el estimador postratificado dado por
(7.6.3) a menudo mejorará la eficiencia general. Esto abre el campo para
diferentes postratificaciones para diferentes variables y. Por ejemplo, ciertas
variables y pueden explicarse bien por un grupo de edad/sexo, otras por un
grupo ocupacional, y ası́ sucesivamente. Aquı́, el conocimiento, la intuición
y el juicio del estadı́stico sobre las relaciones entre variables servirán para
especificar modelos ANOVA eficientes (por lo tanto, diferentes postratifica-
ciones) para diferentes subconjuntos de variables y.

El diseño EST M AS

Al menos cuatro casos se incluyen en este encabezado, dependiendo de


cómo se relacionen los estratos y los grupos:

i) Los estratos son idénticos a los grupos del modelo que se muestra en
(7.5.3). Los tamaños de muestra en los grupos (= estratos) son fijos, y
el estimador de regresión (7.6.1) es idéntico al π estimador ya discutido
en la Sección 3.7.

ii) Los estratos atraviesan los grupos de modelos. Por ejemplo, en una po-
blación de individuos, los estratos convenientes (h = 1, . . . , H) pueden
formarse mediante una clasificación geográfica, mientras que los grupos
de intersección G están formados por categorı́as de edad/sexo. Suponga
que los grupos de edad/sexo son un factor importante para explicar y.
Supongamos que los estratos geográficos tienen poco poder explicativo;
su existencia descansa más en razones prácticas o administrativas. En
esta situación, la muestra se estratifica geográficamente y se postratifica
por grupos de edad/sexo. Denotemos Ngh la frecuencia de la población
en la celda gh, y denota las frecuencias marginales por Ng· = H
P
PG h=1 Ngh
y N·h = g=1 Ngh . En el estrato h, los elementos n·h se muestrean de
N·h . El par de la muestra del estrato h que cae en el grupo g es sgh , y

5
su tamaño es denotado ngh . El estimador que se muestra en la ecuación
(7.6.1) ahora se convierte en
H
X
G
N·h ngh ȳsgh /n·h
X
t̂ypos = Ng· h=1H (7.6.7)
g=1
X
N·h ngh /n·h
h=1

donde ȳsgh es la media directa de los ngh elementos de muestra ghth en


la celda de muestra sgh . Aquı́, ngh es aleatorio.

iii. Supongamos nuevamente una situación con estratos geográficos H que


atraviesan los grupos de edad/sexo G. Una alternativa al caso (ii) es
admitir parámetros del modelo especı́fico para cada una de las células
G × H formadas por la intersección de los estratos con los grupos. El
modelo es entonces

Eξ (yk ) = βgh
2 (7.6.8)
Vξ (yk ) = σgh

para los elementos k en la celda poblacional Uhg para h = 1, . . . , H; g =


1, . . . , G.
Aunque los estratos pueden no ser escenarios como un factor primario
para explicar y, se tienen en cuenta en el modelo. Por ejemplo, con seis
categorı́as de edad / sexo y ocho estratos geográficos, el modelo (7.6.8)
contiene 48 medios del grupo modelo para estimar. En comparación, el
modelo en el caso (ii) tenı́a solo seis medios modelo que requerı́an es-
timación. Se proporciona como ejercicio para mostrar que el estimador
de regresión generado por (7.6.8) es
XX
t̂ypos = Ngh ȳsgh (7.6.9)
PP
donde es superior a g = 1, . . . , G y h = 1, . . . , H. Un inconvenien-
te de (7.6.9) es el riesgo de celdas de muestra vacı́as o casi vacı́as sgh , lo
que significa que ȳsgh estáPindefinido o inestable como una estimación
de la celda media ȳUgh = Ugh yk /Ngh . Por esta razón, se puede prefe-
rir el estimador (7.6.7), que combina los estratos; es prácticamente tan
eficiente como (7.6.9) cuando los estratos contribuyen poco a explicar
la variable y.

iv. Arreglos anidados. Un ejemplo es la subdivisión de un estrato en grupos


que no son necesariamente idénticos en cada estrato. En una encuesta

6
de hogares, uno puede, por ejemplo, estratificar por tipo de hogar.
Los grupos dentro de un estrato pueden entonces estar formados por
otras caracterı́sticas del hogar con números desiguales de grupos en los
diferentes estratos.

7.7 modelo de razón de grupo y el estimador


de razón separada
El modelo de relación de grupo es adecuado cuando una variable auxiliar
positiva conocida, x, está disponible, y la relación y/x se considera aproxi-
madamente constante para los elementos del mismo grupo. La relación puede
diferir considerablemente para elementos en diferentes grupos. Los ejemplos
7.5.2 y 7.5.3 mostraron algunas aplicaciones prácticas del modelo. Si los G
grupos pueden identificarse antes del muestreo, pueden servir como estra-
tos. De lo contrario, los grupos son postestratificados, es decir, identificados
después del muestreo solo para elementos muestreados. El resultado 7.5.1
contiene el material necesario para construir el estimador de razón.

Resultado 7.7.1. Bajo el P modelo de razón grupal dado por (7.5.6), el


estimador de regresión de ty = U yk es
G
X
t̂yr = txg B̂g (7.7.1)
g=1

donde B̂g , viene dado por (7.5.10) y


X
txg = xk
Ug

La varianza aproximada se obtiene de la ecuación general (7.2.10) esta-


bleciendo, para g = 1, ..., G,

Ek = yk − Bg xk para k ∈ Ug
donde Bg , viene dado por (7.5.9). El estimador de varianza se obtiene de
la ecuación general (7.2.11) estableciendo, para g = 1, ..., G,

eks = yk − B̂g kk para k ∈ sg

gks = txg /t̂xgπ para k ∈ sg

7
con X xk
t̂xgπ =
sg
πk
La prueba implica una utilización simple de las ecuaciones (7.5.9) y
(7.5.10) en el Resultado 7.5.1; No es necesario dar detalles aquı́. Estable-
cer xk = 1 para todos los rendimientos k Resultado 7.6.1
El estimador (7.7.1) se llama estimador de relación post estratificado o es-
timador de relación separado. El último término se usa en particular cuando
los grupos se identifican antes del muestreo y se usan para la amplificación
estratificada. Los totales de grupo txg en (7.7.1) deben derivarse del mar-
co o de una fuente externa confiable. Se debe tener cuidado de no permitir
que los grupos sean demasiado pequeños. Si un recuento de muestras gru-
pales nsg es demasiado pequeño, txg B̂g puede
P tener un sesgo no despreciable
como estimador del grupo total tyg = Ug yk . Aunque el sesgo de un so-
lo grupo puede ser modesto, el sesgo acumulado en todos los grupos puede
llegar a considerable. Una regla general es mantener el número de grupos
lo suficientemente pequeño para que ningún recuento de muestras de grupo
sea inferior a 20. Apliquemos el Resultado 7.7.1 a algunos diseños especı́ficos.

El diseño MAS

La muestra realizada se postratifica. El estimador dado por (7.7.1) ahora


toma la forma
G
P
s yk
X
t̂yr = txg P g (7.7.2)
g=1 s g
x k

con la varianza aproximada


G
21 −f X 0 2
AVM AS (t̂yr ) = N W S (7.7.3)
n g=1 g EUg
Donde Wg0 = (Ng − 1)/(N − 1), f = n/N y

2 1 X
SEU = (yk − Bg xk )2 (7.7.4)
g
Ng − 1 U
g
P P
Con Bg = Ug yk / Ug xk . Para obtener el estimador de varianza, deja-
P P
mos x̄Ug = Ug xk /Ng , x̄sg = sg xk /nsg , y

2 1 X
Ses = (yk − B̂g xk )2 (7.7.5)
g
ns g − 1 s
g

8
P P
Con B̂g = sg y k / sg xk . Entonces la varianza del estimador es

G
X
V̂M AS (t̂yr ) = (1 − f ) (x̄Ug /x̄sg )2 Ng2 Ses
2
g
/nsg (7.7.6)
g=1

donde nos hemos aproximado (nsg − 1)n/nsg (n − 1) por la unidad.


Estas expresiones siguen con manipulaciones fáciles de las fórmulas gene-
rales en el Resultado 7.7.1. El hecho de que ĒUg = ēsg trae alguna simplifi-
cación.

El diseño ESTMAS

Consideramos sÓlo el caso donde los grupos y estratos son idénticos. El


estimador de regresión separado de ty es entonces
G
P
s yk
X
t̂yr = txg P g (7.7.7)
g=1 s g xk

ası́ idéntico en forma al estimador (7.7.2) obtenido bajo el diseño M AS.


(La distribución de muestreo es diferente en los dos casos). La varianza apro-
ximada es
G
X 1 − fg 2
AVEST M AS (t̂yr ) = Ng2 SEUg (7.7.8)
g=1
ng

donde el tamaño de la muestra del estrato ng ahora está fijado de ante-


2
mano, y SEU g
viene dado por (7.7.4). El estimador de varianza es
G 
x̄Ug 2

X 1 − fg 2
V̂EST M AS (t̂yr ) = Ng2 Sesg (7.7.9)
g=1
x̄sg ng
2
Donde Ses g
es dado por (7.7.5).
Las variaciones aproximadas dadas por (7.7.3) y (7.7.8) son casi equiva-
lentes si la muestra estratificada se asigna por la regla proporcional ng =
nNg /N ; g = 1, ..., G. La asignación que minimiza (7.7.8) es

ng ∝ Ng SEUg
Para usar esta regla se requiere información sobre las variaciones residua-
les del grupo, algo que puede no estar fácilmente disponible.

9
7.8 Modelos de regresión simple y Estimadores
de regresión simple
En muchas poblaciones donde existe una fuerte relación lineal entre la
variable de estudio y y una sola variable auxiliar x, la lı́nea de regresión
de población interceptará el eje y a cierta distancia del origen. Un modelo
con un término de intercepción dará un mejor estimador de regresión que el
modelo de razón común discutido en la Sección 7.3. Con solo una variable
x, tenemos un modelo de regresión simple, a diferencia de los modelos de
regresión múltiple en la Sección 7.9.

El modelo de regresión simple de la dispersión de población finita esta-


blece que, para k ∈ U .


Eξ (yk ) =∝ +βxk
(7.8.1)
Vξ (yk ) = σ 2
donde ∝, β y σ son parámetros desconocidos y x1 , ..., xN son valores co-
nocidos pero no necesariamente positivos de una variable auxiliar x. También
podemos llamar a (7.8.1) un modelo de regresión simple común, ya que se
supone el mismo modelo para todos los elementos de la población. El ajuste
de este modelo a toda la población finita (véanse los Ejemplos 6.4.1, 6.4.2 y
6.5.2) lleva a estimar ∝ y β, respectivamente,

A = ȳU − B x̄U
y P
− x̄U )(yk − ȳU )
U (x
B= Pk 2
(7.8.2)
U (xk − x̄U )
P P
con ȳU = U yk /N ; x̄U = U xk /N. el ajuste de muestra del mismo
modelo da

 = ỹs − B̂ x̃s
P
s (x − x̃s )(yk − ỹs )/π
B= Pk 2
(7.8.3)
s (xk − x̃s ) /π
Donde

X X X
ỹs = y̌k /N̂ x̃s = x̌k /N̂ N̂ = 1/πk (7.8.4)
s s s

10
Ahora tenemos el siguiente resultado

Resultado
P 7.8.1. Bajo el modelo (7.8.1), el estimador de regresión de
ty = U yk es

t̂yr = N [ỹs + B̂(x̄u − x̃s )] (7.8.5)


Donde B̂ se obtiene de (7.8.3). La aproximación de la varianza se obtiene
de la ecuación general (7.2.10) estableciendo

Ek = yk − ȳU − B(xk − x̄U ) (7.8.6)

donde B viene dado por (7.8.2). El estimador de varianza se obtiene de


(7.2.11) tomando

eks = yk − ỹs − B̂(xk − x̃s ) (7.8.7)

N
gks = {1 + as (xk − x̃s )} (7.8.8)

con ỹs , x̃s y N̂ dado por la ecuación (7.8.4), y
x̄U − x̃s
as =
2
S̃xs
donde
x̃s )2 /π
P
2 s (x k −
S̃xs = P
s 1/π
El resultado resume
P las conclusiones de los ejemplos 6.4.2, 6.5.2 y 6.6.2.
Tenga en cuenta que s ěks = 0. Podemos proceder a discutir el estimador
y sus propiedades para varios diseños especı́ficos. Esta vez lo hacemos solo
brevemente, ya que el lector ahora está familiarizado con dichos análisis.

Observación 7.8.1. El estimador de la media poblacional implicada por


el resultado 7.8.1 es

ȳˆU = ỹs + B̂(x̄U − x̃s )


Para obtener la varianza aproximada y el estimador de varianza, divida
las expresiones correspondientes en el Resultado 7.8.1 por N 2 .
A continuación, denotamos el estimador dado por (7.8.5) como t̂yreg . En
particular, bajo el diseño M AS, obtenemos

t̂yreg = N [ȳs + B̂(x̄u − x̃s )] (7.8.9)

11
Donde
P
s (x − x̄s )(yk − ȳs )
B̂ = Pk 2
s (xk − x̄s )
y x̄s , ȳs son medias de muestra directa. La varianza aproximada es

1−f 2
AVM AS (t̂yreg ) = N 2 SyU (1 − r2 ) (7.8.10)
n
Donde
SxyU
r=
SxU SyU
es el coeficiente de correlación de población finita.
El estimador de la varianza es
1−f 1 X
Vb (t̂yreg ) = N 2 [1 + as (xk − x̄s )]2 e2ks
n n−1 s

Con e2ks = yk − ȳs − B(xb k − x̄s ) y as = n(x̄U − x̄s )/ P (xk − x̄s )2 . Bajo
s
el muestreo M AS, el estimador de regresión dado por (7.8.9)normalmente
tendrá un mejor desempeño que el estimador de expansión N ȳs y el estimador
de razón t̂yra = N x̄U (ȳs /x̄s ). Se tiene de (7.8.10),

AVM AS (t̂yreg )
= 1 − r2
VM AS (N ȳs )

En consecuencia, en muestras grandes, el estimador de regresión es una me-


jora sobre el estimador de expansión simple tan pronto como son r 6= 0, y si
r > 0.8, es decir, hay una mejora importante.
La comparación con el estimador de razón viene dada (ver ejercicio 7.23 Sarn-
dal et al. (1992)).

AVM AS (t̂yreg ) ≤ AVM AS (t̂yra ) (7.8.11)


si y sólo si
P
U (x − x̄U )(yk − ȳU ) ȳU
B= Pk 2
=
U (xk − x̄U ) x̄U

12
Ası́ el estimador de regresión es mejor que el estimador de razón cuando
B 6= ȳU /x̄U . Observemos el significado de ”mejor”: Las conclusiones se basan
en la s expresiones AV , por lo que ciertamente tienen validez en muestra
grandes, pero también en algunos casos se puede contar con tamaños de
muestras medianos o pequeños.

En algunos estudios se prefiere utlizar el estimador de razón t̂yra al estimador


de regresión t̂yreg , aunque este último estimador produce algunas ganancias
en eficiencia. El estimador de razón tiene una estructura más simple, y tiene
ventajas en los casos en que P
P P estimaciones tanto para el y − total
se requieren
U yk y la razón de totales U yk / U xk .
En muestras muy pequeñas, t̂yra puede tener una varianza menor que t̂yreg ,
a pesar de la conclusión de la muestra (7.8.11). Estudios empı́ricos en pobla-
ciones pequeñas, con muestras M AS de tamaño 12 o menos, han demostrado
que el error cuadrático medio, es decir, la varianza más el sesgo al cuadrado
puede ser menor para el estimador de razón que para el estimador de re-
gresión t̂yreg . Los estudios sugieren que la menor eficiencia del estimador de
regresión a veces no se debe a un mayor sesgo, sino a una mayor varianza.
Ası́, muestras muy pequeñas pueden ser un factor a favor del estimador de
razón. La forma de la población también es un factor de importancia. No
obstante, el hecho de no utilizar el estimador de regresión (7.8.5) cuando se
cumplen las condiciones para este estimador puede causar una perdida con-
siderable de precisión. El estimador de regresión es mejor que el estimador
de razón cuando un intercepto en la regresión conduce a una explicación más
completa de la variable y.

Bajo diseño EST M AS, el estimador (7.8.5) toma la forma

b U − x̄M AS )]
t̂yreg = N [ȳM AS + B(x̄ (7.8.12)

PH
donde ȳM AS = h=1 (Nh /N )ȳsh , x̄M AS es análogo, y

PH P
h=1 (Nh /nh ) sh (xk − x̄M AS )(yk − ȳM AS )
B
b= PH P 2
h=1 (Nh /nh ) sh (xk − x̄M AS )

La formula se conoce como el estimador de regresión combinado. Se deja


como ejercicio para determinar la expresión AV y el estimador de varianza.

13
Algunos casos prácticos pueden requerir el ajuste de un modelo de re-
gresión grupal. Es decir, una regresión simple se ajusta por separado en
cada número de grupos de la población con tamaños conocidos a priori,
N1 , ..., Ng , ..., NG . En este caso, el estimador de regresión (7.2.8) toma la for-
ma

G
X
t̂yr = bg (x̄Ug − x̃Sg )]
Ng [ỹsg + B (7.8.13)
g=1

con
P
sg (xk − x̃sg )(yk − ỹsg )/πk
B
bg = P
sg (xk − x̃sg )2 /πk

y ∼ indica las π-ponderaciones medias, es decir,

P
s yk /πk
ỹsg = P g
sg 1/πk

x̃sg es análogo ỹsg .


Si la composición del grupo se establece después del muestreo, para los ele-
mentos seleccionados puede denominarse el estimador de regresión postes-
tratificado (7.8.13). Para calcular la varianza y el estimador de varianza de
(7.8.13) se deja como ejercicio. En el caso especial en que cada grupo es un
estrato y se utiliza un muestreo EST M AS, (7.8.13) se llama a menudo es-
timador de regresión de estrato, porque se ajusta a una regresión en cada
estrato.

7.9 Estimadores basados en modelos de regre-


sión múltiple
En esta sección, se examinan las aplicaciones de la estimación de regresión
cuando el modelo contiene múltiples variables explicativas. La sección tiene
dos partes que tratan de los siguientes casos: (i) el modelo subyacente es
una regresión múltiple con dos o más x variables cuantitativas; (ii) el mo-
delo subyacente es un modelo de análisis de varianza con dos o más factores

14
explicativos, cada uno con un número de niveles. En las aplicaciones, tra-
bajamos directamente con las formas matricialesgenerales de las ecuaciones
(7.2.8) y (7.2.9); por lo general no hay expresiones simplificadas para el esti-
mador de regresión, en contraste con los modelos tratados anteriormente en
este capı́tulo.

La precisión obtenida por el estimador de regresión general (7.2.8) depende


de dos factores: (a) el modelo adecuado para obtener el estimador y (b) el
diseño de muestreo. El modelo ajustado determina la forma del estimador,
influyendo ası́ en la varianza. El diseño muestral determina la distribución
muestral del estimador y por lo tanto su varianza. La varianza obtenida se
debe en parte a un efecto de diseño y a un efecto de ajuste del modelo. Es
decir, los dos efectos interactúan (ver Sarndal 1981).

La expresión AV (7.2.10) es una función de los residuos Ek de la regresión. Los


residuos más pequeños generalmente conducen a una varianza más pequeña.
Esto es evidente bajo el diseño M AS, donde (7.2.10) puede ser escrito como
1−f 2
AV (t̂) = N 2 Sy U (1 − R2 ) (7.9.1)
n

donde

Ek2 2
P P
2 U U Ek
R =1− =1−
(N − 1)Sy2U
P 2
U (yk − ȳU )

Aquı́, R2 es el coeficiente de determinación múltiple para el ajuste de la


población. Un resultado básicoen el análisis de regresión establece que R2
aumentará (o se mantendrá igual) cuando una nueva variable x se añade a
la regresión.

En el caso del muestreo M AS, se percibe una clara mejora en el R2 añadien-


do una variable x, existe una fuerte motivación para usar esta variable en el
estimador de regresión. Si la mejora se considera marginal en el mejor de los
casos, una regla es no complicar aún más el estimador mediante la inclusión
de tal variable x. adaptarse a un modelo simple es mejor que adaptarse a un
modelo más complicado, a menos que este último sea mejor en terminos de
eficiencia.

Bajo diseños distintos de M AS, las conclusiones son menos obvias, ya que
la varianza calculada no es una simple función de R2 . Entonces se observa

15
una interacción entre el efecto del ajuste del modelo y el efecto del ajuste del
diseño muestral. Un factor a considerar para los estimadores de regresión es
el costo del .experto”que decidirá que variables debe incluir en el modelo en el
modelo ajustado. Otro factor, aunque menor, es el costo del cómputo o soft-
ware, que puede ser mayor cuando los estimadores de regresión son complejos.

7.9.1 Modelos de Regresión Múltiple


Un modelo de regresión múltiple se construye a partir de dos o más variables
x, lo esperado es que las variables x en conjunto expliquen bien la variable y,
con un aumento de la eficiencia como resultado. ParaP ilustrar el rendimiento
de varios estimadores de regresión del total ty = U yk y para estudiar el
efecto de sobre la varianza que una o más variables auxiliares pueden tener,
se llevó a cabo una simulación de Monte Carlo en el que se extrajeron 5,000
muestras repetidas de M AS, cada una con n = 100, de la población MU281
de los municipios suecos (véase el apéndice B).

La simulación de Monte Carlo se utiliza a menudo cuando es dificil obte-


ner una descripción exacta de la distribución muestralde un estimador. Para
obtener la distribución exacta, uno tendrı́a que considerar todas las muestras
s, se debe conocer la probabilidad p(s) de s y el valor del estimador t̂ = t̂(s),
de la población total ty . Seria posible calcular los valores exactos del valor
esperado, el sesgo, y la variación de t. Sin embargo, esto normalmente es una
tarea difı́cil, ya que el número de muestras posibles es demasiado grande. Es-
ta es la razón por la que la simulación se utiliza con frecuencia para estudiar
las propiedades estadı́sticas de los estimadores utilizados en las encuestas.

Una simulación destinada a estudiar uno o varios estimadores se lleva a cabo


normalmente de la siguiente manera. La población y el diseño se mantienen
fijos. Se extrae un gran número de muestras de la población de acuerdo con
el diseño propuesto. Una vez extraida, se reemplaza una muestra antes de
que se extraiga la siguiente, de modo que sea siempre la misma población
de la que se toma la muestra. El número de muestras se denota K, donde
K es número grande. Cuando varios estimadores se estudian en la misma
simulación, una gran cantidad de cálculo puede estar involucrado, pero hoy
en dı́a no es un problema con las computadoras que se tienen. Para cada
muestra obtenida se calcula la estimación t̂ y la estimación de la varianza
Vb (t̂). Si K es lo suficientemente grande, la distribución de las K estimacio-
nes, puede dontarse la distribución muestral empirica la cual se aproximará
a la distribución exacta que no podemos obtener fácilmente. tenemos que t̂j

16
y Vb (t̂)j denotan los resultados obtenidos para la j-ésima muestra, podemos
calcular

K
¯ 1 X
t̂ = t̂j
K j=1

La cual es una estimación del valor esperado

K
1 X
t̂j − t̂¯
2
St̂2 =
K − 1 j=1

La cual es una estimación de la varianza V (t̂), y finalmente

K
¯ 1 Xb
V =
b V (t̂)j
K j=1

Es una estimación del valor esperado del estimador de varianza, es decir,


E[Vb (t̂)]. Si para cada muestra también se calcula el intervalo de confianza
con un nivel del 95 %,

t̂ ± 1.96[Vb (t̂)]1/2
y luego contar el númerode intervalos, R, digamos, que contiene el valor
verdadero del total t, entonces R/K es una estimación del nivel de confianza
real. El nivel de confianza real puede diferir del 95 % porque (t̂ − t)/[Vb (t̂)]1/2
sigue aproximadamente una distribución normal.

Coeficiente de Regresión ×103


Regresión B0 B1 B2 1 − R2
y con x1 -6.43 2.84 - 56.8 %
y con x2 -21.29 - 1.82 57.7 %
y con x1 y x2 -38.30 2.84 1.59 25.3 %

La simulación presentada utilizó las siguientes variabes para la población


MU281 del apendice B. La variable de estudio fue RMT85×10−4 , donde
RMT85 son los ingresos fiscales municipales en 1985. Se utilizaron dos varia-
bles auxiliares, x1 y x2 , donde x1 es CS82 que es el número de escaños del

17
partido conservador en el concejo municipal y x2 es SS82, que es el núme-
ro de escaños del partido socialdemócrata en el concejo municipal. Para el
municipio k, los valores respectivos de las tres variables se denotan yk , x1k y
x2k , k = 1, ..., 281. la tabla muestra muestra los resultados de varios análisis
de regresión basados en 281 puntos de datos. Cada variable x deja aproxi-
madamente el 57 % de la variación y sin explicación, si ambas variables x
son incluidas en la regresión, sólo el 25.3 % de la variación en y permanece
sin explicación. Un estimador de regresión con las dos variables x como auxi-
liares deberı́a por lo tanto superar a uno que utiliza sólo una de las variables x.

Además, el intercepto es importante en las tres regresiones. debemos esperar


que un estimador de regresión simple funcione mejor que un estimador de
razón.
Se estudiaron los siguientes estimadores:

a. El π estimador

t̂1 = t̂π = N ȳs (7.9.2)

b. Dos estimadores de razón, el primero con x1 y el segundo con x2 como


única varible auxiliar.
P
X yk
t̂2 = t̂yra (x1 ) = x1k P s (7.9.3)
U s x1k

y
P
X yk
t̂3 = t̂yra (x2 ) = x2k P s (7.9.4)
U s x2k

c. Dos estimadores de regresión simple, el primero con x1 y el segundo


con x2 como única varible auxiliar.

b1 (x̄1U − x̄1s )]
t̂4 = t̂yreg (x1 ) = N [ȳs + B (7.9.5)

18
b2 (x̄2U − x̄2s )]
t̂5 = t̂yreg (x2 ) = N [ȳs + B (7.9.6)

con
P
s (x − x̄js )(yk − ȳs )
B
bj = Pjk 2
s (xjk − x̄js )

d. El estimador de regresión múltiple usando x1 y x2 como variables au-


xiliares.

X 
t̂6 = t̂yr (x1 , x2 ) = B
b0 + B
b1 x1k + B
b2 x2k
U
b1 (x̄1U − x̄1s ) + B
= N [ȳs + B b2 (x̄2U − x̄2s )] (7.9.7)

donde
X −1 X
0
(B
b0 , B
b1 , B
b2 ) = xk x0k xk y k
s s

con

xk = (1, x1k , x2k )0

Para cada una de las 5000 muestras, se calcularon las seis estimaciones que
se muestran en las ecuaciones (7.9.2) a (7.9.7). Para cada estimación, se
calcularon dos estimaciones de varianza diferentes, la fórmula g-ponderada
dada por (7.2.11), es

2 2
1 − f Σs gks eks
V̂g = V̂g (t̂) = N 2 (7.9.8)
n n−1
y la estimación de varianza simplificada obtenida dejando que todos los
gks = 1,

19
1 − f Σs e2ks
V̂sim = V̂sim (t̂) = N 2 (7.9.9)
n n−1
Aquı́, eks y gks son las expresiones apropiadas para cada estimador de
regresión particular, t̂2 a t̂6 . Para el π estimador, se aplica la ecuación (7.9.9),
con eks = yk − ȳs . Para cada una de las 5000 estimaciones obtenidas por
un estimador t̂, dejamos que la computadora calcule los dos intervalos de
confianza

1/2
t̂ ± 1.96V̂g1/2 y t̂ ± 1.96V̂sim (7.9.10)

Para cada uno de los intervalos, ty , se verificó si la verdadera población


total ty estaba contenida en el intervalo o no.
Se calcularon medidas de resumen sobre las 5000 muestras. Los resultados
se muestran en la Tabla 7.2, donde t̂ y St̂2 son la media y la varianza de
las 5000 estimaciones t̂; V̂g y V̂sim son las medias de las 5000 estimaciones
de varianza, V̂g y V̂sim , respectivamente; y ECRg y ECRsim son las tasas
de cobertura respectivas, en porcentaje, obtenidas, respectivamente, de los
intervalos dados por (7.9.10). Por ejemplo, ECRg es 100 veces R/5000, donde
R es el número de intervalos exactos que contienen el valor verdadero tv ,
cuando se usó el intervalo g-ponderado. El final
Tabla 7.2. Resultados de una simulación que involucra 5000 muestras de
tamaño n = 100 cada una; la población total es ty = 5315.

¯ ¯
Estimador t̂¯ St̂2 V̂g ECRg V̂sim ECRsim AV
t̂1 = t̂x 5.31 0.204 - - 0.203 93.6 0.204
t̂2 = t̂yra (x1 ) 5.31 0.121 0.120 93.1 0.121 93.2 0.121
t̂3 = t̂yra (x2 ) 5.31 0.141 0.141 93.9 0.141 93.8 0.142
t̂4 = t̂yreg (x1 ) 5.30 0.119 0.115 93.1 0.114 92.5 0.116
t̂5 = t̂yreg (x2 ) 5.30 0.119 0.118 93.9 0.116 93.4 0.117
t̂6 = t̂yr (x1 , x2 ) 5.31 0.054 0.052 93.2 0.050 92.5 0.052

La columna de la tabla 7.2 da el valor de la expresión AV para t̂,

21 − f ΣU Ek2
AV (t̂) = N
n N −1
donde Ek son los residuales de la poblacion.

20
Para el π estimador, el valor en la columna AV es igual a la varianza
exacta,

1−f 2
V (t̂π ) = N 2 SyU
n
Las medidas de resumen de simulación sı́ dan una imagen exacta de las
verdaderas caracterı́sticas subyacentes. Por ejemplo, t̂¯ estima el verdadero
valor esperado de t̂, pero solo con el grado de precisión que se puede esperar
que proporcione el número limitado de 5000 repeticiones. La imperfección
causada por el número finito de repeticiones se siente con mayor intensidad
en el caso de una medida de varianza (St̂2 en nuestra simulada) que en el
caso de medidas calculadas como medias (t̂, ¯ V̂¯ ,V̂¯ ). La Tabla 7.2 presenta
g sim
los siguientes comentarios.

1. El verdadero total de la población es 5315. Para cada uno de los seis


estimadores, el valor i se acerca mucho a este verdadero total, lo que
indica un sesgo insignificante en todos los estimadores de regresión, t̂2
a t̂6 . Esto se espera cuando n es tan grande como 100.

2. Se observa que las cuatro cantidades t̂, ¯ V̂¯ , V̂¯ y AV coinciden estre-
g sim
2
chamente para cada estimador. Aquı́, St̂ estima la verdadera varianza,
al grado de precisión obtenido con 5000 repeticiones. Tenga en cuenta
que AV es una varianza aproximada, en el caso de los cinco estimadores
de regresión. cuando St̂2 y AV están cerca indica que AV representa con
precisión la verdadera varianza cuando n = 100. Para un tamaño de
muestra considerablemente más pequeño, es probable que haya alguna
discrepancia entre la varianza exacta y AV .
¯ ¯
3. Que tanto V̂g y V̂sim coinciden estrechamente con St̂2 es una señal de
que los dos estimadores de varianza son insesgados o casi similares.
De nuevo, esto no es sorprendente. cuando n = 100. Para tamaños de
¯ ¯
muestra pequeños, tanto V̂g como en particular V̂sim tienen una tenden-
cia a subestimar la verdadera varianza. Leblond (1990) ha estudiado
la subestimación, teórica y empı́ricamente, en el caso del estimador de
razón.
4. Las tasas de cobertura empı́rica ECRg y ECRsim son muy cercanas
(pero algo menor) la tasa nominal es del 95 % a la que apunta la técnica
del intervalo de confianza. El procedimiento del intervalo de confianza
ponderado en g es ligeramente mejor (más cercano al 95 % nominal)
que el procedimiento simplificado.

21
5. La importancia de incluir la intercepción en el modelo ajustado resulta
más clara al comparar t̂yra (x2 ) con la alternativa claramente mejor
t̂yreg (x2 )). La intersección se ve en la Tabla 7.1 como especialmente
importante para la regresión basada en x2 .

6. Como se esperaba, dado el análisis de regresión en la Tabla 7.1, el esti-


mador de regresión múltiple t̂6 supera a los dos estimadores de regresión
simples t̂4 y t̂5 .

Duplicamos la simulación, con 5000 muestras repetidas, pero con n = 50


como el tamaño de cada muestra. Los resultados fueron similares, pero los
dos ECRs se quedaron cada vez más cortos del nivel nominal del 95 % (ECRg
de aproximadamente 92 %; aproximadamente 1 % más bajo para el ECRsim ).
Esta impresión, también confirmada en otros estudios, sugiere que la cons-
tante basada en la normalidad 1.96 es demasiado pequeña para generar una
tasa de cobertura empı́rica del 95 %. Se obtendrá una mejora reemplazando
1.96 por el valor, tn−1,1−α/2 encontrado en una tabla de la distribución t con
n − 1 grados de libertad. Con n = 50, t49;0.975 = 2.01; que mejora el ECR
ligeramente, en comparación con el uso de 1.96.

7.9.2 Análisis de Modelos de Varianza


Esta sección trata de modelos de efectos aditivos del tipo utilizado en el
análisis de varianza. Considere una población de individuos y una clasifica-
ción de dos vı́as con GJ celdas, Ugj , g = 1, .., G; j = 1, ..., J, formado por
grupos de G edad cruzados con J grupos ocupacionales. Se desconocen los
totales individuales de la población Ngj , por lo que es imposible la postratifi-
cación de los individuos GJ. Pero suponemos que los recuentos marginales se
pueden obtener fácilmente. Los dos conjuntos de marginales pueden provenir
de fuentes separadas, por ejemplo, uno de un censo, el otro de un archivo
administrativo. Es decir, lo marginal cuenta

Ng. = ΣJj=1 Ngj N.j = ΣG


g=1 Ngj

son conocidos para g = 1, ..., G, j = 1, ..., J. El objetivo es construir un


estimador de regresión que se beneficie de esta información auxiliar. El valor
de la variable de estudio y’k y la membresı́a celular se observan para los
individuos k en una muestra de probabilidad s. El vector apropiado para este
caso viene dado por δ1

22
xk = (δ1. , ..., δG. , δ.1 , ..., δ.J )0 (7.9.11)

donde δg. = 1 si k pertenece al grupo de edad g, y δg. = 0 de lo contrario,


g = 1, ..., G, mientras que δ.j = 1 si k pertenece al grupo ocupacional j, y
δ.j = 0 De lo contrario, j = 1, ..., J. Por cada k, xk contiene una ”1”para
indicar el grupo de edad, otra entrada ”1”para indicar grupo ocupacional, y
el otro G + J − 2 las entradas ”0”son La población total de xk ,

ΣU xk = (N1. , ..., NG. , N.1 , ..., N.J )0

corresponde exactamente a lo que se sabe sobre la población, a saber, el


G + J recuentos marginales. Por simplicidad, pensamos en términos de un
modelo con σk2 = σ 2 para todos los k. Los valores g dados en general por
(7.29) pueden escribirse como

gks = 1 + x0k µ

donde el vector µ = (u1 , .., uG , v1 , ..., vJ se obtiene como una solución de

(Σs xk x0k /πk )µ = ΣU xk − Σs xk /πk (7.9.12)

Cuando xk viene dado por (7.9.11), este es un sistema de ecuaciones G+J


estructurado de la siguiente manera. Denote por sgj = Ugj ∩ s la parte de
la muestra s que cae en el individuo gj, y por N̂gj = Σsgj 1/πk la estimación
del recuento por celda. Los elementos, denotados mab , de la matriz simétrica
(G + J)(G + J), Σs xk x0k /πk son funciones de N̂gj . En la diagonal, tenemos,
para g = 1, ..., G, mgg = ΣJj=1 N̂gj = N̂g. y, por j = 1, ..., J, mG+j,G+j =
ΣGg=1 N̂gj Los elementos fuera de la diagonal son mg,G+j = mG+j,g = N̂gj ,
para g = 1, ..., G, j = 1, ..., J Todos los demás elementos fuera de diagonal
son cero. Además, en el lado derecho del sistema de ecuaciones (7.9, 12),

ΣU xk − Σs xk /πk = (N1. − N̂1. , ..., NG. − N̂G. , N.1 − N̂.1 , ..., N.J − N̂.J )0

En este caso, no hay una solución única para (7.9.12) porque Σs xk x0k /πk
no es de rango completo. El rango es G + J − 1, y el inverso no existe. Para
obtener una solución, arregle arbitrariamente un componente de µ, digamos,
vJ = 0, y resuelva el Sistema (7.9.12) para las incógnitas restantes Puede

23
ser,u1 , ..., uG , v1 , ..., vJ−1 . mostró que x0k µ es invariante bajo la fijación de un
componente de µ. Es decir, el valor de x0k µ es el mismo independientemente
de qué componente sea fijo e independientemente del valor constante asignado
a este componente. Un conjunto único de g-ponderaciones se obtiene gks =
1 + x0k µ. Con estos valores, el estimador de regresión de ty = ΣU Yk está dado
como siempre por

t̂yr = Σs gks yk /πk (7.9.13)

El modelo que corresponde a este estimador de regresión es el bidireccio-


nal. Modelo ANOVA sin interacciones. (Es un modelo desequilibrado por-
que el Ngj normalmente no son iguales.) Para ver esto, supongamos que
β = (α1 , ..., αG , β1 , ..., βJ )0 , donde el αg y el βj son parámetros desconocidos
del modelo. Con xk dado por (7.9.11), entonces tenemos x0k β = αg + βj para
algun k ∈ Ugj . Esto implica que el modelo subyacente ξ es tal que.

Eξ (yξ ) = x0k β = αg + βj ; Vξ (yk ) = σ 2

para todo k ∈ Ugj . Este es un modelo ANOVA de efectos aditivos. El


estimador de varianza viene dado por la expresión g-ponderada usual,

V̂ (t̂yr ) = ΣΣs (∆kl /πkl )(gks eks /πk )(gls els /πl )

donde usamos gks = 1 + x0k µ y los residuos eks obtenidos del ajuste del
modelo. Estos residuos son

eks = yk − x0k B̂ = yk − (Âg + B̂j )

para k ∈ Ugj ∩s, donde B̂ = (Â1 , ..., ÂG , B̂1 , ..., B̂J )0 se obtiene resolviendo
el sistema de ecuaciones generales

(Σs xk x0k /πk )B̂ = Σs xk yk /πk

Nuevamente, existe el problema de no tener una solución única B̂, Para


obtener una solución, fije un componente, digamos, B̂J = 0, y resuelva los
componentes restantes Â1 , ..., ÂG , B̂1 , ..., B̂J , Los residuales eks y el estimador
de varianza V̂ (t̂yr ) ahora se pueden calcular.

24
La técnica utilizada en este ejemplo, con pesos que se comparan en dos
marginales conocidos, se remonta a Deming (1943). El estimador que se mues-
tra en La ecuación (7.9.13) está estrechamente relacionada con el estimador
de la relación de inclinación de Deming y Stephan (1940). La teorı́a de la es-
timación de regresión conduce directamente a un estimador de varianza; Este
aspecto se discute en Deville y Sãrndal (1992). Un programa de computado-
ra para calcular los pesos, LINWEIGHT, se describe en Bethlehem y Keller
(1987). Este programa manejará extensiones a tablas de múltiples vı́as.

7.10. Intervalos de confianza condicionales


En algunas situaciones, hay buenas razones para hacer inferencia condi-
cionalmente en ciertas caracterı́sticas observadas de la muestra. Para ilustrar,
suponga que el objetivo es construir un intervalo de confianza de 100(1−α) %
para el total ty , dado que se ha encontrado que una muestra BE es de ta-
maño ns0 . Recuerde que el diseño BE, con la probabilidad de inclusión π
para todos los elementos, proporciona una muestra de tamaño aleatorio ns ,
que se distribuye binomialmente con media N π y varianza N π(1 − π). Ha-
biendo observado que ns = ns0 , a muchos analistas les gusta construir un
intervalo de confianza para que el nivel de confianza sea 1 − α, digamos 95 %,
condicionalmente en el evento ns = ns0 . Es decir, para el 95 % de las muestras
repetidas de BE que obedecen ns = ns0 , el intervalo debe contener ty . Tal
intervalo se llama intervalo de confianza condicional del 95 %.
Se deduce que si la tasa de cobertura condicional es aproximadamente
1 − α para cualquier ns = ns0 , el tamaño de muestra fijo aumenta, la tasa de
cobertura también será 1 − α en general, es decir, con respecto a las muestras
BE de todos los tamaños.
Por lo tanto, un intervalo de confianza condicional produce la tasa de
cobertura deseada Sobre todas las muestras repetidas posibles. Cumple el re-
quisito básico para un intervalo de confianza. Una propiedad adicional atrac-
tiva del intervalo de confianza condicional es que también produce la tasa de
cobertura deseada sobre muestras repetidas que respetan la condición.

Diferentes aspectos de la inferencia condicional en el muestreo de encues-


tas se discuten en Holt y Smith (1979), Rao (1985), Särndal y Hidiroglou
(1989), y Särndal, Swensson y Wretman (1989).

25
7.10.1 Análisis condicional para muestreo BE
Utilizamos el diseño BE para ilustrar el concepto de un intervalo de con-
fianza condicional. Considere el estimador
P
s yk
t̂yr = N ns
= N ȳs (7.10.1)

obtenido del modelo medio común en el ejemplo 7.4.1. La fórmula aplica


si ns > 1. Si ns = 0, tomamos, por conveniencia, la estimación como cero. En
muchos casos, ns = 0 tiene una probabilidad cercana a cero. Si A1 denota el
evento ns > 1, la probabilidad de A1 es

PA1 = 1 − (1 − π)N = 1 − e−n (7.10.2)

Donde n = E(ns ) = N π es el tamaño de muestra esperado. Un evento


con un pequeño tamaño de muestra esperado n, A1 es casi seguro que ocurra.
Por ejemplo para n = 10 tenemos PA1 = 1 − e−10 = 0.99995. La definición
extendida del estimador es
(
N ȳs si ns ≥ 1
tˆ y =
0
(7.10.3)
0 si ns = 0

condicionalmente en ns y A1 (que se traduce como: ns , tiene valor fijo ≥


1) ahora tenemos

EBE (N ȳs |ns , A1 ) = ty (7.10.4)

VBE (N ȳs |ns , A1 ) = N 2 ( n1s − 1


N
2
)SyU (7.10.5)

Esto sigue ya que, dado A1 y ns , la selección de ns elementos es formal-


mente equivalente a un SI selección de ns de N elementos. La prueba de esto
queda como ejercicio. En otras palabras, N ȳs es condicionalmente imparcial
para ty , dado ns y A1 , con la varianza condicional mostrada en (7.10.5).
Un estimador condicionalmente imparcial de la varianza (7.10.5) también
se obtiene. Sea A2 el evento ns ≥ 2. Dado ns y A2 (que se lee: ns tiene un
valor fijo ≥ 2), considere

V̂c = N 2 ( n1s − 1
N
2
)Sys (7.10.6)

con

26
2 1
− ȳs )2
P
Sys = ns −1 s (yk

Para ver eso (7.10.6) es un estimador de varianza condicionalmente im-


parcial, tenga en cuenta primero que
2 2
EBE (Sys |ns , A2 ) = SyU

Por consiguiente,
EBe (V̂c |ns , A2 ) = N 2 ( n1S − 1
N
2
)SyU = VBE (N ȳs |ns , A2 )
Ahora se puede construir un intervalo de confianza condicional aproximado
en el nivel 1-α, siempre que ns no sea extremadamente pequeño, es decir,
1/2
N ȳs ± z1−α/2 V̂c

P Con V̂c dado por (7.10.6) este intervalo contendrá lo desconocido ty =


U yk por una proporción de aproximadamente 1-α de todas las muestras
BE que tienen un tamaño fijo ≥ 2. Dado que la tasa de cobertura será apro-
ximadamente 1-α para cualquier tamaño fijo, la tasa de cobertura general
(sobre todas las muestras posibles) también es aproximadamente 1-α.

Observación 7.10.1 Tenga en cuenta que el estimador de varianza que


se muestra en la ecuación (7.10.6), obtenido por el argumento condicional,
coincide casi con la g ponderación del estimador de la varianza (7.4.9), que
se obtuvo de (7.2.11) y está dada por
V̂BE (t̂y ) = N 2 1−π
ns
(1 − 1
ns
2
)Sys
Esto sigue porque 1-ns =1, y 1-Pns /N es en promedio igual a 1-π. El g peso
es N/N̂ para todo k, donde N̂ = s 1/π. Las g ponderaciones del estimador
de la varianza es esencialmente un estimador de la varianza condicional. Por
el contrario, el estimador de la varianza simplificado obtenido deja que todos
los gks = 1 en (7.2.11) no es adecuado para intervalos condicionales, aunque
proporciona un nivel de confianza general correcto, es decir, aproximadamen-
te igual a 1-α

observación 7.10.2 Los momentos condicionales que se muestran en


(7.10.4) y (7.10.5) puede usarse para derivar los momentos incondicionales
correspondientes. Medios incondicionales con respecto a todas las muestras,
independientemente de su tamaño. Sea E1 (.) y V1 (.) denotan el valor esperado
y la varianza con respecto a la distribución de ns , dado ns ≥ 1, a saber
P (ns = j) = nr π j (1 − π)N −j /PA1 ; j = 1, 2, 3, ..., N


27
Esta es una distribución binomial con parámetros N y π, truncado en ns = 0.
Para el estimador que se muestra en la ecuación (7.10.3), tenemos, usando
(7.10.41),
0
EBE (t̂y ) = (1 − PA1 ) ∗ 0 + PA1 EBE (N ȳs |A1 )
= PA1 E1 EBE (N ȳs |A1 )
= PA1 E1 ty = PA1 ty

Una expresión exacta para el sesgo es ası́


0
EBE (t̂y ) − ty = −(1 − PA1 )ty
Hay un sesgo negativo muy leve, porque PA1 = 1 − e−n está muy cerca de la
0
unidad. El sesgo es causado por la definición arbitraria t̂y = 0 cuando ns = 0.
La varianza incondicional es
0
VBE (t̂y ) = (1 − PA1 )PA1 t2y + PA1 EBE ([N ȳs − ty ]2 |A1 )

donde
EBE ([N ȳs − ty ]2 |A1 ) = E1 [EBE ([N ȳs − ty ]2 |ns , A1 )]
= E1 [VBE (N ȳs |ns , A1 )]

Usando (7.10.5) obtenemos la varianza incondicional


0
VBE (t̂y ) = (1 − PA1 )PA1 t2y + PA1 N 2 [E1 ( n1s − 1
N
2
)]SyU (7.10.7)

con
N  
1 X 1 N j
E1 ( ) = ( ) π (1 − π)N −j /PA1
ns j=1
j r

Observación 7.10.3 La ecuación (7.10.7) es una expresión de varianza


exacta pero es larga de calcular. Es posible una aproximación por medio de
la expansión de Taylor. Dejando ∆s = (ns −n)/n, donde n = E(ns ), tenemos
1 1
ns
= n(1+∆s )
= n1 (1 − ∆s + ∆2s − · · · )
Suponiendo que la probabilidad de ns = 0 es despreciable,
V (ns )
E( n1s ) = n1 [1 + n2
] (7.10.8)

Esta aproximación es válida para cualquier diseño con el tamaño de mues-


tra esperado n. En particular, bajo muestreo BE, n = N π y VBE (ns ) =
N π(1 − π), entonces

28
EBE ( n1s ) = 1
n
+ 1−π
n2

Insertanfo en (7.10.7) y aproximando PA1 = 1 llegamos al orden de aproxi-


mación n−2
0
VBE (t̂y ) = VBE (N ȳs ) = N 2 1−π
n
(1 + n1 )SyU
2

Una comparación con el muestreo SI (tamaño fijo = n, fracción de mues-


treo n/N = π) conduce al efecto de diseño
VBE (N ȳs ) 1
VSI (N ȳs )
=1+ n

La penalización por el tamaño de la muestra aleatoria es insignificante (a


menos que n sea extremadamente pequeño).

7.10.1 Análisis condicional para el estimador


de postratificación
El intervalo de confianza derivado en la Sección 7.10.1 es un ejemplo del
siguiente procedimiento de intervalo de confianza condicional general. Un
intervalo de confianza condicional en el nivel aproximado 1-α se construye
como
t̂y ± z1−α/2 [V̂c (t̂y )]1/2 (7.10.9)
Donde t̂y es condicionalmente imparcial, al menos aproximadamente para
ty y V̂c (t̂y ) es un estimador (aproximadamente) condicionalmente imparcial
de la varianza condicional Vc (t̂y ). Aquı́, el ı́ndice c indica condicional. En
muestras repetidas que obedecen la condición, una proporción de aproxima-
damente 1-α de todas las muestras darán lugar a intervalos que contienen
lo desconocido ty . En el ejemplo de muestreo BE anterior, t̂y es dado por
(7.10.1) y V̂c (t̂y ) por (7.10.6)
Apliquemos el razonamiento condicional al caso importante del estimador
postratificado clásico (ver Sección 7.6)
G
X G
X X
t̂ypos = Ng ȳsg = NG ( yk )/ns (7.10.10)
g=1 g=1 sg

Asumiendo el muestreo SI (n elementos extraı́dos de N , y f = n/N ), tene-


mos
XG
n= ns g
g=1

Sea A1 que denota el evento

29
nsg ≥ 1; g = 1, 2, ..., G

En la ecuación (7.10.10), definamos ȳsg = 0 cuando nsg = 0. El estimador


t̂ypos luego se define incluso si el evento Ā1 = no ocuree A1 .
Sea ns = (ns1 , ..., nsG ) el vector de recuentos grupales. Estos recuentos son
aleatorios. Se puede demostrar que la selección SI de una muestra s, dada
una configuración fija ns , se ajusta a una selección de una muestra ST SI,
con nsg , elementos extraı́dos de Ng , en el grupo Ug ; g=1,2,...,G (vea ejecicio
7.26).
Usando el resultado 3.7.2, obtenemos la siguiente media y varianza con-
dicional:

G
X X
ESI (t̂ypos |ns , A1 ) = Ng E[( yk /nsg )|nsg ≥ 1]
g=1 sg
G
X
= Ng ȳUg = ty (7.10.11)
g=1

G
X
VSI (t̂ypos |ns , A1 ) = Ng2 (1/nsg − 1/Ng )SyU
2
g
(7.10.12)
g=1
2
donde SyUg
es la varianza de y en Ug . Esto lleva inmediatamente a un esti-
mador de varianza condicional, siempre que nsg ≥ 2 para todo g, es decir
G
X 1 1 2
V̂c (t̂ypos ) = Ng2 ( − )S (7.10.13)
g=1
ns g Ng ysg

Note que
2 1
− ȳsg )2
P
Sysg
= nsg −1 sg (yk

2
es condicionalmente imparcial para SyU g
. Un intervalo de confianza condicio-
nal en el nivel aproximado 1-α es obtenido de (7.10.9) con t̂y = t̂ypos y V̂c (t̂y )
dado por (7.10.13).

Observación 7.10.4 El estimador de la varianza condicional que se


muestra en la ecuación (7.10.13) coincide estrechamente con la g ponde-
raación del estimador de la varianza (7.6.5) utilizado en la Sección 7.6. Si
1-(nsg /Ng ) en (7.10.13) se reemplaza por su valor promedio, 1 − f , obtene-
mos (7.6.5). Tanto (7.10.3) como (7.6.5) tienen sentido bajo una perspectiva

30
condicional. Supongamos que el grupo g-ésimo está subrepresentado en la
muestra, para que el nsg observado, es pequeño en comparación con sus ex-
pectativas, nNg /N . Entonces el grupo g-ésimo tenderá a contribuir más a la
estimación de la varianza que si ns fuera mayor de lo esperado. Esta es una
propiedad razonable, como se argumenta en Holt y Smith (1979) y Särndal,
Swensson y Wretman (1989).

Observación 7.10.5. Podemos usar las expresiones condicionales que


se muestran en las ecuaciones (7.10.11) y (7.10.12) para derivar la media
incondicional y la varianza y una aproximación cercana, computacionalmente
simple de la varianza. Sea E1 (.) que denota la expectativa bajo la distribución
de ns , que es una distribución hipergeométrica multivariada, truncado para
que nsg ≥ 1 para g=1,2,...,G. Ahora usando (7.10.11) y (7.10.12)

ESI (t̂ypos |A1 ) = E1 [ESI (t̂ypos |ns , A1 )]


= E(ty ) = ty
ESI [(t̂ypos − ty )2 |A1 ] = E1 [VSI (t̂ypos |ns , A1 )]
G
X 1 1 2
= E1 [ Ng2 ( − )SyUg ]
g=1
n s g Ng

G
X 1 1 2
= Ng2 [E1 ( )− ]S (7.10.14)
g=1
ns g Ng yUg

Aquı́ la expectativa E1 (1/nsg ) se toma con respecto a la distribución de


nsg , dado que nsg ≥ 1. Concluimos que, dado el evento A1 , t̂ypos es imparcial
para ty ; y la varianza es dada por (7.10.14). Hay una probabilidad distinta
de cero de que ocurra A1 . Sin embargo, en muchas aplicaciones esta probabi-
lidad es tan pequeña que, a todos los efectos prácticos, t̂ypos , puede tratarse
como imparcial en el sentido general con la varianza mostrada en (7.10.14)

Observación 7.10.6. Se puede usar (7.10.14) para obtener una expresión


de la varianza aproximada más refinada que el resultado anterior (7.6.4).
Evaluamos E1 (1/nnsg ) por medio de (7.10.8). Primero, tenga en cuenta que
si Wg = Ng /N entonces

E1 (nsg ) = nWg
N −n
V1 (nsg ) = nWg (1 − Wg )
N −1

31
suponiendo que nsg = 0 tiene una probabilidad insignificante. Ası́,
   
1 1 (1 − f )(1 − Wg )
E1 =˙ 1+
ns g nWg nWg
y
( G G
)
21 − f 1X
X
2 2
VM AS (t̂ypos ) =
˙ N Wg SyUg + (1 − Wg )SyUg
n g=1
n g=1

Esta es la aproximación (7.6.6) mencionada en la Sección 7.6

7.11. Estimadores de regresión para diseños de


muestreo de tamaño variable
El muestreo de Rernoulli (BE) y el muestreo de Poisson (P O) son ejem-
plos de diseños de muestreo con las siguientes caracterı́sticas:
i. Tenemos
∆kl = πkl − πk πl = 0 para todo k 6= l (7.11.1)

ii. El tamaño de la muestra es aleatorio. En la etapa de planificación, solo


se puede predecir dentro de ciertos lı́mites probables.
La selección de muestras es simple en estos diseños. Que ∆kl = 0 para
todo k 6= l es una ventaja considerable para la estimación de la varianza.
Implica que los términos del producto en el estimador de varianza son cero.
La suma doble se reduce a una suma simple. La aleatoriedad del tamaño de
la muestra a veces se ve como una desventaja. Tiene el efecto de que la va-
rianza del π estimador es a menudo más alta que bajo un diseño de tamaño
de muestra fijo comparable. Por ejemplo, la Sección 2.10 mostró que la va-
rianza del π estimador es mayor bajo el muestreo BE que bajo un diseño de
muestreo M AS comparable por un factor de aproximadamente 1 + (cvyU )−2 .
El estimador de regresión es diferente a este respecto. En muchos casos, no
está sujeto a una penalización de variación por aleatoriedad del tamaño de
la muestra. Examinemos las razones de esto.
La varianza aproximada (7.2.10) del estimador de regresión t̂yr puede expre-
0
sarse en términos de los residuos de regresión Ek = yk − xk B como
XX
AV (t̂yr ) = ∆kl Ěk Ěl
U
X XX
= πkl (1 − πk )Ěk2 + (πkl − πk πl )Ěk Ěl = V + C (7.11.2)
U U
k6=l

32
El termino
XX
C= (πkl − πk πl )Ěk Ěl
U
k6=l

es cero para diseños que satisfacen (7.11.1). Los diseños de tamaño variable
BE y P O son ejemplos de esto. Sucede para ciertos diseños de muestreo de
tamaño fijo y ciertos modelos que
X X 1 
2
V = πkl (1 − πk )Ěk = − 1 Ek2 (7.11.3)
U U πk

dará una buena aproximación a la varianza. Se puede utilizar el siguiente


estimador de varianza simplificado,
X 1 1 

V̂ (t̂yr ) = − 1 (gks eks )2
s πk πk
dónde
0
eks = yk − B̂ xk

y los g valores gks viene dado por (7.2.9) Una ventaja computacional de
este estimador de varianza es que la fórmula es una suma simple y no son
necesarios πkl . Veamos casos especı́ficos. Compare los diseños M AS y BE,
suponiendo que la fracción de muestreo fija f = n/N bajo M AS es igual a
la fracción de muestreo esperada E(ns )/N = π bajo BE. Entonces
2
P
21 − f U (Ek − ĒU )
AVM AS (t̂yr ) = N
n N −1
y
2
P
1 − f U Ek
AVBE (t̂yr ) = N 2
n N
P
donde ĒU = U Ek /N es la media de los residuos del ajuste de la población.
Si ignoramos el factor (N − 1)/N , se deduce que AVBE (t̂yr ) ≥ AVM AS (t̂yr )
con igualdad si y solo si ĒU = 0. Una condición suficiente para que ĒU = 0
se mantenga es que la estructura de varianza del modelo subyacente se ajus-
ta a la ecuación (7.2.12). Los modelos que se muestran en (7.3.1), (7.4.1),
(7.5.3), (7.5.6) y (7.8.1) son casos en cuestión. Por lo tanto, el estimador de
regresión correspondiente a cualquiera de estos modelos tendrá aproximada-
mente la misma varianza en el muestreo M AS que en el muestreo BE. Bajo
el diseño M AS, tenemos cuando ĒU = 0 que la relación de los términos V

33
y C en (7.11.2) es C/V = 1/(N − 1), que es un ejemplo de un caso en el
que C es insignificante en comparación con V . Un fenómeno similar ocurre
cuando comparamos EST M AS muestreo con muestreo EST BE (consulte
el Capı́tulo 3 para las definiciones), si, para ambos diseños, πk = fh = nh /Nh
para todos los k en el hth estrato Uh , entonces
H P 2
2 1 − fh Uh (Ek − ĒUh )
X
AVEST M AS (t̂yr ) = Nh
h=1
nh Nh − 1
y
H
Ek2
P
X 1 − fh Uh
AVEST BE (t̂yr ) = Nh2
h=1
nh Nh

En modelos tales que ĒUh = 0 para h = 1, . . . , H, las dos expresiones AV son


iguales, si ignoramos el efecto del factor (Nh − 1)/Nh . Un ejemplo de un mo-
delo de este tipo es el modelo de relación de grupo que se muestra en (7.5.6).
Para EST M AS, el término C en (7.11.2) es nuevamente insignificante en
comparación con el término V , si todos los estratos son grandes.

7.12. Una clase de estimadores de regresión


En este capı́tulo se han examinado varias aplicaciones del estimador de
regresión (7.2.8). Si el modelo de regresión subyacente es una descripción de-
tallada de la dispersión de puntos de población finita (yk , xk ), los residuales
Ek son pequeños y el AV dado por la ecuación (7.2.10) será pequeño. Sin
embargo, (7.2.8) no se ha demostrado que sea un estimador óptimo. Exis-
ten, de hecho, otros estimadores de tipo de regresión que son comparables a
(7.2.8) en eficiencia, dada la misma cantidad de información auxiliar. Ahora
consideramos tales alternativas, suponiendo que una muestra de probabilidad
s es seleccionada por un diseño con las probabilidades de inclusión positivas
πk y πl . Wright (1983) consideró estimadores de regresión de la forma
X X
t̂y = ŷk + rk (yk − ŷk ) (7.12.1)
U s

donde los valores predichos son


0 0 0
X X
ŷk = xk β̂ = xk ( qk xk xk )−1 qk xk y k (7.12.2)
s s

y las constantes rk y qk deben especificarse. Por lo tanto, la ecuación (7.12.1)


define una amplia clase de estimadores, que corresponde a las diversas opcio-
nes de rk y qk . El estadı́stico requerirá que t̂y cumpla con ciertos criterios de

34
desempeño. Un criterio que a menudo se impone es que el estimador debe ser
asintóticamente imparcial de diseño (ADU). El sesgo de diseño, E(t̂y ) − ty
debe tender a cero. El requisito de ADUness restringe la elección de rk y qk ,
pero hay más de una elección de estas constantes que conduce a un estimador
de ADU.
Wright (1983) muestra que el estimador (7.12.1) es ADU bajo cualquier elec-
ción de las constantes rk y qk , siempre que sea posible especificar un vector
λ tal que
0
1 − r k π k = πk q k x k λ (7.12.3)
se cumple para k = 1, . . . , N . Aquı́ discutimos dos opciones de la rk , a saber,
(i) rk = 1/πk , y (ii) rk = 1 para todo k.

La opción rk = 1/πk es interesante, porque entonces podemos tomar


λ = 0 para satisfacer la ecuación (7.12.3) Es decir, cuando rk = 1/πk , el
estimador (7.12.1) es ADU para cualquier elección de los valores qk en (7.12.
2), incluida la opción rk = 1/πk σk2 que se utiliza en el estimador de regresión
(7.2.8). Como consecuencia, se pueden aplicar diferentes valores qk en (7.12.2)
sin alterar la propiedad ADU del estimador (7.12.1).
La elección rk = 1 para todos los k es interesante porque el estimador (7.12.1)
toma la forma atractiva
X X
t̂y = ŷk + (yk − ŷk )
XU Xs
= yk + ŷk (7.12.4)
s U −s

Consiste en la suma de los valores observados, yk , para los elementos de la


muestra y una suma de valores pronosticados, ŷk , para los elementos que no
están
Pen la muestra. Muchos estadı́sticos consideran natural estimar el total
t = U yk de esta manera, porque
X X X
t= yk = yk + yk
U s U −s
X X
donde se observa yk y la única parte desconocida es yk . Reempla-
s X U −s
zamos la parte desconocida con ŷk y obtenemos el estimador (7.12.4).
U −s
Dado que la ADU es importante, surge la siguiente pregunta: ¿pueden es-
pecificarse los pesos qk de tal manera que (7.12.4) sea ADU? La respuesta
es sı́. Es decir, el estimador puede tener la forma atractiva de la ecuación
(7.12.4), ası́ como la propiedad ADU. Aquı́ consideramos solo el caso donde
las variaciones especificadas en el modelo dado por (7.2.1) y (7.2.2) satisfacen
0
Vξ (yk ) = σk2 = x λ; k = 1, . . . , N (7.12.5)

35
para algún vector constante λ. Entonces la condición (7.12.3) con rk = 1 se
cumple si dejamos qk = [(1/πk ) − 1]/σk2 . Esto conduce al siguiente resultado.

Resultado 7.12.1. Si las variaciones del modelo satisfacen (7.12.5), un


estimador ADU de ty , viene dado por
X X
t̂y = yk + ŷk (7.12.6)
s U −s

0
donde ŷk = xk β̂ con
X   0 −1 
1 xk xk X 1 
xk y k

β̂ = −1 −1
s πk σk2 s πk σk2

Cuando se cumple la estructura de varianza (7.12.5), sabemos por el resultado


6.5.1 que el estimador de regresión (7.2.8) tiene la expresión compacta
X
t̂y = ŷk (7.12.7)
s

0
con ŷk = xk B̂ y
X 0 −1 X
xk xk xk yk
B̂ =
s σ 2 πk s σ 2 πk
k k

Ambos (7.12.6) y (7.12.7) son estimadores de ADU cuando se mantiene


(7.12.5). Cuando se calcula con la ayuda de los datos de una muestra realiza-
da s, las dos fórmulas dan estimaciones ligeramente diferentes. Es probable
que la diferencia sea insignificante para la mayorı́a de los propósitos prácticos.

EJEMPLO 7.12.1. Apliquemos el Resultado 7.12.1 en el caso del mo-


delo de razón común que se muestra en (7.3.1). Concluimos que un estimador
ADU de t̂y viene dado por
X X
t̂y = yk + ( xk )β̂ (7.12.9)
s U −s

con
X 1 
− 1 yk
s πk
β̂ = X  
1
− 1 xk
s πk

36
El estimador (7.12.9), derivado de Brewer (1979), también se puede escribir
como
X X yk − β̂xk
t̂y = ( xk )β̂ +
U s πk
que tiene la forma del estimador de regresión (7.2.8) pero con un estimador
de pendiente diferente. Se puede demostrar que la varianza aproximada viene
dada por la fórmula habitual
XX
AV (t̂y ) = ∆kl Ěk Ěl
U

siempre que tomemos Ek = yk − Balt xk , con


X
(1 − πk )yk
Balt = X U
(1 − πk )xk
U

Aquı́, Balt es la cantidad de población para la cual β̂ es un estimador. Para


las poblaciones que están bien descritas por el modelo de razón común, el
estimador dado por (7.12.9) ofrece una alternativa al estimador de razón
estándar
X
X yk /πk
t̂yra = xk X s
U
xk /πk
s

Los dos estimadores no producen estimaciones idénticas, pero la diferencia


en la eficiencia no es importante. Para mayor discusión, ver Wright (1983) y
Särndal y Wright (1984).
Si hay más de una variable x involucrada, (7.12.4) también se puede es-
cribir como un estimador de regresión, si se sigue el siguiente procedimiento.
Especifique un vector constante xk , independiente de k y con la misma di-
0
mensión que xk . Defina la cantidad escalar ak = xk λ y elija los pesos qk en
(7.12.2) como
 
1
qk = − 1 /ak
πk

Entonces el estimador (7.12.4) puede escribirse alternativamente como


0
X 0 X yk − β̂ xk
t̂y = xk β̂ +
U s πk

37
La varianza aproximada de este estimador de ADU es
X
AV (t̂y ) = ∆kl Ěk Ěl
U

donde los residuos apropiados son


0
Ek = yk − Balt xk

con
0
hX 0
i−1 h X i
Balt = (1 − πk )(xk xk /ak ) (1 − πk )(xk yk /ak )
U U

Esto permite una variedad de ponderaciones qk correspondientes a las di-


versas opciones del vector λ. Sin embargo, no se prevén diferencias en la
eficiencia de gran importancia práctica entre los estimadores correspondien-
tes a estas posibilidades.

7.13. Estimación de regresión de una razón de


totales de población
En la Sección 5.6, estimamos la proporción de dos totales de población
X
yk ty
R = XU =
zk tz
U

El enfoque consistı́a en obtener los π estimadores para el numerador y el


denominador, y luego usar la razón de los dos como estimador de R. Alter-
nativamente, los estimadores de regresión se pueden X usar enX el numerador
y en el denominador. Es decir, para cada total, yk y zk , utiliza-
U U
mos un estimador de regresión expresado en términos de variables auxiliares
x1 , . . . , x J .
A menudo, siX la presencia
X de tales variables mejora la precisión de uno o am-
bos totales yk y zk , también se obtiene eficiencia en la estimación
U U
de R.
Los valores pronosticados ŷk y ẑk se derivan utilizando los valores del
0
vector auxiliar xk = (x1k , . . . , xjk , . . . , xJk ) . Deje que los valores predichos
de y sean
0
ŷk = xk B̂y (7.13.1)

38
con
X 0 −1 X
xk xk xk yk
B̂y = (7.13.2)
s σ 2 πk s σ 2 πk
k k

El análogo de población de B̂y es


X 0 −1 X
x k xk xk yk
By = (7.13.3)
U σ2 U σ2
k k

Las cantidades correspondientes para la variable z son


0
ẑk = xk B̂y (7.13.4)

X 0 −1 X
xk xk xk zk
B̂z = (7.13.5)
s σ 2 πk s σ 2 πk
k k

X 0 −1 X
xk xk xk zk
Bz = (7.13.6)
U σ2 U σ2
k k

Los estimadores de regresión se crean para el numerador y el denominador


por separado. Nos llevan a estimar R por

t̂yr
R̂ = (7.13.7)
t̂zr
dónde
X X yk − ŷk X gks yk
t̂yr = ŷk + =
U s πk s πk
X X zk − ẑk X gks zk
t̂zr = ẑk + =
U s πk s πk

con ŷk y ẑk dado por (7.13.1) y (7.13.4), respectivamente, y los valores g
dependen sólo de las variables auxiliares,
X X 0  X x x0 −1 x
k k k
gks = 1 + xk − xk /πk (7.13.8)
U s s σ 2 πk σk2
k

EJEMPLO 7.13.1. El estimador dado por (7.1..7) es particularmente


simple cuando una única variable auxiliar x está disponible y cada una de y

39
y z se explica en términos de x a través de un modelo de razón común de la
forma de (7.3.1). El estimador de R es entonces
X
y̌k
tx X s
x̌k
R̂ = Xs
žk
tx X s
x̌k
s

donde y̌k = yk /πk y x̌k y žk se definen de forma análoga. La expresión para
R̂ se simplifica en
X
y̌k
R̂ = Xs
žk
s

Volvemos al estimador examinado en la Sección 5.6.


Para el estimador en la ecuación (7.13.7), obtenemos la varianza aproxi-
mada como en la Sección 5.6,
1 2

V (R̂) =
˙ V ( t̂yr ) + R V (t̂ zr ) − 2RC( t̂yr , t̂zr ) (7.13.9)
t̂2z

Ahora, el enfoque de estimación de regresión ofrece expresiones aproximadas


para las varianzas V (t̂yr ) y V (t̂zr ), y la covarianza C(t̂yr , t̂zr ), de modo que
XX XX
V (t̂yr ) = ∆kl Ěyk Ěyl ; V (t̂zr ) = ∆kl Ězk Ězl
U U

y
XX
AC(t̂yr , t̂zr ) = ∆kl Ěyk Ězl
U

con
0 0
Eyk = yk − xk By ; Ezk = zk − xk Bz

Aquı́, By y Bz . están dados, respectivamente, por (7.13.3) y (7.13.6).


Sustituyendo estas expresiones en la ecuación (7.13.9), llegamos a la varianza
aproximada
1XX Eyk − REzk Eyl − REzl
V (R̂) = 2
∆kl (7.13.10)
tz U πk πl

40
El estimador de varianza ponderado g es

1 X X ˇ gks (eyks − R̂ezks ) gls (eyls − R̂ezls )


V̂ (R̂) = ∆kl
t̂2z U πk πl
con
0 0
eyks = yk − xk B̂y ; ezls = zk − xk B̂z

y el valor gks viene dado por (7.13.8). La clave para hacer que la expre-
sión AV dada por (7.13.10) sea numéricamente pequeña es obtener residuos
diferenciales Eyk − REzk que sean pequeños. Ahora podemos escribir

Eyk − REzk = Dk − Dk0

donde Dk es el valor de la variable diferencial

Dk = yk − Rzk

y Dk0 su predicción en términos de xk , es decir,


0
Dk0 = yk0 − Rzk0 = xk (By − RBz )

Concluimos que cuando se usa la estimación de regresión para un parámetro


compuesto como R = ty /ty , la reducción de la varianza extraı́da del vector
auxiliar depende de la medida en que xk , explica la variación en la variable
dilucional Dk = yk − Rzk .
Otro ejemplo de la técnica en esta sección se encuentra en Elvers et al. (1985),
quienes usan variables auxiliares para obtener estimadores mejorados del co-
eficiente de regresión de población finita B = SzyU /SzyU . Rao, Kovar y Man-
tel (1990) consideran el uso de información auxiliar para obtener estimadores
mejorados de distribución de población finita y cuantiles.

41

También podría gustarte