Está en la página 1de 68

1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.

1. Estimación para modelos lineales

Recordemos que una población será conceptualizada


como
. Además el parámetro que interesa estimar es .

Para los fines de esta capítulo un modelo de regresión


lineal (múltiple) se expresa como

1 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

(1)

para todo individuo . En este modelo:

i. es la variable de interés;

ii.
es un vector (renglón) de variables auxiliares (explicativas) cuyos valores son conocidos para cada unidad de muestreo (elemento de la población);

iii. son parámetros del modelo;

iv. es el producto que absorbe lo no explicado de por parte de las variables auxiliares .

v. A
2 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

se les denominará residuo y cuando sea necesario

. Los valores de estos residuos son desconocidos;


vi. es el peso del residuo o factor de escala (valor conocido excepto por un factor común).

(el modelo es no estocástico porque no tiene ningún


componente aleatorio en él)

Observemos que este modelo se puede aplicar a


cualquier población; sin importar que la relación entre la
característica de interés y las variables auxiliares sea
lineal. Sin embargo es de esperar que a mayor relación
lineal entre las anteriores variables, menor sea la
3 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

variabilidad de los productos . También debe


observarse que el modelo es planteado a nivel
poblacional; se establece para cada unidad de muestreo
(individuo de la población).

El anterior modelo se puede expresar en forma matricial


como:
;

; ; ; ;

4 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

Ahora, uno de los primeros problemas que surgen antes


de proponer un estimador para
es la existencia de varios vectores de parámetros
poblacionales y respectivos vectores con los cuales
se puede describir a la variable de interés , ¿cuáles
utilizar?

Aquí se utilizarán los parámetros que minimicen la suma


de residuos al cuadrado. En otros términos, se utilizarán

5 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

los parámetros tales que

sea mínimo.

Para obtener los anteriores parámetros que minimizan la

6 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

suma de residuos al cuadrado, se procede como sigue.

Derivada:
. (2)

Ecuaciones a resolver (resultantes de igualar la derivada


a cero):
(2)

Solución:

7 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

8 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

(este es un parámetro poblacional)

Lo dicho hasta aquí presupone que se conocen los


valores de la característica de interés para todo
elemento de la población.

Ahora, si no conocemos los valores de la mencionada


característica pero se procede a seleccionar una
muestra de la población, ¿cómo se puede utilizar la
información de la muestra para estimar
(principalmente) y ?

9 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

Si observamos es función de dos totales: y

. Por tanto y para un diseño de muestreo con


probabilidades de inclusión de primer orden se
propone el estimador de :

. (3)

Para una muestra seleccionada


, el anterior estimador produce la estimación:

10 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

En la práctica lo importante es estimar totales,


promedios o porcentajes y analizar sus respectivas
propiedades estadísticas. Por lo tanto si empleamos un
modelo como el de la expresión , la estimación de los (1)

parámetros adquiere una importancia secundaría.

Para estimador el total


, primero obsérvese que bajo el modelo (1) se tiene
;

11 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

donde

(valor conocido)

Lo anterior sugiere el siguiente estimador (Estimador de


Regresión):

(¿y los residuos?)

12 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

(aquí los gorros denotan cualquier estimador)

Si se usan estimadores de Horvitz-Thompson para


estimar los anteriores totales y el estimador de , (3)

entonces

13 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

(estimador por calibración; )

donde

Del anterior estimador surgen la mayoría de los


estimadores de regresión que puede uno encontrarse en
la literatura; lo que cambian son los supuestos sobre los
parámetros del modelo. Un ejemplo se muestra en la
siguiente proposición.

14 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

Proposición 1
Si ( es un vector de constantes y conforme con
)y , entonces
i. (no importan las propiedades de , siempre se obtiene );

ii. ( );

iii. .

Es posible analizar las propiedades estadísticas del


estimador
y con esto evaluar si el modelo lineal es adecuado o no
(¿por qué no los residuos estimados?). Además se

15 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

podría evaluar la precisión del estimador comparada


con la de .

Hasta este punto de las presentes notas, no se ha dicho


nada nuevo. Se hubiera obtenido lo mismo si desde el
principio se trabajara bajo un enfoque de “encuestas por
muestreo asistidas por modelos”. La única ganancia es
que no se tiene que justificar ni verificar ningún supuesto
relacionado con el modelo.

Ejemplo 1
(Estimador de Horvitz-Thompson) Consideremos un

16 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

diseño de muestreo con probabilidades de inclusión de


primer orden y de tamaño de muestra fijo.
Además, consideremos el modelo
.
Aquí , y . Ahora si hacemos ,
entonces
. Lo cual nos permite usar la Proposición 1 y obtener:
;

17 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

Ejemplo 2
Consideremos un diseño de muestreo con
probabilidades de inclusión de primer orden .
Además, consideremos el modelo

18 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

.
Aquí , , . Ahora si hacemos , y
entonces
. Lo cual nos permite nuevamente usar la Proposición 1
y obtener:
;

19 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

De este último ejemplo observemos lo siguiente:

i. Para una muestra


20 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

seleccionada, la estimación resultante de es

ii. ¿Cuánto vale


? Para contestar lo anterior, observemos que la
varianza poblacional de los residuos es

21 de 22
1. Estimacion para modelos lineales ((C) J. Elías Rodríguez M.)

Si suponemos (¿sin perdida de generalidad?) que


, entonces .

22 de 22
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

1.2 Varianza del estimador de regresión lineal

La presente sección tiene por objeto deducir un


estimador de la varianza del estimador del total por
regresión lineal.

Aquí utilizaremos la técnica de linearización de Taylor


para deducir dicho estimador de la varianza.

Primero recordemos la forma del estimador del total por


regresión lineal:
,

1 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

donde

Si hacemos

y
,

entonces

y
.

2 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

De esta última expresión podemos visualizar el


estimador RL como una función estimadores de totales:
.

Por otro lado, recordemos ahora el procedimiento para


proponer un estimador de la varianza de :

1. Calcular la aproximación de Taylor de primer orden


de alrededor de
. Dicha aproximación será una función lineal de los
estimadores ;

3 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

2. Calcular la varianza de , ;
3. Proponer como estimador de la a un
estimador (¿insesgado?) de ; esto es
.

Por lo tanto, si seguimos la técnica de linearización de


Taylor, primero tenemos que calcular las primeras
derivadas de h y evaluarlas en :

4 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

( es una matriz de rxr


con el valor uno en la posición (i,j) y (j,i) y el valor cero

5 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

en cualquier otro lado. ¡Órale!, ¿me la creen?)

Así, la aproximación de primer orden de Taylor del


estimador de RL alrededor de es

6 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

Además, la varianza del anterior estimador es

7 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

Por último el estimador de la varianza para el estimador


de RL queda como

8 de 9
1.2 Varianza del estimador de regresión lineal ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-2.htm

9 de 9
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

1.3 Estimador de Regresión Logística

Supóngase que el problema a resolver es estimar el total


de individuos en una subpoblación (total de
desempleados, discapacitados, asistentes al casino de
la Feria de San Marcos, etc.). Entonces la variable de
interés tendrá dos posibles valores: 1 si pertenece a la
subpoblación ó 0 si no pertenece. Además supongamos
que tenemos variables auxiliares , cuyos
valores se conocen para cada elemento de la población
y se pueden utilizar para resolver dicho problema.

1 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

En este ejemplo se utilizará el siguiente modelo


operacional (working model):
, (1)
(modelo no estocástico)
donde es una función de distribución, es un vector
de parámetros y los residuos
(valores desconocidos y no aleatorios) absorben lo no
explicado de por parte de las variables auxiliares; por
.

Un problema aparente en primera instancia con el


presente modelo es que existen muchos vectores de

2 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

parámetros y respectivos vectores con los cuales se


puede describir a la variable de interés. Esta situación se
ilustra en la gráfica 1.

[Gráfica 1, aquí]
Grafica 1. Una posible distribución para el modelo (1)

Para este problema aparente se propone utilizar los


parámetros que minimicen la media geométrica de los
valores absolutos de los residuos. En otros términos, se
utilizarán los parámetros tales que

3 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

sea mínimo.

Lo anterior es equivalente a maximizar:

o bien maximizar

4 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

. (2)

Si
es la función de distribución logística, entonces
maximizar (2) es equivalente a resolver las siguientes
ecuaciones: .

Observemos que de la forma de y de la


primera de las ecuaciones a resolver anteriores:

5 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

, obtenemos que

En otras palabras, sin importar las propiedades de ,


la suma de los valores de la distribución sobre
todos los elementos de la población es igual a .

También la anterior relación sugiere una forma de


estimar , cuando se tiene información de una muestra:
, (3)

donde
es el vector de parámetros que resuelve la ecuaciones:

6 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

donde es la variable aleatoria que indica si la unidad k


de la población está en la muestra y es la probabilidad
de que dicha unidad sea selecciona en la muestra.
Entonces el estimador en (3) se convierte en

. A este estimador se le conoce como el estimador de


regresión logística del total.

Lo anterior se puede reproducir si la característica de


interés se modela con variables aleatorias

7 de 8
1.3 Estimador de Regresión Logística ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap1-3.htm

independientes
y se utilizan los estimadores de máxima verosimilitud
para
. Precisamente, la ventaja de no suponer lo anterior es
que no se tiene que justificar ni verificar la distribución
que se le pueda asociar a la característica de interés.

8 de 8
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

2.1 Los métodos ya conocidos

Antes de entrar a un berenjenal de nuevos métodos de


estimación de la varianza (¡ah!, de eso se trata esta
sección) primero hagamos un repaso de los métodos
que ya conocemos. Y para no ser ociosos,
recapitulemos las circunstancias en las que nos
conviene utilizar alguno de estos métodos de estimación
de la varianza (claro siempre pensando que la varianza
a estimar es la varianza de un estimador del total).

Un estimador insesgado de la varianza

1 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

Primero recordemos que la varianza que deseamos


estimar se expresa como:

(1)

o si seleccionamos muestras de tamaño fijo, la anterior


expresión se reduce a

2 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

(2)

Entonces, si conocemos o es factible calcular las


probabilidades de inclusión de primer y segundo orden y
además éstas son mayores que cero, un estimador
insesgado de la varianza en la expresión (1) es

3 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

(3)

y para el caso de muestras fijas, un estimador insesgado


de (2) es

(4)

Es conveniente mencionar que este estimador está


4 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

asociado al estimador de Horvitz-Thompson del total. Si


cambiamos de estimador del total, posiblemente las
expresiones para su varianza y estimador de esta
varianza cambien.

El estimador inducido por el muestreo con reemplazo y


probabilidades proporcionales al tamaño
Recordemos que en este diseño de muestreo con
reemplazo, las probabilidades de selección en cada
paso del procedimiento de selección (¿qué
procedimiento?) son:
,

tales que

5 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

. Estas probabilidades pueden estar en función de


alguna medida de tamaño de la unidad de muestreo.

El estimador (insesgado) del total de Hansen-Hurwitz es:


.

Su respectiva varianza es

Y un estimador insesgado de esta varianza es

6 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

.(5)

Ahora, en el caso de muestreo con reemplazo y


probabilidades de inclusión de primer orden conocidas,
la fórmula (5)
induce el estimador (¿insesgado?) de la varianza

(6)

(estimador de la varianza por “conglomerados últimos”)


(recuerden que su profesor prefiere llamarla la formula
camaleón)
(magia, de donde salio esta expresión).

7 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

No nos confundamos, en esta parte nos quedamos con


la fórmula (6).

Muestreo en dos etapas


La discusión de esta parte la centraremos en el
muestreo en dos etapas. Esto porque lo dicho aquí se
puede extender sin mucha dificultad (¡te crees!) a
diseños de muestreo en más etapas.

Recordemos que la expresión (su profesor dirá que es


simple pero no le crean) para la varianza del estimador

8 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

de total es:

(7)

Esta expresión se puede escribir como:


;
donde

9 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

(parte de la varianza debida a selección de las UPM)


y

(parte de la varianza debida a la selección de las USM)

Observemos que
es como la varianza del muestreo de conglomerados
(¡uuuh no!, que recuerden los que tienen buena

10 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

memoria).

La expresión de la varianza induce el siguiente


estimador insesgado de la misma

(8)

11 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

En ocasiones para estimar la varianza (7), sólo se utilizan


los dos primeros sumandos del estimador (8):

(9)

Esto se hace para simplificar el cálculo de la estimación


de dicha varianza. Obsérvese que el anterior estimador
es como el estimador de la varianza utilizado en el

12 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

muestreo de conglomerados, excepto que en lugar de


utilizar los totales de los conglomerados se utiliza los
estimadores de los totales de las UPM. Para ver el
precio que se paga por utilizar el anterior estimador,
calculemos su sesgo.

Su valor esperado es

y por tanto su sesgo es


.

Esto es, el estimador (9) subestima a la varianza (7). Así su


13 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

sesgo relativo esta dado por

14 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

El numerador puede ser pequeño comparado con el


denominador si los valores de las son pequeños y por
tanto la subestimación de la varianza (7)
puede ser poco significativa.

Posterior a esto, se dijo (¡Órale!, su profe evade


responsabilidades. No se dijo, él lo dijo) que el estimador
de “conglomerados últimos” en (6)
puede ser utilizado como otro estimador en muestreo en
varias etapas (bueno y exactamente cómo se hace el
cálculo en este caso, haber que se los explique su
profe).

15 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

El método de linearización de Taylor


Este método de estimación de la varianza lo utilizamos
cuando el parámetro de interés es una función no lineal
de totales:
.

Además, se utilizará como estimador del parámetro a


dicha función evaluada en los estimadores de HT de los
mencionados totales:
.

16 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

El procedimiento para proponer un estimador de la


varianza de (no conocida) es como sigue:

1. Calcular la aproximación de Taylor de primer orden


de alrededor de
. Dicha aproximación será una función lineal de los
estimadores ;
2. Calcular la varianza de , ;
3. Proponer como estimador de la a un estimador
de ; esto es
.

17 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

No volveremos a repetir aquí todos los cálculos,


simplemente recordemos que el estimador
resultante de este método se expresó como

(10)
donde
,

es reemplazando por y

18 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

Tratemos de recapitular lo anterior.

1.
Si conocemos o es factible calcular las probabilidades
de inclusión de primer y segundo orden, podemos
utilizar el estimador en (3). En esta recapitulación,
llamémosle a este estimador el “estimador insesgado
natural” de la varianza. Si adicionalmente el diseño de
muestreo genera muestras de tamaño fijo, recordemos

19 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

también que es mejor utilizar el estimador en (4). Lo


anterior se puede aplicar a cualquier diseño de
muestreo bajo las circunstancias indicadas aquí
(¿cuáles?). Incluso, cuando se tienen dos o más
etapas de muestreo, el estimador resultante es (8) (no
recuerdo que lo hayamos demostrado pero bueno, un
voto de confianza al profe).

2.
En el muestreo en varias etapas, aparte del estimador
insesgado natural de la varianza, tenemos al estimador
(9). Este estimador sólo usa la información de la muestra

20 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

de las UPM. Y para cierto tipo de diseños, su sesgo


puede ser pequeño con respecto al valor de su
varianza.

3.
Muchos practicantes del análisis de encuestas no se
complican tanto la vida y prefieren utilizar el estimador
por conglomerados últimos (6). Y no se dificultan la vida
porque en la estimación no se ocupan de las
probabilidades de inclusión de segundo orden (las
famosas

21 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

). Bueno en un diseño de muestreo en una etapa las


probabilidades de inclusión de primer orden, uno de los
ingredientes de la expresión antes citada, puede
calcularse relativamente fácil. Sin embargo para
diseños multietápicos, esta belleza se puede perder
(pero por qué este comentario tan fatalista).

4.
Si observamos los anteriores estimadores, estos tienen
que ver con varianzas de estimadores de totales
individuales. Sin embargo si el parámetro poblacional
de interés lo podemos expresar explícitamente como

22 de 23
2.1 Los métodos ya conocidos ((c) J. Elías Rodríguez M.) file:///K:/Cursos/MuestreoIIInegi/Cap2-1.htm

una función no lineal de totales, entonces podemos


utilizar la técnica de linealización de Taylor y obtener
un estimador de la varianza del tipo (10) (sirva de
referencia el estimador de la varianza obtenido para el
estimador por regresión lineal).

5.
Nuevos métodos de estimación de la varianza se verán
en la siguiente sección (¡chan chan chan channn!)

23 de 23
2.2 Jackknife ((c) J. Elías Rodríguez M.)

2.2 Jackknife

Supongamos que tenemos una muestra

y formamos n subconjuntos de s de tamaño n-1 de la


siguiente forma

para j=1,…,n. Esto es, el subconjunto se forma


quitando el j-ésimo elemento a la muestra s.

Con estos subconjuntos calculemos las siguientes


estimaciones del total poblacional t:

1 de 6
2.2 Jackknife ((c) J. Elías Rodríguez M.)

.
(1)

Observemos que

Esto muestra que la estimación original del total es el

2 de 6
2.2 Jackknife ((c) J. Elías Rodríguez M.)

promedio de las estimaciones en (1).

Una de las utilidades de las estimaciones de la


expresión (1) es la propuesta de un estimador de la
como sigue:
.

A este estimador se le conoce como el estimador de la


varianza por Jackknife.

Es posible mostrar que este estimador de la varianza es


igual al estimador por conglomerados últimos

3 de 6
2.2 Jackknife ((c) J. Elías Rodríguez M.)

De esto último, podríamos pensar que este método de


estimación no proporciona un nuevo estimador de la
varianza ya que se reduce a uno ya conocido, y
tendríamos razón.

Sin embargo su verdadera utilidad radica cuando se


desea estimar un parámetro poblacional de la forma
,

donde dicho parámetro se estima por


.

4 de 6
2.2 Jackknife ((c) J. Elías Rodríguez M.)

Si además construimos las cantidades


,

donde se calcula como la expresión en (1), entonces el


estimador de la varianza de por Jackknife es
.
(2)

Esta idea se puede extender si en lugar de formar n


subconjuntos de la muestra s, quitando una unidad a la
vez, formamos

subconjuntos, 1≤m<n, quitando m unidades a la vez. La


expresión de la varianza en (2) se convertiría en

5 de 6
2.2 Jackknife ((c) J. Elías Rodríguez M.)

donde ,

y es el
-ésimo subconjunto en un orden lexicográfico de las
combinaciones (what?).

6 de 6

También podría gustarte