Está en la página 1de 5

Muestreo por conglomerados

-Consiste en elegir aleatoriamente ciertos barrios dentro de la ciudad, para


después elegir calles y edificios. Una vez elegido el edificio, se entrevista a todos
los vecinos.

Si intentamos hacer un estudio sobre los habitantes de una ciudad, el muestreo


aleatorio simple puede resultar muy costoso, ya que estudiar una muestra de
tamaño implica enviar a los encuestadores a n puntos distintos de la misma, de
modo que en cada uno de ellos solo se realiza una entrevista. En esta situación es
más económico realizar el denominado muestreo por conglomerados.

Propiedades deseables de un estimador

- Sea X una v. a. cuya función de probabilidad (o densidad de probabilidad si es


continua) depende de unos parámetros θ1,. . ., θ k desconocidos.

f (x; θ1, θ2, . . . , θ k)

Representamos mediante X1,. . ., Xn una muestra aleatoria simple de la variable.


Denotamos mediante fc a la función de densidad conjunta dela muestra, que por
estar formada por observaciones independientes, puede factorizarse del siguiente
modo:

Fc (x1, x2, . . . , xn; θ1, . . . , θk) = f(x1; θ1, . . . , θk)·f(x2; θ1, . . . , θk)· · · f(xn; θ1, . . . , θk)

Se denomina estimador de un parámetro θ i, a cualquier v. a. ˆθi que se exprese en


función de la muestra aleatoria y que tenga por objetivo aproximar el valor de θ i

ˆθi(X1,. . ., Xn)  estimador de θi 7.1)

Obsérvese que el estimador no es un valor concreto sino una variable aleatoria, ya


que aunque depende unívocamente de los valores de la muestra observados (X i =
xi), la elección de la muestra es un proceso aleatorio.

Una vez que la muestra ha sido elegida, se denomina estimación el valor


numérico que toma el estimador sobre esa muestra. Intuitivamente, las
características que serıan deseables para esta nueva variable aleatoria (que
usaremos para estimar el parámetro desconocido) deben ser:

Consistencia: Cuando el tamaño de la muestra crece arbitrariamente, el valor


estimado se aproxima al parámetro desconocido.

Carencia de sesgo: El valor medio que se obtiene de la estimación para


diferentes muestras debe ser el valor del parámetro.

Eficiencia: Al estimador, al ser v.a., no puede exigírsele que para una muestra
cualquiera se obtenga como estimación el valor exacto del parámetro.

Sin embargo podemos pedirle que su dispersión con respecto al valor central
(varianza) sea tan pequeña como sea posible.

Suficiencia: El estimador debería aprovechar toda la información existente en la


muestra.

Estimadores de máxima verosimilitud

Sea X una v.a. con función de probabilidad f(x; θ)

Las muestras aleatorias simples de tamaño n, X1, X2,. . ., Xn tienen por distribución
de probabilidad conjunta.

fc(x1, x2, . . . , xn; θ) = f(x1, x2, . . . , xn; θ)f(x1; θ) · f(x2; θ)· · · f(xn; θ)

Esta función que depende de n+ 1 cantidades podemos considerarla de dos


maneras:

 Fijando θ, es una función de las n cantidades x i Esto es la función de


probabilidad o densidad.
 Fijados los xi como consecuencia de los resultados de elegir una muestra
mediante un experimento aleatorio, es únicamente función de θ. A esta
función de θ la denominamos función de verosimilitud.
En este punto podemos plantearnos el que dado una muestra sobre la que se ha
observado los valores xi, una posible estimación del parámetro es aquella que
maximiza la función de verosimilitud.

x1, . . . , xn fijados  Verosimilitud ≡ V (θ) = f(x1, x2, . . . , xn; θ)

La función de verosimilitud se obtiene a partir de la función de densidad,


intercambiando los papeles entre parámetro y estimador. En una función de
verosimilitud consideramos que las observaciones x1,. . ., xn, están fijadas, y se
representa la gráfica con el valor de los valores que tomaría la función de
densidad para todos los posibles valores del parámetro θ. El estimador máximo
verosímil del parámetro buscado, ˆθ MV, es aquel que maximiza su función de
verosimilitud, V (θ).

Los estimadores de máxima verosimilitud tienen ciertas propiedades en general


que a continuación enunciamos:

1. Son consistentes;
2. Son invariantes frente a transformaciones biunívocas, es decir, si ˆθMV es
el estimador máximo verosímil de θ y g( ̃θ) es una función biunívoca ̃θ,
entonces g(ˆθMV) es el estimador máximo verosímil de g(θ).

3. Si ˆθ es un estimador suficiente de θ, su estimador máximo verosímil,ˆθMV


es función de la muestra a través de ˆθ;
4. Son asintóticamente normales;
5. Son asintóticamente eficientes, es decir, entre todos los estimadores
consistentes de un parámetro θ, los de máxima verosimilitud son lo de
varianza mínima.
6. No siempre son insesgados.
Algunos estimadores fundamentales

Vamos a estudiar las propiedades de ciertos estimadores que por su importancia


en las aplicaciones resultan fundamentales: estimadores de la esperanza
matemática y varianza de una distribución de probabilidad.

Estimador de la esperanza matemática

Consideremos las muestras de tamaño n, X1, X2,. . ., Xn, de un carácter sobre una
población que viene expresado a través de una v.a. X que posee momentos de
primer y segundo orden, es decir, existen E [X] y Var [X]:

X1, X2,. . ., Xn, (E [Xi] = μ

(Var [Xi] = σ2

El estimador media muestral que denotaremos normalmente como X (en lugar de


ˆμ es

Por tanto es un estimador insesgado. Si además sabemos que X se distribuye


según una ley gaussiana, se puede comprobar que coincide con el estimador de
máxima verosimilitud:

Proposición
Estimador de la varianza

Al elegir un estimador de σ2 = Var [X], podemos comenzar con el estimador más


natural (que es el estimador máximo verosímil) sin embargo e
́ ste no es insesgado,
ya que el valor esperado del estimador

También podría gustarte