Está en la página 1de 11

Elaborado por: Marco Antonio Camacho García

Parte de la Inferencia Estadística. Ante la imposibilidad de trabajar con la


totalidad de elementos de una población, trabaja con un subconjunto de dicha
población (muestra), de tal forma que los resultados particulares de esta
muestra se puedan generalizar a todo el conjunto de datos (Población).

Censo Parámetros No existe


margen de error
Poblacionales
N

Estimadores de
Existe margen
Parámetros de error
Poblacionales

Distribuciones de
Probabilidad

n Estudio Estadísticos
Muestral de Muestra

1
Porque el tamaño de la población es excesivamente grande

Por limitaciones de carácter “logístico” al momento de querer llegar a


la totalidad de elementos de la población.

Por limitaciones de Recursos y/o tiempo

Porque a los elementos de estudio se aplican pruebas destructivas.

Porque los elementos de la población presentan características


homogéneas

Por razones de calidad

Estadístico (Probabilístico) - Se puede medir el error de muestreo

•Muestreo Aleatorio Simple (MAS)


•Muestreo Estratificado
•Muestreo por Conglomerados (una etapa, dos etapas, etc)

No Estadístico (No probabilístico) – No se puede medir el error de muestreo

•Muestreo Intencionado
•Muestreo Circunstancial

2
Muestreo Estadístico (Probabilístico)

Muestreo Aleatorio Simple

No se reconoce ninguna diferencia en los elementos de la población.


Todos tienen la misma probabilidad de ser seleccionados, y la selección
de un elemento es independiente de otro.

Muestreo Estadístico (Probabilístico)

Muestreo Estratificado

Se reconocen segmentos en la composición de la población (estratos) que son


muy heterogéneos entre si, siendo los elementos de cada estrato muy
parecidos (homogéneos). El muestreo consiste en seleccionar de cada estrato
un subconjunto de elementos.

N n

3
Muestreo Estadístico (Probabilístico)

Muestreo por Conglomerados

Se reconocen segmentos relativamente homogéneos en la composición de la


población (Conglomerados), siendo que la composición de cada conglomerado es
diferente (heterogéneo). El muestreo consiste en seleccionar algunos
conglomerados, y dentro de dichos conglomerados se debe realizar un trabajo
censal.

N n

La muestra debe ser representativa de la Población

El tamaño de la muestra debe ser suficiente como para garantizar un


error mínimo de muestreo (Tamaño Adecuado).

4
Los estimadores permiten realizar la aproximación de los resultados muestrales a los
parámetros poblacionales. La construcción de estos estimadores es la razón de ser
de la teoría de estimación, siendo que los mismos deben cumplir numerosas
características. Entre las mas importantes se tienen las siguientes:

Los estimadores de muestreo deben ser insesgados

Los estimadores de muestreo deben ser consistentes

Los estimadores de muestreo deben ser eficientes

Los estimadores de muestreo deben ser suficientes

Los estimadores de muestreo deben ser insesgados

Se denomina sesgo de un estimador a la diferencia entre la esperanza (o valor


esperado) del estimador y el verdadero valor del parámetro a estimar. Es deseable
que un estimador sea insesgado o centrado, es decir, que su sesgo sea nulo por ser su
esperanza igual al parámetro que se desea estimar.

5
Los estimadores de muestreo deben ser consistentes

Un estimador es consistente cuando su valor converge con el parámetro poblacional

lim | − |< =1

Es decir:

Los estimadores de muestreo deben ser eficientes

Un estimador es eficiente u óptimo cuando posee varianza mínima o bien en


términos relativos cuando presenta menor varianza que otro .

El teorema de Cramer-Rao determina que la varianza de un estimador


insesgado de un parametro es como minimo:

6
Los estimadores de muestreo deben ser suficientes
Un estimador es suficiente, si agota toda la información existente en la
muestra que sirva para estimar el parámetro. Este aspecto puede
demostrarse por el Teorema de Caracterización de Neyman-Fisher, el cuál
indica:

Siendo h una función no negativa que no depende de θ y r una


función que sólo depende del parámetro y de la muestra a través del
estimador.

Distribuciones de Probabilidad

Ley de los grandes números

Teorema de Glivenko - Cantelli

Teorema del Limite Central, en el caso de estimar µ y π en muestras


grandes

Teorema de Fisher, en el caso de estimar σ en muestras grandes o


pequeñas y µ o π en el caso de muestras pequeñas.

Intervalos de confianza para los estimadores de parámetros


poblacionales

7
Ley de los grandes números en muestreo

Se tiene que la ley de los grandes números en distribuciones de probabilidad


tiene las siguientes características:

Ley débil de los grandes números: si X1, X2, X3, ... es una secuencia infinita
de variables aleatorias, donde todas las variables aleatorias tiene el mismo valor
esperado μ y σ2; y son independientes, entonces el promedio de una muestra
converge en probabilidad a μ. Se puede observar que puede existir una diferencia
pero esta es muy pequeña con relación a un nivel de error (ε) aceptado.

Entonces:

Ley fuerte de los grandes números: si X1, X2, X3, ... es una secuencia
infinita de variables aleatorias, que son independientes e idénticamente
distribuidas, se tiene que:

Teorema de Glivenko - Cantelli

Se tiene una variable aleatoria X con un conjunto de funciones de


probabilidad empíricas

La población tiene una función de probabilidad teórica de forma

Si se comparan todas las distribuciones empíricas de las diversas muestras,


con la función teórica, y se escoge el que tiene mayor diferencia, es casi
seguro que la diferencia máxima sea cero es decir:

8
Teorema del Límite Central

Se tiene que la forma de la distribución de probabilidades de los promedios


muestrales, mientras más grande sea el conjunto de datos, es casi seguro
que tenga la forma de una distribución normal con parámetros μ y σ2/n.

Esto es:

o si se quiere

Esto también es válido para π.

Teorema de Fisher (Lema de Fisher)

Sea X1, X2, X3,…, Xn una muestra aleatoria simple de una población con una
distribución de probabilidades N(μ, σ), donde:

y
Entonces:

1) y son independientes

2) La expresión sigue una distribución con gl (n-1) para n>2

3) Cuando “n” es pequeño la expresión sigue una distribución “t “ con


gl n-1 (aspecto también válido en π).

9
Intervalos de confianza (solo para M.A.S.)

Para el estimador de µ (Sólo para poblaciones infinitas)

Cuando n >30

Cuando n ≤ 30

Intervalos de confianza (solo para M.A.S.)

Para el estimador de π (P) (Sólo para poblaciones infinitas)

Cuando n >30

Cuando n ≤ 30

10
Intervalos de confianza (solo para M.A.S.)

Para el estimador de σ

11

También podría gustarte