ESTIMACIN
ESTADSTICA
Profesor: Eduardo Villa M.
Introduccin a la Inferencia
Estadstica
PROBLEMA:
En muchos casos no ser posible
determinar el valor de un parmetro
poblacional analizando todos los
valores poblacionales, pues el proceso
a seguir para determinar el valor del
parmetro puede ser destructivo, o
nos puede costar mucho tiempo o
mucho dinero el analizar cada unidad
poblacional.
Introduccin a la Inferencia
Estadstica
PROBLEMA:
En estas situaciones, la nica salida
que tenemos es utilizar la inferencia
estadstica para obtener informacin
sobre los valores de los parmetros
poblacionales, basndonos en la
informacin contenida en una muestra
aleatoria
Introduccin a la Inferencia
Estadstica
Parmetros poblacionales importantes:
La renta media de todas las familias de Lima
Metropolitana.
El tiempo medio de espera en el supermercado
Metro.
La desviacin estndar del error de medida de
un instrumento electrnico.
La proporcin de familias que poseen TV a
color.
La proporcin de automviles que se averan
durante el primer ao de garanta.
Introduccin a la Inferencia
Estadstica
Objetivo Bsico: Hacer inferencias o sacar
conclusiones sobre la poblacin a partir de la
informacin contenida
en una muestra
aleatoria de la poblacin.
Especficamente: Consiste en un proceso de
seleccin y utilizacin de un estadstico
muestral, mediante el cual, utilizando la
informacin que nos proporciona una muestra
aleatoria, nos permite sacar conclusiones
sobre caractersticas poblacionales.
Introduccin a la Inferencia
Estadstica
Poblacin
Espacio Muestral Rn
F(x; ) (X,X2,..,Xn)
Muestreo
Parmetro
=(x1,x2,,xn)
n
(x1,x2,..,xn)
Introduccin a la Inferencia
Estadstica
Poblacin
F(x;2)
Muestreo
Espacio Muestral Rn
(X1,X2,..,Xn)
Parmetro
2
2=s2 =
n
(x1,x2,,xn)
2
Estimador
Introduccin a la Inferencia
Estadstica
Cualquier
inferencia
o
conclusin
obtenida de la poblacin, necesariamente
estar basada en un estadstico
muestral, es decir, en la informacin
proporcionada por la muestra.
El valor verdadero del parmetro ser
desconocido y un objetivo ser estimar su
valor, por lo que tal estadstico se
denomina estimador.
Introduccin a la Inferencia
Estadstica
Las inferencias sobre el valor de un
parmetro poblacional se pueden
obtener bsicamente de dos maneras:
1. Por estimacin
Estimacin puntual
Estimacin por intervalos
2. Por contrastacin de hiptesis
ESTIMACIN PUNTUAL
Definicin: Consiste en obtener un
nico nmero, calculado a partir de las
observaciones muestrales y que es
utilizado como estimacin del valor del
parmetro .
Se le llama estimacin puntual porque
a ese nmero, que se utiliza como
estimacin del parmetro ,
se le
puede asignar un punto sobre la recta
real.
ESTIMACIN PUNTUAL
Poblacin
Espacio Muestral Rn
(X1,X2,..,Xn)
F(x;2)
Muestreo
Parmetro
(x1,x2,.,xn)
=g(x1,x2,,xn)
Inferencia
Estimacin Puntual
ESTIMACIN PUNTUAL
ESTIMADOR
= g(X1,X2,Xn)
ESTIMACIN
= g(x1,x2,,xn)
Parmetros poblacionales,
estimadores y estimaciones
Parmetro
poblacional
Estimador
Media
Varianza
Proporcin P
Estimacin
Ejemplo
Las ventas de una muestra aleatoria
de 10 grandes establecimientos
comerciales de Lima, el da 2 de enero
de 2013 fueron respectivamente : 16,
10, 8, 12, 4, 6, 5, 4, 10, 5 miles de
nuevos soles. Obtener estimaciones
puntuales de la venta media, de la
varianza de las ventas de todos los
establecimientos comerciales y de la
proporcin de stos cuyas ventas
Solucin
puntual de la media
Estimacin
poblacional:
Estimacin puntual de la varianza
poblacional:
=
== 15,8
Estimacin puntual de la proporcin
poblacional:
ERROR CUADRTICO MEDIO
Definicin:
ECM
=+
Donde:
=
=
Ejemplo
Sea
, una muestra aleatoria simple de tamao
3, cuyos valores son siempre positivos y
procedentes de una poblacin con media y
varianza . Consideremos como posibles
estimadores de los estadsticos:
Obtener los errores cuadrticos medios de y
y comparar sus valores para diferentes
valores del parmetro poblacional
Propiedades de los estimadores
puntuales
1.
2.
3.
4.
5.
6.
Insesgadez
Eficiencia
Consistencia
Suficiencia
Invarianza
Robustez
1. INSESGADEZ
Definicin:
El estadstico = g(X1,X2,
Xn)
es un estimador insesgado o centrado
del parmetro si:
E() =
para todos los valores de , y entonces:
sesgo() = b( ) = E() - = 0
1. INSESGADEZ
Casos: b( ) = E() 1. Si b( ) > 0:
de
2. Si b( ) < 0:
de
3. Si b( ) = 0:
nsesgado
sobreestima el valor
subestima el valor
es estimador i
de
Ejemplo
Demostrar
que los estadsticos:
1. es un estimador sesgado de
2. es un estimador insesgado de
3. es un estimador insesgado de
NOTA: La desviacin tpica muestral
NO es un estimador insesgado de la
desviacin tpica poblacional, es decir:
Ejemplo
Sea
una poblacin formada por los
elementos (1,2,3). Obtener y .
1. Construir
todas
las
muestras
posibles de tamao n=2 CON
REEMPLAZAMIENTO.
2. Calcular lo solicitado y comprobar la
propiedad de insesgadez para y S.
Muest
ras
(x1,x2)
(1,1)
0,00
0,00
0,00
(1,2)
1,5
0,50
0,50
0,71
(1,3)
2,00
2,00
1,41
(2,1)
1,5
0,50
0,50
0.71
(2,2)
0,00
0.00
0,00
(2,3)
2,5
0,50
0,50
0,71
(3,1)
2,00
2,00
1,41
(3,2)
2,5
0,50
0,50
0,71
(3,3)
0,00
0,00
0,00
6,00
6,00
5,66
Total
sigue ejemplo
La media de la varianza muestral ser:
==
La varianza poblacional
Por tanto: = y concluimos que
E(S) = = 0,6288 y
Por tanto: E(S) y entonces, S no es un
estimador insesgado de
De otro lado:
Proposicin
Si son dos estimadores insesgados del
parmetro definido como:
es tambin un estimador insesgado del
parmetro
1. INSESGADEZ
Estimador insesgado de varianza mnima
Cuando E() = y ECM() = )
Buscamos el que tenga la menor varianza.
Estimador insesgado uniformemente de mnima varianza
El estimador
es insesgado y uniformemente de mnima varianza
(UMVUE: Uniformly minimum-variance unbiased estimators) para ,
si dado cualquier otro estimador insesgado
de l, se verifica que:
Var (0 ) Var () para todos los valores posibles de .
1. INSESGADEZ
COTA
DE FRECHET-CRAMER-RAO
Sea (X1,X2,..,Xn) una m.a.(n),
obtenida de una poblacin con funcin
de densidad o de cuanta f(x; ),
entonces, la varianza del estimador
est acotada inferiormente:
Var ()
1. INSESGADEZ
NOTA:
La cota o desigualdad de F-C-R nos da un lmite inferior para la
varianza del estimador , pero esto no implica que la varianza de un
estimador UMVUE tenga que ser igual al lmite inferior de la varianza
dada por la cota de F-C-R. Es decir, se puede obtener un estimador
insesgado
que tenga su varianza ms pequea que la de todos los
dems estimadores insesgados de , pero mayor que el lmite inferior
dado por la cota de F-C-R. Un estimador que verifique lo anterior
seguir siendo un estimador UMVUE del parmetro .
2. EFICIENCIA
Estimador
eficiente:
Un estimador
del parmetro
poblacional , es eficiente si es
insesgado y adems su varianza
alcanza la cota de Frechet-Cramer-Rao.
Esto es equivalente a decir que, un
estimador
es eficiente si su varianza
coincide con la cota de F-C-R:
Var () =
2. EFICIENCIA
Eficiencia
de un estimador:
Se define la eficiencia de un estimador
insesgado , del parmetro , como:
eff.( ) =
verificndose que eff.( ) 1.
2. EFICIENCIA
Eficiencia
Relativa:
Dados dos estimadores 1 y 2 de , se
define la eficiencia relativa de 1 a 2
como:
eff.relativa (1 ,
)= =
Proposicin
Dada una poblacin se verifica que
la media muestral es un estimador
eficiente de la media poblacional .
Se demostrar que se cumple la
igualdad de la cota F-C-R, es decir:
Ejemplo
Dada
una poblacin y los estimadores de la
media poblacional para muestras aleatorias
simples de tamao n=3:
Se pide:
1. Comprobar si los estimadores y son o no
insesgados.
2. Calcular la varianza de ambos estimadores.
3. Son ambos estimadores eficientes?
2. EFICIENCIA
Estimador
asintticamente
eficiente:
Diremos que un estimador , del
parmetro , es asintticamente
eficiente si se verifica:
lm
n
=1
3. CONSISTENCIA
consistente:
Estimador
Una sucesin de estimadores es consistente
si la sucesin converge en probabilidad hacia
el parmetro , es decir, si para todo > 0 se
verifica:
lm P( ) = 1
n
y cada elemento de la sucesin se dir que es
un estimador consistente.
3. CONSISTENCIA
en media cuadrtica:
Consistencia
Una sucesin de estimadores es consistente
en media cuadrtica para el parmetro ,
cuando se verifica:
lm E2 = 0
n
y cada elemento de la sucesin se dir que es
un estimador consistente en media cuadrtica.
Teorema
Si un estimador es consistente en
media
cuadrtica,
tambin
es
consistente en probabilidad, pero no
necesariamente se verifica al revs.
3. CONSISTENCIA
casi segura:
Consistencia
Una sucesin de estimadores
es
consistente casi seguro para el parmetro ,
cuando se verifica:
P(lm )= 1
n
y cada elemento de la sucesin se dir que
es un estimador consistente casi seguro.
Ejemplo
Sea
(X1,X2,..,Xn)
una
muestra
aleatoria de tamao n procedente de
una poblacin . Demostrar que la
media muestral y la varianza muestral
son estimadores consistentes de la
media
y
varianza
poblacional,
respectivamente.
4. SUFICIENCIA
Intuitivamente:
Un estadstico es suficiente para un
parmetro
cuando utiliza toda la
informacin relevante contenida en la
muestra aleatoria, con respecto a
y
ningn
otro
estadstico
puede
proporcionar ms informacin adicional
sobre el parmetro poblacional .
4. SUFICIENCIA
Estimador
suficiente:
Sea (X1,.,Xn) una m.a.(n) de una
poblacin cuya distribucin depende de
un parmetro
desconocido. Diremos
que el estadstico o estimador T = T(X 1,
.,Xn) es suficiente para el parmetro ,
si la distribucin condicionada de X 1,
.,Xn dado el valor del estadstico T=t,
no depende del parmetro .
Ejemplo
Sea
una muestra aleatoria (X1,X2,X3) procedente
de una distribucin B(1,p) y sean los estadsticos:
Tales que para la muestra de tamao n=3 toman
los valores =2.
Comprobar que es suficiente y que no es
suficiente.
4. SUFICIENCIA
de Factorizacin de FisherTeorema
Neyman:
Sea (X1,.,Xn) una m.a.(n) de una poblacin con F(x; ) y sea
la funcin de cuanta de la muestra:
P(x1,.,xn; ) = P (X1 = x1,..,Xn=xn), o la funcin de densidad
de la muestra: f (x1,,xn;
Entonces, el estadstico T = T (X1,.,Xn) es suficiente para el
parmetro
si y solamente si podemos descomponer la
funcin de probabilidad o la funcin de densidad de la
muestra como producto de dos factores no negativos:
P (x1,..,xn) = g(T(x1,.,xn); ).h(x1,.,xn)
f (x1,,xn; = g(T(x1,.,xn); ).h(x1,.,xn)
4. SUFICIENCIA
Teorema
de Factorizacin de
Fisher-Neyman:
en donde g(T, ) es una funcin que
depende solamente de
y de la
muestra a travs del estadstico T(X1,
..,Xn) y h(x1,,xn) no depende de .
Ejemplo
Sea una muestra aleatoria (X1, X2,
,Xn) de una distribucin B(1,p).
Comprobar utilizando el teorema de
factorizacin que el estadstico es
suficiente para el parmetro p.
5. INVARIANZA
Estimador
invariante:
Diremos que un estimador es
invariante frente a la transformacin
f(.), si se verifica que el estimador de
esa fuincin del parmetro , es igual al
propio estimador del parmetro, es
decir cuando se verifica que:
(f(X1,.,Xn)) = (X1,.,Xn)
5. INVARIANZA
Tipos
de
invarianzas
o
de
estimadores invariantes:
1. Estimador invariante a cambios de
origen.
2. Estimador invariante a cambios de
escala.
3. Estimador invariante a cambios de
origen y de escala.
4. Estimador invariante a
5. INVARIANZA
invariante a cambio de origen:
Estimador
Dados una m.a.(n) X1,.,Xn y un estimador (X1,
.,Xn) del parmetro , entonces si se realiza
un cambio de origen en los datos de la
muestra, sumando una constante k: (X 1+k,
..,Xn+k), diremos que
es invariante a
cambios de origen o de localizacin si y
solamente si se verifica que:
(X1 + k,..,Xn+k) = (X1,.,Xn) para todo k
Ejemplo
si son o no invariantes frente a
Estudiar
cambios de origen los siguientes estimadores:
1. La media muestral
2. La varianza muestral
3. La desviacin tpica muestral
4. El estimador , donde:
5. El coeficiente de correlacin lineal
5. INVARIANZA
Estimador
invariante
frente
a
cambios de escala:
Si consideramos una constante c, la
muestra se transforma en: (cX1,.,cXn),
entonces es invariante a cambios de
escala si y solamente si se verifica que:
(cX1 ,..,cXn) = (X1,.,Xn) para todo c
, tal que c.
Ejemplo
Comprobar que los estimadores media
y varianza muestral no son invariantes
frente a cambios de escala, y sin
embargo el coeficiente de correlacin
lineal si lo es.
5. INVARIANZA
Estimador
invariante a cambios de
origen y de escala:
es invariante a cambios de origen y
de escala si y solamente si se verifica
que:
(cX1+k ,..,cXn+k) = (X1,.,Xn)
para todo c,k , tal que c.
Ejemplo
Comprobar que el coeficiente de
correlacin lineal
es invariante a
cambios de origen y de escala.
5. INVARIANZA
invariante a
Estimador
permutaciones:
Un estimador es invariante frente a
permutaciones si se verifica que:
(Xi1 ,..,Xin) = (X1,.,Xn)
Para todas las permutaciones ( i 1,.,in) de
1 ,.,n
6. ROBUSTEZ
Estimador robusto:
Diremos que un estimador es robusto
cuando pequeos cambios en las
hiptesis de partida del procedimiento
de
estimacin
considerado
no
producen variaciones significativas en
los resultados obtenidos.
Ejemplo
En
la distribucin al estudiar la distribucin de la
media muestral veamos que si no se conoce la
varianza poblacional recurramos a la distribucin
t-Student mediante el estadstico:
de manera que pequeas variaciones en la
distribucin no produciran cambios sustanciales
en los procedimientos estadsticos basados en el
estadstico t-Student con n-1 grados de libertad,
cuando n es relativamente grande, ya que estos
procedimientos estadsticos son robustos.