Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tema 3 - ESTIMACION PUNTUAL PDF
Tema 3 - ESTIMACION PUNTUAL PDF
ESQUEMA
3.1.- Planteamiento del problema: La Estimación Puntual.
3.2.- Propiedades de los estimadores.
3.2.1.- Insesgadez.
3.2.2.- Eficiencia. La cota de Cramér-Rao. EIMV.
3.2.3.- Consistencia.
3.2.4.- Sufuciencia. Criterio de Factorización.
3.3.- Métodos de obtención de estimadores.
3.3.1.- El método de los momentos. Propiedades.
3.3.2.- El método de la máxima verosimilitud. Propiedades.
GARCÍA CÓRDOBA 1
TEMA 3 ESTIMACIÓN PUNTUAL
Ejemplo:
Si ξ≈B(3;p) tendremos que el espacio paramétrico es el intervalo Θ = [0,1]. Y la
familia de distribuciones será {B(3;p) ; 0≤p≤1}
Definición.- Sea (ξ1, ξ2 , . . . ,ξn) una m.a.s. de F(x;θ). Un estadístico
θ* = f (ξ1, ξ2 , . . . ,ξn)
se dice que es un estimador puntual de θ si θ* aplica Rn en Θ.
Obsérvese que el estimador no es un valor concreto sino una variable aleatoria,
ya que aunque depende unívocamente de los valores de la muestra observados (ξi = xi), la
elección de la muestra es un proceso aleatorio.
Una vez que la muestra ha sido elegida, se denomina estimación el valor
numérico que toma el estimador sobre esa muestra.
Un estimador es siempre una función de los valores muéstrales cuyo resultado
debe ser siempre un posible valor del parámetro.
GARCÍA CÓRDOBA 2
TEMA 3 ESTIMACIÓN PUNTUAL
3.2.1. Propiedad de insesgadez:
Hemos dicho en el apartado anterior que al realizar una estimación de θ
mediante un determinado estimador θ* unas veces cometeremos errores por exceso y otras
por defecto. El error es una v.a. θ*-θ. La primera propiedad que vamos a requerir de un
estimador es que en términos medios el error que se cometa al estimar un parámetro sea
cero
Definición.- Sea ξ una v.a. y Fθ su función de distribución. Diremos que θ* es un
estimador insesgado de θ, si se verifica que:
E[θ*] = θ.
A la diferencia entre la esperanza matemática del estimador de un parámetro y el
parámetro a estimar se llama sesgo del estimador que escribiremos como b(θ):
b(θ) = E[θ*] - θ
Si el sesgo de un estimador es positivo, este tenderá a sobreestimar el valor del
parámetro, mientras que si el sesgo es negativo, el estimador tenderá a infravalorar el valor
a estimar.
Ejemplo:
Consideremos los tres estimadores de la media de una población normal que
presentamos en el apartado anterior. Sabemos que:
E[μ*] = nμ/(n-1) su sesgo será b(μ) = nμ/(n-1) - μ = μ/(n-1)
E[μ**] = μ su sesgo será b(μ) = μ - μ = 0 Estimador Insesgado.
E[μ***] = nμ/(n+1) su sesgo será b(μ) = nμ/(n+1) - μ = - μ/(n+1)
El primero de estos estimadores tiene un sesgo positivo, y tenderá a
sobreestimar la media de la población, mientras que el segundo tiene sesgo negativo y
tenderá a asignar a la media valores inferiores a su valor real. Frente a éstos, el estimador
μ** es un estimador insesgado.
Gráficamente, las funciones de densidad de cada uno de estos estimadores será:
0,5
0,4
0,3
0,2
0,1
0
-1 0 1 2 3 4 5
GARCÍA CÓRDOBA 3
TEMA 3 ESTIMACIÓN PUNTUAL
3.2.1.1.- El estimador de mínimo error cuadrático medio.
Supongamos que estamos estudiando una v.a. ξ que sabemos que se ajusta a un
modelo probabilístico con función de distribución F conocida que depende de un parámetro θ
desconocido. Con el fin de estimar el valor de este parámetro consideramos el estimador θ*.
θ* es una v.a. función de la m.a.s. Como tal v.a. podrá tomar diversos valores
dependiendo de la muestra seleccionada. El error que cometemos al estimar θ mediante θ*
será la diferencia θ*-θ. Unas veces esta diferencia será positiva (cometiendo un error por
exceso) y otras veces la diferencia será negativa (cometiendo un error por defecto).
Por tanto la diferencia θ*-θ será también una v.a. que nos informa del error que
estamos cometiendo al realizar la estimación. Con el fin de obtener una medida global de
este error vamos a eliminar el signo de los errores considerando la diferencia al cuadrado
(θ*-θ)2 (error cuadrático).
De esta manera podemos obtener una medida del error medio que estamos
cometiendo al realizar la estimación mediante la esperanza matemática del error cuadrático.
Definimos así:
Definición.- Se llama error cuadrático medio del estimador a:
ECM(θ*) = E[ (θ*-θ)2 ]
Si el error cuadrático medio es un número pequeño, podríamos asegurar que
error que estamos cometiendo en la estimación es pequeño (en media), e inversamente, si
el ECM es un número grande, cabe esperar que la estimación que realicemos no sea muy
precisa.
A partir de esta idea vamos a deducir las propiedades más importantes que debe
cumplir un estimador para ser considerado aceptable.
Vamos ahora a encontrar otra expresión para el ECM de un estimador:
2
= Var (θ*) + ( θ -E[θ*] ) - 2( θ -E[θ*] ) E[( θ*- E[θ*] ) ] =
2
= Var (θ*) + ( θ -E[θ*] )
De esta manera podemos observar que el error cuadrático medio que cometemos
al realizar una estimación es la suma de dos contribuciones positivas.
En primer lugar el tamaño del error vendrá determinado por la varianza del
estimador, es decir, por su precisión. Si el estimador tiene poca capacidad de variación para
los distintas muestras que podamos tomar esto contribuirá de forma positiva a la obtención
de un error más pequeño.
En segundo lugar el tamaño del error vendrá determinado por la diferencia entre
el valor medio que tome el estimador y el parámetro desconocido. Así, por ejemplo, si para
los distintos valores muéstrales la media del estimador coincide con θ habremos obtenido un
buen estimador.
Observamos finalmente que las propiedades que nos van a permitir medir la
calidad de un estimador están en función de sus dos primeros momentos: la media y la
varianza de un estimador.
GARCÍA CÓRDOBA 4
TEMA 3 ESTIMACIÓN PUNTUAL
Estas no van a ser las únicas propiedades que observemos sobre la calidad de los
distintos estimadores, pero quizás sí las más importantes.
Ejemplo:
Supongamos que estamos estudiando un fenómeno aleatorio que suponemos que
se ajusta a una v.a. ξ, Normal N(μ;3). Con el fin de determinar el valor medio desconocido
de la población se toma una m.a.s. de tamaño n y se plantean tres posibles estimadores:
μ* = ∑ξi / (n-1)
2,5
ECM[µ*]
2
ERROR CUADRATICO MEDIO
ECM[µ***]
1,5
1 ECM[µ**]
0,5
-11 -10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11
VALOR CONJETURABLE PARA LA MEDIA POBLACIONAL
GARCÍA CÓRDOBA 5
TEMA 3 ESTIMACIÓN PUNTUAL
será mejor μ** y otras μ***. Claro esto nos lleva a una situación difícil pues este valor es
desconocido. Esta situación hace disminuir la aplicación universal de este método para
determinar la calidad de un estimador.
El error cuadrático medio depende en ciertos casos del parámetro desconocido
En los tres casos el ECM disminuye conforme aumenta el tamaño muestral (algo
que comentaremos mas adelante)
15
µ*
10
ERROR CUADRATICO MEDIO
5 µ**
µ***
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
TAMAÑO MUESTRAL
[ 1 + b′(θ) ]2
Var( θ* ) ≥ 2
⎡ ∂ ln f (x; θ) ⎤
nE⎢ ⎥⎦
⎣ ∂θ
lim P(| θ
n→∞
*
n - θ | ≥ ε) = 0
GARCÍA CÓRDOBA 7
TEMA 3 ESTIMACIÓN PUNTUAL
lim E [ θ
n→∞
*
n ]= θ
lim Var [ θ
n→∞
*
n ]= 0
0,6
0,4
0,2
MEDIA MUESTRAL
-0,2
-0,4
-0,6
0 200 400 600 800 1000
TAMAÑO MUESTRAL
Ejemplo:
Como ejemplos de estimadores consistentes μ* μ** μ***
3.2.4. Propiedad de Suficiencia.-
GARCÍA CÓRDOBA 8
TEMA 3 ESTIMACIÓN PUNTUAL
E[ξ] = ξ
En el caso de que se desconozcan más de un parámetro de la población se
presentarán tantas ecuaciones como parámetros se desconozcan, igualando siempre los
primeros momentos poblacionales a los muéstrales.
Si desconocemos dos parámetros plantearemos el sistema:
E[ξ] = ξ
Var(ξ) = s2
GARCÍA CÓRDOBA 9
TEMA 3 ESTIMACIÓN PUNTUAL
Propiedades de los estimadores obtenidos por el método de los
momentos.
Insesgadez:
No tienen porqué ser insesgados aunque si lo son asintóticamente.
Consistencia:
Son consistentes
Normalidad:
Son asintóticamente normales.
GARCÍA CÓRDOBA 11
TEMA 3 ESTIMACIÓN PUNTUAL
Insesgadez:
Los estimadores máximo verosímiles no tienen porque ser insesgados (aunque si
lo son asintóticamente)
Eficiencia:
Si existe un estimador de mínima varianza, este es el obtenido por el método de
la máxima verosimilitud.
Consistencia:
Los estimadores máximo verosímiles son consistentes
Normalidad:
Los estimadores máximo verosímiles son asintóticamente normales
Suficiencia:
El estimador máximo verosímil no tiene porque ser suficiente, pero si un
parámetro tiene un estimador consistente, el estimador máximo verosímil es función de
éste.
BIBLIOGRAFÍA:
**García Córdoba, Palacios Sánchez, Ruiz Marín: “Probabilidad e Inferencia Estadística: Una
Introducción”. Ed. Horacio Escarabajal.
Durá Peiró: "Fundamentos de Estadística" Ed: Ariel
Escuder, R. "Introducción a la Teoría de la Probabilidad" Ed: tirant to blanch economía.
Evans J.R y Olson D.L. “Statistics, Data análisis and decisión modeling” Prentice Hall.
Fernández Abascal: "Cálculo de Probabilidades y Estadística" Ed: Ariel.
Gutiérrez Jaímez R. y otros.: "Curso Básico de Probabilidad" Ed: Pirámide.
Llopis Perez J. "La estadística: una orquesta hecha instrumento" Ed: Ariel Ciencia.
Martín Pliego F.J. Montero Lorenzo J.M. Riuz-Maya Pérez L. "Problemas de Probabilidad" Ed:
AC.
Martín Pliego, Ruiz Maya: "Estadística: I Probabilidad . II Inferencia Estadística" Ed: AC.
**Newbold P. "Estadística para los Negocios y la Economía" Ed: Prentice Hall
**Novales A., “Estadística y Econometría” Ed: Mc Graw Hill.
Problemas:
GARCÍA CÓRDOBA 12