Está en la página 1de 19

Tema 5: Estimación Puntual

Introducción

Concepto de estimación

Concepto de estimador y estimación puntual

Propiedades de los estimadores puntuales


• Insesgadez
T5 • Eficiencia
• Consistencia
• Suficiencia
1
Métodos de estimación
• Estimador Máximo-verosimil
• Método de los momentos
Introducción
Como ya sabemos, el muestreo y la inferencia estadística tratan de resolver el siguiente
problema:

Supongamos que queremos conocer una cierta característica de una población


(por ejemplo vida útil de unos fluorescentes) y que esta característica puede definirse
como una VA X definida sobre dicha población y cuya función de distribución es F. Si
conociéramos completamente F tendríamos caracterizada la VA y no tendríamos
problema. Sin embargo, normalmente no conocemos completamente F, por lo que es
necesario encontrar alguna información sobre dicha función, lo que se hace mediante la
toma de una muestra y obteniendo de ella, la información que nos interese de la misma.
En concreto nos centramos en el caso de la INFERENCIA PARAMÉTRICA, es decir,
conocemos F pero no el parámetro desconocido θ.

T1 𝑋~𝐹 𝑥, 𝜃 , 𝜃 ∈ Ω, 𝑑𝑜𝑛𝑑𝑒 𝜃 𝑒𝑠 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑎

Para conocer algo más de F tomamos una mas de X a partir de la que inferimos algo
sobre F o θ

Para resolver este problema y poder conocer la 𝑓 𝑥, 𝜃 , tomaremos una muestra aleatoria
𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 de 𝑋, a partir de la cual inferiremos determinadas características de la
verdadera 𝑓 𝑥, 𝜃 o bien del verdadero parámetro. Precisamente el problema de la
estimación se refiere a intentar dar un valor a un/os parámetro/s desconocidos o función2
de 𝜃, a partir de una muestra aleatoria simple.
Concepto de Estimación
Pues bien, el problema de la ESTIMACIÓN se refiere a intentar, a partir
de la información proporcionada por la muestra, dar un valor o un conjunto
de valores posibles al parámetro/s desconocido/s o alguna función de él.
De lo anterior deducimos:

• Estimación puntual. Estamos interesados en una característica


numérica de una distribución, la que representamos por θ (media,
varianza, etc) y queremos calcular a partir de observaciones de la VA de
X un número que inferimos es una aproximación a la característica
numérica en cuestión. PROBLEMA: es buena esa aproximación?? O
T1
cómo de buena es? Esto lo haremos en este tema

• Estimación por intervalo: Mientras que en la estimación puntual se


intenta asignar un número a una característica desconocida θ, en la
estimación por intervalos se intentan encontrar un conjunto de valores
posibles para ese parámetro.
3
Concepto de Estimador y Estimación Puntual
Si F 𝑥, 𝜃 es una distribución de probabilidad que contiene un parámetro desconocido
𝜃 ∈ Θ, el primer objetivo de la inferencia estadística es obtener un valor que
pueda asignarse a ese valor desconocido. Para ello, se obtiene información a partir de
una muestra aleatoria de la población. Se establece una función (en principio
cualquiera) de los valores muestrales, que no contenga explícitamente al parámetro
𝜃, este es el estimador. Y se le asigna al parámetro 𝜃 el valor numérico que se obtenga a
partir de la muestra. Este valor numérico es la estimación puntual: 𝜃 ∗ =
𝜃 ∗ 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛

De ahí se puede concluir que el estimador será, por definición, un estadístico


(función de la muestra) que se utiliza para estimar el valor de un 𝜃 𝑑𝑒𝑠𝑐𝑜𝑛𝑜𝑐𝑖𝑑𝑜 (y
puede ser un buen o mal estimador) y, por tanto una variable aleatoria pues depende de
la muestra que finalmente sea obtenida. Una vez que se haya seleccionado una

T1
muestra concreta, el estimador deja de ser aleatorio y pasa a ser una valor
puntual.

Por tanto, y según la definición de estimador, cualquier función que cumpla los
requisitos mencionados podría ser un estimador. Por eso, la pregunta que se plantea es:
¿cómo seleccionar un buen estimador de entre todos los posibles?, ¿cuáles son
los criterios que se han de seguir para que nos ayuden a clasificarlos como
buenos o malos? Para contestar a estas preguntas habría que conocer las propiedades
4
que todo estimador debería cumplir.
Propiedades de los estimadores
Las propiedades deseables para que un estimador debe sea considerado como
“bueno” son: Insesgadez, Eficiencia ,Consistencia y Suficiencia.

Insesgadez

Sea 𝑥1 , 𝑥2 , ⋯ 𝑥𝑛 una mas de una variable aleatoria X e idénticamente


distribuida con una función de probabilidad 𝐹 𝑥, 𝜃 , 𝜃 ∈ Θ.Diremos que un
estimador 𝜃 ∗ = 𝜃 ∗ 𝑥1 , 𝑥2 , ⋯ 𝑥𝑛 es un estimador insesgado del parámetro 𝜃
si la esperanza matemática del estimador coincide con el valor del parámetro
poblacional.

T1 𝐸 𝜃∗ = 𝜃

Lo que significa que para que un estimador sea insesgado, su distribución en


el muestreo debería hallarse concentrada alrededor del parámetro 𝜃

5
Propiedades de los estimadores
Insesgadez

Diremos que un estimador es sesgado si no satisface la condición:

𝐸 𝜃∗ = 𝜃 ± 𝑏 𝜃

Es decir, que la esperanza del 𝜃 ∗ es igual al verdadero valor poblacional del


parámetro 𝜃, más una cantidad 𝒃 𝜽 , denominada sesgo del estimador y mide el
error sistemático, no aleatorio, positivo o negativo del estimador. Cuando el sesgo es
positivo indica que si se utiliza dicho estimador con ese sesgo éste tenderá a
sobreestimar el verdadero valor del parámetro, mientras que si es negativo, tenderá a
infravalorarlo. Evidentemente, si el sesgo fuera nulo el estimador sería insesgado.
T1
Adicionalmente, es importante señalar que se dice que un estimador es
asintóticamente insesgado si, siendo sesgado, su sesgo tiende a cero al aumentar
el tamaño muestral.

lim 𝑏 𝜃 = 0 → lim 𝐸 𝜃 ∗ = 𝜃
𝑛→∞ 𝑛→∞
6
En conclusión para saber si un estimador es insesgado no tenemos más que calcular
su valor esperado tras considerar todas las posibles muestras.
http://blogs.elconfidencial.com/economia/el-
analisis-de-sintetia/2013-04-04/malditas- 7
mentiras-sorprendentes-aplicaciones-reales-
de-la-estadistica_598221/
Propiedades de los estimadores
Algunos parámetros poblacionales y sus estimaciones puntuales
Parámetro Estimador puntual 𝐸 𝜃∗ 𝑉 𝜃∗
poblacional insesgado 𝜃 ∗
Media: 𝜇 σ 𝑥𝑖 𝜇 𝜎2
𝜇Ƹ = 𝑥ҧ =
𝑛 𝑛
Varianza: 𝜎 2 σ 𝑥𝑖 − 𝑥ҧ 2
𝜎2 𝜇4 3−𝑛
2
𝜎ො = 𝑆𝑐2 = + 𝜎4
𝑛−1 𝑛 𝑛 𝑛−1
Proporción: 𝑝 𝑋 𝑝 𝑝 1−𝑝
𝑝Ƹ = 𝑝𝑥 =
𝑛 𝑛
T1
Diferencias de 𝜇Ƹ 𝑥 − 𝜇Ƹ 𝑦 = 𝑥ҧ − 𝑦ത 𝜇𝑥 − 𝜇𝑦 𝜎𝑥2 𝜎𝑦2
medias: 𝜇𝑥 − 𝜇𝑦 +
𝑛𝑥 𝑛𝑦
Diferencias de 𝑋 𝑌 𝑝𝑥 − 𝑝𝑦 𝑝𝑥 1 − 𝑝𝑥 𝑝𝑦 1 − 𝑝𝑦
𝑝Ƹ𝑥 − 𝑝Ƹ𝑦 = − +
Proporciones: 𝑛𝑥 𝑛𝑦 𝑛𝑥 𝑛𝑦
𝑝𝑥 − 𝑝𝑦
8
Propiedades de los estimadores
Eficiencia

Para un parámetro 𝜃 pueden existir distintos estimadores que sean


insesgados, pero ¿cuál elegiríamos? ¿cómo discriminaremos entre cada uno
de ellos? Dado que ese estimador es una VA sería interesante que tuviera la
menor dispersión posible, por lo que es deseable que exista una menor
dispersión respecto al parámetro 𝜃.
Esta propiedad exige al estimador que se utilice que genere estimaciones
parecidas para casi todas las distintas muestras que puedan obtenerse de la
población.

T1
Veremos dos formas de analizar la eficiencia:

Eficiencia relativa: se compara la eficiencia entre varios estimadores

Eficiencia absoluta: el que tenga la menor varianza posible (CCR)

9
Propiedades de los estimadores
Eficiencia
Eficiencia relativa

Se compara la eficiencia entre varios estimadores se elige aquél estimador


que presente la menor varianza, puesto que su distribución de probabilidad
estará más concentrada alrededor del verdadero valor del parámetro.

Se consideran dos situaciones:

Si 𝜃1∗ y 𝜃2∗ 𝜃𝑛∗ son insesgados. En esta situación para evaluar su eficiencia
relativa se comparan sus varianzas, considerando al más eficiente aquél que
T1
tenga la menor varianza.

Se puede construir un índice de eficiencia relativa (siempre dos a dos):

𝑉 𝜃1∗ = 1, indiferente
𝑒 𝜃1∗ , 𝜃2∗ = ∗ ൞
> 1, se elige 𝜃2∗
𝑉 𝜃2 10
< 1, se elige 𝜃1∗
Propiedades de los estimadores
Eficiencia
Eficiencia relativa

Si 𝜃1∗ y 𝜃2∗ 𝜃𝑛∗ son sesgados. En este caso, la comparación de las respectivas
varianzas no será válida, ya que éstas no consideran el sesgo de los
estimadores. Para ello se recurre al error cuadrático medio (ECM)
El ECM es la desviación cuadrática media, es decir, es la concentración de
las estimaciones respecto al verdadero valor del parámetro.

𝐸𝐶𝑀 𝜃 ∗ = 𝐸 𝜃 ∗ − 𝜃 2
= 𝑉 𝜃 ∗ + 𝑏2 𝜃
sesgo2
T1
Si se tienen dos estimadores de un mismo parámetro, 𝜃1∗ y 𝜃2∗ , el índice de
eficiencia relativa es:

𝐸𝐶𝑀 𝜃1∗ = 1, indiferente


𝑒 𝜃1∗ , 𝜃2∗ = ∗ ൞
> 1, se elige 𝜃2∗
𝐸𝐶𝑀 𝜃2
< 1, se elige 𝜃1∗
11
Propiedades de los estimadores
Eficiencia
Eficiencia absoluta

Como hemos visto, para seleccionar un estimador eficiente del conjunto de


estimadores posibles de un parámetro 𝜃 desconocido habría que calcular sus
varianzas y comprobar cuál es menor. Este procedimiento puede ser
impracticable si no es posible definir todos los estimadores posibles, por lo que
normalmente se investiga la eficiencia de un estimador comparando su varianza
con una cantidad, denominada Cota de Frechet-Cramer-Rao, que es la
mínima que puede tomar cualquier estimador.

T1
Cota de Frechet-Cramer-Rao
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria simple de tamaño 𝑛, obtenida de una
población cuya función de distribución 𝐹 𝑥, 𝜃 y sea 𝜃 ∗ un estimador insesgado,
entonces si se cumplen ciertas condiciones, se cumple que
1 + 𝑏′ 𝜃 2
𝑉 𝜃෠ = 2
𝜕 ln 𝑓 𝑥, 𝜃
𝑛𝐸
𝜕𝜃 12
Un estimador es eficiente en términos absolutos si es insesgado y su varianza
coincide con la Cota
Propiedades de los estimadores
Consistencia

Formalmente, sea 𝜃 ∗ = 𝜃 ∗ 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 un estimador del parámetro 𝜃, procedente de


una m.a.s. extraída de una población con función de distribución 𝐹 𝑥, 𝜃 , si el tamaño
muestral tiende a ser cada vez mayor, obtendríamos una sucesión de posibles
estimadores en función del tamaño muestral.
𝜃𝑛∗ = 𝜃1∗ 𝑥1 , 𝜃2∗ 𝑥1 , 𝑥2 , ⋯ , 𝜃𝑛∗ 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛
Dado que un estimador es una variable aleatoria, podemos estudiar la sucesión 𝜃𝑛∗
bajo los aspectos de convergencia de variables aleatorias.

Así, un estimador es consistente si converge en probabilidad al parámetro que se

T1
quiere estimar:
1. − lim 𝑃 𝜃𝑛∗ − 𝜃 ≥ 𝜀 = 0,
n→∞
2. − lim 𝑃 𝜃𝑛∗ − 𝜃 < 𝜀 = 1

𝑃
Es lo mismo que: 𝜃𝑛∗ →𝜃 o 𝑝𝑙𝑖𝑚𝜃𝑛∗ = 𝜃.

La consistencia significa que al aumentar el tamaño muestral, el estimador debe


acercarse al verdadero valor de 𝜃, y que no existe dispersión entre las distintas
13
estimaciones puntuales.
Propiedades de los estimadores
Suficiencia

Sólo para introducir este concepto diremos que un estimador es suficiente cuando
resuma el conjunto de información relevante contenido en la muestra y ningún otro
estadístico pueda proporcionar información adicional del parámetro 𝜃 desconocido de
la población.

Aunque es difícil plasmar esta propiedad de una forma estadística, formalmente,


dada una variable 𝑋 con función de distribución 𝐹 𝑥, 𝜃 si se toma una muestra
aleatoria simple de tamaño n, diremos que un estimador 𝑇 ∙ = 𝑇 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 es
suficiente respecto a 𝜃 si la distribución condicionada de la muestra a un valor

T1
concreto de 𝑇 es independiente de 𝜃, tanto para el caso discreto como continuo.

14
Métodos de Estimación
Hasta ahora hemos supuesto que los estimadores nos eran dados. Pero,

¿Cómo se obtiene un buen estimador?

Para obtener estimadores existes muchos procedimientos aunque los más


empleados son:

• El método de los momentos, muy intuitivo y fácil de aplicar, aunque


las estimaciones que se obtienen no tienen, en general buenas
propiedades (no lo veremos).

T1
• El método de máxima-verosimilitud, muy importante porque conduce
a estimadores con muy buenas propiedades.

Existen otros métodos de estimación, como el método de mínimos cuadrados


ordinarios, que se estudiaran de forma detallada en los modelos
econométricos de regresión.
15
Métodos de Estimación
Método de Máxima Verosimilitud

¿Qué significa la máxima verosimilitud? Este principio supone que, al ser la


muestra representativa de la población, lo que sale en ella es lo más probable que
ocurra en la distribución de probabilidad de la población. Por tanto, propone elegir
como estimador del parámetro el que hace máxima la probabilidad de la muestra.

1º Construir la función de verosimilitud.


Dado que tomamos una m.a.s. 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , cada extracción es una VA y la función
que se obtiene variando 𝜃 en 𝑓 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 , es decir,
𝑛

T1 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ෑ 𝑓 𝑥𝑖 , 𝜃
𝑖=1
Dado que el estimador que se obtenga debe maximizar la verosimilitud, se tiene que
maximizar dicha función.

𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃መ = max 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃
𝜃∈Θ
La FV es una función positiva y coincide sus máximos con los de la función
ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 (por ser una transformación monótona creciente). 16
Por tanto se suele maximizar ésta última.
Métodos de Estimación
Método de Máxima Verosimilitud

2º Tomar logaritmos de la FV. Linealiza las funciones


𝑛

ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ln 𝑓 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ෍ ln 𝑓 𝑥𝑖 , 𝜃
𝑖=1
3º Maximizar esa función
𝑛

ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃መ = max lnL 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = max ෍ ln 𝑓 𝑥𝑖 , 𝜃


𝜃∈Θ 𝜃∈Θ
𝑖=1
Por lo que se deriva respecto de θ y se iguala a cero.

T1 𝜕 ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃
𝜕𝜃
=෍
𝑛
𝜕 ln 𝑓 𝑥𝑖 , 𝜃
𝜕𝜃
=0
𝑖=1

Despejando de la función anterior se obtiene:

𝜃መ = 𝜃መ 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛
17
que es una función de la muestra
Métodos de Estimación
Método de Máxima Verosimilitud

Ejemplo. Sea una muestra aleatoria simple 𝒙𝟏 , 𝒙𝟐 , ⋯ , 𝒙𝒏 procedente de una población normal
𝑵 𝝁, 𝝈 , obtenga los estimadores máximo verosímil de los parámetros 𝝁 𝒚 𝝈𝟐 .

La función de verosimilitud será:


𝑛
1 σ 𝑥𝑖 −𝜇 2
2 −
𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 = ෑ 𝑓 𝑥𝑖 , 𝜇 = ∙𝑒 2𝜎 2
𝑛 𝑛
𝑖=1 𝜎 2 ൗ2 2𝜋 2
Tomando logaritmos:
σ 𝑥𝑖 − 𝜇 2
𝑛 𝑛
𝑙𝑛 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 = − 𝑙𝑛 𝜎 2 − 𝑙𝑛 2𝜋 −
2
2 2 2𝜎 2
Derivando respecto a 𝝁 𝒚 𝝈 e igualando a cero resulta:

T1 𝜕 𝑙𝑛 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 2
𝜕𝜇
=−
2 σ 𝑥𝑖 − 𝜇 −1
2𝜎 2
= 0 → ෍ 𝑥𝑖 = 𝑛𝜇 → 𝜇Ƹ 𝑀𝑉 = 𝑥ҧ

𝜕 2 𝑙𝑛 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 2 𝑛
อ =− <0
𝜕𝜇2 𝜎2
ෝ =𝑥ҧ
𝜇
2 2 σ xi − μ 2 2
𝜕 ln L x1 , x2 , ⋯ , xn ; μ, σ n 1 σ xi − μ σ xi − xത
=− ∙ 2+ =0→ σ2MV
ෝ = อ 2
→S =
𝜕σ2 2 σ 2σ4 n n
ෝ =തx
μ
18
Métodos de Estimación
Método de Máxima Verosimilitud

Propiedades del Estimador MV

• Son consistentes.

• Si existe un estimador suficiente para el parámetro poblacional, el estimador


máximo verosímil es una muestra de él, dado que toda la información muestral
está contenida en el estimador.

• Son asintóticamente normales cuando la muestra es suficientemente grande.

T1
• 𝜃መ𝑀𝑉 ~𝑁 𝜃,
𝑛𝐸
1
𝜕 ln 𝑓 𝑥,𝜃 2
.
𝜕𝜃

• Por tanto, son asintóticamente UMVES. Estos estimadores no tienen por qué ser
eficientes, pero si existe este será el obtenido por el procedimiento máximo
verosímil.
19
• En general, no son insesgados, pero si no son insesgados son asintóticamente
insesgados, cuando el tamaño muestral es suficientemente grande.

También podría gustarte