Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
Concepto de estimación
Para conocer algo más de F tomamos una mas de X a partir de la que inferimos algo
sobre F o θ
Para resolver este problema y poder conocer la 𝑓 𝑥, 𝜃 , tomaremos una muestra aleatoria
𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 de 𝑋, a partir de la cual inferiremos determinadas características de la
verdadera 𝑓 𝑥, 𝜃 o bien del verdadero parámetro. Precisamente el problema de la
estimación se refiere a intentar dar un valor a un/os parámetro/s desconocidos o función2
de 𝜃, a partir de una muestra aleatoria simple.
Concepto de Estimación
Pues bien, el problema de la ESTIMACIÓN se refiere a intentar, a partir
de la información proporcionada por la muestra, dar un valor o un conjunto
de valores posibles al parámetro/s desconocido/s o alguna función de él.
De lo anterior deducimos:
T1
muestra concreta, el estimador deja de ser aleatorio y pasa a ser una valor
puntual.
Por tanto, y según la definición de estimador, cualquier función que cumpla los
requisitos mencionados podría ser un estimador. Por eso, la pregunta que se plantea es:
¿cómo seleccionar un buen estimador de entre todos los posibles?, ¿cuáles son
los criterios que se han de seguir para que nos ayuden a clasificarlos como
buenos o malos? Para contestar a estas preguntas habría que conocer las propiedades
4
que todo estimador debería cumplir.
Propiedades de los estimadores
Las propiedades deseables para que un estimador debe sea considerado como
“bueno” son: Insesgadez, Eficiencia ,Consistencia y Suficiencia.
Insesgadez
T1 𝐸 𝜃∗ = 𝜃
5
Propiedades de los estimadores
Insesgadez
𝐸 𝜃∗ = 𝜃 ± 𝑏 𝜃
lim 𝑏 𝜃 = 0 → lim 𝐸 𝜃 ∗ = 𝜃
𝑛→∞ 𝑛→∞
6
En conclusión para saber si un estimador es insesgado no tenemos más que calcular
su valor esperado tras considerar todas las posibles muestras.
http://blogs.elconfidencial.com/economia/el-
analisis-de-sintetia/2013-04-04/malditas- 7
mentiras-sorprendentes-aplicaciones-reales-
de-la-estadistica_598221/
Propiedades de los estimadores
Algunos parámetros poblacionales y sus estimaciones puntuales
Parámetro Estimador puntual 𝐸 𝜃∗ 𝑉 𝜃∗
poblacional insesgado 𝜃 ∗
Media: 𝜇 σ 𝑥𝑖 𝜇 𝜎2
𝜇Ƹ = 𝑥ҧ =
𝑛 𝑛
Varianza: 𝜎 2 σ 𝑥𝑖 − 𝑥ҧ 2
𝜎2 𝜇4 3−𝑛
2
𝜎ො = 𝑆𝑐2 = + 𝜎4
𝑛−1 𝑛 𝑛 𝑛−1
Proporción: 𝑝 𝑋 𝑝 𝑝 1−𝑝
𝑝Ƹ = 𝑝𝑥 =
𝑛 𝑛
T1
Diferencias de 𝜇Ƹ 𝑥 − 𝜇Ƹ 𝑦 = 𝑥ҧ − 𝑦ത 𝜇𝑥 − 𝜇𝑦 𝜎𝑥2 𝜎𝑦2
medias: 𝜇𝑥 − 𝜇𝑦 +
𝑛𝑥 𝑛𝑦
Diferencias de 𝑋 𝑌 𝑝𝑥 − 𝑝𝑦 𝑝𝑥 1 − 𝑝𝑥 𝑝𝑦 1 − 𝑝𝑦
𝑝Ƹ𝑥 − 𝑝Ƹ𝑦 = − +
Proporciones: 𝑛𝑥 𝑛𝑦 𝑛𝑥 𝑛𝑦
𝑝𝑥 − 𝑝𝑦
8
Propiedades de los estimadores
Eficiencia
T1
Veremos dos formas de analizar la eficiencia:
9
Propiedades de los estimadores
Eficiencia
Eficiencia relativa
Si 𝜃1∗ y 𝜃2∗ 𝜃𝑛∗ son insesgados. En esta situación para evaluar su eficiencia
relativa se comparan sus varianzas, considerando al más eficiente aquél que
T1
tenga la menor varianza.
𝑉 𝜃1∗ = 1, indiferente
𝑒 𝜃1∗ , 𝜃2∗ = ∗ ൞
> 1, se elige 𝜃2∗
𝑉 𝜃2 10
< 1, se elige 𝜃1∗
Propiedades de los estimadores
Eficiencia
Eficiencia relativa
Si 𝜃1∗ y 𝜃2∗ 𝜃𝑛∗ son sesgados. En este caso, la comparación de las respectivas
varianzas no será válida, ya que éstas no consideran el sesgo de los
estimadores. Para ello se recurre al error cuadrático medio (ECM)
El ECM es la desviación cuadrática media, es decir, es la concentración de
las estimaciones respecto al verdadero valor del parámetro.
𝐸𝐶𝑀 𝜃 ∗ = 𝐸 𝜃 ∗ − 𝜃 2
= 𝑉 𝜃 ∗ + 𝑏2 𝜃
sesgo2
T1
Si se tienen dos estimadores de un mismo parámetro, 𝜃1∗ y 𝜃2∗ , el índice de
eficiencia relativa es:
T1
Cota de Frechet-Cramer-Rao
Sea 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 una muestra aleatoria simple de tamaño 𝑛, obtenida de una
población cuya función de distribución 𝐹 𝑥, 𝜃 y sea 𝜃 ∗ un estimador insesgado,
entonces si se cumplen ciertas condiciones, se cumple que
1 + 𝑏′ 𝜃 2
𝑉 𝜃 = 2
𝜕 ln 𝑓 𝑥, 𝜃
𝑛𝐸
𝜕𝜃 12
Un estimador es eficiente en términos absolutos si es insesgado y su varianza
coincide con la Cota
Propiedades de los estimadores
Consistencia
T1
quiere estimar:
1. − lim 𝑃 𝜃𝑛∗ − 𝜃 ≥ 𝜀 = 0,
n→∞
2. − lim 𝑃 𝜃𝑛∗ − 𝜃 < 𝜀 = 1
𝑃
Es lo mismo que: 𝜃𝑛∗ →𝜃 o 𝑝𝑙𝑖𝑚𝜃𝑛∗ = 𝜃.
Sólo para introducir este concepto diremos que un estimador es suficiente cuando
resuma el conjunto de información relevante contenido en la muestra y ningún otro
estadístico pueda proporcionar información adicional del parámetro 𝜃 desconocido de
la población.
T1
concreto de 𝑇 es independiente de 𝜃, tanto para el caso discreto como continuo.
14
Métodos de Estimación
Hasta ahora hemos supuesto que los estimadores nos eran dados. Pero,
T1
• El método de máxima-verosimilitud, muy importante porque conduce
a estimadores con muy buenas propiedades.
T1 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ෑ 𝑓 𝑥𝑖 , 𝜃
𝑖=1
Dado que el estimador que se obtenga debe maximizar la verosimilitud, se tiene que
maximizar dicha función.
𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃መ = max 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃
𝜃∈Θ
La FV es una función positiva y coincide sus máximos con los de la función
ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 (por ser una transformación monótona creciente). 16
Por tanto se suele maximizar ésta última.
Métodos de Estimación
Método de Máxima Verosimilitud
ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ln 𝑓 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃 = ln 𝑓 𝑥𝑖 , 𝜃
𝑖=1
3º Maximizar esa función
𝑛
T1 𝜕 ln 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 , 𝜃
𝜕𝜃
=
𝑛
𝜕 ln 𝑓 𝑥𝑖 , 𝜃
𝜕𝜃
=0
𝑖=1
𝜃መ = 𝜃መ 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛
17
que es una función de la muestra
Métodos de Estimación
Método de Máxima Verosimilitud
Ejemplo. Sea una muestra aleatoria simple 𝒙𝟏 , 𝒙𝟐 , ⋯ , 𝒙𝒏 procedente de una población normal
𝑵 𝝁, 𝝈 , obtenga los estimadores máximo verosímil de los parámetros 𝝁 𝒚 𝝈𝟐 .
T1 𝜕 𝑙𝑛 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 2
𝜕𝜇
=−
2 σ 𝑥𝑖 − 𝜇 −1
2𝜎 2
= 0 → 𝑥𝑖 = 𝑛𝜇 → 𝜇Ƹ 𝑀𝑉 = 𝑥ҧ
𝜕 2 𝑙𝑛 𝐿 𝑥1 , 𝑥2 , ⋯ , 𝑥𝑛 ; 𝜇, 𝜎 2 𝑛
อ =− <0
𝜕𝜇2 𝜎2
ෝ =𝑥ҧ
𝜇
2 2 σ xi − μ 2 2
𝜕 ln L x1 , x2 , ⋯ , xn ; μ, σ n 1 σ xi − μ σ xi − xത
=− ∙ 2+ =0→ σ2MV
ෝ = อ 2
→S =
𝜕σ2 2 σ 2σ4 n n
ෝ =തx
μ
18
Métodos de Estimación
Método de Máxima Verosimilitud
• Son consistentes.
T1
• 𝜃መ𝑀𝑉 ~𝑁 𝜃,
𝑛𝐸
1
𝜕 ln 𝑓 𝑥,𝜃 2
.
𝜕𝜃
• Por tanto, son asintóticamente UMVES. Estos estimadores no tienen por qué ser
eficientes, pero si existe este será el obtenido por el procedimiento máximo
verosímil.
19
• En general, no son insesgados, pero si no son insesgados son asintóticamente
insesgados, cuando el tamaño muestral es suficientemente grande.