Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Estimación puntual
Estadı́stica
Ingenierı́a Informática
Curso 2009-2010
1 Introducción
2 Construcción de estimadores
Método de los momentos
Método de máxima verosimilitud
puntual
estimación
por intervalos
de confianza
Inferencia estadı́stica
sobre parámetros
constrastes de hipótesis
de Bondad de Ajuste
Estimación puntual
Estimación mediante un solo valor de los parámetros de una distribución.
Construcción de estimadores
a1 = α1
a2 = α2
...
ak = αk
Ejemplo 1. X ≡ Exp(λ):
Sea una variable aleatoria con distribución exponencial de
parámetro λ; queremos encontrar el estimador del parámetro
usando el método de los momentos.
Como sólo existe un parámetro, será : α1 = a1
1
El primer momento es la media, y en la exponencial es , por lo que:
λ
n
X
Xi
1 i=1 n 1
= ⇒ λ̂ = n = ,
λ n X X̄
Xi
i=1
α1 = µ; α2 = σ 2 + µ2 .
Para una muestra de tamaño 3, con los valores (20, 19, 22), se obtiene la
estimación p̂ = 13,1 y r̂ = −22...
p(x1 ) · ... · p(xn ), en el caso discreto
L(θ) = L(θ|x1 , ..., xn ) =
f (x1 ) · ... · f (xn ), en el caso continuo
El EMV de θ es el formado por los valores (θˆ1 , ..., θˆk ) que maximizan
la función de verosimilitud de la muestra (x1 , ..., xn ) obtenida.
Propiedad de invarianza:
Si θ̂ es el EMV de θ, y g es una función biyectiva y diferenciable, entonces
g (θ̂) es el EMV de g (θ).
Ejemplo 1. X ≡ P(λ):
Vamos a calcular el EMV del parámetro λ de una distribución de
Poisson P(λ), para una muestra de tamaño n.
Construimos la función de verosimilitud de la muestra:
n n Pn
Y Y e −λ λxi e −nλ λ i=1 xi
L λ̂ = p(xi ) = = Qn
xi ! i=1 xi !
i=1 i=1
f (x) = 1, x ∈ (θ, θ + 1)
Su logaritmo es:
n n 1 X
log(L(θ)) = − log(σ 2 ) − log(2π) − 2 (xi − µ)2
2 2 2σ
Las derivadas parciales con respecto a los parámetros µ y σ 2 son:
∂ log(L(x1 , . . . , xn , λ)) 1 X
= 2 (xi − µ)
∂µ σ
∂ log(L(x1 , . . . , xn , λ)) n 1 X
2
=− 2 + (xi − µ)2
∂σ 2σ 2(σ 2 )2
que se anulan en:
b)2
P P
xi c2 = (xi − µ
µ
b= y σ
n n
Estadı́stica (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 16 / 30
Construcción de estimadores Método de máxima verosimilitud
∂ 2 log(L(x1 , . . . , xn , λ))
n
=− 2
∂µ 2 σ
2
∂ log(L(x1 , . . . , xn , λ)) 1 X
=− 2 2 (xi − µ) ⇒
∂µ∂σ 2 (σ )
2
∂ log(L(x1 , . . . , xn , λ)) n 1 X
= − 2 3 (xi − µ)2
2 2 2 2
∂(σ ) 2(σ ) (σ )
n
!
−c 0
Hθ̂ = σ2 (Matriz hessiana en θ̂)
n
0 − 2
2σ 2
c
Estimadores insesgados
Ejemplo 1.
Sabemos que, en cualquier población:
n−1 2
E sn2 =
2
= σ2,
E X̄ = µ, σ , E sn−1
n
E [p̂] = p
la proporción muestral es insesgada para la proporción poblacional p
Ejemplo:
Consideremos una población Bernouilli de parámetro θ desconocido.
Supongamos que tenemos dos estimadores θ̂1 y θ̂2 dados por
nX̄ + 1
θ̂1 = X̄ , θ̂2 = .
n+2
Por una parte: h i h i nθ + 1
E θ̂1 = θ y E θ̂2 =
n+2
Ejemplo (cont.):
Calculemos la cota de Cramer-Rao (CCR): como f (X ; θ) = θx (1 − θ)1−x :
y tomando esperanzas:
2
∂ f (X ; θ) 1 1 −1
E =− − = ,
∂θ2 θ 1−θ θ(1 − θ)
1 θ(1 − θ)
⇒ CCR = − = = V (θ̂1 )
∂ 2 f (X ; θ)
n
nE
∂θ2
θ̂1 es eficiente pero θ̂2 tiene menor varianza
Estadı́stica (Aurora Torrente) 8. Estimación puntual Curso 2009-2010 25 / 30
Propiedades de los estimadores Estimadores eficientes
B(θ̂) = E [θ] − θ
se tiene que
2
ECM(θ̂) = V (θ̂) + B(θ̂)
Ejemplo:
Vamos a calcular el EMV de θ para la distribución uniforme en
(0, θ), utilizando una muestra aleatoria de tamaño n.
n n
1 1
L(X1 , ..., Xn ; θ) = · I{0≤Xi ≤θ, ∀i} = · I{θ≥X(n) } · I{X(1) >0} ,
θ θ
n
1
que toma el valor en el intervalo [ X(n) , +∞) y toma el valor 0
θ
fuera de dicho intervalo.
n
1
decreciente con θ ⇒ el máximo se alcanza en θ̂ = X(n)
θ
Ejemplo (cont.):
Como vimos anteriormente, la función de distribución del estimador X(n)
es:
Ejemplo (cont.):
También sabemos que:
θ
x n−1
Z
nθ
E X(n) = xn n
dx =
0 θ n+1
Calculemos la varianza de X(n)
θ 2
x n−1 nθ2
Z
2 nθ
V X(n) = x n n dx − = →0
0 θ n+1 (n + 1)2 (n + 2)