Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Métodos de Obtención de
Estimadores
11.1. Introdución
En el capı́tulo anterior estudiamos las propiedades de los estimadores. Ahora
trataremos de obtener dichos estimadores y que cumplan con las propiedades de
un buen estimador.
Los métodos que encontramos para determinar estimadores son:
El método de la mı́nima χ2 .
252
11. Métodos de Obtención de Estimadores 253
para j = 1, k.
Generalmente αj , será una función de los k-parámetros θ1 , . . . , θk :
αj (θ1 . . . , θk ), j = 1, k .
Sea la m.a. X1 , . . . , Xn de la población y calculándo los k-primeros momentos
respecto al origen, a1 , . . . , aj para estas observaciones muestrales:
n n n
X Xi X Xj i
X Xk i
a1 = , ..., aj = , ..., ak = .
n n n
i=1 i=1 i=1
α1 (θ1 , . . . , θk ) = a1
..
.
αj (θ1 , . . . , θk ) = aj
..
.
αk (θ1 , . . . , θk ) = ak
y tenemos:
Propiedad 11.5 En general los EMV no son insesgados. Pero si no son inses-
gados entonces son asintóticamente insesgados.
θ̂ ∼ N(θ, Var(θ̂)) ,
11.4. Ejemplos
Estos son varios ejemplos que he tomado de libros que aparecen en la bibli-
ografı́a.
Ejemplo 11.1 Demostrar las propiedades de los estimadores obtenidos por el
método de los momentos.
Insesgadez. Puesto que los parámetros a estimar son momentos poblacionales
respecto al origen, αj , tendremos para una muestra aleatoria (X1 , . . . , Xn ) que:
n
1X j
α̂j = aj = Xi , j = 1, . . . , k
n
i=1
Tomando valores esperados resulta que:
n
!
1X j
E(α̂j ) = E Xi
n
i=1
n
!
1 X j
= E Xi
n
i=1
n
1X
= E(Xij )
n
i=1
n
1X
= E(X j )
n
i=1
1
= · nE(X j )
n
= αj
Luego vemos que son estimadores insesgados.
Normalidad asintótica. Como los parámetros a estimar son los momentos
poblacionales, αj , que para una muestra aleatoria simple (X1 , . . . , Xn ) son:
n
X Xj i
α̂j = aj =
n
i=1
X1j Xnj
= + ··· +
n n
resultando que el estimador α̂j = aj se puede expresar como suma de n variables
Xij
aleatorias n , independientes e idénticamente distribuidas con media y varianza:
!
Xij αj
E =
n n
11. Métodos de Obtención de Estimadores 258
!
Xij 1
Var = Var(Xij )
n n2
1
= E[(Xij − E(Xij ))2 ]
n2
1
= 2 E[(Xij − αj )2 ]
n
1
= 2 (α2j − αj2 )
n
y la media y la varianza del estimador α̂j = aj , será:
n
!
X Xij
E(α̂j ) = E(aj ) = E = αj
n
i=1
n
!
X Xj i
Var(α̂j ) = Var(aj ) = Var
n
i=1
n
!
X Xij α2j − αj2
= Var =
n n
i=1
Ejemplo 11.2 Sea (X1 , . . . , Xn ) una muestra aleatoria obtenida de una población
que sigue una distribución de Poisson de parámetro λ, desconocido. Obtener un
estimador del parámetro λ utilizando el método de los momentos.
Solución. Aplicando el método de los momentos igualaremos el momento de
orden uno, respecto al origen, de la población α1 , al momento de orden uno de la
11. Métodos de Obtención de Estimadores 259
muestra a1 .
∞
X
α1 (λ) = E(X) = xi · Pr(X = xi )
i=1
∞
X λxi −λ
= xi · e
xi !
i=0
∞
−λ
X λxi−1
=e λ
(xi−1 )!
i=0
−λ λ
=e λe
=λ
n
X Xi
a1 = = X̄
n
i=1
Luego igualando
α1 (λ) = a1
Ejemplo 11.3 Sea (X1 , . . . , Xn ) una muestra aleatoria procedente de una B(p).Obtener
el estimador del parámetro p, utilizando el método de los momentos.
Solución. Sabemos de la distribución B(p) que la media o momento de orden
uno respecto al origen es:
α1 (p) = p
Pn
y si hacemos X = i=1 Xi ≡ número de exitos en las n pruebas:
X
p̂ =
n
Este estimador, como veremos después, es también el estimador obtenido por
el método de la máxima verosimilitud. J
α1 = a1
con a1 = X̄.
Por tanto,
1
= X̄
a
con lo que
1
â =
X̄
J
Ejemplo 11.5 Obtener el estimador del parámetro θ de una ley cuya función de
densidad es:
2
f (x|θ) = (θ − x) si 0 < x < θ
θ2
utilizando e método de los momentos para una muestra aleatoria simple de tamaño
2.
11. Métodos de Obtención de Estimadores 261
θ̂ = 3X̄
y si la muestra es de tamaño 2:
X1 + X2
θ̂ = 3
2
J
Ejemplo 11.6 Sea (X1 , . . . , Xn ) una m.a.s. procedente de una población B(p),
en donde p es desconocido. Obtener el estimador de máxima verosimilitud del
parámetro p.
Solución. Sabemos que la función de probabilidad es:
n Pn
i=1 xi X
X
xi − np = 0 ⇒ p̂ = = = x̄
n n
i=1
∂ 2 ln L
Calculando la tenemos:
∂p2
∂ 2 ln L(x1 , . . . , xn |p) − ni=1 xi n − ni=1 xi
P P
= −
∂p2 p2 (1 − p)2
2
Pn Pn 2
−(1 − p) i=1 xi − (n − i=1 xi ) p
=
p2 (1 − p)2
y particularmente para p = x̄, se tiene:
∂ 2 ln L(x1 , . . . , xn |p)
n n
=− + <0
∂p2 x̄ 1 − x̄
con lo cual podemos decir que se trata de un máximo. Luego el estimador de
máxima verosimilitud es
X
p̂ = x̄ =
n
J
n
∂ ln L(x1 , . . . , xn |θ) n X
= + ln xi = 0
∂θ 1+θ
i=1
n
θ= Pn −1
− i=1 ln xi
Pn
i=1 xi
θ= = x̄
n
E(X) = θ
Var(X) = θ2
Luego
Var(X) θ2
Var(θ̂) = Var(X̄) = =
n n
11. Métodos de Obtención de Estimadores 265
o bien
1
Var(θ̂) = h i
∂ 2 ln f (x|θ)
−nE ∂θ2
x
ln f (x|θ) = − ln θ − , x>0
θ
∂ ln f (x|θ) 1 x
= − + 2, x>0
∂θ θ θ
∂ 2 ln f (x|θ) 1 2x
2
= 2 − 3, x>0
∂θ θ θ
∂ 2 ln f (x|θ)
1 2X
E = E 2− 3
∂θ2 θ θ
1 2
= − E(X)
θ2 θ3
1 2
= − ·θ
θ2 θ3
1 2 1
= 2
− 2 =− 2
θ θ θ
Ası́ la cota de Frechet-Cramer-Rao será:
1 1 θ2
h i= −1 =
∂ 2 ln f (x|θ) −n n
−nE ∂θ2 θ2
que coincide con la Var(θ̂), siendo por tanto el estimador de máxima verosimil-
itud, para este ejemplo, eficiente.
11. Métodos de Obtención de Estimadores 266
Ejemplo 11.9 Sea una población cuya distribución de probabilidad viene dada
por:
Pr(X = 1) = p3
Pr(X = 2) = 3p2 q
Pr(X = 3) = 3pq 2
Pr(X = 4) = q 3
= 39 p22 q 32
= 39 p22 (1 − p)32
22(1 − p) − 32p = 0
α1 (θ) = a1
donde a1 = X̄
Z +∞
α1 (θ) = E(X) = xeθ−x dx
θ
haciendo
u = x ; du = dx
dv = eθ−x dx ; v = −eθ−x
e integrando por partes, se tiene que
h i+∞ Z +∞
θ−x
α1 (θ) = E(X) = −xe + eθ−x dx
θ θ
h i+∞
= θ + −eθ−x =θ+1
θ
Por tanto al igualar el momento poblacional de orden uno respecto al origen con
el muestral:
θ + 1 = X̄
θ̂ = X̄ − 1
J
11. Métodos de Obtención de Estimadores 268
entonces
n
X
−2nθ + xi = 0
i=1
se obtendrı́a que:
n
Y
L(x1 , . . . , xn |θ) = f (xi |θ) = e−x1 +θ · · · e−xn +θ
i=1
nθ− n
P
=e i=1 xi si xi ≥ θ ∀ i = 1, . . . , n
∂ ln L(x1 , . . . , xn |θ)
=n
∂θ
y no existe ningún valor de θ para el cual el resultado anterior sea igual a cero. Este
hecho se produce porque el campo de variación de X depende del parámetro θ.
Por tanto no se puede aplicar el proceso anterior y habrá que encontrar el máximo
de la función de verosimilitud de otra forma:
Se ha encontrado que
nθ − Pn x
e e i=1 i si xi ≥ θ ∀ i = 1, . . . , n
L(x1 , . . . , xn |θ) =
0 en caso contrario
Por tanto máximizar L(x1 , . . . , xn |θ) es lo mismo que maximizar θ; pero como
tiene que ocurrir
θ ≤ mı́n{xi }
i
θ̂ = mı́n{xi }
i
mı́n{xi } ≥ θ
i
entonces
por tanto
máx L(x1 , . . . , xn |θ) ≡ máx enθ ≤ en mı́ni {xi }
θ θ
con lo cual
θ̂ = mı́n{xi }
i
J
para β mayor que, o igual a, la más grande de las x’s y 0 de otra manera. Puesto
que el valor de esta función de verosimilitud aumenta conforme β disminuye,
debemos hacer β tan pequeña como sea posible, y se sigue que el estimador de
máxima verosimilitud de β es Yn , la estadı́stica de n-ésimo orden. Como este valor
es β = máx{x1 , . . . , xn }, el EMV de β es β̂ = máx{X1 , . . . , Xn }. J
11. Métodos de Obtención de Estimadores 271
Hay que resaltar que en el ejemplo anterior, el EMV β̂ no parece ser un es-
timador apropiado de β. Puesto que máx{X1 , . . . , Xn } < β con probabilidad 1,
resulta obvio que β̂ tiende a subestimar el valor de β. De hecho, si se asigna a β
cualquier distribución inicial, entonces el estimador Bayes para β resultará mayor
que β̂. La magnitud en que el estimador Bayes supera a β̂, dependerá naturalmente
de la distribución inicial que se utiliza y de los valores observados de X1 , . . . , Xn .
La única diferencia entre la f.d.p de la uniforme [0, β] y esta última es que el val-
or de la f.d.p. en cada uno de los dos puntos 0 y β se ha cambiado reemplazando las
desigualdades débiles por desigualdades estrictas. Utilizando esta última ecuación,
vemos que un EMV de β será un valor de β tal que β > xi para i = 1, . . . , n y que
maximiza 1/β n . Hay que tener en cuenta que los valores posibles de β no incluyen
el valor β = máx{x1 , . . . , xn }, puesto que β debe ser estrictamente mayor que ca-
da valor observado xi (i = 1, . . . , n). Puesto que θ se puede elegir arbitrariamente
cerca del valor máx{x1 , . . . , xn } pero no se puede elegir a este valor, resulta que
no existe el EMV de β. J
n
X n
X
ln L(x|λ) = −nλ + ln λ xi − ln xi !
i=1 i=1
Pn
∂ ln L(x|λ) i=1 xi
= −n + = 0;
∂λ λ
Pn
xi
λ̂ = i=1 = x̄
n
verificándose la condición de máximo
2
∂ ln L(x|λ) n
2
=− <0
∂λ λ̂=x̄ x̄
J
L(x|µ, σ 2 ) = ln f (x|µ, σ 2 )
n
n n 1 X
= − ln(2π) − ln σ 2 − 2 (xi − µ)2 . (11.7)
2 2 2σ
i=1
Se deben obtener los valores de µ y σ 2 para los cuales L(x|µ, σ 2 ) sea máxima,
determinando los valores de µ y σ 2 que satisfacen las dos ecuaciones siguientes:
∂L(x|µ, σ 2 )
= 0, (11.8)
∂µ
∂L(x|µ, σ 2 )
= 0. (11.9)
∂σ 2
De la ecuación (11.7) se obtiene la relación
n n
!
∂L(x|µ, σ 2 ) 1 X 1 X
= 2 (xi − µ) = 2 xi − nµ .
∂µ σ σ
i=1 i=1