Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Clase 6 Estimación Puntual PDF
Clase 6 Estimación Puntual PDF
23 de junio de 2020
Solución.
Para ello se considera la función de masa de probabilidad conjunta de la
muestra:
p(x1 , x2 , . . . , xn , p) = P [X1 = x1 , X2 = x2 , . . . , Xn = xn ]
= P [X1 = x1 ] × P [X2 = x2 ] × · · · × P [Xn = xn ]
= px1 (1 − p)1−x1 × px2 (1 − p)1−x2 × · · · × pxn (1 − p)1−xn
n
P n
P
xi n− xi
= pi=1 (1 − p) i=1 .
n
P
Por el Teorema de Factorización de Fisher-Neyman, tomando t = xi ,
i=1
n
h(x1 , x2 , . . . , xn ) = 1 y g(t, p) = pt (1 − p)n−t , se obtiene que T =
P
Xi es un
i=1
estimador suficiente para p.
Ejemplo 2
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
1
distribución
Γ 1, λ , cuya función de densidad es:
1 e− λx , si x > 0
f (x) = λ
0, si x ≤ 0.
Obtener un estadístico suficiente para el parámetro λ.
Solución.
La función de densidad conjunta de la muestra es:
f (x1 , x2 , . . . , xn ; λ) = f (x1 ; λ) × f (x2 ; λ) × · · · × f (xn ; λ)
1 − x1 1 x2 1 xn
= e λ × e− λ × · · · × × e− λ
λ λ λ
n
1 P
1 1 1 − λ (i=1 xi )
= n e− λ (x1 +x2 +···+xn ) = n e × 1.
λ λ
Solución.
n
P
Por lo tanto, si hacemos t = T (x1 , x2 , . . . , xn ) = xi , entonces se
i=1
n
1 − λ1 (i=1 xi )
P
1 t
tiene g (T (x1 , x2 , . . . , xn ); λ) = e = n e− λ y
λn λ
h(x1 , x2 , . . . , xn ) = 1.
Luego tendremos la siguiente factorización:
Teorema 1
Si el estadístico T1 es suficiente y es función con inversa única del
estadístico T2 , T1 = f (T2 ), entonces el estadístico T2 es también
suficiente.
Demostración.
Sea T1 = f (T2 ), donde f es inyectiva. Entonces existe la inversa
T2 = f −1 (T1 ) con lo cual, por ser T1 , suficiente, tenemos que:
Teorema 3
Ejemplo 3
Solución.
La función de verosimilitud de la muestra es:
n (x −µ) 2
(x −µ) 2
Y 1 − 1 2 1 − n 2
L(µ, σ 2 ) = f (xi ; µ, σ 2 ) = √ e 2σ ··· √ e 2σ
i=1
σ 2π σ 2π
n
(xi −µ)2 n
P
− 12 (xi −µ)2
P
1 − i=1 − n
= √ n e 2σ 2 = 2πσ 2 2 e 2σ i=1
σ 2π
!
n n
− 12 x2 xi +nµ2
P P
− n 2σ i −2µ
= 2πσ 2 2 e i=1 i=1
.
Solución.
Podemos distinguir los siguientes tres casos:
1. Si µ es conocido, tomemos en la tercera igualdad
n
− 2σ12 (xi −µ)2
P
−n 2 2 −n
h(x1 , x2 , . . . , xn ) = (2π) y g(T ; σ ) = (σ )
2 2 e i=1 .
n
(Xi − µ) es suficiente para σ 2 .
2
P
Entonces
i=1
2
2. Si σ es conocido, tomemos en la cuartaigualdad
n
− 2σ12 x2i
P
−n
h(x1 , x2 , . . . , xn )= (2π) 2 e
i=1 y
n
− 2σ12 xi +nµ2
P
−2µ
g(T ; µ) = e i=1 .
Pn
Entonces Xi es suficiente para µ.
i=1
Solución.
3. Si ambos son desconocidos, entones tenemos en la cuarta igualdad
n
h(x1 , x2 , . . . , xn ) = (2π)− 2 y
n n
1
x2i −2µ xi +nµ2
P P
− 2
g(T ; µ, σ 2 ) = e 2σ i=1 i=1
.
n n
Xi2 es suficiente para µ, σ 2 .
P P
Entonces T = Xi ,
i=1 i=1
Siguiendo la notación utilizada, tenemos que:
n
X n
X
T1 = Xi y T2 = Xi2
i=1 i=1
X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn
n
Y
f (y1 , y2 , . . . , yn ; θ) = f (yi ; θ)
i=1
Ejemplo 4
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población binomial, B(1, p). Obtener, si existe, un estadístico mínimal
suficiente para el parámetro p.
Solución.
En un ejemplo anterior ya se había obtenido un estadístico suficiente para
Pn
el parámetro p, y veíamos que, efectivamente, el estadístico T = Xi
i=1
era suficiente para p.
Ahora vamos a tratar de obtener un estadístico mínimal suficiente, para
ello consideramos dos muestras de tamaño n.
X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn
Solución.
n
P xi
p i=1 n n
P xi −
P
yi
1−p p i=1 i=1
= n =
P
yi 1−p
p i=1
1−p
Ejemplo 5
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
distribución N (µ, 1). Obtener un estimador minimal suficiente para el
parámetro µ.
1 Pn
Resultando que efectivamente el estadístico X = Xi , será minimal
n i=1
suficiente para el parámetro µ.
Solución.
Consideramos dos muestras de tamaño n.
X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn
Solución.
(x1 −µ)2 (xn −µ)2
f (x1 , x2 , . . . , xn ; µ) √1 e− 2 . . . √1 e− 2
2π 2π
= 2
f (y1 , y2 , . . . , yn ; µ)
(y1 −µ) (yn −µ)2
√1 e− 2 . . . √1 e− 2
2π 2π
!
n n
−1 (xi −µ)2 − (yi −µ)2
P P
2
i=1 i=1
=e
! !
n n n n
−1 x2 yi2 +µ
P P P P
2 i− xi − yi
i=1 i=1 i=1 i=1
=e
Solución.
En el ejemplo (3) ya habíamos obtenido dos estadísticos conjuntamente
suficientes para los parámetros µ y σ 2 . Veamos si existen dos estadísticos
que sean conjuntamente mínimal suficientes para los parámetros µ y σ 2 .
Consideramos dos muestras de tamaño n
X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn
Solución.
y obtenemos el cociente de las funciones de densidad conjunta de las
muestras:
(x1 −µ)2 (xn −µ)2
f (x1 , x2 , . . . , xn ; µ, σ 2 ) √1
σ 2π
e− 2σ2 . . . σ√12π e− 2σ2
= (y1 −µ)2 (yn −µ)2
f (y1 , y2 , . . . , yn ; µ, σ 2 )
− 2σ2
√1
σ 2π
e . . . √1
σ 2π
e− 2σ2
n
n P (xi −µ)2
− 2σ 2
√1 e i=1
σ 2π
= n
(yi −µ)2
n − P
1 2σ 2
√
σ 2π
e i=1
n n
− 2σ12 (xi −µ)2 − (yi −µ)2
P P
=e i=1 i=1
n n
µ P n n
− 2σ12 x2i − yi2 +
P P P
xi − yi
=e i=1 i=1 σ 2 i=1 i=1
Solución.
que como vemos depende de los parámetros µ y σ 2 , únicamente no
dependerá de estos parámetros si y sólo si:
n
X n
X n
X n
X
x2i = yi2 y xi = yi
i=1 i=1 i=1 i=1
∂ log g(θ;
b θ)
o bien, sustituyendo A(θ)(θb − θ) por , tendremos
∂θ
De donde,
b θ) × h(x1 , x2 , . . . , xn ) .
log dFn (x1 , x2 , . . . , xn ; θ) = log g(θ;
Es decir,
b θ) × h(x1 , x2 , . . . , xn )
dFn (x1 , x2 , . . . , xn ; θ) = g(θ;
Ejemplo 7
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población con distribución de Poisson de parámetro λ > 0, donde el
parámetro λ se estima a partir de la media X de la muestra aleatoria
simple del tamaño n. Obtener:
a) Un estimador eficiente para el parámetro λ.
b) Un estimador suficiente para el parámetro λ.
Solución.
a) La función de masa de probabilidad de Poisson viene dada por:
x
−λ λ
e , si x = 0, 1, 2, . . .
p(x; λ) = x! .
0, e.o.c.
Solución.
1
V ar(λ)
b = " 2 # .
∂ log p(x; λ)
nE
∂λ
" 2 # " 2 #
∂ log p(x; λ) X −λ
n h 2
i
nE = nE E (X − λ) =
∂λ λ2
λ
n n n
= 2 V ar(X) = 2 (λ) =
λ λ λ
Solución.
pues en la distribución de Poisson sabemos que E[X] = λ y V ar[X] = λ.
Pero sabemos que en la distribución de Poisson el parámetro λ se estima
mediante la media X de una muestra aleatoria simple; siendo la media
muestral X un estimador insesgado del parámetro λ, es decir E[X] = λ.
λ
Como V ar[X] = , sustituyendo en la expresión de la Cota de
n
Frechet-Cramer-Rao, resulta:
1 λ
" 2 # = n = V ar[X].
∂ log p(x; λ)
nE
∂λ
Solución.
b) Obtengamos ahora un estimador suficiente para el parámetro λ.
Aplicando el Teorema de factorización de Fisher-Neyman,
tendremos que probar:
pλ (x1 , x2 , . . . , xn ) = p(x1 , x2 , . . . , xn ; λ)
De modo que,
(
p(x1 ; λ) · p(x2 ; λ) . . . p(xn ; λ), si x = 0, 1, 2, . . .
p(x1 , x2 , . . . , xn ; λ) =
0, e.o.c.
x x x
e−λ λ 1 · e−λ λ 2 . . . e−λ λ n ,
si x = 0, 1, 2, . . .
p(x1 , x2 , . . . , xn ; λ) = x1 ! x2 ! xn !
0, e.o.c.
Solución.
Por lo tanto,
n
P
xi
λ
i=1
e−nλ
, si x = 0, 1, 2, . . .
n
p(x1 , x2 , . . . , xn ; λ) = Q
x !
i
i=1
0, e.o.c.
Solución.
Luego,
n
!
X
pλ (x1 , x2 , . . . , xn ) = g xi ; λ × h(x1 , x2 , . . . , xn ).
i=1
n
P
Por lo tanto, el estadístico Xi es un estimador suficiente para el
i=1
parámetro λ.
n
P
Como el estadístico Xi es función biyectiva del estadístico X, pues
i=1
n
P n
P
Xi = nX, y Xi es suficiente, entonces por el teorema (1) resulta
i=1 i=1
que el estadístico X también es suficiente para el parámetro λ.
Luego, el estadístico media muestral es un estimador suficiente y eficiente
para el parámetro λ.
Una buena pregunta es, por qué en el Teorema de Rao Blackwell el nuevo
estimador g(T ) = E[θ|T
b ], se necesita que T sea suficiente.
La respuesta es porque si T no es suficiente, g(T ) no sería un estadístico,
en otras palabras dependería del parámetro.
Ejemplo 8
Sea X1 , X2 una muestra aleatoria simple de tamaño n = 2 de una
población N (θ, 1).
X1 + X2
Entonces θb = es un estimador insesgado para θ.
2
Sea T = X1 . Entonces T es un estimador, pero no es suficiente para θ.
Luego,
b ] = E X1 + X2 |X1
g(T ) = E[θ|T
2
1 1
= E [X1 |X1 ] + E [X2 |X1 ]
2 2
1 1 1 1
= X1 + E[X2 ] = X1 + θ,
2 2 2 2
esto no es un estadístico.
Esto paso porque T no fue un estadístico suficiente.
Corolario 1
Si existe un estimador θb U M V U E, entonces debe ser función del
estadístico mínimal suficiente para el parámetro θ, el cual es U M V U E.
Ejemplo 9
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población con población Ber(p). Encontrar el U M V U E usando el
teorema de Rao Blackwell.
Solución.
Primero veamos que pb = X1 es un estimador insesgado para p. En efecto:
E[b
p] = E[X1 ] = p.
Pn
Además, sabemos que el estadístico T = Xi es suficiente para p.
i=1
Solución.
Entonces
" n
#
X
p|T = t] = E X1 |
g(T ) = E[b Xi = t
i=1
n
! n
!
X X
=0×P X1 = 0| Xi = t +1×P X1 = 1| Xi = t
i=1 i=1
n
P
n
! Xi
X i=1 t
=1×P X1 = 1| Xi = t = = .
i=1
n n
Solución.
Puesto que
n n
P P
n
! P X1 = 0, Xi = t P X1 = 0, Xi = t
n i=1 n i=2
X
P X1 = 0| Xi = t = =
P P
i=1 P Xi = t P Xi = t
i=1 i=1
n
P
P (X1 = 0) × P Xi = t
i=2
= n
P
P Xi = t
i=1
n−1 t
(1 − θ) × t
θ (1 − θ)n−1−t
= n t
t
θ (1 − θ)n−t
n−1
t n−t t
= n = =1− .
t
n n
Solución.
Por lo tanto, la probabilidad
del complemento es
Pn t
P X1 = 1| Xi = t = .
i=1 n
Pn
Xi
Note que el estadístico g(T ) = i=1 = X es insesgado para p y tiene
n
menor varianza que pb.
E[h(X)] = 0
implica que:
P (h(X) = 0) = 1
en todos los puntos para los cuales f (x; θ) > 0 para algún θ.
Definición 3
Un estadístico T es completo si la correspondiente familia de
distribuciones de T es completa.
Solución.
Teniendo en cuenta la definición (2), vemos que para cualquier función
d
real h(x) de una variable aleatoria X = B(n, p) la identidad
n
X n
E[h(X)] = h(x)P x (1 − p)n−x = 0, ∀p ∈ (0, 1)
x=0
x
implica necesariamente
que h(x) = 0, ∀x = 1, 2, . . . , n ya que la
n n
h(x)px (1 − p)n−x es un polinomio en p de grado n, y
P
expresión
x=0 x
para que tome el valor cero para todo valor del parámetro p es necesario
que todos sus coeficientes, h(x), sean nulos.
Luego, P (h(X) = 0) = 1, ∀p ∈ (0, 1) y la familia es completa.
Ejemplo 11
Supongamos una muestra aleatoria simple X1 , X2 , . . . , Xn procedente de
n
P
una población B(1, p), y sea el estadístico T = Xi . Comprobar si el
i=0
estadístico T es completo.
Solución.
Sabemos que la distribución binomial es reproductiva respecto al
parámetro n, y hemos visto en el ejemplo anterior que la familia de
distribuciones binomiales {B(n, p)} es completa.
n
P
Luego, el estadístico T = Xi es completo pues, sigue una distribución
i=0
B(n, p), por la reproductividad de la distribución B(1, p).
g(T ) = E[θ|T
b ].
Demostración.
Por el Teorema de Rao-Blackwell sabemos que E[θ|T
b ] es un estimador
insesgado para θ.
Teorema 6