Está en la página 1de 43

Propiedades de los estimadores puntuales

Elías José Salazar Buelvas

23 de junio de 2020

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo
Ejemplo 1
De una población distribuida según una Bernoulli de parámetro p se
extrae una muestra aleatoria simple de tamaño n. Encontrar un
estimador suficiente para el parámetro p.

Solución.
Para ello se considera la función de masa de probabilidad conjunta de la
muestra:
p(x1 , x2 , . . . , xn , p) = P [X1 = x1 , X2 = x2 , . . . , Xn = xn ]
= P [X1 = x1 ] × P [X2 = x2 ] × · · · × P [Xn = xn ]
= px1 (1 − p)1−x1 × px2 (1 − p)1−x2 × · · · × pxn (1 − p)1−xn
n
P n
P
xi n− xi
= pi=1 (1 − p) i=1 .
n
P
Por el Teorema de Factorización de Fisher-Neyman, tomando t = xi ,
i=1
n
h(x1 , x2 , . . . , xn ) = 1 y g(t, p) = pt (1 − p)n−t , se obtiene que T =
P
Xi es un
i=1
estimador suficiente para p.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 2
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
1
distribución
 Γ 1, λ , cuya función de densidad es:
 1 e− λx , si x > 0
f (x) = λ
0, si x ≤ 0.
Obtener un estadístico suficiente para el parámetro λ.

Solución.
La función de densidad conjunta de la muestra es:
f (x1 , x2 , . . . , xn ; λ) = f (x1 ; λ) × f (x2 ; λ) × · · · × f (xn ; λ)
1 − x1 1 x2 1 xn
= e λ × e− λ × · · · × × e− λ
λ λ λ
n
1 P
1 1 1 − λ (i=1 xi )
= n e− λ (x1 +x2 +···+xn ) = n e × 1.
λ λ

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
n
P
Por lo tanto, si hacemos t = T (x1 , x2 , . . . , xn ) = xi , entonces se
i=1
n
1 − λ1 (i=1 xi )
P
1 t
tiene g (T (x1 , x2 , . . . , xn ); λ) = e = n e− λ y
λn λ
h(x1 , x2 , . . . , xn ) = 1.
Luego tendremos la siguiente factorización:

f (x1 , x2 , . . . , xn ; λ) = g (T (x1 , x2 , . . . , xn ); λ) × h(x1 , x2 , . . . , xn )


n
1 − λ1 (i=1 xi )
P
= e ×1
λn
1 t
= n e− λ × 1.
λ
n
P
Y podemos decir que el estadístico T = Xi es un estimador suficiente
i=1
para el parámetro λ.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Observación

Observemos que el estadístico media muestral X es también un estadístico


suficiente para el parámetro λ. En efecto, haciendo
n n
1X X
T = Xi ⇒ nT = Xi
n i=1 i=1

tendríamos la siguiente factorización:


n
1 − λ1 (i=1 xi )
P
1 1
f (x1 , x2 , . . . , xn ; λ) = n e × 1 = n e− λ (nt) × 1
λ λ
= g (T (x1 , x2 , . . . , xn ); λ) × h(x1 , x2 , . . . , xn )

Lo cual indica que pueden existir varios estadísticos suficientes para un


mismo parámetro.

Otro resultado interesante que se ha puesto de manifiesto en el ejemplo


anterior, lo recogemos en el siguiente Teorema, que es una consecuencia
inmediata del teorema de factorización de Fisher-Neyman.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Teorema

Teorema 1
Si el estadístico T1 es suficiente y es función con inversa única del
estadístico T2 , T1 = f (T2 ), entonces el estadístico T2 es también
suficiente.

Demostración.
Sea T1 = f (T2 ), donde f es inyectiva. Entonces existe la inversa
T2 = f −1 (T1 ) con lo cual, por ser T1 , suficiente, tenemos que:

f (x1 , x2 , . . . , xn ; θ) = g (T1 (x1 , x2 , . . . , xn ); θ) × h(x1 , x2 , . . . , xn )


= g (f (T2 )(x1 , x2 , . . . , xn ); θ) × h(x1 , x2 , . . . , xn )
= g ? (T2 (x1 , x2 , . . . , xn ); θ) × h(x1 , x2 , . . . , xn ),

lo cual demuestra que el estadístico T2 también es suficiente.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Teorema

El recíproco del Teorema (1), que no demostraremos, también se verifica


y lo podemos enumerar mediante el siguiente teorema.
Teorema 2
Si los estadísticos T1 y T2 son suficientes para el parámetro θ, entonces
T1 y T2 están relacionados funcionalmente.

Cuando la distribución de la población depende de dos parámetros, como es


el caso de la distribución normal, es interesante determinar dos estadísticos
que sean conjuntamente suficientes para los dos parámetros. En estas
situaciones el teorema de factorización se puede enunciar de la siguiente
forma.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Teorema

Teorema 3

Los estadísticos T1 = T1 (X1 , X2 , . . . , Xn ) y T2 = T2 (X1 , X2 , . . . , Xn )


son conjuntamente suficientes para los parámetros θ1 y θ2 si y
solamente si la función de masa de probabilidad (o la función de densidad
de probabilidad) de la muestra aleatoria simple se puede descomponer
factorialmente de la siguiente forma:

f (x1 , x2 , . . . , xn ; θ1 , θ2 ) = g (T1 , T2 ; θ1 , θ2 ) × h(x1 , x2 , . . . , xn )

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 3

Sea X1 , X2 , . . . , Xn una muestra aleatoria simple de una población


N (µ, σ 2 ). Obtener dos estadísticos que sean conjuntamente suficientes
para los parámetros poblacionales µ y σ 2 .

Solución.
La función de verosimilitud de la muestra es:
n (x −µ) 2
(x −µ) 2
Y 1 − 1 2 1 − n 2
L(µ, σ 2 ) = f (xi ; µ, σ 2 ) = √ e 2σ ··· √ e 2σ

i=1
σ 2π σ 2π
n
(xi −µ)2 n
P
− 12 (xi −µ)2
P
1 − i=1 − n
=  √ n e 2σ 2 = 2πσ 2 2 e 2σ i=1

σ 2π
!
n n
− 12 x2 xi +nµ2
P P
− n 2σ i −2µ
= 2πσ 2 2 e i=1 i=1
.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Podemos distinguir los siguientes tres casos:
1. Si µ es conocido, tomemos en la tercera igualdad
n
− 2σ12 (xi −µ)2
P
−n 2 2 −n
h(x1 , x2 , . . . , xn ) = (2π) y g(T ; σ ) = (σ )
2 2 e i=1 .
n
(Xi − µ) es suficiente para σ 2 .
2
P
Entonces
i=1
2
2. Si σ es conocido, tomemos en la cuartaigualdad
n
− 2σ12 x2i
P
−n
h(x1 , x2 , . . . , xn )= (2π) 2 e 
i=1 y
n
− 2σ12 xi +nµ2
P
−2µ
g(T ; µ) = e i=1 .
Pn
Entonces Xi es suficiente para µ.
i=1

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
3. Si ambos son desconocidos, entones tenemos en la cuarta igualdad
n
h(x1 , x2 , . . . , xn ) = (2π)− 2 y 
n n
1
x2i −2µ xi +nµ2
P P
− 2
g(T ; µ, σ 2 ) = e 2σ i=1 i=1
 .
n n 
Xi2 es suficiente para µ, σ 2 .
P P
Entonces T = Xi ,
i=1 i=1
Siguiendo la notación utilizada, tenemos que:
n
X n
X
T1 = Xi y T2 = Xi2
i=1 i=1

son conjuntamente suficientes para los parámetros µ y σ 2 .

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Estadístico mínimal suficiente

Definición 1 (Estadístico mínimal suficiente)


Diremos que un estadístico es mínimal suficiente, si es suficiente y
cualquier reducción de la información definida por él ya no es suficiente,
es decir, desprecia información que está contenida en la muestra, acerca
del parámetro θ.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Método de Lehmann y Scheffé para obtener un
estadístico mínimal suficiente
Este método parte de la existencia de dos muestras aleatorias simples del
mismo tamaño:

X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn

cuyas respectivas funciones de masa de probabilidad o de densidad conjunta


de las muestras son:
n
Y
f (x1 , x2 , . . . , xn ; θ) = f (xi ; θ)
i=1

n
Y
f (y1 , y2 , . . . , yn ; θ) = f (yi ; θ)
i=1

Se obtiene el cociente de funciones de probabilidad (o de densidad) con-


junta de las muestras:
f (x1 , x2 , . . . , xn ; θ)
f (y1 , y2 , . . . , yn ; θ)

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Método de Lehmann y Scheffé para obtener un
estadístico mínimal suficiente
y si podemos encontrar una función g(x1 , x2 , . . . , xn ) tal que la razón de
funciones de probabilidad o de densidad conjunta no dependa de θ si y
solamente si
g(x1 , x2 , . . . , xn ) = g(y1 , y2 , . . . , yn )
entonces decimos que g(x1 , x2 , . . . , xn ) será el estadístico mínimal sufi-
ciente para el parámetro θ.
Si en lugar de existir un solo parámetro θ, existieran k parámetros, entonces tendríamos
que obtener k funciones
g1 (x1 , x2 , . . . , xn ), g2 (x1 , x2 , . . . , xn ), . . . , gk (x1 , x2 , . . . , xn )
tales que el cociente de funciones de probabilidad no depende de θ1 , θ2 , . . . , θk , si y
solamente si
gi (x1 , x2 , . . . , xn ) = gi (y1 , y2 , . . . , yn ) para i = 1, 2, . . . , k

y entonces decimos que gi (x1 , x2 , . . . , xn ), para i = 1, 2, . . . , k serán los estadísticos


conjuntamente mínimal suficientes para los parámetros θ1 , θ2 , . . . , θk .

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 4
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población binomial, B(1, p). Obtener, si existe, un estadístico mínimal
suficiente para el parámetro p.

Solución.
En un ejemplo anterior ya se había obtenido un estadístico suficiente para
Pn
el parámetro p, y veíamos que, efectivamente, el estadístico T = Xi
i=1
era suficiente para p.
Ahora vamos a tratar de obtener un estadístico mínimal suficiente, para
ello consideramos dos muestras de tamaño n.

X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn

y obtenemos el cociente de funciones de probabilidad conjunta de las


muestras:

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.

p(x1 , x2 , . . . , xn ; p) px1 (1 − p)1−x1 · px2 (1 − p)1−x2 . . . pxn (1 − p)1−xn


= y
p(y1 , y2 , . . . , yn ; p) p 1 (1 − p)1−y1 · py2 (1 − p)1−y2 . . . pyn (1 − p)1−yn
n
P n
P n
P n
P
xi n− xi xi − xi
pi=1 (1 − p) i=1 pi=1 (1 − p) i=1
= n
P n
P
= n
P n
P
yi n− xi yi − xi
pi=1 (1 − p) i=1 pi=1 (1 − p) i=1

n
 P xi
p i=1 n n
 P xi −
P
yi
1−p p i=1 i=1
= n =
  P
yi 1−p
p i=1
1−p

que como vemos depende del parámetro, y únicamente no dependerá del


n
P n
P
parámetro p si y sólo si xi = yi .
i=1 i=1
n
P
Por lo tanto, el estadístico T = Xi es minimal suficiente para p.
i=1

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 5
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
distribución N (µ, 1). Obtener un estimador minimal suficiente para el
parámetro µ.
1 Pn
Resultando que efectivamente el estadístico X = Xi , será minimal
n i=1
suficiente para el parámetro µ.

Solución.
Consideramos dos muestras de tamaño n.

X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn

y obtenemos el cociente de funciones de densidad conjunta de las


muestras:

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
  (x1 −µ)2   (xn −µ)2
f (x1 , x2 , . . . , xn ; µ) √1 e− 2 . . . √1 e− 2
2π 2π
=  2
f (y1 , y2 , . . . , yn ; µ)
 (y1 −µ)   (yn −µ)2
√1 e− 2 . . . √1 e− 2
2π 2π
!
n n
−1 (xi −µ)2 − (yi −µ)2
P P
2
i=1 i=1
=e
! !
n n n n
−1 x2 yi2 +µ
P P P P
2 i− xi − yi
i=1 i=1 i=1 i=1
=e

Esta razón no dependerá del parámetro µ si y solamente si


n
P Pn
xi = yi .
i=1 i=1
n
P
Por lo tanto, el estadístico Xi es minimal suficiente para el parámetro
i=1
n
P
µ. Y puesto que X es una función inyectiva de Xi , resulta que X es
i=1
también un estadístico mínimal suficiente para el parámetro µ.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo
Ejemplo 6
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población cuya función de densidad es:
1 (x−µ)2
f (x; µ, σ 2 ) = √ e− 2σ2 .
σ 2π

Obtener dos estadísticos para los parámetros µ y σ 2 que sean


conjuntamente mínimal suficientes.

Solución.
En el ejemplo (3) ya habíamos obtenido dos estadísticos conjuntamente
suficientes para los parámetros µ y σ 2 . Veamos si existen dos estadísticos
que sean conjuntamente mínimal suficientes para los parámetros µ y σ 2 .
Consideramos dos muestras de tamaño n
X1 , X2 , . . . , Xn y Y1 , Y2 , . . . , Yn

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
y obtenemos el cociente de las funciones de densidad conjunta de las
muestras:
  (x1 −µ)2   (xn −µ)2
f (x1 , x2 , . . . , xn ; µ, σ 2 ) √1
σ 2π
e− 2σ2 . . . σ√12π e− 2σ2
=   (y1 −µ)2  (yn −µ)2
f (y1 , y2 , . . . , yn ; µ, σ 2 )

− 2σ2
√1
σ 2π
e . . . √1
σ 2π
e− 2σ2
n
n P (xi −µ)2
 − 2σ 2
√1 e i=1
σ 2π
= n
(yi −µ)2
 n − P
1 2σ 2

σ 2π
e i=1

 n n

− 2σ12 (xi −µ)2 − (yi −µ)2
P P
=e i=1 i=1

 n n
 µ P n n

− 2σ12 x2i − yi2 +
P P P
xi − yi
=e i=1 i=1 σ 2 i=1 i=1

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
que como vemos depende de los parámetros µ y σ 2 , únicamente no
dependerá de estos parámetros si y sólo si:
n
X n
X n
X n
X
x2i = yi2 y xi = yi
i=1 i=1 i=1 i=1

Resultando que los estadísticos


n
X n
X
Xi y Xi2
i=1 i=1

que ya habíamos visto que eran conjuntamente suficientes, resultan ser


conjuntamente minimal suficientes para los parámetros µ y σ 2 .

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Relación entre el estimador eficiente y suficiente

Si un estimador θb es eficiente, entonces se verifica (por el Teorema) que:

∂ log dFn (x1 , x2 , . . . , xn ; θ)


= A(θ)(θb − θ)
∂θ

∂ log g(θ;
b θ)
o bien, sustituyendo A(θ)(θb − θ) por , tendremos
∂θ

∂ log dFn (x1 , x2 , . . . , xn ; θ) ∂ log g(θ;


b θ)
=
∂θ ∂θ
integrando respecto de θ, y expresando la constante de integración como
log h(x1 , x2 , . . . , xn ) resulta:

log dFn (x1 , x2 , . . . , xn ; θ) = log g(θ;


b θ) + log h(x1 , x2 , . . . , xn ).

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Relación entre el estimador eficiente y suficiente

De donde,
 
b θ) × h(x1 , x2 , . . . , xn ) .
log dFn (x1 , x2 , . . . , xn ; θ) = log g(θ;

Es decir,
b θ) × h(x1 , x2 , . . . , xn )
dFn (x1 , x2 , . . . , xn ; θ) = g(θ;

que por el Teorema de factorización de Fisher-Neyman resulta que el


estimador θb es suficiente.
Luego si el estimador θb es eficiente, también es suficiente.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 7
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población con distribución de Poisson de parámetro λ > 0, donde el
parámetro λ se estima a partir de la media X de la muestra aleatoria
simple del tamaño n. Obtener:
a) Un estimador eficiente para el parámetro λ.
b) Un estimador suficiente para el parámetro λ.

Solución.
a) La función de masa de probabilidad de Poisson viene dada por:
 x
 −λ λ
e , si x = 0, 1, 2, . . .
p(x; λ) = x! .
0, e.o.c.

Por definición para que un estimador λ


b sea eficiente se debe verificar que la
varianza del estimador coincida con la cota de Frechet-Cramer-Rao.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
1
V ar(λ)
b = " 2 # .
∂ log p(x; λ)
nE
∂λ

Aplicando esta expresión a la distribución de Poisson, resulta:

log p(x; λ) = x log λ − log(x!) − λ

∂ log p(x; λ) x x−λ


= −1=
∂λ λ λ

" 2 # " 2 #
∂ log p(x; λ) X −λ
n h 2
i
nE = nE E (X − λ) =
∂λ λ2
λ
n n n
= 2 V ar(X) = 2 (λ) =
λ λ λ

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
pues en la distribución de Poisson sabemos que E[X] = λ y V ar[X] = λ.
Pero sabemos que en la distribución de Poisson el parámetro λ se estima
mediante la media X de una muestra aleatoria simple; siendo la media
muestral X un estimador insesgado del parámetro λ, es decir E[X] = λ.
λ
Como V ar[X] = , sustituyendo en la expresión de la Cota de
n
Frechet-Cramer-Rao, resulta:
1 λ
" 2 # = n = V ar[X].
∂ log p(x; λ)
nE
∂λ

Luego, la media muestral X es un estimador eficiente del parámetro


λ.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
b) Obtengamos ahora un estimador suficiente para el parámetro λ.
Aplicando el Teorema de factorización de Fisher-Neyman,
tendremos que probar:

pλ (x1 , x2 , . . . , xn ) = g(T (x1 , x2 , . . . , xn ); λ) × h(x1 , x2 , . . . , xn )

La función de masa de probabilidad conjunta de la muestra será:

pλ (x1 , x2 , . . . , xn ) = p(x1 , x2 , . . . , xn ; λ)

De modo que,
(
p(x1 ; λ) · p(x2 ; λ) . . . p(xn ; λ), si x = 0, 1, 2, . . .
p(x1 , x2 , . . . , xn ; λ) =
0, e.o.c.
x x x
e−λ λ 1 · e−λ λ 2 . . . e−λ λ n ,

si x = 0, 1, 2, . . .
p(x1 , x2 , . . . , xn ; λ) = x1 ! x2 ! xn !
0, e.o.c.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Por lo tanto,
 n
P
 xi
λ

 i=1
e−nλ

, si x = 0, 1, 2, . . .
n
p(x1 , x2 , . . . , xn ; λ) = Q
x !
 i


 i=1
0, e.o.c.

Así las cosas,


n
 P
 xi 1
e−nλ λi=1 · Q , si x = 0, 1, 2, . . .


n
p(x1 , x2 , . . . , xn ; λ) = xi !


 i=1
0, e.o.c.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Luego,
n
!
X
pλ (x1 , x2 , . . . , xn ) = g xi ; λ × h(x1 , x2 , . . . , xn ).
i=1

n
P
Por lo tanto, el estadístico Xi es un estimador suficiente para el
i=1
parámetro λ.
n
P
Como el estadístico Xi es función biyectiva del estadístico X, pues
i=1
n
P n
P
Xi = nX, y Xi es suficiente, entonces por el teorema (1) resulta
i=1 i=1
que el estadístico X también es suficiente para el parámetro λ.
Luego, el estadístico media muestral es un estimador suficiente y eficiente
para el parámetro λ.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


El papel de la suficiencia en la obtención de
estimadores de mínima varianza
La suficiencia juega un papel importante en la obtención de estimadores
insesgados uniformemente de mínima varianza (U M V U E). Si existe un
estimador U M V U E éste será preferible a cualquier otro estimador inses-
gado de θ, ya que sus valores presentan menos varianza que la de cualquier
otro estimador insesgado; como se pone de manifiesto a continuación.

Teorema 4 (Teorema de Rao-Blackwell)

Sea una población con función de densidad o de masa de probabilidad


representada por f (x; θ) y sea θb un estimador insesgado para el
parámetro θ y T un estadístico suficiente del mismo parámetro θ.
Entonces si hacemos g(T ) = E[θ|T b ], se verifica:
1 g(T ) es un estadístico y es función del estadístico suficiente.
2 E[g(T )] = θ.
3 V ar[g(T )] ≤ V ar[θ].
b
Es decir, el estadístico g(T ) es función del estadístico suficiente, es un estimador
insesgado de θ y su varianza es menor que la del estimador insesgado.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Observación

Este teorema nos indica que dado un estimador insesgado y un estadístico


suficiente, este estadístico suficiente lo podemos utilizar para encontrar otro
estimador g(T ) insesgado y de menor varianza que el primero. Ahora bien,
notemos que aunque g(T ) tiene menor varianza no podemos asegurar que
alcanza la cota de Frechet-Cramer-Rao, esto es, no se puede asegurar que
el estimador g(T ) sea de mínima varianza, es decir, U M V U E. Para ello
recurrimos al Teorema de Lehmann-Scheffé que veremos posteriormente.

Una buena pregunta es, por qué en el Teorema de Rao Blackwell el nuevo
estimador g(T ) = E[θ|T
b ], se necesita que T sea suficiente.
La respuesta es porque si T no es suficiente, g(T ) no sería un estadístico,
en otras palabras dependería del parámetro.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 8
Sea X1 , X2 una muestra aleatoria simple de tamaño n = 2 de una
población N (θ, 1).
X1 + X2
Entonces θb = es un estimador insesgado para θ.
2
Sea T = X1 . Entonces T es un estimador, pero no es suficiente para θ.
Luego,
 
b ] = E X1 + X2 |X1
g(T ) = E[θ|T
2
1 1
= E [X1 |X1 ] + E [X2 |X1 ]
2 2
1 1 1 1
= X1 + E[X2 ] = X1 + θ,
2 2 2 2
esto no es un estadístico.
Esto paso porque T no fue un estadístico suficiente.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Corolario 1
Si existe un estimador θb U M V U E, entonces debe ser función del
estadístico mínimal suficiente para el parámetro θ, el cual es U M V U E.

Ejemplo 9
Sea X1 , X2 , . . . , Xn una muestra aleatoria simple procedente de una
población con población Ber(p). Encontrar el U M V U E usando el
teorema de Rao Blackwell.

Solución.
Primero veamos que pb = X1 es un estimador insesgado para p. En efecto:
E[b
p] = E[X1 ] = p.
Pn
Además, sabemos que el estadístico T = Xi es suficiente para p.
i=1

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Entonces
" n
#
X
p|T = t] = E X1 |
g(T ) = E[b Xi = t
i=1
n
! n
!
X X
=0×P X1 = 0| Xi = t +1×P X1 = 1| Xi = t
i=1 i=1
n
P
n
! Xi
X i=1 t
=1×P X1 = 1| Xi = t = = .
i=1
n n

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Puesto que
n n
   
P P
n
! P X1 = 0, Xi = t P X1 = 0, Xi = t
 n i=1   n i=2 
X
P X1 = 0| Xi = t = =
P P
i=1 P Xi = t P Xi = t
i=1 i=1
n
 
P
P (X1 = 0) × P Xi = t
i=2
=  n 
P
P Xi = t
i=1
n−1 t
(1 − θ) × t
θ (1 − θ)n−1−t
= n t
t
θ (1 − θ)n−t
n−1
t n−t t
= n = =1− .
t
n n

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Solución.
Por lo tanto, la probabilidad
 del complemento es
Pn t
P X1 = 1| Xi = t = .
i=1 n
Pn
Xi
Note que el estadístico g(T ) = i=1 = X es insesgado para p y tiene
n
menor varianza que pb.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Completitud
En la sección anterior hemos estudiado la suficiencia y veíamos que median-
te este concepto podíamos resumir la información contenida en la muestra
sobre un parámetro desconocido de manera más eficiente y sin pérdida
de información sobre el parámetro. Ahora mediante el nuevo concepto de
completitud, veremos que cuando se verifica para un estadístico suficiente
entonces obtenemos mejores estimadores.

Definición 2 (Familia completa)

Una familia de distribuciones {F (x; θ)} es completa si para cualquier


función h(x) la identidad:

E[h(X)] = 0

implica que:
P (h(X) = 0) = 1
en todos los puntos para los cuales f (x; θ) > 0 para algún θ.

Esta definición nos indica que una familia de distribuciones es completa si


el único estimador insesgado de cero es el mismo cero.
Elías José Salazar Buelvas Propiedades de los estimadores puntuales
Estadístico completo

Definición 3
Un estadístico T es completo si la correspondiente familia de
distribuciones de T es completa.

Así pues se pone de manifiesto que la propiedad de completitud es una


propiedad de la familia de distribuciones.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo
Ejemplo 10
Dada la familia de distribuciones binomiales {B(n, p)} , comprobar si es
completa.

Solución.
Teniendo en cuenta la definición (2), vemos que para cualquier función
d
real h(x) de una variable aleatoria X = B(n, p) la identidad
n  
X n
E[h(X)] = h(x)P x (1 − p)n−x = 0, ∀p ∈ (0, 1)
x=0
x

implica necesariamente
  que h(x) = 0, ∀x = 1, 2, . . . , n ya que la
n n
h(x)px (1 − p)n−x es un polinomio en p de grado n, y
P
expresión
x=0 x
para que tome el valor cero para todo valor del parámetro p es necesario
que todos sus coeficientes, h(x), sean nulos.
Luego, P (h(X) = 0) = 1, ∀p ∈ (0, 1) y la familia es completa.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Ejemplo

Ejemplo 11
Supongamos una muestra aleatoria simple X1 , X2 , . . . , Xn procedente de
n
P
una población B(1, p), y sea el estadístico T = Xi . Comprobar si el
i=0
estadístico T es completo.

Solución.
Sabemos que la distribución binomial es reproductiva respecto al
parámetro n, y hemos visto en el ejemplo anterior que la familia de
distribuciones binomiales {B(n, p)} es completa.
n
P
Luego, el estadístico T = Xi es completo pues, sigue una distribución
i=0
B(n, p), por la reproductividad de la distribución B(1, p).

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Estadístico suficiente completo

Definición 4 (Estadístico suficiente completo)


Diremos que un estadístico suficiente T es completo, si la familia de
distribuciones del estadístico suficiente T es completa.

Teorema 5 (Teorema de Lehmann-Scheffé)

Si T es un estadístico suficiente y completo para θ, y si existe un


estimador insesgado θ,
b del parámetro θ, entonces existe un único
estimador U M V U E dado por

g(T ) = E[θ|T
b ].

Luego el problema de encontrar un estimador U M V U E ha quedado re-


ducido a la obtención de un estimador insesgado θb y a calcular el valor
esperado
g(T ) = E[θ|T
b ],

donde T es un estadístico suficiente completo.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Teorema

Demostración.
Por el Teorema de Rao-Blackwell sabemos que E[θ|T
b ] es un estimador
insesgado para θ.

Supongamos que existe θb1 con E(θb1 ) = θ, entonces E[θb1 |T ] es también


insesgado para θ y con menor varianza, entonces la función
g(T ) = E[θb1 |T ] − E[θ|T
b ] verifica que
E[g(T )] = E[E[θ1 |T ] − E[θ|T
b b ]] = E[θ − θ] = 0 para todo θ ∈ Θ.

Por lo tanto al ser T completo se cumple que E[θb1 |T ] = E[θ|T


b ] en casi
todas partes y V ar[E[θ1 |T ]] = V ar[E[θ|T ]] < V ar[θ1 ].
b b b

Para finalizar con la completitud daremos el concepto de estadístico com-


plementario y un teorema que pone de manifiesto la independencia del
estadístico complementario con el estadístico suficiente completo.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales


Estadístico complementario

Definición 5 (Estadístico complementario)


Diremos que un estadístico U es un estadístico complementario para el
parámetro θ, si la distribución de U es independiente de θ.

Teorema 6

Sea el estadístico T suficiente y completo para el parámetro θ, y sea U


un estadístico complementario para θ. Entonces los estadísticos T y U
son variables aleatorias independientes.

Este teorema debido a Basu nos facilita la demostración de la indepen-


dencia de los estadísticos media y varianza muestral de una distribución
normal.

Elías José Salazar Buelvas Propiedades de los estimadores puntuales

También podría gustarte