Está en la página 1de 8

Teorema de Lehmann-Scheffé.

Sea X1, … , Xn una muestra aleatoria con densidad f( ° ; θ). Si S= s(X 1,


…, Xn) es in estadístico suficiente completo y si T* = t*(S), una función
de S, es un estimador insesgado de τ(θ), entonces T* es un UMVUE
de τ(θ).

Demostración:

Sea T’ cualquier estimador insesgado de τ(θ), el cual es una función


de S; que es, T’ = t´(S). Entonces ξθ[T* - T’]≡0 para todo θє , y T* - T’
es una función de S; entonces por completéz de S, P θ[t*(S)= t’(S)]≡1
para todo θє . Por lo tanto sólo hay un estimador insesgado de τ(θ)
que es una función de S. Ahora sea T cualquier estimador insesgado
de τ(θ). T* debe ser igual a ξ[T|S] ya que ξ[T|S] es un estimador
insesgado de τ(θ), que depende de S. **; entonces T* es un UMVUE.

Para encontrar el estimador insesgado de τ(θ) que es una función de


S, hay muchas maneras de proceder. Primero, simplemente se supone
la forma correcta de la función de S que define el estimador deseado.
Segundo, se supone o encuentra cualquier estimador insesgado de
τ(θ), y después se calcula la esperanza condicionada de el estimador
insesgado dado el estadístico suficiente. Tercero, se resuelve para
t*(°) en la ecuación ξθ[T*(S)] ≡τ(θ). Tal ecuación se convierte en la
ecuación integral ∫ t∗¿¿ )fS(S) ds ≡ τ(θ) en el caso de una variable
aleatoria continua S, y se convierte en la suma ∑ t∗( S ) f S (S)≡τ(θ) para
una variable aleatoria discreta S.

Usaremos dos de esos métodos en los siguientes ejemplos.

Ejemplo : Sea X1, … , Xn una muestra alearoia con densidad Poisson:


Para encontrar el UMVUE de λ por si misma, basta suponer una
función de ∑ X i cuya esperanza es λ. Notese que λ es la media
1 1
poblacional, ( n ) ∑ X i es la elección obvia; por lo tanto entonces ( n ) ∑ X i
es el UMVUE de λ.

Considere ahora estimar τ(θ) = e− λ = P[Xi = 0]. Inferiremos el UMVUE


de e− λ calculando la esperanza condicional de algún estimador
insesgado dado el estadístico suficiente.

Cualquier estimador insesgado hará de estimador preliminar cuya


esperanza condicional necesita ser calculada; asi que debemos
escoger uno que pueda hacer los cálculos más fáciles. I {o}(X1) es un
estimador insesgado de e− λ y es relativamente simple ya que supone
solo los valores 0 y 1.

“” Para encontrar la esperanza condicionada deseada, primero


encontramos la distribución condicional de X 1 dado ∑ X i.

Por lo tanto:
Entonces:

Es el UMVUE de e− λ para n > 1. Para n = 1, I{o}(X1) es un estimador


insesgado que es una función de el estadístico suficiente completo X 1,
y entonces I{o}(X1) por sí mismo es el UMVUE de e− λ.

Ejemplo: Sea X1, … , Xn una muestra aleatoria con densidad f(x,θ) =


θe I ( o ,∞ ) ( X ) . Nuestro objetivo es encontrar el UMVUE de cada una de
−θx

1
las siguientes funciones de el parámetro θ :θ , θ , e−kθ = P[ X > K] para
dada.

Ya que θe I ( o ,∞ ) ( X ) es un miembro de la clase exponencial, el


−θx

n
estadístico S = ∑ X i es completo y suficiente.
1

, que es una función del estadístico suficiente


n
1
completo S = ∑ Xi, es un estimador insesgado de ( θ ); ya que por el
i=1

1
teorema de Lehmann Scheffé, es el UMVUE de ( θ ).

Para encontrar el UMVUE de θ, uno debe sospechar que el estimador


c
n
es de la forma , donde c es una constante que puede depender
∑ Xi
i

de n.
Ahora:

9)

c
[ n
] (n−1)
Para n>1. Entonces ξθ
∑ Xi = θ cuando c=n-1: entonces ∑ Xi el
i

(n−1) θ2
UMVUE de θ para n>1. La varianza de , está dada por para
∑ Xi (n−2)
n>2 .

Sin embargo uno tiene que ser capaz de inferir cuál función de S =
∑ Xies un estimador insesgado para e−kθ : I(k,∞)(X1).
Nótese que ξθ[I(k,∞)(X1)] = 0 P[X1 K ] +1 P[ X1 > K ] = P[ X1 > K ] =
e ; entonces I(k,∞)(X1) es de hecho un estimador insesgado de e−kθ y por
−kθ

lo tanto por los teoremas 8 y 10


. Con el fin de obtener
P[ X1 > K | S=s ], primero encontraremos la distribución coondicionada
de X1 dada por S = s.
Para X1 > S y n > 1.

Para S > K y n > 1, donde la sustitución y = s – x1 fue hecha.


−kθ
Entonces es el estimador UMVUE para e
para n > 1. (De hecho el estimador es aplicable para n = 1 también.)
Ello puede ser de interés y podría servir como un chequeo para
verificar directamente que:
n−1
∑ Xi−K
( ∑ Xi ) I(k,∞)(∑ Xi)

Es insesgado.

Donde la sustitución u = s – K fue hecha.

Al finalizar esta sección sobre estimación insesgada, haremos algunas


observaciones.

Observación. Para algunas funciones del parámetro no hay estimador


insesgado.. Por ejemplo, en una muestra de tamaño 1 con una
1
densidad binomial no hay estimador insesgado para ( θ ). Supóngase
que tenemos; sea T = t(X) denótese. Luego ξθ[T] =
n

∑ t ( x ) (nx ) θx ( 1−θ )n −x ≡( 1θ ), el cual dice que un polinomio de grado n en θ es


x=0

1
idéntico a ( θ ), lo cual no puede ser.

Observación. Mencionamos en la sub-sección 5.1 que el límite inferior


Cramér-Rao no es necesariamente el mejor límite inferior. Por
ejemplo, el límite inferior Cramér-Rao para la varianza de estimadores
insesgados de θ en el muestreo de la distribución exponencial
θ2
negativas está dado por , y la varianza de el UMVUE de θ está dado
n
θ2 θ2
por ( n−2 ) . ( n−2 ) es necesariamente el mejor límite inferior.

Observación. Para algunos problemas de estimación hay un estimador


insesgado pero no UMVUE.

Considerese el siguiente ejemplo.

Ejemplo. Sea X1 … Xn una muestra aleatoria con densidad uniforme


(Y 1+Y n)
1
dentro del intervalo ( θ, θ + 1]. Queremos estimar θ. 2−
1 -2 y
2
son estimadores insesgados de θ, sin embargo no hay UMVUE de θ.
Para el intervalo 0 ≤ p < 1, considere el estimador g( X 1 – p) + p, donde
la función g(y) está definida como el mayor entero menor que “y”.
Ahora ε [g ( X 1− p ) + p]
θ+1 θ +1−p

=∫ g ( X 1− p ) d X 1 + p= ∫ g ( y ) dy + p .
θ θ− p

Para p y θ fijos, existe un entero, dígase N = N(θ, p), que satisface: θ –


p < N < θ + 1 – p. Por lo tanto, ε [g(X1 – p ) + p ]
θ+1− p N θ +1− p

= ∫ g ( y ) dy + p= ∫ ( N −1 ) d y + ∫ N dy+ p=θ .
θ− p θ −p N

Entonces g( X1 –p) + p es un estimador insesgado de θ. Por otra parte,


si θ + 1 – p es un entero, digamos J, entonces g(X 1 – p) = J – 1 para
todo X1 que satisface θ – p < X1 – p ≤ θ + 1 – p; entonces g(X1 – p ) + p
= J – 1 + p = θ + 1 – p – 1 + p = θ para todo θ < X 1 ≤ θ + 1; esto es, g
(X1 – p) + p estima θ con ningún error, y por lo tanto tiene varianza
cero para θ + 1 – p igual a cualquier entero.

Entonces, tenemos un estimador, a saber g(X 1 – p) + p que tiene


varianza cero para θ = cualquier entero -1 + p. Pero 0 ≤ p < 1 es
arbitrario; por lo que para cualquier θ fijo, digamos θ 0, podemos
encontrar un estimador insesgado de θ que tenga varianza cero en θ 0.
Por lo tanto, con el fin de que un estimador sea el UMVUE de θ, este
tiene que tener varianza cero para todo θ; esto es, siempre tiene que
estimar θ sin error. Claramente, no existe tal estimador.

Observación: A veces es posible encontrar un UMVUE incluso cuando


un estadístico mínimo suficiente no es completo.

También podría gustarte