Me Todos

También podría gustarte

Está en la página 1de 17

Cap

tulo 3

Mtodos de estimacin
e
o
3.1

Introduccin
o

El anlisis de los estimadores puntuales se basa en el estudio de propiedades, que


a
de alguna manera garanticen que las estimaciones sean razonablemente precisas.
Entre estos criterios, los ms usuales son la consistencia o que los estimadores
a
sean insesgados y con varianza sea tan pequea como se pueda.
n
Otro problema de inters es el de encontrar procedimientos generales que
e
permitan la construccin de estimadores. Entre tales tcnicas destacan el mtodo
o
e
e
de los momentos y, sobre todo, el mtodo de la mxima verosimilitud.
e
a

3.2

Mtodo de los momentos


e

El procedimiento de estimacin puntual ms antiguo es el de los momentos y


o
a
destaca sobre todo por su sencillez y versatilidad, ya que se puede aplicar en
situaciones dif
cilmente resolubles por otros procedimientos. Sin embargo, puede
dar lugar a estimaciones inadmisibles o ser mejorado por otros estimadores.
Sea X una v.a. con distribucin F , IRk con momentos poblao
cionales nitos 1 , . . . , r . Entonces se tiene que i = gi (1 , . . . , k ) i = 1, . . . , r.
Dada una m.a.s. (X1 , . . . , Xn ), el mtodo de los momentos consiste en
e
identicar los primeros momentos muestrales con los correspondientes momentos
poblacionales en un nmero suciente de ecuaciones para obtener soluciones de
u
1

Cap
tulo 3. Mtodos de estimacin
e
o

1 , . . . , k en funcin de a1 , . . . , ar .
o
a1 =
.
.
.
ai =
.
.
.

1 =
.
.
.
i =
.
.
.

g1 (1 , . . . , k )
.
.
.

gi (1 , . . . , k ) i = h(a1 , . . . , ar )
.
.
.

ar = r = gr (1 , . . . , k )
Ejemplo 3.2.1. Sea X N (, ) con = (, 2 ) IR IR+ .
2
Se tiene que = 1 y 2 = 2 1 por lo que:

1 = = g1 (, 2 )
2 = 2 + 2 = g2 (, 2 )
Planteamos dos ecuaciones con los dos primeros momentos para estimar
y

2:
X=
X2 =

1
n
1
n

Xi =
i=1
n
i=1

Xi2 = 2 + 2

= X

2 = X 2 X = S 2

Ejemplo 3.2.2. Sea X U (, ) con > 0.


Para obtener el estimador por el mtodo de los momentos para , como
e
E(X) = 0, hay que recurrir a igualar su momento de segundo orden, con lo que
la ecuacin planteada ser:
o
a
X 2 = E(X 2 ) = Var(X) =

2
3

Por lo tanto

3X 2

3
n

Xi2
i=1

que no es funcin del estad


o
stico suciente X(n) .

3.3

Mtodo de mxima verosimilitud


e
a

Este mtodo est basado en una forma naturalde razonar que puede ilustrarse
e
a
de manera sencilla con el siguiente ejemplo.

3.3. Mtodo de mxima verosimilitud


e
a

Ejemplo 3.3.1. Se tienen dos monedas A y B, cuyas probabilidades de obtener


cara son 1/4 y 3/4 respectivamente. Si una de las monedas, elegida al azar, se
lanza cinco veces y no se obtiene ninguna cara cul es la moneda elegida?
a
En este caso lo ms razonable es suponer que se ha lanzado la moneda A,
a
3
puesto que con ella la probabilidad del suceso obtenido P (0 caras/A) = ( )5 =
4
1
243
es mucho mayor que con la otra moneda, P (0 caras/B) = ( )5 .
45
4
Generalizando la situacin anterior, supongamos que se realizan 5 tiradas
o
de una moneda con probabilidad p [0, 1] de salir cara, desconocida. Si ocurre,
por ejemplo, que sale una vez cara, se ha producido un suceso de probabilidad
5
p (1 p)4
1
Un pequeo anlisis de esta funcin de p muestra que tiene un mximo para
n
a
o
a
p = 1/5. De manera que el resultado obtenido es tanto ms probable cuanto
a
ms prximo sea p al valor 1/5. Es razonable, por tanto, tomar p = 1/5 como
a
o

estimacin de p.
o
La idea parece bastante sensata, ya que se est eligiendo aquel valor de
a
para el que el conjunto de observaciones obtenidas tiene mayor probabilidad. Este
criterio da lugar al principio de la mxima verosimilitud que puede emplearse en
a
mltiples situaciones. En general los estimadores mximo veros
u
a
miles son los que
se sugiere el sentido comn, y usualmente tienen muy buenas propiedades.
u
Denicin 3.3.1. Sea (X1 , . . . , Xn ) una muestra aleatoria simple de una poblacin
o
o
cuya distribucin pertenece a F = {F , }.
o
Se denomina funcin de verosimilitud asociada a la realizacin muestral
o
o
(x1 , . . . , xn ), a la probabilidad o densidad conjunta de la muestra, f (x1 , . . . , xn ),
segn que la variable sea discreta o continua. Esta funcin depende del parmetro,
u
o
a
ya que la muestra es arbitraria pero ja.
Aunque la funcin de verosimilitud es una funcin de , se suele denotar por
o
o
L(x1 , . . . , xn , ) L(x, ) para resaltar que depende de la muestra, en el sentido
o
de que para cada muestra puede obtenerse una funcin de verosimilitud diferente.
o
La funcin de verosimilitud conecta la informacin que se tiene antes del
o
o
experimento.
Denicin 3.3.2. Sea (X1 , . . . , Xn ) una muestra aleatoria simple de una poblacin
o
o
cuya distribucin pertenece a F = {F , }.
o

Cap
tulo 3. Mtodos de estimacin
e
o

Un estimador n = Tn (x) se denomina estimador de mxima verosimilitud


a
(EMV) de si

L(x, n ) = mx L(x, )
a

para cada x = (x1 , . . . , xn ) del espacio muestral X .


La bsqueda del mximo de L(x, ) es un problema de optimizacin, en el
u
a
o
que a veces es necesario recurrir a mtodos numricos para encontrar una solucin
e
e
o
aproximada, aunque en los casos ms usuales se puede encontrar una expresin
a
o
n .
expl
cita para
Antes de profundizar en el tema, es necesario hacer dos comentarios de
carcter general. En primer lugar, en muchas distribuciones resulta ms sencillo
a
a
maximizar ln L(x, ) que L(x, ) aunque en ambos casos el mximo se alcanza en
a
el mismo punto por ser la funcin ln L(x, ) estrictamente creciente. En segundo
o
lugar, es recomendable representar grcamente L(x, ) ln L(x, ), ya ello nos
a
o
ayudar a encontrar el EMV en problemas en los que aparezcan mximos locales
a
a
n .
o verosimilitud plana en la vecindad de

3.4

Obtencin del EMV


o

En lo que sigue se supondr que el parmetro es unidimensional, IR ,


a
a
aunque en general los resultados que se obtengan se pueden generalizar (mediante
un razonamiento anlogo) al caso de parmetros k-dimensionales = (1 , . . . , k ).
a
a
Si L(x, ) es una funcin derivable respecto a en el interior del espacio
o
paramtrico , la forma usual de determinar el estimador mximo veros
e
a
mil es
examinar primero los mximos relativos de ln L(x, ), para compararlos despus,
a
e
con los valores sobre la frontera de . Ello conduce a resolver la ecuacin de
o
verosimilitud:

ln L(x, ) = 0.

La ecuacin de verosimilitud puede tener ms de una ra en , alguna de


o
a
z
las cuales puede ser un mximo absoluto de la verosimilitud (esto es, EMV).
a
Tambin puede ocurrir que el supremo absoluto se alcance en la frontera de y
e
sea abierto, con lo que no existir el EMV en este caso.
a
Este procedimiento es sencillo de aplicar en muchas situaciones,
Ejemplo 3.4.1. Supongamos que los tiempos de fallos de ciertas componentes
electrnicas, X, provienen de una distribucin exponencial de parmetro y en
o
o
a
consecuencia la funcin de densidad es f (x) = ex si x > 0 con > 0 y que
o
se dispone de los tiempos de fallo de n componentes elegidas al azar (x1 , . . . , xn ).

3.4. Obtencin del EMV


o

La funcin de verosimilitud vendr dada por:


o
a
n

L(x1 , . . . , xn , ) = n exp{

xi }.
i=1

Resolviendo la ecuacin de verosimilitud


o

ln L(x1 , . . . , xn , ) =
n ln

xi
i=1

n
=

xi = 0
i=1

se concluye que el EMV para por este procedimiento viene dado por
1

= .
X
Es importante tener en cuenta que con el mismo modelo paramtrico pueden
e
plantearse distintas verosimilitudes, dependiendo de la informacin muestral disponible.
o
Ejemplo 3.4.2. Suponiendo que el experimento del ejemplo anterior, naliza en
un instante de tiempo jado t0 . En este caso solo se observarn los tiempos de
a
las componentes que fallan antes de t0 , X1 , . . . , Xr y del resto, Xr+1 , . . . , Xn ,
solo que se sabe que duraron ms de t0 .
a
La funcin de verosimilitud vendr dada por:
o
a
r

f (xi ) [1 F (t0 )]nr

L(x1 , . . . , xn , ) =
i=1
r

= r exp{

xi } exp{(n r)t0 }.
i=1

Resolviendo la ecuacin de verosimilitud


o

r
ln L(x1 , . . . , xn , ) =

xi (n r)t0 = 0
i=1

se concluye que el EMV para por este procedimiento viene dado por

r
i=1 Xi

r
.
+ (n r)t0

Ejemplo 3.4.3. Sea (X1 , . . . , Xn ) una muestra aleatoria simple de tamao n de


n
una poblacin B(1, p) siendo p (0, 1) desconocido. La funcin de verosimilitud
o
o
P
P
es
L(x, p) = p xi (1 p)n xi

Cap
tulo 3. Mtodos de estimacin
e
o

de forma que
n

ln L(x, p) =

xi ln p +

i=1

xi

ln(1 p)

i=1

La ecuacin de verosimilitud es entonces


o
n

1
1
xi
ln L(x, p) =
p
p
1p

xi

i=1

cuya solucin es
o

p=

1
n

=0

i=1

xi = x
i=1

que expresa la proporcin de unos observados en la muestra y proporciona el


o
estimador de mxima verosimilitud de p, en el caso x = 0 y x = 1.
a
Si la realizacin muestral fuera (X1 , . . . , Xn ) = (1, . . . , 1), entonces no exiso
tir el EMV ya que el mximo de la funcin de verosimilitud se alcanzar para
a
a
o
a
p = 1, que no pertenece al espacio paramtrico.
e
Ejemplo 3.4.4. Se considera una variable aleatoria con distribucin de Laplace,
o
es decir, con funcin de densidad
o
f (x) =

1
exp{|x |} x IR, IR
2

Como la funcin de verosimilitud para una muestra aleatoria simple, (x1 , . . . , xn ),


o
de tamao n es
n
n
1
L(x, ) = n exp{
|xi |}
2
i=1

el mximo se calcula minimizando la funcin


a
o
n

h() =

|x(i) |.
i=1

Para examinar la funcin h() hay que estudiar por separado los casos en
o
los que n es par o impar.
Si n = 2k 1 donde k es un entero positivo, se tiene que
k1

h(x(k) ) =

(x(k) x(i) ) +
i=1

(x(i) x(k) ).
i=k+1

Si se elige una cantidad positiva tal que x(k) + < x(k+1) , entonces
n

h(x(k) + ) =

(x(k) + x(i) ) +
i=1

(x(i) x(k) ) = h(x(k) ) +


i=k+1

3.4. Obtencin del EMV


o

con lo cual se ve que h() crece a la derecha de x(k) . Razonando de la


misma forma, se puede comprobar que h() crece a la izquierda de x(k) .
Teniendo en cuenta que la funcin es convexa, se puede concluir que x(k)
o
es un m
nimo global.
Para n = 2k con k un entero positivo, si se eligen dos valores y = +,
ambos en el intervalo (x(k) , x(k+1) ), se tiene que
k

h( ) =

( x(i) ) +
i=1

h( ) =

(x(i) ),
i=k+1

( + x(i) ) +
i=1

(x(i) ) = h( ),
i=k+1

entonces h() es constante en (x(k) , x(k+1) ).


Si se elige tal que = + (x(k+1) , x(k+2) ). Se tiene que
k+1

h( ) =

i=1
k+1

(x(i) )

( + x(i) ) +

i=k+2
n

(x(i) ) (k 1)

( x(i) ) + (k + 1) +
i=1

i=k+2

= h( ) + 2 2(x(k+1) ) > h( ),
y el mismo resultado se obtiene cuando se toma del intervalo (x(k1) ,
x(k) ). Entonces, como h() crece fuera del intervalo (x(k) , x(k+1) ) y h es
convexa se concluye que el valor que toma la funcin en este intervalo es el
o
m
nimo global.
Resumiendo, en ambos casos el EMV existe y coincide con la mediana muestral. Sin embargo, para n impar, el EMV es unico y viene dado por X(k) mientras

que si n es par, cualquier punto del intervalo (X(k) , X(k+1) ) es un EMV.


En ocasiones L(x, ) no es derivable (por ejemplo cuando {x, f (x) > 0}
depende de )y para la bsqueda del EMV hay que recurrir entonces a un anlisis
u
a
directo, sin el recurso de las ecuaciones de verosimilitud.
Ejemplo 3.4.5. Se considera una poblacin con distribucin uniforme en el ino
o
tervalo (0, ) cuya funcin de densidad es
o
1
f (x) = I{0<x<}

Cap
tulo 3. Mtodos de estimacin
e
o

siendo > 0 un parmetro desconocido.


a
La funcin de densidad de una muestra aleatoria simple de tamao n es
o
n
entonces,

L(x, ) =

1
I
I
=
n {x(1) >0} {x(n) <}

1
n

si {x(n) < }
en otro caso

que no es derivable respecto a .


Sin embargo entre todos los valores del parmetro que cumplen {x(n) < } el
a
mximo de la funcin se alcanza en = x(n) , con lo cual el estimador de mxima
a
o
a
n = X(n) .
verosimilitud es

Un ejemplo similar muestra que el EMV no tiene porque ser unico,

Ejemplo 3.4.6. Para una poblacin uniforme en (, + 3), de densidad


o
1
f (x) = I{x(,+3)}
3
la funcin de densidad de una muestra aleatoria simple de tamao n ser
o
n
a
L(x, ) =

1
I
.
3n {x(n) 3<<x(1) }

El estimador de mxima verosimilitud no es unico, ya que cualquier valor


a

del intervalo (X(n) 3, X(1) ) es EMV.


En algunas situaciones no es posible encontrar una solucin expl
o
cita de
la ecuacin de verosimilitud y resulta necesario utilizar mtodos iterativos para
o
e
determinarla; entre los procedimientos ms conocidos se encuentran el algoritmo
a
de Newton-Rhapson y el mtodo scoring de Fisher.
e

3.5

Propiedades del EMV

Hay varias caracter


sticas del EMV que deben ser resaltadas ya que justican la
calidad de este de este mtodo de estimacin .
e
o
Suciencia
La relacin existente entre el EMV y el estad
o
stico suciente se establece en
la siguiente proposicin:
o

3.5. Propiedades del EMV

Proposicin 3.1. Si T es un estad


o
stico suciente para F = {F , } y
existe un EMV de entonces es funcin de T.
o
Demostracin. Por el teorema de factorizacin se verica que si T es el eso
o
tad
stico suciente,
L(x1 , . . . , xn , ) = h(x1 , . . . , xn )g(T (x1 , . . . , xn ), ).
Por lo tanto

mx L(x, ) = h(x) mx g(T (x), ),


a
a

con lo que el valor donde se alcanza el mximo de la funcin de verosimilitud va


a
o
a ser funcin de T .
o
Si el EMV es unico se sabe que es funcin del estad

o
stico suciente, pero
en otro caso esta propiedad no tiene porque ser cierta. En el ejemplo 1.4.6 el
conjunto de los estimadores de la forma:
(X(n) 3) + (1 )X(1) ) (0, 1)
son EMV y funcin del estad
o
stico suciente (X(1) , X(n) ); por ejemplo, para =
X(n) + X(1) 3
1
, se obtiene
.
2
2
X2
Sin embargo, si se elige aleatoria, por ejemplo, (X1 , . . . , Xn ) = 2 1 2 ,
X1 + X2
el EMV vale
2
X1
X2
(X(n) 3) + 1 2 1 2 X(1)
2
2
X1 + X2
X1 + X2
que no es solo funcin del suciente.
o

Por otra parte aunque el EMV sea funcin de un estad


o
stico suciente, eso
no implica que el propio estimador tambin lo sea.
e
Ejemplo 3.5.1. En el caso de una poblacin con distribucin uniforme en el
o
o
intervalo (, 2) donde > 0 y la funcin de densidad es
o
1
f (x) = I{<x<2}

la funcin de densidad de una muestra aleatoria simple de tamao n es


o
n
L(x1 , . . . , xn , ) =

1
1
I
I
=
I
n {x(1) } {x(n) <2} n {x(n) /2<<x(1) }

lo cual muestra que el estad


stico suciente minimal es (X(1) , X(n) ).
1
Sin embargo, el estimador de mxima verosimilitud es = X(n) que no es
a
2
suciente.

10

Cap
tulo 3. Mtodos de estimacin
e
o

Invarianza
Otra propiedad a destacar es la invarianza respecto a transformaciones del
parmetro. Esto es,
a

Proposicin 3.2. Sea g : una aplicacin sobreyectiva y el EMV para


o
o

, entonces, el EMV para g() es g().


Demostracin. Fijado , consideramos G() = { | = g()}, que
o
forman una particin de .
o
Se dene la verosimilitud inducida por la particin G(),
o
L (x, ) = mx L(x, ).
a
G()

Si = g(), entonces G() y se tiene que,

L (x, ) = mx L(x, ) = L(x, ).


a

G()

Por otra parte,

L (x, ) mx L (x, ) = mx L(x, ) = L(x, ) = L (x, )


a
a

Con lo cual todas las desigualdades son igualdades y queda demostrado el


resultado.
Eciencia
En el caso de que el parmetro sea unidimensional, existe tambin una
a
e
relacin clara de los EMV con los estimadores ecientes.
o
Proposicin 3.3. Bajo las condiciones de regularidad de F-C-R, si existe un
o
estimador T, centrado y eciente para , entonces T es el EMV.
Demostracin Por ser T , centrado y eciente, se verica que E (T ) = ,
o
1
y existe una relacin lineal perfecta entre el estimador y la
o
Var (T ) =
In ()
funcin score, u(), dada por
o
u() = In ()(T (x) ),
de manera que la ecuacin de verosimilitud tiene como unica solucin n = T (x),
o

que corresponde a un mximo absoluto, puesto que u() es positiva para < y
a

negativa para > .

3.5. Propiedades del EMV

11

Ejemplo 3.5.2. En el ejemplo 1.4.1 el EMV del parmetro , en una variable


a
1

X con distribucin exponencial exp(), fue = .


o
X
En este caso, es sencillo comprobar que se verican las condiciones de regularidad de F-C-R:
El espacio paramtrico = (0, +) es un intervalo abierto de IR.
e
El conjunto soporte S = {x, f (x) > 0} = (0, +) es independiente de .
i
f (x) dx < , (i = 1, 2).
i

Las integrales

f (x)dx =

ex dx

xex dx =

2
f (x)dx =
2
=

1 1

=0=

2xex dx +

f (x)dx

x2 ex dx

2
2
+ 2 =0= 2
2

f (x)dx

La cantidad de informacin de Fisher es nita


o
I() = E

ln f (x)

n
<
2

Calculando la cota de F-C-R, se comprueba que el EMV no es eciente, ya


que

Var() =

2
1
2
>
=
= cota de F-C-R.
n1
n
n/2

Sin embargo, si el parmetro que se desea estimar es la media de la poblacin,


a
o
es decir, = 1/, por la propiedad de invarianza se sabe que el EMV para el
nuevo parmetro es X que resulta eciente, puesto que
a
Var(X) =

1
= cota de F-C-R.
n2

Es de destacar que, de la proposicin anterior no se deduce que el EMV


o
sea eciente, pues ni siquiera tiene que ser centrado, como se comprueba en el
siguiente ejemplo.

12

Cap
tulo 3. Mtodos de estimacin
e
o

Ejemplo 3.5.3. Dada una poblacin con distribucin de Poisson P(), de la


o
o
cual se extrae una m.a.s. de tamao n, el EMV de es la media muestral, X.
n
2
Por el teorema de invarianza, se concluye que X lo ser para 2 y, sin embargo,
a

2
2
E(X ) = Var(X) + E 2 (X) = + 2 , con lo que X no es centrado de 2 .
n

Proposicin 3.4. Si existe el estimador eciente para , T (x), entonces en la


o
primera iteracin del mtodo scoring de Fisher se llega a l.
o
e
e
Demostracin Por ser T (x) eciente se cumple que
o
u() = In ()(T (x) )

Partiendo de una aproximacin inicial 1 , en una primera iteracin tenemos


o
o

u(1 )
In (1 )(T (x) 1 )

2 1 +
= 1 +
= T (x)

In (1 )
In (1 )
Con lo que queda demostrado el resultado.

3.5.1

Comportamiento asinttico
o

Cuando la muestra es de tamao pequeo, las estimaciones no suelen ser muy


n
n
precisas por disponer de poca informacin. Sin embargo, es de esperar que a
o
medida que el tamao de muestra aumenta tambin lo haga la precisin. Por
n
e
o
ello, es interesante estudiar el comportamiento asinttico de los estimadores pues
o
nos indicar las propiedades que presentan cuando se trabaja con muestras de
a
gran tamao.
n
A lo largo del estudio de las propiedades asintticas del EMV, ser necesario
o
a
que se veriquen algunas de las siguientes condiciones de regularidad.
(A0) P ({x, f (x) = f (x)}) > 0 para todo , .
(A1) El conjunto soporte S = {x, f (x) > 0} no depende del parmetro.
a
(A2) La muestra es una m.a.s.
(A3) El espacio paramtrico es un abierto de IR.
e
Una de las primeras cuestiones que se plantean al estudiar las propiedades
asintticas es su consistencia.
o

3.5. Propiedades del EMV

13

Teorema 3.5.1. Si se verican las hiptesis (A0)-(A3) y suponemos adems,


o
a
que ln L(x, ) es derivable con respecto a y E0 [ln L(x, )] < +, entonces la
ecuacin de verosimilitud tiene una ra fuertemente consistente.
o
z
Demostracin. Sea 0 el verdadero valor del parmetro, y > 0 tal
o
a
que (0 , 0 + ) .
Sea = 0 = 0 . Aplicando la Ley Fuerte de los Grandes Nmeros se
u
n
L(xi , ) c.s.
1
L(x, )
tiene que
ln
E0 ln

,
n
L(xi , 0 ) n
L(x, 0 )
i=1

con lo que se puede asegurar que existe un conjunto C1 con P0 (C1 ) = 1 tal que
si x C1 n1 /n > n1 se verica que
L(x1 , . . . , xn , 0 ) > L(x1 , . . . , xn , 0 ).
Razonando de forma anloga con = 0 + , se tiene en este caso existe un
a
conjunto C2 con P0 (C2 ) = 1 tal que si x C2 n2 /n > n2 se verica que
L(x1 , . . . , xn , 0 ) > L(x1 , . . . , xn , 0 + ).
Adems, ln L(x, ) es continua, por lo que ln L(x, ) presenta un mximo
a
a
en el intervalo ( , + ), y por lo tanto se cumple que
relativo n
0
0

ln L(x, ) = 0.

En consecuencia, n es una ra de la ecuacin de verosimilitud que satisface


z
o
= mx{n , n } en el conjunto C C con
que para todo > 0 si n > n
a
1 2
1
2

P0 (C1 C2 ) = 1, se cumple que |n 0 | .


c.s.


De esta forma se concluye que n 0 .
n

El teorema anterior, lo unico que asegura es la existencia de al menos una

sucesin de races de la ecuacin de verosimilitud que es consistente. Sin embargo


o
o
esto no garantiza que la sucesin de ra
o
ces que se elija tenga que serlo necesariamente, salvo en el caso de que la ecuacin de verosimilitud tenga una unica
o

ra
z.
Corolario 3.5. En las condiciones del teorema anterior el EMV es fuertemente
consistente, si la ecuacin de verosimilitud tiene una unica ra
o

z.

14

Cap
tulo 3. Mtodos de estimacin
e
o

Teorema 3.5.2. Bajo las condiciones de regularidad de F-C-R y suponiendo que


3
3
3 ln L(x, ) con
ln L(x, ) < K(x) donde E (K(x)) = k < + entonces

3
existe una sucesin de ra
o
ces de la ecuacin de verosimilitud que resulta consiso
tente, asintticamente normal y asintticamente eciente, es decir, satisface que
o
o

n(n 0 ) N (0,

I(0 )1 ).

Demostracin. Si n es una ra de la ecuacin de verosimilitud, la funcin


o
z
o
o
n ) = 0, con lo que al considerar el desarrollo de Taylor de la funcin
score u(
o
n ) en un entorno de 0 :
u(

u ()

0 = u(n ) = u(0 ) + (n 0 )u (0 ) + (n 0 )2
2

donde | 0 | < |n 0 |.
Por consiguiente,

n(n 0 ) =

u(0 )

u (0 )
u ()

+ (n 0 )
n
2n

(1)
(2)

Respecto al numerador, (1), considerando las v.a.i.i.d.


aplicar el Teorema Central del L
mite, se tiene que
u(0 )
1
=
n
n

n
i=1

ln L(xi , )

(1) =

I(0 )
),
n

N (0,

0 n

u(0 ) L

N (0,

n n

ln L(xi , ), al

I(0 )).

Veamos que el denominador converge a una constante que va a ser I(0 ).


En primer lugar, por la LFGN se tiene que
1
u (0 )
=
n
n

n
i=1

2
ln L(xi , )
2

c.s.

I(0 ).

0 n

Por otro lado, n 0 0 y

u ()
1
=
n
n

n
i=1

3
ln L(xi , )
3

u ()
1

n
n

n
i=1

3
ln L(xi , )
3

3.5. Propiedades del EMV

15

c.s.

K(xi ) E(K(x)) = k < +.

i=1

Para un n sucientemente grande, se tiene con probabilidad 1 que


1
n

n
i=1

1
K(xi ) k <
n

con lo cual se tiene que

K(xi ) < k +
i=1

u ()
k + para n sucientemente grande y en
n

conclusin,
o

(n 0 )

u () p
0

2n

As el denominador, (2), verica


,
(2) =

u () p
u (0 )

+ (n 0 )
I(0 )

n
2n

Como I(0 ) > 0 se tiene que,


1

u ()
u (0 )

+ (n 0 )
n
2n
con lo que se tiene nalmente que

n(n 0 ) N (0,

1
I(0 )

I(0 )1 ).

Corolario 3.6. En las condiciones del teorema anterior, si la ecuacin de verosimilo


itud tiene una unica ra sa es el EMV y es consistente, asintticamente normal

z, e
o
y asintticamente eciente.
o
Ejemplo 3.5.4. Continuando con el ejemplo 1.4.1, como se verican las condiciones de regularidad de F-C-R y adems si, por ejemplo, > 1, se tiene que
a
2
3
ln L(x, ) = 3 < 2,
3

podemos deducir que

N (0, ).

En cambio, la acotacin de la tercera derivada no se verica para cualquier


o
> 0; pero un razonamiento directo permite, de todas maneras, establecer la
misma conclusin.
o

16

Cap
tulo 3. Mtodos de estimacin
e
o

En efecto, segn el TCL,


u

1
n X

1
),
N (0,

con lo que aplicando el mtodo delta para g(x) =


e

1
se deduce que
x

N (0, ).

Como se ve, la validez de la conclusin del Teorema 1.5.2 es ms amplia de


o
a
lo que indican sus hiptesis que son sucientes pero no necesarias.
o
En el siguiente ejemplo se ve que ciertas condiciones de regularidad, de
cualquier forma, se necesitan para que sea cierta la normalidad asinttica del
o
EMV.
Ejemplo 3.5.5. Se considera una poblacin con distribucin uniforme en el ino
o
n = X(n) , cuya distributervalo (0, ), segn el ejemplo 1.4.5, el EMV para es
u
cin en el muestreo es
o

0
si x 0

n si 0 < x <
P (X(n) x) =
(x/)

1
si x
n
n2
1

2 2 .
2
n + 2 (n + 1)
n
X(n)
Si se estudia la distribucin asinttica de
o
o
, se tiene que
/n

con E (X(n) ) =

n
y Var (X(n) ) = 2
n+1

X(n) L
F con F (x) = lim P

n
n
/n

X(n)
x
/n

Como X(n) < , si x > 0 se tiene que P (X(n) x ) = 1 y si x < 0


n
lim P

X(n)
x
/n

= lim P X(n)
n

x
+1
n

= lim

1+

x
n

= ex .

Es claro entonces que


X(n) L
F (x) =

n
/n

ex si x < 0
1 si x > 0

Ello indica que, en este caso, X(n) tiene distribucin asinttica pero no es
o
o
asintticamente normal.
o

3.5. Propiedades del EMV

17

En aquellos casos en que la distribucin exacta de n sea dif de determinar,


o
cil
conocer su distribucin asinttica permite, para valores grandes de n, utilizarlos
o
o
en la determinacin aproximada de intervalos de conanza para el parmetro,
o
a
analizar sus propiedades como estimadores puntuales (sesgo, error cuadrtico
a
medio,...), etc.

También podría gustarte