Está en la página 1de 17

Propiedades de un buen

estimador

Propiedades de un buen
estimador
Insesgamiento
 Eficiencia
 Consistencia
 Suficiencia


Estimador Insesgado
Se dice que un estimador de un
parmetro es insesgado si :

()

E =

La media muestral es un estimador insesgado de la


media de la poblacin.
En efecto, supongamos una muestra aleatoria x1 , x 2 ,..., x n
n
cuya media es
xi
La media muestral se define como
x = i =1
n

Luego

1 n
E ( x ) = E x i
n i =1

entonces

1 n
E ( x ) = E x i
n i =1

Aplicando las propiedades de la esperanza:


1 n
E ( x ) = E ( xi )
n i =1

1 n
E(x ) =
n i =1

E(x ) =

E(x ) =

1
n
n

La varianza muestral es un estimador insesgado


de la varianza poblacional
Sea

x1 , x2 ,..., xn

2
una muestra aleatoria tal que su varianza es
2

( xi x )

s 2 = i =1

Definimos la varianza muestral como:

n 1

2
La frmula de clculo de s es

n 2

x i nx 2

E s 2 = E i =1

n 1

( )

( )

n 2

1
Es =
E xi nx 2
n 1 i =1

xi2 nx 2

s 2 = i =1

n 1

( )

1 n 2

x i nx 2
E s = E

n 1 i =1
2

( )

( )

1 n 2
E x i E nx 2
Es =
n 1 i =1
2

( )

( )

( )

1 n
E x i2 nE x 2
Es =
n 1 i =1

Como:

( )

var( x ) = E x 2 ( E ( x ) )2

( )=

Aplicando esto mismo a:

E x

Reemplazando en la ecuacin (1)

(1)

( )

2
n

+ 2

2
1 n 2
2
2

+
Es =
n

n 1 i =1
n

( )
2

2
1
2
2
2

+ n
Es =
n + n

n 1
n

( )

( )

E s2 =

( )

2 = E x2 2 E x2 = 2 + 2

1
n 2 + n 2 2 n 2
n 1

( )

E s2 =

1
(n 1) 2
n 1

( )

E s =
2

Estimador eficiente
Dados dos estimadores insesgados 1 y
de un parmetro . Si la


var(1 ) < var(2 )


Entonces 1 es un estimador eficiente de .

Estimador Consistente


Se dice que un estimador es consistente si a


medida que crece el tamao de la muestra, es
mayor la probabilidad de que el estimador
coincida con el verdadero valor del parmetro.

lim

P n = 1

Estimador suficiente

Se dice que un estimador es suficiente si resume


toda la informacin de la muestra relacionada con
un parmetro. O lo que es lo mismo, cuando se
utiliza toda la informacin que surge de la muestra.

MOMENTOS DE UNA VARIABLE ALEATORIA




Se llama momento de orden k de una variable


aleatoria con respecto al origen a:

( )

k = E x k
El momento de orden 1 es:

1 = E ( x )

El momento de orden 2 es:

( )

2 = E x 2 2 = 2 + 2

Mtodos de estimacin de parmetros


Mtodo de los momentos
Supongamos que x1, x2 ,..., xn
es una muestra aleatoria de una
variable aleatoria con funcin de distribucin caracterizada por r
parmetros desconocidos. Se definen los primeros r momentos
muestrales con respecto al origen como

1 n r
mr = xi
n i =1
Los primeros r

momentos de la poblacin son

( )

r = E x r

Al igualar los momentos muestrales y los momentos poblacionales se producirn


ecuaciones con
incognitas, la solucin de este sistema, producir los
estimadores de momentos de los
parmetros desconocidos.

Ejemplo:
X tiene distribucin de Poisson con parmetro desconocido
recordemos que la funcin de probabilidad es :
e x
P(x) =
y que E ( x ) =
x!
por otro lado m1 = x
Entonces : = x

Ejemplo

Sea X con distribuci n N , 2 los dos parmetros


desconocid os.
Tenemos que E ( x ) = y E ( x 2 ) = 2 + 2
Los momentos muestrales son
1 n
m1 = x i
n i =1

1 n 2
y m2 = x i
n i =1

1 n
1 n 2
2
2
Luego : = x i y + = x i
n i =1
n i =1
Entonces : = x

1 n 2
2
y = x i n x
n i =1

Mtodo de Mxima Verosimilitud


Este mtodo fue introducido por Fisher en la dcada de 1920.
Se basa en la idea de, dada una muestra, hallar los valores de los
parmetros que hacen que la probabilidad de obtener dicha
muestra sea mxima.
x1, x 2 ,..., x n
Sean
funcin de densidad

v.a.i.i.d. con funcin de probabilidad o

que depende de k parmetros desconocidos.


Llamamos funcin de verosimilitud a:
n

L( x1 , x2 ,..., x n , ) = f ( x i , )
i =1

El estimador de mxima verosimilitud del parmetro


que haga mxima a la funcin de verosimilitud.

ser aquel

f ( x , )

Ejemplos
1) X tiene distribucin de Poisson con parmetro desconocido
recordemos que la funcin de probabilidad es :
e x
P ( x, ) =
x!
Sea x1, x 2 ,..., xn una m.a. entonces
e xi
L( x1, x 2 ,..., x n , ) =
i =1 x i !
n

ln L( x1, x2 ,..., xn , ) = [ + xi ln ln x i !]
i =1

i =1
n

i =1

ln L( x1, x2 ,..., xn , ) = n + ln x i ln xi !
ln L( x1 , x2 ,..., xn , )
1
1 n
= n + xi n + xi = 0

i =1
i =1
1 n

= xi
n i =1

2) Sea x1 , x2 ,..., x n una m.a. de una distribucin N ( , 2 )


n

entonces : L( x1, x 2 ,..., x n , , 2 ) =

1
2 2

(x i )2

2
n
1 n
1
2
2
luego : ln L( x1, x2 ,..., x n , , ) = ln(2 ) 2 x i
2 i =1
i =1 2
2

i =1

)2
)

1 n
2
ln L( x1, x2 ,..., xn , , ) = 2 2 x i (1) = 0 x i = 0

2 i =1
i =1
n

xi n = 0 =
i =1

xi

i =1

= x

n 1 1 1 n
+
ln L( x1 , x 2 ,..., x n , , ) =
x
2 2 2 4 i =1 i
2
2

n + x i
2

2 =

i =1
1 n

(
x i x )2

n
i =1

1 n
= 0 = xi
n i =1
2

)2

)2 = 0

También podría gustarte