Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Metodo de Maxima Verosimilitud
Metodo de Maxima Verosimilitud
Curso de Estadstica
TAE,2005
J.J. Gmez Cadenas
Muestras
Considerar una variable aleatoria x descrita por la pdf f(x).
El espacio de muestras est constituido por todos los posibles valores
de x.
Un conjunto de n observaciones independientes de x se llama una
muestra de tamao n.
Es posible definir un nuevo espacio de muestras constituido por todos los
posibles valores del vector x =(x1,...,xn). Es decir, la muestra se considera
formada por una sola medida aleatoria, caracterizada por las cantidades
(x1,...,xn).
Las n medidas son independientes
La pdf es la misma para cada medida
Estimadores
Considerar la situacin donde se han realizado n medidas de una variable
aleatoria cuya pdf se desconoce.
El problema central de la estadstica es inferir las propiedades de f(x)
basndose en las observaciones x1,...,xn).
Especficamente, deseamos construir funciones de los xi para estimar las
propiedades de f(x).
A menudo se tiene una hiptesis para la pfd f(x;) de un parmetro
desconocido (o ms generalmente de un vector de parmetros =(1,...,n)).
El objetivo es entonces construir funciones de los xi que permitan estimar los
parmetros .
Una funcin de x1,...,xn que no contiene parmetros desconocidos se
denomina estadstica.
Una estadstica que se utiliza para estimar una propiedad de una pdf (media,
varianza, etc.) se llama un estimador.
lim P > = 0
Sesgo
El valor esperado de un estimador con pdf g( ; ) es:
b = E[ ( x)]
NB: El sesgo no depende de los valores x1,...,xn de la muestra, sino del
tamao de sta, de la forma funcional del estimador y de la pdf conjunta
(que en general no se conoce).
Decimos que un parmetro no tiene sesgo si b=0 independientemente del
tamao de la muestra.
Decimos que un parmetro no tiene sesgo en el lmite asinttico si b=0
cuando n tiene a infinito.
Un parmetro consistente pede sin embargo estar sesgado (n finito)
Media aritmtica o
muestral:
lim x =
Valor esperado de x:
1 n
1 n 1 n
E[x ] = E xi = E[xi ] = i =
n i =1
n i =1 n i =1
x
)
=
x
x
i
n 1 i =1
n 1
2
donde x= x
n 1 i =1
x
)
(y
y
)
=
xy x y
i
i
n 1 i =1
n 1
Varianza de la media
Dado un estimador, su varianza se define como:
V[ ] = E[ 2 ] (E[ ])2
Varianza de la media aritmtica:
n
n
1
2
2
V[x ] = E[x ] (E[x ]) = E xi x j 2
n i =1 n j =1
2
1 n
1
= 2 E[xi x j ] 2 = 2 (n 2 n) 2 + n( 2 + 2 ) 2 =
n i, j =1
n
n
Varianza de s2
1
n3 3
V[s ] = ( 4
2 )
n
n 1
2
( n =
(x )n f (x)dx)
1 n
k
mk =
(x
x
)
i
n 1 i =1
Funcin de verosimilitud
n
L( ) = f(x i ; )
i=1
L
= 0, i = 1, 2,...m
i
NB: La definicin no garantiza que los estimadores MV sean ptimos en
absoluto! En general, sin embargo, suelen ser la aproximacin ms aceptable
al problema de estimar parmetros.
1 t /
f (t; ) = e
1 t
log L( ) = log f (t i ; ) = (log i )
i =1
i =1
log L( )
1
1
= 0 ( 2 ) + (t i )( 2 ) =
i =1
n
1 n
= 2 ti = 0
i =1
1 n
= t i
n i =1
Valor esperado:
1 n
1 n
= t i E[ ] = =
n i =1
n i =1
1
n
ms que a=a().
= = n
2
i =1
i =1
n
1
1 (x )2
= log
+ log 2
2 2
2 2
i=1
log L
1 n
1 n
= 0 2 (x ) = 0 = xi
i=1
n i=1
E[ ] = no tiene sesgo
n
log L
1 n
2
2
=
0
=
(x
i
2
n i=1
n 1 2
E[ 2 ] =
2 no tiene sesgo en el lmite asinttico
n
NB la varianza muestral es siempre un estimador sin sesgo
pero no es un estimador MV!
1 n
s =
(xi )2
n 1 i=1
2
Analtica para el
caso de la pdf
exponencial
Desigualdad RCF
Rao-Cramr-Frechet: Para un estimador arbitrario se verifica que:
b 2
)
V[ ]
2 log L
E[
]
2
(1 +
log
L
log L
1
V[ ] = E[
], Vij = E[
]
2
i j
1
)2 + ...
log L( ) = log L( ) +
(
)
+
(
2
2! =
=
( )2
log L( ) = log Lmax
2
Para obtener cambiamos
alejndonos de q hasta que log L
disminuye en 1/2