Está en la página 1de 2

TEMA 4

MÉTODOS DE ESTIMACIÓN PUNTUAL

MÉTODO DE MÁXIMA VEROSIMILITUD

En este capítulo presentaremos métodos de construcción de estimadores, centrando


nuestro interés fundamentalmente en el método llamado de máxima verosimilitud, introducido
por Fisher en 1925 y que es el más empleado y general de cuantos existen.

Consideremos una variable aleatoria X con función de densidad f(x; ) siendo


el parámetro desconocido que queremos estimar; dada una muestra X1, X2, ... , Xn a la función

considerada como una función del parámetro , se le llama función de verosimilitud.

Definición 1.- Se llama estimador de máxima verosimilitud (EMV) de a aquel


estimador que maximiza la función de verosimilitud.

Para hallar el EMV habría que maximizar la función de verosimilitud; sin embargo, en
casi todos los casos es más fácil maximizar el logaritmo neperiano de la función de
verosimilitud, ya que ambas funciones poseen los mismos extremos. Así, el EMV sería la
solución de la siguiente ecuación de verosimilitud:

Si existe un estadístico suficiente T para y es un EMV, entonces es


función de T.

Teorema Sea X1, X2, ... , Xn una muestra procedente de una población con familia de
distribución exponencial del tipo

y supongamos que
1.- tiene derivada continua para todo .

2.-

1
3.-

Entonces, el EMV de es único y suficiente.

Sin embargo, nada asegura que el EMV sea insesgado.

Teorema (Zehna).- Si es EMV para y g es una aplicación del espacio

paramétrico en un intervalo de , entonces en EMV para .

MÉTODO DE LOS MOMENTOS

Es es método más antiguo para estimar parámetros. Normalmente no da estimadores


eficientes, por lo que sólo se utiliza como primera aproximación a mejorar a los estimadores o
en el caso en que el método de máxima verosimilitud conduzca a la ejecución de un número
prohibitivo de cálculos.

Consiste en igualar un cierto número de momentos de la muestra con sus


correspondientes momentos poblacionales, obteniendo de esta forma un número de igualdades
que nos permiten determinar los parámetros a estimar.

Definición 2.- Sea X1, X2, ... , Xn una muestra aleatoria de una distribución con función
de densidad f(x; ). Se define el r-ésimo momento alrededor de cero como

Así, si el parámetro a estimar es de la forma el estimador

obtenido por este método es .


Es fácil probar que:

1.- Si estamos estimando momentos poblacionales, estos estimadores son insesgados


y asintóticamente normales.

2.- Si estamos estimando funciones de los momentos poblacionales, estos


estimadores son consistentes y asintóticamente normales.

También podría gustarte