Está en la página 1de 5

Estimadores de máxima verosimilitud

La estimación por máxima verosimilitud (conocida también como EMV y, en ocasiones, MLE
Maximun Likelihood Estimations) es un método de estimación puntual basado en optimizar
(maximizar) una función llamada de verosimilitud o credibilidad, que depende de la densidad (caso
X continua) o distribución de probabilidades (caso X discreta) de la variable aleatoria X que
depende de un parámetro . Fue recomendada, analizada y popularizada por Ronald Fisher
aproximadamente en 1920 pero fue previamente planteado por Bernoulli, Euler, entre otros.

Ronald Fisher en 1913

Dada una muestra aleatoria de una r.v. que depende de un parámetro ; el estimador
de máxima verosimilitud de , llamado ̂, es el valor de que maximiza a ( )
donde L es la función de verosimilitud, la densidad conjunta de la muestra que explicaremos a
continuación.

Pasos para encontrar un EMV:

1- Calculamos la función de verosimilitud que es la densidad conjunta de la muestra. Esta es una


función de los parámetros de una distribución probabilística, que permite realizar
interferencias acerca de sus valores, a partir de una muestra dada.
Dicha función, que notaremos con la letra L, se define como la probabilidad de que ocurran
simultáneamente todos los valores obtenidos en la muestra, para r.v discreta esto es:

( ) ∏ ( )

2- Hallamos un máximo de L. Si es necesario previamente se aplica Ln (L), y luego resolvemos


la derivada igualada a cero (condición de máximo) y se obtiene ̂ ( )

3- Ahora bien, las P (Xi = xi) siguen una distribución que depende de un parámetro θ
desconocido, con lo cual también lo hará la correspondiente función de densidad conjunta
L. es decir,

( ) ( )
1
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
La función L se podría pasar como una probabilidad condicional, siendo
A=* + el evento en el cual suceden las n experiencias aleatorias, θ el
parámetro desconocido y ̂ un valor particular (estimador) de dicho parámetro.
̂
( ) ( ̂)

De este modo tendremos diferentes L según sea el estimador ̂ elegido, en realidad lo que
interesa no es la función en s{i, sino la razón entre las funciones de verosimilitud:

(̂ )̂(̂ )

Dicha razón resulta útil para determinar cuál de los dos valores de ̂ es más verosímil.

Propiedades:
1- Los EMV pueden ser sesgados, es decir, el valor esperado no coincide con el parámetro.
Pero se puede corregir multiplicando el estimador EMV por una constante.

( ̂) ( ( ))

2- Consistencia o convergencia bajo condiciones muy generales, los EMV son convergentes,
es decir, si los tamaños de muestra sobre los cuales se basan son grandes, el EMV será
“próximo” al valor del parámetro que se estima.
̂ ( ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗

3- Propiedad asintótica: Esta propiedad es mucho más fuerte que la primera, dado que la
esta propiedad ahora nos describe cual es la condición probabilística de ̂ para un n
grande.
̂ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ( , ( )- )

4- Invariancia Si ̂ ( ) entonces ( ̂) ( ) donde h es una función


biyectiva y diferenciable.

Recordemos que la táctica usada por el método de máxima verosimilitud consiste en proponer
aquella expresión para la cual L sea máxima.
Como L es la probabilidad conjunta de todos los valores muestrales , lo que en realidad se hace
al elegir esta estrategia es suponer que la muestra fue la muestra que mayores probabilidades
tenia de ocurrir, de aquí la expresión “máxima verosimilitud”.
Debemos entonces encontrar la expresión de θ que haga que:

2
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
∏ ( )

Sea máxima

Hallando el estimador:
En la mayoría de los casos el estimador del parámetro θ para el cual L es máxima se obtiene
derivando la expresión de L respecto de θ e igualando a cero.
Debido a que L es una productoria puede resultar muy útil trabajar con el logaritmo natural de L,
en lugar de L. Esto es válido en el contexto en el que estamos trabajando, dado que Ln(L)es
monótona y estrictamente creciente con L, con lo cual Ln(L) tendrá un máximo en donde Ltenga su
máximo.
El valor de θ para el cual la derivada de Ln(L) sea cero es en realidad estimador, ̂.

Ejemplo de aplicación de la función de verosimilitud.


Distribución de Poisson:

X: Cantidad de vehículos que pasan por una determinada esquina los días de semana, desde las
13hs hasta las 14hs.
N: 16 observaciones.
A = {25, 36, 21, 14, 19, 15, 22, 29, 11, 32, 19, 24, 31, 27, 18, 22}

L para la distribución de Paisson (λ)

( ) ∏ ( ) ∏

( ( )) ( ∑ ) ∑ ( )

Ejemplo de aplicación de la función de verosimilitud – Distribución Exponencial.

X: tiempo de vida útil, en horas, de una determinada marca de lámparas de bajo consumo.
N: 15 observaciones.
A: {310, 300, 290, 400, 352, 325, 388, 415, 288, 321, 194, 246, 312, 279, 227}

L para la distribución Exponencial Exp (λ)

( ) ∏ ( ) ∏

( ( )) ( ) ∑

3
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
Ejemplo:
Estimadores de máxima verosimilitud para una distribución Gamma

( ) ( )

Observemos que en este caso la variable aleatoria no depende de un solo parámetro sino de dos,
. Por lo tanto, para maximizar la función de verosimilitud la tendemos que derivar
parcialmente con respecto a los dos parámetros. Luego igualaremos a 0 cada una de esas dos
derivadas parciales y resolveremos el sistema de ecuaciones que nos quede para encontrar los
EMV de Primero construimos la función de verosimilitud L:

( ) (∏ ) ( ∑ )
( )
, ( )-
Ahora tomamos logaritmo natural en ambos miembros

( )∑ ∑ ( )

Luego debemos resolver simultáneamente y . Esas ecuaciones llegan a ser:

( )

( )

Veremos que da directamente ̂ ̅. Por lo tanto después de sustituir por ̂ vemos


que la derivada de la función nos queda así:

( )
̅ ∑
( )

Ejemplo:
Estimadores de máxima verosimilitud para una distribución Normal, supongamos que X tiene una
distribución N ( ) y la densidad es:
( ) ( 0 1 )

Si( ) es una muesra de X, sun función de verosimilitud está dada por:

( ) ( ) { ∑[ ] }

4
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
. / ( ) ( ∑[ ] )

Debemos resolver simultáneamente y

( )
Entonces primero tenemos ∑ , lo que nos da ̂ ̅ , el promedio muestral.

( )
Y ∑ que nos da ̂ ∑ ( ) ∑ ( ̅) .

Finalmente podemos observar que el método de EMV produce un estimador sesgado de ,


puesto que ya hemos visto que un estimador insesgado es de la forma ( ) ∑ ( ̅)

5
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz

También podría gustarte