Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La estimación por máxima verosimilitud (conocida también como EMV y, en ocasiones, MLE
Maximun Likelihood Estimations) es un método de estimación puntual basado en optimizar
(maximizar) una función llamada de verosimilitud o credibilidad, que depende de la densidad (caso
X continua) o distribución de probabilidades (caso X discreta) de la variable aleatoria X que
depende de un parámetro . Fue recomendada, analizada y popularizada por Ronald Fisher
aproximadamente en 1920 pero fue previamente planteado por Bernoulli, Euler, entre otros.
Dada una muestra aleatoria de una r.v. que depende de un parámetro ; el estimador
de máxima verosimilitud de , llamado ̂, es el valor de que maximiza a ( )
donde L es la función de verosimilitud, la densidad conjunta de la muestra que explicaremos a
continuación.
( ) ∏ ( )
3- Ahora bien, las P (Xi = xi) siguen una distribución que depende de un parámetro θ
desconocido, con lo cual también lo hará la correspondiente función de densidad conjunta
L. es decir,
( ) ( )
1
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
La función L se podría pasar como una probabilidad condicional, siendo
A=* + el evento en el cual suceden las n experiencias aleatorias, θ el
parámetro desconocido y ̂ un valor particular (estimador) de dicho parámetro.
̂
( ) ( ̂)
De este modo tendremos diferentes L según sea el estimador ̂ elegido, en realidad lo que
interesa no es la función en s{i, sino la razón entre las funciones de verosimilitud:
(̂ )̂(̂ )
Dicha razón resulta útil para determinar cuál de los dos valores de ̂ es más verosímil.
Propiedades:
1- Los EMV pueden ser sesgados, es decir, el valor esperado no coincide con el parámetro.
Pero se puede corregir multiplicando el estimador EMV por una constante.
( ̂) ( ( ))
2- Consistencia o convergencia bajo condiciones muy generales, los EMV son convergentes,
es decir, si los tamaños de muestra sobre los cuales se basan son grandes, el EMV será
“próximo” al valor del parámetro que se estima.
̂ ( ) ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗
3- Propiedad asintótica: Esta propiedad es mucho más fuerte que la primera, dado que la
esta propiedad ahora nos describe cual es la condición probabilística de ̂ para un n
grande.
̂ ⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗⃗ ( , ( )- )
Recordemos que la táctica usada por el método de máxima verosimilitud consiste en proponer
aquella expresión para la cual L sea máxima.
Como L es la probabilidad conjunta de todos los valores muestrales , lo que en realidad se hace
al elegir esta estrategia es suponer que la muestra fue la muestra que mayores probabilidades
tenia de ocurrir, de aquí la expresión “máxima verosimilitud”.
Debemos entonces encontrar la expresión de θ que haga que:
2
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
∏ ( )
Sea máxima
Hallando el estimador:
En la mayoría de los casos el estimador del parámetro θ para el cual L es máxima se obtiene
derivando la expresión de L respecto de θ e igualando a cero.
Debido a que L es una productoria puede resultar muy útil trabajar con el logaritmo natural de L,
en lugar de L. Esto es válido en el contexto en el que estamos trabajando, dado que Ln(L)es
monótona y estrictamente creciente con L, con lo cual Ln(L) tendrá un máximo en donde Ltenga su
máximo.
El valor de θ para el cual la derivada de Ln(L) sea cero es en realidad estimador, ̂.
X: Cantidad de vehículos que pasan por una determinada esquina los días de semana, desde las
13hs hasta las 14hs.
N: 16 observaciones.
A = {25, 36, 21, 14, 19, 15, 22, 29, 11, 32, 19, 24, 31, 27, 18, 22}
( ) ∏ ( ) ∏
( ( )) ( ∑ ) ∑ ( )
X: tiempo de vida útil, en horas, de una determinada marca de lámparas de bajo consumo.
N: 15 observaciones.
A: {310, 300, 290, 400, 352, 325, 388, 415, 288, 321, 194, 246, 312, 279, 227}
( ) ∏ ( ) ∏
( ( )) ( ) ∑
3
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
Ejemplo:
Estimadores de máxima verosimilitud para una distribución Gamma
( ) ( )
Observemos que en este caso la variable aleatoria no depende de un solo parámetro sino de dos,
. Por lo tanto, para maximizar la función de verosimilitud la tendemos que derivar
parcialmente con respecto a los dos parámetros. Luego igualaremos a 0 cada una de esas dos
derivadas parciales y resolveremos el sistema de ecuaciones que nos quede para encontrar los
EMV de Primero construimos la función de verosimilitud L:
( ) (∏ ) ( ∑ )
( )
, ( )-
Ahora tomamos logaritmo natural en ambos miembros
( )∑ ∑ ( )
( )
∑
( )
( )
̅ ∑
( )
Ejemplo:
Estimadores de máxima verosimilitud para una distribución Normal, supongamos que X tiene una
distribución N ( ) y la densidad es:
( ) ( 0 1 )
√
( ) ( ) { ∑[ ] }
4
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz
. / ( ) ( ∑[ ] )
( )
Entonces primero tenemos ∑ , lo que nos da ̂ ̅ , el promedio muestral.
( )
Y ∑ que nos da ̂ ∑ ( ) ∑ ( ̅) .
5
Apunte de cátedra – Probabilidad y Estadística – Parte III
Lic. José Luis Sáenz