Está en la página 1de 3

Ronald Fisher en 1913

La estimacin por mxima verosimilitud fue usada en casos especiales por C. F. Gauss pero su
forma general para propsitos de estadstica la expuso Fisher (1890-1962) aproximadamente
por 1922. Aunque fue introducido por primera vez por Bernoulli (1700-1782), cuyo
planteamiento fue revisado y modificado por su coetneo y amigo, el gran matemtico, Euler
(1707-1783).

Esta idea fue de gran importancia en el desarrollo de la teora estadstica moderna.


En estadstica, la estimacin por mxima verosimilitud (conocida tambin como EMV
y, en ocasiones, MLE Maximun Likelihood Estimators) es un mtodo habitual para
ajustar un modelo y encontrar sus parmetros.

Definicin: Dada una muestra aleatoria 1 , 2 , . . . , de una r.v. que depende de un


parmetro ; el estimador de mxima verosimilitud de , llamado , es el valor de
que maximiza a (1 , 2 , . . . , , ), donde L es la funcin de verosimilitud, la densidad
conjunta de la muestra que explicaremos a continuacin.

Entonces para encontrar un EMV de que ser = () realizamos:

1) Calculamos la funcin de verosimilitud (1 , 2 , . . . , , ) que es la densidad


conjunta de la muestra

(1 , 2 , . . . , , ) = ( , )
=1

Donde ( , ) es la densidad (si es continua) o la distribucin probabilstica (si es


discreta)

No necesariamente representar un solo nmero real, puede suceder que la r.v


dependa de dos o mas valores paramtricos (como en la distribucin normal). En tal
caso puede representar un vector = (, )

2) Hallamos un mximo de (1 , 2 , . . . , , ). Si es necesario previamente se aplica


Ln(L) ya que es una funcin creciente y sta tiene un mximo precisamente en los
puntos en que L tiene un mximo.

Luego resolvemos la derivada igualada a cero (condicin de mximo)


(1 , 2 , . . . , , ) = 0 y se obtiene = ()

Ejemplo: Usando una muestra (1 , 2 , . . . , ) encontrar una EMV del parmetro


( = ) de una r.v. ~()
1
Densidad: () = donde > 0

1 1 1 1 ( )
(1 , 2 , . . . , , ) = 1 . 2 = ( ) =1


1 ( ) 1
ln () = [( ) =1 ] = . ln ( ) . ( )


=1


=1
[ln ()] = . = 0 = = = ()

=1
Propiedades:

1) Los MLE pueden ser sesgados, es decir, el valor esperado no coincide con el
parmetro. Pero se puede corregir multiplicando por una constante.

() = (())

2) Consistencia o convergencia

= ()

Bajo condiciones muy generales, los EMV son convergentes, es decir, si los tamaos de
muestra sobre los cuales se basan son grandes, el EMV ser prximo al valor del
parmetro que se estima.

3) Propiedad asinttica
. . ( , [ln (, )]2 )

Esta propiedad es mucho mas fuerte que la primera, dado que la esta propiedad ahora
nos describe cual es la condicin probabilstica de para un n grande.

Observacin: Los () estn vinculados con la estadstica bayesiana.

4) Invariancia

Si = () entonces ( ) = (()) donde es una funcin biyectiva


y diferenciable.

También podría gustarte