Está en la página 1de 2

Estimador por Mxima Verosimilitud

- Entrega un estimador que maximiza la probabilidad muestral, reflejada en la funcin de


verosimilitud.
- No siempre representa un probabilidad, pero puede servir para comparar el grado de
representatividad que hay entre las muestras.
- Para que el estimador sea confiable, depende de la cantidad y la calidad de los datos,
esto es que no slo es necesario una muestra representativa (valor aproximado al valor
muestral) sino que tambin la cantidad de datos, para as no caer en el error muestral.
- no asegura el sesgo o insesgo
- Siempre el estimador de mxima verosimilitud ser la media muestra de una
distribucin conocida (el IID no sustenta esto)
- Al ser un calculo matemtico algunas veces puede dar sesgado, ya que se pierde
informacin en el proceso, ej: cuando se calcula la varianza de una distribucin normal
- La exprecion del estimador de mxima verosimilitud es nica para cada funcin
distribucin.
- La primera condicin que debe cumplir el estimador de mxima verosimilitud es la
consistencia, si es insesgado pero no consistente, ser un estimador igual al parmetro,
independiente del tamao de la muestra, lo que no es factible.

I Funcin de verosimilitud: es la funcin de distribucin conjunta de una muestra


Independiente e Idnticamente Distribuida (IID), para la cual se est buscando aqul
parmetro que mejor se relaciona con las observaciones. Requisitos de una funcin para
encontrarle el estimador de MV:

- Ser derivable
- Continua
- Solo un valor del estimador
- El estimador debe estar en el dominio donde las probabilidades existen, y este
dominio debe ser compacto1
- Concavidad de la funcin

Los pasos para realizarlo son:

1- Calcular la pitatoria de la funcin


2- Aplicar logaritmo natural al resultado de la pitaroria
3- Luego hay que maximizar, esto es, calcular la primera derivada e igualar a 0
4- Despejar el parmetro, que en general es o b dependiendo del enunciado

Teorema Central del Limite

Dice que para una variable independiente e idnticamente distribuida IID que cuenta con
un gran numero de datos (mayor a 30) su MEDIA MUESTRAL tiende a una
distribucin normal, con mediaE(Y) =yvarianzaV(Y)=(^2)/n ( y la distribucin
normal se puede estndarizar).

1 No estoy seguro de esto ultimo


- No es necesario conocer la distribucin para su aplicacin
- Si la media muestral no existe no se puede aplicar
- Aunque exista media poblacional, la convergencia de la media muestral a una
distribucin normal puede ser lenta ya que si la poblacin de estudio es muy
dispersa, se requerir de una cantidad de observaciones mucho ms grande que lo
habitual, esto porque la varianza de la media muestral es igual a la varianza
poblacional dividiva en el tamao de la muestra, para lograr la aproximacin de
media muestral a poblacional
- Se puede aplicar aunque no se conozca la distribucin pero si la media y varianza
muestral, y viceversa siempre que la distribucin sea conocida.
- Se busca que la media muestral se aproxime a la media poblacional.
- El TCL solo se puede aplicar a variables CONTINUAS, ya que la distribucin
normal estndar es una continua, aun as igual se puede aplicar, solo que es
metodolgicamente incorrecto.
- El TLC es algo conceptual no es algo matemtico o un calculo.

Sesgo y consistencia:

Se llama sesgo a la diferencia entre la esperanza del estimador menos el valor numrico
de su parmetro (valor esperado igual al real)
- A mayor informacin o mayor numero de datos, menor sesgo
- El sesgo puede ser por:
- Seleccin
- Informacin
- Confusin
Se dice que un estimador o estadstico muestral es consistente cuando este tiende a su
valor verdadero (poblacional), cuando el numero de datos de la muestra tiende a infinito.
- La consistencia del estimador no determina el sesgo, solo nos dice si este es
asintotico
Eficiencia:
Se dice que el estimador con menor varianza es ms eficiente.

También podría gustarte