Está en la página 1de 5

Mg.

William Richard Snchez Tapia 1


Universidad Nacional de Ingeniera
I Diplomado de Econometra Aplicada al Desarrollo Econmico

Mdulo: Evaluacin de Poltica Macroeconmica I

Profesor: Mg. William Richard Snchez Tapia wsanchezt@ mef.gob.pe



Estimacin por Mxima Verosimilitud

El mtodo de mxima verosimilitud es una tcnica para estimar los parmetros de un
modelo, dada una muestra finita de datos. Ejecuta un procedimiento en el cual se debe
asumir una distribucin terica a priori, es decir, el estimador ser de tipo parametrito. Por
lo que, se evaluara si la distribucin asumida es la correcta mediante los tests adecuados, as
como la eficiencia de la estimacin.

Objetivo

Estimacin por el metodo de maxima verosimilutd de procesos ARMA.

Ventajas

- Proporciona un enfoque consistente para solucionar los problemas de estimacin de
parmetros. Esto implica que los estimados mximo verosmiles pueden desarrollarse
para una gran variedad de situaciones de estimacin.
- Tiene deseables propiedades matemticas. Especficamente: Al aumentar el tamao
de la muestra la varianza muestral insesgada disminuye. Tiene aproximadamente
una distribucin normal y las varianzas muestrales pueden usarse para generar
apropiadas bandas de confianza y para las pruebas de hiptesis.
- A diferencia de la estimacin MCO, Mxima Verosimilitud incorpora toda la
informacin de la distribucin en el modelo, dado que trabaja con la distribucin
conjunta de las observaciones. En MCO solo considera los dos primeros momentos de
la distribucin.

Desventajas

- Las ecuaciones de verosimilitud necesitan estar bien especificadas para determinado
problema de distribucin y estimacin. La matemtica aplicada no es sencilla,
particularmente si los intervalos de confianza para los parmetros son los deseados.
Estimacin por Mxima Verosimilitud en Eviews
La serie a analizar sigue el proceso:


1 t y t t
y y c

= + + donde
2
(0,
t
N
c
c o

Donde tenemos 1000 observaciones que son funcin de un vector de parmetros llamado u .


Mg. William Richard Snchez Tapia 2
La funcin de densidad conjunta de las 1000 observaciones independientes de
1 2 1000
( , ,..., )
t
y y y y = es:

100
1
( , ) ( ; ) ( ; )
i i
i
f y f y L y u u u
=
= =
[


Esta expresin se llama funcin de verosimilitud al ser una funcin de los parmetros
desconocidos u dadas las 1000 observaciones de y.

Trabajando con el logaritmo natural de la funcin de verosimilitud, se obtiene la funcin de
log-verosimilitud:
100
1
log ( ; ) log ( : )
i i
i
L y f y u u
=
=



Una forma de estimar el parmetro u es maximizando la funcin de verosimilitud eligiendo
el valor de los parmetros que hace que los datos observados de verdad se aproximen al
mximo a y.
Formalmente se define el estimador de mxima verosimilitud (mse) como el valor de u
.
tal
que:

log ( ; ) log ( ; ) L y L y u u
.
> para todo u

La primer a derivacin de la funcin de verosimilitud es llamada la funcion store de Fisher
que es la derivada parcial respecto al parmetro u :

log ( ; )
( )
L y
u
u
u
u
c
=
c


y la matriz de varianza-covarianza dada por la matriz de informacin:

| |
'
var ( ) ( ) ( ) ( ) u E u u I u u u u ( = =



Bajo condicione de regularidad, la matriz de informacin puede adems ser obtenida como
menos el valor esperado de la segunda derivada de la funcion de log verosimilitud:
2
'
log ( )
( )
L
I E
u
u
u u
( c
=
(
c c


Esta matriz es llamada la matriz de infamacin observada.

Para el clculo del mse se requiere procedimiento iterativos, considerando la funcin score
evaluada en el parmetro estimado u
.
usando una serie de Taylor de primer orden.

De acuerdo al ejemplo, Los parmetros a estimar son:
2
, y
y c
o

La funcin de Log-Verosimilitud a maximizar es:


Mg. William Richard Snchez Tapia 3


La implementacin de la estimacin por Mxima Verosimilitud tiene los siguientes pasos:

Para buscar los parmetros iniciales se regresiona por MCO, siendo los resultados los
parmetros elegidos.



A continuacin se crean vectores para almacenar los parmetros, luego se asignan los
resultados de la regresin MCO, de tal forma que sean los parmetros iniciales.

mu rho sigma2
2,1 0,8 0,96

Declaramos el objeto de verosimilitud (objeto logl)
Logl logl1

Al objeto logl1 se agrega una lnea con el comando append y con @logl se especifica la
contribuciones verosmiles de las series.

logl1.append @logl loglike

A continuacin se evala especificacin por especificacin con byeqn.

logl1.append @byeqn
Se crean las series intermedias:

El residuo de la estimacin: logl1.append res=ar1-mu(1)-rho(1)*ar1(-1)

La desviacin estndar del error: logl1.append var=sigma2(1)

La Funcin de Log Verosimilitud:


Mg. William Richard Snchez Tapia 4
logl1.append loglike=log(@dnorm(res/@sqrt(var)))-log(var)/2

Se estima el modelo con el comando ML (Maximum Likelihood) y se le pide al programa que
muestre una ventana con los resultados de la estimacin:

Anlisis de Eficiencia del estimador
Se requiere de la matriz de covarianzas de los coeficientes estimados y trabajar con las
derivadas de la funcin de verosimilitud para construir la matriz de informacin.
Matriz de Covarianzas

matrix cmatr=logl1.@coefcov

0.00261202668658106 -0.000782571457078272 -8.31311248134669e-06
-0.000782571457078272 0.000379254806906392 -6.39037363257589e-06
-8.31311248134669e-06 -6.39037363257589e-06 0.00201003265978164
Construyendo la matriz Hessiana:
logl1.makegrads(n=gradiente) gmu grho gsigma2

matrix g1=@convert(gradiente)
matrix g2=@transpose(g1)

matrix info=g2*g1
matrix cmatr_info=@inverse(info)

0.00261199761078662 -0.000782562884882351 -8.31261243923025e-06
-0.000782562884882351 0.000379250627478548 -6.38415128181894e-06
-8.31261243923025e-06 -6.38415128181894e-06 0.00200998744400904

Desigualdad de Cramer Rao

matrix cramer_rao=cmatr-cmatr_info

Coeficientes de la matriz de covarianza

Mg. William Richard Snchez Tapia 5
2.9075794437481e-08 -8.57219592119603e-09 -5.00042116440962e-10
-8.57219592108761e-09 4.17942784428169e-09 -6.22235075695439e-09
-5.00042116442656e-10 -6.22235075695355e-09 4.52157725974386e-08
Esta matriz debe ser cercana a cero en todos sus elementos, condicin cumplida en la
estimacin.
Test de Significancia
El test de Wald evala distintas restricciones que se pueden imponer a un modelo,
evaluando la significancia y validez de este conjunto de condiciones.

La hiptesis nula es que los parmetros son iguales a la s restricciones impuestas,
distribuyendose con una
2
con q grados de libertad (siendo q el numero de restricciones
exigidas al modelo). En nuestro q=3 y al 95% de confianza el chi de tabla es 11,07 por lo que
no podemos rechazar la hiptesis nue
Se acepta Ho si chi que se obtiene es menor al chi de tabla.
En este caso no se puede rechazar la hiptesis nula de significancia de los parmetros al 95%
de significancia. X2<xcalculado se acepta la hiptesis nula

También podría gustarte