Está en la página 1de 19

ESTIMACIÓN

APLICANDO

MÁXIMA
VEROSIMILITUD
ECONOMETRÍA I

2020
Se aplicará el modelo de Máxima Verosimilitud a las
exportaciones peruanas y sus determinantes durante el
periodo 1990-2019.

Stefano Calderón Galarza


Estimación aplicando el modelo de Máxima Verosimilitud

1. Especificación del Modelo


El presente trabajo tiene como realizar el proceso de estimación,
que normalmente se realizaba con Mínimos Cuadrados
Ordinarios, mediante el método de Máxima Verosimilitud. Para
este caso se presentará como variable explicada a las
exportaciones del Perú en el periodo que abarca 1950-2019
siendo sus variables explicativas el tipo de cambio, las
importaciones y la demanda interna del país en el periodo
estipulado.
Donde
X: Exportaciones en el Perú, expresado en millones de soles.
TC: Tipo de cambio en el Perú (soles por dólar).
M: Importaciones en el Perú, expresado en millones de soles.
DI: Demanda interna en el Perú, expresado en millones de soles.

Acontinuación se muestra los datos recopilados del Banco


Central de Reservas del Perú

Fuente: BCRP

Modelo de regresión: 𝑋 = 𝛽0 + 𝛽1 ∗ 𝑇𝐶 + 𝛽2 ∗ 𝑀 + 𝛽3 ∗ 𝐷𝐼 + 𝑢
2. Resultado de la estimación mediante MCO
Primero se visualiza la regresión por MCO y sus resultados
porque serán de ayuda al momento de comparar con los
resultados mediante el modelo de MV.

Interpretación: En el modelo se tienen 2 variables significativas


que son el tipo de cambio (TC) y las importaciones (M) ya que su
probabilidad es menor a 5%. Sin embargo, la variable demanda
interna (DI) es no significativa. El modelo en su conjunto es
significativo por el estadístico F que es menor a 5%.
Se aprecia el problema de autocorrelación mediante el estadístico
de Durbin-Watson que es mucho menor a 2.

3. Método de Máxima Verosimilitud


Cabe resaltar que el método de máxima verosimilitud presenta
propiedades teóricas más fuertes que las de MCO. Los
coeficientes son los mismo que los de MCO. El estimador de la
varianza de MV es sesgado, pero tienden a ser iguales con el de
MCO mientras que la muestra aumenta. Primero agrupamos las
variables en forma matricial para especificar el modelo en dicha
notación. He de recordar que las exportaciones son las variables
dependientes, mientras que el tipo de cambio, importaciones y
demanda interna actúan como variables explicativas en el
modelo.

A partir de aquí por simplicidad en la notación se escribirá a las


exportaciones como Y por ser la variable endógena, mientras que
a las exógenas mediante X1, X2, X3.

La muestra es de 30 (n=30) como se puede apreciar


matricialmente.
El modelo lineal general para este modelo es el siguiente:
𝑦 = 𝑋𝛽 + 𝑢……………………………………(1)

Mientras que el modelo estimado es:


𝑦̂ = 𝑋𝛽…………………………………………(2)

Para fines comparativos se hallará la suma de residuos al cuadrado,


recordamos que este resultado es el que está sujeto a minimización en
el método de MCO

Reemplazando (2) en (1) obtenemos

𝑢 = 𝑦 − 𝑦̂………………………………………(3)

De manera que se resolverá la suma de cuadrado de los residuos


expresada por:
RSS=Σu2………………………………………(4)
De esta última se realiza la operación mediante el EViews
Se adjunta la programación realizada para la obtención de la sumatoria
de los errores al cuadrado:

Donde el resultado obtenido es el siguiente:

Habiendo resuelto como preámbulo la RSS, nos introducimos en el


análisis de la función de verosimilitud, el cálculo de los coeficientes y la
varianza para realizar una comparación con los resultados arrojados
por el modelo de MCO. Finalmente se realizará la viabilidad del modelo
MV mediante la tríada de las pruebas de hipótesis que lo conforman la
razón de verosimilitud, de Wald y del multiplicador de Lagrange.

3.1. La función de Verosimilitud


Representamos este modelo de 3 variables exógenas mediante:
𝑌𝑖 = 𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 + 𝑢𝑖

Donde ya se conoce que tiene una media igual a = 𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 +
𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 y una varianza 𝜎 2 . La función de densidad de
probabilidad conjunta de 𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌30 , dadas las varianzas y
las medias anteriormente descritas, se escribe como se
muestra:

𝑓(𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌30 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎 2 )


Esta función de densidad de probabilidad conjunta se escribe
como el producto de las 30 funciones de densidad individuales
gracias a la independencia que presentan las Y.

𝑓 (𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌30 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎 2 ) =


𝑓 (𝑌1 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎 2 )* 𝑓(𝑌2 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎 2 ) ∗ … ∗
𝑓 (𝑌30 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎 2 )

Donde se representará mediante una función de densidad de


una variable normalmente distribuida con media y varianza
dadas.
2
1(𝑌𝑖 −𝛽1𝑖 −𝛽2𝑖 𝑋1𝑖 −𝛽3𝑖 𝑋2𝑖 −𝛽4𝑖 𝑋3𝑖 )
1 {−
2 𝑛2
}
𝑓 (𝑌𝑖 ) = 𝑒
𝜎√2𝜋

Al sustituir esta última por cada 𝑌𝑖 se obtiene

𝑓(𝑌1 , 𝑌2 , 𝑌3 , … , 𝑌30 |𝛽1𝑖 + 𝛽2𝑖 𝑋1𝑖 + 𝛽3𝑖 𝑋2𝑖 + 𝛽4𝑖 𝑋3𝑖 , 𝜎2 )


2
1(𝑌𝑖 −𝛽1𝑖 −𝛽2𝑖 𝑋1𝑖 −𝛽3𝑖 𝑋2𝑖 −𝛽4𝑖 𝑋3𝑖 )
1 {−
2 𝑛2
}
= 𝑛 𝑒
𝜎 𝑛 √2𝜋

Ahora, si se conoce o están dadas 𝑌1, 𝑌2, 𝑌3, … , 𝑌30 pero se


desconoce los parámetros y la varianza como en este caso, se
habla de la función de verosimilitud representado por FV(𝛽1 ,
𝛽2 , 𝛽3 , 𝛽4 , 𝜎 2 ) y se escribe de la siguiente manera
2
1(𝑌𝑖 −𝛽1𝑖 −𝛽2𝑖 𝑋1𝑖 −𝛽3𝑖 𝑋2𝑖 −𝛽4𝑖 𝑋3𝑖 )
1 {−
2 𝑛2
}
𝐹𝑉(𝛽1 , 𝛽2 , 𝛽3 , 𝛽4 , 𝜎 2 ) = 𝑛 𝑒
𝜎 𝑛 √2𝜋

El método MV, a diferencia con el de MCO, consiste en estimar


los parámetros que no se conocen de manera que la
probabilidad de observar las Y dadas sea lo más alta (o
máxima posible), caso contrario sucede con el MCO que
consiste en la minimización de los errores al cuadrado.
Habiendo especificado la razón del método MV ahora toca
encontrar el máximo de la ecuación 𝐹𝑉(𝛽1 , 𝛽2 , 𝛽3 , 𝛽4 , 𝜎 2 ). Para
poder maximizar primero tenemos que linealizar la función a
través de logaritmos de la siguiente manera:
2
𝑛 1 (𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )
𝑙𝑛𝐹𝑉 = −𝑛𝑙𝑛𝜎 − ln(2𝜋) − ∑
2 2 𝜎2

2
𝑛 𝑛 1 (𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )
= − 𝑙𝑛𝜎 2 − ln(2𝜋) − ∑
2 2 2 𝜎2
Hasta ahora se ha presentado de manera algebraica, sin
embargo, también se podría realizar de forma matricial en la
que se multiplica la transpuesta de la función por la función
como:
(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )𝑇 ∗ (𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )

Para representar la función que está elevada al cuadrado


dentro de la sumatoria.

3.2. Cálculo para hallar coeficientes y varianza

Para hallar los parámetros y la varianza del modelo MV se


realiza las derivadas parciales correspondientes. Se muestra la
siguiente gradiente:

𝑑
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 )
𝑑𝛽1
𝑑
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 )
𝑑𝛽2
𝑑
𝑔𝑟𝑎𝑑𝑖𝑒𝑛𝑡𝑒(𝑙𝑛𝐹𝑉, 𝛽, 𝜎 2 ) = 𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 )
𝑑𝛽3
𝑑
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 )
𝑑𝛽4
𝑑 2)
[𝑑 𝜎2 𝑙𝑛𝐹𝑉 𝛽, 𝜎 ]
(

Al diferenciar parcialmente respecto a los parámetros se


obtiene:
𝑑 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = − 2 ∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )(−1)
𝑑 𝛽1 𝜎

𝑑 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = − 2 ∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )(−𝑋1𝑖 )
𝑑 𝛽2 𝜎

𝑑 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = − 2 ∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )(−𝑋2𝑖 )
𝑑 𝛽3 𝜎

𝑑 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = − 2 ∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )(−𝑋3𝑖 )
𝑑 𝛽4 𝜎

𝑑 𝑛 1
𝑙𝑛𝐹𝑉(𝛽, 𝜎 2 ) = − 2 + 4 ∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )2
𝑑𝜎 2
2𝜎 𝜎
Sin embargo, esta forma es un tanto tediosa a la hora de
resolver. Por ende, se opta por la notación matricial.
Recordemos lo siguiente:
(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )𝑇 ∗ (𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )

Esto hace alusión al siguiente término:


∑(𝑌𝑖 − 𝛽1𝑖 − 𝛽2𝑖 𝑋1𝑖 − 𝛽3𝑖 𝑋2𝑖 − 𝛽4𝑖 𝑋3𝑖 )2

Introducimos este término en la ecuación de la función de


verosimilitud y obtenemos de forma general a:

𝑛 𝑛 1 (𝑌𝑖 − 𝑋𝛽)𝑇 (𝑌𝑖 − 𝑋𝛽)


= − 𝑙𝑛𝜎 2 − ln(2𝜋) −
2 2 2 𝜎2

Y la derivada de

𝑑 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = 2 𝑋 𝑇 (𝑌 − 𝑋𝛽) = 0
𝑑𝛽 𝜎

𝛽̂ 𝑇 −1 𝑇
𝑀𝑉 = (𝑋 𝑋) 𝑋 𝑌

Lo que resulta curioso que este resultado de coeficientes


mediante MV coincide con la forma matricial de MCO,
entonces, no se debe extrañar que los resultados de los
coeficientes sean los mismos bajo ambos modelos.
Habiendo realizado dicha observación, obtenemos los
siguientes resultados realizados mediante EViews:

Obteniéndose de la siguiente programación:


Sin embargo, por motivos formales compararemos este
resultado con la regresión realizada por MCO y comprobar que
son idénticos:

Como podemos observar, ambos coeficientes son los mismo,


entonces, qué conclusiones podemos llegar con estos
resultados:
a) Los coeficientes por MV son insesgados
b) Los coeficientes por MV son lineales
c) Los coeficientes por MV son consistentes ya que convergen
al valor poblacional
d) Los coeficientes por MV son eficientes, misma varianza

Entonces, ya comprobamos los coeficientes y que estos son


MELI como los de MCO.

A continuación, veremos qué sucede con la varianza.

Recordemos la función objetivo a optimizar con notación


matricial:

𝑛 2
𝑛 1 (𝑌𝑖 − 𝑋𝛽)𝑇 (𝑌𝑖 − 𝑋𝛽)
( )
= − 𝑙𝑛𝜎 − ln 2𝜋 −
2 2 2 𝜎2

𝑑 𝑛 1
𝑙𝑛𝐹𝑉 (𝛽, 𝜎 2 ) = − 2 + 4 (𝑌𝑖 − 𝑋𝛽)𝑇 (𝑌𝑖 − 𝑋𝛽) = 0
𝑑𝜎 2
2𝜎 2𝜎
𝑇
(𝑌𝑖 − 𝑋𝛽) (𝑌𝑖 − 𝑋𝛽)
𝜎̂
2
𝑀𝑉 =
𝑛
Como hallamos la varianza, recordar que, al inicio de este
trabajo, dejamos establecido que es error es el valor
observado de Y menos el valor estimado.

Entonces la varianza también se puede hallar de la


siguiente manera:

𝑇
𝑢 𝑢
𝜎̂
2
𝑀𝑉 =
𝑛

Entonces introduciendo esta fórmula en la programación


obtenemos:

Teniendo como resultado:

Como vemos, esta varianza es diferente con la de MCO, para


verlo mejor comparamos la desviación estándar que aparece
en la estimación en el EViews:

Entonces realizamos la comparación

De los resultados comparados, se observa que la varianza


estimada por MV en este caso es menor a la de MCO.
Qué conclusiones se puede realizar a raíz de estos
resultados:
a) La varianza por MV es consistente.
b) La varianza por MV es sesgada. Según Casas, esta
varianza no alcanza la cota de Cramer Rao, no es
eficiente.
4. Cálculo de la función de Verosimilitud
Hasta el momento se ha conocido los coeficientes y la varianza
por el método de Máxima Verosimilitud. Sin embargo, no nos
hemos cuestionado si dicho método es viable. En este apartado
daremos los cimientos para la comprobación futura sobre la
viabilidad de dicho modelo.
Se empezará con el cálculo de la función de verosimilitud cuyo
resultado a través del Mathcad es el siguiente:

Recordemos que esta función necesita estar linealizada y por ello


se aplica logaritmos a dicha función:

Para continuar con el procedimiento tenemos que corroborar que


este valor coincida con la probabilidad logarítmica del EViews (log
likelihood)
Vemos que los valores concuerdan lo que es un buen indicativo.

Para el cálculo de la tríada de la prueba de hipótesis se ha usado


la variable “tipo de cambio” (TC).

Ahora reemplazamos los datos en la formula del logaritmo de la


función de verosimilitud:

De este reemplazo se obtendrá el valor de la función para cada


valor que adopta el tipo de cambio por cada periodo.

No hay que perder de vista el objetivo que tiene la función de


verosimilitud, que es alcanzar el máximo de probabilidad de
observación de las Y (exportaciones en este caso). La función
logarítmica ayuda mucho ya que es una función monótona
creciente. Y lnFV alcanzará el máximo en el mismo punto en el
que lo hace FV.
Considerando estos datos se realiza la gráfica correspondiente
que lo que representa es la relación de la función lnL con el tipo
de cambio.
Como se aprecia en el gráfico, el comportamiento de la función de
verosimilitud en logaritmos tiene un comportamiento
relativamente estable, esto se puede explicar por el hecho que el
tipo de cambio no presentan cambios bruscos ni volatilidades
marcadas.

Antes de pasar a las pruebas de hipótesis, se calcularán algunos


datos relevantes como el promedio de la función de verosimilitud
en logaritmos como su máximo valor (un método propuesto por
Maddala)

Estos cálculos se han realizado en Mathcad:

Donde se puede visualizar que el promedio difiere en una cuantía


significable en comparación con el punto máximo, esto se debe
por los últimos valores que se pueden observar en la tabla
adjuntada.

5. La triada de las pruebas de hipótesis


Como se mencionó anteriormente, hasta el momento no se sabe si
el modelo de MV es viable para estos datos que representa la
macroeconomía peruana. Para cerciorarnos de ello se recurrirá a
tres pruebas que son la contraparte de los supuestos de MCO en
el modelo de Máxima Verosimilitud.

5.1. La razón de verosimilitud (LR)


Para iniciar con la prueba LR primero realizaremos algunos
cálculos para la obtención del estadístico y para la realización
de la prueba de hipótesis.

Para empezar, calcularemos el r2. Primero se realizará con


EViews y luego se comparará con el Mathcad donde los
resultados deben coincidir. Mediante el EViews, se efectúa la
siguiente programación:
Donde el resultado de la regresión es:

Valor que coincide con la estimación ya presentada varias veces


en el presente trabajo.
Por el otro lado, en el Mathcad se obtiene:

Podemos ver que los datos coinciden. Hasta el momento estamos


en el camino de calcular los valores para hallar la razón de
verosimilitud. Ahora para finalizar con los cálculos previos
hallaremos la suma de cuadrados, suma de cuadrados
restringidos y la suma de cuadrado sin restricciones.

Teniendo estos resultados nos adentramos en el cálculo del


primer estadístico.

Donde se halla a través de la siguiente fórmula:


A primera instancia ya se puede decir que rechaza la hipótesis
nula por el pvalue que es menor a 5%. Sin embargo, realizaremos
el análisis gráfico y la prueba de hipótesis.

PROB:0.95 PROB:6.35*10-14

El valor crítico viene dado por:

Donde las hipótesis a evaluar bajo un nivel de significancia del


5% son:
H0:LR=0 -> El modelo no es relevante
H1:LR≠0 -> El modelo es significante

Gráficamente se confirma que se rechaza la hipótesis nula,


entonces, el modelo es relevante.

Se finaliza la prueba mediante el análisis con H0 en términos del


pvalue

Donde es 0 porque se rechaza la hipótesis nula.

Ahora se analiza con el qvalue

De igual forma se rechaza la hipótesis nula.


5.2. Prueba de Wald (W)
Para la prueba de Wald se utiliza el producto de observaciones
con el coeficiente de determinación dividido por la diferencia entre
1 y el coeficiente de determinación, con esto se halla el estadístico
de Wald, cuyo resultado es como se muestra:

Donde nuevamente se puede suponer que se rechaza la hipótesis


nula debido a que el pvalue del estadístico de Wald es menor a
5%. Sin embargo, el análisis gráfico es indispensable.

PROB:0.95 PROB:0

Donde el valor crítico se obtiene de:

Donde las hipótesis a evaluar bajo un nivel de significancia del


5% son:
H0: W=0 -> El modelo no es relevante
H1: W≠0 -> El modelo es significante

Gráficamente se confirma que se rechaza la hipótesis nula,


entonces, el modelo es relevante.

Se finaliza la prueba mediante el análisis con H0 en términos del


pvalue

Donde es 0 porque se rechaza la hipótesis nula.


Ahora se analiza con el qvalue

De igual forma se rechaza la hipótesis nula.

5.3. Prueba del Multiplicador de Lagrange (LM)


Para la obtención del multiplicador de Lagrange se utiliza el
producto del número de observaciones por el coeficiente de
determinación. Utilizando dicho procedimiento se obtiene:

Nuevamente el pvalue es menor al 5% suponiendo un rechazo


de la hipótesis nula. Ahora se procederá a realizar el análisis
gráfico:

PROB:7.465*10-6
PROB:0.95

Donde el valor crítico se obtiene


de:

Donde las hipótesis a evaluar bajo un nivel de significancia del


5% son:
H0: LM=0 -> El modelo no es relevante
H1: LM≠0 -> El modelo es significante

Gráficamente se confirma que se rechaza la hipótesis nula,


entonces, el modelo es relevante.

Se finaliza la prueba mediante el análisis con H0 en términos del


pvalue
Donde es 0 porque se rechaza la hipótesis nula.

Ahora se analiza con el qvalue

De igual forma se rechaza la hipótesis nula.

Para las tres pruebas el modelo es significante, pero eso no basta


para considerar que el modelo de Máxima Verosimilitud funciona
de manera adecuada en este ejemplo.

Donde se observa que cumple la relación: 𝑊 ≥ 𝐿𝑅 ≥ 𝐿𝑀


Al observar que cumple la relación mostrada, se puede concluir
que el modelo de Máxima Verosimilitud cumple con la relación,
pero hay un detalle que no cumple, que la hipótesis nula no se
rechace en la prueba del Multiplicador de Lagrange. Por lo que no
es un buen modelo para este ejemplo

También podría gustarte