Está en la página 1de 102

Guía Elemental del

Paquete E-Views

para el

Análisis Econométrico

Dra. María de la Paz Guzmán Plata


Í N D I C E

Instrucciones para estimar y evaluar un Modelo de Regresión Lineal


en el paquete E-Views 1
Estimación del modelo en forma logarítmica y otras trasformaciones
elementales 5
Predicción 7
Modelos Binarios (Modelos Logit y Probit) 19
Análisis de Series de Tiempo 30
Gráficas para pronosticar 30
Tendencia de una serie 33
Estacionalidad de una serie 38
Generación de Modelos AR, MA y ARMA estacionarios y no
estacionarios en covarianza 44
Raices de los modelos ARMA y su diagnostico 48
Modelos ARMA con componentes de tendencia, estacionalidad y 53
ciclo.
Predicción de modelos ARMA 62
Raíces Unitarias, Modelos ARIMA y Pronóstico 64
Estimación de modelos ARCH y GARCH 74
Vectores Autorregresivos 80
Pruebas de Causalidad de Granger 82
Función Estímulo Respuesta y la Tabla de Descomposición de la 84
Varianza
Cointegración y Método de Corrección del Error 95
Pruebas para detectar cointegración entre las variables 96
Problema de endogenidad de las variables explicativas y el modelo 99
de Ecuaciones Simultáneas

2
INSTRUCCIONES PARA ESTIMAR Y EVALUAR UN MODELO DE REGRESIÓN
LINEAL EN EL PAQUETE E-VIEWS
1.- Haga una hoja de trabajo en el paquete E-Views con la instrucción
File/New/Workfile/Frequency/Anual, si los datos de la muestra del modelo a estimar
son anuales con periodo inicial por ejemplo en 1980 y periodo final por ejemplo en
2010 (siempre dejar espacio para la predicción); Semi anual si son semestrales con
periodo inicial por ejemplo en 1980.1 y periodo final 2010.2; Quanterly si son
trimestrales con periodo inicial por ejemplo en 1980.1 y periodo final 1980.4; Monthly
si son mensuales con periodo inicial por ejemplo en 1980.01 y 2010.12; Undated o
irregular si son datos diarios, por hora o por minuto (como para el caso de datos de la
Bolsa de Valores) con periodo inicial en 1 y periodo final por ejemplo en 20,000.
Recomendación. La muestra debe contener por lo menos 60 datos reciente, evite
trabajar con datos anuales. Además, al estimar un modelo las variables medidas en
puntos o en precios constantes (unidades reales) deben de tener la misma fecha base
aunque sus unidades de medida pueden ser diferentes. La fecha base debe pertenecer a
un año estable en términos económicos o financieros.
2.- Guarde su archivo con un nombre que sea familiar para usted con File/Save
as/nombre del archivo
3.- Para meter los datos de cada variable escribir la palabra Data dejar espacio y escribir
el nombre de la variable que va introducir y después enter. Estas palabras deberán ir en
el espacio en blanco donde aparece el cursor. Por ejemplo data PIB y después que dé
enter aparece el nombre de la variable y los espacios donde debe introducir los datos.
Para importar los datos de excel, una vez que en EV haya escrito la palabra data
(nombre de la variable) y dé enter, importar de excel sólo los datos (sin fechas porque
estas ya están en EV) sombreando los datos de la variable en excel y la instrucción copy
también en excel e irse a EV y hacer clic en Edit/Paste, el cursor debe estar en la fecha
del primer dato que debe coincidir con la fecha del primer dato en excel .
4.- Una vez que se introducen los datos de cada variable del modelo se procede a
estimarlo dando clic en Quick/Estimate Equation/ donde aparece una ventana que
tiene un espacio en blanco y en la parte de abajo aparece el método de mínimos
cuadrados ordinarios o LS (si quiere cambiar de método de estimación del modelo, de
clic en la flecha y aparece, entre otros, el método de máxima verosimilitud). En la parte
de la ventana en blanco donde se encuentra el cursor, anotar en primer lugar, el nombre
de la variable dependiente, espacio, letra c (letra con la cual el paquete estima a la
ordenada al origen), espacio, y los nombres de las variables independientes con sus
respectivos espacios entre cada una de ellas y finalmente dar enter, en seguida aparece
el resultado de la regresión o la estimación del modelo. Ese resultado se guarda dando
clic en Name/ del menú de esa ventana y anotando un nombre familiar a esa estimación.
PARA HACER LAS PRUEBAS DE ESPECIFICACIÓN Y DE DIAGNÓSTICO DEL
MODELO CONTINUAR CON:
5.- Prueba de variables sobrantes o coeficientes estadísticamente no significativos y
prueba de variables omitidas. Esta se realiza con el valor de la probabilidad del
estadístico t (la cual aparece en la última columna de la primera parte de los resultados

3
de la regresión). La hipótesis nula a probar es la no significancia individual de cada una
de los estimadores, por tanto si el valor del estadístico t es mayor a 0.05 (5.0% de
significancia o 95.0% de confianza) se encuentra en la zona de no rechazo de la
hipótesis nula al 95.0% de confianza, es decir, el coeficiente particular es
estadísticamente no significativo o bien la variable respectiva no contribuye en la
explicación de los cambios de la variable dependiente para este porcentaje de confianza.
Esta variable puede ser eliminada del modelo o bien dejarla pero no explicarla en el
reporte de los resultados y evaluación de éste.
La prueba de variables omitidas se realiza con la RESET. La prueba de variables
omitidas es una, de errores en la media del modelo. Para realizar la prueba RESET dar
clic sobre el menú de los resultados de la regresión en View/Stability Test/Ramsey
Reset Test/OK. Esta prueba arroja dos estadísticos y los resultados de la regresión
auxiliar. La hipótesis nula a probar es – el modelo no tiene problemas en la media- por
tanto si el valor de la probabilidad de los estadísticos es mayor que 0.05, se encuentra en
la zona de no rechazo de la hipótesis nula al 95.0% de confianza.
6.- Prueba de significancia conjunta de los estimadores. Esta prueba se realiza con el
valor de la probabilidad del estadístico F, que aparece regularmente en la segunda parte
de los resultados de la regresión del lado izquierdo. La hipótesis nula a probar es la no
significancia conjunta de los estimadores, por tanto si el valor de la probabilidad del
estadístico F es mayor que 0.05, se encuentra en la zona de no rechazo de la hipótesis
nula al 95.0% de confianza, en consecuencia ninguno de los estimadores es
estadísticamente significativo.
7.- Prueba de forma funcional correcta o problemas en el primer momento (en la media
X ) de la variable dependiente Y. Los problemas en la media del modelo se detectan
con la prueba RESET o WHITE, ambas pruebas se encuentran en el paquete EV. Para
realizar la prueba RESET dar clic sobre el menú de los resultados de la regresión en
View/Stability Test/Ramsey Reset Test/OK. Esta prueba arroja dos estadísticos y los
resultados de la regresión auxiliar. La hipótesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadísticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hipótesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadístico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
Para realizar la prueba White dar clic sobre el menú de los resultados de la regresión en
View/Residul Test/White Heteroskedasticity/OK. Esta prueba arroja dos estadísticos
y los resultados de la regresión auxiliar. La hipótesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadísticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hipótesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadístico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
8.- Prueba de normalidad en los errores.- La prueba de normalidad en los errores del
modelo, se realiza al dar un clic sobre el menú de los resultados de la regresión en
View/Residul Test/ Histogram-Normality Test/ OK. Los resultados de esta prueba es
una gráfica de la distribución de frecuencias de los errores del modelo y del lado
derecho se encuentra el cálculo de los primeros momentos de la variable aleatoria
(media, varianza, simetría y curtosis), el valor del estadístico Jarque-Bera y el valor de
su probabilidad. La hipótesis nula a probar es –los errores tiene una distribución

4
normal- por lo que si el valor de la probabilidad del estadístico Jarque-Bera es mayor
que 0.05, se encuentra en la zona de no rechazo de la hipótesis nula, es decir, no se
rechaza la hipótesis nula de normalidad en los errores del modelo a un nivel de
confianza del 95.0%.
Es importante destacar, que la prueba de normalidad se puede llevar a cabo para
cualquier variable de la cual se quiera saber si se distribuye en forma normal (sea la
variable dependiente, independiente o los errores del modelo estimado). Para realizarle
la prueba de normalidad a cualquier variable, dar clic en el nombre de la variable de
interés, la cual se sombreará y después dar clic en Show del menú de la hoja de trabajo,
con esta instrucción la variable aparece en la nueva ventana y sobre el menú de ésta dar
clic en View/Descriptive Estadistic/Histogram Stits/enter. Además, los errores de la
regresión se pueden guardar como cualquier variable dándoles un nombre después de
estimar la regresión del modelo con la instrucción genr espacio cualquier nombre=resid
(la palabra genr genera cualquier operación) escrita el la sección blanca, que se
encuentra en la parte inferior del menú principal de EV. Ejemplo genr residuo=resid.
Con el nombre de residuo o cualquier nombre antes del signo igual, EV guarda los
errores de la última regresión estimada o de cualquier operación realizada para
transformar una variable.
9.- Prueba de multicolinialidad. Esta prueba se realiza a través de la matriz de
correlación de las variables involucradas del modelo, esta matriz es simétrica donde la
diagonal principal tiene valores de uno, porque el coeficiente de correlación de una
variable con ella misma tiene este valor. EV calcular esta matriz dando clic en Show y
en la parte blanca de esta ventana, se anota la lista de las variables involucradas en el
modelo (se recomienda empezar por el nombre de la variable dependiente seguida por
las independientes, pero en realidad no importa el orden) y después OK, además sobre
el menú de la nueva ventana dar clic sobre View/Correlation/OK y aparece la matriz
de correlación. Si los coeficientes de correlación de los pares de variables es mayor que
0.88, en términos absolutos, hay indicios de multicolinialidad entre las variables. Si
además, la R 2 tiene un valor cercano a uno y el valor de la probabilidad de estadístico t
es mayor que 0.05 (coeficientes estadísticamente no significativos) entonces se
confirma el problema de multicolinialidad.
10.- Prueba de Homoscedasticidad o de estabilidad del coeficiente  2 . Para saber si los
errores son homoscedásticos existe, en el paquete EV, dos pruebas estas son ARCH y
White. Los resultados de ambas pruebas se obtienen dando clic sobre los resultados de
la regresión en View/Residual Test/ARCH/OK y View/Residual Test/White
Heteroskedasticity/OK. Los resultados de estas dos pruebas son los valores de los
estadísticos, los valores de sus probabilidades y las regresiones auxiliares. La hipótesis
nula a probar es –los errores del modelo son homoscedásticos-, por tanto si el valor de
la probabilidad de los estadísticos que arroja cada prueba es mayor que 0.05, no se
rechaza la hipótesis nula, es decir, los errores son homocedásticos al 95.0% de
confianza.
11.- Prueba de no autocorrelación en los errores del modelo. Para saber si los errores
están autocorrelacionados, se encuentra el análisis del estadístico Durbin-Watson (D-
W), el análisis del correlograma de los errores y la prueba de Multiplicadores de
Lagrange. El estadístico D-W aparece en los resultados de la regresión; si el estadístico
D-W tiene el valor de 2 o muy cercano a este valor, los errores no presentan
autocorrelación de orden uno; sin embargo, este estadístico no puede ser utilizado para
detectar autocorrelación cuando se estima un modelo dinámico (cuando la variable

5
dependiente rezagada aparece como explicativa), en este caso se utiliza la prueba H de
D-W. El análisis del correlograma de los errores, es un indicador del problema de
autocorrelación; para realizar esta prueba dar clic sobre los resultados de la regresión en
View/ Residul Test/Correlogram-Q Statistics/OK; la hipótesis nula a probar es –los
errores no están autocorrelacionados- por tanto si las barras del correlograma no se
salen de la banda del 95.0% de confianza o del 5.0% de significancia, no se rechaza la
hipótesis nula de no autocorrelación entre los errores, si las barras del correlograma se
salen de dicha banda esto quiere decir que hay problemas de autocorrelación entre los
errores. La prueba de Multiplicadores de Lagrange (LM) para detectar autocorrelación
en los errores de orden p, se realiza dando clic sobre los resultados de la regresión en
Correlation LM/ View/Residul Test/Serial OK; esta prueba llamada Breusch-Golfrey
arroja los valores de dos estadísticos y la regresión auxiliar; la hipótesis nula a probar es
–los errores no están autocorrelacionados- por tanto si el valor de la probabilidad de los
estadísticos es mayor que 0.05 no se rechaza la hipótesis nula al 95.0% de confianza.
12.- Prueba de estabilidad en los parámetros beta o prueba de permanencia estructural.
Para realizar esta prueba se encuentran los estadísticos CUSUM, CUSUM-Q y Chow.
Es recomendable primero obtener a los estadísticos CUSUM y CUSUM-Q, porque si
hay cambio estructural, las gráficas de estos estadísticos marcan la fecha de quiebre que
se requiere para introducirla la prueba Chow. Para obtener a los estadísticos CUSUM
dar clic en los resultados de la regresión sobre View/Recursive Estimates/CUSUM
Test/OK y aparece una gráfica donde, dentro de una banda de 95.0% de confianza, se
dibuja a este estadístico; de igual manera para obtener el estadístico CUSUM-Q dar clic
en los resultados de la regresión sobre View/Recursive Estimates/CUSUM-Q
Test/OK y aparece una gráfica donde dentro de una banda de 95.0% de confianza se
dibuja a este estadístico. La hipótesis nula a probar es que los estimadores beta son
estables a través de tiempo o bien que hay permanencia estructural, por tanto si los
estadísticos se salen de las bandas hay cambio estructural y se tiene que recordar la
fecha en que los estadísticos cortan las bandas para anotarlas en la prueba Chow y
comprobar si en realidad hubo cambio estructural. Para realizar la prueba Chow dar clic
sobre los resultados de la regresión en View/Estability Test/Chow Breakpoint
Test/enter y aparece una ventana donde en la parte en blanco hay que anotar la posible
fecha del corte, por ejemplo si la muestra es mensual y el estadístico CUSUM o
CUSUM-Q corto la banda en el mes de marzo de 2001, entonces se anota 2001.03 y clic
en OK. Si los valores de la probabilidad de los estadísticos que arroja la prueba son
mayores que 0.05 no se rechaza la hipótesis nula que en ese punto no hubo
rompimiento.
13.- Prueba sobre restricción en los parámetros. Frecuentemente, en la teoría económica
se sostiene que los parámetros individualmente o bajo cualquier operación matemática
(suma, resta, multiplicación o división), deben de ser iguales entre ellos o a cierto
valor, para probar esta clase de restricciones sobre los coeficientes se utiliza la prueba
Wald . El ejemplo más común de esto, se observa en la función de producción tipo
Cobb-Douglas (cuyo modelo se convierte en lineal al estimar las variables por medio de
la transformación logarítmica). Si se quiere probar que cierta industria presenta
rendimientos constantes a escala, el investigador planea la hipótesis nula y la alternativa
( H 0 : 1 +  2 = 1 H 1 : 1 +  2  1 ) y después prueba, con el estadístico Wald, de la
siguiente manera: dar clic sobre los resultados de la regresión en View/Coefficient
Test/ Wald Coefficient Restriction/ y sale una ventana donde hay que anotar la
restricción con la sintaxis c(2)+c(3)=1 y dar OK (suponiendo que existe ordenada al

6
origen porque EV la guarda como c(1)). Note que EV guarda cada coeficiente del
modelo con c entre paréntesis el número de cada coeficiente, como aparece en la
regresión, por tanto c(1) es el coeficiente de la ordenada al origen, c(2) es el coeficiente
de la primera variable X, el c(3) es el coeficiente de la segunda variable X y así
sucesivamente. El criterio de decisión es, si el valor de la probabilidad de los
estadísticos es mayor que 0.05 no se rechaza la hipótesis nula que planteó el
investigador. Para el caso del ejemplo, no se rechaza que la industria presenta
rendimientos constantes a escala.

ESTIMACIÓN DEL MODELO EN FORMA LOGARITMICA Y OTRAS


TRASFORMACIONES EN LAS VARIABLES
Una de las formas funcionales que frecuentemente se utilizan en la estimación del
modelo de regresión lineal es la forma logarítmica. Su uso es recomendable porque los
estimadores miden las elasticidades y se interpretan como el cambio porcentual de la
variable Y ante el cambio porcentual de las variables X. Para estimar el modelo en
logaritmos se tiene que calcular el logaritmo de cada variable o anotarlo directamente en
la estimación. Hay dos pasos para hacer esto en el paquete EV, el primero es calcular el
logaritmo de cada variable con el comando genr y el segundo es estimar la regresión
anteponiendo la instrucción log al nombre de cada variables en la regresión. Para llevar
a cabo la primera, i) ubicar el cursor en la parte blanca debajo del menú principal de
EV y escribir la palabra genr o ii) dar clic en la variable a transformar con alguna
operación y Show/Genr; después anotar cualquier nombre=log(el nombre de la variable
original); Ejemplo.- i) genr lpib=log(pib) o ii) lpib=log(pib); así EV genera y guarda el
logaritmo de cada variable. Para realizar la segunda, i) de clic en Quik/Estimate the
Equation y escribir el la ventana blanca log(nombre original de la variable dependiente)
c log(nombre original de la variable explicativa) etc. ii) ubicar el cursor el la parte
blanca debajo del menú principal y escribir las letras ls log(nombre original de la
variable dependiente) c log(nombre de la variable independiente) etc. La instrucción ls
es para estimar el modelo por el método de MCO. Después de estimar el modelo en
logaritmos, tiene que evaluarlo mediante las pruebas descritas en los puntos del 5 al 12.
Otra transformación conveniente de las variables, es la diferencia de los logaritmos
(cambio relativo) o el cambio porcentual. Para obtener la diferencia del logaritmo de las
variables, por ejemplo del PIB escribir genr dlpib=d(log(pib)) y enter. El cambio
porcentual para la misma variable se calcula como cppib=((pib/pib(-1))-1)*100.
Note que la transformación logarítmica de cada variable reduce las escalalas de las
unidades de medida de la variable únicamente. Sin embargo, el logaritmo de una
variable negativa no se puede calcular.
Otras transformaciones en las variables originales se llevan a cabo con la instrucción
genr o series. Por ejemplo:
1.- El cambio porcentual de una variable de un periodo a otro se realiza escribiendo
genr o series cualquier nombre=((nombre de la variable original/nombre de la variable
original(-1))-1)*100. Hay que tener cuidado en la sintaxis de la fórmulas porque de lo
contrario E-W no las calcula. Para estimar la inflación a partir del índice nacional de
precios al consumidor, cuyo nombre de la variable original fue guardado con inpc
anotar lo siguiente
Genr inflación=((inpc/inpc.(-1))-1)*100

7
2.- La tasa de interés real de algún instrumento financiero medido en tasa nominal
como los cetes, guardado con el nombre original de cetes y creada la variable inflación,
se puede calcular escribiendo
Genr tircetes=(((cetes/12)-inflación)/1+inflación)
3.- Una de las transformaciones recomendables en las variables de un modelo
econométrico es la diferencia (Y del periodo t – Y del periodo anterior (t-1)). Esta
transformación mide la variación absoluta de la variable de un periodo a otro. Así, si se
quiere obtener la diferencia del pib (nombre original de la variable) se escribe
Genr dpib=d(pib)
Con esta instrucción EV calcula la primera diferencia de la variable llamada pib
4.- Las transformaciones de una variable elevada a un exponente, que son frecuentes en
la estimación de un modelo de regresión de una función de costos, se estiman
escribiendo lo siguiente:
Si la variable producción fue guardada con el nombre original de produc
Genr produc2=produc^2 se estima el cuadrado de la variable produc
Genr produc2=squar(produc)
Genr produc3=produc^3 se estima el cubo de la variable produc
5.- La raíz cuadrada de una variables se calcula como
Genr rcproduc=produc^(1/2) se estima la raíz cuadrada de la variable produc
6.- Una variable que se utiliza frecuentemente en los modelos econométricos es la
variable tiempo que toma valor de 0 para la primera observación, 1 para la segunda
observación, 2 para la tercera observación y así sucesivamente hasta agotar el número
de observaciones. EV calcula esta variable con la siguiente instrucción:
Genr tiempo=@trend
Note que antes del signo igual va cualquier nombre (se recomienda anotar un nombre
que haga referencia a la nueva variable). Además, que la sintaxis de las operaciones que
se realizan para transformar a las variables, son parecidas a las utilizadas en ecxel y
deben de estar correctamente escritas para que EV las pueda calcular.
7.- Frecuentemente se transforman las variables del modelo para lograr obtener la
forma funcional correcta o para mejorar la estimación. Sin embargo, cuando se predice
a la variable dependiente se debe explicar y analizar las observaciones de ésta en sus
unidades originales, por tanto se hace necesario realizar unas cuanta operaciones para
lograrlo. Por ejemplo si el modelo se estimó en logaritmos y se quiere estimar la
variable en unidades originales se utiliza el antilogaritmo (e= 2.71828), elevando la
base e (e= 2.71828) al logaritmo de cada observación. Si la variable dependiente se
trasformó en primeras diferencias Y- Y(t-1)=dY para recuperar a Y se manda del lado
derecho de la regresión a Y(t-1) sumando (porque está del lado izquierdo restando).
Otra forma de obtener el prónostico de la variable endogena, en sus unidades
originales, es estimar la regresión con las instrucciones de transformación desde el
inicio. Por ejemplo, la estimación del modelo de la PPA del tipo de cambio en la
versión absoluta.
LS log(tc) c log(PI) log(PE)

8
O en la transformación de diferencias de los logaritmos
Ls d(log(tc)) c d(log(PI)) d(log(PE))
PREDICCIÓN
Una vez estimado el modelo de regresión y si en su evaluación resultó un buen
modelo, se procede a la predicción de la variable dependiente para varios periodos fuera
de la muestra. Para que se pueda hacer dicha predicción, debe existir datos supuestos
para todas las variables independientes. Estos datos se buscan en los criterios anuales de
política económica que edita la Secretaría de Hacienda, los cuales se publican en los
principales periódicos de circulación nacional o en algunas revistas como en “El
Mercado de Valores” que edita Nafinsa. En estos criterios se expone, por ejemplo, cual
será el crecimiento del PIB, la inflación, el salario mínimo etc. Si no se encuentran los
datos hay que suponerlos y sustentar las cifras. Una vez que se meten los datos de las
variables independientes, fuera del periodo original de la muestra, se procede a hacer la
predicción dando clic sobre los resultados de la regresión en Forecast, con esta
instrucción aparece una ventana con el nombre de la variable pronosticada (esta variable
es Y estimada por el modelo o Y gorro), el nombre se puede cambiar al gusto del
investigador y en la parte de abajo aparece el Sample (periodo de la muestra desde la
fecha del dato inicial hasta el final), la fecha final hay que cambiarla hasta la fecha que
abarque la predicción y después dar OK. El resultado de esta instrucción es una gráfica
con una tabla que contiene el Coeficiente de Desigualdad de Theil. Este coeficiente se
emplea para hacer la evaluación del pronóstico. Las características de este coeficiente
son:

 (Yt − Yt )
1 T ˆ ~ 2
T t =1
cdt =
1 T ˆ 2
 t (Y ) +  (Yt )
1 T ~ 2
T t =1 T t =1

donde cdt es el coeficiente de distribución de Theil, Yˆ es el valor de la variable


dependiente pronosticada por el modelo, Y~ es el valor real de la variable dependiente y
T es el número de observaciones. Como se puede observar en esta ecuación el
numerador es la raíz cuadrada del error de pronóstico rcep, pero la escala del
denominador es tal que el valor de este coeficiente toma valores entre cero y uno.

Si cdt = 0 el valor de la variable dependiente estimada por el modelo y el valor real


son iguales o bien el ajuste es perfecto ( Yˆt = Y~t ).

Si cdt = 1 el valor de la variable dependiente estimada por el modelo difiere por


completo del valor real. En este caso el pronóstico no es bueno.

Además, el coeficiente de Theil se puede descomponer en tres partes, las cuales


proporcionan valiosos indicadores de evaluación del pronóstico. Tal descomposición
está dada por

1
T
 ( )
(Yˆt − Y~t )2 = Yˆp − Y~r + (ˆ p − ~r )2 + 2(1 −  )ˆ p~r

9
~
donde Yˆp y Yr son las medias de la variable pronosticada por el modelo y la variable
real respectivamente, ̂ P y ~r son las desviaciones estándar de las series Yˆp y Y~r ,
respectivamente,  es el coeficiente de correlación entre las variables Yˆ y Y~ . La
p r

ecuación anterior muestra que el coeficiente de desigualdad de Theil se descompone en


un término de sesgo, en uno de varianza y otro de covarianza.

Dada tal descomposición de la desigualdad de Theil, se pueden definir las tres


proporciones como

ps =
(Yˆ − Y~ ) 2

(1T ) (Yˆ − Y~ )
t
2

pv =
(ˆ − ~ )2
(1T ) (Yˆ − Y~ )
t
2

2(1 −  ) ˆ ~
pc =
( )
1  (Yˆt − Y~ )2
T

donde ps es la proporción de sesgo, pv es la proporción de varianza y pc es la proporción


de covarianza.

La proporción de sesgo, mide la desviación entre la variable dependiente estimada


por el modelo y la variable dependiente real. Esta proporción es un indicador del error
sistemático, por lo que se esperaría que el valor de la proporción de sesgo fuera cero. Un
valor por arriba de 0.1 o 0.2 significaría que hay un sesgo sistemático, así que es
necesario una revisión del modelo.

La proporción de la varianza indica, la capacidad del modelo para replicar el grado


de variabilidad en la variable de interés. Si la proporción de la varianza es grande,
significa que la serie real ha fluctuado en forma considerable, mientras que la serie
simulada fluctúa poco o bien quiere decir que, la serie real fluctúa poco mientras que la
serie simulada lo hace en mayor medida. Al igual que el valor de la proporción de
sesgo, el valor de la proporción de la varianza se espera se encuentre entre 0.1 o 0.2
porque de esta manera la serie simulada y la real tendrán una variabilidad muy parecida.

La proporción de la covarianza, mide el error no sistemático. Este error es el que


resulta después que se ha explicado las desviaciones de los valores promedio, es por ello
que no es tan problemática como las proporciones precedentes, sin embargo no deja de
ser importante. El valor de esta proporción debe ser igual a uno o muy próximo a uno
ya que se espera que las predicciones se correlacionen a la perfección con los resultados
reales.

ESTIMACIÓN, EVALUACIÓN Y PREDICCIÓN DE UN MODELO

EJEMPLO
10
Suponga que una empresa está interesada en introducirse al mercado nacional con la
venta de café caliente de consumo inmediato, por lo que desea saber la demanda de
tazas diaria de café consumidas por persona en el país y el pronóstico de dicha
demanda hasta el año 2010. Los datos con los que se cuenta para hacer el estudio son
los de la demanda diaria de tazas de café por persona y los precios promedio de estas
taza de 1996 a 2006. La muestra es la siguiente:

Demanda Precio
Diaria
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000

Donde la demanda diaria de café está medida en tazas y los precios en dólares
americanos.

Según la teoría microeconómica la demanda de un bien depende inversamente de


los precios. Por lo que se puede platear un modelo econométrico, el cual se sustente en
esta teoría para estimar la demanda de consumo de tazas diarias de café por persona, de
la siguiente manera:

Yt =  0 + 1 P + ut con  0  0; 1 0

Donde la variable Y representa la demanda diaria de tazas de café consumidas por


persona y P el precio de dicha taza. Los signos teóricos esperados expresan que la
demanda autónoma o la demanda que no depende del precio será positiva y que la
demanda de tazas de café depende inversamente del precio. El error aleatorio estará
medido por u.

Los resultados de la regresión fueron los siguientes:

Dependent Variable: DTAZAS


Method: Least Squares
Sample(adjusted): 1996 2006
Included observations: 11 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C 2.691124 0.121622 22.12686 0.0000
PCAFE -0.479529 0.114022 -4.205592 0.0023
R-squared 0.662757 Mean dependent var 2.206364
Adjusted R-squared 0.625286 S.D. dependent var 0.210251
S.E. of regresión 0.128703 Akaike info criterion -1.099656
Sum squared resid 0.149080 Schwarz criterion -1.027311
Log likelihood 8.048108 F-statistic 17.68700

11
Durban-Watson stat 0.726590 Prob(F-statistic) 0.002288

EVALUACIÓN CUANTITATIVA DEL MODELO

El coeficiente R 2 y R 2 indican que el 66.27% y el 62.53% de las variaciones en la


demanda diaria de tazas diarias de café consumidas por persona están explicadas por las
variaciones en su precio.

Los signos de los coeficientes coinciden con los teóricos esperados porque
mientras la ordenada al origen es positiva, el coeficiente de la variable precio o la
pendiente tiene el signo negativo.

El valor de la ordenada al origen indica que el consumo autónomo fue de 2.69


tazas de café diario por persona en el periodo de 1996 a 2006 o bien que
independientemente del precio de la taza de café, las personas consumieron en
promedio diariamente 2.69 tazas.

El valor de la pendiente indica que por cada aumento de un dólar en el precio de


la taza de café su consumo bajo en 0.47 de taza, durante el periodo estudiado.

EVALUACIÓN CUALITATIVA

Significancia individual de los coeficientes. Como el valor de la probabilidad del


estadístico t de la ordenada al origen es menor a 0.05, se rechaza la hipótesis nula de no
significancia estadística de este coeficiente al 95.0% de confianza. Este resultado
expresa que la línea de regresión estimada tiene ordenada al origen, es decir, que no es
una línea que parte del origen. También, el valor de la probabilidad de la pendiente es
menor 0.05, por tanto se rechaza la hipótesis nula de no significancia estadística de
dicho coeficiente o bien que la pendiente es diferente de cero. En términos económicos,
esto se interpreta como que la variable precio contribuye en la explicación de los
cambios en la demanda diaria de tazas de café consumidas por persona.

Es importante destacar, que la prueba de significancia individual de los


coeficientes forma parte de la prueba de inclusión de variables irrelevantes en el
modelo, que a su vez entra en los posibles errores de especificación en la media de este.

Singificancia conjunta de los coeficientes. Según el valor de la probabilidad del


estadístico (0.002288), se rechaza la hipótesis nula de no significancia estadística
conjunta de los estimadores al 95.0% de confianza o bien los coeficientes son
conjuntamente diferentes de cero, es decir, las variables independientes conjuntamente
ayudan a explicar las variaciones de la demanda del consumo diario de las tazas de café.

Prueba de errores de especificación en la media del modelo (prueba de forma


funcional). Como los valores de la probabilidad de los estadísticos que arroja la prueba
Reset son mayores que 0.05, no se rechaza la hipótesis nula al 95.0% de confianza, esto
indica que la forma funcional del modelo es la correcta .

Ramsey RESET Test:


F-statistic 2.443811 0.156617

12
Probability
Log likelihood ratio 2.932248 0.086826
Probability

Prueba de normalidad. Como se puede observar en la siguiente tabla, el tercer y el


cuarto momentos (curtosis y simetría) de los errores del modelo son cercanos a cero y
a tres, respectivamente. Este resultado indica que los errores se distribuyen de manera
normal. Esto queda confirmado, con el valor de la probabilidad del estadístico Jarque-
Bera, ya que este valor es mayor que 0.05 y por lo tanto se encuentra dentro de la zona
de no rechazo de la hipótesis nula de normalidad al 95.0% de confianza.

5
Series: Residuals
Sample 1996 2006
4 Observations 11

Mean 2.26E-16
3 Median -0.054579
Maximum 0.248113
Minimum -0.131477
2 Std. Dev. 0.122098
Skewness 0.953177
Kurtosis 2.579671
1
Jarque-Bera 1.746645
Probability 0.417562
0
-0.1 0.0 0.1 0.2

Prueba de multicolinialidad. Según los resultados de matriz de correlación no hay


problemas de multicolinialidad en el modelo de regresión en estudio.

MATRIZ DE CORRELACIÓN

DTAZAS PCAFE
DTAZAS 1 -0.814099004531
PCAFE -0.814099004531 1

Pruebas de homoscedasticidad o estabilidad en el coeficiente  2 . Según los


resultados de la prueba ARCH los errores del modelo son homoscedásticos porque el
valor de la probabilidad de los dos estadísticos es mayores que 0.05 y por tanto se
encuentran en la zona de no rechazo de la hipótesis nula al 95.0% de confianza. La
prueba White confirma que no se tienen problemas de heteroscedasticidad en los errores
del modelo.

ARCH Test:
F-statistic 3.215472 Probability 0.110702
Obs*R-squared 2.866996 Probability 0.090413

White Heteroskedasticity Test:


F-statistic 0.395279 Probability 0.685953
Obs*R-squared 0.989259 Probability 0.609797

Es importante mencionar que la prueba White es una prueba general para detectar
errores de especificación y particular para problemas de heteroscedasticidad. Por tanto,
los resultados de esta prueba también indican que no hay errores de especificación en el
modelo.

13
Pruebas de no autocorrelación entre los errores. Uno de los estadísticos para
detectar problemas de autocorrelación de orden uno en los errores del modelo es
estadístico D-W. El valor de este estadístico se encuentra en los resultados de la
regresión y para el caso del ejemplo este asciende a 0.726590, por tanto según el
estadístico D-W hay problemas de autocorrelación de primer orden en los errores del
modelo.

Según el correlograma de los errores, ningún coeficiente que podría estar


explicando a éstos se sale de las bandas del 5.0% de significancia o es estadísticamente
significativo por lo que no se tienen problemas de autocorrelación.

Sample: 1996 2006


Included observations: 11
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
. |*** . | . |*** . | 1 0.390 0.390 2.1706 0.141
. | . | . **| . | 2 -0.055 -0.244 2.2183 0.330
. **| . | . *| . | 3 -0.213 -0.115 3.0323 0.387
. *| . | . *| . | 4 -0.182 -0.064 3.7095 0.447
. *| . | . *| . | 5 -0.144 -0.108 4.2055 0.520
. |* . | . |* . | 6 0.094 0.178 4.4556 0.615
. |* . | . | . | 7 0.163 -0.001 5.4086 0.610
. *| . | . ***| . | 8 -0.155 -0.333 6.5545 0.585
. **| . | . | . | 9 -0.214 0.033 9.8159 0.366

Como se puede observar el valor de la probabilidad de los estadísticos que arroja


la prueba LM son mayores que 0.05, es decir, se encuentran en la zona de no rechazo de
la hipótesis nula de no autocorrelación de orden p en los errores del modelo al 95.0% de
confianza, lo que indica la ausencia de autocorrelación en los errores del modelo.

Breusch-Godfrey Serial Correlation LM Test:


F-statistic 0.981423 Probability 0.421000
Obs*R-squared 2.408979 Probability 0.299845

Pruebas de cambio estructural o estabilidad de los coeficientes beta.


Como se puede observar el estadístico CUSUM se sale de las bandas del 95.0% de
confianza de estabilidad en los coeficientes beta, esto indica que hubo cambio
estructural en la muestra y que el rompimiento se da en el año 2000.

10

-5

-10
98 99 00 01 02 03 04 05 06

CUSUM 5% Significance

14
Sin embargo, como se puede observar el estadístico CUSUM-Q no se sale de las
bandas del 95.0% de confianza, esto significa los coeficientes son estables a lo largo del
periodo de la muestra.

1.5

1.0

0.5

0.0

-0.5
98 99 00 01 02 03 04 05 06

CUSUM of Squares 5% Significance

Para verificar el posible cambio estructural que indica el estadístico CUSUM en el


año 2000, se llevo a cabo la prueba Chow simple. Los resultados de esta prueba indican
que efectivamente hubo cambio estructural en este año, dado que los valores de la
probabilidad de los estadísticos que arroja esta prueba son menores a 0.05, es decir, se
rechaza la hipótesis nula de estabilidad en los coeficientes beta. La solución a este
problema sería estimar el modelo en dos submuestras pero como la muestra es muy
corta, esto no es posible.

Chow Breakpoint Test: 2000


F-statistic 19.88832 Probability 0.001296
Log likelihood ratio 20.89421 Probability 0.000029

Conclusión. La evaluación cuantitativa y cualitativa del modelo sugieren que este


es bueno. Sin embargo, esta conclusión hay que tomarla con reserva porque el tamaño
de la muestra y la anualidad de los datos son elementos poco favorables para realizar
inferencia a partir de los resultados, pero este ejemplo ilustra los pasos a seguir para
evaluar el modelo.
PREDICCIÓN

Ahora se supone que el modelo de demanda de consumo diario de tazas de café se


obtuvo de una muestra mensual, con por lo menos de 60 datos (5 años) y que los
resultados de la evaluación cuantitativa y cualitativo lo favorecen, por lo tanto es un
buen candidato para realizar la predicción hasta 2010. Para realizar la predicción se
supone que los precios promedio anuales de la taza de café serán de 1.26 dólares para
2007, 1.90 dólares para 2008, 1.55 dólares para 2009 y 1.75 dólares para 2010. En este
caso, la muestra será

Demanda Precio

15
Diaria
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000
2007 1.260000
2008 1.900000
2009 1.550000
2010 1.750000

Como se puede observar en la tabla siguiente el valor del Coeficiente de


Desigualdad de Theil se encuentra en el rango recomendable al igual que la proporción
de sesgo, varianza y covarianza. Estos resultados, indican que la variable real y
pronosticada por el modelo se mueven con poco sesgo y que la variable pronosticada
está reproduciendo los movimientos de la variables real.
COEFICIENTE DE DESIGUALDAD DE THEIL
2.8
Fo re c a s t: DTAZASF
2.6 Ac tu a l : DTAZAS
Fo re c a s t s a m p l e : 1 9 9 6 2 0 1 0
2.4 In c l u d e d o b s e rv a ti o n s : 1 1

RM SE 0 .1 1 6 4 1 6
2.2
M AE 0 .0 9 6 8 7 3
M APE 4 .3 1 7 3 6 0
2.0 Th e i l 0 .0 2 6 2 9 2
Bi a s % 0 .0 0 0 0 0 0
1.8 Va ri a n c e % 0 .1 0 2 4 7 6
Co v a ri a n c e % 0 .8 9 7 5 2 4
1.6

1.4
96 98 00 02 04 06 08 10

DTAZASF ± 2 S.E.

Según los resultados que se muestran en la tabla siguiente, la demanda


pronosticada de tazas diarias de café consumidas por persona es muy parecida a la real
dentro de la muestra. Pero suponiendo que prevalecerán esos precios, la demanda bajara
para los cuatro años siguientes.

REALIZACIONES REALES Y PRONÓSTICO DE LA DEMANDA DE TAZAS DIARIAS DE CAFÉ

Demanda Demanda
Real Pronóstico
Y Yˆ
1996 2.570000 2.321887
1997 2.500000 2.336272
1998 2.350000 2.345863
1999 2.300000 2.341068
2000 2.250000 2.326682
2001 2.200000 2.331477
2002 2.110000 2.173233
2003 1.940000 1.823176

16
2004 1.970000 2.024579
2005 2.060000 2.115689
2006 2.020000 2.130075
2007 NA 2.086917
2008 NA 1.780019
2009 NA 1.947854
2010 NA 1.851948

La siguiente gráfica ilustra que los movimientos de la demanda pronosticada por


el modelo están reproduciendo los movimientos de la demanda real y que su tendencia
es claramente hacia la baja.

REALIZACIONES REALES Y PRONÓSTICO DE LA DEMANDA DE TAZAS DIARIAS DE CAFÉ


(1996-2010)
2.6

2.4

2.2

2.0

1.8

1.6
96 97 98 99 00 01 02 03 04 05 06 07 08 09 10

DTAZAS DTAZASF

EJERCICIOS

1.- Con los siguientes datos contesta lo que se te pide a continuación:

Costo Total Producción


Y X
(Dólares) (Producción)
193 1
226 2
240 3
244 4
257 5
260 6
274 7
297 8
350 9
420 10

a) Calcula el modelo de producción y =  0 + 1 xi +  2 xi2 +  3 xi3 + ut donde


 0  0, 1  0,  2 0, ,  3 0 . Explica el por qué la función de costos tiene estos signos
esperados.
b) Analiza los resultados económicamente.
i) Analiza si los signos de los coeficientes son los teóricos esperados.
17
ii) Interpreta a los coeficientes beta.
c) Analiza los resultados econométricamente.
i) Explica R 2 y R 2 .
ii) Determina si los coeficientes beta son individualmente significativos.
iii) Determina si los coeficientes beta con conjuntamente significativos.
iv) Mediante la prueba Wald determina y explica si se cumple la siguiente hipótesis nula
y alternativa:
H 0 :  22 = 31  3 H 1 :  22  31  3
v) Prueba si los errores del modelo se distribuyen normalmente y explica dicha prueba
vi) Prueba si el modelo cumple con el supuesto de forma funcional correcta y explica
las pruebas que estas utilizando.
vii) Prueba si el modelo tiene problemas de multicolinialidad y explica las pruebas que
estas utilizando.
viii) Prueba si los errores del modelo son heteroscedásticos y explica dichas pruebas.
ix) Prueba si se cumple la permanencia estructural y explica las pruebas que estas
utilizando.
x) Prueba si el modelo no tiene problemas de autocorrelación y explica las pruebas que
estas utilizando.
xi) Ahora considera que el modelo de costos estimado cumple con todos los supuestos,
predice los costos para cuatro observaciones más y analiza dicha predicción.

2.- Con los siguientes datos contesta lo que se te pide a continuación:

Y X2 X3
Año Producto Real Insumo Trabajo Insumo Capital
(Millones de (por cada mil (Millones de
dólares) personas) dólares)
1990 8,911.4 281.5 120,753
1991 10.873.2 284.4 122,242
1992 11,132.5 289.0 125,263
1993 12,086.5 375.8 128,539
1994 12,767.5 375.2 131,427
1995 16,347.1 402.5 134,267
1996 19,542.7 478.0 139,038
1997 21,075.9 553.4 146,450
1998 23,052.0 616.7 153,714
1999 26,128.2 695.7 164,783
2000 29,563.7 790.3 176,864
2001 33,376.6 816.0 188,140
2002 38.354.3 848.4 205,841
2003 46,868.3 873.1 221,748
2004 54,308.0 902.4 239,715
2005 69,824.1 999.2 250,578

a) Calcula el modelo ln y = 1 +  2 ln X 2 +  2 ln X 3 + +ut donde 1  0,  2  0,  3  0

18
b) Analiza los resultados económicamente según el esquema que se anotó en la pregunta
uno.
c) Analiza los resultas econométricamente según el esquema de la pregunta uno, sin
contestar el inciso de la prueba Wald
d) Plantea la hipótesis nula y alternativa para probar rendimientos constantes a escala,
rendimientos crecientes a escala y rendimientos decrecientes a escala.
e) Mediante la prueba Wald determina qué rendimientos presenta la industria
(rendimientos constantes, rendimientos crecientes o rendimientos decrecientes).
f) Predice el producto real hasta el año 2010. Para contestar esta pregunta, las cifras de
la predicción del logaritmo del producto real deben de transformarse a dólares,
elevando la base e (e= 2.71828) al logaritmo de cada observación.

MODELOS BINARIOS
(modelos Logit y Probit)
EJEMPLO

Se utilizaron los datos que se muestran en la siguiente tabla, para analizar si una nueva
metodología didáctica resultaba eficaz en la enseñanza de la economía. En este estudio
la variable dependiente mejora, es la variable que indica si mejoró el alumno tras un
periodo de aprendizaje. El resto de las variables son CM media de las calificaciones
pasadas del alumno, NP nota del alumno en un examen previo al periodo de aprendizaje
y PSI, variable binaria que indica si en el periodo de aprendizaje el alumno estudió con
el nuevo método didáctico.

DATOS
OBS MEJORA CM NP PSI
1 0 2.66 20 0
2 0 2.89 22 0
3 0 3.28 24 0
4 0 2.92 12 0
5 1 4.00 21 0
6 0 2.86 17 0
7 0 2.76 17 0
8 0 2.87 21 0
9 0 3.03 25 0
10 1 3.92 29 0
11 0 2.63 20 0
12 0 3.32 23 0
13 0 3.57 23 0
14 1 3.26 25 0
15 0 3.53 26 0
16 0 2.74 19 0
17 0 2.75 25 0
18 0 2.83 19 0
19 0 3.12 23 1
20 1 3.16 25 1
21 0 2.06 22 1
22 1 3.62 28 1
23 0 2.89 14 1
24 0 3.51 26 1
25 1 3.54 24 1

19
26 1 2.83 27 1
27 1 3.39 17 1
28 0 2.67 24 1
29 1 3.65 21 1
30 1 4.0 23 1
31 0 3.1 21 1
32 1 2.39 19 1

El modelo fue calculado a través del método de MCO para el modelo lineal y por el
método de Máxima Verosimilitud para el modelo Logit y Probit. Las estimaciones se
muestran en las siguiente tres tablas.

Resultados del modelo probabilístico estimado a través de Mínimos Cuadrados


Ordinarios

Dependent Variable: MEJORA


Method: Least Squares
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Variable Coefficient Std. Error t-Statistic Prob.
C -1.498017 0.523889 -2.859419 0.0079
CM 0.463852 0.161956 2.864054 0.0078
NP 0.010495 0.019483 0.538685 0.5944
PSI 0.378555 0.139173 2.720035 0.0111
R-squared 0.415900 Mean dependent var 0.343750
Adjusted R-squared 0.353318 S.D. dependent var 0.482559
S.E. of regression 0.388057 Akaike info criterion 1.061140
Sum squared resid 4.216474 Schwarz criterion 1.244357
Log likelihood -12.97825 F-statistic 6.645658
Durbin-Watson stat 2.346447 Prob(F-statistic) 0.001571

Resultados del modelo probabilístico estimado como Logit

Dependent Variable: MEJORA


Method: ML - Binary Logit
Sample: 1 32
Included observations: 32
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
Variable Coefficient Std. Error z-Statistic Prob.
C -13.02135 4.931317 -2.640541 0.0083
CM 2.826113 1.262940 2.237726 0.0252
NP 0.095158 0.141554 0.672235 0.5014
PSI 2.378688 1.064563 2.234426 0.0255
Mean dependent var 0.343750 S.D. dependent var 0.482559
S.E. of regression 0.384716 Akaike info criterion 1.055602
Sum squared resid 4.144171 Schwarz criterion 1.238819
Log likelihood -12.88963 Hannan-Quinn criter. 1.116333
Restr. Log likelihood -20.59173 Avg. log likelihood -0.402801
LR statistic (3 df) 15.40419 McFadden R-squared 0.374038
Probability(LR stat) 0.001502
Obs with Dep=0 21 Total obs 32

20
Obs with Dep=1 11

Resultados de la estimación del modelo como un Probit

Dependent Variable: MEJORA


Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Convergence achieved after 5 iterations
Covariance matrix computed using second derivatives
Variable Coefficient Std. Error z-Statistic Prob.
C -7.452320 2.542472 -2.931131 0.0034
CM 1.625810 0.693882 2.343063 0.0191
NP 0.051729 0.083890 0.616626 0.5375
PSI 1.426332 0.595038 2.397045 0.0165
Mean dependent var 0.343750 S.D. dependent var 0.482559
S.E. of regression 0.386128 Akaike info criterion 1.051175
Sum squared resid 4.174660 Schwarz criterion 1.234392
Log likelihood -12.81880 Hannan-Quinn criter. 1.111907
Restr. log likelihood -20.59173 Avg. log likelihood -0.400588
LR statistic (3 df) 15.54585 McFadden R-squared 0.377478
Probability(LR stat) 0.001405
Obs with Dep=0 21 Total obs 32
Obs with Dep=1 11

Los efectos marginales del modelo de probabilidad lineal son los que resultan de
la estimación de los coeficientes. Sin embargo, los coeficientes de los modelos Logit y
Probit (los cuales miden los efectos marginales) tienen que estimarse utilizando un
factor de ajuste.

Para el modelo Logit, el factor de ajuste, se obtiene al multiplicar función Logit


(probabilidad de éxito) por uno menos la función logit probabilidad de fracaso. En
términos formales esto es

 e  ´ X  e ´X 
Factor de Ajuste para el Logit =  ´X
1 − ´X

 1 + e  1 + e 

Donde  ´X es el resultado de la regresión por las medias de cada variable y e=


2.71828

Los efectos marginales en el modelo Logit se encuentran de la siguiente forma

( X ) = 
E Y e ´X 
1 −
e ´X 

 ´X ´X
X  1 + e  1 + e 

21
Por tanto, los efectos marginales se obtienen multiplicando el factor de ajuste por
el vector de coeficientes beta

Siguiendo estos pasos, primero se calculan las medias de los datos de las variables
explicativas del modelo Logit. Estos resultados se muestran en el siguiente cuadro

MEJORA CM NP PSI
Media 3.1171875 21.938 0.4375

En segundo lugar se multiplican los coeficientes por las medias de las variables
explicativas del modelo Logit

MEJORA =-13.02134684 + 2.826112592*(3.1171875) + 0.09515766115*(21.938) +

2.378687654*(0.4375)

MEJORA =  ´X = - 13.02134684+ 11.937766 = -1.08358

Se obtiene el factor de ajuste de la siguiente manera

( X ) = 
E Y e −1.08358 
 −
e −1.08358 
 = 0.1889562 = 0.1889
 −1.08350 
1 −1.08358 
X  1 + e  1 + e 

Hay otra forma más simple de obtener este factor de ajuste. Este método consiste
en volver a estimar la regresión logit (no utilices la que hayas guardado, si es que
lo hiciste) y en trabajar sobre los resultados de esta regresión (probabilidad de
éxito). De la siguiente manera: sobre los resultados de la regresión logit dar clic en
Procs/Make Model/ y después dar clic en Text e intercambiar los nombres de las
variables por sus medias y cambiar el nombre de la variable dependiente por ejemplo
por éxito. Después dar clic en Solve.

Esto aparece el la ventana


MEJORA = 1-@LOGIT(-(-13.02134684 + 2.826112592*CM + 0.09515766115*NP +
2.378687654*PSI))

Hay que modificar así


exito = 1-@LOGIT(-(-13.02134684 + 2.826112592*3.1171875 + 0.09515766115*21.938 +
2.378687654*0.3475))

Con la instrucción Solve EV calcula esa ecuación con el nombre de éxito. Esta variable
estará compuesta de un número que se repite a lo largo de todas los observaciones y que
será la probabilidad de éxito. El factor de ajuste, por tanto, se encuentra al multiplicar
este número por 1- este número.

éxito= 0.252829 factor de ajuste= (0.252829)(1-0.252829)=0.1889064

22
Para el modelo Probit, el factor de ajuste, se obtiene buscando en las tablas de la
distribución normal el valor que resulta de la función Probit. En términos formales el
factor de ajuste es

Factor de Ajuste para el Probit =  ( ´X )

Donde  ´X es el resultado de la regresión por las medias de cada variable

De igual manera, el efecto marginal en el modelo Probit resulta de multiplicar el


factor de ajuste por el vector de betas

E Y( X ) =  (´X )
X

Para obtener el factor de ajuste del modelo probit se procede de la misma manera
que el logit. Trabaje sobre los resultados de la regresión probit. Esto aparece en la
ventana después de dar clic en Procs/Make Model y después dar clic en Text

MEJORA = 1-@CNORM(-(-7.452319647 + 1.625810039*CM + 0.0517289455*NP +


1.426332342*PSI))

Se intercambian los nombres de las variables por su valor medio, se cambia el nombre
la variable dependiente y se da clic en Solve

normal = 1-@CNORM(-(-7.452319647 + 1.625810039*3.1171875 + 0.0517289455*21938 +


1.426332342*0.4375))

La variable normal es un número=0.265817 que es la probabilidad de éxito del


modelo probit. La probabilidad de éxito por la probabilidad de fracaso es (0.265817)(1-
0.265817)=0.171158, valor que al ser restado de 0.5 queda 0.329.

Al obtener todos estos valores, se pueden calcular las pendientes (efectos


marginales) del Logit y Probit y compararlos con los resultados del modelo de regresión
lineal, los cuales se resumen en el siguiente cuadro

Modelo Lineal Modelo Logit Modelo Probit


Variable Coeficiente Pendiente Coeficiente Pendiente Coeficiente Pendiente
Constante -1.498017 -1.498017 -13.02135 -7.452320
CM 0.463852 0.463852 2.826113 0.534 1.625810 0.533
NP 0.010495 0.010495 0.095158 0.018 0.051729 0.017
PSI 0.378555 0.378555 2.378688 0.499 1.426332 0.468
Factor de A 1. 0.189 0.329

Como se puede observar en el cuadro anterior las pendientes que arrojan los
modelos Logit y Probit son casi iguales mientras que difieren de las estimadas por el
método de mínimos cuadrados ordinarias.

Para interpretar el efecto que tiene cada variable sobre la probabilidad, de que las
calificaciones del alumno mejoran tras de implantar una nueva metodología, se utilizan
23
los valores de la pendiente. La interpretación del coeficiente de CM sería similar en el
modelo Logit y Probit, es decir, si la calificación media del alumno aumenta en una
unidad, la probabilidad de que el alumno mejore sus calificaciones aumenta 0.53, si ha
utilizado el nuevo método didáctico. La interpretación del coeficiente NP sería, si la
calificación del alumno en un examen previo aumenta en una unidad, la probabilidad
de que el alumno mejore sus calificaciones aumenta en 0.018 si ha utilizado el nuevo
método didáctico.

Hay que recordar que uno de los estadísticos tradicionales para analizar la bondad
de ajuste de los modelo de regresión es el R cuadrada. En estos modelos donde la
variable dependiente es una variable cualitativa el estadístico R cuadrada de Mc Fadden
se define como sigue

log LUR
R2 = 1−
log LR

Donde el log de L subíndice UR es la función de máxima verosimilitud no


restringida y el log de L subíndice R es la función de máxima verosimilitud restringida.
Este estadístico, es el que se calcula en los resultados de la regresión y de igual forma
que en los modelos de regresión lineal su valor se encuentra entre cero y uno

Como se puede observar en los resultados de la regresión del modelo Logit y


Probit el estadístico R cuadrada de Mc Fadden es de 0.37, es decir, que un 37.0% de las
variaciones en la probabilidad de que el alumno mejore sus calificaciones si ha utilizado
el nuevo método didáctico está explicada por el modelo.

Hay otros dos estadísticos que miden la bondad de ajuste de este tipo de modelos
uno es Hosmer- Lemeshow y el otro es AnDrews. La idea de estas pruebas es comparar
el valor esperado ajustado y el valor actual por grupo de series. Si la diferencia entre el
valor esperado y actual es muy grande se rechaza el modelo porque éste no se ajusta a
los datos.

El estadístico Hosmer- Lemeshow trabaja agrupando las observaciones sobre la


base de la probabilidad predictiba cuando y=1 ( cuando la variable dependiente toma el
valor de 1); el estadístico AnDrews es más general ya que agrupa las observaciones
sobre la base de algunas series no importando que y=1 o y=0. Si la diferencia es muy
grande se rechaza el modelo porque no se ajusta a los datos. Para calcular estos
estadísticos selecciona View/Goodness- of Fit Test / Predicted risk OK y aparece
el siguiente cuadro, que para el caso del ejemplo resultaron dos tablas

24
Para el caso del modelo Logit

Dependent Variable: MEJORA


Method: ML - Binary Logit
Sample: 1 32
Included observations: 32
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0245 0.0265 3 2.92312 0 0.07688 3 0.07890
2 0.0266 0.0349 3 2.90838 0 0.09162 3 0.09451
3 0.0386 0.0536 3 2.85623 0 0.14377 3 0.15101
4 0.0595 0.1110 2 2.76809 1 0.23191 3 2.75709
5 0.1111 0.1932 3 3.31840 1 0.68160 4 0.17929
6 0.2418 0.3222 3 2.12877 0 0.87123 3 1.22779
7 0.3610 0.5291 2 1.62876 1 1.37124 3 0.18512
8 0.5699 0.6354 1 1.20481 2 1.79519 3 0.05818
9 0.6608 0.8383 0 0.80741 3 2.19259 3 1.10474
10 0.8417 0.9453 1 0.45602 3 3.54398 4 0.73241
Total 21 21.0000 11 11.0000 32 6.56906
H-L Statistic: 6.5691 Prob[Chi-Sq(8 df)]: 0.5838
Andrews Statistic: 19.1344 Prob[Chi-Sq(10 df)]: 0.0386

Para el caso del modelo Probit

Dependent Variable: MEJORA


Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Andrews and Hosmer-Lemeshow Goodness-of-Fit Tests
Grouping based upon predicted risk (randomize ties)
Quantile of Risk Dep=0 Dep=1 Total H-L
Low High Actual Expect Actual Expect Obs Value
1 0.0161 0.0185 3 2.94722 0 0.05278 3 0.05372
2 0.0186 0.0272 3 2.93223 0 0.06777 3 0.06934
3 0.0309 0.0457 3 2.87888 0 0.12112 3 0.12621
4 0.0531 0.1088 3 2.77618 0 0.22382 3 0.24186
5 0.1235 0.1952 2 3.29779 2 0.70221 4 2.90924
6 0.2732 0.3287 3 2.07481 0 0.92519 3 1.33775
7 0.3563 0.5400 2 1.61497 1 1.38503 3 0.19883
8 0.5546 0.6424 1 1.20962 2 1.79038 3 0.06087
9 0.6572 0.8342 0 0.84550 3 2.15450 3 1.17730
10 0.8400 0.9522 1 0.45575 3 3.54425 4 0.73351
Total 21 21.0330 11 10.9670 32 6.90863
H-L Statistic: 6.9086 Prob[Chi-Sq(8 df)]: 0.5465
Andrews Statistic: 20.6045 Prob[Chi-Sq(10 df)]: 0.0240

25
Como se puede observar, el valor del estadístico H-L no es muy grande en ambos
modelos (este resulta de la sumatoria de la última columna del lado derecho de los
cuadros) el valor de estadístico Andrews si lo es. Por tanto mientras, un estadístico
estaría diciendo que el modelo se ajusta a los datos el otro estadístico lo contradice. Esta
afirmación queda confirmada observando el valor de la probabilidad de cada uno de los
estadísticos, porque mientras el del estadístico HL tiene un valor mayor 0.05, el de
Andrews es menor a este valor. Esta contradicción entre lo que sugieren los estadísticos
hace pensar en que el modelo se tiene que revisar. Una posible causa de que el modelo
no se ajuste a los datos es la no significancia estadística de la variable NP.

Para un análisis más profundo de los modelos binarios, se pueden hacer pruebas
de restricción individuales o generales sobre los coeficientes. Para las pruebas
individuales se encuentra el estadístico Wald y el de Razón de Verosimilitud (RV) que
aparece en los resultados de la regresión del modelo Logit o Probit.
Por ejemplo si se realiza la prueba Wald para saber si el coeficiente de la serie NP
es estadísticamente no significativo en el modelo Probit, esta prueba da el siguiente
resultado

Wald Test:
Equation: PROBI
Null Hypothesis: C(3)=0
F-statistic 0.380228 Probability 0.542463
Chi-square 0.380228 Probability 0.537481

Como se puede observar en los resultados de esta prueba el valor de la


probabilidad de los dos estadísticos es mayor que 0.05 por lo que no se rechaza la
hipótesis nula de que el coeficiente de la variable NP es estadísticamente no
significativo a un nivel de confianza del 95.0%.

La prueba RV es una prueba análoga a la prueba F para los modelos de regresión


lineal, es decir, con ésta se prueba si conjuntamente los coeficientes estimados por
máxima verosimilitud, excluyendo la constante son estadísticamente no significativos.
Según los resultados de esta prueba, en el modelo Probit, el valor de la probabilidad del
estadístico RV es menor a 0.05 por lo que se rechaza que conjuntamente los coeficientes
sean estadísticamente iguales a cero.

Adicionalmente a estas pruebas, existe otra prueba para analizar las propiedades y
el funcionamiento de los modelos binarios. Esta prueba se llama tabla de Clasificación
Esperada y Predicha. La tabla clasifica el valor esperado y predicho de la variable
dependiente. Para ver esta tabla en el E-View dar clic en View/Expectaction-
Prediction Table sobre los resultados de la regresión y aparece una tabla donde se
aíslan las observaciones de la variable dependiente en sus valores de 0 y 1. La
clasificación correcta se obtiene cuando la probabilidad pronosticada es menor o igual a
la esperada y a la observada (y=0) o cuando la probabilidad pronosticada es mayor que
la esperada y la observada (y=1). En la literatura sobre este tema, la tabla de Pronóstico-
Expectativa se refiere a la tabla de clasificación. La fracción y=1 observaciones que son

26
pronosticadas correctamente determinan la sensibilidad, mientras que la fracción y=0
observaciones que son correctas es conocida como la especificidad. Estas son fracciones
que se presentan en porcentajes. Veamos los resultados de esta tabla para el modelo
Probit

Dependent Variable: MEJORA


Method: ML - Binary Probit
Sample(adjusted): 1 32
Included observations: 32 after adjusting endpoints
Prediction Evaluation (success cutoff C = 0.5)
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
P(Dep=1)<= 18 3 21 21 11 32
C
P(Dep=1)>C 3 8 11 0 0 0
Total 21 11 32 21 11 32
Correct 18 8 26 21 0 21
% Correct 85.71 72.73 81.25 100.00 0.00 65.62
% Incorrect 14.29 27.27 18.75 0.00 100.00 34.38
Total Gain* -14.29 72.73 15.62
Percent NA 72.73 45.45
Gain**
Estimated Equation Constant Probability
Dep=0 Dep=1 Total Dep=0 Dep=1 Total
E(# of 16.89 4.14 21.03 13.78 7.22 21.00
Dep=0)
E(# of 4.11 6.86 10.97 7.22 3.78 11.00
Dep=1)
Total 21.00 11.00 32.00 21.00 11.00 32.00
Correct 16.89 6.86 23.74 13.78 3.78 17.56
% Correct 80.42 62.32 74.20 65.62 34.38 54.88
% Incorrect 19.58 37.68 25.80 34.38 65.62 45.12
Total Gain* 14.80 27.95 19.32
Percent 43.05 42.59 42.82
Gain**
*Change in % correct from default (constant probability)
**Percent of incorrect (default) prediction corrected by equation
En el primer cuadro de esta tabla se muestra que el modelo Probit está
pronosticando correctamente el 85.71% de las observaciones cuando y=0 y el 72.73%
de las observaciones cuando y=1. Con estos resultados se puede decir que el modelo
Probit es bueno en sensibilidad y en especificidad.
El análisis de residuos de la regresión también se puede llevar a cabo. Sobre el
modelo de regresión Probit o Logit. De clic en Procs/Make Residual Series y este
comando genera los residuos ordinarios, los residuos estandarizados y los residuos
generalizados.
La prueba de normalidad también se puede realizar para los residuos de modelo
Probit dando un clic en View/Residual Test sobre la regresión y EV muestra el
histograma de normalidad para los residuos estandarizados. Veamos el histograma de
normalidad para los errores del modelo Probit

27
16
S eries: S tandardized Residuals
S ample 1 32
Observations 32
12
Mean -0.014303
Median -0.158590
Maximum 2.663509
8
Minimum -2.356954
S td. Dev. 0.920117
S kewness 0.579126
4 K urtosis 4.932971

Jarque-B era 6.770566


P robability 0.033868
0
-2 -1 0 1 2 3

Según los resultados de la prueba de normalidad los errores del modelo Probit no
se distribuyen en forma normal al 95.0% de confianza ya que el valor de la
probabilidad del estadístico Jarque Bera es menor que 0.05. Pero se podría decir que al
98.0% de confianza los errores si se distribuyen de forma normal.

Otro elemento importante de analizar en los modelos binarios es la gráfica de


curvas de respuesta de las probabilidades. Esta gráfica es útil para examinar como
varían las probabilidades cuando una de las variables independientes está cambiando
mientras las otras variables permanecen fijas en el valor de su media.

Para el modelo Logit y Probit que se está manejando en este ejemplo, es todavía
más interesante esta gráfica de curva de respuesta a las probabilidades porque se tiene
una variable cualitativa como explicativa, es decir, se tiene a la variable PSI (variable
binaria que indica si el estudiante estudió con el nuevo método didáctico o no).

Para obtener esta gráfica realice los siguientes pasos (recuerde que estos pasos
son para obtener la gráfica de respuesta de las probabilidades de cualquier modelo).

1.- Calcule una serie continua de la variable explicativa que va a estar variando, en el
caso del ejemplo será CM (media de las calificaciones del alumno). Para calcular la
serie continua de CM se observa el dato inferior y superior de la serie, los cuales son 2
y 4. Además se utiliza la variable de tendencia, la cual toma valores de enteros
positivos empezando por cero y termina en el número que le corresponde al último dato,
en el caso del ejemplo la tendencia será una variable que tome valores de 0, 1,
2,.....hasta 32. Esta tendencia hace que la serie levante. La instrucción en EV para
formar la serie continua CM es:

series CMPLOT=2+@trend*(4-2)/(@obs(@trend))

Recuerde que @trend es la instrucción para crear la serie de tendencia en EV

28
2.- Obtenga la ecuación de regresión estimada del modelo Probit y de clic en
Procs/Make Model . con está instrucción aparece una ventana que tiene el siguiente
texto.
Mejora= 1-@cnorm(* Eq1: mejora=F(cm,n,psi)
3.- Para trabajar con la ecuación del modelo hay que romper todos los vínculos, por
tanto seleccione Proc/Links/Break all Link. Inmediatamente después en esa misma
ventana, de clic en View/Source Text y aceptar. Después aparece la ecuación de
regresión.

MEJORA = 1 - @CNORM(-(-7.45231964735 + 1.62581003927 * CM +


0.0517289454976 * NP + 1.42633234193 * PSI))

4.- Copie y pege la misma ecuación abajo. Trabaje sobre la primera ecuación, remplace
el primer nombre, como por ejemplo MEJORA por MEJORA0 cuando PSI toma el
valor de cero, haga lo mismo con la variable PSI, cámbiela por el número cero,
remplace cm por la variable que creó con el nombre de CMPLOT y agrege @median
antes de la variable NP, NP debe de ir entre párentesis como se ilustra abajo.
Ahora haga algo lo mismo con la segunda ecuación: remplace el primer nombre, como
por ejemplo MEJORA por MEJORA1 cuando PSI toma el valor de uno, haga lo mismo
con la variable PSI, cámbiela por el número 1, remplace cm por la variable que creó con
el nombre de CMPLOT y agrege @median antes de la variable NP, NP debe de ir entre
párentesis como se ilustra abajo.

MEJORA0 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +


0.0517289455*@median(NP)+ 1.426332342*0))

MEJORA1 = 1-@CNORM(-(-7.452319647 + 1.625810039*CMPLOT +


0.0517289455*@median(NP) + 1.426332342*1))

5.-Dé clic en Solve, es decir, resuelve las ecuaciones antes anotadas y en la ventana que
aparece de clic en Aceptar. Con esta instrucción se genera las probabilidades de que el
estudiante mejore sus calificaciones cuando varía su calificación promedio y si el
alumno estudia con el nuevo método didáctico y las probabilidades de que el estudiante
mejore sus calificaciones cuando varía su calificación promedio y no estudia con el
nuevo método didáctico. EV guarda las dos probabilidades generadas como series, con
el nombre de MEJORA0_0 y MEJORA1_0.

6.- Para graficar las series CMPLOT, MEJORA1_0 y MEJORA0_0 en un solo plano,
dé clic en Show y anote los nombres de las variables que quiere graficar (cmplot,
mejora1_0 y mejora0_0), después View/Graph/XY Line/. También puede seleccionar a
una de las variables al dar clic en ella ésta se sombrea, después apriete la tecla ctrl y
seleccione las siguientes, ya que las tres variables estén iluminadas, dar clic en Show y
graficar. El resultado debe ser el siguiente

29
1.0

0.8

0.6
MEJORA0
MEJORA1
0.4

0.2

0.0
2.0 2.5 3.0 3.5

CMPLOT

En esta gráfica se muestra dos funciones en todo el intervalo de variación de CM,


es decir, de 2 a 4. El efecto de la variable PSI en las probabilidades es considerable. El
efecto marginal del muevo método didáctico es la diferencia entre estas dos funciones y
toma valores tan pequeños como 0.06 cuando CM=2, hasta valores próximos a 0.50,
cuando CM es igual 3.5. Esto muestra que la probabilidad de que la nota del estudiante
mejore tras seguir un curso con la nueva metodología es mucho mayor en alumnos con
alta calificación media que en alumnos con baja calificación media.

ANÁLISIS DE SERIES DE TIEMPO

GRÁFICAS PARA PRONOSTICAR

Para realizar un pronóstico es recomendable comenzar con un análisis gráfico de la serie


de tiempo. El análisis gráfico permite obtener una idea preliminar acerca de los
componentes de la serie: tendencia, estacionalidad y ciclo.
Es recomendable hacer un banco de datos, éstos pueden ser obtenidos de las
Estadísticas del Banco de México, de INEGI, de Economática o de otras fuentes.
Por ejemplo obtenga los datos de una serie de tiempo cuya muestra sea los más
larga posible, por ejemplo la del índice nacional de precios al consumidor INPC, que
está disponible en forma mensual desde 1973 en los indicadores económicos y
financieros del Banco de México. Trabaje con la muestra de aproximadamente 450
observaciones y realice los siguientes pasos:
• Baje la serie a analizar, generalmente viene en formato ecxel.
• Genere un archivo con la serie en ecxel.
• Observe los datos antes de copiarlos al paquete EV.
• Si los datos no le parecen congruentes trabaje sobre ellos previamente. Por ejemplo,
la serie inpc que edita el Banco de México viene en decimales hasta enero de 1985 y
para febrero de ese año se presenta en miles de millones. Pasar de decimales a miles
de millones no es congruente, pero pasar de 0.9 a 1.06 si lo es, por tanto hay que
desplazar el punto decimal tantas unidades como sea necesario.
• Aunque el índice nacional de precios al consumidor (inpc) está disponible desde
1973 se puede trabajar con él en forma mensual desde 1985 a 2008. Haga una
hoja de trabajo en EV para datos mensuales con tamaño de la muestra 1985.01 a
2008.12 con la File/New/Workfile/Frequency/Montly. Siempre deje espacio para
la predicción.

30
• Genere espacio para copiar la serie de ecxel a EV escribiendo en este último, data
inpc debajo del menú principal.
• Regrese a ecxel, copie la serie inpc y pegue en EV. Si no es posible componer la
serie en ecxel, inténtelo en EV.
• Ya cargada la serie inpc en EV, de clic sobre ella y después de que esta variable esté
sombreada, dar clic el Show/ View/Line Graph. Con esta instrucción aparece la
gráfica de la variable a través del tiempo.
• Analice detenidamente la gráfica del INPC, para detectar la tendencia, la estacional
y el ciclo en la serie.

140

120

100

80

60

40

20

0
86 88 90 92 94 96 98 00 02 04 06 08

INPC

Observe que esta variable crece en el tiempo con pocas fluctuaciones.


Ahora cree la variable diferencia absoluta de inpc, de clic en genr e introduzca la
ecuación dinpc=d(inpc) y clic en OK. Grafique esta nueva serie con las mismas
instrucciones que la anterior. Obseve la fluctuacines de la serie, donde sufren un cambio
fuerte es en la devaluación de diciembre de 1994.
2.8
2.4
2.0
1.6
1.2
0.8
0.4
0.0
-0.4
-0.8
86 88 90 92 94 96 98 00 02 04 06 08

DINPC

Cree la variable diferencia de los logaritmos del inpc, de clic en genr e introduzca
la ecuación linpc=log(inpc) y OK, después vuelva a dar clic en genr y escriba la
ecuación dlinpc=d(linpc) y OK.

31
.16

.12

.08

.04

.00

-.04
86 88 90 92 94 96 98 00 02 04 06 08

DLINPC

Observe los brincos que muestra la serie en 1987 y 1984 y la reducción de las
variaciones después de 1998 hasta 2008. Como ejercicio conteste las siguientes
preguntas. ¿Qué relación existe entre la serie inflación y la serie diferencia de los
logaritmos? Calcule la inflación a partir del inpc y gafique.
También es importante evaluar la distribución de la serie a analizar a partir de su
histrograma y hacer la prueba de normalidad de la serie. Para ello de clic Show /OK/
View/ Descriptive Statistics/Histrogram/
30
Series: INPC
Sample 1985M01 2008M12
25
Observations 283

20 Mean 58.83333
Median 53.79175
15 Maximum 129.5760
Minimum 1.010696
Std. Dev. 43.21315
10 Skewness 0.149291
Kurtosis 1.452812
5
Jarque-Bera 29.27800
Probability 0.000000
0
0 20 40 60 80 100 120

Observe que la serie inpc no se distribuye de manera normal. Haga lo mismo con
dinpc
60
Series: DINPC
Sample 1985M01 2008M12
50
Observations 282

40 Mean 0.455905
Median 0.364077
30 Maximum 2.610758
Minimum -0.596000
Std. Dev. 0.408974
20 Skewness 1.303036
Kurtosis 6.428485
10
Jarque-Bera 217.9169
Probability 0.000000
0
-0.5 -0.0 0.5 1.0 1.5 2.0 2.5

Observe que la serie dinpc no se distribuye de manera normal.

32
TENDENCIA DE UNA SERIE
La tendencia es la evolución lenta y a largo plazo de la serie que se desea modelar y
pronosticar.
Los modelos de tendencia determinista más utilizados son
Tendencia lineal T =  0 + 1Tiempo
Tendencia cuadrática T =  0 + 1Tiempo +  2Tiempo 2
Tendencia exponencial T =  0 e 1Tiempo
Observe la gráfica del inpc nuevamente, esta serie presenta una clase de tendencia
determinista que podría ser lineal, cuadrática o exponencial. Por lo que se le puede
asociar los siguientes modelos.
inpc =  0 + 1Tiempo + ut

inpc =  0 + 1Tiempo +  2Tiempo 2 + ui

linpc =  0 + 1Tiempo + ui
Pero como el modelo exponencial lineal, en logaritmos no es comparable con los
otros dos modelos se trabaja con el modelo exponencial inpc =  0 e 1Tiempoe u y se calcula
por mínimos cuadrados no lineales.
Analicemos cuál de los modelos anteriores podría estar explicando la tendencia
determinista de la serie inpc. Genere la variable tiempo dando clic en genr e introduzca
la ecuación tiempo=@trend y OK. Genere la variable tiempo al cuadrado dando clic
en genr e introduzca la ecuación tempo2=tiempo^2.
Estime el primer modelo escribiendo en el espacio en blanco debajo de la barra de
herramientas ls inpc c tiempo. Guarde la regresión con un nombre, sobre los resultados
de ésta, de clic en Name y anote, por ejemplo, inpctl.

Dependent Variable: INPC


Method: Least Squares
Date: 09/11/08 Time: 09:24
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -15.06310 0.873921 -17.23623 0.0000


TIEMPO 0.520397 0.005335 97.55243 0.0000

R-squared 0.971319 Mean dependent var 58.83333


Adjusted R-squared 0.971217 S.D. dependent var 43.21315
S.E. of regression 7.331340 Akaike info criterion 6.829236
Sum squared resid 15103.34 Schwarz criterion 6.854999
Log likelihood -964.3368 F-statistic 9516.477
Durbin-Watson stat 0.003190 Prob(F-statistic) 0.000000

33
Observe los resultados de la regresión, la variable tiempo es estadísticamente
significativa, sin embargo el estadístico DW es bajo lo que estaría indicando
autocorrelación.
Grafique el inpc estimado por el modelo junto con el inpc y los errores de la
regresión, dando clic sobre los resultados de la regresión en
View/Actual/Fitted/Residual/Graph

160
120
80
40

20 0
-40
10

-10

-20
86 88 90 92 94 96 98 00 02 04 06 08

Residual Actual Fitted

Note como la variable real se sale de la tendencia lineal estimada y los errores no
parecen normales. Haga la prueba de normalidad en los errores.
24
Series: Residuals
Sample 1985M02 2008M08
20
Observations 283

16 Mean 1.73e-15
Median 0.558612
12 Maximum 15.55340
Minimum -18.25873
Std. Dev. 7.318329
8 Skewness -0.519603
Kurtosis 2.742966
4
Jarque-Bera 13.51343
Probability 0.001163
0
-15 -10 -5 0 5 10 15

Los errores no tienen una distribución normal.

Estime el modelo con tendencia cuadrática escribiendo en el espacio en blanco,


debajo de la barra de herramientas ls inpc c tiempo teimpo2 y guarde la regresión con
un nombre por ejemplo inpct2.

34
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:28
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C -8.083254 1.195368 -6.762146 0.0000


TIEMPO 0.373453 0.019436 19.21404 0.0000
TIEMPO2 0.000517 6.63E-05 7.806438 0.0000

R-squared 0.976446 Mean dependent var 58.83333


Adjusted R-squared 0.976277 S.D. dependent var 43.21315
S.E. of regression 6.655753 Akaike info criterion 6.639384
Sum squared resid 12403.73 Schwarz criterion 6.678029
Log likelihood -936.4729 F-statistic 5803.695
Durbin-Watson stat 0.003740 Prob(F-statistic) 0.000000

Observe como en el modelo de tendencia cuadrática la variable tiempo y tiempo al


cuadrado son estadísticamente significativas pero el DW indica autocorrelación, pero el
estadístico Schwarz del segundo modelo es más bajo.
Estime la gráfica de la serie real y estimada
160

120

80

20 40

0
10
-40
0

-10

-20
86 88 90 92 94 96 98 00 02 04 06 08

Residual Actual Fitted

Es muy parecida a la anterior


Haga la prueba de normalidad en los errores

35
32
Series: Residuals
28 Sample 1985M02 2008M08
Observations 283
24
Mean 5.23e-15
20
Median 1.205712
16 Maximum 11.12624
Minimum -15.07925
12 Std. Dev. 6.632109
Skewness -0.217170
8 Kurtosis 2.225438

4 Jarque-Bera 9.298887
Probability 0.009567
0
-15 -10 -5 0 5 10

Los errores no son normales

Estime el modelo exponencial por mínimos cuadrados no lineales de la siguiente


forma: de clic en Quick/Estimate Equation e introduzca la ecuación
inpc=c(1)*exp(C(2)*tiempo).

Dependent Variable: INPC


Method: Least Squares
Date: 09/11/08 Time: 09:32
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
Convergence achieved after 58 iterations
INPC=C(1)*EXP(C(2)*TIEMPO)

Coefficient Std. Error t-Statistic Prob.

C(1) 15.76667 0.696431 22.63925 0.0000


C(2) 0.008041 0.000191 42.04294 0.0000

R-squared 0.914354 Mean dependent var 58.83333


Adjusted R-squared 0.914049 S.D. dependent var 43.21315
S.E. of regression 12.66899 Akaike info criterion 7.923234
Sum squared resid 45101.43 Schwarz criterion 7.948997
Log likelihood -1119.138 Durbin-Watson stat 0.001494

Grafique la variable real y la estimada

36
160

120

30 80
20
40
10

0 0
-10

-20

-30
86 88 90 92 94 96 98 00 02 04 06 08

Residual Actual Fitted

Haga pruebas de normalidad

60
Series: Residuals
Sample 1985M02 2008M08
50
Observations 283

40 Mean -1.928073
Median -8.570290
30 Maximum 20.00287
Minimum -23.91263
Std. Dev. 12.49814
20 Skewness 0.427954
Kurtosis 1.762166
10
Jarque-Bera 26.70591
Probability 0.000002
0
-20 -10 0 10 20

Note que los errores en este modelo tampoco son normales

Compare los tres modelos con los criterios de Akaike y Schwarz

lineal cuadrático exponencial


Akaike info
criterion 6.829236 6.639384 7.923234
Schwarz
criterion 6.854999 6.678029 7.948997

Observe que tanto el criterio de Akaike como el de Schuarz son más pequeños en
el modelo cuadrático. Elija este modelo para predecir, recuerde haber generado a la
variable tiempo y tiempo2 más allá del periodo de la muestra, para ello de clic en
Forecast sobre los resultados de la regresión.

37
160
Forecast: INPCF
Actual: INPC
120 Forecast sample: 1985M01 2008M12
Included observations: 283

80 Root Mean Squared Error 6.620382


Mean Absolute Error 5.531359
Mean Abs. Percent Error 43.97767
40 Theil Inequality Coefficient 0.045468
Bias Proportion 0.000000
Variance Proportion 0.005959
0 Covariance Proportion 0.994041

-40
86 88 90 92 94 96 98 00 02 04 06 08

INPCF

El coeficiente de Desigualdad de Theil está dentro de los límites permitidos al igual que
los otros tres. Grafique la serie real y el pronóstico

160

120

80

40

-40
86 88 90 92 94 96 98 00 02 04 06 08

INPC INPCF

Esta es la gráfica de las realizaciones reales y del pronóstico de la serie inpc. Note que
aún siendo el modelo de tendencia cuadrático el elegido, el pronóstico no fluctúa
alrededor a los datos de la variable real.

ESTACIONALIDAD DE UNA SERIE

La estacionalidad determinista de una serie de tiempo surge cuando las tecnologías,


preferencias e instituciones se enlazan con el calendario. Esta parte de la serie se puede
modelar con series estacionales indicadoras para cada trimestre si la serie es trimestral o
para mes si la serie es mensual.

Observe la variable índice de desempleo en México de 1996 a agosto de 2005

38
7

1
96 97 98 99 00 01 02 03 04 05

IDES

La serie muestra efectos estacionales en diciembre y en enero de cada año.


Para modelar la serie, se crean 11 variables indicadoras de estacionalidad si el
modelo incluye ordenada al origen o 12 si no lo incluye. Genere estas variables dando
clic en genr y escriba la ecuación d1=@seas(1) para generar la variable estacional de
enero y así sucesivamente.

Estime la regresión ls ides c d1 d2 d11

Dependent Variable: IDES


Method: Least Squares
Date: 09/10/08 Time: 17:41
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

C 2.666667 0.345527 7.717684 0.0000


D1 0.858333 0.476276 1.802177 0.0744
D2 0.907333 0.476276 1.905058 0.0595
D3 0.750333 0.476276 1.575418 0.1182
D4 0.746333 0.476276 1.567019 0.1201
D5 0.607333 0.476276 1.275171 0.2051
D6 0.557333 0.476276 1.170190 0.2446
D7 0.685333 0.476276 1.438942 0.1532
D8 0.767333 0.476276 1.611111 0.1102
D9 0.711111 0.488649 1.455260 0.1486
D10 0.536667 0.488649 1.098267 0.2746
D11 0.375556 0.488649 0.768559 0.4439

R-squared 0.052077 Mean dependent var 3.299483


Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 F-statistic 0.519419
Durbin-Watson stat 0.093905 Prob(F-statistic) 0.886409

39
Note que solamente las dos primeras variables son estadísticamente significativas al
90%.
Ahora hagamos una regresión con las 12 variables indicadoras de estacionalidad
excluyendo la constante

Dependent Variable: IDES


Method: Least Squares
Date: 09/10/08 Time: 17:52
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D1 3.525000 0.327796 10.75366 0.0000


D2 3.574000 0.327796 10.90314 0.0000
D3 3.417000 0.327796 10.42418 0.0000
D4 3.413000 0.327796 10.41198 0.0000
D5 3.274000 0.327796 9.987934 0.0000
D6 3.224000 0.327796 9.835400 0.0000
D7 3.352000 0.327796 10.22589 0.0000
D8 3.434000 0.327796 10.47604 0.0000
D9 3.377778 0.345527 9.775733 0.0000
D10 3.203333 0.345527 9.270867 0.0000
D11 3.042222 0.345527 8.804591 0.0000
D12 2.666667 0.345527 7.717684 0.0000

R-squared 0.052077 Mean dependent var 3.299483


Adjusted R-squared -0.048184 S.D. dependent var 1.012475
S.E. of regression 1.036580 Akaike info criterion 3.007429
Sum squared resid 111.7479 Schwarz criterion 3.292283
Log likelihood -162.4309 Durbin-Watson stat 0.093905

Observe como todas las variables se vuelven significativas sin embargo, el R cuadrado
es muy bajo y el estadístico DW indica autocorrelación.

La gráfica de la variable actual y estimada es la siguiente

40
7
6
5
4
3
3
2 2
1 1

-1

-2
96 97 98 99 00 01 02 03 04 05

Residual Actual Fitted

En ella se percibe que la variable modelada no se ajusta a los datos. Tal vez, faltaría
introducir una tendencia cuadrática dada la curvatura de la serie real. Veamos los
resultados.

Dependent Variable: IDES


Method: Least Squares
Date: 09/10/08 Time: 18:11
Sample (adjusted): 1996M01 2005M08
Included observations: 116 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

D1 5.826751 0.152927 38.10141 0.0000


D2 5.889708 0.153430 38.38684 0.0000
D3 5.744928 0.153905 37.32784 0.0000
D4 5.751410 0.154350 37.26208 0.0000
D5 5.621155 0.154767 36.32005 0.0000
D6 5.578162 0.155156 35.95194 0.0000
D7 5.711432 0.155517 36.72548 0.0000
D8 5.796965 0.155850 37.19577 0.0000
D9 5.903774 0.163041 36.21040 0.0000
D10 5.739812 0.163465 35.11339 0.0000
D11 5.587445 0.163859 34.09913 0.0000
D12 5.218897 0.164223 31.77940 0.0000
TIEMPO -0.108648 0.004217 -25.76255 0.0000
TIEMPO2 0.000869 3.55E-05 24.47281 0.0000

R-squared 0.874289 Mean dependent var 3.299483


Adjusted R-squared 0.858268 S.D. dependent var 1.012475
S.E. of regression 0.381170 Akaike info criterion 1.021621
Sum squared resid 14.81966 Schwarz criterion 1.353951
Log likelihood -45.25400 Durbin-Watson stat 0.626485

Observe como el R cuadrado aumenta, al igual que bajan los estadísticos Akaike y
Schwarz

41
Pero todavía el DW indica autocorrelación.
7
6
5
4
3
1.0
2
0.5
1
0.0

-0.5

-1.0

-1.5
96 97 98 99 00 01 02 03 04 05

Residual Actual Fitted

Observe, el ajuste es mejor comparado con los resultados de los otros modelos.
Hagamos algunas pruebas a este modelo
20
Series: Residuals
Sample 1996M01 2005M08
16 Observations 116

Mean 2.32e-16
12 Median -0.030171
Maximum 0.856107
Minimum -1.115479
8 Std. Dev. 0.358980
Skewness -0.101755
Kurtosis 3.075346
4
Jarque-Bera 0.227617
Probability 0.892429
0
-1.0 -0.5 -0.0 0.5

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 53.17358 Prob. F(2,100) 0.000000


Obs*R-squared 59.78406 Prob. Chi-Square(2) 0.000000

42
40

20

-20

-40

-60

-80
1997 1998 1999 2000 2001 2002 2003 2004 2005

CUSUM 5% Significance

Según los resultados de las prueba este modelo tiene autocorrelación, los estimadores no
son estables pero se distribuyen en forma normal.

Suponga que elegimos este modelo, hagamos la predicción. Recuerde haber generado a
todas las variables X más allá de la muestra.

7
Forecast: IDESF
6 Actual: IDES
Forecast sample: 1996M01 2005M12
5 Included observations: 116

4 Root Mean Squared Error 0.357429


Mean Absolute Error 0.279962
Mean Abs. Percent Error 8.537715
3
Theil Inequality Coefficient 0.051940
Bias Proportion 0.000000
2
Variance Proportion 0.033573
Covariance Proportion 0.966427
1

0
96 97 98 99 00 01 02 03 04 05

IDESF

El coeficiente de desigualdad de Theil y los otros tres están dentro de los límites
permitidos.

La gráfica de los valores reales y los estimados son


7

1
96 97 98 99 00 01 02 03 04 05

IDES IDESF

43
La tabla de los valores reales y los estimados es

2005M01 3.750000 4.225548


2005M02 3.930000 4.368370
2005M03 3.950000 4.305191
2005M04 4.200000 4.395013
2005M05 4.290000 4.349835
2005M06 3.540000 4.393657
2005M07 3.500000 4.615479
2005M08 4.050000 4.791301
2005M09 NA 4.990136
2005M10 NA 4.919938
2005M11 NA 4.863073
2005M12 NA 4.591764

GENERACIÓN DE MODELOS AR, MA Y ARMA ESTACIONARIOS Y NO


ESTACIONARIOS EN COVARIANZA
Un modelo ar(1) se expresa como yt = yt −1 + at , este proceso es estacionario si la raíz
característica  es de modulo menor que 1, es decir, un decimal cuyo valor está entre
menos uno y uno.
Un modelo ar(2) se expresa como yt = 1 yt −1 + 2 yt −2 + at , este modelo es
estacionario si las raíces características se encuentran fuera de círculo unitario o en
términos del valor de los coeficiente si  2 1 ; 1 + 2 1 ; 1 − 2 1

Un modelo ar(p) se expresa como yt = 1 yt −1 + 2 yt −2 + ...... +  p yt − p + et , este


modelo es estacionario si sus raíces características se encuentran fuera del círculo
unitario o en términos del valor de los coeficientes si 1 + 2 + 3 + .......... +  p 1 .

Un modelo MA siempre es estacionario, para que sea invertible tiene que cumplir
con la condición de que sus raíces características queden dentro del círculo unitario o en
términos de las condiciones sobre los valores de los coeficientes, las cuales son las
mismas que en el proceso AR.
Un proceso ARMA(p,q) se expresa como
yt = 1 yt −1 + 2 yt −2 + ...... +  p yt − p + 1at −1 +  2 at −2 + .......... +  3 at −q + at
Este proceso es estacionario e invertible si

1 + 2 ........ + q + 1 +  2 + ...... +  p 1

Para generar procesos AR, MA y ARMA estacionarios en el paquete E-Views, se


presentan algunos ejemplos:
• Haga una hoja de trabajo en el paquete E-Views con la instrucción
File/New/Workfile/Frequency/Undated/ con datos de por ejemplo 1 a 2000.

44
• Un modelo ar(1) estacionario sería yt = 2 + 0.5 yt −1 + at . Por tanto, genere un
espacio para la variable Y dando la instrucción data y en el espacio en blanco,
debajo del menú principal.
• A esa variable Y, asígnele el valor cero con la instrucción genr Y=0
• Genere una serie con números aleatorios con la instrucción genr at=nrnd
• Cambie el Sample en un dato, ahora será 2 2000
• Genere el proceso estacionario con la instrucción genr y=2+0.5*y(-1)+at
• Ahora grafique a la variable, de clic en esta variable, después Show/View/Line
Grafic

0
500 1000 1500 2000

Note como la variable estacionaria fluctúa alrededor de su media


Observe su correlograma. La función de autocorrelación parcial se corta en la
primera, mientras que la función de autocorrelación decae más lentamente.
Sample: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|**** | |**** | 1 0.464 0.464 431.71 0.000
|** | | | 2 0.197 -0.023 509.66 0.000
|* | | | 3 0.078 -0.007 521.70 0.000
| | | | 4 0.032 0.004 523.81 0.000
| | | | 5 -0.004 -0.023 523.85 0.000
| | | | 6 0.014 0.033 524.26 0.000
| | | | 7 0.022 0.008 525.22 0.000
| | | | 8 0.000 -0.021 525.22 0.000
| | | | 9 -0.009 -0.005 525.40 0.000
| | | | 10 -0.001 0.009 525.40 0.000

• Ahora genere un proceso ma(2) invertible, como por ejemplo


zt = 3 + 0.3at −1 − 0.2at −2 + at , recuerde las condiciones sobre los valores de los
coeficientes que debe cumplir el proceso ma(2) invertible.
• Genere un espacio para la variable Z dando la instrucción data z en el espacio en
blanco, debajo del menú principal.
• A esa variable z, asignele el valor cero con la instrucción genr z=0
• Genere una serie de números aleatorios con la instrucción genr at=nrnd
• Cambie el Sample en dos datos, porque ahora se tienen dos rezagos de la variable
at, ahora será 3 2000
• Genere el proceso estacionario con la instrucción genr z=3+0.3*at(-1)-0.2*at(-
2)+at

45
• Grafique a la variable z dando clic en esta variable, después Show/View/Line
Grafic

-2
500 1000 1500 2000

Note la gráfica de un proceso invertible que es la contraparte del proceso estacionario.


Observe su correlograma. La función de autocorrelación se corta en la segunda,
mientras que la autocorrelación parcial decae más lentamente.
Simple: 3 2000
Included observations: 1998
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|* | |* | 1 0.191 0.191 73.215 0.000
**| | **| | 2 -0.217 -0.263 167.43 0.000
| | |* | 3 -0.018 0.094 168.10 0.000
| | *| | 4 -0.007 -0.092 168.19 0.000
| | | | 5 -0.034 0.007 170.45 0.000
| | | | 6 0.013 0.001 170.79 0.000
| | | | 7 0.038 0.028 173.75 0.000
| | | | 8 -0.007 -0.019 173.84 0.000
| | | | 9 -0.024 -0.005 175.01 0.000
| | | | 10 0.013 0.014 175.37 0.000

Genere un proceso ARMA(1,1) estacionario e invertible como por ejemplo


yt = 2 + 0.6 yt −1 + 0.2at −1 + at
• Genere un espacio para la variable Y dando la instrucción data y, en el espacio en
blanco, debajo del menú principal.
• A esa variable Y, asígnele el valor cero con la instrucción genr Y=0
• Genere una serie de números aleatorios con la instrucción genr at=nrnd
• Cambie el Sample en un dato, ahora será 2 2000
• Genere el proceso ARMA(1,1) estacionario e invertible con la instrucción genr
y=2+0.6*y(-1)+0.2*at(-1)+at
• Ahora grafique a la variable y dando clic en esta variable, después
Show/View/Line Graph

46
10

0
500 1000 1500 2000

Note que la gráfica de un proceso ARMA(1,1) estacionario e invertible, es igual a las


dos anteriores
Simple: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|***** | |***** | 1 0.670 0.670 897.52 0.000
|*** | *| | 2 0.366 -0.149 1165.6 0.000
|** | | | 3 0.197 0.029 1243.7 0.000
|* | | | 4 0.108 -0.003 1267.0 0.000
| | | | 5 0.052 -0.012 1272.5 0.000
| | | | 6 0.041 0.036 1275.9 0.000
| | | | 7 0.034 -0.008 1278.2 0.000
| | | | 8 0.011 -0.023 1278.4 0.000
| | | | 9 -0.003 0.002 1278.5 0.000
| | | | 10 -0.004 0.005 1278.5 0.000

Observe el correlograma de un proceso ARMA(1,1), la autocorrelación parcial se


corta en la primera, mientras que la autocorrelación decrece más lentamente. Además,
note que este proceso es más parecido al ar(1) estacionario visto en el ejemplo 1.
Los procesos no estacionarios son aquellos que no cumplen con las condiciones sobre
el valor de los parámetros. Uno de los procesos más conocidos es el de caminata
aleatoria, el cual se expresa como yt = yt −1 + at , donde el coeficiente de la variable
endógena rezagada tiene el valor de uno o bien es de raíz unitaria.
Para generar este proceso siga los mismos pasos que el ejemplo del modelo ar(1). Dé
la instrucción genr y=y(-1)+at después de haber cambiado el Sample y gráfique

60

40

20

-20

-40
500 1000 1500 2000

Note como la variable no estacionaria, no fluctúa alrededor de su media.

47
Grafique el correlograma de esta caminata aleatoria
Sample: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|******** |******** 1 0.996 0.996 1987.3 0.000
|******** | | 2 0.993 0.015 3961.5 0.000
|******** | | 3 0.989 0.007 5922.8 0.000
|******** | | 4 0.986 0.024 7872.0 0.000
|******** | | 5 0.983 0.004 9809.3 0.000
|******** | | 6 0.980 0.012 11735. 0.000
|******** | | 7 0.976 -0.008 13649. 0.000
|*******| | | 8 0.973 -0.021 15551. 0.000
|*******| | | 9 0.970 0.005 17441. 0.000
|*******| | | 10 0.966 0.016 19319. 0.000
|*******| | | 11 0.963 -0.016 21186. 0.000
|*******| | | 12 0.960 -0.016 23040. 0.000
|*******| | | 13 0.957 0.029 24883. 0.000
|*******| | | 14 0.954 0.015 26715. 0.000
|*******| | | 15 0.950 -0.003 28537. 0.000
|*******| | | 16 0.948 0.027 30348. 0.000
|*******| | | 17 0.945 -0.005 32149. 0.000
|*******| | | 18 0.942 -0.004 33940. 0.000
|*******| | | 19 0.939 0.024 35721. 0.000
|*******| | | 20 0.936 -0.036 37491. 0.000

Note como la función de autocorrelación no decae ni aún el la autocorrelación 20 y la


autocorrelación parcial se corta en la primera como el clásico en el modelo ar(1). Este
autocorrelograma es característico de los procesos no estacionarios.
Como ejercicio genere y analice tres procesos ar, ma, y ARMA estacionarios y dos
procesos no estacionarios.

RAICES DE LOS MODELOS ARMA Y SU DIAGNÓSTICO

Un proceso AR es estacionario si sus raíces características son de modulo menor que


uno o bien se encuentran dentro del circulo unitario. Un proceso MA siempre es
estacionaria, para que sea invertible sus raíces se deben de encontrar fuera del circulo
unitario (dentro del circulo unitario). Las raíces de ambos procesos pueden ser reales o
imaginarías.

Suponga que se trabaja con la diferencia de los logaritmos del inpc (dlinpc) o con la
inflación de México de 1985 a 2008 con datos mensuales. La gráfica respectiva de esta
serie es

48
.16

.12

.08

.04

.00

-.04
86 88 90 92 94 96 98 00 02 04 06 08

DLINPC

Una forma de determinar el modelo ARMA que está explicando a la serie es analizar su
correlograma. Por tanto, sombree la serie y de clic en Show/View/Correlogram y
OK.

Date: 09/11/08 Time: 10:39


Sample: 1985M01 2008M12
Included observations: 282

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*******| .|*******| 1 0.915 0.915 238.56 0.000


.|****** | *|. | 2 0.822 -0.090 431.98 0.000
.|****** | .|* | 3 0.758 0.125 596.84 0.000
.|***** | .|. | 4 0.709 0.042 741.54 0.000
.|***** | .|* | 5 0.684 0.145 877.00 0.000
.|***** | *|. | 6 0.648 -0.081 998.98 0.000
.|***** | .|* | 7 0.625 0.126 1112.6 0.000
.|***** | .|. | 8 0.613 0.048 1222.4 0.000
.|***** | .|. | 9 0.592 -0.016 1325.1 0.000
.|**** | .|. | 10 0.576 0.046 1422.9 0.000
.|**** | .|* | 11 0.573 0.105 1519.9 0.000
.|**** | .|. | 12 0.566 -0.016 1614.8 0.000
.|**** | **|. | 13 0.514 -0.267 1693.4 0.000
.|*** | .|. | 14 0.459 0.029 1756.3 0.000
.|*** | .|. | 15 0.421 0.013 1809.5 0.000
.|*** | .|. | 16 0.398 0.010 1857.1 0.000
.|*** | *|. | 17 0.372 -0.095 1899.0 0.000
.|*** | .|. | 18 0.342 0.044 1934.6 0.000
.|** | .|. | 19 0.326 0.026 1967.0 0.000
.|** | *|. | 20 0.309 -0.061 1996.2 0.000
.|** | .|* | 21 0.301 0.103 2024.0 0.000
.|** | .|. | 22 0.296 0.014 2051.0 0.000
.|** | .|* | 23 0.316 0.187 2081.8 0.000
.|*** | *|. | 24 0.329 -0.079 2115.3 0.000

49
.|** | **|. | 25 0.281 -0.218 2139.9 0.000
.|** | .|. | 26 0.223 -0.053 2155.5 0.000
.|* | .|* | 27 0.191 0.092 2166.9 0.000
.|* | .|. | 28 0.173 -0.044 2176.3 0.000
.|* | .|. | 29 0.163 -0.001 2184.7 0.000
.|* | .|. | 30 0.140 -0.019 2191.0 0.000
.|* | .|. | 31 0.124 -0.006 2195.9 0.000
.|* | .|. | 32 0.121 0.023 2200.6 0.000
.|* | .|* | 33 0.131 0.118 2206.1 0.000
.|* | .|. | 34 0.135 -0.022 2212.0 0.000
.|* | *|. | 35 0.137 -0.087 2218.1 0.000
.|* | .|. | 36 0.135 0.029 2224.0 0.000

Observe como las autocorrelaciones decaen y las autocorrelaciones parciales se cortan


abruptamente en el primer rezago, aunque hay picos que se salen de la bandas en el
rezago 13 y 25, esto sugiere que un modelo AR(1) o un modelo ARMA(1,1) podría
estar explicando a la serie y que tiene una tendencia estacional. Hagamos caso omiso de
la tendencia estacional y concretémonos a modelar la serie como AR o ARMA.

Estime un modelo AR(1) y un ARMA(1,1). Los resultados de la regresión son

Dependent Variable: DLINPC


Method: Least Squares
Date: 09/11/08 Time: 10:27
Sample (adjusted): 1985M04 2008M08
Included observations: 281 after adjustments
Convergence achieved after 3 iterations

Variable Coefficient Std. Error t-Statistic Prob.

C 0.015889 0.006276 2.531622 0.0119


AR(1) 0.915778 0.023883 38.34410 0.0000

R-squared 0.840505 Mean dependent var 0.017137


Adjusted R-squared 0.839933 S.D. dependent var 0.022106
S.E. of regression 0.008844 Akaike info criterion -6.611030
Sum squared resid 0.021823 Schwarz criterion -6.585134
Log likelihood 930.8497 F-statistic 1470.270
Durbin-Watson stat 1.818836 Prob(F-statistic) 0.000000

Inverted AR Roots .92

Dependent Variable: DLINPC


Method: Least Squares
Date: 09/11/08 Time: 10:29
Sample (adjusted): 1985M04 2008M08
Included observations: 281 after adjustments
Convergence achieved after 8 iterations
Backcast: 1985M03

50
Variable Coefficient Std. Error t-Statistic Prob.

C 0.016155 0.005618 2.875694 0.0043


AR(1) 0.893240 0.029143 30.64992 0.0000
MA(1) 0.140830 0.064562 2.181330 0.0300

R-squared 0.842539 Mean dependent var 0.017137


Adjusted R-squared 0.841407 S.D. dependent var 0.022106
S.E. of regression 0.008803 Akaike info criterion -6.616751
Sum squared resid 0.021545 Schwarz criterion -6.577907
Log likelihood 932.6535 F-statistic 743.7606
Durbin-Watson stat 2.025108 Prob(F-statistic) 0.000000

Observe como el segundo modelo es el que mejor se ajusta a los datos. Ahora
veamos si el proceso ARMA(1,1) es estacionario e invertible. Sobre los resultados de la
regresión dé clic en View/ARMA Structure/Roots/OK, con esta instrucción aparece
el círculo unitario y las raíces características del modelo.
Inverse Roots of AR/MA Polynomial(s)
1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

AR roots MA roots

Note como ambas raíces se encuentran dentro del círculo unitario por tanto se
puede decir que el modelo es estacionario e invertible.
Otra forma de diagnóstico del modelo ARMA es saber el comportamiento de sus
errores después de remover los efectos de las variables explicativas dentro del modelo,
en este caso no hay variables explicativas en el modelo. Para ver la estructura de los
errores de clic en View/ARMA Structure/Correlogram/OK.

51
1.0

0.8

Autocorrelation
0.6

0.4

0.2

0.0
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

1.2
Partial autocorrelation

0.8

0.4

0.0

-0.4
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

Teóricamente, la función de autocorrelación y autocorrelación parcial decaen a cero


si el proceso ARMA es estacionario. En este caso se observa que ambas funciones
decaen a cero.
Otro elemento importante del diagnóstico es la su función estímulo respuesta. En
View/ARMA Estructure/Impulse Reponse se encuentra esta prueba de diagnóstico.

Impulse Response ± 2 S.E.


.012

.008

.004

.000

-.004
2 4 6 8 10 12 14 16 18 20 22 24

Accumulated Response ± 2 S.E.


.16

.12

.08

.04

.00
2 4 6 8 10 12 14 16 18 20 22 24

Si el proceso ARMA es estacionario la función estímulo respuesta decae a cero y la


función estímulo respuesta acumulada tiende a aumentar o disminuir en el largo plazo.
Como se observa, ambas gráficas determinan que el modelo ARMA es estacionario. La
interpretación de la función estímulo respuesta sería, que un cambio inesperado en el
innovación del modelo ARMA afecta a la inflación en los primeros meses de manera
significativa en menos de 1.0%, pero que dicho aumento se desvanece lentamente a lo
largo de dos años.

52
MODELOS ARMA CON COMPONENTES DE TENDENCIA,
ESTACIONALIDAD Y CICLO
En la primera parte de esta guía, se modelo inpc con un modelo de tendencia cuadrática.
Ahora se extenderá ese análisis para detectar algún componente estacional y cíclico en
ese variable.
* Genere doce variables Dummy con la instrucción genr d1=@seas(1) genr
d2=@seas(2) y así sucesivamente hasta la 12.
* Estime el modelo ls inpc tiempo tiempo2 d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11
d12. Los resultados de la regresión son

Dependent Variable: INPC


Method: Least Squares
Date: 09/17/08 Time: 17:55
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.

TIEMPO 0.373623 0.019829 18.84204 0.0000


TIEMPO2 0.000517 6.76E-05 7.645560 0.0000
D1 -7.915649 1.838424 -4.305672 0.0000
D2 -7.609437 1.786477 -4.259465 0.0000
D3 -7.645147 1.788549 -4.274497 0.0000
D4 -7.727057 1.790564 -4.315432 0.0000
D5 -8.069978 1.792523 -4.502022 0.0000
D6 -8.263164 1.794426 -4.604907 0.0000
D7 -8.461817 1.796272 -4.710764 0.0000
D8 -8.605199 1.798063 -4.785815 0.0000
D9 -8.192993 1.830878 -4.474899 0.0000
D10 -8.304527 1.832851 -4.530935 0.0000
D11 -8.249116 1.834766 -4.496005 0.0000
D12 -8.128494 1.836623 -4.425782 0.0000

R-squared 0.976496 Mean dependent var 58.83333


Adjusted R-squared 0.975360 S.D. dependent var 43.21315
S.E. of regression 6.783225 Akaike info criterion 6.714987
Sum squared resid 12377.27 Schwarz criterion 6.895327
Log likelihood -936.1706 Durbin-Watson stat 0.003691

Observe que todas las variables son estadísticamente significativas.


• Para analizar los errores del modelo estimado, primero se tienen que generar y
guardar con un nombre o bien sobre los resultados de la regresión hacer el análisis.
EV guarda los errores de la última regresión estimada con el nombre de resid que
aparece en la hoja de trabajo, por tanto únicamente se cambian de nombre para no
perderlos y trabajar con ellos. Para lograr esto, anote genr residinpc=resid
inmediatamente después de estimar la regresión y trabájelos como cualquier serie o
sobre los resultados de la regresión de clic en View/Residual Test/ Correlogram-Q
53
Statistics/OK y aparece el correlograma de los errores con las primeras 36
autocorrelaciones.

Date: 09/17/08 Time: 18:15


Sample: 1985M02 2008M08
Included observations: 283

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|******** .|******** 1 0.992 0.992 281.55 0.000


.|******** *|. | 2 0.982 -0.157 558.30 0.000
.|*******| *|. | 3 0.970 -0.103 829.25 0.000
.|*******| *|. | 4 0.956 -0.074 1093.6 0.000
.|*******| .|. | 5 0.942 -0.023 1351.0 0.000
.|*******| .|. | 6 0.927 -0.054 1601.0 0.000
.|*******| .|. | 7 0.910 -0.050 1843.0 0.000
.|*******| .|. | 8 0.893 -0.003 2077.0 0.000
.|*******| .|. | 9 0.876 -0.041 2302.7 0.000
.|*******| .|. | 10 0.857 -0.038 2519.9 0.000
.|****** | *|. | 11 0.838 -0.060 2728.0 0.000
.|****** | .|. | 12 0.818 -0.040 2927.0 0.000
.|****** | *|. | 13 0.796 -0.073 3116.2 0.000
.|****** | .|. | 14 0.773 -0.030 3295.5 0.000
.|****** | .|. | 15 0.750 -0.023 3464.9 0.000
.|****** | .|. | 16 0.727 -0.007 3624.4 0.000
.|***** | .|. | 17 0.704 0.033 3774.5 0.000
.|***** | .|. | 18 0.680 -0.016 3915.3 0.000
.|***** | .|. | 19 0.657 -0.011 4047.2 0.000
.|***** | .|. | 20 0.634 0.003 4170.4 0.000
.|***** | .|. | 21 0.610 -0.030 4285.0 0.000
.|**** | .|. | 22 0.586 -0.032 4391.3 0.000
.|**** | .|. | 23 0.562 -0.034 4489.3 0.000
.|**** | .|. | 24 0.537 -0.031 4579.2 0.000
.|**** | *|. | 25 0.512 -0.067 4661.0 0.000
.|**** | .|. | 26 0.485 -0.017 4735.0 0.000
.|**** | .|. | 27 0.459 -0.008 4801.4 0.000
.|*** | .|. | 28 0.433 -0.016 4860.6 0.000
.|*** | .|. | 29 0.407 0.008 4913.1 0.000
.|*** | .|. | 30 0.381 -0.040 4959.3 0.000
.|*** | .|. | 31 0.354 -0.005 4999.5 0.000
.|*** | .|. | 32 0.329 0.011 5034.2 0.000
.|** | .|. | 33 0.303 -0.041 5063.8 0.000
.|** | .|. | 34 0.277 -0.040 5088.6 0.000
.|** | *|. | 35 0.249 -0.072 5108.8 0.000
.|** | .|. | 36 0.222 -0.045 5124.9 0.000

Como se puede observar, las autocorrelaciones decaen lentamente y las


autocorrelaciones parciales se cortan inmediatamente en la primera, por tanto un
componente ar(1) o arma(1,1) podría estar explicando a la serie. Estime el modelo
primero con el ar(1).
54
• Se estima al INPC con la tendencia cuadrática, con las variables estacionales y con
el componente cíclico AR(1), escribiendo debajo del menú principal ls inpc tiempo
tiempo2 d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11 d12 ar(1) y enter. El resultado de la
estimación es el siguiente

Dependent Variable: INPC


Method: Least Squares
Date: 09/17/08 Time: 18:20
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 151 iterations

Variable Coefficient Std. Error t-Statistic Prob.

TIEMPO 4.508252 5.114522 0.881461 0.3789


TIEMPO2 -0.004990 0.004246 -1.175156 0.2410
D1 -1065.079 1994.626 -0.533974 0.5938
D2 -1065.075 1994.625 -0.533973 0.5938
D3 -1065.042 1994.626 -0.533956 0.5938
D4 -1065.054 1994.626 -0.533962 0.5938
D5 -1065.328 1994.626 -0.534099 0.5937
D6 -1065.453 1994.626 -0.534162 0.5937
D7 -1065.583 1994.625 -0.534227 0.5936
D8 -1065.658 1994.625 -0.534265 0.5936
D9 -1065.579 1994.625 -0.534225 0.5936
D10 -1065.634 1994.626 -0.534253 0.5936
D11 -1065.523 1994.626 -0.534197 0.5936
D12 -1065.347 1994.626 -0.534109 0.5937
AR(1) 0.995746 0.003207 310.4564 0.0000

R-squared 0.999935 Mean dependent var 59.03838


Adjusted R-squared 0.999932 S.D. dependent var 43.15184
S.E. of regression 0.355585 Akaike info criterion 0.821618
Sum squared resid 33.75960 Schwarz criterion 1.015336
Log likelihood -100.8481 Durbin-Watson stat 0.535676

Inverted AR Roots 1.00

Observe como la variable tiempo y tiempo al cuadrado y las dummy se vuelven


estadísticamente no significativas, por tanto se prueba con una regresión a partir del
origen sin variables estacionales (otro modelo que prodría proponerse es uno que parta
del origen, con 11 variables dummy, el componente de tendencia y el término ar(1)
como ejercicio estime este modelo). Escriba debajo del menú principal ls inpc tiempo
tiempo2 ar(1) y enter.

Dependent Variable: INPC


Method: Least Squares
Date: 09/12/08 Time: 12:18
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 20 iterations

55
Variable Coefficient Std. Error t-Statistic Prob.

TIEMPO 0.318142 0.054684 5.817768 0.0000


TIEMPO2 0.000489 0.000186 2.628859 0.0090
AR(1) 0.998867 0.003627 275.3996 0.0000

R-squared 0.999914 Mean dependent var 59.03838


Adjusted R-squared 0.999913 S.D. dependent var 43.15184
S.E. of regression 0.402439 Akaike info criterion 1.028035
Sum squared resid 45.18603 Schwarz criterion 1.066778
Log likelihood -141.9529 Durbin-Watson stat 0.533647

Observe como las tres variables son estadísticamente significativas pero el DW indica
autocorrelación en los errores.
Probemos ahora con el modelo ARMA(1,1). Escriba ls inpc tiempo tiempo2 ar(1)
ma(1) y enter. Los resultados de la regresión son los siguientes.

Dependent Variable: INPC


Method: Least Squares
Date: 09/12/08 Time: 12:27
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 16 iterations
Backcast: 1985M02

Variable Coefficient Std. Error t-Statistic Prob.

TIEMPO 0.318571 0.067156 4.743750 0.0000


TIEMPO2 0.000491 0.000232 2.119991 0.0349
AR(1) 0.998148 0.004605 216.7711 0.0000
MA(1) 0.644706 0.045849 14.06141 0.0000

R-squared 0.999949 Mean dependent var 59.03838


Adjusted R-squared 0.999948 S.D. dependent var 43.15184
S.E. of regression 0.311194 Akaike info criterion 0.517285
Sum squared resid 26.92208 Schwarz criterion 0.568944
Log likelihood -68.93724 Durbin-Watson stat 1.591259

Observe que todas las variables son estadísticamente significativas, el DW es


más alto y los estadísticos de Akaike y Schwarz se hacen más pequeños, por tanto
sigamos el análisis con este modelo.
Analicemos el correlograma de los residuos para detectar si estos son ruido
blanco. Escriba sobre los resultados de la regresión View/Residal
Test/Correlogram/Squared Residuals.

56
Date: 09/12/08 Time: 12:41
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 2 ARMA
term(s)

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*** | .|*** | 1 0.349 0.349 34.652


.|* | .|. | 2 0.124 0.003 39.063
.|* | .|. | 3 0.083 0.044 41.023 0.000
.|. | *|. | 4 -0.039 -0.093 41.469 0.000
.|. | .|. | 5 -0.017 0.025 41.548 0.000
.|. | .|. | 6 0.014 0.020 41.609 0.000
.|. | .|. | 7 0.008 0.005 41.626 0.000
.|. | .|. | 8 0.065 0.062 42.852 0.000
.|* | .|. | 9 0.099 0.062 45.748 0.000
.|. | .|. | 10 0.040 -0.021 46.210 0.000
.|* | .|* | 11 0.123 0.117 50.679 0.000
.|** | .|* | 12 0.245 0.193 68.511 0.000
.|* | *|. | 13 0.077 -0.076 70.261 0.000
.|. | .|. | 14 0.002 -0.043 70.261 0.000
.|. | .|. | 15 -0.039 -0.046 70.715 0.000
*|. | .|. | 16 -0.065 -0.006 71.982 0.000
.|. | .|. | 17 -0.045 -0.024 72.586 0.000
.|. | .|. | 18 0.007 0.028 72.599 0.000
.|. | *|. | 19 -0.051 -0.082 73.393 0.000
.|* | .|* | 20 0.129 0.163 78.513 0.000
.|* | .|. | 21 0.136 0.023 84.179 0.000
.|. | .|. | 22 0.012 -0.050 84.222 0.000
.|. | .|. | 23 0.062 0.022 85.421 0.000
.|* | .|* | 24 0.110 0.073 89.188 0.000
.|. | .|. | 25 0.058 0.028 90.244 0.000
.|. | *|. | 26 -0.037 -0.086 90.676 0.000
.|. | .|. | 27 -0.035 0.020 91.058 0.000
.|. | .|. | 28 -0.048 -0.015 91.778 0.000
.|. | .|. | 29 -0.016 -0.001 91.863 0.000
.|. | .|. | 30 -0.015 -0.031 91.932 0.000
.|. | .|. | 31 -0.013 0.021 91.984 0.000
.|. | *|. | 32 -0.020 -0.128 92.116 0.000
.|* | .|* | 33 0.098 0.132 95.197 0.000
.|* | .|. | 34 0.071 0.029 96.806 0.000
.|. | .|. | 35 0.025 -0.014 97.016 0.000
.|. | .|. | 36 0.046 -0.017 97.718 0.000

Note que hay dos picos que se salen de las bandas en la primera autocorrelación y
autocorrelación parcial y la autocorrelación 12 también se sale de las bandas. Estos dos
57
problemas estarían indicando que los errores no son ruido blanco y que hay una
tendencia estacional en el rezago 12. El problema de tendencia estacional podría
corregirse agregando una variable de diferencia estacional sma(12) en el modelo. Con
esta variable el modelo a estimar seria ls inpc tiempo tiempo2 ar(1) ma(1) sma(12) y
enter. Los resultados de la regresión son los siguientes.

Dependent Variable: INPC


Method: Least Squares
Date: 09/12/08 Time: 12:53
Sample (adjusted): 1985M03 2008M08
Included observations: 282 after adjustments
Convergence achieved after 139 iterations
Backcast: 1984M02 1985M02

Variable Coefficient Std. Error t-Statistic Prob.

TIEMPO 0.220107 0.087283 2.521760 0.0122


TIEMPO2 0.002174 0.000474 4.589293 0.0000
AR(1) 1.011197 0.002188 462.2232 0.0000
MA(1) 0.621392 0.047103 13.19214 0.0000
SMA(12) 0.374582 0.058147 6.441962 0.0000

R-squared 0.999959 Mean dependent var 59.03838


Adjusted R-squared 0.999958 S.D. dependent var 43.15184
S.E. of regression 0.278517 Akaike info criterion 0.298899
Sum squared resid 21.48743 Schwarz criterion 0.363472
Log likelihood -37.14477 Durbin-Watson stat 1.615289

Inverted AR Roots 1.01


Estimated AR process is nonstationary
Inverted MA Roots .89-.24i .89+.24i .65-.65i .65+.65i
.24+.89i .24-.89i -.24+.89i -.24-.89i
-.62 -.65+.65i -.65+.65i -.89-.24i
-.89+.24i

Veamos nuevamente el correlograma para ver si se corrige la tendencia estacionaria

58
Date: 09/12/08 Time: 12:54
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 3 ARMA
term(s)

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*** | .|*** | 1 0.389 0.389 43.036


.|** | .|. | 2 0.199 0.057 54.418
.|* | .|. | 3 0.145 0.058 60.434
.|. | *|. | 4 -0.021 -0.123 60.565 0.000
.|. | .|. | 5 -0.002 0.033 60.567 0.000
.|. | .|. | 6 0.011 0.014 60.600 0.000
.|. | .|. | 7 0.021 0.034 60.733 0.000
.|* | .|. | 8 0.067 0.046 62.032 0.000
.|. | .|. | 9 0.046 -0.002 62.659 0.000
.|. | .|. | 10 -0.000 -0.038 62.659 0.000
.|. | .|. | 11 0.016 0.019 62.734 0.000
.|. | .|. | 12 0.025 0.029 62.917 0.000
.|. | .|. | 13 -0.011 -0.027 62.955 0.000
.|. | .|. | 14 -0.042 -0.051 63.492 0.000
.|. | .|. | 15 -0.036 -0.009 63.888 0.000
.|. | .|. | 16 -0.039 -0.011 64.351 0.000
*|. | .|. | 17 -0.061 -0.039 65.464 0.000
.|. | .|. | 18 -0.014 0.029 65.527 0.000
.|. | .|. | 19 -0.047 -0.051 66.213 0.000
.|. | .|* | 20 0.055 0.108 67.147 0.000
.|. | .|. | 21 0.044 -0.013 67.731 0.000
.|. | .|. | 22 -0.014 -0.030 67.792 0.000
.|. | .|. | 23 -0.003 -0.016 67.794 0.000
.|. | .|. | 24 0.012 0.040 67.843 0.000
.|. | .|. | 25 0.008 0.013 67.861 0.000
.|. | .|. | 26 -0.035 -0.056 68.254 0.000
.|. | .|. | 27 -0.033 -0.014 68.595 0.000
.|. | .|. | 28 -0.025 -0.008 68.799 0.000
.|. | .|. | 29 -0.043 -0.027 69.377 0.000
.|. | .|. | 30 -0.024 0.007 69.565 0.000
.|. | .|. | 31 -0.011 0.003 69.601 0.000
.|. | *|. | 32 -0.049 -0.064 70.366 0.000
.|. | .|* | 33 0.038 0.082 70.827 0.000
.|. | .|. | 34 0.039 0.023 71.319 0.000
.|. | .|. | 35 -0.022 -0.041 71.481 0.000
.|. | .|. | 36 0.033 0.025 71.844 0.000

59
Obseve como se removió la tendencia estacionaria.
Ahora veamos si la estructura ARMA del modelo es estacionaria e invertible, dé clic en
View/ARMA Structure/Roots/OK y aparece el círculo unitario y las raíces
características del modelo.
Inverse Roots of AR/MA Polynomial(s)
1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

AR roots MA roots

Note que tiene una raíz fuera del círculo unitario y el resto dentro de él. Esto indica que
el proceso no es estacionario. Esto se confirma con el correlograma y con la función
estímulo respuesta de la estructura de los residuales.
1.0
Autocorrelation

0.9

0.8

0.7

0.6
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

1.2
Partial autocorrelation

0.8

0.4

0.0

-0.4
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

60
Impulse Response ± 2 S.E.
1.0

0.8

0.6

0.4

0.2
2 4 6 8 10 12 14 16 18 20 22 24

Accumulated Response ± 2 S.E.


20

15

10

0
2 4 6 8 10 12 14 16 18 20 22 24

Además, es conveniente hacer pruebas de heteroscedasticidad, normalidad y


autocorrelación de dicho modelo. Para ello sobre los resultados de la regresión de clic
en View/Residal Test/ARCH Tests, View/Residal Test/Histogram y View/Residal
Test/Serial Correlation LM Test, repectivamente

ARCH Test:

F-statistic 49.65871 Prob. F(1,279) 0.000000


Obs*R-squared 42.45771 Prob. Chi-Square(1) 0.000000

90
Series: Residuals
80 Sample 1985M03 2008M08
70 Observations 282

60 Mean -0.015217
Median -0.075024
50 Maximum 1.500330
40 Minimum -0.869809
Std. Dev. 0.276107
30 Skewness 1.305576
Kurtosis 7.586434
20
10 Jarque-Bera 327.2785
Probability 0.000000
0
-0.5 -0.0 0.5 1.0 1.5

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 32.07839 Prob. F(2,275) 0.000000


Obs*R-squared 52.64766 Prob. Chi-Square(2) 0.000000

Observe que el modelo presenta heteroscedasticidad, no normalidad y autocorrelación

61
PREDICCIÓN DEL MODELO ARMA
Suponga que el modelo anterior para inpc, cumplió con las propiedades deseables y fue
elegido como el mejor para su uso en el pronóstico, por tanto ahora el objetivo es
predecir el inpc hasta el mes de diciembre del año 2008 Para llevar cabo el pronóstico,
el rango debe de comprender de 1985 a 2008 y la serie tiempo y tiempo al cuadrado ya
tienen que estar generadas para ese tamaño de rango. Si el rango es menor hay que
expandirlo antes de predecir dando clic en Range/End Date/ anotar 2008.12 y generar
la variable tiempo y tiempo al cuadrado para todo este rango.
• Cheque el Sample, Este debe estar de 1985.02 al último mes para el cual la variable
dependiente tiene observaciones.
• Estime la regresión del modelo elegido para su uso en el pronóstico (ls inpc c
tiempo tiempo2 ar(1) ma(1) sma(1) o si guardo la regresión con un nombre de clic
en ese nombre y Show para que la muestre.
• Sobre los resultados de la regresión de clic en Forecast/OK (antes de dar OK
observe si el Sample contiene la muestra expandida). Después de esta instrucción
aparece la tabla y la gráfica del coeficiente de desigualdad de Theil

500
Forecast: INPCARMASMAF
Actual: INPC
400 Forecast sample: 1985M01 2008M12
Adjusted sample: 1985M03 2008M12
Included observations: 282
300
Root Mean Squared Error 49.26952
Mean Absolute Error 36.45383
200 Mean Abs. Percent Error 65.69297
Theil Inequality Coefficient 0.253968
Bias Proportion 0.547431
100 Variance Proportion 0.398475
Covariance Proportion 0.054093

0
86 88 90 92 94 96 98 00 02 04 06 08

INPCARMASMAF

Como se observa la proporción de sesgo, varianza y covarianza no se encuentran dentro


de los límites permitidos, al igual que el coefieciente de desigualdad de Theil. Estos
resultados indican que el pronóstico no es favorable, como consecuencia de todos los
problemas que tuvo el modelo.
• En este momento EV guarda la variable estimada por el modelo y su pronóstico
fuera de la muestra con el nombre inpcf automáticamente, si gusta cambie ese
nombre.
• Muestre la gráfica del inpc y su pronóstico por lo menos cinco años dentro de la
muestra y algunos meses fuera de la muestra. Para ello modifique el Sample antes
de graficar. Dé clic en Sample sobre la hoja de trabajo y modifique anotando
2001.06 2010.12 y OK. Después, sobre la hoja de trabajo de clic y arrastre el mouse
para sombrear a la variable original y la estimada (inpc e inpcf) y clic en Show para
que EV las muestre. Sobre la lista de las variables dé clic en View/Graph/Line y
aparece

62
280

240

200

160

120

80

40

0
86 88 90 92 94 96 98 00 02 04 06 08

INPC INPCARMASMAF

Observe que la predicción en los modelo ARMA contienen menos movimientos que
la variable original.
La predicción anterior se realizó, para un pronóstico dinámico, pero también existe la
predicción estática, ésta generalmente se ajusta mejor a los datos pero sólo proporciona
un dato más allá de la muestra. Para hacer este tipo de predicción de clic sobre los
resultados de la regresión Forecast/OK y ubique el cursor en Estatic Forecat. Los
resultados del pronóstico son los siguientes.
140
Forecast: INPCF
120 Actual: INPC
Forecast sample: 1985M01 2008M12
100 Adjusted sample: 1985M03 2008M09
Included observations: 282
80
Root Mean Squared Error 0.276037
Mean Absolute Error 0.194868
60
Mean Abs. Percent Error 0.925170
Theil Inequality Coefficient 0.001888
40
Bias Proportion 0.003039
Variance Proportion 0.000009
20 Covariance Proportion 0.996952

0
86 88 90 92 94 96 98 00 02 04 06 08

INPCF

Note la diferencia con el pronóstico anterior, el ajuste es casi perfecto. La gráfica de


las realizaciones reales del ipnc y su pronóstico es
140

120

100

80

60

40

20

0
86 88 90 92 94 96 98 00 02 04 06 08

INPC INPCFESTATICO

63
El valor las realizaciones reales del ipnc y su pronóstico es

INPC INPCFSTATICO
2008M01 126.1460 125.7525
2008M02 126.5210 126.7029
2008M03 127.4380 126.7052
2008M04 127.7280 128.0561
2008M05 127.5900 127.5527
2008M06 128.1180 127.8266
2008M07 128.8320 128.6450
2008M08 129.5760 129.2233
2008M09 NA 130.1703

Como ejercicio, pronostique la inflación para México. Con los conocimientos


adquiridos, ajuste un modelo lo mejor posible.

RAÍCES UNITARIA, MODELOS ARIMA Y PRÓNOSTICO

Generalmente las variables económicas y financieras no son estacionarias en covarianza


o bien no tienden al equilibrio a largo plazo, este problema puede ser generado por que
la variable es de tendencia determinista o de tendencia estocástica (de raíz unitaria).
Para detectar si una variable es de raíz unitaria existen varias pruebas. Una de ellas,
consiste en observar el correlograma de la serie original y si la autocorrelación muestral
presenta un largo proceso de decaimiento, esta serie es de tendencia estocástica. Otras
pruebas complementarias a ésta, son las de Dikey – Fuller y Phillips Perron que se
encuentran en el paquete EV.
Un método para lograr que una variable sea estacionaria en covarianza es diferenciar
la serie tantas veces como sea necesario. Otro método para eliminar la tendencia
estocástica en la serie, es la transformación de ésta por medio del cambio porcentual, la
diferencia del logaritmo de la serie, etc.
Como ejemplo considere la serie inflación, la cual ya es una serie transformada o bien
es el cambio porcentual del INPC.
Para ver el correlograma mande mostrar la serie con Show y escriba el nombre de la
variable o dé clic en la variable y luego Show, sobre la serie mostrada de clic en
View/Correlogram/Level/ OK. El correlograma de la inflación en niveles es el que se
mostró en la sección Raíces de los modelos ARMA .
Observe que las autocorrelaciones de la inflación decaen pero no lo hacen
rápidamente, esto indica que probablemente la variable sea de raíz unitaria.
Pasemos a realizar las pruebas Dikey-Fuller y Phillis Perron. Para ello de clic sobre
los resultados del correlograma en View/Unit Root Test/Argumented DF/Level y OK
y después haga lo mismo para la prueba PP View/Unit Root Test/Argumented
PP/Level. Con esta instrucción, aparece una tabla con tres valores críticos a un nivel de
significancia del 10.0% (90.0% de confianza), del 5.0% (95.0% de confianza), 1.0%
(99.0% de confianza) y el valor del estadístico DF o el valor del estadístico PP. El
criterio de decisión es el siguiente: si el valor del estadístico DF o el de PP es mayor, en
términos absolutos, a los valores críticos, se rechaza que la variable tenga una raíz

64
unitaria, por el contrario si el valor del estadístico DF o PP es menor en términos
absolutos que los tres valores críticos, no se rechaza la existencia de una raíz unitaria en
la serie.
Resultados de la prueba DF

Null Hypothesis: DLINPC has a unit root


Exogenous: Constant
Lag Length: 0 (Automatic based on SIC, MAXLAG=15)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -3.526430 0.0080


Test critical values: 1% level -3.453483
5% level -2.871619
10% level -2.572213

*MacKinnon (1996) one-sided p-values.

Resultados de la prueba PP

Null Hypothesis: DLINPC has a unit root


Exogenous: Constant
Bandwidth: 6 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -3.287694 0.0164


Test critical values: 1% level -3.453483
5% level -2.871619
10% level -2.572213

Los resultados de la prueba DF indican que se rechaza la hipótesis nula de la


existencia de raíz unitaria en la serie a los tres niveles de singnificancia.
Los resultados de la prueba PP muestran que a los niveles de 90.0% y al 95.0% de
confianza se rechaza la hipótesis nula de la existencia de una raíz unitaria en la serie
pero no al 99.0%.
Como DF rechaza la hipótesis nula en sus tres niveles de confianza y PP rechaza al
90.0% y al 95.0% de confianza se decide que la variable inflación es estacionaria. Por
tanto se puede modelar como un proceso ARMA.
Analicemos ahora a la variable Cetes a 28 días con datos mensuales de 1986 a agosto
de 2008. Su correlograma es

65
Date: 09/12/08 Time: 13:46
Sample: 1986M01 2008M12
Included observations: 272

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*******| .|*******| 1 0.970 0.970 258.77 0.000


.|*******| ***|. | 2 0.919 -0.379 491.66 0.000
.|*******| .|* | 3 0.869 0.150 700.71 0.000
.|****** | .|. | 4 0.827 0.046 890.74 0.000
.|****** | .|* | 5 0.796 0.120 1067.6 0.000
.|****** | .|. | 6 0.774 0.039 1235.7 0.000
.|****** | .|. | 7 0.757 0.026 1396.9 0.000
.|****** | .|. | 8 0.741 0.014 1551.8 0.000
.|****** | .|. | 9 0.722 -0.024 1699.6 0.000
.|***** | .|. | 10 0.703 0.035 1840.2 0.000
.|***** | .|. | 11 0.682 -0.040 1972.8 0.000
.|***** | *|. | 12 0.656 -0.067 2096.1 0.000
.|***** | .|. | 13 0.630 0.034 2210.2 0.000
.|***** | .|. | 14 0.606 0.005 2316.3 0.000
.|**** | .|. | 15 0.585 -0.004 2415.6 0.000
.|**** | .|. | 16 0.564 -0.044 2508.1 0.000
.|**** | *|. | 17 0.536 -0.141 2592.1 0.000
.|**** | .|. | 18 0.502 -0.037 2666.1 0.000
.|**** | .|* | 19 0.470 0.068 2731.1 0.000
.|*** | .|. | 20 0.443 0.013 2789.3 0.000
.|*** | .|. | 21 0.422 -0.017 2842.0 0.000
.|*** | .|. | 22 0.403 -0.012 2890.4 0.000
.|*** | *|. | 23 0.382 -0.059 2933.9 0.000
.|*** | .|. | 24 0.358 0.003 2972.5 0.000
.|*** | *|. | 25 0.329 -0.118 3005.2 0.000
.|** | .|* | 26 0.299 0.069 3032.4 0.000
.|** | .|* | 27 0.278 0.107 3056.0 0.000
.|** | .|. | 28 0.263 -0.021 3077.1 0.000
.|** | .|. | 29 0.251 0.036 3096.4 0.000
.|** | .|. | 30 0.242 0.021 3114.4 0.000
.|** | .|. | 31 0.234 -0.012 3131.4 0.000
.|** | .|. | 32 0.225 0.013 3147.1 0.000
.|** | .|. | 33 0.214 0.033 3161.4 0.000
.|** | .|. | 34 0.203 0.024 3174.4 0.000
.|* | *|. | 35 0.190 -0.064 3185.7 0.000
.|* | .|. | 36 0.176 0.031 3195.5 0.000

El decaimiento lento de las autocorrelaciones estaría indicando que la serie cetes28 no


es estacionaria en covarianza.
Hagamos ahora las pruebas de DF y PP para esta serie
Resultados para la prueba DF en niveles

66
Null Hypothesis: CETES28 has a unit root
Exogenous: Constant
Lag Length: 2 (Automatic based on SIC, MAXLAG=15)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -2.548038 0.1054


Test critical values: 1% level -3.454534
5% level -2.872081
10% level -2.572460

*MacKinnon (1996) one-sided p-values.

Resultados para la prueba PP en niveles

Null Hypothesis: CETES28 has a unit root


Exogenous: Constant
Bandwidth: 12 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -2.018003 0.2791


Test critical values: 1% level -3.454353
5% level -2.872001
10% level -2.572417

*MacKinnon (1996) one-sided p-values.

Como se observa en ambos resultados, las dos pruebas no rechazan la hipótesis nula de
la existencia de raíz unitaria en la serie a los tres niveles de significancia, esto indica
que la tasa de los cetes a 28 días es una serie con tendencia estocástica en niveles.
Para corregir este problema trabajemos con la serie en primeras diferencias.
Hagamos las pruebas respectivas en primeras diferencias dando clic en View/Unit Root
Test/Argumented DF/1 difference/OK sobre la serie cetes28 mostrada y View/Unit
Root Test/Argumented PP/1 difference/OK.
Los resultados de la prueba DF en primeras diferencias

Null Hypothesis: D(CETES28) has a unit root


Exogenous: Constant
Lag Length: 3 (Automatic based on SIC, MAXLAG=15)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -10.22204 0.0000


Test critical values: 1% level -3.454719
5% level -2.872162
10% level -2.572503

67
Los resultados de la prueba PP en primeras diferencias

Null Hypothesis: D(CETES28) has a unit root


Exogenous: Constant
Bandwidth: 28 (Newey-West using Bartlett kernel)

Adj. t-Stat Prob.*

Phillips-Perron test statistic -9.283409 0.0000


Test critical values: 1% level -3.454443
5% level -2.872041
10% level -2.572439

Los resultados de ambas pruebas, rechazan la hipótesis nula de raíz unitaria en la


primera diferencia de la serie.
Para detectar alguna tendencia estacional en la serie cetes28 se analiza el
correlograma de la primera diferencia de la serie. Si el correlograma tiene picos que
salgan de la bandas en alguna autocorrelaciones muy alejadas, esto indicaría algún
elemento de tendencia estacional en la serie y se tendría que diferenciar esa tendencia
estacional generando la serie en primeras diferencia estocásticas y el orden de la
estacional con la instrucción genr dcetes28=d(cetes28,1, algún orden en número);
con esta instrucción, EV genera la diferencia necesaria de la serie para resolver el
problema de tendencia estacional y estocástica. Por tanto, analice el correlograma de la
primera diferencia de cetes28

Date: 09/12/08 Time: 14:01


Sample: 1986M01 2008M12
Included observations: 271

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|*** | .|*** | 1 0.442 0.442 53.630 0.000


*|. | **|. | 2 -0.058 -0.316 54.558 0.000
*|. | .|. | 3 -0.180 -0.009 63.503 0.000
**|. | **|. | 4 -0.239 -0.205 79.321 0.000
**|. | .|. | 5 -0.205 -0.053 90.997 0.000
*|. | *|. | 6 -0.117 -0.086 94.822 0.000
.|. | .|. | 7 -0.048 -0.054 95.472 0.000
.|. | .|. | 8 0.019 -0.019 95.575 0.000
.|. | *|. | 9 0.022 -0.073 95.711 0.000
.|. | .|. | 10 0.054 0.041 96.530 0.000
.|* | .|. | 11 0.074 -0.011 98.106 0.000
.|. | .|. | 12 0.016 -0.040 98.180 0.000
.|. | .|. | 13 -0.054 -0.056 99.019 0.000
.|. | .|. | 14 -0.047 0.007 99.654 0.000
.|. | .|. | 15 0.006 0.024 99.665 0.000
.|* | .|* | 16 0.147 0.172 105.92 0.000

68
.|* | .|. | 17 0.128 -0.038 110.71 0.000
.|. | *|. | 18 -0.047 -0.080 111.34 0.000
*|. | .|. | 19 -0.111 -0.003 114.93 0.000
*|. | .|. | 20 -0.096 -0.019 117.66 0.000
*|. | .|. | 21 -0.062 0.008 118.81 0.000
.|. | .|. | 22 -0.025 -0.037 119.00 0.000
.|. | *|. | 23 -0.042 -0.072 119.52 0.000
.|. | .|. | 24 -0.034 -0.033 119.86 0.000
.|. | .|. | 25 0.019 0.012 119.97 0.000
.|* | .|. | 26 0.077 0.031 121.76 0.000
.|. | *|. | 27 0.039 -0.092 122.22 0.000
.|. | .|. | 28 -0.025 -0.040 122.42 0.000
.|. | .|. | 29 -0.019 0.032 122.53 0.000
.|. | .|. | 30 -0.005 -0.004 122.53 0.000
.|. | .|. | 31 0.018 0.032 122.63 0.000
.|. | .|. | 32 0.018 -0.057 122.73 0.000
.|. | .|. | 33 0.004 -0.017 122.74 0.000
.|. | .|* | 34 0.023 0.072 122.91 0.000
.|. | .|. | 35 -0.010 -0.019 122.93 0.000
.|. | .|. | 36 -0.028 0.006 123.18 0.000

Como se observa los picos que salen de las bandas del 5.0% de significancia
indicarían que la variable cambio absoluto en lo la tasa de interés de los cetes a 28 días
estaría explicada por los términos ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5) ma(6). La
regresión que se estima es ls dcetes28 c ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5)
ma(6) . El resultado de la regresión es

Dependent Variable: DCETES28


Method: Least Squares
Date: 09/12/08 Time: 15:09
Sample (adjusted): 1986M06 2008M08
Included observations: 267 after adjustments
Convergence achieved after 13 iterations
Backcast: 1985M12 1986M05

Variable Coefficient Std. Error t-Statistic Prob.

C -0.308749 0.160383 -1.925076 0.0553


AR(1) 0.901089 0.059736 15.08456 0.0000
AR(2) -0.575480 0.041864 -13.74631 0.0000
AR(4) 0.416018 0.047587 8.742256 0.0000
MA(1) -0.350087 0.090246 -3.879265 0.0001
MA(3) 0.335906 0.034020 9.873783 0.0000
MA(4) -0.581564 0.053741 -10.82152 0.0000
MA(5) -0.402255 0.056032 -7.179090 0.0000
MA(6) 0.121225 0.056901 2.130465 0.0341

R-squared 0.357763 Mean dependent var -0.270861


Adjusted R-squared 0.337848 S.D. dependent var 6.058999

69
S.E. of regression 4.930372 Akaike info criterion 6.061832
Sum squared resid 6271.610 Schwarz criterion 6.182751
Log likelihood -800.2546 F-statistic 17.96507
Durbin-Watson stat 2.009858 Prob(F-statistic) 0.000000

Inverted AR Roots .87 .29+.89i .29-.89i -.55


Inverted MA Roots .96 .27-.96i .27+.96i .23
-.69+.25i -.69-.25i

Observe que todos los coeficientes son estadísticamente significativos, el DW estaría


indicando no autocorrelación, aunque el r cuadrado ajustado es bajo. Se tendrían que
proponer otros modelos y escoger el mejor. Pero sopongamos que este es el único y
analicemos la calidad del modelo ARIMA.
Analicemos el correlograma para saber si los errores son ruido blanco

Date: 09/12/08 Time: 15:30


Sample: 1986M06 2008M08
Included observations: 267
Q-statistic
probabilities
adjusted for 8 ARMA
term(s)

Autocorrelation Partial Correlation AC PAC Q-Stat Prob

.|. | .|. | 1 -0.006 -0.006 0.0085


.|* | .|* | 2 0.074 0.074 1.5076
*|. | *|. | 3 -0.059 -0.058 2.4475
.|. | .|. | 4 -0.046 -0.052 3.0230
.|. | .|. | 5 -0.046 -0.038 3.5945
*|. | *|. | 6 -0.083 -0.080 5.4749
.|. | .|. | 7 -0.016 -0.017 5.5492
.|* | .|* | 8 0.070 0.076 6.9031
.|. | .|. | 9 0.042 0.034 7.4039 0.007
.|. | .|. | 10 0.045 0.024 7.9595 0.019
.|. | .|. | 11 0.039 0.035 8.3792 0.039
.|* | .|* | 12 0.066 0.066 9.6018 0.048
.|. | .|. | 13 -0.017 -0.011 9.6854 0.085
.|. | .|. | 14 0.037 0.050 10.079 0.121
.|. | .|. | 15 -0.050 -0.026 10.800 0.148
.|* | .|* | 16 0.123 0.128 15.132 0.057
.|* | .|* | 17 0.133 0.159 20.216 0.017
.|. | .|. | 18 -0.037 -0.048 20.610 0.024
.|. | *|. | 19 -0.042 -0.061 21.117 0.032
.|. | .|. | 20 -0.045 -0.024 21.709 0.041
.|. | .|. | 21 -0.036 -0.025 22.079 0.054
.|. | .|. | 22 -0.016 -0.003 22.155 0.075
.|. | .|. | 23 -0.033 -0.016 22.476 0.096
.|. | .|. | 24 0.042 0.008 22.997 0.114
.|. | .|. | 25 0.019 -0.023 23.101 0.146
.|* | .|. | 26 0.069 0.039 24.526 0.139

70
.|. | .|. | 27 0.028 0.019 24.762 0.169
.|. | *|. | 28 -0.037 -0.073 25.169 0.195
.|. | .|. | 29 0.040 0.042 25.652 0.220
.|. | .|. | 30 0.002 0.033 25.653 0.267
.|. | .|. | 31 0.007 0.020 25.668 0.317
.|. | .|. | 32 0.007 0.026 25.684 0.369
.|. | .|. | 33 -0.019 -0.050 25.796 0.419
.|* | .|. | 34 0.070 0.051 27.319 0.393
.|. | .|. | 35 -0.016 0.022 27.397 0.443
.|. | .|. | 36 -0.026 -0.018 27.605 0.486

Note que los errores son ruido blanco.

Las raíces del modelo son

Inverse Roots of AR/MA Polynomial(s)


1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

AR roots MA roots

Observe que dos de sus raíces son unitaria, mientras que el resto son de modulo menor
que la unidad.

Observe, que los términos ar están alternando en signo pero aún sigue siendo
significativo el ar(4) y el criterio de Akaike y Schuwarz son menores en el segundo
modelo, por tanto este modelo sería el elegido para su uso en el pronóstico. Sin
embargo, hay que analizar si los errores del modelo cumplen con las propiedades
deseables.

71
.6

.4

Autocorrelation
.2

.0

-.2

-.4
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

.6
Partial autocorrelation

.4

.2

.0

-.2

-.4
2 4 6 8 10 12 14 16 18 20 22 24

Actual Theoretical

Impulse Response ± 2 S.E.


6

-2

-4
2 4 6 8 10 12 14 16 18 20 22 24

Accumulated Response ± 2 S.E.


10

0
2 4 6 8 10 12 14 16 18 20 22 24

La función estímulo respuesta indica que un cambio inesperado en las innovaciones


de modelo afectan a los cambios absolutos de los cetes negativamente de tres meses a
seis meses y después el efecto es menor y de forma cíclica.
Las autocorrelaciones y autocorrelaciones parciales decaen lentamente a cero esto es
producto del valor de sus raíces.
Además se realice algunas pruebas más

ARCH Test:

F-statistic 9.406252 Prob. F(1,264) 0.002387


Obs*R-squared 9.151448 Prob. Chi-Square(1) 0.002485

72
120
Series: Residuals
Sample 1986M06 2008M08
100
Observations 267

80 Mean -0.007522
Median 0.197002
Maximum 32.24053
60
Minimum -35.48912
Std. Dev. 4.855659
40 Skewness 0.371997
Kurtosis 24.11844
20
Jarque-Bera 4967.781
Probability 0.000000
0
-37.5 -25.0 -12.5 0.0 12.5 25.0

Breusch-Godfrey Serial Correlation LM Test:

F-statistic 3.446707 Prob. F(2,256) 0.033336


Obs*R-squared 7.000468 Prob. Chi-Square(2) 0.030190

Observe que errores del modelo son heteroscedásticos, no de distribuyen en forma


normal, pero no muestran autocorrelación.
Suponga que los resultados del modelo fueron buenos y que se quiere predecir la
variable cetes28 en unidades originales no en primeras diferencias por tanto estime la
regresión ls d(cetes28) c ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5) ma(6), observe
como se escribe la variable dependiente a diferencia del modelo anterior. Sobre los
resultados de la regresión haga clic en Forecast y EV le hace el pronóstico de la serie
original. Los resultados del pronóstico son:
160
Forecast: CETES28F
120 Actual: CETES28
Forecast sample: 1986M01 2008M12
80 Adjusted sample: 1986M06 2008M12
Included observations: 267
40
Root Mean Squared Error 28.91294
Mean Absolute Error 24.36238
0
Mean Abs. Percent Error 156.1920
Theil Inequality Coefficient 0.320067
-40
Bias Proportion 0.527653
Variance Proportion 0.013267
-80 Covariance Proportion 0.459081

-120
86 88 90 92 94 96 98 00 02 04 06 08

CETES28F

Observe que estos resultados no son satisfactorios para un prónostico dinámico.

Para mejorar el pronóstico seria conveniente introducir unas variables indicadoras de


estacionalidad desde el inicio. Como ejercicio proponga otro modelo de dcetes28 con
variables Dummy y un pronóstico estático.

73
ESTIMACIÓN DE MODELOS ARCH Y GARCH

Engle (1982) presenta una clase de modelos capaces de explicar periodos de alta
volatilidad con aquellos de relativa volatilidad. La metodología de Engle es mostrar
primero que la varianza condicional de los errores de una serie puede variar mientras
que la varianza incondicional es una constante y en segundo lugar cómo se puede
modelar la varianza condicional heteroscedástica por medio de un proceso AR. Este tipo
de modelos reciben el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva (ARCH). Por ejemplo un modelo ARCH (1) se expresa como:

yt = a0 + a1 yt −1 +  t

donde

 t = vt  0 + 1 t2−1

Con v t = ruido blanco,  t −1 es independiente de v t y  0 y  1 son constantes.


Además las condiciones de estabilidad de los parámetros exigen que  0  0 y 01 1 .

Generalizando, el modelo ARCH (q) se expresa como:

q
 t = vt  0 +   i  t2−i
i =1

Donde v t es ruido blanco y las condiciones sobre los parámetros que garantizan la
estabilidad son ahora

 0 0 y 1 +  2 +  3 +  4 + .......... +  q 1

Bollerslew (1986) hizo una extensión del trabajo original de Engle y desarrollo una
técnica aplicando un proceso ARMA a la varianza condicional de los errores. Este tipo
de modelos recibieron el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva Generalizada (GARCH). La varianza condicional de estos modelos se
expresa como:

 t = vt  t2

Para un modelo GARCH (1,1) la varianza sería

 t2 =  0 + 1 t2−1 + 1 t2−1

Las condiciones de estabilidad sobre los parámetros del modelo son ahora
 0 0 ; 01 1 ;−1 1 1

74
Para un modelo GARCH (p,q) la varianza sería

q p
 t2 =  0 +   i  t2−i +   j t2− j
i =1 j =1

Las condiciones de estabilidad sobre los parámetros del modelo son

 0 0 y 1 +  2 ........ +  q + 1 +  2 + ...... +  p 1

EJEMPLO

Los modelos ARCH y GARCH se utilizan, principalmente, para analizar variables


financieras. La variable que se utiliza para el ejemplo es el Índice de Precios y
Cotizaciones del la Bolsa Mexicana de Valores (ipyc). Analice la gráfica del ipyc de
1985.01 a 2006.06. Haga la prueba de raíces unitarias para el ipyc en niveles.

ADF Test Statistic 2.779435 PP Test 3.565524 1% -3.4573


Statistic Critical
Value*
5% -2.8728
Critical
Value
10% -2.5727
Critical
Value

Note que mientras DF no rechazan la presencia de raíz unitaria en la serie ipyc, pero
PP si la rechaza. Haga la prueba con la primera diferencia de la serie

ADF Test Statistic -6.840501 PP Test -16.85182 1% -3.4573


Statistic Critical
Value*
5% -2.8728
Critical
Value
10% -2.5727
Critical
Value

Note que la primera diferencia de la serie ipyc (dipyc) es estacionaria.


Trabaje con la serie dipyc, es decir, determine un modelo ARMA adecuado para ésta.
Vea el correlograma de la serie dipyc

75
Sample: 1985:01 2006:06
Included observations: 258
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|. | .|. | 1 -0.053 -0.053 0.7369 0.391
.|* | .|* | 2 0.092 0.090 2.9665 0.227
.|* | .|* | 3 0.110 0.121 6.1529 0.104
.|. | .|. | 4 0.028 0.033 6.3595 0.174
*|. | *|. | 5 -0.072 -0.092 7.7380 0.171
.|. | *|. | 6 -0.055 -0.088 8.5566 0.200
.|** | .|** | 7 0.237 0.247 23.528 0.001
*|. | .|. | 8 -0.081 -0.022 25.276 0.001
.|* | .|. | 9 0.094 0.060 27.636 0.001
.|* | .|. | 10 0.077 0.034 29.225 0.001
.|* | .|. | 11 0.076 0.063 30.812 0.001
.|. | .|. | 12 -0.016 0.001 30.883 0.002
.|. | *|. | 13 -0.042 -0.061 31.363 0.003
.|* | .|. | 14 0.091 0.025 33.623 0.002
.|. | .|* | 15 0.024 0.098 33.776 0.004
.|. | .|. | 16 0.029 0.018 34.005 0.005
.|. | .|. | 17 -0.001 -0.045 34.005 0.008
.|. | .|. | 18 0.030 -0.038 34.263 0.012
.|. | .|. | 19 -0.016 -0.006 34.339 0.017
.|. | .|. | 20 0.018 0.056 34.435 0.023
.|. | .|. | 21 -0.001 -0.030 34.435 0.033
.|* | .|* | 22 0.100 0.088 37.255 0.022
.|. | .|. | 23 0.035 0.044 37.607 0.028
.|. | .|. | 24 0.050 0.041 38.326 0.032
.|* | .|* | 25 0.137 0.101 43.724 0.012
.|. | .|. | 26 0.039 0.030 44.167 0.015
.|* | .|* | 27 0.107 0.103 47.464 0.009
.|. | .|. | 28 -0.043 -0.034 47.993 0.011
.|. | *|. | 29 -0.055 -0.152 48.865 0.012
.|. | .|. | 30 -0.005 -0.015 48.873 0.016
.|. | .|. | 31 -0.029 -0.010 49.118 0.020
.|. | .|. | 32 0.029 0.021 49.363 0.026
.|. | .|. | 33 0.053 0.052 50.205 0.028
.|. | .|. | 34 0.049 -0.043 50.933 0.031
.|. | .|. | 35 -0.001 -0.006 50.934 0.040
*|. | *|. | 36 -0.124 -0.183 55.599 0.020

Note que la autocorrelación y la autocorrelación parcial 7 son estadísticamente


significativas. Por tanto un modelo tentativo para la serie dipyc sería ls dipyc c ar(7)
ma(7), el modelo estimado es entonces

76
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 7 iterations
Backcast: 1985:01 1985:07
Variable Coefficient Std. Error t-Statistic Prob.
C 86.85354 40.31312 2.154473 0.0322
AR(7) 0.538742 0.223667 2.408674 0.0167
MA(7) -0.249182 0.238818 -1.043400 0.2978
R-squared 0.075671 Mean dependent var 76.26088
Adjusted R-squared 0.068217 S.D. dependent var 393.0074
S.E. of regresión 379.3659 Akaike info criterion 14.72676
Sum squared resid 35691779 Schwarz criterion 14.76890
Log likelihood -1845.208 F-statistic 10.15134
Durbin-Watson stat 2.033617 Prob(F-statistic) 0.000058

Note que el término ma(7) no es estadísticamente significativo, por tanto otro modelo
tentativo es ls dipyc c ar(7)
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 80.22565 34.27784 2.340452 0.0201
AR(7) 0.300679 0.068786 4.371240 0.0000
R-squared 0.071269 Mean dependent var 76.26088
Adjusted R-squared 0.067539 S.D. dependent var 393.0074
S.E. of regresión 379.5038 Akaike info criterion 14.72354
Sum squared resid 35861753 Schwarz criterion 14.75163
Log likelihood -1845.805 F-statistic 19.10774
Durbin-Watson stat 2.025496 Prob(F-statistic) 0.000018

Note que el término ar(7) es estadísticamente significativo y que los criterios de


Akaike y Schwarz son más pequeños en el segundo modelo que en el primero. En
consecuencia se toma como mejor modelo el segundo. Hasta este momento las
instrucciones y el análisis de la serie son las mismas que cuando se estudiaron los
modelos ARIMA.
Ahora analice si la serie es volátil, es decir, si los errores al cuadrado de la serie dipyc
presenta efectos ARCH o GARCH. Para ello sobre los resultados de la regresión ls dipy
c ar(7) de clic en View/Residual Test/ARCH-LM Test/OK

ARCH Test:
F-statistic 6.512924 0.011310
Probability
Obs*R-squared 6.397440 0.011429
Probability

77
Note que la prueba de homoscedasticidad en los errores se rechaza porque el valor de
la probabilidad de ambos estadísticos son menores a 0.05. El hecho que sea rechazada
la prueba de homoscedasticidad indica que la varianza de los errores no es constante y
por tanto hay efectos ARCH. Ahora hay que modelar esos efectos como un modelo AR
o un modelo ARMA. Para determinar el grado del ARMA en la varianza condicional de
la serie genere los errores al cuadrado de la serie con la instrucción genr errdipyc=resid
inmediatamente después de haber estimado el modelo ls dipyc c ar(7), después genere
los residuos al cuadrado con la instrucción genr err2dipyc=errdipyc^2 (los residuos al
cuadrado están guardados ahora con el nombre de err2dipyc). Analice su correlograma,
dando clic en err2dipyc/SHOW y una vez mostrada la variable dar clic en
View/Corrlogram/OK.

Sample: 1985:01 2006:06


Included observations: 251
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|* | .|* | 1 0.160 0.160 6.4925 0.011
.|** | .|** | 2 0.257 0.237 23.335 0.000
.|* | .|* | 3 0.161 0.099 29.935 0.000
.|** | .|* | 4 0.265 0.192 47.939 0.000
.|* | .|* | 5 0.170 0.078 55.368 0.000
.|** | .|** | 6 0.306 0.204 79.706 0.000
.|* | .|. | 7 0.163 0.045 86.658 0.000
.|*** | .|** | 8 0.360 0.236 120.45 0.000
.|* | .|. | 9 0.125 -0.020 124.55 0.000
.|* | .|. | 10 0.169 -0.031 132.12 0.000
.|* | .|. | 11 0.117 -0.022 135.75 0.000
.|* | *|. | 12 0.093 -0.121 138.03 0.000
.|* | .|. | 13 0.113 -0.009 141.45 0.000
.|** | .|* | 14 0.244 0.102 157.38 0.000
.|* | .|. | 15 0.070 -0.042 158.72 0.000
.|. | *|. | 16 0.055 -0.117 159.54 0.000
.|* | .|* | 17 0.125 0.078 163.78 0.000
.|* | .|. | 18 0.097 0.029 166.34 0.000
.|. | .|. | 19 0.063 -0.014 167.42 0.000
.|* | .|. | 20 0.100 0.055 170.16 0.000
.|. | .|. | 21 0.047 -0.028 170.77 0.000
.|. | *|. | 22 0.052 -0.070 171.51 0.000
.|. | .|. | 23 0.063 0.030 172.62 0.000
.|. | .|. | 24 0.017 -0.020 172.71 0.000
.|* | .|. | 25 0.093 0.031 175.13 0.000
.|. | .|. | 26 0.033 0.009 175.44 0.000
.|. | .|. | 27 0.053 0.011 176.23 0.000
.|. | .|. | 28 0.038 -0.037 176.64 0.000
.|* | .|* | 29 0.075 0.082 178.24 0.000
.|. | .|* | 30 0.060 0.092 179.26 0.000
.|. | *|. | 31 0.036 -0.069 179.64 0.000
.|. | .|. | 32 0.030 0.007 179.89 0.000
.|. | .|. | 33 0.041 -0.013 180.38 0.000
.|. | .|. | 34 0.015 -0.056 180.45 0.000
.|. | .|. | 35 0.009 -0.039 180.47 0.000
.|. | .|. | 36 0.039 0.035 180.93 0.000

Note que las correlaciones 2,4,6,8 y las correlaciones parciales 2,6,8 son
estadísticamente significativas o bien se salen de la banda del 5.0% de significancia. Por
tanto un modelo tentativo de la varianza condicional sería un GARCH ar(2) ar(6) ar(8)

78
ma(2) ma(4) ma(6) ma(8). Para estimar este modelo sobre los resultados de la regresión
ls dipyc c ar(7) de clic en Estimate/ y aparece una ventana donde hay que dar clic en la
flecha que dice Method y aparece una lista de los métodos de estimación, por tanto dar
clic en ARCH- Modelos de Heteroscedasticidad Condicional Autorregresiva y aparece
una ventana donde hay que anotar el orden de ARCH y del GARCH. Ahí anotar, para el
caso del ejemplo ARCH 8 GARCH 8 y aparece el siguiente resultado
Dependent Variable: DIPYC
Method: ML – ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 15 iterations
Coefficient Std. Error z-Statistic Prob.
C 75.17219 36.43276 2.063313 0.0391
AR(7) 0.179016 0.061902 2.891904 0.0038
Variance Equation
C 114680.3 186656.4 0.614393 0.5390
ARCH(1) 0.124726 0.136548 0.913424 0.3610
ARCH(2) 0.197831 0.325906 0.607021 0.5438
ARCH(3) 0.272835 0.389541 0.700401 0.4837
ARCH(4) 0.137545 0.452377 0.304049 0.7611
ARCH(5) -0.021313 0.324176 -0.065744 0.9476
ARCH(6) 0.107615 0.309584 0.347613 0.7281
ARCH(7) 0.119780 0.407704 0.293792 0.7689
ARCH(8) 0.090222 0.358342 0.251777 0.8012
GARCH(1) -0.132944 2.287901 -0.058107 0.9537
GARCH(2) -0.173952 1.753405 -0.099208 0.9210
GARCH(3) -0.150826 1.373350 -0.109824 0.9125
GARCH(4) -0.149402 1.005646 -0.148563 0.8819
GARCH(5) -0.114601 0.756388 -0.151511 0.8796
GARCH(6) -0.078912 0.670865 -0.117627 0.9064
GARCH(7) -0.019947 0.578881 -0.034458 0.9725
GARCH(8) 0.012889 0.376367 0.034247 0.9727
R-squared 0.059558 Mean dependent var 76.26088
Adjusted R-squared -0.013407 S.D. dependent var 393.0074
S.E. of regresión 395.6331 Akaike info criterion 14.39421
Sum squared resid 36313935 Schwarz criterion 14.66108
Log likelihood -1787.473 F-statistic 0.816258
Durbin-Watson stat 2.059570 Prob(F-statistic) 0.680316

Note que ningún término es estadísticamente significativo, por tanto se prueba con un
ARCH 6 y GARCH 8
Dependent Variable: DIPYC
Method: ML – ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 42 iterations
Coefficient Std. Error z-Statistic Prob.
C 73.29669 19.51930 3.755087 0.0002
AR(7) 0.209876 0.049390 4.249384 0.0000
Variance Equation
C 110764.4 33698.72 3.286903 0.0010
ARCH(1) 0.187414 0.084623 2.214710 0.0268
ARCH(2) 0.418433 0.137312 3.047328 0.0023
ARCH(3) 0.487617 0.105073 4.640720 0.0000

79
ARCH(4) 0.437080 0.044092 9.912806 0.0000
ARCH(5) 0.157297 0.085809 1.833112 0.0668
ARCH(6) 0.072122 0.079983 0.901719 0.3672
GARCH(1) -0.959296 0.179256 -5.351529 0.0000
GARCH(2) -0.945641 0.146978 -6.433879 0.0000
GARCH(3) -0.303976 0.220809 -1.376643 0.1686
GARCH(4) -0.049267 0.188951 -0.260742 0.7943
GARCH(5) -0.068034 0.131348 -0.517968 0.6045
GARCH(6) -0.013141 0.133506 -0.098430 0.9216
GARCH(7) 0.252382 0.159067 1.586642 0.1126
GARCH(8) 0.191518 0.160453 1.193608 0.2326
R-squared 0.064650 Mean dependent var 76.26088
Adjusted R-squared 0.000695 S.D. dependent var 393.0074
S.E. of regresión 392.8709 Akaike info criterion 14.14578
Sum squared resid 36117319 Schwarz criterion 14.38455
Log likelihood -1758.295 F-statistic 1.010864
Durbin-Watson stat 2.050913 Prob(F-statistic) 0.445887

Note ahora que los términos ARCH 5 y 6 y el GARCH 3 al 8 no son estadísticamente


significativos por tanto se prueba con aquellos que sí son estadísticamente
significativos. Como ejercicio haga el pronóstico.

Dependent Variable: DIPYC


Method: ML – ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 25 iterations
Coefficient Std. Error z-Statistic Prob.
C 65.86900 22.26606 2.958269 0.0031
AR(7) 0.182517 0.039303 4.643846 0.0000
Variance Equation
C 112815.6 23557.41 4.788965 0.0000
ARCH(1) 0.344460 0.062391 5.520970 0.0000
ARCH(2) 0.546304 0.001144 477.5972 0.0000
ARCH(3) 0.435188 0.055656 7.819237 0.0000
ARCH(4) 0.316048 0.042001 7.524858 0.0000
GARCH(1) -0.751011 0.085884 -8.744507 0.0000
GARCH(2) -0.714136 0.108101 -6.606216 0.0000
R-squared 0.059589 Mean dependent var 76.26088
Adjusted R-squared 0.028501 S.D. dependent var 393.0074
S.E. of regresión 387.3664 Akaike info criterion 14.16072
Sum squared resid 36312756 Schwarz criterion 14.28713
Log likelihood -1768.170 F-statistic 1.916788
Durbin-Watson stat 2.057233 Prob(F-statistic) 0.058165

Note que los coeficiente ARCH 1,2,3,4 y GARCH 1 y 2 son estadísticamente


significativos y que además el criterio de Schwarz es más pequeño en el tercer modelo
que en los anteriores, por tanto el mejor modelo para su uso en el pronóstico de la serie
dipyc sería el tercero.

VECTORES AUTORREGRESIVOS
Los modelos VAR son una combinación de modelos de ecuaciones simultáneas con
series de tiempo. Las variables que entran en este tipo de modelos son endógenas
porque las explicativas son los rezagos de las variables dependientes. En un modelo
80
univariado AR(p) la variable dependiente está explicada por sus propios rezagos, en un
modelo autorregresivo de orden p, se estiman n ecuaciones diferentes donde cada
variable estará explicada por sus propios rezagos y por lo n-1 rezagos de las otras
variables que forman parte del VAR. Por ejemplo un VAR(1) de dos variables es:

y1t = 11 y1t −1 + 12 y 2t −1 +  1t

y 2t =  21 y1t −1 +  22 y 2t −1 +  2t

Donde cada variable depende de su primer rezago y del primer rezago de la otra
variable. Además, las perturbaciones se pueden correlacionar de tal forma que cuando
una ecuación sufre un choque, la otra también lo sufrirá. Este tipo de interacción es el
elemento distintivo de los VAR.
Los VAR se han utilizado principalmente para predecir, comprobar la causalidad
de Granger y para el estudio de las respuestas al impulso (la dinámica de los efectos de
las perturbaciones sobre las variables dependientes).
Prueba de causalidad de Granger
La prueba de causalidad de Granger es una herramienta estadística para
determinar el sentido de la relación entre las variables. El concepto de causalidad de
Granger hace referencia a la precedencia1 de una variable sobre otra variable. Este
concepto, sostiene que si x t puede ser explicado por sus valores pasados y por los
valores pasados de y t entonces y t causa a x t , es decir, cuánto del valor explicado de
x t puede ser explicado por los valores pasados de x t y por los valores pasados de y t .
Esta definición implica que si y t causa a x t , entonces x t +1 es el mejor predictor
cuando se utiliza a y t − j que cuando no se utiliza.

Francis Diebold (1998), siguiendo a Granger (1988) argumenta que “una serie
causal debe contener información útil para el pronóstico que no este disponible en las
demás series (incluyendo la historia pasada de las variables pronosticables)”.
Esta definición de causalidad de Granger se basa en dos principios fundamentales:
1. La causa ocurre antes que el efecto.
2. La serie causal contiene información acerca de la serie causada que no esta
disponible en otras series, aquí llamada wt .
La prueba de causalidad, Granger la presenta en 1969 de la siguiente manera

m
Ao x t =  Ax t − j +  t
j =1

1
La precedencia de una variable sobre una variable o sobre otras variables surge de la noción de que la
causa debe suceder antes que el efecto. Francis Diebold en su libro Elementos de Pronóstico, publicado en
México por la editorial Thomson en el año de 1998, profundiza sobre el concepto de causalidad
relacionado con los pronósticos y retoma el concepto de causalidad como precedencia.

81
donde A0 es un conjunto de matrices, m puede ser infinita y  t es la parte no explicada
del modelo que se incluyen como un vector de variables aleatorias llamadas ruido
blanco2, las cuales toman los valores

 
E  ,t ,  s = 0 ts
E ,   = I
,
t s t=s

Según Granger, este modelo puede ser ilustrado mediante un VAR de dos
variables x t y y t como sigue

m m
xt =  a j xt − j +  b j yt − j +  t
j =1 j =1
m m
yt =  c j xt − j +  d j yt − j +  t
j =1 j =1

Si b j = 0 para toda j entonces y t no causa a x t


Si c j = 0 para toda j entonces x t no causa a y t

PRUEBAS DE CAUSALIDAD DE GRANGER

Como ejemplo, suponga que se quiere probar si existe causalidad entre el cambio
porcentual del tipo de cambio fix (rendimiento), del cambio porcentual del índice de
precios y cotizaciones de la Bolsa Mexicana de Valores (rendimiento) y del cambio
absoluto de la tasa de interés de los cetes a 28 días de 1996 a agosto de 2008. Para ello
sobre las tres variables dé clic en SHOW y después OK, sobre el listado de esas dos
variables, de clic en View/Granger Causality/OK y aparece los resultados de la prueba
de causalidad de Granger. Esta prueba EV la realiza con un VAR por pares de variables
y dos rezagos de cada una de ellas, si desea cambiar el número de rezagos incluidos,
debe de anotarlos antes de dar clic en OK. La hipótesis a probar aparece en forma
literal en los resultados de la prueba –la primera variable no causa en el sentido de
Granger a la segunda variable- y el criterio de decisión es: si el valor de la probabilidad
del estadístico de prueba es mayor que 0.05 no se rechaza la hipótesis nula, es decir, la
primera variable no causa a la Granger a la segunda variable. Los resultados de la
prueba para el caso del ejemplo son:

2
Una variable ruido blanco es aquella que tiene media cero, varianza constante 2y no está
autocorrelacionda.

82
Pairwise Granger Causality Tests
Date: 09/12/08 Time: 16:10
Sample: 1996M01 2008M12
Lags: 2

Null Hypothesis: Obs F-Statistic Probability

VPFIX does not Granger Cause DCETES28 149 25.6800 2.9E-10


DCETES28 does not Granger Cause VPFIX 0.13051 0.87775

VPIPYC does not Granger Cause DCETES28 149 20.6203 1.3E-08


DCETES28 does not Granger Cause VPIPYC 1.94864 0.14621

VPIPYC does not Granger Cause VPFIX 149 0.80532 0.44895


VPFIX does not Granger Cause VPIPYC 0.08524 0.91833

Observe como el valor de la probabilidad del estadístico F (menor a 0.05), para la


primera relación indica que el rendimiento del tipo de cambio fix (rfix) causa a la
Granger al cambio absoluto de los cetes28 (dcetes28), es decir, se rechaza la hipótesis
nula. Para la segunda relación, esta prueba indica que dcetes28 no causa a la Granger al
rendimiento del fix, es decir, no se rechaza la hipótesis nula al 5.0% de significancia o
al 95.0% de confianza (el valor de la probabilidad del estadístico F es mayor a 0.05). La
tercera relación, indica que se rechaza la hipótesis nula, es decir, el rendimiento de
índice de precios y cotizaciones (ripyc) está causando a la Granger a la dcetes28. En la
cuarta, no se rechaza la hipótesis nula, es decir, la dcetes28 no causan a la Granger al
ripyc. En la relación cinco y seis no se rechaza la hipótesis nula, es decir, ni el ripyc
causa a la Granger al rfix, ni a la inversa.

En términos generales, si ambas variables no se causan a la Granger, se dice que


son independientes, si se causan mutuamente, se dice que hay efecto retroalimentación
entre ellas. Este último efecto puede ser probado para las épocas de inflación-
devaluación.
Es importante destacar que la prueba de causalidad de Granger sirve para probar
exogeneidad entre las variables, mediante el concepto de precedencia. Esta definición
de exogeneidad, se conoce como exogeneidad fuerte. Para el caso de los resultados de la
prueba de causalidad del ejemplo, significa que los movimientos del ripyc y del rfix
preceden a los movimientos del dcetes28, por tanto se concluye que el ripyc y el rfix se
pueden considerar como variables exógena en un modelo que explique a los dcetes28
en este periodo.
Finalmente, existe una prueba de exogeneidad en bloque que se encuentra
disponible en el paquete EV. Esta prueba se realiza también con un modelo VAR. Para
el caso de las tres variables del ejemplo, con un VAR que incluye dos rezagos dar clic
en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endógenas, en el
caso del ejemplo son (dcetes28 vpfix vpipyc), en Lag Intervals dar 2 y dar OK o bien
liste las variables que entrarán en el VAR con Show y sobre el listado dé clic en
Procs/Make Vector Autoregression y OK, sobre los resultados de la regresión de

83
View/Lag Structure/Granger Casuality/BlockExogeneity Tests y aparece la
siguiente tabla

VAR Granger Causality/Block Exogeneity Wald Tests


Date: 09/22/08 Time: 17:42
Sample: 1996M01 2008M12
Included observations: 149

Dependent variable: DCETES28

Excluded Chi-sq Df Prob.

VPFIX 26.01464 2 0.0000


VPIPYC 17.31179 2 0.0002

All 74.13293 4 0.0000

Dependent variable: VPFIX

Excluded Chi-sq Df Prob.

DCETES28 0.287071 2 0.8663


VPIPYC 1.618220 2 0.4453

All 1.878551 4 0.7581

Dependent variable: VPIPYC

Excluded Chi-sq Df Prob.

DCETES28 3.740153 2 0.1541


VPFIX 0.067711 2 0.9667

All 3.912701 4 0.4179

Observe los primeros renglones de la tabla, en ella se encuentran las pruebas


individuales de causalidad de Granger para la variable dcetes28 contra rfix y el ripyc;
según los resultados de la prueba, estas variables causan a la Granger de manera
individual y conjunta a dcetes28 o bien los movimientos de estas variables preceden a
los movimientos de dcetes28. Estos resultados confirman lo que se había encontrado
anteriormente. Como ejercicio interprete los resultados de esta prueba para rfix y ripyc.

LA FUNCIÓN ESTÍMULO RESPUESTA Y LA TABLA DE DESCOMPOSICIÓN


DE LA VARIANZA
Como se anotó anteriormente una de las aplicaciones más importante en el VAR es la
función estímulo respuesta y la tabla de descomposición de la varianza. Sin embargo,
84
para obtener éstas dos funciones falta puntualizar una de las propiedades que debe
cumplir la construcción de un VAR. Las variables que formar parte de un VAR, tienen
que ser estacionarias, por tanto, la prueba de raíces unitarias debe ser el primer paso
para la construcción de éste (hay autores que argumentan que si el VAR es estable no
importa si las variables incluidas en él son estacionarias). El segundo paso es la
determinación de los rezagos incluidos en el VAR. El número de rezagos incluidos en el
VAR serán aquellos estadísticamente significativos, por lo regular se propone un
número alto para después ir ajustando. También, se debe de evaluar el VAR para saber
si es estable y si las innovaciones no están autocorrelacionadas. Si el VAR es estable, la
inferencia que se obtenga de la función estímulo respuesta y de la tabla de
descomposición de la varianza serán verdaderas. Si las innovaciones no están
autocorrelacionadas los modelos VAR son buenas herramientas para realizar
pronósticos.
Para construir el VAR sigamos con el ejemplo de las variables consideradas en la
prueba de causalidad de Granger. Primero, se hacen las pruebas de raíces unitarias a la
variables dcetes28, ripyc, y rfix para el periodo 1996 a agosto 2008.
La variable dcetes28 los resultados son

Augmented Dickey-Fuller test statistic -12.07400 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

Adj. t-Stat Prob.*

Phillips-Perron test statistic -12.08190 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

Note que la serie dcetes28 es estacionaria en niveles

Para el ripyc

Lag Length: 0 (Automatic based on SIC, MAXLAG=13)

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -12.41754 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

*MacKinnon (1996) one-sided p-values.

Bandwidth: 1 (Newey-West using Bartlett kernel)

85
Adj. t-Stat Prob.*

Phillips-Perron test statistic -12.41736 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

Observe que la variable ripyc es estacionaria en niveles

Para la variable rfix

t-Statistic Prob.*

Augmented Dickey-Fuller test statistic -12.41754 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

Adj. t-Stat Prob.*

Phillips-Perron test statistic -12.41736 0.0000


Test critical values: 1% level -3.474265
5% level -2.880722
10% level -2.577077

Note que rfix es estacionario en niveles


Como las series son estacionarias en niveles, se construirá un VAR en niveles. Se
recomienda construir un VAR con más rezagos y después ir ajustando a través de las
pruebas que existen en este paquete econométrico. El cálculo del VAR se inicia dando
clic en Quick/Estimate VAR/ donde aparece el cursor anotar las variables endógenas,
en el caso del ejemplo son (dcetes28 vpfix vpipyc) y donde Lag Intervals dar 10
(siempre proponga más rezagos), finalmente dar OK. o bien liste las variables que
entrarán en el VAR con Show y sobre el listado dé clic en Procs/Make Vector
Autoregression. Para elegir el número de rezagos del VAR, de acuerdo a varios
críterios, sobre los resultados del VAR de clic en View/Lag Structure/Lag Length
Criteria y aparece una tabla con varios criterios

VAR Lag Order Selection Criteria


Endogenous variables: DCETES28 VPFIX VPIPYC
Exogenous variables: C
Date: 09/15/08 Time: 16:02
Sample: 1996M01 2008M12
Included observations: 141

Lag LogL LR FPE AIC SC HQ

86
0 -1074.701 NA 873.8547 15.28654 15.34928 15.31204
1 -1039.944 67.54221 606.4425* 14.92120* 15.17215* 15.02318*
2 -1034.400 10.53885 637.0325 14.97021 15.40938 15.14867
3 -1031.896 4.652705 698.8485 15.06235 15.68975 15.31730
4 -1026.171 10.39450 732.7074 15.10880 15.92442 15.44024
5 -1023.390 4.929476 801.3837 15.19703 16.20086 15.60495
6 -1017.625 9.976668 840.6925 15.24291 16.43496 15.72732
7 -1009.664 13.43797 855.5321 15.25764 16.63792 15.81854
8 -1003.908 9.470495 899.0999 15.30366 16.87215 15.94104
9 -992.2814 18.63590* 870.2796 15.26640 17.02311 15.98027
10 -981.9825 16.06910 859.4060 15.24798 17.19291 16.03833

* indicates lag order selected by the criterion


LR: sequential modified LR test statistic (each test at 5% level)
FPE: Final prediction error
AIC: Akaike information criterion
SC: Schwarz information criterion
HQ: Hannan-Quinn information criterion

Cuatro criterios recomiendan que el VAR debe contener 1 rezago y un criterio


sugiere que VAR contenga 9 rezagos.
Calculemos ambos modelos VAR
Resultados del VAR para dos rezagos

R-squared 0.359799 0.031131 0.031035


Adj. R-squared 0.332748 -0.009807 -0.009907
Sum sq. Resids 458.8433 738.4208 7316.106
S.E. equation 1.797579 2.280383 7.177874
F-statistic 13.30088 0.760438 0.758018
Log likelihood -295.2166 -330.6641 -501.5164
Akaike AIC 4.056599 4.532404 6.825724
Schwarz SC 4.197724 4.673529 6.966849
Mean dependent -0.223289 0.233833 1.709709
S.D. dependent 2.200610 2.269283 7.142579

Determinant resid covariance (dof adj.) 663.0361


Determinant resid covariance 573.9095
Log likelihood -1107.525
Akaike information criterion 15.14798
Schwarz criterion 15.57136

87
Resultados para el VAR con nueve rezagos

R-squared 0.492167 0.172742 0.200163


Adj. R-squared 0.371891 -0.023188 0.010727
Sum sq. Resids 300.8361 591.6376 5910.633
S.E. equation 1.624473 2.278114 7.200532
F-statistic 4.091969 0.881653 1.056628
Log likelihood -254.7917 -302.8110 -466.2256
Akaike AIC 3.982982 4.659310 6.960924
Schwarz SC 4.565821 5.242149 7.543764
Mean dependent -0.123732 0.197547 1.757017
S.D. dependent 2.049722 2.252152 7.239467

Determinant resid covariance (dof adj.) 518.1149


Determinant resid covariance 268.0869
Log likelihood -1001.451
Akaike information criterion 15.28804
Schwarz criterion 17.03656

Observe que según los críterios de Log likelihood, Akaike y Schwarz recomiendan
el de un rezago.
Evaluemos los modelos VAR
Veamos si ambos modelos son estables. Sobre los resultados del VAR de clic en
View/Lag Structure/AR Root Grafic
Inverse Roots of AR Characteristic Polynomial
1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

Como las raíces características se encuentran dentro del círculo unitario el VAR con dos
rezagos es estable.

88
Inverse Roots of AR Characteristic Polynomial
1.5

1.0

0.5

0.0

-0.5

-1.0

-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5

El VAR con nueve rezagos también es estable


Para saber si las innovaciones están autocorrelacionadas, sobre los resultados del VAR
de clic en View/Residual Test/ Correlogram Grafic
Para el de un rezago
Autocorrelations with 2 Std.Err. Bounds

Cor(DCETES28,DCETES28(-i)) Cor(DCETES28,VPFIX(-i)) Cor(DCETES28,VPIPYC(-i))


.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(VPFIX,DCETES28(-i)) Cor(VPFIX,VPFIX(-i)) Cor(VPFIX,VPIPYC(-i))


.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(VPIPYC,DCETES28(-i)) Cor(VPIPYC,VPFIX(-i)) Cor(VPIPYC,VPIPYC(-i))


.3 .3 .3

.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2

-.3 -.3 -.3


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Observe que hay autocorrelación cruzada en las innovaciones de rfix con dcetes28 y
ripyc con dcetes28.

Para el de nueve rezagos

89
Autocorrelations with 2 Std.Err. Bounds

Cor(DCETES28,DCETES28(-i)) Cor(DCETES28,VPFIX(-i)) Cor(DCETES28,VPIPYC(-i))


.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(VPFIX,DCETES28(-i)) Cor(VPFIX,VPFIX(-i)) Cor(VPFIX,VPIPYC(-i))


.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Cor(VPIPYC,DCETES28(-i)) Cor(VPIPYC,VPFIX(-i)) Cor(VPIPYC,VPIPYC(-i))


.2 .2 .2

.1 .1 .1

.0 .0 .0

-.1 -.1 -.1

-.2 -.2 -.2


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Observe que hay autocorrelación de los residuales de la variable dcetes 28 y ripyc


en la número 10 y 11 y en los residuales de rfix con rfix en la 12.
Otra prueba de autocorrelación es la de ML. Para ver los resultados de esta prueba,
de clic sobre los resultados del VAR en View/Residual Test/ Autocorrelation LM
Test. La hipótesis nula es no hay problemas de autocorrelación entre los errores.
Para el VAR con un rezago.
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 17:27
Sample: 1996M01 2008M12
Included observations: 149

Lags LM-Stat Prob

1 10.19384 0.3350
2 6.393424 0.7000
3 1.453589 0.9975
4 14.43962 0.1075
5 4.938293 0.8397
6 13.62792 0.1362
7 7.187000 0.6177
8 14.27531 0.1129
9 13.21709 0.1530
10 13.43748 0.1438
11 4.359905 0.8862
12 2.252297 0.9868

Según los resultados de la regresión no hay autocorrelación entre los errores

Para el VAR con nueve rezagos

90
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 16:45
Sample: 1996M01 2008M12
Included observations: 142

Lags LM-Stat Prob

1 19.03233 0.0249
2 11.56728 0.2388
3 15.64977 0.0746
4 7.665566 0.5682
5 2.692557 0.9752
6 8.348193 0.4995
7 10.17025 0.3369
8 10.84316 0.2866
9 7.520919 0.5830
10 14.34957 0.1104
11 9.127454 0.4256
12 12.38249 0.1926

Probs from chi-square with 9 df.

Observe como en el rezago uno se rechaza la hipótesis nula

Para saber si los errores del VAR se distribuyen en forma normal, sobre los resultados
de la regresión dé clic en View/Residual Test/Normality Test. La hipótesis nula a
probar es que los errores se distribuyen en forma normal
Para el VAR con un rezagos

Component Jarque-Bera Df Prob.

1 639.5796 2 0.0000
2 78.38605 2 0.0000
3 0.175391 2 0.9160

Joint 718.1411 6 0.0000

Los errores no se distribuyen en forma normal

Para el VAR con nueve rezagos

91
Component Jarque-Bera Df Prob.

1 736.0968 2 0.0000
2 37.51001 2 0.0000
3 6.593882 2 0.0370

Joint 780.2007 6 0.0000

Según los resultados de esta prueba los errores no son normales

Para realizar la prueba de heteroscedasticidad, sobre los resultados de la regresión dé


clic en View/Residual Test/White. La hipótesis nula a probar es que los errores son
homoscedásticos.

Para el VAR con un rezago

Joint test:

Chi-sq Df Prob.

168.8574 72 0.0000

Para el VAR con nueve rezagos

Joint test:

Chi-sq Df Prob.

455.5810 324 0.0000

Según los resultados de la prueba los errores son heteroscedásticos.

Por último, también se puede observar la matriz de correlaciones de los errores. Para
ello, sobre los resultados de la regresión dé clic en View/Residual /Correlations
Matrix. La hipótesis nula a probar es que los errores no están autocorrelacionados.
Matriz de correlación de los errores del VAR con un rezagos

DCETES28 1.000000 0.246176 -0.119691


VPFIX 0.246176 1.000000 -0.429555
VPIPYC -0.119691 -0.429555 1.000000
Según los resultados de la prueba no hay autocorrelación entre los errores

Matriz de correlación de los errores del VAR con nueve rezagos

92
DCETES28 VPFIX VPIPYC
DCETES28 1.000000 0.251223 -0.029954
VPFIX 0.251223 1.000000 -0.461822
VPIPYC -0.029954 -0.461822 1.000000

Según los resultados de la prueba los errores no están autocorrelacionados


Al evaluar los resultados se elige el VAR con dos rezagos.
La función estímulo respuesta se obtiene dando clic sobre los resultados del VAR en
Impulse y en Displey type dar clic en Multiple Graphs, como se trabajan con datos
mensuales es conveniente realizar el análisis de la función estímulo respuesta a 12
periodos, por tanto cambie el número de periodos de 10 a 12 y después OK.
Response to Cholesky One S.D. Innovations ± 2 S.E.

Response of DCET ES28 to DCET ES28 Response of DCET ES28 to VPFIX Response of DCET ES28 to VPIPYC
2.5 2.5 2.5

2.0 2.0 2.0

1.5 1.5 1.5

1.0 1.0 1.0

0.5 0.5 0.5

0.0 0.0 0.0

-0.5 -0.5 -0.5

-1.0 -1.0 -1.0


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Response of VPFIX to DCET ES28 Response of VPFIX to VPFIX Response of VPFIX to VPIPYC
2.5 2.5 2.5

2.0 2.0 2.0

1.5 1.5 1.5

1.0 1.0 1.0

0.5 0.5 0.5

0.0 0.0 0.0

-0.5 -0.5 -0.5

-1.0 -1.0 -1.0


1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Response of VPIPYC to DCET ES28 Response of VPIPYC to VPFIX Response of VPIPYC to VPIPYC
8 8 8

6 6 6

4 4 4

2 2 2

0 0 0

-2 -2 -2

-4 -4 -4

-6 -6 -6
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12

Observe que un choque en la innovación del rendimiento del tipo de cambio


provocan un efecto importante en el movimiento del dcetes28 durante los tres primeros
meses y después tiende a desvanecerse a los cinco meses (ver primer renglón segunda
gráfica). Un cambio inesperado del ripyc provoca una baja dcetes28 durante dos meses,
pero se revierte durante un mes y se desvanecerse a los tres meses (ver primer renglón
tercera gráfica). Como ejercicio interprete las gráficas de los dos renglones siguientes.

La Tabla de Descomposición de la Varianza se encuentra dando clic sobre los


resultados del VAR en Variance Descomposition/Table, cambie el número de
periodos a 12.

93
DCETE
S28
Period S.E. DCETES28 VPFIX VPIPYC

1 1.797579 100.0000 0.000000 0.000000


2 2.199225 68.29895 23.99944 7.701613
3 2.235681 68.12267 24.31315 7.564183
4 2.245330 67.53884 24.94312 7.518042
5 2.247070 67.46996 25.02250 7.507541
6 2.247396 67.45316 25.03676 7.510083
7 2.247452 67.45058 25.03736 7.512065
8 2.247474 67.44992 25.03812 7.511967
9 2.247476 67.44984 25.03807 7.512087
10 2.247478 67.44978 25.03815 7.512073
11 2.247478 67.44977 25.03815 7.512076
12 2.247479 67.44977 25.03816 7.512075

VCPFIX
Period S.E. DCETES28 VPFIX VPIPYC

1 2.280383 6.060254 93.93975 0.000000


2 2.282392 6.159254 93.78707 0.053676
3 2.315069 6.351007 92.63967 1.009325
4 2.315691 6.352091 92.60379 1.044123
5 2.317321 6.403246 92.53463 1.062125
6 2.317512 6.402820 92.53105 1.066131
7 2.317614 6.406347 92.52719 1.066468
8 2.317627 6.406301 92.52720 1.066501
9 2.317633 6.406463 92.52701 1.066524
10 2.317634 6.406463 92.52701 1.066524
11 2.317634 6.406470 92.52700 1.066527
12 2.317635 6.406471 92.52700 1.066527

VPIPYC
Period S.E. DCETES28 VPFIX VPIPYC

1 7.177874 1.432604 17.03982 81.52758


2 7.247764 3.162635 16.74534 80.09202
3 7.270443 3.667161 16.73964 79.59320
4 7.289256 3.704843 17.02698 79.26818
5 7.289853 3.718661 17.02468 79.25666
6 7.290364 3.718471 17.03518 79.24635
7 7.290380 3.718571 17.03544 79.24599
8 7.290398 3.718629 17.03566 79.24572
9 7.290399 3.718628 17.03565 79.24572
10 7.290400 3.718639 17.03566 79.24570
11 7.290400 3.718639 17.03566 79.24570
12 7.290400 3.718640 17.03566 79.24570

94
En primera parte de la función estímulo respuesta se encuentran los datos de la
participación porcentual de cada movimiento en rfix y del ripyc sobre dcetes28. De esta
manera, el 25.0% de los movimientos de dcetes28 a un año están explicados por los
movimientos del rfix, mientras que el ripyc contribuye en 7.5 % en el movimiento de
dcetes28. Las variaciones de ambas variables explica el 32.5% de los movimientos en
dcetes28% (suma horizontal). Como ejercicio, interprete las dos tablas siguientes.

COINTEGRACIÓN Y MÉTODO DE CORRECCIÓN DEL ERROR

Los modelos de regresión multivariados son muy útiles cuando se trata de pronosticar
a una variable a través de sus fundamentos, porque al contener más variables, el
pronóstico tiene una mayor información para realizarse. En economía y en las finanzas,
abundan los argumentos teóricas de relaciones entre las variables y de equilibrio a largo
plazo entre ellas que después, por medio de modelos econométricos, se tratar de probar
y explicar en la práctica. Los desarrollos en las técnicas econométricas, han logrado
medir si las variables que se relacionan en los modelos tienden al equilibrio a largo
plazo por medio del concepto de cointegración. Este concepto es el siguiente:
Aunque dos series x t y y t , individualmente, sean I(d) puede existir entre ellas una
combinación lineal zt = xt + ayt integrada de orden cero (estacionaria), si esto ocurre
se dice que ambas series están cointegradas o que hay una relación cointegrante entre
ellas.
El hecho que dos o más series estén cointegradas significa que hay equilibrio a largo
plazo, es decir, que las series se moverán muy cerca en el tiempo y la diferencia entre
ellas será estable (estacionaria). Esta diferencia, estará medida por la variable z t que es
el error hacia el equilibrio de largo plazo.
En un modelo de regresión lineal de k variables Y = X̂ + e se dirá que las variables
Y , X 1 , X 2 ,..........., X k están cointegradas, si los errores estimados son estacionarios,
de lo contrario dichas regresiones son espurias.
Cuando las series están cointegradas, los vectores que se construyan entre las
variables, las pruebas de causalidad y los modelos de regresión de corto plazo tendrán
que incluir a la variable zt = xt + ayt o bien al mecanismo de corrección del error.
Un modelo de dos variables cointegradas de orden p, que incluya el mecanismo de
corrección del error, se expresaría en el siguiente VAR como

p p
xt =  1 z t −1 +  i xt −i +   i yt −i +  1t
i =1 i =1

p p
yt =  2 z t −1 +   i xt −i +   i yt −i +  2t
i =1 i =1

Donde Δ expresa la primera diferencia de la serie,  1 ,  2  0 y  1t ,  2 t son


variables ruido blanco.
95
Un modelo de corto plazo que incluya al mecanismo de corrección del error estaría
dado por el siguiente VAR
p q
yt =  +  z t −1 +   X t −i +  yt −i + ut
i =0 i =1

donde z t −1 es el rezago del error de equilibrio,  mide la velocidad a que la variable


dependiente se ajusta a su valor de largo plazo, X es un vector formado por todas las
variables que explican a la variable dependiente en el corto plazo, y t −i son los rezagos
de la variable dependiente y u t es una variable aleatoria. Este VAR muestra que las
variaciones de la variable dependiente en el corto plazo, pueden ser explicados por el
mecanismo de corrección, por todas las variables que se consideran influyen en los
movimientos de la variable dependiente en el corto plazo (incluyendo las variables de
de largo plazo), los rezagos de la misma variables dependiente y de un término
aleatorio.

PRUEBAS PARA DETECTAR COINTEGRACIÓN ENTRE LAS VARIABLES


Existen dos pruebas para detectar si existe equilibrio a largo plazo entre las variables
involucradas en un modelo de regresión. Una de ellas, es probar si los errores estimados
de la ecuación cointegrante (modelo de regresión) son estacionarios aunque las series no
sean estacionarias. La estacionariedad de los errores se prueba mediante los estadísticos
Dikey-Fuller y Phillis-Perron. La otra prueba se conoce como prueba de cointegración
de Johansen. Para realizar ambas pruebas se transformar las series a logaritmos y se
llevan a cabo de la siguiente forma:

Prueba de cointegración mediante la prueba de raíces unitarias en los errores de la


ecuación cointegrante. Se plantea una ecuación cointegrante estimada en forma
logarítmica. Generalmente la ecuación cointegrante es el modelo econométrico que se
basa en los fundamentos. Por ejemplo, el tipo de cambio en la teoría Monetaria de la
Balanza de Pagos dependería de la oferta monetaria externa e interna, de la tasa de
interés interna y externa y de producto interno y externo. Por tanto se estimaría el
modelo cuya variable dependiente sería el logaritmo del tipo de cambio sobre las
variables explicativas medidas en forma logarítmica. Después se generan y se guardan
los residuos de la regresión y se prueba si estos son estacionarios. Si los residuos
estimados son estacionarios en niveles se dirá que las series están cointegradas o bien
que tienden al equilibrio a largo plazo.

Prueba de cointegración de Johansen. La utilización de esta prueba se ha ido


generalizando en los últimos años, en realidad es más común y precisa que la anterior.
Para saber como se realiza y se interpreta, nuevamente retomemos a la variables
cetes28, tipo de cambio fix y al ipyc en el periodo 2006.01 a diciembre de 2007
(recuerde cambiar el sample). Transformemos estas variables a logaritmos escribiendo
debajo del menú principal la palabra genr lcetes28=cetes28, genr lfix=log(fix) y genr
lipyc=log(ipyc) como ya se anotó a lo largo de esta guía. Primero, pruebe que las
variables son no estacionarias en niveles. Ahora liste las variables dando clic en el
nombre de éstas y después Show, una vez mostradas las variables de clic en
View/Cointegration Test/OK. En esta prueba aparece una ventana donde se puede
elegir si la prueba contiene tendencia no determinista en los datos, tiene tendencia lineal
96
determinista en los datos o tendencia cuadrática en los datos. Si no se está seguro de la
elección, anote el número 6) la suma de lo anterior y aparece una ventana con
diferentes resultados de los críterios de Akaike y Schuarz. La primera opción y la quinta
es difícil que sucedan por tanto concéntrese en la segunda, tercera y cuarta, y elija la de
menor críterio de Akaike.
Akaike Information Criteria by Rank (rows) and Model (columns

Data Trend: None None Linear Linear Quadratic


Rank or No Intercept Intercept Intercept Intercept Intercept
No. of CEs No Trend No Trend No Trend Trend Trend

0 -13.89914 -13.89914 -13.86696 -13.86696 -13.90957


1 -14.13813 -14.71622 -14.69961 -14.63166 -14.75407
2 -13.92668 -14.80699 -14.87100 -14.98908 -15.02825*
3 -13.49137 -14.49571 -14.49571 -14.53115 -14.53115

Observe que la 2) o 3) opción son iguales en la última fila por tanto e indistinto elegir
cualquiera. Si elige la 3) los resultados de la prueba de cointegración es la siguiente.

Unrestricted Cointegration Rank Test (Trace)

Hypothesized Trace 0.05


No. of CE(s) Eigenvalue Statistic Critical Value Prob.**

None * 0.736222 51.08983 29.79707 0.0001


At most 1 * 0.489000 19.10627 15.49471 0.0136
At most 2 0.117246 2.992999 3.841466 0.0836

Trace test indicates 2 cointegrating eqn(s) at the 0.05 level


* denotes rejection of the hypothesis at the 0.05 level
**MacKinnon-Haug-Michelis (1999) p-values

La interpretación de la prueba está en forma literal –la prueba LR indica dos


ecuaciones cointegrandas al 5.0% de significacia- entre estas tres variables. Por tanto,
el VAR a construir necesita incluir al mecanismo de corrección del error, las pruebas de
causalidad deberán realizarse con este mecanismo, al igual que las de exogeneidad.
Ahora construyamos el VAR dando clic en Quick/Estimate Var/ y donde aparece el
cursor escribir el nombre de las variables cointegradas medidas en logaritmos, en este
caso lcetes28, lfix y lipy, después ubicarse en VAR Especification y dar clic en Vector
Correction Error/OK. Con estas instrucciones aparece un VAR con dos rezagos de
cada una de las variables, si se quiere cambiar el número de rezagos en el VAR ubicarse
en Lag Intervals y cambiar el número de rezagos antes de dar OK

97
Vector Error Correction Estimates
Date: 09/22/08 Time: 16:27
Sample: 2006M01 2007M12
Included observations: 24
Standard errors in ( ) & t-statistics in [ ]

Cointegrating Eq: CointEq1

LCETES28(-1) 1.000000

LFIX(-1) 2.495513
(0.39317)
[ 6.34717]

LIPYC(-1) 0.047393
(0.03490)
[ 1.35779]

C -8.416713

Error Correction: D(LCETES28) D(LFIX) D(LIPYC)

CointEq1 -0.064488 -0.505006 -0.074626


(0.12027) (0.12173) (0.47303)
[-0.53621] [-4.14846] [-0.15776]

D(LCETES28(-1)) 0.254536 -0.045494 -0.520714


(0.20413) (0.20662) (0.80289)
[ 1.24690] [-0.22018] [-0.64855]

D(LCETES28(-2)) 0.406054 -0.055457 0.411076


(0.21575) (0.21838) (0.84858)
[ 1.88204] [-0.25394] [ 0.48443]

D(LFIX(-1)) -0.129957 0.480105 -0.239822


(0.21401) (0.21662) (0.84172)
[-0.60726] [ 2.21639] [-0.28492]

D(LFIX(-2)) 0.054275 0.205909 -0.380313


(0.18234) (0.18457) (0.71718)
[ 0.29765] [ 1.11564] [-0.53029]

D(LIPYC(-1)) -0.092914 -0.070647 -0.152248


(0.07103) (0.07189) (0.27936)
[-1.30816] [-0.98267] [-0.54500]

D(LIPYC(-2)) -0.040496 0.013592 -0.066025


(0.08183) (0.08282) (0.32184)
[-0.49490] [ 0.16410] [-0.20515]

98
C 0.004674 0.001059 0.027018
(0.00441) (0.00446) (0.01734)
[ 1.06001] [ 0.23726] [ 1.55771]

R-squared 0.588350 0.587247 0.063542


Adj. R-squared 0.408253 0.406668 -0.346158
Sum sq. resids 0.002888 0.002959 0.044671
S.E. equation 0.013434 0.013598 0.052839
F-statistic 3.266854 3.252020 0.155094
Log likelihood 74.24981 73.95885 41.38328
Akaike AIC -5.520818 -5.496570 -2.781940
Schwarz SC -5.128133 -5.103886 -2.389256
Mean dependent -0.004154 0.001088 0.021095
S.D. dependent 0.017464 0.017653 0.045541

Determinant resid covariance (dof adj.) 4.80E-11


Determinant resid covariance 1.42E-11
Log likelihood 197.5515
Akaike information criterion -14.21263
Schwarz criterion -12.88732

Note que en el resultado del VAR con mecanismo de corrección del error aparece la
ecuación cointegrante y el VAR es estimado en primeras diferencias del logaritmo de
las series, es decir, en cambio relativo de las series o en tasas de crecimiento.
Por otro lado, observe que los rezagos de las variables no son estadísticamente
significativos en ningún caso. Para efectos de la evaluación del VAR, este no es bueno.
Para efectos de la prueba de causalidad cuando las series están cointegrados, la no
significacia estadística de los coeficientes indica que ninguna de las variables se está
causando o bien que son independientes. Para efectos de la prueba de exogeneidad
fuerte, los resultados indican que las tres variables son exógenas.

PROBLEMA DE ENDOGENEIDAD DE LAS VARIABLES EXPLICATIVAS Y EL


MODELO DE ECUACIONES SIMULTÁNEAS

Cuando el supuesto E ( X ' u ) = 0 no se cumple, una implicación inmediata es que las


variables explicativas son aleatorias y si el modelo se estima por el método de Mínimos
Cuadrados Ordinarios (MCO), los estimadores serán sesgados e inconsistentes. Para
superar el problema, el modelo de regresión lineal se puede estimar por otros métodos
como el método Generalizado de Momentos (MGM), el de Variables instrumentales
(VI), el de Mínimos Cuadrados en dos Etapas (MC2E) y otros, como convertir el
modelo de regresión lineal con una o varias variables explicativas endógenas en vez de
ser exógenas, en un modelo de ecuaciones simultáneas o trabajar con un modelo de
ecuaciones simultáneas, si así indica la teoría.
Para realizar un trabajo con datos de alguna economía sigue los siguientes pasos
Estima un modelo de regresión uniecuacional con tres variables explicativas y con 60
datos mensuales o trimestrales partiendo del actual hacia atrás.

99
1.- Realiza la prueba de exogeneidad de Hausman a cada una de las variables exógenas
del trabajo.
La prueba se realiza de la siguiente manera.
i) Estima una regresión de cada una de las variables exógenas del modelo sobre
las variables instrumentales y sobre el resto de las variables exógenas del
modelo original
ii) Recupera los errores de cada regresión. Esto se realiza inmediatamente
después que se estima cada regresión. Escribe en el programa EV genr
error1=resid y EV te guarda en la hoja de trabajo los errores de la regresión
de la variable exógena seleccionada del inciso i).
iii) Estima la regresión original agregando la variable error1 (los errores
estimados) como variable explicativa.
iv) Si el coeficiente de los errores estimados en la regresión del modelo original
es estadísticamente significativa, la variable exógena seleccionado debe
considerarse como endógena..
v) Así sucesivamente con las otras variables que consideraste exógenas en el
modelo original.
2.- Si ninguna de las variables exógenas del modelo original, después de realizar la
prueba de exógeneidad de Hausman, resulta endógena estima otro modelo. Puede ser
un modelo dinámico, éste por tener una variable endógena como explicativa, presentará
el problema de autocorrelación y endogeneidad de las variables explicativas..
3.- Estima el modelo uniecuacional con el problema de endogeneidad en las variables
explicativas por el método de MC2E que es igual al de variables instrumentales, las
instrucciones de cómo se estima una regresión por este método se encuentran en los
párrafos de la nota importante. Si es un modelo dinámico entonces se puede estimar por
el método de Mínimos Cuadrados Generalizados (transformación de las variables en
diferencias absolutas, sobre todo si las variables son tasa, diferencias de los logaritmos
(cambios relativos) ó cambios porcentuales), con estimadores robustos tipo White.y
también por MC2E. .
4.- Evalúa el modelo económicamente y econométricamente, si tiene algún problema
(multicolinialidad, heteroscedasticidad, autocorrelación, no normalidad, cambio
estructural, etc), debes corregirlo.
NOTA IMPORTANTE. En el paquete EV 7.2 o más, viene una prueba que recibe el
nombre de prueba de endogeneidad de los regresores de Durbin-Wu-Hausman. Esta
prueba está disponible cuando se estima la regresión por el método (MC2E) y por el
método (MGM).
La prueba se realiza de la siguiente manera:
Dar clic en Quick/Estimate Equation. En la ventana que aparece anotar a la variable
endógena, la constante y las variables explicativas, cada una separada con un espacio e
ir a la flecha y dar clic, este comando muestra los distintos métodos de estimación del
modelo de regresión, seleccionar MC2E (TSLS). Cuando se da clic en MC2E, aparece
otra ventana donde se encuentra el modelo y en la parte de abajo te dice que anotes a las
variables instrumentales, recuerda que las variables instrumentales son aquellas que no
están relacionadas con el término de error pero si con las variables explicativas (ten
presente, que las variables instrumentales pueden ser la variable endógena rezagada,
las variables exógenas rezagadas o cualquier otra variable que se considere como
explicativa de las explicativas y que no se encuentra dentro del modelo que se plantea o
el original) y dar clic en OK. Si al dar OK, aparece insuficiente número de
instrumentos, meter más variables instrumentales.

100
Cuando sale el resultado de la regresión dar clic en aceptar y después dar clic en
View/IV Diagnostic and test/Regressor Endogeneity Test: Con este comando
aparecen todas tus variables explicativas de modelo original, deja una y borra todas las
demás, con ello se realiza la prueba de endogeneidad para cada una de las variables que
se supuso eran exógenas pero quizá son endógena, y dar OK, inmediatamente después
aparece una ventana con el resultado de la prueba, la HIPOTESIS NULA DE LA
PRUEBA ES: EL REGRESOR ES EXÓGENO. Si el valor de la probabilidad del
estadístico de prueba es mayor que 0.05 no se rechaza la hipótesis nula de exogeneidad
de la variable con la cual se realizó la prueba. Repite las indicaciones con las mismas
variables instrumentales y con cada uno de los distintos regresores. Muestra los
resultados de la prueba de endogeneidad y explica.
Si por lo menos una o varias variables explicativas del modelo de regresión lineal es
endógena en lugar de exógena, el método de MCE que se está utilizando es el correcto
y no el de Mínimos Cuadrados Ordinarios porque los estimadores serán sesgados e
inconsistentes.
5.- También estima un modelo de ecuaciones simultáneas de dos o tres ecuaciones.
Con las variables que resultaron ser endógenas en vez de exógenas plantea el modelo de
ecuaciones simultáneas o bien puedes estimar un modelo de ecuaciones simultáneas que
venga en los libros de econometría con datos de la economía mexicana. Con un mínimo
de 60 datos mensuales o trimestrales, partiendo de los actuales hacia atrás.
i) Plantea la forma reducida del modelo sin estimar los coeficientes de esta
forma. Por definición, la forma reducida del modelo, es aquella donde las
variables endógenas se encuentran en función solo de las exógenas o
predeterminadas.
ii) Identifica ecuación por ecuación.
iii) Para estimar el modelo, cada ecuación debe estar identificada por la
condición de rango y exactamente identificada y/o sobreidentificada por la
condición de orden.
iv) Estima el modelo por el método de MC2E.
v) Las variables instrumentales, para cada ecuación son las variables exógenas
ó predeterninadas de la forma reducida, por lo cual al estimar cada ecuación,
los instrumentos serán los mismos. Recuerda que el paquete EV te pide los
instrumentos cuando se estima ecuación por ecuación por el método de
MC2E.
6.- Evalúa el modelo económicamente y econométricamente

101
TERCER TRABAJO DE ECONOMETRÍA II
ESQUEMA PARA ELABORAR EL TRABAJO DE VARIABLE DEPENDIENTE
LIMITADA

1.- Estima un modelo de variable dependiente limitada mediante la metodología del


modelo Logit y Probit. El modelo puede ser con datos de los libros de econometría.
El modelo debe contener a la variable binaria como dependiente, por lo menos una
cuantitativa y una variable binaria como explicativa. Si el modelo del libro no tiene
variable binaria como explicativa, agrégala.
2.- Estima los factores de ajuste para el modelo Logit y Probit y las pendientes.
3.- Explica detalladamente el significado de las pendientes y del R cuadrado.
4.- Realiza todas las pruebas respectivas que vienen en el manual para este tipo de
modelos.
5.- Explica los resultados de las pruebas.
6.- Grafica y explica el efecto de la variable explicativa binaria sobre la probabilidad de
la variable dependiente. Este punto es obligatorio,. por lo cual, el modelo que elijas debe
incluir una variable binaria como explicativa.
NOTA IMPORTANTE. El trabajo es individual y se entrega por INTERNET

102

También podría gustarte