Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Paquete E-Views
para el
Análisis Econométrico
2
INSTRUCCIONES PARA ESTIMAR Y EVALUAR UN MODELO DE REGRESIÓN
LINEAL EN EL PAQUETE E-VIEWS
1.- Haga una hoja de trabajo en el paquete E-Views con la instrucción
File/New/Workfile/Frequency/Anual, si los datos de la muestra del modelo a estimar
son anuales con periodo inicial por ejemplo en 1980 y periodo final por ejemplo en
2010 (siempre dejar espacio para la predicción); Semi anual si son semestrales con
periodo inicial por ejemplo en 1980.1 y periodo final 2010.2; Quanterly si son
trimestrales con periodo inicial por ejemplo en 1980.1 y periodo final 1980.4; Monthly
si son mensuales con periodo inicial por ejemplo en 1980.01 y 2010.12; Undated o
irregular si son datos diarios, por hora o por minuto (como para el caso de datos de la
Bolsa de Valores) con periodo inicial en 1 y periodo final por ejemplo en 20,000.
Recomendación. La muestra debe contener por lo menos 60 datos reciente, evite
trabajar con datos anuales. Además, al estimar un modelo las variables medidas en
puntos o en precios constantes (unidades reales) deben de tener la misma fecha base
aunque sus unidades de medida pueden ser diferentes. La fecha base debe pertenecer a
un año estable en términos económicos o financieros.
2.- Guarde su archivo con un nombre que sea familiar para usted con File/Save
as/nombre del archivo
3.- Para meter los datos de cada variable escribir la palabra Data dejar espacio y escribir
el nombre de la variable que va introducir y después enter. Estas palabras deberán ir en
el espacio en blanco donde aparece el cursor. Por ejemplo data PIB y después que dé
enter aparece el nombre de la variable y los espacios donde debe introducir los datos.
Para importar los datos de excel, una vez que en EV haya escrito la palabra data
(nombre de la variable) y dé enter, importar de excel sólo los datos (sin fechas porque
estas ya están en EV) sombreando los datos de la variable en excel y la instrucción copy
también en excel e irse a EV y hacer clic en Edit/Paste, el cursor debe estar en la fecha
del primer dato que debe coincidir con la fecha del primer dato en excel .
4.- Una vez que se introducen los datos de cada variable del modelo se procede a
estimarlo dando clic en Quick/Estimate Equation/ donde aparece una ventana que
tiene un espacio en blanco y en la parte de abajo aparece el método de mínimos
cuadrados ordinarios o LS (si quiere cambiar de método de estimación del modelo, de
clic en la flecha y aparece, entre otros, el método de máxima verosimilitud). En la parte
de la ventana en blanco donde se encuentra el cursor, anotar en primer lugar, el nombre
de la variable dependiente, espacio, letra c (letra con la cual el paquete estima a la
ordenada al origen), espacio, y los nombres de las variables independientes con sus
respectivos espacios entre cada una de ellas y finalmente dar enter, en seguida aparece
el resultado de la regresión o la estimación del modelo. Ese resultado se guarda dando
clic en Name/ del menú de esa ventana y anotando un nombre familiar a esa estimación.
PARA HACER LAS PRUEBAS DE ESPECIFICACIÓN Y DE DIAGNÓSTICO DEL
MODELO CONTINUAR CON:
5.- Prueba de variables sobrantes o coeficientes estadísticamente no significativos y
prueba de variables omitidas. Esta se realiza con el valor de la probabilidad del
estadístico t (la cual aparece en la última columna de la primera parte de los resultados
3
de la regresión). La hipótesis nula a probar es la no significancia individual de cada una
de los estimadores, por tanto si el valor del estadístico t es mayor a 0.05 (5.0% de
significancia o 95.0% de confianza) se encuentra en la zona de no rechazo de la
hipótesis nula al 95.0% de confianza, es decir, el coeficiente particular es
estadísticamente no significativo o bien la variable respectiva no contribuye en la
explicación de los cambios de la variable dependiente para este porcentaje de confianza.
Esta variable puede ser eliminada del modelo o bien dejarla pero no explicarla en el
reporte de los resultados y evaluación de éste.
La prueba de variables omitidas se realiza con la RESET. La prueba de variables
omitidas es una, de errores en la media del modelo. Para realizar la prueba RESET dar
clic sobre el menú de los resultados de la regresión en View/Stability Test/Ramsey
Reset Test/OK. Esta prueba arroja dos estadísticos y los resultados de la regresión
auxiliar. La hipótesis nula a probar es – el modelo no tiene problemas en la media- por
tanto si el valor de la probabilidad de los estadísticos es mayor que 0.05, se encuentra en
la zona de no rechazo de la hipótesis nula al 95.0% de confianza.
6.- Prueba de significancia conjunta de los estimadores. Esta prueba se realiza con el
valor de la probabilidad del estadístico F, que aparece regularmente en la segunda parte
de los resultados de la regresión del lado izquierdo. La hipótesis nula a probar es la no
significancia conjunta de los estimadores, por tanto si el valor de la probabilidad del
estadístico F es mayor que 0.05, se encuentra en la zona de no rechazo de la hipótesis
nula al 95.0% de confianza, en consecuencia ninguno de los estimadores es
estadísticamente significativo.
7.- Prueba de forma funcional correcta o problemas en el primer momento (en la media
X ) de la variable dependiente Y. Los problemas en la media del modelo se detectan
con la prueba RESET o WHITE, ambas pruebas se encuentran en el paquete EV. Para
realizar la prueba RESET dar clic sobre el menú de los resultados de la regresión en
View/Stability Test/Ramsey Reset Test/OK. Esta prueba arroja dos estadísticos y los
resultados de la regresión auxiliar. La hipótesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadísticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hipótesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadístico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
Para realizar la prueba White dar clic sobre el menú de los resultados de la regresión en
View/Residul Test/White Heteroskedasticity/OK. Esta prueba arroja dos estadísticos
y los resultados de la regresión auxiliar. La hipótesis nula a probar es -el modelo tiene la
forma funcional correcta o no tiene problemas en la media- por tanto si el valor de la
probabilidad de los estadísticos es mayor que 0.05, se encuentra en la zona de no
rechazo de la hipótesis nula al 95.0% de confianza, es decir, la forma funcional del
modelo es la correcta. Si el valor de la probabilidad de un estadístico no rechaza la nula
y otro si la rechaza hay que dudar del resultado de la prueba e irse con otra prueba.
8.- Prueba de normalidad en los errores.- La prueba de normalidad en los errores del
modelo, se realiza al dar un clic sobre el menú de los resultados de la regresión en
View/Residul Test/ Histogram-Normality Test/ OK. Los resultados de esta prueba es
una gráfica de la distribución de frecuencias de los errores del modelo y del lado
derecho se encuentra el cálculo de los primeros momentos de la variable aleatoria
(media, varianza, simetría y curtosis), el valor del estadístico Jarque-Bera y el valor de
su probabilidad. La hipótesis nula a probar es –los errores tiene una distribución
4
normal- por lo que si el valor de la probabilidad del estadístico Jarque-Bera es mayor
que 0.05, se encuentra en la zona de no rechazo de la hipótesis nula, es decir, no se
rechaza la hipótesis nula de normalidad en los errores del modelo a un nivel de
confianza del 95.0%.
Es importante destacar, que la prueba de normalidad se puede llevar a cabo para
cualquier variable de la cual se quiera saber si se distribuye en forma normal (sea la
variable dependiente, independiente o los errores del modelo estimado). Para realizarle
la prueba de normalidad a cualquier variable, dar clic en el nombre de la variable de
interés, la cual se sombreará y después dar clic en Show del menú de la hoja de trabajo,
con esta instrucción la variable aparece en la nueva ventana y sobre el menú de ésta dar
clic en View/Descriptive Estadistic/Histogram Stits/enter. Además, los errores de la
regresión se pueden guardar como cualquier variable dándoles un nombre después de
estimar la regresión del modelo con la instrucción genr espacio cualquier nombre=resid
(la palabra genr genera cualquier operación) escrita el la sección blanca, que se
encuentra en la parte inferior del menú principal de EV. Ejemplo genr residuo=resid.
Con el nombre de residuo o cualquier nombre antes del signo igual, EV guarda los
errores de la última regresión estimada o de cualquier operación realizada para
transformar una variable.
9.- Prueba de multicolinialidad. Esta prueba se realiza a través de la matriz de
correlación de las variables involucradas del modelo, esta matriz es simétrica donde la
diagonal principal tiene valores de uno, porque el coeficiente de correlación de una
variable con ella misma tiene este valor. EV calcular esta matriz dando clic en Show y
en la parte blanca de esta ventana, se anota la lista de las variables involucradas en el
modelo (se recomienda empezar por el nombre de la variable dependiente seguida por
las independientes, pero en realidad no importa el orden) y después OK, además sobre
el menú de la nueva ventana dar clic sobre View/Correlation/OK y aparece la matriz
de correlación. Si los coeficientes de correlación de los pares de variables es mayor que
0.88, en términos absolutos, hay indicios de multicolinialidad entre las variables. Si
además, la R 2 tiene un valor cercano a uno y el valor de la probabilidad de estadístico t
es mayor que 0.05 (coeficientes estadísticamente no significativos) entonces se
confirma el problema de multicolinialidad.
10.- Prueba de Homoscedasticidad o de estabilidad del coeficiente 2 . Para saber si los
errores son homoscedásticos existe, en el paquete EV, dos pruebas estas son ARCH y
White. Los resultados de ambas pruebas se obtienen dando clic sobre los resultados de
la regresión en View/Residual Test/ARCH/OK y View/Residual Test/White
Heteroskedasticity/OK. Los resultados de estas dos pruebas son los valores de los
estadísticos, los valores de sus probabilidades y las regresiones auxiliares. La hipótesis
nula a probar es –los errores del modelo son homoscedásticos-, por tanto si el valor de
la probabilidad de los estadísticos que arroja cada prueba es mayor que 0.05, no se
rechaza la hipótesis nula, es decir, los errores son homocedásticos al 95.0% de
confianza.
11.- Prueba de no autocorrelación en los errores del modelo. Para saber si los errores
están autocorrelacionados, se encuentra el análisis del estadístico Durbin-Watson (D-
W), el análisis del correlograma de los errores y la prueba de Multiplicadores de
Lagrange. El estadístico D-W aparece en los resultados de la regresión; si el estadístico
D-W tiene el valor de 2 o muy cercano a este valor, los errores no presentan
autocorrelación de orden uno; sin embargo, este estadístico no puede ser utilizado para
detectar autocorrelación cuando se estima un modelo dinámico (cuando la variable
5
dependiente rezagada aparece como explicativa), en este caso se utiliza la prueba H de
D-W. El análisis del correlograma de los errores, es un indicador del problema de
autocorrelación; para realizar esta prueba dar clic sobre los resultados de la regresión en
View/ Residul Test/Correlogram-Q Statistics/OK; la hipótesis nula a probar es –los
errores no están autocorrelacionados- por tanto si las barras del correlograma no se
salen de la banda del 95.0% de confianza o del 5.0% de significancia, no se rechaza la
hipótesis nula de no autocorrelación entre los errores, si las barras del correlograma se
salen de dicha banda esto quiere decir que hay problemas de autocorrelación entre los
errores. La prueba de Multiplicadores de Lagrange (LM) para detectar autocorrelación
en los errores de orden p, se realiza dando clic sobre los resultados de la regresión en
Correlation LM/ View/Residul Test/Serial OK; esta prueba llamada Breusch-Golfrey
arroja los valores de dos estadísticos y la regresión auxiliar; la hipótesis nula a probar es
–los errores no están autocorrelacionados- por tanto si el valor de la probabilidad de los
estadísticos es mayor que 0.05 no se rechaza la hipótesis nula al 95.0% de confianza.
12.- Prueba de estabilidad en los parámetros beta o prueba de permanencia estructural.
Para realizar esta prueba se encuentran los estadísticos CUSUM, CUSUM-Q y Chow.
Es recomendable primero obtener a los estadísticos CUSUM y CUSUM-Q, porque si
hay cambio estructural, las gráficas de estos estadísticos marcan la fecha de quiebre que
se requiere para introducirla la prueba Chow. Para obtener a los estadísticos CUSUM
dar clic en los resultados de la regresión sobre View/Recursive Estimates/CUSUM
Test/OK y aparece una gráfica donde, dentro de una banda de 95.0% de confianza, se
dibuja a este estadístico; de igual manera para obtener el estadístico CUSUM-Q dar clic
en los resultados de la regresión sobre View/Recursive Estimates/CUSUM-Q
Test/OK y aparece una gráfica donde dentro de una banda de 95.0% de confianza se
dibuja a este estadístico. La hipótesis nula a probar es que los estimadores beta son
estables a través de tiempo o bien que hay permanencia estructural, por tanto si los
estadísticos se salen de las bandas hay cambio estructural y se tiene que recordar la
fecha en que los estadísticos cortan las bandas para anotarlas en la prueba Chow y
comprobar si en realidad hubo cambio estructural. Para realizar la prueba Chow dar clic
sobre los resultados de la regresión en View/Estability Test/Chow Breakpoint
Test/enter y aparece una ventana donde en la parte en blanco hay que anotar la posible
fecha del corte, por ejemplo si la muestra es mensual y el estadístico CUSUM o
CUSUM-Q corto la banda en el mes de marzo de 2001, entonces se anota 2001.03 y clic
en OK. Si los valores de la probabilidad de los estadísticos que arroja la prueba son
mayores que 0.05 no se rechaza la hipótesis nula que en ese punto no hubo
rompimiento.
13.- Prueba sobre restricción en los parámetros. Frecuentemente, en la teoría económica
se sostiene que los parámetros individualmente o bajo cualquier operación matemática
(suma, resta, multiplicación o división), deben de ser iguales entre ellos o a cierto
valor, para probar esta clase de restricciones sobre los coeficientes se utiliza la prueba
Wald . El ejemplo más común de esto, se observa en la función de producción tipo
Cobb-Douglas (cuyo modelo se convierte en lineal al estimar las variables por medio de
la transformación logarítmica). Si se quiere probar que cierta industria presenta
rendimientos constantes a escala, el investigador planea la hipótesis nula y la alternativa
( H 0 : 1 + 2 = 1 H 1 : 1 + 2 1 ) y después prueba, con el estadístico Wald, de la
siguiente manera: dar clic sobre los resultados de la regresión en View/Coefficient
Test/ Wald Coefficient Restriction/ y sale una ventana donde hay que anotar la
restricción con la sintaxis c(2)+c(3)=1 y dar OK (suponiendo que existe ordenada al
6
origen porque EV la guarda como c(1)). Note que EV guarda cada coeficiente del
modelo con c entre paréntesis el número de cada coeficiente, como aparece en la
regresión, por tanto c(1) es el coeficiente de la ordenada al origen, c(2) es el coeficiente
de la primera variable X, el c(3) es el coeficiente de la segunda variable X y así
sucesivamente. El criterio de decisión es, si el valor de la probabilidad de los
estadísticos es mayor que 0.05 no se rechaza la hipótesis nula que planteó el
investigador. Para el caso del ejemplo, no se rechaza que la industria presenta
rendimientos constantes a escala.
7
2.- La tasa de interés real de algún instrumento financiero medido en tasa nominal
como los cetes, guardado con el nombre original de cetes y creada la variable inflación,
se puede calcular escribiendo
Genr tircetes=(((cetes/12)-inflación)/1+inflación)
3.- Una de las transformaciones recomendables en las variables de un modelo
econométrico es la diferencia (Y del periodo t – Y del periodo anterior (t-1)). Esta
transformación mide la variación absoluta de la variable de un periodo a otro. Así, si se
quiere obtener la diferencia del pib (nombre original de la variable) se escribe
Genr dpib=d(pib)
Con esta instrucción EV calcula la primera diferencia de la variable llamada pib
4.- Las transformaciones de una variable elevada a un exponente, que son frecuentes en
la estimación de un modelo de regresión de una función de costos, se estiman
escribiendo lo siguiente:
Si la variable producción fue guardada con el nombre original de produc
Genr produc2=produc^2 se estima el cuadrado de la variable produc
Genr produc2=squar(produc)
Genr produc3=produc^3 se estima el cubo de la variable produc
5.- La raíz cuadrada de una variables se calcula como
Genr rcproduc=produc^(1/2) se estima la raíz cuadrada de la variable produc
6.- Una variable que se utiliza frecuentemente en los modelos econométricos es la
variable tiempo que toma valor de 0 para la primera observación, 1 para la segunda
observación, 2 para la tercera observación y así sucesivamente hasta agotar el número
de observaciones. EV calcula esta variable con la siguiente instrucción:
Genr tiempo=@trend
Note que antes del signo igual va cualquier nombre (se recomienda anotar un nombre
que haga referencia a la nueva variable). Además, que la sintaxis de las operaciones que
se realizan para transformar a las variables, son parecidas a las utilizadas en ecxel y
deben de estar correctamente escritas para que EV las pueda calcular.
7.- Frecuentemente se transforman las variables del modelo para lograr obtener la
forma funcional correcta o para mejorar la estimación. Sin embargo, cuando se predice
a la variable dependiente se debe explicar y analizar las observaciones de ésta en sus
unidades originales, por tanto se hace necesario realizar unas cuanta operaciones para
lograrlo. Por ejemplo si el modelo se estimó en logaritmos y se quiere estimar la
variable en unidades originales se utiliza el antilogaritmo (e= 2.71828), elevando la
base e (e= 2.71828) al logaritmo de cada observación. Si la variable dependiente se
trasformó en primeras diferencias Y- Y(t-1)=dY para recuperar a Y se manda del lado
derecho de la regresión a Y(t-1) sumando (porque está del lado izquierdo restando).
Otra forma de obtener el prónostico de la variable endogena, en sus unidades
originales, es estimar la regresión con las instrucciones de transformación desde el
inicio. Por ejemplo, la estimación del modelo de la PPA del tipo de cambio en la
versión absoluta.
LS log(tc) c log(PI) log(PE)
8
O en la transformación de diferencias de los logaritmos
Ls d(log(tc)) c d(log(PI)) d(log(PE))
PREDICCIÓN
Una vez estimado el modelo de regresión y si en su evaluación resultó un buen
modelo, se procede a la predicción de la variable dependiente para varios periodos fuera
de la muestra. Para que se pueda hacer dicha predicción, debe existir datos supuestos
para todas las variables independientes. Estos datos se buscan en los criterios anuales de
política económica que edita la Secretaría de Hacienda, los cuales se publican en los
principales periódicos de circulación nacional o en algunas revistas como en “El
Mercado de Valores” que edita Nafinsa. En estos criterios se expone, por ejemplo, cual
será el crecimiento del PIB, la inflación, el salario mínimo etc. Si no se encuentran los
datos hay que suponerlos y sustentar las cifras. Una vez que se meten los datos de las
variables independientes, fuera del periodo original de la muestra, se procede a hacer la
predicción dando clic sobre los resultados de la regresión en Forecast, con esta
instrucción aparece una ventana con el nombre de la variable pronosticada (esta variable
es Y estimada por el modelo o Y gorro), el nombre se puede cambiar al gusto del
investigador y en la parte de abajo aparece el Sample (periodo de la muestra desde la
fecha del dato inicial hasta el final), la fecha final hay que cambiarla hasta la fecha que
abarque la predicción y después dar OK. El resultado de esta instrucción es una gráfica
con una tabla que contiene el Coeficiente de Desigualdad de Theil. Este coeficiente se
emplea para hacer la evaluación del pronóstico. Las características de este coeficiente
son:
(Yt − Yt )
1 T ˆ ~ 2
T t =1
cdt =
1 T ˆ 2
t (Y ) + (Yt )
1 T ~ 2
T t =1 T t =1
1
T
( )
(Yˆt − Y~t )2 = Yˆp − Y~r + (ˆ p − ~r )2 + 2(1 − )ˆ p~r
9
~
donde Yˆp y Yr son las medias de la variable pronosticada por el modelo y la variable
real respectivamente, ̂ P y ~r son las desviaciones estándar de las series Yˆp y Y~r ,
respectivamente, es el coeficiente de correlación entre las variables Yˆ y Y~ . La
p r
ps =
(Yˆ − Y~ ) 2
(1T ) (Yˆ − Y~ )
t
2
pv =
(ˆ − ~ )2
(1T ) (Yˆ − Y~ )
t
2
2(1 − ) ˆ ~
pc =
( )
1 (Yˆt − Y~ )2
T
EJEMPLO
10
Suponga que una empresa está interesada en introducirse al mercado nacional con la
venta de café caliente de consumo inmediato, por lo que desea saber la demanda de
tazas diaria de café consumidas por persona en el país y el pronóstico de dicha
demanda hasta el año 2010. Los datos con los que se cuenta para hacer el estudio son
los de la demanda diaria de tazas de café por persona y los precios promedio de estas
taza de 1996 a 2006. La muestra es la siguiente:
Demanda Precio
Diaria
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000
Donde la demanda diaria de café está medida en tazas y los precios en dólares
americanos.
Yt = 0 + 1 P + ut con 0 0; 1 0
11
Durban-Watson stat 0.726590 Prob(F-statistic) 0.002288
Los signos de los coeficientes coinciden con los teóricos esperados porque
mientras la ordenada al origen es positiva, el coeficiente de la variable precio o la
pendiente tiene el signo negativo.
EVALUACIÓN CUALITATIVA
12
Probability
Log likelihood ratio 2.932248 0.086826
Probability
5
Series: Residuals
Sample 1996 2006
4 Observations 11
Mean 2.26E-16
3 Median -0.054579
Maximum 0.248113
Minimum -0.131477
2 Std. Dev. 0.122098
Skewness 0.953177
Kurtosis 2.579671
1
Jarque-Bera 1.746645
Probability 0.417562
0
-0.1 0.0 0.1 0.2
MATRIZ DE CORRELACIÓN
DTAZAS PCAFE
DTAZAS 1 -0.814099004531
PCAFE -0.814099004531 1
ARCH Test:
F-statistic 3.215472 Probability 0.110702
Obs*R-squared 2.866996 Probability 0.090413
Es importante mencionar que la prueba White es una prueba general para detectar
errores de especificación y particular para problemas de heteroscedasticidad. Por tanto,
los resultados de esta prueba también indican que no hay errores de especificación en el
modelo.
13
Pruebas de no autocorrelación entre los errores. Uno de los estadísticos para
detectar problemas de autocorrelación de orden uno en los errores del modelo es
estadístico D-W. El valor de este estadístico se encuentra en los resultados de la
regresión y para el caso del ejemplo este asciende a 0.726590, por tanto según el
estadístico D-W hay problemas de autocorrelación de primer orden en los errores del
modelo.
10
-5
-10
98 99 00 01 02 03 04 05 06
CUSUM 5% Significance
14
Sin embargo, como se puede observar el estadístico CUSUM-Q no se sale de las
bandas del 95.0% de confianza, esto significa los coeficientes son estables a lo largo del
periodo de la muestra.
1.5
1.0
0.5
0.0
-0.5
98 99 00 01 02 03 04 05 06
Demanda Precio
15
Diaria
1996 2.570000 0.770000
1997 2.500000 0.740000
1998 2.350000 0.720000
1999 2.300000 0.730000
2000 2.250000 0.760000
2001 2.200000 0.750000
2002 2.110000 1.080000
2003 1.940000 1.810000
2004 1.970000 1.390000
2005 2.060000 1.200000
2006 2.020000 1.170000
2007 1.260000
2008 1.900000
2009 1.550000
2010 1.750000
RM SE 0 .1 1 6 4 1 6
2.2
M AE 0 .0 9 6 8 7 3
M APE 4 .3 1 7 3 6 0
2.0 Th e i l 0 .0 2 6 2 9 2
Bi a s % 0 .0 0 0 0 0 0
1.8 Va ri a n c e % 0 .1 0 2 4 7 6
Co v a ri a n c e % 0 .8 9 7 5 2 4
1.6
1.4
96 98 00 02 04 06 08 10
DTAZASF ± 2 S.E.
Demanda Demanda
Real Pronóstico
Y Yˆ
1996 2.570000 2.321887
1997 2.500000 2.336272
1998 2.350000 2.345863
1999 2.300000 2.341068
2000 2.250000 2.326682
2001 2.200000 2.331477
2002 2.110000 2.173233
2003 1.940000 1.823176
16
2004 1.970000 2.024579
2005 2.060000 2.115689
2006 2.020000 2.130075
2007 NA 2.086917
2008 NA 1.780019
2009 NA 1.947854
2010 NA 1.851948
2.4
2.2
2.0
1.8
1.6
96 97 98 99 00 01 02 03 04 05 06 07 08 09 10
DTAZAS DTAZASF
EJERCICIOS
Y X2 X3
Año Producto Real Insumo Trabajo Insumo Capital
(Millones de (por cada mil (Millones de
dólares) personas) dólares)
1990 8,911.4 281.5 120,753
1991 10.873.2 284.4 122,242
1992 11,132.5 289.0 125,263
1993 12,086.5 375.8 128,539
1994 12,767.5 375.2 131,427
1995 16,347.1 402.5 134,267
1996 19,542.7 478.0 139,038
1997 21,075.9 553.4 146,450
1998 23,052.0 616.7 153,714
1999 26,128.2 695.7 164,783
2000 29,563.7 790.3 176,864
2001 33,376.6 816.0 188,140
2002 38.354.3 848.4 205,841
2003 46,868.3 873.1 221,748
2004 54,308.0 902.4 239,715
2005 69,824.1 999.2 250,578
18
b) Analiza los resultados económicamente según el esquema que se anotó en la pregunta
uno.
c) Analiza los resultas econométricamente según el esquema de la pregunta uno, sin
contestar el inciso de la prueba Wald
d) Plantea la hipótesis nula y alternativa para probar rendimientos constantes a escala,
rendimientos crecientes a escala y rendimientos decrecientes a escala.
e) Mediante la prueba Wald determina qué rendimientos presenta la industria
(rendimientos constantes, rendimientos crecientes o rendimientos decrecientes).
f) Predice el producto real hasta el año 2010. Para contestar esta pregunta, las cifras de
la predicción del logaritmo del producto real deben de transformarse a dólares,
elevando la base e (e= 2.71828) al logaritmo de cada observación.
MODELOS BINARIOS
(modelos Logit y Probit)
EJEMPLO
Se utilizaron los datos que se muestran en la siguiente tabla, para analizar si una nueva
metodología didáctica resultaba eficaz en la enseñanza de la economía. En este estudio
la variable dependiente mejora, es la variable que indica si mejoró el alumno tras un
periodo de aprendizaje. El resto de las variables son CM media de las calificaciones
pasadas del alumno, NP nota del alumno en un examen previo al periodo de aprendizaje
y PSI, variable binaria que indica si en el periodo de aprendizaje el alumno estudió con
el nuevo método didáctico.
DATOS
OBS MEJORA CM NP PSI
1 0 2.66 20 0
2 0 2.89 22 0
3 0 3.28 24 0
4 0 2.92 12 0
5 1 4.00 21 0
6 0 2.86 17 0
7 0 2.76 17 0
8 0 2.87 21 0
9 0 3.03 25 0
10 1 3.92 29 0
11 0 2.63 20 0
12 0 3.32 23 0
13 0 3.57 23 0
14 1 3.26 25 0
15 0 3.53 26 0
16 0 2.74 19 0
17 0 2.75 25 0
18 0 2.83 19 0
19 0 3.12 23 1
20 1 3.16 25 1
21 0 2.06 22 1
22 1 3.62 28 1
23 0 2.89 14 1
24 0 3.51 26 1
25 1 3.54 24 1
19
26 1 2.83 27 1
27 1 3.39 17 1
28 0 2.67 24 1
29 1 3.65 21 1
30 1 4.0 23 1
31 0 3.1 21 1
32 1 2.39 19 1
El modelo fue calculado a través del método de MCO para el modelo lineal y por el
método de Máxima Verosimilitud para el modelo Logit y Probit. Las estimaciones se
muestran en las siguiente tres tablas.
20
Obs with Dep=1 11
Los efectos marginales del modelo de probabilidad lineal son los que resultan de
la estimación de los coeficientes. Sin embargo, los coeficientes de los modelos Logit y
Probit (los cuales miden los efectos marginales) tienen que estimarse utilizando un
factor de ajuste.
e ´ X e ´X
Factor de Ajuste para el Logit = ´X
1 − ´X
1 + e 1 + e
( X ) =
E Y e ´X
1 −
e ´X
´X ´X
X 1 + e 1 + e
21
Por tanto, los efectos marginales se obtienen multiplicando el factor de ajuste por
el vector de coeficientes beta
Siguiendo estos pasos, primero se calculan las medias de los datos de las variables
explicativas del modelo Logit. Estos resultados se muestran en el siguiente cuadro
MEJORA CM NP PSI
Media 3.1171875 21.938 0.4375
En segundo lugar se multiplican los coeficientes por las medias de las variables
explicativas del modelo Logit
2.378687654*(0.4375)
( X ) =
E Y e −1.08358
−
e −1.08358
= 0.1889562 = 0.1889
−1.08350
1 −1.08358
X 1 + e 1 + e
Hay otra forma más simple de obtener este factor de ajuste. Este método consiste
en volver a estimar la regresión logit (no utilices la que hayas guardado, si es que
lo hiciste) y en trabajar sobre los resultados de esta regresión (probabilidad de
éxito). De la siguiente manera: sobre los resultados de la regresión logit dar clic en
Procs/Make Model/ y después dar clic en Text e intercambiar los nombres de las
variables por sus medias y cambiar el nombre de la variable dependiente por ejemplo
por éxito. Después dar clic en Solve.
Con la instrucción Solve EV calcula esa ecuación con el nombre de éxito. Esta variable
estará compuesta de un número que se repite a lo largo de todas los observaciones y que
será la probabilidad de éxito. El factor de ajuste, por tanto, se encuentra al multiplicar
este número por 1- este número.
22
Para el modelo Probit, el factor de ajuste, se obtiene buscando en las tablas de la
distribución normal el valor que resulta de la función Probit. En términos formales el
factor de ajuste es
E Y( X ) = (´X )
X
Para obtener el factor de ajuste del modelo probit se procede de la misma manera
que el logit. Trabaje sobre los resultados de la regresión probit. Esto aparece en la
ventana después de dar clic en Procs/Make Model y después dar clic en Text
Se intercambian los nombres de las variables por su valor medio, se cambia el nombre
la variable dependiente y se da clic en Solve
Como se puede observar en el cuadro anterior las pendientes que arrojan los
modelos Logit y Probit son casi iguales mientras que difieren de las estimadas por el
método de mínimos cuadrados ordinarias.
Para interpretar el efecto que tiene cada variable sobre la probabilidad, de que las
calificaciones del alumno mejoran tras de implantar una nueva metodología, se utilizan
23
los valores de la pendiente. La interpretación del coeficiente de CM sería similar en el
modelo Logit y Probit, es decir, si la calificación media del alumno aumenta en una
unidad, la probabilidad de que el alumno mejore sus calificaciones aumenta 0.53, si ha
utilizado el nuevo método didáctico. La interpretación del coeficiente NP sería, si la
calificación del alumno en un examen previo aumenta en una unidad, la probabilidad
de que el alumno mejore sus calificaciones aumenta en 0.018 si ha utilizado el nuevo
método didáctico.
Hay que recordar que uno de los estadísticos tradicionales para analizar la bondad
de ajuste de los modelo de regresión es el R cuadrada. En estos modelos donde la
variable dependiente es una variable cualitativa el estadístico R cuadrada de Mc Fadden
se define como sigue
log LUR
R2 = 1−
log LR
Hay otros dos estadísticos que miden la bondad de ajuste de este tipo de modelos
uno es Hosmer- Lemeshow y el otro es AnDrews. La idea de estas pruebas es comparar
el valor esperado ajustado y el valor actual por grupo de series. Si la diferencia entre el
valor esperado y actual es muy grande se rechaza el modelo porque éste no se ajusta a
los datos.
24
Para el caso del modelo Logit
25
Como se puede observar, el valor del estadístico H-L no es muy grande en ambos
modelos (este resulta de la sumatoria de la última columna del lado derecho de los
cuadros) el valor de estadístico Andrews si lo es. Por tanto mientras, un estadístico
estaría diciendo que el modelo se ajusta a los datos el otro estadístico lo contradice. Esta
afirmación queda confirmada observando el valor de la probabilidad de cada uno de los
estadísticos, porque mientras el del estadístico HL tiene un valor mayor 0.05, el de
Andrews es menor a este valor. Esta contradicción entre lo que sugieren los estadísticos
hace pensar en que el modelo se tiene que revisar. Una posible causa de que el modelo
no se ajuste a los datos es la no significancia estadística de la variable NP.
Para un análisis más profundo de los modelos binarios, se pueden hacer pruebas
de restricción individuales o generales sobre los coeficientes. Para las pruebas
individuales se encuentra el estadístico Wald y el de Razón de Verosimilitud (RV) que
aparece en los resultados de la regresión del modelo Logit o Probit.
Por ejemplo si se realiza la prueba Wald para saber si el coeficiente de la serie NP
es estadísticamente no significativo en el modelo Probit, esta prueba da el siguiente
resultado
Wald Test:
Equation: PROBI
Null Hypothesis: C(3)=0
F-statistic 0.380228 Probability 0.542463
Chi-square 0.380228 Probability 0.537481
Adicionalmente a estas pruebas, existe otra prueba para analizar las propiedades y
el funcionamiento de los modelos binarios. Esta prueba se llama tabla de Clasificación
Esperada y Predicha. La tabla clasifica el valor esperado y predicho de la variable
dependiente. Para ver esta tabla en el E-View dar clic en View/Expectaction-
Prediction Table sobre los resultados de la regresión y aparece una tabla donde se
aíslan las observaciones de la variable dependiente en sus valores de 0 y 1. La
clasificación correcta se obtiene cuando la probabilidad pronosticada es menor o igual a
la esperada y a la observada (y=0) o cuando la probabilidad pronosticada es mayor que
la esperada y la observada (y=1). En la literatura sobre este tema, la tabla de Pronóstico-
Expectativa se refiere a la tabla de clasificación. La fracción y=1 observaciones que son
26
pronosticadas correctamente determinan la sensibilidad, mientras que la fracción y=0
observaciones que son correctas es conocida como la especificidad. Estas son fracciones
que se presentan en porcentajes. Veamos los resultados de esta tabla para el modelo
Probit
27
16
S eries: S tandardized Residuals
S ample 1 32
Observations 32
12
Mean -0.014303
Median -0.158590
Maximum 2.663509
8
Minimum -2.356954
S td. Dev. 0.920117
S kewness 0.579126
4 K urtosis 4.932971
Según los resultados de la prueba de normalidad los errores del modelo Probit no
se distribuyen en forma normal al 95.0% de confianza ya que el valor de la
probabilidad del estadístico Jarque Bera es menor que 0.05. Pero se podría decir que al
98.0% de confianza los errores si se distribuyen de forma normal.
Para el modelo Logit y Probit que se está manejando en este ejemplo, es todavía
más interesante esta gráfica de curva de respuesta a las probabilidades porque se tiene
una variable cualitativa como explicativa, es decir, se tiene a la variable PSI (variable
binaria que indica si el estudiante estudió con el nuevo método didáctico o no).
Para obtener esta gráfica realice los siguientes pasos (recuerde que estos pasos
son para obtener la gráfica de respuesta de las probabilidades de cualquier modelo).
1.- Calcule una serie continua de la variable explicativa que va a estar variando, en el
caso del ejemplo será CM (media de las calificaciones del alumno). Para calcular la
serie continua de CM se observa el dato inferior y superior de la serie, los cuales son 2
y 4. Además se utiliza la variable de tendencia, la cual toma valores de enteros
positivos empezando por cero y termina en el número que le corresponde al último dato,
en el caso del ejemplo la tendencia será una variable que tome valores de 0, 1,
2,.....hasta 32. Esta tendencia hace que la serie levante. La instrucción en EV para
formar la serie continua CM es:
series CMPLOT=2+@trend*(4-2)/(@obs(@trend))
28
2.- Obtenga la ecuación de regresión estimada del modelo Probit y de clic en
Procs/Make Model . con está instrucción aparece una ventana que tiene el siguiente
texto.
Mejora= 1-@cnorm(* Eq1: mejora=F(cm,n,psi)
3.- Para trabajar con la ecuación del modelo hay que romper todos los vínculos, por
tanto seleccione Proc/Links/Break all Link. Inmediatamente después en esa misma
ventana, de clic en View/Source Text y aceptar. Después aparece la ecuación de
regresión.
4.- Copie y pege la misma ecuación abajo. Trabaje sobre la primera ecuación, remplace
el primer nombre, como por ejemplo MEJORA por MEJORA0 cuando PSI toma el
valor de cero, haga lo mismo con la variable PSI, cámbiela por el número cero,
remplace cm por la variable que creó con el nombre de CMPLOT y agrege @median
antes de la variable NP, NP debe de ir entre párentesis como se ilustra abajo.
Ahora haga algo lo mismo con la segunda ecuación: remplace el primer nombre, como
por ejemplo MEJORA por MEJORA1 cuando PSI toma el valor de uno, haga lo mismo
con la variable PSI, cámbiela por el número 1, remplace cm por la variable que creó con
el nombre de CMPLOT y agrege @median antes de la variable NP, NP debe de ir entre
párentesis como se ilustra abajo.
5.-Dé clic en Solve, es decir, resuelve las ecuaciones antes anotadas y en la ventana que
aparece de clic en Aceptar. Con esta instrucción se genera las probabilidades de que el
estudiante mejore sus calificaciones cuando varía su calificación promedio y si el
alumno estudia con el nuevo método didáctico y las probabilidades de que el estudiante
mejore sus calificaciones cuando varía su calificación promedio y no estudia con el
nuevo método didáctico. EV guarda las dos probabilidades generadas como series, con
el nombre de MEJORA0_0 y MEJORA1_0.
6.- Para graficar las series CMPLOT, MEJORA1_0 y MEJORA0_0 en un solo plano,
dé clic en Show y anote los nombres de las variables que quiere graficar (cmplot,
mejora1_0 y mejora0_0), después View/Graph/XY Line/. También puede seleccionar a
una de las variables al dar clic en ella ésta se sombrea, después apriete la tecla ctrl y
seleccione las siguientes, ya que las tres variables estén iluminadas, dar clic en Show y
graficar. El resultado debe ser el siguiente
29
1.0
0.8
0.6
MEJORA0
MEJORA1
0.4
0.2
0.0
2.0 2.5 3.0 3.5
CMPLOT
30
• Genere espacio para copiar la serie de ecxel a EV escribiendo en este último, data
inpc debajo del menú principal.
• Regrese a ecxel, copie la serie inpc y pegue en EV. Si no es posible componer la
serie en ecxel, inténtelo en EV.
• Ya cargada la serie inpc en EV, de clic sobre ella y después de que esta variable esté
sombreada, dar clic el Show/ View/Line Graph. Con esta instrucción aparece la
gráfica de la variable a través del tiempo.
• Analice detenidamente la gráfica del INPC, para detectar la tendencia, la estacional
y el ciclo en la serie.
140
120
100
80
60
40
20
0
86 88 90 92 94 96 98 00 02 04 06 08
INPC
DINPC
Cree la variable diferencia de los logaritmos del inpc, de clic en genr e introduzca
la ecuación linpc=log(inpc) y OK, después vuelva a dar clic en genr y escriba la
ecuación dlinpc=d(linpc) y OK.
31
.16
.12
.08
.04
.00
-.04
86 88 90 92 94 96 98 00 02 04 06 08
DLINPC
Observe los brincos que muestra la serie en 1987 y 1984 y la reducción de las
variaciones después de 1998 hasta 2008. Como ejercicio conteste las siguientes
preguntas. ¿Qué relación existe entre la serie inflación y la serie diferencia de los
logaritmos? Calcule la inflación a partir del inpc y gafique.
También es importante evaluar la distribución de la serie a analizar a partir de su
histrograma y hacer la prueba de normalidad de la serie. Para ello de clic Show /OK/
View/ Descriptive Statistics/Histrogram/
30
Series: INPC
Sample 1985M01 2008M12
25
Observations 283
20 Mean 58.83333
Median 53.79175
15 Maximum 129.5760
Minimum 1.010696
Std. Dev. 43.21315
10 Skewness 0.149291
Kurtosis 1.452812
5
Jarque-Bera 29.27800
Probability 0.000000
0
0 20 40 60 80 100 120
Observe que la serie inpc no se distribuye de manera normal. Haga lo mismo con
dinpc
60
Series: DINPC
Sample 1985M01 2008M12
50
Observations 282
40 Mean 0.455905
Median 0.364077
30 Maximum 2.610758
Minimum -0.596000
Std. Dev. 0.408974
20 Skewness 1.303036
Kurtosis 6.428485
10
Jarque-Bera 217.9169
Probability 0.000000
0
-0.5 -0.0 0.5 1.0 1.5 2.0 2.5
32
TENDENCIA DE UNA SERIE
La tendencia es la evolución lenta y a largo plazo de la serie que se desea modelar y
pronosticar.
Los modelos de tendencia determinista más utilizados son
Tendencia lineal T = 0 + 1Tiempo
Tendencia cuadrática T = 0 + 1Tiempo + 2Tiempo 2
Tendencia exponencial T = 0 e 1Tiempo
Observe la gráfica del inpc nuevamente, esta serie presenta una clase de tendencia
determinista que podría ser lineal, cuadrática o exponencial. Por lo que se le puede
asociar los siguientes modelos.
inpc = 0 + 1Tiempo + ut
linpc = 0 + 1Tiempo + ui
Pero como el modelo exponencial lineal, en logaritmos no es comparable con los
otros dos modelos se trabaja con el modelo exponencial inpc = 0 e 1Tiempoe u y se calcula
por mínimos cuadrados no lineales.
Analicemos cuál de los modelos anteriores podría estar explicando la tendencia
determinista de la serie inpc. Genere la variable tiempo dando clic en genr e introduzca
la ecuación tiempo=@trend y OK. Genere la variable tiempo al cuadrado dando clic
en genr e introduzca la ecuación tempo2=tiempo^2.
Estime el primer modelo escribiendo en el espacio en blanco debajo de la barra de
herramientas ls inpc c tiempo. Guarde la regresión con un nombre, sobre los resultados
de ésta, de clic en Name y anote, por ejemplo, inpctl.
33
Observe los resultados de la regresión, la variable tiempo es estadísticamente
significativa, sin embargo el estadístico DW es bajo lo que estaría indicando
autocorrelación.
Grafique el inpc estimado por el modelo junto con el inpc y los errores de la
regresión, dando clic sobre los resultados de la regresión en
View/Actual/Fitted/Residual/Graph
160
120
80
40
20 0
-40
10
-10
-20
86 88 90 92 94 96 98 00 02 04 06 08
Note como la variable real se sale de la tendencia lineal estimada y los errores no
parecen normales. Haga la prueba de normalidad en los errores.
24
Series: Residuals
Sample 1985M02 2008M08
20
Observations 283
16 Mean 1.73e-15
Median 0.558612
12 Maximum 15.55340
Minimum -18.25873
Std. Dev. 7.318329
8 Skewness -0.519603
Kurtosis 2.742966
4
Jarque-Bera 13.51343
Probability 0.001163
0
-15 -10 -5 0 5 10 15
34
Dependent Variable: INPC
Method: Least Squares
Date: 09/11/08 Time: 09:28
Sample (adjusted): 1985M02 2008M08
Included observations: 283 after adjustments
120
80
20 40
0
10
-40
0
-10
-20
86 88 90 92 94 96 98 00 02 04 06 08
35
32
Series: Residuals
28 Sample 1985M02 2008M08
Observations 283
24
Mean 5.23e-15
20
Median 1.205712
16 Maximum 11.12624
Minimum -15.07925
12 Std. Dev. 6.632109
Skewness -0.217170
8 Kurtosis 2.225438
4 Jarque-Bera 9.298887
Probability 0.009567
0
-15 -10 -5 0 5 10
36
160
120
30 80
20
40
10
0 0
-10
-20
-30
86 88 90 92 94 96 98 00 02 04 06 08
60
Series: Residuals
Sample 1985M02 2008M08
50
Observations 283
40 Mean -1.928073
Median -8.570290
30 Maximum 20.00287
Minimum -23.91263
Std. Dev. 12.49814
20 Skewness 0.427954
Kurtosis 1.762166
10
Jarque-Bera 26.70591
Probability 0.000002
0
-20 -10 0 10 20
Observe que tanto el criterio de Akaike como el de Schuarz son más pequeños en
el modelo cuadrático. Elija este modelo para predecir, recuerde haber generado a la
variable tiempo y tiempo2 más allá del periodo de la muestra, para ello de clic en
Forecast sobre los resultados de la regresión.
37
160
Forecast: INPCF
Actual: INPC
120 Forecast sample: 1985M01 2008M12
Included observations: 283
-40
86 88 90 92 94 96 98 00 02 04 06 08
INPCF
El coeficiente de Desigualdad de Theil está dentro de los límites permitidos al igual que
los otros tres. Grafique la serie real y el pronóstico
160
120
80
40
-40
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCF
Esta es la gráfica de las realizaciones reales y del pronóstico de la serie inpc. Note que
aún siendo el modelo de tendencia cuadrático el elegido, el pronóstico no fluctúa
alrededor a los datos de la variable real.
38
7
1
96 97 98 99 00 01 02 03 04 05
IDES
39
Note que solamente las dos primeras variables son estadísticamente significativas al
90%.
Ahora hagamos una regresión con las 12 variables indicadoras de estacionalidad
excluyendo la constante
Observe como todas las variables se vuelven significativas sin embargo, el R cuadrado
es muy bajo y el estadístico DW indica autocorrelación.
40
7
6
5
4
3
3
2 2
1 1
-1
-2
96 97 98 99 00 01 02 03 04 05
En ella se percibe que la variable modelada no se ajusta a los datos. Tal vez, faltaría
introducir una tendencia cuadrática dada la curvatura de la serie real. Veamos los
resultados.
Observe como el R cuadrado aumenta, al igual que bajan los estadísticos Akaike y
Schwarz
41
Pero todavía el DW indica autocorrelación.
7
6
5
4
3
1.0
2
0.5
1
0.0
-0.5
-1.0
-1.5
96 97 98 99 00 01 02 03 04 05
Observe, el ajuste es mejor comparado con los resultados de los otros modelos.
Hagamos algunas pruebas a este modelo
20
Series: Residuals
Sample 1996M01 2005M08
16 Observations 116
Mean 2.32e-16
12 Median -0.030171
Maximum 0.856107
Minimum -1.115479
8 Std. Dev. 0.358980
Skewness -0.101755
Kurtosis 3.075346
4
Jarque-Bera 0.227617
Probability 0.892429
0
-1.0 -0.5 -0.0 0.5
42
40
20
-20
-40
-60
-80
1997 1998 1999 2000 2001 2002 2003 2004 2005
CUSUM 5% Significance
Según los resultados de las prueba este modelo tiene autocorrelación, los estimadores no
son estables pero se distribuyen en forma normal.
Suponga que elegimos este modelo, hagamos la predicción. Recuerde haber generado a
todas las variables X más allá de la muestra.
7
Forecast: IDESF
6 Actual: IDES
Forecast sample: 1996M01 2005M12
5 Included observations: 116
0
96 97 98 99 00 01 02 03 04 05
IDESF
El coeficiente de desigualdad de Theil y los otros tres están dentro de los límites
permitidos.
1
96 97 98 99 00 01 02 03 04 05
IDES IDESF
43
La tabla de los valores reales y los estimados es
Un modelo MA siempre es estacionario, para que sea invertible tiene que cumplir
con la condición de que sus raíces características queden dentro del círculo unitario o en
términos de las condiciones sobre los valores de los coeficientes, las cuales son las
mismas que en el proceso AR.
Un proceso ARMA(p,q) se expresa como
yt = 1 yt −1 + 2 yt −2 + ...... + p yt − p + 1at −1 + 2 at −2 + .......... + 3 at −q + at
Este proceso es estacionario e invertible si
1 + 2 ........ + q + 1 + 2 + ...... + p 1
44
• Un modelo ar(1) estacionario sería yt = 2 + 0.5 yt −1 + at . Por tanto, genere un
espacio para la variable Y dando la instrucción data y en el espacio en blanco,
debajo del menú principal.
• A esa variable Y, asígnele el valor cero con la instrucción genr Y=0
• Genere una serie con números aleatorios con la instrucción genr at=nrnd
• Cambie el Sample en un dato, ahora será 2 2000
• Genere el proceso estacionario con la instrucción genr y=2+0.5*y(-1)+at
• Ahora grafique a la variable, de clic en esta variable, después Show/View/Line
Grafic
0
500 1000 1500 2000
45
• Grafique a la variable z dando clic en esta variable, después Show/View/Line
Grafic
-2
500 1000 1500 2000
46
10
0
500 1000 1500 2000
60
40
20
-20
-40
500 1000 1500 2000
47
Grafique el correlograma de esta caminata aleatoria
Sample: 2 2000
Included observations: 1999
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
|******** |******** 1 0.996 0.996 1987.3 0.000
|******** | | 2 0.993 0.015 3961.5 0.000
|******** | | 3 0.989 0.007 5922.8 0.000
|******** | | 4 0.986 0.024 7872.0 0.000
|******** | | 5 0.983 0.004 9809.3 0.000
|******** | | 6 0.980 0.012 11735. 0.000
|******** | | 7 0.976 -0.008 13649. 0.000
|*******| | | 8 0.973 -0.021 15551. 0.000
|*******| | | 9 0.970 0.005 17441. 0.000
|*******| | | 10 0.966 0.016 19319. 0.000
|*******| | | 11 0.963 -0.016 21186. 0.000
|*******| | | 12 0.960 -0.016 23040. 0.000
|*******| | | 13 0.957 0.029 24883. 0.000
|*******| | | 14 0.954 0.015 26715. 0.000
|*******| | | 15 0.950 -0.003 28537. 0.000
|*******| | | 16 0.948 0.027 30348. 0.000
|*******| | | 17 0.945 -0.005 32149. 0.000
|*******| | | 18 0.942 -0.004 33940. 0.000
|*******| | | 19 0.939 0.024 35721. 0.000
|*******| | | 20 0.936 -0.036 37491. 0.000
Suponga que se trabaja con la diferencia de los logaritmos del inpc (dlinpc) o con la
inflación de México de 1985 a 2008 con datos mensuales. La gráfica respectiva de esta
serie es
48
.16
.12
.08
.04
.00
-.04
86 88 90 92 94 96 98 00 02 04 06 08
DLINPC
Una forma de determinar el modelo ARMA que está explicando a la serie es analizar su
correlograma. Por tanto, sombree la serie y de clic en Show/View/Correlogram y
OK.
49
.|** | **|. | 25 0.281 -0.218 2139.9 0.000
.|** | .|. | 26 0.223 -0.053 2155.5 0.000
.|* | .|* | 27 0.191 0.092 2166.9 0.000
.|* | .|. | 28 0.173 -0.044 2176.3 0.000
.|* | .|. | 29 0.163 -0.001 2184.7 0.000
.|* | .|. | 30 0.140 -0.019 2191.0 0.000
.|* | .|. | 31 0.124 -0.006 2195.9 0.000
.|* | .|. | 32 0.121 0.023 2200.6 0.000
.|* | .|* | 33 0.131 0.118 2206.1 0.000
.|* | .|. | 34 0.135 -0.022 2212.0 0.000
.|* | *|. | 35 0.137 -0.087 2218.1 0.000
.|* | .|. | 36 0.135 0.029 2224.0 0.000
50
Variable Coefficient Std. Error t-Statistic Prob.
Observe como el segundo modelo es el que mejor se ajusta a los datos. Ahora
veamos si el proceso ARMA(1,1) es estacionario e invertible. Sobre los resultados de la
regresión dé clic en View/ARMA Structure/Roots/OK, con esta instrucción aparece
el círculo unitario y las raíces características del modelo.
Inverse Roots of AR/MA Polynomial(s)
1.5
1.0
0.5
0.0
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Note como ambas raíces se encuentran dentro del círculo unitario por tanto se
puede decir que el modelo es estacionario e invertible.
Otra forma de diagnóstico del modelo ARMA es saber el comportamiento de sus
errores después de remover los efectos de las variables explicativas dentro del modelo,
en este caso no hay variables explicativas en el modelo. Para ver la estructura de los
errores de clic en View/ARMA Structure/Correlogram/OK.
51
1.0
0.8
Autocorrelation
0.6
0.4
0.2
0.0
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
1.2
Partial autocorrelation
0.8
0.4
0.0
-0.4
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
.008
.004
.000
-.004
2 4 6 8 10 12 14 16 18 20 22 24
.12
.08
.04
.00
2 4 6 8 10 12 14 16 18 20 22 24
52
MODELOS ARMA CON COMPONENTES DE TENDENCIA,
ESTACIONALIDAD Y CICLO
En la primera parte de esta guía, se modelo inpc con un modelo de tendencia cuadrática.
Ahora se extenderá ese análisis para detectar algún componente estacional y cíclico en
ese variable.
* Genere doce variables Dummy con la instrucción genr d1=@seas(1) genr
d2=@seas(2) y así sucesivamente hasta la 12.
* Estime el modelo ls inpc tiempo tiempo2 d1 d2 d3 d4 d5 d6 d7 d8 d9 d10 d11
d12. Los resultados de la regresión son
55
Variable Coefficient Std. Error t-Statistic Prob.
Observe como las tres variables son estadísticamente significativas pero el DW indica
autocorrelación en los errores.
Probemos ahora con el modelo ARMA(1,1). Escriba ls inpc tiempo tiempo2 ar(1)
ma(1) y enter. Los resultados de la regresión son los siguientes.
56
Date: 09/12/08 Time: 12:41
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 2 ARMA
term(s)
Note que hay dos picos que se salen de las bandas en la primera autocorrelación y
autocorrelación parcial y la autocorrelación 12 también se sale de las bandas. Estos dos
57
problemas estarían indicando que los errores no son ruido blanco y que hay una
tendencia estacional en el rezago 12. El problema de tendencia estacional podría
corregirse agregando una variable de diferencia estacional sma(12) en el modelo. Con
esta variable el modelo a estimar seria ls inpc tiempo tiempo2 ar(1) ma(1) sma(12) y
enter. Los resultados de la regresión son los siguientes.
58
Date: 09/12/08 Time: 12:54
Sample: 1985M03 2008M08
Included observations: 282
Q-statistic
probabilities
adjusted for 3 ARMA
term(s)
59
Obseve como se removió la tendencia estacionaria.
Ahora veamos si la estructura ARMA del modelo es estacionaria e invertible, dé clic en
View/ARMA Structure/Roots/OK y aparece el círculo unitario y las raíces
características del modelo.
Inverse Roots of AR/MA Polynomial(s)
1.5
1.0
0.5
0.0
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Note que tiene una raíz fuera del círculo unitario y el resto dentro de él. Esto indica que
el proceso no es estacionario. Esto se confirma con el correlograma y con la función
estímulo respuesta de la estructura de los residuales.
1.0
Autocorrelation
0.9
0.8
0.7
0.6
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
1.2
Partial autocorrelation
0.8
0.4
0.0
-0.4
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
60
Impulse Response ± 2 S.E.
1.0
0.8
0.6
0.4
0.2
2 4 6 8 10 12 14 16 18 20 22 24
15
10
0
2 4 6 8 10 12 14 16 18 20 22 24
ARCH Test:
90
Series: Residuals
80 Sample 1985M03 2008M08
70 Observations 282
60 Mean -0.015217
Median -0.075024
50 Maximum 1.500330
40 Minimum -0.869809
Std. Dev. 0.276107
30 Skewness 1.305576
Kurtosis 7.586434
20
10 Jarque-Bera 327.2785
Probability 0.000000
0
-0.5 -0.0 0.5 1.0 1.5
61
PREDICCIÓN DEL MODELO ARMA
Suponga que el modelo anterior para inpc, cumplió con las propiedades deseables y fue
elegido como el mejor para su uso en el pronóstico, por tanto ahora el objetivo es
predecir el inpc hasta el mes de diciembre del año 2008 Para llevar cabo el pronóstico,
el rango debe de comprender de 1985 a 2008 y la serie tiempo y tiempo al cuadrado ya
tienen que estar generadas para ese tamaño de rango. Si el rango es menor hay que
expandirlo antes de predecir dando clic en Range/End Date/ anotar 2008.12 y generar
la variable tiempo y tiempo al cuadrado para todo este rango.
• Cheque el Sample, Este debe estar de 1985.02 al último mes para el cual la variable
dependiente tiene observaciones.
• Estime la regresión del modelo elegido para su uso en el pronóstico (ls inpc c
tiempo tiempo2 ar(1) ma(1) sma(1) o si guardo la regresión con un nombre de clic
en ese nombre y Show para que la muestre.
• Sobre los resultados de la regresión de clic en Forecast/OK (antes de dar OK
observe si el Sample contiene la muestra expandida). Después de esta instrucción
aparece la tabla y la gráfica del coeficiente de desigualdad de Theil
500
Forecast: INPCARMASMAF
Actual: INPC
400 Forecast sample: 1985M01 2008M12
Adjusted sample: 1985M03 2008M12
Included observations: 282
300
Root Mean Squared Error 49.26952
Mean Absolute Error 36.45383
200 Mean Abs. Percent Error 65.69297
Theil Inequality Coefficient 0.253968
Bias Proportion 0.547431
100 Variance Proportion 0.398475
Covariance Proportion 0.054093
0
86 88 90 92 94 96 98 00 02 04 06 08
INPCARMASMAF
62
280
240
200
160
120
80
40
0
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCARMASMAF
Observe que la predicción en los modelo ARMA contienen menos movimientos que
la variable original.
La predicción anterior se realizó, para un pronóstico dinámico, pero también existe la
predicción estática, ésta generalmente se ajusta mejor a los datos pero sólo proporciona
un dato más allá de la muestra. Para hacer este tipo de predicción de clic sobre los
resultados de la regresión Forecast/OK y ubique el cursor en Estatic Forecat. Los
resultados del pronóstico son los siguientes.
140
Forecast: INPCF
120 Actual: INPC
Forecast sample: 1985M01 2008M12
100 Adjusted sample: 1985M03 2008M09
Included observations: 282
80
Root Mean Squared Error 0.276037
Mean Absolute Error 0.194868
60
Mean Abs. Percent Error 0.925170
Theil Inequality Coefficient 0.001888
40
Bias Proportion 0.003039
Variance Proportion 0.000009
20 Covariance Proportion 0.996952
0
86 88 90 92 94 96 98 00 02 04 06 08
INPCF
120
100
80
60
40
20
0
86 88 90 92 94 96 98 00 02 04 06 08
INPC INPCFESTATICO
63
El valor las realizaciones reales del ipnc y su pronóstico es
INPC INPCFSTATICO
2008M01 126.1460 125.7525
2008M02 126.5210 126.7029
2008M03 127.4380 126.7052
2008M04 127.7280 128.0561
2008M05 127.5900 127.5527
2008M06 128.1180 127.8266
2008M07 128.8320 128.6450
2008M08 129.5760 129.2233
2008M09 NA 130.1703
64
unitaria, por el contrario si el valor del estadístico DF o PP es menor en términos
absolutos que los tres valores críticos, no se rechaza la existencia de una raíz unitaria en
la serie.
Resultados de la prueba DF
t-Statistic Prob.*
Resultados de la prueba PP
65
Date: 09/12/08 Time: 13:46
Sample: 1986M01 2008M12
Included observations: 272
66
Null Hypothesis: CETES28 has a unit root
Exogenous: Constant
Lag Length: 2 (Automatic based on SIC, MAXLAG=15)
t-Statistic Prob.*
Como se observa en ambos resultados, las dos pruebas no rechazan la hipótesis nula de
la existencia de raíz unitaria en la serie a los tres niveles de significancia, esto indica
que la tasa de los cetes a 28 días es una serie con tendencia estocástica en niveles.
Para corregir este problema trabajemos con la serie en primeras diferencias.
Hagamos las pruebas respectivas en primeras diferencias dando clic en View/Unit Root
Test/Argumented DF/1 difference/OK sobre la serie cetes28 mostrada y View/Unit
Root Test/Argumented PP/1 difference/OK.
Los resultados de la prueba DF en primeras diferencias
t-Statistic Prob.*
67
Los resultados de la prueba PP en primeras diferencias
68
.|* | .|. | 17 0.128 -0.038 110.71 0.000
.|. | *|. | 18 -0.047 -0.080 111.34 0.000
*|. | .|. | 19 -0.111 -0.003 114.93 0.000
*|. | .|. | 20 -0.096 -0.019 117.66 0.000
*|. | .|. | 21 -0.062 0.008 118.81 0.000
.|. | .|. | 22 -0.025 -0.037 119.00 0.000
.|. | *|. | 23 -0.042 -0.072 119.52 0.000
.|. | .|. | 24 -0.034 -0.033 119.86 0.000
.|. | .|. | 25 0.019 0.012 119.97 0.000
.|* | .|. | 26 0.077 0.031 121.76 0.000
.|. | *|. | 27 0.039 -0.092 122.22 0.000
.|. | .|. | 28 -0.025 -0.040 122.42 0.000
.|. | .|. | 29 -0.019 0.032 122.53 0.000
.|. | .|. | 30 -0.005 -0.004 122.53 0.000
.|. | .|. | 31 0.018 0.032 122.63 0.000
.|. | .|. | 32 0.018 -0.057 122.73 0.000
.|. | .|. | 33 0.004 -0.017 122.74 0.000
.|. | .|* | 34 0.023 0.072 122.91 0.000
.|. | .|. | 35 -0.010 -0.019 122.93 0.000
.|. | .|. | 36 -0.028 0.006 123.18 0.000
Como se observa los picos que salen de las bandas del 5.0% de significancia
indicarían que la variable cambio absoluto en lo la tasa de interés de los cetes a 28 días
estaría explicada por los términos ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5) ma(6). La
regresión que se estima es ls dcetes28 c ar(1) ar(2) ar(4) ma(1) ma(3) ma(4) ma(5)
ma(6) . El resultado de la regresión es
69
S.E. of regression 4.930372 Akaike info criterion 6.061832
Sum squared resid 6271.610 Schwarz criterion 6.182751
Log likelihood -800.2546 F-statistic 17.96507
Durbin-Watson stat 2.009858 Prob(F-statistic) 0.000000
70
.|. | .|. | 27 0.028 0.019 24.762 0.169
.|. | *|. | 28 -0.037 -0.073 25.169 0.195
.|. | .|. | 29 0.040 0.042 25.652 0.220
.|. | .|. | 30 0.002 0.033 25.653 0.267
.|. | .|. | 31 0.007 0.020 25.668 0.317
.|. | .|. | 32 0.007 0.026 25.684 0.369
.|. | .|. | 33 -0.019 -0.050 25.796 0.419
.|* | .|. | 34 0.070 0.051 27.319 0.393
.|. | .|. | 35 -0.016 0.022 27.397 0.443
.|. | .|. | 36 -0.026 -0.018 27.605 0.486
1.0
0.5
0.0
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
AR roots MA roots
Observe que dos de sus raíces son unitaria, mientras que el resto son de modulo menor
que la unidad.
Observe, que los términos ar están alternando en signo pero aún sigue siendo
significativo el ar(4) y el criterio de Akaike y Schuwarz son menores en el segundo
modelo, por tanto este modelo sería el elegido para su uso en el pronóstico. Sin
embargo, hay que analizar si los errores del modelo cumplen con las propiedades
deseables.
71
.6
.4
Autocorrelation
.2
.0
-.2
-.4
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
.6
Partial autocorrelation
.4
.2
.0
-.2
-.4
2 4 6 8 10 12 14 16 18 20 22 24
Actual Theoretical
-2
-4
2 4 6 8 10 12 14 16 18 20 22 24
0
2 4 6 8 10 12 14 16 18 20 22 24
ARCH Test:
72
120
Series: Residuals
Sample 1986M06 2008M08
100
Observations 267
80 Mean -0.007522
Median 0.197002
Maximum 32.24053
60
Minimum -35.48912
Std. Dev. 4.855659
40 Skewness 0.371997
Kurtosis 24.11844
20
Jarque-Bera 4967.781
Probability 0.000000
0
-37.5 -25.0 -12.5 0.0 12.5 25.0
-120
86 88 90 92 94 96 98 00 02 04 06 08
CETES28F
73
ESTIMACIÓN DE MODELOS ARCH Y GARCH
Engle (1982) presenta una clase de modelos capaces de explicar periodos de alta
volatilidad con aquellos de relativa volatilidad. La metodología de Engle es mostrar
primero que la varianza condicional de los errores de una serie puede variar mientras
que la varianza incondicional es una constante y en segundo lugar cómo se puede
modelar la varianza condicional heteroscedástica por medio de un proceso AR. Este tipo
de modelos reciben el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva (ARCH). Por ejemplo un modelo ARCH (1) se expresa como:
yt = a0 + a1 yt −1 + t
donde
t = vt 0 + 1 t2−1
q
t = vt 0 + i t2−i
i =1
Donde v t es ruido blanco y las condiciones sobre los parámetros que garantizan la
estabilidad son ahora
0 0 y 1 + 2 + 3 + 4 + .......... + q 1
Bollerslew (1986) hizo una extensión del trabajo original de Engle y desarrollo una
técnica aplicando un proceso ARMA a la varianza condicional de los errores. Este tipo
de modelos recibieron el nombre de modelos de Heteroscedasticidad Condicional
Autorregresiva Generalizada (GARCH). La varianza condicional de estos modelos se
expresa como:
t = vt t2
Las condiciones de estabilidad sobre los parámetros del modelo son ahora
0 0 ; 01 1 ;−1 1 1
74
Para un modelo GARCH (p,q) la varianza sería
q p
t2 = 0 + i t2−i + j t2− j
i =1 j =1
0 0 y 1 + 2 ........ + q + 1 + 2 + ...... + p 1
EJEMPLO
Note que mientras DF no rechazan la presencia de raíz unitaria en la serie ipyc, pero
PP si la rechaza. Haga la prueba con la primera diferencia de la serie
75
Sample: 1985:01 2006:06
Included observations: 258
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
.|. | .|. | 1 -0.053 -0.053 0.7369 0.391
.|* | .|* | 2 0.092 0.090 2.9665 0.227
.|* | .|* | 3 0.110 0.121 6.1529 0.104
.|. | .|. | 4 0.028 0.033 6.3595 0.174
*|. | *|. | 5 -0.072 -0.092 7.7380 0.171
.|. | *|. | 6 -0.055 -0.088 8.5566 0.200
.|** | .|** | 7 0.237 0.247 23.528 0.001
*|. | .|. | 8 -0.081 -0.022 25.276 0.001
.|* | .|. | 9 0.094 0.060 27.636 0.001
.|* | .|. | 10 0.077 0.034 29.225 0.001
.|* | .|. | 11 0.076 0.063 30.812 0.001
.|. | .|. | 12 -0.016 0.001 30.883 0.002
.|. | *|. | 13 -0.042 -0.061 31.363 0.003
.|* | .|. | 14 0.091 0.025 33.623 0.002
.|. | .|* | 15 0.024 0.098 33.776 0.004
.|. | .|. | 16 0.029 0.018 34.005 0.005
.|. | .|. | 17 -0.001 -0.045 34.005 0.008
.|. | .|. | 18 0.030 -0.038 34.263 0.012
.|. | .|. | 19 -0.016 -0.006 34.339 0.017
.|. | .|. | 20 0.018 0.056 34.435 0.023
.|. | .|. | 21 -0.001 -0.030 34.435 0.033
.|* | .|* | 22 0.100 0.088 37.255 0.022
.|. | .|. | 23 0.035 0.044 37.607 0.028
.|. | .|. | 24 0.050 0.041 38.326 0.032
.|* | .|* | 25 0.137 0.101 43.724 0.012
.|. | .|. | 26 0.039 0.030 44.167 0.015
.|* | .|* | 27 0.107 0.103 47.464 0.009
.|. | .|. | 28 -0.043 -0.034 47.993 0.011
.|. | *|. | 29 -0.055 -0.152 48.865 0.012
.|. | .|. | 30 -0.005 -0.015 48.873 0.016
.|. | .|. | 31 -0.029 -0.010 49.118 0.020
.|. | .|. | 32 0.029 0.021 49.363 0.026
.|. | .|. | 33 0.053 0.052 50.205 0.028
.|. | .|. | 34 0.049 -0.043 50.933 0.031
.|. | .|. | 35 -0.001 -0.006 50.934 0.040
*|. | *|. | 36 -0.124 -0.183 55.599 0.020
76
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 7 iterations
Backcast: 1985:01 1985:07
Variable Coefficient Std. Error t-Statistic Prob.
C 86.85354 40.31312 2.154473 0.0322
AR(7) 0.538742 0.223667 2.408674 0.0167
MA(7) -0.249182 0.238818 -1.043400 0.2978
R-squared 0.075671 Mean dependent var 76.26088
Adjusted R-squared 0.068217 S.D. dependent var 393.0074
S.E. of regresión 379.3659 Akaike info criterion 14.72676
Sum squared resid 35691779 Schwarz criterion 14.76890
Log likelihood -1845.208 F-statistic 10.15134
Durbin-Watson stat 2.033617 Prob(F-statistic) 0.000058
Note que el término ma(7) no es estadísticamente significativo, por tanto otro modelo
tentativo es ls dipyc c ar(7)
Dependent Variable: DIPYC
Method: Least Squares
Simple(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved after 3 iterations
Variable Coefficient Std. Error t-Statistic Prob.
C 80.22565 34.27784 2.340452 0.0201
AR(7) 0.300679 0.068786 4.371240 0.0000
R-squared 0.071269 Mean dependent var 76.26088
Adjusted R-squared 0.067539 S.D. dependent var 393.0074
S.E. of regresión 379.5038 Akaike info criterion 14.72354
Sum squared resid 35861753 Schwarz criterion 14.75163
Log likelihood -1845.805 F-statistic 19.10774
Durbin-Watson stat 2.025496 Prob(F-statistic) 0.000018
ARCH Test:
F-statistic 6.512924 0.011310
Probability
Obs*R-squared 6.397440 0.011429
Probability
77
Note que la prueba de homoscedasticidad en los errores se rechaza porque el valor de
la probabilidad de ambos estadísticos son menores a 0.05. El hecho que sea rechazada
la prueba de homoscedasticidad indica que la varianza de los errores no es constante y
por tanto hay efectos ARCH. Ahora hay que modelar esos efectos como un modelo AR
o un modelo ARMA. Para determinar el grado del ARMA en la varianza condicional de
la serie genere los errores al cuadrado de la serie con la instrucción genr errdipyc=resid
inmediatamente después de haber estimado el modelo ls dipyc c ar(7), después genere
los residuos al cuadrado con la instrucción genr err2dipyc=errdipyc^2 (los residuos al
cuadrado están guardados ahora con el nombre de err2dipyc). Analice su correlograma,
dando clic en err2dipyc/SHOW y una vez mostrada la variable dar clic en
View/Corrlogram/OK.
Note que las correlaciones 2,4,6,8 y las correlaciones parciales 2,6,8 son
estadísticamente significativas o bien se salen de la banda del 5.0% de significancia. Por
tanto un modelo tentativo de la varianza condicional sería un GARCH ar(2) ar(6) ar(8)
78
ma(2) ma(4) ma(6) ma(8). Para estimar este modelo sobre los resultados de la regresión
ls dipyc c ar(7) de clic en Estimate/ y aparece una ventana donde hay que dar clic en la
flecha que dice Method y aparece una lista de los métodos de estimación, por tanto dar
clic en ARCH- Modelos de Heteroscedasticidad Condicional Autorregresiva y aparece
una ventana donde hay que anotar el orden de ARCH y del GARCH. Ahí anotar, para el
caso del ejemplo ARCH 8 GARCH 8 y aparece el siguiente resultado
Dependent Variable: DIPYC
Method: ML – ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 15 iterations
Coefficient Std. Error z-Statistic Prob.
C 75.17219 36.43276 2.063313 0.0391
AR(7) 0.179016 0.061902 2.891904 0.0038
Variance Equation
C 114680.3 186656.4 0.614393 0.5390
ARCH(1) 0.124726 0.136548 0.913424 0.3610
ARCH(2) 0.197831 0.325906 0.607021 0.5438
ARCH(3) 0.272835 0.389541 0.700401 0.4837
ARCH(4) 0.137545 0.452377 0.304049 0.7611
ARCH(5) -0.021313 0.324176 -0.065744 0.9476
ARCH(6) 0.107615 0.309584 0.347613 0.7281
ARCH(7) 0.119780 0.407704 0.293792 0.7689
ARCH(8) 0.090222 0.358342 0.251777 0.8012
GARCH(1) -0.132944 2.287901 -0.058107 0.9537
GARCH(2) -0.173952 1.753405 -0.099208 0.9210
GARCH(3) -0.150826 1.373350 -0.109824 0.9125
GARCH(4) -0.149402 1.005646 -0.148563 0.8819
GARCH(5) -0.114601 0.756388 -0.151511 0.8796
GARCH(6) -0.078912 0.670865 -0.117627 0.9064
GARCH(7) -0.019947 0.578881 -0.034458 0.9725
GARCH(8) 0.012889 0.376367 0.034247 0.9727
R-squared 0.059558 Mean dependent var 76.26088
Adjusted R-squared -0.013407 S.D. dependent var 393.0074
S.E. of regresión 395.6331 Akaike info criterion 14.39421
Sum squared resid 36313935 Schwarz criterion 14.66108
Log likelihood -1787.473 F-statistic 0.816258
Durbin-Watson stat 2.059570 Prob(F-statistic) 0.680316
Note que ningún término es estadísticamente significativo, por tanto se prueba con un
ARCH 6 y GARCH 8
Dependent Variable: DIPYC
Method: ML – ARCH
Sample(adjusted): 1985:08 2006:06
Included observations: 251 after adjusting endpoints
Convergence achieved alter 42 iterations
Coefficient Std. Error z-Statistic Prob.
C 73.29669 19.51930 3.755087 0.0002
AR(7) 0.209876 0.049390 4.249384 0.0000
Variance Equation
C 110764.4 33698.72 3.286903 0.0010
ARCH(1) 0.187414 0.084623 2.214710 0.0268
ARCH(2) 0.418433 0.137312 3.047328 0.0023
ARCH(3) 0.487617 0.105073 4.640720 0.0000
79
ARCH(4) 0.437080 0.044092 9.912806 0.0000
ARCH(5) 0.157297 0.085809 1.833112 0.0668
ARCH(6) 0.072122 0.079983 0.901719 0.3672
GARCH(1) -0.959296 0.179256 -5.351529 0.0000
GARCH(2) -0.945641 0.146978 -6.433879 0.0000
GARCH(3) -0.303976 0.220809 -1.376643 0.1686
GARCH(4) -0.049267 0.188951 -0.260742 0.7943
GARCH(5) -0.068034 0.131348 -0.517968 0.6045
GARCH(6) -0.013141 0.133506 -0.098430 0.9216
GARCH(7) 0.252382 0.159067 1.586642 0.1126
GARCH(8) 0.191518 0.160453 1.193608 0.2326
R-squared 0.064650 Mean dependent var 76.26088
Adjusted R-squared 0.000695 S.D. dependent var 393.0074
S.E. of regresión 392.8709 Akaike info criterion 14.14578
Sum squared resid 36117319 Schwarz criterion 14.38455
Log likelihood -1758.295 F-statistic 1.010864
Durbin-Watson stat 2.050913 Prob(F-statistic) 0.445887
VECTORES AUTORREGRESIVOS
Los modelos VAR son una combinación de modelos de ecuaciones simultáneas con
series de tiempo. Las variables que entran en este tipo de modelos son endógenas
porque las explicativas son los rezagos de las variables dependientes. En un modelo
80
univariado AR(p) la variable dependiente está explicada por sus propios rezagos, en un
modelo autorregresivo de orden p, se estiman n ecuaciones diferentes donde cada
variable estará explicada por sus propios rezagos y por lo n-1 rezagos de las otras
variables que forman parte del VAR. Por ejemplo un VAR(1) de dos variables es:
y 2t = 21 y1t −1 + 22 y 2t −1 + 2t
Donde cada variable depende de su primer rezago y del primer rezago de la otra
variable. Además, las perturbaciones se pueden correlacionar de tal forma que cuando
una ecuación sufre un choque, la otra también lo sufrirá. Este tipo de interacción es el
elemento distintivo de los VAR.
Los VAR se han utilizado principalmente para predecir, comprobar la causalidad
de Granger y para el estudio de las respuestas al impulso (la dinámica de los efectos de
las perturbaciones sobre las variables dependientes).
Prueba de causalidad de Granger
La prueba de causalidad de Granger es una herramienta estadística para
determinar el sentido de la relación entre las variables. El concepto de causalidad de
Granger hace referencia a la precedencia1 de una variable sobre otra variable. Este
concepto, sostiene que si x t puede ser explicado por sus valores pasados y por los
valores pasados de y t entonces y t causa a x t , es decir, cuánto del valor explicado de
x t puede ser explicado por los valores pasados de x t y por los valores pasados de y t .
Esta definición implica que si y t causa a x t , entonces x t +1 es el mejor predictor
cuando se utiliza a y t − j que cuando no se utiliza.
Francis Diebold (1998), siguiendo a Granger (1988) argumenta que “una serie
causal debe contener información útil para el pronóstico que no este disponible en las
demás series (incluyendo la historia pasada de las variables pronosticables)”.
Esta definición de causalidad de Granger se basa en dos principios fundamentales:
1. La causa ocurre antes que el efecto.
2. La serie causal contiene información acerca de la serie causada que no esta
disponible en otras series, aquí llamada wt .
La prueba de causalidad, Granger la presenta en 1969 de la siguiente manera
m
Ao x t = Ax t − j + t
j =1
1
La precedencia de una variable sobre una variable o sobre otras variables surge de la noción de que la
causa debe suceder antes que el efecto. Francis Diebold en su libro Elementos de Pronóstico, publicado en
México por la editorial Thomson en el año de 1998, profundiza sobre el concepto de causalidad
relacionado con los pronósticos y retoma el concepto de causalidad como precedencia.
81
donde A0 es un conjunto de matrices, m puede ser infinita y t es la parte no explicada
del modelo que se incluyen como un vector de variables aleatorias llamadas ruido
blanco2, las cuales toman los valores
E ,t , s = 0 ts
E , = I
,
t s t=s
Según Granger, este modelo puede ser ilustrado mediante un VAR de dos
variables x t y y t como sigue
m m
xt = a j xt − j + b j yt − j + t
j =1 j =1
m m
yt = c j xt − j + d j yt − j + t
j =1 j =1
Como ejemplo, suponga que se quiere probar si existe causalidad entre el cambio
porcentual del tipo de cambio fix (rendimiento), del cambio porcentual del índice de
precios y cotizaciones de la Bolsa Mexicana de Valores (rendimiento) y del cambio
absoluto de la tasa de interés de los cetes a 28 días de 1996 a agosto de 2008. Para ello
sobre las tres variables dé clic en SHOW y después OK, sobre el listado de esas dos
variables, de clic en View/Granger Causality/OK y aparece los resultados de la prueba
de causalidad de Granger. Esta prueba EV la realiza con un VAR por pares de variables
y dos rezagos de cada una de ellas, si desea cambiar el número de rezagos incluidos,
debe de anotarlos antes de dar clic en OK. La hipótesis a probar aparece en forma
literal en los resultados de la prueba –la primera variable no causa en el sentido de
Granger a la segunda variable- y el criterio de decisión es: si el valor de la probabilidad
del estadístico de prueba es mayor que 0.05 no se rechaza la hipótesis nula, es decir, la
primera variable no causa a la Granger a la segunda variable. Los resultados de la
prueba para el caso del ejemplo son:
2
Una variable ruido blanco es aquella que tiene media cero, varianza constante 2y no está
autocorrelacionda.
82
Pairwise Granger Causality Tests
Date: 09/12/08 Time: 16:10
Sample: 1996M01 2008M12
Lags: 2
83
View/Lag Structure/Granger Casuality/BlockExogeneity Tests y aparece la
siguiente tabla
Para el ripyc
t-Statistic Prob.*
85
Adj. t-Stat Prob.*
t-Statistic Prob.*
86
0 -1074.701 NA 873.8547 15.28654 15.34928 15.31204
1 -1039.944 67.54221 606.4425* 14.92120* 15.17215* 15.02318*
2 -1034.400 10.53885 637.0325 14.97021 15.40938 15.14867
3 -1031.896 4.652705 698.8485 15.06235 15.68975 15.31730
4 -1026.171 10.39450 732.7074 15.10880 15.92442 15.44024
5 -1023.390 4.929476 801.3837 15.19703 16.20086 15.60495
6 -1017.625 9.976668 840.6925 15.24291 16.43496 15.72732
7 -1009.664 13.43797 855.5321 15.25764 16.63792 15.81854
8 -1003.908 9.470495 899.0999 15.30366 16.87215 15.94104
9 -992.2814 18.63590* 870.2796 15.26640 17.02311 15.98027
10 -981.9825 16.06910 859.4060 15.24798 17.19291 16.03833
87
Resultados para el VAR con nueve rezagos
Observe que según los críterios de Log likelihood, Akaike y Schwarz recomiendan
el de un rezago.
Evaluemos los modelos VAR
Veamos si ambos modelos son estables. Sobre los resultados del VAR de clic en
View/Lag Structure/AR Root Grafic
Inverse Roots of AR Characteristic Polynomial
1.5
1.0
0.5
0.0
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
Como las raíces características se encuentran dentro del círculo unitario el VAR con dos
rezagos es estable.
88
Inverse Roots of AR Characteristic Polynomial
1.5
1.0
0.5
0.0
-0.5
-1.0
-1.5
-1.5 -1.0 -0.5 0.0 0.5 1.0 1.5
.2 .2 .2
.1 .1 .1
.0 .0 .0
.2 .2 .2
.1 .1 .1
.0 .0 .0
.2 .2 .2
.1 .1 .1
.0 .0 .0
Observe que hay autocorrelación cruzada en las innovaciones de rfix con dcetes28 y
ripyc con dcetes28.
89
Autocorrelations with 2 Std.Err. Bounds
.1 .1 .1
.0 .0 .0
.1 .1 .1
.0 .0 .0
.1 .1 .1
.0 .0 .0
1 10.19384 0.3350
2 6.393424 0.7000
3 1.453589 0.9975
4 14.43962 0.1075
5 4.938293 0.8397
6 13.62792 0.1362
7 7.187000 0.6177
8 14.27531 0.1129
9 13.21709 0.1530
10 13.43748 0.1438
11 4.359905 0.8862
12 2.252297 0.9868
90
VAR Residual Serial Correlation LM
Tests
H0: no serial correlation at lag order h
Date: 09/15/08 Time: 16:45
Sample: 1996M01 2008M12
Included observations: 142
1 19.03233 0.0249
2 11.56728 0.2388
3 15.64977 0.0746
4 7.665566 0.5682
5 2.692557 0.9752
6 8.348193 0.4995
7 10.17025 0.3369
8 10.84316 0.2866
9 7.520919 0.5830
10 14.34957 0.1104
11 9.127454 0.4256
12 12.38249 0.1926
Para saber si los errores del VAR se distribuyen en forma normal, sobre los resultados
de la regresión dé clic en View/Residual Test/Normality Test. La hipótesis nula a
probar es que los errores se distribuyen en forma normal
Para el VAR con un rezagos
1 639.5796 2 0.0000
2 78.38605 2 0.0000
3 0.175391 2 0.9160
91
Component Jarque-Bera Df Prob.
1 736.0968 2 0.0000
2 37.51001 2 0.0000
3 6.593882 2 0.0370
Joint test:
Chi-sq Df Prob.
168.8574 72 0.0000
Joint test:
Chi-sq Df Prob.
Por último, también se puede observar la matriz de correlaciones de los errores. Para
ello, sobre los resultados de la regresión dé clic en View/Residual /Correlations
Matrix. La hipótesis nula a probar es que los errores no están autocorrelacionados.
Matriz de correlación de los errores del VAR con un rezagos
92
DCETES28 VPFIX VPIPYC
DCETES28 1.000000 0.251223 -0.029954
VPFIX 0.251223 1.000000 -0.461822
VPIPYC -0.029954 -0.461822 1.000000
Response of DCET ES28 to DCET ES28 Response of DCET ES28 to VPFIX Response of DCET ES28 to VPIPYC
2.5 2.5 2.5
Response of VPFIX to DCET ES28 Response of VPFIX to VPFIX Response of VPFIX to VPIPYC
2.5 2.5 2.5
Response of VPIPYC to DCET ES28 Response of VPIPYC to VPFIX Response of VPIPYC to VPIPYC
8 8 8
6 6 6
4 4 4
2 2 2
0 0 0
-2 -2 -2
-4 -4 -4
-6 -6 -6
1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12 1 2 3 4 5 6 7 8 9 10 11 12
93
DCETE
S28
Period S.E. DCETES28 VPFIX VPIPYC
VCPFIX
Period S.E. DCETES28 VPFIX VPIPYC
VPIPYC
Period S.E. DCETES28 VPFIX VPIPYC
94
En primera parte de la función estímulo respuesta se encuentran los datos de la
participación porcentual de cada movimiento en rfix y del ripyc sobre dcetes28. De esta
manera, el 25.0% de los movimientos de dcetes28 a un año están explicados por los
movimientos del rfix, mientras que el ripyc contribuye en 7.5 % en el movimiento de
dcetes28. Las variaciones de ambas variables explica el 32.5% de los movimientos en
dcetes28% (suma horizontal). Como ejercicio, interprete las dos tablas siguientes.
Los modelos de regresión multivariados son muy útiles cuando se trata de pronosticar
a una variable a través de sus fundamentos, porque al contener más variables, el
pronóstico tiene una mayor información para realizarse. En economía y en las finanzas,
abundan los argumentos teóricas de relaciones entre las variables y de equilibrio a largo
plazo entre ellas que después, por medio de modelos econométricos, se tratar de probar
y explicar en la práctica. Los desarrollos en las técnicas econométricas, han logrado
medir si las variables que se relacionan en los modelos tienden al equilibrio a largo
plazo por medio del concepto de cointegración. Este concepto es el siguiente:
Aunque dos series x t y y t , individualmente, sean I(d) puede existir entre ellas una
combinación lineal zt = xt + ayt integrada de orden cero (estacionaria), si esto ocurre
se dice que ambas series están cointegradas o que hay una relación cointegrante entre
ellas.
El hecho que dos o más series estén cointegradas significa que hay equilibrio a largo
plazo, es decir, que las series se moverán muy cerca en el tiempo y la diferencia entre
ellas será estable (estacionaria). Esta diferencia, estará medida por la variable z t que es
el error hacia el equilibrio de largo plazo.
En un modelo de regresión lineal de k variables Y = X̂ + e se dirá que las variables
Y , X 1 , X 2 ,..........., X k están cointegradas, si los errores estimados son estacionarios,
de lo contrario dichas regresiones son espurias.
Cuando las series están cointegradas, los vectores que se construyan entre las
variables, las pruebas de causalidad y los modelos de regresión de corto plazo tendrán
que incluir a la variable zt = xt + ayt o bien al mecanismo de corrección del error.
Un modelo de dos variables cointegradas de orden p, que incluya el mecanismo de
corrección del error, se expresaría en el siguiente VAR como
p p
xt = 1 z t −1 + i xt −i + i yt −i + 1t
i =1 i =1
p p
yt = 2 z t −1 + i xt −i + i yt −i + 2t
i =1 i =1
Observe que la 2) o 3) opción son iguales en la última fila por tanto e indistinto elegir
cualquiera. Si elige la 3) los resultados de la prueba de cointegración es la siguiente.
97
Vector Error Correction Estimates
Date: 09/22/08 Time: 16:27
Sample: 2006M01 2007M12
Included observations: 24
Standard errors in ( ) & t-statistics in [ ]
LCETES28(-1) 1.000000
LFIX(-1) 2.495513
(0.39317)
[ 6.34717]
LIPYC(-1) 0.047393
(0.03490)
[ 1.35779]
C -8.416713
98
C 0.004674 0.001059 0.027018
(0.00441) (0.00446) (0.01734)
[ 1.06001] [ 0.23726] [ 1.55771]
Note que en el resultado del VAR con mecanismo de corrección del error aparece la
ecuación cointegrante y el VAR es estimado en primeras diferencias del logaritmo de
las series, es decir, en cambio relativo de las series o en tasas de crecimiento.
Por otro lado, observe que los rezagos de las variables no son estadísticamente
significativos en ningún caso. Para efectos de la evaluación del VAR, este no es bueno.
Para efectos de la prueba de causalidad cuando las series están cointegrados, la no
significacia estadística de los coeficientes indica que ninguna de las variables se está
causando o bien que son independientes. Para efectos de la prueba de exogeneidad
fuerte, los resultados indican que las tres variables son exógenas.
99
1.- Realiza la prueba de exogeneidad de Hausman a cada una de las variables exógenas
del trabajo.
La prueba se realiza de la siguiente manera.
i) Estima una regresión de cada una de las variables exógenas del modelo sobre
las variables instrumentales y sobre el resto de las variables exógenas del
modelo original
ii) Recupera los errores de cada regresión. Esto se realiza inmediatamente
después que se estima cada regresión. Escribe en el programa EV genr
error1=resid y EV te guarda en la hoja de trabajo los errores de la regresión
de la variable exógena seleccionada del inciso i).
iii) Estima la regresión original agregando la variable error1 (los errores
estimados) como variable explicativa.
iv) Si el coeficiente de los errores estimados en la regresión del modelo original
es estadísticamente significativa, la variable exógena seleccionado debe
considerarse como endógena..
v) Así sucesivamente con las otras variables que consideraste exógenas en el
modelo original.
2.- Si ninguna de las variables exógenas del modelo original, después de realizar la
prueba de exógeneidad de Hausman, resulta endógena estima otro modelo. Puede ser
un modelo dinámico, éste por tener una variable endógena como explicativa, presentará
el problema de autocorrelación y endogeneidad de las variables explicativas..
3.- Estima el modelo uniecuacional con el problema de endogeneidad en las variables
explicativas por el método de MC2E que es igual al de variables instrumentales, las
instrucciones de cómo se estima una regresión por este método se encuentran en los
párrafos de la nota importante. Si es un modelo dinámico entonces se puede estimar por
el método de Mínimos Cuadrados Generalizados (transformación de las variables en
diferencias absolutas, sobre todo si las variables son tasa, diferencias de los logaritmos
(cambios relativos) ó cambios porcentuales), con estimadores robustos tipo White.y
también por MC2E. .
4.- Evalúa el modelo económicamente y econométricamente, si tiene algún problema
(multicolinialidad, heteroscedasticidad, autocorrelación, no normalidad, cambio
estructural, etc), debes corregirlo.
NOTA IMPORTANTE. En el paquete EV 7.2 o más, viene una prueba que recibe el
nombre de prueba de endogeneidad de los regresores de Durbin-Wu-Hausman. Esta
prueba está disponible cuando se estima la regresión por el método (MC2E) y por el
método (MGM).
La prueba se realiza de la siguiente manera:
Dar clic en Quick/Estimate Equation. En la ventana que aparece anotar a la variable
endógena, la constante y las variables explicativas, cada una separada con un espacio e
ir a la flecha y dar clic, este comando muestra los distintos métodos de estimación del
modelo de regresión, seleccionar MC2E (TSLS). Cuando se da clic en MC2E, aparece
otra ventana donde se encuentra el modelo y en la parte de abajo te dice que anotes a las
variables instrumentales, recuerda que las variables instrumentales son aquellas que no
están relacionadas con el término de error pero si con las variables explicativas (ten
presente, que las variables instrumentales pueden ser la variable endógena rezagada,
las variables exógenas rezagadas o cualquier otra variable que se considere como
explicativa de las explicativas y que no se encuentra dentro del modelo que se plantea o
el original) y dar clic en OK. Si al dar OK, aparece insuficiente número de
instrumentos, meter más variables instrumentales.
100
Cuando sale el resultado de la regresión dar clic en aceptar y después dar clic en
View/IV Diagnostic and test/Regressor Endogeneity Test: Con este comando
aparecen todas tus variables explicativas de modelo original, deja una y borra todas las
demás, con ello se realiza la prueba de endogeneidad para cada una de las variables que
se supuso eran exógenas pero quizá son endógena, y dar OK, inmediatamente después
aparece una ventana con el resultado de la prueba, la HIPOTESIS NULA DE LA
PRUEBA ES: EL REGRESOR ES EXÓGENO. Si el valor de la probabilidad del
estadístico de prueba es mayor que 0.05 no se rechaza la hipótesis nula de exogeneidad
de la variable con la cual se realizó la prueba. Repite las indicaciones con las mismas
variables instrumentales y con cada uno de los distintos regresores. Muestra los
resultados de la prueba de endogeneidad y explica.
Si por lo menos una o varias variables explicativas del modelo de regresión lineal es
endógena en lugar de exógena, el método de MCE que se está utilizando es el correcto
y no el de Mínimos Cuadrados Ordinarios porque los estimadores serán sesgados e
inconsistentes.
5.- También estima un modelo de ecuaciones simultáneas de dos o tres ecuaciones.
Con las variables que resultaron ser endógenas en vez de exógenas plantea el modelo de
ecuaciones simultáneas o bien puedes estimar un modelo de ecuaciones simultáneas que
venga en los libros de econometría con datos de la economía mexicana. Con un mínimo
de 60 datos mensuales o trimestrales, partiendo de los actuales hacia atrás.
i) Plantea la forma reducida del modelo sin estimar los coeficientes de esta
forma. Por definición, la forma reducida del modelo, es aquella donde las
variables endógenas se encuentran en función solo de las exógenas o
predeterminadas.
ii) Identifica ecuación por ecuación.
iii) Para estimar el modelo, cada ecuación debe estar identificada por la
condición de rango y exactamente identificada y/o sobreidentificada por la
condición de orden.
iv) Estima el modelo por el método de MC2E.
v) Las variables instrumentales, para cada ecuación son las variables exógenas
ó predeterninadas de la forma reducida, por lo cual al estimar cada ecuación,
los instrumentos serán los mismos. Recuerda que el paquete EV te pide los
instrumentos cuando se estima ecuación por ecuación por el método de
MC2E.
6.- Evalúa el modelo económicamente y econométricamente
101
TERCER TRABAJO DE ECONOMETRÍA II
ESQUEMA PARA ELABORAR EL TRABAJO DE VARIABLE DEPENDIENTE
LIMITADA
102