Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometria Con Excel
Econometria Con Excel
CON EXCEL
SERGIO ZIGA
Universidad Catlica del Norte
Julio, 2004
PRESENTACION
Es sabido que el estudio de la econometra requiere, en apoyo al estudio de los aspectos
conceptuales, la estimacin emprica de los modelos economtricos para anlisis, contrastacin
y prediccin. Para esto el estudiante debe estar familiarizado con un buen programa de
ordenador, de los cuales existen en el mercado muchas alternativas, como por ejemplo RATS,
E-Views, Limdep, Gauss, Stata o SAS, cada uno de ellos con caractersticas especiales. Este
libro se ocupa de introducir al lector en el programa Excel.
Si bien Excel no es el programa preferido por los econometristas, a travs de este libro
mostramos la forma en que ste puede ayudar a alcanzar la mayor parte de los objetivos
planteados para una asignatura de econometra de pregrado.
Como se ver, este libro es un texto de apoyo en los laboratorios computacionales de
econometra, es decir tiene un objetivo netamente prctico, por lo cual hemos intentado
presentar y resolver gran nmero de ejemplos numricos, a costa de centrarnos solo en los
aspectos fundamentales de la teora subyacente, la que asumimos ser estudiada en alguno de
los nmerosos libros de texto introductorio existentes, tales como Introduccin a la
Econometra de Maddala, Anlisis Economtrico de Green, Introduction to the Theory and
Practice of Econometrics de Judge et al., y Econometra de Gujarati.
INDICE
PRESENTACION ............................................................................................................................................................. 1
CAPTULO 1..................................................................................................................................................................... 1
EL PROGRAMA EXCEL ................................................................................................................................................ 1
1.1.
ESTADISTICA DESCRIPTIVA CON EXCEL ................................................................................................ 1
1.2.
SESGO, CURTOSIS Y NORMALIDAD.......................................................................................................... 4
1.3.
GRAFICOS DE PROBABILIDAD NORMAL................................................................................................. 6
1.4.
HISTOGRAMA ................................................................................................................................................ 9
1.5.
OPERACIONES CON ESCALARES Y MATRICES .................................................................................... 11
a) Crear una frmula matricial.................................................................................................................................. 11
b) Calcular un nico resultado .................................................................................................................................. 11
c) Calcular varios resultados ..................................................................................................................................... 11
d) Operaciones Matriciales........................................................................................................................................ 12
1.6.
DISTRIBUCIONES DE PROBABILIDAD.................................................................................................... 13
1.7.
POTENCIA DE UN TEST .............................................................................................................................. 15
1.7.1. APLICACIN: SELECCIN ENTRE TESTS ALTERNATIVOS ................................................................. 16
1.8.
NIVEL DE SIGNIFICANCIA MARGINAL: CDF O P-VALUE.................................................................... 17
1.8.1. Distribucin Normal......................................................................................................................................... 17
1.8.2. Distribucin t.................................................................................................................................................... 18
1.8.3. Distribucin F .................................................................................................................................................. 19
1.8.4. Distribucin Chi cuadrado............................................................................................................................... 20
1.9. PRUEBAS SOBRE LA MEDIA EN EXCEL ......................................................................................................... 21
1.9.1. Inferencia respecto a una Media...................................................................................................................... 21
1.9.2. Diferencia de dos Medias (Univariado)........................................................................................................... 22
1.9.3. Inferencia En Excel .......................................................................................................................................... 23
1.10.
SERIES DE DATOS........................................................................................................................................ 26
CAPTULO 2................................................................................................................................................................... 28
EL MODELO DE REGRESIN LINEAL................................................................................................................... 28
2.1.
INTRODUCCIN: QUE ES LA ECONOMETRA? .................................................................................... 28
2.2.
ESTIMACIN DE MODELOS DE REGRESIN ......................................................................................... 28
2.2.1. EL MTODO DE MNIMOS CUADRADOS ................................................................................................... 29
2.2.2. IMPLEMENTACIN DE MCO ....................................................................................................................... 31
2.3.
PRUEBA DE HIPTESIS............................................................................................................................... 33
2.3.2. LA DISTRIBUCIN DE b Y SUS PROPIEDADES ..................................................................................... 33
2.3.3. LA MATRIZ DE COVARIANZAS DE LOS ERRORES ................................................................................ 34
2.3.4. UNA MEDIDA DEL XITO DE AJUSTE.................................................................................................... 36
2.4. CASO DE ESTUDIO .............................................................................................................................................. 38
2.4.1. Describiendo los Datos .................................................................................................................................... 38
2.4.2. Calculando Estadsticas ................................................................................................................................... 39
2.4.3. Transformacin de datos y creacin de nuevas series ..................................................................................... 39
2.4.5. Grficos de Series de Tiempo........................................................................................................................... 40
2.4.6. Grficos X-Y (Scatter) ...................................................................................................................................... 40
2.4.7. CASO DE ESTUDIO: Corriendo la Regresin 1 ............................................................................................. 42
2.4.8. CASO DE ESTUDIO: Corriendo la Regresin 2 ............................................................................................. 43
2.5.
INTERPRETACION DE LOS COEFICIENTES DE REGRESIN............................................................... 45
4.3.4.
4.4.
ESTIMACION ROBUSTA ............................................................................................................................ 91
4.4.1. CORRECCION DE WHITE (1980) ............................................................................................................. 92
4.4.2. CORRECCION DE NEWEY Y WEST (1987) .............................................................................................. 93
4.4.
MULTICOLINEALIDAD............................................................................................................................... 95
4.4.1. MULTICOLINEALIDAD PERFECTA......................................................................................................... 95
4.4.2. MULTICOLINEALIDAD MUY ALTA.......................................................................................................... 95
4.5.3. SOLUCIONES A LA MULTICOLINEALIDAD ........................................................................................... 96
CAPTULO 5................................................................................................................................................................... 97
ESTACIONARIEDAD Y COINTEGRACIN............................................................................................................ 97
ii
5.1.
REGRESIONES ESPUREAS ......................................................................................................................... 97
5.2.
ESTACIONARIEDAD ................................................................................................................................... 99
5.2.1. DEFINICIN ................................................................................................................................................... 99
5.2.2. SERIE ESTACIONARIA ................................................................................................................................... 99
5.2.3. SERIE NO ESTACIONARIA .......................................................................................................................... 101
5.3. PRUEBAS DE ESTACIONARIEDAD ................................................................................................................ 103
5.3.1. CORRELOGRAMA Y TEST Q ....................................................................................................................... 103
5.3.2. PRUEBAS DE RAICES UNITARIAS: Dickey y Fuller .............................................................................. 105
5.3.3. PRUEBAS DE RAICES UNITARIAS: Augmented Dickey Fuller (ADF) Test ........................................... 106
5.3.
DIFERENCIACION DE SERIES I(1)........................................................................................................... 108
5.4.
COINTEGRACIN: PRUEBA DE ENGLE-GRANGER ............................................................................ 110
5.4.1. INTRODUCCIN ...................................................................................................................................... 110
5.4.2. DEFINICIN FORMAL DE COINTEGRACION...................................................................................... 111
5.4.3. PRUEBA DE ENGLE-GRANGER (1987).................................................................................................. 113
5.4.4. TEOREMA DE REPRESENTACION DE GRANGER.................................................................................... 114
5.5. COMENTAROS FINALES .................................................................................................................................. 116
CAPTULO 6................................................................................................................................................................. 117
INTRODUCCIN A LA PREDICCIN EN EXCEL............................................................................................... 117
6.1.
EL ERROR DE PREDICCIN ..................................................................................................................... 119
6.2.
PREDICCIN ESTATICA ........................................................................................................................... 119
6.3.
CASO PRCTICO........................................................................................................................................ 122
a) Tasa de Ocupacin (OCCUP) ............................................................................................................................. 123
b) Ingreso por Habitacin (Room Rate)................................................................................................................... 125
c) Nmero de Habitaciones (ROOMS)..................................................................................................................... 126
d) Prediccin Final .................................................................................................................................................. 127
6.4. MEDIDAS DE ERROR DE PREDICCION.......................................................................................................... 128
6.4.1. Error Cuadrtico Medio (Mean Squared Error, MSE).................................................................................. 128
6.4.2. Promedio del Error Absoluto (Mean Absolute Error, MAE) ......................................................................... 128
6.4.3. Promedio del Porcentaje de Error Absoluto (Mean Absolute Percentage Error, MAPE)............................. 128
6.4.4. Ejemplo de Clculo ........................................................................................................................................ 129
CAPTULO 7................................................................................................................................................................. 130
MODELOS ARIMA...................................................................................................................................................... 130
7.1.
9.2.
9.2.1.
9.2.2.
9.3.
9.3.1.
9.3.2.
9.3.
7.4.
9.4.1.
9.4.2.
9.4.3.
9.4.4.
iii
iv
CAPTULO 1
EL PROGRAMA EXCEL
En el cuadro de dilogo de Estadstica descriptiva, lo nico que s "obligatorio" suministrar son los
datos a analizar (Rango de entrada) y el lugar en donde se desea escribir los resultados (Rango de
salida).
Ejemplo. Se tienen datos de la cantidad de produccin (kg), capital ($)y de trabajo (horas) de 10
empresas:
El resultado es el siguiente:
CAPITAL
Media
Error tpico
Mediana
Moda
Desviacin estndar
Varianza de la muestra
Curtosis
Coeficiente de asimetra
Rango
Mnimo
Mximo
Suma
Cuenta
Mayor (2)
Menor(2)
Nivel de confianza(95,0%)
5,6
0,733333333
6
6
2,319003617
5,377777778
-1,11811742
-0,058802684
7
2
9
56
10
8
3
1,658915249
Nota: Muchos de estos resultados anteriores pueden obtenerse individualmente a travs del men
Insertar/Funcin, y all ir dentro de las funciones estadsticas.
Histograma de residuos
Normal Probability Plot
Anderson-Darling normality test (A2 stat)
Jarque-Bera (JB) test of Normality (asinttico)
Por ahora estamos interesados en la prueba de Jarque Bera, la que tiene la siguiente
specificacin:
S2 K2
a
JB = T
+
24
6
2 ( 2)
Las definiciones y pruebas estadsticas para el sesgo y la curtosis son las siguientes:
a) Sesgo:
En Excel: =coeficiente.asimetria( )
La prueba estadstica de que el sesgo es cero se basa en una Normal, y es:
b) Curtosis:
En Excel: =curtosis( )
La prueba estadstica de que la curtosis es cero se basa en una Normal, y es:
Ejemplo: Siguiendo el ejemplo de la serie CAPITAL anterior mostramos el clculo de stas. Los
resultados a obtener son los siguientes:
Observaciones
Media Muestral
Desv estandar
Varianza
Error est de la media
Estadistico t
Sesgo
Curtosis
Jarque Bera
10
5,6
2,319003617
5,377777778
0,733333333
7,636363636 Pruebas de Hipotesis Significancia a 1 cola
-0,058802684
-0,064415113
0,948639697
-1,11811742
-0,488540664
0,62516693
0,526673995
0,526673995
0,768482877
1.
Las observaciones son rankeadas (ordenadas) de la menor a la mayor, x(1), x(2), . . ., x(n).
2.
Las observaciones ordenadas x(j) son graficadas contra su frecuencia acumulativa observada,
tipicamente; j/(n + 1)) sobre un grfico con el eje Y apropiadamente escalado para la distribucin
hipotetizada.
3.
Si la distribucin hipotetizada describe adecuadamente los datos, los puntos graficados se ubican
aproximadamente sobre una lnea recta. Si los puntos se desvan significativamente de la
linearecta, especialmente en las puntas, entonces la distribucin hipotetizada no es apropiada.
4.
Para valorar la cercana de los ountos a la lnea recta, la prueba del grosor de un lpiz se usa
comunmente. Si todos los puntos se encuentran dentro del lapis imaginario, entonces la
distribucin hipotetizada es probablemente la apropiada.
Ejemplo: Los siguientes datos representan el grosor de una hoja plstica, en micrones: 43, 52, 55, 47,
47, 49, 53, 56, 48, 48
Ordered data Rank order Cumulative Frequency
(j)
( j/(n + 1))
43
1
1/11 = .0909
47
2
2/11 = .1818
47
3
3/11 = .2727
48
4
4/11 = .3636
48
5
5/11 = .4545
49
6
6/11 = .5454
52
7
7/11 = .6363
53
8
8/11 = .7272
55
9
9/11 = .8181
56
10
10/11 = .9090
Los datos ordebados son graficados contra su respectiva frecuencia acumulada. Note como el eje Y es
escalado tal que una lnea recta resultar para datos normales.
Basados en el grfico, parece que los datos se encuentran normalmente distribudos. Sin embargo
se requieren otras pruebas estadsticas para concluir que el supuesto de normlidad es apropiado.
En Excel puede obtenerse este grfico en Herramientas / Analisis de Datos / Regresion / y all
seleccionando la opcion Grafico de probabilidad normal.
Para el caso de la serie 'Capital' del ejemplo que se ha estado analizando, se tiene el siguiente
resutado a partir de Excel.
1.4. HISTOGRAMA
Un histograma es un grfico para la distribucin de una variable cuantitativa continua que
representa frecuencias mediante el volumen de las reas. Un histograma consiste en un conjunto de
rectngulos con (a): bases en el eje horizontal, centros en las marcas de clase y longitudes iguales a los
tamaos de los intervalos de clase y (b): reas proporcionales a las frecuencias de clase.
Si en la distribucin se toman clases de la misma longitud, las frecuencias son proporcionales a las
alturas de los rectngulos del histograma ya que el rea se obtiene multiplicando la base por la altura por
lo que queda similar a un diagrama de barras, solo que ahora las barras van una junto a otra por tratarse
de una variable continua.
En Excel, la herramienta para histogramas se encuentra en Herramientas / Anlisis de Datos /
Histograma. Antes de ejecutarla se puede (es opcional) definir el 'Rango de Clases', a fin de definir las
divisiones para cada rango del histograma. El 'Rango de Clases' son valores lmite que definen rangos de
clase, los que debern estar en orden ascendente. Si se omite el rango de clase, Excel crear un conjunto
de clases distribuidas uniformemente entre los valores mnimo y mximo de los datos.
Ejemplo: En el ejemplo de la serie 'Capital' un histograma es obtenido de la siguiente forma:
Histograma
120,00%
3,5
100,00%
2,5
Frecuencia
80,00%
2
60,00%
Frecuencia
% acumulado
1,5
40,00%
1
20,00%
0,5
0,00%
2
4,333333333
6,666666667
y mayor...
Clase
10
- Haga clic en la celda en que desee introducir la frmula matricial (en B5).
- Escriba la frmula matricial. Cuando se escribe la frmula ={SUMA(B2:C2*B3:C3)} como frmula
matricial, se multiplica las acciones y el precio correspondiente a cada cotizacin, y luego se suma los
resultados de estos clculos.
- Presione CTRL+MAYS+ENTRAR.
11
Presione CTRL+MAYS+ENTRAR.
d) Operaciones Matriciales
Existen una serie de operaciones matriciales en Excel, siendo las ms usadas las siguientes:
MDETERM Devuelve la matriz determinante de una matriz
MINVERSA Devuelve la matriz inversa de una matriz
MMULT Devuelve la matriz producto de dos matrices
Vemos un ejemplo para el caso de una multiplicacin.
- Seleccione el rango de celdas en que desee introducir la frmula matricial. Para esto debe calcularse la
dimensin resultante de la operacin matricial. Por ejemplo, si se multiplican dos matrices de dimensiones
2x3, y 3x4 respectivamente, las celdas de la formula matricial que deben seleccionarse es de dimensin
2x4.
19
29
28
42
44
66
46
69
12
f (x / , 2 ) =
1
1 SCErrt
EXP
2
2
2
donde SCErr representa la suma cuadrada de errores, es decir de desviaciones respecto a la media.
Cuando se tienen n variables aleatorias normales Z distribuidas independiente e idnticamente,
entonces la distribucin conjunta multivariada con media y matriz de covarianza 2 es:
g ( x) = 2 n / 2
1/ 2
EXP ( x )' 1 ( x )
2
1)
t (r ) =
2 (r )
r
Es decir, una variable aleatoria normal estndar dividida por la raz cuadrada de una variable
aleatoria chi cuadrada con r grados de libertad dividida por r, se distribuye como una t con r grados de
libertad (gl).
2 (r1)
2)
F (r1, r 2) =
r1
( r 2)
2
r2
Es decir, una variable F con r1 gl en el numerador y r2 gl en el denominador corresponde a una
chi-cuadrada con r1 gl dividida por r1, dividida por otra chi-cuadrada con r2 gl dividida por r2.
3)
Z2
(1)
Es decir, una variable aleatoria normal estndar al cuadrado se distribuye chi-cuadrado con 1
grado de libertad.
4)
2
Z 12 + Z 22 + ... + Z n2
( n)
13
Es decir, la suma de n variables aleatorias normales estndar al cuadrado se distribuye chicuadrado con n grados de libertad. Este resultado puede generalizarse cuando se trata de variables
normales no estandarizadas
X N ( , ) :
( X )' 1 ( X ) 2 (n)
14
El punto es que en la prctica no es posible hacer ambos errores arbitrariamente pequeos, pues
reduciendo la probabilidad de cometer un error aumenta la probabilidad de cometer el otro error. Sin
embargo es ms grave el Error del tipo I que el Error del tipo II: es peor condenar a una persona inocente
que dejar libre a un culpable, y por este motivo se trata que la magnitud del error del tipo I sea fijado
usualmente a un valor pequeo, es decir queda bajo control del analista:
Error tipo I :
Rechazar Ho cuando es verdadera (gravsimo)
Error tipo II:
No rechazar Ho cuando es Falsa (grave)
15
A
B
C
A
B
=10.4
=10.2
=11.0
Potencia Potencia Potencia
0.19
0.05
0.89
0.43
0.98
0.19
Luego:
Al aumentar el tamao del error del tipo I de 0.0102 a 0.0537, el error del tipo II disminuye de
0.8133 a 0.5714, y viceversa (no es posible eliminar ambos errores).
Puesto que puede tolerarse un error del tipo I de 0.06, entonces la prueba B es mejor que la A,
debido a que su potencia es mayor para distintos valores de .
El anlisis de potencia permite determinar el tamao muestral apropiado para cumplir ciertos
niveles predefinidos de y .
16
=DISTR.NORM.ESTAND.INV(0,975) = 1,95996
17
1.8.2. Distribucin t
Excel solo puede entregar los valores crticos de la t de la derecha (los positivos), y lo hace
acumulando la probabilidad de derecha a izquierda a 2 colas (ej. si decimos al 5%, distribuir 2,5% en cada
cola).
DISTR.T.INV(probabilidad de 2 colas;grados_de_libertad)
Ejemplo: los valores crticos de la t con 4 gl, y al 95% a 2 colas son: -2,776 y 2,776
=DISTR.T.INV(0,05;4) = 2,776
Nota: Puede obtenerse un valor t crtico de 1 cola reemplazando p por 2*probabilidad.
Ejemplo (significancia): Si el valor t calculado es 3,69, con 4 gl, y al 95% a 2 colas, entonces la
significancia (p-value) es:
=DISTR.T(3,69;4;2) = 0,02101873
lo que implica que Ho es rechazado al 2,1% (a 2 colas), y tambin al 5%.
Es importante notar que la funcin =DISTR.T(.) no acepta argumentos negativos, es decir, solamente puede
buscarse la significancia en el lado derecho de la distribucin.
18
1.8.3. Distribucin F
Excel entrega los valores crticos de la F acumulando la probabilidad de derecha a izquierda y a 1
cola.
DISTR.F.INV(probabilidad de 1 cola;gl Num;gl Denom)
Ejemplo: El valor crtico de una F(1,4) a 1 cola al 95% es:
=DISTR.F.INV(0,05;1;4) = 7,70864742
Ejemplo (significancia): Si el valor F(3,30) calculado es 3,0, entonces la significancia (p-value) a 1 cola es:
=DISTR.F(3;3;30) = 0,04606
lo que implica que Ho es rechazado al 5% a 1 cola.
19
20
88,9
6,417770468
90
#N/A
20,29477218
411,8777778
-1,230556217
-0,154506756
61
57
118
889
10
14,5180054
21
Z =
X Y ( 1 2 )
2
1
N (0,1)
Ejemplo: El anlisis de una muestra de m = 20 personas arroj una edad media de 29.8 aos. Una
segunda muestra de n = 25 tuvo un promedio de 34.7 aos. Las distribuciones de la edad son normales
con
1 = 4.0 y 2 = 5.0. Son las edades diferentes: Ho:1=2? Realice el test con un = 0.01
Z =
29.8 34.7
4.9
=
3.65
16 25 1.3416
+
20 25
Media
M = 129
X = 107.6
Y = 123.6
N = 129
Conclusiones:
Kg mm 2
(1.3)2
129
(2.0)2
129
Desviacin Estndar
S1 = 1.3
S2 = 2.0
2 > 1. 2 es aproximadamente 16
Kg
mm 2
ms grande que 1
22
Problema de Behrens-Fisher
La solucin ms simple al caso de varianzas desiguales es llamada la aproximacin a la t de
Welch, la que corrige los grados de libertad de la t como sigue:
2
s12 s 22
+
n n
gl = 12 2 2
s 22
s12
n
1 + n2
n1 1 n2 1
El resultado puede ser no entero, y entonces se lo aproxima al entero ms cercano.
Media
Varianza
Observaciones
Varianza agrupada
Diferencia hipottica de las medias
Grados de libertad
Estadstico t
P(T<=t) una cola
Valor crtico de t (una cola)
P(T<=t) dos colas
Valor crtico de t (dos colas)
Variable 1
13091,9676
8617742,74
216
49131619
0
472
-11,1523866
4,2491E-26
1,64808834
8,4981E-26
1,96500259
Variable 2
20301,3953
83024550,6
258
La prueba t arroja un valor de 11,152 para 472 grados de libertad. La significancia estadstica a
dos colas es prcticamente cero, y se rechaza la igualdad de medias de salarios.
La diferencia de las medias es 7.209,43 y el error estandar de la diferencia es 646,45. Un
intervalo de confianza para la diferencia de media es (5.939,16 ; 8.479,70).
23
Media
Varianza
Observaciones
Diferencia hipottica de las medias
Grados de libertad
Estadstico t
P(T<=t) una cola
Valor crtico de t (una cola)
P(T<=t) dos colas
Valor crtico de t (dos colas)
Variable 1
13091,9676
8617742,74
216
0
319
-11,9874833
6,9028E-28
1,64964432
1,3806E-27
1,96742832
Variable 2
20301,3953
83024550,6
258
La prueba t arroja un valor de 11,987 para 318,818 grados de libertad. La significancia estadstica
a dos colas es prcticamente cero.
La diferencia de las medias es 7.209,43 y el error estandar de la diferencia es 601,41. Un
intervalo de confianza para la diferencia de media es (6.026,19 ; 8.392,67).
t=
20301,4 13091,97
2
9111 2935
+
258
216
7209.4
= 11.987
601.4
medias de salarios.
El IC es: 7209,43 +/- 1.96*601,412
24
Media
Varianza
Observaciones
Coeficiente de correlacin de Pearson
Diferencia hipottica de las medias
Grados de libertad
Estadstico t
P(T<=t) una cola
Valor crtico de t (una cola)
P(T<=t) dos colas
Valor crtico de t (dos colas)
Variable 1
34419,5675
291578214
474
0,88011747
0
473
35,0359608
8,051E-134
1,64808148
1,61E-133
1,96499192
Variable 2
17016,0865
61946945
474
25
Las series de corte transversal son observaciones de determinadas variables en un momento del
Ejemplo: Las series Capital y Reservas (en millones de pesos) de los bancos nacionales,
en enero de 1990, constituyen una serie de corte transversal.
Banco
1
2
3
4
5
6
7
Capital y Reservas
3.661
5.590
3.047
9.296
6.604
6.908
8.122
Las series de tiempo estn constituidas por observaciones de un nmero de variables a travs del
tiempo (diarias, mensuales, anuales, etc.).
Ejemplo: La serie Producto Interno Bruto anual de Chile en $ reales de 1986 entre 1972 y
1976 es una serie de tiempo.
AO
1972
1973
1974
1975
1976
Los datos de panel estn constituidos por combinaciones de datos de corte transversal y series de
tiempo.
26
Hemos sealado que los datos economtricos pueden ser de 3 tipos: corte transversal, series de
tiempo y datos de panel. Excel no est diseado especialmente para trabajar con datos de panel.
27
CAPTULO 2
EL MODELO DE REGRESIN LINEAL
28
Los modelos economtricos pueden ser lineales o no lineales en los parmetros 4. Son lineales
cuando la variable explicada (dependiente) puede ser escrita como una combinacin lineal de las variables
explicativas (independientes). Por ahora trabajaremos solamente con modelos lineales.
Ejemplo: Modelo Lineal:
Yt = 0 + 1Yt 1 + 2 X t + t
Yt = 0 + 1Yt 1 + 22 X t + t
VENTAS t = 0 + 1 PUBLICIDADt + t
La relacin lineal entre las ventas (y) y los gastos en publicidad (x)
Ejemplo:
;* es
La no linealidad se refiere a los parmetros, puesto que la no linealidad de las variables consiste simplemente en una
transformacin de stas.
29
Consumo
Relacion Ingreso-Consumo
45,0
40,0
35,0
30,0
25,0
20,0
15,0
10,0
5,0
0,0
0,0
10,0
20,0
30,0
40,0
50,0
Ingreso
Variable endgena Y
Es conveniente suponer que Y es una variable aleatoria, es decir las observaciones de Y son
sucesos observados en un experimento, y que stos tienen alguna distribucin como se muestra a
continuacin:
Valores posibles de Y
dado un valor de X
Y=a+bX
Variable Exogena X
Se agrega un trmino de Error (e) pues la relacin entre X e Y es estocstica, lo que se puede deber a:
- Elementos impredecibles (aleatorios) del comportamiento humano.
- Gran nmero de variables omitidas, algunas no cuantificables.
- Errores de medicin en y.
30
As, si efectivamente la relacin subyacente es lineal, uno esperara que a travs de repeticiones
sucesivas de Y (experimentos repetidos) se obtendra observaciones con frecuencias como las descritas
en cada distribucin de la ilustracin, de modo que el error esperado de cada observacin sea cero.
Un supuesto importante en esta parte es que si bien Y y X son observables, X est fijo es decir es
una variable completamente definida por el investigador. Por el contrario Y es estocstico, producto que
existe el error en el modelo, y este error es estocstico, efecto que se transmite a Y.
es decir:
Y1
Y
2
Y = .
.
YT
1
X = .
X X
X X
11
12
21
.
.
22
.
.
X X
T1
T2
.
.
.
.
.
.
.
.
.
.
X
X
ik
2k
.
XTk
0
1
= .
.
k
1
2
= .
.
T
donde Y es el vector de variables explicadas por el modelo, X es una matriz de valores conocidos de
variables explicatorias fijas o no estocsticas 6, es un vector tal que (X,) es una secuencia de vectores
aleatorios independientes 7, y es un vector de K parmetros desconocidos. Para efectos de notacin
matricial, el primer subndice de X indica el nmero de la observacin y el segundo identifica la variable.
El mtodo de mnimos cuadrados (MCO) para encontrar los coeficientes que proporcionan el
mejor ajuste consiste en minimizar la suma cuadrada de errores, S. Esta suma cuadrada de errores
resulta ms sencilla de expresar en trminos matriciales como sigue:
Expresemos el vector de errores como la siguiente diferencia:
= ( y X )
luego, la suma cuadrada de errores es:
31
S = ( y X )' ( y X )
= ( y ' ' X ' )( y X )
= y ' y ' X ' y y ' X + ' X ' X
= y ' y 2 ' X ' y + ' X ' X
El objetivo de MCO es encontrar el valor del vector de coeficientes que minimice S, para lo cual
debe derivarse S respecto a b (el estimador de MCO), es decir:
S
= 2 X ' y + 2 X ' X = 0
X ' Xb = X ' y
b = ( X ' X ) 1 X ' y
Luego, el estimador de MCO de es b y viene dado por:
b = ( X ' X ) 1 X ' y
que es un vector aleatorio puesto que, como se ve, es una funcin lineal de Y. Ntese que b tiene
dimensin Kx1, de modo que para el caso de un modelo lineal simple, K=2, y el elemento (1,1) de b ser
el intercepto, y el elemento (2,1) ser la pendiente.
As hemos mostrado que el estimador de MCO de los coeficientes de regresin (b) viene dado por
el producto de la matriz X y del vector Y. Luego, el procedimiento para calcular b es meramente
matemtico.
32
Cov (b1 , b2 )
Var (b1 )
Cov (b , b )
Var (b2 )
2
1
E [(b )(b )'] =
Var (bk )
donde los elementos de la diagonal son las varianzas de cada coeficiente, los que se encuentran fuera de
la diagonal son las covarianzas.
As, b tiene la siguiente distribucin general 9:
Ntese tambin que el comportamiento de los errores (), es decir la matriz de varianzas y
covarianzas de los errores, E(), tiene gran importancia en la esperanza y la varianza de b. En efecto,
para que b sea un estimador insesgado de (es decir E(b)=) se requiere que XE()=0, es decir que los
errores sean independientes de las variables explicativas X, lo que se lograra siempre en el caso que X
fuera fija, y tambin en algunos casos cuando X es estocstica (vase regresores estocsticos).
Respecto a la varianza de b, cuando E()=2I, lo que significa que los errores estn distribuidos
independiente y constantemente, V(b) es mnima, es decir, el estimador b es eficiente (de varianza
mnima), y en este caso la varianza de b viene dada por:
33
b , 2 ( X ' X ) 1
Donde la matriz X' tiene dimensin KxT, X tiene dimensin TxK, (X'X)-1 es una matriz inversa simtrica de
dimensin KxK y 2 es un escalar.
Teorema de Gauss-Markov
As, bajo condiciones ideales (errores bien comportados) el estimador lineal de MCO es insesgado
y eficiente. Esto es resumido por el Teorema de Gauss-Markov, en cuanto a que puede mostrarse10 que b
es MELI, es decir, es el mejor estimador insesgado de entre la clase de los estimadores lineales de .
Para entender la importancia del Teorema de Gauss-Markov debemos notar primero que b es un
estimador lineal, en vista que puede escribirse como una combinacin lineal de la variable dependiente Y,
y que no se requiere normalidad de los errores (ms adelante tomaremos este supuesto, y como
resultado, la variable Y transmite sus propiedades aleatorias (estocsticas) al estimador b). Ntese que
este teorema no dice que b son los mehjores de todos los posibles estimadores. Esto pues existen varias
clases de estimadores lineales que podran usarse para estimar los parmetros de intercepto y pendiente
del modelo, y una porcin de estos incluso ser insesgados. Sin embargo, b tiene la propiedad adicional
que tiene una varianza menor que todos los estimadores lineales que sean insesgados, lo que lo convierte
en MELI, es decir el mejor estimador lineal insesgado de entre todas las clases de estimadores lineales
(estimador de varianza mnima).
Para que el teorema sea verdadero deben cumplirse los primeros 5 supuestos que siguen:
1.
2.
3.
4.
5.
6.
Errores bien comportados en un modelo de regresin lineal se refiere a los supuestos 3), 4) y 5).
A continuacin explicams esto con mayor detalle.
1 1 1 2
E [ '] = E 2 1
...
Cov( 1 2 )
V ( 1 )
Cov( )
2 1
=
...
...
... ...
TT
V ( T )
...
donde los elementos de la diagonal representan la varianza de cada error, y los elementos fuera de la
diagonal son las covarianzas respectivas entre errores. Puesto que la covarianza entre el error 4 y el error
6 es la misma que la covarianza entre el error 6 y el error 4, entonces sta matriz es simtrica y cuadrada
de dimensin TxT.
Esta matriz no es posible de observar ni estimar completamente con los datos, por la sencilla
razn de que existen solamente T observaciones o grados de libertad inicialmente, y E() contiene
10
34
T(T+1)/2 incgnitas 11. Por este motivo deben hacerse supuestos simples acerca de su comportamiento, y
el ms sencillo es asumir que los errores estn idealmente bien comportados, lo que quiere decir que
stos errores se distribuyen independiente e idnticamente.
Veamos esto con algn detalle.
Cuando los errores se distribuyen idnticamente significa que tienen igual varianza (sabemos que
tienen media cero). En econometra a esta propiedad se le llama homocedasticidad, o inexistencia de
heterocedasticidad. Esto significa que la matriz de varianzas y covarianzas de los errores debe tener a lo
largo de toda su diagonal el mismo elemento, es decir una constante, reflejando que la varianza del error
de cada observacin es el mismo para las T observaciones.
Cuando los errores se distribuyen independientemente quiere decir que stos no estn
correlacionados entre s. En econometra a esta propiedad se le llama no-autocorrelacin serial, o errores
no correlacionados serialmente. En este caso la matriz de varianzas y covarianzas de los errores debe
presentar que todos los elementos fuera de la diagonal (es decir las covarianzas) sean cero.
As, en el caso de errores bien comportados, esto se traduce en homocedasticidad y no
autocorrelacin, lo que significa que la matriz de varianzas y covarianzas de los errores debe ser igual a:
0
E [ '] =
...
0
1 0 ... 0
= 2 0 1
= 2I
...
...
...
2
1
0
...
es decir 2 veces la matriz identidad. De este modo, en adelante, cuando nos referimos a errores bien
comportados queremos decir errores con varianzas del tipo escalar-identidad o 2I, donde I es la matriz
identidad. Por el contrario, cuando los errores estn mal comportados se dice que su matriz de varianzas
y covarianzas tiene la forma de 2, donde es una matriz cuadrada simtrica TxT pero distinta de la
matriz identidad.
En cualquier caso, si bien no puede estimarse a partir de los datos, s puede obtenerse un
estimador de 2, la varianza de los errores ( es conocida el error estndar de la estimacin) que
denominamos s2, el que puede mostrarse, viene dado por:
t =T
s2 =
2
t
SCErr t =1
'
=
=
T K T K T K
Puede apreciarse que s2 proviene de la frmula tradicional de varianza de una serie, es decir la
suma cuadrada de las desviaciones de cada observacin respecto a la media (la media de los errores es
cero) dividido por el nmero de grados de libertad, en este caso T menos el nmero de parmetros
estimados en la regresin previa a la estimacin de s2.
La forma de efectuar pruebas de hiptesis sobre coeficientes se mostrar en el captulo siguiente.
Por ahora solo hemos mostrado dos resultados importantes para hacer esto: la distribucin de b y la
varianza de los errores.
11
Por ejemplo, se tienen 3 observaciones, E() tiene por incgnitas los 3 elementos de la diagonal de sta matriz ms
los 3 elementos debajo de la diagonal (pues es una matriz simtrica, los elementos de arriba de la diagonal son
iguales), es decir un total de 3+3 = 3*4/2 = 6 incgnitas.
35
(y
y ) 2 = ( y t y ) 2 + ( y t y t ) 2
donde
y i son los valores observados de Y, y es el valor promedio de los y observados, lo que sirve para
reescalar apropiadamente los clculos, y por ltimo y i corresponde a los valores de Y predichos por la
regresin ajustada. Un mejor ajuste implicar que la SCExplicada es mayor que la SCErrores. As,
dividiendo ambos lados de la igualdad por el trmino de la izquierda se tiene que:
( y
1=
(y
R
( y
=
(y
y) 2
y)
y) 2
y) 2
(y
+
(y
y t ) 2
t
t
y) 2
R2 =
Este coeficiente tiene un rango de valores posible entre 0 y 1. Mientras ms cercano a cero
indicar un mal ajuste y mientras ms cercano a 1 indicar un mejor ajuste. Esto es fcil de observar a
travs del siguiente ejemplo: si todas las observaciones de una muestra cayeran sobre la lnea de
regresin, el ajuste sera perfecto (R-cuadrado = 1).
y = b1 + b2x
et=yt-yt
yt
t
y
yt y
t y
y
xt
36
T 1
2
R 2 =1
(1 R )
T
el cual presenta una especie de correccin / castigo para los modelos con muchos parmetros, puesto que
al aumentar K caer el valor de esta medida. Como desventaja, el R-cuadrado ajustado puede ser
negativo.
37
:
:
:
:
:
PSUM
PPI t
PPI t 1
PPI t 2
+
+
PPI t
PPI t 1
PPI t 2
donde
GRM 2 t =
(1)
(2)
( M 2 t M 2 t 1 )
( PPI t PPI t 1 )
, GRPPIt = 100
M 2 t 1
PPI t 1
38
16,2950
2,2680
6,0590
2,7752
446,0000
1151,4000
138,9000
448,0933
312,0299
446,0000
3690,2000
286,7000
1579,5439
1144,2819
446,0000
123,7000
36,0000
77,4686
24,1488
446,0000
126,1000
31,3000
71,5206
34,8445
446,0000
Tambin es posible obtener importantes estadsticos que nos indican como se distribuyen los datos, para
cada una de las variables a considerar. En el siguiente cuadro podemos apreciar la informacin obtenida
de la variable RATE.
Valores
Observaciones
446
Media Muestral
6,0590
Desv estndar
2,7752
Varianza
Error est. de la media
7,70182173
0,13141027
Estadstico t
46,1073203 Hiptesis
Sesgo
1,18620737
10,19269
Curtosis
Jarque Bera
1,58711239
151,403572
6,788193
151,4035
2
1,3278E-33
Significancia a 1 cola
0,8000
1,3000
1,5000
2,0000
1,2000
-0,2000
-1,2000
-1,5000
-1,0000
-0,5000
-0,5000
dPPIt/PPIt
0,0000
0,0000
0,0031
0,0000
-0,0032
0,0000
-0,0032
0,0032
-0,0032
-0,0032
0,0000
0,0032
0,0000
dPPIt-1/PPIt-1 dPPIt-2/PPIt-2
0,0000
0,0000
0,0031
0,0000
-0,0032
0,0000
-0,0032
0,0032
-0,0032
-0,0032
0,0000
0,0032
0,0000
0,0000
0,0031
0,0000
-0,0032
0,0000
-0,0032
0,0032
-0,0032
-0,0032
0,0000
PSUM
0,0031
0,0031
0,0000
-0,0032
-0,0063
0,0000
-0,0032
-0,0032
-0,0063
0,0000
0,0032
GRM2t
GRPPIt
0,00348797
0
0,00521376
0
0,00311201 0,31545259
0,0072389
0
0,00650237 -0,31446062
0,00374025
0
0,00406498 -0,31545861
0,00101221
0,3164569
-0,00067412 -0,31545861
0,00202363 -0,3164569
0,00235605
0
0,00134322 0,31746032
0,00067069
0
39
Se indica que en el eje de las X's se rotule la fecha correspondiente para cada observacin. La salida de
Excel nos mostrar el siguiente grfico:
Hemos definido un Scatterplot Simple. Luego se deben definir las series de acuerdo a como
queramos que se ubiquen en los ejes. Para este ejemplo definiremos en el eje de las X a la serie grppiy
en el eje de las Y a la serie rate, y obtenemos la siguiente grfica:
40
RATE VS GRPPI
18
16
14
12
RATE
10
0
-0,03
-0,02
-0,01
0,01
0,02
0,03
0,04
0,05
0,06
0,07
GRPPI
Al seleccionar la opcin agregar lnea de tendencia, logramos obtener la regresin lineal simple
correspondiente para estas dos variables, la cual se puede apreciar en el grafico subsiguiente.
RATE VS GRPPI
18
16
14
12
y = 97,252x + 5,7621
2
R = 0,0569
RATE
10
0
-0,03
-0,02
-0,01
0,01
0,02
0,03
0,04
0,05
0,06
0,07
GRPPI
41
PSUM
(1)
PPI t
PPI t 1
PPI t 2
+
+
PPI t
PPI t 1
PPI t 2
El objetivo es obtener la regresin de (1) desde febrero de 1960 hasta diciembre de 1980 (1960:2
1980:12). Luego, escogiendo a la opcin Anlisis de datos, y luego la opcin regresin, se deben ingresar
los datos correspondientes. As obtendremos la siguiente tabla adjunta:
Resumen
Estadsticas de la regresin
Coeficiente de correlacin mltiple
0,825962178
Coeficiente de determinacin R^2
0,68221352
R^2 ajustado
0,678353765
Error tpico
1,395907712
Observaciones
251
ANLISIS DE VARIANZA
Regresin
Residuos
Total
Intercepcin
IP
M1t-M1t-3
PSUM
Error tpico
0,488327556
0,009459776
0,039357017
7,170339111
F
Valor crtico de F
176,7504807
3,39702E-61
Estadstico t
Probabilidad
-5,100668986 6,74644E-07
13,2961728 8,66531E-31
-2,096211583 0,037081155
4,216737962 3,48055E-05
Hemos solicitado estimar una regresin donde la variable dependiente rate se explica por las
variables ip, M1diff y ppisum, y se incluye automticamente el intercepto de la recta de regresin.
El primer cuadro muestra los coeficientes de determinacin R2 y R2 ajustado, adems del coeficiente de
correlacin mltiple y el error estndar de la regresin.
En segundo lugar, encontramos la informacin contenida en la tabla ANOVA, donde se muestra
la descomposicin de la suma cuadrada de errores, y los grados de libertad correspondientes. Adems,
esta tabla contiene el estadstico F, y el valor P correspondiente a la 'prueba F de significancia global' de
los parmetros de regresin.
En el cuadro coeficientes, se entrega los valores de los estimadores de los parmetros de
regresin. La columna Error Tpico que entrega el error estndar de cada coeficiente. Finalmente, las
ltimas 2 columnas entregan el estadstico t y el valor P (a 2 colas) de la 'prueba de significancia
individual' de los parmetros.
El anlisis de las salidas anteriores en cuanto a pruebas de hiptesis se muestra en el captulo
siguiente.
42
donde
GRM 2 t =
(2)
( PPI t PPI t 1 )
( M 2 t M 2 t 1 )
, GRPPIt = 100
PPI t 1
M 2 t 1
y corriendo el modelo para el periodo enero 1960 a agosto 1995, se tiene que:
Resumen
Estadsticas de la regresin
Coeficiente de
0,46514599
Coeficiente de
0,21636079
R^2 ajustado
0,21081617
Error tpico
2,48102561
Observaciones
428
VARIANZA
Promedio de
los
Suma de
cuadrados
cuadrados
3 720,594185 240,198062
424 2609,92694 6,15548806
427 3330,52112
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
Variable X 1
Variable X 2
Variable X 3
F
39,0217736
Valor crtico
de F
2,7558E-22
Superior
95%
2,2984699
0,05916952
211,162508
138,872351
Inferior
95,0%
0,12968608
0,03753637
69,4897811
70,3045416
Superior
95,0%
2,2984699
0,05916952
211,162508
138,872351
43
44
Yt = 0 + 1 X 1,t + 2 X 2,t + et
los coeficientes de pendientes de sta regresin miden el efecto parcial de X1 sobre Y y de X2 sobre Y, es
decir las derivadas parciales de Y respecto a X1 y X2 respectivamente.
As, la interpretacin de los coeficientes es a veces confusa, puesto que se debe tener muy claro
como son medidas las variables. Vemoslo a travs de un ejemplo:
Ejemplo: Se dispone de la informacin de la produccin mensual (en kilogramos) de 10
empresas durante el mes pasado, y se cree que la produccin depende del capital utilizado
(monto de deuda de la empresa, en millones de pesos) y del trabajo usado (en nmero de
personas contratadas), segn la siguiente tabla de datos:
Empresa
1
2
3
4
5
6
7
8
9
10
Capital
8
9
4
2
6
6
3
6
8
4
Coeficientes
Intercepcin 56,20094158
Capital
4,873711127
Trabajo
0,120945774
Trabajo
23
14
38
97
11
43
93
49
36
43
Produccin
106
81
72
57
66
98
82
99
110
118
45
LN (Yt ) = 0 + 1 LN ( X 1 ) + 2 LN ( X t ) + et
1 =
d ln Y
d ln X 1
puesto que, por ejemplo, la elasticidad precio de la demanda puede escribirse como:
dQ
Elasticidad =
Q
dP
d ln Q
d ln P
ln Y = 0 + 1 X
dY
d ln Y
1 =
= Y
dX
dX
El numerador corresponde al cambio porcentual de Y (dado por dY/Y), mientras que el
denominador es el cambio (muy pequeo) en X. Si por simplicidad X es una medida de tiempo o
tendencia, entonces la interpretacin de es el cambio porcentual en Y ante un pequeo periodo de
tiempo. Note que si <0, se tratar de la tasa de disminucin en Y.
46
i =
Cov( X i , Y ) ( X i , Y ) ( X i ) (Y ) ( X i , Y ) (Y )
=
=
Var ( X i )
Var ( X i )
(Xi )
Y = 0 +
Cov( X 1 , Y )
Cov( X 2 , Y )
X1 +
X2 +
Var ( X 1 )
Var ( X 2 )
x1
30
27
29
39
35
38
37
40
48
55
x2
5,912195122
6,365853659
8,365853659
11,91219512
12,8195122
8,087804878
11,72682927
16,27317073
8,995121951
9,541463415
8
9
9
8
10
15
12
11
17
16
Verificamos que para este ejemplo las correlaciones y covarianzas entre X1 y X2 son cero.
y
y
x1
x2
66,96
20,9
7,38146341
x1
10,25
2,51266E-13
=COEF.DE.CORREL(B2:B11;C2:C11)
x2
9,1404878
2,5959E-14
47
Intercepcin
x1
x2
Error tpico
8,077266366
0,506177022
0,536018368
Estadstico t
0,776952358
4,028283192
1,506584259
Note que esto es posible debido a que en las covarianzas anteriores no hay 'contaminacin' de
informacin de X1 en X2 y viceversa.
Otro aspecto importante referido a la interpretacin de los coeficientes de pendientes, y
relacionado con lo anterior, es que stos corresponden a la relacin entre cada variable Xi con Y, una vez
que se ha eliminado el efecto de las dems series X sobre Xi. Veamos esto a travs de un ejemplo:
Ejemplo: Se tiene informacin de 30 empresas respecto a una funcin de produccin COBB-DOUGLAS
simple, en que el producto (Q) es explicado por el capital (K) y el trabajo (L):
... Ver datos en Tabla 2 del Anexo al final del libro.
Intercepcin
Ln(L)
Ln(K)
Ln(Q)
-1,35899831
-1,69500125
0,19300017
-0,64900016
-0,16499965
-0,27000065
-0,47300011
0,03099951
Ln(L)
-1,47840965
-1,35479569
-0,19723217
-0,26526848
-0,70319752
-0,71949116
-0,38860799
-0,2903523
Ln(K)
Error
-0,22064667 -0,25733826
-1,39030238 -0,32590464
-0,26006691 1,01736228
-0,67138569 0,88174421
-0,27707189 0,50860292
-0,85566611 0,39724333
-0,7940731 0,73824654
-0,20211618 0,93376374
Intercepcin
Error
48
Obtenemos el mismo coeficiente Beta1=0.735825294, con lo cual verificamos que basta solo 1
regresin mltiple para esto, y no es necesario efectuar varias estimaciones para eliminar el ruido, o
contenido de Ln(K) en Ln(L).
49
50
CAPTULO 3
MNIMOS CUADRADOS RESTRINGIDOS
(INFERENCIA)
Si en adicin, los errores estn bien comportados, los coeficientes b se distribuyen normalmente:
b Normal , 2 ( X ' X ) 1
As, bajo este resultado es posible implementar un nmero de pruebas de inferencia estadstica,
incluyendo pruebas F, y adems se justifica la aplicacin del mtodo de mxima verosimilitud, aunque en
este caso si bien b es insesgado, s2 no lo es en pequeas muestras.
Como resultado adicional puede mostrarse 12 que al incorporar el supuesto de errores normales el
estimador b es el ptimo (suficiente), es decir el mejor estimador insesgado (MEI) incluyendo la clase de
los estimadores no lineales, de modo que no existe un mejor estimador posible que el de MCO. Este es un
12
51
resultado ms poderoso que el obtenido bajo ausencia de normalidad (estimadores MELI). Respecto a s2,
en este caso tambin es ptimo.
En resumen, puede decirse que existen 2 principales implicancias de asumir errores normales:
- Los estimadores MCO pasan a ser MEI
- Los estimadores MCO tienen ahora una distribucin normal, lo que implica que puede hacerse inferencia
estadstica de los verdaderos parmetros de regresin.
52
t=
( X ' X ) 1
2
t (T K )
donde Ho: la restriccin es verdadera. Ntese que el denominador corresponde a la desviacin estndar
(error estndar) del coeficiente sobre el cual se est haciendo la prueba. La hiptesis ser rechazada
cuando t calculado sea mayor, en valor absoluto, que el t de tabla.
Por ejemplo, si el t de tabla es t(9) al 0.05 = 2.262. Puesto que para un nmero de grados de
libertad mayor a 30 el valor t de tabla al 5% es cercano a 2.0 1.96 para T-K muy grande, en muchos
por simplicidad casos se acepta 1.96 como t crtico.
Veamos que para el caso en que Ho: i=0, esta prueba es reportada automticamente en Excel.
Ejemplo:
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
imacec
ipc
F
2,77741986
Valor crtico
de F
0,11496294
Superior
Inferior
95%
95,0%
2490,89617 -2768,91368
0,78588024 -7,0085044
36,5125091 -8,82781574
Superior
95,0%
2490,89617
0,78588024
36,5125091
53
W LR LM
Cuando se trabaja evaluando hiptesis lineales sobre el modelo lineal general, entonces puede
mostrarse que los tres son idnticos, es decir:
W = LR = LM
Esta prueba de hiptesis compara el valor de la funcin de verosimilitud del modelo no restringido
con el valor de la funcin del modelo restringido, pues Ho puede ser vista como restringiendo el conjunto
de posibles valores de los parmetros, lo que a su vez restringe el valor mximo de la funcin de
verosimilitud. Al comparar las estimacines restringida y sin restringir, y si las dos fueran cercanas, se
apoya Ho, es decir Ho es verdadera, con lo cual debe ser cercano a 1, es decir:
Max L restringido
Max L no restringido
donde Max L restringido es la funcin mxima verosimilitud del modelo restringido, y Max L no
restringido es la funcin de mxima verosimilitud del modelo no restringido.
A efectos de implementacin de la prueba estadstica, puede mostrarse que:
LR = 2 ln 2 ( J )
13
54
SCErr Restringidos
SCErr No Restringidos
sin embargo sta no tiene una distribucin exacta conocida, aunque con una modificacin leve se puede
llegar a una distribucin que se sabe es F:
SCErr no Restr
m F(m,T K)
T K
Ho : 1 + 2 = 10,0
Entonces:
a) Modelo no restringido:
0 = 0
(no restringido) con los grados de libertad (ver salida de tabla ANOVA)
b) Modelo Restringido: Implica reescribir el modelo asumiendo que la hiptesis se cumple, es decir:
Y = 0 + (10 2 ) X 1 + 2 X 2
Y = 10 X 1 2 X 1 + 2 X 2
Y 10 X 1 = 2 ( X 2 X 1 )
Luego, se debe correr este modelo (en este caso el modelo restringido resulta ser uno sin
intercepto) y guardar la SCErrores (restringido) con sus grados de libertad. Con esto se tiene la siguiente
informacin;
55
Estadsticas de la regresin
Coeficiente de correlacin
mltiple
0,99977636
Coeficiente de
determinacin R^2
0,99955276
R^2 ajustado
0,90864367
Error tpico
43,028741
Observaciones
12
ANLISIS DE VARIANZA
Promedio de
Suma de
los
cuadrados
cuadrados
1 45517219,5 45517219,5
11
20366,198 1851,47255
12 45537585,7
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
X2-X1
F
24584,334
Valor crtico
de F
2,7353E-18
Superior
95%
#N/A
13,7345541
Inferior
95,0%
#N/A
13,354296
Superior
95,0%
#N/A
13,7345541
Luego se construye la prueba F, con la informacin de las ANOVAS, tanto del modelo no restringido como
el restringido.
F=
( SRC R SRC NR ) / m
( SRC NR /( n k ))
=DISTR.F(0,03177;2;9) = 0,9688
LR test.
En conclusin la hiptesis claramente no puede ser rechazada a los niveles usuales, a travs del
56
(b )' 1 (b ) 2 (n)
Mientras mayor sea la diferencia entre el valor de los coeficientes estimados b y el valor de los
coeficientes poblacionales hipotetizados (), mayor ser el valor calculado de la prueba, lo que incidir en
que puede ser rechazada la hiptesis de igualdad con ms fuerza.
Para el caso de que las restricciones (hiptesis) sean combinaciones lineales de los coeficientes
(sin importar el tipo de modelo subyacente), siempre podrn escribirse como:
R = r
donde R es una matriz mxk con m el nmero de restricciones y k el nmero de parmetros del modelo,
es un vector de Kx1, y r es un vector de Qx1 conteniendo los coeficientes de la derecha de las hiptesis.
Ejemplo:
Las hiptesis
como:
Ho : 1 2 = 1.0
1 1 1 1.0
0 1 = 0.0 ,
2 = 0
es decir
1 1
R=
0 1
1.0
r=
0.0
As, la expresin general para restricciones lineales del test de Wald es:
(r R )' [R X R'](r R )
2 ( n)
( R r )
F (m, T K )
57
y
100
106
107
120
110
116
123
133
137
x2
100
104
106
111
111
115
120
124
126
x3
100
99
110
126
113
103
102
103
98
Ho : 1 2 = 1.0
49,34
0 1 1
0
1,3642
0 0 1 0,1138 1
'
2 = 0.0
'
0 1 1
1 0 1 1
(X ' X )
0 0 1
0 0 1
2 s2
0,2504
0,1139
'
'
0 1 1 ( X ' X ) 1 0 1 1
0 0 1
0 0 1
2s
49,34
0 1 1
0
1,3642
0 0 1 0,1138 1
F ( m, T K )
0,2504
0,1139
85,3473
2 s2
= 3,3020 F ( 2,6)
58
T R2
2 ( m)
59
Y = 0 + 1 X 1 + 2 X 2 +
Ho : 1 = 2 = .... = 0
Claramente se trata de una prueba F, donde el nmero de grados de libertad en el numerador es
m=nmero de coeficientes (sin considerar intercepto), y el nmero de grados de libertad en el
denominador es T-K.
Ejemplo: Para el ejemplo desempleo, la regresin restringida es:
Y = 0
Lamentablemente, esto modelo no puede correrse en Excel. Sin embargo, puesto que
consiste en una lnea de regresin horizontal (las pendiente son cero), entonces la SCErr
= SCT del modelo no restringido.
As, SCErr(NR)=20223,4393 con 9 gl, y SCErr(R)=32705,4353 con 11 gl, y en
consecuencia:
(132705,4 20223,4)
F=
2 = 2,777
(20223,4)
9
60
Ho : 2 = 0 .
Y = 0 + 1 X 1 y el resultado de la estimacin
Estadsticas de la regresin
Coeficiente de correlacin
mltiple
0,50056508
Coeficiente de
determinacin R^2
0,2505654
R^2 ajustado
0,17562194
Error tpico
49,5081659
Observaciones
12
ANLISIS DE VARIANZA
Promedio de
Suma de
los
cuadrados
cuadrados
1 8194,85039 8194,85039
10 24510,5849 2451,05849
11 32705,4353
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
imacec
F
3,34339242
Valor crtico
de F
0,09741527
Superior
Inferior
95%
95,0%
2348,34779 360,719164
0,71723094 -7,28033219
Superior
95,0%
2348,34779
0,71723094
(24510,58 20223,4)
F=
1 = 1,9079
(20223,4)
9
donde m=1 es el nmero de restricciones y T-k=9 representa los grados de libertad del
modelo no restringido.
Finalmente, calculamos el NSM:
=DISTR.F(1,9079;1;9)= 0,200522
por lo tanto no existe suficiente evidencia para rechazar la hiptesis nula, es decir, no
se rechaza que 2=0, y en consecuencia, el IPC puede ser excludo del modelo sin costo
(al 5%).
61
i =1
j =1
(1)
Rcht = 0 + j Rcht j + 1t
(2)
j =1
Aqu 0, i, j, son los coeficientes de la regresin, y 1t son las perturbaciones que se suponen
bien comportadas. La ecuacin (1) constituye la regresin no restringida, a partir de la cual puede
obtenerse la suma cuadrada de errores no restringidos (SRCnr), y la ecuacin (2) es la regresin
restringida (es decir i = 0), de la cual se obtiene la suma de los residuos al cuadrado restringidos (SRCR).
Para verificar la significancia que tiene el retorno de Brasil en la regresin usamos la prueba F
comparando la suma de los residuos al cuadrado restringidos y no restringidos de las regresines (1) y
(2), es decir una prueba de mnimos cuadrados restringidos para la exclusin de variables (ecuacin 3):
F=
( SRC R SRC NR ) / m
( SRC NR /(n k ))
(3)
donde, m es igual al nmero de trminos rezagados de Rbr (el nmero de restricciones lineales), k es el
nmero de parmetros estimados en la regresin no restringida, n el nmero de observaciones, y F sigue
una distribucin con m y (nk) grados de libertad. La hiptesis nula es que los trminos rezagados de Rbr
no pertenecen a la regresin (H0: i=0). Si el valor F calculado no excede al valor F crtico, no existirn
argumentos para rechazar la hiptesis nula (Ho: no existe causalidad), con lo cual los trminos
rezagados del retorno de Brasil no ayudan a explicar al retorno de Chile.
14
Vase a Aedo y Ziga (2001) Anlisis de Causalidad entre Bolsas Latinoamericanas, Documento de Trabajo,
Escuela de Ingeniera Comercial, U.C.N.
62
p2
100
100
106
104
107
106
120
111
110
111
116
115
123
120
133
124
137
126
100
100
106
104
107
106
120
111
Obtenemos los rendimientos contnuos de cada accin aplicando logaritmos naturales a las
razones de precios:
LN(P1(t)/P1(t-1)) ; cambiando por p2 y p3 cuando corresponda.
Para probar la hiptesis de si existe causalidad a lo Granger de R2 a R1, corremos una regresin
en donde el rendimiento del activo 1 (R1) es explicado por los rendimientos de los activos 2 y 3, cada uno
con 1 y 2 rezagos, bajo la siguiente hiptesis nula:
R1-1
R1-2
R2-1
R2-2
0,05826891
0,00938974 0,05826891
0,03922071
0,11466291 0,00938974 0,05826891 0,01904819 0,03922071
-0,08701138 0,11466291 0,00938974 0,04609111 0,01904819
0,05310983 -0,08701138 0,11466291
0 0,04609111
0,05859416 0,05310983 -0,08701138 0,03540193
0
0,07816477 0,05859416 0,05310983 0,04255961 0,03540193
0,0296318 0,07816477 0,05859416 0,03278982 0,04255961
-0,31481074
0,0296318 0,07816477 0,01600034 0,03278982
0,05826891 -0,31481074
0,0296318 -0,23111172 0,01600034
0,00938974 0,05826891 -0,31481074 0,03922071 -0,23111172
0,11466291 0,00938974 0,05826891 0,01904819 0,03922071
0,11466291 0,00938974 0,04609111 0,01904819
0,11466291
0,04609111
63
Resumen
Estadsticas de la regresin
Coeficiente de correlacin
mltiple
0,56343587
Coeficiente de
determinacin R^2
0,31745998
R^2 ajustado
-0,22857204
Error tpico
0,14232138
Observaciones
10
ANLISIS DE VARIANZA
Grados de
libertad
F
0,58139443
Valor crtico
de F
0,69033198
Inferior 95%
-0,10648098
-5,7637997
-5,71300255
-3,01675871
-3,08919792
Regresin
Residuos
Total
Intercepcin
Variable X 1
Variable X 2
Variable X 3
Variable X 4
Promedio de
Suma de
los
cuadrados
cuadrados
4 0,04710545 0,01177636
5 0,10127688 0,02025538
9 0,14838233
Superior
95%
0,12553264
1,85477473
2,04012302
7,90366668
8,09782306
Inferior
95,0%
-0,10648098
-5,7637997
-5,71300255
-3,01675871
-3,08919792
Superior
95,0%
0,12553264
1,85477473
2,04012302
7,90366668
8,09782306
Luego se corre una segunda regresin, donde se excluye los rendimientos rezagados del activo 2;
Resumen
Estadsticas de la regresin
Coeficiente de correlacin
mltiple
0,22985245
Coeficiente de
determinacin R^2
0,05283215
R^2 ajustado
-0,21778723
Error tpico
0,14169533
Observaciones
10
ANLISIS DE VARIANZA
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
Variable X 1
Variable X 2
Promedio de
Suma de
los
cuadrados
cuadrados
2 0,00783936 0,00391968
7 0,14054297 0,02007757
9 0,14838233
F
0,19522678
Valor crtico
de F
0,82697869
Inferior 95%
-0,09381385
-1,16861931
-1,02138775
Superior
Inferior
95%
95,0%
0,1183911 -0,09381385
0,68908647 -1,16861931
0,81640816 -1,02138775
Superior
95,0%
0,1183911
0,68908647
0,81640816
F=
(0,14054 0,1012769 ) / 2
= 0,96989
(0,1012769 / 5)
64
y1 = 10 + 11x1 + 12 x2 + ... + 1k xk + e1
Para el 2 grupo:
Una prueba de estabilidad de los parmetros entre las poblaciones es la siguiente hiptesis
simultnea:
Ho : 10 = 20 ; 11 = 21; 12 = 22 ;...; 1k = 2k
SCErr no Restr
m F(m,T K)
T K
haciendo :
SCErr Restr
: calculando el modelo para el periodo total
SCErr No Restr : calculando por separado el modelo en cada uno de las submuestras y luego sumndolas.
m
: el nmero de restricciones, es decir el nmero de parmetros (incluyendo el intercepto)
T-k
: los grados de libertad del denominador son la suma de los grados de libertad de cada
una de las regresines de las submuestras.
Para la implementacin de dicho test se requiere que se corra una regresin para el periodo total
(modelo restringido) y dos regresines para cada periodo (modelo no restringido). El primero es un
modelo restringido pues asume que los coeficientes a travs del tiempo son estables, es decir, no tienen
un cambio significativo en el valor de los coeficientes a travs del tiempo. En cambio el otro modelo
acepta la posibilidad de cambios en la magnitud de los coeficientes. Ntese que puesto que se estimarn
3 regresiones se requiere una cantidad suficiente de observaciones en cada submuestra.
Ejemplo: Se tiene la siguiente informacin sobre ahorro e ingreso del Reino Unido 19461963 (millones de libras), y se desea determinar si existe un cambio estructural del
perodo 1946-1954 versus 1955-1963 ('Tabla 3').
a) Primero corremos una regresin para el modelo restringido (todo el periodo),
fijando la atencin en los resultados de la tabla ANOVA.
Residuos
16
0,57222646
65
Residuos
Residuos
7
7
0,13965034
0,19312074
2 = 5,03706
(0,13965 + 0.193)
14
d) Finalmente;
=DISTR.F(5,03706;2;14) = 0,02249279
Puesto que el nivel de significancia es menor a 5%, rechazamos la hiptesis
nula, lo que implica que nos inclinamos a favor de la existencia de cambio
estructural.
Ntese que en esta prueba tambin puede ser implementada a travs de variables dummies,
llegando a conclusiones equivalentes.
ln C =
o +
i ln Qi +
i =1
jln Wj +
j =1
1 m m
ik ln Qi ln Qk +
2 i =1 k =1
1 n n
js lnWj ln Ws +
2 j =1 s=1
ij ln Qi ln Wj
i =1 j =1
donde:
0 = intercepto
C = costos totales
Qi = productos que fabrican las empresas
Wj = insumos requeridos para producir los productos
La funcin de costos tiene que ser linealmente homognea y cncava en Wj, y creciente en Qi y
Wj, por lo tanto, esta ecuacin debe estar sujeta a las siguientes restricciones:
n
j =1
j = 1 ;
j =1
js = 0 ;
ij = 0 ; ik = ki ; js = sj
j =1
En programas como RATS, esto puede hacerse fcilmente. Lamentablemente Excel no tiene
implementada esta caracterstica.
66
CAPTULO 4
VIOLACIN DE ALGUNOS SUPUESTOS
Ahora nos concentraremos en el caso en que los errores estn mal comportados, es decir, cuando
la matriz de covarianzas de los errores V=E['] ya no es escalar Identidad 15, sino que E[']=2, con
una matriz definida positiva, de modo que pueden ocurrir dos casos simples:
- V diagonal, pero con elementos distintos (heterocedasticidad).
- V no diagonal (autocorrelacin).
Anteriormente mostramos que en cualquiera de estas condiciones el estimador b de MCO es
insesgado 16, y que para calcular la matriz de varianzas de los coeficientes a travs de MCO ya no puede
hacerse la siguiente simplificacin:
15
67
b = ( X ' 1 X ) 1 X ' 1Y
con
de modo que b de MCG es MELI para el caso de E['] no esfrica (es decir mal comportada) pero
conocida.
En caso de usar MCO bajo E['] no esfrica, la verdadera matriz de varianzas y covarianzas,
cuando conocemos la naturaleza de E['] debera ser la siguiente:
17
Puesto que es asumido que la forma de la matriz de covarianza de las perturbaciones es conocida, entonces el
procedimiento de solucin consiste en aplicar MCGeneralizados.
18
Puesto que el estadstico t ya no es una variable normal dividido por su desviacin estndar aproximada (el
estimador b de MCO es ineficiente), y adems el test F tampoco ser vlido (vase Judge 342).
68
4.2. HETEROCEDASTICIDAD
La heterocedasticidad o varianzas de los errores no constantes no suele presentarse en series de
tiempo, sino que en datos de corte transversal. En el modelo lineal general, hemos dicho que la
heterocedasticidad ocurre cuando los elementos de la diagonal de la matriz no son todos idnticos:
y = X + e
E ( e) = 0
(1)
E (ee' ) = =
2
Ingreso - Consumo
50,0
Ingreso
40,0
30,0
20,0
10,0
0,0
0,0
10,0
20,0
30,0
40,0
50,0
Consumo
; notamos que efectivamente a mayores niveles de rentas existe una mayor volatilidad, es decir evidencia
de heterocedasticidad. Lamentable cuando se trata de modelos mltiples este tipo de grfico no tendr
sentido, aunque un grfico de los residuos de la regresin respecto a la serie de variable dependiente
entregar alguna evidencia.
Luego graficamos el consumo versus los errores (click en Grfico de Residuales);
69
Residuos
2,5
2
1,5
1
0,5
0
-0,5 0,0
-1
-1,5
-2
10,0
20,0
30,0
40,0
50,0
-2,5
-3
Ingreso
12 0
0
2
0 2 0
E (ee' ) = = 0
0 32
0
2
2
2
2
... 0 = diag ( 1 , 2 , 3 ,... T )
...
... T2
...
...
1 / 1
0
P= 0
...
0
0
1/ 2
0
...
0
0
0
1/ 3
...
0
0
1
1
1
1
0 = diag ( 1 , 2 , 3 ,... T )
...
... 1 / T
...
...
...
puesto al multiplicar el modelo heterocedstico en (1), se tiene que as la varianza de los errores
resultante es homocedstica (una constante igual a 1).
En efecto:
Y = X + e
/P
PY = PX + Pe
70
Y* = X** + e*
La varianza de los errores del modelo anterior es:
V(e*) = P2V(e) = I = una constante (homocedaticidad)
es decir:
var( *) = E ( ) = E t
t
*2
t
=1
El procedimiento de MCG es entonces es dividir cada observacin por la desviacin estndar del
error correspondiente a esa observacin, procedimiento que se llama Mnimos Cuadrados Ponderados.
71
Regresin
Residuos
Total
Para la 2 regresin:
Regresin
Residuos
Total
SCErr2
gl 2
10,25 / 8
=
= 0,49
F=
SCErr1 20,65 / 8
gl1
F tabulado =Distr.F.inv(0,05;8;8)=3,43
NSM =Distr.F(0,49;8;8)=0,82
72
T R 2 2 (k )
El nmero de grados de libertad en el test chi es aqu el nmero de variables explicativas, es decir el
nmero de parmetros menos 1 (menos el intercepto).
Ejemplo: En nuestro caso, 'Tabla 04.xls', luego de corrida la regresin original,
guardamos los errores y transformamos la series ingreso y de residuos, elevndolas al
cuadrado. Obtenemos;
consumo = b0 + b1 ingreso
err2 = ERR^2
X2X2 = ingreso^2
Corremos ahora una regresin de los residuos cuadrados contra ingreso e ingreso
al cuadrado.
err2 = b0 + b1 ingreso + b2 X2X2
chistat = 0,8781*20 = 17,6
Chi tabulado = Pruebachi.inv(0,05;2) = 5,99
NSM = distr.chi(17,6;2) = 0.00015360
* y hay evidencia para rechazar homocedasticidad.
73
u t N (0, 2 (1 + u 2 t 1 ))
el test consiste en regresionar los residuos al cuadrado sobre su 1 rezago. Para el caso de error del tipo
ARCH(2), se regresionan los residuos al cuadrado sobre su 1 rezago y 2 rezago. As sucesivamente.
Ejemplo: Para el ejemplo anterior, los residuos al cuadrado se rezagan 1, 2 y 3
observaciones, es decir se hace una especificacin ARCH(3). Los resultados relevantes de
la regresin son;
consumo = b0 + b1 ingreso
err2 = err^2
err2 = b0 + b1 err2{1} + b1 err2{1} + b1 err2{1} ;especificacin ARCH(3)
chistat = 0,2257*17 = 3,83
Chi Tabulado = pruebachi.inv(0,05;3)=7,814
NSM=distr.chi(3,83;3)=0,27
Y no se rechaza Ho.
Nuevamente para obtener el estadstico Chi se multiplica el R-Cuadrado por el nmero de observaciones.
74
yt = 1 + 2 xt + et
En el caso ms simple, se desea corregir por heterocedastididad usando la misma variable xt. Para
esto debe multiplicarse el modelo original como sigue:
yt
xt
1
xt
xt
+ 2
xt
yt* =
yt
x1*t =
1
xt
x 2*t =
xt
et
xt
xt
xt
C j = 0 + 1 D j + e j
Se desea correr mnimos cuadrados ponderando por P.
Haciendo las transformaciones paso a paso, debemos generar nuevas series multiplicando las
originales por en inverso de la raiz cuadrada de la serie Pasajeros.
75
kilometros
11
14
10
13
16
13
13
18
9
10
pasajeros
23
29
21
27
30
29
25
35
20
22
93
91
105
90
99
80
100
100
96
92
K*
x1*
x2*
1,14064686 0,10369517
2,3849889
1,46759877 0,10482848 3,04002603
0,97590007 0,09759001 2,04939015
1,37032032 0,10540926 2,84604989
1,6080605 0,10050378 3,01511345
1,45344419
0,1118034 3,24229857
1,3
0,1
2,5
1,8
0,1
3,5
0,91855865 0,10206207 2,04124145
1,04257207 0,10425721 2,29365855
Grados de
libertad
Regresin
Residuos
Total
Intercepcin
x1*
x2*
F
1489,87641
Valor crtico
de F
6,2323E-10
Superior
Inferior
95%
95,0%
#N/A
#N/A
0,95166778 -5,59482547
0,69738074 0,45056985
Superior
95,0%
#N/A
0,95166778
0,69738074
Los resultados de esta regresin se asume entonces que estn libres del problema de la
heterocedasticidad (habra que verificarlo). Lamentablemente el procedimiento de MCPonderados afecta la
interpretacin de los coeficientes de la regresin.
76
y = X +
t = t 1 + v t
E (v ) = 0
E (vv' ) = v I
2
donde es el coeficiente de correlacin entre los errores sucesivos, e es el error auto correlacionado, y v
es un error bien comportado.
Al igual que en el caso de la heterocedasticidad, en los casos simples es posible detectar esta
anomala graficando los residuos, como veremos en el siguiente ejemplo:
Ejemplo: Supongamos que disponemos de informacin anual de inventarios (Y) y de ventas
(X) en una determinada regin (Inventarios_Ventas.xls). Luego graficamos inventarios
versus los errores.
15
10
Errores
5
0
0
50
100
150
200
250
-5
-10
-15
Inventario
El grfico muestra que efectivamente los errores poseen un patrn cclico, lo que en este caso se
traducira en errores auto correlacionados positivamente.
77
E ( ) = 0
Var ( ) =
v2
1 2
v2
E ( t t 1 ) = E ( t21 ) + E ( t 1 v t ) = e2 =
2
1
v2
E ( t t s ) = =
2
1
s
2
e
donde la correlacin entre cualquier par de errores es s, y entre errores consecutivos es . Haciendo
sustitucin recursiva puede tambin mostrarse que el error auto correlacionado puede escribirse como un
proceso autorregresivo:
t = vt + vt 1 + 2 vt 2 + ... = i v t i
i =0
y cuando ||<1 se dice que el proceso autorregresivo es estacionario, es decir la media y varianza de e no
cambian a travs del tiempo. En este caso puede mostrase que la matriz de covarianzas de los errores
tiene la siguiente forma:
2
v
2
=v =
1 2
T 1
T 1
T 2
T 2
1 2
P= 0
...
0
0
1
0
...
0
...
...
1
... ... ...
0 ...
0
0
...
1
En efecto, al multiplicar la matriz Y y la matriz X por P (es decir implementar MCG) se generan las
siguientes series nuevas para Y y para (no incluimos la transformacin de X pues es trivial):
19
78
1 2
P Y = 0
1 2
P = 0
0
1
0 Y1 Y1 1 2
0 Y2 Y2 Y1
.
0 . =
1 YT YT YT 1
0 1 1 1 2
0 2 2 1
.
0 . =
1 T T T 1
0
1
entonces el nuevo error en el modelo transformado (P=*) est efectivamente bien comportado, con lo
cual se corrige el problema de errores autocorrelacionados.
Ntese que la solucin de la correlacin de 1 orden consiste en calcular primeras diferencias a las
series, es decir restar a cada valor de Y su valor anterior, multiplicado por , es decir Yt*=Yt-Yt-1. Este
procedimiento particular de MCG es llamado Primeras Diferencias Generalizadas. Note que si =1, se
tienen primeras diferencias simples.
79
d=
T
t =2
(e t e t 1 ) 2
T
t =1
et2
Z o n a s d e in d e c is i n
dl
du
A R p o s itiv a
4 -d u
4 -d l
A R N e g a tiv a
No AR
Note que cuando T es grande, al resolver la suma del binomio al cuadrado en el numerador, el
primer trmino al cuadrado es igual al segundo trmino al cuadrado, entonces:
d 2 1
ee
e
t
t 1
2
t
~
= 2(1 )
20
A diferencia de la deteccin grfica de la heterocedasticidad, aqu los errores al cuadrado normalmente no son de
utilidad.
80
donde es el coeficiente de correlacin estimado entre et y et-1. Luego, conocido el valor del test de
Durbin-Watson, d, podemos despejar un estimador de , puesto que =1-d/2.
Ejemplo: En el ejemplo anterior de inventario y ventas (Inventarios_Ventas.xls),
corremos la regresin como de costumbre, y calculamos paso a paso el test Durbin-Watson:
Et
-3,14065594
-3,21951873
-2,11951873
-2,89811373
-3,87155832
-4,06072192
-5,2970425
-1,85965069
2,23004851
1,93058412
4,30998253
8,95198913
4,89453134
-1,08867844
-1,00305841
12,9459732
10,3093848
2,40584127
-7,3714147
-12,0484029
Et-1
-3,14065594
-3,21951873
-2,11951873
-2,89811373
-3,87155832
-4,06072192
-5,2970425
-1,85965069
2,23004851
1,93058412
4,30998253
8,95198913
4,89453134
-1,08867844
-1,00305841
12,9459732
10,3093848
2,40584127
-7,3714147
(Et-Et-1)^2
0,00621934
1,21
0,60621016
0,94759438
0,03578287
1,5284886
11,8156625
16,7256396
0,08967892
5,66153679
21,5482253
16,4629637
35,7987993
0,00733079
194,575484
6,95159836
62,4660009
95,5947342
21,8742182
493,906167
Et^2
9,86371971
10,3653009
4,49235967
8,39906318
14,9889638
16,4894625
28,0586593
3,4583007
4,97311637
3,72715506
18,5759494
80,1381094
23,956437
1,18522074
1,00612617
167,598223
106,283416
5,78807221
54,3377546
145,164011
708,849421
Luego d = 493,9 / 708,849 = 0,6967. Puesto que T=20, y K=2, buscamos en la tabla de DW al 5%, y
dl=1.201 y du=1.411 que constituye el rango de indecisin. Puesto que 0.69677 < 1.201 tenemos
evidencia suficiente para rechazar la hiptesis nula a cambio de AR positiva.
81
82
h =
T
N (0,1)
1 T V (b1 )
Como se ve, este test es de carcter asinttico (vlido en grandes muestras) y se distribuye
normal estndar, de modo que lamentablemente tiene bajo poder para muestras pequeas.
Aqu V(b1) es la varianza del coeficiente que contiene la serie Y rezagada. puede ser obtenido a
partir del test DW anterior. Note que no est definido para T*V(b1)>0, de modo que en este caso h=0.
Ejemplo:
Ejemplo:
Esto es, usando un ciclo que determinar automticamente si el denominador es cero o no, y
aplicando en cada caso el test que corresponda.
83
H 0 : 1 = 2 = 3 = 0
Inventario
58,2
60
63,4
68,2
78
84,7
90,6
98,2
101,7
102,7
108,3
124,7
157,9
158,2
170,2
180
198
Ventas
33,4
35,1
37,3
41
44,9
46,5
50,3
53,5
52,8
55,9
63
73
84,8
86,6
98,8
110,8
124,7
Et-1
-2,11951873
-2,89811373
-3,87155832
-4,06072192
-5,2970425
-1,85965069
2,23004851
1,93058412
4,30998253
8,95198913
4,89453134
-1,08867844
-1,00305841
12,9459732
10,3093848
2,40584127
-7,3714147
Et-2
-3,21951873
-2,11951873
-2,89811373
-3,87155832
-4,06072192
-5,2970425
-1,85965069
2,23004851
1,93058412
4,30998253
8,95198913
4,89453134
-1,08867844
-1,00305841
12,9459732
10,3093848
2,40584127
Et-3
-3,14065594
-3,21951873
-2,11951873
-2,89811373
-3,87155832
-4,06072192
-5,2970425
-1,85965069
2,23004851
1,93058412
4,30998253
8,95198913
4,89453134
-1,08867844
-1,00305841
12,9459732
10,3093848
84
Q( M ) = T (T + 2)
i =1
ri 2
(T i )
2 (M )
T
M = min , 3 T
4
excepto para modelos ARIMA, en que el nmero de grados de libertad es M-(nmero de parmetros
ARMA).
Nota: Cuando se calculan autocorrelaciones para pruebas de correlacin serial y evaluacin de modelos
de autocorrelacin, es deseable usar el mismo divisor a cualquier rezago, lo que preserva varias
propiedades deseables para varias consideraciones relacionadas con series de tiempo. Es decir, se
recomienda:
T
rt ,t i =
e e
t =2
T
t i
e
t =1
en lugar de rt ,t i =
2
t
e e
t =2
t i
t =2
t =2
et2 et2i
En consecuencia, por este motivo los resultados de esta prueba pueden variar levemente.
Ejemplo: En el ejemplo anterior (Inventarios_Ventas.xls) se desea calcular el test Q
para diferente nmero de rezagos, desde 1 a 5. Los resultados usando la frmula de
clculo anterior es:
0,6136 2
2
Q(1) = 20(22)
= 8,71 (1) = 3,84
20
1
2
0,6136
0,040 2
2
Q(2) = 20(22)
+
= 8,75 (2) = 5,99
20 2
20 1
0,6136 2 0,040 2 0,232
+
+
Q(3) = 20(22)
= 10,23
20 2
20 3
20 1
2 (3) = 7,81
21
Q * (k ) = T ri 2 2 (k )
i =1
85
Ljung-Box Q-Statistics
Q(1) =
8,71. NSM= 0,003149
Q(2) =
8,75. NSM= 0,01258
Q(3) =
10,23. NSM= 0,01670
Luego, hay evidencia de autocorrelacin hasta el 3 orden al 1% pero no al 5%.
86
Intercepcin
Ventas
Intercepcin
dX
87
Y(*)
(1-^2)^0,5 * Y
Yt-Yt-1
...
Yt-Yt-1
Y(*)
40,1275
19,3298
19,8434
22,4266
22,0763
24,3034
26,8879
33,5602
33,8744
35,4086
39,1641
37,7119
36,4313
41,3797
54,1306
76,6442
55,3108
67,1153
69,0960
80,7102
Intercepto
(1-^2)^0.5
1-
...
1-
intercepto
0,7586
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
0,3484
X(*)
(1-^2)^0,5 * X
Xt-Xt-1
...
Xt-Xt-1
X(*)
22,9842
11,1562
10,7653
13,2653
13,3362
14,4285
16,6949
18,1840
17,2427
20,0001
20,7240
17,9389
21,4950
26,5750
31,9486
37,2325
31,3435
42,3706
46,4209
52,5016
Intercepcin
intercepto
X(*)
88
La correccin de Cochrane-Orcutt:
AR1(METHOD=corc) inventario
# CONSTANT ventas
Dependent Variable INVENTARIO - Estimation by Cochrane-Orcutt
Annual Data From 1980:01 To 1998:01
Usable Observations
19
Degrees of Freedom
16
Centered R**2
0.989581
R Bar **2
0.988278
Uncentered R**2
0.998409
T x R**2
18.970
Mean of Dependent Variable
105.87894737
Std Error of Dependent Variable 46.17620333
Standard Error of Estimate
4.99934157
Sum of Squared Residuals
399.89465850
Durbin-Watson Statistic
1.443620
Q(4-1)
6.140217
Significance Level of Q
0.10498413
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
15.871887522 9.651170285
1.64456 0.11956256
2. VENTAS
1.492261658 0.113915934
13.09967 0.00000000
*******************************************************************************
3. RHO
0.743057461 0.197925645
3.75423 0.00173224
;* el coeficiente estimado es 0.743057461
89
Ejemplo:
La correccin de Hidreth-Lu
AR1(METHOD=hilu) inventario
# CONSTANT ventas
Dependent Variable INVENTARIO - Estimation by Hildreth-Lu
Annual Data From 1980:01 To 1998:01
Usable Observations
19
Degrees of Freedom
16
Centered R**2
0.989581
R Bar **2
0.988278
Uncentered R**2
0.998409
T x R**2
18.970
Mean of Dependent Variable
105.87894737
Std Error of Dependent Variable 46.17620333
Standard Error of Estimate
4.99934157
Sum of Squared Residuals
399.89465850
Durbin-Watson Statistic
1.443629
Q(4-1)
6.140247
Significance Level of Q
0.10498272
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
15.872102891 9.651368445
1.64454 0.11956494
2. VENTAS
1.492259063 0.113917491
13.09947 0.00000000
*******************************************************************************
3. RHO
0.743063504 0.197924711
3.75427 0.00173206
;* el coeficiente estimado es 0.743063504
Para los datos del ejemplo de inventario y ventas, ntese que es posible
verificar paso a paso el resultado de la estimacin de Cochrane-Orcutt anterior
como sigue:
COM RO = 0.743057461
SET YP = inventario-RO*inventario{1}
SET X2P = ventas-RO*ventas{1}
SET X1P = 1-RO*1
LINREG YP
# X1P X2P
...
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. X1P
15.871887527 9.363010474
1.69517 0.10828013
2. X2P
1.492261658 0.110514689
13.50284 0.00000000
;* que corresponde al mismo resultado de CORC.
90
4.4.
ESTIMACION ROBUSTA
Si la forma de la varianza de los errores, E('), es conocida, puede ser posible obtener
estimadores eficientes usando alguna forma de Mnimos Cuadrados Generalizados, tal como MCP (con
opcin SPREAD en RATS) o a travs de PDG (con la instruccin AR1 en RATS).
Sin embargo, si esto no ocurre, es decir, si no se tiene informacin acerca de la forma de E('),
White(1980) y Newey y West (1987) mostraron que es posible obtener estimaciones robustas de los
coeficientes de regresin ante autocorrelacin y heterocedasticidad, es decir resultados vlidos para
grandes muestras (propiedades asintticas). Veamos la mecnica de este procedimiento, llamado
estimacin robusta.
Sabemos que la varianza de los coeficientes es:
Yt = 0 + 1 X 1 + 2 X 2 + t
y T=9
91
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
-49.34133898 24.06088696
-2.05069 0.08616009
2. X1
1.36423789
0.14315290
9.52994 0.00007617
3. X2
0.11388062
0.14337364
0.79429 0.45728186
-2.6911
0.0205
3.5420e-003
-2.5792
3.5420e-003
0.0206
do II=1,3
wri (var(II,II))**0.5
end do
;* las desviaciones estndar de los coeficientes son
24.0609
0.1432
0.1434
;* que corresponde al resultado del modelo sin corregir.
m cov = t t X t ' X t k t k
y hacemos ddiag es la matriz diagonal que contiene los errores al cuadrado en la diagonal.
Ejemplo:
*(tr(X)*ddiag*X)
-0.8457
7.7754e-003
-8.9365e-005
*inv((tr(X)*X))
-1.8279
-8.9365e-005
0.0177
do II=1,3
wri (var(II,II))**0.5
end do
16.8287
0.0882
0.1332
;* son los errores estndar de los coeficientes bajo la correccin de White.
92
linreg(robusterrors) y
# constant x1 x2
Dependent Variable Y - Estimation by Least Squares
Usable Observations
9
Degrees of Freedom
Centered R**2
0.938502
R Bar **2
0.918003
Uncentered R**2
0.999376
T x R**2
8.994
Mean of Dependent Variable
116.88888889
Std Error of Dependent Variable 12.55432639
Standard Error of Estimate
3.59493951
Sum of Squared Residuals
77.541540508
Durbin-Watson Statistic
1.635298
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
-49.34133898 16.82865139
-2.93198 0.00336804
2. X1
1.36423789
0.08817821
15.47137 0.00000000
3. X2
0.11388062
0.13317015
0.85515 0.39246742
;* lo que verifica la correccin (reduccin) en el error estndar de los
coeficientes. Ntese que los coeficientes propiamente tales no se ven
alterados.
k
L
m cov = k = L t et X t ' X t k et k 1
L + 1
donde L indica el grado del error de medias mviles que se desea corregir por autocorrelacin de acuerdo
al horizonte de prediccin (por ejemplo si se trata de una prediccin de k=3 periodos, entonces L=3-1=2,
y existirn 5 sumandos en mcov).
Ejemplo:
93
u8*tr(x8)*x9*u9 )*(1-1/3)
com xx3 = (u1*tr(x1)*x1*u1 + u2*tr(x2)*x2*u2 + u3*tr(x3)*x3*u3 + $
u4*tr(x4)*x4*u4 + u5*tr(x5)*x5*u5 + u6*tr(x6)*x6*u6 + u7*tr(x7)*x7*u7 + $
u8*tr(x8)*x8*u8 + u9*tr(x9)*x9*u9)*(1-0/3)
com xx4 = (u2*tr(x2)*x1*u1 + u3*tr(x3)*x2*u2 + u4*tr(x4)*x3*u3 + $
u5*tr(x5)*x4*u4 + u6*tr(x6)*x5*u5 + u7*tr(x7)*x6*u6 + u8*tr(x8)*x7*u7 + $
u9*tr(x9)*x8*u8 )*(1-1/3)
com xx5 = (u3*tr(x3)*x1*u1 + u4*tr(x4)*x2*u2 + u5*tr(x5)*x3*u3 + $
u6*tr(x6)*x4*u4 + u7*tr(x7)*x5*u5 + u8*tr(x8)*x6*u6 + u9*tr(x9)*x7*u7)*(1-2/3)
com mcov = xx1+xx2+xx3+xx4+xx5
com var = inv((tr(X)*X)) * (mcov) * inv((tr(X)*X))
;* la matriz de
covarianzas corregida de los coeficientes
do II=1,3
wri (var(II,II))**0.5
end do
En RATS este ajuste es ofrecido por la instruccin ROBUSTERRORS pero agregando la opcin
LAGS=L (para corregir por autocorrelacin hasta un proceso de medias mviles del grado L) y DAMP=1.0
(para el estimador de Newey-West, aunque pueden obtenerse otros ajustes con otro valor de DAMP, pero
son poco usados).
Ejemplo:
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
-49.34133898 14.82204895
-3.32891 0.00087185
2. X1
1.36423789
0.09248540
14.75085 0.00000000
3. X2
0.11388062
0.08901050
1.27941 0.20075389
Una de las dificultades para implementar la estimacin robusta puede ser determinar el valor
apropiado de L, aunque en muchos casos, ste proviene de la teora, y el conocimiento que la sobre
posicin de horizontes de prediccin (overlapping) genera un termino de error tipo MA de orden k-1
(donde k es el horizonte de prediccin). As, por ejemplo errores en predicciones de 6 periodos tendrn un
proceso MA de orden 5 (L=5), con lo cual se captura la mayora de la correlacin serial
En resumen, en RATS la opcin ROBUSTERRORS calcula los errores estndar de la regresin y la
matriz de covarianzas permitiendo heterocedasticidad y correlacin serial de los residuos, y funciona junto
a LAGS y DAMP en las instrucciones LINREG, NLLS, NLSYSTEM, y MAXIMIZE. Pueden definirse
estructuras ms complicadas usando la instruccin WMATRIX, que es la matriz de ponderaciones usada
junto a INSTRUMENTS.
94
4.4. MULTICOLINEALIDAD
En el modelo
Yt = 0 + 1 X 1 + 2 X 2 + t
cuando hay correlacin lineal entre las variables explicativas X1 y X2, de modo que ambas variables, en el
fondo, estn midiendo el mismo fenmeno.
La presencia de alta colinealidad entre las variables explicativas X1 y X2 impide que se pueda
estimar con precisin los coeficientes de la regresin, es decir el efecto de cada una de estas variables
sobre Y, debido a que MCO no puede "separar" el efecto de X1 sobre Y, y el efecto de X2 sobre Y. As, se
esperan relativamente altos errores estndar para los coeficientes.
Ejemplo: Usando el archivo multicolinealidad.xls.
y
100
106
107
120
110
116
123
133
137
x1
100
104
106
111
111
115
120
124
126
a) Creamos la serie X2a, tal que X2a = 2*X1-4, donde X2a presenta multicolinealidad perfecta con X1, es
decir es una combinacin lineal de X1. La correlacin entre X1 y X2a es +1,0 en este caso.
b) Creamos la serie X2b, que es igual a X2a, con la nica diferencia que la 1 observacin es 200 en lugar
de 196. La correlacin entre X1 y X2b es 0,9970693 en este caso, es decir extremadamente alta, pero no
perfecta.
95
respectiva variable puede ser explicada por una combinacin lineal del resto de variables independientes,
lo cual significa que existe multicolinealidad.
Factores de inflacin de la varianza (VIF): Estos valores corresponden a los inversos de los niveles de
tolerancia. Reciben este nombre porque son utilizados en el clculo de las varianzas de los coeficientes de
regresin. Cuanta mayor es el VIF de una variable, mayor es la varianza del correspondiente coeficiente
de regresin. De ah que uno de los problemas de la existencia de multicolinealidad (tolerancias pequeas
y VIFs grandes) se la inestabilidad de las estimacines de los coeficientes de regresin.
Podemos concluir que la multicolinealidad aumenta el error en la estimacin de los coeficientes
individuales, disminuyendo los test t. Luego, que sospechamos existencia de multicolinealidad cuando los
coeficientes individuales tienen bajas significancias, pero el estadstico R2 es alto. Tambin, dado el alto
error, los coeficientes estimados son altamente sensibles a cambios en las observaciones, de modo que
por ejemplo eliminando un dato, los coeficientes cambiarn importantemente. El ltimo aspecto es las
prediccines del modelo con multicolinealidad sern peores (alto error) que aquellas obtenidas
considerando solo un pequeo grupo de variables explicativas que no son colineales.
Otra forma de detectar la colinealidad (alta) es considerar la Regla de Klein (1962) que afirma que
"la multicolinealidad es un problema slo si la correlacin simple entre dos variables es mayor que la
correlacin entre alguna stas con la variable explicada (Y)".
96
CAPTULO 5
ESTACIONARIEDAD Y COINTEGRACIN
600
500
400
300
T
t
t+1
t+2
t+3
t+4
t+5
t+6
P_Endesa
67
170
220
175
280
350
300
Igpa
150
200
220
350
400
410
500
200
100
0
t
t+1
t+2
t+3
P_Endesa
t+4
t+5
t+6
IGPA
Si corremos una regresin entre el precio accionario de Endesa (Y) y el Indice de Precios Accionarios (X)
se tiene que:
Intercepcin
Variable X 1
Y los resultados aparecen satisfactorios (para la pendiente) a la luz del estadstico t. Sin embargo
analizando el grfico, ambas series X e Y muestran una fuerte tendencia.
97
Una forma de eliminar la tendencia temporal es calcular las primeras diferencias de X e Y. Para esto
calculamos las rentabilidades, que son:
T
t
t+1
t+2
t+3
t+4
t+5
t+6
P_Endesa
67
170
220
175
280
350
300
Igpa
150
200
220
350
400
410
500
Rent_Endesa Rent_IGPA
1,537
0,294
-0,205
0,600
0,250
-0,143
0,333
0,100
0,591
0,143
0,025
0,220
1,800
1,600
1,400
1,200
1,000
0,800
0,600
0,400
0,200
0,000
-0,200
-0,400
t+1
t+2
t+3
Rent_Endesa
t+4
t+5
t+6
Rent_Igpa
Intercepcin
Variable X 1
Con esto se aprecia que la calidad de los resultados cae fuertemente, entregando evidencia que la
1 regresin (con tendencia) arroj resultados satisfactorio solamente debido a la existencia de una
tendencia, pero no debido a que existiera una relacin verdadera entre ellas.
As, se entiende que un supuesto clave para la consistencia del modelo de regresin es, aparte de
la linealidad, la Dependencia Dbil.
Para analizar este punto con mayor detalle, pasamos a continuacin a definir el concepto de
Estacionariedad.
98
5.2. ESTACIONARIEDAD
5.2.1. DEFINICIN
La principal definicin de estacionariedad (estacionariedad dbil) implica que la media () y la
varianza (2) del proceso son constantes, y las autocovarianzas (k) y autocorrelaciones (k) dependen
slo del rezago k (0=V(xt)) 22.
Las principales implicancias de la estacionariedad para nuestros fines son dos:
a)
La existencia de estacionariedad asegura que la varianza del proceso es finita y que una
innovacin en el proceso tiene solamente un efecto temporal sobre ste.
b)
Cuando no exista estacionariedad para dos series X e Y, una regresin entre stas ser espuria,
en el sentido que existir un alto R2 debido a la existencia de una tendencia y no debido a una fuerte
relacin entre las variables.
Respecto al concepto de Integracin, se dice que una serie yt no estacionaria es integrada de
orden d, y se representa como yt~I(d), cuando puede ser transformada en una serie estacionaria
diferencindola d veces.
Una caracterizacin tpica de las series I(0) e I(1) es la siguiente:
22
La Estacionariedad Estricta implica que, adems de lo anterior, el proceso no es afectado por un cambio de origen de
tiempo. Bajo normalidad conjunta el set de momentos caracterizan completamente las propiedades del proceso, es
decir ambas estacionariedades son equivalentes.
99
Ejemplo: Un proceso ruido blanco puede ser simulado en Excel a travs de: =Aleatorio().
Realizamos un grfico y obtenemos 100 valores simulados;
1,2
1
0,8
0,6
0,4
0,2
0
1
13 19 25 31 37 43 49 55 61 67 73 79 85 91 97
Ntese que la media parece ser constante (igual a 0,5) y que la volatilidad parece tambin
constante, por lo que esta serie parece ser estacionaria.
Una mejor forma de realizar una simulacin en Excel es a travs de:
Herramientas-> Analisis de Datos -> Generacin de Numeros Aleatorios ->
e2 .
X t = 2 X t 1 + t
X t = 1 + 2 X t 1 + t
1 < 2 < 1
1 < 2 < 1
100
Un random walk pueder ser representado por un proceso autoregresivo de orden 1. Un proceso
autoregresivo de orden 1 [AR(1)] puede ser caracterizado por yt = r yt-1 + et , t = 1, 2, con et una
secuencia iid con media 0 and variance
e2 .
weakly dependent.
b)
X t = 1 + X t 1 + t
c)
X t = 1 + 2 t + t
23
Los random walks tienen dos propiedades importantes: la propiedad de Markov (la nica informacin relevante para
el valor futuro de la variable es su valor actual), y la propiedad de martingala (la expectativa condicional de un valor
futuro de la variable es su valor actual). En el caso de una martingala, si bien los cambios en la variable deben ser
siempre cero, no necesitan tener varianza constante, ni las innovaciones ser independientes. En el caso de una
tendencia positiva se llaman sub-martingalas, y en el caso de tendencias negativas supramartingalas.
101
IGPA mensual
1990.01 - 2001.03
2000,09
2000,01
1999,05
1998,09
1998,01
1997,05
1996,09
1996,01
1995,05
1994,09
1994,01
1993,05
1992,09
1992,01
1991,05
1990,09
1990,01
7000,00
6000,00
5000,00
4000,00
3000,00
2000,00
1000,00
0,00
As, puesto que la serie IGPA parece tener una tendencia, creemos que no es estacionaria. Sin
embargo existen pruebas formales de estacionariedad, como veremos a continuacin.
102
0,990 2
2
Q(1) = 135(137)
= 135,27 (1) = 3,84
134
0,990 2 0,974 2
2
Q(2) = 135(137)
+
= 267,19 (2) = 5,99
133
134
0,990 2 0,974 2 0,959 2
2
Q(3) = 135(137)
+
+
= 396,34 (3) = 7,81
134
133
132
Se aprecia que las autocorrelaciones descienden en forma gradual a medida que aumenta el
nmero de rezagos. Fijndonos en el ltimo rezago (3), el valor del estadstico Q es 390,77 con un nivel
de significancia de 0.000; por lo tanto, rechazamos la hiptesis que las correlaciones sean cero.
A su vez, el grfico de las autocorrelaciones luestra que stas en efecto disminuyen gradualmente,
como se esperara en el caso de una serie no estacionaria.
1.0
ACF
0.9
0.8
0.7
0.6
0.5
0.4
0.3
J
J
J
1990
J
J
1991
24
Recordemos que el correlograma, al igual que la prueba de Ljung-Box han sido utilizados anteriormente para
detectar la autocorrelacin de los residuos.
103
104
Yt = Yt 1 + t
donde en un error bien comportado. Si es igual a 1.0 (Ho:=1.0), es decir un proceso AR(1), entonces
la serie no es estacionaria, y adems se dice que tiene una raz unitaria. La serie con esta caracterstica
es llamada un Random-Walk. Luego, la hiptesis de raz unitaria es Ho: =1.0.
Sin embargo Dickey y Fuller (1979, 1981) mostraron que, para la hiptesis anterior, la tradicional
prueba t no puede se aplicada, pues existe sesgo. En cambio mostraron que los valores correctos son, en
el caso de correr la regresin con intercepto:
-
Yt Yt 1 = ( 1)Yt 1 + t
Yt = ( 1)Yt 1 + t
Yt = Yt 1 + t
de modo que la hiptesis cambia ahora a Ho: =0.0, haciendo ms simple de estimar la hiptesis.
Ejemplo: Correremos una regresin de la serie IGPA (135 observaciones) contra la misma
serie rezagada en un perodo (Tabla 14.xls).
a)
Yt = Yt 1 + t
Intercepcin
Variable X 1
b)
tau =
1)
(1,0036686
0 , 004309
1)
= 0 ,8513
Yt = Yt 1 + t
Intercepcin
Variable X 1
tau =
0 , 0036686
=
= 0 ,8513
0 , 004309
Puesto que 0,8513 < 2,89 no podemos rechazar que la serie IGPA es no estacionaria
(Ho: Existe raiz unitaria).
25
El conjunto de pruebas anteriores son llamadas de Dickey y Fuller. Existe un nmero importante de otras pruebas de
races unitarias especializadas, entre las cuales es usual la de PhillipsPerron.
105
Modelo 1:
Yt = Yt 1 + i Yt i +1 + t
i=2
Modelo 2:
Yt = + Yt 1 + i Yt i +1 + t
(modelo 1 + intercepto)
i =2
Modelo 3:
Yt = + Yt 1 + t + i Yt i +1 + t
(modelo 2 + tendencia)
i =2
En estas pruebas deben agregarse rezagos de dY hasta que et son ruido blanco, lo que es una
condicin necesaria para que este test sea vlido. El nmero apropiado de rezagos puede encontrarse por
el criterio BIC, aunque pueden plantearse otros criterios alternativos 26.
Los valores crticos usuales son 1%, 5%, y 10% los que dependen del tamao de la muestra. Los
valores crticos pueden obtenerse de Hamilton (1994, Tabla B.6).
26
(1) AIC criterion, (2) BIC criterion (el ms usado), (3) agregando rezagos (lags) hasta que el test de Ljung-Box test
no rechace no correlacin serial a un nivel de significancia, (4) idem con el Lagrange Multiplier test, o (5) partiendo con
un nmero mximo de diferencias rezagadas, si la ltima es significativa, elija ese nmero de rezagos, si no se reduce
en uno hasta que el ltimo rezago inluido es ignificativo.
106
Ejemplo: En el ejemplo del IGPA (Tabla 14.xls), implementar Augmented Dickey-Fuller ttest para los modelos 1, 2 y 3:
Modelo 1: Minimum AIC at lag: 2; Minimum BIC at lag: 2.
Yt = Yt 1 + [ 2 Yt 1 + 3 Yt 2 ] + t
linreg digpa
# igpa{1} digpa{1} digpa{2}
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. IGPA{1}
0.002606237 0.004043451
0.64456 0.52035847
2. DIGPA{1}
0.429916390 0.085891215
5.00536 0.00000179
3. DIGPA{2}
-0.228846913 0.086136727
-2.65679 0.00888546
* Augmented Dickey-Fuller t-test with 2 lags:
*
1%
5%
10%
*
-2.58
-1.95
-1.62
0.6446
*
*
*
Yt = + Yt 1 + [ 2 Yt 1 + 3 Yt 2 ] + t
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
115.4506088
48.6524791
2.37296 0.01913416
2. IGPA{1}
-0.0225541
0.0113227
-1.99193 0.04850725
3. DIGPA{1}
0.4141438
0.0846512
4.89236 0.00000294
4. DIGPA{2}
-0.2312968
0.0846373
-2.73280 0.00716841
* Augmented Dickey-Fuller t-test with 2 lags:
*
1%
5%
10%
*
-3.46
-2.88
-2.57
-1.9919
*
*
*
Yt = + Yt 1 + t + [ 2 Yt 1 + 3 Yt 2 ] + t ,
t=1,2, ...
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. Constant
115.7046426
48.9172119
2.36532 0.01952855
2. TREND
0.0617520
0.6593128
0.09366 0.92552598
3. IGPA{1}
-0.0237014
0.0167111
-1.41830 0.15855218
4. DIGPA{1}
0.4149103
0.0853740
4.85991 0.00000340
5. DIGPA{2}
-0.2299966
0.0860934
-2.67148 0.00854127
* Augmented Dickey-Fuller t-test with 2 lags:
*
1%
5%
10%
*
-3.99
-3.43
-3.13
-1.4183
*
*
*
En los tres casos nos lleva a concluir que no se rechaza Ho, es decir existe raz
unitaria en el IGPA.
107
25,00%
20,00%
600,00
15,00%
400,00
10,00%
200,00
5,00%
19
9
19 0,02
90
19 ,06
90
19 ,10
91
19 ,02
91
19 ,06
91
19 ,10
9
19 2,02
9
19 2,06
9
19 2,10
93
19 ,02
93
19 ,06
93
19 ,10
94
19 ,02
94
19 ,06
9
19 4,10
95
19 ,02
95
19 ,06
95
19 ,10
96
19 ,02
96
19 ,06
9
19 6,10
97
19 ,02
9
19 7,06
97
19 ,10
98
19 ,02
98
19 ,06
98
19 ,10
9
19 9,02
9
19 9,06
9
20 9,10
00
20 ,02
00
20 ,06
00
20 ,10
01
,0
2
0,00
0,00%
-200,00
-5,00%
-400,00
-10,00%
-600,00
-15,00%
-800,00
-20,00%
D_IGPA
R_IGPA
El grfico de la serie muestra que esta parece ahora ser estacionaria. Veamos lo que nos dice el
test de Dickey-Fuller. Corremos la regresin de los rendimientos del IGPA contra la misma serie rezagada
en 1 periodo. Omitiendo parte de la salida, los resultados son:
t=
0 ,5783
= 7 . 36
0,07852
As, con una significancia del 5% y valor critico 2,88, se rechaza la existencia de raz unitaria. Esta
prueba no encuentra una raz unitaria y afirma que la serie diferenciada es estacionaria. El econometrista
108
experimentado notar del grfico de la serie IGPA, que existe la posibilidad de un quiebre significativo en
1995, de modo que sugerir otras pruebas de races unitarias que mejor se ajusten a este caso.
Cuando la serie diferenciada no sea de inters, puede seguirse el camino tradicional de incorporar
una variable de tendencia a la regresin, la que tiene por objeto justamente capturar la tendencia
dejando que el coeficiente estimado de la serie I(1) libre del efectos de la tendencia, de modo que la
regresin es vlida.
Otras formas de eliminar races unitarias, consiste en aplicar logaritmos naturales para calcular
rendimientos contnuos, y la deflactacin a moneda real.
linreg lrrate
# constant lrrate{1} lpgnp{1}
109
X es I (1)
si aX + bY es I (0) X e Y estn cointegradas
Y es I (1)
Entonces, es posible estimar regresiones con variables X e Y conteniendo una raiz unitaria,
siempre y cuando ambas estn cointegradas, pues de lo contrario surgir el problema de Regresin
Esprea.
Para analizar el caso de la Regresin Esprea, consideremos dos series X1t, x2t y zt, tales que:
x1t I (1)
x2t I (1)
zt = 0 + 1 x1t + 2 x2t ;
z t I (1)
con
Las implicancias son, por un lado los residuos son I(1), es decir
Puesto que OLS ya no son consistentes, implicando que los resultados de la regresin (pruebas t y
F) estn erradas. En particular, los resultados de una regresin que incluye variables no estacionaras
independientes estn caracterizadas por:
110
xt CI (d , b) , si:
xt I (d b) . Beta es
Ejemplo: Si
x1t I (1)
x2t I (1)
son I(0),
entonces x1 y x2 se dice que estn cointegradas de orden CI(1,1), con vector cointegrante
La Interpretacin Econmica es que si dos o ms series estn unidas por una relacin de
equilibrio, entonces an cuando las series en s mismas son no estacionarias, ellas sin embargo se
movern casi juntas a travs del tiempo, y la diferencia entre ellas ser estacionaria. El concepto de
cointegracin indica la existencia de un equilibrio de largo plazo al cual el sistema econmico converge a
travs del tiempo, y et puede ser interpretado como el error de desequilibrio, es decir la distancia a que el
sistema se encuentra alejado del equlibrio en el momento t.
Desde el punto de vista economtrico, si dos variables estn cointegradas, el anlisis de regresin
entrega informacin importante acerca de la relacin de largo plazo entre las variables. Si dos variables
no estacionarias no estn cointegradas, los resultados de la regresin no son tiles, es decir se se tiene
una regresin esprea.
111
Por Ejemplo, las siguientes series xit y x2t estn cointegradas, con vector cointegrante (1,-1).
25
20
15
10
6
-5
0
-2
-4
-6
50
100
Residual
150
Actual
200
250
Fitted
Puesto que los errores son I(0), ambas series estn cointegradas.
112
CONSUMOt = 0 + 1 INGRESO + t
Paso 2: Para que exista cointegracin, el error, que es una combinacin lineal de las series, debe ser
estacionario, I(0):
t = CONSUMOt 0 1 INGRESO
Si los errores son I(1) concluimos que las variables no estn cointegradas. Si los residuos son I(0)
decimos que las variables son cointegradas de orden (1,1). Lamentablemente aqu tampoco pueden
usarse los valores crticos de Dickey-Fuller, sino que por ejemplo los de Engle y Yoo (1987) o de acuerdo
a MacKinnon (1991), como se muestra en la siguiente tabla.
113
donde:
CONSUMOt = 0 + 1INGRESO + 2 et 1 + ut
donde se espera que el nuevo error, u, est bien comportado.
En esta especificacin de correccin de errores el coeficiente 1 captura las perturbaciones de
corto plazo la variable INGRESO, mientras que 2 captura las perturbaciones de largo plazo, o el ajuste de
largo plazo, indicando qu proporcin del desequilibro en el CONSUMO en un periodo es corregida en el
periodo siguiente.
114
Ejemplo: A modo de ilustracin, considere la tabla en el archivo Pindyck - EX164.xls que precios del
petrlero y del cobre desde 1870 a 1987.
En primer lugar verificamos si el petroleo es estacionario:
* Augmented Dickey-Fuller t-test with 5 lags:
*
1%
5%
10%
*
-2.58
-1.95
-1.62
0.2295
*
*
-6.5234
*
*
-1.1085
*
*
-11.2136
*
*
-3.1511
*
*
115
116
CAPTULO 6
INTRODUCCIN A LA PREDICCIN EN
EXCEL
Tipos de
Tcnicas de Prediccin
Mtodos Subjetivos
Mtodos Objetivos
causal
extrapolacin
Modelos Economtricos
(Modelos de Regresin
simple o mltiple)
(requiere variable dependiente
y una o varias variables explicativas)
Box-Jenkins
(ARIMA)
Modelos a-tericos
- Opinin de Ejecutivos
- Tcnica Delphi (consenso de
expertos)
- Basadas en Fuerza Ventas
- Encuestas de intenciones de
compra
Mtodos de
Series de Tiempo
Suavizamiento
Exponencial
Prediccin
Espectral
117
Si
Pocos datos disponibles?
Mtodos
Subjetivos
No
Objective Methods
1.
2.
3.
4.
Si
Mtodos
Causales
No
Mtodos de Extrapolacin
118
[Y 2.0 (e ) , Y + 2.0 (e )]
0
1
( Xo X ) 2
(eo ) = (Yo Yo ) = (1 + + i =T
T ( X i X )2
i =1
Intercepcin
Tendencia
27
119
Para obtener la prediccin, seleccione las celdas del ponstico, como se muestra abajo, y arrastre
(con la cruz de la derecha abajo) 5 celdas hacia abajo:
Para construir un intervalo de confianza, note que puesto que T=10, se tienen 8 grados de
libertad para la distribucin t, de modo que t(8)=2,306.
Lim_sup = Y_PREDICC + 2.306*ERST
Lim_inf = Y_PREDICC - 2.306*ERST
120
son:
El error estndar de prediccin y los lmites inferiores y superiores de los intervalos de confianza
Para apreciar el ajuste del modelo, veamos que sucede a travs de grficos de series de tiempo.
Para ello, al marcar la casilla Curva de Regresin Ajustada Excel entreg un grfico que compara las
observaciones actuales con las observaciones ajustadas por la regresin. A este grfico es posible agregar
una lnea de tendencia (lineal) seleccionando con el botn derecho del Mouse uno de los puntos
ajustados, y en opciones Extrapolar hacia delante 5 unidades (aos). Tambin es posible agragar las
series de los limites inferior y superior del Intervalo de confianza, obteniendo lo que se muestra a
continuacin:
y = 10,182x + 55
200
Ventas
150
100
50
0
0
10
12
14
16
Tendencia
Ventas
Pronstico Ventas
Lim Inferior
Lim Superior
121
3000,0
2915,5
2605,5
2500,0
2161,0
2000,0
1780,5
1539,1
1500,0
1369,2
1223,6
1121,7
1000,0
962,6
813,7
697,3
500,0
0,0
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
122
OCCUP
76,00
74,00
72,00
70,00
68,00
66,00
64,00
62,00
60,00
1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000
Entonces creamos una serie de tendencia que comienza en T=10 (a efectos que los resultados
intermedios coincidan con los reportados por los autores originales del ejemplo). Aqu esta serie debe
llegar hasta 21, partiendo desde la observacin 11.
tend = T+10
Intercepcin
UNEMP
Tend
Se aprecia una relacin inversa entre desempleo y ocupacin de habitaciones (como se esperara),
y la relacin positiva entre la tendencia y la ocupacin.
A efectos de poder predecir la ocupacin se otra ecuacin para predecir el desempleo para el ao
2001. De modo que el enfoque de la ecuacin anteriormente estimada tiene algunas limitaciones28.
El enfoque sugerido es utilizar una especificacin que incluya informacin rezagada de las
variables para efectos de prediccin (esto es, una especificacin AR). Siguiendo a los autores del ejemplo,
esto es lo que hacemos ahora, de modo que eliminamos la tendencia, pues ahora se tiene la variable
dependiente rezagada como regresor.
Incorporamos tambin la tasa de inters de corto plazo (Commercial Paper Rate) en la
estimacin. Luego corremos la regresin con variable dependiente OCCUP y variables independientes el
intercepto, OCCU, UNEMP y CPR rezagadas todas un periodo.
28
Se puede hacer una prediccin separada para el desempleo, y despus usar la regresin anterior para predecir la
ocupacin de habitaciones. Esto sera un error, ya que se estar usando un coeficiente de 1.85 inapropiado. Otra
alternativa es hacer una prediccin separada para el desempleo, y regresionar ste contra la ocupacin. En este caso el
coeficiente de pendiente debe ser menor a 1.85 anterior, lo que sera ms correcto.
123
Intercepcin
Variable X 1
Variable X 2
Variable X 3
grfico.
Occup
67,058108
68,9073325
72,1736289
68,8317072
66,0360939
68,7666435
71,6160245
73,4803004
73,7764965
70,9536707
68,50
67,40
70,70
70,60
68,30
65,40
68,40
71,20
74,30
73,80
71,50
74
72
70
68
66
64
62
60
1991
1992
1993
1994
1995
pronostico
1996
1997
1998
1999
2000
Observado
124
lrrate = ln(rrate)
lpgnp = lln(pgnp)
Intercepcin
Variable X 1
Variable X 2
El coeficiente de la serie LPGNP es muy bajo y tiene un alto error, sin embargo tiene sentido que
puesto que los ingresos se mueven con la inflacin, el valor rezagado de sta sea un buen predictor de de
los ingresos futuros, de modo que aceptamos esta especificacin.
Pronostico
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2,7739593
2,84239938
2,87593936
2,93356366
2,999124
3,13980119
3,21040364
3,31896088
3,45130208
3,61873983
Log(RRATE)
2,74
2,80
2,83
2,87
2,91
3,04
3,10
3,20
3,33
3,49
3,61
La prediccin para 2001 es 42,63. Luego, para poder graficar, se transforma la prediccin de la
ltima regresin (el Log natural del ingreso por Habitacin) aplicando la Exponencial.
Ingreso por Habitacin vs Prediccin
40,0
35,0
30,0
25,0
20,0
15,0
10,0
5,0
0,0
1990
1991
1992
1993
1994
1995
Pronostico
1996
1997
1998
1999
2000
RRATE
125
Intercepcin
Variable X 1
Variable X 2
12,23
12,31
12,39
12,47
12,52
12,54
12,56
12,57
12,60
12,63
Ln(ROOMS)
12,10
12,21
12,31
12,42
12,50
12,52
12,54
12,54
12,57
12,60
12,62
Pronostico
204582,74
221853,54
239517,58
260808,82
274511,45
279291,79
284389,72
288083,79
296048,95
304657,94
ROOMS
179364
200464
221113
246913
267032
274969
278064
278957
286529
296251
303578
300000
250000
200000
150000
100000
50000
0
1991
1992
1993
1994
1995
1996
Pronostico
1997
1998
1999
2000
2001
ROOMS
126
d) Prediccin Final
Ahora, obtenemos la prediccin final para el ao 2001:
Ingresos anuales = (occup/100)*(365*rrate/1000000)* rooms
= 69,034/100 * 365*42,63/1000000 * 309572
= 3325,67 millones de dlares por ao
De este modo, la prediccin para las ventas de la cadena de hoteles del ao 2001 es de
US$3325.67 millones.
Note que a travs de este enfoque no es posible obtener una prediccin para el ao 2002, a
menos que se cuente con nueva informacin del ao 2001 para las diferentes variables explicativas. Este
problema es salvado en cierta medida por los modelos atericos del siguiente captulo. Sin embargo, a
modo de ilustracin, ntese que una especificacin AR(2) para el ingreso de la cadena de hoteles puede
ser estimado como:
Ingreso = beta0 + beta1*Ingreso{1} + beta2*Ingreso{2}
Se obtiene:
Beta0=11,68
Beta1=1,39
Beta2=-0,29
Y una prediccin para 2001 de 3326,67 millones de dlares por ao, lo que es bastante similar a
lo obtenido anteriormente. Ntese que ahora puede estimarse ahora una prediccin para 2002 usando la
misma ecuacin anterior, lo que arroja: de 3811,03 millones de dlares por ao
127
MSE =
1
et2
n
La mayora de los errors caen dentro de 2*RMSE de los errores, por lo que su interpretacin
esclara. Como caracterstica adicional, penaliza los errores grandes ms que los errores pequeos.
A veces se usa la raiz cuadrada (Root Mean Squared Error, RMSE).
et
MAE =
Tiene por caracterstica penalizar de igual modo todos los errores. Como ventaja ofrece una
interpretacin atractiva: expresa el error promedio por perido, conservando las unidades originales de
medicin.
6.4.3. Promedio del Porcentaje de Error Absoluto (Mean Absolute Percentage Error, MAPE)
et
n
MAPE =
1
Yt
n
donde yt = y observado
128
Como ventaja presenta una interpretacin atractiva, pues se expresa como porcentaje promedio
de error por periodo, lo que permite la comparacin entre series diferentes (por ejemplo diferentes
productos).
Para esto se estiman ambos modelos para los aos 1990 - 1999. Los resultados de la estimacin
son:
(A): Vt = -26315,33 + 13,33 Aot
(B): Vt = 107,83 + 0,649*Vt-1
Las predicciones con cada modelo se presentan a continuacin en las columnas Ventas (A) y
Ventas (B):
1
2
3
4
5
6
7
8
9
10
11
12
13
Ao
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
Ventas
200
220
250
270
300
280
290
320
350
300
310
340
345
Ventas (A)
218,00
231,33
244,67
258,00
271,33
284,67
298,00
311,33
324,67
338,00
351,33
364,67
378,00
Intercepto
Pendiente
-26.315,33
13,3333
Ventas (B)
237,63
250,61
270,08
283,06
302,53
289,55
296,04
315,51
334,98
325,23
318,91
314,80
Error 2 (A)
1.708,44
608,44
1.089,00
1.135,30
MSE
Error 2 (B)
232,08
444,86
911,88
529,61
MSE
Abs E (A)
41,33
24,67
33,00
33,00
MAD
Abs E (B)
15,23
21,09
30,20
22,17
MAD
% E (A)
13,33%
7,25%
9,57%
10,05%
MAPE
% E (B)
4,91%
6,20%
8,75%
6,62%
MAPE
107,83
0,6490
Ntese que a travs del modelo B, para predecir los aos 2000, 2001 y 2002 debe usarse los datos
anteriores de Ventas(B), y no los datos conocidos de Ventas. Por ejemplo 325,23=107,83 +
0,6490*334,98.
Luego, se prefiere el modelo de regresin AR(1).
129
CAPTULO 7
MODELOS ARIMA
Box y Jenkins (1976) propusieron la que hoy en da es una muy popular mtodologa para la
identificacin, estimacin y prediccin de series de tiempo univariadas estacionarias. Esta mtodologa se
basa en los llamados modelos ARIMA, es decir modelos que poseen componentes autorregresivos (AR) y
de medias mviles (MA), los que nos avocaremos a estimar ahora. La generalizacin de los modelos
ARIMA al caso multivariado corresponde a los modelos de vectores autorregresivos (VAR).
Los modelos ARIMA y los modelos VAR son a veces llamados a-tericos, en el sentido que una
determinada serie es explicada bsicamente por informacin pasada de la misma serie, sin que
necesariamente exista un modelo terico-econmico detrs. A pesar de esto, cuando el objetivo es
predictivo se ha encontrado que tales modelos resultan ser exitosos en muchos casos. Puesto que ste es
un tema extenso y con un gran desarrollo, especialmente terico, estamos aqu especialmente
interesados en los aspectos estimacinales de los mismos.
130
131
Yt = 0.8Yt 1 + et
Yt = 1.05Yt 1 + et
donde et es N(0,1)
300
250
200
150
100
50
97
10
0
91
94
85
88
79
82
73
76
67
70
61
64
55
58
49
52
43
46
37
40
31
34
28
22
25
16
19
7
10
13
-50
0,85
1,05
Con esto concluimos que en un proceso autorregresivo puro, como los graficados, cuando el valor
del coeficiente de Yt-1 es menor que 1 se tiene un proceso estable (estacionario), mientras que cuando
este coeficiente es mayor a uno (por ejemplo 1.05 como en este ltimo caso), el proceso no es estable (a
veces es llamado explosivo) 29, de modo que sta es entonces una condicin para la estabilidad del
proceso (parte de este resultado ya fue analizado en el captulo anterior de races unitarias).
29
En realidad estas condiciones pueden mostrarse formalmente, para lo cual remitimos al lector a un libro de texto,
por ejemplo Hamilton (1994).
132
133
Yt = 0 et + 1et 1 + 2 et 2 + ... + q et q
es decir, el valor actual de Y es explicado por una serie de q rezagos de los errores de estimacin. El
procedimiento de estimacin pasa por la implementacin del algoritmo de Gauss-Newton con derivadas
numricas, el que puede ser aplicado en Excel a travs de Solver.
fecha
desempleo
2000,01
497,40
2000,02
473,53
2000,03
479,93
2000,04
494,66
2000,05
521,18
2000,06
546,79
2000,07
592,45
2000,08
613,53
2000,09
626,59
2000,10
585,37
2000,11
551,84
2000,12
489,42
Ajuste
521,67
521,67
499,34
477,37
503,82
537,58
537,65
530,15
572,10
598,40
571,82
509,68
Error
-24,27
-48,14
-19,41
17,29
17,36
9,21
54,80
83,38
54,49
-13,03
-19,98
-20,26
SCErr=
Error_2
589,20
2317,79
376,62
298,90
301,54
84,77
3002,73
6952,89
2969,32
169,90
399,09
410,43
17873,17
beta0
beta1
521,67
0,92
Con esto, una prediccin para enero y febrero de 2001 son respectivamente 503,29 y 503,03.
134
135
BOXJENK(AR=||3||,MA=||2||) desempleo
Dependent Variable DESEMPLEO - Estimation by Box-Jenkins
Iterations Taken
10
Monthly Data From 2000:04 To 2000:12
Usable Observations
9
Degrees of Freedom
7
Centered R**2
-0.572325
R Bar **2 -0.796943
Uncentered R**2
0.988880
T x R**2
8.900
Mean of Dependent Variable
557.98888889
Std Error of Dependent Variable 49.94770877
Standard Error of Estimate
66.95495087
Sum of Squared Residuals
31380.758118
Durbin-Watson Statistic
0.387783
Q(2-2)
5.424152
Significance Level of Q
0.00000000
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. AR{3}
0.9825785293 0.0578230093
16.99286 0.00000060
2. MA{2}
1.0416452807 0.6656597453
1.56483 0.16160111
136
Ejemplo:
137
138
Veamos a continuacin estos pasos para el ejemplo desarrollado por Enders (1996), pagina 47,
para el ndice de precios al consumidor de los Estados Unidos.
cal 1960 1 4
all 0 1992:2
data(unit=input,org=obs) / WPI
... Ver datos en la Tabla 15
table
Series
WPI
Obs
130
Mean
65.090000000
Std Error
31.366183959
Minimum
Maximum
30.500000000 116.200000000
source(noecho) c:\winrats\bjident.src
@bjident wpi
0 Regular 0 Seasonal
1.00
0.75
0.50
0.25
0.00
-0.25
-0.50
-0.75
CORRS
PARTIALS
-1.00
0
10
15
20
;* puesto que las correlaciones simples decrecen muy lentamente, asumimos que
la serie contiene una raz unitaria, por lo que debe ser diferenciada.
set dlwpi = log(wpi) - log(wpi{1}) ;* es la diferenciacin basada en logaritmos
@bjident dlwpi
139
0 Regular 0 Seasonal
1.00
0.75
0.50
0.25
0.00
-0.25
-0.50
-0.75
CORRS
PARTIALS
-1.00
0
10
15
20
140
...
Variable
Coeff
Std Error
T-Stat
Signif
*******************************************************************************
1. CONSTANT
0.010484902 0.004405769
2.37981 0.01883337
2. AR{1}
0.889069641 0.059263358
15.00201 0.00000000
3. MA{1}
-0.514522826 0.111683147
-4.60699 0.00000992
cor(partial=pacf,qstats,span=8,dfc=%nreg) resids
0.1585506
0.0133654
0.0147031
0.0350266
0.0454919
-0.0483299 0.1502811
-0.1225670 -0.0374033
-0.0119804 -0.0822551
-0.0012545 0.0750815
-0.0901244 -0.0275496
Partial Autocorrelations
1: 0.0074000 -0.0486195 -0.0113184 0.1567634 -0.0534576 0.1706623
7: -0.0832060 -0.1059913 -0.0898829 -0.0540433 -0.1009550 -0.0392973
13: 0.0487349 0.0667988 0.0340725 0.0104601 -0.0115962 -0.1276234
19: 0.0045915 0.0816563 0.0384150 0.0976347 -0.0005648 0.1000586
25: -0.1483901 0.0856106 -0.0279169 0.0449157 -0.0325792 -0.0695697
31: 0.0058260 0.1388075
Ljung-Box Q-Statistics
Q(8)
=
9.0642.
Q(16) =
13.2492.
Q(24) =
18.5435.
Q(32) =
30.7083.
Significance
Significance
Significance
Significance
Level
Level
Level
Level
0.10653191
0.42875481
0.61439740
0.37930107
-523.39339 SBC
-514.83730
30
Anteriormente vimos estas pruebas de parsimonia. El objetivo es minimizar ambos criterios, los que pueden ser
negativos.
141
@bjident resids
0 Regular 0 Seasonal
1.00
0.75
0.50
0.25
0.00
-0.25
-0.50
-0.75
CORRS
PARTIALS
-1.00
0
10
15
20
;* estimamos el modelo
ARMA(1,||1,4||)
...
cor(partial=pacf,qstats,span=8,dfc=%nreg) resids
Correlations of Series RESIDS
Quarterly Data From 1960:03 To 1992:02
Autocorrelations
1: 0.0089624 -0.0328139 0.0703164 -0.0371207 -0.1003303 0.1643790
7: -0.0416431 -0.0704238 -0.0637490 0.0023137 -0.0800136 0.0130417
13: 0.0672441 0.0760727 -0.0200882 -0.0009854 -0.0204687 -0.1018997
19: 0.0413006 0.1192971 0.0407567 0.0259783 0.0031011 0.0614874
25: -0.1015937 0.1397403 0.0185355 -0.0080937 -0.0413297 -0.0409861
31: -0.1119197 0.1516016
Partial
1:
7:
13:
19:
25:
31:
Autocorrelations
0.0089624 -0.0328968 0.0709975 -0.0399206 -0.0953807 0.1619230
-0.0503915 -0.0497286 -0.0944232 0.0118146 -0.0505699 -0.0143084
0.0645411 0.0882197 -0.0048105 -0.0319778 -0.0138617 -0.1005960
0.0351777 0.0883233 0.0754616 0.0357150 -0.0111996 0.1115583
-0.1192968 0.1231648 -0.0347506 0.0352566 -0.0425849 -0.0582155
-0.0172188 0.1442226
Ljung-Box Q-Statistics
Q(8)
=
6.9692.
Q(16) =
10.0318.
Q(24) =
15.0892.
Q(32) =
26.7146.
Significance
Significance
Significance
Significance
Level
Level
Level
Level
0.13752250
0.61317493
0.77128316
0.53382615
142
-527.39070 SBC
-515.98258
0.75
0.50
0.25
0.00
-0.25
-0.50
-0.75
CORRS
PARTIALS
-1.00
0
10
15
20
;* en efecto, los residuos parecen ruido blanco, por lo que aceptamos esta
ltima especificacin.
31
143
Puesto que la hiptesis nula es inexistencia de cambio estructural, no podemos rechazarla a los
niveles usuales de confianza. Este resultado nos permitira usar el modelo anterior para fines predictivos.
DLWPI
0.0188847938078
0.0125375481179
0.0174885621621
0.0225979697375
0.0202683832419
0.0184263689693
0.0169698801945
0.0158182281240
DLWPI
0.0188094779880
0.0180561216985
0.0173876265082
0.0167944333198
0.0162680598113
0.0158009791435
0.0153865123313
0.0150187327370
32
Vase la prediccin de sistemas VAR en la seccin 9.5.3. para una descripcin de esta instruccin.
144
1990:01
ENTRY
1990:01
1990:02
1990:03
1990:04
1991:01
1991:02
1991:03
1991:04
1992:01
1992:02
1992:03
1992:04
WPI
111.00000000000
110.80000000000
112.80000000000
116.20000000000
113.80000000000
112.70000000000
112.50000000000
112.70000000000
112.40000000000
113.60000000000
NA
NA
DLWPI
0.014519311324
-0.001803426999
0.017889564751
0.029696505354
-0.020870322726
-0.009713100646
-0.001776199401
0.001776199401
-0.002665483586
0.010619568827
NA
NA
FORE1
NA
NA
NA
NA
0.0188847938078
0.0125375481179
0.0174885621621
0.0225979697375
0.0202683832419
0.0184263689693
0.0169698801945
0.0158182281240
FORE2
NA
NA
NA
NA
0.0188094779880
0.0180561216985
0.0173876265082
0.0167944333198
0.0162680598113
0.0158009791435
0.0153865123313
0.0150187327370
Obs
Mean
Std Error
Minimum
Maximum
6 0.00057785770 0.00051875480 0.00006094613 0.00158046929
6 0.00055395699 0.00055631156 0.00002684701 0.00157448658
Obs
Mean
6 -0.0221388274
6 -0.0209576728
Std Error
Minimum
Maximum
0.0102604107 -0.0397551165 -0.0078068001
0.0117336922 -0.0396798007 -0.0051814103
145
METODOS DE SUAVIZAMIENTO
146
CAPTULO 8
ERROR EN LAS VARIABLES:
INSTRUMENTOS
Existen muchos casos en que alguna de las variables independientes X no puede ser observada
directamente, para lo cual puede asumirse que existe a su vez un modelo que explica X en funcin de un
nmero de otras variables. Si este es el caso, se generan dos tipos de problemas: en primer lugar X ya no
es fija, sino que es estocstica (regresores estocsticos), y segundo, X es medida con error (existe error
de medicin o error en las variables).
Hemos dicho anteriormente que cuando los regresores son estocsticos o existe error de
medicin, generalmente se viola el supuesto de independencia de los errores con los regresores del
modelo de regresin, lo que genera estimadores sesgados inconsistentes a travs de MCO, por lo que ste
no es el mtodo apropiado. Ntese que este problema tambin ocurre en los modelos de series de tiempo
tipo AR en que existe como variable explicativa una variable dependiente rezagada (Yt-1).
Existen casos en un modelo de regresin mltiple en que el coeficiente de la variable medida con
error no es de inters, por lo que uno podra plantearse simplemente el excluirla. Sin embargo es
recomendado el uso de variables proxies (aquellas medidas con error) para mantener la especificacin del
modelo, pues la omisin de variables relevantes puede introducir sesgos en los estimadores restantes.
Y = 0 + 1 X +
sin embargo X no es conocida, aunque puede estimarse con error usando las variables Z1 y Z2, es decir:
X * = 0 + 1 Z1 + 2 Z 2 +
(1)
en que X* es una variable proxy de X, y Z es un instrumento. Ahora el modelo original puede ser reescrito
como:
147
Y = + 1 1 Z1 + 2 1 Z 2 +
(2)
As, este problema puede ser reescrito como uno resolucin de las dos ecuaciones (1) y (2)
simultneamente. El procedimiento de resolucin es llamado mnimos cuadrados en dos etapas (MC2E),
que consiste en:
Paso 1: estimar (1) y guardar la proyeccin de X.
Paso 2: estimar (2) usando la proyeccin de X anterior.
Model
1
(Constant)
Z2
Z3
Unstandardized
Coefficients
B
Std. Error
16.325
10.187
.960
1.465
2.600
1.717
Standardi
zed
Coefficien
ts
Beta
.711
1.643
t
1.603
.655
1.514
Sig.
.135
.525
.156
a. Dependent Variable: X1
Model
1
(Constant)
Z2
Z3
Unstandardized
Coefficients
B
Std. Error
35.105
26.194
-.373
3.768
-4.737
4.414
Standardi
zed
Coefficien
ts
Beta
-.096
-1.046
t
1.340
-.099
-1.073
Sig.
.205
.923
.304
a. Dependent Variable: X2
148
Model
1
(Constant)
Unstandardized
Predicted Value
Unstandardized
Predicted Value
Unstandardized
Coefficients
B
Std. Error
-.621
115.644
Standardi
zed
Coefficien
ts
Beta
t
-.005
Sig.
.996
1.122
3.384
1.017
.331
.746
9.696E-02
1.166
.255
.083
.935
a. Dependent Variable: Y
MOD_1.
. . .
------------------ Variables in the Equation -----------------Variable
X1
X2
(Constant)
SE B
Beta
Sig T
1.121658
.096963
-.621193
4.466377
1.539588
152.650768
1.084998
.268545
.251
.063
-.004
.8060
.9508
.9968
. . .
149
Y = X + e,
E [Z ' e] = 0
[(
b N X ' ZW 1 Z ' X
donde por default
) (X ' ZW
1
Z 'Y
, s 2 X ' ZW 1 Z ' X
W 1 = ( Z ' Z ) 1 , aunque esta matriz puede modificarse con la opcin WMATRIX para
Y = f ( X , ) + e, E [Z ' e] = 0
e
e
' ZW 1 Z '
, s
2
150
REFERENCIAS
Akaike, H. (1973). Information Theory and the Extension of the Maximum Likelihood Principle. En 2
International Symposium on Information Theory. B. Petrov y F. Csaki eds., Budapest.
Bollerslev, T. (1986). Generalized Autorregressive Conditional Heteroscedasticity. Journal of
Econometrics, Vol. 31(1986), pp 307-327.
Box, G. y G. Jenkins (1976). Time Series Analysis, Forecasting and Control. Holden Day: San Francisco.
Breush, T. (1978). Testing for Autocorrelation in Dynamic Linear Models. Australian Economic Papers,
17, pp. 334-355.
Breusch, T. y A. Pagan (1979). A Simple Test for Heteroscedaticity and Random Coefficient Variation.
Econometrica, Vol. 47, pp. 1287-1294.
Chow, G. (1960). Tests of Equality Between Sets of Coefficients in Two Linear Regressions.
Econometrica 28, pp. 591-605.
Cochrane, D. y G. Orcutt (1949). Application of Least Squares Regression to Relationships Containing
Autocorrelated Error Terms. Journal of the American Statistical Association 44, pp. 32-61.
Doan, T. (1995). RATS-Users Manual-versin 4.2. Estima: Evanston
Dickey, D. y W. Fuller (1979). "Distribution of the Estimates for Autoregressive Time Series with a Unit
Root", Journal of the American Statistical Association, 74, pp. 427-431.
Dickey, D. y W. Fuller (1981). "Likelihood ratio Statistics for Autoregressive Time Series with a Unit Root.
Econometrica 49, pp. 1057-1072.
Durbin, J. y G. Watson (1951). Testing for Serial Correlation in Least Squares Regression-II. Biometrika
38, pp. 159-178.
Durbin, J. (1970). Testing for Serial Correlation in Least Squares Regression When Some of the
Regressors are Lagged Dependent Variables. Econometrica 38, pp. 410-421.
Engle, R. (1982).Autoregressive Conditional Heteroscedasticity with Estimates of the Variance of United
Kingdom Inflation. Econometrica (50): 987-1008.
Engle, R. y C. Granger (1987), "Cointegration and Error Correction: Representation, Estimation and
Testing", Econometrica, 55, 251-276.
Engle, R. y B. Yoo (1987). Forecasting and Testing in Cointegrated Systems. Journal of Econometrics
35. pp. 143-159.
Enders, W. (1995). Applied Econometric Time Series, New York. John Wiley and Sons.
Enders, W. (1996). Rats Handbook for Econometric Time Series. John Wiley and Sons.
Godfrey, L. (1978). Testing AgainstGeneral Autorregresive and Moving Average Error Models When the
Regressors Include Lagged Dependent Variables. Econometrica, 46. pp. 1293-1302.
Goldleld, S. y R. Quandt (1972). Nonlinear Methods in Econometrics. Amsterdam: North Holland, cap. 3.
Granger, C. (1969). Investigating Causal Relations by Econometric Models and Cross Spectral Models.
Econometrica, Vol. 37, pp. 424-438.
151
Greene, W. (1999). Anlisis Economtrico, Prentice Hall Iberia S.R.L. 3a. Edicin, Madrid, Espaa.
Gujarati, D. (1997). Econometra. Mc Graw Hill. 3a. Edicin, Santaf de Bogot, Colombia.
Hall, R., J. Johnston y D. Lilien (1990). MicroTsp Users Manual v. 7.0. Quantitative Micro Software, Irvine,
California.
Hamilton, J. (1994). Time Series Analysis. Princeton University Press.
Hidreth, C. y J. Lu (1960). Demand Relations with Autocorrelated Disturbances. Technical Bulletin
N276, Michigan State University. Agricultural Experiment Station.
Intriligator, M. (1991). Modelos Economtricos, Tcnicas y Aplicaciones. Fondo de Cultura Econmica.
Mxico.
Johansen, S. (1988), "Statistical Analysis of Cointegrated Vectors", Journal of Economics Dynamics and
Control, 12, 231-254
Judge, G., Hill C. y Griffihs, W. (1988). Introduction to the theory and Practice of Econometrics. John
Wiley Sons. Second Edition.
Klein, L. (1950). Economic Fluctuations in the United States 1921-1941. New York: John Wiley and Sons.
Klein, L. (1962). An Introduction to Econometrics. Englewood Cliffs: Prentice Hall.
Ljung, G. Y G. Box (1978). On a Measure of Lack of Fit in Time Series Models. Biometrica 65, 297-303.
Maddala, G. S. (1996). Introduccin a la Econometra. Segunda Edicin. Prentice-Hall.
Mackinnon, J. (1991). Critical Values of Cointegration Tests, en Engle y Granger eds. Long Run
Economic Relationships: Readings in Cointegration, cap. 13. Oxford University Press. New York.
Mills, T. (1993). The Econometric Modelling of Financial Time Series. Cambridge University Press.
Newey, W. y K. West (1987). "A Simple Positive-Definite Heteroskedasticity and Autocorrelation
Consistent Covariance Matrix". Econometrica (55): 703708.
Otero J. M. (1993). Econometra, Series Temporales y Prediccin. Editorial AC. Primera Edicin.
Pindyck, R. y D. Rubinfeld (1998). Econometric Models and Economic Forecasts. 4 Edicin. Irwin Mc Graw
Hill.
Schwartz, G. (1978). Estimating the Dimension of a Model. Annals of Statistics, Vol. 6, pp 461-464.
Sims, C. (1980). Macroeconomics and Reality. Econometrica, Vol. 48, pp 1-49.
White, H. (1980). A Heteroskedasticity-Consistent Covariance Matrix Estimator and Direct Test for
Heteroskedasticity. Econometrica, Vol. 48, pp. 817-838.
Zellner, A. (1962). An Efficient Method of Estimating Seemingly Unrelated Regressions and Test of
Aggregation Bias. Journal of the American Statistical Association 57, pp. 348-368.
152
IMACEC
DESEMPLEO
IPC
2000.01
254.40
497.40
102.49
2000.02
243.19
473.53
103.06
2000.03
267.40
479.93
103.81
2000.04
244.07
494.66
104.31
2000.05
248.97
521.18
104.53
2000.06
244.34
546.79
104.77
2000.07
242.02
592.45
104.91
2000.08
243.47
613.53
105.18
2000.09
235.21
626.59
105.82
2000.10
254.93
585.37
106.46
2000.11
252.29
551.84
106.82
2000.12
250.53
489.42
106.94
Fuente: Banco Central de Chile
153
TABLA 2
INFORMACIN DE 30 EMPRESAS RESPECTO A UNA FUNCIN DE PRODUCCIN COBB-DOUGLAS SIMPLE,
EN QUE EL PRODUCTO (Q) ES EXPLICADO POR EL CAPITAL (K) Y EL TRABAJO (L)
Empresa
Trabajo
(L)
Capital
(K)
Producto
(Q)
0.228
0.802
0.256918
0.258
0.249
0.183599
0.821
0.771
1.212883
0.767
0.511
0.522568
0.495
0.758
0.847894
0.487
0.425
0.763379
0.678
0.452
0.623130
0.748
0.817
1.031485
0.727
0.845
0.569948
10
0.695
0.958
0.882497
11
0.458
0.084
0.108827
12
0.981
0.021
0.026437
13
0.002
0.295
0.003750
14
0.429
0.277
0.461626
15
0.231
0.546
0.268474
16
0.664
0.129
0.186747
17
0.631
0.017
0.020671
18
0.059
0.906
0.100159
19
0.811
0.223
0.252334
20
0.758
0.145
0.103312
21
0.050
0.161
0.078945
22
0.823
0.006
0.005799
23
0.483
0.836
0.723250
24
0.682
0.521
0.776468
25
0.116
0.930
0.216536
26
0.440
0.495
0.541182
27
0.456
0.185
0.316320
28
0.342
0.092
0.123811
29
0.358
0.485
0.386354
30
0.162
0.934
0.279431
Fuente: Judge et al. Pg. 512
154
TABLA 3
AHORRO E INGRESO DEL REINO UNIDO 1946-1963
(MILLONES DE LIBRAS)
Ao
Ahorro
Ingreso
1946
0.36
8.8
1947
0.21
9.4
1948
0.08
10.0
1949
0.20
10.6
1950
0.10
11.0
1951
0.12
11.9
1952
0.41
12.7
1953
0.50
13.5
1954
0.43
14.3
1955
0.59
15.5
1956
0.90
16.7
1957
0.95
17.7
1958
0.82
18.6
1959
1.04
19.7
1960
1.53
21.1
1961
1.94
22.8
1962
1.75
23.9
1963
1.99
25.2
Fuente: Gujarati, Pg. 258
155
TABLA 4
CONSUMO E INGRESO DE 20 FAMILIAS
(MILES DE DLARES)
Familia
Consumo
Ingreso
19.9
22.3
31.2
32.3
31.8
36.6
12.1
12.1
40.7
42.3
6.1
6.2
38.6
44.7
25.5
26.1
10.3
10.3
10
38.8
40.2
11
8.0
8.1
12
33.1
34.5
13
33.5
38.0
14
13.1
14.1
15
14.8
16.4
16
21.6
24.1
17
29.3
30.1
18
25.0
28.3
19
17.9
18.2
20
19.8
20.1
Fuente: Maddala, Pg. 231
156
TABLA 5
INFORMACIN ANUAL HIPOTETICA DE INVENTARIOS (Y)
Y DE VENTAS (X) EN UNA DETERMINADA REGIN.
Ao
Inventario
Ventas
1979
52.9
30.3
1980
53.8
30.9
1981
54.9
30.9
1982
58.2
33.4
1983
60.0
35.1
1984
63.4
37.3
1985
68.2
41.0
1986
78.0
44.9
1987
84.7
46.5
1988
90.6
50.3
1989
98.2
53.5
1990
101.7
52.8
1991
102.7
55.9
1992
108.3
63.0
1993
124.7
73.0
1994
157.9
84.8
1995
158.2
86.6
1996
170.2
98.8
1997
180.0
110.8
1998
198.0
124.7
157
TABLA 6
INFORMACIN PARA LA PREDICCIN DE VENTAS DE UNA CADENA DE HOTELES.
TASA DE INTERS DE CORTO PLAZO (CPR, COMMERCIAL PAPER RATE)
PRODUCTO NACIONAL (GNP), OCUPACIN (OCCUP, PORCENTAJE DE HABITACIONES USADAS POR NOCHE),
DEFLACTOR DEL PRODUCTO (PGNP),
NUMERO DE HABITACIONES (ROOMS, NMERO DE HABITACIONES EN LA CADENA DE HOTELES).
INGRESO POR HABITACIN (RRATE, INGRESO PROMEDIO POR HABITACIN USADA POR NOCHE)
TASA DE DESEMPLEO (UNEMP)
Ao
CPR
GNP
OCCUP
PGNP
ROOMS
RRATE
UNEMP
1990
7.72
992.70
68.50
91.45
179364
15.55
4.90
1991
5.11
1077.60
67.40
96.01
200464
16.50
5.90
1992
4.69
1185.90
70.70
100.00
221113
16.87
5.60
1993
8.15
1326.40
70.60
105.69
246913
17.63
4.90
1994
9.87
1434.20
68.30
114.92
267032
18.38
5.60
1995
6.33
1549.20
65.40
125.56
274969
20.86
8.50
1996
5.35
1718.00
68.40
132.11
278064
22.17
7.70
1997
5.60
1918.00
71.20
139.83
278957
24.56
7.00
1998
7.99
2156.10
74.30
150.05
286529
27.81
6.00
1999
10.91
2413.90
73.80
162.77
296251
32.65
5.80
2000
12.29
2627.40
71.50
177.45
303578
Fuente: Hall et al. (1990)
36.80
7.10
158
TABLA 7
DATOS HIPOTETICOS:
Y DEPENDE LINEALMENTE DE X1 Y X2.
LOS INSTRUMENTOS SON Z2 Y Z3
Z2
Z3
X1
X2
1.1
5.0
30.4
34.8
10
1.5
4.7
29.8
35.6
12
1.7
4.6
29.1
34.1
15
1.8
4.4
29.5
33.2
13
2.0
4.2
29.8
33.8
12
2.3
4.0
29.6
32.1
16
2.4
3.7
28.0
32.0
18
2.7
3.6
29.1
32.9
19
3.0
3.5
28.3
31.9
17
3.1
3.2
26.7
33.7
18
3.4
3.0
27.3
31.9
20
3.6
2.9
27.4
31.0
19
3.9
2.6
27.0
32.3
21
4.0
2.5
26.6
30.3
22
4.5
2.2
26.3
32.4
Fuente: Judge et al. Pg. 589.
23
159
TABLA 8
UN MODELO DE PRODUCCIN Y DE OFERTA DE DINERO EN EEUU
(MILES DE MILLONES DE DLARES)
Ao
PIB
OFMONET
INVERS
GASTO
1970
1010.7
628.1
150.3
208.5
1971
1097.2
717.2
175.5
224.3
1972
1207.0
805.2
205.6
249.3
1973
1349.6
861.0
243.1
270.3
1974
1458.6
908.6
245.8
305.6
1975
1585.9
1023.3
226.0
364.2
1976
1768.4
1163.7
286.4
392.7
1977
1974.1
1286.6
358.3
426.4
1978
2232.7
1388.7
434.0
469.3
1979
2488.6
1496.7
480.2
520.3
1980
2708.0
1629.5
467.6
613.1
1981
3030.6
1792.9
558.0
697.8
1982
3149.6
1951.9
503.4
770.9
1983
3405.0
2186.1
546.7
840.0
1984
3777.2
2374.3
718.9
892.7
1985
4038.7
2569.4
714.5
969.9
1986
4268.6
2811.1
717.6
1028.2
1987
4539.9
2910.8
749.3
1065.6
1988
4900.0
3071.1
793.6
1109.0
1989
5250.8
3227.3
832.3
1181.6
1990
5522.2
3339.0
799.5
1273.6
1991
5677.5
3439.8
721.1
Fuente: Gujarati Pg. 675
1332.7
160
TABLA 9
INFORMACIN DE 4 COSTOS Y PRODUCCION
DE 4 EMPRESAS DURANTE 10 MESES
Empresa Tiempo
Costo Producto
1
1
43.72
38.46
1
2
45.86
35.32
1
3
4.74
3.78
1
4
40.58
35.34
1
5
25.86
20.83
1
6
36.05
36.72
1
7
50.94
41.67
1
8
42.48
30.71
1
9
25.60
23.70
1
10
49.81
39.53
2
1
51.03
32.52
2
2
27.75
18.71
2
3
35.72
27.01
2
4
35.85
18.66
2
5
43.28
25.58
2
6
48.52
39.19
2
7
64.18
47.70
2
8
38.34
27.01
2
9
45.39
33.57
2
10
43.69
27.32
3
1
43.90
32.86
3
2
23.77
18.52
3
3
28.60
22.93
3
4
27.71
25.02
3
5
40.38
35.13
3
6
36.43
27.29
3
7
19.31
16.99
3
8
16.55
12.56
3
9
30.97
26.76
3
10
46.60
41.42
4
1
64.29
41.86
4
2
42.16
28.33
4
3
61.99
34.21
4
4
34.26
15.69
4
5
47.67
29.70
4
6
45.14
23.03
4
7
35.31
14.80
4
8
35.43
21.53
4
9
54.33
32.86
4
10
59.23
42.25
Fuente: Judge Pg. 477
161
TABLA 10
INFORMACIN SIMULADA DE Y(X1,X2)
OBS
X1
X2
3.284
0.286
0.645
3.149
0.973
0.585
2.877
0.384
0.310
-0.467
0.276
0.058
1.211
0.973
0.455
1.389
0.543
0.779
1.145
0.957
0.259
2.321
0.948
0.202
0.998
0.543
0.028
10
0.379
0.797
0.099
11
1.106
0.936
0.142
12
0.428
0.889
0.296
13
0.011
0.006
0.175
14
1.179
0.828
0.180
15
1.858
0.399
0.842
16
0.388
0.617
0.039
17
0.651
0.939
0.103
18
0.593
0.784
0.620
19
0.046
0.072
0.158
20
1.152
0.889
0.704
Fuente: Judge et al. Pg. 500
162
TABLA 11
INFORMACIN SIMULADA DE Y(X1,X2)
OBS
X1
X2
42.08376
14.53
16.74
41.48572
15.3
16.81
39.05569
15.92
19.5
45.08922
17.41
22.12
51.66982
18.37
22.34
51.18388
18.83
17.41
54.77771
18.84
20.24
60.33432
19.71
20.37
49.75518
20.01
12.71
10
55.45921
20.26
22.98
11
52.46684
20.77
19.33
12
50.67572
21.17
17.04
13
51.64282
21.34
16.74
14
56.18829
22.91
19.81
15
66.21643
22.96
31.92
16
63.22733
23.69
26.31
17
68.96477
24.82
25.93
18
64.25953
25.54
21.96
19
63.75415
25.63
24.05
20
69.68355
28.73
25.66
163
TABLA 12
INFORMACIN DE 3 ECUACIONES DE DEMANDA EN 30 PERIODOS:
CANTIDAD DEMANDADA (Q), PRECIO (P) E INGRESO (Y)
OBS
P1
P2
P3
Q1
Q2
Q3
10.763
4.474
6.629
487.648
11.632
13.194
45.770
13.033
10.836
13.774
364.877
12.029
2.181
13.393
9.244
5.856
4.063
541.037
8.916
5.586
104.819
4.605
14.010
3.868
760.343
33.908
5.231
137.269
13.045
11.417
14.922
421.746
4.561
10.930
15.914
7.706
8.755
14.318
578.214
17.594
11.854
23.667
7.405
7.317
4.794
561.734
18.842
17.045
62.057
7.519
6.360
3.768
301.470
11.637
2.682
52.262
8.764
4.188
8.089
379.636
7.645
13.008
31.916
10
13.511
1.996
2.708
478.855
7.881
19.623
123.026
11
4.943
7.268
12.901
433.741
9.614
6.534
26.255
12
8.360
5.839
11.115
525.702
9.067
9.397
35.540
13
5.721
5.160
11.220
513.067
14.070
13.188
32.487
14
7.225
9.145
5.810
408.666
14.474
3.340
45.838
15
6.617
5.034
5.516
192.061
3.041
4.716
26.867
16
14.219
5.926
3.707
462.621
14.096
17.141
43.325
17
6.769
8.187
10.125
312.659
4.118
4.695
24.330
18
7.769
7.193
2.471
400.848
10.489
7.639
107.017
19
9.804
13.315
8.976
392.215
6.231
9.089
23.407
20
11.063
6.874
12.883
377.724
6.458
10.346
18.254
21
6.535
15.533
4.115
343.552
8.736
3.901
54.895
22
11.063
4.477
4.962
301.599
5.158
4.350
45.360
23
4.016
9.231
6.294
294.112
16.618
7.371
25.318
24
4.759
5.907
8.298
365.032
11.342
6.507
32.852
25
5.483
7.077
9.638
256.125
2.903
3.770
22.154
26
7.890
9.942
7.122
184.798
3.138
1.360
20.575
27
8.460
7.043
4.157
359.084
15.315
6.497
44.205
28
6.195
4.142
10.040
629.378
22.240
10.963
44.443
29
6.743
3.369
15.459
306.527
10.012
10.140
13.251
30
11.977
4.806
6.172
347.488
3.982
Fuente: Judge et al. Pg. 460
8.637
41.845
164
TABLA 13
INFORMACION DEL MODELO DE KLEIN
AO
1920
1921
1922
1923
1924
1925
1926
1927
1928
1929
1930
1931
1932
1933
1934
1935
1936
1937
1938
1939
1940
1941
GOVTEXP TAXES
2.4
3.4
3.9
7.7
3.2
3.9
2.8
4.7
3.5
3.8
3.3
5.5
3.3
7.0
4.0
6.7
4.2
4.2
4.1
4.0
5.2
7.7
5.9
7.5
4.9
8.3
3.7
5.4
4.0
6.8
4.4
7.2
2.9
8.3
4.3
6.7
5.3
7.4
6.6
8.9
7.4
9.6
13.8
11.6
165
TABLA 14
INDICE GENERAL DE PRECIOS ACCIONARIOS (IGPA) DE LA BOLSA DE COMERCIO DE SANTIAGO
DATOS MENSUALES
FECHA
IGPA
1990.01
802.40
1993.01 2939.67
1996.01 5745.79
1999.01 3474.93
1990.02
829.68
1993.02 3127.27
1996.02 5625.93
1999.02 3739.60
1990.03
931.37
1993.03 2948.19
1996.03 5451.65
1999.03 3970.71
1990.04
901.06
1993.04 2787.76
1996.04 5378.07
1999.04 4412.83
1990.05
861.06
1993.05 2675.69
1996.05 5517.94
1999.05 4565.42
1990.06
891.60
1993.06 2826.93
1996.06 5453.43
1999.06 4648.06
1990.07
857.86
1993.07 2949.26
1996.07 5628.65
1999.07 4871.82
1990.08
888.76
1993.08 3040.29
1996.08 5407.54
1999.08 4657.97
1990.09
896.74
1993.09 3087.02
1996.09 5382.00
1999.09 4739.64
1990.10
858.42
1993.10 3208.54
1996.10 5488.50
1999.10 4548.55
1990.11
936.18
1993.11 3285.49
1996.11 5232.81
1999.11 4767.62
1990.12 1121.75
1993.12 3615.50
1996.12 4943.34
1999.12 5057.12
1991.01 1195.34
1994.01 4311.05
1997.01 5172.68
2000.01 5420.91
1991.02 1435.84
1994.02 4702.80
1997.02 5331.90
2000.02 5429.44
1991.03 1599.07
1994.03 4307.29
1997.03 5307.08
2000.03 5214.47
1991.04 1714.48
1994.04 4102.54
1997.04 5344.03
2000.04 5037.26
1991.05 1697.86
1994.05 4245.29
1997.05 5415.49
2000.05 4995.42
1991.06 1866.50
1994.06 4499.48
1997.06 5739.46
2000.06 4928.17
1991.07 2107.86
1994.07 4318.90
1997.07 5750.77
2000.07 4882.20
1991.08 2320.96
1994.08 4547.97
1997.08 5620.24
2000.08 4950.68
1991.09 2662.28
1994.09 4906.31
1997.09 5517.77
2000.09 4912.98
1991.10 2830.03
1994.10 5471.56
1997.10 5239.03
2000.10 4706.87
1991.11 2489.71
1994.11 5651.67
1997.11 4976.63
2000.11 4858.08
1991.12 2438.45
1994.12 5504.47
1997.12 4810.56
2000.12 4868.71
1992.01 2426.97
1995.01 5409.15
1998.01 4452.31
2001.01 5021.37
1992.02 2546.94
1995.02 5350.15
1998.02 4368.63
2001.02 4973.26
1992.03 2867.28
1995.03 5137.97
1998.03 4756.54
2001.03 4945.14
1992.04 2981.53
1995.04 5363.88
1998.04 4699.52
1992.05 3008.54
1995.05 5843.19
1998.05 4431.90
1992.06 2981.96
1995.06 6069.80
1998.06 4161.43
1992.07 3002.73
1995.07 6234.64
1998.07 4084.03
1992.08 2922.06
1995.08 6034.46
1998.08 3764.43
1992.09 2814.80
1995.09 5882.67
1998.09 3170.57
1992.10 2750.54
1995.10 5902.37
1998.10 3224.28
1992.11 2751.26
1995.11 5631.62
1998.11 3774.36
1992.12 2687.12
FECHA
IGPA
FECHA
IGPA
FECHA
IGPA
1995.12 5700.85
1998.12 3653.32
Fuente: Bolsa de Comercio de Santiago
166
TABLA 15
INDICE DE PRECIOS AL CONSUMIDOR DE LOS ESTADOS UNIDOS (WPI)
(TRIMESTRAL)
TRIM
WPI
TRIM
WPI
TRIM
WPI
TRIM
WPI
1960.1
30.7
1969.1
33.9
1978.1
65.4
1987.1
97.8
1960.2
30.8
1969.2
34.4
1978.2
67.4
1987.2
99.4
1960.3
30.7
1969.3
34.7
1978.3
68.4
1987.3
100.5
1960.4
30.7
1969.4
35.0
1978.4
70.0
1987.4
101.0
1961.1
30.8
1970.1
35.5
1979.1
72.5
1988.1
101.6
1961.2
30.5
1970.2
35.7
1979.2
75.1
1988.2
103.2
1961.3
30.5
1970.3
35.9
1979.3
77.4
1988.3
104.7
1961.4
30.6
1970.4
35.9
1979.4
80.2
1988.4
105.2
1962.1
30.7
1971.1
36.5
1980.1
83.9
1989.1
107.5
1962.2
30.6
1971.2
36.9
1980.2
85.6
1989.2
109.4
1962.3
30.7
1971.3
37.2
1980.3
88.4
1989.3
109.0
1962.4
30.7
1971.4
37.2
1980.4
90.4
1989.4
109.4
1963.1
30.6
1972.1
37.9
1981.1
93.1
1990.1
111.0
1963.2
30.5
1972.2
38.3
1981.2
95.2
1990.2
110.8
1963.3
30.6
1972.3
38.8
1981.3
95.9
1990.3
112.8
1963.4
30.7
1972.4
39.2
1981.4
95.8
1990.4
116.2
1964.1
30.7
1973.1
41.1
1982.1
96.6
1991.1
113.8
1964.2
30.6
1973.2
43.1
1982.2
96.7
1991.2
112.7
1964.3
30.7
1973.3
44.9
1982.3
97.1
1991.3
112.5
1964.4
30.7
1973.4
45.3
1982.4
97.2
1991.4
112.7
1965.1
30.9
1974.1
48.3
1983.1
97.3
1992.1
112.4
1965.2
31.2
1974.2
50.0
1983.2
97.6
1992.2
113.6
1965.3
31.4
1974.3
53.6
1983.3
98.6
1965.4
31.6
1974.4
55.4
1983.4
99.1
1966.1
32.1
1975.1
55.4
1984.1
100.2
1966.2
32.2
1975.2
56.0
1984.2
100.8
1966.3
32.6
1975.3
57.2
1984.3
100.6
1966.4
32.4
1975.4
57.8
1984.4
100.3
1967.1
32.3
1976.1
58.1
1985.1
100.1
1967.2
32.3
1976.2
59.0
1985.2
100.2
1967.3
32.4
1976.3
59.7
1985.3
99.5
1967.4
32.5
1976.4
60.2
1985.4
100.1
1968.1
32.9
1977.1
61.6
1986.1
98.6
1968.2
33.1
1977.2
63.0
1986.2
96.8
1968.3
33.3
1977.3
63.1
1986.3
96.3
1968.4
33.4
1977.4
63.9
1986.4
96.7
Fuente: Enders (1996), Pg. 47
167
TABLA 16
CAMBIOS TRIMESTRALES DESESTACIONALIZADOS
EN EL PRODUCTO PER CPITA (Y1)
Y EN EL INGRESO DISPONIBLE (Y2) DE LOS EEUU
TRIM
Y1
Y2
TRIM
Y1
Y2
1951.2
-61
42
1960.4
-9
-23
1951.3
-1
1961.1
-5
13
1951.4
-1
-11
1961.2
23
28
1952.1
-4
-12
1961.3
-3
17
1952.2
30
16
1961.4
37
38
1952.3
-1
41
1962.1
13
14
1952.4
45
14
1962.2
21
16
1953.1
17
17
1962.3
10
1953.2
26
1962.4
23
1953.3
-17
-20
1963.1
15
1953.4
-16
-10
1963.2
15
17
1954.1
-4
-11
1963.3
24
19
1954.2
-23
1963.4
30
1954.3
23
29
1964.1
39
47
1954.4
31
36
1964.2
38
75
1955.1
31
1964.3
35
27
1955.2
33
43
1964.4
-3
23
1955.3
14
31
1965.1
46
22
1955.4
26
29
1965.2
17
32
1956.1
-7
1965.3
35
76
1956.2
-6
1965.4
65
47
1956.3
-4
1966.1
29
17
1956.4
13
20
1966.2
-2
1957.1
-10
1966.3
22
27
1957.2
-6
1966.4
21
1957.3
1967.1
15
38
1957.4
-6
-20
1967.2
31
21
1958.1
-37
-35
1967.3
16
1958.2
12
1967.4
17
1958.3
25
45
1968.1
54
36
1958.4
16
25
1968.2
30
43
1959.1
39
1968.3
54
-7
1959.2
23
32
1968.4
1959.3
-30
1969.1
21
-2
1959.4
-5
10
1969.2
19
1960.1
1969.3
47
24
1969.4
16
10
1960.2
1960.3
-19
-12
Fuente: Judge et al. Pg. 760
168