Está en la página 1de 18

EJEMPLO DE DIAGNSTICO Y TRATAMIENTO DE LA AUTOCORRELACIN: Introduccin al concepto de no estacionariedad y regresin espuria Ramn Maha

Dpto. de Economa Aplicada Universidad Autnoma de Madrid ramon.mahia@uam.es

Abril 2009
El objetivo de este documento es de ilustrar en un contexto prctico las ideas expuestas en clase en torno a la cuestin de la deteccin y correccin del problema de la autocorrelacin. Por otro lado, el documento sirve tambin para profundizar en algunos de los conceptos tericos ms relevantes en torno a esta cuestin y para introducir, an de forma bsica, una cuestin de extrema importancia en la prctica de la modelizacin economtrica: la presencia de no estacionariedad en las series de datos. I.- REGRESIN INICIAL UTILIZADA COMO EJEMPLO La siguiente regresin muestra una ecuacin en la que tratamos de explicar el valor real de las importaciones trimestrales (IMPK) en funcin de tres explicativas: el valor real de la formacin bruta de capital fijo (FBCK), el valor real del consumo privado de los hogares (GTOHOGK) y los precios de importacin de productos energticos (PIMPENER). I.A.- Breve comentario sobre el resultado de la Estimacin Dependent Variable: IMPK Method: Least Squares Date: 03/13/06 Time: 11:17 Simple: 1981:1 2002:2 Included observations: 86 Variable Coefficie Std. Error t-Statistic nt C - 2537.860 -22.39049 56823.9 1 FBCK - 0.166913 -0.897365 0.14978 2 GTOHOGK 1.26527 0.100670 12.56854 8 PIMPENER 30.8077 3.582319 8.599948 6 R-squared 0.98318 Mean dependent 2 var Adjusted R0.98256 S.D. dependent squared 6 var

Prob. 0.0000 0.3722 0.0000 0.0000 21327.7 0 12136.7 2

1/18

S.E. of regression Sum squared resid Log likelihood Durbin-Watson stat

1602.48 Akaike info 7 criterion 2.11E+0 Schwarz criterion 8 F-statistic 754.601 5 0.29034 Prob(F-statistic) 6

17.6419 0 17.7560 5 1597.88 3 0.00000 0

La ecuacin presenta signos incorrectos en los parmetros estimados de FBCK y PIMPENER. Para el caso de la inversin, la relacin entre inversin e importaciones debera ser positiva; para el caso de los precios de importacin energticos, la relacin ms razonable parecera ser inversa (negativa). Los contrastes individuales son significativos coeficientes a excepcin de FBCK cuyo p-value es elevado: slo puede rechazarse la hiptesis parmetro real con un (1-0,37)=0,63% de nivel de para todos los inadmisiblemente de nulidad del confianza.

Pese a la incorreccin de dos de los signos y un bajo contraste de significacin para FBCK, la R2 es muy elevada.

A la vista de esta falta de sintona evidente, cabe sospechar que estamos ante un error de especificacin. Efectivamente, y aunque se ver con detalle ms adelante, un simple vistazo al valor del DW indica una fuerte autocorrelacin positiva que, seguramente, viene causada por una indebida especificacin en niveles. Resulta muy probable que la ecuacin exhiba, as mismo, problemas de multicolinealidad, heterocedasticidad u otros incumplimientos bsicos pero, por el momento, nos concentraremos en utilizar este ejemplo con el fin de ilustrar el problema de la autocorrelacin. II.- DETECCIN DE LA AUTOCORRELACIN II.B.- Aproximacin Grfica El anlisis grfico del residuo de la estimacin indica un claro patrn de autocorrelacin positiva (patrn sinusoidal o de ondas); pese a que la evolucin de la endgena real y la estimada parece muy similar, lo cierto es que el componente auto - regresivo del error es muy claro.

2/18

50000 40000 30000 4000 2000 0 -2000 -4000 82 84 86 88 90 92 94 96 98 00 02 Residual Actual Fitted 20000 10000 0

De igual modo puede apreciarse el elevado grado de autocorrelacin realizando un grfico X/Y (Scat en Eviews) para los pares de puntos representados por cada residuo y el residuo del perodo previo. La nube de puntos se distribuye con claridad alrededor de una hipottica recta de regresin con elevada pendiente lo que, lgicamente, revela una innegable relacin entre cada error y el error estimado del perodo previo. (Si la serie de residuos contienen los errores a analizar, puede usarse en Eviews el comando SCAT RESID RESID(-1)).
4000

2000 RESID(-1)

-2000

-4000 -4000

-2000

0 RESID

2000

4000

II.B.- Mtodos numricos: Test de Rachas Observando los residuos de la regresin podemos localizar rachas de

3/18

residuos de igual signo. Una elevada presencia de residuos contiguos de igual signo evidencia una cierta norma sistemtica que habitualmente indica autocorrelacin positiva (++++++++------+++++++------.) . De modo anlogo, un cambio sistemtico de signos (+-+-+-+-+-+-+-.) podra indicar autocorrelacin negativa. En nuestro ejemplo, los signos de los residuos son los siguientes (presentados por aos para simplificar su observacin): 1981 ++++ 1992 ---1982 ++++ 1993 ---1983 +++1994 ---1984 -+-1995 ++-+ 1985 ---1996 --++ 1986 ++++ 1997 ++++ 1987 ++++ 1998 ++++ 1988 +++1999 ++++ 1989 +--2000 --+1990 ---2001 ++-1991 ---2002 --

El nmero de rachas de residuos de igual signo (nmero de veces que los residuos cambian de signo ms uno) es 18. En ausencia de autocorrelacin el nmero esperado de rachas es 1:

En presencia de muestras grandes, puede utilizarse directamente una distribucin normal estandarizada N(0,1) para la expresin:

En nuestro ejemplo, y dado que la muestra no puede considerarse grande, vamos a computar la media y desviacin de forma ms precisa para evaluar si el nmero de rachas es compatible con la hiptesis nula de Ausencia de Autocorrelacin.

1 N 1 R N (0,1) 2

4/18

E[ R] =
con una varianza de:

2 N1 N 2 +1 N1 + N 2

V [ R] =
donde:

2 N1 N 2 ( 2 N1 N 2 N1 N 2 )

( N1 + N 2 ) 2 ( N1 + N 2 1)

N1: Nmero de residuos positivos (44 en nuestro ejemplo) N2: Nmero de residuos negativos (42 en nuestro ejemplo) En nuestro ejemplo, por tanto, la esperanza y varianza esperadas en ausencia de autocorrelacin sera:

E[ R] =

2 N1 N 2 2 44 42 +1 = + 1 = 43,98 N1 + N 2 44 + 42

V [ R] =

2 N1 N 2 ( 2 N1 N 2 N1 N 2 )

( N1 + N 2 ) ( N1 + N 2 1)
2

2 44 42 ( 2 44 42 44 42) = 21,22 ( 44 + 42) 2 ( 44 + 42 1)

Partiendo de esa media y esa varianza y asumiendo normalidad, el intervalo de confianza al 95% para las rachas en ausencia de autocorrelacin sera:

P[ E ( R ) 1.96 DT ( R ) R E ( R ) + 1.96 DT ( R ) ] = 95%


P[ 43,98 1.96 4,61 R 43,98 +1.96 4,61] = 95%

P[ 34,95 R 53,01] = 95%

El nmero de rachas obtenido en nuestro caso (18) es claramente inferior al valor mnimo del intervalo (35) de modo que podemos rechazar la hiptesis nula de NO autocorrelacin al 95%. Durbin Watson El valor del DW es extremadamente bajo (0,29) lo que, dados los lmites inferior y superior de la distribucin DW (1,575 y de 1,721 respectivamente al 5% para K=4 y n=85), confirman la presencia de una fuerte autocorrelacin positiva2. Efectivamente, la zona de ausencia de autocorrelacin viene delimitada por d s=1.72 y 4-ds=2.28, lejos de nuestro valor (0.28) que, claramente, se encuentra en la zona de autocorrelacin positiva delimitada por 0 - di (0 1.57). De hecho, el valor del coeficiente
Aunque en las sesiones tericas de clase se han establecido los lmites inferior y superior del estadstico DW en 0 y 4 respectivamente, debe observarse que, en realidad, estos lmites son slo vlidos cuando se dispone de una muestra suficientemente grande. As, por ejemplo, si slo dispusiramos de 5 datos, el lmite inferior se situara en 0.382 y el lmite superior en 3,62.
2

5/18

asociado a este valor del Durbin Watson, que correspondera a un hipottico proceso autorregresivo de orden uno subyacente en el residuo, resulta ser de 0,85, esto es, muy indicativo de autocorrelacin positiva:
ui = ui + i

Ec. (1) DW 0,85 2

) 1 DW 2 (1 Test de Wallis

Dada la naturaleza trimestral de los datos, cabe preguntarse si existe o no autocorrelacin de orden cuatro, es decir:
u i = 4 u i 4 + i

Para contrastar la hiptesis nula de ausencia de autocorrelacin estacional de orden cuatro (H0: 4=0), Wallis propuso computar sobre los residuos MCO de la regresin analizada la siguiente expresin alternativa al DW:

d4 =

(e
t =5

t N

et 4 )
2 t

e
t =1

En nuestro caso, este clculo resulta ser: d4 = 165.906.627 = 0,78 210.573.044

Los lmites inferiores y superiores que corresponden al test de Wallis son, al 95% y para K=4 y N=863, de d4i=1.48 y d4s=1.67 por lo que, nuevamente, podemos rechazar la hiptesis nula de ausencia de autocorrelacin de orden 4 (es decir, existen tambin indicios de autocorrelacin estacional). Test Breusch Godfrey La prueba General de autocorrelacin de Breusch Godfrey implica estimar una ecuacin para los residuos MCO de la regresin inicial en funcin de los retardos requeridos (segn los esquemas tericos de autocorrelacin a analizar) y las exgenas originales. En nuestro caso, vamos a incluir el retardo de orden 1 y 4 para el residuo 4 adems de las exgenas, obteniendo como resultado de la estimacin:
Dependent Variable: ERROR
3

En realidad los lmites utilizados aqu corresponden a N=84 dado que en la tabla consultada no apareca el detalle para N=86.

6/18

Method: Least Squares Date: 04/14/09 Time: 11:07 Sample(adjusted): 1982:1 2002:2 Included observations: 82 after adjusting endpoints Variable Coefficient Std. Error t-Statistic C -311.8908 1376.993 -0.226501 ERROR(-1) 0.778450 0.086592 8.989872 ERROR(-4) 0.121140 0.095436 1.269338 FBCK -0.077377 0.094699 -0.817078 GTOHOGK 0.040605 0.056615 0.717215 PIMPENER -3.637398 2.159248 -1.684567 R-squared 0.731172 Mean dependent var Adjusted R-squared 0.713486 S.D. dependent var S.E. of regression 843.0098 Akaike info criterion Sum squared resid 54010584 Schwarz criterion Log likelihood -665.6698 F-statistic Durbin-Watson stat 2.073267 Prob(F-statistic)

Prob. 0.8214 0.0000 0.2082 0.4164 0.4754 0.0962 -73.66262 1574.925 16.38219 16.55829 41.34181 0.000000

Los autores propusieron el estadstico de contraste (N-p) x R 2 (siendo p el nmero de retardos del residuos incluidos en la regresin auxiliar) que se distribuye, para la hiptesis nula de ausencia de autocorrelacin, como una p. En nuestro ejemplo:
( N p ) R 2 = (86 2) 0,73 = 61,32

El valor obtenido es claramente superior al valor crtico de tablas (5,99 al 95% para 2 grados de libertad) lo que obliga al rechazo de la nula y evidencia de nuevo la presencia de autocorrelacin. III.- DIAGNSTICO DE LA REGRESIN Evidentemente, la autocorrelacin es el sntoma de algn error de especificacin que, sin embargo, no parece reflejarse en el coeficiente de determinacin R2. Ms all del problema adicional de los signos o en la significatividad de FBCK (podramos habernos encontrado en la misma situacin sin haber observado ninguna incongruencia en los signos o en la t), este tipo de regresiones con buenos valores en los contrastes de significacin y, sin embargo, una acusada autocorrelacin, son relativamente frecuentes y se conocen como Regresiones Espurias. El problema de la aparicin de regresiones espurias en los resultados de un buen nmero de anlisis econmicos es siempre atribuida, no sin razn, a Granger y Newbold (1974). Sin embargo, a finales de la dcada de los aos 20, Yule (1926) ya haba arrojado su particular primera piedra en el Journal of the Royal Statistical Society con un artculo con el inquietante, pero muy descriptivo ttulo: Why do we sometimes get nonsense correlations between time series?. Efectivamente, el problema de las regresiones espurias es que tienden a admitirse como buenas,
Se han incluido estos dos retardos por haberse detectado autocorrelacin de orden 1 y 4 con el DW y el test de Wallis; no obstante , una de las ventajas de este test es la de poder testar cualquier patrn de autocorrelacin por lo que podran probarse estructuras diferentes . la autocorrelacin de orden uno es, no obstante, tan acusada en este ejemplo, que cualquier modificacin de la ecuacin de Bresch Godfrey lleva a los mismos resultados.
4

7/18

relaciones econmicas que, en realidad, slo se deben a aspectos casuales. Por regresin espuria entendemos tcnicamente aquellas ecuaciones de regresin que presentan una elevada significatividad conjunta, medida en trminos del coeficiente de determinacin R2 o R2 corregida y, sin embargo, fuertes problemas de autocorrelacin positiva reflejados en bajos valores del estadstico Durbin Watson. La presencia de un trmino de error fuertemente autocorrelacionado impide efectuar un proceso de inferencia con mnimas garantas. La probabilidad de un error en el clculo y en la aplicacin de los test de significatividad individual convencionales es muy importante, sin contar los insalvables problemas de no ineficiencia en la estimacin propios de una situacin de matriz de varianzas y covarianzas no escalar para la perturbacin aleatoria. (Granger y Newbold (1974 y 1977), Plosser y Schwert (1978)).5 El problema de este tipo de regresiones es que, a diferencia de las ecuaciones claramente deficientes, el buen ajuste en trminos de t y R2 puede generarnos a una equivocada percepcin de que estamos ante la evidencia emprica de una relacin causal de inters; nada ms lejos, sin embargo, de la realidad. Una regresin con evidencias tan claras de autocorrelacin debe descartarse inmediatamente como herramienta de utilidad, sin necesidad de realizar ninguna prueba adicional y por mucho que nos parezca atractivo el alto grado de significatividad individual o conjunta. Cmo es posible encontrar esta combinacin de resultados tan contradictoria?. En nuestro caso, el origen de los problemas de la autocorrelacin est asociado a la utilizacin de variables en niveles, en lugar de la realizacin de esta misma especificacin usando tasas de crecimiento o diferencias en los datos. La elevada autocorrelacin provocada por la utilizacin de niveles junto a una estimacin MCO sin correccin alguna, supone, de facto, un doble sesgo a la baja en la varianza de la estimacin que genera, artificialmente, muy buenos resultados en los contrastes de significacin individuales y conjuntos. Debemos, por tanto, rechazar siempre el uso de variables en niveles ante el riesgo de una regresin espuria?: Concepto de Variable No Estacionaria o Integrada. De la ilustracin anterior, se deduce la recomendacin general de no utilizar las variables en niveles para la estimacin de regresiones causales pero no hemos respondido, sin embargo, a la pregunta de fondo por qu las regresiones con variables en niveles implican el riesgo elevado de un residuo autocorrelacionado?. La razn estriba, en la mayora de los casos, en la falta de estacionariedad en varianza de algunas o todas las variables utilizadas en la regresin. An sin ofrecer detalle terico, debe saberse que los supuestos clsicos en los que se apoya la regresin como estrategia analtica exigen la
Si bien Granger y Newbold (1974) no explicitaron estadsticamente las razones que explicaban el fallo de los procedimiento habituales, esto puede encontrarse con detalle en Phillips (1986).
5

8/18

estacionariedad en media y varianza de las series implicadas en un ejercicio de este tipo. Si bien la presencia de tendencias deterministas en las variables (variables no estacionarias en media o variables estacionarias alrededor de una tendencia6) resulta generalmente un problema fcil de afrontar y resolver en la modelizacin con variables en niveles 7, la presencia de races unitarias en las variables (no estacionariedad en varianza) impide su utilizacin en niveles. Si se realiza una estimacin en niveles de una ecuacin de regresin entre dos variables No Estacionarias (tambin se denominan integradas) corremos un alto riesgo de encontrarnos ante una regresin espuria; La forma ms clara de ilustrar el problema es utilizar los resultados del ejemplo expuesto por Newbold y Davies (1978) y Granger y Newbold (1986) y reutilizado despus en numerosos textos como Charemza y Deadman (1992). Supongamos dos variables yt y xt independientemente generadas por paseos aleatorios:
y t = y t 1 + 1t x t = x t 1 + 2 t

donde 1t y 2t son variables aleatorias normales estndar independientes entre s con media cero y varianza unitaria. Dado que y t y xt estn generadas de forma independiente deberamos esperar que no existiera ninguna relacin significativa entre ambas. Sin embargo, sobre un conjunto de 1000 muestras de yt y xt con 50 observaciones, alrededor de un 65% de las regresiones de yt sobre xt presentan contrastes t significativos a un nivel de significatividad del 5% 8. Tal y como expone Enders (1995) basta con reparar en las propiedades de la perturbacin aleatoria de la regresin de y t sobre xt para apreciar lo absurdo de estos resultados. Efectivamente, en la regresin:
y t = a 0 + a1 x t + et

es claro que, prescindiendo de la constante a 0:


et = y t a1 x t

Suele denominarse a estas variables trend stationary TS a diferencia de aquellas que son NO estacionarias en varianza que suelen denominarse con el acrnimo DS difference stationary.
6

Las regresiones espurias, no obstante, no slo se producen por la aparicin de tendencias estocsticas en las series: las tendencias deterministas tambin pueden ser un problema. Si hacemos depender una serie yt lineal (1,2,3,4..... 50) de otra xt con tendencia cuadrtica (1,4,.......50 2) el resultado en trminos de R 2 es de 0,94 cuando en realidad queda claro que el patrn de evolucin de la serie cuadrtica acabar por divergir de forma definitiva cuando el nmero de datos tienda a infinito. Para ajustar adecuadamente una regresin al caso de variables con tendencias deterministas basta con incorporar una variable de tiempo t que recoja la tendencia comn de ambas series o bien filtrar de tendencia los datos antes de su utilizacin en la regresin.
7

Estos datos se refieren a la prueba efectuada por Charemza y Deadman (1992). En el experimento original de Granger y Newbold (1974) el porcentaje de regresiones con parmetro significativo al 5% fue del 75%.
8

9/18

que:

por lo que imponiendo las restricciones iniciales y 0=x0=0 tenemos


t t

et = 1i a1 2i
i =0 i =0

Por tanto, es obvio que estamos ante una secuencia e t no estacionaria en varianza. Si esto es as, et presenta una tendencia estocstica, lo que quiere decir que el error cometido en t no se diluye en t+1, t+2... t+s ;es imposible que una regresin en la que los errores se acumulan de forma permanente pueda tener algn inters. Ntese que en esta situacin se violan un buen nmero de hiptesis bsicas asumidas en los procesos de inferencia habituales en el contexto del Modelo Bsico de Regresin Lineal: La varianza de et ya hemos dicho que no es constante. En la expresin anterior puede comprobarse con sencillez como se incrementa hacia el infinito a medida que t crece. Si la serie xt no es estacionaria, no satisfar la propiedad:

n plim xi2 n = cte i =1


que es uno de los supuestos que justifican los procedimientos de inferencia habituales basados en el estimador MCO. Pero, adems, no existe incorrelacin serial en el residuo; la misma expresin para et puede utilizarse para comprobar como la correlacin entre et y et+1 tiende a uno a medida que t se incrementa; esta es la razn analtica por la que, en las regresiones espurias, el residuo tiende a exhibir una elevada autocorrelacin. Dada semejante acumulacin de errores de base, ningn test de significatividad puede ser usado con garantas y por ello, ninguna inferencia ser fiable. As pues, ante la presencia de variables integradas, el modelizador debe considerar la necesidad de transformar estas variables antes de proceder a la estimacin de la ecuacin. La regla general, que no ser explicada tericamente en este texto, supone la utilizacin de las variables en diferencias, en lugar de niveles, salvo en el caso en que podamos demostrar que, an en presencia de no estacionariedad, las variables no estacionarias estn cointegradas 9. El
El tratamiento clsico de la estacionariedad propuesto por Box Jenkins (1970) en el contexto del anlisis multivariante, implica la diferenciacin de las series a fin de evitar las regresiones espurias provocadas por la existencia de tendencias estocsticas. La diferenciacin de las series temporales, sin embargo, supone una renuncia explcita a considerar sus relaciones a largo plazo, ya que estas manifiestan necesariamente en sus niveles tal y como pusieron de manifiesto, entre otros, Sargan (1964), Hendry y Mizon (1978) y Davidson et al (1978) . En este contexto, y aunque los modelos de correccin de error propuestos por Sargan (1964) fueron siempre una alternativa muy valiosa para combinar el corto y el largo plazo en el anlisis dinmico de series, la formalizacin del concepto de
9

10/18

concepto de la cointegracin queda fuera del alcance de un curso introductorio como este pero, en cualquier caso, debe recordarse siquiera el trmino cointegracin como una aportacin interesante. La trascendencia de esta definicin es inmediata. Si dos series no estacionarias estn cointegradas, esto significar que entre ambas existe un vnculo estable y compatible con las tendencias individuales de cada una de ellas, o sea, una relacin de equilibrio a largo plazo. A esa ligazn, representada por el denominado vector de cointegracin, no le afectan ms que de forma temporal los shocks que inciden en cada una de las series de forma permanente y, por tanto, cabe pensar en la idea de un equilibrio estacionario en el que las desviaciones sean exclusivamente temporales. IV.- CORRECCIN DE LA AUTOCORRELACIN Si admitimos como vlida la hiptesis de la falta de estacionariedad de las variables implicadas en la regresin, parece evidente que no podremos utilizar estas variables niveles y, por tanto, cualquier esfuerzo de camuflar la autocorrelacin con la utilizacin de Mnimos Cuadrados Generalizados o transformaciones a partir del parmetro estimado sera cuestionable. Dado que en la mayor parte de las ocasiones 10 la autocorrelacin es un sntoma de una especificacin deficiente (modelizacin en niveles con variables no estacionarias, omisin de alguna variable relevante, .), se sigue que en la mayor parte de las ocasiones la forma adecuada de corregir un problema de autocorrelacin es la correccin de la especificacin. Es decir, la autocorrelacin es, en muchas ocasiones, un sntoma de no es una enfermedad; por tanto, podemos optar por camuflar el sntoma, pero siempre ser ms razonable intentar atajar la enfermedad. 1.- Adaptando la especificacin a la naturaleza de los datos En el caso en que se comprobase, como sucede en nuestro ejemplo, y con la adecuada utilizacin de contrastes de No Estacionariedad 11, la existencia de variables integradas, convendra utilizar diferencias de las variables originales o bien tasas de crecimiento, estimando entonces de nuevo la ecuacin.
cointegracin por parte de Engle y Granger (1987) fue decisiva. La posibilidad de combinar niveles de series integradas de forma tal que esa combinacin resultase estacionaria, se ha convertido en una de las aportaciones conceptuales ms interesantes y en las que se ha apoyado de forma incuestionable el avance reciente de la econometra moderna. Algunos autores distinguen esta situacin de aquella en la que la autocorrelacin no viene provocada por una deficiente especificacin. Gujarati, por ejemplo, define esta situacin como Autocorrelacin Pura.
10

Existen varios contrastes muy utilizados para detectar la No Estacionariedad en varianza de las series. Los ms sencillos y populares son los contrates DF y ADF (Dickey-Fuller y Augmented Dickey-Fuller), el contraste PP (Phillips Perron), ambos incluidos desde hace tiempo en el software E-Views.
11

11/18

Puede comprobarse como, en ambos casos, los resultados en trminos de significatividad son decepcionantes. Este resultado tiene su lgica ya que, como seala Gujarati12 al tomar las primeras diferencias estamos estudiando esencialmente el comportamiento de variables alrededor de sus valores de tendencia (lineal) un movimiento siempre ms complejo que el de la mera progresin tendencial: Regresin con variables en diferencias Dependent Variable: D(IMPK) Method: Least Squares Date: 03/15/06 Time: 09:06 Sample(adjusted): 1981:2 2002:2 Included observations: 85 after adjusting endpoints Variable Coefficie Std. Error t-Statistic Prob. nt C 291.847 65.10598 4.482653 0.0000 5 D(FBCK) 0.67018 0.114304 5.863145 0.0000 3 D(GTOHOGK) - 0.115973 -0.288528 0.7737 0.03346 2 D(PIMPENER) 1.17341 2.967580 0.395410 0.6936 0 R-squared 0.32455 Mean dependent 434.388 4 var 2 Adjusted R0.29953 S.D. dependent 541.491 squared 8 var 0 S.E. of regression 453.193 Akaike info 15.1164 4 criterion 3 Sum squared 1663612 Schwarz criterion 15.2313 resid 2 8 Log likelihood F-statistic 12.9736 638.448 1 3 Durbin-Watson 1.60345 Prob(F-statistic) 0.00000 stat 8 1

Regresin con variables en tasas intertrimestrales13 Dependent Variable: @PCH(IMPK) Method: Least Squares Date: 03/15/06 Time: 09:07 Sample(adjusted): 1981:2 2002:2 Included observations: 85 after adjusting endpoints Variable Coefficie Std. Error t-Statistic Prob.
Econometra. (4 Edicin). Mc-Graw-Hill. La utilizacin de tasas interanuales tambin sera posible en este caso al tratarse de variables trimestrales. Sin embargo, salvo que se compruebe la existencia de races unitarias (no estacionariedad) estacionales, esta tasa no resolvera el problema de la no estacionariedad en la componente regular (no estacional).
12 13

12/18

nt C 0.01622 0.003206 5.062309 9 @PCH(FBCK) 0.78773 0.125760 6.263833 7 @PCH(GTOHOGK - 0.352991 -1.082650 ) 0.38216 6 @PCH(PIMPENER) - 0.018807 -0.819696 0.01541 6 R-squared 0.34084 Mean dependent 0 var Adjusted R0.31642 S.D. dependent squared 7 var S.E. of regression 0.02234 Akaike info 4 criterion Sum squared resid Log likelihood Durbin-Watson stat 0.04044 0 204.540 1 1.95375 8

0.0000 0.0000 0.2822 0.4148

0.02186 6 0.02702 5 4.71859 0 Schwarz criterion 4.60364 1 F-statistic 13.9612 1 Prob(F-statistic) 0.00000 0

Dicho de otro modo, el satisfactorio resultado obtenido en la estimacin preliminar era ficticio y originado, ms que probablemente, por la utilizacin de variables no estacionarias: cuando se elimina la tendencia estocstica de estas variables, la relacin de causalidad se diluye. 2.- Camuflando la autocorrelacin En el caso concreto ilustrado por nuestro ejemplo, la nica solucin al problema de la autocorrelacin consiste en la mejora de la especificacin; no obstante, una vez que renunciamos a una correccin genuina, o una vez agotados todos los recursos para ajustar la especificacin del modelo, siempre cabe la alternativa de corregir los sntomas evitando en parte los efectos indeseables de una inadecuada estimacin MCO en un contexto en que esta estrategia no es vlida. La estrategia para eliminar los efectos en la estimacin de un modelo de autocorrelacin consiste, evidentemente, en la utilizacin de Mnimos Cuadrado Generalizados considerando para ello la matriz de varianzas y covarianzas que corresponde al patrn de autocorrelacin detectado. En caso de verificarse la existencia de un proceso AR(1) en los residuos, la forma de la matriz de autocorrelacin es bien conocida pero si no pudisemos verificar que el proceso de autocorrelacin sigue ese modelo AR(1) deberamos considerar estimaciones alternativas de sigma. Como ya se dijo en el contexto de la heterocedasticidad, el riesgo de la transformacin o de la utilizacin de MCG radica, evidentemente, en la verosimilitud del modelo de autocorrelacin supuesto; si el modelo de autocorrelacin resulta desconocido o complejo, los eventuales beneficios

13/18

de eficiencia derivados de la utilizacin de un procedimiento de MCG o MCO sobre variables corregidas podran ser menores de los previstos en cuanto que estarn condicionados a la decisin sobre el patrn de autocorrelacin considerado. Quiz la forma ms burda de hacer una correccin factible sea simplemente camuflar el mal dato del DW aadiendo la endgena retardada en la regresin; como puede imaginarse, esta tctica, ni siquiera trata de adaptar la ineficiente herramienta de estimacin MCO al problema de la autocorrelacin sino, directamente, distorsionar el modelo de forma que el DW no refleje la verdadera dimensin de la autocorrelacin. Dependent Variable: IMPK Method: Least Squares Date: 03/15/06 Time: 09:29 Sample(adjusted): 1981:2 2002:2 Included observations: 85 after adjusting endpoints Variable Coefficie Std. Error t-Statistic Prob. nt C 5585.05 2395.831 2.331157 0.0223 8 FBCK 0.08996 0.052576 1.711143 0.0909 5 GTOHOGK - 0.059548 -2.265243 0.0262 0.13489 1 PIMPENER - 1.705419 -2.861856 0.0054 4.88066 5 IMPK(-1) 1.08230 0.039181 27.62295 0.0000 8 R-squared 0.99839 Mean dependent 21493.5 0 var 4 Adjusted R0.99831 S.D. dependent 12110.3 squared 0 var 2 S.E. of regression 497.849 Akaike info 15.3154 3 criterion 9 Sum squared 1982831 Schwarz criterion 15.4591 resid 3 8 Log likelihood F-statistic 12406.1 645.908 1 5 Durbin-Watson 1.43462 Prob(F-statistic) 0.00000 stat 8 0 Efectivamente, aunque el valor del nuevo DW parece ahora aceptable, debe recordarse que, en realidad, en presencia de autocorrelacin, se propone utilizar el estadstico h de Durbin en lugar del estadstico DW original.

h=

n 2 (b1 ) 1 n

14/18

donde: 2(b1) es la desviacin tpica estimada para el parmetro de la endgena retardada. Es decir, en nuestro caso, el DW obtenido en la regresin que incluye la variable endgena retardada es 1.434, es decir, se corresponde con una estimacin aproximada del coeficiente autorregresivo de 0.283. As pues, el valor de la h de Durbin es:
h= n 85 = 0.283 = 2.798 2 (b1 ) 1 n 1 85 (0.039181) 2

El valor de este estadstico se contrasta suponiendo una distribucin normal (0,1), as, con un nivel de significacin del 5%, el valor a superar es 1,645. Si el estadstico calculado supera este valor, debe rechazarse la hiptesis de autocorrelacin nula; en nuestro caso, el valor 2.798 supera ampliamente el valor crtico por lo que, evidentemente, la h de Durbin refleja la existencia de autocorrelacin por mucho que el valor del DW haya mejorado artificialmente. Una transformacin algo ms elegante, aunque inadecuada cuando el problema de fondo es una incorrecta especificacin en niveles, es, tal y como se expuso en las sesiones tericas, optar por utilizar la transformada de las variables originales, es decir, la denominada MCG Factibles (MCGF) o Mnimos Cuadrados Generalizados Estimados (MCGE):
y t 1 y t* = y t x* jt = x jt x jt 1

Partiendo de la serie de residuos obtenida en la estimacin analizada, puede realizarse fcilmente en E-Views la estimacin minimocuadrtica del coeficiente anterior cuyo resultado se muestra a continuacin y en donde se observa un valor muy parecido al estimado directamente a partir del estadstico Durbin Watson. Este parecido entre el valor de derivado del estadstico DW o el obtenido a partir de una estimacin MCO directa del mismo se garantiza siempre en presencia de muestras grandes.

15/18

Dependent Variable: R Method: Least Squares Date: 03/13/06 Time: 11:49 Sample(adjusted): 1981:2 2002:2 Included observations: 85 after adjusting endpoints Variable Coefficie Std. Error t-Statistic Prob. nt R(-1) 0.85748 0.057251 14.97773 0.0000 3 R-squared 0.72754 Mean dependent 3 var 14.7561 0 Adjusted R0.72754 S.D. dependent 1577.29 squared 3 var 9 S.E. of regression 823.310 Akaike info 16.2762 1 criterion 4 Sum squared 5693852 Schwarz criterion 16.3049 resid 1 7 Log likelihood Durbin-Watson 2.12085 690.740 stat 0 1 Expresando las variables estimacin de MCGF15: en semi diferencias 14 obtenemos la

Dependent Variable: IMPKC Method: Least Squares Date: 04/14/09 Time: 11:29 Sample(adjusted): 1981:2 2002:2 Included observations: 85 after adjusting endpoints Variable Coefficient Std. Error t-Statistic 0.15 -39256.67 3377.876 -11.62170 FBCKC 0.686680 0.158123 4.342694 GTOHOGKC 0.717545 0.100133 7.165918 PIMPENERC 8.369428 4.015530 2.084265 R-squared 0.903794 Mean dependent var Adjusted R-squared 0.900231 S.D. dependent var S.E. of regression 635.1966 Akaike info criterion Sum squared resid 32681457 Schwarz criterion Log likelihood -667.1456 F-statistic Durbin-Watson stat 1.529099 Prob(F-statistic)

Prob. 0.0000 0.0000 0.0000 0.0403 3593.261 2010.989 15.79166 15.90661 253.6474 0.000000

Como puede observarse, hemos perdido una observacin al realizar la regresin de MCGF. Con el fin de no perder esta primera observacin, aspecto especialmente relevante en muestras pequeas, puede optarse
Hemos denominado a las variables corregidas con el nombre original terminado en una C 15 Debe observarse que hemos corregido todas las variables incluido el trmino independiente. En realidad, la correccin para la variable del trmino independiente exige utilizar ahora un vector con el valor de 1- en lugar del valor de 1 si queremos observar el trmino constante equivalente a la ecuacin original. No obstante, esta transformacin para el trmino independiente no alterara los resultados observados en el resto de la ecuacin.
14

16/18

por utilizar la denominada transformacin de Prais Winsten que permite mantener la primera observacin de la variable endgena y exgenas considerando para su clculo:
2 Y1* = Y1 1 X* j1 = X
j1

2 1

En realidad, dado que el clculo directo del rho implica cierta probabilidad de error, suele ser conveniente utilizar el procedimiento de clculo iterativo de conocido como Cochrane Orcutt descrito en clase. Esto implicara un proceso sucesivo de re-clculo de rho a partir de los nuevos resultados del DW obtenidos en esta regresin, y una nueva transformacin de las variables previamente transformadas Es decir, en nuestro ejemplo, el nuevo valor del DW es ahora 1.53 lo que implica un valor del de 0.24; podra utilizarse ese nuevo valor para transformar de nuevo las variables16 y reestimar nuevamente la ecuacin.17
Method: Least Squares Date: 04/14/09 Time: 11:37 Sample(adjusted): 1981:3 2002:2 Included observations: 84 after adjusting endpoints Variable Coefficient Std. Error t-Statistic 0.114 -35097.07 3820.809 -9.185769 FBCKCC 0.821343 0.150840 5.445132 GTOHOGKCC 0.608853 0.098655 6.171565 PIMPENERCC 4.489336 4.133892 1.085983 R-squared 0.850285 Mean dependent var Adjusted R-squared 0.844671 S.D. dependent var S.E. of regression 612.2712 Akaike info criterion Sum squared resid 29990085 Schwarz criterion Log likelihood -656.1844 F-statistic Durbin-Watson stat 1.911498 Prob(F-statistic)

Prob. 0.0000 0.0000 0.0000 0.2807 2765.136 1553.521 15.71868 15.83443 151.4494 0.000000

En todo caso, no merece la pena insistir en un procedimiento de correccin que se ha ilustrado convenientemente con este ejemplo. Conviene observar, no obstante, las importantes alteraciones sufridas en el valor de los coeficientes como resultado de haber transformado los datos originales. Este cambio resulta particularmente incmodo en cuanto que los efectos tericos de de la autocorrelacin no afectan al valor de los parmetros y, por tanto, su correccin no debera generar valores tan diferentes respecto a los iniciales. El cambio, sin embargo, resulta inevitable dado que hemos pasado desde un modelo original en niveles a tratar de explicar las diferencias (o semideiferencias), es decir, el movimiento de las series originales.
La segunda transformacin se distingue ahora por una doble C al final del nombre original. Para el caso del trmino independiente, la transformacin equivale a realizar 0.15-0.24*0.15=0.114 (es decir, en trminos genricos, 1+ 1 2- 1- 2) 17 Este procedimiento iterativo finaliza cuando entre dos estimaciones sucesivas de rho no existe una diferencia significativa o bien cuando no existe un cambio notable en los parmetros de las exgenas de la regresin.
16

17/18

Con el fin de concentrar la correccin exclusivamente en la varianza (y no en el valor de los parmetros) existe, para finalizar, una propuesta de correccin similar a la estimacin automtica corregida de heterocedasticidad de White, pero ideada para el contexto en el que exista un problema de autocorrelacin. Esta correccin, que no se desarrollar tericamente en este texto, y que en esencia sigue la misma estrategia que la expuesta para la correccin de heterocedasticidad de White, se denomina Estimacin de Newey West pero slo resulta conveniente para muestras muy grandes. La mayor parte de los programas informticos incorporan esta correccin automtica bajo la denominacin Estimador Newey Wets o bien estimacin con errores estndar CHA (consistentes con la heterocedasticidad y la autocorrelacin). Como puede observarse, la estimacin de Newey West realizada en EViews conserva el valor original de los parmetros pero altera la estimacin de las varianzas, un nuevo clculo de las varianzas consistente con el verdadero valor en presencia de autocorrelacin.
Dependent Variable: IMPK Method: Least Squares Date: 04/14/09 Time: 12:10 Sample: 1981:1 2002:2 Included observations: 86 Newey-West HAC Standard Errors & Covariance (lag truncation=3) Variable Coefficient Std. Error t-Statistic Prob. C -56823.91 4607.825 -12.33205 0.0000 FBCK -0.149782 0.324371 -0.461762 0.6455 GTOHOGK 1.265278 0.194668 6.499658 0.0000 PIMPENER 30.80776 5.283256 5.831207 0.0000 R-squared 0.983182 Mean dependent var 21327.70 Adjusted R-squared 0.982566 S.D. dependent var 12136.72 S.E. of regression 1602.487 Akaike info criterion 17.64190 Sum squared resid 2.11E+08 Schwarz criterion 17.75605 Log likelihood -754.6015 F-statistic 1597.883 Durbin-Watson stat 0.290346 Prob(F-statistic) 0.000000

Comparando los valores de las desviaciones tpicas de los parmetros de esta ecuacin con los de la ecuacin original, puede observarse que la estimacin de White indica una subestimacin de la varianza de los parmetros en la ecuacin original del orden de la mitad del clculo corregido.

18/18