Está en la página 1de 22

ECONOMETRÍA I

Teorema Gauss Markov


y Supuestos de MCO

Gujarati y Porter (2010). Econometría, 5 edición. McGraw-


Hill. Capítulo 12. 1
7. NO AUTOCORRELACIÓN

𝑌 𝑖= ^
𝛽1 + ^
𝛽 2 𝑋 2 𝑖 +…+ ^ ^𝑖
𝛽𝑘 𝑋 𝑘𝑖 + 𝜇

1. Naturaleza de la autocorrelación

 Tener en cuenta que los supuestos dependen según el tipo de


datos: normalmente en datos transversales hay
heterocedasticidad.
 Sin embargo, con relación a la autocorrelación, no existe razón
previa para creer que el término de error que correspondiente a
una familia o a una empresa esté correlacionado con el término
de error de otra familia o empresa. Si por casualidad se observa
dicha correlación en unidades transversales, se conoce como
autocorrelación espacial.
 Lo normal es encontrar autocorrelación en series temporales:
una variable en el periodo t se encuentra afectada por sus
rezagos, t-1, t-2, etc.
7. NO AUTOCORRELACIÓN

𝑌 𝑡=^
𝛽 1+ ^
𝛽2 𝑋 2𝑡 +…+ ^ ^𝑡
𝛽𝑘 𝑋 𝑘 𝑡 + 𝜇

1. Naturaleza de la autocorrelación

El término autocorrelación se define como la


correlación entre miembros de series de
observaciones ordenadas en el tiempo [como en
datos de series de tiempo] o en el espacio [como en
datos de corte transversal].
7. NO AUTOCORRELACIÓN

a) Autocorrelación
positiva

b) Autocorrelación
negativa.

Fuente: Gujarati y Porter (2010, p. 419)


FUENTES DE AUTOCORRELACIÓN
 Inercia (ciclos económicos).
 Sesgo de especificación: caso de variables excluidas

Supongamos que el modelo correcto de demanda de carne de


res es:

Pero estimamos el siguiente modelo:

Por lo tanto, respecto al modelo correcto, se tiene que en el


segundo modelo:
 
Así, los residuos del modelo estimado pueden presentar un
patrón de distribución sistemático: 
FUENTES DE AUTOCORRELACIÓN
 Sesgo de especificación: forma funcional incorrecta

Supongamos que el modelo correcto en un estudio de costo-


producción es:

 
Donde es el costo marginal y la producción para cada empresa .
 
Sin embargo, estimamos el siguiente modelo:

Por lo tanto, respecto al modelo correcto, se tiene que en el


segundo modelo:
FUENTES DE AUTOCORRELACIÓN
 Sesgo de especificación: forma funcional incorrecta

Fuente: Gujarati y Porter (2010, p. 416)

El modelo estimado sobreestima en unas partes la verdadera relación del


costo marginal y la producción, y en otras la subestimad. Este resultado es así
porque los residuos captan el efecto sistemático de sobre el costo marginal,
y por lo tanto reflejará autocorrelación por la forma funcional incorrecta.
FUENTES DE AUTOCORRELACIÓN
 Rezagos: el consumo del periodo t depende del consumo del
periodo anterior.

 Manipulación de datos: interpolación o extrapolación


 No estacionariedad en las series de tiempo analizadas: una
serie de tiempo es estacionaria, si sus características (media,
varianza y covarianza) son invariantes respecto del tiempo; es
decir, no cambian en relación con el tiempo. Si no es así,
tenemos una serie de tiempo no estacionaria. Sí las variables
son no estacionarios, los residuales son también no
estacionarios, por lo cual, mostrarán autocorrelación:
AUTOCORRELACIÓN AR(1)

Esta ecuación se conoce como un esquema autorregresivo de


primer orden, y suele denotarse como AR(1).

: se interpreta como el coeficiente de autocorrelación de primer


orden, o, en forma más precisa, coeficiente de autocorrelación
del rezago 1.
ESTIMACIÓN POR MCO EN PRESENCIA
DE AUTOCORRELACIÓN
¿Qué sucede con los estimadores de MCO y sus varianzas si introducimos la
autocorrelación permitiendo que pero conservamos todos los demás
supuestos del modelo clásico?
No autocorrelación

^
𝛽 2=
∑ 𝑥𝑖 𝑦𝑖 ^
𝑉𝑎𝑟 ( 𝛽2 )=
^2
𝜎
∑ 𝑖𝑥
2
∑ 𝑥 2𝑖
𝑌 𝑖= 𝛽1 + 𝛽 2 𝑋 𝑖 +𝜇 𝑖 Autocorrelación

^
𝛽 2=
∑ 𝑥𝑖 𝑦𝑖
∑ 𝑖 𝑥
2

Donde
𝑉𝑎𝑟 ( ^
𝛽2 ) 𝐴𝑅 (1) =
∑𝜎
∑ 𝑥2𝑡 [ 1+2 𝜌
∑ 𝑥𝑡 𝑥 𝑡 −1 +2 𝜌 2 ∑ 𝑥 𝑡 𝑥 𝑡 −2 +… +2 𝜌 𝑛 −1 ∑ 𝑥 𝑡 𝑥𝑛
∑ 𝑥 2𝑡 ∑ 𝑥2𝑡 ∑ 𝑥 2𝑡

es la varianza homoscedástica de los errores


2. CONSECUENCIAS DE LA
AUTOCORRELACIÓN
• Los estimadores son Estimadores Lineales Insesgados, pero
dejan de ser los mejores porque no presentan varianza
mínima, ni siquiera asintóticamente (en muestras grandes).
• Dado que las varianzas y covarianzas ya no son mínimas, se
dificulta la confiabilidad de la inferencia estadística sobre las
pruebas de hipótesis.
• Errores estándar mayores
• Intervalos de confianza más amplios
• Errores en las decisiones sobre las pruebas t y F.
  es cierta es cierta

No hay error (verdadero Error tipo II


No rechazar
negativo) (falso negativo)
Error tipo I No hay error (verdadero
No rechazar
(falso positivo) positivo)
3. DETECCIÓN DE LA
AUTOCORRELACIÓN
Gráficas
Comportamiento en el tiempo de los residuos
Diagramas de dispersión entre y

Analíticas
Prueba d de Durbin-Watson
Prueba general de autocorrelación de Breusch – Godfrey
(BG)
3. DETECCIÓN DE LA
AUTOCORRELACIÓN

Gráficas
a) Autocorrelación
positiva

b) autocorrelación
negativa.

Fuente: Gujarati y Porter (2010, p. 419)


3. DETECCIÓN DE LA
AUTOCORRELACIÓN
 Analíticas
 Prueba d de Durbin-Watson

Donde,

Gráficamente esto indica:

: es el límite inferior : es el límite superior


3. DETECCIÓN DE LA
AUTOCORRELACIÓN
 Prueba d de Durbin-Watson
Con relación a las pruebas de hipótesis

Si el valor estimado , rechace al nivel . Es Si el valor estimado , rechace al nivel . Es


decir, hay correlación positiva. decir, hay correlación negativa.

: es el límite inferior : es el límite superior


3. DETECCIÓN DE LA
AUTOCORRELACIÓN
Prueba d de Durbin-Watson

La prueba d de Durbin-Watson es ya tan clásica que los


profesionales suelen olvidar los supuestos en los que se basa:
1) Las variables explicativas, son no estocásticas
2) El término de error sigue la distribución normal
3) Los modelos de regresión no incluyen valores rezagados de la
variable dependiente
4) Sólo se toma en cuenta la correlación serial de primer orden.
3. DETECCIÓN DE LA
AUTOCORRELACIÓN
 Analíticas
 Prueba general de autocorrelación de Breusch – Godfrey (BG)

Los estadísticos Breusch y Godfrey elaboraron una prueba para la


autocorrelación que es general porque permite:
1) Regresoras no estocásticas, como los valores rezagados de la
regresada
2) Esquemas autorregresivos de orden mayor, como el AR(1), AR(2),
etc.
3) Promedios móviles simples o de orden superior de los términos de
error de ruido blanco del esquema AR(1):
3. DETECCIÓN DE LA
AUTOCORRELACIÓN
Prueba general de autocorrelación de Breusch – Godfrey (BG)

Supongamos el caso para tres variables.


1. Estimar el modelo econométrico y obtener los residuos
 

2. Estimar la siguiente regresión auxiliar


 
3. DETECCIÓN DE LA
AUTOCORRELACIÓN
3. Según las siguientes hipótesis

Se puede demostrar en muestras grandes que  

Donde p son los grados de libertad, iguales al número de rezagos en la


regresión auxiliar.

4. Decisión: para un nivel de significancia dado

Se rechaza y por lo tanto hay autocorrelación.


3. DETECCIÓN DE LA
AUTOCORRELACIÓN
Si usamos el p – valor, la forma de decidir es
α < p-valor → no se rechaza Ho
α > p-valor → se rechaza Ho

Tener en cuenta que la prueba supone homocedasticidad.


3. DETECCIÓN DE LA
AUTOCORRELACIÓN
Analíticas
Prueba d de Durbin-Watson
Prueba general de autocorrelación de Breusch – Godfrey
(BG)
4. MEDIDAS CORRECTIVAS
Investigar primero si se trata de autocorrelación pura y no el
resultado de una mala especificación del modelo. Forma
funcional correcta: transformación logarítmica.
Corrección de la autocorrelación (pura): aplicar el método de
los Mínimos Cuadrados Generalizados Factibles completo
(MCG) de Prais-Winsten. Solo en muestras grandes.
En muestras grandes, hacer la estimación por MCO según el
método de Newey-West. El método estimado errores estándar
consistentes con heteroscedasticidad y autocorrelación: errores
estándar robustos de Newey-West.

También podría gustarte