Documentos de Académico
Documentos de Profesional
Documentos de Cultura
HETEROCEDASTICIDAD, AUTOCORRELACIÓN Y
MULTICOLINEALIDAD
Recuerde que para posibilitar la inferencia estadística en el ámbito del análisis de regresión
lineal (simple y múltiple) se ha recurrido a ciertos supuestos que en el caso del análisis de
regresión lineal simple son:
ii) Las variables aleatorias Y1, Y2, Y3, …, Yn (ver el gráfico inferior) son
estadísticamente independientes.
iii) La media o esperanza de cada una de las variables aleatorias Y1, Y2, …, Yn viene
dada por la siguiente expresión:
𝜇𝑌𝑖 = 𝐸[𝑌𝑖 ] = 𝛽0 + 𝛽1 𝑋𝑖
En otras palabras, el modelo pasa por las medias de las variables aleatorias Y1,
Y2, …, Yn.
Vale decir, las varianzas de las variables aleatorias Y1, Y2, …, Yn son todas
iguales a σ2 (homocedasticidad).
v) Cada una de las variables aleatorias Y1, Y2, …, Yn sigue una distribución normal
con su respectiva media y varianza; vale decir,
𝑌𝑖 ~ 𝑁(𝛽0 + 𝛽1 𝑋𝑖 ; 𝜎 2 )
1
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
𝜇𝑌𝑛 = 𝛽0 + 𝛽1 𝑋𝑛
σ2
σ2
𝜇𝑌1 = 𝛽0 + 𝛽1 𝑋1
σ2
X1 X2 … Xn X
De estos supuestos, los relevantes, en esta oportunidad, son el supuesto ii) y el supuesto
iv).
El supuesto ii) señala que las variables aleatorias 𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son independientes; vale
decir, los valores medidos de la variable dependiente Y deben ser independientes entre si.
Si este supuesto no se cumple se tiene autocorrelación; en otras palabras, una situación
en la que los valores de la variable dependiente están autocorrelacionados entre si; esto
es, no son independientes entre si.
El supuesto iv) asume que las varianzas de las variables aleatorias 𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son iguales
entre si (homocedasticidad). Si este supuesto no se cumple, se tiene heterocedasticidad;
vale decir, varianzas diferentes.
Aun cuando el análisis de regresión lineal múltiple no supone independencia entre las
variables independientes, se espera que éstas sean independientes entre sí; y, de esta
manera, cada una de ellas contribuya significativamente en la predicción de la variable
dependiente. Si dos o más variables independientes están linealmente relacionadas entre
sí, se dice que hay multicolinealidad.
En consecuencia, tanto la heterocedasticidad como la autocorrelación se constituyen en
rupturas a los supuestos del análisis de regresión lineal.
Se ha señalado que uno de los atributos del mejor modelo de regresión lineal es que sea
sencillo (incluya la menor cantidad posible de variables independientes); en esa línea, es
importante evitar la multicolinealidad.
En el presente tema, se desarrollan métodos, unos gráficos y otros analíticos, para detectar
posibles rupturas a los supuestos estadísticos del análisis de regresión lineal
(heterocedasticidad y autocorrelación).
2
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
1. Heterocedasticidad
Por tanto, surge una pregunta, ¿cómo saber si existe heterocedasticidad?. La respuesta es
que no existen reglas fijas y seguras para detectarla sino solamente unas cuantas normas
generales. A continuación, se examina algunas de estas normas o métodos.
Recuerde que:
𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖
Donde:
El método gráfico consiste en obtener un gráfico 𝑒𝑖2 vs. 𝑌̂𝑖 . Este gráfico podría tomar alguno
de los siguientes patrones:
3
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
𝑒𝑖2 𝑒𝑖2
+
+ + +
+ + + +
+ + + + +
+ + + + + ++ + + +
+ + + + + + + + + +
++ + + + + ++ + +
+ + + + + + ++
+ + +
+ + +
++ +
𝑌̂𝑖 𝑌̂𝑖
𝑒𝑖2 𝑒𝑖2
+ +
+ + + +
+ + + ++ + +
+ + + + + + +
+ + + + + + + +
+ + + + + + +
+ + + + + +
+ + + + + + + +
+ + + + + +
+ + + + ++
+ +
𝑌̂𝑖 𝑌̂𝑖
También es posible graficar 𝑒𝑖2 vs 𝑋𝑖 . Este gráfico podría presentar los siguientes patrones:
4
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
𝑒𝑖2 𝑒𝑖2
+
+ + +
+ + + +
+ + + + +
+ + + + + ++ + + +
+ + + + + + + + + +
++ + + + + ++ + +
+ + + + + + ++
+ + +
+ + +
++ +
X X
𝑒𝑖2 𝑒𝑖2
+ +
+ + + +
+ + + ++ + +
+ + + + + + +
+ + + + + + + +
+ + + + + + +
+ + + + + +
+ + + + + + + +
+ + + + + +
+ + + + ++
+ +
X X
En el caso del análisis de regresión lineal simple graficar 𝑒𝑖2 vs. 𝑌̂𝑖 es equivalente a graficar
𝑒𝑖2 vs. 𝑋𝑖 .
Sin embargo, este no es el caso si el modelo de regresión lineal es múltiple. En este caso
se puede tomar cualquiera de las variables independientes incluidas en el modelo.
5
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
+
+
B +
+ m
+
+
+
+
A +
+ +
+ n
+
+
+
1.
2.
6
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
3.
Estadístico de prueba
𝑆𝐵2
𝐹= ~ 𝐹𝑚−2;𝑛−2
𝑆𝐴2
Criterio de rechazo de H0
𝑓𝐹 (. )
α/2 α/2
4.
𝑛
1
𝑌̅𝐴 = ∑ 𝑌𝑖
𝑛
𝑖=1
𝑛
1
𝑆𝐴2 = ∑(𝑌𝑖 − 𝑌̅𝐴 )2
𝑛−1
𝑖=1
𝑚
1
𝑌̅𝐵 = ∑ 𝑌𝑖
𝑚
𝑖=1
𝑚
1
𝑆𝐵2 = ∑(𝑌𝑖 − 𝑌̅𝐵 )2
𝑚−1
𝑖=1
𝑆𝐵2
𝐹𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 =
𝑆𝐴2
5.
7
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
2. Autocorrelación
Se recurre a un gráfico 𝑒𝑖 vs. 𝑒𝑖−1, el cual podría presentar alguno de los siguientes
patrones:
𝑒𝑖 𝑒𝑖
+ + +
+ + + +
+ + + + + +
+ +
+ + + +
+ + + + +
+ + + +
+ + + 𝑒𝑖−1 + + 𝑒𝑖−1
+ + +
+ + +
+ + + +
8
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
𝑒𝑖
+ + + +
+ + + +
+ +
+ + + + 𝑒𝑖−1
+ + + +
+ +
Recuerde que:
𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖
Donde:
1. Formular la hipótesis
9
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
En esta prueba, cuando n1 y n2 son menores o iguales a 15, α = 0,05. En otros casos
es posible definir otro valor para α (p.e. 0,01; 0,05; 0,10)
Estadístico de prueba:
Caso a
r = número de corridas
Notas:
Una corrida es una secuencia del mismo símbolo, de solamente dos posibles (p.e.
+ y -). En este caso
En el siguiente caso:
+++−++−−+−−−−++
1 2 3 4 5 6 7
Caso b
Si n1 y/o n2 excede 15, debe recurrirse a una aproximación normal para definir un estadístico
de prueba. Esto es, se debe asumir que 𝑟 ~ 𝑁(𝜇𝑟 ; 𝜎𝑟2 ) ; en palabras, asumir que r sigue una
distribución normal con media µr y varianza σr2. Por tanto, el estadístico de prueba es:
𝑟 − 𝜇𝑟
𝑧= ~ 𝑁(0,1)
𝜎𝑟
Donde:
𝑟 = número de corridas
10
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
2𝑛1 𝑛2
𝜇𝑟 = +1
𝑛
2𝑛1 𝑛2 (2𝑛1 𝑛2 − 𝑛)
𝜎𝑟 = √
𝑛2 (𝑛 − 1)
Criterio de rechazo de H0
Caso a
fr(.)
α/2=0,025 α/2=0,025
rI rS r
Rechazar H0 si 𝑟 ≤ 𝑟𝐼 𝑜 𝑟 ≥ 𝑟𝑆
Nota:
11
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
TABLA
DISTRIBUCIÓN DE r PARA LA PRUEBA DE ALEATORIEDAD DE LAS CORRIDAS
(α = 0,05)
fr(.)
α/2=0,025 α/2=0,025
rI rS r
Dados 𝑛1 y 𝑛2 la tabla da el valor inferior 𝑟𝐼 y el valor superior 𝑟𝑆 con 𝛼⁄2 = 0,025 hacia la izquierda
y hacia la derecha de dichos valores. Esto es, 𝑃(𝑟 ≤ 𝑟𝐼 ) + 𝑃(𝑟 ≥ 𝑟𝑆 ) = 0,005.
n2 I
n1 S 2 3 4 5 6 7 8 9 10 11 12 13 14 15
I 2 2 2 2
2 S
I 2 2 2 2 2 2 2 2 2 3
3 S
I 2 2 2 3 3 3 3 3 3 3 3
4 S 9 9
I 2 2 3 3 3 3 3 4 4 4 4 4
5 S 9 10 10 11 11
I 2 2 3 3 3 3 4 4 4 4 5 5 5
6 S 9 10 11 12 12 13 13 13 13
I 2 2 3 3 3 4 4 5 5 5 5 5 6
7 S 11 12 13 13 14 14 14 14 15 15 15
I 2 3 3 3 4 4 5 5 5 6 6 6 6
8 S 11 12 13 14 14 15 15 16 16 16 16
I 2 3 3 4 4 5 5 5 6 6 6 7 7
9 S 13 14 14 15 16 16 16 17 17 18
I 2 3 3 4 5 5 5 6 6 7 7 7 7
10 S 13 14 15 16 16 17 17 18 18 18
I 2 3 4 4 5 5 6 6 7 7 7 8 8
11 S 13 14 15 16 17 17 18 19 19 19
I 2 2 3 4 4 5 6 6 7 7 7 8 8 8
12 S 13 14 16 16 17 18 19 19 20 20
I 2 2 3 4 5 5 6 6 7 7 8 8 9 9
13 S 15 16 17 18 19 19 20 20 21
I 2 2 3 4 5 5 6 7 7 8 8 9 9 9
14 S 15 16 17 18 19 20 20 21 22
I 2 3 3 4 5 6 6 7 7 8 8 9 9 10
15 S 15 16 18 18 19 20 21 22 22
Fuente: STATISTICAL PROCEDURES FOR ENGINEERING, MANAGEMENT, AND SCIENCE (Leland Blank)
12
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
Caso b
-z0 0 z0 𝒁~𝑵(𝟎, 𝟏)
Caso a
Obtener el valor de r
Caso b
𝑟 − 𝜇̂ 𝑟
𝑧𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 =
𝜎̂𝑟
Donde:
2𝑛1 𝑛2
𝜇̂ 𝑟 = +1
𝑛
2𝑛1 𝑛2 (2𝑛1 𝑛2 − 𝑛)
𝜎̂𝑟 = √
𝑛2 (𝑛 − 1)
5.
Es la prueba más conocida para detectar autocorrelación, fue desarrollada por Durbin y
Watson.
13
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
∑𝑛𝑖=2(𝑒𝑖− 𝑒𝑖−1 )2
𝑑=
∑𝑛𝑖=1 𝑒𝑖2
∑ 𝑒𝑖2 + ∑ 𝑒𝑖−1
2
− 2 ∑ 𝑒𝑖 𝑒𝑖−1
𝑑=
∑ 𝑒𝑖2
2 ∑ 𝑒𝑖2 − 2 ∑ 𝑒𝑖 𝑒𝑖−1
𝑑=
∑ 𝑒𝑖2
∑ 𝑒𝑖 𝑒𝑖−1
𝑑 = 2 (1 − )
∑ 𝑒𝑖2
∑ 𝑒𝑖 𝑒𝑖−1
𝜌̂ =
∑ 𝑒𝑖2
Por tanto,
̂)
𝒅 = 𝟐(𝟏 − 𝝆
Si se recuerda que,
−1 ≤ 𝜌 ≤ 1
Se tiene que,
𝟎≤𝒅≤𝟒
Es difícil encontrar la distribución del estadístico d. Sin embargo, Durbin y Watson lograron
computar límites inferiores (𝑑𝐿 ) y límites superiores (𝑑𝑈 ), tales que si el valor calculado de
estadístico cae por fuera de estos valores críticos, se puede tomar una decisión sobre la
posible presencia de autocorrelación positiva o negativa.
Estos límites fueron tabulados por Durbin y Watson para diferentes valores de n (tamaño
de la muestra) y k (número de variables independientes en el modelo de regresión). Estas
tablas aparecen en libros o textos sobre econometría o modelos econométricos. En el
ejercicio de aplicación se mostrará una parte de estas tablas.
14
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
1.-
H0: ρ=0
H1: ρ≠0
2.-
3.-
Estadístico de prueba
𝑑 = 2(1 − 𝜌̂)
H0 Decisión Si:
(hipótesis nula)
No existe autocorrelación positiva Rechazar H0 0 < 𝑑 < 𝑑𝐿
No existe autocorrelación positiva No hay decisión 𝑑𝐿 < 𝑑 < 𝑑𝑈
No existe autocorrelación negativa Rechazar H0 4 − 𝑑𝐿 < 𝑑 < 4
No existe autocorrelación negativa No hay decisión 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿
No existe autocorrelación (ni positiva ni negativa) No rechazar H0 𝑑𝑈 < 𝑑 < 4 − 𝑑𝑈
Zona de Zona de
Indecisión indecisión
Rechazar H0 Rechazar H0
Evidencia de Aceptar H0 Evidencia de
Autocorrelación Autocorrelación
Positiva Negativa
0 dL dU 2 4 – dU 4 – dL 4 d
15
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
4.-
∑ 𝑒𝑖 𝑒𝑖−1
𝜌̂ =
∑ 𝑒𝑖2
𝑑 = 2(1 − 𝜌̂)
5.-
3. Multicolinealidad
Tal como se ha señalado anteriormente, aun cuando el análisis de regresión lineal múltiple
no supone independencia entre las variables independientes, se espera que éstas sean
independientes entre sí; y, de esta manera, cada una de ellas contribuya significativamente
en la predicción de la variable dependiente. Si dos o más variables independientes están
linealmente relacionadas entre sí, se dice que hay multicolinealidad.
Una de las mayores consecuencias de la multicolinealidad es que las varianzas de los
estimadores de los coeficientes del modelo de regresión lineal tienden a ser grandes; por
consiguiente, los parámetros del modelo de regresión lineal no pueden estimarse en forma
precisa.
2
Si el coeficiente de determinación lineal (𝜌𝑌; 𝑋1 ,𝑋2 ,⋯,𝑋𝑛 ) del modelo de regresión es
alto pero los coeficientes de correlación lineal parcial simple de la variable
dependiente con las diferentes variables independientes, tomando como variables
de control las restantes son bajas, la multicolinealidad es una posibilidad.
16
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
4. Ejercicio 1
Problema:
i X Y
1 1,7 29
2 3,0 41
3 3,0 29
4 3,6 42
5 4,2 39
6 4,2 57
7 4,7 32
8 4,7 43
9 5,3 45
10 5,3 38
11 5,8 47
12 6,3 63
13 7,3 54
14 7,3 53
15 8,7 63
16 10,1 76
17 10,1 87
18 11,0 94
a) Existe heterocedasticidad
Gráficamente
Analíticamente (utilizar α = 0,10)
b) Existe autocorrelación
Gráficamente
Analíticamente (Utilizar α = 0,05)
17
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
Solución:
𝑌̂ = 14,075 + 6,384𝑋
Ahora es posible obtener los valores estimados (𝑌̂𝑖 ) y los respectivos errores o residuos
(𝑒𝑖 ) que se muestran en la siguiente tabla:
i X Y ̂
𝒀 ei ei2 ei - 1 eiei – 1 YA YB Corridas
1 1,7 29 24,9 4,1 16,81 29 +
2 3,0 41 33,2 7,8 60,84 4,1 32,0 41 +
3 3,0 29 33,2 -4,2 17,64 7,8 -32,8 29 -
4 3,6 42 37,1 4,9 24,01 -4,2 -20,6 42 +
5 4,2 39 40,9 -1,9 3,61 4,9 -9,3 39 -
6 4,2 57 40,9 16,1 259,21 -1,9 -30,6 57 +
7 4,7 32 44,1 -12,1 146,41 16,1 -194,8 32 -
8 4,7 43 44,1 -1,1 1,21 -12,1 13,3 43 -
9 5,3 45 47,9 -2,9 8,41 -1,1 3,2 45 -
10 5,3 38 47,9 -9,9 98,01 -2,9 28,7 38 -
11 5,8 47 51,1 -4,1 16,81 -9,9 40,6 47 -
12 6,3 63 54,3 8,7 75,69 -4,1 -35,7 63 +
13 7,3 54 60,7 -6,7 44,89 8,7 -58,3 54 -
14 7,3 53 60,7 -7,7 59,29 -6,7 51,6 53 -
15 8,7 63 69,6 -6,6 43,56 -7,7 50,8 63 -
16 10,1 76 78,6 -2,6 6,76 -6,6 17,2 76 -
17 10,1 87 78,6 8,4 70,56 -2,6 -21,8 87 +
18 11,0 94 84,3 9,7 94,09 8,4 81,5 94 +
∑ -0,1 1047,81 -85,2
18
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
a) Heterocedasticidad
Método gráfico
𝑒𝑖2
+
250
200
150
+
100 + +
50 + + + +
+ +
+ ++ + + +
+ +
0 2 4 6 8 10 12 𝑋
1.
2.
α = 0,10
3.
Estadístico de prueba
𝑆𝐵2
𝐹= ~ 𝐹𝑚−2;𝑛−2
𝑆𝐴2
19
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
Criterio de rechazo de H0
𝑓𝐹 (. )
4.
𝑛
1
𝑌̅𝐴 = ∑ 𝑌𝑖 = 39,67
𝑛
𝑖=1
𝑛
1
𝑆𝐴2 = ∑(𝑌𝑖 − 𝑌̅𝐴 )2 = 79,21
𝑛−1
𝑖=1
𝑚
1
𝑌̅𝐵 = ∑ 𝑌𝑖 = 63,89
𝑚
𝑖=1
𝑚
1
𝑆𝐵2 = ∑(𝑌𝑖 − 𝑌̅𝐵 )2 = 344,84
𝑚−1
𝑖=1
𝑆𝐵2 344,84
𝐹𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 = = = 4,35
𝑆𝐴2 79,21
5.
Para α = 0,10
Rechazar H0 → Aceptar H1
→ 𝜎𝐴2 ≠ 𝜎𝐵2
→ Hay heterocedasticidad
20
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
b) Autocorrelación
Método gráfico
x16
x12
x
8
x x
x 4
-12 -8 -4 0 4 8 12 16
x x x
x -4 x
x x x
x -8
x
-12 x
-16
1)
2)
α = 0,05
21
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
3)
Estadístico de prueba:
r = número de corridas
En el presente caso:
Si 𝑒𝑖 > 0 → (+)
Si 𝑒𝑖 ≤ 0 → (−)
+ + − + − + − − − − − + − − − − + +
1 2 3 4 5 6 7 8 9
Número de corridas = r = 9
Número de (+) = n1 = 7
Número de (-) = n2 = 11
Criterio de rechazo de H0
fr(.)
α/2=0,025 α/2=0,025
rI = 5 rS = 14 r
Por tanto,
Rechazar H0 si 𝒓 ≤ 𝟓 𝒐 𝒔𝒊 𝒓 ≥ 𝟏𝟒
4)
Número de corridas = r = 9
5)
Para α = 0,05
ACEPTAR H0
22
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
Prueba d de Durbin-Watson
1.-
H0: ρ=0
H1: ρ≠0
2.-
α = 0,05
3.-
Estadístico de prueba
𝑑 = 2(1 − 𝜌̂)
H0 Decisión Si:
(hipótesis nula)
No existe autocorrelación positiva Rechazar H0 0 < 𝑑 < 1,158
No existe autocorrelación positiva No hay decisión 1,158 < 𝑑 < 1,391
No existe autocorrelación negativa Rechazar H0 2,842 < 𝑑 < 4
No existe autocorrelación negativa No hay decisión 2,609 < 𝑑 < 2,842
No existe autocorrelación (ni positiva ni negativa) No rechazar H0 1,391 < 𝑑 < 2,609
4.-
∑ 𝑒𝑖 𝑒𝑖−1 −85,2
𝜌̂ = 2 = = −0,081
∑ 𝑒𝑖 1047,8 → 1
𝒅 = 𝟐, 𝟏𝟔𝟐
23
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
5.-
Para α = 0,05
ACEPTAR H0
→ 𝜌=0
→ 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛
TABLA
Estadístico d de Durbin-Watson
Límites inferior y superior (dL y dU) para α = 0,05
Es una reproducción muy reducida (con fines didácticos) de las tablas publicadas en el
libro ECONOMETRÍA de Damodar Gujarati (Editorial Ma Graw Hill - segunda edición)
(páginas 582, 583, 584 y 585)
24
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.
Práctica
Dada la siguiente muestra:
i X Y
1 6,2 6,1
2 8,1 8,0
3 10,3 10,3
4 12,1 12,1
5 14,1 13,1
6 16,4 14,8
7 18,2 17,9
8 20,1 19,8
9 22,3 19,9
10 24,1 21,6
11 26,1 25,5
12 28,3 25,0
13 30,1 29,3
14 32,3 31,2
15 34,5 33,1
16 36,6 31,8
17 38,0 33,5
18 40,2 38,8
19 42,3 40,7
20 44,7 38,6
a) Existe heterocedasticidad
Gráficamente
Analíticamente (utilizar α = 0,10)
b) Existe autocorrelación
Gráficamente
Analíticamente (Prueba d de Durbin-Watson) (Utilizar α = 0,05)
25