Está en la página 1de 25

Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

HETEROCEDASTICIDAD, AUTOCORRELACIÓN Y
MULTICOLINEALIDAD

Recuerde que para posibilitar la inferencia estadística en el ámbito del análisis de regresión
lineal (simple y múltiple) se ha recurrido a ciertos supuestos que en el caso del análisis de
regresión lineal simple son:

i) La variable independiente X es considerada como una variable experimental


controlable. La variable dependiente Y es considerada como una variable
aleatoria que, en consecuencia, tiene una distribución y parámetros (media y
varianza principalmente).

ii) Las variables aleatorias Y1, Y2, Y3, …, Yn (ver el gráfico inferior) son
estadísticamente independientes.

iii) La media o esperanza de cada una de las variables aleatorias Y1, Y2, …, Yn viene
dada por la siguiente expresión:

𝜇𝑌𝑖 = 𝐸[𝑌𝑖 ] = 𝛽0 + 𝛽1 𝑋𝑖

En otras palabras, el modelo pasa por las medias de las variables aleatorias Y1,
Y2, …, Yn.

iv) 𝑉𝑎𝑟[𝑌1 ] = 𝑉𝑎𝑟[𝑌2 ] = 𝑉𝑎𝑟[𝑌3 ] = ⋯ = 𝑉𝑎𝑟[𝑌𝑛 ] = 𝜎 2

Vale decir, las varianzas de las variables aleatorias Y1, Y2, …, Yn son todas
iguales a σ2 (homocedasticidad).

v) Cada una de las variables aleatorias Y1, Y2, …, Yn sigue una distribución normal
con su respectiva media y varianza; vale decir,

𝑌𝑖 ~ 𝑁(𝛽0 + 𝛽1 𝑋𝑖 ; 𝜎 2 )

El siguiente gráfico intenta reflejar los supuestos anotados:

1
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Y Y1 = Y/X1 Y2 = Y/X2 Yn = Y/Xn

𝜇𝑌𝑛 = 𝛽0 + 𝛽1 𝑋𝑛

σ2

σ2
𝜇𝑌1 = 𝛽0 + 𝛽1 𝑋1

σ2

X1 X2 … Xn X

De estos supuestos, los relevantes, en esta oportunidad, son el supuesto ii) y el supuesto
iv).
El supuesto ii) señala que las variables aleatorias 𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son independientes; vale
decir, los valores medidos de la variable dependiente Y deben ser independientes entre si.
Si este supuesto no se cumple se tiene autocorrelación; en otras palabras, una situación
en la que los valores de la variable dependiente están autocorrelacionados entre si; esto
es, no son independientes entre si.
El supuesto iv) asume que las varianzas de las variables aleatorias 𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son iguales
entre si (homocedasticidad). Si este supuesto no se cumple, se tiene heterocedasticidad;
vale decir, varianzas diferentes.
Aun cuando el análisis de regresión lineal múltiple no supone independencia entre las
variables independientes, se espera que éstas sean independientes entre sí; y, de esta
manera, cada una de ellas contribuya significativamente en la predicción de la variable
dependiente. Si dos o más variables independientes están linealmente relacionadas entre
sí, se dice que hay multicolinealidad.
En consecuencia, tanto la heterocedasticidad como la autocorrelación se constituyen en
rupturas a los supuestos del análisis de regresión lineal.
Se ha señalado que uno de los atributos del mejor modelo de regresión lineal es que sea
sencillo (incluya la menor cantidad posible de variables independientes); en esa línea, es
importante evitar la multicolinealidad.
En el presente tema, se desarrollan métodos, unos gráficos y otros analíticos, para detectar
posibles rupturas a los supuestos estadísticos del análisis de regresión lineal
(heterocedasticidad y autocorrelación).

2
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

En el tema relacionado con el análisis de correlación lineal en un ámbito múltiple se han


desarrollado varias herramientas estadísticas que bien se pueden utilizar para detectar
multicolinealidad.

1. Heterocedasticidad

Tal como se ha señalado, la heterecedasticidad es una ruptura al importante supuesto del


análisis de regresión lineal que asume que las varianzas de las variables aleatorias
𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son iguales.

Si hay heterocedasticidad, los estimadores de mínimos cuadrados siguen siendo


insesgados; sin embargo, se hacen ineficientes; vale decir, dejan de ser estimadores de
varianza mínima; en otras palabras, dejan de ser los mejores estimadores de los parámetros
del modelo de regresión. Por otro lado, si hay heterocedasticidad, los estimadores de σ2
(varianza de la variable dependiente) se hacen sesgados e invalidan todos los estadísticos
en los que aparecen estos estimadores; y, consecuentemente, invalidan toda la inferencia
estadística basada en estos estimadores.

De lo señalado queda claro que la heterocedasticidad es un problema potencialmente serio


que el investigador necesita conocer si está presente en una situación dada. Si se detecta
su presencia, entonces se pueden tomar acciones correctivas como utilizar estimadores de
mínimos cuadrados ponderados o alguna técnica alterna para estimar los parámetros del
modelo de regresión lineal.

Por tanto, surge una pregunta, ¿cómo saber si existe heterocedasticidad?. La respuesta es
que no existen reglas fijas y seguras para detectarla sino solamente unas cuantas normas
generales. A continuación, se examina algunas de estas normas o métodos.

1.1. Método gráfico

Recuerde que:

𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖

Donde:

𝑌𝑖 = 𝑉𝑎𝑙𝑜𝑟 𝑚𝑒𝑑𝑖𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌


𝑌̂𝑖 = 𝑉𝑎𝑙𝑜𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑐𝑜𝑛 𝑙𝑎 𝑒𝑠𝑡𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑒𝑖 = 𝐸𝑟𝑟𝑜𝑟 (𝑜 𝑟𝑒𝑠í𝑑𝑢𝑜)

El método gráfico consiste en obtener un gráfico 𝑒𝑖2 vs. 𝑌̂𝑖 . Este gráfico podría tomar alguno
de los siguientes patrones:

3
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

𝑒𝑖2 𝑒𝑖2

+
+ + +
+ + + +
+ + + + +
+ + + + + ++ + + +
+ + + + + + + + + +
++ + + + + ++ + +
+ + + + + + ++
+ + +
+ + +
++ +

𝑌̂𝑖 𝑌̂𝑖

Patrón que sugiere ausencia de Patrón que sugiere presencia


heterocedasticidad heterocedasticidad

𝑒𝑖2 𝑒𝑖2

+ +
+ + + +
+ + + ++ + +
+ + + + + + +
+ + + + + + + +
+ + + + + + +
+ + + + + +
+ + + + + + + +
+ + + + + +
+ + + + ++
+ +
𝑌̂𝑖 𝑌̂𝑖

Patrón que sugiere presencia de Patrón que sugiere presencia


heterocedasticidad heterocedasticidad

También es posible graficar 𝑒𝑖2 vs 𝑋𝑖 . Este gráfico podría presentar los siguientes patrones:

4
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

𝑒𝑖2 𝑒𝑖2

+
+ + +
+ + + +
+ + + + +
+ + + + + ++ + + +
+ + + + + + + + + +
++ + + + + ++ + +
+ + + + + + ++
+ + +
+ + +
++ +

X X

Patrón que sugiere ausencia de Patrón que sugiere presencia


heterocedasticidad heterocedasticidad

𝑒𝑖2 𝑒𝑖2

+ +
+ + + +
+ + + ++ + +
+ + + + + + +
+ + + + + + + +
+ + + + + + +
+ + + + + +
+ + + + + + + +
+ + + + + +
+ + + + ++
+ +
X X

Patrón que sugiere presencia de Patrón que sugiere presencia


heterocedasticidad heterocedasticidad

En el caso del análisis de regresión lineal simple graficar 𝑒𝑖2 vs. 𝑌̂𝑖 es equivalente a graficar
𝑒𝑖2 vs. 𝑋𝑖 .

Sin embargo, este no es el caso si el modelo de regresión lineal es múltiple. En este caso
se puede tomar cualquiera de las variables independientes incluidas en el modelo.

5
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

1.2. Prueba estadística de Goldfeld y Quandt

Siendo el método gráfico un método informal, es siempre recomendable fortalecer las


sospechas a las que lleva, con una prueba estadística.

El fundamento de la prueba de Goldfeld y Quandt es el siguiente: inicialmente, se divide la


muestra aleatoria en dos grupos (A y B) tal como muestra el gráfico inferior ( n muestras en
A y m muestras en B). Se comparan las varianzas de ambos grupos, si eventualmente
éstas son iguales, se concluye que no existe heterocedasticidad.

+
+
B +
+ m
+
+
+
+
A +
+ +
+ n
+
+
+

La prueba estadística es la siguiente:

1.

H0: No hay heterocedasticidad


H1: Hay heterocedasticidad

H0: 𝜎𝐴2 = 𝜎𝐵2


H1: 𝜎𝐴2 ≠ 𝜎𝐵2

2.

Definir un valor para la probabilidad de cometer el error Tipo I (α)

6
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

3.

Estadístico de prueba

𝑆𝐵2
𝐹= ~ 𝐹𝑚−2;𝑛−2
𝑆𝐴2

Criterio de rechazo de H0

𝑓𝐹 (. )

Rechazar H0 si, Fcalculado ˂ FINF ó Fcalculado > FSUP

α/2 α/2

FINF FSUP 𝐹 ~ 𝐹𝑚−2;𝑛−2

4.
𝑛
1
𝑌̅𝐴 = ∑ 𝑌𝑖
𝑛
𝑖=1

𝑛
1
𝑆𝐴2 = ∑(𝑌𝑖 − 𝑌̅𝐴 )2
𝑛−1
𝑖=1

𝑚
1
𝑌̅𝐵 = ∑ 𝑌𝑖
𝑚
𝑖=1

𝑚
1
𝑆𝐵2 = ∑(𝑌𝑖 − 𝑌̅𝐵 )2
𝑚−1
𝑖=1

𝑆𝐵2
𝐹𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 =
𝑆𝐴2

5.

Tomar la decisión que corresponda

7
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

2. Autocorrelación

Tal como se ha señalado, la autocorrelación es una ruptura al importante supuesto del


análisis de regresión lineal que asume que las variables aleatorias 𝑌1 , 𝑌2 , ⋯ , 𝑌𝑛 son
independientes; vale decir, los valores medidos de la variable dependiente Y deben ser
independientes entre sí.

Si hay autocorrelación, los estimadores de mínimos cuadrados siguen siendo insesgados;


sin embargo, se hacen ineficientes; vale decir, dejan de ser estimadores de varianza
mínima; en otras palabras, dejan de ser los mejores estimadores de los parámetros del
modelo de regresión. Consecuentemente, la aplicación de estadísticos (t de estudiante y F)
en la inferencia estadística relacionada con el análisis de regresión lineal deja de ser
legítima.

De lo señalado queda claro que la autocorrelación es un problema potencialmente serio


que el investigador necesita conocer si está presente en una situación dada. Si se detecta
su presencia, entonces se pueden tomar acciones correctivas.

La pregunta que surge es ¿cómo saber si existe autocorrelación?. A continuación se


examinan algunos métodos para este propósito.

2.1. Método gráfico

Se recurre a un gráfico 𝑒𝑖 vs. 𝑒𝑖−1, el cual podría presentar alguno de los siguientes
patrones:

𝑒𝑖 𝑒𝑖

+ + +
+ + + +
+ + + + + +
+ +
+ + + +

+ + + + +
+ + + +

+ + + 𝑒𝑖−1 + + 𝑒𝑖−1
+ + +
+ + +
+ + + +

Patrón que sugiere Patrón que sugiere


autocorrelación positiva autocorrelación negativa

8
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

𝑒𝑖

+ + + +
+ + + +
+ +
+ + + + 𝑒𝑖−1
+ + + +
+ +

Sugiere ausencia de autocorrelación

2.2. Prueba estadística de las corridas

La prueba estadística de las corridas es esencialmente una prueba de aleatoriedad; vale


decir, de independencia.

Recuerde que:

𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖

Donde:

𝑌𝑖 = 𝑉𝑎𝑙𝑜𝑟 𝑚𝑒𝑑𝑖𝑑𝑜 𝑑𝑒 𝑙𝑎 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒 𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒 𝑌


𝑌̂𝑖 = 𝑉𝑎𝑙𝑜𝑟 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜 𝑐𝑜𝑟𝑟𝑒𝑠𝑝𝑜𝑛𝑑𝑖𝑒𝑛𝑡𝑒, 𝑐𝑜𝑛 𝑙𝑎 𝑒𝑠𝑡𝑖𝑚𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑑𝑒 𝑟𝑒𝑔𝑟𝑒𝑠𝑖ó𝑛
𝑒𝑖 = 𝐸𝑟𝑟𝑜𝑟 (𝑜 𝑟𝑒𝑠í𝑑𝑢𝑜)

Se quiere probar si la secuencia de 𝑒𝑖 es aleatoria; en otras palabras, si los valores medidos


de la variable dependiente son independientes

Los cinco (5) pasos de esta prueba son:

1. Formular la hipótesis

H0: No existe autocorrelación


H1: Existe autocorrelación

H0: La secuencia de los residuos 𝑒𝑖 es aleatoria


H1: La secuencia de los residuos 𝑒𝑖 no es aleatoria

2. Definir la probabilidad de cometer el error tipo I (α)

9
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

En esta prueba, cuando n1 y n2 son menores o iguales a 15, α = 0,05. En otros casos
es posible definir otro valor para α (p.e. 0,01; 0,05; 0,10)

3. Definir el estadístico de prueba y un criterio de rechazo de la hipótesis nula (H0)

Estadístico de prueba:

Caso a

Si n1 y n2 son menores o iguales a 15, el estadístico de prueba es:

r = número de corridas

Notas:

 Debe mantenerse el orden de la medición de valores de la variable dependiente para


poder identificar las corridas.

 Una corrida es una secuencia del mismo símbolo, de solamente dos posibles (p.e.
+ y -). En este caso

Si 𝑒𝑖 > 𝑒̅𝑖 → (+)


Si 𝑒𝑖 ≤ ̅𝑒𝑖 → (−)

 En el siguiente caso:

+++−++−−+−−−−++
1 2 3 4 5 6 7

Se tiene siete (7) corridas. El tamaño de cada corrida no es importante en una


prueba de aleatoriedad; es importante el número de corridas, muy pocas corridas o
muchísimas corridas probablemente reflejen ausencia de aleatoriedad.

 Se debe aclarar que:

n1 = número total de uno de los símbolos


n2 = número total del otro símbolo
n = n1 + n2

Caso b

Si n1 y/o n2 excede 15, debe recurrirse a una aproximación normal para definir un estadístico
de prueba. Esto es, se debe asumir que 𝑟 ~ 𝑁(𝜇𝑟 ; 𝜎𝑟2 ) ; en palabras, asumir que r sigue una
distribución normal con media µr y varianza σr2. Por tanto, el estadístico de prueba es:
𝑟 − 𝜇𝑟
𝑧= ~ 𝑁(0,1)
𝜎𝑟

Donde:

𝑟 = número de corridas

10
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

2𝑛1 𝑛2
𝜇𝑟 = +1
𝑛

2𝑛1 𝑛2 (2𝑛1 𝑛2 − 𝑛)
𝜎𝑟 = √
𝑛2 (𝑛 − 1)

Criterio de rechazo de H0

Caso a

fr(.)
α/2=0,025 α/2=0,025

rI rS r

Rechazar H0 si 𝑟 ≤ 𝑟𝐼 𝑜 𝑟 ≥ 𝑟𝑆

Nota:

 Los valores rI y rS se obtienen de la tabla que se muestra en la siguiente página.

11
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

TABLA
DISTRIBUCIÓN DE r PARA LA PRUEBA DE ALEATORIEDAD DE LAS CORRIDAS
(α = 0,05)

fr(.)
α/2=0,025 α/2=0,025

rI rS r
Dados 𝑛1 y 𝑛2 la tabla da el valor inferior 𝑟𝐼 y el valor superior 𝑟𝑆 con 𝛼⁄2 = 0,025 hacia la izquierda
y hacia la derecha de dichos valores. Esto es, 𝑃(𝑟 ≤ 𝑟𝐼 ) + 𝑃(𝑟 ≥ 𝑟𝑆 ) = 0,005.

n2 I
n1 S 2 3 4 5 6 7 8 9 10 11 12 13 14 15
I 2 2 2 2
2 S
I 2 2 2 2 2 2 2 2 2 3
3 S
I 2 2 2 3 3 3 3 3 3 3 3
4 S 9 9
I 2 2 3 3 3 3 3 4 4 4 4 4
5 S 9 10 10 11 11
I 2 2 3 3 3 3 4 4 4 4 5 5 5
6 S 9 10 11 12 12 13 13 13 13
I 2 2 3 3 3 4 4 5 5 5 5 5 6
7 S 11 12 13 13 14 14 14 14 15 15 15
I 2 3 3 3 4 4 5 5 5 6 6 6 6
8 S 11 12 13 14 14 15 15 16 16 16 16
I 2 3 3 4 4 5 5 5 6 6 6 7 7
9 S 13 14 14 15 16 16 16 17 17 18
I 2 3 3 4 5 5 5 6 6 7 7 7 7
10 S 13 14 15 16 16 17 17 18 18 18
I 2 3 4 4 5 5 6 6 7 7 7 8 8
11 S 13 14 15 16 17 17 18 19 19 19
I 2 2 3 4 4 5 6 6 7 7 7 8 8 8
12 S 13 14 16 16 17 18 19 19 20 20
I 2 2 3 4 5 5 6 6 7 7 8 8 9 9
13 S 15 16 17 18 19 19 20 20 21
I 2 2 3 4 5 5 6 7 7 8 8 9 9 9
14 S 15 16 17 18 19 20 20 21 22
I 2 3 3 4 5 6 6 7 7 8 8 9 9 10
15 S 15 16 18 18 19 20 21 22 22
Fuente: STATISTICAL PROCEDURES FOR ENGINEERING, MANAGEMENT, AND SCIENCE (Leland Blank)

12
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Caso b

Rechazar H0 si |Zcalculado| > z0


1-α
α/2 Nivel de α/2
Confiabilidad

-z0 0 z0 𝒁~𝑵(𝟎, 𝟏)

4. Obtener el valor del estadístico de prueba con los valores de la muestra

Caso a

Obtener el valor de r

Caso b

𝑟 − 𝜇̂ 𝑟
𝑧𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 =
𝜎̂𝑟

Donde:

2𝑛1 𝑛2
𝜇̂ 𝑟 = +1
𝑛

2𝑛1 𝑛2 (2𝑛1 𝑛2 − 𝑛)
𝜎̂𝑟 = √
𝑛2 (𝑛 − 1)

5.

Tomar la decisión que corresponda

2.3. Prueba d de Durbin – Watson

Es la prueba más conocida para detectar autocorrelación, fue desarrollada por Durbin y
Watson.

El estadístico d de Durbin-Watson se define de la siguiente manera:

13
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

∑𝑛𝑖=2(𝑒𝑖− 𝑒𝑖−1 )2
𝑑=
∑𝑛𝑖=1 𝑒𝑖2

Desarrollando este estadístico se tiene que,

∑ 𝑒𝑖2 + ∑ 𝑒𝑖−1
2
− 2 ∑ 𝑒𝑖 𝑒𝑖−1
𝑑=
∑ 𝑒𝑖2

Debido a que ∑ 𝑒𝑖2 y ∑ 𝑒𝑖−1


2
difieren únicamente en una sola observación, se consideran
aproximadamente iguales, particularmente si la muestra es grande. Por tanto,

2 ∑ 𝑒𝑖2 − 2 ∑ 𝑒𝑖 𝑒𝑖−1
𝑑=
∑ 𝑒𝑖2

∑ 𝑒𝑖 𝑒𝑖−1
𝑑 = 2 (1 − )
∑ 𝑒𝑖2

Si se define 𝜌 como el coeficiente de correlación lineal simple de valores 𝑒𝑖 y valores 𝑒𝑖−1 , es


posible demostrar que su estimador (𝜌̂) viene dado por:

∑ 𝑒𝑖 𝑒𝑖−1
𝜌̂ =
∑ 𝑒𝑖2

Por tanto,

̂)
𝒅 = 𝟐(𝟏 − 𝝆

Si se recuerda que,

−1 ≤ 𝜌 ≤ 1

Se tiene que,

𝟎≤𝒅≤𝟒

Es difícil encontrar la distribución del estadístico d. Sin embargo, Durbin y Watson lograron
computar límites inferiores (𝑑𝐿 ) y límites superiores (𝑑𝑈 ), tales que si el valor calculado de
estadístico cae por fuera de estos valores críticos, se puede tomar una decisión sobre la
posible presencia de autocorrelación positiva o negativa.

Estos límites fueron tabulados por Durbin y Watson para diferentes valores de n (tamaño
de la muestra) y k (número de variables independientes en el modelo de regresión). Estas
tablas aparecen en libros o textos sobre econometría o modelos econométricos. En el
ejercicio de aplicación se mostrará una parte de estas tablas.

La prueba d de Durbin-Watson se lleva a cabo de la siguiente manera:

14
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

1.-

H0: No existe autocorrelación


H1: Existe autocorrelación

H0: ρ=0
H1: ρ≠0

2.-

Definir el valor de α (probabilidad de cometer el error tipo I) (Seleccionar entre α = 0,01 ó


α = 0,05, en este caso)

3.-

Estadístico de prueba

𝑑 = 2(1 − 𝜌̂)

Criterio de aceptación o de rechazo de H0

 Obtener los valores de 𝑑𝐿 𝑦 𝑑𝑈 de la tabla correspondiente


 Tomar decisiones de acuerdo a lo señalado en la siguiente tabla:

H0 Decisión Si:
(hipótesis nula)
No existe autocorrelación positiva Rechazar H0 0 < 𝑑 < 𝑑𝐿
No existe autocorrelación positiva No hay decisión 𝑑𝐿 < 𝑑 < 𝑑𝑈
No existe autocorrelación negativa Rechazar H0 4 − 𝑑𝐿 < 𝑑 < 4
No existe autocorrelación negativa No hay decisión 4 − 𝑑𝑈 < 𝑑 < 4 − 𝑑𝐿
No existe autocorrelación (ni positiva ni negativa) No rechazar H0 𝑑𝑈 < 𝑑 < 4 − 𝑑𝑈

Los criterios de la tabla superior son ratificados en la siguiente figura:

Zona de Zona de
Indecisión indecisión

Rechazar H0 Rechazar H0
Evidencia de Aceptar H0 Evidencia de
Autocorrelación Autocorrelación
Positiva Negativa

0 dL dU 2 4 – dU 4 – dL 4 d

15
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

4.-

Calcular el valor del estadístico de prueba

∑ 𝑒𝑖 𝑒𝑖−1
𝜌̂ =
∑ 𝑒𝑖2

𝑑 = 2(1 − 𝜌̂)

5.-

Tomar la decisión que corresponda

3. Multicolinealidad

Tal como se ha señalado anteriormente, aun cuando el análisis de regresión lineal múltiple
no supone independencia entre las variables independientes, se espera que éstas sean
independientes entre sí; y, de esta manera, cada una de ellas contribuya significativamente
en la predicción de la variable dependiente. Si dos o más variables independientes están
linealmente relacionadas entre sí, se dice que hay multicolinealidad.
Una de las mayores consecuencias de la multicolinealidad es que las varianzas de los
estimadores de los coeficientes del modelo de regresión lineal tienden a ser grandes; por
consiguiente, los parámetros del modelo de regresión lineal no pueden estimarse en forma
precisa.

Aunque no existen métodos exactos para detectar la colinealidad, existen diferentes


indicadores de ésta tales como:

 El indicador más claro de la existencia de colinealidad es que el coeficiente de


2
determinación del modelo de regresión (𝜌𝑌; 𝑋1 ,𝑋2 ,⋯,𝑋𝑛 ) es muy alto pero ninguno de
los parámetros del modelo de regresión es estadísticamente significativo; vale decir,
las hipótesis que señalan que 𝛽𝑗 (𝑗 = 1, 2, ⋯ , 𝑛) = 0 son aceptadas.

 En un modelo de regresión lineal múltiple con dos variables independientes (X1 y


X2) se puede obtener una idea clara de la colinealidad examinando el coeficiente de
correlación lineal simple entre las dos variables independientes; si este coeficiente
es alto, existe colinealidad.

 Sin embargo, los coeficientes de correlación lineal simple entre variables


independientes pueden ser engañosos cuando el modelo de regresión lineal incluye
más de dos variables independientes; puesto que es posible tener pequeñas
correlaciones lineales simples y existir una alta colinealidad. En situaciones como
esta, es necesario examinar los coeficientes de correlación lineal parcial simple.

 2
Si el coeficiente de determinación lineal (𝜌𝑌; 𝑋1 ,𝑋2 ,⋯,𝑋𝑛 ) del modelo de regresión es
alto pero los coeficientes de correlación lineal parcial simple de la variable
dependiente con las diferentes variables independientes, tomando como variables
de control las restantes son bajas, la multicolinealidad es una posibilidad.
16
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

 Consecuentemente, se puede proceder a estimar modelos de regresión lineal


múltiple tomando como variable dependiente cada una de las variables
independientes (𝑋𝑖 ) tomando como variables independientes las restantes y estimar
los correspondientes coeficientes de determinación lineal; un valor alto del
coeficiente de determinación lineal sugerirá que 𝑋𝑖 está altamente correlacionada
con el resto de las variables independientes. Por tanto, se puede proceder a eliminar
esta variable independiente (𝑋𝑖 ) del modelo de regresión.

4. Ejercicio 1

Problema:

Dada la siguiente muestra:

i X Y
1 1,7 29
2 3,0 41
3 3,0 29
4 3,6 42
5 4,2 39
6 4,2 57
7 4,7 32
8 4,7 43
9 5,3 45
10 5,3 38
11 5,8 47
12 6,3 63
13 7,3 54
14 7,3 53
15 8,7 63
16 10,1 76
17 10,1 87
18 11,0 94

Averiguar si para el modelo 𝜇𝑌⁄𝑋 = 𝛽0 + 𝛽1 𝑋

a) Existe heterocedasticidad

 Gráficamente
 Analíticamente (utilizar α = 0,10)

b) Existe autocorrelación

 Gráficamente
 Analíticamente (Utilizar α = 0,05)

17
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Solución:

Inicialmente se estima los parámetros del modelo de regresión 𝜇𝑌⁄𝑋 = 𝛽0 + 𝛽1 𝑋 y el


resultado obtenido es:

𝑌̂ = 14,075 + 6,384𝑋

Ahora es posible obtener los valores estimados (𝑌̂𝑖 ) y los respectivos errores o residuos
(𝑒𝑖 ) que se muestran en la siguiente tabla:

i X Y ̂
𝒀 ei ei2 ei - 1 eiei – 1 YA YB Corridas
1 1,7 29 24,9 4,1 16,81 29 +
2 3,0 41 33,2 7,8 60,84 4,1 32,0 41 +
3 3,0 29 33,2 -4,2 17,64 7,8 -32,8 29 -
4 3,6 42 37,1 4,9 24,01 -4,2 -20,6 42 +
5 4,2 39 40,9 -1,9 3,61 4,9 -9,3 39 -
6 4,2 57 40,9 16,1 259,21 -1,9 -30,6 57 +
7 4,7 32 44,1 -12,1 146,41 16,1 -194,8 32 -
8 4,7 43 44,1 -1,1 1,21 -12,1 13,3 43 -
9 5,3 45 47,9 -2,9 8,41 -1,1 3,2 45 -
10 5,3 38 47,9 -9,9 98,01 -2,9 28,7 38 -
11 5,8 47 51,1 -4,1 16,81 -9,9 40,6 47 -
12 6,3 63 54,3 8,7 75,69 -4,1 -35,7 63 +
13 7,3 54 60,7 -6,7 44,89 8,7 -58,3 54 -
14 7,3 53 60,7 -7,7 59,29 -6,7 51,6 53 -
15 8,7 63 69,6 -6,6 43,56 -7,7 50,8 63 -
16 10,1 76 78,6 -2,6 6,76 -6,6 17,2 76 -
17 10,1 87 78,6 8,4 70,56 -2,6 -21,8 87 +
18 11,0 94 84,3 9,7 94,09 8,4 81,5 94 +
∑ -0,1 1047,81 -85,2

18
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

a) Heterocedasticidad

Método gráfico

𝑒𝑖2
+
250

200

150
+

100 + +

50 + + + +
+ +
+ ++ + + +
+ +
0 2 4 6 8 10 12 𝑋

Aparentemente hay heterocedasticidad

Prueba de Goldfeld y Quandt

1.

H0: No hay heterocedasticidad


H1: Hay heterocedasticidad

H0: 𝜎𝐴2 = 𝜎𝐵2


H1: 𝜎𝐴2 ≠ 𝜎𝐵2

2.

α = 0,10

3.

Estadístico de prueba

𝑆𝐵2
𝐹= ~ 𝐹𝑚−2;𝑛−2
𝑆𝐴2

19
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Criterio de rechazo de H0

𝑓𝐹 (. )

Rechazar H0 si, Fcalculado ˂ 0,26 ó Fcalculado > 3,79

α/2 = 0,05 α/2 = 0,05

FINF = 1/3,79 = 0,26 FSUP = 3,79 𝐹 ~ 𝐹𝑚−2;𝑛−2 ~ 𝐹9−2;9−2 ~ 𝐹7;7

4.
𝑛
1
𝑌̅𝐴 = ∑ 𝑌𝑖 = 39,67
𝑛
𝑖=1

𝑛
1
𝑆𝐴2 = ∑(𝑌𝑖 − 𝑌̅𝐴 )2 = 79,21
𝑛−1
𝑖=1

𝑚
1
𝑌̅𝐵 = ∑ 𝑌𝑖 = 63,89
𝑚
𝑖=1

𝑚
1
𝑆𝐵2 = ∑(𝑌𝑖 − 𝑌̅𝐵 )2 = 344,84
𝑚−1
𝑖=1

𝑆𝐵2 344,84
𝐹𝑐𝑎𝑙𝑐𝑢𝑙𝑎𝑑𝑜 = = = 4,35
𝑆𝐴2 79,21

5.

Para α = 0,10
Rechazar H0 → Aceptar H1
→ 𝜎𝐴2 ≠ 𝜎𝐵2
→ Hay heterocedasticidad

20
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

b) Autocorrelación

Método gráfico

x16

x12
x
8
x x

x 4

-12 -8 -4 0 4 8 12 16
x x x
x -4 x

x x x
x -8
x

-12 x

-16

Aparentemente no hay autocorrelación

Prueba de las corridas

1)

H0: No existe autocorrelación


H1: Existe autocorrelación

H0: La secuencia de los residuos 𝑒𝑖 es aleatoria


H1: La secuencia de los residuos 𝑒𝑖 no es aleatoria

2)

α = 0,05

21
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

3)

Estadístico de prueba:

r = número de corridas

En el presente caso:

Si 𝑒𝑖 > 0 → (+)
Si 𝑒𝑖 ≤ 0 → (−)

De la tabla superior (con datos), se tiene:

+ + − + − + − − − − − + − − − − + +

1 2 3 4 5 6 7 8 9

Número de corridas = r = 9
Número de (+) = n1 = 7
Número de (-) = n2 = 11

Criterio de rechazo de H0

De la tabla DISTRIBUCIÓN DE r PARA LA PRUEBA DE ALEATORIEDAD DE LAS


CORRIDAS que se muestra páginas arriba se tiene que:

fr(.)
α/2=0,025 α/2=0,025

rI = 5 rS = 14 r
Por tanto,

Rechazar H0 si 𝒓 ≤ 𝟓 𝒐 𝒔𝒊 𝒓 ≥ 𝟏𝟒

4)

Número de corridas = r = 9

5)

Para α = 0,05
ACEPTAR H0

→ La secuencia de los errores o residuos 𝑒𝑖 es aleatoria


→ No existe autocorrelación

22
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Prueba d de Durbin-Watson

1.-

H0: No existe autocorrelación


H1: Existe autocorrelación

H0: ρ=0
H1: ρ≠0

2.-

α = 0,05

3.-

Estadístico de prueba

𝑑 = 2(1 − 𝜌̂)

Criterio de aceptación o de rechazo de H0

 Los valores de 𝑑𝐿 𝑦 𝑑𝑈 de la tabla que se muestra en la siguiente página y se han


obtenido los siguientes resultados: 𝑑𝐿 = 1,158 𝑦 𝑑𝑈 = 1,391
 Tomar decisiones de acuerdo a lo señalado en la siguiente tabla. Recuerde que en
este caso la hipótesis nula (H0) señala: No existe autocorrelación

H0 Decisión Si:
(hipótesis nula)
No existe autocorrelación positiva Rechazar H0 0 < 𝑑 < 1,158
No existe autocorrelación positiva No hay decisión 1,158 < 𝑑 < 1,391
No existe autocorrelación negativa Rechazar H0 2,842 < 𝑑 < 4
No existe autocorrelación negativa No hay decisión 2,609 < 𝑑 < 2,842
No existe autocorrelación (ni positiva ni negativa) No rechazar H0 1,391 < 𝑑 < 2,609

4.-

Calcular el valor del estadístico de prueba

∑ 𝑒𝑖 𝑒𝑖−1 −85,2
𝜌̂ = 2 = = −0,081
∑ 𝑒𝑖 1047,8 → 1

𝑑 = 2(1 − 𝜌̂) = 2[1 − (−0,081)]

𝒅 = 𝟐, 𝟏𝟔𝟐

23
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

5.-

Para α = 0,05
ACEPTAR H0

→ 𝜌=0
→ 𝑁𝑜 𝑒𝑥𝑖𝑠𝑡𝑒 𝑎𝑢𝑡𝑜𝑐𝑜𝑟𝑟𝑒𝑙𝑎𝑐𝑖ó𝑛

TABLA
Estadístico d de Durbin-Watson
Límites inferior y superior (dL y dU) para α = 0,05

n k=1 k=2 k=3 k=4 k=5 k=6


dL dU dL dU dL dU dL dU dL dU dL dU
6 0,610 1,400 - - - - - - - - - -
7 0,700 1,356 0,467 1,896 - - - - - - - -
8 0,763 1,332 0,559 1,777 0,368 2,287 - - - - - -
9 0,824 1,320 0,629 1,699 0,455 2,128 0,296 2,588 - - - -
10 0,879 1,320 0,697 1,641 0,525 2,016 0,376 2,414 0,243 2,822 - -
11 0,927 1,324 0,658 1,604 0,595 1,928 0,444 2,283 0,316 2,645 0,203 3,005
12 0,971 1,331 0,812 1,579 0,658 1,864 0,512 2,177 0,379 2,506 0,268 2,832
13 1,010 1,340 0,861 1,562 0,715 1,816 0,574 2,094 0,445 2,390 0,328 2,692
14 1,045 1,350 0,905 1,551 0,767 1,779 0,632 2,030 0,505 2,296 0,389 2,572
15 1,077 1,361 0,946 1,543 0,814 1,750 0,685 1,977 0,562 2,220 0,447 2,472
16 1,106 1,371 0,982 1,539 0,857 1,728 0,734 1,935 0,615 2,157 0,502 2,388
17 1,133 1,381 1,015 1,536 0,897 1,710 0,779 1,900 0,664 2,104 0,554 2,318
18 1,158 1,391 1,046 1,535 0,933 1,696 0,820 1,872 0,710 2,060 0,603 2,257
19 1,180 1,401 1,074 1,536 0,967 1,685 0,859 1,848 0,752 2,023 0,649 2,206
20 1,201 1,411 1,100 1,537 0,998 1,676 0,894 1,828 0,792 1,991 0,692 2,162
21 1,221 1,420 1,125 1,538 1,026 1,669 0,927 1,812 0,829 1,964 0,732 2,124
22 1,239 1,429 1,147 1,541 1,053 1,664 0,958 1,797 0,863 1,940 0,769 2,090
23 1,257 1,437 1,168 1,543 1,078 1,660 0,986 1,785 0,895 1,920 0,804 2,061
24 1,273 1,446 1,188 1,546 1,101 1,656 1,013 1,775 0,925 1,902 0,837 2,035
25 1,288 1,454 1,206 1,550 1,123 1,654 1,038 1,767 0,953 1,886 0,868 2,012
26 1,302 1,461 1,224 1,553 1,143 1,652 1,062 1,759 0,979 1,873 0,897 1,992
27 1,316 1,469 1,240 1,556 1,162 1,651 1,084 1,753 1,004 1,861 0,925 1,974
28 1,328 1,476 1,255 1,560 1,181 1,650 1,104 1,747 1,028 1,850 0,951 1,958
29 1,341 1,483 1,270 1,563 1,198 1,650 1,124 1,743 1,050 1,841 0,975 1,944
30 1,352 1,489 1,284 1,567 1,214 1,650 1,143 1,739 1,071 1,833 0,998 1,931

Es una reproducción muy reducida (con fines didácticos) de las tablas publicadas en el
libro ECONOMETRÍA de Damodar Gujarati (Editorial Ma Graw Hill - segunda edición)
(páginas 582, 583, 584 y 585)

24
Heterocedasticidad, autocorrelación y multicolinealidad Rubén Medinaceli O.

Práctica
Dada la siguiente muestra:

i X Y
1 6,2 6,1
2 8,1 8,0
3 10,3 10,3
4 12,1 12,1
5 14,1 13,1
6 16,4 14,8
7 18,2 17,9
8 20,1 19,8
9 22,3 19,9
10 24,1 21,6
11 26,1 25,5
12 28,3 25,0
13 30,1 29,3
14 32,3 31,2
15 34,5 33,1
16 36,6 31,8
17 38,0 33,5
18 40,2 38,8
19 42,3 40,7
20 44,7 38,6

Averiguar si para el modelo 𝜇𝑌⁄𝑋 = 𝛽0 + 𝛽1 𝑋

a) Existe heterocedasticidad

 Gráficamente
 Analíticamente (utilizar α = 0,10)

b) Existe autocorrelación

 Gráficamente
 Analíticamente (Prueba d de Durbin-Watson) (Utilizar α = 0,05)

25

También podría gustarte