Está en la página 1de 3

Multicolinealidad: Consecuencias y Soluciones

Emanuelle Alemar

December 2, 2019

1 Introducción

La multicolinealidad se define como una situación en la que las variables independientes en un


modelo de regresión múltiple están correlacionadas. En este caso, el modelo de regresión múltiple
está representado en algebra lineal Y = Xβ + , con Y siendo un vector n × 1, X siendo una matriz
n × k, β siendo un vector k × 1 y  siendo un vector n × 1.

2 Multicolinealidad Perfecta: Consecuencias

Si tenemos un modelo de regresión múltiple con dos variables independientes X1 y X2 (k = 2), una
situación de multicolinealidad perfecta implicarı́a que X1 serı́a proporcional a X2 , es decir, X1 = cX2 ,
donde c es un escalar o cantidad fija. Como X1 y X2 son las unicas variables independientes, el
modelo se puede escribir como

h i
Y = Xβ +  = X1 X2 β +  (1)
h i
donde X1 X2 es una matriz n × 2 y β es el vector de parámetros 2 × 1. Notando que

" # " #
X1 h i X10 X1 X10 X2
X 0X = X1 X2 = (2)
X2 X20 X1 X20 X2
Tomando determinante,

" #
0 X10 X1 X10 X2
det(X X) = det = (X10 X1 )(X20 X2 ) − (X20 X1 )(X10 X2 ) (3)
X20 X1 X20 X2

1
Si hay mutlicolinealidad perfecta, X1 = cX2 y

det(X 0 X) = (cX20 X1 )(X20 X2 ) − (X20 cX2 )(kX20 X2 ) (4)

= c2 (X20 X2 )(X20 X2 ) − c2 (X20 X2 )(X20 X2 ) = 0 (5)

Dado que (X 0 X)−1 se puede expresar como

1
(X 0 X)−1 = CX 0 X (6)
det(X 0 X)

donde CX 0 X es la matriz de cofactores de X 0 X, el resultado de det(X 0 X) = 0 cuando hay


colinealidad perfecta entre las variables implicará que la inversa de X 0 X no existe, por lo que el
estimador de mı́nimos cuadrados ordinarios β̂ = (X 0 X)−1 X 0 Y no estará definido y no se podrá
utilizar este método para hacer inferencia sobre β.

3 Multicolinealidad casi perfecta: Consecuencias

En la mayorı́a de las aplicaciones, no obstante, son muy pocos los casos en los que ocurre colinealidad
perfecta. Son mucho más abundantes los casos de colinealidad casi perfecta. En este caso podriamos
tener dos variables independientes que estén fuertemente correlacionadas (ejemplo: empleo y PNB
real), pero no que una sea una proporción fija de la otra y viceversa. En este caso, el determinante
de X 0 X será un número muy pequeño, lo que implicará por la ecuación (6) que los elementos de
(X 0 X)−1 asumirán valores altos.

Dado que ya habı́amos discutido que la matriz de varianza-covarianza de los estimadores M.C.O
toma la forma var(β̂) = σ 2 (X 0 X)−1 , si (X 0 X)−1 asume valores altos, entonces la varianza de los
estimadores M.C.O estará inflada y los estimadores no serán eficientes. Esto implicará que no
podremos hablar de los parámetros con la mayor certeza o precisión posible, pues al aumentar
var(β̂), los intervalos de confianza del parámetro β se hacen más anchos.

Otra manera de ver este resultado es mediante el estadı́stico de docimacia para cada parámetro
(estadśitico t), el cual bajo la hipótesis nula de β = 0 se construye como

β̂ − β β̂
tc = q =q (7)
var(β̂) var(β̂)

por lo que a medida que var(β̂) aumenta, se reduce el estadı́stico t. Mientras mas ”perfecta”
sea la colinealidad, mayor será la varianza del estimador β̂, por lo que mas cerca estará el estadı́stico

2
calculado del area de no rechazo de la hipótesis nula (H0 : β = 0). Por ende, los estadı́sticos t
nos llevarán a concluir que no hay relación entre cada variable de manera individual y la variable
dependiente. A pesar de esto, se pueden observar valores altos del R2 o de los estadı́sticos F
calculados, pues las variables en conjunto tienen poder explicativo pero no se pueden separar los
efectos individuales de cada variable. Esto porque, al estar fuertemente correlacionadas, se pudiera
confundir el efecto de una variable con el de otra.

4 Solución: Uso de Estudios Previos

Una posible solución al problema de multicolinealidad consiste en utilizar información externa a la


muestra en la forma de restricciones a los parámetros (Griffits, 1993). Expresando el modelo en (1)
como

Y = β0 + β1 X1 + β2 X2 +  (8)

Si se conoce que X1 y X2 están correlacionadas, pero se tiene un estimado previo de β2 , digamos,


β2 = 3, entonces (8) se puede reescribir como

Y − 3X2 = β0 + β1 X1 +  (9)

En este caso, como la variable X2 no aparece en el lado derecho del modelo a estimarse, ya no
existe el problema de multicolinealidad. Esto implica que la varianza de los coeficientes estimados
por M.C.O, en este caso de βˆ1 , se reduce, lo que implica que los parámetros estimados son más
precisos.

References

[1] Griffiths, W. E., Hill, R. C., Judge, G. G. (1993). Learning and practicing econometrics. New
York: Wiley.

También podría gustarte