Está en la página 1de 10

4.

1 Multicolinealidad

Jaime Sarmiento
jaime.sarmiento@unimilitar.edu.co

Universidad Militar Nueva Granada

Econometría I
Última revisión: Abril 18, 2018

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 1 / 10


Naturaleza de la Multicolinealidad
Es un término que se re…ere a la correlación entre las variables independientes en un
modelo de regresión múltiple.

Multicolinealidad perfecta
Surge cuando existe una relación lineal exacta entre algunas o todas las variables
explicatorias del modelo de regresión.
Para el modelo de regresión de K variables independientes (donde X0 = 1 para todas
las observaciones para permitir el término intercepto), se dice que existe una relación
lineal exacta si se cumple la condición:

λ0 X0i + λ1 X1i + + λK 1 X( K 1) i =0 (1)


donde λ0 , λ2 , . . . , λK 1 son constantes tales que no todas ellas son simultáneamente
cero.

Multicolinealidad imperfecta
Algunos o todos los regresores están altamente correlacionados pero no exactamente:

λ0 X0i + λ1 X1i + + λK 1 X( K 1) i + νi = 0 (2)


donde νi es un término de error estocástico.
Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 2 / 10
Para ve la diferencia entre multicolinealidad perfecta e imperfecta, asumamos por
ejemplo, que λ1 6= 0. Entonces (1) puede escribirse como:

λ0 λK 1
X1i = X X( K (3)
λ1 0i λ1 1) i

lo que muestra como X1 está relacionada linealmente de forma exacta con otras variables
o como puede derivarse de una combinación lineal de las otras X variables.

Similarmente, si λ1 6= 0, (2) puede escribirse como:

λ0 λK 1 1
X1i = X X( K ν (4)
λ1 0i λ1 1) i
λ1 i
lo que muestra que X1 no es una combinación lineal exacta de las otras X variables
porque también está dterminada por νi .

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 3 / 10


Figura: Vista de Ballentine de multicolinealidad

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 4 / 10


Posibles causas

Uso inadecuado de variables dummy (no se excluyó una categoría).


Inclusión de una variable que es computada a partir de otras variables de la muestra
(ejemplo: ingreso del hogar = ingreso del esposo + ingreso de la esposa, y la
regresión incluye las 3 variables de ingreso).
Incluir la misma o casi la misma variable dos veces (altura en pies y altura en
pulgadas, o más comúnmente dos diferentes operacionalizaciones del mismo
concepto).
Escasa variabilidad en las observaciones de las variables independientes.
Tamano reducido de la muestra.
Lo anterior implica algún tipo de error por parte del investigador. Pero, puede ser
sólo que las variables están altamente correlacionadas entre ellas.

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 5 / 10


Consecuencias estadísticas de la Colinealidad

Si la multicolinealidad es perfecta en el sentido de (1), los coe…cientes de la regresión de


las variables X son indeterminados y sus errores estándar son in…nito.

Cada vez que haya una o más relaciones lineales exactas entre las variables
explicativas, representados por las columnas de la matriz X, entonces la condición de
colinealidad exacta, o multicolinealidad exacta, existe, la matriz X0 X es singular, y el
1
estimador MCO β̂ = (X0 X) X0 Y no está de…nido. Así que no podemos obtener
estimaciones de β usando la regla de estimación MCO.

1
rango (X) < K ) X0 X = 0 ) @ X0 X

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 6 / 10


Si la multicolinealidad es imperfecta, como en (2), los coe…cientes de la regresión,
aunque determinados, poseen errores estándar largos (en relación a los correspondientes
coe…cientes), signi…cando que los coe…cientes no puede estimarse con gran precisión o
exactitud.

Cuando los datos sobre las variables de la mano derecha exhiben dependencias
lineales casi exactas, o colinealidad, resultan las siguientes consecuencias estadísticas:
1 Aunque BLUE, los estimadores MCO tienen varianzas y covarianzas grandes, haciendo
difícil una estimación precisa. Este resultado proviene de la fórmula del estimador
1
MCO de la matriz de varianzas-covarianzas var β̂ = σ2 (X0 X) .
2 Por la consecuencia 1, los mismos intervalos tienden a ser mucho más amplios,
conduciendo a la aceptación de la "hipótesis nula cero"(es decir, el verdadero
coe…ciente poblacional es cero) más fácilmente.
3 También por la consecuencia 1, la razón t de uno o más coe…cientes tienden a ser
estadísticamente insigni…cantes.
4 Aunque la razón t de uno o más coe…cientes es estadísticamente insigni…cante, el R2 ,
la medida global de la bondad de ajuste, puede ser muy alto.
5 Los estimadores MCO y sus errores estándar pueden ser sensibles a pequeños cambios
en los datos.

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 7 / 10


Detección de multicolinealidad

1 Coe…cientes de correlación muestral entre pares de variables explicativas puede


indicar asociaciones lineales entre ellas.
I Una regla de pulgar comunmente usada es que un coe…ciente de correlación entre dos
variables explicatorias mayor que 0.8 o 0.9 indica una fuerte asociación lineal y una
relación colineal potencialmente perjudicial.
2 Cuando se considera la relación colineal que envuleve tres o más variables, se
recomienda realizar “regresiones auxiliares”.

x m = a0 + a1 x1 + . . . + a m 1 xm 1 + a m +1 x m +1 + . . . + a K 1 xK 1 +v
I Si el R2 de esta regresión auxiliar es alto, o la suma de errores al cuadrado es bajo,
entonces la relación de colinealidad es indicada.

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 8 / 10


Posibles soluciones para la multicolinealidad

Asegúrese de que no ha cometido ningún error ‡agrante, por ejemplo, el uso


incorrecto de variables computadas o dummies.
Aumente el tamaño de la muestra. Esto generalmente reducirá los errores estándar y
hará que sea menos probable que los resultados sean una especie de muestreo "de
suerte".
Use información de investigaciones previas. Suponga que los estudios anteriores han
demostrado que β1 = 2β2 . A continuación, cree una nueva variable, X3 = 2X1 + X2 .
Luego, regresión Y en X3 en lugar de en X1 y X2 . β3 es entonces su estimación de
β2 y 2β3 es su estimación de β1 .
Utilice el análisis factorial o algún otro medio para crear una escala de las X’s.
Incluso podría ser legítimo sólo agregar las variables juntas. De hecho, usted debe
hacer esto de todos modos si usted siente que los X’s son simplemente diferentes
operacionalizaciones del mismo concepto (por ejemplo, varias medidas podrían tocar
el mismo rasgo de personalidad).

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 9 / 10


Use pruebas de hipótesis conjuntas — en lugar de hacer pruebas t para obtener
coe…cientes individuales, realice una prueba F para un grupo de coe…cientes. Por lo
tanto, si X1 , X2 , y X3 están muy correlacionados, hacer una prueba F de la hipótesis
de que β1 = β2 = β3 = 0.
A veces se sugiere que se “elimine” la variable infractora. Si originalmente agregó la
variable “sólo para ver lo que pasa”, eliminarla puede ser una buena idea. Pero, si la
variable realmente pertenece al modelo, esto puede llevar al error de especi…cación,
que puede ser incluso peor que la multicolinealidad.
Puede ser que lo mejor que hay que hacer es simplemente darse cuenta de que
multicolinealidad está presente, y ser consciente de sus consecuencias.

Jaime Sarmiento jaime.sarmiento@unimilitar.edu.co (UMNG) 4.1 Multicolinealidad Abril 18, 2018 10 / 10

También podría gustarte