Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Multi Coline Ali Dad
Multi Coline Ali Dad
Ronald Mendoza.
Universidad Nacional de Huancavelica.
Abril 2016.
Multicolinealidad
¿Qué pasa si las regresaras (variables independientes)
están correlacionadas?
𝟎 + 𝜷
𝒚𝒊 = 𝜷 𝟏 𝒙𝒊𝟏 + 𝜷
𝟐 𝒙𝒊𝟐 + 𝜷
𝟑 𝒙𝒊𝟑 + ⋯ + 𝜷
𝒌 𝒙𝒊𝒌 + 𝜺𝒊
𝒚𝒊 = 𝒇 𝒙𝒊𝟏 , 𝒙𝒊𝟐 , 𝒙𝒊𝟑 , … , 𝒙𝒊𝒌
𝒂𝟏 𝒙𝟏 + 𝒂𝟐 𝒙𝟐 + 𝒂𝟑 𝒙𝟑 + ⋯ + 𝒂𝒌 𝒙𝒌 = 𝟎
𝒙𝟏 = 𝒇 𝒙𝟐 = 𝟐𝒙𝟐
𝒙𝟏 = 𝒇 𝒙𝟓 = 𝟎. 𝟓𝒙𝟓
Contenido
o Definición, tipología y consecuencias.
o Detección y valoración de la importancia de la multicolinealidad.
o Posibles soluciones.
Fuentes de multicolinealidad.
𝒚𝟏 𝟏 𝒙𝟏𝟏 𝟎
𝒙𝟏𝟐 …𝒙𝟏𝒌 𝜷 𝜺𝟏
𝒚𝟐 𝟏 𝒙𝟐𝟏 𝒙𝟐𝟐 …𝒙𝟐𝒌 𝜷
𝟏 𝜺𝟐
⋮ = … ⋮ + ⋮
⋮ ⋮ ⋮ ⋮
𝒚𝒏 …𝒙 𝜺𝒏
1 𝒙𝒏𝟏 𝒙𝒏𝟐 𝒏𝒌 𝜷 𝒏
𝒙𝟏 𝒙𝟐 𝒙𝒌
𝟏 𝒙𝟏𝟏 𝒙𝟏𝟐 …𝒙𝟏𝒌
𝟏 𝒙𝟐𝟏 𝒙𝟐𝟐 …𝒙𝟐𝒌
𝑿= … ⋮
⋮ ⋮ ⋮
…𝒙
1 𝒙𝒏𝟏 𝒙𝒏𝟐 𝒏𝒌
Rango completo:
𝑿 ≠0
Si:
𝒙𝟏 = 𝟐𝒙𝟐 = 𝒇 𝒙𝟐 ⇒ 𝑿 = 0
dependencia lineal:
𝒂𝟏 𝒙𝟏 + 𝒂𝟐 𝒙𝟐 + ⋯ + 𝒂𝒌 𝒙𝒌 = 𝟎
Si el número de observaciones fuese menor que el número de
regresores involucrados 𝑁 < 𝐾, entonces la matriz 𝑋 no puede
tener rango completo y se estaría violando uno de los supuestos
del Modelo Lineal General.
−𝟏
Sabemos que: 𝑴𝑪𝑶 = 𝑿 𝑿
𝜷 𝑻
𝑿𝑻 𝒀 . 𝑿
Si el número de observaciones 𝑛 es menor que el número de
regresores, entonces el determinante de 𝑿𝑻 𝑿 es cero por lo que
−1
𝑻
𝑿 𝑿 es indeterminado y, por lo tanto, 𝛽መ𝑀𝐶𝑂 no existe.
𝑻 𝟒 𝟏
𝑿 𝑿= =𝟎
𝟏𝟔 𝟒
La colinealidad está referida a la existencia de una sola relación lineal entre las
variables explicativas y, por lo tanto, la multicolinealidad se refiere a la existencia
de más de una relación lineal.
Es importante anotar que la multicolinealidad se refiere sólo a relaciones
lineales entre las variables independientes y no a cualquier otro tipo de relación,
así pues, si 𝑥𝑖 = 𝑥 2𝑗 , entonces no existirá multicolinealidad en el modelo.
El problema de la multicolinealidad está definido por el alto grado de
intercorrelación entre variables explicativas. Dentro de las violaciones de los
supuestos del modelo lineal general, la multicolinealidad es un problema de
grado. Los estimadores obtenidos bajo multicolinealidad, conservan las
propiedades que los define como Mejores Estimadores Lineales Insesgados
(MELI).
Actividad 1: Desarrolle y analice el Diagrama de Ballentine.
Tipología.
La multicolinealidad se define como el grado de correlación
existente entre las variables explicativas o regresores del MRLM.
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝜀𝑖
b) Ausencia total de multicolinealidad.
Implica que todas las variables explicativas del MRLM son ortogonales
entre sí, es decir, totalmente independientes entre ellas:
A pesar de ello, las consecuencias sobre el modelo estimado pueden llegar a ser
importantes, tanto más cuanto mayor sea el grado de multicolinealidad.
Entre las principales consecuencias de la presencia de un cierto grado de
multicolinealidad, se encuentran las dos siguientes:
i) Los estimadores MCO presentarán varianzas y covarianzas grandes, lo que hace difícil
su estimación precisa.
ii) Debido a lo anterior, los intervalos de confianza serán más amplios por lo que se tenderá
a aceptar más fácilmente la hipótesis nula de cero.
iii) A pesar de lo anterior, el 𝑅2 como medida global de la bondad de ajuste puede tener
valores altos.
iv) Los estimadores MCO y sus errores estándar pueden ser bastante sensibles a pequeños
cambios en la información de la muestra.
i) Varianzas y covarianzas grandes.
𝜎2
𝑣𝑎𝑟 𝛽መ1 =
σ 𝑥 21𝑖 (1 − 𝒓𝟐 𝟏𝟐 )
y a la covarianza entre éste y el segundo estimador:
−𝑟 212 𝜎 2
𝑐𝑜𝑣 𝛽መ1 , 𝛽መ2 =
(1 − 𝒓𝟐 𝟏𝟐 ) σ 𝑥 21𝑖 σ 𝑥 2 2𝑖
2
𝜎 𝛽 መ = 𝑋`𝑋
= 𝑉𝑎𝑟(𝛽) −1
𝜎 2
𝜀
ii) Intervalos de confianza más amplios.
𝛽መ𝑖
𝑡𝑐 =
𝜎𝛽𝑖
𝛽2 = 𝛽3 = 𝛽4 = ⋯ = 𝛽𝑘 = 0
A pesar de la influencia del alto grado de colinealidad sobre la
varianza de los estimadores y, por tanto, sobre las pruebas de
significación individual (que nos lleva a aceptar la hipótesis de que
los regresores incluidos son poco significativos), la presencia de un
alto 𝑅2 nos indica que, en conjunto, los regresores elegidos son
significativos y, por tanto, relevantes para explicar el
comportamiento de la variable independiente.
𝐹𝐼𝑉𝑗 𝜖 [1 , +𝛼 >
Asimismo, podemos representar gráficamente la
relación entre 𝐹𝐼𝑉𝑗 y 𝑅2𝑗
𝐹𝐼𝑉𝑗
10
1 𝑅2𝑗
0,8 0,9 1
De esta manera asumiremos que:
2
2𝑘 + 5
𝜒 𝑐𝑎𝑙𝑐 =− 𝑛−1− ∗ ln(𝒗𝒂𝒍𝒐𝒓 𝒅𝒆𝒍 𝒅𝒆𝒕𝒆𝒓𝒎𝒊𝒏𝒂𝒏𝒕𝒆 𝒆𝒔𝒕𝒂𝒏𝒅𝒂𝒓𝒊𝒛𝒂𝒅𝒐)
6
Donde:
2calc : es el valor estimado de 2
𝑛: es el tamaño de la muestra
𝑘: es el numero de variables asociadas a pendientes (sin incluir el
intercepto).
Para hallar el determinante estandarizado se construye la matriz de
correlación. Para tres variables explicativas, por ejemplo, la matriz de
correlación vendría dada por:
1 𝑟𝑥2 𝑥3 𝑟𝑥2 𝑥4
𝑅 = 𝑟𝑥3 𝑥2 1 𝑟𝑥3 𝑥2
𝑟𝑥4 𝑥2 𝑟𝑥4 𝑥3 1
𝑅 = valor del determinante estandarizado
Si 2calc > 2 tabla se rechaza el supuesto de ortogonalidad.
Si 2calc < 2 tabla se acepta el supuesto de ortogonalidad.
Mientras más alto sea el 2 estimado, más severo será el grado de la
multicolinealidad entre las variables explicativas.
ii) Test F:
y así hasta 𝑋𝑘 .