Está en la página 1de 20

Multicolinealidad

Multicolinealidad
Multicolinealidad implica que las variables
independientes están correlacionadas.
Supóngase que la altura de una persona
tiene dos predictores: peso en libras y peso
en kilos. Estos dos predictores son
redundantes, ya que el peso es único
independientemente de si se mide con
libras o kilos.
Multicolinealidad
Cuando esto ocurre, significa que al menos
una de las variables predictoras es
totalmente redundante con otras variables
del modelo.
El indicador estadístico de este fenómeno
es conocido por tolerancia.
Multicolinealidad
EVALUACIÓN DE LA MULTICOLINEALIDAD

Situación ideal:
Tener una cantidad de variables independientes altamente
correlacionadas con la variable dependiente, pero con poca
correlación entre sí

Multicolinealidad: correlación entre tres o más variables


independientes

Efecto
La multicolinealidad reduce el poder predictivo de cualquier variable
independiente individual, en la medida en que está asociado con las
otras variables independientes.
A mayor colinealidad, la varianza única explicada por cada variable
independiente se reduce y el porcentaje de predicción compartida
aumenta
EVALUACIÓN DE LA MULTICOLINEALIDAD

¿Cómo detectar la existencia de


multicolinealidad?
1.  Colinealidad o Multicilineadlidad perfecta,
como consecuencia de esta no es posible
obtener la inversa de la Matriz X’X y el
determinante de esta matriz es cero “0”.

2.  Colineaidad o Multicolinealidad parcial, es


importante identificar el nivel de colinelilidad
entre las variables independientes, el VIF es
una de la herramientas más utilizadas.
Procedimientos

—  1.- Matríz de correlación entre regresores.


—  2.- Prueba t entre regresores.

—  3. Prueba de ortogonalidad


—  4.- Factor de inflación de varianza (FIV) y
(TOL)

—  5 Método Gráfico.


Matriz de correlación entre
regresores.
Se realiza el cruce de cada variable para
determinar si existe o Matríz de correlación
entre regresores y determinar si existe o no
colinealidad o multicolinealidad.

Utilizar la finción de excel “Coeficiente de


correlación”.

X1 X2
X1 1 0.24183
X2 0.24183 1
Prueba de Ortogonalidad (Chi2)
En esta etapa se busca evaluar la ortogonalidad de las variables
independientes. Si el resultado de la evaluación arroja que se
rechaza la hipótesis de existencia de ortogonalidad, entonces se
aceptará la posibilidad de existencia de multicolinealidad.

H0 : las X son ortogonales.


H1 : las X no son ortogonales.

= 9 -1 – ((2*2+5)/6) = 6.5

6.5 vs 3.8415
En esta etapa se busca evaluar la ortogonalidad de las variables
independientes. Si el resultado de la evaluación arroja que se
rechaza la hipótesis de existencia de ortogonalidad, entonces se
aceptará la posibilidad de existencia de multicolinealidad y se
pasa a la segunda etapa.

H0 : las X son ortogonales.


H1 : las X no son ortogonales.

Zona de aceptación Zona de rechazo


No existe colinealidad ó = 9 -1Existe Colinealidad
– ((2*2+5)/6) = 6.5ó
Multicolinealidad Multicolinealidad

6.5
Prueba t entre regresores
P12 es el coeficiente de correlación
poblacional para X1 y X2

0.2418
= 0.6594
0.3667

= 0.3667

t0.05,7 = 2.3646 vs. 0.6594


P12 es el coeficiente de correlación
poblacional para X1 y X2

0.2418
= 0.7347
0,3291

Zona de rechazo Zona de rechazo


No existe colinealidad Zona de aceptación No existe colinealidad
ó Multicolinealidad
= 0.3291
Existe colinealidad ó ó Multicolinealidad
Multicolinealidad

0.6594

t0.05,7 = 2.3646 vs. 0.7347


Factor de inflación de varianza FIV
—  ElFIV para toda variable independiente es
una medida del grado de multicolinealidad
en que contribuye dicha variable.
—  Nivel de colineliadad
◦  De 1 a 4 bajo (ideal)
◦  De 5 a 10 Moderado
◦  De 11 a 29 Alto
◦  De 30 en adelante grave
= 1_____ = 1.06
1 - 0.2418^2
Factor de inflación de varianza FIV
—  Elinverso del FIV se conoce como
Tolerancia (TOL); cuando R2 =1 (es decir,
colinealidad perfecta) TOL = 0, y cuando
R2 = 0 (es decir, no exixte colinealidad)
TOL = 1

—  TOL = 1/1.06 = 1- 0.2418^2 = 0.9415


Método Gráfico.
Soluciones para
Multicolinealidad
E n p r i n c i p i o, e l p r o b l e m a d e l a
Multicolinealidad está relacionado con
deficiencias en la información muestral. El
diseño muestral no experimental es, a
menudo, el responsable de estas deficiencia.

Veamos a continuación algunas de las


soluciones propuestas para resolver el
problema de la Multicolinealidad.
Soluciones para
Multicolinealidad
—  Eliminación de variables
La multicolinealidad puede atenuarse si se
eliminan los regresores que son más
afectados por la multicolinealidad. El
problema que plantea esta solución es que
los estimadores del nuevo modelo serán
sesgados en el caso de que el modelo
original fuera el correcto.
Soluciones para
Multicolinealidad
—  Aumento del tamaño de la muestra
Teniendo en cuenta que un cierto grado de
multicolinealidad acarrea problemas cuando
aumenta ostensiblemente la varianza
muestral de los estimadores, las soluciones
deben ir encaminadas a reducir esta
varianza.
Soluciones para
Multicolinealidad
—  Utilizaciónde ratios
Si en lugar del regresando y de los
regresores del modelo original se utilizan
Ratios con respecto al regresor que tenga
mayor colinealidad, puede hacer que la
correlación entre los regresores del
modelo disminuya. Una solución de este
tipo resulta muy atractiva, por su sencillez
de aplicación
Soluciones para
Multicolinealidad
—  Regresión por crestas
Este método matemático trata de afectar la
diagonal principal de la matriz X’X.

Este método se vera mas a detalle en


sesiones posteriores.

También podría gustarte