Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CONTASTE DE HIPÓTESIS
2) MULTICOLINEALIDAD
En el planteamiento del MBRL se exigía que no existiera ninguna relación exacta entre las variables explicativas, cumpliéndose
la hipótesis denominada de RANGO PLENO que garantiza la invertibilidad de X.
X matriz fija con rango (X) = ρ(X) = k < n
En efecto, dado que ρ(X)= ρ(X’X)= k y siendo la matriz X’X de orden (k x n) x (n x k) = (k x k), la hipótesis de rango pleno implica
que el determinante de la matriz a invertir es no nulo y, por tanto, existe la matriz inversa.
Existen dos tipos de multicolinealidad:
- Exacta => se define como la existencia de una combinación lineal exacta entre dos o más variables exógenas incluidas en el
modelo y se incumple la propiedad de rango pleno (“near singular matrix!”).
- Parcial o aproximada=> se define como la existencia de una relación lineal fuerte pero no exacta entre dos o más variables
explicativas o exógenas incorporadas en el modelo.
Puede decirse que la multicolinealidad es, en cierto modo, un fenómeno inevitable: en un sistema económico es generalmente
muy difícil suponer la total falta de correlación (independencia) entre sus distintos elementos. Lo importante es saber cuándo
sus efectos son lo suficientemente grandes como para generar una interpretación errónea de los resultados.
¿Cómo se detecta la multicolinealidad?
A priori, en el modelo nos encontraremos con un R2 alto, un contraste F adecuado y unas t-student bajas en algunas de las
variables.
Para determinar si existe o no multicolinealidad, partimos del cálculo de las correlaciones entre las variables explicativas=>
COEFICIENTE DE CORRELACIÓN SIMPLE entre dos variables X1, X2
El coeficiente de correlación oscila entre valores 1 y -1 ¿qué valor debería tener la correlación entre dos variables X para afirmar
que existe (o no) un problema de multicolinealidad entre las variables?
En la práctica aquellas X que tengan una correlación mayor a 0,8 ó 0,85 indican presencia de colinealidad. También podemos
tomar como valor de referencia el valor de la R (valor de la raíz cuadrada del coeficiente R2 que obtenemos con la estimación
del modelo).
Si r < R => no existe multicolinealidad
Causas de la multicolinealidad:
- Datos referidos a una base muy homogénea en que no existe variación
- Variables que representan una tendencia común
- Relaciones aproximadas e incluso teóricas entre variables exógenas
Efectos de la multicolinealidad:
Provoca altas varianzas en los estimadores (las varianzas de los estimadores crece según aumenta la correlación entre las
variables X) con tres efectos inmediatos:
- Los estimadores son insesgados pero pueden sufrir errores considerables
- Los estimadores suelen sufrir cambios sensibles al añadir nueva información, es decir, al actualizar el modelo, lo que pone
de manifiesto la inseguridad de la estimación.
- Las varianzas elevadas de los estimadores hacen difícil rechazar cualquier contraste de no significación de los parámetros,
es decir, afecta a los contrastes individuales.
Ho => no existe ninguna relación entre las variables exógenas
En Eviews se calcula la MATRIZ DE CORRELACIONES SIMPLES, se analizan las correlaciones entre las variables X del modelo y
comprobamos valores de esas correlaciones.
Partimos de un modelo básico de regresión lineal: