Está en la página 1de 25

UNIVERSIDAD NACIONAL DE HUANCAVELICA

ESCUELA PROFESIONAL DE ECONOMIA

MULTICOLINEALIDAD

Prof. Econ. Teófilo León Rivera


Riverateofilo @hotmail.com
3.1.- CONCEPTO DE COLINEALIDAD O
MULTICOLINEALIDAD
En el Modelo: Y     X  
t 0 1 t t

Se suponía la hipótesis: que las variables X1,X2,….Xi,son linealmente


independientes; es decir no existe relación lineal exacta entre ellas.
Cuando no se cumple esta hipótesis, el modelo presenta
multicolinealidad.
Por lo tanto la multicolinealidad (o colinealidad) se presenta cuando hay
correlación lineal entre las variables explicativas. La presencia de
colinealidad hace que no se pueda estimar con precisión los coeficientes
de la regresión; debido a que MCO no puede "separar" el efecto de X1
sobre Y, y el efecto de X2 sobre Y, ….. Así sucesivamente, genera altos
errores estándar para los coeficientes.
Modelo con problemas de multicolinealidad, en cuando existe asociación lineal
ˆ 1
  (X X ) (X Y)
T T
entre variables explicativas: (XTX)
Tendría determinante cercano a cero, por lo que es imposible calcular: (XTX)-1
Con ello no es posible calcular vector de los parámetros:
La multicolinealidad puede ser:
PERFECTA: dependencia total é incapacita el proceso de estimación
CASI PERFECTA o Moderada: alta dependencia, y origina perturbaciones
3.2 DETECCION DE LA MULTICOLINEALIDAD
o Valores altos en modulo de matriz de correlaciones de las variables
explicativas.
o Poca significatividad individual de las variables Xi, y a la vez un R2
Alto.
o Influencia en las estimaciones de la eliminación de una observación
en el conjunto de datos.
o Factores de Inflación de la varianza: (FIV= 1/(1-R2 ) elevados cuando
(FIV >10), donde R2 es de la regresión auxiliar de la variable
explicativa(j) en función a las demás variables explicativas.
o Determinante de la Matriz
Si valor de dd = 0 entonces hay Multicolinealidad perfecta
Si valor de dd = 0.00001 ….0.5 entonces hay Multicolinealidad severa
Si valor de dd = 0.5 ….0.99 entonces hay Multicolinealidad
Si valor de dd = 1 Ausencia de Multicolinealidad
o Valores propios de k de (XTX) : 1< 2<………… p
Si: 1=1, significa que  max
NCelsistema es ortogonal
 min
Si: 1 converge a cero (0) hay multicolinealidad perfecta
o Índice de Condición:
DETECCION DE LA MULTICOLINEALIDAD
(Continuación)
Contraste de Farrar –Glauber. Este contraste permite plantear
la hipótesis: Ho: (Rxx) =1 significa Ortogonalidad de
variables explicativas.
Si no se cumple esta hipótesis, el modelo afronta problemas de
multicolinealidad
G exp   (Tde
Estadístico )  (2 K  5) / 6 ln  R xx 
 1prueba:

Donde:
T = Nº de observaciones
K= Nº de variables exógenas
Ln= Logaritmo natural
Rxx = determinante de lav matriz  1 / 2 KRxx( K  1)
Se compara
G exp  el
 (Tvalor
 1)  (anterior
2 K  5) / 6con
ln  R xxel valor de distribución chi-
Chi Curadrado
(v  v
con con
cuadrada 1 / 2 * K ( K  1)G.L.

grados de libertad, donde:


APLICACION.
Análisis de Multicolinealidad, con los datos de
Importaciones que esta en función a PBI, Consumo e
Inversiones; construir el modelo e identificar problemas de
multicolinealidad, y se presenta plantear la solución. La
data.
IDENTIFICACION DE LA
MULTICOLINEALIDAD
Se 0bserva:
oPoca significatividad de las variables explicativas en especial
PBI con Tcal=0.1723 y con (p-valor altos)

Y a la vez un R2 = 0. 9730 muy alto, (muestran presencia de


multicolinealidad)

oF-statistic = 168.44 elevado o con (p-valor F-statistic =


000000) muy pequeño, nos lleva a aceptar la hipótesis de
significatividad conjunta de los parámetros del modelo. (esto nos lleva
a sospechar la presencia de multicolinealidad en el modelo). (Rechazo de
o Ajuste del modelo eliminando ultima observación en el
conjunto de datos, arrojan estimadores distintos a los
anteriores. Insignificantes los regresores, pero R2 alto,
significancia conjunta del modelo. Suspicacia de
multicolinealidad en el modelo.
o Analizando matriz de correlaciones de las variables
explicativas, se observa valores altos, ello corrobora la
presencia de multicolinealidad en el modelo.
En Work File, click derecho: Open/as Group. Luego: View
/Correlations /Commo Simple. o en la ventana de comandos
escribir: group gx pbi inv cons (Enter)
En la ventana de Work File aparece el grupo creado: gx
Presione gx View/covariance Analisys (clicK) Opción:
Correlation

En la matriz de correlación de las variables explicativas, se observa


la correlación alta entre el PBI y el Consumo : 0.998933. Este viene
provocando problemas de multicolinealidad en el modelo.
Significados: 1 Correlación perfecta
1 – 0.7 Correlación alta o severa
0.7 – 0.2 Correlación moderada
0.2 – 0 Correlación bajo o nula
o Factores de Inflación de la varianza: VIF= (1/
(1-R2 )
FACTORES DE INFLACION DE VARIANZA

VARIABLE
R2 1- R2 FIV=1/(1-R2)
DEPENDIENTE
PBI C CONS INV 0.997871 0.002129 469.7040864
CONS C PBI INV 0.997861 0.002139 467.5081814
INV C CONS PBI 0.047508 0.952492 1.049877584

 (FIV >10) indica multicolinealidad moderada


 (FIV >30) indica multicolinealidad severa o alta
 (FIV <10) indica multicolinealidad leve

Entonces las variables que presentan mayores FIV son PBI y


CONS son las que presentan multicolinealidad severa o
alta
ANÁLISIS DE DETERMINANTES DE LA MATRIZ R
Pasos:
1º.- En la ventana de comandos escribir:
group gx pbi inv cons (Enter)
En la ventana de Work File aparece el grupo creado: gx
Presiona gx (muestra la matriz de correlaciones de variables
explicativas)
Análisis de Determinantes de la Matriz R
Pasos:
2º.- siguir digitando en la ventana de comandos escribir:
Sym rr=@cor(gx) (Enter)
En la ventana de Work File aparece el grupo creado: rr
Presionamos rr aparece
Análisis de Determinantes de la Matriz R
3º.- seguir digitando en la ventana de comandos escribir: Scalar
dd=@det(rr) (Enter)
En la ventana de Work File aparece el grupo creado: dd
Ahora para conocer valor de determinante R presione sobre dd
Entonces Valor de dd=0.002032

Si valor de dd = 0 entonces hay Multicolinealidad perfecta


Si valor de dd = 0.00001 ….0.5 entonces hay Multicolinealidad severa
Si valor de dd = 0.5 ….0.99 entonces hay Multicolinealidad
Si valor de dd = 1 Ausencia de Multicolinealidad
Luego el modelo presenta multicolinealidad severa
VALORES CARACTISTICOS PROPIOS DE LA MATRIZ
Rxx K

1< 2<………… p

Si: 1=1, significa que el sistema es ortogonal


Si: 1 converge a cero (0) hay multicolinealidad perfecta
Para conocer valores de , en la barra de comandos escribe:

vector eva=@eigenvalues(rr)
En la ventana de work file aparece grupo creado:eva

ÍNDICE o NUMERO DE CONDICIÓN


Índice de condición, se calcula a partir a partir del valor de los
1, 2,………… p

NC = (MAX/MIN)1/2
para conocer los valores de i; Valores de 1<
2<………… p
En Work File presione eva arroja:

1< 2< 3 <………… p: 0.001065<0.915049<2.083806


1=0.001065 converge a cero (0) entonces hay multicolinealidad
cevera.
ANALISIS DE ÍNDICE o NUMERO DE CONDICIÓN
A partir de valores de i:

1< 2< 3: 0.001065<0.915049<2.083806

NC = (MAX/MIN)1/2 > 30.

Reemplazando:

NC = (2.083806/0.001065 )1/2 = 44.23 > 30

Por lo tanto existe multicolinealidad severa


Contraste de Farrar –Glauber.
Contrastar si cumple o no la hipótesis: Ho: (Rxx) =1
de Ortogonalidad de variables explicativas.

G exp   (T  1)  (2 K  5) / 6 ln  R xx 
Donde:
T = Nº de observaciones : 18
K= Nº de variables exógenas. 3
Ln= Logaritmo natural
Rxx = determinante de la matriz Rxx = 0.002032
Reemplazando.
G exp   (18  1)  (2 * 3  5) / 6 ln 0.002032  94.0141437
grados de libertad, donde:
Si: v  1 / 2 * 3(3  1)  3

X23 =7.81<94.0141437. Entonces se rechaza la hipótesis, una vez


mas y se muestra de existencia de multicolinealidad.
3.3 CORRECCION DE LA
MULTICOLINEALIDAD
Para corregir problema de multicolinealidad o colinealidad,
existe muchos procedimientos:
oAmpliar la muestra o transformar la variables(ejemplo a ratios
o diferencias)
oSuprimir algunas variables con justificación estadística y
económica.
oSustitución de las variables explicativas por sus componentes
principales mas significativas (puntuaciones).
oUtilizar el modelo en diferencias vigilando la auto correlación.

oUsar la regresión en cadena , que ofrece como estimadores de


los parámetros (XTX +cl)-1 XTY, siendo c una constante
adecuada. La matriz de varianzas covarianzas adopta la forma:
2(XTX +cl)2 XTX(XTX +cl)-1,

En la practica suele tomarse c como un valor entre 0.01


CORRECCION DE LA MULTICOLINEALIDAD EN EL
MODELO la `presencia de multicolinealidad o colinealidad
Aceptado
severa en nuestro modelo planteamos corregir dicho problema.
Procedemos a estimar nuevamente el nuevo modelo eliminando
a la variable que menos aporta al modelo o es insignificante y
que esta fuertemente correlacionado.
Según el análisis de significatividad la variable explicativa de
poca significancia es PBI con Tcal=0.1723 y con (p-valor alto =
0.8656)

En cuanto al análisis de la correlación en la matriz, la variable


de mayor correlación es PBI con CONS (0.998933).
El modelo muestra que ha mejorado nivel de significancia
individual de la variable INV. Quiere decir que las importaciones
dependía básicamente de consumo e inversión.
Revisar el tema de correlación entre variables que quedan: CONS
y INV.
En la ventana de comandos escribir:
group gx inv cons (Enter)
En la ventana de Work File aparece el grupo creado: gx
Presione gx
View/covariance Analisys (clicK)
Opción: Correlation

En la matriz de correlación se observa la correlación baja entre


el CONS e INV: 0.213690. Casi correlación moderada o baja.
Por lo tanto el modelo ya no presenta multicolinealidad
preocupante.
CONCLUSIONES
CONCLUSIONES
Las variables mas importantes para explicar las importaciones
son CONSUMO E INVERSION

La VARIABLE PBI, aun esta correlacionado medianamente con


CONSUMO

La variable PBI puede eliminarse del modelo y así tener un


subconjunto no correlacionado, pero R22 ALTO

Es mejor retener la variables CONSUMO e INVERSION en el


modelo, pues su correlación es moderada, y así conservar el R22
en el 97%

También podría gustarte