Está en la página 1de 33

Facultad de Ingeniería Económica

Curso: Econometría I
Dr. Juan Walter Tudela - Profesor Principal D.E.
Semana 12:
Identifica y plantea una alternativa de
solución al problema de multicolinelaidad

TREY
research
2
Conocimientos:
Multicolinealidad: problema, detección y solución.

TREY
research
3
Incumplimiento de los supuestos del modelo de regresión
El cumplimiento de los supuestos del modelo clásico de regresión garantiza
que los βk obtenidos a través del método de mínimos cuadrados ordinarios
sean los mejores estimadores lineales insesgados. Cuando tales supuestos
son incumplidos se empiezan a generar problemas en los resultados de la
regresión, haciendo que los parámetros obtenidos no cumplan con algunas
de las propiedades deseables de un estimador (eficiencia y consistencia).

Principales problemas a abordar:


• Multicolinealidad
• Heterocedasticidad
• Autocorrelación
• Sesgo de especificación
• Endogeneidad
• No normalidad de los errores

TREY
research
4
Multicolinealidad
La multicolinealidad tiene que ver con la relación lineal entre algún conjunto
de variables independientes en un modelo de regresión. Supóngase el
siguiente modelo con cuatro variables independientes:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝛽4 𝑋4𝑖 + 𝛽5 𝑋5𝑖 + 𝜀𝑖

Cualquier relación lineal entre las variables independientes de este modelo,


por ejemplo X2 con X3, o X2 con X4 o X2 con X5 o X3 con X4 o X3 con X5 o
X4 con X5 puede generar problemas de multicolinealidad. Por lo general,
existen dos tipos de multicolinealidad:

TREY
research
5
Multicolinealidad perfecta:
Dada la especificación del modelo y los datos de las variables, si al menos una
de las variables explicativas se puede obtener como combinación lineal exacta
de alguna o algunas de las restantes, diremos que existe multicolinealidad
exacta o perfecta.

Multicolinealidad alta:
Esta se presenta cuando la colinealidad que existe entre variables independientes
es muy fuerte aunque no perfecta.

TREY
research
6
El problema de multicolinealidad es un problema ocasionado por las
observaciones en los datos recopilados de la muestra. La presencia de
multicolinealidad afecta directamente la estimación de los parámetros del
modelo.
De acuerdo con el estimador por mínimos cuadrados ordinarios:

𝛽መ = 𝑋 ′ 𝑋 −1 𝑋′𝑌

TREY
research
7
Si existe multicolinealidad perfecta entre las variables
independientes de un modelo de regresión, (X'X)-1 no existe.
Cuando esto ocurre no es posible estimar β. En presencia de alta
multicolinealidad se genera una ampliación del error estándar de
β, por lo que el valor de los estadísticos "t" para cada uno de los
parámetros del modelo serán mucho menores que en ausencia de
multicolinealidad, aumentándose la probabilidad de cometer error
de tipo II, es decir, que acepte H0 no siendo verdadera. Por
consiguiente, el modelo no tiene validez para realizar pruebas de
relevancia.

TREY
research
8
Detección de la multicolinealidad
La detección de multicolinealidad en un modelo puede
hacerse por medio de la visualización de contradicciones en
los estadísticos que juzgan la bondad del ajuste (R2),
dependencia (Fc) y los estadísticos que permiten evaluar la
relevancia de las variables en el modelo (tc). Otro método de
detección es la estimación de |X’X| ; si el valor obtenido de
|X’X| es muy cercano a cero, puede concluirse que es muy
probable la existencia de multicolinealidad alta.

TREY
research
9
No obstante, se encuentran otras pruebas mucho más formales en términos
estadísticos. Una de ellas es estimar coeficientes de correlación entre pares de
variables independientes y formular pruebas de hipótesis sobre los coeficientes
de correlación estimados para comprobar la significancia de la relación lineal
en términos estadísticos. Por ejemplo, una vez calculado el coeficiente de
correlación lineal entre X2 y X3, puede proponerse la siguiente prueba de
hipótesis :

TREY
research
10
El estadístico de prueba es:

Donde θ es el valor que se desea probar del coeficiente de


correlación lineal poblacional. No obstante en la mayoría de los
casos este se asume cero con lo cual solo se desea verificar si hay o
no correlación entre las variables explicativas. Si |tc|>tα/2,n−2 a un
nivel α de significancia determinado, se rechaza Ho, confirmando la
existencia de relación lineal entre X2 y X3, es decir el modelo de
regresión mostrará multicolinealidad.

TREY
research
11
El otro método formal consiste en la estimación de regresiones
auxiliares que ayudan a evaluar la relación lineal existente entre un
conjunto de variables independientes. Para ello, se ejecuta una
regresión entre las variables independientes del modelo, por ejemplo
X2 versus (X3, X4, X4, X5) y luego se analizan los estadísticos
resultantes de esta. Si hay relación lineal entre estas variables, el R2 ,
el Fc y el tc que acompaña a cada variable independiente de la
regresión auxiliar serán altos. Las pruebas de hipótesis sobre
relevancia y dependencia estadística en la regresión auxiliar
determinan si existe o no multicolinealidad.
Es importante tener en cuenta que deben estimarse todas las posibles
regresiones auxiliares resultantes de las combinaciones entre las
variables independientes o regresores del modelo original.
TREY
research
12
Medida de Belsley, Kuck y Welsch (1980)
máximo
ID =
mínimo
Donde máximo y mínimo son los autovalores máximo y mínimo de la matriz
de correlaciones entre las variables explicativas [Rxx]. A partir del valor que
tome esta medida puede concluirse el grado de multicolinealidad existente
en el modelo según el siguiente criterio:
ID=1 ➔ Ortogonalidad
20<ID<30 ➔ Multicolinealidad preocupante
ID>30 ➔ Multicolinealidad segura (multicolinealidad severa)

TREY
research
13
Corrección de la multicolinealidad
i. Eliminación de variables
ii. Utilización de información a priori
iii. Transformación de Variables
iv. Aumentar el tamaño de la muestra

Finalmente, se recomienda que el investigador una vez utilice alguno de


estos métodos verifique si el problema de multicolinealidad fue corregido.

TREY
research
14
Sesión de laboratorio 7
Análisis y detección de Multicolinealidad

TREY
research
15
TREY
research
16
Estimación de modelo original

TREY
research
17
TREY
research
18
TREY
research
19
Detección de Multicolinealidad
a).- Significancia global y significación individual de los regresores:

Revisar significancia global (estadístico F y R2) y analiza la significancia


individual (prueba “t”).

TREY
research
20
b).- Análisis de matriz de correlaciones de las variables:

TREY
research
21
TREY
research
22
TREY
research
23
De esta matriz se calcula el valor del determinante:

R XX = 0.00003392

El valor que toma es muy próximo a cero, lo que también es


indicativo de la posible existencia de multicolinealidad en el modelo.

TREY
research
24
c).- Medida de Belsley, Kuck y Welsch (1980)
El procedimiento para el cálculo de los autovalores de la matrix Rxx es:

TREY
research
25
TREY
research
26
TREY
research
27
TREY
research
28
máximo 2.988996
ID = = = 50.9373
mínimo 0.001152

Como el valor del ID es mayor que 30, entonces se considera que existe
multicolinealidad, es más, se puede considerar que existe
multicolinealidad severa.

TREY
research
29
Taller práctico en clase
Teniendo en cuenta el ejercicio anterior, corrija el problema de multicolinealidad eliminando
una variable explicativa (puede estimar tres modelos):

1.- LS ING C CONS GPER


2.- LS ING C CONS GAST
3.- LS ING C GPER GAST

De los tres anteriores modelos seleccione un solo modelo utilizando criterios técnicos de
selección (relevancia, dependencia, ajuste).
Ahora en el modelo seleccionado aplique la medida de Belsley, Kuck y Welsch. Según esta
prueba cual es ahora la conclusión respecto al problema de multicolinealidad?

TREY
research
30
Solución

Modelo 1 Modelo 2 Modelo 3

TREY
research
31
Determinante de la matriz de correlaciones
Modelo 1 Modelo 2 Modelo 3

TREY
research
32
Medida de Belsley, Kuck y Welsch
Modelo 1 Modelo 2 Modelo 3

TREY
research
33

También podría gustarte