Está en la página 1de 51

ECONOMETRIA

Ronald Mendoza.
Universidad Nacional de Huancavelica.

Abril 2016.
Multicolinealidad
¿Qué pasa si las regresaras (variables independientes)
están correlacionadas?
෡𝟎 + 𝜷
𝒚𝒊 = 𝜷 ෡ 𝟏 𝒙𝒊𝟏 + 𝜷
෡ 𝟐 𝒙𝒊𝟐 + 𝜷
෡ 𝟑 𝒙𝒊𝟑 + ⋯ + 𝜷
෡ 𝒌 𝒙𝒊𝒌 + 𝜺𝒊
𝒚𝒊 = 𝒇 𝒙𝒊𝟏 , 𝒙𝒊𝟐 , 𝒙𝒊𝟑 , … , 𝒙𝒊𝒌
𝒂𝟏 𝒙𝟏 + 𝒂𝟐 𝒙𝟐 + 𝒂𝟑 𝒙𝟑 + ⋯ + 𝒂𝒌 𝒙𝒌 = 𝟎
𝒙𝟏 = 𝒇 𝒙𝟐 = 𝟐𝒙𝟐
𝒙𝟏 = 𝒇 𝒙𝟓 = 𝟎. 𝟓𝒙𝟓
Contenido
o Definición, tipología y consecuencias.
o Detección y valoración de la importancia de la multicolinealidad.
o Posibles soluciones.
Fuentes de multicolinealidad.

1. El método de recolección de información.

Obtención de muestras en un intervalo limitado de valores tomados por


las regresoras en la población.

2. Restricciones en el modelo o en la población objeto de muestreo.

Por ejemplo en la regresión del consumo de electricidad sobre el ingreso


(𝑋2 ) y el tamaño de las viviendas (𝑋3 ) hay una restricción fisica en la
poblacion, pues las familias con ingresos mas altos suelen habitar en
viviendas más grandes que las familias con ingresos más bajos.
3. Especificación del modelo (forma funcional).

La adición de términos polinomiales a un modelo de regresión, en


especial cuando el rango de la variable X es pequeño.

4. Un modelo sobre determinado.

Cuando el modelo tiene mas variables explicativas que el número de


observaciones.
Definición.

El Modelo Regresión Lineal Múltiple (MRLM) implica que la matriz


de regresores 𝑋 tiene rango completo e igual a 𝐾, donde 𝐾 es el
número de regresores o variables independientes.

Este supuesto garantiza que las columnas de 𝑿 sean linealmente


independientes o, lo que es lo mismo, que los regresores involucrados
no presenten una alta correlación.
Funcion regresión lineal.
෡𝟎 + 𝜷
𝒚𝒊 = 𝜷 ෡ 𝟏 𝒙𝒊𝟏 + 𝜷
෡ 𝟐 𝒙𝒊𝟐 + 𝜷
෡ 𝟑 𝒙𝒊𝟑 + ⋯ + 𝜷
෡ 𝒌 𝒙𝒊𝒌 + 𝜺𝒊
Si:
෡𝟎 + 𝜷
𝒚𝟏 = 𝜷 ෡ 𝟏 𝒙𝟏𝟏 + 𝜷
෡ 𝟐 𝒙𝟏𝟐 + 𝜷
෡ 𝟑 𝒙𝟏𝟑 + ⋯ + 𝜷
෡ 𝒌 𝒙𝟏𝒌 + 𝜺𝟏
෡𝟎 + 𝜷
𝒚𝟐 = 𝜷 ෡ 𝟏 𝒙𝟐𝟏 + 𝜷
෡ 𝟐 𝒙𝟐𝟐 + 𝜷
෡ 𝟑 𝒙𝟐𝟑 + ⋯ + 𝜷
෡ 𝒌 𝒙𝟐𝒌 + 𝜺𝟐
.
෡𝟎 + 𝜷
𝒚𝒏 = 𝜷 ෡ 𝟏 𝒙𝒏𝟏 + 𝜷
෡ 𝟐 𝒙𝒏𝟐 + 𝜷
෡ 𝟑 𝒙𝒏𝟑 + ⋯ + 𝜷
෡ 𝒌 𝒙𝒏𝒌 + 𝜺𝒏

𝒚𝟏 𝟏 𝒙𝟏𝟏 ෡𝟎
𝒙𝟏𝟐 …𝒙𝟏𝒌 𝜷 𝜺𝟏
𝒚𝟐 𝟏 𝒙𝟐𝟏 𝒙𝟐𝟐 …𝒙𝟐𝒌 𝜷
෡𝟏 𝜺𝟐
⋮ = … ⋮ + ⋮
⋮ ⋮ ⋮ ⋮
𝒚𝒏 …𝒙 𝜺𝒏
1 𝒙𝒏𝟏 𝒙𝒏𝟐 𝒏𝒌 𝜷 ෡𝒏
𝒙𝟏 𝒙𝟐 𝒙𝒌
𝟏 𝒙𝟏𝟏 𝒙𝟏𝟐 …𝒙𝟏𝒌
𝟏 𝒙𝟐𝟏 𝒙𝟐𝟐 …𝒙𝟐𝒌
𝑿= … ⋮
⋮ ⋮ ⋮
…𝒙
1 𝒙𝒏𝟏 𝒙𝒏𝟐 𝒏𝒌
Rango completo:
𝑿 ≠0
Si:
𝒙𝟏 = 𝟐𝒙𝟐 = 𝒇 𝒙𝟐 ⇒ 𝑿 = 0
dependencia lineal:
𝒂𝟏 𝒙𝟏 + 𝒂𝟐 𝒙𝟐 + ⋯ + 𝒂𝒌 𝒙𝒌 = 𝟎
Si el número de observaciones fuese menor que el número de
regresores involucrados 𝑁 < 𝐾, entonces la matriz 𝑋 no puede
tener rango completo y se estaría violando uno de los supuestos
del Modelo Lineal General.
−𝟏
Sabemos que: ෡ 𝑴𝑪𝑶 = 𝑿 𝑿
𝜷 𝑻
𝑿𝑻 𝒀 . 𝑿
Si el número de observaciones 𝑛 es menor que el número de
regresores, entonces el determinante de 𝑿𝑻 𝑿 es cero por lo que
−1
𝑻
𝑿 𝑿 es indeterminado y, por lo tanto, 𝛽መ𝑀𝐶𝑂 no existe.
𝑻 𝟒 𝟏
𝑿 𝑿= =𝟎
𝟏𝟔 𝟒
La colinealidad está referida a la existencia de una sola relación lineal entre las
variables explicativas y, por lo tanto, la multicolinealidad se refiere a la existencia
de más de una relación lineal.
Es importante anotar que la multicolinealidad se refiere sólo a relaciones
lineales entre las variables independientes y no a cualquier otro tipo de relación,
así pues, si 𝑥𝑖 = 𝑥 2𝑗 , entonces no existirá multicolinealidad en el modelo.
El problema de la multicolinealidad está definido por el alto grado de
intercorrelación entre variables explicativas. Dentro de las violaciones de los
supuestos del modelo lineal general, la multicolinealidad es un problema de
grado. Los estimadores obtenidos bajo multicolinealidad, conservan las
propiedades que los define como Mejores Estimadores Lineales Insesgados
(MELI).
Actividad 1: Desarrolle y analice el Diagrama de Ballentine.
Tipología.
La multicolinealidad se define como el grado de correlación
existente entre las variables explicativas o regresores del MRLM.

Podemos distinguir tres situaciones:


a) Presencia de multicolinealidad perfecta.
b) Ausencia total de multicolinealidad.
c) Presencia de un cierto grado de multicolinealidad.
a) Multicolinealidad perfecta.

Se produce cuando una de las variables explicativas del modelo es


una combinación lineal exacta de otras variables del MRLM.

Supóngase el siguiente modelo:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝜀𝑖
b) Ausencia total de multicolinealidad.

Implica que todas las variables explicativas del MRLM son ortogonales
entre sí, es decir, totalmente independientes entre ellas:

𝑐𝑜𝑣 𝑋𝑖 , 𝑋𝑗 = 0, 𝑝𝑎𝑟𝑎 𝑐𝑢𝑎𝑙𝑞𝑢𝑖𝑒𝑟 𝑖 ≠ 𝑗.

Si las variables son ortogonales, en toda regresión en que se intente


explicar el comportamiento de una de ellas a partir de las otras, los
coeficientes estimados serán cero.

Difícilmente se da en la práctica (especialmente en economía, donde casi


todo está relacionado con casi todo)!!!!
c) Presencia de un cierto grado de multicolinealidad.

Es la situación más habitual en la práctica y supone que existe un cierto


grado de correlación entre las variables explicativas.

Dado que ninguna variable explicativa es una combinación lineal exacta


del resto, sí se pueden obtener estimaciones por MCO, las cuales serán
insesgadas, consistentes y eficientes.

A pesar de ello, las consecuencias sobre el modelo estimado pueden llegar a ser
importantes, tanto más cuanto mayor sea el grado de multicolinealidad.
Entre las principales consecuencias de la presencia de un cierto grado de
multicolinealidad, se encuentran las dos siguientes:

i) Los estimadores MCO presentarán varianzas y covarianzas grandes, lo que hace difícil
su estimación precisa.

ii) Debido a lo anterior, los intervalos de confianza serán más amplios por lo que se tenderá
a aceptar más fácilmente la hipótesis nula de cero.

iii) A pesar de lo anterior, el 𝑅2 como medida global de la bondad de ajuste puede tener
valores altos.

iv) Los estimadores MCO y sus errores estándar pueden ser bastante sensibles a pequeños
cambios en la información de la muestra.
i) Varianzas y covarianzas grandes.

Consideremos un modelo que involucra sólo dos variables independientes.

𝜎2
𝑣𝑎𝑟 𝛽መ1 =
σ 𝑥 21𝑖 (1 − 𝒓𝟐 𝟏𝟐 )
y a la covarianza entre éste y el segundo estimador:

−𝑟 212 𝜎 2
𝑐𝑜𝑣 𝛽መ1 , 𝛽መ2 =
(1 − 𝒓𝟐 𝟏𝟐 ) σ 𝑥 21𝑖 σ 𝑥 2 2𝑖

Donde 𝑟12 es el coeficiente de correlación entre las variables 𝑋1 y 𝑋2 .


A partir de las relaciones planteadas anteriormente, se observa claramente
que a medida que el coeficiente de correlación entre las variables
independientes aumenta, ambas medidas toman valores cada vez más altos.

En el caso extremo de colinealidad perfecta, donde el coeficiente de


correlación es igual a uno, tanto la varianza como covarianza de los
estimadores tiende a infinito. Esta consecuencia se aprecia claramente si
planteamos la varianza del estimador MCO en términos matriciales:

2
𝜎 𝛽෡ መ = 𝑋`𝑋
= 𝑉𝑎𝑟(𝛽) −1
𝜎 2
𝜀
ii) Intervalos de confianza más amplios.

Debido a la presencia de errores estándar altos, los intervalos de


confianza para los parámetros poblacionales tienden a ser más grandes.

En casos de alta multicolinealidad, la probabilidad de aceptar hipótesis


falsas (Error tipo II) aumenta ya que la muestra resulta compatible con
un diverso número de hipótesis.

En otras palabras, para un nivel de confianza de 95%, por ejemplo, el


rango de valores entre los cuales puede fluctuar el parámetro
poblacional se ve incrementado de manera directamente proporcional
al error estándar del estimador.
෡ =𝜷
𝑬 𝜷
iii) Estadísticos t poco significativos y un 𝑅2 alto.

Para confirmar esto, vasta revisar el planteamiento de los estadísticos 𝑡𝑐


de significación individual:

𝛽መ𝑖
𝑡𝑐 =
𝜎𝛽෡𝑖

Ante un aumento considerable en el error estándar del estimador el


estadístico 𝑡𝑐 se vería reducido, aumentando la probabilidad de aceptar
la hipótesis nula de que el verdadero parámetro poblacional es igual a
cero.
Sin embargo, y a pesar de lo anterior, de existir un alto grado de
multicolinealidad entre los regresores, será frecuente encontrar
un 𝑅2 alto para la ecuación de regresión.

Ante esto será factible, y sobre la base de la prueba 𝐹 de


significación conjunta, rechazar la hipótesis de que:

𝛽2 = 𝛽3 = 𝛽4 = ⋯ = 𝛽𝑘 = 0
A pesar de la influencia del alto grado de colinealidad sobre la
varianza de los estimadores y, por tanto, sobre las pruebas de
significación individual (que nos lleva a aceptar la hipótesis de que
los regresores incluidos son poco significativos), la presencia de un
alto 𝑅2 nos indica que, en conjunto, los regresores elegidos son
significativos y, por tanto, relevantes para explicar el
comportamiento de la variable independiente.

Esta conclusión resulta de especial importancia si tomamos en


cuenta el objetivo de nuestro modelo.
iv) Sensibilidad de los estimadores y sus errores estándar ante pequeños
cambios en la muestra.

Siempre y cuando la multicolinealidad no sea perfecta, es posible la


estimación de los coeficientes de regresión. Sin embargo, los
estimadores y sus errores estándar se tornan muy sensibles ante
cambios en la información contenida en la muestra.
Ejemplo.

Consideremos una regresión donde las variables independientes registran un alto


grado de colinealidad. Donde 𝑟12 =0.9998.

Comparando los resultados de ambas regresiones notaremos que al incluir en la


muestra 10 observaciones adicionales, se registra un drástico cambio en el valor de los
coeficientes involucrados. Por otro lado, resulta interesante comprobar que para ambas
regresiones, si bien los estadísticos 𝑡 resultan poco significativos, en la prueba de
significación conjunta se rechaza la hipótesis nula.
Observaciones: 90
𝑌෠ = 0.404438−0.539482X1+1.626773 X2

𝒅𝒀 ෡
𝒅𝒀
= −𝟎. 𝟓𝟑𝟗𝟒𝟖𝟐 < 𝟎, = 𝟏. 𝟔𝟐𝟔𝟕𝟕𝟑 > 𝟎
𝒅X1 𝒅X𝟐
Observaciones: 100
𝑌෠ = 0.433715+0.340541X1+ 0.709403 X2

𝒅𝒀 ෡
𝒅𝒀
= 0.340541 > 𝟎, = 0.709403>0
𝒅X1 𝒅X𝟐
La presencia de un alto grado de multicolinealidad no permite
estimar de un modo preciso los coeficientes de regresión
individuales pero que, en conjunto, los regresores incluidos sí
explican adecuadamente a la variable dependiente.

En otras palabras, resulta factible estimar las combinaciones


lineales de estos coeficientes con relativa exactitud.
Detección.
Hay diversos instrumentos de detección de problemas de
multicolinealidad en el MRLM. Entre ellos, destacaríamos los
siguientes:
1. 𝑅2 alto y t-static bajos.
2. Coeficiente de correlación entre pares de variables.
3. Análisis del 𝑅2𝑗 de las regresiones auxiliares
4. Cálculo del Factor de Incremento de la Varianza (FIVj)
5. Análisis del 𝑅2 ajustado de las regresiones donde se van
eliminando variables explicativas.
6. Test de Farrar Glauber.
1. 𝑅2 alto y t-static bajos.

Este es uno de los indicadores más empleados para


justificar la existencia de este problema ya que es
considerado como un “síntoma clásico”.

Si 𝑅2 es alto, se podría afirmar que el nivel de


significancia es bueno, es decir, que las variables
independientes explican a la dependiente con un
grado de ajuste bastante alto (𝑅2 alto: 𝑅2 > 0.8).
Bajo estas circunstancias, el estadístico 𝐹 indicará que no todos los
coeficientes de regresión serán cero a la vez, pues con el coeficiente
de determinación se concluyó que las explicativas eran relevantes.
Sin embargo, la existencia de 𝑡 bajos indica que se aceptarán las
hipótesis de nulidad de los regresores para varias explicativas
consideradas individualmente, contradiciendo los resultados
anteriores.

Aunque este diagnóstico es razonable, su desventaja es que “es


demasiado fuerte, en el sentido de que la multicolinealidad se considera dañina,
únicamente cuando la totalidad de las influencias de las variables explicativas
sobre 𝑌 no se pueden separar ”.
2. Coeficiente de correlación entre pares de variables.

Cálculo del coeficiente de correlación simple entre


pares de variables explicativas del MRLM (𝑟𝑖𝑗 ). Así,
coeficientes de correlación simple altos entre
variables explicativas indicarán multicolinealidad
elevada.
3. Análisis del 𝑅2 de regresiones auxiliares.

Analizar los 𝑅2 de las regresiones auxiliares en las


que figure como variable endógena sucesivamente
cada variable explicativa y como exógenas, el resto
de variables explicativas.

Por ejemplo, para un MRLM con 𝐾 = 4:

𝑌𝑖 =𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝛽4 𝑋4𝑖 + 𝜀𝑖


Encontramos las tres regresiones auxiliares siguientes:

𝑋2𝑖 = 𝛾1 + 𝛾2 𝑋3𝑖 + 𝛾3 𝑋4𝑖 + 𝜀𝑖


𝑋3𝑖 = 𝜙1 + 𝜙2 𝑋2𝑖 + 𝜙3 𝑋4𝑖 + 𝜀𝑖
𝑋4𝑖 = 𝜃1 + 𝜃2 𝑋2𝑖 + 𝜃3 𝑋3𝑖 + 𝜀𝑖

En caso de que el 𝑅2 de alguna de las regresiones auxiliares


sea elevado 𝑅2𝑗 , 𝑗 = 1,2,3,4 querrá decir que la variable que
actúa como endógena está altamente correlacionada con el
resto de variables explicativas, habiendo entonces
multicolinealidad elevada en el modelo original.

Si 𝑅2𝑗 ≥ 0,8 , se dice que el modelo original presenta


problemas de multicolinealidad.
4. Cálculo del Factor de Incremento de la Varianza 𝐹𝐼𝑉𝑗 .

El 𝐹𝐼𝑉𝑗 para la variable 𝑋𝑗 compara la varianza real


del coeficiente 𝛽𝑗 con la que tendría en caso de
que hubiera ausencia total de multicolinealidad.
1
𝐹𝐼𝑉𝑗 =
1 − 𝑅2𝑗

𝑅2𝑗 , coeficiente de determinación de la regresión


auxiliar correspondiente.

Si: 0 ≤ 𝑅2𝑗 ≤ 1, entonces:

𝐹𝐼𝑉𝑗 𝜖 [1 , +𝛼 >
Asimismo, podemos representar gráficamente la
relación entre 𝐹𝐼𝑉𝑗 y 𝑅2𝑗
𝐹𝐼𝑉𝑗

10

1 𝑅2𝑗
0,8 0,9 1
De esta manera asumiremos que:

𝐹𝐼𝑉𝑗 > 5 (𝑅2𝑗 > 0,8) , problema relevante de


multicolinealidad.

𝐹𝐼𝑉𝑗 > 10 𝑅2𝑗 > 0,9 , problema grave de


multicolinealidad.
5. Análisis del 𝑅2 de regresiones donde cada vez se elimine una variable
explicativa.

Se estiman sucesivas regresiones en las que, en cada una de ellas, se


elimine una variable explicativa (habitualmente, de entre las que
optarían a presentar mayores problemas de multicolinealidad). Si el
𝑅2 no se modifica demasiado respecto el obtenido con todas las
variables explicativas significa que la variable explicativa no incluida
es poco relevante o bien que lo que explica ya queda explicado por
el resto de variables, es decir, que hay multicolinealidad asociada a
esta variable.
6. Test de Farrar Glauber.

Este test consta de tres etapas:

i) Test de Ortogonalidad (2):

Se busca evaluar la ortogonalidad de las variables independientes. Si el resultado de la


evaluación arroja que se rechaza la hipótesis de existencia de ortogonalidad, entonces
se aceptará la posibilidad de existencia de multicolinealidad y se pasa a la segunda
etapa.
𝐻0 : las X son ortogonales.
𝐻1 : las X no son ortogonales.
El estadístico relevante para esta etapa del test se construye a partir de la
siguiente relación:

2
2𝑘 + 5
𝜒 𝑐𝑎𝑙𝑐 =− 𝑛−1− ∗ ln(𝒗𝒂𝒍𝒐𝒓 𝒅𝒆𝒍 𝒅𝒆𝒕𝒆𝒓𝒎𝒊𝒏𝒂𝒏𝒕𝒆 𝒆𝒔𝒕𝒂𝒏𝒅𝒂𝒓𝒊𝒛𝒂𝒅𝒐)
6

𝜒 2 𝑐𝑎𝑙𝑐 ~𝜒 2 𝑘 𝑘−1 /2𝑔𝑙

Donde:
2calc : es el valor estimado de 2
𝑛: es el tamaño de la muestra
𝑘: es el numero de variables asociadas a pendientes (sin incluir el
intercepto).
Para hallar el determinante estandarizado se construye la matriz de
correlación. Para tres variables explicativas, por ejemplo, la matriz de
correlación vendría dada por:
1 𝑟𝑥2 𝑥3 𝑟𝑥2 𝑥4
𝑅 = 𝑟𝑥3 𝑥2 1 𝑟𝑥3 𝑥2
𝑟𝑥4 𝑥2 𝑟𝑥4 𝑥3 1
𝑅 = valor del determinante estandarizado
Si 2calc > 2 tabla se rechaza el supuesto de ortogonalidad.
Si 2calc < 2 tabla se acepta el supuesto de ortogonalidad.
Mientras más alto sea el 2 estimado, más severo será el grado de la
multicolinealidad entre las variables explicativas.
ii) Test F:

Luego de haber detectado que las variables predeterminadas no


son ortogonales, se regresiona cada explicativa contra el resto de
independientes para ver cuál de éstas está más colineada
conjuntamente con las demás.

Se observa el coeficiente de determinación de cada regresión y se


selecciona aquella variable explicativa que, tras haber sido
regresionada con las demás en conjunto, arroje el F estimado
más alto.
𝑋2 = 𝑓(𝑋3 , 𝑋4 ,…, 𝑋𝑘 ) → 𝑅2𝑋2 :𝑋3, 𝑋4,…,𝑋𝑘
𝑋3 = 𝑓(𝑋2 , 𝑋4 ,…, 𝑋𝑘 ) → 𝑅2𝑋3:𝑋2, 𝑋4,…,𝑋𝑘

y así hasta 𝑋𝑘 .

𝐻0 : 𝑅2𝑋𝑖 :𝑋2, 𝑋3,…,𝑋𝑘 = 0


𝐻1 : 𝑅2𝑋𝑖 :𝑋2, 𝑋3,…,𝑋𝑘 ≠ 0
𝑅 2𝑋𝑖 :𝑋2, 𝑋3,…,𝑋𝑘 /(𝑘 − 1)
𝐹𝑐𝑎𝑙𝑐 = ~𝐹𝑘−1,𝑛−𝑘,𝛼
(1 − 𝑅2𝑋𝑖 :𝑋2, 𝑋3,…,𝑋𝑘 )/(𝑛 − 𝑘)

Si 𝐹𝑐𝑎𝑙𝑐 > 𝐹𝑡𝑎𝑏𝑙𝑎 , se acepta la hipótesis alternante, es


decir que la variable 𝑋𝑖 está colineada con las demás
explicativas.
Si 𝐹𝑐𝑎𝑙𝑐 < 𝐹𝑡𝑎𝑏𝑙𝑎 se acepta la hipótesis planteada,
entonces la multicolinealidad no existe.
iii) Test t:
En esta última etapa se hallan los coeficientes de correlación parcial para conocer con
cual variable explicativa está más relacionada la variable seleccionada en la etapa
anterior.
𝐻0 : 𝑟𝑋𝑖 𝑋𝑗:𝑋2, 𝑋3,𝑋4, …,𝑋𝑘 = 0
𝐻1 : 𝑟𝑋𝑖 𝑋𝑗:𝑋2, 𝑋3 ,𝑋4, …,𝑋𝑘 ≠ 0
𝑟𝑋𝑖 𝑋𝑗 :𝑋2, 𝑋3 ,𝑋4, …,𝑋𝑘 𝑛−𝑘
𝑡𝑐𝑎𝑙𝑐 = ~𝑡𝑛−𝑘
1−𝑟𝑋𝑖 𝑋𝑗 :𝑋2, 𝑋3 ,𝑋4, …,𝑋𝑘

Si 𝑡𝑐𝑎𝑙𝑐 > 𝑡𝑡𝑎𝑏𝑙𝑎 , se acepta la 𝐻1 , entonces la multicolinealidad es alta.


Si 𝑡𝑐𝑎𝑙𝑐 < 𝑡𝑡𝑎𝑏𝑙𝑎 , se acepta la 𝐻0 , es decir que la variable 𝑋𝑖 no está colineada con la
variable 𝑋𝑗 entonces, se puede convivir con multicolinealidad.
Posibles soluciones.
En primer lugar, cabe decir que eliminar la
multicolinealidad no tiene porque ser estrictamente
necesario, pudiendo convivir con ella si sus consecuencias
no son demasiado importantes y somos conscientes de su
existencia.
Si queremos solucionarla, cabe decir que no existe ninguna
solución que sea satisfactoria al 100% de manera general.
Entre les posibles soluciones, se encuentran las siguientes:
1) Incorporar información adicional.
Aumentar el tamaño de la muestra, esperando que se
reduzca de esta manera el problema de
multicolinealidad (no siempre aplicable debido a los
problemas de disponibilidad de información
estadística).
2) Re especificar el modelo.
• Eliminar alguna(as) variable(s) del modelo.
Una de las soluciones más habituales al problema de la
multicolinealidad pasa por eliminar aquella variable o
variables que estén más afectadas por problemas de
multicolinealidad.
A pesar de ello, no siempre es fácil saber qué variable
eliminar y, al hacerlo, podemos incurrir en un problema de
omisión de variables relevantes.
Puede ayudar el siguiente criterio:

Si el valor del estadístico de la 𝑡0 asociado a la estimación del coeficiente


𝛽𝑗 de la variable explicativa 𝑋𝑗 es inferior a 1 en valor absoluto, será mejor
eliminar la variable explicativa 𝑋𝑗 del modelo inicial.

Si el valor de este estadístico es superior a 1 en valor absoluto, resultará


mejor mantener la variable 𝑋𝑗 en el modelo.

Otra posible vía es llevar a cabo una selección de modelos atendiendo a


comparar el coeficiente de determinación corregido de los diferentes
modelos anidados.
Bibliografía:

o ARTÍS, M. y J. SURIÑACH (coor.) (1999): “Introducció


al’Econometria”. Ed. EDIUOC. Barcelona. Módulo 2, cap. 2.
o Gujarati, D. (2009) “Econometría” Quinta edición. McGraw Hill,
Mexico. Cap. 10.
o NOVALES, A. (1993) “Econometría”. 2 a edición. Ed. McGraw-
Hill. Madrid. Cap. 10.
o PENA, J.B., J.A. ESTAVILLO, M.E. GALINDO, M.J. LECETA y
L.L. ZAMORA (1999): “Cien ejercicios de Econometría” Ed.
Pirámide. Madrid. Cap. 4.

También podría gustarte