Está en la página 1de 5

De la 18 – 25

Multicolinealidad

Es cuando Dos o más variables explicativas están muy correlacionadas entre sí y los
coeficientes estimados MCO pueden ser estadísticamente NO significativos debido a una
fuerte interrelación entre las variables independientes, se hace difícil deshacer sus efectos
individuales sobre las variables dependientes. (Damonar & Dawn)

Una de las hipótesis del modelo de regresión lineal múltiple establece que no existe
relación lineal exacta entre los represores, o, en otras palabras, establece que no existe
multicolinealidad perfecta en el modelo. Esta hipótesis es necesaria para el cálculo del
vector de estimadores mínimo cuadráticos, ya que en caso contrario la matriz X'X será no
singular. (Vicens, 1998)

La multicolinealidad perfecta no se suele presentar en la práctica, salvo que se diseñe mal


el modelo como veremos en el epígrafe siguiente. En cambio, sí es frecuente que entre
los represores exista una relación aproximadamente lineal, en cuyo caso los estimadores
que se obtengan serán en general poco precisos, aunque siguen conservando la propiedad
de lineales, insesgados y óptimos. (Damonar & Dawn)En otras palabras, la relación entre
represores hace que sea difícil cuantificar con precisión el efecto que cada regresor ejerce
sobre el regresando, lo que determina que las varianzas de los estimadores sean elevadas.
Cuando se presenta una relación aproximadamente lineal entre los regresores, se dice que
existe multicolinealidad no perfecta. Es importante señalar que el problema de
multicolinealidad, en mayor o menor grado, se plantea porque no existe información
suficiente para conseguir una estimación precisa de los parámetros del modelo. (Vicens,
1998)

El problema de la multicolinealidad hace referencia, en concreto, a la existencia de


relaciones aproximadamente lineales entre los regresores del modelo, cuando los
estimadores obtenidos y la precisión de éstos se ven seriamente afectados.
Medidas y contrastes

Incumplimiento de hipótesis básicas

Se define como la existencia de una fuerte combinación lineal entre dos o mas variables
explicativas de un modelo econométrico. Si la combinación lineal es exacta, se está en
presencia de multicolinealidad exacta, si en cambio es elevada pero no llega a ser exacta,
la multicolinealidad es aproximada. (Damonar & Dawn)

Porque se produce este tipo de multicolinealidades:

La Multicolinealidad Exacta:

Sólo puede aparecer por un error en la especificación cometido por el modernizado que
ignora una igualdad o combinación lineal exacta entre variables. En el caso de que exista
una relación lineal exacta entre las variables independientes. (Vicens, 1998)

Se detecta en los programas estadísticos y econométricos no pueden estimar el modelo


´por ende existen consecuencias que implican los parámetros no se pueden calcular,
dado que la matriz x´x no sería de rango pleno y no tendría inversa. (Damonar & Dawn)

La Multicolinealidad Aproximada:

Es por la interrelación existente entre los agentes económicos, propio de este tipo de
sistema, es decir sin que exista algún tipo de marco teórico que lo respalde, producto de
senda temporal de evolución, también por la mala especificación de un modelo. Ignorar
alguna identidad o igualdad entre las variables introducidas en el modelo, esto se define
como la existencia de una relación lineal fuerte, aunque no exacta, entre dos o más
variables independientes. (Damonar & Dawn)

Se detecta por la observación de los estadísticos del modelo, si los estadísticos de análisis
conjunto (R2 y F) resultan muy elevados y por el contrario el estadístico t tiene valores
pocos significativos,no superada esta prueba, se deberá realizar otros análisis más
detallados:

Coeficiente de correlación simple,Coeficiente de determinación múltiple,Coeficiente de


correlación simple entre cada par de variables. Valores superiores al 70% constituyen un
indicador ,Comparar las correlaciones entre cada para de variables independientes con la
raíz cuadrada del coeficiente de determinación del ajuste global. Si alguna de las primeras
resulta mayor que el R2, entonces existe un problema de colinealidad con esas variables.
(Damonar & Dawn). Estimación del coeficiente de determinación múltiple (R2) entre las
variables independientes del modelo y compararlos con el coeficiente de determinación
del ajuste global. De nuevo, valores superiores de los primeros respecto de los segundos,
suponen la existencia de colinealidad severa entre las variables independientes. (Damonar
& Dawn)
Las consecuencias de la multicolinealidad aproximada se incrementan la varianza de los
parámetros. Aunque continuarán siendo, insesgado, consistentes y eficientes lo que
supondrá un valores t más reducidos que los reales y en consecuencia mayor probabilidad
de cometer el error tipo II y Parámetros más inestables, lo que supone una mayor
vulnerabilidad ante la incorporación o eliminación de variables independientes en el
modelo. (Vicens, 1998)

Estimación en presencia de multicolinealidad perfecta

Con la forma de desviación, en la cual todas las variables se expresan como


desviaciones de sus medias muéstrales, se escribe el modelo de regresión con tres
variables como

𝑦𝑖 = 𝛽̂2𝑥2𝑖 + 𝛽̂3𝑥3𝑖 + 𝑢̂𝑖

Ahora, del capítulo 7, obtenemos

Suponga que Suponga que X3i = λX2i, donde λ es una constante diferente de cero. Si
sustituimos esto en obtenemos.

que es una expresión indeterminada. El lector puede verificar que 𝛽̂ 3 también es


indeterminada (Damonar & Dawn).

Detección de la multicolinealidad

• Un 𝑅 2 relativamente alta en una ecuación con un estadístico 𝑡 poco significativo.

• Las correlaciones simples relativamente altas entre uno o más pares de V.I

• El cálculo de un número de condición asociado con el conjunto de datos de la V.I.


(es grave si es mayor que 10 puntos) (Wooldridge).
Factor de inflación de Varianza (VIF)

Neter et al. (1990) consideran una serie de indicadores para analizar el grado de
multicolinealidad entre los regresores de un modelo, como por ejemplo el llamado Factor
de inflación de la Varianza (VIF) que se define:

1
𝑉𝐼𝐹𝑗 =
(1 − 𝑅𝑗2 )

siendo R2 j el coeficiente de determinación de la regresión auxiliar de la variable Xj sobre


el resto de las variables explicativas y 1 ≤ VIFj ≤ ∞ (González, Regúlez, & Zarraga).

Los factores de inflación de varianza (FIV) miden en qué medida la varianza de los
coeficientes de regresión estimados ha sido inflada, en comparación con un contexto en
el que las variables predictoras no están linealmente relacionadas (Damonar & Dawn).

Cuanto más se acerque R2 j a la unidad, es decir, cuanto mayor sea la colinealidad de la


variable Xj con el resto, mayor es el valor de VIFj y mayor es la varianza del coeficiente
estimado, porque tal y como hemos dicho, la multicolinealidad “infla” la varianza
(González, Regúlez, & Zarraga).

Según este autor podemos utilizar las siguientes directrices para interpretar VIF

FIV Estado de los predictores

FIV = 1 No correlacionados

1 < FIV < 5 Moderadamente correlacionados

FIV > 5 a 10 Altamente correlacionados

También podría gustarte