Está en la página 1de 6

Ejemplo de Multicolinealidad

En el análisis de regresión múltiple, los coeficientes de regresión a menudo se vuelven menos


confiables conforme aumenta el grado de correlación entre las variables independientes. Si
existe un alto nivel de correlación entre algunas de las variables independientes, nos
enfrentamos a un problema que los estadísticos llaman multicolinealidad.

La multicolinealidad puede presentarse si deseamos estimar la recuperación de las ventas de


una empresa y utilizamos tanto el número de vendedores empleados como sus salarios totales.
Como los valores asociados con estas dos variables independientes tienen una correlación alta,
necesitamos usar sólo un conjunto de ellos para realizar nuestra estimación. De hecho, al
agregar una segunda variable que está correlacionada con la primera, se distorsionan los valores
de los coeficientes de regresión. Sin embargo, a menudo podemos predecir bien Y, incluso
cuando haya multicolinealidad.

Consideremos un ejemplo donde existe multicolinealidad para ver cómo afecta a la regresión.
Durante los 12 meses pasados, el gerente del restaurante Pizza Shack ha estado poniendo una
serie de anuncios en el periódico local. Los anuncios se programan y pagan el mes anterior a que
aparezcan.
Se establece un modelo de Regresión Lineal Múltiple para predecir las ventas en función del
número de anuncios publicitarios y el coste de estos.

Ecuación de la Regresión Lineal Múltiple

INTERPRETACION:
Diagnóstico para determinar la multicolinealidad

1. GRÁFICO: Es una de las formas más sencillas de determinar si en un Modelo de Regresión


existe multicolinealidad. Consiste en graficar con un diagrama de dispersión las variables
explicativas.

Podemos observar que tanto el número de anuncios como el coste de estos siguen la misma
tendencia, es decir si una variable aumenta o disminuye, la otra hará lo mismo.

2. Correlación entre regresores: Para este diagnóstico es necesario obtener la matriz de


correlación entre las variables explicativas.

89.5 % Implica que la correlación entre estas variables es muy alta.


3. Factor de inflación de varianza (FIV): Este se calcula como el inverso de la tolerancia (1/T) y
representa la proporción de la variabilidad (o varianza) de la variable que es explicada por
el resto de las variables predictoras del modelo. Como es lógico, cuanto mayor sea el factor
de inflación de la varianza, mayor será la probabilidad de que exista Multicolinealidad.

1
𝐹𝐼𝑉𝑗 =
1 − 𝑅𝑗2

 FIV Numero de anuncios.

1
𝐹𝐼𝑉𝑗 =
1 − 𝑅𝑗2

1
𝐹𝐼𝑉𝑗 = = 5.021826807
1 − 0.8949132

 FIV Coate de los anuncios.


1
𝐹𝐼𝑉𝑗 =
1 − 𝑅𝑗2

1
𝐹𝐼𝑉𝑗 = = 5.021826807
1 − 0.8949132

Ahora comparamos el FIV global con los FIV resultantes de las variables Explicativas.
1
𝐹𝐼𝑉𝑔 =
1 − 𝑅2
𝑅 2 = 0.684014
1
𝐹𝐼𝑉 = = 3.164697
1 − 0.684014
4. Valores Propios de la matriz (XTX)

Encontramos sus Valores propios

VP= 0.003206 + 0.030377 X1 + 2.966416 X2

𝑉𝑃𝑚𝑎𝑥 2.966416
𝑁𝐶 = √ = √ = 30.418253
𝑉𝑃𝑚𝑖𝑛 0.003206

NC < 25 Multicolinealidad Moderada.

NC > 25 Multicolinealidad Severa.


Como corregir la Multicolinealidad.

Eliminar una variable explicativa o sustituirla por una que no sea tenga tanta correlación entre
sí.

X1 Número
de X2 Calidad Y ventas
anuncios del total de
publicados producto Pizzas
12 17 43.6
11 5 38
9 3 30.1
7 15 35.3
12 19 46.4
8 2 34.2
6 1 30.2
13 8 40.7
8 20 38.5
6 1 22.6
8 11 37.6
10 4 35.2