0% encontró este documento útil (0 votos)
528 vistas92 páginas

Unidad 10 (Multicolinealidad)

Este documento trata sobre la multicolinealidad en la regresión lineal. Explica la diferencia entre multicolinealidad perfecta e imperfecta, las consecuencias de la multicolinealidad, cómo detectarla y posibles soluciones. También menciona que a veces es mejor dejar la multicolinealidad sin tratar.

Cargado por

Graciela Burgos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
528 vistas92 páginas

Unidad 10 (Multicolinealidad)

Este documento trata sobre la multicolinealidad en la regresión lineal. Explica la diferencia entre multicolinealidad perfecta e imperfecta, las consecuencias de la multicolinealidad, cómo detectarla y posibles soluciones. También menciona que a veces es mejor dejar la multicolinealidad sin tratar.

Cargado por

Graciela Burgos
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como PDF, TXT o lee en línea desde Scribd

Unidad 10:

Multicolinealidad

Prof. José Antonio Tamburini Martínez


Econometría I (EC-411)
Agenda

✓ Introducción.
✓ Multicolinealidad Perfecta vs. Imperfecta.
✓ Las Consecuencias de la Multicolinealidad.
✓ La Detección de la Multicolinealidad.
✓ Los Remedios de la Multicolinealidad.
✓ ¿Por qué algunas veces es mejor dejar la Multicolinealidad
sin tratar?

2
Introducción
Introducción
En las últimas tres unidades de la asignatura trataremos las tres
violaciones de Supuestos Clásicos de Regresión Lineal faltantes. En
esta trataremos el problema de Multicolinealidad y en las próximas
dos unidades Correlación Serial y Heterocedasticidad,
respectivamente.

Para cada uno de estos problemas, intentaremos contestar las


siguientes preguntas:

1. ¿Cuál es la naturaleza del problema?


2. ¿Cuáles son las consecuencias del problema?
3. ¿Cómo se diagnostica el problema?
4. ¿Cuáles son las posibles maneras de solucionar el problema?

4
Introducción

La colinealidad perfecta es la violación al Supuesto Clásico


de Regresión Lineal que dice que ninguna variable
independiente debe ser una función lineal perfecta de otra
variable independiente o conjunto de variables
independientes.

Recuerden que el coeficiente βk puede verse como el


impacto sobre la variable dependiente de un incremento de
una unidad en la variable independiente Xk, manteniendo
todo lo demás constante.

5
Introducción

Si dos o más variables explicativas están significativamente


relacionadas, entonces le será dificil a MICO distinguir los efectos de
una variable de los efectos de la otra.

En esencia, mientras más correlacionadas se encuentren dos (o más)


variables independientes, más difícil se le hace a MICO estimar con
exactitud los coeficientes del modelo.

Si dos variables se mueven idénticamente, entonces no hay esperanza


de que se puedan distinguir los efectos de una sobre la otra, pero si
las variables sólo están parcialmente correlacionadas, entonces tal vez
sea posible estimar los efectos por separado con un mínimo de
exactitud, lo cual puede que sea suficiente en la mayoría de los casos.

6
Multicolinealidad Perfecta vs. Imperfecta
Multicolinealidad Perfecta

La multicolinealidad perfecta es una violación al supuesto


del Modelo Clásico de Regresión Lineal que especifica que
ninguna variable explicativa puede ser una relación lineal
perfecta con ninguna otra variable explicativa o conjunto
de variables explicativas.

La palabra perfecta en este contexto implica que la


variación en una de las variables explicativas puede ser
explicada completamente por los movimientos en otra
variable explicativa.

8
Multicolinealidad Perfecta

Una relación perfecta entre dos variables independientes


sería:

𝑋1𝑖 = 𝛼0 + 𝛼1 𝑋2𝑖

Donde los αs son constantes y las Xs son las variables


independientes en la ecuación:

𝑌𝑖 = 𝛽0 + 𝛽1 𝑋1𝑖 + 𝛽2 𝑋2𝑖 + 𝑒𝑖

9
Multicolinealidad Perfecta

Noten que no hay término de error en la primera ecuación.


Eso implica que X1 puede ser exactamente calculada si se
conocen los valores de X2 y la ecuación. Imaginemos que
α0=2 y α1=4, por lo que:

𝑋1𝑖 = 2 + 4𝑋2𝑖

Algunos ejemplos del “mundo real” de multicolinealidad


perfecta serían:

10
Multicolinealidad Perfecta

✓ La misma variable en unidades diferentes: Imaginen la


distancia entre dos ciudades medidas en millas con X1 y en
kilómetros con X2. Aunque los datos parecen ser diferentes,
estarían perfectamente correlacionados.

✓ Dos variables que al ser sumadas siempre lleguen al mismo


resultado: Imaginen que P1 es el porcentaje de votantes a
favor de una propuesta y que P2 es el porcentaje de votantes
en contra de dicha propuesta. Asumiendo que no hubo
abstenciones, P1+P2=100%. Esto implicaría que ambas
variables están perfectamente correlacionadas negativamente.

11
Multicolinealidad Perfecta

La figura siguiente muestra un gráfico de variables


explicativas que se encuentran perfectamente
correlacionadas:

12
Multicolinealidad Perfecta

13
Multicolinealidad Perfecta

Como es posible observar en el gráfico anterior, una relación


perfecta linear tienen todos los puntos de los datos en la misma
línea recta. Por lo que no habría ninguna de la variación que
acompaña la data de una regresión lineal típica.

¿Qué pasa a la estimación de una ecuación econométrica en el


caso donde exista multicolinealidad perfecta? MICO es incapaz
de generar estimaciones para los coeficientes de la regresión y
la mayoría de los softwares estadísticos presentarían un
mensaje de error en este tipo de situaciones.

14
Multicolinealidad Perfecta
Utilizando la segunda ecuación de la diapositiva 09,
teóricamente obtendríamos los siguientes coeficientes estimados
y sus errores estándar:

𝛽መ1 = 𝑖𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑆𝐸 𝛽መ1 = ∞


𝛽መ2 = 𝑖𝑛𝑑𝑒𝑡𝑒𝑟𝑚𝑖𝑛𝑎𝑐𝑖ó𝑛 𝑆𝐸 𝛽መ2 = ∞

Multicolinealidad perfecta nos impide estimar los coeficientes


porque las otras dos variables no pueden ser distinguidas. No es
posible “mantener todas las otras variables independientes
constantes” si cada vez que una variable independiente cambia,
otra cambia en una manera similar.

15
Multicolinealidad Perfecta

Afortundamanente, en las instancias donde una variable explicativa


es una función lineal perfecta con otra son escasas. Más importante,
la multicolinealidad perfecta es bastante sencilla de descubir antes de
estimar una regresión.

Se puede detectar multicolinealidad perfecta preguntándose si una


variable es igual al producto (suma) de otra variable y una constante
o si es igual al producto (suma) de dos otras variables independientes.

Si este es el caso, entonces una de estas variables no debe estar en el


modelo porque esencialmente no existe ninguna diferencia entre ellas.

16
Multicolinealidad Perfecta

Un caso especial de multicolinealidad perfecta ocurre


cuando una variable que está relacionada con la variable
dependiente es incluída como una variable independiente
en la ecuación. Por definición, esta variable está tan
altamente correlacionada con la dependiente que
complemente opaca los efectos de las otras variables
independientes de la ecuación.

En este sentido, este es un caso de colinealidad perfecta


entre la variable dependiente y una variable independiente.

17
Multicolinealidad Perfecta
Por ejemplo, si se incluye una variable que mide la cantidad de
materia prima utilizada en la producción de zapatos en la
función de regresión de producción de la industria, el coeficiente
de materia prima tendría un resultado t extremadamente alto,
pero otras variables importantes como capital humano e
infraestructura tendríán resultados t insignificantes.

¿Por qué? En esencia, si se conociera cuánta piel se necesita en


la industria de calzado, se podría predecir el número de pares
de zapatos a producir sin conocer nada de capital humano ni
de infraestructura. En situaciones como ésta, la variable
dominante debe ser sacada del modelo para obtener
estimaciones razonables para las otras variables explicativas.

18
Multicolinealidad Perfecta

¡Tengan mucho cuidado! Las variables dominantes no deben


ser confundidas con variables significativas o importantes
para el modelo. En vez de esto, deberían ser identificadas
como un homólogo de la variable dependiente.

Aún cuando el ajuste entre las dos es perfecto, la intuición


económica le llevará a conocer la predicción sin necesidad
de realizar una estimación econométrica.

19
Multicolinealidad Imperfecta
Dado que al multicolinealidad perfecta es bastante fácil de
evitar, los econometristas casi nunca la discuten. En lugar
de esto, cuando utilizamos la palabra multicolinealidad, nos
estamos refiriendo a un severo caso de multicolinealidad
imperfecta.

La multicolinealidad imperfecta puede ser definida como


una relación funcional lineal entre dos o más variables
independientes que es tan fuerte que puede afectar
significativamente la estimación de los coeficientes de las
variables independientes.
20
Multicolinealidad Imperfecta

En otras palabras, la multicolinealidad imperfecta ocurre


cuando dos (o más) variables explicativas son linealmente
relacionadas de manera imperfecta (pero alta).
Imaginemos:

𝑋1𝑖 = 𝛼0 + 𝛼1 𝑋2𝑖 + 𝑒𝑖

Si comparamos esta ecuación a la discutida en la


diapositiva 09, vemos que la diferencia es que esta ecuación
contiene un término de perturbación estocástica ei.

21
Multicolinealidad Imperfecta

Esto implica que aunque la relación entre X1 y X2 es


bastante fuerte, no es lo suficientemente fuerte como para
ser completamente por X2; todavía existe una variación
inexplicada.

La figura siguiente muestra un gráfico de dos variables


independientes que podrían considerarse que tienen
multicolinealidad imperfecta:

22
Multicolinealidad Imperfecta

23
Multicolinealidad Imperfecta

Noten como aunque todas las observaciones de la muestra


están relativamente cerca de la línea recta, todavía existe
cierta variación en X1 que no puede ser explicada por X2.

La multicolinealidad imperfecta es una relacion lineal


fuerte entre dos o más variables independientes. Mientras
más fuerte es la relación entre estas variables explicativas,
existirá mayor probabilidad de que deban ser consideradas
como altamente colineales.

24
Multicolinealidad Imperfecta

Dos variables que puede que estén relacionadas en poca medida


en una muestra puede que estén altamente correlacionadas en
otra muestra (tanto como para ser candidatas a ser colineales
imperfectamente).

En este sentido, la multicolinealidad en un fenómeno que ocurre


en las muestras, al igual que en la teoría. Esto va en contra de
la multicolinealidad perfecta porque dos variables que son
perfectamente colineales probablemente puede detectarse
teóricamente antes de intentar estimar la regresión. Más
adelante discutiremos cómo se detecta la multicolinealidad.

25
Las Consecuencias de la Multicolinealidad
Las Consecuencias de la Multicolinealidad

Si la multicolinealidad es severa en una muestra en


particular, ¿qué sucederá con las estimaciones en este caso?

La razón de ser de esta parte de la discusión es explorar las


consecuencias de la multicolinealidad y explorar algunos
ejemplos de estas consecuencias.

27
Las Consecuencias de la Multicolinealidad

Recuerden que las propiedades de los estimadores de MICO


pueden verse afectadas por violaciones en los supuestos del
Modelo Clásifoc de Regresión Lineal.

En el capítulo 4 y 7 vimos que los estimadores MICO son MELI


(Mejores Estimadores Lineales Insesgados) si todos los supuestos
del Modelo Clásico se cumplen (con la excepción de la
normalidad de los errores).

Esto implica que los estimadores de MICO pueden ser


considerados como insesgados y tener la varianza más baja de
todos los demás estimadores lineales e insesgados.

28
Las Consecuencias de la Multicolinealidad

Las consecuencias más severas de la Multicolinealidad


serían:

1. Los estimadores seguirán siendo insesgados: Aun si la


ecuación tiene significante multicolinealidad, los
estimadores de los parámetros aun estarán centrados
alrededor de los verdaderos parámetros poblacionales si
se cumplen los otros supuestos del Modelo Clásico de
Regresión Lineal para una ecuación bien especificada.

29
Las Consecuencias de la Multicolinealidad

2. Las varianzas y errores estándar incrementarán en


comparación al escenario sin multicolinealidad:

Esta es la principal consecuencia de la multicolinealidad.


Dado que dos o más variables explicativas están
significantemente relacionadas, se torna un poco difícil
identificar precisamente los efectos de las variables
colineales por separado.

30
Las Consecuencias de la Multicolinealidad

Cuando se dificulta poder distinguir el efecto de una


variable del efecto de otra variable, existe una mayor
probabilidad de cometer errores al estimar los parámetros
que en el escenario donde no existe multicolinealidad.

Como resultado, los coeficientes estimados, aunque siguen


siendo insesgados, ahora vendrán de una distribución con
varianzas mucho más grandes y, por ende, errores
estándar mucho mayores.

31
Las Consecuencias de la Multicolinealidad
Aunque las varianzas y errores estándar son mayores en presencia de
multicolinealidad, MICO sigue siendo MELI cuando existe
multicolinealidad. Esto implica que ninguna otra técnica de
estimación puede obtener menores varianzas que MICO en la
presencia de multicolinealidad.

Esto implica que, aunque la multicolinealidad aumente la varianza de


los coeficientes estimados, MICO aun posee la propiedad de mínima
varianza, la diferencia es que estas “varianzas mínimas” son
relativamente grandes.

La figura siguiente compara una distribución de 𝛽s መ que provienen de


una muestra con severa multicolinealidad contra una muestra con
virtualmente correlación 0 entre las variables independientes.

32
Las Consecuencias de la Multicolinealidad

33
Las Consecuencias de la Multicolinealidad

Noten que ambas distribuciones tienen la misma media,


indicando que la multicolinealidad no causa sesgo.

Adicionalmente noten como la distribución con


multicolinealidad es mucho más ancha que en el caso sin
multicolinealidad; este es el resultado de incrementar el error
estándar de 𝛽መ que es causada por la multicolinealidad.

Debido a esta mayor varianza, la multicolinealidad incrementa


la probabilidad de obtener signos contrarios a los teóricamente
esperados aunque, como mencionamos anteriormente, la
multicolinealidad no causa sesgo.

34
Las Consecuencias de la Multicolinealidad
3. Los valores t calculados disminuirán: La multicolinealidad
tiende a reducir los resultados de los valores t de los
coeficientes estimados por la manera en que fueron
calculados:

𝛽መ𝑘 − 𝛽𝑘
𝑡=
𝑆𝐸 𝛽መ𝑘

Noten que la ecuación está dividida por el error estándar del


coeficiente estimado. La multicolinealidad incrementa el error
estándar del coeficiente estimado, por lo que si el error
estándar aumenta, entonces el valor t calculados se reducirá.
35
Las Consecuencias de la Multicolinealidad

Dado esto, no es soprendente ver valores de estadísticos t


calculados en ecuaciones con multicolinealidad a que resulten
números cercanos a 0.

Similarmente, los intervalos de confianza estimados serán más


anchos. Esto es también por el incremento de los errores
estándar de los coeficientes estimados.

Viendolo desde otra perspectiva, dado que 𝛽መ tiene mayor


probabilidad de alejarse del valor del parámetro poblacional, el
intervalo de confianza se ve forzado a incrementar su rango de
error.

36
Las Consecuencias de la Multicolinealidad

4. Las estimaciones serán muy sensibles a cambios en la


especificación:

La entrada o salida de una variable explicativa o de alguna(s)


observación(es) usualmente causarán cambios significativos sobre
los valores de los parámetros calculados cuando existe
multicolinealidad significativa.

Si se elimina una variable, aunque sea una que parece ser


estadísticamente insignificante, el coeficiente de las variables
que permanecieron en la ecuacion tenderán a cambiar
drásticamente.

37
Las Consecuencias de la Multicolinealidad
Estos grandes cambios ocurren porque la estimacion de MICO se ve
forzada a enfatizar las diferencias mínimas entre variables para
poder distinguir los efectos de una variable multicolineal de lo de
otra.

Si dos variables son virtualmente idénticas para la mayor parte de la


muestra, el procedimiento de estimación depende de cuáles variables
se mueven distintas para distinguir el efecto de una sobre el de la
otra.

Como resultado, el cambio de especificación ocasionado por eliminar


una variable que tiene un valor inusual para una de estas
observaciones cruciales pueden ocasionar un cambio drástico en los
coeficientes estimados de las variables multicolineales.

38
Las Consecuencias de la Multicolinealidad

5. El ajuste de la ecuación en general y la estimación de los


coeficientes de las variables no colineales resultarán inafectados en
la mayoría de los casos:

Aunque los estadísticos t calculados individualmente serán bajos para


la ecuación en presencia de multicolinealidad, el ajuste de la ecuación
en general, medido por el 𝑅2 , no se verá afectado en una gran
medida (y en algunos casos no se verá afectado en lo absoluto) en la
presencia de multicolinealidad.

Dado esto, una de los primeros indicios de multicolinealidad es una


combinación de una alta significancia global (𝑅2 alto) y coeficientes
no significativos individualmente.

39
Las Consecuencias de la Multicolinealidad

De manera similar, si una variable explicativa en la


ecuación no es colineal con otra de las variables, entonces
la estimación de su coeficiente y su error estándar puede
verse no afectado.

Debido a que el ajuste global del modelo parece permanecer


intacto, es altamente posible que el estadístico calculado F
de signficancia global se rechace. Lo cual es un claro indicio
de multicolinealidad imperfecta.

40
Las Consecuencias de la Multicolinealidad

Finalmente, dado que la multicolinealidad tiene muy poco


efecto sobre el ajuste de la ecuación en general, también
tendrá muy poco efecto sobre la ecuación para predicción,
siempre y cuando las variables independientes mantengan
el mismo patrón de multicolinealidad en el período a
predecir que el mostrado en la muestra.

41
Ejemplo Consecuencias de la Multicolinealidad

Para ver lo que significa multicolinealidad severa obre la ecuación


estimada, veamos un ejemplo teórico.

Suponga que decide estimar la función de consumo de un estudiante.


Luego de su trabajo investigativo inicial, decide utilizar la siguiente
relación para la estimación:

𝐶𝑂𝑖 = 𝛽0 + 𝛽1 𝑌𝑑𝑖 + 𝛽2 𝐿𝐴𝑖 + 𝑒𝑖

Donde CO es el gasto en consumo anual de un estudiante en artículos


que no sean relacionados a su educación, YD es el ingreso disponible
(incluyendo regalos) de un estudiante y LA son los activos líquidos del
estudiante (cuenta corriente, cuenta de ahorros…)

42
Ejemplo Consecuencias de la Multicolinealidad
Se utilizó la siguiente muestra de las personas que están sentados
cerca de ti en la clase:

Utilizando MICO se estimó la siguiente relación:

෢ 𝑖 = −367.83 + 0.5113𝑌𝑑𝑖 + 0.0427𝐿𝐴𝑖 + 𝑒𝑖


𝐶𝑂 𝑅ത 2 = 0.835
(𝑡) 0.496 0.453

43
Ejemplo Consecuencias de la Multicolinealidad

Por otro lado, si se hubiese estimado el consumo como una


función sólo del ingreso disponible, entonces hubiésemos
obtenido:

෢ 𝑖 = −471.43 − 0.9714𝑌𝑑𝑖 + 𝑒𝑖
𝐶𝑂 𝑅ത 2 = 0.861
(𝑡) 6.187

Noten la diferencia que obtenidas en las pruebas t para ingreso


disponible en ambas ecuaciones. Cuando se eliminan los activos
líquidos de la ecuación, el parámetro pasa de ser insignificante a
ser significativo.

44
Ejemplo Consecuencias de la Multicolinealidad

¿Por qué sucede esto? Primero que nada, la correlación entre YD y


LA es bastante alta. Este alto nivel de correlación causa que los
errores estándar de los coeficientes estimados aumenten cuando
ambas variables están incluídas. En el caso de 𝛽መ𝑌𝑑 el error estándar
pasa de 0.157 a 1.03 sólo por la inclusión de LA.

En adición a esto, los coeficientes estimados también cambian.


También, noten que el coeficiente de determinación ajustado es
bastante similar, aunque dice que el modelo sin LA es mejor que
cuando está incluída.

Todas estas caracteríticas son típicas de una estimación con


multicolinealidad.

45
Ejemplo Consecuencias de la Multicolinealidad

¿Cuál ecuación es mejor? Si teóricamente la variable de activos


líquidos debería estar en el modelo, entonces eliminarla del
modelo hace que corramos el riesgo de incurrir en sesgo por
omisión, pero incluirla implica tener multicolinealidad.

Para esta pregunta no hay respuesta automática cuando se


involucra la multicolinealidad.

Discutiremos más adelante este problema en las próximas


secciones de esta discusión.

46
Ejemplo Consecuencias de la Multicolinealidad

Un segundo ejemplo de las consecuencias de la multicolinealidad está


basado en una pregunta empírica en vez de hipotética:

Suponga que decide construir un modelo de corte transversal de la


demanda de gasolina por provincia:

𝑃𝐶𝑂𝑁 = 𝛽0 + 𝛽1 𝑈𝐻𝑀 + 𝛽2 𝑇𝐴𝑋 + 𝛽3 𝑅𝐸𝐺 + 𝑒

Donde PCON es el consumo de petróleo en la provincia (en trillones


de galones), UHM es el número de millas en carretera en la
provincia, TAX es el impuesto sobre la gasolina en la provincia (en
centavos por galón) y REG es el número de vehículos registrado en
una provincia (en miles).

47
Ejemplo Consecuencias de la Multicolinealidad

Se estimó la siguiente ecuación por MICO:

෣ = 389.6 + 60.8𝑈𝐻𝑀 − 36.5𝑇𝐴𝑋 − 0.061𝑅𝐸𝐺 + 𝑒


𝑃𝐶𝑂𝑁 𝑛 = 50 𝑅ത 2 = 0.919
10.3 13.2 0.043

¿Qué está mal en esta ecuación?

48
Ejemplo Consecuencias de la Multicolinealidad

El número de vehículos de motor registrados presenta ser


insignificante y con un signo contrario al esperado teóricamente,
pero es muy difícil que esta variable no sea relevante.

¿Puede haber un sesgo por omisión de variables? Es posible, pero


agregar una variable es difícil que arregle las cosas.

¿Puede que ayude que la correlación entre REG y UHM es muy alta?
Puede ser que una de las dos variables son redundantes; ambas
variables están efectivamente midiendo el tamaño del estado, por lo
que es altamente posible que sea problemas de multicolinealidad.

49
Ejemplo Consecuencias de la Multicolinealidad

Noten el impacto de la multicolinealidad en esta ecuación.


El coeficiente de la variable REG, la cual tiene una relación
fuerte con el consumo del petróleo teóricamente, es
insignificante y con el signo contrario al teóricamente
esperado.

Esto es básicamente por la consecuencia de la


multicolinealidad de inflar las varianzas de las estimaciones
de los parámetros.

50
Ejemplo Consecuencias de la Multicolinealidad

¿Qué sucedería si eliminamos una de estas variables del


modelo?

෣ = 551.7 − 53.6𝑇𝐴𝑋 + 0.186𝑅𝐸𝐺 + 𝑒


𝑃𝐶𝑂𝑁 𝑛 = 50 𝑅ത 2 = 0.861
16.9 0.012

Eliminar UHM hizo que REG sea significativa. ¿Por qué


ocurrió eso? La respuesta a esto es el error estándar del
coeficiente de REG, el cual se redujo sustancialmente (de
0.043 a 0.012) luego de eliminar la multicolinealidad.
51
Ejemplo Consecuencias de la Multicolinealidad

También noten que el signo del coeficiente estimado ahora


es positivo (como debe ser según nuestra intuición).

La razón de esto es que REG y UHM son indistinguibles


desde un punto de vista empírico, por lo que MICO se
nutre de hasta las mínimas diferencias entre estas dos
variables para explicar los movimientos de PCON.

Luego de eliminar la multicolinealidad, la relación positiva


entre REG y PCON era obvia.

52
Ejemplo Consecuencias de la Multicolinealidad

Cualquiera de las dos variables (UHM o REG) pudieron ser


eliminadas para resolver este problema, ya que, desde un
punto de vista cuantitativo, son virtualmente idénticas.

¿Por qué eliminamos UHM y no REG? Simple. Porque desde


un punto de vista teórico la variable UHM es urbana,
mientras que REG es provincial, lo cual es mejor si
queremos modelar el consumo de petróleo a nivel
provincial.

53
Ejemplo Consecuencias de la Multicolinealidad

Noten que desde el punto de vista de comparación de modelos,


el 𝑅ത 2 se reduce al momento de eliminar UHM.

Según vimos en el capítulo 8, debería quedarse en el modelo


UHM. Sin embargo, para eliminar la multicolinealidad, decimos
que la ecuación con menor 𝑅ത 2 es mejor.

Este es un ejemplo de que no sólo el ajuste de la ecuación


estimada a los datos es lo más importante para determinar la
calidad de un modelo.

54
La Detección de la Multicolinealidad
La Detección de la Multicolinealidad
¿Cómo podemos detectar que una ecuación tiene un problema severo
de multicolinealidad? Un primer punto de partida es aceptar que en
cierta medida, todas las ecuaciones estimadas tienen
multicolinealidad.

Es virtualmente imposible encontrar un set de variables


independientes que son totalmente no correlacionadas unas con las
otras (con la excepción de datos de experiementos controlados).

Nuestro objetivo es detectar qué tan alto es el grado de


multicolinealidad en nuestra ecuación y no si existe o no
multicolinealidad.

56
La Detección de la Multicolinealidad
Un segundo punto es que el grado de multicolinealidad en una
ecuación dada puede cambiar de muestra en muestra dependiendo
de las características de la muestra.

Como resultado, los fundamentos teóricos de la ecuación no son tan


importantes en la detección de la multicolinealidad como lo son en
la detección de una forma funcional incorrecta o de sesgo por
omisión de variables.

En vez de esto, tendemos a basarnos en técnicas orientados a datos


para determinar la severidad de la multicolinealidad. Sin embargo,
no podemos ignorar la teoría detrás de la ecuación. El truco está en
encontrar cuáles variables son teóricamente relevantes y que son
estadísticamente no colineales.

57
La Detección de la Multicolinealidad

Debido a que la multicolinealidad es un fenómeno y el nivel de


daño del impacto es una cuestión del grado, muchas de las
metodologías utilizadas son pruebas informales sin valores
críticos ni nivel de significancia.

No existe ninguna prueba estadística generalmente aceptada


para detectar multicolinealidad severa.

La mayoría de los investigadores tienden a desarrollar pruebas


para detectar el grado de multicolinealidad analizando las
características de la ecuación. Examinemos dos de las más
utilizadas.

58
Coeficientes de Correlación Muestral Altos

Una manera de detectar multicolinealidad severa es


examinar los coeficientes de correlación muestrales entre
variables independientes.

El coeficiente de correlación muestral, r, es la medida de la


fortaleza y la dirección de la relación lineal entre las
variables independientes. El rango de r va de -1 a 1, y el
signo indica la dirección de la relación entre las dos
variables. Mientras más cercano a 1 sea el valor absoluto de
r, más fuerte será la correlación entre ambas variables.

59
Coeficientes de Correlación Muestral Altos

En nuestro ejemplo, el ingreso disponible y los activos líquidos


tienen un coeficiente r=0.986. Un coeficiente tan alto puede
casi asegurar que la multicolinealidad en este caso es severa.

¿Qué tan grande debe ser un r para ser considerado alto?


Depende del criterio del investigador pero muchos
investigadores han dicho que un |r|>0.8 puede ser considerado
alto. Una respuesta más robusta sería que dependerá de cuál es
el nivel en que r hace que las varianzas estimadas de los
coeficientes sean demasiado grandes.

60
Coeficientes de Correlación Muestral Altos

¡Cuidado! El uso de los coeficientes de correlación es un


indicio de que tan grande es el problema de
multicolinealidad pero tiene como restricción que no puede
ver correlaciones altas entre tres o más variables
explicativas. Es muy posible que para grupos de variables
explicativas, no se vea un coeficiente de correlación alto.

Como resultado, el coeficiente de correlación debe ser una


cualidad suficiente pero no necesaria de las pruebas de
existencia de multicolinealidad severa.

61
Factores de Inflación de Varianzas Altos

El uso de pruebas para detectar la severidad del problema


de multicolinealidad en una muestra en particular es
controversial. Algunos econometristas rechazan incluso el
uso del coeficiente de correlación por las limitantes antes
vistas. Algunos otros tienden a utilizar pruebas más
robustas.

Una medida de la severidad de la multicolinealidad que es


fácil de utilizar es el factor de inflación de la varianza (VIF).

62
Factores de Inflación de Varianzas Altos

Este es un método para detectar la multicolinealidad


viendo qué tanto puede una variable explicativa ser
utilizada por las otras variables independientes del modelo.

Existe, por ende, un VIF por cada variable explicativa el


cual indicaría qué tanto incrementa la varianza estimada
de un coeficiente estimado, lo cual llevaría a resultados t
más bajos.

63
Factores de Inflación de Varianzas Altos

Suponga que quiere utilizar el VIF para intentar detectar


problemas de multicolinealidad severa en la ecuación
original con k variables independientes:

𝑌 = 𝛽0 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + ⋯ + 𝛽𝑘 𝑋𝑘 + 𝑒

Esto implicaría que se deberá calcular el VIF para cada una


de las variables independientes, lo cual involucre dos pasos:

64
Factores de Inflación de Varianzas Altos
1. Estime una regresión por MICO en el que se modela Xi como una
función de todas las otras variables explicativas. Por ejemplo:

𝑋1 = 𝛼1 + 𝛼2 𝑋2 + ⋯ + 𝛼𝑘 𝑋𝑘 + 𝜔

2. Se calcula el VIF:

1
𝑉𝐼𝐹 𝛽መ𝑖 =
1 − 𝑅𝑖2

Donde 𝑅𝑖2 es el coeficiente de determinación de la ecuación encontrada en


(1). Mientras más grande este coeficiente de determinación, mayor la
relación entre variables independientes, mayor será el VIF de dicho
coeficiente.

65
Factores de Inflación de Varianzas Altos

Una regla común es que un VIF alto (indica multicolinealidad


severa) es mayor a 5 o 10, dependiendo del investigador a
quien se le pregunte.

En la ecuación del ejemplo, el VIF de ambos coeficientes


estimados es de 36, por lo que se confirma que existe un severo
problema de multicolinealidad.

No es coincidencia que ambos coeficientes tengan el mismo VIF.


En un ecuación con sólo dos variables explicativas, siempre
tendrán el mismo VIF.

66
Factores de Inflación de Varianzas Altos
Algunos autores sustituyen el VIF por el complemento del coeficiente
de determinación auxiliar, es decir, 1 − 𝑅𝑖2 , llamado tolerancia o TOL.
De ambas maneras se llegaría a un resultado similar.

Sin embargo, el uso de VIFs tiene limitantes:

✓ No hay una regla fuerte de decision.


✓ Es posible obtener multicolinealidad severa en ecuaciones sin VIFs
altos.

En esencia, al igual que el coeficiente de correlación, el VIF es una


prueba suficiente pero no necesaria para detectar multicolinealidad
severa.

67
Los Remedios de la Multicolinealidad
Los Remedios de la Multicolinealidad

Luego de detectado el problema de multicolinealidad


severo, ¿qué podemos hacer para minimizarlo?

No existe una respuesta automática a esta pregunta porque


la multicolinealidad es un fenómeno que cambia de
muestra en muestra por la misma especificación de la
ecuación de regresión.

69
¡No Hacer nada!

La primera decisión a tomar luego de detectada la


multicolinealidad severa es si se debe hacer algo al respecto o
no. Como veremos, todos las posibles opciones para resolverlas
traerán consigo efectos no deseados, por lo que puede que hacer
nada sea la solución más viable.

Una razón que apoya esto es saber que la multicolinealidad


severa no siempre reducirá los valores calculados t para hacer
que la hipótesis nula de insignificancia no se rechace.

Es decir, la mera existencia de multicolinealidad no tiene por


qué significar algo.

70
¡No Hacer nada!

Sólo se debe hacer algo al respecto con la multicolinealidad


si se nota está causando estragos en la regresión.

Una segunda razón a favor de no hacer nada es que la


eliminación de la variable multicolineal que debe estar en la
ecuación traerá consigo sesgo por omisión y problemas de
especificación. Sería ingenuo pensar que el problema de
multicolinealidad será siempre mayor que el sesgo creado
por manipulación intencional.

71
¡No Hacer nada!

Una útima razón a favor de no hacer nada es que como la


multicolinealidad severa es un problema de muestra,
corregir el modelo para una muestra en particular, podría
causar problemas de especificación si se realizara la
regresión con otra muestra, es decir, si la nueva
especificación corrige un problema que en general la
población no tenía.

72
¡No Hacer nada!

En conclusión, a veces es mejor no corregir la ecuación en


el caso de tener multicolinealidad, a menos que sea
extrema. Esto es posiblemente difícil de entender para
pichones de econometristas como ustedes, porque no
quisieran reportar una regresión final con parámetros
insignificantes. Sin embargo, este podría ser el problema
menos grave si vemos las posibles alternativas.

73
Eliminar una Variable Redundante

En ocasiones, la solución más sencilla para eliminar la


multicolinealidad es eliminar una de las variables colineales.
Por ejemplo, un investigador ingenuo podría poner muchas
variables en sus regresiones, para no incurrir en sesgo por
omisión de variables importantes.

Como resultado, puede que dos o más variables en la


ecuación están midiendo lo mismo, por lo que una o varias
serían redundantes, ya que teóricamente cumplen con el
mismo papel.

74
Eliminar una Variable Redundante

Retornando al ejemplo del consumo de los estudiantes,


nuestro modelo original era:

෢ 𝑖 = −367.83 + 0.5113𝑌𝑑𝑖 + 0.0427𝐿𝐴𝑖 + 𝑒𝑖


𝐶𝑂 𝑅ത 2 = 0.835
(𝑡) 0.496 0.453

75
Eliminar una Variable Redundante
Inicialmente, eliminamos los activos líquidos y obtuvimos esta ecuación:

෢ 𝑖 = −471.43 − 0.9714𝑌𝑑𝑖 + 𝑒𝑖
𝐶𝑂 𝑅ത 2 = 0.861
(𝑡) 6.187

Pero si hubiesemos eliminado el ingreso disponible hubiesemos encontrado


este resultado:

෢ 𝑖 = −199.44 + 0.08876𝐿𝐴𝑖 + 𝑒𝑖
𝐶𝑂 𝑅ത 2 = 0.860
(𝑡) 0.01433

Noten que eliminando cualquiera de las dos hubiésemos obtenido el mismo


resultado: una ecuación sin multicolinealidad severa.

76
Eliminar una Variable Redundante

Asumiendo que desean eliminar una variable redundante,


¿cómo decidirían cuál variable eliminar? En casos de
multicolinealidad extrema, cuál variable debe ser eliminada no
es una decision estadística, porque estadísticamente cualquier
eliminación puede que resuelva el problema.

Como resultado, se debe decidir cuál eliminar en base a


intuición económica. Por ejemplo, en el caso del consumo de los
estudiantes, hace más sentido utilizar el ingreso disponible sobre
los activos líquidos desde un punto de vista teórico, por lo que se
debería eliminar la variable de activos líquidos.

77
Aumentar el Tamaño de la Muestra
Otra manera de enfrentarse a la multicolinealidad es
intentar aumentar la muestra utilizada para reducir el
grado de multicolinealidad. Aunque a veces esto es
imposible, es una alternativa viable en algunos casos.

La idea detrás de incrementar el tamaño de la muestra es


que mientras más grande es la muestra, más robustos y
exactos serán los estimadores. Adicionalmente, la varianza
de los coeficientes es inversamente proporcional al tamaño
de la muestra, lo cual reduciría el impacto de la
multicolinealidad severa.
78
Aumentar el Tamaño de la Muestra

Para la mayoría de las variables de series de tiempo, esta


solución no es factible. La muestra suele ser construida a
partir de toda la información disponible.

En datos de corte transversal o experimentales, es mucho


más fácil hacer esto, que esperar el pasar del tiempo.

79
¿Por qué algunas veces es mejor dejar
la Multicolinealidad sin tratar?
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Veamos un ejemplo de multicolinealidad donde es major


dejarla sin arreglar, ya que la enfermedad podría ser peor
a la medicina.

Supongan que trabajan en un departamento de Mercadeo


de una compañía de gaseosas y construye un modelo del
impacto sobre las ventas de su política de publicidad.

81
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?
𝑆መ𝑡 = 3080 − 75,000𝑃𝑡 + 4.23𝐴𝑡 − 1.04𝐵𝑡
𝐸𝐸 25,000 1.06 0.51
𝑡 −3 3.99 −2.04
𝑅ത 2 = 0.825 𝑛 = 28

Donde St son las ventas de gaseosas en el año t, Pt es el


precio promedio de la bebida en el año t, At es el gasto en
publicidad de la compañía en el año t y Bt es el gasto en
publicidad de la principal compañía competidora en el año
t.
82
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

A tomar en consideración:

• Asuman que no existen variables omitidas.


• Todas las variables están medidas en dólares
estadounidenses reales.

83
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

En primer momento, este modelo resulta particularmente


decente:

• Los coeficientes estimados son significativos en las


direcciones que dice la teoría económica.
• Existe ajuste global del modelo.
• Las magnitudes de los coeficientes estimados son
adecuados.

84
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?
Suponga ahora que les dicen que la publicidad en el Mercado de
gaseosas es bastante dificil y que las empresas tienden a igualar
el gasto de publicidad de sus competidores.

Esto llevaría a pensar que deberíamos sospechar la existencia


posible de multicolinealidad.

Analizando más a fondo se percatan que el coeficiente de


correlación muestral entre las dos variables es 0.974 y ambas
variables tienen VIF muy por encima de 5.

85
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Un nivel de correlación tan alto puede ser evidencia para


comprobar la existencia de multicolinealidad, pero no existe
evidencia en el modelo para soportar esta noción: ya que
los coeficientes estimados son tan buenos que aun bajo
presencia de multicolinealidad siguen siendo significativos.

Es por esto que, a menos que la multicolinealidad cause


problemas en la ecuación estimada, se debería dejar sin
tratar.

86
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Cambiar la especificación del modelo podría darnos


resultados más convincentes, pero este ajuste reduce la
probabilidad de obtener los mejores estimadores posibles de
los verdaderos coeficientes poblacionales.

Aunque fuimos bastante suertudos de que no tuvimos


problemas mayores por multicolinealidad en este ejemplo,
esa suerte no es razón para intentar arreglar algo que “no
está mal”.

87
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?
Cuando una variable de las problemáticas es eliminada del
modelo, su efecto será absorbido por las demás variables
explicativas dependiendo de su correlación con cada una de las
variables que aun permanecen en el modelo.

Es muy posible que la multicolinealidad absorba todo el sesgo,


dado que las variables son altamente correlacionadas.

Es por esto que este sesgo por omisión podría eliminar cualquier
potencial que tenía la ecuación estimada antes de que la
variable fuese ignorada.

88
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Por ejemplo, si eliminamos la variable B para solucionar la


multicolinealidad, entonces sucedería lo siguiente:

𝑆መ𝑡 = 2586 − 78,000𝑃𝑡 + 0.52𝐴𝑡


𝐸𝐸 24,000 4.32
𝑡 −3.25 0.12
𝑅ത 2 = 0.531 𝑛 = 28

89
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?
¿Qué sucedió?

El coeficiente del gasto en publicidad de la compañía pasa a ser


no significativo cuando una de las variables colineales es
eliminada.

Para entender el porqué, noten que el sesgo esperado sobre el


parámetro es negativo porque el product entre el signo
esperado del parámetro de B y la correlación entre A y B es
negativo:

𝑆𝑒𝑠𝑔𝑜 = 𝛽መ𝐵 𝑟𝐴,𝐵 = − + = −

90
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Adicionalmente, el sesgo negativo es lo suficientemente


fuerte como para reducir el coeficiente estimado de A
hasta hacerlo insignificante (aunque este problema pudo ser
evitado si se hubiese sustituido por otra medida relativa de
publicidad, por ejemplo, A/B).

91
¿Por qué algunas veces es mejor dejar la
Multicolinealidad sin tratar?

Este ejemplo es bastante simple pero ilustrativo del porqué


hay que tener cuidado al intentar resolver
multicolinealidad eliminando una de las variables sin tomar
en consideración el efecto que tendrá esta omisión.

Lo importante aquí es que muchas veces no es prudente la


eliminación de una variable de la ecuación sólo para
solucionar un problema de multicolinealidad. Por eso es
mejor, ¡NO HACER NADA!

92

También podría gustarte