Documentos de Académico
Documentos de Profesional
Documentos de Cultura
TEMA: LA MULTICOLINEALIDAD
Materia: ECONOMETRIA
Sigla /Grupo: Eco-300 5C
Docente: Ing. Edson Llanos
Universitario: Daniela Lucas Melgarejo
Registro: 221121927
OBJETIVO
1. Identificar y eliminar variables redundantes: La multicolinealidad ayuda a identificar
variables que tienen una relación estrecha entre sí. Esto permite identificar y eliminar las
variables redundantes, evitando así la redundancia de información en el modelo.
2. Mejorar la precisión del modelo: La multicolinealidad puede afectar negativamente la
precisión de los modelos de regresión, ya que puede dificultar la interpretación de los
coeficientes. Al eliminar la multicolinealidad, se puede mejorar la precisión del modelo y
hacer que los resultados sean más confiables.
3. Evitar la inferencia incorrecta: La presencia de multicolinealidad puede llevar a
inferencias incorrectas en el análisis. Por ejemplo, puede llevar a atribuir una relación
incorrecta entre una variable independiente y la variable dependiente, o puede llevar a
sobrestimar o subestimar los efectos de las variables independientes.
4. Estabilidad de los coeficientes: La multicolinealidad puede hacer que los coeficientes de
regresión sean inestables y sensibles a pequeños cambios en los datos. Al eliminar la
multicolinealidad, se puede mejorar la estabilidad de los coeficientes, lo que facilita la
interpretación de los resultados.
5. Mejorar la interpretabilidad del modelo: La presencia de multicolinealidad puede
dificultar la interpretación de los resultados del modelo. Al eliminar la multicolinealidad, se
puede mejorar la interpretabilidad del modelo, lo que facilita la toma de decisiones basada
en los resultados.
DESARROLLO DEL TEMA
CONCEPTO LA MULTICOLINEALIDAD
La multicolinealidad ocurre cuando las variables independientes (predictores) en un modelo
de regresión están correlacionadas.
Las variables independientes deberían ser eso, independientes. Y esto se debe a que, si
el grado de correlación entre las variables independientes es alto, no podremos aislar la
relación entre cada variable independiente y la variable dependiente (respuesta).
¡Si no podremos aislar los efectos podríamos confundir sus efectos!
Es decir, cuando las variables independientes están muy correlacionadas los cambios en
una variable están asociados con cambios en otra variable y, por tanto, los coeficientes
de regresión del modelo ya no van a medir el efecto de una variable independiente sobre la
respuesta manteniendo constante, o sin variar, el resto de predictores.
Puntos clave de la multicolinealidad
La multicolinealidad es un concepto estadístico en el que se relacionan varias
variables independientes en un modelo.
Dos variables se consideran perfectamente colineales si su coeficiente de
correlación es +/- 1,0.
La multicolinealidad entre variables independientes dará como resultado inferencias
estadísticas menos confiables.
Es mejor utilizar variables independientes no correlacionadas o repetitivas cuando
se construyen modelos de regresión múltiple que utilizan dos o más variables.
La existencia de multicolinealidad en un conjunto de datos puede generar resultados
menos confiables debido a errores estándar más grandes.
Naturaleza de la multicolinealidad
El término multicolinealidad se atribuye a Ragnar Frisch. Originalmente, designaba una
relación lineal “perfecta” o exacta entre algunas o todas las variables explicativas de un
modelo de regresión. Para la regresión con k variables que incluye las variables explicativas
X1, X2, . . . , Xk (donde X1 = 1 para todas las observaciones de forma que den cabida al
término del intercepto), se dice que existe una relación lineal exacta si se satisface la
siguiente condición:
λ1X1 + λ2X2 +···+ λk Xk = 0
donde λ1, λ2,. . . , λk, son constantes tales que no todas son simultáneamente iguales a cero.
Hoy en día, sin embargo, el término multicolinealidad incluye el caso de multicolinealidad
perfecta, como lo indica y también el caso en el cual hay X variables intercorrelacionadas
pero no en forma perfecta, de la siguiente manera:
λ1X1 + λ2X2 +···+ λ2Xk + vi =0
donde vi es un término de error estocástico.
Para apreciar la diferencia entre multicolinealidad perfecta y multicolinealidad menos que
perfecta suponga, por ejemplo, que λ2 # 0. Entonces, se escribe como
X2i =−λ1/ λ2 x X1i − λ3 /λ2 x X3i −···− λk/ λ2 x Xki
que muestra la forma como X2 está exactamente relacionada de manera lineal con otras
variables, o cómo se deriva de una combinación lineal de otras variables X. En esta
situación, el coeficiente de correlación entre la variable X2 y la combinación lineal del lado
derecho de está obligado a ser igual a uno. En forma similar, si λ2#0, la ecuación se escribe
como:
X2i= −λ1 /λ2 x X1i − λ3/ λ2 x X3i −···− λk /λ2 x Xki – 1/ λ2 x vi
lo cual muestra que X2 no es una combinación lineal exacta de otras X porque está
determinada también por el término de error estocástico vi.
Fuentes de la multicolinealidad
Existen diversas fuentes de multicolinealidad. Como afirman Montgomery y Peck, la
multicolinealidad puede deberse a los siguientes factores:
1. El método de recolección de información. Por ejemplo, la obtención de muestras en un
intervalo limitado de valores tomados por las regresoras en la población.
2. Restricciones en el modelo o en la población objeto de muestreo. Por ejemplo, en la
regresión del consumo de electricidad sobre el ingreso (X2) y el tamaño de las viviendas
(X3) hay una restricción física en la población, pues las familias con ingresos más altos
suelen habitar viviendas más grandes que las familias con ingresos más bajos.
3. Especificación del modelo. Por ejemplo, la adición de términos polinomiales a un
modelo de regresión, en especial cuando el rango de la variable X es pequeño.
4. Un modelo sobre determinado. Esto sucede cuando el modelo tiene más variables
explicativas que el número de observaciones. Esto puede suceder en investigación médica,
donde en ocasiones hay un número reducido de pacientes sobre quienes se reúne
información respecto de un gran número de variables.
Otra razón para la multicolinealidad, sobre todo en los datos de series de tiempo, puede ser
que las regresoras del modelo compartan una tendencia común; es decir, que todas
aumenten o disminuyan a lo largo del tiempo. Por tanto, en la regresión del gasto de
consumo sobre el ingreso, la riqueza y la población, las regresoras ingreso, riqueza y
población tal vez todas crezcan con el tiempo a una tasa aproximadamente igual, con lo
cual se presentaría la colinealidad entre dichas variables.
Causas de la multicolinealidad
La multicolinealidad puede tener varias causas, y es importante entenderlas para poder
detectarla y evitarla en un análisis de regresión. Algunas de las causas comunes incluyen:
1. Variables predictoras altamente correlacionadas: El modelo de regresión asume que las
variables predictoras son independientes entre sí.
Si hay una correlación fuerte entre dos o más variables, esto puede hacer que sea difícil
distinguir la contribución única de cada variable al modelo. Por ejemplo, las variables de
ingreso y educación pueden estar altamente correlacionadas en un conjunto de datos, lo que
hace que sea difícil determinar cuál de ellas es el principal predictor de un resultado
determinado.
2. Variables predictoras medidos en la misma escala: Si todas las variables predictoras se
miden en la misma escala (por ejemplo, en una escala de 0 a 10), esto puede hacer que sea
difícil distinguir cuál de las variables está contribuyendo a la predicción de un resultado. Si
hay una correlación fuerte entre las variables, esto puede crear multicolinealidad.
3. Tamao de muestra pequeo: La multicolinealidad también puede surgir en muestras
pequeas, especialmente si las variables están altamente correlacionadas.
4. Categorización de variables predictoras: Las variables predictoras categorizadas pueden
crear multicolinealidad si hay demasiadas categorías. Por ejemplo, si se tienen varias
categorías de ingresos (por ejemplo, bajo, medio y alto), esto puede crear correlaciones
fuertes entre ellas y hacer que sea difícil distinguir cuál es el principal predictor de un
resultado. Detección de la multicolinealidad La multicolinealidad puede ser detectada
mediante varias técnicas.
Consecuencias prácticas de la multicolinealidad
La multicolinealidad provoca 3 tipos de problemas:
-El valor de los coeficientes de regresión del modelo cambia si incluyes o no otras variables
independientes, y por lo tanto dificulta la interpretación del modelo.
-Se reduce su precisión de nuestras estimaciones (aumenta el error estándar de los
coeficientes de regresión).
-La significación estadística (p-valor) de los coeficientes de regresión del modelo se vuelve
menos confiable, como consecuencia del ítem anterior, y por lo tanto es difícil identificar
variables independientes a incluir en el modelo.
En los casos de casi o alta multicolinealidad es probable que se presenten las
siguientes consecuencias:
1. Aunque los estimadores de MCO son MELI, presentan varianzas y covarianzas grandes
que dificultan la estimación precisa.
2. Debido a la consecuencia 1, los intervalos de confianza tienden a ser mucho más
amplios, lo cual propicia una aceptación más fácil de la “hipótesis nula cero” (es decir, que
el verdadero coeficiente poblacional es cero).
3. También debido a la consecuencia 1, la razón t de uno o más coeficientes tiende a ser
estadísticamente no significativa.
4. Aunque la razón t de uno o más coeficientes sea estadísticamente no significativa, R2, la
medida global de bondad de ajuste, puede ser muy alta.
5. Los estimadores de MCO y sus errores estándar son sensibles a pequeños cambios en los
datos.
Las consecuencias anteriores se demuestran de la siguiente manera.
Estimadores de MCO con varianzas y covarianzas grandes
Para ver varianzas y covarianzas grandes, recuerde que, para el modelo, las varianzas y
covarianzas de βˆ 2 y βˆ 3 están dadas por: _
CLASES DE COLINEALIDAD
EJEMPLOS DE MULTICOLINEALIDAD
EJEMPLO #1
EJEMPLO#2
EJEMPLO #3
En Inversiones
Para las inversiones, la multicolinealidad es una consideración común cuando se realiza un
análisis técnico para predecir los probables movimientos futuros del precio de un valor,
como una acción o un futuro de materias primas.
Los analistas de mercado quieren evitar el uso de indicadores técnicos colineales, ya que se
basan en datos muy similares o relacionados; tienden a revelar predicciones similares con
respecto a la variable dependiente de la acción del precio. En cambio, el análisis de
mercado debe basarse en variables independientes marcadamente diferentes para garantizar
que analicen el mercado desde varios puntos de vista analíticos independientes.
Un ejemplo de un posible problema de multicolinealidad es realizar un análisis técnico
utilizando solo varios indicadores similares.
El destacado analista técnico John Bollinger, creador del indicador de las Bandas de
Bollinger, señala que «una regla cardinal del uso efectivo del análisis técnico requiere
evitar la multicolinealidad entre los indicadores». Para resolver el problema, los analistas
evitan utilizar dos o más indicadores técnicos del mismo tipo. En su lugar, analizan una
acción utilizando un tipo de indicador, como un indicador de impulso, y luego realizan un
análisis separado utilizando un tipo de indicador diferente, como un indicador de tendencia.
Por ejemplo, el estocástico, el índice de fuerza relativa (RSI) y el %R de Williams son
indicadores de impulso que se basan en entradas similares y es probable que produzcan
resultados similares. En este caso, es mejor eliminar todos menos uno de los indicadores o
encontrar una manera de fusionar varios de ellos en un solo indicador, al mismo tiempo que
se agrega un indicador de tendencia que probablemente no esté altamente correlacionado
con el indicador de impulso.
en biología
La multicolinealidad también se observa en muchos otros contextos. Uno de esos contextos
es la biología humana. Por ejemplo, la presión arterial de un individuo no es colineal con la
edad, sino también con el peso, el estrés y el pulso.
CONCLUSIÓN
En conclusión, la multicolinealidad es un problema común en los modelos de regresión y
puede tener efectos negativos en la precisión y la fiabilidad de las estimaciones. Es
importante detectar y evitar la multicolinealidad en un análisis de regresión, y hay varias
técnicas disponibles para hacerlo. Al comprender las causas y los efectos de la
multicolinealidad, los investigadores pueden mejorar la calidad y la precisión de sus
modelos de regresión, es un desafío común en el análisis de regresión que puede
comprometer la fiabilidad de los resultados y las interpretaciones. Es importante identificar
y abordar la multicolinealidad de manera adecuada para garantizar análisis de regresión
precisos y confiables. Las soluciones presentadas en este estudio proporcionan enfoques
viables para reducir los efectos de la multicolinealidad y mejorar la calidad del análisis de
regresión.
BIBLIOGRAFIA
1. Belsley, D. A., Kuh, E., & Welsch, R. E. (2005). Regression Diagnostics: Identifying
Influential Data and Sources of Collinearity. Wiley.
2. Gujarati, D. N. (2003). Basic Econometrics. McGraw-Hill.
3. Hair, J. F., Black, W. C., Babin, B. J., & Anderson, R. E. (2019). Multivariate Data
Analysis. (8th ed.). Cengage Learning.