Está en la página 1de 3

Multicolinealidad y Heterocedasticidad

Numerosos métodos han sido desarrollados con el objeto de detectar la posible existencia de
multicolinealidad y sus efectos anómalos sobre un modelo de regresión.

Multicolinealidad es el término usualmente utilizado para referirse a la existencia de relaciones


lineales o cuasilineales entre las variables predictoras en un modelo lineal, lo que indica que parte
sustancial de la información en una o más de estas variables es redundante.

Mandell (1982) señala que una de las principales dificultades en el uso de estimaciones mínimo
cuadráticas es la presencia de este fenómeno que, aun cuando no afecta la capacidad predictiva
del modelo, representa un problema grave si su propósito fundamental es evaluar la contribución
individual de las variables explicativas. Esto es debido a que en presencia de multicolinealidad los
coeficientes bj tienden a ser inestables, es decir sus errores estándar presentan magnitudes
indebidamente grandes. Esta falta de precisión afecta los contrastes parciales diseñados para
evaluar la contribución individual de cada variable explicativa, corriéndose un alto riesgo de no
encontrar significación en variables que realmente la tengan.

Jackson (1991) subraya además que bajo condiciones de colinealidad resulta imposible distinguir
los efectos individuales de cada variable predictora, debido a que la fuerza de la correlación entre
ellas produce relaciones lineales de similar magnitud entre los coeficientes.

La multicolinealidad entre las variables explicativas se da cuando existe algún tipo de dependencia
lineal entre ellas, o lo que es lo mismo, si existe una fuerte correlación entre las mismas. La
correlación no solamente se refiere a las distintas variables dos a dos, sino a cualquier de ellas con
cualquier grupo de las restantes. Por esta razón no es suficiente (aunque sí necesaria) que en la
matriz de correlaciones bivariadas haya correlaciones altas.

El principal inconveniente de la multicolinealidad consiste en que se incrementan la varianza de los


coeficientes de regresión estimados hasta el punto que resulta prácticamente imposible establecer
su significación estadística, ya que como se sabe, el valor de t para un determinado coeficiente de
regresión es el valor de dicho coeficiente dividido por su desviación tipo. Si este es grande, el valor
de t será bajo y no llegará a la significación.

El SPSS adopta varios procedimientos para detectar multicolinealidad entre los predictores. El
primero de ellos, basado en la correlación múltiple de un determinado regresor con los restantes se
denomina Tolerancia de dicho regresor. Su valor es: 1-R(2)i

Siendo R(2)i la correlación múltiple al cuadrado de dicho regresor con los restantes. Para que haya
multicolinealidad dicha correlación ha de ser alta, o lo que es lo mismo la tolerancia baja. Además,
otro índice relacionado con éste y que nos da una idea del grado de aumento de la varianza se
denomina Factor de Inflación de la Varianza, y es precisamente el recíproco de la tolerancia. Su
valor es: VIFi = 1/1-R(2)y1

Para que no haya multicolinealidad el denominador tiene que valer cerca de la unidad, por tanto,
un poco más de 1 el valor de VIF. Cuanto mayor sea de este valor mayor multicolinealidad habrá.

Las pruebas más comunes para identificarla son las siguientes:

 Coeficientes t’s no significativos y R2 elevada: un alto R2 y el hecho de que uno o


varios coeficientes t sean poco significativos es indicativo de que nos encontramos ante
una relación importante entre variables.
 Coeficientes de correlación: medir los coeficientes de correlación entre pares de
variables es otro de los métodos más utilizados. Por encima de un 80% nos muestra que la
correlación importante.

 Factor de inflación varianza: el factor de inflación varianza (VIF) lo medimos así; nos
indica el grado en el que la varianza del estimador de mínimos cuadrados se eleva por la
colinealidad entre variables.

Existen una serie de métodos para corregir el problema de multicolinealidad. Es importante señalar
que si nuestro modelo es predictivo (no estructural) la multicolinealidad no se consideraría un
problema ya que la relación entre variables puede mantenerse en el futuro. Las técnicas más
utilizadas si queremos solucionar esto son:

 Imponer restricciones al modelo: restringir los parámetros de variables donde existe


colinealidad o bien restringir el modelo original.

 Componentes principales: obtener un conjunto de variables a partir de las originales y sin


caer en pérdida de información. Estas nuevas deben cumplir la condición de ser
ortogonales entre sí.

 Eliminar variables: el hecho de suprimir variables puede acabar con el problema, pero
cuidado, tenemos que tener en cuenta si el hecho de omitirlas puede ser un problema más
grave por su relevancia.

 Transformar variables: obtener primeras diferencias o retornos es un método


generalmente aplicado y no cae en algunas de las limitaciones de los métodos anteriores.
Igualmente debemos tener en cuenta que una variable puede estar relacionada con otra de
manera original y no en su transformación.

En conclusión, la multicolinealidad es un aspecto que debemos tener en cuenta a la hora de


realizar nuestros modelos (especialmente si estos son estructurales). Ahora bien, cuando exista la
presencia de esta, buscaremos eliminarla a través de transformaciones de precios que nos
permitan trabajar en las mejores condiciones. Este procedimiento se puede hacer de manera muy
simple a través de un software sin hacer cálculos complejos, como por ejemplo puede ser R Studio.

Para el caso de la Heteroscedasticidad, esta surge normalmente en datos de sección cruzada


donde la escala de la variable dependiente y el poder explicativo de la tendencia del modelo varía
a lo largo de las observaciones. En muchos casos los datos microeconómicos, como los estudios
de gasto de las familias, presentan este comportamiento. Intuitivamente la presencia de diferentes
varianzas para diferentes observaciones se pueden ejemplificar en las siguientes causas.

 Razones de escala
 Distribución espacial
 Aprendizaje de los errores
 Menores restricciones de elección.
 Mejoras en la Información
 Observaciones Influyentes
 Problemas de especificación

En general, la heteroscedasticidad surge con mayor probabilidad en datos de corte transversal o


en encuestas que en las series de tiempo ya que se tratan con una “población” en un “momento” a
través de un “espacio” que pueden originar una variabilidad fuerte con un patrón sistemático que
afecta la constancia de la varianza.

Con presencia de heteroscedasticidad, los estimadores mínimos cuadráticos seguirán siendo


insesgados dado que E(U)=0 y las variables explicativas son no estocásticas o independientes de
los errores, por lo tanto E(XU)=0, pero dado que la varianza al no ser constante se invalidan las
pruebas de significancia estadística en especial las pruebas de la distribución t-Student y F de
Fisher-Snedecor.

En consecuencia, los principales problemas serían:

 Estimadores ineficientes.
 Perdida de validez de las pruebas de contraste estadísticos.

Dado que la estimación de la varianza estaría sesgada y su estimación no sería además


consistente, no se puede, en consecuencia, depender de los resultados obtenidos de los intervalos
de confianza, ni de las pruebas puntuales usuales, por tanto, si se detecta su presencia, se deben
estimar los parámetros por otros medios más adecuados como; mínimos cuadrados ponderados u
otra técnica de estimación. Siempre es necesario comprobar si existe o no un problema
significativo antes de proceder a corregirlo. En algunos casos la comprensión de la forma de
corregir permite comprender mejor la utilidad de los procedimientos formales de detección.

También podría gustarte