Está en la página 1de 7

Apellidos: Palacio Antonio

ECONOMETRIA
15/07/2022
FINANCIERA.
Nombre: Maryedith Roasaura

Actividad
Protocolo individual de la unidad n°: 4

Multicolinealidad y Heterocedasticidad

Numerosos métodos han sido desarrollados con el objeto de detectar la

posible existencia de multicolinealidad y sus efectos anómalos sobre un

modelo de regresión.

Multicolinealidad es el término usualmente utilizado para referirse a la existencia de

relaciones lineales o cuasi lineales entre las variables predictoras en un modelo

lineal, lo que indica que parte sustancial de la información en una o más de estas

variables es redundante.

Mandell (1982) señala que una de las principales dificultades en el uso de

estimaciones mínimo cuadráticas es la presencia de este fenómeno que, aun

cuando no afecta la capacidad predictiva del modelo, representa un problema

grave si su propósito fundamental es evaluar la contribución individual de las

variables explicativas. Esto es debido a que en presencia de multicolinealidad los

coeficientes bj tienden a ser inestables, es decir sus errores estándar presentan

magnitudes indebidamente grandes. Esta falta de precisión afecta los contrastes

parciales diseñados para evaluar la contribución individual de cada variable

explicativa, corriéndose un alto riesgo de no encontrar significación en variables

que realmente la tengan.


Jackson (1991) subraya además que bajo condiciones de colinealidad resulta

imposible distinguir los efectos individuales de cada variable predictora, debido a

que la fuerza de la correlación entre ellas produce relaciones lineales de similar

magnitud entre los coeficientes.

La multicolinealidad entre las variables explicativas se da cuando existe algún tipo

de dependencia lineal entre ellas, o lo que es lo mismo, si existe una fuerte

correlación entre las mismas. La correlación no solamente se refiere a las distintas

variables dos a dos, sino a cualquier de ellas con cualquier grupo de las restantes.

Por esta razón no es suficiente (aunque sí necesaria) que en la matriz de

correlaciones bivariadas haya correlaciones altas.

El principal inconveniente de la multicolinealidad consiste en que se incrementan

la varianza de los coeficientes de regresión estimados hasta el punto que resulta

prácticamente imposible establecer su significación estadística, ya que como se

sabe, el valor de t para un determinado coeficiente de regresión es el valor de

dicho coeficiente dividido por su desviación tipo. Si este es grande, el valor de t

será bajo y no llegará a la significación.

El SPSS adopta varios procedimientos para detectar multicolinealidad entre los

predictores. El primero de ellos, basado en la correlación múltiple de un

determinado regresor con los restantes se denomina Tolerancia de dicho regresor.

Su valor es: 1-R(2)i

Siendo R(2)i la correlación múltiple al cuadrado de dicho regresor con los

restantes. Para que haya multicolinealidad dicha correlación ha de ser alta, o lo

que es lo mismo la tolerancia baja. Además, otro índice relacionado con éste y

que nos da una idea del grado de aumento de la varianza se denomina Factor de

Inflación de la Varianza, y es precisamente el recíproco de la tolerancia. Su valor


es: VIFi = 1/1-R(2)y1

Para que no haya multicolinealidad el denominador tiene que valer cerca de la

unidad, por tanto, un poco más de 1 el valor de VIF. Cuanto mayor sea de este

valor mayor multicolinealidad habrá.

Las pruebas más comunes para identificarla son las siguientes:

 Coeficientes t’s no significativos y R2 elevada: un alto R2 y el hecho

de que uno o varios coeficientes t sean poco significativos es indicativo

de que nos encontramos ante una relación importante entre variables.

 Coeficientes de correlación: medir los coeficientes de correlación entre

pares de variables es otro de los métodos más utilizados. Por encima de un

80% nos muestra que la correlación importante.

 Factor de inflación varianza: el factor de inflación varianza (VIF) lo

medimos así; nos indica el grado en el que la varianza del estimador de

mínimos cuadrados se eleva por la colinealidad entre variables.

Existen una serie de métodos para corregir el problema de multicolinealidad. Es

importante señalar que si nuestro modelo es predictivo (no estructural) la

multicolinealidad no se consideraría un problema ya que la relación entre variables

puede mantenerse en el futuro. Las técnicas más utilizadas si queremos solucionar

esto son:
 Imponer restricciones al modelo: restringir los parámetros de

variables donde existe colinealidad o bien restringir el modelo original.

 Componentes principales: obtener un conjunto de variables a partir de las

originales y sin caer en pérdida de información. Estas nuevas deben

cumplir la condición de ser ortogonales entre sí.

 Eliminar variables: el hecho de suprimir variables puede acabar con el

problema, pero cuidado, tenemos que tener en cuenta si el hecho de

omitirlas puede ser un problema más grave por su relevancia.

 Transformar variables: obtener primeras diferencias o retornos es un

método generalmente aplicado y no cae en algunas de las limitaciones de

los métodos anteriores. Igualmente debemos tener en cuenta que una

variable puede estar relacionada con otra de manera original y no en su

transformación.

En conclusión, la multicolinealidad es un aspecto que debemos tener en cuenta a

la hora de realizar nuestros modelos (especialmente si estos son estructurales).

Ahora bien, cuando exista la presencia de esta, buscaremos eliminarla a través de

transformaciones de precios que nos permitan trabajar en las mejores

condiciones. Este procedimiento se puede hacer de manera muy simple a través

de un software sin hacer cálculos complejos, como por ejemplo puede ser R

Studio.

Para el caso de la Heteroscedasticidad, esta surge normalmente en datos de

sección cruzada donde la escala de la variable dependiente y el poder explicativo

de la tendencia del modelo varía a lo largo de las observaciones. En muchos

casos los datos microeconómicos, como los estudios de gasto de las familias,
presentan este comportamiento. Intuitivamente la presencia de diferentes

varianzas para diferentes observaciones se puede ejemplificar en las siguientes

causas.

 Razones de escala

 Distribución espacial

 Aprendizaje de los errores

 Menores restricciones de elección.

 Mejoras en la Información

 Observaciones Influyentes

 Problemas de especificación

En general, la heteroscedasticidad surge con mayor probabilidad en datos de

corte transversal o en encuestas que en las series de tiempo ya que se tratan con

una “población” en un “momento” a

través de un “espacio” que pueden originar una variabilidad fuerte con un patrón

sistemático que afecta la constancia de la varianza.

Con presencia de heteroscedasticidad, los estimadores mínimos cuadráticos

seguirán siendo insesgados dado que E(U)=0 y las variables explicativas son no

estocásticas o independientes de los errores, por lo tanto, E(XU)=0, pero dado

que la varianza al no ser constante se invalidan las pruebas de significancia

estadística en especial las pruebas de la distribución t-Student y F de Fisher-

Snedecor.

En consecuencia, los principales problemas serían:

 Estimadores ineficientes.
 Perdida de validez de las pruebas de contraste estadísticos.

Dado que la estimación de la varianza estaría sesgada y su estimación no sería

además consistente, no se puede, en consecuencia, depender de los resultados

obtenidos de los intervalos de confianza, ni de las pruebas puntuales usuales, por

tanto, si se detecta su presencia, se deben estimar los parámetros por otros

medios más adecuados como; mínimos cuadrados ponderados u otra técnica de

estimación. Siempre es necesario comprobar si existe o no un problema

significativo antes de proceder a corregirlo. En algunos casos la comprensión de

la forma de corregir permite comprender mejor la utilidad de los procedimientos

formales de detección.

También podría gustarte