Está en la página 1de 4

INFORME FINAL ECONOMETRIA II

Multicolinealidad
El proceso o término de multicolinealidad en Econometría es una situación en
la que se presenta una fuerte correlación entre variables explicativas del
modelo. La correlación ha de ser fuerte, ya que siempre existirá correlación
entre dos variables explicativas en un modelo, es decir, la no correlación de
dos variables es un proceso idílico, que sólo se podría encontrar en
condiciones de laboratorio.
Multicolinealidad se atribuye a Ragnar Frisch, designaba una relación lineal perfecta o
exacta entra algunas o todas las variables explicativas de un modelo de regresión.
Multicolianidad Exacta.
Afirmamos que hay colinealidad exacta, cuando una o más variables, son una
combinación lineal de otra, es decir, existe un coeficiente de determinación entre estas
dos variables de 1. Esto provoca que la Matriz X'X tenga determinante 0, y sea
singular (no invertible).
Ejemplo económico

¿Cómo detectarlo?
Los programas podrán “quejarse” de que no podemos invertir la Matriz (X´X). En
Eviews aparece el mensaje “Near singular Matrix”
¿Cómo corregirlo?
Se deben a errores del investigador al introducir las explicativas, al aparecer el
mensaje de error, se corrigen las explicativas.

Multicolianidad Aproximada
Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son
exactamente una combinación lineal de la otra, pero existe un coeficiente de
determinación entre estas variables muy cercano al uno.
Ejemplos económicos

 Porcentaje de alumnos que pueden pedir ayudas por renta baja


 Porcentaje de alumnos que pueden pedir ayudas para comedor
o Ayuda que recibe un colegio para libros
o Ayuda que recibe un colegio para instalaciones

 Gasto público en carreteras


 Gasto público en mejorar otras comunicaciones
Da lugar a estimaciones imprecisos, varianzas e intervalos de confianza grandes.
Difícil de detectar y de corregir.

Heterocedasticidad
En estadística se dice que un modelo de regresión lineal presenta heterocedasticidad
cuando la varianza de las perturbaciones no es constante a lo largo de las
observaciones. Esto implica el incumplimiento de una de las hipótesis básicas sobre
las que se asienta el modelo de regresión lineal.
De ella se deriva que los datos con los que se trabaja son heterogéneos, ya que
provienen de distribuciones de probabilidad con distinta varianza. Existen diferentes
razones o situaciones en las que cabe encontrarse con perturbaciones
heteroscedásticas. La situación más frecuente es en el análisis de datos de corte
transversal, ya que los individuos o empresas o unidades económicas no suelen tener
un comportamiento homogéneo.
Otra situación en la que se presenta heteroscedasticidad es en muestras cuyos datos
son valores que se han obtenido agregando o promediando datos individuales.

Consecuencias de la Heterocedasticidad
Las principales consecuencias que derivan del incumplimiento de la hipótesis de
homocedasticidad en los resultados de la estimación de mínimos cuadrados son:

 Error en el cálculo del estimador de la matriz de varianzas y covarianzas de los


estimadores de mínimos cuadrados.
 Pérdida de eficiencia en el estimador mínimo cuadrático.
Por lo demás, los estimadores de mínimos cuadrados siguen siendo insesgados, pero
ya no eficientes, es decir que los estimadores ya no serán de varianza mínima.

También podría gustarte