Está en la página 1de 22

A manera de resumen

Los supuestos clásicos del modelo


de regresión,
establecida la insesgadez de los
estimadores MCO
1. Supuesto de Normalidad

• Supuesto: ui ~ NID(0, σ2)

Media =0 Var = σ2
Razones del supuesto de
Normalidad
• Efectuar inferencia, ya que si los errores
distribuyen Normal, entonces los
estimadores MCO de β que son función
lineal de ellos también distribuirán normal.
Además, a partir de la distribución normal
se derivan las estadísticas t, χ2 y F.
Verificación del supuesto
Existen diversas pruebas de normalidad,
entre ella están:
a) Histograma de residuos.
b) Gráfica de Probabilidad Normal.
c) Prueba de Jarque-Bera.
a) Histograma de Residuos
Consiste en construir una tabla de
frecuencias para los residuos y a partir de
ella dibujar el histograma. La distribución
de los residuos se dirá normal si el perfil del
histograma se aproxima a la forma de una
campana.
(En este influye el número de intervalos
elegidos.)
Histograma de Residuos
b) Gráfica de Probabilidad
Normal
Sobre el papel de probabilidad normal en el
eje horizontal se grafican los residuos y
sobre el eje vertical se muestra el valor
esperado de los errores si tuvieran
distribución Normal. Para concluir que la
distribución es Normal la unión de esos
puntos debiera ser aproximadamente una
recta.
Gráfica de probabilidad Normal
c) Prueba de Jarque-Bera
H0 : Los residuos distribuyen Normal
H1 : Los residuos no distribuyen Normal

Estadística de Prueba:
2
A2 K 3
JB n
6 24
Prueba de Jarque-Bera (continuación)
Donde:
n = tamaño muestra
A = coeficiente de asimetría
K = coeficiente de curtosis

En muestras grandes JB ~ distribuye Chi-


cuadrado con 2 grados de libertad.
EJEMPLO: El cuadro que sigue contiene información acerca del
estadístico de Jarque-Bera calculado para el residuo de una regresión
estimada por MCO. Pruebe la presencia de normalidad en el residuo.
2. La Media de los errores es cero.

El cumplimiento de este supuesto no es


demasiado importante ya que el intercepto
es quien absorberá el efecto y por lo general
en las aplicaciones econométricas el
intercepto no es de interés.
E(ui|xi)=0
3. Supuesto de Homoscedasticidad

Supuesto: V (ui/Xi) = 2 para todo i=1, 2, …, n

Si el supuesto no se cumple, o sea, V (ui/Xi)


depende de Xi, entonces se dice que el término del
error presenta HETEROCEDASTIDAD ( o
varianza no constante).
Consecuencias de la
Heterocedasticidad
• Mala estimación de la matriz de varianzas-
covarianzas de los errores mínimo
cuadrados.
• Disminución de la eficiencia de los
estimadores mínimo cuadrados, pero siguen
siendo lineales e insesgados.
• Se debe corregir si se desea hacer inferencia
estadística.
Causas Heterocedasticidad
• En series de rendimientos de activos
financieros con alta frecuencia se muestra
como períodos de alta y baja volatilidad.
Ejemplo:

Caso de heteroscedasticidad.
4. Supuesto de no auto-correlación

Cov(ui,uj) =E (ui*uj) = 0
Consecuencias de auto-correlación

1. Los estimadores de los coeficientes dejan


de ser eficientes.
2. Podría estar subestimándose la verdadera
varianza y por tanto, se sobreestimaría R2
y las pruebas t y F dejarían de ser válidas.
Detección de autocorrelación
• Prueba de Durbin Watson
H0: No Existe auto-correlación
H1: Existe auto-correlación
Multi-colinealidad
• Supuesto:
Las variables explicativas deben ser
linealmente independientes.
• Detección:
R2 alto o Modelo en conjunto significativo,
pero todos o algunos regresores en forma
individual no son significativos.
Efectos Multicolinealidad
• Existe dificultad para conocer aporte de las
variables explicativas.
• La varianza de los estimadores está
aumentada.
• Los límites de confianza son más amplios.
• No es tan malo si el objetivo es la
predicción.
Corrección de multicolinealidad
• Suprimir variables redundantes.
• Ampliar la muestra.
• Usar primeras diferencias de las series.
• Usar razones de las variables dividiendo
entre un factor de escala común.

También podría gustarte