Está en la página 1de 3

1.

Test de Ramsey: se utiliza para detectar posibles errores de especificación por omisión
de variables explicativas relevantes.
Hipótesis nula: no se han omitido variables relevantes
Hipótesis alternativa: se han omitido variables relevantes
Su principal limitación consiste en que, aunque es posible que detecte variables omitidas,
el test no aporta ninguna información sobre la variable o variables que no se han incluido
en el modelo original y que según el Test deberían haberse tenido en cuenta.

2. Matriz de correlación: La matriz de correlación muestra los valores de correlación de


Pearson, que miden el grado de relación lineal entre cada par de elementos o variables.
Los valores de correlación se pueden ubicar entre -1 y +1. Sin embargo, en la práctica, los
elementos por lo general tienen correlaciones positivas. Si los dos elementos tienden a
aumentar o disminuir al mismo tiempo, el valor de correlación es positivo.

3. VIF: Los FIV miden qué tanto aumenta la varianza de un coeficiente de regresión estimado
aumenta si los predictores están correlacionados. Si todos los FIV son 1, no hay
multicolinealidad, pero si algunos FIV son mayores que 1, los predictores están
correlacionados. Cuando un FIV es > 5, el coeficiente de regresión para ese término no se
estima adecuadamente. Los valores de FIV para los términos que no se pueden estimar
por lo general superan un mil millones.

4. Test de White: En estadística la prueba de White es la prueba más general para detectar la
heteroscedasticidad en los modelos de regresión lineal. No precisa de una especificación
concreta de la heteroscedasticidad bajo la alternativa.
No necesita conocer la forma funcional de la heterocedasticidad, y lo que hace es optar
por una aproximación de orden 2 a cualquier forma funcional. En ese sentido mejora al
test de Breusch-Pagan pues la aproximación es mejor, al tener un orden superior. Para ello
considera como variables exógenas de la varianza el conjunto todas las variables exógenas
además de sus productos cruzados.
Hipótesis nula: los datos son homocedasticos.
Hipótesis alternativa: los datos son heterocedasticos.

5. Test de Golfeld-Quant: comprueba la homocedasticidad en análisis de regresión. Para ello


divide un conjunto de datos en dos partes o grupos, y por lo tanto la prueba a veces se
llama una prueba de dos grupos.
Se sospecha que existe heterocedasticidad creciente en
función de una determinada variable Z. La idea es ver si al representar los residuos
respecto a Z las dispersiones observadas no son constantes, sino que tienden a
crecer. De modo similar se haría si se sospechara heterocedasticidad decreciente.
Hipótesis nula: existe homocedasticidad
Hipótesis alternativa: existe heterocedasticidad en función de una variable Z

6. Test de Breusch-Pagan:
Hipótesis nula: existe homocedasticidad
Hipótesis alternativa: existe heterocedasticidad en función de Z, siendo z un conjunto de
variables exógenas.
Se supone que la hipótesis alternativa es una forma funcional de un conjunto de variables
exógenas Z, pero no es necesario especificar claramente la función, aunque en general,
se considera un modelo aditivo.
En la hipótesis alternativa se toma una función lineal porque aproxima cualquier función
Cuando se conoce la función estaríamos en el caso de saber el modelo de contraste, por
eso decíamos que este test es mixto.

7. Test de Durbin-Watson: es una estadística de prueba que se utiliza para detectar la


presencia de autocorrelación (una relación entre los valores separados el uno del otro por
un intervalo de tiempo dado) en los residuos (errores de predicción) de un análisis de la
regresión.
Si la estadística de Durbin-Watson es sustancialmente menor que 0, hay evidencia de
correlación serial positiva. Como regla general si Durbin-Watson es inferior a 1, puede ser
causa de alarma. Valores pequeños de d indican que los términos de error sucesivos están
correlacionados positivamente. Si d> 0, los términos de error sucesivas son están
correlacionados negativamente. En las regresiones, esto puede implicar una
subestimación del nivel de significación estadística.

8. Gráfico de residuos: La gráfica de probabilidad normal de los residuos muestra los residuos
vs. sus valores esperados cuando la distribución es normal.
Interpretación
Utilice la gráfica de probabilidad normal de los residuos para verificar el supuesto de que
los residuos están distribuidos normalmente. La gráfica de probabilidad normal de los
residuos debe seguir aproximadamente una línea recta.

9. Test de Jarque Bera: es una prueba de bondad de ajuste para comprobar si una muestra
de datos tiene la asimetría y la curtosis de una distribución normal.
El estadístico de Jarque-Bera se distribuye asintóticamente como una distribución chi
cuadrado con dos grados de libertad y puede usarse para probar la hipótesis nula de que
los datos pertenecen a una distribución normal. La hipótesis nula es una hipótesis
conjunta de que la asimetría y el exceso de curtosis son nulos (asimetría = 0 y curtosis = 3).

10. Histograma de errores:


El histograma de residuos muestra la distribución de los residuos para todas las
observaciones. Algunos patrones que pueden indicar que el modelo no cumple con las
premisas son:

También podría gustarte