1. ¿Qué hacer para encontrar el modelo “correcto”? En otras palabras,
¿cuáles son los criterios para elegir un modelo a partir del análisis empírico? Modelo correcto: los estimadores deben ser estadísticamente significativos. El caso de determinación múltiple y el corregido o ajustado debe ser elevado. Coeficiente de determinación corregido o ajustado, es ajustar por los grados de libertad. A medida que se incluyen mayor cantidad de VE, el coeficiente de determinación múltiple tiende a aumentar. Nos fijamos en el coeficiente de determinación múltiple corregido, por los grados de libertad entonces establece el ajuste exacto en que las VE explican a la V dependiente 2. ¿Qué tipos de errores de especificación de modelos son más comunes en la práctica? - Omisión de una VE importante - Inclusión de una variable irrelevante Omisión de una variable relevante (subajuste de un modelo). Suponga que el verdadero modelo es Yi = β1 + β2X2i + β3X3i + ui (13.3.1) pero, por alguna razón ajustamos el siguiente modelo: Yi = α1 + α2X2i + vi (13.3.2) Las consecuencias de omitir X3 son las siguientes: a) Si la variable excluida, u omitida, X3 está correlacionada con la variable incluida X2, es decir, r23, el coeficiente de correlación entre las dos variables es diferente de cero, αˆ 1 y αˆ 2 son sesgados e inconsistentes. Es decir, E(αˆ 1) no es igual a β1 y E(αˆ 2) no es igual a β2, y el sesgo no desaparece conforme aumenta el tamaño de la muestra. b) Aunque X2 y X3 no estén correlacionados, αˆ 1 es sesgado, pese a que αˆ 2 sea ahora insesgado. c) La varianza de la perturbación σ2 está incorrectamente estimada. d) La varianza medida convencionalmente de αˆ2 ( = σ2/∑ x 22 i) es un estimador sesgado de la varianza del verdadero estimador β2. e) En consecuencia, es probable que el intervalo de confianza usual y los procedimientos de pruebas de hipótesis conduzcan a conclusiones equivocadas sobre la significancia estadística de los parámetros estimados. f) Otra consecuencia es que los pronósticos basados en el modelo incorrecto y los intervalos (de confianza) del pronóstico no son confiables. Inclusión de una variable irrelevante (sobreajuste de un modelo) Ahora supongamos que Yi = β1 + β2X2i + ui (13.3.6) es verdadero, pero especificamos el siguiente modelo: Yi = α1 + α2X2i + α3X3i + vi (13.3.7) y cometemos así el error de especificación al incluir una variable innecesaria en el modelo. Las consecuencias de este error de especificación son las siguientes: a) Todos los estimadores de MCO de los parámetros del modelo “incorrecto” son insesgados y consistentes, es decir, E(α1) = β1, E(αˆ 2) = β2 y E(αˆ 3) = β3 = 0. b) La varianza del error σ2 está correctamente estimada. c) Los procedimientos usuales de intervalos de confianza y de pruebas de hipótesis conservan su validez. d) Sin embargo, las α estimadas por lo general serán ineficientes, es decir, sus varianzas generalmente serán más grandes que las de las βˆ del verdadero modelo.
Detección de variables innecesarias (sobreajuste de un modelo)
Una forma sencilla de averiguarlo es probar la significancia del βk estimado mediante la prueba t usual: t = βˆ k/ee (βˆ k). Surge la duda cuando la probabilidad sea mayor al 5%, por ejemplo; si nos da un estimador que no es estadísticamente significativa en forma individual y el resto si, y un R2 muy elevado y una significancia global en caso de la probabilidad del test f sea menor al 5%, entonces decimos que el modelo es bueno pero un estimador está siendo ruido, el problema puede ser que a lo mejor es una variable innecesaria, de esa manera se detecta. Cuando nos encontramos que solamente hay un caso donde hay un estimador en el cual su probabilidad sea mayor al 5%, entonces quiere decir que esa VE está teniendo problemas, a esto se llama Minería de datos: significa ir probando cada uno de los estimadores a ver cuál puede ser el posible variable innecesario.
Pruebas para variables omitidas y forma funcional incorrecta
Examen de los residuos Para ilustrar lo anterior, reconsidere la función cúbica del costo total de producción analizada en el capítulo 7. Suponga que la verdadera función del costo total se describe de la siguiente manera, donde Y = costo total y X = producción: Yi = β1 + β2Xi + β3X2 i + β4X3 i + ui (13.4.4) pero un investigador ajusta la siguiente función cuadrática: Yi = α1 + α2Xi + α3X2 i + u2i (13.4.5) y otro investigador ajusta la siguiente función lineal: Yi = λ1 + λ2Xi + u3i (13.4.6)
A través de los gráficos podemos detectar el error de especificación
Otra manera de poder detectar es a través de los valores de ն, tiene un valor demasiado elevado, lineal y cuadrática. En cubica ya reduce.
Otra manera es a través de Durbin:
Es un estadístico cuyo valor esta entre el 0 y el 4, cuanto más cercano al 0 significa que existe autocorrelacion positiva y cuanto más cercano al 4 existe auocorrelacion negativa. Y cuanto más cercano alrededor del 2 significa que existe la autocorrelacion. Prueba RESET de Ramsey Ramsey propuso una prueba general de errores de especificación conocida como RESET (prueba del error de especificación en regresión). Errores de medición Errores de medición en la variable dependiente Y Ejemplo: Y∗ = i gasto de consumo permanente Xi = ingreso actual ui = término de perturbación estocástico Si yo quiero medir correctamente la variable dependiente necesito el gasto de consumo actual, porque mi VE me dice que el ingreso es actual. ¿Cuál es la consecuencia? Aunque los errores de medición en la variable dependiente aún producen estimaciones insesgadas de los parámetros y de sus varianzas, las varianzas estimadas ahora son más grandes que cuando no existen tales errores de medición. Consecuencia de variables dependientes mal medidas Cuando trabajamos con variable dependientes que están mal medidas, los estimadores continúan siendo insesgados pero sus varianza tienden a ser más grandes, al ser la varianza más grande el error estándar va a ser más grande. Errores de medición en la variable explicativa X Suponga ahora que, en lugar de (13.5.1), tenemos el siguiente modelo: Yi = α + βX∗ i + ui (13.5.6) donde Yi = gasto de consumo actual X∗ = i ingreso permanente ui = término de perturbación (error ecuacional) Consecuencia de variables explicativas mal medidas (problema grave) Si se viola este supuesto, puede demostrarse que los estimadores de MCO no solamente están sesgados, sino que son también inconsistentes, es decir, permanecen sesgados aunque el tamaño de la muestra, n, aumente indefinidamente.
Mentalidades matemáticas: Cómo liberar el potencial de los estudiantes mediante las matemáticas creativas, mensajes inspiradores y una enseñanza innovadora
Sesgos Cognitivos: Una Fascinante Mirada dentro de la Psicología Humana y los Métodos para Evitar la Disonancia Cognitiva, Mejorar sus Habilidades para Resolver Problemas y Tomar Mejores Decisiones
Inteligencia artificial: Lo que usted necesita saber sobre el aprendizaje automático, robótica, aprendizaje profundo, Internet de las cosas, redes neuronales, y nuestro futuro