Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PARTICULAR DE LOJA
Modelos
Econométricos
ECO. OCHOA
ORDOÑEZ OSWALDO
FRANCISCO ARMAS
FORO 1
BI MES TRE 1
Multicolinealidad
La multicolinealidad en un modelo de regresión puede ser causada por varias razones, entre
las cuales se incluyen:
Heteroscedasticidad
La heterocedasticidad puede ser causada por diversas razones. Algunas de ellas son:
- La presencia de valores atípicos (outliers) en los datos.
- Una relación no lineal entre las variables predictoras y la variable de respuesta.
- Un error de medición en las variables predictoras o en la variable de respuesta.
- Un sesgo en la muestra de datos recopilados.
- La presencia de subgrupos dentro de la muestra con diferentes varianzas.
- La influencia de variables no incluidas en el modelo que interactúan con las variables
predictoras.
Autocorrelación
La autocorrelación es una medida de la correlación entre una variable en una serie de tiempo
y una versión retrasada (comúnmente conocida como "lag") de sí misma en la misma serie
de tiempo. La autocorrelación es un fenómeno común en los datos de series de tiempo, y
puede ser tanto positiva como negativa . Una autocorrelación positiva indica que valores
altos en la serie de tiempo tienden a seguir valores altos en series anteriores, mientras que
una autocorrelación negativa indica que valores altos tienden a seguir valores bajos. La
autocorrelación puede ser evaluada mediante la función de autocorrelación (ACF) y la
función de autocorrelación parcial (PACF). La autocorrelación puede afectar la precisión y el
rendimiento de los modelos que intentan predecir valores futuros en una serie de tiempo, y
puede ser necesario corregirla antes de hacer predicciones precisas.
Si un modelo de regresión tiene autocorrelación en los residuos, esto indica que hay
patrones persistentes en los errores del modelo que no se explican completamente por las
variables predictoras utilizadas. Esto puede resultar en una subestimación de la varianza
residual del modelo y una sobreestimación de la significancia de los coeficientes. En otras
palabras, la autocorrelación puede hacer que los coeficientes parezcan más significativos de
lo que realmente son, lo que puede llevar a la inclusión de variables que no son realmente
importantes en el modelo. La autocorrelación también puede hacer que los intervalos de
predicción sean demasiado estrechos o demasiado amplios, lo que puede afectar la
precisión de las predicciones del modelo. Es importante considerar la autocorrelación en la
selección y validación del modelo, y en la interpretación y comunicación de los resultados.
La autocorrelación en un modelo de regresión puede ser causada por varias razones. Una
posible causa es la exclusión de variables importantes del modelo. Si se excluyen variables
que están correlacionadas con la variable dependiente y que también están correlacionadas
con los errores del modelo, esto puede generar autocorrelación en los residuos del modelo.
Otra posible causa es la falta de estacionalidad en la variable dependiente. Si la variable
dependiente muestra patrones recurrentes a lo largo del tiempo, como estacionalidad,
tendencias o ciclos, puede haber autocorrelación en los residuos del modelo si estos
patrones no se tienen en cuenta en el modelo. La inclusión de variables irrelevantes o la falta
de transformaciones adecuadas también pueden contribuir a la autocorrelación en el modelo
de regresión. Es importante identificar y corregir la autocorrelación en los residuos del
modelo para asegurar que los resultados sean precisos y confiables.
BIOGRAFÍA:
De Arce, R., & Mahía, R. (2009). Conceptos básicos sobre la heterocedasticidad en el
modelo básico de regresión lineal tratamiento con Eviews. Madrid España:
Departamento de Economía Aplicada, Universidad Autónoma de Madrid.
Meza Carvajalino, C. A. (2014). Econometría fundamental. Universidad de la Salle.
Pérez, F., & Fernández, H. (2009). Econometría. Conceptos Básicos (Primera ed.).
Medellín: Ecoe. Ediciones.