Documentos de Académico
Documentos de Profesional
Documentos de Cultura
ALUMNO:
Oscar Iván Visñay Carchipulla
PROFESOR:
Econ. Luis Gabriel Pinos Luzuriaga.
CUENCA – ECUADOR
2020
PRÁCTICA.
Datos.
El número de datos con los que se va a trabajar son de 76 observaciones compuesta por
trimestres y con las siguientes variables:
Multicolinealidad.
Definición.
Multicolinealidad significa la relación lineal perfecta o exacta entre algunas o todas las
variables explicativas. Cabe señalar que en la multicolinealidad no es el problema si existe o
no, sino cuan intensa es ésta relación.
Análisis de multicolinealidad.
Dado que se está trabajando con datos de serie de tiempo vamos a proceder a graficar las
variables, para tener una visión aproximada del comportamiento de las mismas. (Cuando se
trabaja con datos de series de tiempo es recomendable realizar la gráfica de tal manera que se
tenga una visión del comportamiento de los datos)
Interpretación:
La variable dependiente (PIB) tiene una tendencia pero en ciertos trimestres tiene picos bajos,
sin embargo en el largo plazo muestra una tendencia creciente, para buscar una explicación al
comportamiento de esta variable se debería analizar gráficamente el comportamiento de cada
una de las variables explicativas.
Según estas graficas se puede evidenciar que todas las variables comparten una tendencia
común y si a esta serie se le diferencia (una diferenciación de una serie de tiempo lo que hace
es cortar la tendencia de la serie de tiempo) la serie el comportamiento fuera el siguiente:
Planteamiento de la regresión.
Ante presencia de multicolinealidad los errores estándares son mínimos, pero grandes,
mismos que se muestran en la gráfica siguiente:
R Cuadarado. Este valor es relativamente grande (sobrepasa el o.8), lo que puede ser un
indicio de multicolinealidad
Valores t.- Estos valores son poco significativos, que también puede ser una evidencia de
multicolinialidad evidentemente, caso en particular M2 ya que sobrepasa el nivel de
significancia del 5%.
Prueba F.- Valor estadísticamente significativo muy alto, lo que indica que el modelo es
significativo en su conjunto
Características:
La diagonal todas son igual a 1 porque es la correlación de la variable consigo misma.
Regresiones auxiliares.
Con M1 como variable dependiente.
Según la regla de Klein tampoco existe una colinealidad grave ya que el R-cuadrado sigue
siendo menor al R-cuadrado global.
Según la regla de Klein en este caso si existe una colinealidad grave ya que el R-cuadrado
auxiliar es mayor al R-cuadrado global.
Resumen.
Resumen. Según esta información podemos observar que le VIF es alto con todas las
variables, lo que evidentemente que estas variables están altamente correlacionadas y por
tanto podría haber multicolinealidad.
Convertir las variables M1y M3 para solucionar el problema de multicolinealidad ya que las dos
variables explican en un alto porcentaje lo mismo.
Heteroscedasticidad.
Características:
Luego de haber exportado los datos al programa eviews, el siguiente paso es transformar los
datos a logaritmos, mismo que se muestra a continuación.
PRUEBAS FORMALES.
Esta prueba hace una regresión entre los residuos y las variables independientes, lo que
indicaría que las variables independientes están explicando al movimiento del error, es decir
que si las variables independientes son significativas por ende son explicativas a los residuos,
entonces cuando las x cambian la varianza también va cambiando.
Prueba de Harvey.
Trabaja con la misma interpretación del modelo de Breusch Pagan y godfrey, esta prueba
aplica el logaritmo a los residuos, lo cual también indica que existe heteroscedasticidad.