Está en la página 1de 9

Universidad del Azuay

Facultad de Ciencias de la Administración.


Carrera de Economía.

APLICACIÓN PRÁCTICA MULTICOLINELIDAD Y HETEROSCEDASTICIDAD.

ALUMNO:
Oscar Iván Visñay Carchipulla

PROFESOR:
Econ. Luis Gabriel Pinos Luzuriaga.

CUENCA – ECUADOR
2020
PRÁCTICA.
Datos.
El número de datos con los que se va a trabajar son de 76 observaciones compuesta por
trimestres y con las siguientes variables:

 PIB empalmado 2005


 M1 = Efectivo más depósitos en cuenta corriente.
 M2: M1 más cuasi dineros.
 M3 = Efectivo más PSF. Incluye los depósitos restringidos.

Multicolinealidad.
Definición.
Multicolinealidad significa la relación lineal perfecta o exacta entre algunas o todas las
variables explicativas. Cabe señalar que en la multicolinealidad no es el problema si existe o
no, sino cuan intensa es ésta relación.

Análisis de multicolinealidad.
Dado que se está trabajando con datos de serie de tiempo vamos a proceder a graficar las
variables, para tener una visión aproximada del comportamiento de las mismas. (Cuando se
trabaja con datos de series de tiempo es recomendable realizar la gráfica de tal manera que se
tenga una visión del comportamiento de los datos)

Interpretación:
La variable dependiente (PIB) tiene una tendencia pero en ciertos trimestres tiene picos bajos,
sin embargo en el largo plazo muestra una tendencia creciente, para buscar una explicación al
comportamiento de esta variable se debería analizar gráficamente el comportamiento de cada
una de las variables explicativas.

Análisis gráfico de las variables explicativas.

Según estas graficas se puede evidenciar que todas las variables comparten una tendencia
común y si a esta serie se le diferencia (una diferenciación de una serie de tiempo lo que hace
es cortar la tendencia de la serie de tiempo) la serie el comportamiento fuera el siguiente:

Planteamiento de la regresión.
Ante presencia de multicolinealidad los errores estándares son mínimos, pero grandes,
mismos que se muestran en la gráfica siguiente:
R Cuadarado. Este valor es relativamente grande (sobrepasa el o.8), lo que puede ser un
indicio de multicolinealidad

Valores t.- Estos valores son poco significativos, que también puede ser una evidencia de
multicolinialidad evidentemente, caso en particular M2 ya que sobrepasa el nivel de
significancia del 5%.

Prueba F.- Valor estadísticamente significativo muy alto, lo que indica que el modelo es
significativo en su conjunto

Análisis de Covarianzas con correlaciones de orden cero.

Características:
La diagonal todas son igual a 1 porque es la correlación de la variable consigo misma.

La correlación de M2 con respecto a M1 y viceversa es 0.970748 que es relativamente alta y la


misma situación de M3 y M1 que es alta ya que su valor es de 0.987279.

Regresiones auxiliares.
Con M1 como variable dependiente.

Se desarrolla una variable independiente respecto a las demás variables independientes.


R cuadrado y Prueba F. Como estos valores siguen siendo grandes esto indica que el
modelo es altamente colineal, pero si se compara según la regla de Clean (Compara el R-
cuadrado de la regresión principal con la regresión auxiliar) el R-cuadrado de la regresión
auxiliar es menor a la global

La regla de Klein indica que si el R-cuadrado de la regresión auxiliar es mayor a la R-cuadrado


de la global, la multicolinealidad es un problema grave, situación que no se da en este caso.

Con M2 como variable dependiente.

Según la regla de Klein tampoco existe una colinealidad grave ya que el R-cuadrado sigue
siendo menor al R-cuadrado global.

Con M3 como variable dependiente.

Según la regla de Klein en este caso si existe una colinealidad grave ya que el R-cuadrado
auxiliar es mayor al R-cuadrado global.

Resumen.
Resumen. Según esta información podemos observar que le VIF es alto con todas las
variables, lo que evidentemente que estas variables están altamente correlacionadas y por
tanto podría haber multicolinealidad.

Posibles correcciones de la multicolinealidad.


Conversión de las variables M1 Y M3

En este sentido podemos afirmar que el modelo es estadísticamente significativo (Prueba f) y


el R-cuadrado es realmente alto, mientras que la información del factor de la inflación de la
varianza es el siguiente:

Lo que indica que el modelo estaría corregido.

Convertir las variables M1y M3 para solucionar el problema de multicolinealidad ya que las dos
variables explican en un alto porcentaje lo mismo.

Heteroscedasticidad.
Características:

 Ante presencia de heterocedasticidad los estimadores dejan de ser MELI.


 El tema está en los errores y la varianza del error no es constante.

Los datos a logaritmos.

Luego de haber exportado los datos al programa eviews, el siguiente paso es transformar los
datos a logaritmos, mismo que se muestra a continuación.

Análisis a través del método gráfico.


Para ello se necesita la serie de los residuos y por lo tanto se debe hacer la regresión en este
caso se va a comenzar el PIB con la variable M3

Gráfico de los residuos elevados al cuadrado con la variable independiente M3 (Agregado


monetario)
Una primera forma de evidenciar heteroscedasticidad podría ser viendo el gráfico, además la
media de los errores es cero y tampoco hay una varianza constante, sin embargo no es un
informe concluyente.

PRUEBAS FORMALES.

Prueba de breusch pagan – Godfrey.

Esta prueba hace una regresión entre los residuos y las variables independientes, lo que
indicaría que las variables independientes están explicando al movimiento del error, es decir
que si las variables independientes son significativas por ende son explicativas a los residuos,
entonces cuando las x cambian la varianza también va cambiando.

Si el p valor es menor al 5% hay heteroscedasticidad.


Se concluye que el valor F es relativamente grande y la probabilidad del P valor del f es
practicante mente cero lo que significa que el modelo en su conjunto explica el
comportamiento del residuo elevado al cuadrado.

Como el P valor menor al 5% si existe heteroscedasticidad en este modelo.

Prueba de Harvey.

Trabaja con la misma interpretación del modelo de Breusch Pagan y godfrey, esta prueba
aplica el logaritmo a los residuos, lo cual también indica que existe heteroscedasticidad.

También podría gustarte