Está en la página 1de 23

2.

HETEROCEDASTICIDAD: El supuesto de que la varianza es constante durante toda la muestra


no se cumple, es decir es distinto, al no ser contante los paramentos no pueden ser constantes
y estos deben ser constantes. Se elimina, puede quitar la variable, o cambiar la forma de estimar

Distribución normal: Varianza es constante y la media es 0, Normalidad de las variables


Las distribuciones pueden ser normales pero no son constantes durante toda la muestra
haciendo que los parámetros no sean constantes debido a que la curtuosis no es la misma,
del mismo modo los residuos serán normales pero no serán constantes ni los mismos

Pruebas: Medir la distribución de los errores, existe relación entre los errores y la variable
dependiente (Variables independientes y los errores)

2.1 METODO GRAFICO: buscar si existe un patrón entre la variable dependiente y los
residuos, si existe un patron existe heteroceasticidad, variables independientes y residuos
al cuadrado
Generar residuos y dar nombre
Residuos al cuadrado
Grafico de dispercion de variables independientes y la relación con residuos 2
Seleccionar ambas open as group
LT, LC aparentemente no genera problemas de heteroceasticidad
LTTC es probable que genere problemas por que tiene forma de v y se está abriendo, del
mismo modo LF también presenta un patrón

2.2 PRUEBA DE PARK: Relaciones entre las variables independientes u los errores, las
variables y los residuos deben ir en logaritmo, porque estos representa tasas de cambio,
si las variaciones de las variables independientes están relacionados con las variaciones
de los residuos

Hacer estimación con variable dependiente el logaritmo de los residuos al cuadrado


El modelo es homoceastico por que los valores no son significativos, el r y f no son
significativos

2.3 PRUEBA DE GLEJSER: Si existe relación entre las variables independientes y los errores
Absresidfinal=abs(residfinal)
El modelo es homoceastico el error es menor porque quita la varianza natural del error
porque maneja los valores absolutos, es lf esta mas cercano a ser significativo lo cual
explica porque seria esta heterocedastistico, f stadistico no es significativo
2.4 PURBA BGP: Variable dependiente los residuos al cuadrado

Chi cuadrado si es significativo n*r2 es heteroce si no es significativo es homo, se mira la


probabilidad si es signficativa es hetero si no es homo

2.5 PRUEBA DE WHITE: dependiente r2, independientes originales, las cuadradas y


productos entre ellas
Lf * lttc son significativas lo que demuestra que generan problemas de
heteroscedasticidad

En términos generales es homoscedastico, es probable que tenga que cambiar dos


variables porque son estas las que provocan el problema
Si individualmente son significativas es homo
Necesita hacer pruebas de estabilidad
AUTOCORRELACION
Se afectan todas las variables, estas se afectan pero no en el mismo periodo, la relación no es
inmediata.

Par saber si es o no inmediata la relación entre estas variables, hay que estudiar el
comportamiento de los errores, si los errores tienen una relación con su retraso entonces hay
autocorrelacion en el modelo, se mirara si un dato depende del otro (respecto al tiempo).

En que variables se da, si se da y en qué periodo se da el retraso.

No se debe utilizar una variable que tenga más de dos retrasos porque eso la hace no significativa
para el momento.

PRUEBAS

1) Prueba gráfica:
- Residuos Vs. Tendencia: contraste de residuos contra la tendencia o el tiempo
Se grafica solo la variable de residuos con retardo,
Aquí se observa que hay una tendencia cíclica, hay autocorrelacion.

- Residuos vs residuos (-1): contraste de residuos contra los residuos con un retraso.

Comparando los dos


El de la derecha corre un espacio el valor de los residuos, perdió la última.

Hacer un gráfico de dispersión comparando estos dos residuos

Hay que buscar si hay algún tipo de inclinación.

Para la gráfica se evidencia que hay una autocorrelacion positiva

Si está en el cuadrante 2 y 4 la pendiente, hay autocorrelacion negativa, si está en el 1 y 3


hay autocorrelacion positiva y si no está en ninguno no hay autocorrelacion.
2) ESTADISTICO DE DURBIN Y WATSON
Está en el cuaderno
En la tabla se buscan los límites.
K=5
N=61 –RETARDO=60
DL =1.408
DU =1.767
Ahora se busca el estadístico para comparar

Cae en zona de indecisión, no hay suficiente evidencia para rechazar la hipótesis nula pero
hay tendencia de autocorrelacion negativa.
Si es + aumenta con respecto al año anterior y si es – disminuye con respecto al año
anterior
3) MODELO AUTOREGRESIVO DE MARKOV
Variable dependiente sean los residuos y la independiente los residuos con retardo, si la
regresión es significativa, existe autocorrelacion
El parámetro es significativo, hay autocorrelacion positiva, porque el valor del parámetro
es mayor a 0.
Las pruebas están diciendo que hay autocorrelacion, pero es mínima por el sesgo que
tiene, se puede corregir.
4) PRUEBA DE BREUSCH Y GODFREY
Se puede detectar la autocorrelacion incluyendo a los residuos con retardo
Las variables ya no son significativas pero los residuos con un retardo son significativos, y
la razón por el que hay autocorrelacion es por la relación de los residuos y no por la
relación entre variables, el modelo no sirve, el modelo tiene autocorrelacion.
Por eso, hay que incluir un periodo de retraso en el modelo porque los retardos -1 son
significativos.

Si el modelo es significativo no hay autocorrelacion (R cuadrado alto, F estadístico alto,


parámetros de las variables independientes significativos).

Esta mide el nivel de autocorrelacion porque determina el nivel de retardo.


Razones del retardo:
 Hay retrasos en cada una de las variables (pruebas de cointegracion o buscar la raíz
unitaria de la variable).
 La línea de regresión está generando el retardo (incluir residuos con retardo en la
estimación).
Esto se corrige:
 CORRECIÓN GRUPAL:
Parámetro auto regresivo (AR)

1 porque la autocorrelacion es positiva


Una vez mas la lfbkf y lc no sirven,

Hay que hacer:

 Correcion individual
Cointegracion (raíces unitarias)

SESGO DE ESPECIFICACIÓN
Forma funcional (especificar mal la función de regresión)

SE SACA UNA NUEVA REGRESION AGREGANDO AR(1)


1. DURBIN & WATSON
Si el indicador incrementa a ubicarse alrededor del 2, Como cada cambio de durbin y
Watson elevaba el intervalo, lo que quiere decir es que le modelo mejoro con la ultima línea
de regresión, se puede decir que esta bien especificado.
Se mira como mejora el indicador.
Si no mejora, la línea de regresión esta mal planteada.
2. ANALISIS DE LOS RESIDUOS
Comparar los errores
Es el mejor porque los valores reales están casi que iguales a los valores estimados
LOS ERRORES DEBEN SER CERCANOS A 0 PORQUE ENTRE MAS CERCANO SEA, LA LINEA DE
REGRESION VA A SER MEJOR
3. CRITERIO DE AKAIKE
Mientras menor sea el valor, mejor estimado está el modelo
En la foto se ve que el menor akike es el de la estimación 2, por lo tanto el mejor modelo
es el de la estimación 2.
Se hace estimando varianzas.
Mientras menor sea la varianza de las variables independientes con respecto a la
varianza de la variable dependiente, mejor será el modelo.
4. RAMSEY’S RESET:
Agregar dos términos (parámetros) a la línea de regresión, considerando que esos dos
términos son perturbaciones. Si el modelo con esas perturbaciones es significativo,
entonces el modelo está mal especificado.
Se toma con el estadístico F, si este no es significativo, el modelo esta bien especificado,
si F es significativo esta mal especificado.
Esas perturbaciones implican o no implican cambio en esas líneas de regresión.
Se evalua el primer f estadístico

Ese F estadístico no es significativo, por lo tanto el modelo está bien especificado.


Evaluar si plantean otra serie de realidad.
PREDICCION
En la línea de regresión, seleccionar forecast:
La línea azul es la estimada, es la que proyecta el modelo de regresión.
Si esa línea azul se encuentra dentro de las dos lineas rojas que lo rodean, el modelo sirve
para predecir
Se mira la media de la raíz cuadrada del erroe, el valor medio del error, el valor absoluto del
error, tienen a 0. Evaluando los errores y como estos tienden a 0, el modelo sirve para
predecir.
El coeficiente de desigualdades Theil, si es menor a 3 significa que el modelo sirve para
predecir
CHOW
La prueba de estibilidad parametrica de CHOW, medir si a lo largo de la línea de regresión,
esos parámetros se mantienen (si son o no son constantes), se toma algún punto de la
muestra con camhbio estructural
Si el F es significativo, el cambio estructural afecta al parámetro, si F no es significativo, el
cambio estructural no afecta al parámetro, y por lo tanto hay estabilidad paramétrica.
Para el modelo hay estabilidad, y sirve para predecir.

También podría gustarte