Está en la página 1de 8

Guía

1. ¿Porque razón debe formularse el supuesto de normalidad?


2. ¿Qué propiedades presentan los estimadores de mínimos cuadrados bajo el supuesto
de normalidad?
3. Explique en que consiste el estadístico Jarque Bera, que parámetros utiliza, contra
que valor de tablas es comparado para tomar una decisión.
4. Explique la prueba de Kolmogorov
5. Comente la prueba Anderson Darling
6. Defina que es la heteroscedasticidad.
7. Explique cuales son las causas por las que las varianzas de i no son constantes.
8. Qué ocurre con los estimadores en presencia de heteroscedasticidad.
9. En que consiste el método de mínimos cuadrados generalizados.
10. Cómo se detecta la heteroscedasticidad
11. Explique los métodos informales para detectar la heteroscedasticidad.
12. Explique la prueba de Park, la de Glejser, la Harvey, Goldfeld-Quant, Breusch-
Pagan-Godfrey, White DC y DNC, ARCH.
13. Cómo se corrige la heteroscedasticidad.
14. Defina que es autocorrelación.
15. Que diferencia existe entre autocorrelación y correlación serial.
16. ¿Por qué existe la correlación serial?
17. Qué le ocurre a los estimadores mínimo cuadráticos en presencia de
autocorrelación.
18. Defina que es un esquema autorregresivo.
19. Qué es el coeficiente de autocovarianza.
20. Qué ocurre con los estimadores en presencia de autocorrelación.
21. Explique los métodos para detectar la autocorrelación.
22. Cuáles son los supuestos en los que se basa el estadístico Durbin Watson.
23. En que consiste la prueba Breusch-Godfrey.
24. Explique el método de las primeras diferencias.
25. Explique el método de Cochrane-Orcutt.
26. Cuál es el papel del tiempo o los rezagos en la economía.
27. Qué es el multiplicador de corto plazo.
28. Qué es el multiplicador de rezagos distribuidos de largo plazo.
29. Porque es necesario usar rezagos.
30. Explique el método de Koyck para los modelos de rezagos distribuidos.
31.-Características y finalidad de las series temporales
a) Definición
b) Objetivo
c) Etapas que se necesitan cubrir en el análisis de series temporales
32.- Análisis clásico de las series temporales
a) Componentes de una serie temporal
b) Formas de combinar los componentes
c) Criterios para detectar el modelo
33.- Análisis de tendencia
a) Métodos de estimación
b) Expresión de la tendencia y cambios de base

1
34.- Análisis de estacionalidad
a) Métodos para estimar estacionalidad
b) La desestacionalización
35.- Análisis del ciclo
a) Modelos naives o ingenuos
b) Modelos de medias móviles
c) Alisado exponencial simple
36.- Métodos aplicables a series con tendencia
a) Modelo de Brown
b) Modelo de Holt
37.- Modelo de Holt Winters
38.- Predicción
a) Método de pronóstico

39. Cuál es el objetivo de las series temporales


40. Explique los componentes de una serie temporal
41. Explique el análisis de tendencia
42. Qué métodos conoce para estimar la estacionalidad, explique
43. Explique el método de medias móviles
44. Ejemplifique el modelo de Brown
45. Que diferencias existe entre el Modelo de Holt y el del Modelo de Holt Winters
46. Explique algunos métodos de pronóstico.

Contraste h de Durbin
Considere la forma:

con

donde es una variable aleatoria “Ruido Blanco”

La formulación de la hipótesis será:

: =0 No existe autocorrelación
: Existe autocorrelación AR(1)
Y si la hipótesis nula es cierta, el estadístico:

donde:

n Es el tamaño de la muestra
Varianza muestral estimada del coeficiente de Y t-1 en la regresión del modelo
original.

2
r es el coeficiente de autocorrelación muestral, o sea:

El coeficiente de correlación puede obtenerse por medio de una regresión auxiliar, estimando el
parámetro por MCO, en un modelo como:

Una forma alternativa de obtener este valor es a través del estadístico de Durbin-Watson
desarrollando las sumatorias que forman el estadístico. De esta manera se obtiene que:

Cuadro
Regresión del consumo en función del PIB y del consumo con un rezago

LS // Dependent Variable is CP
Sample: 1988 1999
Included observations: 12 after adjusting endpoints

Variable Coefficient Std. Error T-Statistic Prob.

C 780.6843 466.1902 1.674605 0.1283


PIB -0.002714 0.010880 -0.249441 0.8086
CP(-1) 0.934178 0.169258 5.519250 0.0004

R-squared 0.984426 Mean dependent var 6333.763


Adjusted R-squared 0.980965 S.D. dependent var 864.0075
S.E. of regression 119.2059 Akaike info criterion 9.774022
Sum squared resid 127890.3 Schwartz criterion 9.895248
Log likelihood -72.67139 F-statistic 284.4366
Durbin-Watson stat 1.618970 Prob(F-statistic) 0.000000

Se debe contrastar el posible incumplimiento de la hipótesis de no autocorrelación antes de


comprobar si las variables son significativas o no.

Contraste de la h de Durbin.

Bajo la hipótesis nula el estadístico.

La obtención de los valores necesarios para construir el estadístico se realiza con el cuadro 31
(salida de la regresión) del modelo estimado por MCO.

3
El estadístico teórico sigue una distribución normal (0, 1), que al 95% de nivel de confianza, en
contraste de una sola cola, es:

ht = 1.645
por lo tanto, como:
hcalculada = 0.808436 < ht = 1.645
No se rechaza la hipótesis nula.

Es decir, con un 95% de confianza las perturbaciones de esta especificación son esféricas 1.

1.- Evalué la regresión e intérprete los coeficientes


Donde PIB= Producto Interno
T = Tiempo
Dependent Variable: PIB
Method: Least Squares
Sample: 1970 2001
Included observations: 32

Variable Coefficient Std. Error t-Statistic Prob.  

C 515872.6 21391.92 24.11530 0.0000


T 31756.17 1131.389 28.06832 0.0000

R-squared 0.963318     Mean dependent var 1039849.


Adjusted R-squared 0.962095     S.D. dependent var 303518.2
S.E. of regression 59092.72     Akaike info criterion 24.87206
Sum squared resid 1.05E+11     Schwarz criterion 24.96367
Log likelihood -395.9530     F-statistic 787.8304
Durbin-Watson stat 0.499410     Prob(F-statistic) 0.000000

2.- Evalué la regresión e intérprete los coeficientes


Donde PIB= Producto Interno
INVPUB = Inversión Publica
INVPRIV = Inversión Privada
AR(1) = Proceso Autorregresivo de orden 1
Dependent Variable: PIB
Method: Least Squares
Sample (adjusted): 1971 2001
Included observations: 31 after adjustments
Convergence achieved after 15 iterations

1
Las perturbaciones que satisfacen los supuestos de homocedasticidad y no autocorrelación son, conocidas como
perturbaciones esféricas.

4
Variable Coefficient Std. Error t-Statistic Prob.  

C -1327869. 4645961. -0.285811 0.7772


INVPUB 1.112902 1.297271 0.857879 0.3985
INVPRIV -0.820408 4.935580 -0.166223 0.8692
AR(1) 1.015212 0.030426 33.36690 0.0000

R-squared 0.981802     Mean dependent var 1056614.


Adjusted R-squared 0.979780     S.D. dependent var 293088.0
S.E. of regression 41676.50     Akaike info criterion 24.23318
Sum squared resid 4.69E+10     Schwarz criterion 24.41821
Log likelihood -371.6142     F-statistic 485.5539
Durbin-Watson stat 1.955977     Prob(F-statistic) 0.000000

Inverted AR Roots       1.02


Estimated AR process is nonstationary

3.- Evalué la regresión e intérprete los coeficientes


Donde PIB= Producto Interno
INVPUB = Inversión Publica
INVPRIV = Inversión Privada
PIB(-1) = Producto Interno Rezagado

Prueba la presencia de no autocorrelación con el estadístico h de Durbin


Dependent Variable: PIB
Method: Least Squares
Sample (adjusted): 1971 2001
Included observations: 31 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

C 60131.74 24777.09 2.426908 0.0222


INVPUB 0.702911 0.610299 1.151750 0.2595
INVPRIV 4.232676 2.246385 1.884217 0.0703
PIB(-1) 0.935416 0.028422 32.91207 0.0000

R-squared 0.987025     Mean dependent var 1056614.


Adjusted R-squared 0.985583     S.D. dependent var 293088.0
S.E. of regression 35190.76     Akaike info criterion 23.89487
Sum squared resid 3.34E+10     Schwarz criterion 24.07990
Log likelihood -366.3705     F-statistic 684.6474
Durbin-Watson stat 2.157423     Prob(F-statistic) 0.000000

4.- De la regresión intérprete los coeficientes

Dependent Variable: PIB


Method: Least Squares
Sample (adjusted): 1970 2000

5
Included observations: 31 after adjustments

Variable Coefficient Std. Error t-Statistic Prob.  

C 670443.0 141474.3 4.738974 0.0001


PUB 4.289711 1.238005 3.465020 0.0018
LOG(PRIV) -24507.01 20279.90 -1.208438 0.2374
T 25247.45 1969.161 12.82142 0.0000

R-squared 0.973803     Mean dependent var 1021624.


Adjusted R-squared 0.970892     S.D. dependent var 290191.2
S.E. of regression 49509.61     Akaike info criterion 24.57764
Sum squared resid 6.62E+10     Schwarz criterion 24.76267
Log likelihood -376.9533     F-statistic 334.5496
Durbin-Watson stat 0.657549     Prob(F-statistic) 0.000000

5.- Elabore los resúmenes de los supuestos de:

Resumen de Multicolinealidad
Es la existencia de una relación lineal perfecta o exacta entre algunas o todas las variables
explicativas de un modelo de regresión.

Causas
Síntomas
Pruebas para detectar
Consecuencias
Corrección

Resumen de Autocorrelación
La correlación existente entre los miembros de una serie de observaciones ordenadas en el tiempo
o en el espacio

Causas
Síntomas
Pruebas para detectar
Consecuencias
Corrección

Resumen de Heteroscedasticidad

La varianza de las perturbaciones no es constante a lo largo de las observaciones

Causas
Síntomas
Pruebas para detectar
Consecuencias
Corrección

6.- Explique el método de primeras diferencias

6
7.- Complete el siguiente cuadro

8.- Evalue el siguiente modelo y comete lo que observa


Dependent Variable: EXPORTA
Method: Least Squares
Sample: 1 56
Included observations: 56
Variable Coefficient Std. Error t-Statistic Prob.
C -888.1381 2204.618 -0.402854 0.6888
VENTAS -0.096793 0.069634 -1.390031 0.1707
BARRILESDII -0.396510 0.154148 -2.572267 0.0131
APEMEX 0.252543 0.097508 2.589966 0.0125
PP -0.770914 0.203026 -3.797113 0.0004
MBYS 1.471799 0.160219 9.186170 0.0000
R-squared 0.712765 Mean dependent var 11675.80
Adjusted R-squared 0.684041 S.D. dependent var 14844.71
S.E. of regression 8344.244 Akaike info criterion 20.99749
Sum squared resid 3.48E+09 Schwarz criterion 21.21449
Log likelihood -581.9297 F-statistic 24.81464
Durbin-Watson stat 2.121636 Prob(F-statistic) 0.000000

7
1.6
80000

60000 1.2
40000
20000 0.8
20000 0

10000 -20000 0.4


0

-10000 0.0
-20000
-30000 -0.4
5 10 15 20 25 30 35 40 45 50 55 10 15 20 25 30 35 40 45 50 55

Residual Actual F it ted CUSUM of Squares 5% Significance

14
Series: Residuals
12 Sample 1 56
Observations 56
10
Mean -4.95E-13
Median 434.2569
8
Maximum 19087.11
Minimum -23946.33
6
Std. Dev. 7955.925
Skewness -0.413231
4 Kurtosis 3.938739

2 Jarque-Bera 3.649967
Probability 0.161220
0
-20000 -10000 0 10000 20000
Breusch-Godfrey Serial Correlation LM Test(1)
F-statistic 0.220782 Probability 0.640529
Obs*R-squared 0.251191 Probability 0.616238

Breusch-Godfrey Serial Correlation LM Test (2)


F-statistic 0.790239 Probability 0.459550
Obs*R-squared 1.785114 Probability 0.409607

White Heteroskedasticity Test:DNC


F-statistic 3.057953 Probability 0.004846
Obs*R-squared 22.65764 Probability 0.012083

White Heteroskedasticity Test:DC


F-statistic 3.009073 Probability 0.002109
Obs*R-squared 35.40775 Probability 0.018037

También podría gustarte