Documentos de Académico
Documentos de Profesional
Documentos de Cultura
FACULTAD DE ECONOMIA
MODELOS MULTIECUACIONALES
1.1. EXOGENEIDAD
En términos generales:
2º Variable exógena es aquella cuyos valores se toman como datos para analizar
el comportamiento de las endógenas.
2º Que aún interviniendo sin ningún nivel de retardo, estás sólo dependan de
variables estrictamente exógenas o de variables retardadas.
X 1t = α 11 * X 1t + α 21 * X 2 t +...+α rt * X rt + u1t
X it = α 1i * X 1t + α 2i * X 2 t +...+α ri * X rt + uit
X rt = α 1r * X 1t + α 2 r * X 2 t +...+α rr * X rt + urt
L. A. R. G.
2
y presentando una función de distribución conjunta de las perturbaciones aleatorias
independiente para cada periodo t, así:
L. A. R. G.
3
de Yt −1 .
L. A. R. G.
4
depende de Yt −1 ; por lo tanto, X t no es fuertemente exógena.
L. A. R. G.
5
DDt = α 1 + α 2 I t + α 3 ENCt + α 4 DDt −1 + u1t
I t = β 1 + β 2 DDt + β 3 INFt + u 2t
INFt = δ 1 + δ 2 DDt + δ 3 CIN t + u 3t
Dependent Variable: DD
Method: Least Squares
Sample: 1992:02 1997:12
Included observations: 71
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 37.82578 11.54381 3.276716 0.0017
DD(-1) 0.686693 0.087386 7.858146 0.0000
ENC -0.400755 0.206661 -1.939190 0.0567
CIN 0.038788 0.010386 3.734700 0.0004
============================================================
R-squared 0.848166 Mean dependent var 207.9296
============================================================
DDF
================================================================================
Modified: 1992:02 1997:12 // frdd.fit ddf
1992:01 NA 144.7520 146.4577 147.9097 153.1752 151.2739
1992:07 155.2140 164.7869 156.9519 154.5775 156.8674 157.9472
1993:01 171.6747 164.1451 170.1863 164.5127 158.1686 153.1212
1993:07 164.9365 178.5399 164.1107 167.7566 173.7750 173.9148
1994:01 194.8023 180.7786 182.7720 188.9755 178.1305 179.3825
1994:07 185.6961 219.4566 196.9213 200.7219 201.4028 200.8673
1995:01 239.0520 215.7034 224.6584 236.4655 225.9911 219.8976
1995:07 225.4408 247.7038 230.3212 234.5356 234.8269 230.6908
1996:01 258.3213 233.7957 230.7273 237.7114 241.8207 242.2752
1996:07 236.4521 250.4778 238.3640 235.9629 235.6657 237.1514
1997:01 260.8767 241.0755 244.8116 257.7485 259.6422 261.2410
1997:07 253.4000 279.0850 267.5338 260.7541 266.3076 261.8484
================================================================================
L. A. R. G.
6
INFF
================================================================================
Modified: 1992:02 1997:12 // frinf.fit inff
1992:01 3.500000 4.008865 3.872067 3.424886 3.545896 3.490536
1992:07 2.875449 3.159742 3.740656 3.466783 3.676729 2.952576
1993:01 3.270704 2.953143 3.007627 3.047820 3.690561 3.643172
1993:07 2.353319 2.372938 2.984426 2.271774 2.434575 1.733955
1994:01 1.423582 1.805801 1.524053 1.334873 1.867048 1.901173
1994:07 2.005350 0.926592 1.317732 1.282110 1.420033 1.150795
1995:01 0.215221 0.944469 0.608405 0.371529 1.193807 1.102860
1995:07 1.269565 0.729651 1.096230 1.045941 1.129630 1.238353
1996:01 0.811535 1.334264 1.524015 0.831504 0.646067 0.558532
1996:07 1.241294 0.626075 1.364197 0.873296 1.130797 1.108127
1997:01 0.471394 1.091477 1.313852 0.135472 -0.091280 -0.022570
1997:07 0.575497 -0.462633 0.228249 0.256949 0.207520 0.663370
================================================================================
se realiza la comparación:
F = 2.252994 < 3.1357193449 = F(0.95, 2 , 66 )
L. A. R. G.
7
L. A. R. G.
8
Yt = α 1 X t + β 11Yt −1 + β 12 X t −1 + u1t
X t = α 2Yt + β 21Yt −1 + β 22 X t −1 + u 2t
Sabemos que:
α 2 β 11 + β 21
π 21 =
1 − α 1α 2
entonces π 21 = 0 no implica que α 2 = 0 y β 21 = 0 . Por lo tanto, la prueba de
causalidad de Granger no equivale a la prueba de predeterminación ni a la prueba de
exogeneidad estricta.
1.4. EVALUACIÓN
A.- Los parámetros estimados tengan el tamaño y el signo que la teoría señala, o
L. A. R. G.
9
B.- los parámetros estimados no posean las características que la teoría espera.
Dependent Variable: CP
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C -142.1103 10.13736 -14.01848 0.0000
PBI 0.673290 0.004185 160.8802 0.0000
============================================================
R-squared 0.994587 Mean dependent var 1416.052
Adjusted R-squared 0.994549 S.D. dependent var 484.8804
S.E. of regression 35.79936 Sum squared resid 180704.8
F-statistic 25882.43 Durbin-Watson stat 0.165631
Prob(F-statistic) 0.000000
============================================================
Dependent Variable: IB
Method: Two-Stage Least Squares
Sample(adjusted): 1950:2 1985:4
Included observations: 143 after adjusting endpoints
Instrument list: C PBI(-1) TIB GG
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 61.22132 48.49890 1.262324 0.2089
PBI-PBI(-1) 7.496991 1.826459 4.104659 0.0001
TIB 35.78810 5.098588 7.019217 0.0000
============================================================
R-squared -1.225633 Mean dependent var 385.1077
Adjusted R-squared -1.257428 S.D. dependent var 130.6596
S.E. of regression 196.3126 Sum squared resid 5395412.
F-statistic 29.63298 Durbin-Watson stat 1.342052
Prob(F-statistic) 0.000000
============================================================
L. A. R. G.
10
1.4.2. CRITERIO ESTADÍSTICO (CRITERIO DE PRIMER ORDEN)
G σ y2
R =∑R
2 2
h G
h
h =1
∑σ
h =1
2
yh
L. A. R. G.
11
Incluso aunque todas las ecuaciones individuales se ajusten bien a los datos y
sean estadísticamente significativos, no tendremos la garantía de que en su conjunto,
cuando sea simulado, reproduzca aquellas mismas series en forma ajustada.
⎛ 484.88042 ⎞ ⎛ 130.6596 2 ⎞
R = 0.994587⎜⎜
2
⎟
2 ⎟
+ 1.225633⎜ 484.8804 2 + 130.6596 2 ⎟⎟
⎜
⎝ 484.8804 + 130.6596 ⎠
2
⎝ ⎠
R 2 = 0.844284
MULTICOLINEALIDAD:
L. A. R. G.
12
Correlation Matrix
================================================
PBI-PBI(-1) IB TIB
================================================
PBI-PBI(-1) 1.000000 0.210195 -0.043968
IB 0.210195 1.000000 0.821177
TIB -0.043968 0.821177 1.000000
================================================
HETEROCEDASTICIDAD:
L. A. R. G.
13
computador nos muestra para la primera ecuación:
ARCH Test:
============================================================
F-statistic 334.3676 Probability 0.000000
Obs*R-squared 100.0916 Probability 0.000000
============================================================
ARCH Test:
============================================================
F-statistic 2.054933 Probability 0.153943
Obs*R-squared 2.054138 Probability 0.151793
============================================================
L. A. R. G.
14
ARCH Test:
============================================================
F-statistic 179.5448 Probability 0.000000
Obs*R-squared 101.8561 Probability 0.000000
============================================================
ARCH Test:
============================================================
F-statistic 6.139587 Probability 0.002790
Obs*R-squared 11.52098 Probability 0.003150
============================================================
AUTOCORRELACION:
0 01
.4
165631
24 3 1{
.72 11
.2
73
46 2
DW dL dU
0 11
.4
342052
24 3 11
.2
706
3 1{
.76 2
DW dL dU
L. A. R. G.
15
hipótesis nula, es decir, existe autocorrelación positiva de primer orden.
L. A. R. G.
16
Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|*******| .|*******| 1 0.899 0.899 118.09 0.000
.|****** | *|. | 2 0.778-0.160 207.14 0.000
==============================================================
Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0
comparamos:
QBP = 143 * 0.899 2 = 115.572743 > 3.84 = χ (20.95,1)
calculamos:
( )
QBP = 143 * 0.899 2 + 0.778 2 = 202.128355 > 5.99 = χ (20.95, 2 )
Correlogram of Residuals
==============================================================
Sample: 1950:2 1985:4
Included observations: 143
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
.|** | .|** | 1 0.327 0.327 15.655 0.000
.|* | .|. | 2 0.117 0.011 17.665 0.000
==============================================================
L. A. R. G.
17
Se tiene:
H 0 : ρ1 = 0
H 1 : ρ1 ≠ 0
comparamos:
QBP = 143 * 0.327 2 = 15.290847 > 3.84 = χ (20.95,1)
calculamos:
( )
QBP = 143 * 0.327 2 + 0.117 2 = 17.248374 > 5.99 = χ (20.95, 2 )
NORMALIDAD:
L. A. R. G.
18
14
Series: Residuals
12 Sample 1950:2 1985:4
Observations 143
10
Mean 1.02E-12
Median -3.450644
8
Maximum 101.6454
Minimum -73.31450
6 Std. Dev. 35.67308
Skewness 0.333192
4 Kurtosis 3.135286
2 Jarque-Bera 2.754957
Probability 0.252214
0
-60 -40 -20 0 20 40 60 80 100
30
Series: Residuals
Sample 1950:2 1985:4
25 Observations 143
20 Mean 4.84E-14
Median -9.054948
Maximum 764.3070
15
Minimum -643.3132
Std. Dev. 194.9253
10 Skewness 0.233754
Kurtosis 5.681904
5
Jarque-Bera 44.15825
Probability 0.000000
0
-600 -400 -200 0 200 400 600 800
L. A. R. G.
19
2. SIMULACIÓN
La simulación más habitual es la que supone cuantificar los efectos sobre las
endógenas de valores alternativos para las variables exógenas del modelo. Si los
datos de las variables exógenas son históricos se tiene una simulación ex - post o
histórica; en cambio, si los datos de las variables exógenas son supuestos para el
futuro se trata de una simulación ex - ante.
2.1. OBJETIVOS
L. A. R. G.
20
2.2. TIPOS
L. A. R. G.
21
∏0 ⇒ término independiente.
∏0 ⇒ endógenas desplazadas.
∏0 ⇒ exógenas corrientes.
∏0 ⇒ exógenas desplazadas.
simplificando, tenemos:
Yt = ∏ 0 (I + ∏1 ) + ∏12 Yt −2 + ∏ 2 Z t + (∏ 2 ∏1 + ∏ 3 )Z t −1 + ∏1 ∏ 3 Z t −2 + (Vt + ∏1 Vt −1 )
L. A. R. G.
22
2º Multiplicador dinámico.- recoge el efecto según pasa uno, dos, ... , s períodos
que cualquier cambio en la variable exógena tienen sobre la variable
endógena. En este modelo son:
(∏ 2 ∏ 1 + ∏ 3 ) ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 1 ; (∏ 2 ∏ 1 + ∏ 3 ) ∏ 12 ; ...
simplificando tenemos:
MLP = (∏ 2 + ∏ 3 )(I − ∏ 1 )
−1
L. A. R. G.
23
donde,
L. A. R. G.
24
donde,
c ⇒ vector de G componentes.
λ ⇒ escalar.
h =1
donde,
dh ⇒ debe cumplir el conjunto de condiciones iniciales.
L. A. R. G.
25
si es que C es no singular.
cuyo límite, cuando t tiende a infinito, se anulará siempre que las raíces
características sean en valor absoluto inferiores a la unidad; es decir:
λh < 1 h = 1,2,..., G
2.5. EJEMPLO
L. A. R. G.
26
nos queda:
CPt = π 1 + π 2π 9 + π 2π 10 PBI t −2 + π 3TIBt + π 2π 11TIBt −1 + π 4 GGt + π 2π 12 GGt −1 + v1t + π 2 v3t −1
Generalizando a l sustituciones:
l l
CPt = (π 1 + π 2π 9 ∑ π 10 ) + π 2π PBI t −l −1 + π 3TIBt + π 2π 11 ∑ π 10i −1TIBt −i + π 4 GGt
i −1 l
10
i =1 i =1
l l
+ π 2π 12 ∑ π 10i −1GGt −i + (v1t + π 2 ∑ π 10i −1v3t −l )
i =1 i =1
para nuestro caso no se tiene forma final de la función de consumo personal porque
no se cumple la condición.
L. A. R. G.
27
para que el modelo sea estable debe cumplirse que λ i < 1 . En el modelo de la
determinación de la renta no se cumple porque π 10 > 1 , por lo tanto el modelo no es
estable.
L. A. R. G.
28
Model1 ⇒ OK.
ASSIGN @ALL F1
DD=160.6313558-2.403032846*I+0.1805237945*ENC+0.4840412947*DD(-1)
I=30.60088905-0.05913999321*DD+4.50263825*INF
INF=7.828404177-0.03281394227*DD+0.0004975424753*CIN
L. A. R. G.
29
1º GRÁFICA
ìf = Yf
Yf
2º COEFICIENTE DE JANUS
1 T+H
∑ ( )
2
Yf − Y$f
H f = T +1 S 2f
J2 = =
1 T S e$2
∑
T t =1
( Yt − Y$t )
2
L. A. R. G.
30
Se define como:
1 T+ H 2
RECM = ∑ e$
H t = T +1 t
Se define como:
T+ H
∑ e$t
t = T +1
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es
lineal y simétrica
Se define como:
1 T + H e$t
EPMA = ∑
H t = T +1 Yt
L. A. R. G.
31
Se define como:
1 T + H e$t2
RCREM = ∑
H t = T +1 Yt
1 T+H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $ 2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t
El U de Theil se descompone:
L. A. R. G.
32
serie.
GRÁFICA
300 23.0
22.5
280
22.0
21.5
260
21.0
20.5
240
20.0
220 19.5
97:07 97:08 97:09 97:10 97:11 97:12 97:07 97:08 97:09 97:10 97:11 97:12
DD DDF1 I IF1
300
1.4
1.2
280
1.0
DDF1
0.8 260
0.6
0.4 240
0.2
220
0.0 220 240 260 280 300
97:07 97:08 97:09 97:10 97:11 97:12
INF INFF1 DD
L. A. R. G.
33
23
1.2
1.0
22
0.8
INFF1
21
IF1
0.6
0.4
20
0.2
19 0.0
19 20 21 22 23 0.0 0.2 0.4 0.6 0.8 1.0 1.2
I INF
Los gráficos nos sugieren que hay mejor predicción en la variable I, luego en la
variable DD y por último en la variable INF.
ESTADÍSTICOS
1º COEFICIENTE DE JANUS.-
L. A. R. G.
34
El modelo para las variables DD e I predice bien porque los estadísticos son
pequeños.
El modelo predice bien para las variables DD e I porque los estadísticos son
menores a 0.10.
L. A. R. G.
CAPITULO II
SERIES DE TIEMPO
1º INTRODUCCIÓN
Este problema surge porque si las dos series de tiempo involucradas presentan
tendencias fuertes (movimientos sostenidos hacia arriba o hacia abajo), el alto R2
observado se debe a la presencia de la tendencia y no a la verdadera relación entre las
dos. Por consiguiente es muy importante averiguar si la relación entre las variables
económicas es verdadera o es espuria.
Como lo han sugerido Granger y Newbold : una buena regla práctica para
sospechar que la regresión estimada sufre de regresión espuria es que R2 > D-W.
Por ejemplo: Se tiene las series anuales (1936-1972) del PNB nominal en
Estados Unidos (datos en miles de millones de dólares), y de la Incidencia del
melanoma en la población masculina (datos ajustados de edad) en el estado de
Connecticut. 800
6 700
5
600
800
4
500
GNP
600 3
400
2
400 300
1
200
200 0
100
0 1 2 3 4 5 6
0
1940 1945 1950 1955 1960 1965 1970 MELANOMA
GNP MELANOMA
L. A. R. G.
Conceptualmente resulta absurdo relacionarlas.
60
40
40
20 20
D(GNP)
2.0 0
0
1.5 -20
-40 -20
1.0
-60
-40
0.5
0.0 -60
-0.5 0.0 0.5 1.0 1.5 2.0
-0.5
D(MELAMONA)
1940 1945 1950 1955 1960 1965 1970
D(MELANOMA) D(GNP)
L. A. R. G.
Consecuentemente, la relación de regresión entre las variables transformadas no
resulta significativa
5º Muy Largo Plazo, mayor a 10 años, para las decisiones estratégicas incluyendo
aquellas de cambio de las características principales de la empresa. Por
ejemplo: predicción tecnológica en apoyo de investigación y desarrollo y
planificación estratégica.
1º Medios Escasos:
L. A. R. G.
Largo plazo.- Curva en S.
2º Medios Normales:
L. A. R. G.
1.8. MÉTODOS USADOS EN EL DOMINIO DEL TIEMPO
1º Univariante,
Φ ( Β )Yt = Θ ( Β ) ut
2º Función de transferencia,
Θ (Β )
Yt = u
Φ (Β ) t
Con los mismos polinomiales de retardos definidos, de orden p y q,
entonces puede definirse el modelo (simple) de función de transferencia, con
ruido, como:
K ω j (Β ) Θ (Β )
Yt = ∑j =1 δ ( Β ) jt Φ ( Β ) ut
X +
j
L. A. R. G.
Generalizando al caso de más de una variable explicativa, con K
cocientes distintos de polinomiales de retardos, uno por cada input; es:
ω (Β ) Θ (Β )
Yt = Xt + u
δ (Β ) Φ (Β ) t
3º Intervención,
4º Multivariantes,
Yt = V ( Β ) X t + Φ ( Β ) Θ ( Β )U t
−1
L. A. R. G.
determinada. De forma genérica podemos representar una serie temporal de T
observaciones como:
Yt = (Y1 , Y2 ,......, YT )
DesYt =
1 T
∑ (Yt − Y )2 .
T t =1
2,400
2,000
1,600
1,200
800
400
1950 1955 1960 1965 1970 1975 1980 1985
CP @MEAN(CP,"1950q1 1988q1")
Yt − Yt −1 Y
%∆Yt = *100 = t − 1 *100
Yt −1 Yt −1
Cuando estamos analizando series temporales de frecuencia superior al año
podemos calcular distintas tasas de crecimiento alternativas.
Mensual Trimestral
Y Y
Sobre el periodo anterior ∆11Yt = t − 1 *100 ∆11Yt = t − 1 *100
Yt −1 Yt −1
Sobre el mismo periodo Y Yt
anterior ∆1 Yt = t − 1 *100 ∆1Yt = − 1 *100
12 4
del año
(interanuales) Yt −12 Yt − 4
L. A. R. G.
Las tasas interanuales presentan un comportamiento mas suavizado y
representan el movimiento tendencial de la variable, mientras que las tasas sobre el
periodo anterior recogen la dinámica más reciente y son más volátiles.
8
4
6
2
4
0
2
-2
0
-2
-4
1950 1955 1960 1965 1970 1975 1980 1985
TPA TPAA
6.4
500
1955 1960 1965 1970 1975 1980 1985
CP LOG(CP)
-1
-2
-3
1955 1960 1965 1970 1975 1980 1985
(LOG(CP)-LOG(CP(-1)))*100 TPA
L. A. R. G.
Yt2 λ=2
2
Y t λ = 0,5
Ln(Yt ) para λ=0
1
λ = −0,5
Wt = 2 Y
t
1
λ = −1
Yt
1
2
λ = −2
Yt
Graficando tenemos:
1/SQR(CP)
CP^2 SQR(CP) .040
7000000 52
.036
6000000 48
5000000 44 .032
4000000 40 .028
3000000 36 .024
2000000 32
.020
1000000 28
.016
0 24 1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985 1955 1960 1965 1970 1975 1980 1985
LOG(CP) 1/CP
1/CP^2
8.0 .0014
.0000020
7.8
.0012
7.6 .0000016
7.4 .0010
.0000012
7.2 .0008
7.0 .0000008
.0006
6.8
.0004 .0000004
6.6
6.4 .0002
1955 1960 1965 1970 1975 1980 1985 .0000000
1955 1960 1965 1970 1975 1980 1985
1955 1960 1965 1970 1975 1980 1985
L. A. R. G.
2º Modelable ⇒ Es posible hacer un modelo para reproducir una estructura.
El componente modelable es estocástico.
1º ADITIVO:
Yt = Tt + Ct + St + I t
2º MULTIPLICATIVO:
Yt = Tt * Ct * St * I t
3º MIXTO:
Yt = Tt * (1 + Ct ) * (1 + St ) + I t
3º Ciclo Cˆ t = f (Yt 2 )
4º Componente irregular I t = Yt 2 − Cˆ t
3.1. DESESTACIONALIZACIÓN
* Efecto PASCUA: Corrección que se aplica a los meses de Abril o Marzo en función
de las fechas de Semana Santa.
L. A. R. G.
A las series de las que se han eliminado estos efectos se les denomina SERIES
CORREGIDAS DE CALENDARIO.
Estas características se deben a que las decisiones tomadas por los agentes
económicos en un determinado trimestre (bimestre, mes, o semana) del año puede
estar correlacionado con las decisiones tomadas en el mismo trimestre (bimestre, mes
o semana) de otros años.
60 800
780
50
760
40
740
30
720
20 700
92M01 92M07 93M01 93M07 94M01 1950 1951 1952 1953
L. A. R. G.
2º LINEAS APILADAS.- Nos interesa observar el comportamiento de cada mes
o trimestre, si el comportamiento es diferente, entonces existe estacionalidad.
60
2000
50 1600
40 1200
800
30
400
Q1 Q2 Q3 Q4
20
Jan Feb Mar Apr May Jun Jul Aug Sep Oct Nov Dec
CP Means by Season
Means by Season
4º CORRELOGRAMA.-
L. A. R. G.
La función de autocorrelación es el conjunto de coeficientes de
autocorrelación rk desde 1 hasta un máximo que no puede exceder la mitad de
los valores observados, y es de gran importancia para estudiar la estacionalidad
de la serie, ya que si ésta existe, los valores separados entre sí por intervalos
iguales al periodo estacional deben estar correlacionados de alguna forma. Es
decir que el coeficiente de autocorrelación para un retardo igual al periodo
estacional debe ser significativamente diferente de 0.
L. A. R. G.
visualiza que el pico del retardo 5 se repite en el retardo 17, por lo tanto,
podemos concluir que el producto bruto interno agrícola es estacional.
donde cada variable Di toma valores 1 en el período que ésta representa (p. e.,
enero de cada año) y cero en cualquier otro período. El modelo puede ser
extendido para incluir otras variables explicativas o un proceso más complejo
(aunque estacionario) para el error (p. e., un ARMA).
L. A. R. G.
donde β i son los parámetros estimados para cada componente estacional que
resulten significativos.
Dependent Variable: CP
Method: Least Squares
Sample (adjusted): 1950Q2 1988Q1
Included observations: 152 after adjustments
L. A. R. G.
Modelo 1: MCO, usando las observaciones 1950:2-1988:1 (T = 152)
Variable dependiente: CP
Coeficiente Desv. Típica Estadístico t Valor p
Const 0,940573 3,3801 0,2783 0,78120
dq1 2,5778 2,78414 0,9259 0,35602
dq2 1,52991 2,78449 0,5494 0,58354
dq3 4,60995 2,78421 1,6557 0,09991 *
CP_1 1,00602 0,0018633 539,9100 <0,00001 ***
Media de la vble. dep. 1479,040 D.T. de la vble. dep. 533,5063
Suma de cuad. residuos 21648,89 D.T. de la regresión 12,13554
R-cuadrado 0,999496 R-cuadrado corregido 0,999483
F(4, 147) 72922,06 Valor p (de F) 3,0e-241
Log-verosimilitud -592,5497 Criterio de Akaike 1195,099
Criterio de Schwarz 1210,219 Crit. de Hannan-Quinn 1201,241
Rho 0,147941 h de Durbin 1,818406
L. A. R. G.
Mensuales Orden 12 Trimestrales Orden 4
1 11 1 3
Sin centrar MM 12Yt = ∑ Yt −r
12 r =0
MM 4Yt = ∑ Yt −r
4 r =0
1 +6 1 +2
MMc12Yt = ∑ ωYt −r
12 r = −6
MMc 4Yt = ∑ ωYt −r
4 r = −2
Centrada
Con ω = 0.5 para r=-6 y Con ω = 0,5 para r = -2 y +2
+6 y ω = 1 el resto. y ω = 1 el resto.
Aplicando la media móvil sin centrar al consumo personal real nos daría
los siguientes factores estacionales:
2) Se considera el ratio:
Yt
rt =
Xt
L. A. R. G.
3) ( )
Calculamos el índice estacional i m como el promedio del ratio de promedio
móvil para ese mes o trimestre en el periodo analizado.
im
12 i i ...i mensuales
1 2 12
s= im
trimestres
4 i1i2 i3i4
Scaling Factors:
1 1.000019
2 0.999470
3 1.000848
4 0.999663
L. A. R. G.
de promedio móvil para ese mes o trimestre en el periodo analizado.
Scaling Factors:
1 -0.132086
2 -0.941545
3 1.444906
4 -0.371275
Yˆt = α * t + (1 − α )* Yˆt −1 + bt −1
Y
st − s
( )
t (
b = β * Yˆ − Yˆ + (1 − β )* b
t t −1 ) t −1
+ (1 − δ )st − s
Yt
st = δ
Yˆt
La predicción es:
( )
Yˆt + k = Yˆt + bt * k * st − s + k
L. A. R. G.
En el Eviews se sigue la instrucción siguiente:
La predicción es:
Yˆt + k = Yˆt + bt * k + st − s + k
L. A. R. G.
Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Holt-Winters
Aditivo ⇒ OK y se muestra el siguiente resultado:
L. A. R. G.
la estimación, ya que el procedimiento realiza varias iteraciones antes de
estimar finalmente las componentes del modelo, incluido el modelo ARIMA
para la componente aleatoria.
En el Eviews se tiene:
L. A. R. G.
ARIMA es un método basado en promedios móviles, los cuales se sustentan en
el dominio del tiempo o en el de frecuencias. Census X12-ARIMA logra el
ajuste estacional con el desarrollo de un sistema de los factores que explican la
variación estacional en una serie.
L. A. R. G.
Aunque están estructurados para satisfacer las necesidades de un analista
experto, pueden utilizarse también de forma totalmente automática. Sus
principales aplicaciones son predicción, ajuste estacional, detección y
corrección de observaciones atípicas, estimación de efectos especiales, y
control de calidad de los datos”.
L. A. R. G.
Modified: 1950Q1 1988Q1 // mvc3cp = (cp(-1)+cp+cp(+1))/3
1950Q1 NA 730.8333 740.3667 749.9000
1951Q1 745.0667 747.5000 746.8000 751.6000
1952Q1 758.3667 765.1667 776.9333 787.5000
1953Q1 797.8333 802.2000 803.3667 804.5000
1954Q1 808.2333 816.2333 827.9667 841.6333
1955Q1 855.5667 867.4667 879.9333 888.6000
Lineal
60
Lineal 50
Yt = a + b * t 40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 1516 17 18 19 20
Parábola
Parábola 150
Yt = a + b * t + c * t 2 100
50
0
1 2 3 4 5 6 7 8 9 10 1112 13 1415 1617 18 1920
Exponencial
200
Exponencial Yt = a * b t 150
Ln(Yt ) = c + d * t
100
50
0
1 2 3 4 5 6 7 8 9 1011 1213 1415 16 1718 1920
Potencial
200
Potencial
Yt = a * t b
150
100
Ln(Yt ) = c + d * Ln(t ) 50
0
1 2 3 4 5 6 7 8 9 10 1112 1314 1516 1718 1920
LS CP C @TREND LINEAL
LS CP C @TREND @TREND^2 PARÁBOLA
L. A. R. G.
LS LOG(CP) C @TREND EXPONENCIAL
LS LOG(CP) C LOG(@TREND) POTENCIAL
Variable CP
Included Observation 153
Yt = 689.46 +6.6505*t Yt = 716.86 *
Equation Yt = 551.89 +11.976*t
+0.03458*t**2 (1.0085**t)
R-Squared 0.982551 0.995333 0.993978
R-Square Adjusted 0.999980 0.999990 0.961511
Sum Square Error
(SSE)
760146.960164 203307.057636 0.024479
El modelo es:
Resulta:
Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153
L. A. R. G.
R-squared 0.982576 Mean dependent var 1474.026
Adjusted R-squared 0.981984 S.D. dependent var 535.3530
S.E. of regression 71.85795 Akaike info criterion 11.42569
Sum squared resid 759044.1 Schwarz criterion 11.54453
Log likelihood -868.0650 F-statistic 1657.947
Durbin-Watson stat 0.033761 Prob(F-statistic) 0.000000
El modelo es:
2πt 2πt 2πt
Yt = α 0 + α1t + α 2 t 2 + α 3 sen + α 4 cos + α5tsen +
w w w
2πt 2πt 2πt
α 6 t cos + α 7 t 2 sen + α8 t 2 cos + ut
w w w
donde w es el número de observaciones en un año.
Obteniendo:
Dependent Variable: CP
Method: Least Squares
Sample: 1950Q1 1988Q1
Included observations: 153
L. A. R. G.
3º ALISADO.- Las técnicas de alisado exponencial se utilizan en situaciones en
las que existen pocos datos, y si es necesario ir actualizando el modelo
empleado cada vez que se obtiene un nuevo dato. Son muy simples en su
aplicación pero limitados.
Yˆt = α * Yt + (1 − α )* Yˆt −1
N −1
Yˆt = α * ∑ (1 − α ) Yt − s
s
s =0
Predicción:
Yˆt + k = Yˆt ∀k > 0
Válido para series sin tendencia. La predicción no aporta información
adicional.
Predicción:
αk ˆ 1 αk ˆ
Yˆt + k = 2 + * Yt − 1 + * Yt =
(1 − α ) (1 − α )
= 2 * Yˆt1 − Yˆt +
α
(1 − α )
( )
Yˆt1 − Yˆt k
Válido para series con tendencia lineal. La predicción es una recta con
( )
ordenada en el origen 2 * Yˆt1 − Yˆt y pendiente α Yˆt1 − Yˆt (1 − α ).
L. A. R. G.
En el Eviews se sigue la instrucción siguiente:
Abrir el PBIA ⇒ Proc ⇒ Exponential Smoothing ⇒ Double ⇒
OK y se muestra el siguiente resultado:
Sample: 1992M01 1994M06
Included observations: 30
Method: Double Exponential
Original Series: PBIA
Forecast Series: PBIASM
Yˆ2 = Y2 ; b2 = (Y2 − Y1 )
La predicción es:
Yˆt + k = Yˆt + bt * k
Válido para series con tendencia lineal. La predicción es una recta con
ordenada en el origen Yˆt1 y pendiente bt .
L. A. R. G.
4º FILTRADO DE SERIES.- los medios más utilizados para detectar y eliminar la
tendencia de una serie se basan en la aplicación de filtros a los datos. Un filtro
no es más que una función matemática que aplicada a los valores de la serie
produce una nueva serie con unas características determinadas.
( ) (( ) ( ))
N N
Min∑ Yt1 − Yˆt 2 + λ ∑ Yˆt +21 − Yˆt 2 − Yˆt 2 − Yˆt −21
2 2
Tt = Yˆt 2 /
t =1 t =2
L. A. R. G.
Donde:
1 − 2 1 0 0 L 0 0 0 Yˆ12
0 1 − 2 1
0 L 0 0 0 Yˆ22
AYˆt 2 = 0 0 1 −2 1 L 0 0 0 * Yˆ32
M M M M M O M M M M
0 0 0 0 0 L 1 −2 1 Yˆn2
L. A. R. G.
Hodrick-Prescott Filter (lambda=1600)
3000
2500
2000
80 1500
1000
40
500
0
-40
-80
1950 1955 1960 1965 1970 1975 1980 1985
CP Trend Cycle
L. A. R. G.
• es simétrico, por lo que no produce movimientos de fase.
• aproxima relativamente bien un filtro ideal.
• produce series estacionarias.
• es un método operacional.
• es superior a otros en la medida que permite introducir la definición
del investigador del ciclo económico y no produce variación en las
propiedades de la variable al final de las series.
Donde:
Upper: número de períodos mínimos que se incluirán en el filtro,
correspondientes a frecuencias altas.
Lower: número de períodos máximos que se incluirán en el filtro,
correspondientes a frecuencias bajas.
Nma: número de promedios móviles (o rezagos ) del filtro.
Arpad: número de parámetros autorregresivos que se utilizarán para
sustituir los valores que se pierden al final de la serie, por la
aplicación de un promedio móvil truncado.
2500 1.0
2000 0.8
80
1500
0.6
40 1000
0.4
0 500
0.2
-40 0.0
-80 -0.2
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal
L. A. R. G.
Este filtro de banda está basado en el proceso de generación de
los datos, el cual suponen que sigue un paseo aleatorio o Random Walk
(RW). Aun el caso que esta representación no sea verdadera, utilizando
datos macroeconómicos para EE.UU., los autores referidos encuentran
que el desempeño es satisfactorio.
2500
1.0
2000
80 0.8
1500
40 0.6
1000
0 500 0.4
-40 0.2
-80 0.0
1950 1955 1960 1965 1970 1975 1980 1985 .0 .1 .2 .3 .4 .5
cycles/period
CP Non-cyclical Cycle Actual Ideal
3.3. CICLO
Una función periódica es aquella que repite sus valores en el tiempo cada p
periodos y puede venir expresada como:
1,5
2πp
1
Yt = A * cos +θ 0,5 A
0
N -0,5 1
-1
8 15 22 29 36 43 50 57 64 71 78 85 92 99
T
-1,5
θ
-1
desfase. -1,5
L. A. R. G.
A efectos de ajustar y predecir series cíclicas podemos utilizar la expresión
alternativa:
Yt = α * cos(ω0 * p * t ) + β * sen(ω0 * p * t )
ω0 es lo que se denomina frecuencia básica y es igual a 2 * π / N .
1.0 1.0
0.5 0.5
0.0 0.0
-0.5 -0.5
-1.0 -1.0
-1.5 -1.5
20 40 60 80 100 120 140 160 180 200 -40 -20 0 20 40
L. A. R. G.
Asumimos que las frecuencias, ω i , denominadas Frecuencias de Fourier
son:
2πpi N si N es par
ωi = pi = 1,..., k
k = (N − 1)2
N
2
si N es impar
(a 2p + b p2 )
I (ω p ) =
2ω 0
El periodograma mide aportaciones a la varianza total de la serie de
componentes periódicos de una frecuencia determinada (w). Si el periodograma
presenta un “pico” en una frecuencia, indica que dicha frecuencia tiene mayor
“importancia” en la serie que el resto.
0
0 50 100 150
L. A. R. G.
El periodograma está basado en una herramienta matemática
denominada Transformada de Fourier, según la cual una serie, que cumpla
determinados requisitos, puede descomponerse como suma de un número finito
o infinito de frecuencias. Del mismo modo, a partir de la representación
frecuencial puede recuperarse la serie original a través de la Transformada
Inversa de Fourier.
1.0
15
0.5
PERDG
0.0 10
-0.5
5
-1.0
0
-1.5
0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
80 10000
8000
60
PERDG
6000
40
4000
20 2000
0
0
0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
2 1.2
1.0
1
PERDG
0.8
0
0.6
-1 0.4
-2 0.2
0.0
-3 0 50 100 150
20 40 60 80 100 120 140 160 180 200
FREC
L. A. R. G.
Los métodos paramétricos, parten de suponer “conocido” el PGD, y
modelizado en general a través de un proceso ARMA, a partir del cual se puede
recuperar una estimación del espectro.
El espectro equivale a:
1 + b1e −iω + b2 e −i 2ω + ... + bq e −iqω
2
σ ε2 −π ≤ ω ≤ π
hY (ω ) =
1 + a1e −iω + a 2 e −i 2ω + ... + a p e −ipω
2
2π
5º PROCESO ESTOCÁSTICO
L. A. R. G.
absoluta en la secuencia) pero dependen sólo de k (su separación relativa en la
secuencia).
( ) (
COV Yt1 , Yt2 = E Yt1 − µY )(Y t2 )
− µY = λ ( t1 − t2 )
En el caso que las series sean estacionarias en el sentido débil, se podrán
modelar a través de un conjunto de especificaciones conocidas como los modelos AR,
MA y ARMA. El objetivo de los mismos es explicar el componente cíclico de la serie
(o su componente estacionario) a través de su pasado por medio de diferentes tipos de
relaciones.
5º PRUEBA DE ESTACIONARIEDAD
L. A. R. G.
cual la serie va oscilando pero sin alejarse de forma permanente de dicho valor,
entonces se puede considerar que la serie es estacionaria en media.
2º Si los coeficientes de AC no decaen rápidamente sería un indicio claro de que
la serie es no estacionaria.
3º El primer coeficiente de PAC es significativo (es decir, mayor o igual a 0.9)
entonces la serie es no estacionaria.
EJEMPLO
2400
2000
1600
1200
800
400
1950 1955 1960 1965 1970 1975 1980 1985
CP @MEAN(CP,"1950q1 1988q1")
2º Según el correlograma del consumo personal agregado real cae lentamente, por
lo tanto no es estacionaria.
Abrir la serie ⇒ View ⇒ Correlogram... ⇒ se marca nivel y se escribe
12 lag ⇒ OK y se muestra el siguiente resultado:
L. A. R. G.
personal agregado real es significativo (0.955 > 0.9), entonces el ingreso
personal disponible no es estacionario.
40
20
-20
-40
-60
1950 1955 1960 1965 1970 1975 1980 1985
L. A. R. G.
Por lo tanto, la primera diferencia del consumo personal agregado real es
estacionaria.
Las series de tiempo no estacionarias que presentan raíces unitarias son un caso
muy especial de las series no estacionarias, tanto por su frecuencia en economía como
por lo que se conoce de sus propiedades estadísticas; en los últimos años se ha
realizado una gran cantidad de trabajos para el diseño de pruebas de hipótesis de que
una serie tiene raíces unitarias.
Y
Si el coeficiente de t − 1 es en realidad igual a 1, surge lo que se conoce como
el problema de raíz unitaria, o sea, una situación de no estacionariedad. En
econometría, una serie de tiempo que tiene una raíz unitaria se conoce como un
camino aleatorio. Por lo tanto, se estima la regresión:
Yt = ρYt −1 + ut (2)
y se encuentra que
ρ=1 , entonces se dice que la variable estocástica
Yt tiene una
raíz unitaria.
Si restamos
Yt − 1 en ambos miembros de la ecuación (2), queda:
Yt − Yt − 1 = ρYt − 1 − Yt − 1 + ut
y sacando factor común, resulta:
∆Yt = (ρ − 1)Yt − 1 + ut
∆Yt = δYt − 1 + ut
L. A. R. G.
Cuando las series en una regresión no son estacionarias, el uso del estadístico t
para contrastar hipótesis δ = 0 es inadecuado pues este no sigue la distribución t
Student. Esta tabla es limitada, pero Mac Kinnon preparó tablas más extensas, que
están incorporadas en el Eviews.
α p yt − p +1
adicionando y sustrayendo el término , nos resulta:
p
Donde
ξt es un término de error puro con ruido blanco. El número de términos de
L. A. R. G.
diferencia rezagados que se debe incluir, con frecuencia se determina de manera
empírica, siendo la idea incluir los términos suficientes para que el término de error
no esté serialmente relacionado.
L. A. R. G.
y modifica el t del coeficiente δ de modo que la correlación serial no afecta la
distribución asintótica de la prueba estadística. La prueba PP se basa en la
estadística:
~
1
tδ = tˆδ 0 −
( ( ))
γ 2 T ( f 0 − γ 0 ) se δˆ
1
f0 2 f0 2 s
()
donde se δˆ es el error estándar de coeficiente δ , s es el error estándar de la
regresión de la prueba, γ 0 es una estimación consistente de la varianza del error
(calculado como (T − k )s 2 / T , donde k es el número de regresores) y f 0 es un
estimador del espectro residual en la frecuencia cero.
Hay dos opciones que usted tendrá que hacer para realizar la prueba PP. En
primer lugar, debe decidir si incluir una constante, una constante y una tendencia en
el tiempo lineal, o ninguno, en la regresión de la prueba. En segundo lugar, usted
tendrá que elegir un método para estimar f 0 . Eviews apoya estimadores para f 0
basados en el núcleo basado en suma-de-covarianzas, o sobre estimación de la
densidad espectral autorregresivos.
En los test anteriores, se puede optar por incluir una constante, o una constante
y una tendencia en el tiempo lineal, en la prueba de regresión ADF. Para estos dos
casos, el ERS (1996) proponen una simple modificación de las pruebas de ADF en el
que los datos son sin tendencias a fin de que las variables explicativas son "sacadas"
de los datos antes de ejecutar la prueba de regresión.
ERS define una cuasi-diferencia de Yt que depende del valor que representa la
alternativa punto concreto contra el que deseamos probar la hipótesis nula:
Yt if t = 1
D (Yt a ) =
Yt − aYt −1 if t > 1
L. A. R. G.
′
D (Yt a ) = D ( X t a ) δ (a ) + ε t
que X t contiene ya sea una constante, o una constante y la tendencia, y δˆ(a ) son las
estimaciones de MCO de esta regresión.
La prueba KPSS (1992) difiere de las otras pruebas de raíz unitaria, en que la
serie se supone que es estacionaria bajo la hipótesis nula. La estadística KPSS se
basa en el los residuos de la regresión de MCO de Yt en las variables exógenas X t :
Yt = X t′δ + ut
t =1
L. A. R. G.
de la tendencia, ya que se basa en una regresión con los datos originales y no en la
cuasi-datos diferenciados.
′
Definir los residuos de la ecuación como εˆt (a ) = D (Yt a ) − D (X t a ) δˆ(a ) , y dejar
T
que SSR(a ) = ∑ εˆt2 (a ) sea la suma de los residuos al cuadrado. El ERS (posible) el
t =1
t =2
L. A. R. G.
(
MZ ad = T −1 YTd( ) 2
)
− f 0 / (2κ )
MZ = MZ a × MSB
t
d
MSB = (κ / f 0 )
1
2
(
c 2κ − c T −1 YTd 2 / f 0 ( )) if X t = {1}
MP = 2
( ( ))
d
c κ + (1 − c )T −1 YTd / f 0 if X t = {1, t}
T 2
donde:
−7 if X t = {1}
c =
− 13.5 if X t = {1, t }
La mayoría de las pruebas del tipo DF tienen poco poder; es decir, tienden
aceptar la nulidad de la raíz unitaria con más frecuencia de la que se garantiza. En
otras palabras, estas pruebas pudieran encontrar una raíz unitaria, aunque ésta no
exista.
Perron (1989) sostuvo que los tradicionales test de raíz unitaria (Dickey-Fuller,
Dickey-Fuller Aumentado y Phillips-Perron) tenían poco poder para diferenciar una
trayectoria de raíz unitaria de una estacionaria cuando había cambio estructural. En
consecuencia, como estos test estaban sesgados hacia el no rechazo de la hipótesis
nula de raíz unitaria, a menudo se rechazaba incorrectamente la hipótesis alternativa
de estacionariedad. Perron encontró, por ejemplo, que las series de agregados
macroeconómicos y financieros utilizados por Nelson y Plosser (1982) eran en su
mayoría estacionarias con cambio estructural, en oposición a lo que los citados
autores señalaban.
5.2.9. EJERCICIO
L. A. R. G.
Se obtiene los resultados siguientes:
¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
NIVELES
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -1.117406 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock (DF-GLS) -0.809523 -3.520000 / -2.980000 SI SI
Phillips-Perron (PP) -1.451289 -4.019561 / -3.439658 SI SI
Elliott-Rothenberg-Stock punto óptimo. 94.95858 4.148700 / 5.650600 NO NO
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.289358 0.216000 / 0.146000 SI SI
¿Existe Raíz
Estadístico Valor crítico Unitaria?
Tipo de Test
t 1%/5% Nivel de significancia
1% 5%
PRIMERA DIFERENCIA
Hipótesis Nula: Existe raíz unitaria (no estacionaria)
Dickey-Fuller Aumentado (ADF) -4.625715 -3.474567 / -2.880853 NO NO
Elliott-Rothenberg-Stock (DF-GLS) -4.546566 -2.580574 / -1.942982 NO NO
Phillips-Perron (PP) -10.75407 -3.473967 / -2.880591 NO NO
Elliott-Rothenberg-Stock punto óptimo. 0.935116 1.929200 / 3.141200 SI SI
Hipótesis Nula: No existe raíz unitaria (estacionaria)
Kwiatkowski-Phillips-Schmidt-Shin 0.496796 0.739000 / 0.463000 NO NO
6º CAMBIO ESTRUCTURAL
L. A. R. G.
quiebre era determinada endógenamente. Con esta finalidad se desarrollo un programa
preparado para E-Views , correspondiente al test de Z&A, realizado de manera
secuencial, esto último se refiere a que el programa evalúa la posible presencia de
quiebre estructural en cada observación de la serie analizada (genera variables
Dummy a partir de la 75ava observación y termina en la observación N-75).
Zivot y Andrews presentan un gráfico F con tres líneas: La línea roja (FT)
muestra el resultado del test F aplicado secuencialmente, para posibles quiebres en
tendencia, la línea verde (FM), muestra el mismo test, pero para posibles quiebres en
media, la línea azul (F) es el test F, para ambos casos; se observa la línea que alcanza
valores más altos, por lo que podemos concluir que existe evidencia de un POSIBLE
quiebre (en tendencia, media o ambos), o dicho de otra forma, si existe quiebre en la
serie (y no raíz unitaria), este sería quiebre (en tendencia, media o ambos) y estaría
alrededor de tal observación.
6.1. EJERCICIO
16000
-2
14000
12000
-3
10000
8000
-4
6000
4000 -5
25 50 75 100 125 150 30 40 50 60 70 80 90 100 110 120 130
F FT FM ZIVOTM VCRITM
-2.4
-2.0
-2.8
-2.5
-3.2
-3.0 -3.6
-4.0
-3.5
-4.4
-4.0
-4.8
-4.5 -5.2
30 40 50 60 70 80 90 100 110 120 130 30 40 50 60 70 80 90 100 110 120 130
L. A. R. G.
Como se aprecia en el gráfico N° 01, existe un posible quiebre estructural en
tendencia y en los otros tres gráficos, los valores t Zivot no cruzan el t crítico, no existe
evidencia para rechazar la hipótesis nula de raíz unitaria (no estacionariedad).
E ( ε t ) = 0 , Var ( ε t ) = σ 2ε , Cov ( ε t ε t − k ) = 0 ∀ k ≠ 0.
Y
El proceso t queda descrito completamente por una suma ponderada de
los errores actuales y pasados. Es decir, cada observación de la serie es
generada por una media ponderada de perturbaciones aleatorias con un retardo
de q periodos. Escribimos el modelo MA(q) así:
Yt = u + ε t − θ 1ε t − 1 − θ 2 ε t − 2 −.....− θ q ε t − q
Yt = u + θ ( B)ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).
Si
Yt es la realización de un proceso aleatorio estacionario, es preciso
q
que la ∑θ
i =1
i
2
sea convergente a medida que q llega a ser infinitamente grande,
entonces los θ i son cada vez menores a medida que aumenta i. Esto implica
L. A. R. G.
que si el proceso es estacionario su función de autocorrelación
ρ k decrece a
medida que aumenta k.
1.1. MA(1)
Yt = u + ε t − θ1ε t −1
E(Yt ) = u γ 0 = σ ε2 (1 + θ12 )
γ 1 = −θ1σ ε2 γ K = 0 ∀ K > 1.
θ1 < 1
siendo la condición de invertibilidad . La función de
autocorrelación es:
−θ1
ρ1 = ρK = 0 ∀K
∀ > 1.
1 + θ12
ρ *
=
(− θ ) (1 − θ )
1
K 2
1
K
1 − θ 2 K+ 2
L. A. R. G.
1.2. MA(2)
1-1 2-22
L. A. R. G.
2º Modelo de Autoregresivo de orden p.-
El proceso
Yt depende de una suma ponderada de sus valores pasados y
Y
de un término de error. Es decir, la observación actual ( t ) es generada por
una media ponderada de observaciones anteriores que se remontan p periodos
en el pasado, junto con una perturbación aleatoria correspondiente al periodo
actual. El modelo AR(p) sería:
Yt = δ + φ 1Yt −1 + φ 2Yt −2 +.....+ φ pYt −
φ ( B)Yt = δ + ε t
donde B es un operador de cambio hacia atrás (impone un retardo temporal de
un periodo cada vez que se aplica a una variable).
δ
u = E (Yt ) =
1 − φ 1 − φ 2 −.....− φ p
p
∑φ
i =1
i
Para que la media del proceso sea finita es necesario que la sea
diferente a uno.
2.1. AR(1)
Yt = δ + φ1Yt −1 + ε t
las características del proceso son:
δ σ ε2
u= γ0 =
1 − φ1 1 − φ12
γ 1 = φ1γ 0 γ 2 = φ12γ 0 ......... γ K = φ1Kγ 0
L. A. R. G.
ρ1* = φ1
ρK* = 0 ∀ K = 2, 3,
2.2. AR(2):
Yt = δ + φ 1Yt −1 + φ 2 Yt − 2 + ε t
δ
u= γ 0 = φ 1γ 1 + φ 2 γ 2 + σ 2ε
1− φ 1 − φ 2
γ 1 = φ 1γ K−1+φ 2 γ K− 2 ∀K > 0
L. A. R. G.
La función de autocorrelación presenta un decrecimiento rápido
de tipo geométrico puro, y geométrico con alteración de signos,
sinusoidal o mezcla de varios tipos, mientras que la función de
autocorrelación parcial se anula para retardos superiores a dos.
L. A. R. G.
Para cualquier proceso autoregresivo estacionario, sea del orden
que sea, existe un proceso de media móvil de orden infinito equivalente.
P
Para que la media del proceso sea finita es necesario que la ∑φ
i =1
i sea
diferente a uno.
ARMA(1,1)
Yt = δ + φ 1Yt −1 + ε t − θ 1ε t −1
ρ1 =
(1 − φ 1θ 1 )(φ 1 − θ 1 ) ρ K = φ 1ρ K−1 ∀ K > 1
1 + θ 12 − 2φ 1θ 1
L. A. R. G.
van seguidos de una mezcla de oscilaciones sinusoidales y / o exponenciales
amortiguadas.
L. A. R. G.
2º Modelo de Autoregresivo Integrado de orden (p,d,0).-
L. A. R. G.
8º METODOLOGÍA DE BOX JENKINS
L. A. R. G.
8.1. IDENTIFICACIÓN
I.- Serleccionar d
2º Correlograma de la serie.-
EJEMPLO:
L. A. R. G.
y se empieza el análisis:
120
110
100
90
80
90 91 92 93 94 95 96
L. A. R. G.
Como el indice de precio al consumidor no es estacionario, tenemos que
examinar la primera diferencia de la serie y repetir el procedimiento de Box - Jenkins.
1.5
1.0
0.5
0.0
-0.5
90 91 92 93 94 95 96
D(IPC)
@MEAN(D(IPC),"1990:01 1996:12")
Correlogram of D(IPC)
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. | . | . | . | 1 0.046 0.046 0.1826 0.669
**| . | **| . | 2 -0.198 -0.200 3.6207 0.164
.*| . | . | . | 3 -0.066 -0.048 4.0047 0.261
. | . | .*| . | 4 -0.046 -0.084 4.1997 0.380
.*| . | **| . | 5 -0.184 -0.212 7.2953 0.200
. |*. | . |*. | 6 0.178 0.178 10.235 0.115
. | . | .*| . | 7 -0.001 -0.122 10.235 0.176
. | . | . | . | 8 0.001 0.061 10.235 0.249
.*| . | **| . | 9 -0.186 -0.242 13.581 0.138
.*| . | .*| . | 10 -0.153 -0.169 15.860 0.104
. | . | .*| . | 11 -0.048 -0.062 16.090 0.138
. |**** | . |**** | 12 0.541 0.492 45.419 0.000
. | . | .*| . | 13 0.018 -0.121 45.452 0.000
.*| . | . | . | 14 -0.104 0.004 46.574 0.000
. | . | . | . | 15 -0.018 -0.027 46.607 0.000
. |*. | . |*. | 16 0.068 0.184 47.093 0.000
.*| . | . |** | 17 -0.069 0.202 47.611 0.000
. |*. | .*| . | 18 0.094 -0.127 48.574 0.000
. | . | . | . | 19 0.029 0.016 48.665 0.000
. | . | .*| . | 20 0.003 -0.068 48.666 0.000
==============================================================
De la observación del gráfico podemos deducir que la primera diferencia
del IPC es estacionaria.
L. A. R. G.
3º Examinando el primer coeficiente de autocorrelación parcial de la primera
diferencia del IPC no es significativo (0.046 < 0.9), entonces la primera
diferencia del IPC es estacionaria.
II.- Elegir λ
La diferencia de un determinado orden es suficiente en muchos casos para
obtener series estacionarias en media y varianza.
Cuando:
λ =1 ⇒ no se transforma la serie
λ=0 ⇒ se aplica logaritmos neperianos a la serie
0< λ < 1 ⇒ se eleva la serie a un exponente fraccionario
en la práctica, las alternativas que se utilizan son las dos primeras.
1º Ploteo de la serie.-
L. A. R. G.
estacionaria en varianza.
EJEMPLO:
1.5
1.0
0.5
0.0
-0.5
90 91 92 93 94 95 96
D(IPC)
Para construir el gráfico rango - media, vamos a trabajar con intervalos de un año
para determinar su media y desviación estándar, estos resultados son:
================================
PERIODO MEDIA DS
================================
1990:01-1990:12 0.470917 0.398476
1991:01-1991:12 0.423583 0.400780
1992:01-1992:12 0.432417 0.476136
1993:01-1993:12 0.419583 0.239348
1994:01-1994:12 0.387667 0.284007
1995:01-1995:12 0.402833 0.319041
1995:01-1996:12 0.312333 0.237868
================================
L. A. R. G.
0.5
0.4
0.3
DS
0.2
0.1
0.0
0.0 0.1 0.2 0.3 0.4 0.5
MEDIA
III.- Identificar p y q
L. A. R. G.
Correlogram of D(IPC)
==============================================================
Sample: 1990:01 1996:12 Included observations: 84
==============================================================
Autocorrelation Partial Correlation AC PAC Q-Stat Prob
==============================================================
. | . | . | . | 1 0.046 0.046 0.1826 0.669
**| . | **| . | 2 -0.198 -0.200 3.6207 0.164
.*| . | . | . | 3 -0.066 -0.048 4.0047 0.261
. | . | .*| . | 4 -0.046 -0.084 4.1997 0.380
.*| . | **| . | 5 -0.184 -0.212 7.2953 0.200
. |*. | . |*. | 6 0.178 0.178 10.235 0.115
. | . | .*| . | 7 -0.001 -0.122 10.235 0.176
. | . | . | . | 8 0.001 0.061 10.235 0.249
.*| . | **| . | 9 -0.186 -0.242 13.581 0.138
.*| . | .*| . | 10 -0.153 -0.169 15.860 0.104
. | . | .*| . | 11 -0.048 -0.062 16.090 0.138
. |**** | . |**** | 12 0.541 0.492 45.419 0.000
. | . | .*| . | 13 0.018 -0.121 45.452 0.000
.*| . | . | . | 14 -0.104 0.004 46.574 0.000
. | . | . | . | 15 -0.018 -0.027 46.607 0.000
. |*. | . |*. | 16 0.068 0.184 47.093 0.000
.*| . | . |** | 17 -0.069 0.202 47.611 0.000
. |*. | .*| . | 18 0.094 -0.127 48.574 0.000
. | . | . | . | 19 0.029 0.016 48.665 0.000
. | . | .*| . | 20 0.003 -0.068 48.666 0.000
**| . | . | . | 21 -0.269 -0.013 56.948 0.000
**| . | .*| . | 22 -0.192 -0.152 61.245 0.000
. | . | . |*. | 23 0.054 0.115 61.597 0.000
. |*** | . |*. | 24 0.386 0.067 79.508 0.000
. | . | . | . | 25 -0.022 -0.008 79.566 0.000
.*| . | . | . | 26 -0.075 -0.048 80.274 0.000
. | . | . | . | 27 -0.009 -0.032 80.283 0.000
. | . | . | . | 28 -0.038 -0.027 80.468 0.000
.*| . | . | . | 29 -0.058 0.002 80.910 0.000
. |*. | . | . | 30 0.143 0.038 83.656 0.000
. | . | .*| . | 31 0.052 -0.121 84.028 0.000
. | . | .*| . | 32 -0.032 -0.068 84.169 0.000
.*| . | . |*. | 33 -0.163 0.068 87.923 0.000
.*| . | . | . | 34 -0.173 0.001 92.222 0.000
. | . | .*| . | 35 -0.014 -0.082 92.252 0.000
. |** | . | . | 36 0.266 -0.029 102.88 0.000
==============================================================
Del correlograma parcial deducimos que los coeficientes de autocorrelación
parcial significativos son: el segundo, quinto, nueve, doce y diecisiete; por lo tanto el
orden del proceso autoregresivo es diecisiete.
L. A. R. G.
IV.- Determinar el término independiente
Si los datos de una serie proceden de un muestreo aleatorio simple sobre una
población normal, es decir, si los datos constituyen una realización de un proceso de
ruido blanco con media distinta de cero; entonce el contraste es:
La hipótesis es:
H0 : u = 0
H1: u ≠ 0
el estadístico es:
Y
t= ≈ t0.05( T −1)
SY2
T−1
si el estadístico es menor que el de la tabla entonces se acepta la hipótesis nula, o
viceversa.
SY2
(1 + 2 p1 + 2 p2 + .....+ 2 pk )
T
seleccionando k de forma que se incluyan los coeficientes que sean significativos.
Cuando se obtiene un resultados negativo no es aplicable.
EJEMPLO:
L. A. R. G.
La hipótesis es:
H0 : u = 0
H1: u ≠ 0
el estadístico es:
t = 1106157
. < t 0.05(83) = 198895978
.
8.2. ESTIMACIÓN
L. A. R. G.
2º el primer término de error en la serie depende de los valores pasados y no
observados tanto de la serie como de los residuos, entonces hay que usar
algún método para "iniciar" la serie antes de aplicar el proceso de
estimación no lineal.
EJEMPLO:
L. A. R. G.
.08+.99 .08 -.99 -.09+.97i -.09 -.97i
-.23 -.8 -.23+.89i -.42 -.88 -.42+.88i
-.55+.81 -.55 -.81 -.66 -.65 -.66+.65i
-.79+.56 -.79 -.56 -.88+.23i -.88 -.23i
-.89+.42 -.89 -.42 -.98+.09i -.98 -.09i
===================================================
8.3. VALIDACIÓN
(A) ANDERSON
(B) PANKRATZ
L. A. R. G.
viene dada por 1/T. Sin embargo, este valor no constituye una buena
aproximación ya que la distribución no es aplicable a los coeficientes de
autocorrelación de una serie de residuos, especialmente en los retardos de
orden bajo.
H0 : ε t es ruido blanco
H1: ε t no es ruido blanco
si tenemos que:
125
.
ρ k T < 125
. o ρk < para k = 1, 2, 3.
T
160
.
ρ k T < 160. o ρk < para k ≥ 4.
T
Por lo tanto, se acepta la hipótesis nula.
EJEMPLO:
L. A. R. G.
Según Anderson ninguno de los coeficientes de autocorrelación estimados
supera 1.84
96
= 0.213853 ;por lo tanto, los residuos del modelo estimado son ruido
blanco.
el estadístico es:
k
QBP = T ∑ ρ i2 ≈ χ 2k − p − q
i =1
EJEMPLO:
Tenemos:
H0 : ρ 1 = ρ 2 = .... = ρ 20 = 0 ≡ Residuos independientes
H1: ρ 1 ≠ ρ 2 ≠ .... ≠ ρ 20 ≠ 0 ≡ Residuos no independientes
comparamos:
20
QBP = T ∑ ρ i2 = 13.84866 < χ (20.05,20−10) = 18.307038
i =1
1.3. Homocedasticidad
L. A. R. G.
Abrir ecuación ⇒ View ⇒ Actual, Fitted, Residual ⇒ Residual Graph
0.6
0.4
0.2
0.0
-0.2
-0.4
-0.6
90 91 92 93 94 95 96
D(IPC) Residuals
1.4. Outliers
L. A. R. G.
con la instrucción siguiente:
Abrir RESEST ⇒ View ⇒ Line Graph
el software nos muestra el resultado siguiente:
4
-1
-2
-3
90 91 92 93 94 95 96
RESEST
1.5. Normalidad
χ
2
JB < ( 0.05, 2 )
= 5.99
Jarque-Bera 2.464605
Probability 0.291620
0
-0.4 -0.2 0.0 0.2 0.4 0.6
L. A. R. G.
2º Análisis de los coeficientes
EJEMPLO:
EJEMPLO:
L. A. R. G.
Cuando la correlación entre dos coeficientes estimados esté próximo a uno
(ejemplo: 0.9) sería indicio suficiente para considerar que existe un problema
grave de multicolinealidad. Si esto ocurre, los coeficientes estimados serían de
carácter muy inestables con lo que podrían cambiar mucho de una realización a
otra.
Así, el modelo estimado para el período muestral puede diferir del que se
obtendría para los periodos de predicción. Para evitar este problema puede ser
conveniente eliminar algún parámetro del modelo con objeto de conseguir unos
estimadores más estables aun a coste de que el grado de ajuste sea más pequeño.
EJEMPLO:
i j
var(φ$ i ) var(φ$ j ) σ φ$ i σ φ$ j
la información requerida para calcular estos coeficientes se encuentra en la
estimación del modelo.
2 2 σ φ$2 σ θ$ 0.077757(0110208
. )
2
σ φ$ θ$ − 0.002169
rφ$ θ$ = 2 12
= = − 0.20453581
2 12 σ φ$2 σ θ$ 0.077757(013638
. )
12
L. A. R. G.
2.4. Análisis de Estabilidad
EJEMPLO:
La hipótesis es:
H0 : Existe estabilidad de coeficientes
H1: No existe estabilidad de coeficientes
el estadístico es:
Fc = 1175141
. < F( 0.05,11,62 ) = 194679
.
8.4. PREDICCIÓN
Se tienen muchas pruebas de que un modelo que se ajuste bien a los datos
históricos, no necesariamente pronostica bien.
L. A. R. G.
2º Los puntos de los datos restantes, denominados datos de predicción, se emplea
para medir la exactitud del pronóstico del modelo.
y así sucesivamente.
L. A. R. G.
Sea el modelo Yt ∈ ARMA(11
, ) , es:
Y$T +1 = φ 1YT + E (uT +1 ) − θ 1 E (uT ) = φ 1YT − θ 1u$T
Y$T + 2 = φ 1Y$T +1
Y$ = φ Y$
T+3 1 T+2
así sucesivamente se obtendrían las demás predicciones, o sea que la parte de media
móvil sólo influye directamente sobre la primera predicción y a partir de la segunda,
éstas se obtienen como en un modelo AR(1).
eT + i = YT +1 − Y$T + i
( )
Var ( e) = E e 2T +i = (1 + ϕ 12 + ϕ 14 + ...+ ϕ 12i − 2 )σ ε2
Var (eT +1 ) = σ ε2
Var (eT + i ) = (1 + θ 12 )σ ε2 ∀i > 1
es idéntica para la predicción para el periodo segundo, tercero, etc.
L. A. R. G.
3º Predicciones ex ante predicciones más allá del período de
estimación y son hechos usando variables
explicativas que pueden o no ser conocidas
con certeza.
Se define como:
1 T+H 2
RECM = ∑ e$
H t = T +1 t
Se define como:
T+H
∑ e$
t = T +1
t
EMA =
H
Esta medida es apropiada siempre que la función de pérdida es lineal y
simétrica.
Se define como:
1 T + H e$t
EPMA = ∑
H t = T +1 Yt
Es similar al EMA, excepto que es una medida relativa. Presenta un sesgo
que favorece a los pronósticos que se encuentran por debajo de los valores
reportados.
L. A. R. G.
Indica qué proporción del error verdadero estimado es error de predicción.
Se define como:
1 T + H e$t2
RCREM = ∑
H t = T +1 Yt
1 T+ H
∑ (Yt − Y$t ) 2
H t = T +1
U=
1 T+ H $2 1 T+H 2
∑Y +
H t = T +1 t
∑Y
H t = T +1 t
no está influenciado por problemas de escala. U oscila entre 0 y 1.
Si U tiende a cero, el modelo puede ser utilizado para predecir dado que
sus pronósticos serán fiables.
El U de Theil se descompone:
SESGO + VARIANZA + COVARIANZA = 1
L. A. R. G.
3º Covarianza (Covariance Proportion) si esta medida es alta significa
que el modelo predice bien,
pues el error de la predicción
se haría pequeño.
V.- EJEMPLO
− θ 12 ε t − 12 − θ 21 ε t − 21 − θ 24 ε t − 24 − θ 36 ε t − 36
120
97:01 97:03 97:05 97:07 97:09 97:11
IPCF ± 2 S.E.
L. A. R. G.
también se puede graficar a través del tiempo el IPC con su respectiva predicción, tanto
para todo el periodo como para el periodo de predicción, los gráficos son:
130 126
125
120
124
110
123
100
122
90
121
80 120
90 91 92 93 94 95 96 97 97:01 97:03 97:05 97:07 97:09 97:11
Por último, se puede obtener una nube de puntos del IPC y su predicción, así:
126
124
IPC
122
120
120 122 124 126
IPCF
9º ANÁLISIS DE COINTEGRACIÓN
L. A. R. G.
Se asume que la perturbación es una serie estacionaria (ruido blanco), pero
probablemente esto no es cierto cuando X t e Yt sean series integradas.
Si las dos series son ambas I (1) puede existir un β tal que:
ut = Yt − β X t ≈ I ( 0)
esta diferencia entre ellas tiene que ser estable alrededor de una media fija. O que las
series crecen simultáneamente aproximadamente a la misma tasa. Si dos series
satisfacen estos requisitos, entonces están cointegradas.
[ ]
El vector 1 − β (o múltiplo de él) es un vector de cointegración. Se puede
distinguir:
L. A. R. G.
sobre la misma longitud de onda.
L. A. R. G.
valor d de Durbin Watson obtenido de la regresión de cointegración.
Una regla práctica vinculada con este test de cointegración suguiere que un
buen R2 y un DW por encima de 0.5 son un indicativo de la presencia de
cointegración.
EJEMPLO:
Dependent Variable: Q1
Method: Least Squares
Sample: 1985:1 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
C 457.3535 98.29010 4.653098 0.0002
P1 0.143280 1.680297 0.085270 0.9329
M1 3.893653 0.158921 24.50052 0.0000
R1 0.612120 0.108625 5.635158 0.0000
============================================================
R-squared 0.969154 Mean dependent var 2071.042
S.E. of regression 25.42701 Akaike info criteri 9.460512
Sum squared resid 12930.65 Schwarz criterion 9.656855
Log likelihood -109.5261 F-statistic 209.4601
Durbin-Watson stat 1.831586 Prob(F-statistic) 0.000000
============================================================
observando el valor del Durbin - Watson (1.831586) es superior a 0.5, entonces es
indicativo de presencia de cointegración.
L. A. R. G.
Aplicando la forma alternativamente tenemos que marcar los residuos de la
regresión cointegrada y estimar un modelo autoregresivo de primer orden, éstos
cálculos en Eviews son:
Wald Test:
Equation: Untitled
====================================================
Null Hypothesis C(1) = 1
====================================================
F-statistic 18.79043 Probability 0.000266
Chi-square 18.79043 Probability 0.000015
====================================================
La hipótesis es:
H0 : ρ = 1
H 1: ρ ≠ 1
el estadístico es:
Se estima la regresión:
Yt = β X t + ut
L. A. R. G.
( )
se obtiene los residuales u$ t y se utiliza la prueba DF o ADF . Como u$t está basada
en el parámetro β , los valores críticos de significancia DF y ADF no son del todo
apropiados. Engle y Granger han calculado estos valores críticos de tau (al 1%, 5%
y 10 % son -2.5899, -1.9439 y -1.6177).
EJEMPLO:
1.1. Q1:
L. A. R. G.
serie y realizar el mismo análisis.
L. A. R. G.
1.2. P1:
L. A. R. G.
sin tendencia y sin intercepto.
1.3. R1:
L. A. R. G.
Augmented Dickey-Fuller Unit Root Test on R1
============================================================
ADF Test Statistic -0.985078 1 % Critical Value* -4.4167
5 % Critical Value -3.6219
10% Critical Value -3.2474
============================================================
Dependent Variable: D(R1)
Method: Least Squares
Sample(adjusted): 1985:2 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
R1(-1) -0.104758 0.106345 -0.985078 0.3364
C 115.6803 97.78317 1.183028 0.2507
@TREND(1985:1) -1.770375 0.847999 -2.087710 0.0498
============================================================
R-squared 0.211674 Mean dependent var -1.304348
============================================================
L. A. R. G.
============================================================
Dependent Variable: D(R1,2)
Method: Least Squares
Sample(adjusted): 1985:3 1990:4
============================================================
Variable Coefficient Std. Error t-Statistic Prob.
============================================================
D(R1(-1)) -0.823204 0.214780 -3.832772 0.0010
============================================================
1.4. M1:
L. A. R. G.
Hypothesis Testing for D(M1)
Sample: 1985:1 1990:4
========================================================
Test of Hypothesis: Mean = 0.000000
========================================================
Sample Mean = 6.52173 Sample Std. Dev. = 20.74930
Method Value Probability
t-statistic 1.507384 0.1459
========================================================
L. A. R. G.
sin tendencia y sin intercepto.
Los residuos del modelo son estacionarios, es decir no tienen raíz unitaria; por
lo tanto, los residuos están integrados de orden cero.
En conclusión, todas las variables del modelo son integradas de orden uno y
los residuos están integrados de orden cero, por lo tanto, Q1 está cointegrada con P1,
R1, M1.
L. A. R. G.
3.- La existencia de dos etapas sucesivas de estimación (la relación de largo plazo
y la de corrección de errores) implica una acumulación de errores a lo largo de
las mismas que resta eficiencia a la estimación de la relación de largo plazo.
Por estas razones, surge una especificación alternativa del problema, en la que
se incorpora la posibilidad de que exista mñas de un vector de cointegración entre un
mismo conjunto de variables.
L. A. R. G.
Si se tienen las n raíces de la matriz Π , λ i , donde λ1 > λ 2 > ... > λ n , se puede
plantear el siguiente test:
H0 : numero de vectores de cointegracion ≤ r
el estadístico es :
( )
n
λ ( r ) = − T ∑ Ln 1 − λ$i ≈ jj
i = r +1
donde λ$i es la raíz características estimada. Cuanto mayor número de λ sean iguales
a cero menor será el λ ( r ) .
EJEMPLO:
L. A. R. G.
H 0 : numero de vectores de cointegracion ≤ r
tenemos:
LR = 5016823
. > 47.21
Se considera:
∆ Yt = α 1 ∆ X t − α 2 u$t −1 + ut
( )
donde ε t ≈ N 0, σ ε2 , u$t es la combinación lineal de X t e Yt dos variables que se
supone son CI(1,1). α 1 recoge el efecto impacto o la relación de corto plazo entre
ellas y α 2 recoge el efecto feedback o de ajuste a la relación de largo plazo.
L. A. R. G.
11° MODELO VAR
11.1. Introducción
Sims, retoma una antigua crítica de Liu (1960) en el sentido de que las restricciones
que se imponen en los modelos son ficticias y no se corresponden con la realidad en la que
todas las variables son dependientes.
Planteamiento:
L. A. R. G.
Únicamente se necesita especificar las variables que intervienen y el número de
retardos adecuado.
Z t = (Yt , X t )
Z t = a −1 ( L) * b( L) * ε t a ( L ) Z t = b( L ) * ε t a ( L) Z t = Bε t
11.2. Especificación
Una vez determinadas las variables y los retardos adecuados, bastará con especificar
cada variable en función de sus propios valores retardados y de los valores retardados del
resto de variables. Se tiene:
m r
Yi ,t = Di ,t + ∑∑ β ijYi ,t − j + ui ,t
i =1 j =1
Las perturbaciones aleatorias de cada ecuación son ruido blanco, es decir presentan
homocedasticidad y ausencia de autocorrelación. Es decir:
Cov (u1 ) = E (u1u1′ ) = σ 2 I
2
σ m1 σ m 2 σ mm
2 2
11.3. Estimación
Teniendo en cuenta que las variables explicativas son todas retardadas y como
consecuencia de la ausencia de autocorrelación no están correlacionadas con las
perturbaciones aleatorias, podemos estimar el modelo de forma consistente por Mínimos
Cuadrados Ordinarios (MCO). Se tiene:
(T − c)[Log Σ r − Log Σ a ] ≈ χ R2
11.4. Identificación
L. A. R. G.
Teniendo en cuenta que existen correlaciones entre las perturbaciones de las distintas
ecuaciones no podremos diferenciar claramente los efectos individuales de cada perturbación
a menos que se realice una transformación previa.
Toda matriz simétrica Σ puede ser convertida en una matriz diagonal operando con
una nueva matriz triangular Φ de acuerdo con la siguiente expresión:
D = ΦΣΦ′
Premultiplicando las variables originales del modelo por la matriz triangular Φ,
obtendremos una nuevo modelo cuya matriz de varianzas y covarianzas de la perturbación es
diagonal (independiente de unas ecuaciones a otras).
m r
ΦYi ,t = ΦDi ,t + Φ ∑∑ β ijYi ,t − j + Φui ,t
i =1 j =1
Funciones Impulso-Respuesta
Parten de la representación de medias móviles del sistema autorregresivo, que una vez
ortogonalizado, nos permite analizar los efectos individuales de cada una de las variables.
s =0 s =0
donde cada una de las variables se expresa en función de las perturbaciones aleatorias
acumuladas.
Pudiendo calcularse qué porcentaje del total de la varianza viene inducido por cada
perturbación i
El principio detrás de estos modelos es que existe una relación de equilibrio a largo
plazo entre variables económicas y que, sin embargo, en el corto plazo puede haber
desequilibrios. Con los modelos de corrección del error, una proporción del desequilibrio de
un período (el error, interpretado como un alejamiento de la senda de equilibrio a largo
plazo) es corregido gradualmente a través de ajustes parciales en el corto plazo.
Una de las claves de los modelos VEC es determinar si las series que modelizamos
son cointegradas y, si es así, determinar la ecuación de cointegración. Para ello utilizamos el
método de Johansen.
L. A. R. G.