Está en la página 1de 34

“Año de la unidad, la paz y el desarrollo”

UNIVERSIDAD NACIONAL DE PIURA

FACULTAD DE ECONOMÍA

CURSO:

ECONOMETRÍA III

TAREA:

Modelo Multiplicador - Acelerador

PROFESOR:

JUAN FRANCISCO SILVA JUÁREZ

CÓDIGO DE ALUMNO:

0402019033

PIURA – PERÚ

2023

1
INDICE
1.ESPECIFICACIÓN DEL MODELO ....................................................................................3
1.1 Forma Algebraica ...............................................................................................................3
1.2 Definición de variables .....................................................................................................3
1.3 Especificación del valor de los coeficientes ......................................................................3
1.4Forma estructural algebraica ...........................................................................................4
1.5 Forma estructural matricial ............................................................................................4
1.6 Forma matricial compacta ...............................................................................................4
1.7 Forma matricial compacta reducida ...............................................................................5
1.8 Forma reducida en su forma algebraica compacta ........................................................5
1.9 Forma reducida en su forma matricial ...........................................................................5
2. IDENTIFICACIÓN ...............................................................................................................7
2.1 Condición de Rango .........................................................................................................7
2.2 Condición de Orden .........................................................................................................9
3.ESTIMACIÓN ......................................................................................................................10
3.1 Estimación MC2E ..........................................................................................................10
3.1.1 Forma 1 (etapa por etapa) ......................................................................................10
3.1.2 Forma 2, forma directa ...........................................................................................12
3.1.3 Forma 3, sistema ......................................................................................................13
3.2 Estimación MC3E ..........................................................................................................14
3.3 Estimación máxima verisimilitud MMV ......................................................................15
3.4 Estimación momentos generales GMM ........................................................................16
4.EVALUACION .....................................................................................................................17
4.1 Evaluación económica ..............................................................................................17
4.1.1 Evaluación de los signos obtenidos de los parámetros en la estimación ..............17
4.1.2 Interpretación de los signos obtenidos de los parámetros en la estimación ..18
4.2 Evaluación estadística ....................................................................................................18
4.2.1 Evaluación estadística individual ...........................................................................18
4.2.2 Evaluación estadística conjunta .............................................................................21
4.2.3 Prueba de Normalidad ............................................................................................23
4.2.4 Prueba de simultaneidad.........................................................................................25
4.3 Evaluación Econométrica ..............................................................................................27
4.3.1 Multicolinealidad .....................................................................................................27
4.3.2 Heterocedasticidad ..................................................................................................30
4.3.3 Autocorrelación .......................................................................................................32

2
MODELO MULTIPLICADOR-ACELERADOR

1.ESPECIFICACIÓN DEL MODELO


1.1 Forma Algebraica

𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1

𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )

𝑌𝑡 = 𝐶𝑡 + 𝐼𝑡 + 𝐺𝑡

1.2 Definición de variables

𝐶𝑡 : Gasto en consumo en el periodo “t”


𝑌𝑡 : Ingreso Nacional en el periodo “t”
𝐼𝑡 : inversión en el periodo “t”
𝑌𝑡−1 : Ingreso nacional en el periodo t-1
(𝑌𝑡−1 − 𝑌𝑡−2 ): Variación del ingreso nacional
𝐺𝑡 : Gasto de gobierno
Donde:
𝑽𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒆𝒏𝒅ó𝒈𝒆𝒏𝒂𝒔: 𝑪𝒕 , 𝑰𝒕 , 𝒀𝒕

𝑽𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒆𝒙ó𝒈𝒆𝒏𝒂𝒔: 𝟏, 𝒀𝒕−𝟏 , (𝒀𝒕−𝟏 − 𝒀𝒕−𝟐 ), 𝑮𝒕

𝑽𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒂𝒍𝒆𝒂𝒕𝒐𝒓𝒊𝒂𝒔: 𝒆𝟏𝒕 , 𝒆𝟐𝒕


𝑷𝒂𝒓á𝒎𝒆𝒕𝒓𝒐𝒔: 𝜶𝟏 , 𝜶𝟐 , 𝜷𝟏 , 𝜷𝟐 , 𝜷𝟑

1.3 Especificación del valor de los coeficientes

Signo Tipo de
Ecuación Explicación
esperado relación
El coeficiente 𝛼1 en la ecuación de inversión debería
Consumo 0 < 𝛼1 < 1 Directa tener un signo positivo, se espera que si aumenta el
ingreso aumente el consumo.
El coeficiente 𝛽1 en la ecuación de inversión debería
𝛽1 > 0
Directa tener un signo positivo, se espera que si aumenta el
ingreso aumente la inversión.
Inversión
El coeficiente 𝛽2 en la ecuación de inversión debería
𝛽2 > 0 Directa tener un signo positivo, espera que si aumenta el ingreso
aumente la inversión.
El coeficiente 𝛽3 en la ecuación de inversión debería
𝛽3 > 0 Directa tener un signo positivo, espera que si aumenta la
variación del ingreso aumente la inversión.

3
1.4 Forma estructural algebraica

Pasa todos los valores al primer miembro y déjalos en función de cero. Hazlo para cada
ecuación, quedará expresada como:

𝐶𝑡 − 𝛼1 − 𝛼2 𝑌𝑡−1 − 𝑒1𝑡 = 0
𝐼𝑡 − 𝛽1 − 𝛽2 𝑌𝑡 − 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 ) − 𝑒2𝑡 = 0
𝑌𝑡 − 𝐶𝑇 − 𝐼𝑇 − 𝐺𝑡 = 0

1.5 Forma estructural matricial

−𝛼1 −𝛽1 0
1 0 −1
−𝛼2 0 0
[𝐶𝑡 𝐼𝑡 𝑌𝑡 ] 𝑇𝑥3 [0 1 −1] + [1 𝑌𝑡−1 (𝑌𝑡−1 − 𝑌𝑡−2 ) 𝐺𝑡 ] 𝑇𝑥4
0 −𝛽2 1 0 −𝛽3 0
3𝑥3 [ 0 0 −1]4𝑥3

+ [−𝑒1𝑡 −𝑒2𝑡 0] 𝑇𝑋3 = 0

1.6 Forma matricial compacta

𝑌(𝑇∗3)Γ(3∗3) + 𝑋(𝑇∗4) Β(4∗3) + Ε(𝑇∗3) = 0(𝑇∗3)

Donde:

1 0 −1
𝑌 = [𝐶𝑡 𝐼𝑡 𝑌𝑡 ]𝑇𝑥3 ; 𝚪 = [0 1 −1] ; 𝑋 = (1 𝑌𝑡−1 (𝑌𝑡−1 − 𝑌𝑡−2 ) 𝐺𝑡 )
0 −𝛽2 1
3𝑥3

−𝛼1 −𝛽1 0
−𝛼 0 0
𝚩=[ 2 ] 𝚬 = [−𝑒1𝑡 −𝑒2𝑡 0]𝑇𝑋3
0 −𝛽3 0
0 0 −1 4𝑥3

Donde:

• 𝒀: 𝒗𝒆𝒄𝒕𝒐𝒓 𝑻 ∗ 𝟑 𝒅𝒆 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒆𝒏𝒅𝒐𝒈𝒆𝒏𝒂𝒔


• 𝚪 = 𝒎𝒂𝒕𝒓𝒊𝒛 𝟑 ∗ 𝟑 𝒅𝒆 𝒄𝒐𝒆𝒇𝒊𝒄𝒊𝒆𝒏𝒕𝒆𝒔 𝒅𝒆 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆 𝒆𝒏𝒅𝒐𝒈𝒆𝒏𝒂𝒔
• 𝑿: 𝒗𝒆𝒄𝒕𝒐𝒓 𝑻 ∗ 𝟒 𝒅𝒆 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆𝒔 𝒑𝒓𝒆𝒅𝒆𝒕𝒆𝒓𝒎𝒊𝒏𝒂𝒅𝒂𝒔
• 𝚩 = 𝒎𝒂𝒕𝒓𝒊𝒛 𝟒 ∗ 𝟑 𝒅𝒆 𝒄𝒐𝒆𝒇𝒊𝒄𝒊𝒆𝒏𝒕𝒆𝒔 𝒅𝒆 𝒗𝒂𝒓𝒊𝒂𝒃𝒍𝒆 𝒆𝒏𝒅𝒐𝒈𝒆𝒏𝒂
• 𝚬: 𝒗𝒆𝒄𝒕𝒐𝒓 𝑻 ∗ 𝟑 𝒅𝒆 𝒕𝒆𝒓𝒎𝒊𝒏𝒐𝒔 𝒅𝒆 𝒑𝒆𝒓𝒕𝒖𝒓𝒃𝒂𝒄𝒊ó𝒏

4
1.7 Forma matricial compacta reducida

La forma reducida se halla a partir de las ecuaciones matriciales compactas. De la


ecuación anterior, despejamos la variable endógena en función de las variables exógenas
y del término de error. Luego multiplicamos por la inversa de gamma “𝚪 −𝟏 ”: Esto es
expresado de la siguiente manera:

A partir de la forma estructural matricial compacta despejamos “Y”

𝒀(𝑻∗𝟑) 𝚪(𝟑∗𝟑) + 𝚾(𝑻∗𝟒) 𝚩(𝟒∗𝟑) + 𝚬(𝑻∗𝟑) = 𝟎(𝑻∗𝟑)

𝒀𝒕 𝚪 + 𝚾𝚩 + 𝚬 = 𝟎
𝒀𝒕 𝚪𝚪 −𝟏 + 𝚾𝚩𝚪 −𝟏 + 𝚬𝚪 −𝟏 = 𝟎
𝒀𝒕 𝚪𝚪 −𝟏 = −𝚾𝚩𝚪 −𝟏 − 𝚬𝚪 −𝟏
𝒀𝒕 = −𝚾𝚩𝚪 −𝟏 − 𝚬𝚪 −𝟏
𝒀𝒕 = 𝚾𝚷 + 𝐕
Donde:
• 𝚷 = −𝚩𝚪 −𝟏
• 𝐕 = −𝚬𝚪 −𝟏
Donde:
𝜋01 𝜋02 𝜋03
𝜋 𝜋12 𝜋13
𝒀 = (𝑪𝒕 𝑰𝒕 𝒀𝒕 ); 𝚾 = (1 𝑌𝑡−1 (𝑌𝑡−1 − 𝑌𝑡−2 ) 𝐺𝑡 ); 𝚷 = [𝜋11 𝜋22 𝜋23];
21
𝜋31 𝜋32 𝜋33
𝑽 = (𝑉1𝑡 𝑉2𝑡 0)

1.8 Forma reducida en su forma algebraica compacta

𝐶𝑡 = 𝜋01 + 𝜋11 𝑌𝑡−1 + 𝜋21 (𝑌𝑡−1 − 𝑌𝑡−2 ) + 𝜋31 𝐺𝑡 + 𝑣1𝑡

𝐼𝑡 = 𝜋02 + 𝜋12 𝑌𝑡−1 + 𝜋22 (𝑌𝑡−1 − 𝑌𝑡−2 ) + 𝜋32 𝐺𝑡 + 𝑣2𝑡

𝑦𝑡 = 𝜋03 + 𝜋13 𝑌𝑡−1 + 𝜋23 (𝑌𝑡−1 − 𝑌𝑡−2 ) + 𝜋33 𝐺𝑡 + 𝑣3𝑡

1.9 Forma reducida en su forma matricial

5
[𝐶𝑡 𝐼𝑡 𝑌𝑡 ](𝑇𝑥3)

𝜋01 𝜋02 𝜋03


𝜋 𝜋12 𝜋13
= [1 𝑌𝑡−1 (𝑌𝑡−1 − 𝑌𝑡−2 ) 𝐺𝑡 ](𝑇𝑥4) [𝜋11 𝜋22 𝜋23 ]
21
𝜋31 𝜋32 𝜋33 (4𝑥3)

+ [𝑣1𝑡 𝑣2𝑡 𝑣3𝑡 ](𝑇𝑥3)

SUPUESTOS
1.Completitud
Se evalúa la matriz 𝜞, la cual acompaña a la matriz de variables endógenas, debe ser una
matriz cuadrada no singular, esto garantiza que el sistema es completo, además toda
matriz cuadrada tiene un determinante para estimar el modelo |𝛤| ≠ 0 . Los valores por
encima y por debajo de la diagonal principal son diferentes, lo cual es característica
principal de una matriz cuadrada no singular, por tanto, el sistema es completo.
1 0 −1
𝜞 = [0 1 −1]
0 −𝛽2 1
3𝑥3

2.Interdependencia
Podemos evaluar la interdependencia vía variables endógenas y vía variables aleatorias.
Canal de interdependencia vía variables endógenas:

Se evalúa la matriz 𝜞, la cual acompaña a las variables endógenas, se dice que existe
interdependencia vía variables endógenas cuando los valores de sus diagonales son
diferentes a cero.
1 0 −1 1 0 0
Γ = [0 1 −1] ≠ [0 1 0]
0 −𝛽2 1 0 0 1

Dada la matriz de coeficiente de variables endógenas se puede observar que, si existe


interdependencia, esto debido a que hay valores por encima y por debajo de la diagonal
principal diferentes de cero, o porque la matriz Γ es diferente a una matriz identidad.
Canal de interdependencia vía variables aleatorias:

Matriz de varianzas y covarianzas

6
Se evalúa la matriz 𝜀, matriz de varianzas y covarianzas de los valores aleatorios.

𝜽𝟏𝟏 𝜽𝟏𝟐 𝜽𝟏𝟑


𝜺 = |𝜽𝟐𝟏 𝜽𝟐𝟐 𝜽𝟐𝟑 |
𝜽𝟑𝟏 𝜽𝟑𝟐 𝜽𝟑𝟑

Varianzas 𝜽𝟏𝟏 , 𝜽𝟐𝟐 , 𝜽𝟑𝟑


𝐇𝟎 : 𝜽𝐢𝐣 = 𝟎, No existe interdependencia
𝐇𝟏 : 𝜽𝐢𝐣 ≠ 𝟎, Si existe interdependencia.
Entonces.

𝐸 = [−𝑒1𝑡 −𝑒2𝑡 0]

Bajo los supuestos:

𝐸 = [𝑒𝑖 . 𝑒´𝑖 ] = 𝑉𝑎𝑟[𝑒𝑖 ] = 𝑒𝑖 2

𝐸 = [𝑒𝑖 . 𝑒´𝐽 ] = 0, 𝑑𝑜𝑛𝑑𝑒: 𝑖 ≠ 𝑗

𝑒1𝑡 𝑒1𝑡 𝑒´1𝑡 𝑒1𝑡 𝑒´2𝑡 0


𝐸 [𝑒𝑖 . 𝑒´𝑖 ] = 𝐸 [[𝑒2𝑡 ] [𝑒´1𝑡 𝑒´2𝑡 0]] = 𝐸 [𝑒2𝑡 𝑒´1𝑡 𝑒2𝑡 𝑒´2𝑡 0]
0 0 0 0

𝐸 [𝑒1𝑡 𝑒´1𝑡 ] 𝐸[𝑒1𝑡 𝑒´2𝑡 ] 0


[
= 𝐸 [𝑒2𝑡 𝑒´1𝑡 ] 𝐸 [𝑒2𝑡 𝑒´2𝑡 ] 0]
0 0 0

Dada la matriz de varianzas y covarianzas se puede observar que si existe


interdependencia.

2. IDENTIFICACIÓN

Antes de estimar el modelo, se necesita establecer las condiciones de identificación, para


reconocer el método de estimación:

2.1 Condición de Rango

(𝑹𝒊 𝒙𝜟) = 𝑴 − 𝟏

(𝑅𝑖 ∗ 𝛥) = 𝑀 − 1
𝑅𝑖 = (𝐽 ∗ (𝑀 + 𝐾))

7
Donde:
✓ 𝐽 = 𝑛ú𝑚𝑒𝑟𝑜 𝑑𝑒 𝑟𝑒𝑠𝑡𝑟𝑖𝑐𝑐𝑖𝑜𝑛𝑒𝑠
✓ 𝑀+𝐾=
𝑡𝑜𝑡𝑎𝑙 𝑑𝑒 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑛 𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜, 𝑒𝑠 𝑑𝑒𝑐𝑖𝑟 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑛𝑑ó𝑔𝑒𝑛𝑎𝑠 𝑚á𝑠 𝑙𝑎𝑠 𝑒𝑥ó𝑔𝑒𝑛𝑎𝑠.

𝑀+𝐾=7

J1 = 𝐼𝑡 , 𝑌𝑡 , (𝑌𝑡−1 − 𝑌𝑡−2 ), Gt , = 4

J2 = 𝐶𝑡 , Yt−1 , Gt = 3

Para la primera ecuación:

(𝑹𝒊 𝒙𝚫) = 𝑴 − 𝟏

𝐶𝑡 𝐼𝑡 𝑌𝑡 1 Yt−1 𝑌𝑡−1 − 𝑌𝑡−2 Gt

0 1 0 0 0 0 0
0 0 1 0 0 0 0
R1 = [ ] (4 ∗ 7)
0 0 0 0 0 1 0
0 0 0 0 0 0 1

1 0 −1
0 1 −1
0 −𝛽2 1
Γ(3X3)
Δ=[ ] = −𝛼1 −𝛽1 0
𝛽4𝑋3
−𝛼2 0 0
0 −𝛽3 0
[ 0 0 −1](7∗3)

Entonces: R1 𝑥Δ
1 0 −1
0 1 −1
0 1 0 0 0 0 0
0 −𝛽2 1
0 0 1 0 0 0 0
R1 𝑥Δ = [ ] 𝑥 −𝛼1 −𝛽1 0
0 0 0 0 0 1 0
−𝛼2 0 0
0 0 0 0 0 0 1
0 −𝛽3 0
[ 0 0 −1]
0 1 −1
0 −𝛽2 0
R1 𝑥Δ = [ ]
0 −𝛽3 0
0 0 −1 (4∗3)
Conclusión:
𝑅𝑎𝑛𝑔𝑜 = 2 = 𝑀 − 1
𝑅𝑎𝑛𝑔𝑜 = 2 = 3 − 1

∴ 𝐿𝑎 𝑝𝑟𝑖𝑚𝑒𝑟𝑎 𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑒𝑠𝑡𝑎 𝑖𝑑𝑒𝑛𝑡𝑖𝑓𝑖𝑐𝑎𝑑𝑎.

8
Para la segunda ecuación: R2 𝑥Δ

𝐶𝑡 𝐼𝑡 𝑌𝑡 1 Yt−1 𝑌𝑡−1 − 𝑌𝑡−2 Gt

1 0 0 0 0 0 0
𝑅2 = [ 0 0 0 0 1 0 0 ] (3 ∗ 7)
0 0 0 0 0 0 1

1 0 −1
0 1 −1
0 −𝛽2 1
Γ(3X3)
Δ=[ ] = −𝛼1 −𝛽1 0
𝛽4𝑋3
−𝛼2 0 0
0 −𝛽3 0
[ 0 0 −1](7∗3)
Entonces: 𝑅2 𝑥Δ:
1 0 −1
0 1 −1
1 0 0 0 0 0 0 0 −𝛽2 1
R 2 𝑥Δ = [ 0 0 0 0 1 0 0 ] −𝛼1 −𝛽1 0
0 0 0 0 0 0 1 (3∗7) −𝛼2 0 0
0 −𝛽3 0
[ 0 0 −1](7∗3)
1 0 −1
𝑅2 𝑥Δ = [−𝛼2 0 0]
0 0 −1 (3∗3)
Conclusión:
𝑅𝑎𝑛𝑔𝑜 = 2 = 𝑀 − 1
𝑅𝑎𝑛𝑔𝑜 = 2 = 3 − 1

∴ 𝐿𝑎 𝑠𝑒𝑔𝑢𝑛𝑑𝑎 𝑒𝑐𝑢𝑎𝑐𝑖ó𝑛 𝑑𝑒𝑙 𝑚𝑜𝑑𝑒𝑙𝑜 𝑒𝑠𝑡𝑎 𝑑𝑒𝑛𝑡𝑖𝑓𝑖𝑐𝑎𝑑𝑎.

2.2 Condición de Orden

𝑱≥𝑴−𝟏

Para la Primera Ecuación:

𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1

J1 = 𝐼𝑡 , 𝑌𝑡 , (𝑌𝑡−1 − 𝑌𝑡−2 ), Gt , = 4

𝐽 ≥𝑀−1

4 ≥ 3−1

4≥2

9
4 ≥ 2; por lo tanto, la primera ecuación esta sobre identificada, es decir, existe más
información de la estrictamente necesaria para estimar los parámetros de la primera
ecuación.

Para la Segunda Ecuación:

𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )
J2 = 𝐶𝑡 , Yt−1 , Gt = 3

𝐽 ≥𝑀−1

3 ≥ 3−1

3≥2

3 ≥ 2; por lo tanto, la segunda ecuación esta sobre identificada, es decir, existe más
información de la estrictamente necesaria para estimar los parámetros de la primera
ecuación.

3.ESTIMACIÓN

Debido a que en la identificación del modelo se encontraron que las dos ecuaciones son
identificadas por el rango y sobre identificadas por el orden, podemos utilizar MC3E,
MC2E, máxima verisimilitud, sin embargo, es importante tener en cuenta que el MC3E
nos permite estimar mejor el modelo, los parámetros tienen menor varianza por tanto son
más eficientes.

Además, si las ecuaciones resultan sobre identificadas entonces

𝑴𝑪𝟑𝑬 ≠ 𝑴𝑪𝟐𝑬

Exactamente identificadas

𝑴𝑪𝟑𝑬 = 𝑴𝑪𝟐𝑬

3.1 Estimación MC2E

3.1.1 Forma 1 (etapa por etapa)

10
• Paso 1, estimamos la forma reducida de cada ecuación.

LS CN C GNP (-1) (GNP (-1)-GNP (-2)) G

LS I C GNP (-1) (GNP (-1)-GNP (-2)) G

LS GNP C GNP (-1) (GNP (-1)-GNP (-2)) G

• Paso 2, una vez que se tiene las estimaciones en su forma reducida, se pronostica
cada ecuación con forecat, a fin de pronosticar las variables endógenas.
• Paso 3, ahora vamos a estimar el modelo estructural, pero trabajando con las
variables pronosticadas.

LS CN C GNP (-1)

Dependent Variable: CN
Method: Least Squares
Date: 09/30/23 Time: 22:12
Sample: 1950Q1 1985Q4
Included observations: 144

Variable Coefficient Std. Error t-Statistic Prob.

C -132.3679 11.20552 -11.81273 0.0000


GNP(-1) 0.674787 0.004675 144.3443 0.0000

R-squared 0.993231 Mean dependent var 1411.163


Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Akaike info criterion 10.23875
Sum squared resid 229327.0 Schwarz criterion 10.27999
Log likelihood -735.1897 Hannan-Quinn criter. 10.25551
F-statistic 20835.28 Durbin-Watson stat 0.260236
Prob(F-statistic) 0.000000

LS I C GNPF (GNP (-1)-GNP(-2))

11
Dependent Variable: I
Method: Least Squares
Date: 09/30/23 Time: 22:14
Sample: 1950Q1 1985Q4
Included observations: 144

Variable Coefficient Std. Error t-Statistic Prob.

C -22.86366 8.631705 -2.648800 0.0090


GNPF 0.172718 0.003617 47.75255 0.0000
GNP(-1)-GNP(-2) 0.457441 0.090958 5.029132 0.0000

R-squared 0.945473 Mean dependent var 383.8354


Adjusted R-squared 0.944700 S.D. dependent var 131.0940
S.E. of regression 30.82808 Akaike info criterion 9.715342
Sum squared resid 134002.2 Schwarz criterion 9.777213
Log likelihood -696.5046 Hannan-Quinn criter. 9.740483
F-statistic 1222.442 Durbin-Watson stat 0.711156
Prob(F-statistic) 0.000000

3.1.2 Forma 2, forma directa

TSLS CN C GNP (-1) @ C GNP (-1) (GNP (-1)-GNP (-2)) G

Dependent Variable: CN
Method: Two-Stage Least Squares
Date: 09/22/23 Time: 12:19
Sample: 1950Q1 1985Q4
Included observations: 144
Instrument specification: C GNP(-1) (GNP(-1)-GNP(-2)) G

Variable Coefficient Std. Error t-Statistic Prob.

C -132.3679 11.20552 -11.81273 0.0000


GNP(-1) 0.674787 0.004675 144.3443 0.0000

R-squared 0.993231 Mean dependent var 1411.163


Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Sum squared resid 229327.0
F-statistic 20835.28 Durbin-Watson stat 0.260236
Prob(F-statistic) 0.000000 Second-Stage SSR 229327.0
J-statistic 43.24160 Instrument rank 4
Prob(J-statistic) 0.000000

TSLS I C GNP (GNP (-1)-GNP (-2)) @ C GNP (-1) (GNP (-1)-GNP (-2)) G

12
Dependent Variable: I
Method: Two-Stage Least Squares
Date: 09/22/23 Time: 12:20
Sample: 1950Q1 1985Q4
Included observations: 144
Instrument specification: C GNP(-1) (GNP(-1)-GNP(-2)) G

Variable Coefficient Std. Error t-Statistic Prob.

C -22.86366 8.433081 -2.711187 0.0075


GNP 0.172718 0.003534 48.87726 0.0000
GNP(-1)-GNP(-2) 0.457441 0.088865 5.147583 0.0000

R-squared 0.947954 Mean dependent var 383.8354


Adjusted R-squared 0.947215 S.D. dependent var 131.0940
S.E. of regression 30.11869 Sum squared resid 127906.1
F-statistic 1280.704 Durbin-Watson stat 0.491122
Prob(F-statistic) 0.000000 Second-Stage SSR 134002.2
J-statistic 21.19673 Instrument rank 4
Prob(J-statistic) 0.000004

3.1.3 Forma 3, sistema


• Object
• New Object
• System
CN=C(1)+C(2)*GNP(-1)
I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
INST C GNP(-1) (GNP(-1)-GNP(-2)) G
• Estimate
• Two stage least squares

13
System: MC2E_SYSTEM
Estimation Method: Two-Stage Least Squares
Date: 09/22/23 Time: 14:27
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288

Coefficient Std. Error t-Statistic Prob.

C(1) -132.3679 11.20552 -11.81273 0.0000


C(2) 0.674787 0.004675 144.3443 0.0000
C(3) -22.86366 8.433081 -2.711187 0.0071
C(4) 0.172718 0.003534 48.87726 0.0000
C(5) 0.457441 0.088865 5.147583 0.0000

Determinant residual covariance 1214893.

Equation: CN=C(1)+C(2)*GNP(-1)
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.993231 Mean dependent var 1411.162
Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Sum squared resid 229327.0
Durbin-Watson stat 0.260236

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.947954 Mean dependent var 383.8354
Adjusted R-squared 0.947215 S.D. dependent var 131.0940
S.E. of regression 30.11869 Sum squared resid 127906.1
Durbin-Watson stat 0.491122

3.2 Estimación MC3E

• Object
• New Object
• System
CN=C(1)+C(2)*GNP(-1)
I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
INST C GNP(-1) (GNP(-1)-GNP(-2)) G
• Estimate
• Three stage least squares

14
System: MC3E_SYSTEM
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 14:37
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288
Linear estimation after one-step weighting matrix

Coefficient Std. Error t-Statistic Prob.

C(1) -132.3749 11.12744 -11.89626 0.0000


C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
C(4) 0.172725 0.003492 49.46867 0.0000
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

Equation: CN=C(1)+C(2)*GNP(-1)
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.993231 Mean dependent var 1411.162
Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Sum squared resid 229327.0
Durbin-Watson stat 0.260238

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.947954 Mean dependent var 383.8354
Adjusted R-squared 0.947215 S.D. dependent var 131.0940
S.E. of regression 30.11872 Sum squared resid 127906.3
Durbin-Watson stat 0.489787

3.3 Estimación máxima verisimilitud MMV


• Object
• New Object
• System
CN=C(1)+C(2)*GNP(-1)
I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
INST C GNP(-1) (GNP(-1)-GNP(-2)) G
• Estimate
• Full Information Maximum Likelihood

15
System: MMV
Estimation Method: Full Information Maximum Likelihood (BFGS / Marquardt
steps)
Date: 09/24/23 Time: 16:09
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288
Convergence achieved after 16 iterations
Coefficient covariance computed using outer product of gradients

Coefficient Std. Error z-Statistic Prob.

C(1) -131.8478 17.92134 -7.357028 0.0000


C(2) 0.674560 0.007000 96.36816 0.0000
C(3) -23.89148 14.36725 -1.662912 0.0963
C(4) 0.173190 0.005091 34.02032 0.0000
C(5) 0.454105 0.079259 5.729416 0.0000

Log likelihood -1417.377 Schwarz criterion 19.85835


Avg. log likelihood -4.921448 Hannan-Quinn criter. 19.79714
Akaike info criterion 19.75524
Determinant residual covariance 1214735.

Equation: CN=C(1)+C(2)*GNP(-1)
Observations: 144
R-squared 0.993231 Mean dependent var 1411.162
Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18713 Sum squared resid 229330.8
Durbin-Watson stat 0.260091

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Observations: 144
R-squared 0.947951 Mean dependent var 383.8354
Adjusted R-squared 0.947212 S.D. dependent var 131.0940
S.E. of regression 30.11960 Sum squared resid 127913.8
Durbin-Watson stat 0.488140

3.4 Estimación momentos generales GMM


• Object
• New Object
• System
CN=C(1)+C(2)*GNP(-1)
I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
INST C GNP(-1) (GNP(-1)-GNP(-2)) G
• Estimate
• Generalized Method of Moments

16
System: GMM
Estimation Method: Generalized Method of Moments
Date: 09/24/23 Time: 16:10
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288
White Covariance
Linear estimation after one-step weighting matrix

Coefficient Std. Error t-Statistic Prob.

C(1) -160.7555 9.128887 -17.60954 0.0000


C(2) 0.686297 0.004207 163.1347 0.0000
C(3) -30.88615 7.073096 -4.366709 0.0000
C(4) 0.175244 0.003799 46.13037 0.0000
C(5) 0.377755 0.083389 4.530043 0.0000

Determinant residual covariance 1328664.


J-statistic 0.215181

Equation: CN=C(1)+C(2)*GNP(-1)
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.992924 Mean dependent var 1411.162
Adjusted R-squared 0.992874 S.D. dependent var 486.7321
S.E. of regression 41.08798 Sum squared resid 239727.6
Durbin-Watson stat 0.255824

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.946768 Mean dependent var 383.8354
Adjusted R-squared 0.946013 S.D. dependent var 131.0940
S.E. of regression 30.45991 Sum squared resid 130820.6
Durbin-Watson stat 0.423781

4.EVALUACION
Periodo de estimación: 1950q1-1985q4
Estimación por MC3E:

𝐶̂𝑡 = −132.374885161 + 0.674790312475𝑌𝑡−1

𝐼̂𝑡 = −22.8487182518 + 0.172724622581𝑌𝑡 + 0.455743873458(𝑌𝑡−1 − 𝑌𝑡−2 )

Para evaluar el modelo planteado anteriormente, usaremos tres criterios:


4.1 Evaluación económica
4.1.1 Evaluación de los signos obtenidos de los parámetros en la estimación
De la estimación por MC3E evaluamos los signos esperados

17
Ecuación Signo esperado Signo esperado Conclusión
0 < 𝛼1 < 1 −132.374885161 𝛼1 : No Cumple con lo
especificado.
Consumo
𝛼2 > 0 0.674790312475 𝛼2 : Cumple con lo especificado.

𝑏1 > 0 −22.8487182518 𝑏1 : No cumple con lo especificado.

𝑏2 > 0 0.172724622581 𝑏2 : Cumple con lo especificado.


Inversión
𝑏3 > 0 0.4557438734580 𝑏3 : Cumple con lo especificado.

Fuente: Elaboración Propia

4.1.2 Interpretación de los signos obtenidos de los parámetros en la estimación


Los valores de los parámetros obtenidos, se pueden interpretar de la siguiente
manera:

𝛼2 : Un incremento de 1 unidad monetaria en el ingreso nacional en el periodo anterior,


provocará que el gasto en consumo aumente en 0.0675 unidades monetarias, suponiendo
que todas las demás variables se mantienen constantes.

𝑏2 : Un incremento de 1 unidad monetaria en el ingreso nacional, provocará que la


inversión nacional aumente en 0.1727 unidades monetarias, suponiendo que todas las
demás variables se mantienen constantes.

𝑏3 : Un incremento de 1 unidad monetaria en la variación del ingreso nacional, provocará


que la inversión nacional aumente en 0.4557 unidades monetarias, suponiendo que todas
las demás variables se mantienen constantes.

Valores obtenidos de los interceptos


𝛼1 : Establece que independientemente de lo que suceda en la economía, su gasto en
consumo está asociado a una disminución de 132.374885161 unidades monetarias.

𝑏1 : Establece que independientemente de lo que suceda en la economía, se hará una


inversión asociada a una disminución de 22.8487182518 unidades monetarias.

4.2 Evaluación estadística

4.2.1 Evaluación estadística individual


𝛽̂𝑖 − 𝛽𝑖
𝑡𝑐 = 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑑𝑜 𝑐𝑜𝑛 𝑡𝑡 = 𝑡(𝛼,(𝑛−𝑘)𝑔𝑙)
𝑆𝛽̂𝑖 2

18
Si 𝑡𝑐 > 𝑡𝑡 se rechaza la hipótesis nula 𝐻0 Si 𝑃 < 0.05 se rechaza la hipótesis nula 𝐻0
Si 𝑡𝑐 < 𝑡𝑡 se acepta la hipótesis nula 𝑯𝟎 Si 𝑃 > 0.05 se acepta la hipótesis nula 𝐻0

Primera ecuación

𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1

𝜶𝟐

Comparamos el t calculado (𝑡 𝑠𝑡𝑎𝑡𝑖𝑠𝑡𝑖𝑐) con el 𝑡 de tabla, para la variable ingreso 𝛼1 en


la ecuación 1, en MC3E SISTEMA

𝐻0 : 𝛼1 = 0 (𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
System: MC3E_SYSTEM 𝐻1 : 𝛼1 ≠ 0 (𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 20:01
Sample: 1950Q1 1985Q4
Included observations: 144
𝒕𝑪 = 𝟏𝟒𝟓.
Total system (balanced) observations 288 𝟑𝟓𝟕𝟗 𝒕𝒕 = 𝟏. 𝟗𝟕𝟔𝟖𝟏𝟎𝟗𝟗𝟑𝟔𝟑𝟐𝟖𝟔𝟗
Linear estimation after one-step weighting matrix
𝜶 = 𝟓% = 𝟎. 𝟎𝟓
Coefficient Std. Error t-Statistic Prob.
𝒈𝒍 = 𝑻 − 𝒌 = 𝟏𝟒𝟒 − 𝟐 = 𝟏𝟒𝟐
C(1) -132.3749 11.12744 -11.89626 0.0000
1-0.025 = 0.975
C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
Scalar t= @qtdist (0.975,142) =
C(4) 0.172725 0.003492 49.46867 0.0000 𝟏. 𝟗𝟕𝟔𝟖𝟏𝟎𝟗𝟗𝟑𝟔𝟑𝟐𝟖𝟔𝟗
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

𝒕𝑪 > 𝒕𝒕 , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que el parámetro es


estadísticamente diferente de 0, es decir es significativo. La variable ingreso rezagada un
periodo, si explica al gasto en consumo.

Segunda ecuación

𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )

𝜷𝟐

19
𝐻0 : 𝛼1 = 0 (𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
System: MC3E_SYSTEM 𝐻1 : 𝛼1 ≠ 0 (𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 20:01
Sample: 1950Q1 1985Q4
Included observations: 144
𝒕𝑪 = 𝟒𝟗.
Total system (balanced) observations 288 𝟒𝟔 𝒕𝒕 = 𝟏. 𝟗𝟕𝟔𝟗𝟑𝟏𝟒𝟖𝟖𝟔𝟑𝟒𝟐𝟒𝟐
Linear estimation after one-step weighting matrix
𝜶 = 𝟓% = 𝟎. 𝟎𝟓
Coefficient Std. Error t-Statistic Prob.
𝒈𝒍 = 𝑻 − 𝒌 = 𝟏𝟒𝟒 − 𝟑 = 𝟏𝟒𝟏
C(1) -132.3749 11.12744 -11.89626 0.0000
1-0.025 = 0.975
C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
Scalar t= @qtdist (0.975,141) =
C(4) 0.172725 0.003492 49.46867 0.0000 𝟏. 𝟗𝟕𝟔𝟗𝟑𝟏𝟒𝟖𝟖𝟔𝟑𝟒𝟐𝟒𝟐
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

𝒕𝑪 > 𝒕𝒕 , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que el parámetro es


estadísticamente diferente de 0, es decir es significativo. La variable ingreso, si explica a
la inversión.

𝜷𝟑

𝐻0 : 𝛼1 = 0 (𝑛𝑜 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
System: MC3E_SYSTEM 𝐻1 : 𝛼1 ≠ 0 (𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑜)
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 20:01
Sample: 1950Q1 1985Q4
Included observations: 144
𝒕𝑪 = 288
Total system (balanced) observations 𝟓. 𝟓𝟗 𝒕𝒕 = 𝟏. 𝟗𝟕𝟔𝟗𝟑𝟏𝟒𝟖𝟖𝟔𝟑𝟒𝟐𝟒𝟐
Linear estimation after one-step weighting matrix
𝜶 = 𝟓% = 𝟎. 𝟎𝟓
Coefficient Std. Error t-Statistic Prob.
𝒈𝒍 = 𝑻 − 𝒌 = 𝟏𝟒𝟒 − 𝟑 = 𝟏𝟒𝟏
C(1) -132.3749 11.12744 -11.89626 0.0000
1-0.025 = 0.975
C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
Scalar t= @qtdist (0.975,141) =
C(4) 0.172725 0.003492 49.46867 0.0000 𝟏. 𝟗𝟕𝟔𝟗𝟑𝟏𝟒𝟖𝟖𝟔𝟑𝟒𝟐𝟒𝟐
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

20
𝒕𝑪 > 𝒕𝒕 , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que el parámetro es
estadísticamente diferente de 0, es decir es significativo. La variable variación del ingreso,
si explica a la inversión.

4.2.2 Evaluación estadística conjunta


1 FORMA:
Se plantea la hipótesis:
𝐻0 : 𝛽0 = 𝛽1 = ⋯ 𝛽k = 0 (𝑁𝑜 𝑒𝑠𝑡𝑎𝑑𝑖𝑠𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎 𝑒𝑛 𝑠𝑢 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜)
𝐻1 : 𝛽0 ≠ 𝛽1 ≠ ⋯ 𝛽k ≠ 0 (𝐸𝑠𝑡𝑎𝑑𝑖𝑠𝑡𝑖𝑐𝑎𝑚𝑒𝑛𝑡𝑒 𝑠𝑖𝑔𝑛𝑖𝑓𝑖𝑐𝑎𝑡𝑖𝑣𝑎 𝑒𝑛 𝑠𝑢 𝑐𝑜𝑛𝑗𝑢𝑛𝑡𝑜)

Se define la regla:
𝐹𝑐 > 𝐹𝑡 𝑆𝑒 𝑟𝑒𝑐ℎ𝑎𝑧𝑎 𝐻0
𝐹𝑐 < 𝐹𝑡 𝑆𝑒 𝑎𝑐𝑒𝑝𝑡𝑎 𝐻0
𝑅2 /(𝐾−1) 𝛼%
𝐹𝑐 = (1−𝑅2)/ (𝑁−𝐾) 𝑐𝑜𝑚𝑝𝑎𝑟𝑎𝑑𝑜 𝑐𝑜𝑛 𝐹𝑇 = 𝐹(𝑘−1)(𝑛−𝑘) = 𝑡(𝛼,(𝑘−1)(𝑛−𝑘)𝑔.𝑙)

En MC3E

21
System: MC3E_SYSTEM
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 20:01
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288
Linear estimation after one-step weighting matrix

Coefficient Std. Error t-Statistic Prob.

C(1) -132.3749 11.12744 -11.89626 0.0000


C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
C(4) 0.172725 0.003492 49.46867 0.0000
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

Equation: CN=C(1)+C(2)*GNP(-1)
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.993231 Mean dependent var 1411.162
Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Sum squared resid 229327.0
Durbin-Watson stat 0.260238

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.947954 Mean dependent var 383.8354
Adjusted R-squared 0.947215 S.D. dependent var 131.0940
S.E. of regression 30.11872 Sum squared resid 127906.3
Durbin-Watson stat 0.489787

Comparamos el F calculado con el F de tabla para la primera ecuación


𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1
𝑹𝟐
𝒌−𝟏
𝐹𝑐 = (𝟏−𝑹𝟐 )
= 20835.98788595058 𝐹𝑡 = 20835.98788595058
𝑻−𝒌

scalar fc=((0.993231/1)/ ((1-0.993231)/142)) scalar f = @qfdist (0.95,1,142)


𝛼 = 5% = 0.05
𝑔𝑙 = 𝑁 = 𝐾 − 1 = 2 − 1 = 1
𝑔𝑙 = 𝐷 = 𝑇 − 𝐾 = 144 − 2 = 142

𝑭𝑪 > 𝑭𝒕 , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que el conjunto de variables


de la primera ecuación son significativas, es decir explican bien el modelo.

22
Comparamos el F calculado con el F de tabla para la segunda ecuación
𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )
𝑹𝟐
𝒌−𝟏
𝐹𝑐 = (𝟏−𝑹𝟐 )
= 1284.070956461591 𝐹𝑡 = 3.060291772241261
𝑻−𝒌

scalar fc=((0.947954/2)/ ((1-0.947954)/141)) scalar f = @qfdist (0.95,2,141)


𝛼 = 5% = 0.05
𝑔𝑙 = 𝑁 = 𝐾 − 1 = 3 − 1 = 2
𝑔𝑙 = 𝐷 = 𝑇 − 𝐾 = 144 − 3 = 141

𝑭𝑪 > 𝑭𝒕 , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que el conjunto de variables


de la segunda ecuación son significativas, es decir explican bien el modelo.

SEGUNDA FORMA
Tomando en cuenta el 𝑹𝟐 conjunto
𝝈𝟐 𝝈𝟐
𝑹𝟐𝒄 = 𝑹𝟐𝟏 (𝝈𝟐+𝝈
𝟏 𝟐 𝟐
𝟐 ) + 𝑹𝟐 (𝝈𝟐 +𝝈𝟐 ) = 0.9770197074214526
𝟏 𝟐 𝟏 𝟐

Scalar r2conjunto=(0.993231*(229327.0/(229327.0+127906.3)))+(0.947954
*(127906.3/(229327.0+127906.3)))

Lo que quiere decir que el conjunto de variables explica en un 97.7% el modelo.

4.2.3 Prueba de Normalidad


4.2.3.1 Test de Jarque Bera
Se realiza la evaluación de los errores
𝑯𝟎 : 𝒆𝒊𝒕 ~𝑵 (distribución normal)
𝑯𝟏 : 𝒆𝒊𝒕 ≠ 𝑵 (no distribución normal)
𝑱𝑩 < 𝑿𝟐𝟐 Se acepta 𝑯𝟎 Es decir, los errores siguen una distribución normal.

𝑱𝑩 > 𝑿𝟐𝟐 Se rechaza 𝑯𝟎 , Es decir, los errores no toman una distribución normal.
El resultado de la prueba se compara siempre con un valor de tabla (𝝌𝟐 con 2 gl, que es
5.99).
EN MC3E, VIEW---RESIDUAL DIAGNOSTIC---NORMALITY TEST

23
System Residual Normality Tests
Orthogonalization: Cholesky (Lutkepohl)
Null Hypothesis: residuals are multivariate normal
Date: 09/30/23 Time: 23:28
Sample: 1950Q1 1985Q4
Included observations: 144

Component Skewness Chi-sq df Prob.

1 0.583761 8.178650 1 0.0042


2 0.172001 0.710024 1 0.3994

Joint 8.888675 2 0.0117

Component Kurtosis Chi-sq df Prob.

1 3.505962 1.535985 1 0.2152


2 3.486657 1.421009 1 0.2332

Joint 2.956993 2 0.2280

Component Jarque-Bera df Prob.

1 9.714635 2 0.0078
2 2.131033 2 0.3445

Joint 11.84567 4 0.0185

En la primera ecuación
Comparamos el valor de jarque Bera con un chi cuadrado con dos grados de libertad.
9.71 5.99
scalar x2 = @qchisq
(0.95,2)

𝑽𝒂𝒍𝒐𝒓 𝑱𝑩 > 𝝌𝟐 (𝟎.𝟎𝟓,𝟐) , se rechaza 𝑯𝟎 y se acepta 𝑯𝟏 , lo que quiere decir que los errores
de la primera ecuación no siguen una distribución normal.
En la segunda ecuación
Comparamos el valor de jarque Bera con un chi cuadrado con dos grados de libertad.
2.13 5.99
scalar x2 = @qchisq
(0.95,2)

24
𝑽𝒂𝒍𝒐𝒓 𝑱𝑩 < 𝝌𝟐 (𝟎.𝟎𝟓,𝟐) , se acepta 𝑯𝟎 y se rechaza 𝑯𝟏 , lo que quiere decir que los

errores de la segunda ecuación siguen una distribución normal.

4.2.4 Prueba de simultaneidad


4.2.4.1 Test de Hausman
Según lo plantea Gujarati, D. & Porter, D. (2010):

Se deben seguir los siguientes pasos:

1. Encontrar la forma reducida de cada una de las ecuaciones.


2. Estimar la forma reducida por MCO y sacar el pronóstico del residuo de la
variable endógena que aparece como exógena en las otras ecuaciones, en este
caso sería la del ingreso nacional 𝑌𝑡 .
3. Estimar la ecuación por MCO, pero reemplazando la variable 𝑌𝑡 por su
pronóstico y agregando el residuo de la ecuación del ingreso.

Para la primera ecuación


Dependent Variable: CN
Method: Least Squares
Date: 09/30/23 Time: 23:41
Sample: 1950Q1 1985Q4
Included observations: 144

Variable Coefficient Std. Error t-Statistic Prob.

C -132.3679 9.896546 -13.37516 0.0000


GNP(-1) 0.674787 0.004129 163.4362 0.0000
RESIDGNP 0.731179 0.114125 6.406853 0.0000

R-squared 0.994757 Mean dependent var 1411.163


Adjusted R-squared 0.994683 S.D. dependent var 486.7321
S.E. of regression 35.49236 Akaike info criterion 9.997125
Sum squared resid 177618.8 Schwarz criterion 10.05900
Log likelihood -716.7930 Hannan-Quinn criter. 10.02227
F-statistic 13376.22 Durbin-Watson stat 0.226006
Prob(F-statistic) 0.000000

𝝆 = 𝟎. 𝟎𝟎 < 𝜶 = 𝟎. 𝟎𝟓, Dado que su probabilidad es menor que el 5%, entonces se rechaza
𝑯𝟎 y se acepta 𝑯𝟏,lo que quiere decir que, en la primera ecuación del modelo, la variable
ingreso presenta simultaneidad, (la variable es endógena).

Para la segunda ecuación

25
Dependent Variable: I
Method: Least Squares
Date: 09/30/23 Time: 23:46
Sample: 1950Q1 1985Q4
Included observations: 144

Variable Coefficient Std. Error t-Statistic Prob.

C -22.86366 8.433541 -2.711039 0.0075


GNP 0.172718 0.003534 48.87459 0.0000
GNP(-1)-GNP(-2) 0.457441 0.088870 5.147303 0.0000
RESIDGNP 0.096103 0.096915 0.991622 0.3231

R-squared 0.948317 Mean dependent var 383.8354


Adjusted R-squared 0.947210 S.D. dependent var 131.0940
S.E. of regression 30.12033 Akaike info criterion 9.675663
Sum squared resid 127012.8 Schwarz criterion 9.758158
Log likelihood -692.6477 Hannan-Quinn criter. 9.709184
F-statistic 856.2775 Durbin-Watson stat 0.392418
Prob(F-statistic) 0.000000

𝝆 = 𝟎. 𝟑𝟐 > 𝜶 = 𝟎. 𝟎𝟓, Dado que su probabilidad es mayor que el 5%, entonces se acepta
𝑯𝟎 y se rechaza 𝑯𝟏,lo que quiere decir que, en la primera ecuación del modelo, la
variable ingreso no presenta simultaneada (la variable es exógena).

4.2.4.1 Test de j-stadistic


Se compara un estadístico calculado (J-Stats) con un estadístico tabulado
𝑯𝟎 : La variable es exógena
𝑯𝟏 : La variable es endógena

Para la segunda ecuación


En MC2E DIRECTO

26
Endogeneity Test
Null hypothesis: GNP are exogenous
Equation: MC2E_EQ2_FD
Specification: I C GNP (GNP(-1)-GNP(-2))
Instrument specification: C GNP(-1) GNP(-1)-GNP(-2) G
Endogenous variables to treat as exogenous: GNP

Value df Probability
Difference in J-stats 0.983430 1 0.3214

J-statistic summary:
Value
Restricted J-statistic 22.18036
Unrestricted J-statistic 21.19693

Estadístico calculado vs estadístico tabulado


𝑱𝒅 = 𝟎. 𝟗𝟖 𝒙𝟐 = 𝟑. 𝟖𝟒
𝜶 = 𝟎. 𝟎𝟓
𝒈𝒍 = 𝟏
scalar x2 = @qchisq (0.95,1)

𝑱𝒅 = 𝟎. 𝟗𝟖 < 𝒙𝟐 = 𝟑. 𝟖𝟒, Se acepta 𝑯𝟎 , lo que quiere decir que la variable ingreso en


la función inversión es exógena

*También podemos comparar la probabilidad, llevándonos a la misma conclusión. Se


acepta 𝑯𝟎
𝝆 = 𝟎. 𝟑𝟐 > 𝜶 = 𝟎. 𝟎𝟓
4.3 Evaluación Econométrica
4.3.1 Multicolinealidad
𝑯𝟎 : Existe multicolinealidad leve
𝑯𝟏 : Existe multicolinealidad grave

4.3.1.1Test De Klein
Para el test de multicolinealidad de Klein, la multicolinealidad es un problema
complicado solamente si el R2 obtenida en una regresión auxiliar es mayor al R2 global.

• Si R> |rxi,xj | entonces existe multicolinealidad leve


• Si R< |rxi,xj | entonces existe multicolinealidad grave
Donde:

R: Coeficiente de correlación múltiple de todas las variables del modelo (es la raíz
cuadrada del Coeficiente de Determinación “R2”)

27
rxi,xj : Coeficiente de correlación simple entre dos variables explicatorias cualquiera, tales
como “xi” con “xj”

|rxi,xj | : Valor absoluto del coeficiente de correlación simple entre “xi” y “xj”

En MC3E sistema

System: MC3E_SYSTEM
Estimation Method: Three-Stage Least Squares
Date: 09/22/23 Time: 14:37
Sample: 1950Q1 1985Q4
Included observations: 144
Total system (balanced) observations 288
Linear estimation after one-step weighting matrix

Coefficient Std. Error t-Statistic Prob.

C(1) -132.3749 11.12744 -11.89626 0.0000


C(2) 0.674790 0.004642 145.3579 0.0000
C(3) -22.84872 8.343024 -2.738661 0.0066
C(4) 0.172725 0.003492 49.46867 0.0000
C(5) 0.455744 0.081494 5.592332 0.0000

Determinant residual covariance 1214885.

Equation: CN=C(1)+C(2)*GNP(-1)
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.993231 Mean dependent var 1411.162
Adjusted R-squared 0.993183 S.D. dependent var 486.7321
S.E. of regression 40.18680 Sum squared resid 229327.0
Durbin-Watson stat 0.260238

Equation: I=C(3)+C(4)*GNP+C(5)*(GNP(-1)-GNP(-2))
Instruments: C GNP(-1) GNP(-1)-GNP(-2) G
Observations: 144
R-squared 0.947954 Mean dependent var 383.8354
Adjusted R-squared 0.947215 S.D. dependent var 131.0940
S.E. of regression 30.11872 Sum squared resid 127906.3
Durbin-Watson stat 0.489787

Procedo a sacar la raíz cuadrada del R-squared de cada ecuación, para obtener R
R en ecuación 1 R en ecuación 2
scalar CR1=SQR(0.993231) scalar CR2=SQR(0.947954)

0.9966097531130228 0.9736292929036184
Para hallar la matriz de correlación para cada ecuación
En la primera ecuación
𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1
GROUP GROUP_EQ1 GDP(-1)

28
*En cada ecuación anterior--Viuw---covariance analysis--- correlación, t-stadistic,
probability
En la ecuación del consumo no se puede comprobar la multicolinealidad dado que solo
tenemos una variable explicativa.
En la segunda ecuación

𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )

GROUP GROUP_EQ2 GNP (GNP(-1)-GNP(-2))


Covariance Analysis: Ordinary
Date: 10/01/23 Time: 00:14
Sample: 1950Q1 1985Q4
Included observations: 144

Covariance
Correlation
t-Statistic
Probability GNP GNP(-1)-GN...
GNP 518392.6
1.000000
-----
-----

GNP(-1)-GNP(-2) 3291.432 818.6376


0.159775 1.000000
1.928720 -----
0.0558 -----

Comparamos 3231.4 con CR1


R<r
0.9736292929036184 < 3231.4
Se acepta 𝑯𝟎 , lo que quiere decir que en la segunda ecuación existe multicolinealidad
grave.

4.3.1.2 Test de elipse


• Cuando la elipse es más ovalada significa que la multicolinealidad es mayor.

• Cuando la elipse tiende a volverse una circunferencia significa que hay menos
multicolinealidad (que no existe).

29
.685

.680
C(2)

.675

.670

.665

-10

-20
C(3)

-30

-40

.180

.176
C(4)

.172

.168

.6

.5
C(5)

.4

.3

-150 -140 -130 -120 -110 .665 .670 .675 .680 .685 -40 -30 -20 -10 .168 .172 .176 .180

C(1) C(2) C(3) C(4)

4.3.2 Heterocedasticidad
𝑯𝟎 : No existe heterocedasticidad
𝑯𝟏 : Existe heterocedasticidad
Para la primera ecuación
TEST DE BRESUCH-PAGAN-GODFREY
𝒆𝟐 = 𝜶𝟏 + 𝜶𝟐 𝒓 + 𝜶𝟑 𝐥𝐨𝐠(𝒈)
Se compara el 𝐱 𝟐 con R-squared*N de observaciones
X ---scalar x21 = @qchisq (0.95,1), dependiendo los grados de libertad
Si:
𝐱 𝟐 < R-squared*N de observaciones, se acepta 𝐇𝟏

30
𝐱 𝟐 > R-squared*N de observaciones, se acepta 𝐇𝟎
Para la primera ecuación
𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1

Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 3.389357 Prob. F(1,142) 0.0677


Obs*R-squared 3.356968 Prob. Chi-Square(1) 0.0669
Scaled explained SS 4.090274 Prob. Chi-Square(1) 0.0431

𝑅2 < 𝑋1 2

3.35 < 3.84145882061188

Se acepta 𝐻1 , por tanto, no existe heterocedasticidad en la primera ecuación del modelo.

Para la segunda ecuación


𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )

Heteroskedasticity Test: Breusch-Pagan-Godfrey

F-statistic 9.941870 Prob. F(2,141) 0.0001


Obs*R-squared 17.79707 Prob. Chi-Square(2) 0.0001
Heteroskedasticity Test: Breusch-Pagan-Godfrey
Scaled explained SS 33.69262 Prob. Chi-Square(2) 0.0000
Heteroskedasticity Test: Breusch-Pagan-Godfrey
F-statistic 9.941870 Prob. F(2,141)
F-statistic 2 Obs*R-squared
2 9.941870 17.79707
Prob. F(2,141)Prob. Chi-Square(2)
0.0001
𝑅 Scaled
Obs*R-squared > 𝑋2explained SS
17.79707 33.69262
Prob. Prob. Chi-Square(2)
Chi-Square(2) 0.0001
Scaled explained SS 33.69262 Prob. Chi-Square(2) 0.0000

17.79 > 5.991464547107911

Se acepta 𝐻1 , por tanto, existe heterocedasticidad en la segunda ecuación del modelo.

TEST DE HARVEY

Para la primera ecuación


𝐶𝑡 = 𝛼1 + 𝛼2 𝑌𝑡−1

Heteroskedasticity Test: Harvey

F-statistic 1.683604 Prob. F(1,142) 0.1966


Obs*R-squared 1.687311 Prob. Chi-Square(1) 0.1940
Heteroskedasticity Test: Breusch-Pagan-Godfrey
Scaled explained SS 2.353358 Prob. Chi-Square(1) 0.1250
Heteroskedasticity Test: Breusch-Pagan-Godfrey
F-statistic 9.941870 Prob. F(2,141)
F-statistic Obs*R-squared
9.941870 Prob.
17.79707
F(2,141) Prob. Chi-Square(2)
0.0001
Obs*R-squaredScaled explained
17.79707
SS Prob.
33.69262
Chi-Square(2)
Prob. Chi-Square(2)
0.0001
Scaled explained SS 33.69262 Prob. Chi-Square(2) 31 0.0000
𝑅2 < 𝑋1 2

1.68 < 3.84145882061188

Se acepta 𝐻1 , por tanto, no existe heterocedasticidad en la primera ecuación del modelo


Para la segunda ecuación
𝐼𝑡 = 𝛽1 + 𝛽2 𝑌𝑡 + 𝛽3 (𝑌𝑡−1 − 𝑌𝑡−2 )
Heteroskedasticity Test: Harvey

F-statistic 4.275386 Prob. F(2,141) 0.0158


Obs*R-squared 8.233399 Prob. Chi-Square(2) 0.0163
Scaled explained SS 10.16906 Prob. Chi-Square(2) 0.0062

𝑅2 > 𝑋2 2

8.23 > 5.991464547107911

Se acepta 𝐻1 , por tanto, existe heterocedasticidad en la segunda ecuación del modelo.

4.3.3 Autocorrelación
4.3.3.1 Test de correlograma
En la primera ecuación

32
Date: 10/01/23 Time: 00:39
Sample: 1950Q1 1985Q4
Included observations: 144

Autocorrelation Partial Correlation AC PAC Q-Stat Prob*

1 0.727 0.727 77.710 0.000


2 0.548 0.042 122.25 0.000
3 0.299 -0.241 135.59 0.000
4 0.132 -0.042 138.22 0.000
5 0.047 0.080 138.55 0.000
6 0.023 0.053 138.63 0.000
7 -0.044 -0.164 138.93 0.000
8 -0.036 0.052 139.13 0.000
9 -0.042 0.046 139.41 0.000
10 -0.018 0.013 139.46 0.000
11 -0.031 -0.094 139.61 0.000
12 -0.035 -0.014 139.81 0.000
13 -0.074 -0.028 140.69 0.000
14 -0.091 -0.026 142.03 0.000
15 -0.097 0.003 143.56 0.000
16 -0.109 -0.058 145.51 0.000
17 -0.109 -0.010 147.47 0.000
18 -0.099 0.003 149.10 0.000
19 -0.079 0.019 150.16 0.000
20 -0.086 -0.092 151.42 0.000
21 -0.067 0.016 152.18 0.000
22 -0.056 0.034 152.72 0.000
23 -0.046 -0.024 153.09 0.000
24 -0.014 0.022 153.12 0.000
25 0.052 0.117 153.59 0.000
26 0.055 -0.061 154.12 0.000
27 0.087 0.002 155.50 0.000
28 0.099 0.069 157.26 0.000
29 0.121 0.065 159.92 0.000
30 0.122 -0.036 162.65 0.000
31 0.137 0.025 166.12 0.000
32 0.085 -0.040 167.46 0.000
33 0.050 -0.029 167.94 0.000
34 0.039 0.074 168.23 0.000
35 0.014 -0.038 168.27 0.000
36 0.021 0.013 168.35 0.000

El correlograma nos muestra que efectivamente existe autocorrelación entre la variable

aleatoria de la ecuación de consumo y la variable ingreso del modelo. Esto puede

deducirse, al observar que los valores se salen fuera de la banda y que, además, los

coeficientes son mayores a cero.

Para la segunda ecuación

33
Date: 10/01/23 Time: 00:41
Sample: 1950Q1 1985Q4
Included observations: 144

Autocorrelation Partial Correlation AC PAC Q-Stat Prob*

1 0.665 0.665 65.050 0.000


2 0.497 0.098 101.61 0.000
3 0.288 -0.136 114.00 0.000
4 0.107 -0.127 115.71 0.000
5 0.071 0.116 116.46 0.000
6 0.020 -0.004 116.52 0.000
7 0.016 -0.004 116.56 0.000
8 0.037 0.036 116.77 0.000
9 -0.041 -0.140 117.03 0.000
10 -0.009 0.080 117.04 0.000
11 -0.006 0.043 117.05 0.000
12 0.034 0.059 117.23 0.000
13 0.104 0.060 118.96 0.000
14 0.179 0.131 124.15 0.000
15 0.182 -0.051 129.55 0.000
16 0.167 -0.021 134.11 0.000
17 0.145 0.065 137.57 0.000
18 0.151 0.081 141.40 0.000
19 0.105 -0.063 143.26 0.000
20 0.076 -0.025 144.25 0.000
21 0.064 0.039 144.94 0.000
22 0.030 -0.024 145.09 0.000
23 -0.002 -0.016 145.09 0.000
24 -0.033 -0.027 145.28 0.000
25 -0.030 0.030 145.44 0.000
26 -0.001 0.035 145.44 0.000
27 0.029 0.037 145.59 0.000
28 0.104 0.069 147.53 0.000
29 0.148 0.045 151.55 0.000
30 0.098 -0.121 153.33 0.000
31 0.119 0.070 155.95 0.000
32 0.058 -0.057 156.59 0.000
33 0.052 0.029 157.09 0.000
34 0.121 0.170 159.89 0.000
35 0.169 0.093 165.38 0.000
36 0.237 0.027 176.35 0.000

El correlograma nos muestra que efectivamente existe autocorrelación entre la variable

aleatoria de la ecuación de inversión y la variable ingreso del modelo. Esto puede

deducirse, al observar que los valores se salen fuera de la banda y que, además, los

coeficientes son mayores a cero.

34

También podría gustarte