Está en la página 1de 12

Apuntes N°4

Nombre de la asignatura ECONOMETRÌA


Unidad académica Facultad de Ingeniería y Arquitectura
Carrera/Programa Ingeniería Civil Industrial

4. ANÁLISIS DE REGRESIÓN MÚLTIPLE

Supuestos

Los 11 supuestos que se vieron para un modelo de regresión lineal simple también deben cumplirse
cuando se realiza un análisis de regresión con más de una variable independiente (Xi). Partamos
identificando un modelo con dos variables:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝜇𝑖

Coeficientes de Regresión
Parcial

En donde β2 y β3 son los coeficientes de regresión parcial.

Estas ecuaciones son las conocidas como modelos de regresión múltiples. Estos modelos
efectivamente cumples los supuestos:

• Valor medio de los residuos es igual a cero:

𝐸(𝜇𝑖 |𝑋2𝑖 , 𝑋3𝑖 ) = 0

• No Correlación Serial:
𝑐𝑜𝑣(𝜇𝑖 , 𝜇𝑗 ) = 0 𝑖 ≠ 𝑗

• Homoscedasticidad:
𝑣𝑎𝑟(𝜇𝑖 ) = 𝜎 2

• Covarianza cero entre µi y cada variable X:

𝑐𝑜𝑣(𝜇𝑖 , 𝑋2𝑖 ) = 𝑐𝑜𝑣(𝜇𝑖 , 𝑋3𝑖 ) = 0

• Correcta Especificación del Modelo

• No existencia de multicolinealidad: No hay relación lineal exacta entre X2 y X3.

1
La Colinealidad

• Si existe la siguiente relación lineal:


𝜆2 𝑋2𝑖 + 𝜆3 𝑋3𝑖 = 0

En donde donde λ2 y λ3 es un conjunto de números tales que al menos uno es diferente de cero.

Si dicha igualdad se cumple solo cuando λ2=λ3= 0, entonces se dice que X1 y X2 son linealmente
independientes.

Un ejemplo: si 𝑋2𝑖 = −4𝑋3𝑖 o bien 𝑋2𝑖 + 4𝑋3𝑖 = 0

Las dos variables son linealmente dependientes y si ambas son incluidas en el modelo de regresión,
se tendrá colinealidad perfecta (relación lineal exacta entre las dos regresoras).

¿Qué significan los coeficientes parciales?

• β2 mide el cambio en el valor de la media de Y por unidad de cambio en X2 permaneciendo


X3 constante.
• β3 mide el cambio en el valor de la media de Y por unidad de cambio en X3 permaneciendo
X2 constante.
• β1 término de intersección.

4.1 ESTIMACIÓN POR MCO DE LOS COEFICIENTES DE UN MODELO DE REGRESIÓN

Para estimar los parámetros lo primero que se hace es minimizar la función de regresión muestral
(FRM):

̂1 + 𝛽
𝑌𝑖 = 𝛽 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖 + 𝜇̂𝑖

Minimizar:

̂2 = ∑(𝑌 − 𝛽
𝑚𝑖𝑛 ∑ 𝜇𝑖 𝑖
̂1 − 𝛽 ̂3 𝑋3𝑖 )2
̂2 𝑋2𝑖 − 𝛽

Derivar parcialmente con respecto a cada una de las incógnitas e igualar a cero:

𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−1) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂1
𝜕𝛽

2
𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−𝑋2𝑖 ) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂
𝜕𝛽2

𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−𝑋3𝑖 ) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂3
𝜕𝛽

Simplificando:
∑ 𝜇̂𝑖 = 0

∑ 𝜇̂𝑖 𝑋2𝑖 = 0

∑ 𝜇̂𝑖 𝑋3𝑖 = 0

Las ecuaciones anteriores muestran el cumplimiento de parte de los supuestos.

Resolviendo simultáneamente obtenemos las famosas ecuaciones normales:

̂1 + 𝛽
̅𝑖 = 𝛽
𝑌 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖

̂1 ∑ 𝑋2𝑖 + 𝛽
∑ 𝑌𝑖 𝑋2𝑖 = 𝛽 ̂2 ∑ 𝑋2𝑖
2 ̂3 ∑ 𝑋2𝑖 𝑋3𝑖
+𝛽

̂1 ∑ 𝑋3𝑖 + 𝛽
∑ 𝑌𝑖 𝑋3𝑖 = 𝛽 ̂2 ∑ 𝑋2𝑖 𝑋3𝑖 +𝛽
̂3 ∑ 𝑋3𝑖
2
+

Despejando se llega a los siguientes estimadores:

̂1 = ̅̅̅
𝛽 𝑌𝑖 − 𝛽̂ ̅̅̅̅ ̂ ̅̅̅̅
2 𝑋2𝑖 − 𝛽3 𝑋3𝑖

2
(∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥3𝑖 ) − (∑ 𝑦𝑖 𝑥3𝑖 )(∑ 𝑥2𝑖 𝑥3𝑖 )
̂2 =
𝛽 2 2)
(∑ 𝑥2𝑖 )(∑ 𝑥3𝑖 − (∑ 𝑥2𝑖 𝑥3𝑖 )2

2
(∑ 𝑦𝑖 𝑥3𝑖 )(∑ 𝑥2𝑖 ) − (∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥2𝑖 𝑥3𝑖 )
̂3 =
𝛽 2 )(∑ 2 )
(∑ 𝑥2𝑖 𝑥3𝑖 − (∑ 𝑥2𝑖 𝑥3𝑖 )2

Respecto a las varianzas y los errores estándar de los estimadores de MCO se demuestran también
matemáticamente al igual que los estimadores de los parámetros y se obtienen los siguientes
resultados:

3
Varianzas de los parámetros Desviación estándar

También se puede escribir en función de la covarianza:

En las fórmulas anteriores, σ2 es la varianza (homoscedástica) de las perturbaciones poblacionales


µi. Se puede demostrar que un estimador insesgado de σ2 viene dada por la siguiente fórmula:

∑𝜇̂2
𝑖
𝜎̂2 =
(𝑛 − 3)

Donde se cumple:

̂2 = ∑ 𝑦 2 − 𝛽
∑𝜇 ̂2 ∑ 𝑦𝑖 𝑥2𝑖 − 𝛽
̂3 ∑ 𝑦𝑖 𝑥3𝑖
𝑖 𝑖

4.2 COEFICIENTE DE DETERMINACIÓN MÚLTIPLE R2

Tal como se vio en los modelos de regresión simple el coeficientes de determinación es una forma
de medir la bondad de ajuste es decir, da la proporción o porcentaje de la variación total en la
variable dependiente Y explicada por la variable (única) explicativa X. Este concepto aplicado a los
modelos de regresión múltiple se puede extener a estos modelos sin problema. La medida que da
esta información se conoce como coeficiente de determinación múltiple, y se denota por R2; es
similar a r2.

4
Ya sabemos:
̂1 + 𝛽
𝑌𝑖 = 𝛽 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖 + 𝜇̂𝑖

Y que expresado como desviaciones a sus medias se puede anotar:

∑ 𝑦𝑖2 = ∑ 𝑦̂2 ̂2
𝑖 + ∑ 𝜇𝑖

STC = SEC + SRC

Es decir, la suma de cuadrados total (STC) es igual a la suma explicada de cuadrados (SEC) más la
suma de residuos al cuadrado (SRC)

En donde se puede demostrar que SEC es:

∑ 𝑦̂2 ̂ ̂
𝑖 = 𝛽2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽3 ∑ 𝑦𝑖 𝑥3𝑖

Y que R2= SEC/STC podemos obtener:

̂2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽
𝛽 ̂3 ∑ 𝑦𝑖 𝑥3𝑖
𝑅2 =
∑ 𝑦𝑖2

Entonces se puede deducir que:

𝑆𝑅𝐶 ∑𝜇̂2
𝑖
𝑅2 = 1 − =1−
𝑆𝑇𝐶 ∑ 𝑦𝑖2

Dado que la SRC depende del número de regresoras, se puede deducir que a medida que aumenta
el número de variables X, R2 aumentará. El R2 miente.

Dado el problema, se presenta el coeficiente de determinación R2 ajustado:

∑𝜇 ̂2
𝑖
̂2
̅𝑅̅̅2̅ = 1 − (𝑛 − 𝑘) = ̅𝑅̅̅2̅ = 1 − 𝜎 = 1 − (1 − 𝑅 2 ) (𝑛 − 1)
𝑦𝑖2 𝑆𝑦2 (𝑛 − 𝑘)

(𝑛 − 1)

5
4.3 ESTADÍSTICO F

El estadístico F se utiliza para “contrastar” la significación del estadístico R2, y se realiza la siguiente
Hipótesis conjunta:

H0 : 𝛽2 = 𝛽3 = ⋯ … = 𝛽𝑘 = 0
H1 : 𝛽2 ≠ 𝛽3 ≠ ⋯ … ≠ 𝛽𝑘 ≠ 0

Donde

𝑅 2 /(𝑘 − 1) (𝑛 − 𝑘) 𝑅2
𝐹= = ∗
(1 − 𝑅 2 )/(𝑛 − 𝑘) (𝑘 − 1) (1 − 𝑅 2 )

Si F>Fα(k-1,n-k) rechácese H0. Se compara con el F de tabla de acuerdo con α, grados de liberta v1=k-1,
y v2=n-k.

4.4 ENFOQUE MATRICIAL

Se puede ampliar el modelo de dos variables independientes a K variables y un enfoque es utilizar


matrices para su cálculo. Un modelo en general de la función de regresión poblacional es:

𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + ⋯ + 𝛽𝑘 𝑋𝑘𝑖 + 𝜇𝑖 𝑖 = 1,2,3, … . 𝑛

Si tenemos justamente una muestra n, como por ejemplo 100 personas o 200 empresas se pueden
escribir ecuaciones simultáneas:

𝑌1 = 𝛽1 + 𝛽2 𝑋21 + 𝛽3 𝑋31 + ⋯ + 𝛽𝑘 𝑋𝑘1 + 𝜇1


𝑌2 = 𝛽1 + 𝛽2 𝑋22 + 𝛽3 𝑋32 + ⋯ + 𝛽𝑘 𝑋𝑘2 + 𝜇2
………………………………………………………………….
𝑌𝑛 = 𝛽1 + 𝛽2 𝑋2𝑛 + 𝛽3 𝑋3𝑛 + ⋯ + 𝛽𝑘 𝑋𝑘𝑛 + 𝜇𝑛

Utilizando matrices estas ecuaciones se pueden escribir como:

𝑌1 𝛽1 𝜇1
1 𝑋21 𝑋31 … . 𝑋𝑘1
𝑌2 𝛽2 𝜇 2
1 𝑋21 𝑋31 …. 𝑋𝑘2 ]
.. = [ . . . . .. + [ .. ]
[𝑌 ] 1 𝑋21 𝑋31 … … 𝑋𝑘𝑛 𝜇𝑛
𝑛 [𝛽𝑘 ]
y = X β + µ

nx1 = n x k kx1 nx1

En forma matricial en forma general con k variables se tiene:

𝒚 = 𝑿𝜷+𝝁

6
Supuestos del Modelo de regresión en forma matricial

1. E(µi) = 0

𝜇1 0
𝐸(𝜇1 )
𝜇2 0
𝐸 [ . ] = [ 𝐸(𝜇. 2 ) ] + [ . ]
. .
𝜇𝑛 𝐸(𝜇𝑛 )
0

2. E(µi,µj) = 0 ; E(µi,µi) = σ2 (No correlación serial; Homoscedasticidad)

𝜇1
𝜇12 𝜇1 𝜇2 ….. …. 𝜇1 𝜇𝑛
𝜇2 𝜇2 𝜇𝑛 ]
𝐸(𝜇𝜇´ ) = 𝐸 [ . ] [𝜇1 𝜇2 … … 𝜇𝑛 ]→ 𝐸(𝜇𝜇´ ) = 𝐸 [ 𝜇2.𝜇1 𝜇22 … … …. .
. . .
𝜇𝑛 𝜇1 𝜇𝑛 𝜇1 …… 𝜇𝑛2
𝜇𝑛 ….

𝐸(𝜇12 ) 𝐸(𝜇1 𝜇2 ) … . . … . 𝐸(𝜇1 𝜇𝑛 )


𝐸(𝜇𝜇´ ) = [𝐸(𝜇2. 𝜇1 ) 𝐸(𝜇22 ) … … …. 𝐸(𝜇2 𝜇𝑛 )], conocida como matriz de var-cov
. . .
𝐸(𝜇𝑛 𝜇1 ) 𝐸(𝜇𝑛 𝜇1 ) … . … … 𝐸(𝜇𝑛2 )

𝜎2 0 ….. 0
𝐸(𝜇𝜇´ ) = [ 0. 𝜎.2 ….… 0]
0 0 …. 𝜎2

1 0 ….. 0
𝐸(𝜇𝜇 ) = 𝜎 [0. 1.
´ 2 ….… 0]
0 0 …. 1

𝐸(𝜇𝜇´ ) = 𝜎 2 𝐼

Estimación de MCO

Se obtiene minimizando:

̂2 = ∑(𝑌 − 𝛽
𝑚𝑖𝑛 ∑ 𝜇𝑖 𝑖
̂1 − 𝛽 ̂𝑘 𝑋𝑘𝑖 )2
̂2 𝑋2𝑖 − ⋯ … 𝛽

Respecto a la SRC se expresa en notación matricial como:

7
𝜇
̂1
𝜇
̂2 ̂2 ̂2 ̂2 ̂2
𝜇̂ ´𝜇̂ = [𝜇
̂1 𝜇
̂2 … … 𝜇̂]
𝑛 .. = 𝜇1 + 𝜇2 + ⋯ + 𝜇𝑛 = ∑ 𝜇𝑖
[𝜇̂]
𝑛

Además, si despejamos µ estimada de 𝑦 = 𝑋 𝛽 + 𝜇 se obtiene:

𝜇̂ = 𝑦 − 𝑋𝛽̂

A partir de lo anterior se puede llegar a:

𝜇̂ ´𝜇̂ = (𝑦 − 𝑋𝛽̂ )´(𝑦 − 𝑋𝛽̂ )


𝜇̂ ´𝜇̂ = 𝑦´𝑦 − 2𝛽´̂ 𝑋´𝑦 + 𝛽´̂ 𝑋´𝑋𝛽̂

Al derivar en forma matricial se obtiene:

β̂ = (X´X)−1 X´ y

Con kx1 kxk (kxn) (nx1)

Varianza de los Estimadores MCO

Los métodos matriciales permiten desarrollar fórmulas para la varianza y la covarianza entre dos
elementos de β̂ cualesquiera, por ejemplo, β̂𝑖 𝑦 β̂𝑗

Por definición la matriz de varianza-covarianza de β̂ es:

´
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) = 𝐸 {{[β̂ − 𝐸(β̂)][β̂ − 𝐸(β̂] }

O también en forma explícita se tiene:

𝑣𝑎𝑟(𝛽̂1 ) 𝑐𝑜𝑣(𝛽̂ ̂
1 , 𝛽2 ) ….. …. 𝑐𝑜𝑣(𝛽̂ ̂
1 , 𝛽𝑘 )
𝑐𝑜𝑣(𝛽̂ ̂
2 , 𝛽1 ) 𝑣𝑎𝑟(𝛽̂2 )
… … …. 𝑐𝑜𝑣(𝛽̂ ̂
2 , 𝛽𝑘 )
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) =
…………… ……….. . …… …………
[𝑐𝑜𝑣(𝛽̂ ̂ ̂̂
𝑘 , 𝛽1 ) 𝑐𝑜𝑣(𝛽𝑘 , 𝛽2 ) …. 𝑣𝑎𝑟(𝛽̂𝑘 ) ]

Esta matriz de varianza-covarianza puede obtenerse a partir de la siguiente fórmula:

−1
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) = 𝜎 2 (𝑋 ´ 𝑋)

Dónde se cumple al igual que los modelos de regresión lineal lo siguiente:

8
∑ 𝜇̂𝑖2 ̂2 = ∑ 𝑦 2 − 𝛽
∑𝜇 ̂2 ∑ 𝑦𝑖 𝑥2𝑖 − ⋯ … . . − 𝛽
̂𝑘 ∑ 𝑦𝑖 𝑥𝑘𝑖
𝜎̂2 = 𝑖 𝑖
(𝑛 − 𝑘)

𝜇̂ ´𝜇̂ 𝑦´𝑦 − 𝑛𝑌̅ 2 ̂ 𝑋´𝑦 − 𝑛𝑌̅ 2


𝛽´
=
(𝑛 − 𝑘)
STC SEC

Los cuál permite escribir:

̂ 𝑋´𝑦
𝜇̂ ´𝜇̂ = 𝑦´𝑦 − 𝛽´

Coeficiente de Determinación R2

Sabemos que R2= SEC/STC

Por lo tanto, para k variables:

̂2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽
𝛽 ̂3 ∑ 𝑦𝑖 𝑥3𝑖 + ⋯ . . +𝛽
̂𝑘 ∑ 𝑦𝑖 𝑥𝑘𝑖
𝑅2 =
∑ 𝑦𝑖2

Esto implica que matricialmente se puede escribir:

̂ 𝑋´𝑦 − 𝑛𝑌̅ 2
𝛽´
𝑅2 =
𝑦´𝑦 − 𝑛𝑌̅ 2

Prueba F
La prueba F Se conoce también como Prueba de significancia global que plantea la prueba de
hipótesis:
H0 : 𝛽2 = 𝛽3 = ⋯ … = 𝛽𝑘 = 0
H1 : 𝛽2 ≠ 𝛽3 ≠ ⋯ … ≠ 𝛽𝑘 ≠ 0

también se puede escribir matricialmente:

̂ 𝑋´𝑦 − 𝑛𝑌̅ 2 )/(𝐾 − 1)


(𝛽´
𝐹=
̂ 𝑋´𝑦)/(𝑛 − 𝑘)
(𝑦´𝑦 − 𝛽´

O bien:
𝑅 2 /(𝐾 − 1)
𝐹=
(1 − 𝑅 2 )/(𝑛 − 𝑘)

9
4.5 PRUEBA DE ESTABILIDAD ESTRUCTURAL DE LOS MODELOS DE REGRESIÓN

La Prueba de Chow: Cambio Estructural

Significa que los valores de los parámetros del modelo no permanecen constantes a lo largo del
período de análisis. Sucede en la relación entre la variable regresada “Y” y las regresoras.
Los cambios estructurales o cambios de pendientes en la curva pueden deberse a fuerzas externas
o internas como, por ejemplo, embargo Petrolero OPEP (externa) o a cambio de políticas.

Este modelo plantea pruebas de hipótesis, en donde existen restricciones que se obtienen debido
al imponer las restricciones λ1=γ1 y λ2= γ2, es decir, las regresiones de los subperíodos no son
diferentes (parámetros estables) como por ejemplo Gujarati 2010:

Periodo 1970-1981: 𝑌𝑡 = 𝜆1 + 𝜆2 𝑋𝑡 + 𝜇1𝑖 , con n1=12 (1)


Periodo 1982-1995: 𝑌𝑡 = 𝛾1 + 𝛾2 𝑋𝑡 + 𝜇2𝑖 , con n2=14 (2)
Periodo 1970-1995: 𝑌𝑡 = 𝛼1 + 𝛼2 𝑋𝑡 + 𝜇𝑡 , con n=n1+n2=26 (3)

En donde la ecuación muestra la restricción mencionada.


Prueba de hipótesis:

Ho: No hay cambios estructurales Relacionado al periodo completo, 1970-1995


(estabilidad en los parámetros)
H1: Si hay cambios estructurales Relacionado a los dos periodos completo, 1970-1981 y
1982-1995

Ejemplo: Ahorro e Ingreso Personal Disponible (PMgA).

Los resultados obtenidos con la salida del E-views es:

Cuadro Nº1: Resultados en Eviews periodo completo 1970-1995

Dependent Variable: SAVINGS


Method: Least Squares
Date: 10/14/19 Time: 18:04
Sample: 1970 1995
Included observations: 26

Variable Coefficient Std. Error t-Statistic Prob.

C 62.42267 12.76075 4.891772 0.0001


INCOME 0.037679 0.004237 8.893776 0.0000

R-squared 0.767215 Mean dependent var 162.0885


Adjusted R-squared 0.757515 S.D. dependent var 63.20446
S.E. of regression 31.12361 Akaike info criterion 9.787614
Sum squared resid 23248.30 Schwarz criterion 9.884391
Log likelihood -125.2390 Hannan-Quinn criter. 9.815482
F-statistic 79.09925 Durbin-Watson stat 0.859717
Prob(F-statistic) 0.000000

Por otro lado, los resultados son los siguientes:

10
Cuadro Nº2: Resultados en Eviews periodo Cuadro Nº3: Resultados en Eviews periodo
completo 1970-1981 completo 1982-1995
Dependent Variable: SAVINGS Dependent Variable: SAVINGS
Method: Least Squares Method: Least Squares
Date: 10/14/19 Time: 18:07 Date: 10/14/19 Time: 18:09
Sample: 1970 1981 Sample: 1982 1995
Included observations: 12 Included observations: 14

Variable Coefficient Std. Error t-Statistic Prob.


Variable Coefficient Std. Error t-Statistic Prob.
C 1.016117 11.63771 0.087313 0.9321
C 153.4947 32.71227 4.692266 0.0005
INCOME 0.080332 0.008367 9.601576 0.0000
INCOME 0.014862 0.008393 1.770773 0.1020
R-squared 0.902143 Mean dependent var 106.4417
Adjusted R-squared 0.892358 S.D. dependent var 40.72222 R-squared 0.207169 Mean dependent var 209.7857
S.E. of regression 13.36051 Akaike info criterion 8.173495 Adjusted R-squared 0.141100 S.D. dependent var 31.15670
Sum squared resid 1785.032 Schwarz criterion 8.254313 S.E. of regression 28.87505 Akaike info criterion 9.695396
Log likelihood -47.04097 Hannan-Quinn criter. 8.143574 Sum squared resid 10005.22 Schwarz criterion 9.786690
F-statistic 92.19026 Durbin-Watson stat 0.864230 Log likelihood -65.86777 Hannan-Quinn criter. 9.686945
Prob(F-statistic) 0.000002 F-statistic 3.135639 Durbin-Watson stat 1.786588
Prob(F-statistic) 0.101972

Nota: Elaboración propia con base Gujarati 2010

La prueba de Chow:

▪ Supone que SRCR y la SRCNR no son estadísticamente diferentes.


▪ Donde SRCR se obtiene al suponer que no hay inestabilidad de parámetros y SRCNR
corresponde a la suma de los SRC de las regresiones de cada subperíodo.

Entonces:
(𝑆𝑅𝐶𝑅 −𝑆𝑅𝐶𝑁𝑅 )/𝐾
𝐹= con Fk, (n1+n2-2k)
(𝑆𝑅𝐶𝑁𝑅 )/(𝑛1 +𝑛2 −2𝑘)

Obviamente que si F calculado > F tabla, se rechaza Hipótesis Nula de Estabilidad Paramétrica
(es decir hay cambio estructural).

El ejemplo presenta los siguientes resultados:

(23.248,3 − 11.790,252)/2
𝐹=
(11.790,252)/22

En conclusión: F calculado > F tabla al 1% (7,72), existe evidencia estadística para rechazar Ho por
los tanto hay cambio estructural.

11
Si ahora se oberva la prueba pero usando E-views se obtiene:

Cuadro Nº4: Test de Chow de acuerdo a Eviews


Chow Breakpoint Test: 1982

F-statistic 10.69006 Prob. F(2,22) 0.000571


Log likelihood ratio 17.65293 Prob. Chi-Square(2) 0.000147

Donde el p-value del test Festadístico o F calculado es 0,000571 es menor 0,05 (α=5%) se rechaza la
Ho por lo tanto, hay cambios estructurales.

12

También podría gustarte