Documentos de Académico
Documentos de Profesional
Documentos de Cultura
S2 - Apunte 4 - Econometría
S2 - Apunte 4 - Econometría
Supuestos
Los 11 supuestos que se vieron para un modelo de regresión lineal simple también deben cumplirse
cuando se realiza un análisis de regresión con más de una variable independiente (Xi). Partamos
identificando un modelo con dos variables:
𝑌𝑖 = 𝛽1 + 𝛽2 𝑋2𝑖 + 𝛽3 𝑋3𝑖 + 𝜇𝑖
Coeficientes de Regresión
Parcial
Estas ecuaciones son las conocidas como modelos de regresión múltiples. Estos modelos
efectivamente cumples los supuestos:
• No Correlación Serial:
𝑐𝑜𝑣(𝜇𝑖 , 𝜇𝑗 ) = 0 𝑖 ≠ 𝑗
• Homoscedasticidad:
𝑣𝑎𝑟(𝜇𝑖 ) = 𝜎 2
1
La Colinealidad
En donde donde λ2 y λ3 es un conjunto de números tales que al menos uno es diferente de cero.
Si dicha igualdad se cumple solo cuando λ2=λ3= 0, entonces se dice que X1 y X2 son linealmente
independientes.
Las dos variables son linealmente dependientes y si ambas son incluidas en el modelo de regresión,
se tendrá colinealidad perfecta (relación lineal exacta entre las dos regresoras).
Para estimar los parámetros lo primero que se hace es minimizar la función de regresión muestral
(FRM):
̂1 + 𝛽
𝑌𝑖 = 𝛽 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖 + 𝜇̂𝑖
Minimizar:
̂2 = ∑(𝑌 − 𝛽
𝑚𝑖𝑛 ∑ 𝜇𝑖 𝑖
̂1 − 𝛽 ̂3 𝑋3𝑖 )2
̂2 𝑋2𝑖 − 𝛽
Derivar parcialmente con respecto a cada una de las incógnitas e igualar a cero:
𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−1) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂1
𝜕𝛽
2
𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−𝑋2𝑖 ) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂
𝜕𝛽2
𝜕∑𝜇̂2
𝑖 ̂1 − 𝛽
̂2 𝑋2𝑖 − 𝛽
̂3 𝑋3𝑖 )(−𝑋3𝑖 ) = 0
= 2 ∑(𝑌𝑖 − 𝛽
̂3
𝜕𝛽
Simplificando:
∑ 𝜇̂𝑖 = 0
∑ 𝜇̂𝑖 𝑋2𝑖 = 0
∑ 𝜇̂𝑖 𝑋3𝑖 = 0
̂1 + 𝛽
̅𝑖 = 𝛽
𝑌 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖
̂1 ∑ 𝑋2𝑖 + 𝛽
∑ 𝑌𝑖 𝑋2𝑖 = 𝛽 ̂2 ∑ 𝑋2𝑖
2 ̂3 ∑ 𝑋2𝑖 𝑋3𝑖
+𝛽
̂1 ∑ 𝑋3𝑖 + 𝛽
∑ 𝑌𝑖 𝑋3𝑖 = 𝛽 ̂2 ∑ 𝑋2𝑖 𝑋3𝑖 +𝛽
̂3 ∑ 𝑋3𝑖
2
+
̂1 = ̅̅̅
𝛽 𝑌𝑖 − 𝛽̂ ̅̅̅̅ ̂ ̅̅̅̅
2 𝑋2𝑖 − 𝛽3 𝑋3𝑖
2
(∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥3𝑖 ) − (∑ 𝑦𝑖 𝑥3𝑖 )(∑ 𝑥2𝑖 𝑥3𝑖 )
̂2 =
𝛽 2 2)
(∑ 𝑥2𝑖 )(∑ 𝑥3𝑖 − (∑ 𝑥2𝑖 𝑥3𝑖 )2
2
(∑ 𝑦𝑖 𝑥3𝑖 )(∑ 𝑥2𝑖 ) − (∑ 𝑦𝑖 𝑥2𝑖 )(∑ 𝑥2𝑖 𝑥3𝑖 )
̂3 =
𝛽 2 )(∑ 2 )
(∑ 𝑥2𝑖 𝑥3𝑖 − (∑ 𝑥2𝑖 𝑥3𝑖 )2
Respecto a las varianzas y los errores estándar de los estimadores de MCO se demuestran también
matemáticamente al igual que los estimadores de los parámetros y se obtienen los siguientes
resultados:
3
Varianzas de los parámetros Desviación estándar
∑𝜇̂2
𝑖
𝜎̂2 =
(𝑛 − 3)
Donde se cumple:
̂2 = ∑ 𝑦 2 − 𝛽
∑𝜇 ̂2 ∑ 𝑦𝑖 𝑥2𝑖 − 𝛽
̂3 ∑ 𝑦𝑖 𝑥3𝑖
𝑖 𝑖
Tal como se vio en los modelos de regresión simple el coeficientes de determinación es una forma
de medir la bondad de ajuste es decir, da la proporción o porcentaje de la variación total en la
variable dependiente Y explicada por la variable (única) explicativa X. Este concepto aplicado a los
modelos de regresión múltiple se puede extener a estos modelos sin problema. La medida que da
esta información se conoce como coeficiente de determinación múltiple, y se denota por R2; es
similar a r2.
4
Ya sabemos:
̂1 + 𝛽
𝑌𝑖 = 𝛽 ̂2 𝑋2𝑖 + 𝛽
̂3 𝑋3𝑖 + 𝜇̂𝑖
∑ 𝑦𝑖2 = ∑ 𝑦̂2 ̂2
𝑖 + ∑ 𝜇𝑖
Es decir, la suma de cuadrados total (STC) es igual a la suma explicada de cuadrados (SEC) más la
suma de residuos al cuadrado (SRC)
∑ 𝑦̂2 ̂ ̂
𝑖 = 𝛽2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽3 ∑ 𝑦𝑖 𝑥3𝑖
̂2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽
𝛽 ̂3 ∑ 𝑦𝑖 𝑥3𝑖
𝑅2 =
∑ 𝑦𝑖2
𝑆𝑅𝐶 ∑𝜇̂2
𝑖
𝑅2 = 1 − =1−
𝑆𝑇𝐶 ∑ 𝑦𝑖2
Dado que la SRC depende del número de regresoras, se puede deducir que a medida que aumenta
el número de variables X, R2 aumentará. El R2 miente.
∑𝜇 ̂2
𝑖
̂2
̅𝑅̅̅2̅ = 1 − (𝑛 − 𝑘) = ̅𝑅̅̅2̅ = 1 − 𝜎 = 1 − (1 − 𝑅 2 ) (𝑛 − 1)
𝑦𝑖2 𝑆𝑦2 (𝑛 − 𝑘)
∑
(𝑛 − 1)
5
4.3 ESTADÍSTICO F
El estadístico F se utiliza para “contrastar” la significación del estadístico R2, y se realiza la siguiente
Hipótesis conjunta:
H0 : 𝛽2 = 𝛽3 = ⋯ … = 𝛽𝑘 = 0
H1 : 𝛽2 ≠ 𝛽3 ≠ ⋯ … ≠ 𝛽𝑘 ≠ 0
Donde
𝑅 2 /(𝑘 − 1) (𝑛 − 𝑘) 𝑅2
𝐹= = ∗
(1 − 𝑅 2 )/(𝑛 − 𝑘) (𝑘 − 1) (1 − 𝑅 2 )
Si F>Fα(k-1,n-k) rechácese H0. Se compara con el F de tabla de acuerdo con α, grados de liberta v1=k-1,
y v2=n-k.
Si tenemos justamente una muestra n, como por ejemplo 100 personas o 200 empresas se pueden
escribir ecuaciones simultáneas:
𝑌1 𝛽1 𝜇1
1 𝑋21 𝑋31 … . 𝑋𝑘1
𝑌2 𝛽2 𝜇 2
1 𝑋21 𝑋31 …. 𝑋𝑘2 ]
.. = [ . . . . .. + [ .. ]
[𝑌 ] 1 𝑋21 𝑋31 … … 𝑋𝑘𝑛 𝜇𝑛
𝑛 [𝛽𝑘 ]
y = X β + µ
𝒚 = 𝑿𝜷+𝝁
6
Supuestos del Modelo de regresión en forma matricial
1. E(µi) = 0
𝜇1 0
𝐸(𝜇1 )
𝜇2 0
𝐸 [ . ] = [ 𝐸(𝜇. 2 ) ] + [ . ]
. .
𝜇𝑛 𝐸(𝜇𝑛 )
0
𝜇1
𝜇12 𝜇1 𝜇2 ….. …. 𝜇1 𝜇𝑛
𝜇2 𝜇2 𝜇𝑛 ]
𝐸(𝜇𝜇´ ) = 𝐸 [ . ] [𝜇1 𝜇2 … … 𝜇𝑛 ]→ 𝐸(𝜇𝜇´ ) = 𝐸 [ 𝜇2.𝜇1 𝜇22 … … …. .
. . .
𝜇𝑛 𝜇1 𝜇𝑛 𝜇1 …… 𝜇𝑛2
𝜇𝑛 ….
𝜎2 0 ….. 0
𝐸(𝜇𝜇´ ) = [ 0. 𝜎.2 ….… 0]
0 0 …. 𝜎2
1 0 ….. 0
𝐸(𝜇𝜇 ) = 𝜎 [0. 1.
´ 2 ….… 0]
0 0 …. 1
𝐸(𝜇𝜇´ ) = 𝜎 2 𝐼
Estimación de MCO
Se obtiene minimizando:
̂2 = ∑(𝑌 − 𝛽
𝑚𝑖𝑛 ∑ 𝜇𝑖 𝑖
̂1 − 𝛽 ̂𝑘 𝑋𝑘𝑖 )2
̂2 𝑋2𝑖 − ⋯ … 𝛽
7
𝜇
̂1
𝜇
̂2 ̂2 ̂2 ̂2 ̂2
𝜇̂ ´𝜇̂ = [𝜇
̂1 𝜇
̂2 … … 𝜇̂]
𝑛 .. = 𝜇1 + 𝜇2 + ⋯ + 𝜇𝑛 = ∑ 𝜇𝑖
[𝜇̂]
𝑛
𝜇̂ = 𝑦 − 𝑋𝛽̂
β̂ = (X´X)−1 X´ y
Los métodos matriciales permiten desarrollar fórmulas para la varianza y la covarianza entre dos
elementos de β̂ cualesquiera, por ejemplo, β̂𝑖 𝑦 β̂𝑗
´
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) = 𝐸 {{[β̂ − 𝐸(β̂)][β̂ − 𝐸(β̂] }
𝑣𝑎𝑟(𝛽̂1 ) 𝑐𝑜𝑣(𝛽̂ ̂
1 , 𝛽2 ) ….. …. 𝑐𝑜𝑣(𝛽̂ ̂
1 , 𝛽𝑘 )
𝑐𝑜𝑣(𝛽̂ ̂
2 , 𝛽1 ) 𝑣𝑎𝑟(𝛽̂2 )
… … …. 𝑐𝑜𝑣(𝛽̂ ̂
2 , 𝛽𝑘 )
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) =
…………… ……….. . …… …………
[𝑐𝑜𝑣(𝛽̂ ̂ ̂̂
𝑘 , 𝛽1 ) 𝑐𝑜𝑣(𝛽𝑘 , 𝛽2 ) …. 𝑣𝑎𝑟(𝛽̂𝑘 ) ]
−1
𝑣𝑎𝑟 − 𝑐𝑜𝑣(𝛽̂ ) = 𝜎 2 (𝑋 ´ 𝑋)
8
∑ 𝜇̂𝑖2 ̂2 = ∑ 𝑦 2 − 𝛽
∑𝜇 ̂2 ∑ 𝑦𝑖 𝑥2𝑖 − ⋯ … . . − 𝛽
̂𝑘 ∑ 𝑦𝑖 𝑥𝑘𝑖
𝜎̂2 = 𝑖 𝑖
(𝑛 − 𝑘)
̂ 𝑋´𝑦
𝜇̂ ´𝜇̂ = 𝑦´𝑦 − 𝛽´
Coeficiente de Determinación R2
̂2 ∑ 𝑦𝑖 𝑥2𝑖 + 𝛽
𝛽 ̂3 ∑ 𝑦𝑖 𝑥3𝑖 + ⋯ . . +𝛽
̂𝑘 ∑ 𝑦𝑖 𝑥𝑘𝑖
𝑅2 =
∑ 𝑦𝑖2
̂ 𝑋´𝑦 − 𝑛𝑌̅ 2
𝛽´
𝑅2 =
𝑦´𝑦 − 𝑛𝑌̅ 2
Prueba F
La prueba F Se conoce también como Prueba de significancia global que plantea la prueba de
hipótesis:
H0 : 𝛽2 = 𝛽3 = ⋯ … = 𝛽𝑘 = 0
H1 : 𝛽2 ≠ 𝛽3 ≠ ⋯ … ≠ 𝛽𝑘 ≠ 0
O bien:
𝑅 2 /(𝐾 − 1)
𝐹=
(1 − 𝑅 2 )/(𝑛 − 𝑘)
9
4.5 PRUEBA DE ESTABILIDAD ESTRUCTURAL DE LOS MODELOS DE REGRESIÓN
Significa que los valores de los parámetros del modelo no permanecen constantes a lo largo del
período de análisis. Sucede en la relación entre la variable regresada “Y” y las regresoras.
Los cambios estructurales o cambios de pendientes en la curva pueden deberse a fuerzas externas
o internas como, por ejemplo, embargo Petrolero OPEP (externa) o a cambio de políticas.
Este modelo plantea pruebas de hipótesis, en donde existen restricciones que se obtienen debido
al imponer las restricciones λ1=γ1 y λ2= γ2, es decir, las regresiones de los subperíodos no son
diferentes (parámetros estables) como por ejemplo Gujarati 2010:
10
Cuadro Nº2: Resultados en Eviews periodo Cuadro Nº3: Resultados en Eviews periodo
completo 1970-1981 completo 1982-1995
Dependent Variable: SAVINGS Dependent Variable: SAVINGS
Method: Least Squares Method: Least Squares
Date: 10/14/19 Time: 18:07 Date: 10/14/19 Time: 18:09
Sample: 1970 1981 Sample: 1982 1995
Included observations: 12 Included observations: 14
La prueba de Chow:
Entonces:
(𝑆𝑅𝐶𝑅 −𝑆𝑅𝐶𝑁𝑅 )/𝐾
𝐹= con Fk, (n1+n2-2k)
(𝑆𝑅𝐶𝑁𝑅 )/(𝑛1 +𝑛2 −2𝑘)
Obviamente que si F calculado > F tabla, se rechaza Hipótesis Nula de Estabilidad Paramétrica
(es decir hay cambio estructural).
(23.248,3 − 11.790,252)/2
𝐹=
(11.790,252)/22
En conclusión: F calculado > F tabla al 1% (7,72), existe evidencia estadística para rechazar Ho por
los tanto hay cambio estructural.
11
Si ahora se oberva la prueba pero usando E-views se obtiene:
Donde el p-value del test Festadístico o F calculado es 0,000571 es menor 0,05 (α=5%) se rechaza la
Ho por lo tanto, hay cambios estructurales.
12