Está en la página 1de 153

UCV-FACES-ECONOMÍA

ECONOMETRÍA I, Semestre 2-2022


Profesor: Angel Cova

Caracas, octubre de 2022

1
Propósito de la asignatura
 Ofrecer al estudiante un análisis introductorio de las
técnicas matemáticas y estadísticas aplicadas a la
investigación y verificación de las teorías económicas.

 Adicionalmente, con estas técnicas se le


proporcionará al estudiante herramientas que le
permitan medir el impacto de unas variables sobre
otras, para estimar escenarios futuros que sirvan de
apoyo en el diseño de políticas económicas.

2 Econometria I, Prof. Angel Cova.


Temas a desarrollar

 I. Introducción a la econometría.
 II. El modelo clásico de regresión lineal.
 III. Evaluación del modelo econométrico.
 IV. Modelo de ecuaciones simultaneas.

3 Econometria I, Prof. Angel Cova.


UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova
Tema I:
Introducción a la Econometría

4
Tema I: Introducción a la econometría
 Objetivos específicos:

1. Definir en qué consiste la econometría.


2. Expresar un modelo a través de ecuaciones, variables y
parámetros.
3. Estimar y validar estadísticamente un modelo
econométrico.
4. Analizar los problemas más relevantes al realizar una
modelización econométrica.
5. Evaluar el alcance de las aplicaciones de la econometría.

5 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría

 Econometría: medición económica (significado literal).

 Consiste en analizar datos de origen económico aplicando


herramientas estadísticas y matemáticas, con el propósito de
dar soporte empírico a los modelos planteados por la teoría
económica.

 No se considera una ciencia sino una disciplina que combina


la teoría económica, la matemática y la estadística.

6 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría

Teoría
Económica Matemática
Estadística

Teoría
Económica

Estadística Matemática
ECONOMETRÍA

7 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría
 Metodología econométrica (pasos):

1. Planteamiento de la teoría económica.


2. Especificación del modelo matemático.
3. Especificación del modelo estadístico.
4. Obtención de los datos (muestra).
5. Estimación de los parámetros del modelo.
6. Pruebas de hipótesis (validación).
7. Pronóstico o predicción.
8. Utilización del modelo (decisiones).

8 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría

 Metodología econométrica (ejemplo ilustrativo):


1) Planteamiento de la teoría económica.
Yt = f ( X 1t , X 2t )

Yt = consumo de un bien en el momento t (v. exp licada )


X 1t = precio de dicho bien en el momento t (v. exp licativa )
X 2t = ingreso del consumidor en el momento t (v. exp licativa )

Entonces : Cov (Yt , X 1t )  0 y Cov (Yt , X 2t )  0


9
Tema I: Introducción a la econometría
 Metodología econométrica (ejemplo ilustrativo):

2) Especificación del modelo matemático.


 0 , 1 ,  2
Yt = 0 + 1 X1t +  2 X 2t ( parámetros)
3) Especificación del modelo estadístico.

Yt = 0 + 1 X1t +  2 X 2t + t

 t ~ N (0 ;  ) 2

10
Tema I: Introducción a la econometría
 Metodología econométrica (ejemplo ilustrativo):
4) Obtención de los datos (muestra).
Tipo de serie, periodicidad, período:1, 2, 3, . . . n.

5) Estimación de los parámetros del modelo (método MCO).


Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ t ˆ0 , ˆ1 , ˆ2
(estimadores )
Yt = Yˆt + ˆ t
Parte explicada Parte “NO” explicada
de Y(AJUSTE) de Y (ERROR)
11
Tema I: Introducción a la econometría
 Metodología econométrica (ejemplo ilustrativo):
6) Pruebas de hipótesis (validación).
a )Individual
H 0 :  i = 0 (la variable X i " NO" contribuye )
H A :  i  0 (la variable X i "SI" contribuye)
b) Grupal
H 0 : 1 =  2 = 0
H A : Algún  i  0 i = 1, 2.
c) Supuestos (próximos temas)
H 0 : Se cumple el supuesto
12
H A : No se cumple el supuesto
Tema I: Introducción a la econometría
 Metodología econométrica (ejemplo ilustrativo):
7) Pronóstico o predicción.

Y1 , Y2 , Y3 , ...Yn , ... Yn +1 , Yn + 2 , ...Yn + g

Período muestral Pronóstico

8) Utilización del modelo (decisiones).


Estimar escenarios y evaluar alternativas para tomar
decisiones económicas con elementos mas objetivos.

13
Tema I: Introducción a la econometría

Modelo Modelo Modelo Obtención Estimación Pronóstico y


utilización
teórico matemático estadístico de los datos y validación del modelo

14 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría
Los modelos y sus tipos:
a) Finito, infinito.
b) Lineal, no lineal.
c) Simple, múltiple.
d) Estático, dinámico.
e) Determinista, estocástico.
f) De identidad, comportamiento.
g) Uniecuacional, multiecuacional.
h) Microeconómico, macroeconómico.

15 Econometria I, Prof. Angel Cova.


Tema I: Introducción a la econometría
El modelo econométrico:
 Tipo de modelo y ecuación.
 Variable dependiente (explicada) y variables independientes
(explicativas).
 Parámetros (poblacionales) y estimadores (muestrales).
 Datos observados, datos estimados y término de error.

Yt =  0 + 1 X 1t +  2 X 2t +  3 X 3t + ... +  k X kt + t
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t
Y = Yˆ + ˆ
t t t
16 Econometria I, Prof. Angel Cova.
Tema I: Introducción a la econometría
Criterios de selección de un modelo:
1. Ser aceptable según los datos.
2. Ser consistente con la teoría.
3. Tener regresores débilmente exógenas.
4. Mostrar constancia paramétrica.
5. Exhibir coherencia en los datos.
6. Ser inclusivo.
La econometría como disciplina
Niveles de conocimiento previo, bondades y problemas, alcances y
limitaciones, coherencia entre la estadística y la teoría económica.

17 Econometria I, Prof. Angel Cova.


UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova
Tema II:
El Modelo Clásico
de Regresión Lineal

18
Análisis de regresión
 Se trata del estudio de la dependencia de la variable
explicada, respecto a una o más variables (denominadas
explicativas), con el objetivo de estimar y/o predecir la
media o valor promedio poblacional de la primera en
términos de los valores fijos conocidos (en muestreo
repetido) de las últimas.

 Cuando dicha relación se escribe a través de una ecuación


lineal en los parámetros con una o mas variables explicativas,
entonces se habla de un modelo clásico de regresión lineal
(MCRL).

19
Términos y conceptos para aclarar
Establecer diferencias entre:
 Análisis de regresión y análisis de correlación.
 Análisis de regresión y análisis de causalidad.

Dejar claro los siguientes términos:


 Significado del término “lineal” (en las variables y en los
parámetros).
 Significado del término de perturbación estocástica.
 Función de Regresión Poblacional (FRP) y Función de
Regresión Muestral (FRM).

20
Supuestos del MCRL
1. El modelo de regresión es lineal en los parámetros.
2. Los valores de X son fijos en muestreo repetido.
3. El valor medio de la perturbación (µt) es igual a cero.
4. Homoscedasticidad o igual varianza de µt.
5. No existe autocorrelación entre las perturbaciones.
6. La covarianza entre µty Xt es igual a cero.
7. El número de observaciones (n) debe ser mayor que el número
de parámetros por estimar.
8. Variabilidad en los valores de X.
9. El modelo de regresión esta correctamente especificado.
10. No hay multicolinealidad perfecta entre las variables
explicativas.

21
Especificación matricial del MCRL
Yt =  0 + 1 X 1t +  2 X 2t +  3 X 3t + ... +  k X kt + t
Para t = 1, 2,..., n
  
Y1 =  0 + 1 X 11 +  2 X 21 +  3 X 31 + ... +  k X k1 + 1
Y2 =  0 + 1 X 12 +  2 X 22 +  3 X 32 + ... +  k X k 2 +  2
Y3 =  0 + 1 X 13 +  2 X 23 +  3 X 33 + ... +  k X k 3 + 3
Y4 =  0 + 1 X 14 +  2 X 24 +  3 X 34 + ... +  k X k 4 +  4
...............................................................................
Yn =  0 + 1 X 1n +  2 X 2 n +  3 X 3n + ... +  k X kn +  n

22
Especificación matricial del MRLC
Yt =  0 + 1 X 1t +  2 X 2t +  3 X 3t + ... +  k X kt + t
Para t = 1, 2,..., n

Y1  1 X 11 X 21 X 31 ... X k1   0   1 
Y  1    
 2  X 12 X 22 X 32 ... X k 2   1  2
Y3  1 X 13 X 23 X 33 ... X k 3   2   3 
  =   *   +  
Y4  1 X 14 X 24 X 34 ... X k 4  3  4 
...  ... ... ... ... ... ...  ...  ... 
       
Yn  nx1  1 X 1n X 2n X 3n ... X kn  nx ( k +1)   k  ( k +1) x1   n  nx1

Matricialmente  Y( nx1) = X nx ( k +1) *  ( k +1) x1 +  ( nx1)


23
Supuestos sobre las perturbaciones
 E ( 1 )  0 
 E ( ) 0 
 2   
1) E (  ) =  E ( 3 )  = 0  = 0
   
...  ...
 E (  n ) 0 
  nx1 nx1

 
2) Var (  ) = E ( − E (  ) )( − E (  ) ) = E (  t )
t

 2 0 0 ... 0  1 0 0 ... 0 
  0 1 0
0 2 0 ... 0   ... 0 
Var (  ) =  0 0 2 ... 0  =   0 0 1
2
... 0  =  2 I
   
 ... ... ... ... ...  ... ... ... ... ...
0 0  2  nxn  0 0 0 0 1  nxn
 0 0

24 3)  ~ N (0 ;  2 I )
Estimación por Mínimos
Cuadrados Ordinarios (MCO)
 ˆ1 
 ˆ 
n  2
Minimizar  t

ˆ 2
 
ˆ t
ˆ = ˆ1 ˆ 2 ˆ 3 ... ˆ n (1xn )  ˆ 3 
t =1  
... 
 ˆ n 
  ( nx1)
Dado que : Y( nx1) = X nx ( k +1) * ˆ( k +1) x1 + ˆ ( nx1)
Entonces : ˆ ( nx1) = Y( nx1) − X nx ( k +1) * ˆ( k +1) x1

ˆ = Y − Xˆ
ˆ t = (Y − Xˆ ) t
25 ˆ t ˆ = (Y − Xˆ )t (Y − Xˆ )
Estimación por Mínimos
Cuadrados Ordinarios (MCO)
ˆ t ˆ = (Y − Xˆ ) t (Y − Xˆ )
 
ˆ t ˆ = Y t − ( Xˆ ) t (Y − Xˆ )
ˆ ˆ = Y − ˆ X  (Y − Xˆ )
t t t t

ˆ ˆ = Y Y − Y Xˆ − ˆ X Y + ˆ X
t t t t t t t
Xˆ 
 ( ˆ t ˆ )
=0
 ˆ
 ( ˆ t ˆ )
= −Y t X + ˆ t X t X = 0
ˆ
ˆ t X t X = Y t X
X t Xˆ = X tY
26 ˆ = ( X t X ) −1 X tY
Propiedades estadísticas de los
estimadores MCO
ˆ = ( X t X ) −1 X tY
ˆ = ( X t X ) −1 X t ( X +  )
ˆ = ( X t X ) −1 X t X + ( X t X ) −1 X t 
ˆ =  + ( X t X ) −1 X t 

1) E ( ˆ ) = E (  ) + ( X t X ) −1 X t E (  )  E ( ˆ ) = 

2) Var ( ˆ ) = Var (  ) + Var ( X t X ) −1 X t  
   
Var ( ˆ ) = ( X t X ) −1 X t Var (  ) ( X t X ) −1 X t t
 
Var ( ˆ ) = ( X t X ) −1 X t  2 I X ( X t X ) −1
Var ( ˆ ) =  2 ( X t X ) −1 X t X ( X t X ) −1   2 ( X t X ) −1
27 
3) ˆ ~ N  ;  2 ( X t X ) −1 
Resumen de propiedades
(enfoque matricial)

Y = X +    = Y − X  FRP
Y = Xˆ + ˆ  ˆ = Y − Xˆ  FRM

ˆ = ( X t X ) −1 X tY  MELI

1) E (  ) = 0  E ( ˆ ) = 
2) Var (  ) =  2 I  Var ( ˆ ) =  2 ( X t X ) −1
3)  ~ N (0 ;  2 I ) 
 ˆ ~ N  ;  2 ( X t X ) −1 
28
Interpretación de los estimadores de β
ˆi  0
Si la variable explicativa Xi aumenta en una unidad, la variable explicada Y aumenta
en promedio tantas unidades como indica el valor estimado de β, manteniendo constante
el resto de las variables explicativas.

ˆi  0
Si la variable explicativa Xi aumenta en una unidad, la variable explicada Y disminuye
en promedio tantas unidades como indica el valor estimado de β, manteniendo constante
el resto de las variables explicativas.

Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t


Yt
= ˆi  i = 1, 2,..., k
X it
Nota: recuerde mencionar la unidad de medida de cada variable.

29
Condición de ortogonalidad
(enfoque matricial)
1) Y = Xˆ + ˆ  ˆ = Y − Xˆ
Siendo Yˆ = Xˆ
2)Y = Yˆ + ˆ  ˆ = Y − Yˆ

3) ˆ = ( X t X ) −1 X tY
4) ( X t X ) ˆ = X tY
5) X tY − ( X t X ) ˆ = 0
6) X t (Y − Xˆ ) = 0
30 7) X t ˆ = 0  X t ˆ = 0  Yˆ = Xˆ  Y t ˆ = ˆ tY = 0
Explicación del promedio de la
variable dependiente (Y) en el MRLC
Yt = Yˆt + ˆ ; t = 1, 2,..., n
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t

( )
n n

 t  0 1 1t 2 2t 3 3t
Y =
t =1
ˆ + ˆ X + ˆ X + ˆ X + ... + ˆ X + ˆ
t =1
k kt t

( )
n n n

 t  0 1 1t 2 2t 3 3t
Y =
t =1

t =1
k kt  t
ˆ + ˆ X + ˆ X + ˆ X + ... + ˆ X + ˆ
t =1

Dividiendo entre n :
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt
31
Suma de cuadrados: total,
explicada y de residuos

Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t


Yˆt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt
Y = Yˆ + ˆ
t t t

(Yt − Y ) = (Yˆt − Y ) + ˆ t
ˆ 
(Yt − Y ) = (Yt − Y ) + ˆ t
2 2


(Yt − Y ) 2 = (Yˆt − Y ) 2 + 2(Yˆt − Y ) ˆ t + ˆ t2 
32
Suma de cuadrados: total,
explicada y de residuos
(Y − Y ) = (Yˆ − Y ) + 2(Yˆ − Y ) ˆ + ˆ 
t
2
t
2
t t t
2

 (Y − Y ) =  (Yˆ − Y ) + 2(Yˆ − Y )ˆ + ˆ 


n n
2 2 2
t t t t t
t =1 t =1
n n n n

 t
(Y −
t =1
Y ) 2
=  t
(Yˆ − Y ) 2
+  t
t =1
2(Yˆ − Y ) 
ˆ t
t =1
+  t

ˆ 2

t =1
n n n n n

 t
(Y −
t =1
Y ) 2
=  t
(Yˆ − Y ) 2
+ 2
t =1
t t  t  t
Yˆ 
ˆ − 2Y 
ˆ + 
ˆ
t =1
2

t =1 t =1
n n n

 (Yt − Y ) =  (Yt − Y ) + t
33t =1
ˆ
2 2
ˆ
t =1
2

t =1
Los residuos y la bondad del ajuste: R2
n n n

 (Y
t =1
t − Y ) =  (Yˆt − Y ) +  ˆ t2
2

t =1
2

t =1

  
STC = SEC + SRC

STC SEC SRC


= +
STC STC STC

SRC
R = 1−
2
 bondad de ajuste
STC
(1 − R 2 )(n − 1)
R = 1−
2
 R 2 ajustado
n−k
El R2 constituye la proporción de la SEC con respecto a la STC, y nos
indica que tanto de las variaciones que se producen en la variable
34 dependiente (Y) son explicadas por el modelo estimado.
Conceptos para revisar
 Algebra matricial.
 Derivadas totales y parciales.
 Propiedades de los logaritmos
 Distribuciones teóricas de probabilidad:
 Normal
 Z (normal estándar)
 t de student
 χ2
 F de snedecor
 Estimación puntual y por intervalo.
 Contraste de hipótesis.

35
Forma funcional de los modelos
1. Modelo lineal.
2. Modelo log-lin (crecimiento).
3. Modelo lin-log.
4. Modelo log-log (logarítmico, elasticidad constante).

  
1) Yt =  0 + 1 X 1t +  2 X 2t + ... +  k X kt + t
2) ln(Yt ) =  0 + 1 X 1t +  2 X 2t + ... +  k X kt + t
3) Yt =  0 + 1 ln( X 1t ) +  2 ln( X 2t ) + ... +  k ln( X kt ) + t
4) ln(Yt ) =  0 + 1 ln( X 1t ) +  2 ln( X 2t ) + ... +  k ln( X kt ) + t
36
Los parámetros de acuerdo a la
forma funcional de los modelos
Yt Cambio absoluto en Y
Lineal   i = 
X it Cambio absoluto en X i

Yt Cambio absoluto en Y


Lin − log   i = 
 ln( X it ) Cambio relativo en X i

 ln(Yt ) Cambio relativo en Y


log − lin   i = 
X it Cambio absoluto en X i

 ln(Yt ) Cambio relativo en Y


log − log   i = 
 ln( X it ) Cambio relativo en X i
37
Interpretación de los parámetros según
la forma funcional de los modelos
1) Modelo lineal.
Para βi > 0; Xi aumenta (1 unidad);Y aumenta (βi unidades).
Para βi < 0; Xi aumenta (1 unidad);Y disminuye (βi unidades).

2) Modelo log-lin.
Para βi > 0; Xi aumenta (1 unidad);Y aumenta en porcentaje (βi*100).
Para βi < 0; Xi aumenta (1 unidad);Y disminuye en porcentaje (βi*100).

3) Modelo lin-log.
Para βi > 0; Xi aumenta (1%);Y aumenta (βi/100 unidades).
Para βi < 0; Xi aumenta (1%);Y disminuye (βi/100 unidades).

4) Modelo log-log.
Para βi > 0; Xi aumenta (1%);Y aumenta en porcentaje (βi %).
Para βi < 0; Xi aumenta (1%);Y disminuye en porcentaje (βi%).
38
Comparación entre modelos
utilizando la bondad de ajuste R2
 Requisitos:
 El mismo tamaño de la muestra (n).
 La misma variable dependiente (Y).

 En este sentido, si tienen igual tamaño de muestra se pueden comparar


directamente los modelos:
 Lineal con lin-log.
 Logarítmico con log-lin.

 Si no se cumplen estas dos condiciones es necesario realizar


transformaciones a los modelos para poder comparar la bondad de
ajuste de los mismos.
 Pasar de logaritmo a lineal.
 Pasar de lineal a logaritmo.
39
Modelo logarítmico
“Elasticidad constante”
Yt =  0 X t1 e t  Intrínsecamente lineal
ln(Yt ) = ln(  0 X t1 e t )
ln(Yt ) = ln(  0 ) + ln( X t1 ) + ln(e t )
ln(Yt ) = ln(  0 ) + 1 ln( X t ) + t ln(e)
ln(Yt ) =  + 1 ln( X t ) + t
dYt
Yt dYt X t
Elasticiad  E yx =  *
dX t dX t Yt
Xt
( 1 0 X t1 −1e t ) * X t
E yx =
Yt
1 0 X t e  1 t

E yx =  
 E yx = 1
40 0 X t e 1 t
Modelo log-lin
“Tasas de crecimiento”
Ct = C0 (1 + r ) t  Intrínsecamente lineal

ln(Ct ) = ln C0 (1 + r ) t 

ln(Ct ) = ln(C0 ) + ln (1 + r ) t 
ln(Ct ) = ln(C0 ) + t ln(1 + r )
Asumiendo  ln(C0 ) =  0 ; ln(1 + r ) = 1
ln(Ct ) =  0 + 1t

ln(Ct ) =  0 + 1t + t

Tasa de crecimiento ins tan tánea  1 *100


Tasa de crecimiento compuesta  anti log( 1 ) − 1*100
41
Inferencia en el MCRL para los
coeficientes de la regresión
1) E (  ) = 0  E ( ˆ ) = 
2) Var (  ) =  2 I  Var ( ˆ ) =  2 ( X t X ) −1
3)  ~ N (0 ;  2 I ) 
 ˆ ~ N  ;  2 ( X t X ) −1 
 2 es desconocida   2 ( X t X ) −1 es desconocida

ee( ˆi ) = Var( ˆi ) es desconocida

ˆi −  i
 Z  Z ~ N(0 ; 1)
ˆ
ee(  )
42
Inferencia en el MCRL para los
coeficientes de la regresión
ˆ t ˆ
En este caso ˆ 2 =  Estimador de  2
n−k

ˆi −  i
~ t n -k gl
ˆ
ee(  )

Intervalo de confianza para  i


ICti : P(−t / 2;n − k  ti  t / 2;n − k ) = 1 − 
 
ICi : P ˆi − t / 2;n − k * ee( ˆi )   i  ˆi + t / 2;n − k * ee( ˆi ) = 1 − 
43
Contraste de hipótesis para los
coeficientes de la regresión (caso A)
Yt = 0 + 1 X1t +  2 X 2t + ... +  k X kt + t
 Naturaleza del problema.
 Determinar si la variable Xi aporta información de forma individual para explicar a la variable Y, a
un nivel de significancia .
 Planteamiento de hipótesis.
 Ho: βi = 0
 Ha: βi ≠ 0
 Estadístico de contraste.

ˆi −  i
~ t n -k gl
ˆ
ee(  )
 Regla de decisión.

Si t calculado  t / 2;n − k  Rechazo H 0


Si Pvalue    Rechazo H 0
 Conclusión.
 Si rechazo Ho, Xi aporta información de forma individual para explicar a la variable Y , a un nivel de
44 significancia .
Contraste de hipótesis para los
coeficientes de la regresión (caso B)
Yt = 0 + 1 X1t +  2 X 2t + ... +  k X kt + t
 Naturaleza del problema.
 Determinar si la variable Xi aporta información de forma individual para explicar a la variable
Y, a un nivel de significancia .
 Planteamiento de hipótesis.
 Ho: βi ≥ 0
 Ha: βi < 0
 Estadístico de contraste.
ˆi −  i
~ t n -k gl
ˆ
ee(  )
 Regla de decisión.

Si t calculado  −t ;n − k  Rechazo H 0


 Conclusión.
Si rechazo Ho, Xi aporta información de forma individual para explicar a la variable Y , a un nivel
45 de significancia .
Contraste de hipótesis para los
coeficientes de la regresión (caso C)
Yt = 0 + 1 X1t +  2 X 2t + ... +  k X kt + t
 Naturaleza del problema.
 Determinar si la variable Xi aporta información de forma individual para explicar a la variable Y, a un
nivel de significancia .
 Planteamiento de hipótesis.
 Ho: βi ≤ 0
 Ha: βi > 0
 Estadístico de contraste.

ˆi −  i
~ t n -k gl
ˆ
ee(  )
 Regla de decisión.

Si t calculado  t ;n − k  Rechazo H 0
 Conclusión.
 Si rechazo Ho, Xi aporta información de forma individual para explicar a la variable Y , a un nivel de
significancia .
46
Contraste de hipótesis de
significancia global de la regresión
Yt = 0 + 1 X1t +  2 X 2t + ... +  k X kt + t
 Naturaleza del problema.
 Determinar si las variables explicativas en conjunto explican el comportamiento de Y, a un
nivel de significancia .
 Planteamiento de hipótesis.
 Ho: β1=β2=β3=…=βk=0
 Ha: Algún βi ≠ 0 Para todo i=1,2,…,k
 Estadístico de contraste.
SEC /(k − 1) R 2 /(k − 1)
F= 
SRC /(n − k ) (1 − R 2 ) /(n − k )
 Regla de decisión.

Si Fcalculado  Fnk−−k1;  Rechazo H 0


Si Pvalue    Rechazo H 0
 Conclusión.
 Si rechazo Ho, las variables explicativas en conjunto explican el comportamiento de Y, a un
47 nivel de significancia .
Restricciones lineales
sobre los parámetros
 En ocasiones los modelos planteados por la teoría económica exigen el
cumplimiento de ciertas relaciones en los coeficientes. En este sentido, nos
vemos en la necesidad de plantear restricciones lineales sobre los
parámetros, las cuales dependerán del requerimiento exigido teóricamente.
Como ejemplo se pueden mencionar:

Sea el modelo :
Yt =  0 + 1 X 1t +  2 X 2t + ... +  k X kt + t
Se pueden plantear como restricciones :
(  i = c); (  i =  j ); (  i = −  j ); (  i +  j = c);
(  i −  j = c); (  i = c j )... y muchas más.
48 i  j ; c = constante
Contraste de hipótesis para un conjunto de
restricciones lineales sobre los parámetros
Ejemplo1 :
Modelo no restringido
Yt =  0 + 1 X 1t +  2 X 2t + ... +  k X kt + t  SRCNR
Restricción lineal
1 +  2 = 1  1 = 1 −  2
Modelo Restringid o
Yt =  0 + (1 −  2 ) X 1t +  2 X 2t + ... +  k X kt + t
Yt =  0 + X 1t −  2 X 1t +  2 X 2t + ... +  k X kt + t
Yt − X 1t =  0 +  2 ( X 2t − X 1t ) + ... +  k X kt + t
 
Yt =  0 +  2 ( X 2*t ) + ... +  k X kt + t  SRCR
*
49
Contraste de hipótesis para un conjunto de
restricciones lineales sobre los parámetros
 Naturaleza del problema.
 Determinar si la restricción lineal planteada es estadísticamente válida, a un nivel de
significancia .
 Planteamiento de hipótesis.
 Ho: β1+β2=1
 Ha: β1+β2 ≠ 1
 Estadístico de contraste.

( SRCR − SRCNR ) / g
F=
SRCNR /(n − k )
 Regla de decisión.

Si Fcalculado  Fng− k ;  Rechazo H 0


 Conclusión.
 Si rechazo Ho, no hay evidencia estadística para afirmar que se cumple la restricción lineal
planteada, a un nivel de significancia .

50
Estabilidad de los parámetros.
Contraste de estabilidad estructural
Para estudiar este problema se aplica la prueba de estabilidad de los parámetros
conocida como Test de Chow, el cual consiste en lo siguiente:
1. Asumiendo que se dispone de n observaciones, se realiza una regresión del
modelo planteado con todas las n observaciones y se obtiene SRC.
2. Se divide la muestra de n observaciones en tantas sub-muestras (sub-períodos)
como considere necesario el investigador, digamos m sub-muestras.
3. Se realiza una regresión del modelo planteado para cada sub-muestra, de las cuales
se obtienen SRCi, i=1,2,…,m.
4. Se calcula el siguiente estadístico:
m
( SRC −  SRCi ) /(m − 1)k
F= m
i =1

 SRC /(n − mk )
i =1
i

5. Estableciendo un nivel de significancia α, si el valor calculado de la F, resulta


mayor que el valor crítico proporcionado por la tabla, entonces se rechaza la
hipótesis nula (Ho: No hay cambios en los valores de los parámetros).

51
Estabilidad de los parámetros
Contraste de estabilidad estructural
 Naturaleza del problema.
 Determinar si hay cambios en los valores de los parámetros en el tiempo, a un nivel de
significancia .
 Planteamiento de hipótesis.
 Ho: No hay cambios en los valores de los parámetros.
 Ha: Hay cambios en los valores de los parámetros.
 Estadístico de contraste.
m
( SRC −  SRCi ) /(m − 1)k
F= m
i =1

 SRC
i =1
i /(n − mk )

 Regla de decisión.

Si Fcalculado  F((nm−−mk1));k   Rechazo H 0

 Conclusión.
 Si rechazo Ho, hay cambios en los valores de alguno de los parámetros en el tiempo, a un nivel
52 de significancia .
Predicción en el modelo lineal.
El objetivo consiste en predecir un conjunto de valores de “Y” que
están fuera de la muestra original (n). Dicho concepto puede verse
expresado a continuación:

Yn +1   1 X 1; n +1 X 2; n +1 X 3; n +1 ... X k ; n +1   0    n +1 
Y  1 X  
 n+2   X 2; n + 2 X 3; n + 2 ... X k ; n + 2   
 n+2 
1; n + 2  1
Yn +3   1 X 1; n +3 X 2; n + 3 X 3; n +3 ... X k ; n +3   2    n +3 
  =   *   +  
 n+4 
Y  1 X 1; n + 4 X 2; n + 4 X 3; n + 4 ... X k ; n + 4  
 3 
 n+4 
...  ... ... ... ... ... ...  ...  ... 
       
Yn + g  gx1  1 X 1; n + g X 2; n + g X 3; n + g ... X k ; n + g 
gx ( k +1)   k  ( k +1) x1   n + g  gx1

Matricialmente  Yp = X p *  +  p

53
Predicción en el modelo lineal.
Contraste de fallo predictivo
 Naturaleza del problema.
 Determinar si el modelo estimado es bueno para realizar pronóstico, a un nivel de
significancia .
 Planteamiento de hipótesis.
 Ho: Yp= Xpβ+µp ; µp~N(0,σ2Ig)
 Ha: Yp≠ Xpβ+µp
 Estadístico de contraste.
( SRCD + g − SRCD ) / g
F=
SRCD /(n − k )
 Regla de decisión.

Si Fcalculado  Fng− k ;  Rechazo H 0

 Conclusión.
 Si rechazo Ho, el modelo estimado no es bueno para realizar pronóstico, a un nivel de
54 significancia .
UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova
Tema III: Evaluación
del Modelo Econométrico.

55 55
Profesor: Angel Cova
Criterios de selección de un modelo

 Ser aceptable según los datos.


 Ser consistente con la teoría.
 Tener regresoras débilmente exógenas.
 Mostrar constancia paramétrica.
 Exhibir coherencia en los datos.
 Ser inclusivo.

56 56
Evaluación de los supuestos en el
Modelo de Regresión Lineal Clásico

 Correcta especificación del modelo.


 No hay multicolinealidad perfecta entre las
variables explicativas.
 Homoscedasticidad en las perturbaciones.
 No existe autocorrelación entre las perturbaciones.
 Las perturbaciones están normalmente distribuidas.

57 57
Violación de los supuestos en el
Modelo de Regresión Lineal Clásico

 Errores de especificación (modelo).


 Multicolinealidad (variables explicativas).
 Heteroscedasticidad (perturbaciones).
 Autocorrelación (perturbaciones).
 No normalidad (perturbaciones).

58 58
Especificación del modelo
y pruebas de diagnóstico

Tipos de errores de especificación

59 59
Tipos de errores de especificación.

 Omitir variables relevantes.


 Incluir variables innecesarias.
 Adoptar una forma funcional incorrecta.
 Errores de medición.
 Especificar incorrectamente el término de error.

60 60
Omitir variables relevantes
 Modelo correcto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 5 X 5t + 1t
 Modelo incorrecto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 2t
 Variable omitida:
X5t
 Termino de error:

2t = 1t + 5 X 5t

61 61
Incluir variables innecesarias
 Modelo correcto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 1t
 Modelo incorrecto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 5 X 5t + 2t
 Variable innecesaria:
X5t
 Termino de error:

 2t = 1t −  5 X 5t

62 62
Consecuencias

 Omitir variables relevantes; produce estimadores


MCO eficientes (varianza mínima), pero sesgados.

 Incluir variables innecesarias; produce


estimadores MCO insesgados, pero ineficientes
(varianzas altas).

63 63
Ejercicio de la demanda de pollos

Y: Consumo per cápita de pollos (libras)

X1: Ingreso per cápita real disponible ($)

X2: Precio real al detal del pollo por libra ($)

X3: Precio real al detal del cerdo por libra ($)

X4: Precio real al detal de la carne de res por libra ($)

X5: Precio real compuesto de los sustitutos del pollo por libra ($)

64 64
Omisión de una variable relevante
 Modelo correcto:

Yt = 0 + 1 X1t + 2 X 2t + 3 X 5t + 1t

 Modelo incorrecto:

Yt = 0 + 1 X 2t +  2 X 5t + 2t
 Variable omitida:
X1t

65 65
Variable omitida (X1)

66 66
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si la variable X1 es relevante (contribuye al modelo) a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: se omitió la variable X1 siendo irrelevante.
 Ha: se omitió la variable X1 siendo relevante.

 Estadístico de contraste. ( SRCR − SRCNR ) / g


Fcalculada =
SRCNR /(n − k )
 Regla de decisión.
 Si Fcalculada > Fcritica, ► Rechazo Ho
 Si Pvalue < α, ► Rechazo Ho

 Conclusión.
 Si rechazo Ho, debo incluir la variable X1 al modelo a un nivel de
significancia α.

67 67
Variable omitida (X1)

68 68
Inclusión de una variable innecesaria
 Modelo correcto:

Yt = 0 + 1 X1t +  2 X 2t + 1t

 Modelo incorrecto:

Yt = 0 + 1 X1t + 2 X 2t + 3 X 5t + 2t
 Variable innecesaria:
X5t

69 69
Variable innecesaria (X5)

70
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si la variable X5 es necesaria (contribuye al modelo) a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: la variable X5 es innecesaria.
 Ha: la variable X5 es necesaria.

 Estadístico de contraste. ( SRCR − SRCNR ) / g


Fcalculada =
SRCNR /(n − k )
 Regla de decisión.
 Si Fcalculada > Fcritica, ► Rechazo Ho
 Si Pvalue < α, ► Rechazo Ho

 Conclusión.
 Si rechazo Ho, debo dejar la variable X5 en el modelo a un nivel de
significancia α.

71 71
Variable innecesaria (X5)

72 72
La prueba RESET de Ramsey

Detectar forma funcional inapropiada


ó prueba de mala especificación.

73 73
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si el modelo esta correctamente especificado a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: modelo correctamente especificado.
 Ha: modelo incorrectamente especificado.

 Estadístico de contraste.
( SRCR − SRCNR ) / g
Fcalculada =
 Regla de decisión. SRCNR /(n − k )
 Si Fcalculada > Fcrítica, ► Rechazo Ho
 Si Pvalue < α, ► Rechazo Ho

 Conclusión.
 Si rechazo Ho, entonces el modelo esta mal especificado a un nivel de
significancia α.

74 74
Modelo lineal (incorrecto)

75 75
Modelo logarítmico (correcto)

76 76
Multicolinealidad

¿Qué pasa si las regresoras


están correlacionadas?

77 77
Fuentes de la multicolinealidad
 El método de recolección de información
empleado (un fenómeno muestral).
 Restricciones en el modelo ó en la población
objeto de muestreo.
 Especificación del modelo.
 Un modelo sobredeterminado (k > n)
 Tendencia común en las regresoras.

78
Naturaleza de la multicolinealidad
 Relación lineal exacta:

1 X 1t +  2 X 2t +  3 X 3t + ... +  k X kt = 0
 Relación lineal inexacta:(baja, moderada, alta)

1 X 1t +  2 X 2t +  3 X 3t + ... +  k X kt + Vt = 0
 No hay relación lineal:
Cor(Xi, Xj) = 0 para todo i ≠ j

79
Estimación y multicolinealidad
 Colinealidad perfecta:
No se pueden calcular los estimadores MCO (son
indeterminados) y sus errores estándar son infinitos.

 Colinealidad no perfecta:
Se pueden calcular los estimadores MCO, pero no se
pueden interpretar.
Se mantiene la propiedad de insesgamiento y de
eficiencia (varianza mínima), pero los errores estándar
son grandes en relación con el valor de los estimadores
y por ende pequeños valores t (lo que conduce a no
poder rechazar la Ho de que i = 0)

80
Advertencias sobre la multicolinealidad
 La multicolinealidad es un problema de grado y no
de clase.
 Es por lo general una característica de la muestra y
no de la población.
 Aun cuando los coeficientes son no significativos
individualmente, una combinación lineal de ellos
puede resultar eficiente si el objetivo es el
pronóstico.

81
Detección del problema
 Un valor alto del R2 acompañado de estadísticos t
poco significativos.
 Altas correlaciones simples entre parejas de
regresores.
 Examen de correlaciones parciales.
 Regresiones auxiliares (regla práctica de Klien).
 Factores de tolerancia y de inflación de varianza
(investigar).

82
R2 alto y pocas t significativas

83
Análisis de correlaciones simples

84
Regresiones auxiliares (X1)

85
Regresiones auxiliares (X2)

86
Regresiones auxiliares (X3)

87
Regresiones auxiliares (X4)

88
Regresiones auxiliares (X5)

89
Medidas correctivas
 No hacer nada (posible problema de deficiencia de datos,
micronumerosidad)
 Información a priori (si conozco la relación que existe entre
las variables, planteo modelo restringido por dicha
relación).
 Combinación de información de corte transversal y de
series de tiempo (mezcla de datos).
 Eliminación de variables (sesgo de especificación).
 Transformación de variables (1eras diferencias) o
transformación de razón (términos per cápita, términos
reales) por aquello de la tendencia común.
 Datos nuevos o adicionales (midiendo la sensibilidad y los
cambios en los errores estándar).
 Regresiones polinomiales.

90
Heteroscedasticidad

¿Qué pasa cuando la varianza


del error no es constante?

91 91
Naturaleza de la heteroscedaticidad
Si la varianza condicional de μi (dado Xi) aumenta en la
medida que aumenta Xi, entonces se evidencia un problema
de heteroscedasticidad.

Fuentes del problema:


 Modelos de aprendizaje sobre los errores (μi disminuye).
 A mayor ingreso, mayor ingreso discrecional.
 Mejores técnicas de recolección de datos (tecnología).
 Datos o factores atípicos, sobretodo en muestras pequeñas.
 Errores de especificación.
 Asimetría en la distribución de una o más regresoras.
 Incorrecta transformación de los datos.

92
El problema de heteroscedasticidad
Consecuencias:
 Los estimadores continúan siendo lineales, insesgados y
consistentes pero no son eficientes.

Detección:
 Naturaleza del problema (series de corte transversal).
 Método grafico (diagrama de dispersión entre los residuos
al cuadrado y los valores estimados de Y).
 Prueba de Park (método exploratorio).
 Prueba general de White.

93
Método gráfico

94
Prueba de Park
 Park sugiere que la varianza heteroscedastica es una
función de la variable explicativa X que se expresa por:

 i2 =  2 X i e v
i

Aplicando ln :
ln  i2 = ln  2 +  ln X i + vi
Como  i2 no se conoce, Park sugiere :
ln ˆ i2 = ln  2 +  ln X i + vi
Lo que se puede escribir :
ln ˆ i2 =  +  ln X i + vi
Si β ≠ 0 => hay heteroscedasticidad.

95
Prueba de Park

96
Prueba general de White (pasos)
Ejemplo con un modelo de 3 variables (si aumenta el número de variables, esta
prueba consume grados de libertad rápidamente)

 Estime el siguiente modelo y obtenga los residuos estimados (μt).


Yt =  0 + 1 X 1t +  2 X 2t + t
 Efectué la siguiente regresión auxiliar y obtenga el R2.
 Sin términos cruzados (prueba de heteroscedasticidad pura)

ˆ t2 =  0 +  1 X 1t +  2 X 2t +  3 X 12t +  4 X 22t + vt
 Con términos cruzados (prueba de heteroscedasticidad y de sesgo de
especificación)
ˆ t2 =  0 +  1 X 1t +  2 X 2t +  3 X 12t +  4 X 22t +  5 X 1t X 2t + vt
Bajo la hipótesis nula de que no hay heteroscedasticidad, n* R2 obtenidos de la
regresión auxiliar, asintóticamente sigue la distribución Ji-cuadrada con k gl
(parámetros de la de regresión auxiliar sin incluir el intercepto).
n* R2 ~χ2k gl

97
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si los residuos (μi) son homoscedasticos a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: No hay heteriscedasticidad => (1 = 2 = 3 = 4 = 5 = 0)
 Ha: Hay heteroscedasticidad => (algún i ≠ 0)

 Estadístico de contraste.
 n* R2 ~χ2k gl

 Regla de decisión.
 Si n* R2 >χ2k gl, ► Rechazo Ho
 Si Pvalue < α, ► Rechazo Ho

 Conclusión.
 Si rechazo Ho, hay problemas de heteroscedasticidad a un nivel de
significancia α.

98 98
Sin términos cruzados

99
Con términos cruzados

100
Medidas correctivas
 Método de mínimos cuadrados ponderados (MCP).
 Cuando la varianza heteroscedastica es conocida:
 Yt   1  X  X   t 
  =  0   + 1  1t  +  2  2t  +  
i  i   i   i  i 
 Cuando la varianza heteroscedastica es desconocida:
 Yt   1  X  X   t 
  =  0   + 1  1t  +  2  2t  +  
 wi   wi   wi   wi   wi 
Donde wi puede ser: Xi, √Xi, E(Yi) dependiendo del patrón observado.

 Una trasformación logarítmica.

ln Yt =  0 + 1 ln X 1t +  2 ln X 2t + t
101
Prueba para los modelos lineal y
logarítmico

102
Autocorrelación

¿Qué sucede si los términos


de error están correlacionados?

103 103
Naturaleza del problema
Simbólicamente se expresa: E(μiμj) ≠ 0 para i ≠ j

Fuentes del problema:


 Inercia (las series económicas suben o bajan en función de los
ciclos económicos y en relación con los valores anteriores).
 Sesgo de especificación por variables excluidas o por una
forma funcional incorrecta.
 Rezagos de la variable explicada o de las explicativas en el
modelo.
 Manipulación de los datos (cambios en la periodicidad de la
serie y/o interpolación - extrapolación).
 Transformación de datos (operadores de diferencias).
 No estacionariedad de las series de tiempo.
104
El problema de autocorrelación
Consecuencias:
 Los estimadores continúan siendo lineales, insesgados
y consistentes pero no son eficientes.

Detección:
 Método grafico
 Residuos respecto al tiempo.
 Residuos estandarizados respecto al tiempo.
 Residuos y residuos rezagados (diagrama de
dispersión).
 Prueba “d” de Durbin- Watson.

105
Análisis gráfico de los residuos
(Yt = β0 + β1X1t + βX2t + μt)

106
Prueba “d” de Durbin- Watson.
Supuestos:
 El modelo de regresión incluye el intercepto.
 Las variables explicativas “X” son no estocásticas.
 La perturbaciones se generan mediante un esquema
autorregresivo de 1er orden (μt = ρμt-1 + εt), no se
puede utilizar para esquemas de orden superior.
 El término de error está normalmente distribuido.
 El modelo de regresión no incluye valores rezagados
de la variable dependiente como variable explicativa.
 No hay observaciones faltantes en los datos.

107
Prueba “d” de Durbin- Watson.

t =n t =n t =n t =n

 t t −1
( 
ˆ −ˆ ) 2
 t  t −1 −2 ˆ t ˆ t −1

ˆ 2
+ 
ˆ 2

d= t =2
t =n
 t =2 t =2
t =n
t =2

 t

ˆ 2

t =1
 t

ˆ 2

t =1

 t =n

  ˆ t ˆ t −1 
− 1  ˆ  1
d  21 − t = 2t = n   d  2(1 − ˆ )
  0d 4


 t =1
ˆ t 
2

108
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si los residuos (μi) están correlacionados a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: No hay autocorrelación en los residuos.

 Estadístico de contraste.
 Durbin- Watson (d)

 Regla de decisión.
 Si 0 < d < dl => se evidencia autocorrelación positiva (ZR)
 Si dl  d  du => sin decisión (ZI)
 Si du < d < 4 - du => no hay autocorrelación (ZA)
 Si 4 - du  d  4 - dl => sin decisión (ZI)
 Si 4 - dl < d < 4 => se evidencia autocorrelación negativa (ZR)

109 109
Prueba “d” de Durbin- Watson.
 Modelo lineal  Modelo logarítmico

110
Medidas correctivas
 Mínimos cuadrados generalizados
Si  es conocida 
(Yt − Yt −1 ) =  0 (1 −  ) + 1 ( X 1t − X 1t ) +  2 ( X 2t − X 2t ) +  t

Si  no es conocida  las opciones puden ser :


1) Asumir  = 1
d
2)  = 1 −
ˆ
2
3)  t = ˆ t −1 + ˆt

111
Medidas correctivas
 En niveles  1eras diferencias

112
Normalidad

¿Por qué debe formularse el supuesto de


distribución normal en las perturbaciones?

113 113
Supuesto de normalidad
 La regresión lineal normal clásica supone que cada μi esta
normalmente distribuida con media, varianza y covarianza:
E ( i ) = 0
E  i − E (  i ) = E (  i2 ) =  2
2

 
E  i − E (  i )  j − E (  j )  = E (  i ,  j ) = 0 i j

Que en forma compacta se expresa como:

 i ~ NID(0,  ) 2

Normal e idénticamente distribuidos con media cero y


varianza constante.

114
Razones del supuesto de normalidad
 μi representa las variables explicativas que no forman parte
del modelo de regresión, se espera que su influencia en la
variable explicada sea pequeña y de forma aleatoria. Por
Teorema del Límite Central (TLC) se demuestra que la
distribución de la suma de un gran número de variables
aleatorias independientes e idénticamente distribuidas
tiende a una normal a medida que aumenta el número de
variables indefinidamente .
 Como los estimadores MCO son una función lineal de μi,
entonces también siguen una distribución normal, lo que
implica pruebas de hipótesis mas sencillas.
 Además, permite utilizar las pruebas estadisticas: t, F y χ2.

115
Contraste de hipótesis (pasos)
 Naturaleza del problema.
 Determinar si los residuos (μi) están normalmente distribuidos a un nivel de
significancia .

 Planteamiento de hipótesis.
 Ho: μi se distribuye normalmente.
 Ha: μi no se distribuye normalmente.

 Estadístico de contraste.
 Prueba asintótica o de muestras grandes:

 Regla de decisión.  S 2 ( K − 3) 2 
 Si JB >χ22gl, ► Rechazo Ho
Jarque − Bera  JB = n  + 
 Si Pvalue < α, ► Rechazo Ho
6 24 

 Conclusión.
 Si rechazo Ho, los residuos no se distribuyen normalmente a un nivel de
significancia α.

116 116
Residuos del modelo lineal

117
Residuos del modelo logarítmico

118
UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova

Tema IV: Modelo de Ecuaciones Simultáneas

119
Naturaleza de los Modelos
de Ecuaciones Simultáneas (MES)

 Los MES contienen más de una variable dependiente


(endógena), lo cual requiere igual número de
ecuaciones.
 Asimismo, la variable endógena (regresada) de una
ecuación puede participar como variable explicativa
(regresora) en otra ecuación del sistema (mutuamente o
conjuntamente dependientes).
 En los MES no es posible estimar los parámetros de una
ecuación aisladamente sin tener en cuenta la información
derivada de las restantes ecuaciones del sistema.
120
Modelo de Ecuaciones
Simultáneas vs MCRL
MCRL MES
Yt = 0 + 1 X1t + ... +  k X kt + ut Y1t = 10 + 12Y2t + 11 X 1t + u1t
Y2t =  20 +  21Y1t +  21 X 1t + u2t

 Uniecuacional. • Multiecuacional.
• Problema de identificación,
 Estimación por MCO.
estimación por otros métodos.
 Y: variable dependiente.
• Y1t,Y2t Variables endógenas.
 X: variables independientes.
• X1t Variable exógena.

121
Ejemplo 1: Modelo
de oferta y demanda.
 El precio “P” de un bien y sus cantidades vendidas “Q”, están determinadas
por la intersección de las curvas de oferta (Qs) y de demanda(Qd):

Qtd =  0 + 1Pt +u1t 1  0


Q =  0 + 1Pt + u 2 t
t
s
1  0
Q =Q
t
d
t
s

 Si: u1t(ó u2t) > 0 → Desplaza Qd (Qs) hacia arriba.


 Si: u1t(ó u2t) < 0 → Desplaza Qd (Qs) hacia abajo.

Existe dependencia simultanea entre P y Q, y por ende E(uit , Pt) ≠ 0


122
Ejemplo 2: Modelo Keynesiano
de determinación del ingreso.
 Ct es la función consumo, donde B1 es la propensión marginal a
consumir, y Yt es la ecuación identidad del ingreso nacional , It es la
inversión.

Ct =  0 + 1Yt +u t 0  1  1 (1)
Yt = Ct + I t (2)

 Ct y Yt son interdependientes, lo que provoca que Yt se encuentre


relacionado con ut, ya que cambios en ut originan desplazamientos de Ct,
la cual a su vez afecta a Yt. En tal sentido, no es correcto estimar los
coeficientes aplicando MCO.

123
Ejemplo 3: Modelo
Salario-Precio.
 En este caso la variable P ingresa en ecuación de W, y la variable W
ingresa en ecuación de P (mutuamente dependientes), por lo que se
espera que dichas variables estén correlacionadas con las perturbaciones
estocásticas correspondientes.

Wt = 0 + 1UN t +  2 Pt +u1t


Pt =  0 + 1Wt +  2 Rt +  3 M t +u 2 t
 = tasa de cambio de los salarios monetarios, UN = tasa de desempleo (%),
W t t

P t = tasa de cambio de los precios, R


 = tasa de cambio del costo de capital,
t
 = tasa de cambio del precio de las materias primas importadas, t = tiempo
M t

u1,u 2 = perturbaciones estocásticas


124
Ejemplo 4:
Modelo IS.
 Equilibrio en el mercado de bienes:

Ct =  0 + 1Ydt 0  1  1 Ecuación IS: Yt =  0 +  1rt


Tt =  0 + 1Yt 0  1  1  0 −  0 1 +  0 + G
I t =  0 +  1rt 0 =
1 − 1 (1 − 1 )
Ydt = Yt − Tt
1
Gt = G 1 =
1 − 1 (1 − 1 )
Yt = Ct + I t + Gt

 Al estimar la función Ct de forma aislada se obtienen estimaciones


sesgadas para B0 y B1, debido a que el consumo depende del Ydt, esta a su
vez de Yt, que también depende de r, G y otros parámetros que se
reflejan en π0

125
Inconsistencia y sesgo
de los estimadores MCO
En los MES las variables endógenas de una ecuación pueden
participar como variable explicativa en otra ecuación del
sistema. En este sentido, los estimadores obtenidos por MCO
seran:
−Inconsistentes: el límite de probabilidad del estimador no
tiende hacia el verdadero valor poblacional (parámetro) a
medida que aumenta el tamaño de la muestra (n).
−Sesgados: el valor esperado del estimador no coincide con el
parámetro poblacional indistintamente del tamaño de la
muestra.

126
Notación y definiciones
 Variables:
 Endógenas (estocásticas): son variables conjuntamente
dependientes y sus valores se determinan dentro del modelo. Se
denotan por: M = Y1,Y2,Y3, …,YM

 Predeterminadas (no estocásticas): son aquellas que sus valores


están determinados fuera del modelo. Se denotan por: K = X1,
X2, X3, …, XK
 Exógenas (presente y rezagada)→ Xt y Xt-i
 Endógenas rezagadas →Yt-i

127
Notación y definiciones
 Ecuaciones:
 Forma estructural o de comportamiento: muestra la estructura
original del modelo (de acuerdo a la teoría) o comportamiento
del agente económico manera explícita.
 Forma reducida: muestra a una variable endógena en función de
las variables predeterminadas, más el término de error. Se
obtienen a partir de las ecuaciones estructurales.

128
Notación y definiciones
 Parámetros o coeficientes:
 Estructurales: miden relaciones económicas o de
comportamiento en el modelo estructural.
 De forma reducida (de impacto o corto plazo): son los
coeficientes correspondientes a las ecuaciones en forma
reducida y miden el impacto inmediato de un cambio unitario
del valor de la variable exógena sobre la variable endógena.

129
Ejemplo 5: Notación y definiciones
 Sea el modelo de oferta y demanda

Q =  0 + 1 Pt +u1t 
t
d

Modelo en forma estructural
Qt =  0 + 1 Pt +u 2t 
s

 i   i ; i = 0, 1 → Parámetros estructurales

 Condición de equilibrio:

Q =Q
t
d
t
s

130
Ejemplo 5: Notación y definiciones
 Se obtiene:

P =  0 +vt 
Modelo en forma reducida
Q = 1 + wt 
0 −  0 1 0 −  0 1
0 = ; 1 = → Coeficientes de impacto
1 − 1 1 − 1
u2t − u1t 1u2t − 1u1t
vt = ; wt = → términos de error
1 − 1 1 − 1

131
Ejemplo 6: Notación y definiciones
Modelo Keynesiano de determinación del ingreso (continuación)
Sustituyo (1) en (2) : Sustituyo (2) en (1) :
Yt = (  0 + 1Yt + ut ) + I t Ct =  0 + 1 (Ct + I t ) + ut
Yt − 1Yt =  0 + I t + ut Ct =  0 + 1Ct + 1 I t + ut
(1 − 1 )Yt =  0 + I t + ut (1 − 1 )Ct =  0 + 1 I t + ut
0 1 ut 0 1 ut
Yt = + It + Ct = + It +
(1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 )
0 1 0 1
Si :  0 =  1 = Si :  2 =  3 =
(1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 )
ut ut
vt = vt =
(1 − 1 ) (1 − 1 )
Obtengo la sig. ecuación reducida Obtengo la sig. ecuación reducida
Yt =  0 + 1 I t + vt (1.1) Ct =  2 +  3 I t + vt (2.1)
132
Problema de identificación
 Objetivo: determinar si las estimaciones numéricas
de los parámetros de una ecuación estructural
pueden obtenerse a partir de los coeficientes
estimados de la forma reducida.

 Posibles condiciones de la ecuación:


 Identificada (exactamente o sobreidentificada).
 No identificada (subidentificada).

133
Problema de identificación
¿Los coeficientes estructurales pueden ser obtenidos a
partir de los coeficientes estimados de la forma
reducida?

SI: No:
Ecuación Ecuación no
identificada identificada

Exacta Sobre Sub


identificación identificación identificación

134
Problema de identificación
 Sub identificación: No se pueden estimar los parámetros
estructurales a partir de los coeficientes estimados de la forma
reducida. Ejemplo:

Qtd = 0 + 1Pt +u1t  P =  0 + vt



Qt =  0 + 1Pt +u 2 t  Q = 1 + wt
s

0 − 0 1 0 − 0 1
0 = 1 =
1 − 1 1 − 1
4 coeficientes estructurales vs 2 coeficientes de impacto.

135
Problema de identificación
 Identificación exacta: Pueden obtenerse valores únicos de los
parámetros estructurales a partir de los coeficientes estimados de la
forma reducida . Ejemplo:
Qt =  0 + 1Pt +  2 I t + u1t  Pt =  0 + 1 I t +  2 Pt −1 + vt

Qt =  0 + 1Pt +  2 Pt −1 + u2 t  Qt =  3 +  4 I t +  5 Pt −1 + wt

0 − 0 2 2 u2 t − u1t
0 = 1 = 2 = vt =
1 − 1 1 − 1 1 − 1 1 − 1
1 0 −  0 1  2 1 1 2 1u2 t − 1u1t
3 = 4 = − 5 = wt =
1 − 1 1 − 1 1 − 1 1 − 1

6 coeficientes estructurales vs 6 coeficientes de impacto.


136
Problema de identificación
 Sobre identificación: Pueden obtenerse más de un valor para
alguno de los parámetros estructurales. Ejemplo:

Qt =  0 + 1Pt +  2 I t +  3 Rt + u1t  Pt =  0 + 1 I t +  2 Rt +  3 Pt −1 + vt

Qt =  0 + 1Pt +  2 Pt −1 + u2 t  Qt =  4 +  5 I t +  6 Rt +  7 Pt −1 + wt

0 − 0 2 3 2 u2 t − u1t
0 = 1 = 2 = − 3 = vt =
1 − 1 1 − 1 1 − 1 1 − 1 1 − 1
1 0 − 0 1  2 1 31 1 2 1u2t − 1u1t
4 = 5 = − 6 = − 7 = wt =
1 − 1 1 − 1 1 −  1 − 1 1 − 1
7 coeficientes estructurales vs 8 coeficientes de impacto.

137
Reglas para la identificación
 Notación:
 M = N° de variables endógenas en el modelo.
 m = N° de variables endógenas en una ecuación.
 K = N° de variables predeterminadas en el modelo.
 k = N° de variables predeterminadas en una ecuación.

 Reglas:
 Condición de orden(necesaria pero no suficiente).
 Condición de rango.

138
Reglas para la identificación
• Condición de orden (necesaria pero no suficiente):
En un modelo de M ecuaciones simultáneas, para que una
ecuación esté identificada debe excluir al menos M-1
variables (endógenas y predeterminadas) que aparecen en el
modelo.

Variables Excluidas
Ecuación (K-k) Vs. (m-1)
(VE)
Subidentificada VE < (M-1) (K-k) < (m-1)
Identificación exacta VE = (M-1) (K-k) = (m-1)
Sobreidentificada VE > (M-1) (K-k) > (m-1)
139
Reglas para la identificación
 Condición de rango (concepto):
En un modelo que contiene M ecuaciones en M variables
endógenas, una ecuación esta identificada si y solo si puede
construirse por lo menos un determinante diferente de cero,
de orden (M-1)(M-1), a partir de los coeficientes de las
variables (endógenas y predeterminadas) excluidas de esa
ecuación particular, pero incluidas en las otras ecuaciones del
modelo.

140
Reglas para la identificación
 Condición de rango (procedimiento):
1. Escriba el sistema en forma tabular.
2. Elimine los coeficientes del renglón en el cual aparece la
ecuación bajo consideración.
3. Elimine las columnas que corresponden a aquellos coeficientes
del punto anterior que son diferentes de cero.
4. Con los datos que quedan en la tabla, forme todas las matrices
posibles de orden M-1 y obténgase los determinantes
correspondientes.

Si es posible encontrar al menos un determinante


distinto de cero, la ecuación en cuestión estará
identificada.

141
Reglas para la identificación
 Ejemplo 7:

Y1t − 10 − 12Y2 t − 13Y3t −  11 X 1t = u1t (1.1)

Y2 t −  20 −  23Y3t −  21 X 1t −  22 X 2 t = u2 t (1.2)

Y3t −  30 −  31Y1t −  31 X 1t −  32 X 2 t = u3t (1.3)

Y4 t −  40 −  41Y1t −  42Y2 t −  43 − X 3t = u4 t (1.4)


Coeficientes de las variables Evaluación
Ecuación

1 (K-k) Vs. (m- Identificació


Y1 Y2 Y3 Y4 X1 X2 X3
1) n
1.1 −β10 1 −β12 −β13 0 −ϒ11 0 0 2=2 Exacta
1.2 −β20 0 1 −β23 0 −ϒ21 −ϒ22 0 1=1 Exacta
1.3 −β30 −β31 0 1 0 −ϒ31 −ϒ32 0 1=1 Exacta
1.4 −β40 −β41 −β42 0 1 0 0 −ϒ43 2=2 Exacta
142
Prueba de simultaneidad (Hausman)
 Pasos (Ejemplo 8):

Qt =  0 + 1 Pt +  2 I t +  3 Rt + u1t  Pt =  0 + 1 I t +  2 Rt + vt

Qt =  0 + 1 Pt + u2 t  Qt =  3 +  4 I t +  5 Rt + wt
1)Realice la siguiente regresión y obtenga la estimación de Pt y vt
Pt =  0 + 1 I t +  2 Rt + vt
2)Realice siguiente regresión y contraste la significancia β2.

Qt =  0 + 1 Pˆt +  2vˆt + u2t

143
Prueba de simultaneidad (Hausman)
• Naturaleza del problema.
– Determinar si la variable endógena Q esta correlacionada con el término de error v, a un
nivel de significancia α.

• Planteamiento de hipótesis.
– Ho: No hay simultaneidad
– Ha: Hay simultaneidad

• Estadístico de contraste.
ˆ2 −  2
t calculada =
ee( ˆ2 )
• Regla de decisión.
– Si │tcalculada│ > │tα/2;n-k│ ► Rechazo Ho
– Si Pvalue < α, ► Rechazo Ho

• Conclusión.
– Si rechazo Ho, hay problemas de simultaneidad a un nivel de significancia α.

En dicho caso no puede utilizarse MCO.


144
Métodos de estimación
 Métodos de información limitada (uniecuacionales):
cada ecuación del sistema se estima individualmente considerando
únicamente las restricciones impuestas sobre dicha ecuación, sin
preocuparse por las restricciones sobre otras ecuaciones del
sistema.

 Métodos de información completa (métodos de


sistemas): estiman todas las ecuaciones en el modelo de manera
simultánea, tomando en cuenta las restricciones existentes sobre
todas las ecuaciones del sistema.

145
Métodos de estimación
(uniecuacionales)

 Mínimos Cuadrados Ordinarios (MCO).


 Mínimos Cuadrados Indirectos (MCI).
 Mínimos Cuadrados en Dos Etapas (MC2E).

Son los más utilizados en la práctica debido a múltiples razones,


entre ellas: menores costos, carga computacional menor, evitan
trasmisión de errores de especificación al resto de las ecuaciones del
sistema.

146
Modelos recursivos y MCO
 Características:
➢No se produce correlación entre las variables explicativas y
las perturbaciones estocásticas.
➢No existe correlación entre los términos de perturbaciones
estocástica de las diferentes ecuaciones (cero correlación
contemporánea).
➢No hay interdependencia entre las variables endógenas, cada
ecuación presenta una dependencia causal unilateral.
➢Puede aplicarse MCO a cada ecuación en forma separada,
obteniendo estimadores insesgados y consistentes.

147
Modelos recursivos y MCO
 Ejemplo:

Y1t = 10 +  11 X 1t +  12 X 2 t + u1t

Y2 t =  20 +  21Y1t +  21 X 1t +  22 X 2 t + u2 t

Y3t =  30 +  31Y1t +  32Y2 t +  31 X 1t +  32 X 2 t + u3t

Y=variables endógenas; X=variables exógenas

Y1 afecta a Y2; Y2 no afecta a Y1


Y1 y Y2 afectan a Y3; Y3 no afecta a Y1 ni Y2

148
Estimación de una ecuación
exactamente identificada (MCI)
 Pasos:

1. Obtener las ecuaciones en forma reducida.

2. Aplicar MCO individualmente a las ecuaciones en forma


reducida.

3. Estimar los coeficientes estructurales a partir de los


coeficientes obtenidos de las ecuaciones reducidas.

149
Estimación de una ecuación
exactamente identificada (MCI)
 Ejemplo 10: Modelo Keynesiano (continuación ejemplo 6)
1.
Yt =  0 + 1 I t + vt (1.1)
 → Forma reducida
Ct =  2 + 3 I t + vt (2.1)
2. Los parámetros ∏ pueden ser estimados por MCO, ya que las
variables no están correlacionadas con el término de error.

0
0 = 2 = 0
(1 − 1 ) 0 =
1 1
1 =
(1 − 1 ) 3
1 =
1 1
3 =
150 (1 − 1 )
Estimación de una ecuación
exactamente identificada (MCI)

3. Estimación de coeficientes estructurales para Ct


Ct = ˆ0 + ˆ1Yt + uˆt
Ct = 2,37 + 0,96Yt + uˆt
151
Estimación de una ecuación
sobreidentificada (MC2E)
Considere el siguiente MES:
Y1t = 10 + + 11Y2t +  11 X 1t +  12 X 2t + u1t
Y2t =  20 +  21Y1t + u2t
La idea básica del MC2E consiste en “purificar” la variable explicativa
estocásticaY1, de la influencia de la perturbación estocástica u2.
 Etapas:
1) Realice la regresión de Y1 sobre todas las variables predeterminadas
en el sistema (para eliminar la correlación entreY1 y u2).
2) Reemplazar los Y1 de la ecuación original, por los Y1 estimados en la
etapa 1, para luego aplicar MCO a la ecuación así transformada.

152
Estimación de una ecuación
sobreidentificada (MC2E)
 Características del MC2E:
✓ Puede aplicarse a una ecuación individual en el sistema. Para
sistemas con muchas ecuaciones es un método económico.
✓ Proporciona solamente una estimación por parámetro en
ecuaciones sobreidentificadas, a diferencia del MCI.
✓ También se puede aplicar cuando existe identificación exacta
✓ Si R2 en las regresiones de la forma reducida son altos, las
estimaciones por MCO y MC2E serán muy cercanas. Si el R2 es
bajo, las estimaciones por MC2E carecen de significado.

153

También podría gustarte