Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1
Propósito de la asignatura
Ofrecer al estudiante un análisis introductorio de las
técnicas matemáticas y estadísticas aplicadas a la
investigación y verificación de las teorías económicas.
I. Introducción a la econometría.
II. El modelo clásico de regresión lineal.
III. Evaluación del modelo econométrico.
IV. Modelo de ecuaciones simultaneas.
4
Tema I: Introducción a la econometría
Objetivos específicos:
Teoría
Económica Matemática
Estadística
Teoría
Económica
Estadística Matemática
ECONOMETRÍA
Yt = 0 + 1 X1t + 2 X 2t + t
t ~ N (0 ; ) 2
10
Tema I: Introducción a la econometría
Metodología econométrica (ejemplo ilustrativo):
4) Obtención de los datos (muestra).
Tipo de serie, periodicidad, período:1, 2, 3, . . . n.
13
Tema I: Introducción a la econometría
Yt = 0 + 1 X 1t + 2 X 2t + 3 X 3t + ... + k X kt + t
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t
Y = Yˆ + ˆ
t t t
16 Econometria I, Prof. Angel Cova.
Tema I: Introducción a la econometría
Criterios de selección de un modelo:
1. Ser aceptable según los datos.
2. Ser consistente con la teoría.
3. Tener regresores débilmente exógenas.
4. Mostrar constancia paramétrica.
5. Exhibir coherencia en los datos.
6. Ser inclusivo.
La econometría como disciplina
Niveles de conocimiento previo, bondades y problemas, alcances y
limitaciones, coherencia entre la estadística y la teoría económica.
18
Análisis de regresión
Se trata del estudio de la dependencia de la variable
explicada, respecto a una o más variables (denominadas
explicativas), con el objetivo de estimar y/o predecir la
media o valor promedio poblacional de la primera en
términos de los valores fijos conocidos (en muestreo
repetido) de las últimas.
19
Términos y conceptos para aclarar
Establecer diferencias entre:
Análisis de regresión y análisis de correlación.
Análisis de regresión y análisis de causalidad.
20
Supuestos del MCRL
1. El modelo de regresión es lineal en los parámetros.
2. Los valores de X son fijos en muestreo repetido.
3. El valor medio de la perturbación (µt) es igual a cero.
4. Homoscedasticidad o igual varianza de µt.
5. No existe autocorrelación entre las perturbaciones.
6. La covarianza entre µty Xt es igual a cero.
7. El número de observaciones (n) debe ser mayor que el número
de parámetros por estimar.
8. Variabilidad en los valores de X.
9. El modelo de regresión esta correctamente especificado.
10. No hay multicolinealidad perfecta entre las variables
explicativas.
21
Especificación matricial del MCRL
Yt = 0 + 1 X 1t + 2 X 2t + 3 X 3t + ... + k X kt + t
Para t = 1, 2,..., n
Y1 = 0 + 1 X 11 + 2 X 21 + 3 X 31 + ... + k X k1 + 1
Y2 = 0 + 1 X 12 + 2 X 22 + 3 X 32 + ... + k X k 2 + 2
Y3 = 0 + 1 X 13 + 2 X 23 + 3 X 33 + ... + k X k 3 + 3
Y4 = 0 + 1 X 14 + 2 X 24 + 3 X 34 + ... + k X k 4 + 4
...............................................................................
Yn = 0 + 1 X 1n + 2 X 2 n + 3 X 3n + ... + k X kn + n
22
Especificación matricial del MRLC
Yt = 0 + 1 X 1t + 2 X 2t + 3 X 3t + ... + k X kt + t
Para t = 1, 2,..., n
Y1 1 X 11 X 21 X 31 ... X k1 0 1
Y 1
2 X 12 X 22 X 32 ... X k 2 1 2
Y3 1 X 13 X 23 X 33 ... X k 3 2 3
= * +
Y4 1 X 14 X 24 X 34 ... X k 4 3 4
... ... ... ... ... ... ... ... ...
Yn nx1 1 X 1n X 2n X 3n ... X kn nx ( k +1) k ( k +1) x1 n nx1
2) Var ( ) = E ( − E ( ) )( − E ( ) ) = E ( t )
t
2 0 0 ... 0 1 0 0 ... 0
0 1 0
0 2 0 ... 0 ... 0
Var ( ) = 0 0 2 ... 0 = 0 0 1
2
... 0 = 2 I
... ... ... ... ... ... ... ... ... ...
0 0 2 nxn 0 0 0 0 1 nxn
0 0
24 3) ~ N (0 ; 2 I )
Estimación por Mínimos
Cuadrados Ordinarios (MCO)
ˆ1
ˆ
n 2
Minimizar t
ˆ 2
ˆ t
ˆ = ˆ1 ˆ 2 ˆ 3 ... ˆ n (1xn ) ˆ 3
t =1
...
ˆ n
( nx1)
Dado que : Y( nx1) = X nx ( k +1) * ˆ( k +1) x1 + ˆ ( nx1)
Entonces : ˆ ( nx1) = Y( nx1) − X nx ( k +1) * ˆ( k +1) x1
ˆ = Y − Xˆ
ˆ t = (Y − Xˆ ) t
25 ˆ t ˆ = (Y − Xˆ )t (Y − Xˆ )
Estimación por Mínimos
Cuadrados Ordinarios (MCO)
ˆ t ˆ = (Y − Xˆ ) t (Y − Xˆ )
ˆ t ˆ = Y t − ( Xˆ ) t (Y − Xˆ )
ˆ ˆ = Y − ˆ X (Y − Xˆ )
t t t t
ˆ ˆ = Y Y − Y Xˆ − ˆ X Y + ˆ X
t t t t t t t
Xˆ
( ˆ t ˆ )
=0
ˆ
( ˆ t ˆ )
= −Y t X + ˆ t X t X = 0
ˆ
ˆ t X t X = Y t X
X t Xˆ = X tY
26 ˆ = ( X t X ) −1 X tY
Propiedades estadísticas de los
estimadores MCO
ˆ = ( X t X ) −1 X tY
ˆ = ( X t X ) −1 X t ( X + )
ˆ = ( X t X ) −1 X t X + ( X t X ) −1 X t
ˆ = + ( X t X ) −1 X t
1) E ( ˆ ) = E ( ) + ( X t X ) −1 X t E ( ) E ( ˆ ) =
2) Var ( ˆ ) = Var ( ) + Var ( X t X ) −1 X t
Var ( ˆ ) = ( X t X ) −1 X t Var ( ) ( X t X ) −1 X t t
Var ( ˆ ) = ( X t X ) −1 X t 2 I X ( X t X ) −1
Var ( ˆ ) = 2 ( X t X ) −1 X t X ( X t X ) −1 2 ( X t X ) −1
27
3) ˆ ~ N ; 2 ( X t X ) −1
Resumen de propiedades
(enfoque matricial)
Y = X + = Y − X FRP
Y = Xˆ + ˆ ˆ = Y − Xˆ FRM
ˆ = ( X t X ) −1 X tY MELI
1) E ( ) = 0 E ( ˆ ) =
2) Var ( ) = 2 I Var ( ˆ ) = 2 ( X t X ) −1
3) ~ N (0 ; 2 I )
ˆ ~ N ; 2 ( X t X ) −1
28
Interpretación de los estimadores de β
ˆi 0
Si la variable explicativa Xi aumenta en una unidad, la variable explicada Y aumenta
en promedio tantas unidades como indica el valor estimado de β, manteniendo constante
el resto de las variables explicativas.
ˆi 0
Si la variable explicativa Xi aumenta en una unidad, la variable explicada Y disminuye
en promedio tantas unidades como indica el valor estimado de β, manteniendo constante
el resto de las variables explicativas.
29
Condición de ortogonalidad
(enfoque matricial)
1) Y = Xˆ + ˆ ˆ = Y − Xˆ
Siendo Yˆ = Xˆ
2)Y = Yˆ + ˆ ˆ = Y − Yˆ
3) ˆ = ( X t X ) −1 X tY
4) ( X t X ) ˆ = X tY
5) X tY − ( X t X ) ˆ = 0
6) X t (Y − Xˆ ) = 0
30 7) X t ˆ = 0 X t ˆ = 0 Yˆ = Xˆ Y t ˆ = ˆ tY = 0
Explicación del promedio de la
variable dependiente (Y) en el MRLC
Yt = Yˆt + ˆ ; t = 1, 2,..., n
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt + ˆ t
( )
n n
t 0 1 1t 2 2t 3 3t
Y =
t =1
ˆ + ˆ X + ˆ X + ˆ X + ... + ˆ X + ˆ
t =1
k kt t
( )
n n n
t 0 1 1t 2 2t 3 3t
Y =
t =1
t =1
k kt t
ˆ + ˆ X + ˆ X + ˆ X + ... + ˆ X + ˆ
t =1
Dividiendo entre n :
Yt = ˆ0 + ˆ1 X 1t + ˆ2 X 2t + ˆ3 X 3t + ... + ˆk X kt
31
Suma de cuadrados: total,
explicada y de residuos
(Yt − Y ) = (Yˆt − Y ) + ˆ t
ˆ
(Yt − Y ) = (Yt − Y ) + ˆ t
2 2
(Yt − Y ) 2 = (Yˆt − Y ) 2 + 2(Yˆt − Y ) ˆ t + ˆ t2
32
Suma de cuadrados: total,
explicada y de residuos
(Y − Y ) = (Yˆ − Y ) + 2(Yˆ − Y ) ˆ + ˆ
t
2
t
2
t t t
2
t
(Y −
t =1
Y ) 2
= t
(Yˆ − Y ) 2
+ t
t =1
2(Yˆ − Y )
ˆ t
t =1
+ t
ˆ 2
t =1
n n n n n
t
(Y −
t =1
Y ) 2
= t
(Yˆ − Y ) 2
+ 2
t =1
t t t t
Yˆ
ˆ − 2Y
ˆ +
ˆ
t =1
2
t =1 t =1
n n n
(Yt − Y ) = (Yt − Y ) + t
33t =1
ˆ
2 2
ˆ
t =1
2
t =1
Los residuos y la bondad del ajuste: R2
n n n
(Y
t =1
t − Y ) = (Yˆt − Y ) + ˆ t2
2
t =1
2
t =1
STC = SEC + SRC
35
Forma funcional de los modelos
1. Modelo lineal.
2. Modelo log-lin (crecimiento).
3. Modelo lin-log.
4. Modelo log-log (logarítmico, elasticidad constante).
1) Yt = 0 + 1 X 1t + 2 X 2t + ... + k X kt + t
2) ln(Yt ) = 0 + 1 X 1t + 2 X 2t + ... + k X kt + t
3) Yt = 0 + 1 ln( X 1t ) + 2 ln( X 2t ) + ... + k ln( X kt ) + t
4) ln(Yt ) = 0 + 1 ln( X 1t ) + 2 ln( X 2t ) + ... + k ln( X kt ) + t
36
Los parámetros de acuerdo a la
forma funcional de los modelos
Yt Cambio absoluto en Y
Lineal i =
X it Cambio absoluto en X i
2) Modelo log-lin.
Para βi > 0; Xi aumenta (1 unidad);Y aumenta en porcentaje (βi*100).
Para βi < 0; Xi aumenta (1 unidad);Y disminuye en porcentaje (βi*100).
3) Modelo lin-log.
Para βi > 0; Xi aumenta (1%);Y aumenta (βi/100 unidades).
Para βi < 0; Xi aumenta (1%);Y disminuye (βi/100 unidades).
4) Modelo log-log.
Para βi > 0; Xi aumenta (1%);Y aumenta en porcentaje (βi %).
Para βi < 0; Xi aumenta (1%);Y disminuye en porcentaje (βi%).
38
Comparación entre modelos
utilizando la bondad de ajuste R2
Requisitos:
El mismo tamaño de la muestra (n).
La misma variable dependiente (Y).
E yx =
E yx = 1
40 0 X t e 1 t
Modelo log-lin
“Tasas de crecimiento”
Ct = C0 (1 + r ) t Intrínsecamente lineal
ln(Ct ) = ln C0 (1 + r ) t
ln(Ct ) = ln(C0 ) + ln (1 + r ) t
ln(Ct ) = ln(C0 ) + t ln(1 + r )
Asumiendo ln(C0 ) = 0 ; ln(1 + r ) = 1
ln(Ct ) = 0 + 1t
ln(Ct ) = 0 + 1t + t
ˆi − i
~ t n -k gl
ˆ
ee( )
Regla de decisión.
ˆi − i
~ t n -k gl
ˆ
ee( )
Regla de decisión.
Si t calculado t ;n − k Rechazo H 0
Conclusión.
Si rechazo Ho, Xi aporta información de forma individual para explicar a la variable Y , a un nivel de
significancia .
46
Contraste de hipótesis de
significancia global de la regresión
Yt = 0 + 1 X1t + 2 X 2t + ... + k X kt + t
Naturaleza del problema.
Determinar si las variables explicativas en conjunto explican el comportamiento de Y, a un
nivel de significancia .
Planteamiento de hipótesis.
Ho: β1=β2=β3=…=βk=0
Ha: Algún βi ≠ 0 Para todo i=1,2,…,k
Estadístico de contraste.
SEC /(k − 1) R 2 /(k − 1)
F=
SRC /(n − k ) (1 − R 2 ) /(n − k )
Regla de decisión.
Sea el modelo :
Yt = 0 + 1 X 1t + 2 X 2t + ... + k X kt + t
Se pueden plantear como restricciones :
( i = c); ( i = j ); ( i = − j ); ( i + j = c);
( i − j = c); ( i = c j )... y muchas más.
48 i j ; c = constante
Contraste de hipótesis para un conjunto de
restricciones lineales sobre los parámetros
Ejemplo1 :
Modelo no restringido
Yt = 0 + 1 X 1t + 2 X 2t + ... + k X kt + t SRCNR
Restricción lineal
1 + 2 = 1 1 = 1 − 2
Modelo Restringid o
Yt = 0 + (1 − 2 ) X 1t + 2 X 2t + ... + k X kt + t
Yt = 0 + X 1t − 2 X 1t + 2 X 2t + ... + k X kt + t
Yt − X 1t = 0 + 2 ( X 2t − X 1t ) + ... + k X kt + t
Yt = 0 + 2 ( X 2*t ) + ... + k X kt + t SRCR
*
49
Contraste de hipótesis para un conjunto de
restricciones lineales sobre los parámetros
Naturaleza del problema.
Determinar si la restricción lineal planteada es estadísticamente válida, a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: β1+β2=1
Ha: β1+β2 ≠ 1
Estadístico de contraste.
( SRCR − SRCNR ) / g
F=
SRCNR /(n − k )
Regla de decisión.
50
Estabilidad de los parámetros.
Contraste de estabilidad estructural
Para estudiar este problema se aplica la prueba de estabilidad de los parámetros
conocida como Test de Chow, el cual consiste en lo siguiente:
1. Asumiendo que se dispone de n observaciones, se realiza una regresión del
modelo planteado con todas las n observaciones y se obtiene SRC.
2. Se divide la muestra de n observaciones en tantas sub-muestras (sub-períodos)
como considere necesario el investigador, digamos m sub-muestras.
3. Se realiza una regresión del modelo planteado para cada sub-muestra, de las cuales
se obtienen SRCi, i=1,2,…,m.
4. Se calcula el siguiente estadístico:
m
( SRC − SRCi ) /(m − 1)k
F= m
i =1
SRC /(n − mk )
i =1
i
51
Estabilidad de los parámetros
Contraste de estabilidad estructural
Naturaleza del problema.
Determinar si hay cambios en los valores de los parámetros en el tiempo, a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: No hay cambios en los valores de los parámetros.
Ha: Hay cambios en los valores de los parámetros.
Estadístico de contraste.
m
( SRC − SRCi ) /(m − 1)k
F= m
i =1
SRC
i =1
i /(n − mk )
Regla de decisión.
Conclusión.
Si rechazo Ho, hay cambios en los valores de alguno de los parámetros en el tiempo, a un nivel
52 de significancia .
Predicción en el modelo lineal.
El objetivo consiste en predecir un conjunto de valores de “Y” que
están fuera de la muestra original (n). Dicho concepto puede verse
expresado a continuación:
Yn +1 1 X 1; n +1 X 2; n +1 X 3; n +1 ... X k ; n +1 0 n +1
Y 1 X
n+2 X 2; n + 2 X 3; n + 2 ... X k ; n + 2
n+2
1; n + 2 1
Yn +3 1 X 1; n +3 X 2; n + 3 X 3; n +3 ... X k ; n +3 2 n +3
= * +
n+4
Y 1 X 1; n + 4 X 2; n + 4 X 3; n + 4 ... X k ; n + 4
3
n+4
... ... ... ... ... ... ... ... ...
Yn + g gx1 1 X 1; n + g X 2; n + g X 3; n + g ... X k ; n + g
gx ( k +1) k ( k +1) x1 n + g gx1
Matricialmente Yp = X p * + p
53
Predicción en el modelo lineal.
Contraste de fallo predictivo
Naturaleza del problema.
Determinar si el modelo estimado es bueno para realizar pronóstico, a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: Yp= Xpβ+µp ; µp~N(0,σ2Ig)
Ha: Yp≠ Xpβ+µp
Estadístico de contraste.
( SRCD + g − SRCD ) / g
F=
SRCD /(n − k )
Regla de decisión.
Conclusión.
Si rechazo Ho, el modelo estimado no es bueno para realizar pronóstico, a un nivel de
54 significancia .
UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova
Tema III: Evaluación
del Modelo Econométrico.
55 55
Profesor: Angel Cova
Criterios de selección de un modelo
56 56
Evaluación de los supuestos en el
Modelo de Regresión Lineal Clásico
57 57
Violación de los supuestos en el
Modelo de Regresión Lineal Clásico
58 58
Especificación del modelo
y pruebas de diagnóstico
59 59
Tipos de errores de especificación.
60 60
Omitir variables relevantes
Modelo correcto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 5 X 5t + 1t
Modelo incorrecto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 2t
Variable omitida:
X5t
Termino de error:
2t = 1t + 5 X 5t
61 61
Incluir variables innecesarias
Modelo correcto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 1t
Modelo incorrecto:
Yt = 1 + 2 X 2t + 3 X 3t + 4 X 4t + 5 X 5t + 2t
Variable innecesaria:
X5t
Termino de error:
2t = 1t − 5 X 5t
62 62
Consecuencias
63 63
Ejercicio de la demanda de pollos
X5: Precio real compuesto de los sustitutos del pollo por libra ($)
64 64
Omisión de una variable relevante
Modelo correcto:
Yt = 0 + 1 X1t + 2 X 2t + 3 X 5t + 1t
Modelo incorrecto:
Yt = 0 + 1 X 2t + 2 X 5t + 2t
Variable omitida:
X1t
65 65
Variable omitida (X1)
66 66
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si la variable X1 es relevante (contribuye al modelo) a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: se omitió la variable X1 siendo irrelevante.
Ha: se omitió la variable X1 siendo relevante.
Conclusión.
Si rechazo Ho, debo incluir la variable X1 al modelo a un nivel de
significancia α.
67 67
Variable omitida (X1)
68 68
Inclusión de una variable innecesaria
Modelo correcto:
Yt = 0 + 1 X1t + 2 X 2t + 1t
Modelo incorrecto:
Yt = 0 + 1 X1t + 2 X 2t + 3 X 5t + 2t
Variable innecesaria:
X5t
69 69
Variable innecesaria (X5)
70
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si la variable X5 es necesaria (contribuye al modelo) a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: la variable X5 es innecesaria.
Ha: la variable X5 es necesaria.
Conclusión.
Si rechazo Ho, debo dejar la variable X5 en el modelo a un nivel de
significancia α.
71 71
Variable innecesaria (X5)
72 72
La prueba RESET de Ramsey
73 73
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si el modelo esta correctamente especificado a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: modelo correctamente especificado.
Ha: modelo incorrectamente especificado.
Estadístico de contraste.
( SRCR − SRCNR ) / g
Fcalculada =
Regla de decisión. SRCNR /(n − k )
Si Fcalculada > Fcrítica, ► Rechazo Ho
Si Pvalue < α, ► Rechazo Ho
Conclusión.
Si rechazo Ho, entonces el modelo esta mal especificado a un nivel de
significancia α.
74 74
Modelo lineal (incorrecto)
75 75
Modelo logarítmico (correcto)
76 76
Multicolinealidad
77 77
Fuentes de la multicolinealidad
El método de recolección de información
empleado (un fenómeno muestral).
Restricciones en el modelo ó en la población
objeto de muestreo.
Especificación del modelo.
Un modelo sobredeterminado (k > n)
Tendencia común en las regresoras.
78
Naturaleza de la multicolinealidad
Relación lineal exacta:
1 X 1t + 2 X 2t + 3 X 3t + ... + k X kt = 0
Relación lineal inexacta:(baja, moderada, alta)
1 X 1t + 2 X 2t + 3 X 3t + ... + k X kt + Vt = 0
No hay relación lineal:
Cor(Xi, Xj) = 0 para todo i ≠ j
79
Estimación y multicolinealidad
Colinealidad perfecta:
No se pueden calcular los estimadores MCO (son
indeterminados) y sus errores estándar son infinitos.
Colinealidad no perfecta:
Se pueden calcular los estimadores MCO, pero no se
pueden interpretar.
Se mantiene la propiedad de insesgamiento y de
eficiencia (varianza mínima), pero los errores estándar
son grandes en relación con el valor de los estimadores
y por ende pequeños valores t (lo que conduce a no
poder rechazar la Ho de que i = 0)
80
Advertencias sobre la multicolinealidad
La multicolinealidad es un problema de grado y no
de clase.
Es por lo general una característica de la muestra y
no de la población.
Aun cuando los coeficientes son no significativos
individualmente, una combinación lineal de ellos
puede resultar eficiente si el objetivo es el
pronóstico.
81
Detección del problema
Un valor alto del R2 acompañado de estadísticos t
poco significativos.
Altas correlaciones simples entre parejas de
regresores.
Examen de correlaciones parciales.
Regresiones auxiliares (regla práctica de Klien).
Factores de tolerancia y de inflación de varianza
(investigar).
82
R2 alto y pocas t significativas
83
Análisis de correlaciones simples
84
Regresiones auxiliares (X1)
85
Regresiones auxiliares (X2)
86
Regresiones auxiliares (X3)
87
Regresiones auxiliares (X4)
88
Regresiones auxiliares (X5)
89
Medidas correctivas
No hacer nada (posible problema de deficiencia de datos,
micronumerosidad)
Información a priori (si conozco la relación que existe entre
las variables, planteo modelo restringido por dicha
relación).
Combinación de información de corte transversal y de
series de tiempo (mezcla de datos).
Eliminación de variables (sesgo de especificación).
Transformación de variables (1eras diferencias) o
transformación de razón (términos per cápita, términos
reales) por aquello de la tendencia común.
Datos nuevos o adicionales (midiendo la sensibilidad y los
cambios en los errores estándar).
Regresiones polinomiales.
90
Heteroscedasticidad
91 91
Naturaleza de la heteroscedaticidad
Si la varianza condicional de μi (dado Xi) aumenta en la
medida que aumenta Xi, entonces se evidencia un problema
de heteroscedasticidad.
92
El problema de heteroscedasticidad
Consecuencias:
Los estimadores continúan siendo lineales, insesgados y
consistentes pero no son eficientes.
Detección:
Naturaleza del problema (series de corte transversal).
Método grafico (diagrama de dispersión entre los residuos
al cuadrado y los valores estimados de Y).
Prueba de Park (método exploratorio).
Prueba general de White.
93
Método gráfico
94
Prueba de Park
Park sugiere que la varianza heteroscedastica es una
función de la variable explicativa X que se expresa por:
i2 = 2 X i e v
i
Aplicando ln :
ln i2 = ln 2 + ln X i + vi
Como i2 no se conoce, Park sugiere :
ln ˆ i2 = ln 2 + ln X i + vi
Lo que se puede escribir :
ln ˆ i2 = + ln X i + vi
Si β ≠ 0 => hay heteroscedasticidad.
95
Prueba de Park
96
Prueba general de White (pasos)
Ejemplo con un modelo de 3 variables (si aumenta el número de variables, esta
prueba consume grados de libertad rápidamente)
ˆ t2 = 0 + 1 X 1t + 2 X 2t + 3 X 12t + 4 X 22t + vt
Con términos cruzados (prueba de heteroscedasticidad y de sesgo de
especificación)
ˆ t2 = 0 + 1 X 1t + 2 X 2t + 3 X 12t + 4 X 22t + 5 X 1t X 2t + vt
Bajo la hipótesis nula de que no hay heteroscedasticidad, n* R2 obtenidos de la
regresión auxiliar, asintóticamente sigue la distribución Ji-cuadrada con k gl
(parámetros de la de regresión auxiliar sin incluir el intercepto).
n* R2 ~χ2k gl
97
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si los residuos (μi) son homoscedasticos a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: No hay heteriscedasticidad => (1 = 2 = 3 = 4 = 5 = 0)
Ha: Hay heteroscedasticidad => (algún i ≠ 0)
Estadístico de contraste.
n* R2 ~χ2k gl
Regla de decisión.
Si n* R2 >χ2k gl, ► Rechazo Ho
Si Pvalue < α, ► Rechazo Ho
Conclusión.
Si rechazo Ho, hay problemas de heteroscedasticidad a un nivel de
significancia α.
98 98
Sin términos cruzados
99
Con términos cruzados
100
Medidas correctivas
Método de mínimos cuadrados ponderados (MCP).
Cuando la varianza heteroscedastica es conocida:
Yt 1 X X t
= 0 + 1 1t + 2 2t +
i i i i i
Cuando la varianza heteroscedastica es desconocida:
Yt 1 X X t
= 0 + 1 1t + 2 2t +
wi wi wi wi wi
Donde wi puede ser: Xi, √Xi, E(Yi) dependiendo del patrón observado.
ln Yt = 0 + 1 ln X 1t + 2 ln X 2t + t
101
Prueba para los modelos lineal y
logarítmico
102
Autocorrelación
103 103
Naturaleza del problema
Simbólicamente se expresa: E(μiμj) ≠ 0 para i ≠ j
Detección:
Método grafico
Residuos respecto al tiempo.
Residuos estandarizados respecto al tiempo.
Residuos y residuos rezagados (diagrama de
dispersión).
Prueba “d” de Durbin- Watson.
105
Análisis gráfico de los residuos
(Yt = β0 + β1X1t + βX2t + μt)
106
Prueba “d” de Durbin- Watson.
Supuestos:
El modelo de regresión incluye el intercepto.
Las variables explicativas “X” son no estocásticas.
La perturbaciones se generan mediante un esquema
autorregresivo de 1er orden (μt = ρμt-1 + εt), no se
puede utilizar para esquemas de orden superior.
El término de error está normalmente distribuido.
El modelo de regresión no incluye valores rezagados
de la variable dependiente como variable explicativa.
No hay observaciones faltantes en los datos.
107
Prueba “d” de Durbin- Watson.
t =n t =n t =n t =n
t t −1
(
ˆ −ˆ ) 2
t t −1 −2 ˆ t ˆ t −1
ˆ 2
+
ˆ 2
d= t =2
t =n
t =2 t =2
t =n
t =2
t
ˆ 2
t =1
t
ˆ 2
t =1
t =n
ˆ t ˆ t −1
− 1 ˆ 1
d 21 − t = 2t = n d 2(1 − ˆ )
0d 4
t =1
ˆ t
2
108
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si los residuos (μi) están correlacionados a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: No hay autocorrelación en los residuos.
Estadístico de contraste.
Durbin- Watson (d)
Regla de decisión.
Si 0 < d < dl => se evidencia autocorrelación positiva (ZR)
Si dl d du => sin decisión (ZI)
Si du < d < 4 - du => no hay autocorrelación (ZA)
Si 4 - du d 4 - dl => sin decisión (ZI)
Si 4 - dl < d < 4 => se evidencia autocorrelación negativa (ZR)
109 109
Prueba “d” de Durbin- Watson.
Modelo lineal Modelo logarítmico
110
Medidas correctivas
Mínimos cuadrados generalizados
Si es conocida
(Yt − Yt −1 ) = 0 (1 − ) + 1 ( X 1t − X 1t ) + 2 ( X 2t − X 2t ) + t
111
Medidas correctivas
En niveles 1eras diferencias
112
Normalidad
113 113
Supuesto de normalidad
La regresión lineal normal clásica supone que cada μi esta
normalmente distribuida con media, varianza y covarianza:
E ( i ) = 0
E i − E ( i ) = E ( i2 ) = 2
2
E i − E ( i ) j − E ( j ) = E ( i , j ) = 0 i j
i ~ NID(0, ) 2
114
Razones del supuesto de normalidad
μi representa las variables explicativas que no forman parte
del modelo de regresión, se espera que su influencia en la
variable explicada sea pequeña y de forma aleatoria. Por
Teorema del Límite Central (TLC) se demuestra que la
distribución de la suma de un gran número de variables
aleatorias independientes e idénticamente distribuidas
tiende a una normal a medida que aumenta el número de
variables indefinidamente .
Como los estimadores MCO son una función lineal de μi,
entonces también siguen una distribución normal, lo que
implica pruebas de hipótesis mas sencillas.
Además, permite utilizar las pruebas estadisticas: t, F y χ2.
115
Contraste de hipótesis (pasos)
Naturaleza del problema.
Determinar si los residuos (μi) están normalmente distribuidos a un nivel de
significancia .
Planteamiento de hipótesis.
Ho: μi se distribuye normalmente.
Ha: μi no se distribuye normalmente.
Estadístico de contraste.
Prueba asintótica o de muestras grandes:
Regla de decisión. S 2 ( K − 3) 2
Si JB >χ22gl, ► Rechazo Ho
Jarque − Bera JB = n +
Si Pvalue < α, ► Rechazo Ho
6 24
Conclusión.
Si rechazo Ho, los residuos no se distribuyen normalmente a un nivel de
significancia α.
116 116
Residuos del modelo lineal
117
Residuos del modelo logarítmico
118
UCV-FACES-ECONOMÍA
ECONOMETRÍA I, Semestre 2-2022
Profesor: Angel Cova
119
Naturaleza de los Modelos
de Ecuaciones Simultáneas (MES)
Uniecuacional. • Multiecuacional.
• Problema de identificación,
Estimación por MCO.
estimación por otros métodos.
Y: variable dependiente.
• Y1t,Y2t Variables endógenas.
X: variables independientes.
• X1t Variable exógena.
121
Ejemplo 1: Modelo
de oferta y demanda.
El precio “P” de un bien y sus cantidades vendidas “Q”, están determinadas
por la intersección de las curvas de oferta (Qs) y de demanda(Qd):
Ct = 0 + 1Yt +u t 0 1 1 (1)
Yt = Ct + I t (2)
123
Ejemplo 3: Modelo
Salario-Precio.
En este caso la variable P ingresa en ecuación de W, y la variable W
ingresa en ecuación de P (mutuamente dependientes), por lo que se
espera que dichas variables estén correlacionadas con las perturbaciones
estocásticas correspondientes.
125
Inconsistencia y sesgo
de los estimadores MCO
En los MES las variables endógenas de una ecuación pueden
participar como variable explicativa en otra ecuación del
sistema. En este sentido, los estimadores obtenidos por MCO
seran:
−Inconsistentes: el límite de probabilidad del estimador no
tiende hacia el verdadero valor poblacional (parámetro) a
medida que aumenta el tamaño de la muestra (n).
−Sesgados: el valor esperado del estimador no coincide con el
parámetro poblacional indistintamente del tamaño de la
muestra.
126
Notación y definiciones
Variables:
Endógenas (estocásticas): son variables conjuntamente
dependientes y sus valores se determinan dentro del modelo. Se
denotan por: M = Y1,Y2,Y3, …,YM
127
Notación y definiciones
Ecuaciones:
Forma estructural o de comportamiento: muestra la estructura
original del modelo (de acuerdo a la teoría) o comportamiento
del agente económico manera explícita.
Forma reducida: muestra a una variable endógena en función de
las variables predeterminadas, más el término de error. Se
obtienen a partir de las ecuaciones estructurales.
128
Notación y definiciones
Parámetros o coeficientes:
Estructurales: miden relaciones económicas o de
comportamiento en el modelo estructural.
De forma reducida (de impacto o corto plazo): son los
coeficientes correspondientes a las ecuaciones en forma
reducida y miden el impacto inmediato de un cambio unitario
del valor de la variable exógena sobre la variable endógena.
129
Ejemplo 5: Notación y definiciones
Sea el modelo de oferta y demanda
Q = 0 + 1 Pt +u1t
t
d
Modelo en forma estructural
Qt = 0 + 1 Pt +u 2t
s
i i ; i = 0, 1 → Parámetros estructurales
Condición de equilibrio:
Q =Q
t
d
t
s
130
Ejemplo 5: Notación y definiciones
Se obtiene:
P = 0 +vt
Modelo en forma reducida
Q = 1 + wt
0 − 0 1 0 − 0 1
0 = ; 1 = → Coeficientes de impacto
1 − 1 1 − 1
u2t − u1t 1u2t − 1u1t
vt = ; wt = → términos de error
1 − 1 1 − 1
131
Ejemplo 6: Notación y definiciones
Modelo Keynesiano de determinación del ingreso (continuación)
Sustituyo (1) en (2) : Sustituyo (2) en (1) :
Yt = ( 0 + 1Yt + ut ) + I t Ct = 0 + 1 (Ct + I t ) + ut
Yt − 1Yt = 0 + I t + ut Ct = 0 + 1Ct + 1 I t + ut
(1 − 1 )Yt = 0 + I t + ut (1 − 1 )Ct = 0 + 1 I t + ut
0 1 ut 0 1 ut
Yt = + It + Ct = + It +
(1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 )
0 1 0 1
Si : 0 = 1 = Si : 2 = 3 =
(1 − 1 ) (1 − 1 ) (1 − 1 ) (1 − 1 )
ut ut
vt = vt =
(1 − 1 ) (1 − 1 )
Obtengo la sig. ecuación reducida Obtengo la sig. ecuación reducida
Yt = 0 + 1 I t + vt (1.1) Ct = 2 + 3 I t + vt (2.1)
132
Problema de identificación
Objetivo: determinar si las estimaciones numéricas
de los parámetros de una ecuación estructural
pueden obtenerse a partir de los coeficientes
estimados de la forma reducida.
133
Problema de identificación
¿Los coeficientes estructurales pueden ser obtenidos a
partir de los coeficientes estimados de la forma
reducida?
SI: No:
Ecuación Ecuación no
identificada identificada
134
Problema de identificación
Sub identificación: No se pueden estimar los parámetros
estructurales a partir de los coeficientes estimados de la forma
reducida. Ejemplo:
0 − 0 1 0 − 0 1
0 = 1 =
1 − 1 1 − 1
4 coeficientes estructurales vs 2 coeficientes de impacto.
135
Problema de identificación
Identificación exacta: Pueden obtenerse valores únicos de los
parámetros estructurales a partir de los coeficientes estimados de la
forma reducida . Ejemplo:
Qt = 0 + 1Pt + 2 I t + u1t Pt = 0 + 1 I t + 2 Pt −1 + vt
Qt = 0 + 1Pt + 2 Pt −1 + u2 t Qt = 3 + 4 I t + 5 Pt −1 + wt
0 − 0 2 2 u2 t − u1t
0 = 1 = 2 = vt =
1 − 1 1 − 1 1 − 1 1 − 1
1 0 − 0 1 2 1 1 2 1u2 t − 1u1t
3 = 4 = − 5 = wt =
1 − 1 1 − 1 1 − 1 1 − 1
Qt = 0 + 1Pt + 2 I t + 3 Rt + u1t Pt = 0 + 1 I t + 2 Rt + 3 Pt −1 + vt
Qt = 0 + 1Pt + 2 Pt −1 + u2 t Qt = 4 + 5 I t + 6 Rt + 7 Pt −1 + wt
0 − 0 2 3 2 u2 t − u1t
0 = 1 = 2 = − 3 = vt =
1 − 1 1 − 1 1 − 1 1 − 1 1 − 1
1 0 − 0 1 2 1 31 1 2 1u2t − 1u1t
4 = 5 = − 6 = − 7 = wt =
1 − 1 1 − 1 1 − 1 − 1 1 − 1
7 coeficientes estructurales vs 8 coeficientes de impacto.
137
Reglas para la identificación
Notación:
M = N° de variables endógenas en el modelo.
m = N° de variables endógenas en una ecuación.
K = N° de variables predeterminadas en el modelo.
k = N° de variables predeterminadas en una ecuación.
Reglas:
Condición de orden(necesaria pero no suficiente).
Condición de rango.
138
Reglas para la identificación
• Condición de orden (necesaria pero no suficiente):
En un modelo de M ecuaciones simultáneas, para que una
ecuación esté identificada debe excluir al menos M-1
variables (endógenas y predeterminadas) que aparecen en el
modelo.
Variables Excluidas
Ecuación (K-k) Vs. (m-1)
(VE)
Subidentificada VE < (M-1) (K-k) < (m-1)
Identificación exacta VE = (M-1) (K-k) = (m-1)
Sobreidentificada VE > (M-1) (K-k) > (m-1)
139
Reglas para la identificación
Condición de rango (concepto):
En un modelo que contiene M ecuaciones en M variables
endógenas, una ecuación esta identificada si y solo si puede
construirse por lo menos un determinante diferente de cero,
de orden (M-1)(M-1), a partir de los coeficientes de las
variables (endógenas y predeterminadas) excluidas de esa
ecuación particular, pero incluidas en las otras ecuaciones del
modelo.
140
Reglas para la identificación
Condición de rango (procedimiento):
1. Escriba el sistema en forma tabular.
2. Elimine los coeficientes del renglón en el cual aparece la
ecuación bajo consideración.
3. Elimine las columnas que corresponden a aquellos coeficientes
del punto anterior que son diferentes de cero.
4. Con los datos que quedan en la tabla, forme todas las matrices
posibles de orden M-1 y obténgase los determinantes
correspondientes.
141
Reglas para la identificación
Ejemplo 7:
Y2 t − 20 − 23Y3t − 21 X 1t − 22 X 2 t = u2 t (1.2)
Qt = 0 + 1 Pt + 2 I t + 3 Rt + u1t Pt = 0 + 1 I t + 2 Rt + vt
Qt = 0 + 1 Pt + u2 t Qt = 3 + 4 I t + 5 Rt + wt
1)Realice la siguiente regresión y obtenga la estimación de Pt y vt
Pt = 0 + 1 I t + 2 Rt + vt
2)Realice siguiente regresión y contraste la significancia β2.
143
Prueba de simultaneidad (Hausman)
• Naturaleza del problema.
– Determinar si la variable endógena Q esta correlacionada con el término de error v, a un
nivel de significancia α.
• Planteamiento de hipótesis.
– Ho: No hay simultaneidad
– Ha: Hay simultaneidad
• Estadístico de contraste.
ˆ2 − 2
t calculada =
ee( ˆ2 )
• Regla de decisión.
– Si │tcalculada│ > │tα/2;n-k│ ► Rechazo Ho
– Si Pvalue < α, ► Rechazo Ho
• Conclusión.
– Si rechazo Ho, hay problemas de simultaneidad a un nivel de significancia α.
145
Métodos de estimación
(uniecuacionales)
146
Modelos recursivos y MCO
Características:
➢No se produce correlación entre las variables explicativas y
las perturbaciones estocásticas.
➢No existe correlación entre los términos de perturbaciones
estocástica de las diferentes ecuaciones (cero correlación
contemporánea).
➢No hay interdependencia entre las variables endógenas, cada
ecuación presenta una dependencia causal unilateral.
➢Puede aplicarse MCO a cada ecuación en forma separada,
obteniendo estimadores insesgados y consistentes.
147
Modelos recursivos y MCO
Ejemplo:
Y2 t = 20 + 21Y1t + 21 X 1t + 22 X 2 t + u2 t
148
Estimación de una ecuación
exactamente identificada (MCI)
Pasos:
149
Estimación de una ecuación
exactamente identificada (MCI)
Ejemplo 10: Modelo Keynesiano (continuación ejemplo 6)
1.
Yt = 0 + 1 I t + vt (1.1)
→ Forma reducida
Ct = 2 + 3 I t + vt (2.1)
2. Los parámetros ∏ pueden ser estimados por MCO, ya que las
variables no están correlacionadas con el término de error.
0
0 = 2 = 0
(1 − 1 ) 0 =
1 1
1 =
(1 − 1 ) 3
1 =
1 1
3 =
150 (1 − 1 )
Estimación de una ecuación
exactamente identificada (MCI)
152
Estimación de una ecuación
sobreidentificada (MC2E)
Características del MC2E:
✓ Puede aplicarse a una ecuación individual en el sistema. Para
sistemas con muchas ecuaciones es un método económico.
✓ Proporciona solamente una estimación por parámetro en
ecuaciones sobreidentificadas, a diferencia del MCI.
✓ También se puede aplicar cuando existe identificación exacta
✓ Si R2 en las regresiones de la forma reducida son altos, las
estimaciones por MCO y MC2E serán muy cercanas. Si el R2 es
bajo, las estimaciones por MC2E carecen de significado.
153