Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DOCENCIA
ECONOMETRÍA
Por: Germán Acuña, Ph. D.
Mayo 2017
1
ECONOMETRÍA
Capítulo I
INTRODUCCIÓN
Frisch (1936), en su artículo “Note on the term Econometrics” dice que Pawel
Ciompa utilizó el 1910 por primera vez el término “econometría” en la fundación
de la Sociedad de Econometría, indicando que en el desarrollo de la teoría
económica debe soportarse mediante la utilización del análisis estadístico y
matemático.
2
3.- Klein (1962): 'El principal objetivo de la econometría es dar contenido
empírico al razonamiento a priori de la economía.'
3
Cuadro 1: Econometría =Teoría económica + Estadística +
Matemáticas
TEORIA
HECHOS
ECONOMICA
MODELO DATOS
METODOS
ECONOMÉTRICO DEPURADOS
ECONOMÉTRICOS
ANÁLISIS EVALUACIÓN
PROYECCIÓN
POLÍTICA
ESTRUCTURAL
4
1.2 Modelo y método econométrico
5
3.- El output o utilización del modelo tendrá desviaciones sobre los
objetivos del proyecto investigador, por lo que será necesario una revisión
continua del proceso.
6
En econometría se manejan tres clases de datos:
1. Series de tiempo
2. Corte transversal
3. Datos en panel
7
4. Simular los efectos sobre la variable Yt+k , los cambios
estratégicos de las variables independientes.
Ejemplo:
El efecto que se produce en las ventas dado el cambio de precios y
aumento del gasto en publicidad.
Modelo: Ventast+k = β1 + β2 Precio + β3 Publicidad.
8
Capítulo II
MODELO DE REGRESION LINEAL GENERAL
9
Donde:
“i” : indica n observaciones muéstrales y puede ser: i = 1,2,…, n.
Ui : son los residuos o estimación del error (ε) desconocidos que es difícil
de encontrar y corresponden a las diferencias entre el valor original de las
observaciones de la variable Y y el valor estimado: y – ŷi .
Con base en lo anterior algo fundamental del modelo son las siguientes
expresiones:
yˆi 0 1xi
yi 0 1 xi i
10
Gráfica 1. Gráfico de dispersión
11
Cuando el modelo contiene dos o más variables exógenas se llama
Modelo de Regresión Lineal Múltiple, ejemplo el consumo de los hogares (C )
puede contener variables explicativas como el ingreso de las familias (I) y el
precio de los productos (P), etc.
2.6 Linealidad
Cuando en un modelo se habla de linealidad, se refiere a sus variables o
a sus parámetros. En el modelo de regresión lineal, nos referiremos a la
linealidad de los parámetros, que son los que se van a estimar para obtener la
Función de Regresión Poblacional (FRP), a partir de la Función de Regresión
Muestral (FRM).
12
Donde el apóstrofe “^” significa que son estimadores de los parámetros
poblacionales a partir de la muestra. Ahora, si la función de regresión muestral es
estocástica la “i”, representa el tiempo, como también puede ser espacial y la Ei
representa una perturbación o innovación.
Ui ( y
i 1 i 1
i yˆ i )
Para que la sumatoria sea diferente de cero y anule el efecto del error, se
adopta el criterio del Mínimo Cuadrado Ordinario (MCO), que consiste en la
Suma del Cuadrado del Error (SCE), por tanto, la FRM puede anotarse de la
siguiente forma para hacerla lo más pequeña posible:
13
n n n
U
i 1
i
2
( yi yˆ i ) ( yi ˆ1 ˆ2 xi ) 2
i 1
2
i 1
A partir de los MCO se escoge el parámetro ̂i , de tal modo que para
U
i 1
i
2
( yi ˆ1 ˆ2 xi ) 2
i 1
Derivando respecto a
ˆ1 y ˆ2 , tenemos:
Uˆi2
( yi ˆ1 ˆ2 xi ) 2
1
ˆ
2( y ˆ x )(1)
= i 1 2 i
=
2( yi ˆ1 2 xi )(1) 0 , Uˆ 0
i
14
Igualamos la derivada a cero (0) y multiplicamos todo por (-1), así
cambiamos el signo (- ) y eliminamos el número 2.
Entonces: (1)
(2)
Obtenemos lo siguiente:
15
, variables en desviaciones
respecto a la media. Es el estimador puntual.
pues
del y observado
como entonces:
16
5. Los residuos no están correlacionados con xi
17
econometría cuando se busca la validez de un modelo no es tanto desde el
punto de vista estadístico, sino como es el comportamiento y su validez a
nivel económico.
Es por ello que científicos economistas consideran que un modelo
econométrico puede ser bueno desde el punto de vista económico, puesto que
funciona, mas no desde el punto de vista estadístico, como el caso de no
cumplir con ciertos supuestos de idoneidad por ejemplo la multicolinealidad.
Sin embargo, no quiere decir esto que un modelo no deba cumplir con ciertos
requisitos de idoneidad para poderlo validar, por ejemplo el famoso teorema de
GAUSS-MARKOV. Pruebas de idoneidad del modelo, que desarrollamos en un
aparte especial.
1. Supuesto de normalidad
Yi ~ N ( βo + β1 xi ; б2 ) ; donde б2 = V (Yi ), i
1 = E ( ̂i ) = β1
18
xi x
б ; donde εi =
( xi x ) 2
2
Varianza: V ( β1 ) = i i
2. Supuesto de Homocedasticidad
σ =σ σ = σ
2
2 2 2
1
2 =… n
2
Y x
.79 679
.44 292
.56 1012
.79 493
2.70 582
3.64 1156
4.73 997
9.50 2189
5.34 1097
19
6.85 2078
5.84 1818
5.21 1700
3.25 747
4.43 2030
3.16 1643
.50 414
.17 354
1.88 1276
.77 745
3.70 795
.56 540
1.56 874
2.28 1543
.64 1029
4.00 710
.31 1434
4.20 837
4.88 1748
3.48 1381
7.58 1428
2.63 1255
4.99 1777
.59 370
8.19 2316
4.79 1130
.51 463
1.74 770
4.10 724
20
3.94 808
.96 790
3.29 783
.44 406
3.24 1242
2.14 658
5.71 1746
4.12 895
1.90 1114
.51 413
8.33 1787
14.94 3560
21
Ahora vamos a mirar si ambas variables (x,Y) están correlacionadas, es
decir si existe entre ellas un grado de asociación lineal.
22
Como se puede observar gráficamente o método no formal, hay fuerte
asociación lineal; claro, desde el punto de vista matemático.
Yi = A + B*xi + Ei i= 1,2, …, 50
Y x
Y Correlación de 1 ,8
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
x Correlación de ,8 1
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
23
Correlaciones
Y x
Y Correlación de 1 ,8
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
x Correlación de ,8 1
**
Pearson 36
Sig. (bilateral) ,0
00
N 5 5
0 0
**. La correlación es significativa al nivel 0,01
(bilateral).
24
transversal puesto que se ejecutó en un solo periodo de tiempo y en un mismo
lugar o espacio.
25
Como se puede observar en el diagrama de dispersión, la observación #
50, es decir el dato número 50, a pesar de que posee una relación lineal con el
resto de la información, éste está muy distante de los demás y por lo tanto
puede estropear la estimación de los parámetros del modelo y alejarnos de la
realidad que nos brinda el experimento aleatorio.
26
Primero que todo se quiere estimar los parámetros, A y B. Para esto es
necesario validar la información reflejado en la variación que ofrece la variable
dependiente, Y, a la parte predictiva o de regresión, y a la parte aleatoria cual
es las perturbaciones que en nuestro caso toman el nombre de residuales. En
otras palabras es saber hasta qué punto el modelo brinda unos estimadores
que tenga la propiedad de eficiencia, es decir en varianza mínima. Y para ello
se logra mediante la técnica de análisis de varianza, que en términos generales
es comparar mediante un estadístico, Fo, la relación en variabilidad que existe
entre la parte predictiva o de regresión y los residuales.
Cuadro 4: ANOVAb
27
Modelo Suma de Media
cuadrados gl cuadrática F Sig.
1 Regresión 160,679 1 160,679 64,786 ,000a
Como el valor de P-valor < 0.05, nos indica que realimente existe una
relación funcional entre la demanda mensual de energía/usuario y los
consumos picos. Dicho de otra manera, esto quiere decir que al menos los
parámetros A ó B son significativos o diferentes de cero, obviamente en
varianza o en variabilidad.
28
Cuadro 5: Coeficientesa
Modelo Coeficientes Intervalo de
no Coeficientes confianza de 95,0%
estandarizados tipificados para B
Error S
Límite Límite
B
típico Beta tig. inferior superior
1 (Constante) - , - , - ,
,476 507 ,939 352 1,496 544
x , , ,761 8 , , ,
003 000 ,049 000 003 004
a. Variable dependiente: Y
Y-estimado = 0.003*xi
29
Por tanto se requiere rastrear los residuales del modelo, que entre otras
cosas éstos deben cumplir con ciertas propiedades innatas a los residuales que
estan plasmadas en el teorema de Gauss-Markov: Insesgabilidad,
homocedasticidad y no-correlacion entre los residuales.
Capítulo 3
HETEROCEDASTICIDAD Y AUTOCORRELACIÓN SERIAL
3.1 Heterocedasticidad
30
Un supuesto clásico de la regresión lineal es que las perturbaciones
aleatorias o términos del error ui de la función de regresión poblacional ajustado
por MCO (Mínimos Cuadrados Ordinarios) son homocedásticas (homo= igual),
es decir , todas tienen la varianza constante en distintas observaciones.
Cuando éste supuesto no se cumple, hay heterocedásticidad (hetero =
diferentes), fenómeno que puede causar la incorrecta estimación de los
parámetros del modelo.
yi (ahorro ) 1 2 xi (ingreso ) i ,
es posible encontrar que σi2 aumente con el ingreso, es decir, con un mayor
ahorro los ingresos poseen mayor variación o volatilidad, reflejándose en la
varianza de las perturbaciones (µi). Es por esto que algunas de las s razones
más frecuentes de la heterocedásticidad son las siguientes:
31
accidentes de trabajo según su tamaño, etc. inducen a que la varianza no sea
constante.
2. Omisión de variables de peso en el modelo. Una variable importante
en un modelo que no se tiene en cuenta para explicar a Y, genera
perturbaciones en la varianza.
Con Ki = xi / 1
xi2 , entonces:
n n
ˆ
Var ( 2 ) = 1
(x /2
Σxi2 )2 * σi 2
=
1
xi2 / (Σxi2 )2 * σi2
ˆ
Var ( 2 ) = σ2 / xi2 , homocedasticidad.
32
Un estimador puede ser consistente a pesar de su heterocedasticidad, es
decir, conforme el tamaño de la muestra se incremente de manera indefinida, el
33
1. Insesgabilidad : E (εi) = 0
2. Homocedasticidad: Var (εi) = σ2
3. No auto correlación serial: E (εi , εj) = 0
4. Independencia: E (Xi , εi ) = ¿???
Sea :
yi 1 2 xi i , donde i = 1.2…., n
34
Ahora, cuando el modelo de regresión presenta heterocedasticidad en
las perturbaciones aleatorias (µi), sucede que:
yi 1 2 xi i
, donde i = 1.2…., n ,
yi 1 2 xi i
,
σi σi
Xoi = 1 , para cada i = 1,2,…, n
35
Esto significa que: Var (µi*) = 1, constante (K)
Φ (µi) = 1
µi2* = (Yi* - β1* xoi - β2* x1i )2
1
(Yi ) (Wi )
0 0
1* , y 2*
Tenemos:
( i* )
2 wi ( yi 1* 2* xi )( 1)
1 *
( i* )
2 wi ( yi 1* 2* xi )( xi )
2 *
wi yi 1* wi 2* wi xi
(3)
36
wi xi yi 1* wi xi 2* wi xi
2
(4)
x w x y w x w y
ˆ2*
i i i i i i i i
w w x w x
i i i
2
i i
2 (3)
Var (ˆ2* )
w i
w w x w x
i i i
2
i i
2 (5) ,
*2
i = Y i
*
1* X oi
*
2* 2
Tenemos que,
2
i2 y x x
2 i 1* 0i 2* i , como wi = 1 / σi2 ,
i i i i
entonces:
wi i
1 1
37
Es decir que los mínimos cuadrados generalizados (MCG), es una suma
ponderada de residuales al cuadrado. Lo que realmente muestra los MCG, es el
peso asignado a cada observación inversamente proporcional a σ i. De este
modo podemos llamar ecuación número (6) como Mínimos Cuadrados
Ponderados (MCG).
Si, wi = 1 / σi2 = w, es decir, w = 1 / σ2 , entonces
estamos hablando de homocedasticidad, y:
y 1 x 0 i 2 xi
n n 2
Σ µi2 = w
1
i i
2
1
i
n 2
= wi yi 1* 2* xi
1
xi2 i2 / xi2
n
ˆ
2
2 , si esto se presenta,
1
entonces:
38
gráficas, para observar cómo se comportan los residuales con base en los
39
(a) σ2 constante es lineal hay Homocedasticidad
40
(c) Gráfico curvilíneo es cuadrático hay Heterocedasticidad
41
(e) También se pueden graficar ˆ i Vs. Xi, es decir los residuales
2
ˆ i2 Vs. Xi, son similares, pero esto sucede cuando el modelo involucra 2 o
donde es estocástico.
42
Como no se conoce, entonces se remmplaza por las perturbaciones
, si hallamos:
β ≠ 0 , entonces hay heterocedasticidad
Procedimiento.
1. Se estima el modelo
Y 1 2 i i
Ignorando el problema de heterocedasticidad
Z i *i i Z i Lnˆi2
,
X i* Ln X i
4. Se juzga con el estadístico “t” la hipótesis:
Ho : β = 0
H1 : β ≠ 0
Ahora si,
43
Ho : β = 0, entonces hay homocedasticidad
Ho : β ≠ 0, entonces hay heterocedasticidad
i2 , esto es:
3.1
3.2 Uˆ i 1 2 xi i
1
3.3 Uˆ i 1 2 i
xi
1
3.4 Uˆ i 1 2 i
xi
3.5 Uˆ i 1 2 xi i
3.6 Uˆ i 1 2 xi2 i
serialmente correlacionados; los cuatro primeros, (3.1), (3.2), (3.3) y (3.4) son
satisfactorios para detectar heterocedasticidad pero con muestras grandes.
44
3.5.4 Prueba de Correlación de Spearman
Procedimiento:
3. Se juzga la hipótesis:
45
Ho: S 0 (homocedasticidad - independientes )
Considérese el modelo Y 1 2 i i
;
Si
i2 2 xi2 ; la varianza ( Ui) = está realcionada
Procedimiento:
46
1. Ordenar xi, x1<x2<…, xn-1<xn , es decir, de menor a mayor
2. Omitir las observaciones muestrales centrales.
Si n = 30, tomar p = 4
Si n = 60 ó 90, tomar p = 10 ó 16
gl
n c k ó gl
n c 2k , donde:
2 2
SCR2 / gl1
SCR1 / gl2
Fv1, v2; v1 v2 (n c 2k ) / 2
47
Si λ > F, entonces se rechaza homocedasticidad, por tanto la
heterocedasticidad es probable.
Cuando:
El modelo
que la varianza
i
2
de
i , está
α2 = α3 = …= αk = 0, entonces
Var (
i ) = 2, es homocedástica.
48
Procedimiento:
c) Constrúyanse los
i , es decir i ˆ i2 / ˆ 2 . i = 1,2,…,n.
i2 i 1 2 x2 i ... k xk i vi
d).Estime la SEC (suma explicada de cuadrados) y calcule:
ˆ
n 2
Yi 0 1 2i 3k3i i
49
Procedimiento:
1. Se calculan los
ˆ i : ˆ1 , ˆ 2 ,..., ˆ n así : ˆ i Yi Yˆi
SEC / k 1
F0
SRC / n k
ˆ i2 0 1Yˆi 2Yi 2 i
Yˆi : Valores estimados del modelo corregido.
50
ˆ2
Si: n Ro > m (tabulado), entonces hay heterocedasticidad.
2
ˆ2
Si: n Ro < m (tabulado), entonces hay homocedasticidad, es decir,
2
α2=α3 = …=α6 = 0
Supuesto 1. E ( i2 ) 2 * X i2
i2
X2
Yi 0 1 X i i
Xi X i Xi Xi
0
Yi* 1 i ; f ( 2 Z i ) ; entonces:
Xi
51
i2 E ( i2 ) 2 i2
Var( i ) = E( = E 2 =
2
i )
xi2
=
xi2
= 2;
xi
Luego procedemos a hacer el análisis de regresión:
Yi 1
Yi* Vs.
Xi Xi
Una vez se obtenga el estimado de :
1
Yˆi * ˆ 0 1* , se multiplica por Xi y volvemos al estado original.
Xi
Supuesto 2: E ( i2 ) i2 2 * X i
i2
X2
Yi 0 1 X i i
Xi xi xi xi
52
0
Yi* 1 x i i
xi
i2 E ( i2 ) 2 xi
E( = E
2
i ) =
xi
=
xi
= 2
xi
E(i2 ) 2 E(Yi )
2
Supuesto 3.
̂ 2
Yˆ
E (Yi ) o 1 xi
Yi X
0 1 i i , o mejor:
E (Yi ) E (Yi ) E (Y ) i E (Yi )
Yi X
0 1 i i
(Yˆi ) (Yˆi ) (Yˆ ) i (Yˆi )
i ( i2 ) 2Yˆi 2
E( 2
= ˆ
i ) , entonces = E ˆ 2 = ˆ 2 =
Yi
2
Yi Yi
53
Si : Lim E( Yˆi ) = E( Yi )
n
Ventajas:
Este supuesto es muy popular en la economía empírica. Tenemos que:
Ci (Consumo) 0 1 ( Ingreso ) i
Limitaciones:
En una regresión múltiple no se puede saber que variable explicativa a
transformas, sin embargo, se puede graficar cada xj Vs. i2 ; j= 1,2,…,k para
saber de manera informal si ésta presenta algún patrón definido.
Cuando “Y” o las variables explicativas X1i, X2i, …, Xki tienen valores
negativos o ceros, no se pueden transformar mediante la función Ln.
54
Cuando se presenta correlación espuria (Karl Pearson), es cuando Y Vs.
X no están correlacionados, pero al transformarlas resulta que si lo son. Es
decir:
Yi 1
, y , si están correlacionados.
Xi Xi
Cuando las muestras son pequeñas, las diversas transformaciones son
de mucho cuidado.
Correlación espuria: Si es inducida por el método de manejo de datos y
sin embargo no está presente en la información original.
Nota (1): Una varianza de error desigual vale la pena corregirla sólo
cuando el problema resulta severo. (Jhon Fox)
Nota (2): No es posible desarrollar conclusiones respecto al daño
producido por la heterocedasticidad.
E ( I2 ) I2 2 .wi ; donde:
ˆ
( Yi ).
55
n
Var ( ˆ ) 2 /
1 xi
2
i MCO
Var ( ˆ1 )
w i
( wi )( wi xi2 ) ( wi xi ) 2
Wi 1 / i2
Yi 0 1 X i i
i i i i
Yi * 0 x 0*i 1 xi* i
i2 (Yi 0 x0*i 1 xi* ) 2
Nota (3). Cuando la variable ( ˆ1 ) bajo MCO, que la variable ( ˆ1 )
bajo MCG, implica que hay problema de heterocedasticidad.
Pagina 644 Gujarati
56
3.5.8 Medidas Remediales
Los residuos pueden ser exactos, pero no precisos. Es decir, pueden ser
insesgados, pero no eficientes. La heterocedasticidad es diferente a la
propiedad de insesgamiento, pero los estimadores no son eficientes ni siquiera
asintóticamente, en muestras grandes.
(MCG).
Yi 1 1 i
= 1 2 x2i
i i i i
var( i ) i2
De tal manera que Var ( i /i ) = 2 1
i2 i
Si tenemos el siguiente modelo:
Yi 1 2 i i
,
y hay presencia de heterocedasticidad, entonces:
Ln Yi = β1 + β2 LnXi + µi.
57
El coeficiente de regresión β2 mide la elasticidad de Y con respecto a “x”,
es decir, __________ cambio porcentual Y ante un cambio porcentual en “x”.
Ejemplo: Si llamamos a Y = Consumo, x = Ingreso; entonces el
parámetro β2 mide la elasticidad del ingreso.
Mientras que en el modelo original, β 2 mide solamente la tasa de cambio
promedio del consumo por un cambio unitario en el ingreso, el consumo
promedio será β2.
58
ˆ
0 t
59
El patrón de estos residuos nos muestra que el signo de un residuo es un
buen indicador del signo del residuo en el período siguiente y esto es
autocorrelación.
60
3.7.2 Causas de autocorrelación
61
Una característica relevante de las series de tiempo económicas es la
inercia o lentitud. La inercia de algunas series de tiempo económicas, como el
PNB, índices de precios, producción, empleo, desempleo, presentan ciclos
económicos.
Generalmente estas actividades económicas tocan un fondo y con base
en un correctivo comienzan a recuperarse, creciendo paulatinamente, y
necesariamente el crecimiento de esta actividad económica en un período “t”,
está dependiendo del período inmediatamente anterior, por lo consiguiente se
cree que se produce la autocorrelación serial.
http://www.virtual.unal.edu.co/cursos/sedes/manizales/4030006/lecciones
/capitulocuatro/4_5_5.html
1. Variables excluidas
El caso de variables excluídas generalmente se plantea para comenzar
un modelo parsimonioso, es decir un modelo lineal que cumpla con las
expectativas a priori de la actividad económica, por ejemplo:
62
Yi 0 1 x1i 2 x2i i ; i = 1.2, …, n
Pero sucede que al estimar el modelo de regresión
Es decir:
i 3 x3i i , por lo tanto el modelo sugerido sería
introduciendo las variables excluidas:
Yi 0 1 x1i 2 x22i i
, pero se está ajustando el
modelo
Yi 0 1 x1i i
Producción
63
Se puede observar que la nube de puntos o diagrama de dispersión no
i 2 x12i i
Por lo tanto, como se decide sobre una forma funcional incorrecta,
entonces se reflejará autocorrelación.
3. Fenómeno de la Telaraña
t (oferta) 1 2 t 1 t
Si los precios permanecen en la baja, lo más probable es menos
producción en los períodos futuros. Si los agricultores tienen una sobre
producción en el período “t”, se entiende que ellos van a producir menos en el
Ct = βo + β1 It + β2 Ct-1 + εt
64
Indica, el consumo de las personas (Ct), que por lo general fuera de los
ingresos (It), también dependen del consumo del período inmediatamente
anterior. Esto se conoce como autoregresión.
4. Manipulación de datos:
65
3.7.4 Presencia de autocorrelación:
Yt 0 1 xt t ; t 1,2,..., n
t t 1 t ; 1 1, 1 , donde :
= coeficiente de correlación serial del orden 1 AR (1 ) o de rezagos.
Cuando una perturbación ejercida por una observación (i) “no está
influida” por la perturbación de una observación (j); i = 1,2,…, n, se presenta
gráficamente el siguiente patrón:
66
Y Y = βo +β1xi+εi
Heterocedasticidad*
*
* *
* * *
* * εJ *
* *
* εI
* Autocorrelación
Y = Producción
X1 = Insumos de trabajo
X2 = Capital
67
Si miramos el análisis en un corte transversal, por decir, consumo Vs.
Ingresos familiares, no es de esperar que el aumento de los ingresos de una
familia ( i ) no altere el consumo de otras familias. (Correlación espacial).
Esto es volver al modelo de regresión de dos variables
Yt 1 2 X t t ,
Las perturbaciones o el error se puede generar de la siguiente manera:
t t 1 t
E ( εt) = 0
También
t , puede tener esta tendencia:
t 1t 1 2 t 2 t
Entonces, de este modo tenemos que si:
t t 1 t
var t 2 var( t ) 2
, entonces:
2
var( t )
1 2
cov( t , t s ) E ( t * t s ) E ( t * t s )
t , t s t ( t s1 t s )
68
t , t s ( t 1 t )( t s1 t s )
t , t s 2 t 1t 1s t 1 t s t t 1s t t s )
Si s = 0, entonces:
(1 2 )
Si s = 1, entonces:
2
E(t t 1 ) ( ) ;
2 2 2
pero 2
,
1 2
entonces:
69
2
E ( t t 1 ) (
2 2
)
1 2
2
E ( t t 1 ) (1
2
), por tanto:
1 2
2
Cov( t , t 1 )
1 2
. .
. .
. .
2
Cov( t , t s ) s
1 2
procesos:
70
cov( t , t 1 ) E t t 1
V ( t )V ( t 1 ) Var ( t )
y
Es la pendiente de la función de t
Bajo MCO:
x y t t
ˆ i
x
2 2
t
AR (i):
n 1 n2
2 2 2 x x t t 1 x x t t 2
var( ˆ2 ) 1
2 1
... n1
x 2
t t
x 2
x
n
2
x
n
2
1
t
1
t
ˆ 2
var( 2 ) n
xt2
; en ausencia de autocorrelación serial.
71
3.7.6 Estimador MELI en presencia de Autocorrelación:
(x t xt 1 )( yt yt 1 )
ˆ2 MCG 2
n
C
(x 2
t xt 1 ) 2
2
var( ˆ2 MCG ) n
D
(x2
t xt 1 ) 2
(x i x )( y i y )
( ˆ1MCO ) i
n
(x i
i x )2
2
ˆ
var( ) n
, está ignorando el coeficiente de autocorrelación serial , .
( xt2 )
i
72
Ahora, si = 0, entonces var( ˆ2MCO ) = var( ˆ2MCG )
Conclusión:
varianza mínima.
ˆ 2ˆ i
ˆ 2
2
La varianza residual
n2 , subestiman la verdadera
var( ˆ2 ) AR(1) , y aún cuando esta última es ineficiente con respecto a
var( ˆ2MCG ) .
Las pruebas t y F , no son válidas.
73
Nota: Los intervalos de confianza bajo MCG son más estrechos que
aquellos bajo MCO, es decir:
1. Método Gráfico
Las perturbaciones εt son muy diferentes a los residuales ˆt ˆt , pero
estos últimos ayudan a determinar mediante un gráfico el comportamiento de
εt.0
Es decir, E ( ˆ t ) t .
Se construye un gráfico de ̂ t t
Vs. , ó , ˆ t2 Vs. t , ó , ̂ t Vs. ˆ t 1
Vemos que:
ˆ
ˆ s tan d ...Vs...t ˆ ...Vs...t
ˆ
74
̂ t ˆ t 1 x y
̂1 ̂ o : NAPARECE ̂1 ̂2
̂ n ˆ n 1 ˆ n 1 ̂ n
y ̂ t
ˆ t 1
75
2. Prueba de las Rachas. (Prueba de Geary)
2n1n2 ( 2n1n2 n1 n2 )
Var (k) = 1
( n1n2 ) 2 ( n1n2 1)
Ahora:
k E (k )
N (0,1) TABLAS (10, 23)
Var ( k )
O también se construye un intervalo de confianza (1-α)%:
76
Condición: Si k ε LI , LS, entonces : LI < k < LS, se acepta Ho, de lo
contrario, se rechaza Ho.
K = E (k)
n
(
ˆt ˆ t 1 ) 2
d
t 2
ˆt
, o también:
( ˆ t
ˆ t 1 ) 2
d 2
n , bajo los siguientes supuestos:
ˆ t2
1
Yt 1 2 X 1t t
Xt es una variable fija en muestreo repetido.
t t 1 t AR (1)
77
n
ˆ t *
ˆ t 1
ˆ Z (1
d ˆ );
ˆ 2
n ,
ˆ t2
1
Por tanto: -1 ≤ ̂ ≤ 1
-1 ≤ d̂ ≤ 4
Tabla:
Regla de decisión:
Rechazar Ho Zona Zona Rechace Ho
Correlación Indecisión No se rechaze Indecisión Autocorrelación
( + ) Ho (-)
0 dL du 2 4-du 4-dL 4
78
Ho: 0 ; Hi: 0, si d < dU ó (4-dU)< dU, entonces rechazar Ho a
nivel del 2α%, entonces existe auto correlación positiva o negativa
Nota. El estadístico de la prueba Durbin – Watson no es vñalida en
modelos de auto regresivos. Durbin ha desarrollado el estimador para
comprobar correlación serial en modelos auto regresivos.
4. Pruebas Adicionales:
Ho: 0
Hi: 0
Estadístico de prueba:
Zo = n ̂ ~ N (0, 1) ± Zα/2 : puntos críticos
5. Pruebas Remediales:
79
Yt Yt 1 0 (1 ) 1 ( x1t x1t 1 ) t t 1
Yt * 0* 1 X 1*t t t t t 1
; donde
Yo = Y1 1 ˆ 2 y Xo = x1 1 ˆ 2
Y1 X1 = x1 1 2 ; n-1 observaciones
Y2 y1 X2 = x1 x1
: : :
Yn yn-1 Xn xn1
Entonces la información muestral se convierte ( n + 1 ) observaciones.
Yt Yt 1 2 ( X t X t 1 ) t
, donde
t t t 1
con = 1.
Yt X t t .
80
Desaparece el intercepto de tal manera que cuando se ¡vaya a buscar la
función de regresión, este debe pasar por el origen.
Yt Yt 1 2 0 1 ( X t X t 1 ) t
1
(Yt Yt 1 ) 0 1 ( X t X t 1 ) t
2 2 2
i
2
(ˆ ˆt t 1 )2
R2 1 1
d 2
(Yi Y ) 2 ;
(ˆ ) t
2
̂ t
y ˆ t ˆ t 1 t ; ˆ 1
x
x
x
x
x
x
ˆ t 1 x
81
7. Método de la Primera Diferencia
2
eˆ t
,
ˆ t
2
primera diferencia.
Aplicando D-W, pero, con Ho: = 1
Nota: El modelo original debe tener un término constante.
Yt 0 1 x1t t
,
82
Procedimiento:
Estimar el modelo de regresión por MCO.
Nota: Si no se conoce : MCGF (Mínimos Cuadrados Generalizados
Factibles):
Yt t t 1
Utilizando los residuales, efectuamos la siguiente regresión:
ˆ t ˆˆ t 1 t
Con base en ̂ efectúe la ecuación del diferencia generalizada:
Yt * 1* 2 xt* t
Tenemos que:
83
Yt 0 (1 ) 1 xt 1 xt 1 Yt 1 t ; con
0* 0 (1 ˆ ); 2 1 ; 3
Yt ˆYt 1 0 (1 ˆ ) 1 ( xt ˆxt 1 ) t
El caso de la transformación de variables, esto es que:
Calcule los
t
ˆ t 0 1 xt 1t 1 ... p t p 1 t
84
Si hay más regresores, inclúyanse.
Calcule R̂ 2
Si n≥30 , entonces
o2 (n p) Rˆ 2 ~ o2
Si
o2 > p2 , entonces se rechaza Ho., existe autocorrelación
Ejercicio:
El siguiente modelo:
I t 0 1Vt t
(1)
Donde:
I t Inventario ; Vt Ventas
I t Inventario Vt Ventas
Ln Vs. Ln
Verificar Homocedasticidad
85
Probar autocorrelación;: gráfico y Box-Ljung
Yt 0 (1 ) 1 ( xt xt 1 ) 2Yt 1 t
Método Cochran – Orcutt (iteractivo)
Capítulo 4
Series de Tiempo - Pronósticos
4.1 Concepto
86
Para algunas series, importan los picos y no la periodicidad.
Pico
Periodo
Tendencia
87
estocástico, en este caso la variables es el tiempo (t), tales que para cualquier
elección finita de valores to, t1,t2,.., tn existe la distribución de probabilidad
conjunta correspondiente a las variables aleatorias Yt 1, Yt2, …, Ytn.
El análisis de series de tiempo es un método de proyección y
pronósticos importante en la planeación de futuras necesidades por ejemplo
de inversión, ventas, materiales y suministros, etc.
88
4.5 Descomposición de una serie de tiempo
- Eliminación de la tendencia
En el modelo multiplicativo, la descomposición se logra al eliminar o
suavizar la tendencia de la serie observada para quitar el efecto de la variación
aleatoria y obtener así los componentes buscados.
89
Nota: * Si una serie de tiempo es estacionaria, se puede modelar en
diversas formas.
* Las series de tiempo son una realización de los procesos estocásticos.
Ejemplo:
90
Si 0 > 0, indica que la volatilidad era alta en el período anterior y
91
En series de tiempo económico - financieras, como los precios de
acciones, tasas de inflación, tasas de cambio, etc. pueden variar de un período
a otro, dado que los errores de proyección pueden ser insignificantes en un
período de tiempo, pero grandes en otros períodos, debido a la volatilidad en
los mercados ocasionados por rumores, inestabilidad política, pánico financiero,
etc.
Por lo tanto, la varianza de los errores de predicción no son constantes
de un período a otro, es decir, hay una especie de autocorrelación de las
varianzas en los errores de predicción.
Puede suponerse que el comportamiento de los errores de predicción
dependen del comportamiento de las perturbaciones de regresión ( t ) . Es
Sea:
92
ARCH (p)
( ˆ t2 )
son los residuales comunes por MCO, se puede probar que:
Ho = α1 = α2 = …=αp = 0
H1 = Al menos un αi ≠ 0 ; i = 1,2,…, p.
Estadístico de prueba:
Var ( t ) t2
Las ; dependen no solamente de las perturbaciones
al cuadrado en un período t-p, sino también de sus varianzas pasadas.
Básicamente el modelo GARCH plantea:
93
“En los modelos de inflación, los grandes y pequeños errores de
predicción parecen ocurrir por grupos, sugiriendo una forrma de
heterocedasticidad en la que la varianza del error de predicción depende del
tamaño de la perturbación anterior”
Var(t t 1 ) 0 1t21
Var(t t 1 ) 0 1 var( t 1 t 2 )
Var(t t 1 ) 0 1 ( 0 1t22 )
Se le denomina R2 y R2 ajustado.
R 1
2 ˆ i
2
(Yi Y ) 2
SCR
R 2 1
SCY
Si el número de variables Xi aumenta, entonces, ˆ
i
2
disminuye (al
94
aumenta en la medida que crezcan o se adicionen variables Xi, no implica un
mejor modelo.
2
Un R2 alternativo, es R2 ajustado ( R ), de finido de la siguiente manera:
R 1
2 ˆ i
2
/nk
(Yi Y ) 2
/ n 1
ˆ 2
R 1 2
2
y
R 1
2 ˆ i
2
(Yi Y ) 2
(n k / n 1)
R 2
1
ˆ i
2
*(
n 1
)
(Yi Y ) 2
nk
n 1
R 2 1 (1 R 2 ) * ( )
nk
Si k>1, entonces, se tiene que: R 2< R2 , que significa lo siguiente: Si
95
Si se tiene en cuenta lo anterior, y el R 2 es alto, todo sale bien, pero, si
y
N T
y i (t 2) it yi ( t 1)
̂ i 1 i 3
y
N T
y
i 1 t 3
i (t 2) i ( t 1) yi ( t 2 )
96
4.7.1 Modelo de Koyck
k 0k 1 , así:
2 0 k 1
Log 2 0 k Log1
entonces:
Log 2
k
Log
Modelo de Koyck
Koyck, postula el siguiente modelo:
97
k 0 , así:
1 0 , 2 0 2 ; … , k 0 k , entonces:
Yt 0 0 xt 0 2 xt 1 ... 0 k xt k t
Yt 1 0 0 2 xt 1 0 3 xt 2 ... t 1
Yt Yt 1 0 (1 ) 0 xt
Yt 0 (1 ) 0 xt Yt 1 t t 1
Yt 0 (1 ) 0 xt Yt 1 t t 1
Yt 0 (1 ) 0 xt Yt 1 t
t t t 1 : AR (1)
98
79.0 66.2
80.5 68.8
82.9 71.0
84.7 73.1
83.7 72.2
84.5 74.8
87.0 77.2
88.1 78.4
89.7 79.5
90.0 79.7
89.7 79.8
89.8 81.4
91.1 81.2
91.2 84.0
91.5 86.4
92.8 88.1
95.9 90.7
96.3 91.3
97.3 92.4
95.8 93.3
96.4 94.5
97.4 95.9
100.0 100.0
99.9 100.1
99.7 101.4
99.1 102.2
99.6 105.2
101.1 107.5
105.1 110.5
99
Modelo:
Yt 0 1 xt 2 xt 1 t : donde:
orden 1.
n
h ˆ
1 n var( ˆ2 )
100
“En los modelos de inflación, los grandes y pequeños errores de
predicción parecen ocurrir por grupos, sugiriendo una forma de
heterocedasticidad en la que la varianza del error de predicción depende del
tamaño de la perturbación precedente”.
t t 0 1 t21
1 1
( t ) t ( ( 0 1 t21 ) 2
1
1
( t ) (t )( 0 1 ) 0 * (__) 0
2
t 1
2
101
t2 1 * ( 0 ) 1(t21 )
( )
2
t 1
2
t 0
0
t2
(1 1 )
Generalizando:
t2
( 0 1 t21 , lo que quiere decir:
t 1, t 2 ,...
1
t ( 0 )
t
2
t 1
2
102
0
t2 (t21 )
(1 1 )
(tt2 tt 1.tt 2 ,...) 0 1 t21
(t t 1 ) (t ) 0
(t t s ) 0, s 0
Importante: La varianza condicional misma es un proceso autorregresivo
que resulta de la heterocedasticidad de los errores.
existente.
Así que, un modelo ARCH (Heterocedasticidad Condicional
Autorregresivo) es capaz de capturar períodos de tranquilidad y volatilidad en
Var(Yt Yt 1 ) = E (t2 ) 2
heterocedasticidad es expresar:
que el modelo para Yt y la varianza condicional son mejor estimadas usando
la técnica de máxima verosimilitud.
103
En lugar de lo anterior, es más tratable especificar a t como una
perturbación multiplicativa.
1
t t ( 0 ) 2
1 t 1
2
(Engle, 1982)
2 1 , 0 0 ; 0 <α1<1 ; E( ) = 0.
E(Yt) = a0 + a1 Yt-1 ; a0 = β0 y a1 = β1
Var (Yt / Yt-1, Yt-2, …) = E (Yt - a0 - a1 Yt-1)2
= E (ε2t)
0 1 E ( t21 )
0
2
t
(1 1 )
0
E (Yt )
E(Yt) = E(Yt-1) , entonces,
(1 1 )
0
E (Yt )
(1 1 )
104
o o
Var (Yt ) a12i * = (1 a12 a1 ...)
a 1 a 1
1
Var (Yt ) ( o )( )
1 1 1 a12
Lo importante es que el proceso de error ARCH puede ser usado para
modelar períodos de volatilidad dentro de un marco univariado.
t , se puede generalizar:
1
t ( 0
t
2 2
1 t 1 2
2 t 2 ... 2
p t p)2
a
t 0 i t2i
t
2
(*)
i
105
Sea el modelo:
período “t”
Var (Yt+1 / Xt) = K2 * σ2 , sin embargo cuando las realizaciones para [xt ]
no son iguales, entonces: Var (Yt+1 Xt) = X2t * σ2
serial pòpsitiva, es decir, un valor grande de Xt tiende a seguir otro valor grande
de xt+1, entonces la Var (Yt / Xt), exhibirá correlación serial positiva también.
106
4.7.3 Modelo Garch : (Heteroscedasticidad Condicional Autorregresiva
Generalizada)
t t ht , 2 1 , y
q p
ht 0 i t i i hi 1
i 1 i 1
iguales a cero (0). Tomando el valor esperado (E) de εt , es fácil ver que:
E ( t ) E (t * ht ) 0
El punto importante es que la varianza condicional de εt está dada por:
107
Un ARCH (p, q) ≡ GARCH (p, q) , es decir ambos son componentes
autoregresivos y de promedios móviles en varianza heterocedástica. Si p = 0
^ q = 1 , entonces :
ht 0 1 t 1 0
108
q p
E ( ) ht 0 i t i i hi i
2
t
i 1 i 1
t
2
ˆ 2 i 1
, donde T = # de residuales.
T
(
ˆ 2
t ˆ 2 )(t2 i ˆ 2 )
(i ) t i 1
T
(
t 1
2
t ˆ 2 ) 2
1 12
ˆ (i ) N 0; ( ) , ahora:
T
Si (i ) ≥0+ 3
1
; ó si: (i ) ≤0- 3
1
, entonces:
T T
109
Errores GARCH, si: 3
1
≤ (i ) ≤ 3
1
No error
T T
GARCH
Mediante el estadístico de Ljung-Box se puede probar por grupos la
significancia de los coeficientes.
(i )
n ;
n
Q T (T 2) Q~
2
; tenemos en cuenta que
i 1 T i
si:
110
TR20 > q2,1 Error GARCH.
4.8 Multicolinealidad
estocástico
1
X 2i X 1 3 X 3 ... k X k i
2 2 2 2 :
111
Cov(ˆi , ˆ j ) 2 .Cij , i j 0,1,2,....k
X X X
1 2 3
X S S S
2
1 x1 x1.x2 x1.x3
X S S S
2
2 x2.x1 x2 x2.x3
X S S S
2
3 x3.x1 x3.x2 x3
Es decir:
Cov( ˆ ) 2 * S 1
Multicolinealidad:
Si una de las variables independientes está relacionada linealmente con
alguna de las demás, se presentan varios casos:
1. ij es alto
(Ortogonalidad)
112
Si : X'X 0 Si existe multicolinealidad.
113
E ( ˆ * ( )) ; sesgado.
Var ( ˆ * ( )) Var ( )
Como existe una relación lineal entre la regresora x4 y las otras variables
regresoras
frente a .
114
Figura 10.12. Estimadores ridge.
Y = 0’579+0’494x1+0’368x2 +1’163 x4
115
Apendice
Multicolinealidad
Heterocedasticidad
Importante: Otra prueba de heterocedasticidad es la siguiente:
Prueba de Koenker-Basset (KB), de la siguiente manera:
1.Tomar los residuos de un modelo de regresión por MCO:
Yi 0 1 X 1i 2 X 2i ... i
Test de Hipótesis:
Ho: 1 0
H1: 1 0
Prueba “t” y una “F”
116
Ejercicio Heterocedasticidad
Modelos:
Yi 0 1 X i i
Yi 0 1 X i 2 X i2 2 X i2
117
11.16 Gasto alimentario en la India (en miles)
Y:Gasto Comida X: Gasto Total
217 382
196 388
303 391
270 415
325 456
260 460
300 472
325 478
336 494
345 516
325 525
362 554
315 575
355 579
325 585
370 586
390 590
420 608
410 610
383 616
315 618
267 623
420 627
300 630
118
410 635
220 640
403 648
350 650
390 655
385 662
470 663
322 667
540 680
433 690
295 695
340 695
500 695
450 720
415 721
540 730
360 731
450 733
395 745
430 751
332 752
397 752
446 769
480 773
352 773
410 775
380 785
610 788
530 790
119
360 795
305 801
c) Prueba de White: ˆ i2 0 1 X i 2 X i2 i
120
120 200 135 190
145 240 120 200
130 185 140 205
152 220 144 210
144 210 152 220
175 245 140 225
180 260 137 230
135 190 145 240
140 205 175 245
178 265 189 250
191 270 180 260
137 230 178 265
189 250 191 270
SRC 2 / gl 1536.8 / 11
, Entonces: 4.07
SRC1 / gl 377.17 / 11
Fv1 ,v2 , como : v1 v2 (n c 2k ) / 2 ,
k = ≠ de parámetros; n = 30; C=4; y k=2
Entonces: V1 = (30- 4- 4) /2 = 11 gl (grados de libertad).
121
ˆ
ID 1
(2) 246.6769 0.0367 Ventas
Ventas Ventas
246.6769
192.9971 , entonces: Ventasi 1.278 =
Ventas
Así reemplazando en:
Modelo
Rupias.sav
Precio.sav
Pasos:
122
1. Efectúese
H 0 1 2 ... p 0
t 1 2 xt 1 t 1 ... p t p t
4. Calcule R2
siguiente manera:
123
Método de Newey – West para corregir las desviaciones estándar de
ˆo , ˆ1
(Válido para muestras grandes: n>>30)
Observaciones:
1. n>> 30
2. ˆ o ,
1 CHA > ˆ o ,
1 MCO
Var ( ̂ ) < ( ̂ )
*
124
ˆ ( X ' X ) 1 X ' Y ; ˆRidge
*
( X ' X KI ) 1 X ' Y
125
Bibliografía
1. Gujarati N., Damodar (1997). Econometría. McGraw-Hill. Bogotá.
Colombia.
2. Introducción a las series del tiempo. Métodos Paramétricos.
Apuntes de clase Universidad EAFIT.
3. Enders, Walter. Applied Econometric Time Series.
4. Greene, William H. Análisis econométrico, 2006.
5. Brockwell, Peter J y Davis Richard A. Introduction to time series and
forecasting. Ed Springer 1996.
6. Maddaler.
126