Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometria Catolica de Chile PDF
Econometria Catolica de Chile PDF
ESCUELA DE INGENIERA
DEPARTAMENTO DE INGENIERA DE TRANSPORTE
ICT-2950 Tpicos de Econometra
Profesor: Louis de Grange C.
APUNTES DE CLASES
ICT-2950 TPICOS DE ECONOMETRA
(VERSIN 1er SEMESTRE 2005)
ii
NDICE
Pg.
1.2
2.2
iii
Contraste de Restricciones...................................................3-29
3.1.1 Contraste de una Restriccin Lineal....................................... 3-29
3.1.2 Contraste de Restricciones Lineales Conjuntas ..................... 3-30
3.1.3 Contraste Basado en una Regin de Confianza .................. 3-31
3.1.4 Mnimos Cuadrados Restringidos.......................................... 3-32
3.1.5 Contraste de Restricciones No Lineales ................................ 3-33
3.2
Prediccin...............................................................................3-34
3.3
4.2
4.3
4.4
Ortogonalidad.......................................................................5-56
5.2
Multicolinealidad ..................................................................5-58
5.2.1 Definicin de Multicolinealidad ............................................ 5-58
iv
5.3
Contrastes Multivariantes.....................................................5-74
5.3.1 Contraste de Razn de Verosimilitud .................................... 5-74
5.3.2 Contraste Para Matriz de Varianzas y Covarianzas Igual a la
Identidad ................................................................................ 5-75
5.3.3 Contraste Para Matriz de Varianzas y Covarianzas Escalar
(Esfrica)................................................................................. 5-76
5.3.4 Contraste Para Matriz de Varianzas y Covarianzas Diagonal
(No Esfrica) .......................................................................... 5-76
5.4
Heterocedasticidad ..............................................................5-77
5.4.1 Definicin de Heterocedasticidad ......................................... 5-77
5.4.2 Causas de la Heterocedasticidad ......................................... 5-78
5.4.3 Efectos de la Heterocedasticidad.......................................... 5-80
5.4.4 Deteccin de la Heterocedasticidad..................................... 5-83
5.4.5 Correccin de la Heterocedasticidad ................................... 5-90
5.5
Autocorrelacin.....................................................................5-93
5.5.1 Definicin de Autocorrelacin............................................... 5-93
5.5.2 Causas de la Autocorrelacin ............................................... 5-94
5.5.3 Efectos de la Autocorrelacin................................................ 5-95
5.5.4 Deteccin de la Autocorrelacin........................................... 5-96
5.5.5 Estimacin bajo Autocorrelacin......................................... 5-100
5.6
5.7
6
6.2
6.3
7.2
Estacionariedad.................................................................. 7-111
7.2.1 Estacionariedad Estricta....................................................... 7-111
7.2.2 Estacionariedad Dbil.......................................................... 7-111
7.2.3 Funcin de Autocorrelacin Simple (FAS) .......................... 7-113
7.2.4 Funcin de Autocorrelacin Parcial (FAP)........................... 7-115
7.2.5 Proceso Ruido Blanco .......................................................... 7-116
7.3
7.4
7.5
7.6
7.7
8
8.2
8.3
8.4
8.5
8.6
9.2
vi
9.3
9.4
9.5
9.6
9.7
9.8
9.9
10
11
vii
12
12.7 Causalidad........................................................................12-228
13
viii
14
1-1
1.1
am1
1.1.1
a12
a22
am 2
.... a1n
a11
a
a2 n
donde AT = 12
....
O ....
.... amn
a1n
a2 n .... amn
Matrices Especiales
D = diag(A) es la diagonal de la matriz A de dimensin n x n:
a11 0 .... 0
0 a
0
22
= DT
D=
....
O ....
0 .... ann
0
(1.1)
0 .... amn
0
(1.2)
I=
....
O ....
0 0 .... 1
(1.3)
1.1.2
1-2
Suma
C = A B es definido como cij = aij bij dado que A y B tienen el mismo
( A B) C = A (B C)
tambin que A + B = B + A .
1.1.3
Multiplicacin
C = A B es definido como cij = ( aik bkj ) dado que A y B son matrices
n
k =1
Se cumple que A ( B C ) = A B A C
En general, A B B A
i =1
1.1.4
a = ( aT a )
12
a
i =1
2
i
Operador de Kronecker
Si A es de m x n y B e de s x t, el operador de Kronecker de A y B,
denotado por A B , es una matriz de ms x nt dada por:
a11B a12 B .... a1n B
a B a B
a2n B
21
22
A B =
....
O ....
(1.4)
1-3
( A B )( C D ) = ( AC BD )
( A + B ) (C + D ) = ( A C ) + ( A D ) + ( B C ) + ( B D )
( A B) C = A ( B C)
1.1.5
Matrices Particionadas
La matriz A de m x n puede ser particionada en 4 sub-matrices de la forma:
A
A = 11
A21
A12
A22
(1.5)
A12 B11
A22 B21
(1.6)
Matriz Inversa
( AB )1 = B 1 A1
( A + B)
1.1.7
= A1 ( A1 + B 1 ) B 1
1
Matriz Traspuesta
Se cumplen las siguientes propiedades:
(A )
( A B)
( A B )T
T T
=A
T
= AT BT
= BT AT
(A ) =(A )
A AT y AT A son simtricas
( A B )T = ( AT BT )
1.1.8
1 T
1-4
T 1
tr ( AT ) = tr ( A )
tr ( A B ) = tr ( A ) tr ( B )
tr ( A B ) = tr ( B A )
tr ( k A ) = k tr ( A )
tr ( A B ) = tr ( A ) tr ( B )
Matrices Ortogonales
(1.7)
1-5
(1.8)
(1.9)
(1.10)
(1.11)
1-6
r
Si c es un vector propio de A, y si multiplicamos (1.11) por cualquier 0 ,
r
entonces c tambin ser un vector propio de A. Para evitar esta indeterminacin,
r
supondremos que c = 1 .
r
Luego, existe una solucin no nula (para c 0 ) que verifica:
det A I = 0
(1.12)
tr ( A ) = i
i =1
tr ( Ar ) = ir
n
i =1
tr ( A1 ) = i1
n
i =1
A = i
i =1
Las matrices ABC, ACB y CAB tienen los mismos valores propios no nulos
1-7
En una matriz simtrica, los valores propios son nmeros reales y los vectores son
ortogonales
1.1.11
1.1.12
i =1 j =1
1.1.13
1-8
Diferenciacin de Matrices
Sea una matriz X de n x m con elementos xij , y f = f ( X ) una funcin que
dX dxij
(1.13)
(1.14)
d (T X )
d
=X,
d (T X )
dX
d (T X )
= 2X
Si X simtrica entonces
Si f ( X ) = aT Xb entonces
Si f ( X ) = ( A X B ) entonces
Si X es de n x n y f ( X ) = ( X ) entonces
Si X es de n x n y f ( X ) = ( X T AX ) entonces
df
= bT a
dX
df
= AT BT
dX
df
= In
dX
df
= ( A + AT ) X
dX
1-9
df1
dx
1
df1
df n
dY df1 df 2
=
;
;......;
= dx2
dX dX dX
dX
M
df1
dxn
Si Y = AX entonces
1.1.14
df 2
dx1
df 2
dx2
M
df 2
dxn
df n
dx1
df n
.....
dx2
O
M
df n
.....
dxn
.....
dY
= AT
dX
Series de Taylor
r
Para una funcin vectorial f = f ( x ) la expansin en series de Taylor es la
siguiente:
1.2
r
r r T r r
2 f ( x0 ) ( x x0 ) ( x x0 )
r
r
r
r r
f ( x ) f ( x0 ) + f ( x0 ) ( x x0 ) +
+ ....
2
(1.15)
r
r
r r
f ( x ) 0 + 1 x + 2 x T x + ......
(1.16)
Anlisis de Datos
xn1
1.2.1
x12
x22
xn 2
x1 p
x2 p
O ....
.... xnp
....
(1.17)
Tipos de Variables
1-10
1 n
xik
n i =1
(1.18)
1 n
( xik xk )2
n 1 i =1
(1.19)
1 n
( xik xk ) ( xij x j )
n 1 i =1
(1.20)
1-11
cov ( xk , x j )
V ( xk ) V ( x j )
(1.21)
1.2.3
1-12
1.2.4
Definicin
Datos atpicos o Outliers son aquellas observaciones que al parecer han sido
generados de manera distinta al resto de los datos. Pueden ser causados por ejemplo por
errores de medicin o digitacin de los datos, cambios en los instrumentos de medicin o
simplemente representan una heterogeneidad intrnseca de los elementos observados.
La caracterizacin de un nico dato atpico es simple, ya que por definicin
debe estar alejado del resto. Luego, la distancia entre dicha observacin y el resto debe
ser alta. Alternativamente, podemos definir como dato atpico aquella observacin que se
encuentra alejada del centro o de la media de los datos.
Una observacin puede considerarse atpica si la distancia mtrica entre dicha
observacin y la media de los datos es grande:
d ( xi , x ) = ( xi x )
12
( xi x )
(1.22)
1-13
xki xk
(1.23)
V ( xk )
b)
12
( zi z )
(1.24)
n +1
( a x )( a x )T
n
Va =
V +
n +1
n +1
(1.25)
n
n + 1
(1.26)
Las expresiones anteriores indican que un solo dato atpico puede afectar de
manera importante el vector de medias y la matriz de varianzas y covarianzas.
1-14
> 4,5
k = 1, 2,...., p
(1.27)
(x
k
V ( xk ) ; xk + V ( xk )
k = 1, 2,...., p
(1.28)
2-15
(2.1)
0
= 1
....
k
(2.2)
1 x11
1 x
21
X =
....
1 xn1
x12
x22
xn 2
.... x1k
.... x2k
.... xnk
1
= 2
....
n
2-16
(2.3)
2-17
0 2
V ( ) =
....
0
0
0 .... 0
0 .... 0
=2I
....
2
0 ....
(2.4)
2.1.2
Las variables explicativas no presentan relacin lineal exacta entre si (no existe
multicolinelidad).
2.1.3
2-18
2.2
2.2.1
Vector de Parmetros
(2.5)
Q = Y TY T X TY Y T X + T X T X = 0
(2.6)
min
{ }
min
{ }
Q = Y T Y 2 T X T Y + T X T X
min
{ }
Q
= 2 X T Y + 2 X T X = 0 X T Y = X T X
(2.7)
(2.8)
(2.9)
( )
V = E
)( )
T
(2.10)
)(
2-19
T
= E X T X 1 X T X T X 1 X T
(
)
(
)
(
)
(
)
(2.11)
( )
(2.12)
( )
(2.13)
( )
(2.14)
( )
(2.15)
( )
(2.16)
1
1
V = E ( X T X ) ( X T T X )( X T X )
1
1
V = ( X T X ) E X T T X ( X T X )
1
1
V = ( X T X ) X T E T X ( X T X )
1
1
V = ( X T X ) X T ( 2 I ) X ( X T X )
1
V = 2 ( X T X )
donde M = I X ( X T X ) X T
1
(2.17)
(M = M )
T
(2.18)
E ( T / X ) = E ( T M / X )
(2.19)
E tr (T / X ) = E tr ( T M / X )
(2.20)
tr ME ( T / X ) = tr M 2 I = 2tr ( M )
(2.21)
1
1
2tr ( M ) = 2tr I X ( X T X ) X T = 2 tr ( I n ) tr X ( X T X ) X T (2.22)
2 tr ( I n ) tr ( I k ) = 2 ( n k )
Por lo tanto se obtiene:
(2.23)
2-20
E ( T / X ) = 2 ( n k )
2 =
(2.24)
T
(n k )
(2.25)
( )
2.2.2
(2.26)
(2.27)
1
1
= ( X T X ) ( X T X ) + ( X T X ) ( X T )
(2.28)
1
1
= + ( X T X ) ( X T ) = ( X T X ) ( X T )
(2.29)
( )
(2.30)
( )
(2.31)
( )
(2.32)
( )
(2.33)
1
E = + E ( X T X ) ( X T )
1
1
E = + E ( X T X ) ( X T ) = + ( X T X ) E ( X T )
1
E = + ( X T X ) E ( X T ) E ( )
E =
Para demostrar que presenta la mnima varianza:
b=
(( X
E (b) =
1
X ) X T + C Y = + CY
(( X
X ) X T + C X = ( I + CX ) =
1
(2.34)
(2.35)
2-21
V ( b ) = E ( X T X ) X T + C T
V (b) =
(( X X )
V (b) =
(( X
V (b) = 2
) (( X
X ) XT +C
1
) ()
(2.36)
(2.37)
(2.38)
( )
1
X ) + CC T = V + 2 ( CC T ) > V
1
: N ; 2 ( X T X )
XT +C
X T + C E ( T ) ( X T X ) X T + C
X ) X T + C 2I
(( X
(( X X )
(2.39)
(2.40)
La primera propiedad tiene que ver con que el valor medio de los residuos es
nulo, lo cual implica que la suma de los residuos es igual a cero. Esta caracterstica
es bastante trivial pues se deduce de la misma metodologa de los mnimos
cuadrados, la cual impone a travs de su primera ecuacin normal que esta suma
sea cero (columna de unos en matriz X).
Si el modelo de regresin posee una constante entonces la primera derivada parcial
del lagrangeano (ver (2.8)), o primera expresin de ecuacin normal, indicar que
la suma de los residuos muestrales es cero.
Sin embargo, si el modelo no posee una constante en su formulacin, esta condicin
no necesariamente se cumplir pues nunca surge como condicin necesaria de
primer orden al no tener nunca que derivar con respecto a este parmetro.
Puede sin embargo darse el caso que la representacin de la data haga que este
parmetro sea efectivamente cero, por ejemplo si las series Y, X se entregan en
forma de desviacin de sus propias medias, lo cual implicara que la suma de estos
residuos tambin lo ser. De (2.8) se obtiene:
2 X T Y + 2 X T X = 0 X T (Y X ) = X T = 0
(2.41)
2-22
El hiperplano de la regresin pasa por el punto de las medias de los datos, puesto
que la primera ecuacin normal implica Y = X .
La media de los valores estimados por la regresin es igual a la media de los valores
actuales; ello se deduce de (2.8) ya que Y = X .
constante.
2.2.3
n ( xn ) N 0; 2
(2.42)
n ( xn n ) N 0; 2
donde: 2 =
1 2
1
1 + 22 + .... + n2 ) y n = ( 1 + 2 + .... + n )
(
n
n
(2.43)
2-23
r
Caso multivariante: un vector de muestras de tamao n con media y matriz de
varianzas y covarianzas Q.
r d
n ( X n ) N [ 0; Q ]
(2.44)
(2.45)
r 1 r r
1
r
Q1 + Q2 + .... + Qn ) y n = ( 1 + 2 + .... + n ) .
(
n n
n
donde: Q = lim
n ( g ( xn ) g ( ) ) N 0;
(2.46)
g ( )
( xn )
x
(2.47)
(2.48)
ha ajustado:
Y=
X
+ 4244
3
14
4244
3 14
porcion explicada
porcion no explicada
(2.49)
Y T Y = X +
2-24
) ( X + )
T
(2.50)
Y T Y = T X T X + T
1=
(2.51)
T X T X T
T X T X
T
+
=
1
Y TY
Y TY
Y TY
Y TY
R2 = 1
T
Y TY
(2.52)
(2.53)
(Yi Y ) Yi Y
R2 = i
2
2
Y
Y
Y
(
)
i
i
(2.54)
1
2
(%i )
V ( % )
( n 1) = 1 ( n k ) i
= 1
R 2 = 1 (1 R 2 )
2
1
V (Y )
(n k )
Yi Y )
(
( n 1) i
2-25
(2.55)
k + 1
. Por otra parte, si hay ms de una variable explicativa, R 2 < R 2 .
nk
R2 ( n k )
(1 R 2 ) ( k 1)
(2.56)
2-26
2
1
exp i 2
2
2
i = 1,...., n
(2.57)
i =1
( i )2
1
i
f (i ) =
exp 2 2
2
(2.58)
exp
2
(2.59)
2-27
(2.60)
( ) <
=
T
2
MV
( )
=
(2.61)
2
MCO
nk
(2.62)
2 ln L
I ( ) = E T
(2.63)
1
(2.64)
2.2.6
2-28
Interpretacin Econmica
Y
x j
(2.65)
ln Y
ln x j
(2.66)
Q P ln Q
=
.
P Q ln P
3-29
INFERENCIA Y PRECICCIN
3.1
Contraste de Restricciones
3.1.1
( ) : t
(
se ( )
i
(3.1)
n k )
sigue una distribucin t con (n - k) grados de libertad. Notar que al ser un anlisis
asinttico (n grande), la distribucin t converge a una distribucin normal. Notar adems
que el trmino se = 2 S ii , donde S ii es el i-simo elemento de la diagonal de
( )
i
(X X )
T
(3.2)
( )
se i
En general, si
( )
3-30
( )) = 1
( )
i t 2 se i < i < i + t 2 se i
3.1.2
(3.3)
(3.4)
( R q )
donde 2 =
R ( X T X ) 1 R T
T
( n k )
T
T = 2 ( n k ) .
nk
( R q )
: F[ p;n k ]
(3.5)
Si
3-31
aceptacin, lo cual nos lleva a rechazar la hiptesis nula. Por tanto, las restricciones
lineales no son ciertas en el mbito de la poblacin.
( k 1)
: F[k 1;n k ]
T ( n k )
(3.6)
1
y dado que = ( X T X ) X T Y se obtiene finalmente:
R2 ( n k )
:F
(1 R 2 ) ( k 1) [k 1;nk ]
(3.7)
Esta ltima expresin (3.7) nos indica que aquellas regresiones que tienen
bajo coeficiente de ajuste, es decir un bajo R 2 , tienen a su vez un test F tambin muy bajo,
lo cual permitira decir que la probabilidad de rechazar la hiptesis es muy baja.
3.1.3
1
-
2
T T T 1
R
( X X ) R
n
( - )
: F[ p ;n k ]
(3.8)
3-32
min
{ }
(3.9)
R =q
s.a.:
(2)
(3.10)
(3.11)
L
= 2 X T Y X R + 2 RT = 0
(3.12)
L
= 2 RT R q = 0
(3.13)
RT R X T Y
=
0 q
(3.14)
1
1
R = + ( X T X ) RT R ( X T X ) RT R q
1
= R ( X T X ) RT
( R q )
(3.15)
(3.16)
3-33
( )
1
1
1
1
V R = 2 ( X T X ) 2 ( X T X ) RT R ( X T X ) RT R ( X T X )
4244444444
14444444
3
(3.17)
(3.18)
( ) :t
(
se ( g ( ) )
g q
(3.19)
n k )
( )
( )
( )
(3.20)
g ( )
g ( )
V g
V
(3.21)
g ( ) T
1 g ( )
V g
XTX )
n k (
(3.22)
( )
( )
( )
3-34
( ) (
( ))
se g = V g
3.2
12
(3.23)
Prediccin
(3.24)
(3.25)
e0 = Y 0 Y 0 = X 0 + 0
(3.26)
V ( e0 ) = 2 + V X 0 = 2 + X 0T V X 0
(3.27)
1
V ( e0 ) = 2 + X 0T 2 ( X T X ) X 0
(3.28)
V ( e 0 ) = 2 1 + X 0T ( X T X ) X 0
1
(3.29)
3-35
12
1
Y 0 t 2 2 1 + X 0T ( X T X ) X 0
(3.30)
(3.31)
{X }
s.a. : X 10 = 1
()
(3.32)
(3.33)
1
1
L
T
0
0 =0
=
2
X
X
X
(
)
0
....
X
0
(3.34)
1
0
X 0 = ( X T X )
....
2
0
(3.35)
x 2
i
i =1
0
X =
2 ....
n
xik
i =1
(3.36)
3-36
2
n = . En
2
n
xi 2 n
i =1
X0 =
....
n
xik n
i =1
(3.37)
(3.38)
1
V ( e0 ) = 2 1 +
n
(3.39)
1
n0
(Y Y )
i
(3.40)
EAM =
1
n0
3-37
Y Y
i
(3.41)
U=
U =
1
n0
(Y Y )
i
(3.42)
1
n0
(Yi )
1
n0
( Y Y )
(3.43)
1
n0
( Y )
22
232 .... 22n
= 2
V ( ) = 21
....
....
2
2
2
2
n1 n 2 n 3 .... nn
(3.44)
(3.45)
(3.46)
3-38
Por tanto, se ha conseguido una transformacin del modelo de forma que las
perturbaciones cumplen las hiptesis habituales. Al estimador de por MCO en el modelo
transformado se le denomina estimador de Mnimos Cuadrados Generalizados (MCG):
1
1
MCG = ( X *T X * ) X *T Y * = ( X T 1 X ) X T 1Y
1
1
V MCG = 2 ( X *T X * ) = 2 ( X T 1 X )
(3.47)
(3.48)
644744
8
64
4744
8
T
Y X
( ) Y X
T
2 =
MCG
MCG
nk
(3.49)
3-39
MCG = X T 1 X
X T 1Y
T 1 T 1
V MCG =
X X
nk
(3.50)
(3.51)
2
P=
....
0
0
.... 0
....
1
....
n
....
(3.52)
2 1 2
P = (1 )
....
0
1
....
....
.... ....
....
(3.53)
(3.54)
donde:
1 0
0
2
=
....
0 0
.... 0
.... 0
;
....
.... n
= 21
....
n1
12
1
n2
13 .... 1n
23 .... 2 n
....
n 3 .... 1
(3.55)
4-40
ESPECIFICACIN
Variables Ficticias
De tipo temporal: Para recoger efectos diferentes en funcin del tiempo en que se
producen las observaciones de las variables (por ejemplo, consumo en periodos de
guerra o paz).
Otras causas: Para conocer los efectos que las variables cuantitativas tienen sobre
la variable endgena, distinguiendo por submuestras (por ejemplo, la propensin
marginal al consumo de individuos de rentas altas o bajas).
Guerra - Paz
Hombre - Mujer
4-41
Profesional - Tcnico
Gobierno A - Gobierno B
(4.1)
Yi
Xi
Di
Y1
X1
......
......
......
j-1
j-1
j-1
......
j+1
Yj+1
Xj+1
......
......
......
......
4.1.1
4-42
i = 1, 2,..., j 1
Y = 0 + x + 2 D +
i
i
1 1
i = j , j + 1,..., n
(4.2)
(4.3)
H1 : 2 0
2 2
( )
V 2
(4.4)
( )
V 2
Y i = 0 + ( 1 + 2 D j ) x1i + i
i = 1, 2,..., j 1
i = j, j + 1,..., n
(4.5)
(4.6)
2 2
tc =
4.1.3
( )
V 2
4-43
(4.7)
( )
V 2
Y i = 0 + ( 1 + 2 D j ) x1i + 3 D j + i
i = 1, 2,..., j 1
i = j , j + 1,..., n
(4.8)
(4.9)
El contraste es el siguiente:
( R q )
Fc =
R ( X T X ) 1 R T
T
(n k )
( R q )
: F[ p ;n k ]
(4.10)
Variables No Lineales
4-44
Transformaciones Generales
Ecuacin Original
Transformacin
Modelo Linealizado
Exponencial
Y = exp ( X )
Z = ln Y ; X = X
Z = ln + X
Logartmico
Y = + ln ( X )
Y = Y ;W = ln X
Y = + W
Potencial
Y = X
Z = ln Y ;W = ln X
Z = ln + W
Hiperblico
Doblemente Inverso
Y = +
Y=
1
+X
1
X
Y = + W
1
;X = X
Y
Z = + X
Y = Y ;W =
Z=
El primer y tercer modelo son vlidos bajo la suposicin de que los errores son
multiplicativos y habra que cotejar haciendo anlisis de residuales si el logaritmo de los
errores tiene una media de cero y varianza constante. Si los errores no son multiplicativos
entonces deberan aplicarse tcnicas de regresin no lineal que son expuestas ms
adelante.
4.2.2
4-45
Y = 0 + i wi +
(4.11)
i =1
donde wi = ( xi )
i =1
i =1
Y 0 + i xi + i zi +
(4.12)
donde i = ( i 1) i y zi = xi ln ( xi ) i = 1, 2,...., k .
El procedimiento para la estimacin de los i se puede resumir como sigue:
Estimar i =
i
+1 .
in+1 = i n + 1 in
(4.13)
4.2.3
4-46
xi ( )
(x )
= i
si 0 y xi ( ) = ln ( xi ) si
(x )
lim i
= ln ( xi ) . Notar
Y ( ) = 0 + i xi ( ) + = T X ( ) +
(4.14)
i =1
1
1
T
L (Y ; , ) =
exp 2 2 ( )
2
2
(4.15)
(4.16)
Debe recordarse que si una variable z distribuye f(z), y existe otra variable u
tal que u = (z) ( z = (u)), se tiene que u distribuye de la forma
z
f (z)
= f ( ( u ) ) ' ( u ) . Dado que = Y ( ) T X ( ) = (Y ) se obtiene que
u
i ( yi ( ) )
=
= yi 1 y por lo tanto ln i = ( 1) yi . Finalmente, el logaritmo de la
yi
yi
yi
funcin de verosimilitud en este caso es el siguiente:
4-47
n
n
n
ln L = ln ( 2 ) ln ( 2 2 ) + ( 1) ln yi
2
2
i =1
T
1
2 (Y ( ) T X ( ) ) ( Y ( ) T X ( ) )
2
(4.17)
ln y g =
ln y
i =1
y g = exp ln yi n
i =1
(4.18)
yi
. Luego, podemos calcular el
yg
ajuste de los siguientes modelos lineal y log-lineal en forma directa (suponiendo que las
perturbaciones son normal):
Y * = % X * + %
(4.19)
ln Y * = ln X * +
(4.20)
Notar que en (4.19) tanto la endgena como las exgenas han sido
normalizadas por su media geomtrica.
La comparacin directa (MV vs MCO) es posible debido a que:
ln yi* = ln yi ln y g
(4.21)
ln
y
i
n
n
ln yi
= n i =1
ln y g = i =1
n
i =1
i =1
(4.22)
4-48
i =1
i =1
i =1
ln yi
ln yi* = ln yi ln e i=1
=0
(4.23)
cero para la versin log-lineal del modelo, pero tambin es cero para la versin lineal, ya
que = 1 . En consecuencia, la estimacin MV y MCO produjeron los mismos resultados
cuando los datos son normalizados. En el caso de MCO, se escoger el que entregue
un mayor valor de R 2 .
4.2.4
Situacin
V ( i ) E ( yi )
y + y +1
V ( i ) E ( yi )
ln ( y )
V ( i ) E ( yi )
ln ( y + 1)
V ( i ) E ( yi )
1
y
V ( i ) E ( yi )
1
y +1
V ( i ) E ( yi )
sen 1
( y)
V ( i ) E ( yi ) (1 E ( yi ) )
4.3
4-49
Modelos No Lineales
(4.24)
Q=
{ }
2
1 n
Yi f ( ; X i ) )
(
2 i =1 1442443
(4.25)
i2
f ( ; X i )
Q n
= (Yi f ( ; X i ) )
=0
i =1
(4.26)
f ( ; X i ) f ( ; X i ) n
2 f ( ; X i )
2Q
Y
f
X
2
;
=
(
)
(
)
i
i
T
T
T
i =1
(4.27)
La matriz (4.27) debe ser positiva definida. Por otra parte, la distribucin
asinttica del estimador de mnimos cuadrados no lineal viene dada por:
n NL N ( 0; 2 1 )
d
(4.28)
donde:
2 =
1 n
Yi f ; X i
n i =1
XTX
n
) )
) (
1 n f ; X i f ; X i
=
T
n i =1
(4.29)
(4.30)
4.3.1
4-50
f ( 0 ; X )
k =1
Haciendo
f ( 0 ; X )
k0
0
k
k0 )
(4.31)
f ( ; X ) f ( 0 ; X ) Z k k0 + Z k k
K
k =1
k =1
(4.32)
k =1
k =1
Y f ( 0 ; X ) + Z k k0 Z k k +
k =1
1444424444
3 k =1
K
(4.33)
(4.34)
Y%
Y% Z k k +
K
(4.35)
k =1
4.3.2
4-51
f ( ; X 0 )
i =1
xi
)+
(x x )
i
0
i
0
1 K K f (; X )
+
xi xi0 )( x j x 0j ) + ....
(
2 i =1 j =1 xi x j
2
(4.36)
f ( ; x 0 )
2
0
1 f (; X )
x 2
(x x )
(x x )
0 2
3
0
3
1 f (; X )
+
x x 0 ) + .....
(
3
3!
x
(4.37)
y reagrupando trminos:
f ( ; x ) 0 + 1 x + 2 x 2 + 3 x3 + ....
(4.38)
(4.39)
4.4
4-52
Especificacin de Variables
Seleccin de Variables
Como se vio anteriormente, el valor del R 2 nunca decrecer si se aaden
( n 1)
(n k )
(4.40)
(n + k ) 1 R
(
)
(n k )
(4.41)
T k j
AIC j = ln
+ 2
n n
(4.42)
T k j ln ( n )
SIC j = ln
+
n
n
(4.43)
R j2 =
2
j
4-53
( n 1) = 1 ( n k j ) i
R j2 = 1 (1 R 2j )
2
1
(n k )
Yi Y )
(
( n 1) i
(4.44)
Luego, en este caso el error cuadrtico medio se corrige por los grados de
T
libertad:
. Sin embargo, en los otros 2 criterios, el error cuadrtico medio se
nk
corrige de la siguiente manera:
T
( 2 k n )
AIC j = e12j3
n
penalizacin
(4.45)
T
( k n )
SIC j = {
n j
n
penalizacin
(4.46)
Variables Omitidas
Supongamos que el modelo especificado correctamente es el siguiente:
Y = X 1 1 + X 2 2 +
(4.47)
(4.48)
4-54
1
1
1 = 1 + ( X1T X 1 ) X 1T X 2 2 + ( X 1T X 1 ) X 1T
(4.49)
( )
1
E 1 = 1 + ( X 1T X 1 ) X1T X 2 2 1
(4.50)
Si existe una nica variable incluida y una nica variable omitida, el signo del
sesgo en el estimador es evidente. Sin embargo, si existen varias variables, no es posible.
La varianza de 1 es:
( )
1
V 1 = 2 ( X 1T X 1 )
(4.51)
( )
1
V 1,2 = 2 X 1T X 1 X 1T X 2 ( X 2T X 2 ) X 1T X 1
(4.52)
( )
V
1
( )
V 1,2
= 1 X T X X T X 1 X T X
1
2( 2
2)
2
1
2
(4.53)
1,2
1 . Esto ltimo equivale a resolver el problema con una restriccin del tipo 2 = 0 .
Este sesgo no desaparecer si aumenta el tamao muestral, por lo que el
estimador es tambin inconsistente (excepto si X1T X 2 = 0 ). Al mismo tiempo, una varianza
muy alta en la variable X 2 reducir el sesgo, aunque no lo eliminar.
Por otra parte, se puede demostrar tambin que el estimador 2 est sesgado
hacia arriba (an cuando X 1 y X 2 sean ortogonales); sin embargo, para estimar ese
sesgo debiramos estimar 2 . Esto ltimo implica que existirn problemas al contrastar
hiptesis sobre .
1
4.4.3
4-55
Variables Superfluas
Supongamos que el modelo especificado correctamente es el siguiente:
Y = X 1 1 +
(4.54)
(4.55)
En este caso, se puede demostrar que tanto 1 como 2 son insesgados. Sin
embargo, la varianza del estimador 1 ser mayor. Esto se explica por la prdida de
grados de libertad producto de la presencia de ms parmetros en la estimacin. Luego,
los estimadores si bien son insesgados y consistentes, son ineficientes. Esta prdida de
eficiencia hace ms difcil rechazar la hiptesis nula de que un determinado parmetro vale
cero.
5-56
TEMAS ESPECFICOS
5.1
Ortogonalidad
(5.1)
= = T
X 2 X 1
2
1 X 1T X 1
=
0
2
X 1T X 2 X 1T Y
X 2T X 2 X 2T Y
1
1
T
T
0 X1T Y ( X 1 X 1 ) X 1 Y
=
X 2T X 2 X 2T Y ( X T X )1 X T Y
2
2 2
(5.2)
(5.3)
( )
1
2 ( X T X )1
1
1
0
=
T
1
2
T
X2 X2
( X 2 X 2 )
(5.4)
XTX
V = 2 1 1
0
( )
siendo 2 =
5-57
1
2 ( X T X )1
1
1
=
T
1
2
T
X2 X2
( X 2 X 2 )
(5.5)
T
.
nk
Sin embargo, en las regresiones individuales se tendra:
( )
(5.6)
( )
(5.7)
1
uT u
V 1 = 12 ( X 1T X 1 ) 12 =
n k1
1
vT v
V 2 = 22 ( X 2T X 2 ) 22 =
n k2
T
T
T
T
2 ( X 2 X 2 ) X 2 Y ( X 2 X 2 ) X 2 X 11
(5.8)
(
(
1
T
T
1 ( X1 X 1 ) X 1 Y X 2 2
=
1
T
T
2 ( X 2 X 2 ) X 2 Y X1 1
)
)
(5.9)
5-58
1
2 = ( X 2T MX 2 ) ( X 2T MY )
donde M = I X 1 ( X 1T X 1 ) X 1T
1
idempotente ( M = M T M ) .
(5.10)
(M = M )
T
(5.11)
(5.12)
Multicolinealidad
5.2.1
Definicin de Multicolinealidad
5-59
b)
5.2.2
5.2.3
Causas de la Multicolinealidad
Efectos de la Multicolinealidad
5-60
Problemas de Identificacin
(5.13)
5-61
(5.14)
(5.15)
Si el determinante de
(X X)
T
i
: t( n k )
i
(5.16)
5-62
5-63
casos:
a) Cuando se emplean variables explicativas no estacionarias en media. Es decir,
si dos variables explicativas tienen una tendencia comn, esto puede causar
multicolinealidad. Como veremos ms adelante, transformar las variables para
que sean estacionarias, puede resolver el problema, salvo cuando la
multicolinealidad sea estricta. Esta causa es muy comn en la prctica
economtrica.
b) Cuando se consideran muchas variables explicativas. Lgicamente, a medida
que aumenta el nmero de variables explicativas, es ms fcil que aparezca
una pauta de relacin entre ellas que de lugar a un problema de colinealidad.
c)
5-64
1 .... r2k
21
Rx =
....
....
rk1 rk 2 .... 1
(5.17)
5-65
max
min
(5.18)
5.2.5
5-66
Correccin de la Multicolinealidad
Existen diversas soluciones, aunque ninguna resulta plenamente satisfactoria.
(5.19)
(5.20)
(C Y ) =
t
1 t
+ 2 Pt + t
(5.21)
b)
5-67
1
1
C = ( X T X + kI ) X T Y = ( X T X + kI ) X T ( X + )
5-68
(5.22)
( )
1
E C = ( X T X + kI ) X T X
(5.23)
5-69
zi = ( aij x j )
j =1
i = 1,...., q
(5.24)
5-70
Z = X a
(5.25)
var ( zi ) = aiT ai
cov ( zi , zk ) = aiT ak
( X X )a = a
T
(5.26)
(5.27)
donde var ( zi ) = i
5-71
tr
=
i . Por lo tanto, la proporcin de la varianza explicada por
(
)
i =1
i =1
= p.
( )
(5.28)
(5.29)
5-72
-0.5
-1
-1.5
X1
97
100
94
91
88
85
82
79
76
73
70
67
64
61
58
55
52
49
46
43
40
37
34
31
28
25
22
19
16
13
10
0
1
X2
0.5
5-73
Figura 5.2
Componentes Principales
1.5
2
1
97
100
94
91
88
85
82
79
76
73
70
67
64
61
58
55
52
49
46
43
40
37
34
31
28
25
22
19
16
13
10
0
1
X2
0.5
-0.5
-1
-1.5
X1
x%12 x%22
La ecuacin de la elipse es:
+
= c , donde x%1 y x%2 corresponden a
1 2
los ejes rotados y c es la distancia entre el plano de corte de la distribucin
normal bivariada (campana) y el plano definido por f ( x1 , x2 ) = 0 .
5-74
2 p + 5
2
n 1
ln R : p ( p 1) 2
6
(5.30)
5.3
Contrastes Multivariantes
5.3.1
(5.31)
5-75
(5.32)
(5.33)
5.3.2
L ( 0 )
= 2 ln
= 2 ( ln L ( 0 ) ln L ( r ) )
L ( r )
(5.34)
= D ( r ) D ( 0 ) : r2
(5.35)
(5.36)
5.3.3
5-76
es decir,
2
i
donde 2 =
(5.37)
tr ( )
.
p
es decir,
2I
2
i
multivariante sern elipses. Para validar dicha hiptesis, se debe no rechazar la siguiente
hiptesis nula:
p
= n ln i : 2p ( p 1) 2
(5.38)
i =1
5-77
5.4
Heterocedasticidad
5.4.1
Definicin de Heterocedasticidad
0 22
V ( ) =
....
0
0
0 .... 0
0 .... 0
= 2
....
2
0 .... n
(5.39)
Figura 5.3
Perturbaciones Heterocedsticas
50
40
30
20
10
0
0
10
15
20
25
30
35
40
45
-10
-20
-30
-40
Observaciones
(5.40)
5-78
Causas de la Heterocedasticidad
5-79
Cambio de estructura.
5-80
(5.41)
Efectos de la Heterocedasticidad
a.
(5.42)
5-81
1
1
MCG = ( X T 1 X ) ( X T 1Y ) y V MCG = 2 ( X T 1 X )
1
1
MCO = ( X T X ) X T Y y V MC 0 = 2 ( X T X )
1
1
1
MCO = ( X T X ) X T Y y V MCG = 2 ( X T X ) ( X T 1 X )( X T X )
5-82
(X
1 X )( X T X )
5-83
Deteccin de la Heterocedasticidad
a.
Contrastes grficos.
5-84
Contrastes paramtricos.
1
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
nk
ii) Calcular una serie con los errores del modelo anterior al cuadrado
estandarizados:
2 =
T
2
%i2 = i 2
nk
5-85
(5.43)
(5.44)
(5.45)
5-86
1
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
nk
ii) Estimar cuatro regresiones para los valores absolutos del error del
modelo anterior en funcin de una variable elevada consecutivamente
a " h ", que para cada modelo tomara los valores -1, -0,5, 0,5 y 1:
i = 0 + 1Z h + ui
(5.46)
5-87
1
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
nk
2
2
k +1 ( X 1i ) + .... + k + k ( X ki ) +
2
R
i
i
i
i
k + k +1 ( X 1 X 2 ) + .... + k + k + k ( X 1 X k ) +
3k +1 ( X 2i X 3i ) + .... + 4k 1 ( X 2i X ki ) + .... + i
i2 = 0 + 1 X1i + .... + k X ki +
(5.47)
5-88
(5.48)
por
las
tablas
de
heterocedasticidad, y viceversa.
2p 1 ,
afirmaremos
que
existe
5-89
rs = 1
6 di2
i =1
n ( n 2 1)
(5.49)
En esta expresin, una coincidencia mxima (todas las distancias son igual
a cero), dara lugar a una correlacin de Spearman igual a uno; mientras
que una distancia mxima, provocara un valor cero de dicho coeficiente de
correlacin.
5-90
: tn 2
(5.50)
Correccin de la Heterocedasticidad
(5.51)
5-91
0 22
V ( ) =
....
0
0
0 .... 0
0 .... 0
= 2
....
2
0 .... n
(5.52)
(5.53)
es:
1 0
0 2
....
0
0
0 .... 0 1 0
0 .... 0 0 2
.... ....
0 .... n 0
0
0 .... 0
0 .... 0
= 2 PPT
....
0 .... n
(5.54)
Si multiplicamos cada variable del modelo por esta matriz O, tal y como se ha
sugerido, obtenemos unas nuevas variables del siguiente tipo:
P 1Y = P 1 X + P 1 Y * = X * + *
donde:
(5.55)
5-92
V ( * ) = E ( * *T ) = E ( P 1 ) * *T ( P 1 )
V ( * ) = 1E ( * *T ) = 1 2 = 2 I n
) = (P
)( P ) E ( )
1 T
* *T
(5.56)
(5.57)
Luego, podemos afirmar que el modelo transformado (aquel por el que se han
dividido todas las variables por la desviacin tpica estimada de las perturbaciones
aleatorias) soporta una matriz de varianzas covarianzas de las perturbaciones aleatorias
escalar, con lo que se puede estimar con toda garanta por MCO.
En sntesis, los pasos para corregir la heterocedasticidad son los siguientes:
a) Se estiman los parmetros del modelo por MCO, ignorando por el
momento el problema de la heterocedasticidad de las perturbaciones
aleatorias
b) Se establece un supuesto acerca de la formacin de i2 y se emplean los
residuos de la regresin por MCO para estimar la forma funcional
supuesta.
c)
5-93
5.5
Autocorrelacin
5.5.1
Definicin de Autocorrelacin
2
V ( ) =
1 2 ....
n 1
n 2
n 3
.... n 1
.... n 2
= 2
....
.... 1
(5.58)
0,5
0
0
10
15
20
25
-0,5
-1
-1,5
Observaciones
30
35
40
45
5-94
Causas de la Autocorrelacin
a) Una explicacin al problema de autocorrelacin son los factores omitidos
en la regresin que estn correlacionados a travs del tiempo. El anlisis
univariante de series temporales nos sugiere que las variables econmicas
siguen distintas estructuras de autocorrelacin.
b) Otra causa comn de la autocorrelacin es la existencia de tendencias y
ciclos en los datos. Es decir, la mayora de las variables econmicas no
son estacionarias en media. Esto significa que si la variable endgena del
modelo tiene una tendencia creciente o presenta un comportamiento
cclico que no es explicado por las exgenas, el trmino de error recoger
ese ciclo o tendencia.
c)
(5.59)
e)
5-95
(5.60)
Efectos de la Autocorrelacin
(5.61)
donde es una matriz definida positiva y simtrica, pero no diagonal. El estimador MCO
de los parmetros puede escribirse como:
1
= + ( X T X ) X T
(5.62)
( )
( )
((
V = E
( )
)( )
) = E (( X X )
T
1
1
1
V = 2 ( X T X ) ( X T X ) ( X T X )
y si : N ( 0; 2 ) entonces:
X T T X ( XX )
(5.63)
(5.64)
5-96
1
1
1
: N ; 2 ( X T X ) ( X T X ) ( X T X )
(5.65)
Deteccin de la Autocorrelacin
(
n
DW =
t =2
t 1 )
( )
n
t =1
2
t
2 1
(5.66)
(5.67)
5-97
( )
n
t =2
n
t 1
( )
t =2
(5.68)
2
t 1
DW = 2 si = 0 .
DW ( 2, 4 ) si 1 < < 0 .
DW ( 0, 2 ) si 0 < < 1 .
Si H 0 : = 0 frente a H1 : > 0
i) se rechaza H 0 si DW < d min
ii) no se rechaza H 0 si DW > d max
iii) se cae en zona de incertidumbre si d min < DW < d max
5-98
n 1
( )
1 ( n 1) V 1
: N ( 0;1)
(5.69)
5-99
rj =
( )
t
t j
( )
(5.70)
2
t
5-100
5.5.5
(5.71)
t = t 1 + u t
(5.72)
(5.73)
Y% t = %0 + X% t 1 + u t
(5.74)
Y% t
%0
X% t
5-101
( )
n
(5.75)
( )
2
t 1
t =2
t 1
t =2
n
X% t = X t X t 1
(5.76)
(5.77)
5-102
t =2
t =2
(5.78)
(5.79)
5.6.1
Asimetra
E (Y Y )
(5.80)
donde = E (Y Y )
siguiente manera:
A =
1
N
(Y Y )
N
i =1
(5.81)
donde =
1
N
(Y Y )
i =1
5-103
eY =
1
N
Y .
i =1
6
La distribucin de este estimador es A : N 0; , por lo que es factible
N
construir el siguiente contraste:
A
: N ( 0;1)
6 N
5.6.2
(5.82)
Curtosis
E (Y Y )
(5.83)
K =
donde =
1
N
1
N
(Y Y )
N
i =1
(5.84)
(Yi Y ) e Y =
2
i =1
1
N
Y .
i =1
24
La distribucin de este estimador es K : N 3; , por lo que es factible
N
construir el siguiente contraste:
5-104
K 3
: N ( 0;1)
24 N
5.6.3
(5.85)
2
N k 2 1
2
A + K 3 : ( 2)
6
4
(5.86)
La hiptesis nula en este caso ser que todos los datos provienen de la misma
funcin de distribucin multivariante.
Consideremos que existe una observacin sospechosa de ser atpica xi . La
1
Wi
n 1
(5.87)
donde:
Wi =
( x
n
j =1 ( j i )
T
xi )( x j xi )
(5.88)
(x
5-105
xi ) Vi 1 ( x j xi ) : 2p
T
(5.89)
6-106
EXTRAPOLACIN Y SUAVIZAMIENTO
6.1.1
(6.1)
(6.2)
(6.3)
ln Yt = b1 + b2 ln Yt 1
(6.4)
6-107
(6.5)
1
c + abt
(6.6)
c t)
(6.7)
Este modelo es til cuando creemos que los valores probables a futuro son
promedios de sus valores anteriores. A menudo es razonable suponer que los valores ms
recientes de la serie tienen un mayor impacto que los valores anteriores.
Yt = (1 ) Yt i
i
(6.8)
i =0
i
(1 ) =
= 1 , por lo que las ponderaciones suman uno.
1 (1 )
i =0
Es importante notar que si la serie tiene una tendencia creciente, el modelo
(6.8) subpredecir los valores (y viceversa). Esto recomienda eliminar la tendencia antes
de ajustar el modelo.
6.2
6-108
(6.9)
i
Y%t = (1 ) Yt i
(6.10)
i =0
n 1
i
Si escribimos (1 ) Y%t 1 = (1 ) Yt i , y restamos esta expresin de la
i =1
(6.11)
6.3
6-109
Para ajustar los diversos modelos de tendencia de datos a una serie temporal,
se usa la tcnica de MCO:
T
2
= argmin (Yt Tt ( ) )
(6.12)
t =1
( )
YT +l = TT +l
(6.13)
(6.14)
7-110
SERIES DE TIEMPO
Procesos Estocsticos
Linealidad
Estacionariedad
Normalidad (Gaussiano)
7-111
Estacionariedad
7.2.1
Estacionariedad Estricta
Estacionariedad Dbil
(7.1)
V (Yt ) = 2 = 0
(7.2)
cov (Yt , Yt + k ) = k , k
(7.3)
k =
cov (Yt , Yt + k )
V ( Yt ) V ( Yt + k )
7-112
k
0 0
k
0
, k
(7.4)
7.2.3
7-113
1 n
Yt
n t =1
(7.5)
0 =
1 n
(Yt )2
n 1 t =1
(7.6)
n k
k =
k =
(Y )(Y
t +k
t =1
(7.7)
nk
k
0
, k
(7.8)
n 1
0
k
1 + 2 1 k
n
n
k =1
(7.9)
(Y )(Y
k = k =
0
V ( k ) ;
t =1
t +k
nk
1 N
2
(Yt )
n 1 t =1
k 1
1
1
+
2
i2
n
i =1
n k
(Y )(Y
t =1
t +k
(Y )
t =1
(7.10)
(7.11)
7-114
Las ecuaciones definidas por (7.10) se conocen como ecuaciones de YuleWalker. En trminos matriciales, las ecuaciones de Y-W se pueden escribir de la siguiente
forma:
1 1
2= 1
.... ....
k k 1
1
1
k 2
.... k 1 1
k 2 2
O .... ....
.... 1 k
(7.12)
(7.13)
7-115
como el ltimo coeficiente de una autorregresin de la variable centrada sobre sus ltimos
k valores. Es decir, corresponden a los parmetros del modelo de regresin lineal definido
por Yt = 0 + 1Yt 1 + 2Yt 2 ,...., kYt k + t .
Puede demostrarse que los coeficientes tericos de autocorrelacin parcial
pueden calcularse a partir de los coeficientes de autocorrelacin simple resolviendo las
ecuaciones de Yule-Walker:
1
1
2
det
....
k 2
k 1
k =
1
1
2
det
....
k 2
k 1
1
1
1
2
1
1
.... k 2
.... k 3
.... k 4
k 3
k 2 k 3 ....
1 2
....
1 1
....
1 1
....
k 3
k 2
k 3
....
1
1
k 2
k 3
k 4
....
1
.... 1
1
2
3
....
k 1
k
k 1
k 2
k 3
....
1
(7.14)
7.2.5
7-116
(7.15)
-1
-2
-3
Observaciones
97
100
94
91
88
85
82
79
76
73
70
67
64
61
58
55
52
49
46
43
40
37
34
31
28
25
22
19
16
13
10
A continuacin vamos
particularmente su estructura dinmica.
7-117
caracterizar
este
proceso
estacionario,
(7.16)
(7.17)
(7.18)
k 1 , si k = 0
=
0 0 , k 1
(7.19)
Luego, la FAS y FAP valen cero siempre, excepto en k = 0. Este es uno caso
particular en que la FAS y la FAP coinciden.
En consecuencia, pronosticar un proceso RB es imposible. Sin
embargo, es deseable que procesos que s sean pronosticables, presenten un error RB.
Otra caracterizacin dinmica de los procesos puede realizarse a partir de
sus momentos condicionados (en el pasado). Los momentos incondicionales requeran ser
constantes para que el proceso sea estacionario; sin embargo, los momentos condicionales
puede que no lo sean.
7-118
(7.20)
se obtiene
nk : N ( 0;1)
(7.21)
( )
(7.22)
n k
: 12
QBP = n k2 : m2
(7.23)
k =1
7.3
7-119
Ergodicidad
(7.24)
1
2N
E Y ( t ) dt =
por lo tanto:
2
lim ( E ( Yt ) ) = lim ( t2 ) = 0 lim E ( E ( Yt ) ) = 0
N
N
N
(7.25)
Y E (Y )
t =1
2
1 N
Yt E ( Yt ) ) V ( Yt )
(
N 1 t =1
(7.26)
(7.27)
7.4
7-120
Teorema de Wold
Yt = i t i
(7.28)
i =0
donde 0 = 1 y
i =0
2
i
< .
E (Yt ) = E i t i = i E ( t i ) = i 0 = 0
i =0
i=0
i =0
(7.29)
V (Yt ) = V i t i = i2V ( t i ) = 2 i2
i =0
i =0
i=0
(7.30)
E (Yt t 1 ) = 0 + 1 t 1 + 2 t 2 + .... = i t i
i =1
} = E {(
t 1 )
} = E ( ) =
2
t
(7.32)
7-121
7.5
Retardos y Diferencias
7.5.1
Operador de Retardos
i
El operador de retardos L es un operador lineal tal que LY
t = Yt i . Sus
Lc = c
( L + L )Y = LY + L Y = Y
+ Yt j
( L L ) Y = L ( L Y ) = LY
= Yt i j
LiYt = Yt +i
t i
t j
i
Para a < 1 , (1 + aL + a 2 L2 + ....) Yt = a i LY
t =
i =0
7.5.2
1
Yt
1 aL
Operador de Diferencias
El operador de diferencias es un operador tal que Yt = Yt Yt 1 . Notar
adems que:
Yt = (1 L ) Yt
2Yt = Yt 2Yt 1 + Yt 2
7.6
Ecuaciones de Diferencias
7.6.1
Definicin
7-122
Una ecuacin de diferencias (en nuestro caso lineal y finita) se puede definir
como una expresin que relaciona el valor de una variable en el momento presente (Yt )
con momentos pasados de la misma:
Yt = 1Yt 1 + 2Yt 2 + .... + pYt p
(7.33)
Notar que la relacin entre la variable y sus retardos es lineal. Las ecuaciones
de diferencia pueden presentar trminos adicionales:
Yt = f ( t ) + 1Yt 1 + 2Yt 2 + .... + pYt p
(7.34)
f (t ) =
f (t ) = + t
f ( t ) = t
f ( t ) = + t + ( L ) t
Las dos primeras expresiones son determinsticas, y las dos segundas son
estocsticas.
Las ecuaciones de diferencias finitas pueden ser resueltas mediante forma
recursiva o mediante resoluciones analticas ms complejas.
7.6.2
7-123
Solucin Recursiva
(7.35)
Yt = 12Yt 2 + t + 1 t 1
(7.36)
Yt = 13Yt 3 + t + 1 t 1 + 12 t 2
(7.37)
.....
t 1
Yt = 1tY0 + 1i t i
(7.38)
i =0
Solucin Analtica
(7.39)
a)
7-124
Solucin Homognea
(7.40)
(7.41)
(1 1L ) Yt = 0 1 = 0
(7.42)
(7.43)
(7.44)
7-125
Yt 1Yt 1 2Yt 2 = 0
(7.45)
2 1 2 = 0
(7.46)
+ 2 + 4
1
2
1
2
* =
1 12 + 42
(7.47)
(7.48)
(7.49)
(7.50)
(7.51)
(7.52)
(7.53)
7-126
(7.54)
(7.55)
(7.56)
3 = A1 ( 2 ) + A2 ( 2 ) ( 1)
(7.57)
Solucin Particular
Caso 1: g ( t ) = 0
(7.58)
7-127
(7.59)
0
1 1 2 .... p
(7.60)
i =1
=1.
Caso 2: g ( t ) = b t
La ecuacin genrica sera ahora:
Yt = 0 + 1Yt 1 + 2Yt 2 + .... + pYt p + b t
(7.61)
(7.62)
( + t ) 1 ( + ( t 1) ) 2 ( + ( t 2 ) ) .... p ( + ( t p ) ) = 0 + b t
(7.63)
* =
0 (1 + 22 + .... + p p )
1 1 2 .... p
(7.64)
* =
7-128
b
1 1 2 .... p
(7.65)
Yt p = * + * t
(7.66)
Caso 3: g ( t ) = b d t
La ecuacin genrica sera ahora:
Yt = 1Yt 1 + 2Yt 2 + .... + pYt p + b d t
(7.67)
(7.68)
Resolviendo obtenemos:
* =
b
1 1d 2 d 2 .... p d p
(7.69)
Yt p = *d t
(7.70)
f ( t ) es
(7.71)
estocstica:
p ( L ) Yt = q ( L ) t Yt =
q ( L)
p ( L)
(7.72)
(7.73)
0
+ 1i t i .
1 1 i =0
7-129
0
+ 1i t i
1 1 i =0
Dado que Y0 = A1 +
(7.74)
+ 1i t i , se tendr A1 = Y0 0 1i i .
1 1 i =0
1 1 i =0
t
Yt g = Y0 0 1i i (1 ) + 0 + 1i t i
1 1 i =0
1 1 i =0
14444
3 144
4244444
42444
3
Sol Homog
(7.75)
Sol Part
Yt p = Y0 + 0 t + t i
(7.76)
i=0
Yt p = b0 + b1 t + it t i
(7.77)
i =0
7.7
7-130
Crculo Unitario
(Teorema de Moivre )
Yt h = A r t sen ( wt + )
(7.78)
donde A1 y A2 son las constantes arbitrarias habituales que dependen de las condiciones
de borde (iniciales en nuestro caso), y 1 y 2 son las races caractersticas.
El parmetro r es lo que se denomina mdulo o valor absoluto del nmero
complejo, y w representa lo que se denomina frecuencia angular y define el nmero de
ciclos por unidad de tiempo, es decir, la inversa del perodo. La frecuencia se mide en
radianes e indica el nmero de ciclos que hay por unidad de tiempo, y est elegida de
forma que satisfaga simultneamente la expresin:
cos ( w ) =
1
2 2
(7.79)
(7.80)
7-131
Continuando con el anlisis, y dada la forma general (7.78), est claro que la
convergencia (estacionariedad) de la ecuacin en diferencias (proceso autorregresivo)
pasa por que 1 y 2 sean menores que la unidad, o ms estrictamente, que 1 y 2
deben caer dentro de un crculo unitario (y no simplemente que deben ser menores que 1).
La razn es que cuando 1 y 2 son enteras, bastara una recta para
representarlas, por lo que el crculo, es decir las dos dimensiones, seran innecesarias;
pero cuando 1 y 2 son imaginarias, necesitamos una representacin en dos ejes, uno
real y otro imaginario, para representar races imaginarias del tipo:
+ 2 + 4
+ i d
1
2
1
= 1
2
2
* =
1 12 + 42 1 i d
=
2
2
(7.81)
2
d
2
(7.82)
7-132
i d
1 = 1 ; +
2
2
i d
2 = 1 ;
2
2
Cuando las soluciones son reales, basta el eje horizontal (real) para
representarlas; cuando son imaginarias, deben caer dentro del crculo unitario ya que de
otra forma el radio r sera superior a 1 y la solucin no sera convergente.
8-133
(8.1)
Procesos MA(1)
El proceso de media mvil de primer orden o MA(1) es:
Yt = + t + 1 t 1 = + (1 + 1 L ) t
(8.2)
8-134
Figura 8.1
Relacin de 2 Procesos MA(1): 1 = 0,4 vs 1 = 0,9 y t : N ( 0;1)
1
0.8
0.6
0.4
0.2
97
94
100
91
88
85
82
79
76
73
70
67
64
61
58
55
52
49
46
43
40
37
34
31
28
25
22
19
16
13
10
tetha=0,4
tetha=0,9
-0.2
-0.4
-0.6
-0.8
-1
Observaciones
(8.3)
V (Yt ) = V ( ) + V ( t ) + 12V ( t 1 ) = 2 + 12 2 = 2 (1 + 12 ) = 0
(8.4)
cov ( Yt , Yt 1 ) = E ( Yt 1 )( Yt ) = E ( t 1 + 1 t 2 )( t + 1 t 1 )
(8.5)
cov (Yt , Yt 1 ) = 1 = 1 2
(8.6)
cov (Yt , Yt 2 ) = 2 = 0
(8.7)
8-135
0 =
0
=1
0
(8.8)
1 =
= 12
0 1 + 1
(8.9)
k =
k
= 0 , k > 1
0
(8.10)
(8.11)
V (Yt t 1 ) = E Yt E (Yt t 1 ) = E ( t2 t 1 ) = 2
(8.12)
0.8
0.6
0.4
0.2
0
0
5
Retardo
8-136
Figura 8.3
Correlograma Simple 1 < 0
1.2
0.8
0.6
0.4
0.2
0
0
-0.2
-0.4
-0.6
-0.8
Retardo
Procesos MA(2)
En este caso, la representacin de momentos no condicionales es la siguiente:
Yt = + t + 1 t 1 + 2 t 2
(8.13)
E (Yt ) =
(8.14)
V (Yt ) = 2 + 12 2 + 22 2 = 2 (1 + 12 + 22 ) = 0
(8.15)
cov ( Yt , Yt 1 ) = E ( t + 1 t 1 + 2 t 2 )( t 1 + 1 t 2 + 2 t 3 )
(8.16)
cov (Yt , Yt 1 ) = 1 = 2 (1 + 1 2 )
(8.17)
cov ( Yt , Yt 2 ) = E ( t + 1 t 1 + 2 t 2 )( t 2 + 1 t 3 + 2 t 4 )
(8.18)
8-137
cov (Yt , Yt 2 ) = 2 = 2 2
(8.19)
cov (Yt , Yt 3 ) = 3 = 0
(8.20)
0
=1
0
(8.21)
1 =
1
+
= 1 2 1 22
0 1 + 1 + 2
(8.22)
2 =
2
2
=
0 1 + 12 + 22
(8.23)
k =
k
= 0 , k 3
0
(8.24)
Procesos MA(q)
En este caso, la representacin es la siguiente:
Yt = + t + 1 t 1 + 2 t 2 + .... + q t q
(8.25)
E (Yt ) =
(8.26)
(8.27)
cov ( Yt , Yt 1 ) = 1 = 2 (1 + 1 2 + 2 3 + .... + q 1 q )
(8.28)
cov ( Yt , Yt 2 ) = 2 = 2 ( 2 + 1 3 + 2 4 + .... + q 2 q )
(8.29)
.....
cov (Yt , Yt q ) = q = q 2
(8.30)
8.4
8-138
MA(1):
Yt = + t + 1 t 1
(8.31)
Yt 1 = + t 1 + 1 t 2
(8.32)
Yt 2 = + t 2 + 1 t 3
(8.33)
.....
Despejando t , t 1 , t 2 , etc. se obtiene:
t = + Yt 1 t 1
(8.34)
t = + Yt 1 ( + Yt 1 1 ( t 2 ) ) = + Yt 1Yt 1 + 1 + 12 ( t 2 ) (8.35)
t = + Yt 1Yt 1 + 1 + 12 ( + Yt 2 1 t 3 )
(8.36)
etc.
Si continuamos eliminando t 3 y siguientes, el procedimiento continuar hasta
el infinito. Esto lleva a expresar Yt como funcin de sus valores retardados ms una
constante y un trmino de error:
Yt = + t 1Yt 1 + 12Yt 2 13Yt 3 + .....
Yt = + t + ( 1) 1iYt i
i
(8.37)
(8.38)
i =1
Esto tiene sentido si 1 < 1 , ya que, de otro modo, el efecto del pasado sera
ms importante para explicar el comportamiento actual. Lo ms lgico es pensar que el
efecto del pasado va siendo cada vez menor y el proceso es invertible.
Si 1 = 1 , es un caso lmite de invertibilidad, en el que el efecto se mantiene
constante con el retardo.
8-139
En este caso, debido a que los errores no son funcin lineal de los parmetros
(no se cumple el supuesto de linealidad requerido para utilizar MCO), la estimacin se
resuelve mediante mtodos numricos.
Analicemos el caso de un MA(1):
Yt = t + 1 t 1 t = Yt 1 t 1
(8.39)
t = Yt Yt = Yt 1 t 1
(8.40)
(8.41)
2 = Y2 11 = Y2 1 (Y1 1 0 ) = Y2 1Y1 + 12 0
(8.42)
(8.43)
......
n 1
n = ( 1) 1iYn i + ( 1) 1n 0
i
i =0
(8.44)
8-140
t (10 )
1
10 )
(8.45)
t
= t 1 , por lo que se cumple:
1
t t0 (1 10 ) t01
(8.46)
(8.47)
donde
t (10 , 20 )
1
0
1
)+
t (10 ,10 )
2
20 )
(8.48)
t
t
= t 1 y
= t 2 . Luego se obtiene:
1
2
t t0 + t01 (1 10 ) + t02 ( 2 20 )
(8.49)
8-141
(8.50)
(8.51)
t +
0
t
i =1
t ( 0 , 0 )
i
t ( 0 , 0 )
j =1
( ) +
i
0
i
0j )
(8.52)
(8.53)
8.6
8-142
(8.54)
(8.55)
(8.56)
(8.57)
(8.58)
YT + 2 T = 2T
(8.59)
h>2
(8.60)
8-143
RB
(8.61)
T + 2 T = T + 2 + 1T +1
MA(1)
(8.62)
MA(2)
(8.63)
T + h T = T + h + 1 T + h1 + 2 T + h 2
h>2
(8.64)
(8.65)
V T +1 T = 2
V T + 2 T = 2 (1 + 12 )
V T + h T = 2 (1 + 12 + 22 )
h>2
(8.66)
(8.67)
(8.68)
(8.69)
8-144
hq
(8.70)
T + h T = MA ( q )
h>q
(8.71)
hq
(8.72)
h>q
(8.73)
V T + h T < V ( Yt )
V T + h T = V ( Yt )
T + h T
que
(8.74)
(8.75)
YT + h : N YT + h T ;V T + h T
))
(8.76)
8-145
Figura 8.4
Pronstico de un MA(1)
2
1.5
0.5
Proceso
0
Cota Superior
1
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Cota Inferior
-0.5
-1
-1.5
-2
Tiempo
Sin embargo, hasta ahora se han considerado conocidos los valores de los
parmetros y de las innovaciones. En la prctica se deben estimar (ver seccin 8.5), y
luego utilizar las mismas ecuaciones pero con los estimadores de los parmetros y los
residuos. Este procedimiento es vlido para estimar pronsticos, errores, varianzas e
intervalos.
9-146
PROCESOS AUTORREGRESIVOS
(9.1)
donde es un trmino constante y t es una variable ruido blanco, que representa los
errores del ajuste y otorga el carcter aleatorio a la misma.
9.1
Procesos AR(1)
En este caso, la representacin es la siguiente:
Yt = + 1Yt 1 + t
(9.2)
Media
La media incondicional es:
E (Yt ) = E (Yt 1 ) =
= + 1 =
1 1
(9.3)
(9.4)
(9.5)
9.1.2
9-147
Varianza
La varianza incondicional es:
V (Yt ) = V (Yt 1 ) = 0
0 = 12 0 + 2 0 =
(9.6)
2
1 12
(9.7)
(9.8)
(9.9)
La condicin a cumplir para que 0 sea positiva y finita es que 1 < 1 . En ese
caso el modelo es estacionario en media y varianza.
9.1.3
Autocovarianza
cov (Yt , Yt 1 ) = cov (Yt 1 , Yt ) = 1
(9.10)
cov ( Yt , Yt 1 ) = E ( Yt 1 )( Yt ) = E [ yt 1 yt ]
(9.11)
Yt = + 1Yt 1 + t = (1 1 ) + 1Yt 1 + t
(9.12)
Yt = 1 (Yt 1 ) + t yt = 1 yt 1 + t
(9.13)
1 = E [ yt 1 yt ] = E yt 1 (1 yt 1 + t ) = 1E ( yt21 ) + E ( yt 1 t ) = 1 0
(9.14)
(9.15)
(9.16)
9.1.4
9-148
Autocorrelacin
0 =
0
=1
0
(9.17)
1 =
1
= 1
0
(9.18)
2 =
2
= 12
0
(9.19)
k
= 1k . Los valores de la funcin de
0
(9.20)
( L)
(1 1L ) = 0 L
>1
1
> 1 1 < 1
1
(9.21)
9-149
Figura 9.1
Correlograma Simple 1 > 0
1.2
0.8
0.6
0.4
0.2
0
0
Retardo
Figura 9.2
Correlograma Simple 1 < 0
1.5
0.5
0
0
-0.5
-1
-1.5
Retardo
9-150
Figura 9.3
Correlograma Parcial 1 > 0
1.2
0.8
0.6
0.4
0.2
0
0
Retardo
Figura 9.4
Correlograma Parcial 1 < 0
1.2
0.8
0.6
0.4
0.2
0
0
-0.2
-0.4
-0.6
-0.8
Retardo
9-151
Figura 9.5
Relacin de 2 Procesos AR(1): 1 = 0,4 vs 1 = 0,9
1.5
0.5
97
100
94
91
88
85
82
79
76
73
70
67
64
61
58
55
52
49
46
43
40
37
34
31
28
25
22
19
16
13
10
phi=0,4
phi=0,9
-0.5
-1
-1.5
Observaciones
Se observa que las fluctuaciones del proceso AR(1) con = 0,9 son ms
persistentes que con = 0,4, a diferencia del MA(1), que tiene poca memoria.
9.2
Procesos AR(2)
En este caso, la representacin es la siguiente:
Yt = + 1Yt 1 + 2Yt 2 + t
9.2.1
(9.22)
Media
E (Yt ) = E (Yt 1 ) = E (Yt 2 ) =
= + 1 + 2 =
9.2.2
1 1 2
(9.23)
(9.24)
Varianza
V (Yt ) = V (Yt 1 ) = V (Yt 2 ) = 0
(9.25)
0 = V yt = E yt2 = E yt (1 yt 1 + 2 yt 2 + t ) = 1 1 + 2 2 + 2
(9.26)
9.2.3
9-152
Autocovarianza
cov (Yt , Yt 1 ) = cov (Yt 1 , Yt ) = 1
(9.27)
1 = cov (Yt , Yt 1 ) = E yt 1 (1 yt 1 + 2 yt 2 + t ) = 1 0 + 2 1
(9.28)
2 = cov ( Yt , Yt 2 ) = E yt 2 (1 yt 1 + 2 yt 2 + t ) = 1 1 + 2 0
(9.29)
Autocorrelacin
0 =
0
=1
0
(9.30)
1 =
1
= 1 + 1 1
0
(9.31)
2 =
2
= 1 1 + 2
0
(9.32)
k
= 1 k 1 + 2 k 2 .
0
(9.33)
( L)
Para que el proceso AR(2) sea estacionario la raz del operador polinomial
( L ) debe caer fuera del crculo unitario, es decir:
(1 L L ) = 0 L > 1
(9.34)
+
1
L* =
1
(9.35)
12 + 42
22
12 + 42
22
Sea
G1 =
1
L1
9-153
G2 =
1
.
L2
G1 < 1
Si
G2 < 1
entonces
12
. En este caso,
4
1
2
. Luego, si 1 < 2 , dado que 2 = 1 , el modelo resultante es
2
4
estacionario puesto con 1 < 2 < 0 .
G1 = G1 =
Por otro lado, las races sern reales y diferentes si 12 + 42 > 0 2 >
12
.
4
(9.36)
2 1 < 1
(9.37)
1 < 2 < 1
(9.38)
Estas tres ltimas condiciones son necesarias y suficientes para que el proceso
AR(2) sea estacionario, incluso cuando las soluciones sean complejas conjugadas.
2
2 < 1
1 + 2 < 1
1
2 1 < 1
1 < 2
9.3
9-154
Procesos AR(p)
En este caso, la representacin es la siguiente:
Yt = + 1Yt 1 + 2Yt 2 + .... + pYt p + t
(9.39)
E ( Yt ) = E ( Yt 1 ) = .... = E (Yt p ) =
= + 1 + 2 + .... + p =
(9.40)
1 1 2 .... p
(9.41)
(9.42)
( L)
1
= i , donde
Li
(9.43)
(9.44)
,
k 1
(9.45)
9-155
(9.46)
2 = 1 1 + 2 0 + .... + p p 2
(9.47)
.....
p = 1 p 1 + 2 p 2 + .... + p 0
(9.48)
(9.49)
2 = 1 1 + 2 0 + .... + p p 2
(9.50)
.....
p = 1 p 1 + 2 p 2 + .... + p 0
(9.51)
1
1
p2
.... p 1 1
p 2 2
O .... ....
....
1 p
(9.52)
9-156
Figura 9.6
Correlograma Parcial > 0
1.2
0.8
0.6
0.4
0.2
0
0
-0.2
Retardo
Figura 9.7
Correlograma Parcial < 0
1.2
0.8
0.6
0.4
0.2
0
0
-0.2
-0.4
-0.6
-0.8
Retardo
9.4
9-157
(9.53)
w = W +
(9.54)
w1
w
w= 2
....
wT
= 1
....
k
w0
1
1
w1
W =
....
1 wT 1
w1
w0
wT 2
.... w1 p
.... w2 p
.... wT p
1
= 2
....
T
1
Luego, el estimador MCO es simplemente = (W TW ) W T w . Si no se
(9.55)
(9.56)
9-158
(9.57)
(9.58)
YT + 2 T = + YT +1 T = 2YT + (1 + )
(9.59)
(9.60)
YT + h T = hYT + (1 + + 2 + ..... + h 1 )
(9.61)
lim YT + h T =
=
h
1
(9.62)
(9.63)
T + h = 2YT + h 2 + (1 + ) + T + h + T + h 1 YT + h T
(9.64)
T + h = hYT + (1 + + 2 + .... + h 1 )
+ T + h + T + h1 + 2 T + h 2 + .... + 2 h1T +1 YT + h T
T + h = T + h + T + h1 + 2T + h2 + .... + 2 h1 T +1
(9.65)
(9.66)
y su varianza:
V ( T + h ) = 2 (1 + 2 + 4 + .... + 2 h 2 )
(9.67)
9-159
Figura 9.8
Pronstico de un AR(1)
5
4.5
3.5
Proceso
2.5
Cota Superior
Cota Inferior
1.5
0.5
0
1
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Tiempo
9.6
(9.68)
9-160
(9.69)
(9.70)
YT + 2 T = YT +1 T
(9.71)
(9.72)
YT +3 T = YT + 2 T
(9.73)
estar fuera del crculo unitario para que el proceso sea invertible
9-161
9.8
Procesos ARMA(p,q)
( L)
t
(L)
(9.74)
(9.75)
n 2
1 2
exp T 1
2
(9.76)
9-162
donde:
:
(9.77)
....
0
1+ 2
0
2
=
....
O
....
0
.... 1 + 2
0
(9.78)
.... n 1
1
n 2
2
=
1 ....
O ....
n1
n 2 .... 1
(9.79)
9-163
9.9
9-164
(9.81)
(9.82)
(9.83)
(9.84)
(9.85)
(9.86)
(9.87)
9.10
9-165
Procesos ARIMA(p,i,q)
Hasta este momento se han tratado procesos estacionarios. Sin embargo, las
series de datos econmicos suelen caracterizarse por ser no estacionarias: ntese la simple
observacin de una tendencia creciente en el tiempo o de unas fluctuaciones que crecen
en tamao con el paso del tiempo, como, por ejemplo, puede ocurrir con el precio de
algunos activos financieros.
Muchas series econmicas se convierten en aproximadamente estacionarias
despus de aplicar diferencias en una ms etapas. Lo que se hace en tales situaciones es
trabajar con la serie en diferencias especificando y estimando un modelo para ellas.
Una prediccin con estas series hay que traducirla a una prediccin para la
serie origen, en cuyo anlisis est interesado el investigador.
(9.88)
(9.89)
(9.90)
Yt = + Yt 1 + t
(9.91)
(9.92)
Yt = t k
(9.93)
V (Yt ) = N 2
(9.94)
t =0
9-166
Procesos Estacionales
9.11.1
9-167
Yt = i Dit + t
(9.95)
i =1
9-168
Yt = t + i Dit + t
(9.96)
i =1
(9.97)
(1 + L + L
s
2s
+ .... + p Lps ) Yt = + t
p ( Ls ) Yt = + t
(9.98)
(9.99)
Dadas estas semejanzas, los resultados van a ser similares entre s. Por
ejemplo, la primera cuestin que debemos dilucidar es si el proceso autorregresivo
estacional es estacionario o no. Tomando como referencia un proceso autorregresivo
regular, podemos decir que un proceso autorregresivo estacional ser estacionario siempre
que las races del polinomio de retardos p ( Ls ) estn todas fuera del crculo unidad.
9-169
(9.100)
1 1 2 .... p
(9.101)
(9.102)
(9.103)
Yt = + q ( Ls ) t
(9.104)
Como todo proceso que solamente tiene parte de medias mviles, este
proceso ser siempre estacionario. No ser, por el contrario, siempre invertible. Para que
cumpla esta caracterstica es necesario imponerle una condicin similar a la de los
procesos de medias mviles regulares. As, un proceso estacional de medias mviles ser
invertible cuando las races del polinomio autorregresivo de retardos estn todas fuera del
crculo unidad.
9-170
(9.105)
Identificacin de s
El grfico de la serie (la serie presenta valores superiores o inferiores al valor medio
anual, los cuales se repiten frecuentemente para determinar periodos al ao).
b.)
10
10-171
VECTORES AUTORREGRESIVOS
Estructura Bsica
Consideremos un modelo de dos variables (Yt1 , Yt 2 ) con un rezago (p = 1):
Yt1 = 01 + 11Yt11 + 21Yt 21 + t1
(10.1)
Yt 2 = 02 + 12Yt11 + 22Yt 21 + t2
01
0 = 2 ,
0
11 21
,
1 = 2
2
1 2
t1
t = 2
t
(10.2)
(10.3)
Y1
Yt = t2
Yt
1
, A= 2
3
10-172
31
1
0 = 02 ,
0
1 21
,
1 = 12
2
1 2
1
t = t2
t
AYt = 0 + 1Yt 1 + t
(10.4)
Yt = A1 0 + A11 Yt 1 + A1t
{
123 {
(10.5)
Yt = 0 + 1Yt 1 + U t
(10.6)
Ut
Al igual que en para el caso univariado, se requiere que este sistema sea
estacionario. Estacionariedad estricta o fuerte impone la condicin que la funcin de
distribucin multivariada sea estable en el tiempo, mientras que estacionariedad en su
versin dbil implica necesariamente que la media, la varianza y las covarianzas
intertemporales entre variables dependientes no cambien en el tiempo.
Para ello, se debe encontrar una dinmica convergente del sistema a travs
de analizar las races del siguiente polinomio:
11 12
1 0
p ( ) = det
1
2 22
0 1
1
424
3
(10.7)
1 11 12
21 1 22
(10.8)
10-173
Luego, se obtiene:
1 (11 + 22 ) + 2 (1122 + 2112 ) = 0
(10.9)
2
2
14
24
3
(10.10)
1 denominados valores propios. Para que un sistema sea estacionario estas races deben
ser menores que 1 en valor absoluto.
Generalizando a un sistema o vector autorregresivo con d variables y con p
rezagos, la representacin matricial con su respectiva condicin de estacionariedad ser:
Yt = 0 + 1Yt 1 + 2Yt 2 + .... + pYt p + t
(10.11)
det ( I 1 + 2 2 + .... + p p ) = 0
(10.12)
donde:
i : son las matrices de d x d de coeficientes
0 : es el vector de interceptos de d x 1
t : N ( 0, ) es un vector ruido blanco de d x 1.
La expresin (10.11) se denomina forma Reducida.
10-174
(10.13)
pd2
T
(10.14)
pd2
BIC = ln + ln (T )
T
HQ = ln + 2 ln ln ( T )
(10.15)
pd2
T
(10.16)
donde:
p define el nmero de rezagos del VAR
T: el nmero de observaciones
d: el nmero de ecuaciones (o variables) del VAR
ln : define el logaritmo del determinante de la matriz de varianzas y covarianzas
estimada de los residuos muestrales de cada ecuacin del sistema VAR.
10-175
t1t2
t2t2
.... t1td
.... t2td
.... ....
.... td td
....
t2td
(10.17)
T
T
1 T
T
ln ( 2 ) ln ( 1 ) ( Yt X ) 1 (Yt X ) (10.18)
2
2
2 t =1
T
T
1 T
ln ( 2 ) ln ( 1 ) U tT 1U t
2
2
2 t =1
( ln L ) T T 1 T T
= Ut Ut = 0
1
2
2 t =1
1 T T
T
= Ut Ut
T t =1
(10.19)
(10.20)
(10.21)
10-176
(10.22)
Yt = ( I 1 ) 0 + 1i t i
1
(10.23)
i =0
1 = Z Z 1 ,
1 0
0
2
donde =
.... ....
0 0
0
0
,
.... ....
.... n
....
....
Z = ( z1 , z2 ,...., zn )
propios de son menor a uno en mdulo. Este ltimo aspecto representa la estabilidad
i
1
del modelo VAR, de tal forma que la influencia de los valores iniciales desaparezca
asintticamente. La analoga con los modelos AR es directa.
Debe notarse que 12 = ( Z Z 1 )( Z Z 1 ) = Z 2 Z 1 , y en general se tendr
que 1p = Z p Z 1 .
10.6
10-177
Pronsticos en el VAR(p)
El pronstico con el ECM mnimo viene dado por:
h 1
YT + h E (YT + h Y1 , Y2 ,...., YT ) = ( j T + h j )
(10.24)
j =0
las
YH = Y{
,
Y
,....,
Y
y
,....,
T +H
H
T +1
T +2
T + H , respectivamente, ambos de
T +1 T + 2
d x1
d x1
(10.25)
H 1 H 2 H 3
.... 0
.... 0
........
.... 0
(10.26)
(10.27)
V YH E (YH Y1 , Y2 ,...., YT
)) = ( I
) T
(10.28)
11
11-178
Paseo Aleatorio
Hemos visto que los procesos MA finitos son siempre estacionarios y que los
AR lo son si las races de ( B ) = 0 estn fuera del crculo unidad. Consideremos el AR(l):
Yt = + Yt 1 + t
(11.1)
(11.2)
11-179
(11.3)
V (Yt ) = 2 t V (Yt + k ) = 2 ( t + k )
(11.4)
(11.5)
cov (Yt , Yt + k )
V (Yt + k ) V (Yt )
2t
( t + k )
t
(t + k )
(11.6)
(11.7)
(11.8)
YT + 2 = E (YT + T +1 + T +2 ) = YT
(11.9)
11-180
(11.10)
YT +1
y su varianza:
V (T +1 ) = 2
(11.11)
(11.12)
2
V (T + 2 ) = E ( T +1 + T + 2 ) = E ( T2+1 ) + 2 E ( T +1T + 2 ) + E ( T2+ 2 )
(11.13)
V (T + 2 ) = 2 2
(11.14)
(11.15)
(11.16)
YT +1 = E ( YT +1 T ) = YT + + E ( T +1 T ) = YT +
(11.17)
(11.18)
11-181
Figura 11.1
Pronstico de un Paseo Aleatorio Sin Tendencia
3
Proceso
0
1
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Cota Superior
Cota Inferior
-1
-2
-3
Tiempo
Figura 11.2
Pronstico de un Paseo Aleatorio Con Tendencia
10
Proceso
Cota Superior
Cota Inferior
0
1
10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Tiempo
11.2
11-182
Procesos ARIMA
(1 L L
( L ) d Yt = ( L ) t
(11.20)
( L ) wt = ( L ) t
(11.21)
11-183
Y%t = Yt Yt = Yt 0 + 1t
11.2.1
(11.22)
11-184
11 = 1 = 1
1
(11.23)
21 1
=
1
22
1 1
1 2
31 1
32 = 1
33 2
1
1
1
2 1
1
2
1
3
(11.24)
(etc.)
(11.25)
11-185
(11.26)
Yt = 21Yt 1 + 22Yt 2 + t
(11.27)
(11.28)
k 1
1
1
+
2
12
i =1
(11.29)
11-186
( )
1
V kk = , k > p
T
(11.30)
1
por lo que el intervalo de confianza, al 95%, para contrastar kk = 0 es igual a 1, 96
.
T
Es posible verificar si una muestra procede de un proceso autorregresivo de
un orden p* dado, comprobando si kk cae dentro del intervalo para todo k > p* (es
significativamente igual a cero).
En la prctica, se utilizan estas tcnicas para calcular intervalos de confianza
para todos los coeficientes de autocorrelacin parcial estimados, con independencia de
cul sea el tipo de proceso, que se desconoce de antemano.
Tambin hay que identificar la inclusin o no de trmino independiente
(constante). La media del proceso est ligada al mismo, por lo tanto, si la media observada
se considera significativamente igual a cero, no se introducir trmino independiente en el
modelo.
Esta etapa suele plantear ciertas dificultades y su objetivo consiste, en general,
en la especificacin tentativa de unos pocos modelos con estructuras sencillas. La etapa de
estimacin y la posterior validacin de los resultados confirmarn los indicios o, por el
contrario, servirn de fundamento para la reformulacin de los modelos propuestos.
11.2.2
11-187
ARMA(p,q):
(1 L L
.... p Lp ) wt = (1 1 L 2 L2 .... q Lq ) t
(11.31)
El proceso es estacionario.
El proceso es invertible.
( L)
wt
(L)
(11.32)
( L )
wt
( L )
(11.33)
2
t
11-188
Si estn presentes los trminos de media mvil, esta expresin es no lineal, por
lo que deben utilizarse mtodos de estimacin no lineales. Adicionalmente, debe emplearse
algn criterio para inicializar la serie (elegir nmeros para los valores iniciales no
observada).
Supongamos que un total de T + d observaciones estn disponibles para la
serie estacionaria homognea de orden d; denotamos esta observaciones como
(Y d +1;....; Y0 ; Y1;....; YT ) . Despus de diferenciar la serie d veces, obtenemos la serie
2
t
(11.34)
2 2
Dado que los parmetros a estimar estn dentro del segundo trmino de la
derecha, se obtiene que la estimacin por mxima verosimilitud condicionada y mnimos
cuadrados es la misma.
11.2.3
Inicializacin de la Serie
Dado que la expresin
2
t
11-189
t =1
2
t
11-190
11-191
Q ( m ) = T rt 2 : m2 p q
(11.35)
t =1
Q ( m ) = T (T + 2 )
(11.36)
(11.37)
11-192
(11.38)
(11.39)
11-193
i i
( )
V i
H 0 : j = 0
H0 : = 0
: tT k
j j
( )
( )
V j
: tT k
: tT k
(11.40)
(11.41)
(11.42)
11-194
(11.43)
1 1 L 2 L2 .... q Lq = 0
(11.44)
f)
11-195
g) Anlisis de Estabilidad
La construccin de un modelo ARIMA est justificada por su utilizacin para la
prediccin. Conviene saber entonces si el modelo estimado para el perodo
muestral sigue siendo vlido para perodos futuros.
Se pretende contrastar si el ltimo tramo muestral ha estado generado por la
misma estructura que el resto de las observaciones.
11-196
F= T
: F( k ,T 2 k )
T
2
1 2
2
1t + 2t (T 2k )
t =1
t =1
(11.45)
T +1
(11.46)
11-197
(11.47)
(11.48)
donde todas las variables con subndices inferiores a T+1, dejan de ser aleatorias, por lo
que sus esperanzas matemticas coinciden con sus realizaciones y E ( T +1 ) = 0 , por
hiptesis.
Despus de obtener YT +1 se calcula YT + 2 , y as sucesivamente. Los t son
inobservables, por lo que hay que sustituirlos por sus estimaciones, que se obtienen a travs
de los sucesivos residuos del modelo.
Si algn residuo no es posible obtenerlo, se considera igual a su media
terica: cero. Esta solucin es aceptable si el proceso es invertible, dado que, en ese caso,
la importancia de los valores iniciales tiende a desaparecer a medida que aumenta el
tamao muestral.
Cuando dispongamos de los valores observados, se utilizan para efectuar la
prediccin; si no se conocen, se utilizan sus estimaciones en perodos anteriores. A medida
que el horizonte de la prediccin crece, la prediccin por puntos de un modelo ARMA
tiende a la media.
a) Error de Prediccin
La prediccin de una variable aleatoria como es Yt conlleva incertidumbre,
pues depende de la muestra considerada; entonces aparece un error de
prediccin.
Si se conociesen los valores exactos de los coeficientes, cosa imposible en la
mayora de los casos, sera posible obtener una expresin del error de
prediccin como sigue:
t + s = Yt + s Yt + s
(11.49)
11-198
(11.50)
Yt = % + t + 1 t 1 + 2 t 2 + 3 t 3 + ....
(11.51)
Yt + s = % + t + s + 1 t + s 1 + 2 t + s 2 + .... + s 1 t + s s 1 + s + j t j
(11.52)
j =0
Yt + s = % + s + j t j
(11.53)
j =0
(11.54)
t + s = t + s + 1 t + s 1 + 2 t + s 2 + .... + s 1 t + s s +1 + ( s + j s + j ) t j
(11.55)
j =0
2
E ( t + s ) = 2 (1 + 12 + 22 + .... + s21 ) + 2 ( s + j s + j )
j =0
(11.56)
(11.57)
11-199
2
V (t + s ) = E ( t + s ) = 2 (1 + 12 + 22 + .... + s21 )
(11.58)
(11.59)
( L)
b) Capacidad de Prediccin
Podemos verificar si el modelo sigue siendo vlido para los perodos de
prediccin, una vez se ha comprobado su validez para el periodo muestral.
Para ello, es utiliza el siguiente estadstico:
h
s =0
2
t + s +1 t + s
: h2
(11.60)
2
t
T k
, con k el nmero de
11.3
11-200
11-201
1.2
0.8
0.8
0.6
phi = 0.5
rho(k)
1.2
4
2
0.2
1.2
0.8
0.8
0.6
phi = 0.9
rho(k)
1.2
50
48
46
44
42
40
38
36
34
32
30
0.6
phi = 0.99
8
2
0.2
0.4
0.4
50
48
46
44
42
40
38
36
34
32
30
28
26
24
22
20
18
16
14
50
48
46
44
42
40
38
36
34
32
30
28
26
24
22
20
18
16
14
12
10
12
10
0.2
28
rho(k)
26
24
22
20
18
16
14
12
50
48
46
44
42
40
38
36
34
32
30
28
26
24
22
20
18
16
14
12
10
0
0
10
0.2
phi = 0.8
0.4
0.4
0.6
rho(k)
Figura 11.3
Correlogramas Para Distintos Procesos
11.3.2
11-202
Sobrediferenciacin
(11.61)
y que es igual a:
Yt = t + 1 t 1
(11.62)
1
1
=
= 0,5
2
1 + 1 1 + 1
(11.63)
11.3.3
11-203
Por tanto, es una varianza que tiene hacia infinito. Si tomamos primeras
diferencias, el modelo anterior nos queda de la siguiente manera:
Yt = t
(11.64)
(11.65)
12
12-204
12-205
12.1
12.1.1
Tendencia Determinstica
(12.1)
(12.2)
50
40
30
20
10
0
1
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
Observaciones
12-206
(12.3)
Tendencia Estocstica
12-207
(12.4)
40
35
30
25
20
15
10
0
1
9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
Observaciones
12-208
(12.5)
(12.6)
12.2
12-209
Regresin Espuria
(12.7)
12-210
(12.8)
(12.9)
t =0
t =0
t = ut 1 vt
(12.10)
12.3
12.3.1
12-211
Uno de los mtodos que suelen proponerse como suficientes para la deteccin
de la no estacionariedad de una serie es, errneamente, el del anlisis de representaciones
grficas de la misma.
As, se dice que la simple contemplacin del grfico de evolucin temporal de
la serie permite decidir si la serie es o no estacionaria en virtud, por ejemplo, de la
pendiente que presente.
Efectivamente,
pueden
confundirse
con
facilidad
representaciones grficas de procesos con tendencias estocsticas con
procesos con tendencias deterministas.
Por otro lado, incluso con procedimientos tcnicamente elaborados, resulta
an ms complejo diferenciar, por ejemplo, un proceso con una raz unitaria de otro con un
una raz autorregresiva elevada.
No obstante, a pesar de que el anlisis grfico no puede
considerase una herramienta suficiente para el anlisis de la
estacionariedad de una serie, si ha de servir como etapa previa a la
aplicacin de contrastes ms avanzados.
Efectivamente, observar la evolucin grfica de la serie puede permitir
localizar cambios de estructura, comportamientos estacionales o medias y tendencias de
tipo determinista, lo que permitir aplicar, con mayor porcentaje de xito, los test clsicos
de races unitarias.
12.3.2
12-212
Yt = 1tY0 + 1i t i
(12.11)
i =0
t 1
1 = 1 Yt = Y0 + t i
(12.12)
i =0
12-213
QBP = T k2 : T2 k
(12.13)
k2
QLB = T ( T + 2 )
: T2 k
k =1 T k
(12.14)
k =1
12.3.3
12-214
(
n
DW =
t =2
t 1 )
(12.15)
(tt2 )
n
t =2
(12.16)
(
n
DW =
t =2
t 1 )
(
n
t =2
2
tt
(Y
Yt 1 )
(Y
t =2
n
t =2
Yt
(12.17)
12-215
12.4
12.4.1
(12.18)
( H0 ) ,
el modelo
(12.19)
( H 0 : 1 = 1) ,
la varianza de Yt no sera
estacionaria sino que crecera con los valores de t segn la expresin de la varianza de
un paseo aleatorio con deriva: V (Yt ) = t 2 .
12-216
12-217
Yt = 0 + (1 1) Yt 1 + t = 0 + Yt 1 + t
123
(12.20)
12-218
Por lo tanto, antes de estimar los parmetros del modelo, hay que decidir si el
proceso generador de datos ser el simple, como el expuesto anteriormente (12.18),
contendr una constante (0 ) , un trmino tendencial determinista ( t ) , o ambas cosas
simultneamente.
Los tres modelos propuestos por Dickey-Fuller son:
Yt = Yt 1 + t
(12.21)
Yt = 0 + Yt 1 + t
(12.22)
Yt = 0 + t + Yt 1 + t
(12.23)
As, el modelo (12.22), que contrasta la hiptesis nula de paseo aleatorio con
frente a una alternativa de esquema AR(1) estacionario, es la forma reducida
ut 1 = Yt 1
(1 3
Yt = 1
1 ) + 1Yt 1 + t
424
ut = 1ut 1 + t Yt = + 1ut 1 + t
0
Yt = (1 1 ) + (1 1) Yt 1 + t
1
424
3 123
0
(12.24)
(12.25)
12-219
(12.26)
ut = 1ut 1 + t
en que 0 = (1 1 ) + 1 y = (1 1 ) .
Hiptesis Nula
Estadstico
Valor Crtico
=0
-1,95
=0
-2,89
0 = 0 = 0
t /
-2,54
0 = = 0
F ,
-4,71
=0
tt
-3,45
0 = 0 = 0
tt /
-3,11
=0 =0
t /
-2,79
= = 0
F ,
-6,49
0 = = = 0
F , ,
-4,88
Yt = Yt 1 + t
Yt = 0 + Yt 1 + t
Yt = 0 + t + Yt 1 + t
12-220
Dolado et al. (1990) y Perron (1990) propusieron, entre otros autores, seguir
un proceso en etapas a fin de aumentar la probabilidad de xito en la eleccin del modelo
de referencia:
12-221
12.4.2
Est claro que lo expuesto hasta este momento permite contrastar la presencia
de una o ms races unitarias en una determinada serie temporal para la que se
supone un proceso AR(1).
Sin embargo, muchas serie temporales se ajustan ms adecuadamente a
procesos autorregresivos de orden superior AR(2) o AR(3). No parece, por lo
tanto, muy correcto contrastar la presencia de una o ms races unitarias utilizando siempre
la estructura de un modelo AR(1) ya que las races unitarias pueden aparecer tambin en
estructuras ms complejas.
Este problema da lugar a lo que se conoce como test de races unitarias de
Dickey-Fuller Ampliado (DFA). El contraste de DF aumentado (DFA) considera la siguiente
forma reducida:
p
Yt = 0 + t + Yt 1 + i Yt i +1 + t
(12.27)
i=2
p
p
donde = 1 i y i = j .
j =1
i =1
12-222
i2
2k
+ log i
AIC =
n
n
(12.28)
2 (k + )
donde = ei2 n
i
12.4.3
+ log ei2 n
T k
i
(12.29)
t = k +1
2
t 1
12.5
12-223
Cointegracin
vector de cointegracin.
12-224
Z t = 1Yt + 2 X t , lo normal es que Z t sea I(1). Sin embargo, es posible que exista un
valor particular de = (1 , 2 ) , tal que Z t sea I(0), es decir, estacionaria. En este caso
las series seran CI(1,1), o cointegradas de orden 1.
Yt ,
en
general,
ser
) = 0 , entonces Y
distinto
de
Yt * ,
0 1 X t = 0 .
podemos
escribir
(12.30)
Si las series son CI(1,1), Z t es estacionaria, por lo que el error ser una
serie estacionaria.
La cointegracin de dos o ms series temporales apunta a la
existencia de una relacin de largo plazo o de equilibrio entre ellas, es
decir, que las desviaciones de la situacin de equilibrio no tienden, en
promedio, a ampliarse con el paso del tiempo.
Por el contrario, si X t e Yt son ambas I(1) pero no son cointegradas, Z t no
es estacionaria, es decir, las dos variables se alejarn una de otra con el paso del tiempo.
12-225
Deteccin de Cointegracin
12.6.1
Engle y Granger
12-226
Durbin y Watson
Un mtodo alternativo para contrastar la cointegracin es el contraste DurbinWatson de la regresin de cointegracin (CRDW). Se considera el estadstico DW de la
regresin de cointegracin Yt = 0 + 1 X t + ut y se contrasta la hiptesis nula de
que el estadstico DW es cero para ver si los residuos son estacionarios. Si
no son estacionarios el estadstico DW tender a cero.
As, cuando el valor DW calculado es menor que el tabulado para cierto nivel
de significacin, se acepta la hiptesis nula de no cointegracin. Si es mayor, se acepta la
hiptesis de cointegracin. Los valores crticos de este contraste estn tabulados y pueden
verse en Sargan-Bhargava (1983).
Una regla prctica muy til es que si DW < R 2 las series no estn
cointegradas.
12.6.3
En el caso de que el vector de variables del modelo est constituido por dos
variables, Yt y X t , la relacin a largo plazo entre ambas variables puede expresarse
como:
Yt* = + X t + t
(12.31)
Por otra parte, su relacin a corto plazo puede expresarse, de acuerdo con el
MCE, de forma que las desviaciones respecto a la tendencia a largo plazo tienden a
corregirse.
12-227
(12.32)
t 1
donde g es un parmetro cuyo valor es menor que cero (para compensar la diferencia
generada en el perodo anterior).
Si aplicamos primeras diferencias a (12.32), sustituimos Yt * por su valor
estimado en la relacin (12.31), y aadimos una perturbacin aleatoria vt obtenemos:
Yt = X t + g t 1 + vt
(12.33)
(12.34)
Yt = 1X t1 + 2 X t2 + .... + k X tk + g t 1 + vt
(12.35)
12-228
Causalidad
i =1
j =0
Yt = 0 + iYt i + j X t j + t
(12.36)
X t = % 0 + % i X t i + % jYt j + %t
(12.37)
i =1
j =0
(12.38)
13
13-229
ANLISIS FACTORIAL
Utilizar estas nuevas variables en otros anlisis estadstico de los datos, por
ejemplo para prediccin.
13-230
13-231
13-232
Nota en lgebra
Nota en clculo
Nota en estadstica
Nota en administracin
Nota en econometra
13.1
13-233
Una ventaja que presenta el FA respecto al MCP, es que las nuevas variables
creadas (denominadas factores) son en general mucho ms fcil de interpretar.
Recordemos que el MCP genera una transformacin ortogonal de las variables
y no depende de un modelo subyacente. El FA, en cambio, s depende de un
modelo estadstico razonable. Por lo tanto, el MCP es descriptivo y el FA tiene
un modelo estadstico formal.
En ambos casos pueden existir problemas con la escala de los valores de las
variables.
13.2
13.2.1
Hiptesis del FA
f k : N ( 0;1) , k = 1, 2,...., m
j : N ( 0; j ) , j = 1, 2,...., p
iid
j = 1, 2,...., p
(13.1)
13-234
cov ( f k ; j ) = 0 , j , k
Sin prdida de generalidad, se puede suponer que j = 0 y que var ( x j ) = 1 .
Este siempre puede ser el caso, si se estandarizan las variables medidas antes de aplicar el
mtodo de FA. Sin embargo, no es necesario estandarizar.
13.2.2
(13.2)
donde:
X = ( x1 , x2 ,...., x p )
(13.3)
F = ( f1 , f 2 ,...., f m )
(13.4)
= (1 ,2 ,...., p )
(13.5)
11 12
22
21
=
.... ....
p1 p 2
(13.6)
.... 1m
.... 2 m
.... ....
.... pm
F : N ( 0; I )
1 0
0
2
: N ( 0; ) =
.... ....
0 0
F T = 0
.... 0
.... 0
.... ....
.... p
13.3
13-235
Ecuaciones del FA
De las expresiones anteriores, debe notarse que:
X = F +
(13.7)
=V (X )
(13.8)
= V (F + )
(13.9)
= V ( F ) T + V ( )
(13.10)
= T +
(13.11)
jj = 2jk + j
(13.12)
k =1
k =1
2
jk
jj . A esta ltima
cov ( xi ; x j ) = ik jk
m
k =1
(recordar que ij = 0 )
13-236
k =1
k =1
2
jk
2
jk
(13.13)
1)
13-237
T = Diag
Con esta normalizacin, los vectores que definen el efecto de cada factor
sobre las p variables observadas son ortogonales. De esta manera, los
factores, adems de estar incorrelacionados, producen efectos lo ms distinto
posible sobre las variables. Por otra parte, esta normalizacin asegura una
matriz de cargas nica.
2)
T 1 = Diag
Con esta normalizacin, los efectos de los factores sobre las variables,
ponderados por las varianzas de las perturbaciones de cada observacin, se
hacen incorrelacionados. Tambin se define una matriz de cargas nica.
13.4
13.4.1
Nmero de Factores
13-238
( ) =
(13.14)
( ) = HGH = ( HG )( HG )
T
12 T
12
(13.15)
G(1mm )
G=
0( p m)m
13-239
0 m( p m)
0( p m )( p m )
(13.16)
(13.17)
(13.18)
Im
1)
T
Partir de una estimacin inicial de i o de i mediante i = Diag
2)
3)
Qi = H i1Gi1 H i1 + H i2 Gi2 H i2
(13.19)
donde Gi1 contiene los m mayores valores propios de Qi , y H i1 sus vectores propios.
Elegiremos m de manera que los restantes valores propios contenidos en Gi2 sean todos
pequeos y en magnitud similar.
4)
12
Tomar i +1 = H i1 Gi1 y volver al paso (1).
13-240
ii.
1
, donde sii es el elemento diagonal i-simo de la matriz de
s jj
precisin 1 . Esto equivale a tomar h 2j = s 2j R 2j , donde R 2j es el coeficiente
Tomar jj =
considerando jj =
(13.20)
1
, se obtiene:
s jj
(13.21)
1
52, 09
0 = 0
13-241
0, 019
0
0
0 = 0
0, 019
0
0
0
0, 017
1
60, 21
0
1
52, 09
0
(13.22)
Paso 3:
0
0
0,35 0,15 0,19 0, 019
Q0 = 0,15
0,13 0, 03 0
0, 019
0
0,19 0, 03 0,16 0
0
0, 017
(13.23)
(13.24)
Sin embargo, para ello necesitamos previamente los valores propios de la matriz Q0 . A
partir de (13.24) se deduce directamente que los valores propios de la matriz Q0 son
0.379, 0.094 y 0.108. Dado que uno de ellos es negativo, la matriz no es positiva
definida.
Como hay un valor propio mucho mayor que los dems (0.379) consideraremos slo un
factor. En consecuencia, la descomposicin es la siguiente:
6474
8
0,
670
0, 442
0, 596
0,19 0, 03 0,143
+
0, 036 0, 741
0, 783 0, 438
0, 621 0,508
144
42444
3
0, 036 0, 741
0
0, 094
0, 783 0, 438
0
0,108
0, 621 0,508
Paso 4:
12
calculamos 1 = H 01 G01 :
0, 670
0,379 0, 442 +
0,596
T
(13.25)
13-242
0, 670
0, 412
(13.26)
1 = Diag 0,15
0,11 0, 03 0, 272 [ 0, 412 0, 272 0,367 ] (13.27)
0,19 0, 03 0,143 0,367
0
0
0,180
1 = 0
0, 056
0
0
0
0, 025
(13.28)
(13.29)
0, 05 0,15 0,19
Q1 = 0,15 0, 074 0, 03
0,19 0, 03 0,135
(13.30)
Paso 3:
partir de (13.30) se deduce directamente que los valores propios de la matriz Q1 son
0.307, 0.067 y 0.215. En consecuencia, la descomposicin es la siguiente:
13-243
0, 081 0,825
0, 081 0,825
0
0, 067
+ 0,806 0,385
0,806 0,385
0
0, 215
0,586 0, 414
0, 586 0, 414
Paso 4:
(13.31)
12
calculamos 2 = H11 G11 :
0,559
0,310
(13.32)
(13.33)
X = F + = 0, 229 f1 + 2
0, 407
3
1424
3
(13.34)
0
0
1
0 0, 254
: N 0 ; 0
0,
068
0
2
0
0
0
0,
011
3
1444424444
3
(13.35)
13.5
13-244
Criterios Subjetivos
No Incluir Factores Triviales: los factores triviales son aquellos que tienen
slo una variable original cargando sobre el factor. Ello implica que dicha
variable no se correlaciona con el resto, y es por s misma un factor
subyacente. En tal caso, se elimina dicha variable antes del FA.
Esto no significa que la variable no sea importante, sino que sus caractersticas
son independientes de las otras variables. En sntesis, no tiene sentido construir
factores si se pueden emplear ellas mismas.
13.5.2
13-245
Criterios Objetivos
Rotacin de Factores
13-246
1,0
f2
4
5
0,0
f1
1
2
-1,0
-1,0
0,0
1,0
1,0
f2
4
5
0,0
f1
1
2
-1,0
-1,0
0,0
1,0
13.6.1
13-247
Rotacin VARIMAX
1 m p 2 p 2
V = b jq b jq
{tij } p q =1 j =1
j =1
*
2
p
p 2
4
b
p
jq
jq
2
m j =1
j =1
p =
p
q
=
1
(13.36)
13-248
(13.37)
(13.38)
Rotacin Oblicua
13-249
4
5
0,0
f1
1
2
-1,0
-1,0
13.7
0,0
1,0
Cuantificacin de Factores
13.7.1
13-250
Mtodo de Barlett
(Z
) (
F 1 Z r F
(13.39)
Fr = T 1
T 1Z r
(13.40)
Mtodo de Thompson
(13.41)
(13.42)
T +
Fr = T
Zr
(13.43)
13.7.3
13-251
Otros Mtodos
14
14-252
14.1.1
Distancia Mtrica
Corresponde a la distancia euclidiana entre valores de dos observaciones:
d rs = ( xr xs )
( xr xs )
12
(14.1)
14.1.2
12
( zr zs )
(14.2)
Distancia de Mahalanobis
T
d rs = ( xr xs ) 1 ( xr xs )
(14.3)
14.2
14-253
Anlisis Grficos
100
X2
80
60
40
20
0
0
10
20
30
40
50
X1
60
70
80
90
14.2.2
14-254
x3
x2
x1
14-255
Figura 14.3
Grfico de Dispersin de Esferas
140
120
100
X2
80
60
40
20
0
-20
20
40
60
80
100
-20
X1
14.2.3
Grficos de Andrews
En 1972, Andrews sugiri que la observacin p-variada para la r-sima
funcin:
fr (t ) =
xr1
+ xr 2 sin ( t ) + xr 3 cos ( t ) + xr 4 sin ( 2t ) + xr 5 cos ( 2t ) + ....
2
(14.4)
14-256
14.2.4
14-257
Grficos de Estrellas
Cada dato se representar mediante una estrella que contendr tantos rayos
o puntas como variables se deseen representar. Luego, existir una estrella para cada
unidad experimental.
La longitud del j-simo rayo en la estrella de la i-sima unidad experimental
(xij) depender del valor de la variable j en dicho dato.
Figura 14.5
Grficos de Estrellas
b)
zij =
c)
14-258
(14.5)
(14.6)
x6 : Organizacin empresarial
14-259
Tabla 14.1
Datos Econmicos de Pases del Mundo
Observacin (i)
X1
X2
X3
X4
X5
X6
X7
X8
Canad
61.0
51.5
64.5
67.0
61.0
68.5
69.0
68.0
Australia
60.0
49.5
67.5
67.0
60.0
64.0
73.0
67.0
Noruega
62.5
50.5
57.5
61.0
59.0
60.5
76.0
70.0
Venezuela
30.0
42.0
44.0
35.5
41.0
37.0
42.0
40.5
P. Bajos
64.5
72.0
61.5
72.5
63.0
73.0
69.5
65.0
Hungra
59.5
58.0
51.5
51.5
49.5
51.0
50.5
57.0
Portugal
58.0
54.5
52.0
59.5
42.0
48.0
49.0
57.5
Espaa
57.5
59.0
63.5
64.5
49.5
57.5
55.0
59.0
China
66.5
54.5
62.0
40.5
49.5
42.5
39.0
57.0
Thailandia
44.5
45.5
62.0
39.0
38.0
38.0
39.0
49.5
Brasil
52.0
44.5
50.5
39.0
41.0
48.5
41.0
39.5
Mexico
53.5
40.5
50.5
36.5
39.0
48.5
42.0
43.0
14.2.5
14-260
14-261
14.3
Mtodos de Agrupacin
14.3.1
0,31
0,23
0,32
0,26
0,25
0,34
0,21
0,36
0,28
0,31
0,04
0,07
0,31
0,28
0,09
2
3
4
5
6
14-262
1
2
3-5
4
6
3-5
0,31
0,23
0,32
0,25
0,34
0,21
0,28
0,31
0,07
0,28
-
5
[ ] [ ] , que es igual a 0,07. Luego, se define una nueva agrupacin de la forma
G2 = {[1] , [ 2] , [3 5 6] , [ 4]} .
14-263
3-5-6
0,31
0,23
0,32
0,28
0,21
0,28
2
3-5-6
4
1
2-4
3-5-6
2-4
3-5-6
0,31
0,23
0,28
-
14-264
1-3-5-6
2-4
1-3-5-6
2-4
0,28
-
Diagrama de rbol
14-265
Figura 14.6
Diagrama de rbol Jerrquico
0,04
0,07
0,21
0,23
14-266
14.3.3
14-267
Estadstico F de Beale
W1 =
( X
r =1 q =1
C2 nr C2
W2 =
( X
r =1 q =1
Xr )
rq
Xr )
rq
(X
rq
(X
rq
X r )
(14.7)
X r )
(14.8)
(W2 W1 )
W1
( N C1 ) k1
( N C2 ) k2 ( N C1 ) k1
(14.9)
( N C1 ) k1
grados de
14-268
( Z r Z s )
12
(14.10)
distancia entre los siguientes dos individuos ms cercanos, y as sucesivamente hasta llegar
a DrN ( N 1) 2sN ( N 1) 2 , que es la distancia entre los individuos ms lejados. Note que el nmero
de parejas distintas de individuos es
N ( N 1)
.
2
14-269
(14.11)
E=
r 1
( D
r =1 s =1
d rs ) Drs
2
rs
r 1
D
r =1 s =1
(14.12)
rs
sujeto a (14.11).
Para evaluar la calidad del ajuste, se acostumbra comparar grficamente
las diferencias reales entre las parejas de puntos contra sus distancia
modeladas. Si la representacin grfica de estas parejas de distancias revela una
tendencia montona creciente, entonces se puede deducir que la grfica bidimensional
ilustra con exactitud la cercana de las parejas de puntos.
Evidentemente, para determinar las distancias d rs es necesario utilizar
programas computacionales especficos. Notar tambin que es altamente probable la
inexistencia de soluciones factibles, por lo que resulta necesario relajar algunas de las
restricciones, o incluso todas.
14-270