Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Econometria Catolica de Chile PDF
Econometria Catolica de Chile PDF
ESCUELA DE INGENIERA
DEPARTAMENTO DE INGENIERA DE TRANSPORTE
ICT-2950 Tpicos de Econometra
Profesor: Louis de Grange C.
APUNTES DE CLASES
ICT-2950 TPICOS DE ECONOMETRA
(VERSIN 1er SEMESTRE 2005)
(CT-2950 Tpicos de Econometra ii
NDICE
Pg.
1 REPASO DE MATRICES Y ANLISIS DE DATOS .................... 1-1
1.1 Operaciones con Matrices.................................................... 1-1
1.1.1 Matrices Especiales...................................................................1-1
1.1.2 Suma .........................................................................................1-2
1.1.3 Multiplicacin............................................................................1-2
1.1.4 Operador de Kronecker ...........................................................1-2
1.1.5 Matrices Particionadas .............................................................1-3
1.1.6 Matriz Inversa ...........................................................................1-3
1.1.7 Matriz Traspuesta .....................................................................1-3
1.1.8 Traza de una Matriz .................................................................1-4
1.1.9 Matrices Ortogonales ...............................................................1-4
1.1.10 Vectores Caractersticos y Valores Propios ..............................1-5
1.1.11 Rango de una Matriz................................................................1-7
1.1.12 Formas Cuadrticas de una Matriz..........................................1-7
1.1.13 Diferenciacin de Matrices.......................................................1-8
1.1.14 Series de Taylor ........................................................................1-9
1.2 Anlisis de Datos..................................................................... 1-9
1.2.1 Tipos de Variables ....................................................................1-9
1.2.2 Media, Varianza, Covarianza y Correlacin ....................... 1-10
1.2.3 Medidas de Dependencia Lineal de los Datos..................... 1-12
1.2.4 Datos Atpicos (Outliers)........................................................ 1-12
2 REGRESIN LINEAL MLTIPLE ......................................... 2-15
2.1 Supuestos del Modelo .........................................................2-16
2.1.1 Hiptesis Sobre la Perturbacin ............................................ 2-16
2.1.2 Hiptesis sobre las Variables Explicativas ............................ 2-17
2.1.3 Hiptesis sobre los Parmetros del Modelo ......................... 2-17
2.2 Estimacin por Mnimos Cuadrados Ordinarios (MCO)2-18
2.2.1 Vector de Parmetros............................................................. 2-18
2.2.2 Aspectos Algebraicos y Propiedades de los Estimadores
(Muestras Finitas y Muestras Grandes)................................. 2-20
2.2.3 Teorema Central del Lmite .................................................... 2-22
a11 0 .... 0
0 a 0
D= 22
= DT (1.1)
.... O ....
0 0 .... ann
.... O ....
0 0 .... amn
1 0 .... 0
0 1 0
I= (1.3)
.... O ....
0 0 .... 1
1.1.2 Suma
1.1.3 Multiplicacin
k =1
Se cumple que A ( B C ) = A B A C
En general, A B B A
n
Dos vectores a A y b B son ortogonales ( a b ) si aT b = ( ai bi ) = 0
i =1
a = ( aT a )
n
a
12
= 2
i
i =1
Si A es de m x n y B e de s x t, el operador de Kronecker de A y B,
denotado por A B , es una matriz de ms x nt dada por:
( A B )( C D ) = ( AC BD )
( A + B ) (C + D ) = ( A C ) + ( A D ) + ( B C ) + ( B D )
( A B) C = A ( B C)
A A12
A = 11 (1.5)
A21 A22
( AB )1 = B 1 A1
= A1 ( A1 + B 1 ) B 1
1
( A + B)
1
(A )T T
=A
( A B) = AT BT
T
( A B )T = BT AT
(A ) =(A )
1 T T 1
A AT y AT A son simtricas
( A B )T = ( AT BT )
tr ( AT ) = tr ( A )
tr ( A B ) = tr ( A ) tr ( B )
tr ( A B ) = tr ( B A )
tr ( k A ) = k tr ( A )
tr ( A B ) = tr ( A ) tr ( B )
Y =CX (1.7)
Y T Y = X T C T CX = X T X (1.8)
CT C = I (1.9)
C T = C 1 (1.10)
Los valores propios son las medidas bsicas de tamao de una matriz. Dichas
medidas bsicas, como la traza o el determinante, son funcin de los valores propios, y
sern por lo tanto invariantes ante transformaciones lineales que preserven los valores
propios.
r
Si c es un vector propio de A, y si multiplicamos (1.11) por cualquier 0 ,
r
entonces c tambin ser un vector propio de A. Para evitar esta indeterminacin,
r
supondremos que c = 1 .
r
Luego, existe una solucin no nula (para c 0 ) que verifica:
det A I = 0 (1.12)
Las soluciones de (1.11) son los vectores caractersticos, y los distintos valores
de en (1.12) son las races caractersticas, que son nmero reales si la matriz es
simtrica. En general, una matriz tiene h n valores propios. A cada valor propio de la
matriz podemos asignarle un nico vector propio que satisface (1.11).
tr ( Ar ) = ir
n
i =1
tr ( A1 ) = i1
n
i =1
n
A = i
i =1
Las matrices ABC, ACB y CAB tienen los mismos valores propios no nulos
En una matriz simtrica, los valores propios son nmeros reales y los vectores son
ortogonales
i =1 j =1
df df
= (1.13)
dX dxij
5
df
= 2 (1.14)
dX
3
d (T X ) d (T X )
=X, =
d dX
d (T X )
Si X simtrica entonces = 2X
d
df
Si f ( X ) = aT Xb entonces = bT a
dX
df
Si f ( X ) = ( A X B ) entonces = AT BT
dX
df
Si X es de n x n y f ( X ) = ( X ) entonces = In
dX
Si X es de n x n y f ( X ) = ( X T AX ) entonces = ( A + AT ) X
df
dX
df1 df 2 df n
dx .....
dx1 dx1
1
df1 df 2 df n
dY df1 df 2 df n
dx2
.....
= ; ;......; = dx2 dx2
dX dX dX dX
M M O M
df1 df 2 df n
.....
dxn dxn dxn
dY
Si Y = AX entonces = AT
dX
1 n
xk = xik
n i =1
(1.18)
1 n
V ( xk ) =
n 1 i =1
( xik xk )2 (1.19)
1 n
cov ( xk , x j ) = ( xik xk ) ( xij x j ) (1.20)
n 1 i =1
cov ( xk , x j )
rkj = (1.21)
V ( xk ) V ( x j )
a) Definicin
Datos atpicos o Outliers son aquellas observaciones que al parecer han sido
generados de manera distinta al resto de los datos. Pueden ser causados por ejemplo por
errores de medicin o digitacin de los datos, cambios en los instrumentos de medicin o
simplemente representan una heterogeneidad intrnseca de los elementos observados.
xki xk
zki = (1.23)
V ( xk )
ax
xa = x + (1.25)
n +1
n ( a x )( a x )T n
Va = V + (1.26)
n +1 n +1 n + 1
Las expresiones anteriores indican que un solo dato atpico puede afectar de
manera importante el vector de medias y la matriz de varianzas y covarianzas.
xki mediana ( xk )
> 4,5 k = 1, 2,...., p (1.27)
MEDA ( xk )
(x
k V ( xk ) ; xk + V ( xk ) ) k = 1, 2,...., p (1.28)
Y = f (; X ) + (2.1)
Y = X + (2.2)
E (Y / X ) = X (2.3)
2 0 0 .... 0
0 2 0 .... 0
V ( ) = =2I (2.4)
.... ....
2
0 0 0 ....
Las variables explicativas no presentan relacin lineal exacta entre si (no existe
multicolinelidad).
La nica hiptesis que haremos acerca de los parmetros del modelo es la hiptesis
de permanencia estructural, lo que significa que los parmetros poblacionales j se
mantienen constantes a lo largo de toda la muestra.
Q= (Y X ) (Y X )
T
min (2.5)
{ } 144424443
T
min Q = Y TY T X TY Y T X + T X T X = 0 (2.6)
{ }
min Q = Y T Y 2 T X T Y + T X T X (2.7)
{ }
Q
= 2 X T Y + 2 X T X = 0 X T Y = X T X (2.8)
= ( X T X ) X T Y
1
(2.9)
( ) (
V = E )( )
T
(2.10)
(
E )( ) = E X T X 1 X T X T X 1 X T
( ) ( ) ( ) ( )
T T
(2.11)
( )
V = E ( X T X ) ( X T T X )( X T X )
1 1
(2.12)
( )
V = ( X T X ) E X T T X ( X T X )
1 1
(2.13)
( )
V = ( X T X ) X T E T X ( X T X )
1 1
(2.14)
( )
V = ( X T X ) X T ( 2 I ) X ( X T X )
1 1
(2.15)
( )
V = 2 ( X T X )
1
(2.16)
= MY = M ( X + ) = MX + M = M (2.17)
(
donde M = I X ( X T X ) X T
1
) es una matriz de n x n simtrica (M = M )
T
e
T = T M (2.18)
E ( T / X ) = E ( T M / X ) (2.19)
E tr (T / X ) = E tr ( T M / X ) (2.20)
tr ME ( T / X ) = tr M 2 I = 2tr ( M ) (2.21)
( ) (
2tr ( M ) = 2tr I X ( X T X ) X T = 2 tr ( I n ) tr X ( X T X ) X T (2.22)
1
)
2 tr ( I n ) tr ( I k ) = 2 ( n k ) (2.23)
E ( T / X ) = 2 ( n k ) (2.24)
T
2 = (2.25)
(n k )
T
( ) ( XTX )
1
V = (2.26)
(n k )
= ( X T X ) ( X T ( X + ) )
1
(2.27)
= ( X T X ) ( X T X ) + ( X T X ) ( X T )
1 1
(2.28)
( )
= + ( X T X ) ( X T ) = ( X T X ) ( X T )
1 1
(2.29)
( )
E = + E ( X T X ) ( X T )
1
(2.30)
( )
E = + E ( X T X ) ( X T ) = + ( X T X ) E ( X T )
1 1
(2.31)
( )
E = + ( X T X ) E ( X T ) E ( )
1
(2.32)
( )
E = (2.33)
b= (( X T 1
)
X ) X T + C Y = + CY (2.34)
E (b) = (( X T 1
)
X ) X T + C X = ( I + CX ) = (2.35)
(
V ( b ) = E ( X T X ) X T + C T ) (( X X ) )
1 1 T
T
XT +C (2.36)
(( X X ) ) (
X T + C E ( T ) ( X T X ) X T + C )
1 1 T
V (b) = T
(2.37)
(( X X ) X T + C 2I ) (( X X ) XT +C )
1 1 T
V (b) = T T
(2.38)
V (b) = 2 (( X T 1
) ()
X ) + CC T = V + 2 ( CC T ) > V ( ) (2.39)
: N ; 2 ( X T X )
1
(2.40)
La primera propiedad tiene que ver con que el valor medio de los residuos es
nulo, lo cual implica que la suma de los residuos es igual a cero. Esta caracterstica
es bastante trivial pues se deduce de la misma metodologa de los mnimos
cuadrados, la cual impone a travs de su primera ecuacin normal que esta suma
sea cero (columna de unos en matriz X).
Puede sin embargo darse el caso que la representacin de la data haga que este
parmetro sea efectivamente cero, por ejemplo si las series Y, X se entregan en
forma de desviacin de sus propias medias, lo cual implicara que la suma de estos
residuos tambin lo ser. De (2.8) se obtiene:
2 X T Y + 2 X T X = 0 X T (Y X ) = X T = 0 (2.41)
El hiperplano de la regresin pasa por el punto de las medias de los datos, puesto
que la primera ecuacin normal implica Y = X .
La media de los valores estimados por la regresin es igual a la media de los valores
actuales; ello se deduce de (2.8) ya que Y = X .
d
n ( xn n ) N 0; 2 (2.43)
donde: 2 =
n
(
1 2
1 + 22 + .... + n2 ) y n = ( 1 + 2 + .... + n )
1
n
r
Caso multivariante: un vector de muestras de tamao n con media y matriz de
varianzas y covarianzas Q.
r d
n ( X n ) N [ 0; Q ] (2.44)
r d
( )
n X n n N [ 0; Q ] (2.45)
1 r 1 r r r
donde: Q = lim
n n
( Q1 + Q2 + .... + Qn ) y n = ( 1 + 2 + .... + n ) .
n
g ( ) 2
n ( g ( xn ) g ( ) ) N 0;
d
2
(2.46)
x
g ( )
g ( xn ) g ( ) + ( xn ) (2.47)
x
r r r r d
n ( g ( xn ) g ( ) ) N 0; g T Q g (2.48)
Y= X + 4244
3 (2.49)
14
4244 3 14
porcion explicada porcion no explicada
( ) ( X + )
T
Y T Y = X + (2.50)
Y T Y = T X T X + T (2.51)
T X T X T T X T X T
1= + = 1 (2.52)
Y TY Y TY Y TY Y TY
T
R2 = 1 (2.53)
Y TY
1
(%i )
2
R 2 = 1 (1 R 2 )
( n 1) = 1 ( n k ) i = 1
V ( % )
(2.55)
(n k ) 1
( Yi Y )
2 V (Y )
( n 1) i
R2 ( n k )
F( k 1;n k ) = (2.56)
(1 R 2 ) ( k 1)
Valores grandes para la expresin (2.56) dan evidencia en contra de la
hiptesis nula (parmetros iguales a cero).
Suponiendo que el trmino de error sigue una distribucin normal, y dado que
la media del error cero, se tiene que:
1 2
f (i ) = exp i 2 , i = 1,...., n (2.57)
2 2
n ( i )2
n
1 i
f (i ) = exp 2 2
2
(2.58)
i =1
1
n
(Y X )T (Y X )
L (Y ; , ) =
2
exp (2.59)
2 2 2
ln L = ln ( 2 ) ln ( 2 2 ) 2 (Y X ) (Y X )
n n 1 T
(2.60)
2 2 2
MV = ( X T X ) X T Y = MCO
1
(2.61)
2
=
( ) <
T
2
=
( )
T
(2.62)
nk
MV MCO
n
2 ln L
I ( ) = E T (2.63)
1
1 2 ln L
I ( ) = E T (2.64)
Y
j = (2.65)
x j
ln Y
j = (2.66)
ln x j
Q P ln Q
Recordar que la elasticidad precio-demanda es = = .
P Q ln P
3 INFERENCIA Y PRECICCIN
independencia estadstica entre los parmetros y el vector de residuos, entonces el
estadstico:
( ) : t
i i
(3.1)
se ( )
( n k )
i
sigue una distribucin t con (n - k) grados de libertad. Notar que al ser un anlisis
asinttico (n grande), la distribucin t converge a una distribucin normal. Notar adems
( )
que el trmino se = 2 S ii , donde S ii es el i-simo elemento de la diagonal de
i
(X X )
1
T
.
i
t= (3.2)
( )
se i
En general, si ( )
i i se i > t / 2 , donde 2 define el grado de
( ( )
i t 2 se i < i < i + t 2 se i ( )) = 1 (3.3)
( R q ) ( R q )
1
R ( X T X ) 1 R T
T
p
: F[ p;n k ] (3.5)
( n k )
T
T
donde 2 = T = 2 ( n k ) .
nk
T ( X T X ) ( k 1)
: F[k 1;n k ] (3.6)
T ( n k )
R2 ( n k )
:F (3.7)
(1 R 2 ) ( k 1) [k 1;nk ]
Esta ltima expresin (3.7) nos indica que aquellas regresiones que tienen
bajo coeficiente de ajuste, es decir un bajo R 2 , tienen a su vez un test F tambin muy bajo,
lo cual permitira decir que la probabilidad de rechazar la hiptesis es muy baja.
( )
En el caso de 2 parmetros 1 , 2 , cuyos estimadores presenten distintas
Q= (Y X ) (Y X )
T
min (3.9)
{ } 144424443
T
L ( , ) = (Y X ) ( Y X ) + 2 ( R q )
T
(3.11)
L
(
= 2 X T Y X R + 2 RT = 0 ) (3.12)
L
(
= 2 RT R q = 0 ) (3.13)
XT X RT R X T Y
= (3.14)
R 0 q
R = + ( X T X ) RT R ( X T X ) RT R q ( )
1 1
(3.15)
( R q )
1
= R ( X T X ) RT
1
(3.16)
( R )
= . Del mismo modo, el parmetro valdra cero.
( )
V R = 2 ( X T X ) 2 ( X T X ) RT R ( X T X ) RT R ( X T X )
1
14444444
1
4244444444
1
3
1
(3.17)
Matriz Positiva Definida
g( ) = q (3.18)
( ) :t
g q
(3.19)
se ( g ( ) )
( n k )
( )
La aproximacin lineal en series de Taylor para g i implica lo siguiente:
g ( )
T
( )
g g ( ) +
( ) (3.20)
g ( ) g ( )
T
( )
V g
V ( )
(3.21)
g ( ) T 1 g ( )
T
( )
n k (
V g
XTX )
(3.22)
( ) ( ( ))
12
se g = V g (3.23)
3.2 Prediccin
Y 0 = X 0 + 0 (3.24)
Y 0 = X 0 (3.25)
(
e0 = Y 0 Y 0 = X 0 + 0) (3.26)
( ) (
)
V ( e0 ) = 2 + V X 0 = 2 + X 0T V X 0
(3.27)
V ( e0 ) = 2 + X 0T 2 ( X T X ) X 0
1
(3.28)
(
V ( e 0 ) = 2 1 + X 0T ( X T X ) X 0
1
) (3.29)
( )
Y 0 t 2 2 1 + X 0T ( X T X ) X 0
12
1
(3.30)
min X 0T ( X T X ) X 0
1
(3.31)
{X }
s.a. : X 10 = 1 () (3.32)
L = X 0T ( X T X ) X 0 ( X 10 1)
1
(3.33)
1
L
( ) 0 =0
1
= 2 X T
X X 0
(3.34)
X 0
....
0
1
0
X 0 = ( X T X ) (3.35)
2 ....
0
n
n
x 2
i =1
i
X =
0
(3.36)
2 ....
n
xik
i =1
2
De la primera fila de (3.36) se deduce que 1 = n = . En
2 n
consecuencia, podemos escribir (3.36) como:
1
n
xi 2 n
i =1
X0 = (3.37)
....
n
xik n
i =1
1
0
1
X0 = XTX (3.38)
n ....
0
1
V ( e0 ) = 2 1 + (3.39)
n
(Y Y )
1 2
RECM = i i (3.40)
n0 i
1
EAM =
n0
Y Y
i
i i (3.41)
(Y Y )
1 2
i i
n0
U= i
(3.42)
1
(Yi )
2
n0 i
( Y Y )
1 2
i i
n0
U = i
(3.43)
1
( Y )
2
i
n0 i
( )
donde Yi = (Yi Yi 1 ) y Yi = Yi Yi 1 . Este ltimo es vlido slo en series de tiempo.
= PPT 1 = ( P 1 )( P 1 )
T
(3.45)
P 1Y = P 1 X + P 1 Y * = X * + * (3.46)
Por tanto, se ha conseguido una transformacin del modelo de forma que las
perturbaciones cumplen las hiptesis habituales. Al estimador de por MCO en el modelo
transformado se le denomina estimador de Mnimos Cuadrados Generalizados (MCG):
MCG = ( X *T X * ) X *T Y * = ( X T 1 X ) X T 1Y
1 1
(3.47)
( )
V MCG = 2 ( X *T X * ) = 2 ( X T 1 X )
1 1
(3.48)
644744
8 64
4744 8
T
( )
( ) Y X ( )
T
Y X
MCG
1
MCG
2 = (3.49)
nk
No hay una contrapartida precisa del R 2 del modelo ordinario con el R 2 del
modelo generalizado. Una eleccin sera usar el R 2 del modelo transformado
Y * = X * + * , pero esta regresin no tiene por qu tener trmino constante el coeficiente
de determinacin no estara acotado entre cero y uno.
( )
1
MCG = X T 1 X X T 1Y (3.50)
T 1 T 1
( ) ( )
1
V MCG =
X X (3.51)
nk
1
0 .... 0
1
1
0 .... 0
P= 2 (3.52)
.... ....
0 1
0 ....
n
1 2 0 .... 0
P = (1 )
2 1 2 1 .... 0
(3.53)
.... .... ....
0 .... 1
V ( ) = (3.54)
donde:
1 0 .... 0 1 12 13 .... 1n
0
.... 0 1 23 .... 2 n
= ; = 21 (3.55)
2
4 ESPECIFICACIN
De tipo temporal: Para recoger efectos diferentes en funcin del tiempo en que se
producen las observaciones de las variables (por ejemplo, consumo en periodos de
guerra o paz).
De carcter espacial: Para tener en cuenta la pertenencia o no de la observacin
a una determinada zona (por ejemplo, consumo en zonas rurales o urbanas).
De tipo cualitativo: Para recoger los efectos de variables cualitativas como el
gnero, el estado civil, tener o no cargas familiares, nivel de educacin, etc. sobre el
comportamiento de los agentes econmicos en decisiones de consumo, de oferta de
trabajo, etc.
Otras causas: Para conocer los efectos que las variables cuantitativas tienen sobre
la variable endgena, distinguiendo por submuestras (por ejemplo, la propensin
marginal al consumo de individuos de rentas altas o bajas).
Guerra - Paz
Hombre - Mujer
Profesional - Tcnico
Gobierno A - Gobierno B
Y i = 0 + 1 x1i + i (4.1)
Tabla 4.1
Variables Ficticias
Observacin (i) Yi Xi Di
1 Y1 X1 0
2 2
2 Y X 0
...... ...... ...... ......
j-1 j-1
j-1 Y X 0
j j
j Y X 1
j+1 Yj+1 Xj+1 1
...... ...... ...... ......
n n
n Y X 1
Y i = 0 + 1 x1i + i i = 1, 2,..., j 1
(4.2)
Y = 0 + x + 2 D +
i i
1 1
i i
i = j , j + 1,..., n
H0 : 2 = 0
(4.3)
H1 : 2 0
2 2 2
tc = = (4.4)
( )
V 2 ( )
V 2
Y i = 0 + 1 x1i + i i = 1, 2,..., j 1
(4.5)
Y i = 0 + ( 1 + 2 D j ) x1i + i i = j, j + 1,..., n
H0 : 2 = 0
(4.6)
H1 : 2 0
2 2 2
tc = = (4.7)
( )
V 2 ( )
V 2
Y i = 0 + 1 x1i + i i = 1, 2,..., j 1
(4.8)
Y i = 0 + ( 1 + 2 D j ) x1i + 3 D j + i i = j , j + 1,..., n
H 0 : 2 = 3 = 0 (4.9)
El contraste es el siguiente:
( R q ) ( R q )
1
T
R ( X T X ) 1 R T p
Fc = : F[ p ;n k ] (4.10)
(n k )
T
Tabla 4.2
Transformacin de Variables
Exponencial Y = exp ( X ) Z = ln Y ; X = X Z = ln + X
Logartmico Y = + ln ( X ) Y = Y ;W = ln X Y = + W
Potencial Y = X Z = ln Y ;W = ln X Z = ln + W
1
Hiperblico Y = + Y = Y ;W = Y = + W
X X
1 1
Doblemente Inverso Y= Z= ;X = X Z = + X
+X Y
El primer y tercer modelo son vlidos bajo la suposicin de que los errores son
multiplicativos y habra que cotejar haciendo anlisis de residuales si el logaritmo de los
errores tiene una media de cero y varianza constante. Si los errores no son multiplicativos
entonces deberan aplicarse tcnicas de regresin no lineal que son expuestas ms
adelante.
donde i = ( i 1) i y zi = xi ln ( xi ) i = 1, 2,...., k .
n
in+1 = i n + 1 in (4.13)
i
ln L = ln ( 2 ) ln ( 2 ) 2 ( T )
n n 1
(4.16)
2 2 2
Debe recordarse que si una variable z distribuye f(z), y existe otra variable u
tal que u = (z) ( z = (u)), se tiene que u distribuye de la forma
z
f (z) = f ( ( u ) ) ' ( u ) . Dado que = Y ( ) T X ( ) = (Y ) se obtiene que
u
i ( yi ( ) )
= = yi 1 y por lo tanto ln i = ( 1) yi . Finalmente, el logaritmo de la
yi yi yi
funcin de verosimilitud en este caso es el siguiente:
ln L = ln ( 2 ) ln ( 2 2 ) + ( 1) ln yi
n
n n
2 2 i =1
(4.17)
2
1
(
2 (Y ( ) T X ( ) ) ( Y ( ) T X ( ) )
T
)
n
El trmino ( 1) ln yi aparece debido justamente al cambio de variables
i =1
ln y i
n
ln y g = i =1
y g = exp ln yi n (4.18)
n i =1
yi
Las variables normalizadas son ahora yi* = . Luego, podemos calcular el
yg
ajuste de los siguientes modelos lineal y log-lineal en forma directa (suponiendo que las
perturbaciones son normal):
Y * = % X * + % (4.19)
ln Y * = ln X * + (4.20)
Notar que en (4.19) tanto la endgena como las exgenas han sido
normalizadas por su media geomtrica.
ln yi* = ln yi ln y g (4.21)
n n
n n ln yi ln yi
i =1
ln y g = i =1
i =1 n
= n i =1
n
(4.22)
n
n n n ln yi n
ln yi* = ln yi ln e i=1
i =1 i =1 i =1
=0 (4.23)
n
De este modo, el trmino ( 1) ln yi* de la expresin (4.17) es igual a
i =1
cero para la versin log-lineal del modelo, pero tambin es cero para la versin lineal, ya
que = 1 . En consecuencia, la estimacin MV y MCO produjeron los mismos resultados
cuando los datos son normalizados. En el caso de MCO, se escoger el que entregue
un mayor valor de R 2 .
Tabla 4.3
Transformacin de Variables
Transformacin Situacin
y V ( i ) E ( yi )
y + y +1 V ( i ) E ( yi )
ln ( y ) V ( i ) E ( yi )
2
ln ( y + 1) V ( i ) E ( yi )
2
1
V ( i ) E ( yi )
4
y
1
V ( i ) E ( yi )
4
y +1
sen 1 ( y) V ( i ) E ( yi ) (1 E ( yi ) )
Y = f (; X ) + (4.24)
1 n
( Yi f ( ; X i ) )
2
min Q= (4.25)
{ } 2 i =1 1442443
i2
Q n f ( ; X i )
= (Yi f ( ; X i ) ) =0 (4.26)
i =1
2Q f ( ; X i ) f ( ; X i ) n 2 f ( ; X i )
T
= 2
T
( Yi f ( ; X i ) ) T
(4.27)
i =1
La matriz (4.27) debe ser positiva definida. Por otra parte, la distribucin
asinttica del estimador de mnimos cuadrados no lineal viene dada por:
( )
n NL N ( 0; 2 1 )
d
(4.28)
donde:
1 n
( ( ) )
2 p
2 = Yi f ; X i
n i =1
2
(4.29)
XTX (
1 n f ; X i f ; X i
) ( )
= (4.30)
n n i =1 T
f ( 0 ; X )
f (; X ) f ( ; X ) + ( k0 )
K
0
(4.31)
0 k
k =1 k
f ( 0 ; X )
Haciendo = Z k y reagrupando trminos se obtiene:
k0
f ( ; X ) f ( 0 ; X ) Z k k0 + Z k k
K K
(4.32)
k =1 k =1
Y f ( 0 ; X ) Z k k0 + Z k k +
K K
(4.33)
k =1 k =1
Y f ( 0 ; X ) + Z k k0 Z k k +
K K
(4.34)
1444424444 k =1
3 k =1
Y%
Y% Z k k +
K
(4.35)
k =1
f ( ; X 0 )
f (; X ) f (; X )+ (x x )
K
0 0
xi
i i
i =1
(4.36)
1 K K f (; X )
2
0
+
2 i =1 j =1 xi x j
( xi xi0 )( x j x 0j ) + ....
f ( ; x 0 )
f ( ; x) f ( ; x ) +0
(x x ) 0
x (4.37)
1 f (; X ) 1 f (; X )
2 0 3 0
(x x )0 2
( x x 0 ) + .....
3
+ +
2 x 2 3! x 3
y reagrupando trminos:
f ( ; x ) 0 + 1 x + 2 x 2 + 3 x3 + .... (4.38)
Y 0 + 1 x + 2 x 2 + 3 x 3 + .... + (4.39)
R j2 = 1 (1 R 2j )
( n 1) (4.40)
(n k )
(n + k ) 1 R
R j2 =
j
( ) 2
(4.41)
(n k )
j
j
T k j
AIC j = ln + 2 (4.42)
n n
T k j ln ( n )
SIC j = ln + (4.43)
n n
1
( i )2
R j2 = 1 (1 R 2j )
( n 1) = 1 ( n k j ) i (4.44)
(n k ) 1
( Yi Y )
2
( n 1) i
Luego, en este caso el error cuadrtico medio se corrige por los grados de
T
libertad: . Sin embargo, en los otros 2 criterios, el error cuadrtico medio se
nk
corrige de la siguiente manera:
( 2 k n )
T
AIC j = e12j3 (4.45)
penalizacin n
( k n )
T
SIC j = {
n j (4.46)
penalizacin n
Y = X 1 1 + X 2 2 + (4.47)
1 = ( X 1T X 1 ) X 1T Y = ( X 1T X1 ) X 1T ( X 1 1 + X 2 2 + )
1 1
(4.48)
144 42444 3
Y
1 = 1 + ( X1T X 1 ) X 1T X 2 2 + ( X 1T X 1 ) X 1T
1 1
(4.49)
( )
E 1 = 1 + ( X 1T X 1 ) X1T X 2 2 1
1
(4.50)
Si existe una nica variable incluida y una nica variable omitida, el signo del
sesgo en el estimador es evidente. Sin embargo, si existen varias variables, no es posible.
La varianza de 1 es:
( )
V 1 = 2 ( X 1T X 1 )
1
(4.51)
( ) ( )
1
V 1,2 = 2 X 1T X 1 X 1T X 2 ( X 2T X 2 ) X 1T X 1
1
(4.52)
( )
V
( ) 2( 2 2)
= 1 X T X X T X 1 X T X
1 1
V 1,2 (4.53)
2
1 1 2 1
1 . Esto ltimo equivale a resolver el problema con una restriccin del tipo 2 = 0 .
Por otra parte, se puede demostrar tambin que el estimador 2 est sesgado
hacia arriba (an cuando X 1 y X 2 sean ortogonales); sin embargo, para estimar ese
sesgo debiramos estimar 2 . Esto ltimo implica que existirn problemas al contrastar
hiptesis sobre . 1
Y = X 1 1 + (4.54)
Y = X 1 1 + X 2 2 + (4.55)
En este caso, se puede demostrar que tanto 1 como 2 son insesgados. Sin
embargo, la varianza del estimador 1 ser mayor. Esto se explica por la prdida de
grados de libertad producto de la presencia de ms parmetros en la estimacin. Luego,
los estimadores si bien son insesgados y consistentes, son ineficientes. Esta prdida de
eficiencia hace ms difcil rechazar la hiptesis nula de que un determinado parmetro vale
cero.
5 TEMAS ESPECFICOS
5.1 Ortogonalidad
Y = X 11 + X 2 2 + (5.1)
0 X1T Y ( X 1 X 1 ) X 1 Y
1 X 1T X 1
1 T 1 T
= = (5.3)
0
2 X 2T X 2 X 2T Y ( X T X )1 X T Y
2 2 2
1 2 ( X T X )1
XTX 0
( )
1 1
V = 2 1 1 = 1
(5.4)
( X 2 X 2 )
T
0 X2 X2 2 T
1 2 ( X T X )1
XTX
( ) 0
1 1
V = 2 1 1 = 1
(5.5)
( X 2 X 2 )
T
0 X2 X2 2 T
T
siendo 2 = .
nk
( )
V 1 = 12 ( X 1T X 1 ) 12 =
uT u
1
(5.6)
n k1
( )
V 2 = 22 ( X 2T X 2 ) 22 =
vT v
1
(5.7)
n k2
1 ( X 1 X 1 ) X1 Y ( X 1 X 1 ) X1 X 2 2
T 1 T T 1 T
= (5.8)
T
2 ( X 2 X 2 ) X 2 Y ( X 2 X 2 ) X 2 X 11
1 T T 1 T
(
1 ( X1 X 1 ) X 1 Y X 2 2
T
)
1 T
= (5.9)
(
2 ( X 2 X 2 ) X 2 Y X1 1
T 1 T
)
El teorema de Frisch-Waugh establece que el vector 2 es el conjunto de
parmetros que se obtiene de realizar una regresin de los residuos de la regresin de Y
sobre X1 , sobre el conjunto de residuos obtenidos de la regresin de X2 sobre X1. Esto es
lo que normalmente se conoce como extraer el efecto de X1.
2 = ( X 2T MX 2 ) ( X 2T MY )
1
(5.10)
(
donde M = I X 1 ( X 1T X 1 ) X 1T
1
) es una matriz de n x n simtrica (M = M )
T
e
idempotente ( M = M T M ) .
= MY MX 1 = 0 (5.11)
Y = Y = ( I M ) Y = PY (5.12)
5.2 Multicolinealidad
i) Problemas de Identificacin
Y = X 11 + X 2 2 + (5.13)
Y = 2 1 + X1 ( 1 + 2 2 ) + (5.14)
{ 14243
0 1
Y = 2 1 + X 1 ( 1 + 2 2 ) + 2u + (5.15)
Si el determinante de (X X)
T
es aproximadamente igual a cero
(columnas LD), tanto las estimaciones de parmetros, como las de sus
correspondientes varianzas, tendern a estar distorsionadas y, en
general, sern mayores que las que se obtendran si no existiera
multicolinealidad. Por esta razn, se dice que la multicolinealidad causa
un problema de "inflacin de los parmetros estimados y de sus
varianzas".
i
t= : t( n k ) (5.16)
i
En sntesis:
max
nmero de condicin = (5.18)
min
Ct = 0 + 1Yt + 2 Pt + t (5.19)
Ct = 1Yt + vt (5.20)
(C Y ) =
t 1 t 0 + 2 Pt + t (5.21)
C = ( X T X + kI ) X T Y = ( X T X + kI ) X T ( X + )
1 1
(5.22)
( )
E C = ( X T X + kI ) X T X
1
(5.23)
zi = ( aij x j )
p
i = 1,...., q (5.24)
j =1
Z = X a (5.25)
o var ( zi ) = aiT ai
o cov ( zi , zk ) = aiT ak
( X X )a = a
T
(5.26)
j =1
(5.27)
max aT a
(5.28)
s.a. : aT a = 1 ( )
Figura 5.1
Distribucin Normal Bivariada: x1 vs x2
1.5
0.5
7
4
X2
0
10
13
16
19
22
25
28
31
34
37
40
43
46
49
52
55
58
61
64
67
70
73
76
79
82
85
88
91
94
97
100
1
-0.5
-1
-1.5
X1
Figura 5.2
Componentes Principales
1.5
2
1
0.5
7
4
X2
100
1
10
13
16
19
22
25
28
31
34
37
40
43
46
49
52
55
58
61
64
67
70
73
76
79
82
85
88
91
94
97
-0.5
-1
-1.5
X1
x%12 x%22
La ecuacin de la elipse es: + = c , donde x%1 y x%2 corresponden a
1 2
los ejes rotados y c es la distancia entre el plano de corte de la distribucin
normal bivariada (campana) y el plano definido por f ( x1 , x2 ) = 0 .
2 p + 5
n 1 ln R : p ( p 1) 2 (5.30)
2
D ( ) = 2 ln L ( ) (5.31)
D ( 0 ) = 2ln L ( 0 ) (5.32)
D ( r ) = 2 ln L ( r ) (5.33)
L ( 0 )
= 2 ln = 2 ( ln L ( 0 ) ln L ( r ) ) (5.34)
L ( r )
= D ( r ) D ( 0 ) : r2 (5.35)
= n ln + n tr ( ) np : 2p ( p +1) 2 (5.36)
2 p tr ( )
= n ln + n np : (2p + 2)( p 1) 2 (5.37)
2
tr ( )
donde 2 = .
p
5.4 Heterocedasticidad
12 0 0 .... 0
0 22 0 .... 0
V ( ) = = 2 (5.39)
.... ....
2
0 0 0 .... n
Figura 5.3
Perturbaciones Heterocedsticas
50
40
30
20
10
0
0 5 10 15 20 25 30 35 40 45
-10
-20
-30
-40
Observaciones
MCG = ( X T 1 X ) ( X T 1Y )
1
(5.40)
Por ello, habr que hacer algn supuesto simplificador sobre la causa de la
heterocedasticidad, una vez que esta sea detectada. Evidentemente, encontrar una
simplificacin correcta dotar de plena utilidad (eficiencia) a la estimacin con MCG y, a
en caso contrario, un mal diseo de la causa de la heterocedasticidad (de la matriz )
producir un valor ineficiente de dichos parmetros.
Si bien las que se citan a continuacin no son las nicas posibilidades que dan
lugar a un modelo heterocedstico, s son las ms frecuentes.
c. Cambio de estructura.
i2 = f ( 2 Z i ) (5.41)
MCG = ( X T 1 X ) ( X T 1Y )
1
(5.42)
( )
MCG = ( X T 1 X ) ( X T 1Y ) y V MCG = 2 ( X T 1 X )
1 1
( )
MCO = ( X T X ) X T Y y V MC 0 = 2 ( X T X )
1 1
( )
MCO = ( X T X ) X T Y y V MCG = 2 ( X T X ) ( X T 1 X )( X T X )
1 1 1
a. Contrastes grficos.
b. Contrastes paramtricos.
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
1
Y = X + ,
nk
ii) Calcular una serie con los errores del modelo anterior al cuadrado
estandarizados:
T 2
2 = %i2 = i 2 (5.43)
nk
iii) Se estima una regresin del error calculado en el paso (ii) explicado
por una constante y el conjunto de las variables Z que se pretende
saber si producen o no heterocedasticidad en el modelo, obtenindose
la R 2 de este modelo y la varianza de la estimada:
n R%2 : p2 1 (5.45)
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
1
Y = X + ,
nk
ii) Estimar cuatro regresiones para los valores absolutos del error del
modelo anterior en funcin de una variable elevada consecutivamente
a " h ", que para cada modelo tomara los valores -1, -0,5, 0,5 y 1:
i = 0 + 1Z h + ui (5.46)
T
MCO = ( X T X ) X T Y , i = Yi Yi 2 =
1
Y = X + ,
nk
i2 = 0 + 1 X1i + .... + k X ki +
k +1 ( X 1i ) + .... + k + k ( X ki ) +
2 2
R (5.47)
2
k + k +1 ( X 1 X 2 ) + .... + k + k + k ( X 1 X k ) +
i i i i
3k +1 ( X 2i X 3i ) + .... + 4k 1 ( X 2i X ki ) + .... + i
n R2 : p2 1 (5.48)
En esta expresin, una coincidencia mxima (todas las distancias son igual
a cero), dara lugar a una correlacin de Spearman igual a uno; mientras
que una distancia mxima, provocara un valor cero de dicho coeficiente de
correlacin.
rs n 2
: tn 2 (5.50)
1 rs2
i2 = f ( 2 Z i ) (5.51)
12 0 0 .... 0
0 22 0 .... 0
V ( ) = = 2 (5.52)
.... ....
2
0 0 0 .... n
Formalmente, para probar esto seguimos los siguientes pasos. Dado que la
matriz es una matriz semidefinida positiva (todos los elementos de su diagonal principal
son necesariamente positivos), siempre podremos descomponerla en dos matrices de la
forma:
= PPT 1 = ( P 1 )( P 1 )
T
(5.53)
es:
1 0 0 .... 0 1 0 0 .... 0
0 2 0 .... 0 0 2 0 .... 0
= 2 PPT (5.54)
.... .... .... ....
0 0 0 .... n 0 0 0 .... n
Si multiplicamos cada variable del modelo por esta matriz O, tal y como se ha
sugerido, obtenemos unas nuevas variables del siguiente tipo:
P 1Y = P 1 X + P 1 Y * = X * + * (5.55)
donde:
(
V ( * ) = E ( * *T ) = E ( P 1 ) * *T ( P 1 )
T
) = (P 1
)( P ) E ( )
1 T * *T
(5.56)
V ( * ) = 1E ( * *T ) = 1 2 = 2 I n (5.57)
Luego, podemos afirmar que el modelo transformado (aquel por el que se han
dividido todas las variables por la desviacin tpica estimada de las perturbaciones
aleatorias) soporta una matriz de varianzas covarianzas de las perturbaciones aleatorias
escalar, con lo que se puede estimar con toda garanta por MCO.
5.5 Autocorrelacin
1 2 .... n 1
2 1 .... n 2
V ( ) = = 2 (5.58)
1 2 .... ....
n 1
n 2 n 3 .... 1
Figura 5.4
Perturbaciones Autocorrelacionadas
1
0,5
0
0 5 10 15 20 25 30 35 40 45
-0,5
-1
-1,5
Observaciones
Y t = X1t 1 + X 2t 2 + t (5.59)
Y t = 0 + X t 1 + u t (5.60)
V ( ) = 2 (5.61)
donde es una matriz definida positiva y simtrica, pero no diagonal. El estimador MCO
de los parmetros puede escribirse como:
= + ( X T X ) X T
1
(5.62)
( )
V = E (( )( )
T
) = E (( X X )
T 1
X T T X ( XX )
1
) (5.63)
( )
V = 2 ( X T X ) ( X T X ) ( X T X )
1 1 1
(5.64)
y si : N ( 0; 2 ) entonces:
(
: N ; 2 ( X T X ) ( X T X ) ( X T X )
1 1 1
) (5.65)
( t 1 )
n 2
( )
t
DW = t =2
2 1 (5.66)
( )
n
2
t
t =1
t = t 1 + vt (5.67)
( )
n
t t 1
= t =2
(5.68)
( )
n
2
t 1
t =2
o DW = 2 si = 0 .
o DW ( 2, 4 ) si 1 < < 0 .
o DW ( 0, 2 ) si 0 < < 1 .
Durbin y Watson tabularon los valores mximo ( d max ) y mnimo ( d min ) que
pueden tomar dichos valores crticos cuando la H1 : > 0 , los regresores
son fijos y existe trmino constante en el modelo.
o Si H 0 : = 0 frente a H1 : > 0
n 1
h = : N ( 0;1) (5.69)
( )
1 ( n 1) V 1
( )t t j
rj = t
(5.70)
( )
t
t
2
Y t = 0 + X t 1 + t (5.71)
t = t 1 + u t (5.72)
Y t Y t 1 = 0 (1 ) + ( X t X t 1 ) 1 + u t (5.73)
1424 3 1424 3 14 4244 3
Y% t %0 X% t
Y% t = %0 + X% t 1 + u t (5.74)
( )
n
t t 1
= t =2
(5.75)
( )
n
2
t 1
t =2
Y% t = Y t Y t 1 , X% t = X t X t 1 (5.76)
0 0 ( )
% = 1 . Con las estimaciones , se vuelve al modelo
0 1
t t 1
< (5.77)
t
min (tt2 ) = Y t Y t 1 0 (1 ) ( X t X t 1 ) 1
n n 2
(5.78)
t =2 t =2
Y t = X t 1 + u t (5.79)
5.6.1 Asimetra
E (Y Y )
3
A= (5.80)
3
siguiente manera:
(Y Y )
N
1 3
i
N
A = i =1
(5.81)
3
N N
(Y Y )
1 1
Y .
2
donde = i eY = i
N i =1 N i =1
6
La distribucin de este estimador es A : N 0; , por lo que es factible
N
construir el siguiente contraste:
A
: N ( 0;1) (5.82)
6 N
5.6.2 Curtosis
E (Y Y )
4
K= (5.83)
4
(Y Y )
N
1 4
i
N
K = i =1
(5.84)
4
N N
(Yi Y ) e Y =
1 1
Y .
2
donde = i
N i =1 N i =1
24
La distribucin de este estimador es K : N 3; , por lo que es factible
N
construir el siguiente contraste:
K 3
: N ( 0;1) (5.85)
24 N
N k 2 1
( )
2
JB = A + K 3 : ( 2) (5.86)
2
6 4
La hiptesis nula en este caso ser que todos los datos provienen de la misma
funcin de distribucin multivariante.
1
Vi = Wi (5.87)
n 1
donde:
( x xi )( x j xi )
n T
Wi = (5.88)
j =1 ( j i )
j
(x xi ) Vi 1 ( x j xi ) : 2p
T
j (5.89)
6 EXTRAPOLACIN Y SUAVIZAMIENTO
Yt = a1 + a2 t (6.1)
Yt = c e rt (6.2)
Yt = a1 + a2Yt 1 (6.3)
ln Yt = b1 + b2 ln Yt 1 (6.4)
1
Yt = (6.6)
c + abt
Yt = e 1 ( 2
c c t)
(6.7)
Este modelo es til cuando creemos que los valores probables a futuro son
promedios de sus valores anteriores. A menudo es razonable suponer que los valores ms
recientes de la serie tienen un mayor impacto que los valores anteriores.
Yt = (1 ) Yt i
i
(6.8)
i =0
i =0 1 (1 )
1 n1
Y%t = Yt i (6.9)
n i=0
n 1
Si escribimos (1 ) Y%t 1 = (1 ) Yt i , y restamos esta expresin de la
i
i =1
Para ajustar los diversos modelos de tendencia de datos a una serie temporal,
se usa la tcnica de MCO:
T
= argmin (Yt Tt ( ) )
2
(6.12)
t =1
( )
YT +l = TT +l (6.13)
YT +l 1,96 2 (6.14)
7 SERIES DE TIEMPO
Linealidad
Estacionariedad
Normalidad (Gaussiano)
7.2 Estacionariedad
E (Yt ) = (7.1)
V (Yt ) = 2 = 0 (7.2)
cov (Yt , Yt + k ) k k
k = = = , k (7.4)
V ( Yt ) V ( Yt + k ) 0 0 0
Sin embargo, por regla general, las series econmicas no son series que
proceden de procesos estacionarios, sino que suelen tener una tendencia creciente o
decreciente, y variabilidad no constante.
Por lo tanto, los procesos de ruido blanco de esperanza nula resultan tiles
para caracterizar las propiedades ideales del trmino de error de un modelo estocstico
dinmico.
1 n
= Yt
n t =1
(7.5)
1 n
0 =
n 1 t =1
(Yt )2 (7.6)
n k
(Y )(Y
t t +k )
k = t =1
(7.7)
nk
k
k = , k (7.8)
0
0 n 1
k
V ( ) = 1 + 2 1 k (7.9)
n k =1 n
(Y )(Y t +k ) n k
(Y )(Y
t
t =1 )
nk
t t +k
k = k = t =1
(7.10)
0 1 N n
(Yt ) (Y )
2 2
n 1 t =1 t
t =1
1 k 1
V ( k ) ;
n
1 + 2i =1
i2
(7.11)
1 1 1 .... k 1 1
2= 1 1 k 2 2
(7.12)
.... .... O .... ....
k k 1 k 2 .... 1 k
k2
m
Q ( m) = n ( n + 2) : m2 p q (7.13)
k =1 n k
Bajo la hiptesis nula de que la muestra haya sido generada por un proceso
de ruido blanco, este estadstico se distribuye aproximadamente como una m2 p q .
1 1 2 .... k 2 1
1 1 .... k 3 2
1
2 1 1 .... k 4 3
det
.... .... ....
k 2 k 3 1 k 1
k = k 1 k 2 k 3 .... 1 k
(7.14)
1 1 2 .... k 2 k 1
1 1 .... k 3 k 2
1
2 1 1 .... k 4 k 3
det
.... .... ....
k 2 k 3 1 1
k 1 k 2 k 3 .... 1 1
Por tanto, los procesos de ruido blanco de esperanza nula resultan tiles para
caracterizar las propiedades ideales del trmino de error de un modelo estocstico
dinmico. Si Yt es independiente e idnticamente distribuido con media cero y varianza
constante, decimos entonces que es un ruido blanco gaussiano:
Yt = t : N ( 0, 2 ) (7.15)
Figura 7.1
Proceso Ruido Blanco 2 = 2,3
3
1
7
4
0
1
10
13
16
19
22
25
28
31
34
37
40
43
46
49
52
55
58
61
64
67
70
73
76
79
82
85
88
91
94
97
100
-1
-2
-3
Observaciones
E (Yt ) = E ( t ) = 0 (7.16)
V (Yt ) = V ( t ) = 2 = 0 (7.17)
2 , si k = 0
k = (7.18)
0 , k 1
k 1 , si k = 0
k = = (7.19)
0 0 , k 1
Luego, la FAS y FAP valen cero siempre, excepto en k = 0. Este es uno caso
particular en que la FAS y la FAP coinciden.
1
k : N 0; (7.20)
n
se obtiene
nk : N ( 0;1) (7.21)
( )
2
n k : 12 (7.22)
m
QBP = n k2 : m2 (7.23)
k =1
7.3 Ergodicidad
El hecho de decir que el lmite de una variable aleatoria coincide con una
N
1
constante, se representa analticamente as: sea E (Yt ) = Y ( t ) dt ; un proceso ser
2 N N
ergdico en media si, con probabilidad 1, se cumple:
N
donde E (Yt ) es una variable aleatoria con media E ( E (Yt ) ) =
1
2N E Y ( t ) dt =
N
y
por lo tanto:
1 N
( Yt E ( Yt ) ) V ( Yt )
2
(7.27)
N 1 t =1
donde 0 = 1 y
i =0
i
2
< .
E (Yt ) = E i t i = i E ( t i ) = i 0 = 0 (7.29)
i =0 i=0 i =0
V (Yt ) = V i t i = i2V ( t i ) = 2 i2 (7.30)
i =0 i =0 i=0
E (Yt t 1 ) = E ( t t 1 ) + 1 E ( t 1 t 1 ) + 2 E ( t 2 t 1 ) + ....
(7.31)
E (Yt t 1 ) = 0 + 1 t 1 + 2 t 2 + .... = i t i
i =1
{
V (Yt t 1 ) = E (Yt E (Yt t 1 ) )
2
} = E {( t t 1 )
2
} = E ( ) =
t
2 2
(7.32)
Lc = c
( L + L )Y = LY + L Y = Y
i j
t
i
t
j
t t i + Yt j
( L L ) Y = L ( L Y ) = LY
i j
t
i j
t
i
t j = Yt i j
LiYt = Yt +i
Para a < 1 , (1 + aL + a 2 L2 + ....) Yt = a i LY
1
i
t = Yt
i =0 1 aL
Yt = (1 L ) Yt
2Yt = Yt 2Yt 1 + Yt 2
7.6.1 Definicin
Una ecuacin de diferencias (en nuestro caso lineal y finita) se puede definir
como una expresin que relaciona el valor de una variable en el momento presente (Yt )
con momentos pasados de la misma:
Notar que la relacin entre la variable y sus retardos es lineal. Las ecuaciones
de diferencia pueden presentar trminos adicionales:
f (t ) =
f (t ) = + t
f ( t ) = t
f ( t ) = + t + ( L ) t
Las dos primeras expresiones son determinsticas, y las dos segundas son
estocsticas.
Yt = 1Yt 1 + t (7.35)
Yt = 12Yt 2 + t + 1 t 1 (7.36)
Yt = 13Yt 3 + t + 1 t 1 + 12 t 2 (7.37)
.....
t 1
Yt = 1tY0 + 1i t i (7.38)
i =0
Yt g = Yt h + Yt p (7.39)
a) Solucin Homognea
Yt = 0 + 1Yt 1 + t (7.40)
Yt 1Yt 1 = 0 (7.41)
(1 1L ) Yt = 0 1 = 0 (7.42)
Yt h = A1t (7.43)
2 1 2 = 0 (7.46)
+ 2 + 4
1 1 2
2
* = (7.47)
1 12 + 42
2
Yt h = A11t + A2 2t (7.48)
2 0, 6 + 0, 08 = 0 (7.51)
Yt h = A1 ( 0, 2 ) + A2 ( 0, 4 )
t t
(7.52)
2 4 + 4 = 0 (7.54)
Yt h = A1 ( 2 ) + A2 ( 2 ) t
t t
(7.55)
1 = A1 ( 2 ) + A2 ( 2 ) 0
0 0
(7.56)
3 = A1 ( 2 ) + A2 ( 2 ) ( 1)
1 1
(7.57)
b) Solucin Particular
Caso 1: g ( t ) = 0
Yt = g ( t ) Yt = Y (7.59)
0
Y = 0 + 1Y + 2Y + .... + pY Yt p = (7.60)
1 1 2 .... p
i =1
i =1.
Caso 2: g ( t ) = b t
g ( t ) = 0 + b t Yt = + t (7.62)
( + t ) 1 ( + ( t 1) ) 2 ( + ( t 2 ) ) .... p ( + ( t p ) ) = 0 + b t
(7.63)
0 (1 + 22 + .... + p p )
* = (7.64)
1 1 2 .... p
b
* = (7.65)
1 1 2 .... p
Yt p = * + * t (7.66)
Caso 3: g ( t ) = b d t
Yt = d t (7.68)
Resolviendo obtenemos:
b
* = (7.69)
1 1d 2 d 2 .... p d p
1
Yt p = *d t (7.70)
q ( L)
p ( L ) Yt = q ( L ) t Yt = t (7.72)
p ( L)
Yt = 0 + 1Yt 1 + t (7.73)
0
en este caso es de la forma: Yt p = b0 + i t i Yt p = + 1i t i .
i =0 1 1 i =0
0
Yt g = A1 (1 ) + + 1i t i
t
(7.74)
1 1 i =0
0
Dado que Y0 = A1 + + 1i t i , se tendr A1 = Y0 0 1i i .
1 1 i =0 1 1 i =0
Yt g = Y0 0 1i i (1 ) + 0 + 1i t i
t
(7.75)
1 1 i =0
14444 3 144 1 1 i =0
4244444 42444 3
Sol Homog Sol Part
Yt h = A1 ( 1 ) + A2 ( 2 ) Yt h = A r t sen ( wt + )
t t
(7.78)
(Teorema de Moivre )
donde A1 y A2 son las constantes arbitrarias habituales que dependen de las condiciones
de borde (iniciales en nuestro caso), y 1 y 2 son las races caractersticas.
1
cos ( w ) = (7.79)
2 2
Luego, r 2 = 1 r = 1 .
Continuando con el anlisis, y dada la forma general (7.78), est claro que la
convergencia (estacionariedad) de la ecuacin en diferencias (proceso autorregresivo)
pasa por que 1 y 2 sean menores que la unidad, o ms estrictamente, que 1 y 2
deben caer dentro de un crculo unitario (y no simplemente que deben ser menores que 1).
+ 2 + 4 + i d
1 1 2
= 1
2 2
* = (7.81)
1 12 + 42 1 i d
=
2 2
1 i d
; +
2 2
=
*
(7.82)
1 i d
2 ;
2
i d
1 = 1 ; +
2 2
i d
2 = 1 ;
2 2
Cuando las soluciones son reales, basta el eje horizontal (real) para
representarlas; cuando son imaginarias, deben caer dentro del crculo unitario ya que de
otra forma el radio r sera superior a 1 y la solucin no sera convergente.
Yt = + t + 1 t 1 + 2 t 2 + .... + q t q (8.1)
Yt = + t + 1 t 1 = + (1 + 1 L ) t (8.2)
Figura 8.1
Relacin de 2 Procesos MA(1): 1 = 0,4 vs 1 = 0,9 y t : N ( 0;1)
1
0.8
0.6
0.4
0.2
7
4
tetha=0,4
0
tetha=0,9
1
10
13
16
19
22
25
28
31
34
37
40
43
46
49
52
55
58
61
64
67
70
73
76
79
82
85
88
91
94
97
100
-0.2
-0.4
-0.6
-0.8
-1
Observaciones
E (Yt ) = E ( ) + E ( t ) + 1 E ( t 1 ) = (8.3)
cov ( Yt , Yt 1 ) = E ( Yt 1 )( Yt ) = E ( t 1 + 1 t 2 )( t + 1 t 1 ) (8.5)
0
0 = =1 (8.8)
0
1
1 = = 12 (8.9)
0 1 + 1
k
k = = 0 , k > 1 (8.10)
0
Por otra parte, los momentos condicionales de un proceso MA(1) son los
siguientes ( t 1 = ( t 1 , t 2 ,....) ) :
E (Yt t 1 ) = E ( ) + E ( t t 1 ) 1 E ( t 1 t 1 ) = + 1 t 1 (8.11)
V (Yt t 1 ) = E Yt E (Yt t 1 ) = E ( t2 t 1 ) = 2
2
(8.12)
Figura 8.2
Correlograma Simple 1 > 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
Retardo
Figura 8.3
Correlograma Simple 1 < 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
-0.2
-0.4
-0.6
-0.8
Retardo
Yt = + t + 1 t 1 + 2 t 2 (8.13)
E (Yt ) = (8.14)
V (Yt ) = 2 + 12 2 + 22 2 = 2 (1 + 12 + 22 ) = 0 (8.15)
cov ( Yt , Yt 1 ) = E ( t + 1 t 1 + 2 t 2 )( t 1 + 1 t 2 + 2 t 3 ) (8.16)
cov ( Yt , Yt 2 ) = E ( t + 1 t 1 + 2 t 2 )( t 2 + 1 t 3 + 2 t 4 ) (8.18)
0
0 = =1 (8.21)
0
1 +
1 = = 1 2 1 22 (8.22)
0 1 + 1 + 2
2 2
2 = = (8.23)
0 1 + 12 + 22
k
k = = 0 , k 3 (8.24)
0
Yt = + t + 1 t 1 + 2 t 2 + .... + q t q (8.25)
E (Yt ) = (8.26)
.....
cov (Yt , Yt q ) = q = q 2 (8.30)
Yt = + t + 1 t 1 (8.31)
Yt 1 = + t 1 + 1 t 2 (8.32)
Yt 2 = + t 2 + 1 t 3 (8.33)
.....
t = + Yt 1 t 1 (8.34)
t = + Yt 1 ( + Yt 1 1 ( t 2 ) ) = + Yt 1Yt 1 + 1 + 12 ( t 2 ) (8.35)
t = + Yt 1Yt 1 + 1 + 12 ( + Yt 2 1 t 3 ) (8.36)
etc.
Yt = + t + ( 1) 1iYt i
i
(8.38)
i =1
Esto tiene sentido si 1 < 1 , ya que, de otro modo, el efecto del pasado sera
ms importante para explicar el comportamiento actual. Lo ms lgico es pensar que el
efecto del pasado va siendo cada vez menor y el proceso es invertible.
En este caso, debido a que los errores no son funcin lineal de los parmetros
(no se cumple el supuesto de linealidad requerido para utilizar MCO), la estimacin se
resuelve mediante mtodos numricos.
Yt = t + 1 t 1 t = Yt 1 t 1 (8.39)
t = Yt Yt = Yt 1 t 1 (8.40)
1 = Y1 1 0 (8.41)
......
n 1
n = ( 1) 1iYn i + ( 1) 1n 0
i n
(8.44)
i =0
t (10 )
t +t
0
1
(1 10 ) (8.45)
t
En este caso se tiene que = t 1 , por lo que se cumple:
1
t t0 (1 10 ) t01 (8.46)
zt = 1 xt + t (8.47)
1
(1 1
0
)+ 2
( 2 20 ) (8.48)
t t
donde = t 1 y = t 2 . Luego se obtiene:
1 2
t ( 0 , 0 ) t ( 0 , 0 )
( ) + ( 0j )
p q
t +
0 0
(8.52)
i j
t i i j
i =1 j =1
tT t
( XT X )
1
V ( , ) = (8.53)
(T p q )
Puede tambin producirse por una mala especificacin del modelo, es decir,
que no sea el que mejor representa la estructura del proceso estocstico que gener la
serie temporal objeto de anlisis.
En este caso, habra que elegir una nueva especificacin. La convergencia del
proceso de estimacin puede que sea ms rpida si el pronstico inicial es bueno. Para
obtener valores iniciales de los parmetros ( , ) pueden utilizarse las estimaciones
realizadas para la FAS y FAP.
Yt = t + 1 t 1 + 2 t 2 (8.55)
YT +1 = T +1 + 1 T + 2 T 1 (8.56)
YT +1 T = 1 T + 2T 1 (8.57)
YT + 2 = T + 2 + 1T +1 + 2T (8.58)
YT + 2 T = 2T (8.59)
YT + h T = 0 h>2 (8.60)
T +1 T = T +1 RB (8.61)
T + 2 T = T + 2 + 1T +1 MA(1) (8.62)
( )
V T +1 T = 2 (8.64)
( )
V T + 2 T = 2 (1 + 12 ) (8.65)
( )
V T + h T = 2 (1 + 12 + 22 ) h>2 (8.66)
Yt = t + 1 t 1 + 2 t 2 + .... + q t q (8.67)
YT + h T = 0 (8.69)
T + h T = MA ( h 1) hq (8.70)
T + h T = MA ( q ) h>q (8.71)
( )
V T + h T < V ( Yt ) hq (8.72)
( )
V T + h T = V ( Yt ) h>q (8.73)
YT + h = YT + h T + T + h T (8.74)
YT + h T 1,96 V (T + h T ) (8.75)
( (
YT + h : N YT + h T ;V T + h T )) (8.76)
Figura 8.4
Pronstico de un MA(1)
2
1.5
0.5
Proceso
0 Cota Superior
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Cota Inferior
-0.5
-1
-1.5
-2
Tiempo
Sin embargo, hasta ahora se han considerado conocidos los valores de los
parmetros y de las innovaciones. En la prctica se deben estimar (ver seccin 8.5), y
luego utilizar las mismas ecuaciones pero con los estimadores de los parmetros y los
residuos. Este procedimiento es vlido para estimar pronsticos, errores, varianzas e
intervalos.
9 PROCESOS AUTORREGRESIVOS
donde es un trmino constante y t es una variable ruido blanco, que representa los
errores del ajuste y otorga el carcter aleatorio a la misma.
Yt = + 1Yt 1 + t (9.2)
9.1.1 Media
= + 1 = (9.4)
1 1
9.1.2 Varianza
2
0 = 12 0 + 2 0 = (9.7)
1 12
V (Yt Yt 1 ) = 0 + 2 = 2 (9.9)
La condicin a cumplir para que 0 sea positiva y finita es que 1 < 1 . En ese
caso el modelo es estacionario en media y varianza.
9.1.3 Autocovarianza
cov ( Yt , Yt 1 ) = E ( Yt 1 )( Yt ) = E [ yt 1 yt ] (9.11)
Yt = 1 (Yt 1 ) + t yt = 1 yt 1 + t (9.13)
1 = E [ yt 1 yt ] = E yt 1 (1 yt 1 + t ) = 1E ( yt21 ) + E ( yt 1 t ) = 1 0 (9.14)
2 = E [ yt 2 yt ] = E yt 2 (1 yt 1 + t ) (9.15)
2 = 1 E ( yt 1 yt ) + E ( yt 2 t ) = 1 1 = 12 0 (9.16)
9.1.4 Autocorrelacin
0
0 = =1 (9.17)
0
1
1 = = 1 (9.18)
0
2
2 = = 12 (9.19)
0
k
En general, se tendr que k = = 1k . Los valores de la funcin de
0
autocorrelacin son las sucesivas potencias de 1 .
Yt = + 1LYt + t Yt (1 1L ) = + t (9.20)
1424 3
( L)
1
(1 1L ) = 0 L >1 > 1 1 < 1 (9.21)
1
Figura 9.1
Correlograma Simple 1 > 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
Retardo
Figura 9.2
Correlograma Simple 1 < 0
1.5
0.5
0
0 1 2 3 4 5 6 7 8 9
-0.5
-1
-1.5
Retardo
Figura 9.3
Correlograma Parcial 1 > 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
Retardo
Figura 9.4
Correlograma Parcial 1 < 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
-0.2
-0.4
-0.6
-0.8
Retardo
Figura 9.5
Relacin de 2 Procesos AR(1): 1 = 0,4 vs 1 = 0,9
1.5
0.5
7
4
phi=0,4
0
phi=0,9
1
10
13
16
19
22
25
28
31
34
37
40
43
46
49
52
55
58
61
64
67
70
73
76
79
82
85
88
91
94
97
100
-0.5
-1
-1.5
Observaciones
Se observa que las fluctuaciones del proceso AR(1) con = 0,9 son ms
persistentes que con = 0,4, a diferencia del MA(1), que tiene poca memoria.
9.2.1 Media
= + 1 + 2 = (9.24)
1 1 2
9.2.2 Varianza
0 = V yt = E yt2 = E yt (1 yt 1 + 2 yt 2 + t ) = 1 1 + 2 2 + 2 (9.26)
9.2.3 Autocovarianza
2 = cov ( Yt , Yt 2 ) = E yt 2 (1 yt 1 + 2 yt 2 + t ) = 1 1 + 2 0 (9.29)
9.2.4 Autocorrelacin
0
0 = =1 (9.30)
0
1
1 = = 1 + 1 1 (9.31)
0
2
2 = = 1 1 + 2 (9.32)
0
k
En general, se tendr que k = = 1 k 1 + 2 k 2 .
0
Para que el proceso AR(2) sea estacionario la raz del operador polinomial
( L ) debe caer fuera del crculo unitario, es decir:
(1 L L ) = 0 L > 1
1 2
2
(9.34)
+ 12 + 42
1
22
L* = (9.35)
1 12 + 42
22
1 1
Sea G1 = y G2 = . Si G1 < 1 y G2 < 1 entonces
L1 L2
G1 G2 = G1 G2 < 1 y adems G1 + G2 G1 + G2 < 2 .
12
Las races sern iguales slo si 12 + 42 = 0 2 = . En este caso,
4
1 2
G1 = G1 = . Luego, si 1 < 2 , dado que 2 = 1 , el modelo resultante es
2 4
estacionario puesto con 1 < 2 < 0 .
12
Por otro lado, las races sern reales y diferentes si 12 + 42 > 0 2 > .
4
Puede demostrarse que si G1 < 1 y G2 < 1 entonces:
2 + 1 < 1 (9.36)
2 1 < 1 (9.37)
Estas tres ltimas condiciones son necesarias y suficientes para que el proceso
AR(2) sea estacionario, incluso cuando las soluciones sean complejas conjugadas.
2 < 1
1 + 2 < 1
1
2 1 < 1
1 < 2
= + 1 + 2 + .... + p = (9.41)
1 1 2 .... p
(14444
1 L L .... L ) = 0
1
244443
2
2
p
p
(9.42)
( L)
1
Si Li es una raz de la ecuacin polinomial se demuestra que = i , donde
Li
i son las races de la denominada ecuacin caracterstica:
p 1 p 1 2 p 2 .... p 1 p = 0 (9.43)
Luego, generalizando:
0 = 1 1 + 2 2 + .... + p p + 2 (9.44)
k = 1 k 1 + 2 k 2 + .... + p k p , k 1 (9.45)
1 = 1 0 + 2 1 + .... + p p 1 (9.46)
2 = 1 1 + 2 0 + .... + p p 2 (9.47)
.....
p = 1 p 1 + 2 p 2 + .... + p 0 (9.48)
1 = 1 0 + 2 1 + .... + p p1 (9.49)
2 = 1 1 + 2 0 + .... + p p 2 (9.50)
.....
p = 1 p 1 + 2 p 2 + .... + p 0 (9.51)
1 1 1 .... p 1 1
2= 1 1 p 2 2
(9.52)
.... .... O .... ....
p p 1 p2 .... 1 p
Figura 9.6
Correlograma Parcial > 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
-0.2
Retardo
Figura 9.7
Correlograma Parcial < 0
1.2
0.8
0.6
0.4
0.2
0
0 1 2 3 4 5 6 7 8 9
-0.2
-0.4
-0.6
-0.8
Retardo
La especificacin es la siguiente:
w = W + (9.54)
w1 1 w0 w1 .... w1 p 1
w
1 w1 w0 .... w2 p
w= 2 , = 1 , W = , = 2
.... .... .... ....
wT k 1 wT 1 wT 2 .... wT p T
Yt = + Yt 1 + t t : N ( 0; 2 ) (9.55)
YT +1 = + YT + T +1 (9.56)
YT +1 T = + YT (9.57)
YT + 2 = + YT +1 + T + 2 (9.58)
YT + 2 T = + YT +1 T = 2YT + (1 + ) (9.59)
YT + h = + YT + h1 + T + h (9.60)
h
(
lim YT + h T =)1
= (9.62)
T + h = YT + h YT + h T = + YT + h1 + T + h YT + h T (9.63)
T + h = 2YT + h 2 + (1 + ) + T + h + T + h 1 YT + h T (9.64)
T + h = hYT + (1 + + 2 + .... + h 1 )
(9.65)
+ T + h + T + h1 + 2 T + h 2 + .... + 2 h1T +1 YT + h T
T + h = T + h + T + h1 + 2T + h2 + .... + 2 h1 T +1 (9.66)
y su varianza:
V ( T + h ) = 2 (1 + 2 + 4 + .... + 2 h 2 ) (9.67)
Figura 9.8
Pronstico de un AR(1)
5
4.5
3.5
Proceso
2.5 Cota Superior
Cota Inferior
1.5
0.5
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Tiempo
YT +1 = YT + T +1 (9.68)
YT +1 T = YT (9.69)
YT + 2 = YT +1 + T + 2 (9.70)
YT + 2 T = YT +1 T (9.71)
YT +3 = YT + 2 + T +3 (9.72)
YT +3 T = YT + 2 T (9.73)
( L)
( L ) Yt = ( L ) t Yt = t (9.75)
(L)
1
f (Y , , , 2 ) = ( 2 )
n 2 1 2
exp T 1 (9.76)
2
donde:
L (Y , , , 2 ) = ln T 1 (9.77)
1 + 2 .... 0
2 1+ 2 0
= (9.78)
.... O ....
0 0 .... 1 + 2
1 .... n 1
2 1 n 2
= (9.79)
1 .... O ....
n1
n 2 .... 1
Yt = Yt 1 + t + t 1 (9.82)
YT +1 = YT + T +1 + T (9.83)
YT +1 T = YT + T (9.84)
YT + 2 = YT +1 + T + 2 + T +1 (9.85)
YT + 2 T = YT +1 T (9.86)
YT + 2 T = 2YT + T (9.87)
Hasta este momento se han tratado procesos estacionarios. Sin embargo, las
series de datos econmicos suelen caracterizarse por ser no estacionarias: ntese la simple
observacin de una tendencia creciente en el tiempo o de unas fluctuaciones que crecen
en tamao con el paso del tiempo, como, por ejemplo, puede ocurrir con el precio de
algunos activos financieros.
Una prediccin con estas series hay que traducirla a una prediccin para la
serie origen, en cuyo anlisis est interesado el investigador.
Yt = Yt Yt 1 (9.88)
Yt = Yt 1 + t (9.90)
Yt = + Yt 1 + t (9.91)
Yt = Yt 1 + t = Yt 2 + t 1 + t = Yt 3 + t 2 + t 1 + t = ..... (9.92)
N
Yt = t k (9.93)
t =0
V (Yt ) = N 2 (9.94)
(1 + L + L
1
s
2
2s
+ .... + p Lps ) Yt = + t (9.98)
p ( Ls ) Yt = + t (9.99)
Dadas estas semejanzas, los resultados van a ser similares entre s. Por
ejemplo, la primera cuestin que debemos dilucidar es si el proceso autorregresivo
estacional es estacionario o no. Tomando como referencia un proceso autorregresivo
regular, podemos decir que un proceso autorregresivo estacional ser estacionario siempre
que las races del polinomio de retardos p ( Ls ) estn todas fuera del crculo unidad.
= + 1 + 2 + .... + p = (9.101)
1 1 2 .... p
Yt = + t + 1 t s + 2 t 2 s + .... + q t qs (9.102)
Yt = + q ( Ls ) t (9.104)
Como todo proceso que solamente tiene parte de medias mviles, este
proceso ser siempre estacionario. No ser, por el contrario, siempre invertible. Para que
cumpla esta caracterstica es necesario imponerle una condicin similar a la de los
procesos de medias mviles regulares. As, un proceso estacional de medias mviles ser
invertible cuando las races del polinomio autorregresivo de retardos estn todas fuera del
crculo unidad.
E (Yt ) = (9.105)
9.11.5 Identificacin de s
a.) El grfico de la serie (la serie presenta valores superiores o inferiores al valor medio
anual, los cuales se repiten frecuentemente para determinar periodos al ao).
b.) Correlograma muestral de dicha serie (FAM presenta valores elevados en los
retardos correspondientes a los periodos estacionales).
10 VECTORES AUTORREGRESIVOS
Podemos definir:
Yt1 01 11 21 t1
Yt = 2 , 0 = 2 , 1 = 2 2
, t = 2
Yt 0 1 2 t
Yt = 0 + 1Yt 1 + t (10.2)
Y1 1 31 1 1 21 1
Yt = t2 , A= 2 , 0 = 02 , 1 = 12 2
, t = t2
Yt 3 1 0 1 2 t
Yt = 0 + 1Yt 1 + U t (10.6)
Al igual que en para el caso univariado, se requiere que este sistema sea
estacionario. Estacionariedad estricta o fuerte impone la condicin que la funcin de
distribucin multivariada sea estable en el tiempo, mientras que estacionariedad en su
versin dbil implica necesariamente que la media, la varianza y las covarianzas
intertemporales entre variables dependientes no cambien en el tiempo.
Para ello, se debe encontrar una dinmica convergente del sistema a travs
de analizar las races del siguiente polinomio:
1 0 11 12
p ( ) = det 1 (10.7)
0 1 12 22
424 3
1
1 11 12
p ( ) = det (10.8)
21 1 22
Luego, se obtiene:
1 2 1 0
p ( ) = det 11 12 =0 (10.10)
14 2 0 1
2
243
1
1 denominados valores propios. Para que un sistema sea estacionario estas races deben
ser menores que 1 en valor absoluto.
donde:
0 : es el vector de interceptos de d x 1
( L ) Yt = 0 + t Yt = 0 + ( L ) t (10.13)
pd2
CIA = ln + 2 (10.14)
T
pd2
BIC = ln + ln (T ) (10.15)
T
pd2
HQ = ln + 2 ln ln ( T ) (10.16)
T
donde:
T: el nmero de observaciones
ln L =
T
2
T
2 2 t =1
{T
}
ln ( 2 ) ln ( 1 ) ( Yt X ) 1 (Yt X ) (10.18)
1 T
ln L =
T
2
ln ( 2 ) ln ( 1 ) U tT 1U t
T
2
1 T
2 t =1
( ) (10.19)
( ln L ) T T 1 T T
1
= Ut Ut = 0
2 2 t =1
( ) (10.20)
T 1 T T
= Ut Ut
T t =1
( ) (10.21)
T t =1
Yt = 0 + 1Yt 1 + t (10.22)
1 0 .... 0
0 .... 0
1 = Z Z 1 , donde = Z = ( z1 , z2 ,...., zn )
2
,
.... .... .... ....
0 0 .... n
En este contexto, se satisface que lim k +1Yt k 1 = 0 slo si todos los valores
k
propios de son menor a uno en mdulo. Este ltimo aspecto representa la estabilidad
i
1
del modelo VAR, de tal forma que la influencia de los valores iniciales desaparezca
asintticamente. La analoga con los modelos AR es directa.
0 0 0 .... 0
0 0 .... 0
= (10.26)
1
H : N ( 0, I H ) (10.27)
(
V YH E (YH Y1 , Y2 ,...., YT )) = ( I H ) T (10.28)
Hemos visto que los procesos MA finitos son siempre estacionarios y que los
AR lo son si las races de ( B ) = 0 estn fuera del crculo unidad. Consideremos el AR(l):
Yt = + Yt 1 + t (11.1)
Yt = t + Y0 + t + t 1 + t 2 + ..... + 1 (11.2)
E (Yt ) = t + Y0 (11.3)
cov (Yt , Yt + k ) 2t t
k = = = (11.6)
V (Yt + k ) V (Yt ) ( t + k ) t (t + k )
YT +1 = E ( YT +1 T ) = YT + E ( T +1 T ) = YT (11.7)
YT + 2 = E (YT + 2 T ) = E ( YT +1 + T + 2 ) (11.8)
YT + 2 = E (YT + T +1 + T +2 ) = YT (11.9)
T +1 = YT +1 YT +1 = YT + T +1 Y{T = T +1 (11.10)
1424 3
YT +1 YT +1
y su varianza:
V (T +1 ) = 2 (11.11)
T + 2 = YT + 2 YT + 2 = YT +1 + T + 2 YT = YT + T +1 + T + 2 YT = T +1 + T + 2 (11.12)
V (T + 2 ) = 2 2 (11.14)
V (T + h ) = h 2 (11.15)
Yt = + Yt 1 + t (11.16)
YT +1 = E ( YT +1 T ) = YT + + E ( T +1 T ) = YT + (11.17)
YT + h = YT + h (11.18)
Figura 11.1
Pronstico de un Paseo Aleatorio Sin Tendencia
3
Proceso
0 Cota Superior
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 Cota Inferior
-1
-2
-3
Tiempo
Figura 11.2
Pronstico de un Paseo Aleatorio Con Tendencia
10
Proceso
5 Cota Superior
Cota Inferior
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31
Tiempo
(1 L L
1 2
2
.... p Lp ) (1 L ) Yt = (1 1 L 2 L2 .... q Lq ) t (11.19)
d
( L ) d Yt = ( L ) t (11.20)
( L ) wt = ( L ) t (11.21)
(
Y%t = Yt Yt = Yt 0 + 1t ) (11.22)
11 = 1 = 1 (11.23)
1
21 1 1 1
= (11.24)
1
1 2
22
31 1 1 2 1
32 = 1 1 1
2 (etc.) (11.25)
33 2 1 1
3
(
Luego, los valores de 11 , 22 , 33 ,...., kk ) se usan para construir la FAP.
La otra opcin para el clculo de la FAP, consiste en obtener los coeficientes
mediante las siguientes regresiones sucesivas:
Yt = 11Yt 1 + t (11.26)
1 k 1
V ( k ) =
T
1 + 2
i =1
12
(11.29)
Si los coeficientes muestrales caen dentro del intervalo, se concluye que los
coeficientes de autocorrelacin no son significativamente distintos de cero. En la prctica,
esta frmula permite identificar procesos de media mvil, para los cuales k se anula a
partir de algn k > q.
( ) 1
V kk = , k > p
T
(11.30)
1
por lo que el intervalo de confianza, al 95%, para contrastar kk = 0 es igual a 1, 96 .
T
ARMA(p,q):
(1 L L
1 2
2
.... p Lp ) wt = (1 1 L 2 L2 .... q Lq ) t (11.31)
El proceso es estacionario.
El proceso es invertible.
( L)
( L ) wt = ( L ) t t = wt (11.32)
(L)
( L )
t = wt (11.33)
( L )
Si estn presentes los trminos de media mvil, esta expresin es no lineal, por
lo que deben utilizarse mtodos de estimacin no lineales. Adicionalmente, debe emplearse
algn criterio para inicializar la serie (elegir nmeros para los valores iniciales no
observada).
t
2
l = T ln t
(11.34)
2 2
Dado que los parmetros a estimar estn dentro del segundo trmino de la
derecha, se obtiene que la estimacin por mxima verosimilitud condicionada y mnimos
cuadrados es la misma.
Las medias no condicionales de los errores t son cero siempre, mientras que
si no existe tendencia, la media no condicional de los wt iniciales tambin ser cero. Esto
proporcionar una aproximacin inicial adecuada si los valores reales de i
no son cercanos a 1 y si T es grande respecto a p y q.
Si el modelo contiene una parte MA, se tendr que las ecuaciones de Yule-
Walker que relacionan la funcin de autocorrelacin con los valores de los parmetros no
ser lineal. Ello implica que se pueden obtener soluciones mltiples para un determinado
estimador de la parte MA.
Notar que los valores de los parmetros estimados con las ecuaciones de
Yule-Walker corresponden a la funcin de autocorrelacin muestral, y son por lo tanto una
estimacin de la funcin de correlacin real.
1
rk : N 0, , k (11.37)
T
Hay que tener en cuenta que esta aproximacin realizada sobre la varianza
no es muy adecuada tanto para la FAS como para la FAP, especialmente en
los retardos bajos. Se podra concluir que un coeficiente es estadsticamente no
significativo cuando en realidad lo es.
La FAS y la FAP de los residuos del modelo estimado son instrumentos valiosos
a la hora de reformular el modelo, en caso de que no se comporten como un
proceso ruido blanco.
Yt = 1Yt 1 + t 1 t 1 (11.39)
i i
H 0 : i = 0 : tT k (11.40)
( )
V i
j j
H 0 : j = 0 : tT k (11.41)
( )
V j
H0 : = 0 : tT k (11.42)
( )
V
1 1 L 2 L2 .... p Lp = 0 (11.43)
1 1 L 2 L2 .... q Lq = 0 (11.44)
Si existen races comunes ( L*i = L*j ) , se podra utilizar para las predicciones un
modelo con dos parmetros menos, y el modelo sera un ARMA(p-1, q-1).
Para evitar este problema, puede ser eficaz eliminar algn parmetro an a
costa de que el grado de ajuste sea ms pequeo. No obstante, si todos los
coeficientes son significativos no sera aconsejable eliminar coeficientes del
modelo.
g) Anlisis de Estabilidad
T 2 T1 2 T2 2
t 1t + 2 t k
t =1
F= T
t =1 t =1
: F( k ,T 2 k ) (11.45)
1 2 T
2
1t + 2t (T 2k )
2
t =1 t =1
YT +1 = E ( YT +1 YT , YT 1 ,...., Y0 ) (11.46)
donde todas las variables con subndices inferiores a T+1, dejan de ser aleatorias, por lo
que sus esperanzas matemticas coinciden con sus realizaciones y E ( T +1 ) = 0 , por
hiptesis.
a) Error de Prediccin
t + s = Yt + s Yt + s (11.49)
Yt = % + t + 1 t 1 + 2 t 2 + 3 t 3 + .... (11.51)
Yt + s = % + t + s + 1 t + s 1 + 2 t + s 2 + .... + s 1 t + s s 1 + s + j t j (11.52)
j =0
t + s = Yt + s Yt + s (11.54)
t + s = t + s + 1 t + s 1 + 2 t + s 2 + .... + s 1 t + s s +1 + ( s + j s + j ) t j (11.55)
j =0
t + s = t + s + 1 t + s 1 + 2 t + s 2 + .... + s 1 t + s s +1 (11.57)
V (t + s ) = E ( t + s ) = 2 (1 + 12 + 22 + .... + s21 )
2
(11.58)
( L ) Yt = ( L ) t Yt = ( L ) ( L ) t = ( L ) t
1
(11.59)
14243
( L)
b) Capacidad de Prediccin
2
t + s +1 t + s
s =0
: h2 (11.60)
2
disponible en el momento (t + s) y 2 =
t
2
, con k el nmero de
T k
parmetros del modelo (k = p + q).
Figura 11.3
Correlogramas Para Distintos Procesos
1.2 1.2
1 1
0.8 0.8
rho(k)
rho(k)
0.6 phi = 0.5 0.6 phi = 0.8
0.4 0.4
8
8
0.2 0.2
6
6
4
4
2
2
0 0
0
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
k k
1.2 1.2
1 1
0.8 0.8
rho(k)
rho(k)
0.4 0.4
8
8
0.2 0.2
6
6
4
4
2
2
0 0
0
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
0
10
12
14
16
18
20
22
24
26
28
30
32
34
36
38
40
42
44
46
48
50
k k
11.3.2 Sobrediferenciacin
Yt Yt 1 = t t 1 (1 L ) Yt = (1 L ) t (11.61)
y que es igual a:
Yt = t + 1 t 1 (11.62)
1 1
1 = = = 0,5 (11.63)
1 + 1 1 + 1
2
Por tanto, es una varianza que tiene hacia infinito. Si tomamos primeras
diferencias, el modelo anterior nos queda de la siguiente manera:
Yt = t (11.64)
2Yt = 2 t = t t 1 (11.65)
Yt = + 1Yt 1 + t (12.1)
Yt = + t + t (12.2)
Figura 12.1
Proceso con Tendencia Determinista
60
50
40
30
20
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
Observaciones
Yt = + t + 1Yt 1 + t (12.3)
Yt = + Yt 1 + t E (Yt ) = t + Y0 (12.4)
Figura 12.2
Proceso con Tendencia Estocstica
45
40
35
30
25
20
15
10
0
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40
Observaciones
( L ) Yt = 0 + 1t + ( L ) t (12.5)
( L ) Yt = 1 + (1 L ) ( L ) t (12.6)
Yt = Yt 1 + ut
(12.7)
X t = X t 1 + vt
Efectivamente, en la regresin:
Yt = 0 + 1 X t + t (12.8)
t = Yt 1 X t (12.9)
T T
t = ut 1 vt (12.10)
t =0 t =0
Uno de los mtodos que suelen proponerse como suficientes para la deteccin
de la no estacionariedad de una serie es, errneamente, el del anlisis de representaciones
grficas de la misma.
t 1
1 = 1 Yt = Y0 + t i (12.12)
i =0
K
k2
QLB = T ( T + 2 ) : T2 k (12.14)
k =1 T k
El estadstico es de la forma:
( t 1 )
n 2
t
DW = t =2
(12.15)
(tt2 )
n
t =2
Yt = 0 + t (12.16)
( t 1 ) (Y Yt 1 )
n 2 n 2
t t
DW = t =2
= t =2
(12.17)
( ) (Y )
n n 2
2
tt t Yt
t =2 t =2
Yt = 1Yt 1 + t (12.18)
Yt = Yt 1 + t (12.19)
Yt Yt 1 = 0 + 1Yt 1 Yt 1 + t
Yt = 0 + (1 1) Yt 1 + t = 0 + Yt 1 + t (12.20)
123
Decir que es nulo es lo mismo que decir que 1 = 1 , es decir, que existe una
raz unitaria; decir que es menor que cero equivale a decir que 1 < 1 (proceso
autorregresivo estacionario).
Por lo tanto, antes de estimar los parmetros del modelo, hay que decidir si el
proceso generador de datos ser el simple, como el expuesto anteriormente (12.18),
contendr una constante (0 ) , un trmino tendencial determinista ( t ) , o ambas cosas
simultneamente.
Yt = Yt 1 + t (12.21)
Yt = 0 + Yt 1 + t (12.22)
Yt = 0 + t + Yt 1 + t (12.23)
Tal y como describen de forma muy clara Suriach et al. (1995), los modelos
(12.22) y (12.23) presentados por Dickey y Fuller son en realidad formas reducidas de
determinados modelos estructurales.
As, el modelo (12.22), que contrasta la hiptesis nula de paseo aleatorio con
deriva (0 ) frente a una alternativa de esquema AR(1) estacionario, es la forma reducida
del modelo VAR siguiente:
Yt = + ut ut 1 = Yt 1
Yt = 1(1 3
424 1 ) + 1Yt 1 + t (12.24)
ut = 1ut 1 + t Yt = + 1ut 1 + t
0
Yt = (1 1 ) + (1 1) Yt 1 + t (12.25)
1424 3 123
0
Yt = + t + ut
(12.26)
ut = 1ut 1 + t
en que 0 = (1 1 ) + 1 y = (1 1 ) .
Tabla 12.4
Valores Crticos de D-F al 95%
0 = 0 = 0 tt / -3,11
Yt = 0 + t + Yt 1 + t =0 =0 t / -2,79
= = 0 F , -6,49
0 = = = 0 F , , -4,88
Dolado et al. (1990) y Perron (1990) propusieron, entre otros autores, seguir
un proceso en etapas a fin de aumentar la probabilidad de xito en la eleccin del modelo
de referencia:
Est claro que lo expuesto hasta este momento permite contrastar la presencia
de una o ms races unitarias en una determinada serie temporal para la que se
supone un proceso AR(1).
p
p
donde = 1 i y i = j .
i =1 j =1
2k i2
AIC = + log i (12.28)
n n
2 (k + )
MAIC = + log ei2 n (12.29)
T k i
1
T
donde = ei2 n
2
Y 2
t 1
i t = k +1
12.5 Cointegracin
Este es el problema de las regresiones espurias que implica no slo que los
estimadores MCO de los coeficientes son ineficientes sino que los estimadores de los
errores estndar son inconsistentes.
Y
Z t = Yt = (1 1 ) , Yt = , Z t = 0 + ut (12.30)
X
Si las series son CI(1,1), Z t es estacionaria, por lo que el error ser una
serie estacionaria.
Se contrasta la hiptesis nula de que los residuos ut tienen una raz unitaria
contra la alternativa de que son I(0). De esa forma, la hiptesis nula es la no
cointegracin y la alternativa la cointegracin. Podemos aplicar la prueba DF o
ADF. Engle y Granger consideran que existe una relacin de cointegracin entre las
variables si los residuos ut son I(0).
As, cuando el valor DW calculado es menor que el tabulado para cierto nivel
de significacin, se acepta la hiptesis nula de no cointegracin. Si es mayor, se acepta la
hiptesis de cointegracin. Los valores crticos de este contraste estn tabulados y pueden
verse en Sargan-Bhargava (1983).
Una regla prctica muy til es que si DW < R 2 las series no estn
cointegradas.
En el caso de que el vector de variables del modelo est constituido por dos
variables, Yt y X t , la relacin a largo plazo entre ambas variables puede expresarse
como:
Yt* = + X t + t (12.31)
Por otra parte, su relacin a corto plazo puede expresarse, de acuerdo con el
MCE, de forma que las desviaciones respecto a la tendencia a largo plazo tienden a
corregirse.
Yt = Yt * + g (Yt 1 X t 1 ) (12.32)
144 42444 3
t 1
donde g es un parmetro cuyo valor es menor que cero (para compensar la diferencia
generada en el perodo anterior).
Yt = X t + g t 1 + vt (12.33)
Yt = 1X t1 + 2 X t2 + .... + k X tk + g t 1 + vt (12.35)
12.7 Causalidad
X t = % 0 + % i X t i + % jYt j + %t
r r
(12.37)
i =1 j =0
H 0 : i = 0, %i 0; i = 1,...., r
(12.38)
H% 0 : %i = 0, i 0; i = 1,...., r
Para ello se aplica un test F de manera complementaria con los test-t; las
restricciones del test F en este caso corresponden a los valores de los parmetros segn
las hiptesis nulas.
13 ANLISIS FACTORIAL
Utilizar estas nuevas variables en otros anlisis estadstico de los datos, por
ejemplo para prediccin.
Los factores no son variables independientes simples sino que cada uno est
constituido por un grupo de variables que caracterizan el concepto que representa el
factor.
Es por esta causa que se clasifica esta tcnica entre las tcnicas de
interdependencia. (Tanto las variables a un lado de la ecuacin como en el otro estn
interactuando como criterios y predictoras).
Nota en lgebra
Nota en clculo
Nota en estadstica
Nota en derecho comercial
Nota en derecho laboral
Nota en contabilidad financiera y de sociedades
Nota en anlisis de costos
Nota en comunicacin comercial
Nota en administracin
Nota en econometra
Factor 2: memoria
Una ventaja que presenta el FA respecto al MCP, es que las nuevas variables
creadas (denominadas factores) son en general mucho ms fcil de interpretar.
Recordemos que el MCP genera una transformacin ortogonal de las variables
y no depende de un modelo subyacente. El FA, en cambio, s depende de un
modelo estadstico razonable. Por lo tanto, el MCP es descriptivo y el FA tiene
un modelo estadstico formal.
En ambos casos pueden existir problemas con la escala de los valores de las
variables.
j : N ( 0; j ) , j = 1, 2,...., p
iid
cov ( f k ; j ) = 0 , j , k
X = F + (13.2)
donde:
X = ( x1 , x2 ,...., x p )
T
(13.3)
F = ( f1 , f 2 ,...., f m )
T
(13.4)
= (1 ,2 ,...., p )
T
(13.5)
11 12 .... 1m
22 .... 2 m
=
21
(13.6)
.... .... .... ....
p1 p 2 .... pm
F : N ( 0; I )
1 0 .... 0
0 .... 0
: N ( 0; ) =
2
F T = 0
X = F + (13.7)
=V (X ) (13.8)
= V (F + ) (13.9)
= V ( F ) T + V ( ) (13.10)
= T + (13.11)
m
jj = 2jk + j (13.12)
k =1
cov ( xi ; x j ) = ik jk
m
(recordar que ij = 0 )
k =1
m
Del mismo modo, se tendr que
k =1
2
jk + j = 1 , por lo que la comunidad de
m
la j-sima variable es simplemente
k =1
2
jk .
P = TT T T + (13.13)
1) T = Diag
Con esta normalizacin, los vectores que definen el efecto de cada factor
sobre las p variables observadas son ortogonales. De esta manera, los
factores, adems de estar incorrelacionados, producen efectos lo ms distinto
posible sobre las variables. Por otra parte, esta normalizacin asegura una
matriz de cargas nica.
2) T 1 = Diag
Con esta normalizacin, los efectos de los factores sobre las variables,
ponderados por las varianzas de las perturbaciones de cada observacin, se
hacen incorrelacionados. Tambin se define una matriz de cargas nica.
Por otra parte, dado que deben respetarse ciertas restricciones respecto de
los valores que pueden tomar las cargas jk y las varianzas j , directamente se rechazan
todas aquellas soluciones absurdas (por ejemplo con valores negativos para j o valores
mayores que uno para jk ). Adicionalmente, puede exigirse que T = Diag o
1 T = Diag .
( ) = T
(13.14)
( )
Dado que es simtrica, puede descomponerse como:
( ) = HGH = ( HG )( HG )
T 12 12 T
(13.15)
( )
dado que es de rango m, la matriz G debe ser diagonal del tipo:
G(1mm ) 0 m( p m)
G= (13.16)
0( p m)m 0( p m )( p m )
1) (
Partir de una estimacin inicial de i o de i mediante i = Diag
T )
2) Calcular la matriz cuadrada y simtrica Qi = ( i )
T T
Qi = H i1Gi1 H i1 + H i2 Gi2 H i2 (13.19)
donde Gi1 contiene los m mayores valores propios de Qi , y H i1 sus vectores propios.
Elegiremos m de manera que los restantes valores propios contenidos en Gi2 sean todos
pequeos y en magnitud similar.
12
4) Tomar i +1 = H i1 Gi1 y volver al paso (1).
1
ii. Tomar jj = , donde sii es el elemento diagonal i-simo de la matriz de
s jj
precisin 1 . Esto equivale a tomar h 2j = s 2j R 2j , donde R 2j es el coeficiente
de correlacin mltiple entre xj y el resto de las variables. Mientras mayor
sea el valor de R 2j , mayor ser la comunidad de h2j . Notar tambin que el
trmino s 2j representa la j-sima columna de valores de la matriz .
0, 35 0,15 0,19
= 0,15 0,13 0, 03 (13.20)
0,19 0, 03 0,16
1
Paso 1 (iteracin 0): considerando jj = , se obtiene:
s jj
1
52, 09 0 0
0, 019 0 0
0
1
0 = 0 0 = 0 0, 019 (13.22)
52, 09
0 0, 017
1
0
0 0
60, 21
T T
Paso 3: realizamos la descomposicin espectral Q0 = H 01G01 H 01 + H 02G02 H 02 .
Sin embargo, para ello necesitamos previamente los valores propios de la matriz Q0 . A
partir de (13.24) se deduce directamente que los valores propios de la matriz Q0 son
0.379, 0.094 y 0.108. Dado que uno de ellos es negativo, la matriz no es positiva
definida.
Como hay un valor propio mucho mayor que los dems (0.379) consideraremos slo un
factor. En consecuencia, la descomposicin es la siguiente:
6474 8
vector propio para 0,379
12
Paso 4: calculamos 1 = H 01 G01 :
0, 670 0, 412
1 = 0, 442 0,379 = 0, 272
(13.26)
0,596 0,367
(
Paso 1: Estimamos 1 = Diag 11T : )
0,331 0,15 0,19 0, 412
1 = Diag 0,15 0,11 0, 03 0, 272 [ 0, 412 0, 272 0,367 ] (13.27)
0,19 0, 03 0,143 0,367
0,180 0 0
1 = 0 0, 056 0 (13.28)
0 0 0, 025
0, 05 0,15 0,19
Q1 = 0,15 0, 074 0, 03 (13.30)
0,19 0, 03 0,135
T T
Paso 3: realizamos la descomposicin espectral Q1 = H11G11 H11 + H12G12 H12 . A
partir de (13.30) se deduce directamente que los valores propios de la matriz Q1 son
0.307, 0.067 y 0.215. En consecuencia, la descomposicin es la siguiente:
12
Paso 4: calculamos 2 = H11 G11 :
0,559 0,310
2 = 0, 450 0,307 = 0, 249
(13.32)
0, 696 0,386
0, 269
3 = 0, 229 (13.33)
0, 407
0, 269 1
X = F + = 0, 229 f1 + 2
(13.34)
0, 407 3
1424 3
3
1 0 0, 254 0 0
: N 0 ; 0
0, 068 0 (13.35)
2
3 0 0
1444424444
0 0, 011
3
3
No Incluir Factores Triviales: los factores triviales son aquellos que tienen
slo una variable original cargando sobre el factor. Ello implica que dicha
variable no se correlaciona con el resto, y es por s misma un factor
subyacente. En tal caso, se elimina dicha variable antes del FA.
Esto no significa que la variable no sea importante, sino que sus caractersticas
son independientes de las otras variables. En sntesis, no tiene sentido construir
factores si se pueden emplear ellas mismas.
Este mtodo permite considerar que si por ejemplo, 6 factores son adecuados,
eventualmente pueden ser adecuados tambin 5 4. Pero si 6 factores son inadecuados,
es necesario incrementar el nmero de factores.
Sin embargo, estos mtodos tienden a producir factores triviales, los que
deben eliminarse.
Adems, dado que los factores son independientes, sera bueno (pero no
fundamental) que las variables de respuesta no se carguen mucho sobre distintos factores.
Por lo tanto, los factores que afectan a una determinadas variables no afectan
al resto, y viceversa.
1,0
f2
4 6
5
0,0
1 f1
3
2
-1,0
1,0
f2
4 6
5
0,0
1 f1
3
2
-1,0
p p 2
2
2
jq
m j =1
b 4
b jq p
1 m p 2 p 2
p =
j =1
V = b jq b jq
*
(13.36)
{tij } p q =1 j =1 j =1 q =1 p
2
p
La cantidad dentro de los parntesis b 2jq en esta expresin es la
j =1
varianza de las cargas elevada al cuadrado, dentro de la q-sima columna de B.
Kaiser suma las varianzas de las cargas elevadas al cuadrado que estn
dentro de una columna, a travs de las distintas columnas (q). La matriz ortogonal T que
produce un mximo para esta suma de varianzas de las columnas da como resultado la
rotacin VARIMAX de Kaiser de la matriz de carga de los factores tij = bij ij .
Debido a ello, Kaiser sugiri que sera mejor dividir las cargas de los factores
para cada variable, por la comunidad propia de la variable, y luego maximizar la suma de
las varianzas de las razones elevadas al cuadrado dentro de una columna.
1 m p b jq p b jq
4 2 2
V = p
{tij } p 2 q =1 j =1 h 4j j =1 h2j
(13.37)
Notar que:
1,0
f2
4 6
5
0,0
1 f1
3
2
-1,0
(Z r ) (
F 1 Z r F ) (13.39)
( )
1
Fr = T 1 T 1Z r (13.40)
Z 0 P
: N ; T (13.41)
F 0 I
E ( F Z = Z * ) = T P 1 Z * (13.42)
( )
1
Fr = T
T + Zr (13.43)
Una alternativa puede ser por ejemplo considerar el valor promedio de todas
aquellas variables que tengan correlacin elevada con un determinado factor.
Una segunda alternativa puede ser considerar aquella variable que presenta
una mayor correlacin con el factor como cuantificacin de este mismo.
12
d rs = ( xr xs ) 1 ( xr xs )
T
(14.3)
Figura 14.1
Grfico de Dispersin Bidimensional
120
100
80
X2
60
40
20
0
0 10 20 30 40 50 60 70 80 90
X1
Figura 14.2
Grfico de Dispersin Tridimensional
x3
x2
x1
Figura 14.3
Grfico de Dispersin de Esferas
140
120
100
80
X2
60
40
20
0
-20 0 20 40 60 80 100
-20
X1
xr1
fr (t ) = + xr 2 sin ( t ) + xr 3 cos ( t ) + xr 4 sin ( 2t ) + xr 5 cos ( 2t ) + .... (14.4)
2
Figura 14.4
Grficos de Andrews
Cada dato se representar mediante una estrella que contendr tantos rayos
o puntas como variables se deseen representar. Luego, existir una estrella para cada
unidad experimental.
Figura 14.5
Grficos de Estrellas
tecnolgica
x6 : Organizacin empresarial
Tabla 14.1
Datos Econmicos de Pases del Mundo
Observacin (i) X1 X2 X3 X4 X5 X6 X7 X8
Canad 61.0 51.5 64.5 67.0 61.0 68.5 69.0 68.0
Australia 60.0 49.5 67.5 67.0 60.0 64.0 73.0 67.0
Noruega 62.5 50.5 57.5 61.0 59.0 60.5 76.0 70.0
Venezuela 30.0 42.0 44.0 35.5 41.0 37.0 42.0 40.5
P. Bajos 64.5 72.0 61.5 72.5 63.0 73.0 69.5 65.0
Hungra 59.5 58.0 51.5 51.5 49.5 51.0 50.5 57.0
Portugal 58.0 54.5 52.0 59.5 42.0 48.0 49.0 57.5
Espaa 57.5 59.0 63.5 64.5 49.5 57.5 55.0 59.0
China 66.5 54.5 62.0 40.5 49.5 42.5 39.0 57.0
Thailandia 44.5 45.5 62.0 39.0 38.0 38.0 39.0 49.5
Brasil 52.0 44.5 50.5 39.0 41.0 48.5 41.0 39.5
Mexico 53.5 40.5 50.5 36.5 39.0 48.5 42.0 43.0
1 2 3 4 5 6
1 - 0,31 0,23 0,32 0,26 0,25
2 - 0,34 0,21 0,36 0,28
3 - 0,31 0,04 0,07
4 - 0,31 0,28
5 - 0,09
6 -
1 2 3-5 4 6
1 - 0,31 0,23 0,32 0,25
2 - 0,34 0,21 0,28
3-5 - 0,31 0,07
4 - 0,28
6 -
1 2 3-5-6 4
1 - 0,31 0,23 0,32
2 - 0,28 0,21
3-5-6 - 0,28
4 -
1 2-4 3-5-6
1 - 0,31 0,23
2-4 - 0,28
3-5-6 -
1-3-5-6 2-4
1-3-5-6 - 0,28
2-4 -
Este tipo de diagrama contiene ramas que une individuos y muestra el orden
en que se asignan los individuos a los agrupamientos. Las longitudes de las ramas son
proporcionales a las distancias mtricas entre los individuos (o grupos de individuos).
Figura 14.6
Diagrama de rbol Jerrquico
2 4 3 5 6 1
0,04
0,07
0,21
0,23
Figura 14.7
Diagrama de rbol Jerrquico con 3 Agrupaciones
C2 nr C2
W2 = ( X Xr ) (X X r )
T
(14.8)
r =1 q =1
rq rq
F* =
(W2 W1 ) ( N C1 ) k1 (14.9)
W1 ( N C2 ) k2 ( N C1 ) k1
donde k1 = C12 p y k2 = C2 2 p ; N es el nmero total de individuos (unidades
experimentales) y p es el nmero de variables exgenas.
Para aplicar esta tcnica, en primer lugar deben calcularse las distancias
mtricas entre todas las parejas de individuos; es razonable antes estandarizar los datos.
En este mismo espacio, sean d r1s1 la distancia entre los dos individuos ms
cercanos; d r2s2 la distancia entre los siguientes dos individuos ms cercanos, y as
sucesivamente hasta llegar a d rN ( N 1) 2 sN ( N 1) 2 , que es la distancia entre los individuos ms
alejados.
( D d rs ) Drs
2
rs
E= r =1 s =1
N r 1
(14.12)
D
r =1 s =1
rs
sujeto a (14.11).