Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conceptos Estadsticos
1. , S S
2. A S Ac = SA S
3. An S, n = 1, 2, 3....,
n=1 An S
3
4 CHAPTER 2 CONCEPTOS ESTADSTICOS
1. () = 0
2. (A) 0, A S
3. Si {An }
n=1 es un conjunto de secuencias
P disjuntas numerables (conta-
bles) en S, entonces (n=1 An ) = n=1 (An ).
2.1 FUNCIONES ALEATORIAS 5
Definicin. Dado un espacio medible (S, S), una funcin de valor real
es medible con respecto a S, es decir es S-medible, si:
(1) = 20
(2) = 5
(3) = 6
(4) = 7
Para verificar si es una funcin medible, se debe analizar la condicin
representada en la definicin de lo que es una funcin medible:
Si x = 1 { S|() < x} = S
Si x = 6.5 { S|() < x} = {2, 3}
/S
Si x = 7.5 { S|() < x} = {2, 3, 4} S
Luego dado que para x = 6.5 la condicin no se cumple, entonces no es
una funcin medible.1
1
S hubiese sido el caso que (3) = (4) = c, para alguna constante c, entonces la funcin
habra sido medible.
6 CHAPTER 2 CONCEPTOS ESTADSTICOS
({ S|() < x}) <
en donde si es una medida de probabilidad, entonces:
6x2 y si x (0, 1), y (0, 1)
Ejercicio. Sea la funcin de densidad f (x, y) = .
0 en otro caso
La probabilidad de que ocurra el evento A = (x, y)|0 < x < 34 , 13 < y < 2
R 3 R1
se denota por 04 1 6x2 ydxdy = 38 .
3
respectivamente como:
Z
0
f (x1 ) = f (x1 , x2 ) dx2
Z
f 0 (x2 ) = f (x1 , x2 ) dx1
M (1 , 2 , ..., n ) = E e1 X1 +2 X2 +...n Xn
= E e1 X1 e2 X2 ...en Xn
= E e1 X1 E e2 X2 .....E en Xn
= M (1 ) M (2 ) .....M (n )
= ni=1 M (i )
M (0, 0, ..., 0)
= E [Xi ]
i
2 M (0, 0, ..., 0)
2 = E Xi2
i
2
2 M (0, 0, ..., 0) M (0, 0, ..., 0) 2
2
= 2 = E Xi [E [Xi ]]2
i i
x1 + x2 si 0 < x1 < 1 y 0 < x2 < 1
f (x1 , x2 ) =
0 en otro caso
R 1
0 (x1 + x2 ) dx2 = x1 + 12 si 0 < x1 < 1
0
f (x1 ) =
0 en otro caso
R 1
0 0
(x1 + x2 ) dx1 = 12 + x2 si 0 < x2 < 1
f (x2 ) =
0 en otro caso
?
Luego es posible verificar si f (x1 , x2 ) = f 0 (x1 ) f 0 (x2 ).
1
x1 + x2 si 0 < x1 < 1 y 0 < x2 < 1 ? x1 + 12 2
+ x2
=
0 en otro caso 0 0
Claramente (x1 + x2 ) 6= x1 + 12 12 + x2 , luego X1 , X2 NO son estocsti-
camente independientes.
2 2
x = n p 1 (1 p1 ) y = n p 2 (1 p2 )
x e
x!
, x = 0, 1, 2, ....
e(e 1)
t
P o isso n x P ()
y 0.5
0.375
0.25
0.125
0
-4 -2 0 2 4
x e
para x = 0, 1, 2, .....
x!
f (x) =
0 de otra manera
X
x e X
(et )
x
tx
M (t) = e =e
x=0
x! x=0
x!
2.2 FUNCIONES DE DISTRIBUCIN DE DENSIDAD 13
P x
y se sabe que x=0 x! e , entonces:
M (t) = e ee = e(e 1)
t t
M 0 (0) =
= = 2P =
M 00 (0) = + 2
2
2t
2
2 t+
x2 N (2 , 22 ) = Mx2 (t) = e 2
2
= e
= Y N 1 + 2 , 21 + 22
14 CHAPTER 2 CONCEPTOS ESTADSTICOS
z 2 = x2 (1 2t)
dz = dx 1 2t
es decir que:
Z z2
1 e 2
My (t) = dz
2 1 2t
R 2
z2
pero como 1 e dz = 1, entonces:
2
1
My (t) = (1 2t) 2
Z X
E [U (X)] = U (x) f (x) dx = U (x) f (x)
x
Z Z
E [U (X1 , X2 , X3 , ..., Xn )] = ..... U (x1 , x2 , x3 , ..., xn )
f (x1 , x2 , x3 , ..., xn ) dx1 dx2 dx3 ....dxn
Z Z 1
1
E [X] = xf (x) = 2 (1 x) dx =
0 3
Z Z 1
2 2 1
E X = x f (x) = 2x (1 x) dx =
0 6
2 2
E 6X + 3X = 6E X + 3E [X] = 2
de la variable, es decir:
2 = E (X )2 = E X 2 2X + 2
= E X 2 2E [X] + 2
= E X 2 {E [X]}2
2.3.2 Skewness
El tercer momento de una pdf se denomina skewness, y determina el grado
de asimetra que posee una distribucin. Para el caso de funciones simtricas
como la normal o la t-student, este coeficiente es cero, y analticamente se
representa por:
1 X
T
Sk = 3
(xi )3
T t=1
y
1.5
1.25
0.75
0.5
0.25
0
-2 -1 0 1 2
Sk
zSk = q N (0, 1)
6
T
2.3.3 Kurtosis
1 X
T
K= 4
(xi )4
T t=1
(s3)2
1 0.5 24/T
f (s) = q e
2 24T
a 24
K N 3,
T
2.3 MOMENTOS DE UNA DISTRIBUCIN 19
y 1
0.75
0.5
0.25
0
0 2 4 6
Tal como se genera el estadstico cabe mencionar que este indicador tiene
una cota inferior en cero, es decir que no puede ser inferior a cero, de manera
que en la medida que se aleja de 0, ya sea porque el coeficiente de skewness
se aleja de 0 o porque el coeficiente de kurtosis difiere de 3, aumenta la
probabilidad de rechazar la hiptesis nula de que la distribucin generadora
de los datos proviene de una distribucin normal.
1.24
zSk = q = 42. 674
6
7106
2500
Serie: Retornos del NASDAQ
Sample Febrero 1971 - Marzo 2001
2000 Observations 7106
Media 0.044518
1500 Mediana 0.109189
Mximo 7.086021
Mnimo -12.04784
1000 Dev. St. 0.889491
Skewness -1.238488
Kurtosis 17.14976
500
Jarque-Bera 61097.15
Probabilidad 0.000000
0
-12.5 -10.0 -7.5 -5.0 -2.5 0.0 2.5 5.0 7.5
17.15 3
zK = q = 243. 48
24
7106
es decir rechazamos con fuerza que los retornos puedan ser representados por
una funcin con coeficiente de kurtosis de 3. Las caractersticas de leptokur-
tosis son muy tpicas de los retornor de precios de activos financieros. Gran
presencia de retornos alejados del centro de la distribucin (outliers) posi-
tivos y negativos hacen que esta sea muy concentrada en la media y adems
en los extremos de la distribucin.
load p[7107,1]=a:\nasdaq.txt;
r=ln(p./lag1(p))*100;
r=r[2:rows(r)];
La Media es : ;;meanc(r);
La STDC es : ;;stdc(r);
La STDCs es : ;;stdc(r)*sqrt((rows(r)-1)/rows(r));
La Minc es : ;;minc(r);
La Maxc es : ;;maxc(r);
s=1/(rows(r)*stdc(r)^3)*sumc((r-meanc(r))^3);
La Skewness : ;;s;
El P-Value del Skewness es : ;;cdfnc(abs(s));
k=1/(rows(r)*stdc(r)^4)*sumc((r-meanc(r))^4);
La Kurtosis : ;;k;
El P-Value del Kurtosis es : ;;cdfnc(abs(k));
jb=rows(r)/6*(s^2+.25*(k-3)^2);
El Jarque-Bera Statistic es : ;;jb;
El P-Value del JB es :;;cdfchic(jb,2);
2.4 Inferencia
2.4.1 Sesgo
Definicin. Un estimador de un parmetro poblacional se dice insesgado
si su media muestral es . Es decir:
h i
E =
2.4.2 Eficiencia
Puede darse el caso en que se tenga dos estimadores insesgados y sea necesario
decidir cul se utilizar para hacer la estimacin del parmetro poblacional.
Idealmente si tenemos dos estimadores insesgados "es mejor" escoger aquel
que es "ms certero" en su estimacin, es decir aquel que posee una distribu-
cin "ms angosta" o centrada en su valor medio. Un concepto que est
ligado a este segundo momento de la distribucin es el de eficiencia.
Definicin. Un estimador insesgado 1 es ms eficiente que otro estimador
insesgado 1 , si la varianza muestral del primer estimador es inferior a la
varianza muestral del segundo estimador. Es decir, 1 es ms eficiente que
2 si:
V 1 < V 2
2
ECM = E
2
= E E +E
2 h i
= E E +E 2 E
E +
2
E E
2 2
= E E +E E
h i2
= Sesgo + V arianza
h 2 i 2
E [s2 ] = E (T1) 2 (T 1) = (T1) E [2 (T 1)] = 2
2 h 2 i
MLE = E T 2 (T 1) = (T T1) E [s2 ] = (T T1) 2 < 2
E
2
E MLE < 2 = E [s2 ]
2 (T 1) 2
E MLE 2 = 2
T
1 2
= <0
T
Con respecto a la varianza de ambos estimadores, sabemos que la varianza
de una distribucin chi-cuadrado es equivalente al doble de sus grados de
libertad, de manera que fcilmente podemos verificar el valor de las varianzas
para ambos estimadores:
h 2 i 2 2 2 2
V [s2 ] = V (T1) 2 (T 1) = (T1) V [2 (T 1)] = (T1) 2 (T 1)
2 h 2 i 2 4
V MLE = V T 2 (T 1) = (T T1) V [s2 ] = T 2 2 (T 1)
2
MLE < V [s2 ]
V
26 CHAPTER 2 CONCEPTOS ESTADSTICOS
2 4 4
ECM MLE = T 2 + T 2 2 (T 1) = 4 2TT1 2
2
Considerando que ECM MLE < ECM (s2 ), vemos que el estimador ses-
gado es ms preciso pues la menor varianza de este ms que compensa la
ponderacin que recibe el sesgo en la funcin ECM.
r
0 r2
u 2 (r1 )
r1
F -F ish e r F (r1 , r2 ) F = v 2 (r2 )
r2
Part II
Modelos de Regresin
29
Chapter 3
31
32CHAPTER 3 MODELO CON UNA VARIABLE EXPLICATIVA
y
104
102
100
98
96
-5 -2.5 0 2.5 5
$ ( 0 , 1 )
= 0
0
$ ( 0 , 1 )
= 0
1
Segn nuestro modelo estas ecuaciones se denominan ecuaciones normales
y se pueden escribir como:
34CHAPTER 3 MODELO CON UNA VARIABLE EXPLICATIVA
t=T
X
2 yt 0 1 xt = 0
t=1
X
t=T
2 xt yt 0 1 xt = 0
t=1
X
t=T
et = 0
t=1
X
t=T
xt et = 0
t=1
El nmero de ecuaciones normales es equivalente al nmero de incgnitas
del modelo, es decir el conjunto de parmetros a estimar. Utilizando una
representacin extensiva de las ecuaciones normales, estas se pueden escribir
como:
X
t=T X
t=T
yt = T 0 + 1 xt
t=1 t=1
X
t=T X
t=T X
t=T
yt xt = 0 xt + 1 x2t
t=1 t=1 t=1
Activo 0 1
Citigroup 0.135131 1.609109
General Electric 0.115481 1.205445
Wal-Mart 0.040995 1.150044
Microsoft 0.383609 0.941912
Exxon 0.077849 0.639781
Phillip Morris 0.110858 0.631160
La primera tiene que ver con que el valor medio de los residuos es nulo, lo
cual implica que la suma de los residuos es igual a cero.
X
t=T
et = 0
t=1
1 Xt=T
1 X
t=T
1X
t=T
= yt = yt + et
T t=1
T t=1
T t=1
pero como sabemos los residuos muestrales tienen una media de cero, es
decir su sumatoria es nula, luego:
1X 1X
t=T t=T
yt = yt
T t=1 T t=1
_
= y = y
Una implicania de esta condicin es que la metodologa de los mnimos
cuadrados hace que la curva de regresin que pasa a travs de la nube de
puntos pase justo por el punto que representa a la media de X y la media de
Y.
P
luego debemos analizar si t=T yt y) = 0.
t=1 et (
Dado que yt = 0 + 1 xt , entonces podemos decir que:
X
t=T X
t=T X
t=T X
t=T
et yt y et = et yt = et 0 + 1 xt
t=1 t=1 t=1 t=1
X
t=T X
t=T
= 0 et + 1 et xt
t=1 t=1
= 0
Esta ltima
Pt=T igualdad proviene
Pt=T de las dos ecuaciones normales arriba men-
cionadas: t=1 et = 0 y t=1 et xt = 0.
3.3 EVALUACIN DEL AJUSTE: R2 39
yt = yt + et
= yt = 0 + 1 xt + et
z }| {
= yt = y 1 x + 1 xt + et
= yt y = 1 (xt x) + et
2
= (yt y)2 = (xt x)2 + e2 + 2 1 (xt x) et
1 t
X
t=T
2X
t=T X
t=T X
t=T
= (yt y) = 1
2 2
(xt x) + e2t + 2 1 (xt x) et
t=1 t=1 t=1 t=1
Pt=T
pero sabemos que el trmino de la derecha t=1 (xt x) et es igual a
cero, luego:
X
t=T
2 X
t=T X
t=T
= (yt y) = 1
2 2
(xt x) + e2t
t=1 t=1 t=1
= SCT = SCE + SCR
Pt=T 2
SCE SCR e
2
= R = =1 = 1 Pt=T t=1 t 2
SCT SCT t=1 (yt y
)
Pt=T
2 SCE 2 (xt x)2
R = = 1 Pt=1t=T
=
SCT t=1 (yt y )2
"P #2 P
t=T t=T
(x t x ) (y t y
) t=1 (xt x)2
= R2 = t=1
Pt=T P
t=1 (xt x )2 t=T
t=1 (yt y)2
hP i2
t=T
t=1 (xt x ) (yt y)
= R2 = Pt=T P
t=1 (xt x )2 t=T t=1 (yt y )2
2
Pt=T
t=1 (xt x ) (y y)
= R2 = qP qP t
t=T 2 t=T 2
t=1 (xt x ) t=1 (yt y
)
= R2 = [Y X ]2
Ejercicio. Considere la siguiente informacin generada de una base de
datos de coeficiente intelectual (variable y) y horas promedio de ver televisin
(variable exgena x) de un grupo de n = 50 adolecentes:
y = 30 x = 15 n = 1, ..., 50
P P P
(yi y)2 = 200 (xi x)2 = 80 (xi x) (yi y) = 45
Se le pide computar el valor de los coeficientes considerando un modelo de
regresin lineal del tipo yi = 0 + 1 xi + i . Adicionalmente obtenga el R2
de la regresin estimada.
Para primero determinar el valor de los coeficientes debemos recordar las
frmulas de ambos estimadores y de all comenzar a reemplazar los datos que
se nos entregan en la matriz anterior:
Pi=N Pi=50
(xi x
) (yi y
) i=1 (xi x) (yi y)
1 = i=1
Pi=N = P i=50
i=1 (xi x )2 )2
i=1 (xi x
45
1 = = 0.562 5
80
Reemplazando en la funcin que determina el coeficiente de posicin 0 :
0 = y 1 x
0 = 30 (0.562 5) 15 = 38. 438
3.4 SUPUESTOS BSICOS SOBRE LOS RESIDUOS POBLACIONALES41
y 41.25
40
38.75
37.5
36.25
-5 -2.5 0 2.5 5
E [t ] = 0 t
V [t ] = 2 t
Cov [t , tk ] = 0 t y k 6= 0
Cov [xt , tk ] = 0 t y k
t N
3.5.1 Sesgo
Sabemos que:
Pt=T
(xt x) t
1 = 1 + Pt=1
t=T
t=1 (xt x )2
" Pt=T #
h i (x x
)
t t
= E 1 = E 1 + Pt=1 t=T
t=1 (xt x )2
"P #
h i t=T
(x x
)
t t
= E 1 = 1 + E Pt=1 t=T
t=1 (xt x )2
h i Pt=T
t=1 (xt x ) E [t ]
= E 1 = 1 + P t=T
t=1 (xt x )2
pues las covarianzas son nulas, entonces dado que el valor esperado del error
es cero se llega finalmente a que el estimador 1 es un estimador insesgado
de 1 : h i
E 1 = 1
3.5.2 Varianza
Al igual que en caso del sesgo, partimos de la ecuacin fundamental que nos
seala que:
Pt=T
(xt x) t
1 = 1 + Pt=1
t=T
t=1 (xt x )2
" Pt=T #
h i (x x
)
t t
= V 1 = V 1 + Pt=1 t=T
t=1 (xt x )2
"P # " Pt=T #
h i t=T
(x x
) (x x
)
t t t t
= V 1 = V [ 1 ] + V Pt=1 t=T 2
+ 2Cov 1 , Pt=1
t=T
t=1 (x t x ) t=1 (xt x)2
3.5 DISTRIBUCIN DE LOS ESTIMADORES 45
sin embargo las covarianzas entre los errores y la variable exgena son nulas,
y adems la varianza de una constante como 1 tambin es nula, de manera
que:
"P #
h i t=T
(xt x) t
V 1 = V Pt=1
t=T
t=1 (xt x )2
hP i
t=T
h i V t=1 (xt x) t
= V 1 = P 2
t=T 2
t=1 (xt x
)
h i P t=T
t=1 (xt x)2 V [t ]
= V 1 = P 2
t=T 2
t=1 (xt x
)
3.5.3 Gauss-Markov
Bajo las condiciones de Gauss-Markov, que indican t:
(i) E [t ] = 0,
(ii) V [t ] = 2 ,
(iii) Cov [t , t+k ] = 0, k 6= 0,
46CHAPTER 3 MODELO CON UNA VARIABLE EXPLICATIVA
(xt x)
donde a
t = P t=T (x x)2
.
t=1 t
Supongamos que existe un estimador alternativo definido por:
GM X
t=T
1 = at yt
t=1
GM X
t=T
1 = at yt
t=1
GM X
t=T X
t=T
1 = at yt = at ( 0 + 1 xt + t )
t=1 t=1
GM X
t=T X
t=T X
t=T
1 = 0 at + 1 at xt + at t
t=1 t=1 t=1
h GM i X
t=T X
t=T
E 1 = 0 at + 1 at xt
t=1 t=1
3.5 DISTRIBUCIN DE LOS ESTIMADORES 47
P Pt=T
pues t=T
t=1 at t = t=1 at E [t ] = 0. Luego las condiciones de insesgamiento
sern que:
X
t=T
at = 0
t=1
X
t=T
at xt = 1
t=1
$
= 2at + xt = 0
at
$ X
t=T
= at = 0
t=1
$ X t=T
= 1 at xt = 0
t=1
2at xt + xt x2t = 0
X
t=T X
t=T X
t=T
= 2 at xt + xt x2t = 0
t=1 t=1 t=1
X
t=T X
t=T
= 2 + xt x2t = 0
t=1 t=1
X
t=T X
t=T
2 at + T xt = 0
t=1 t=1
Pt=T
pero como t=1 at = 0, entonces:
=
x
X
t=T X
t=T
2+ xt x2t = 0
t=1 t=1
X
t=T X
t=T
2 +
x xt x2t = 0
t=1 t=1
2
= = Pt=T
t=1 x2t T x2
3.5 DISTRIBUCIN DE LOS ESTIMADORES 49
3.5.4 Normalidad
A partir del supuesto de normalidad de los residuos es posible determinar la
distribucin que adoptan los estimadores mnimo cuadrado. Sabemos que:
t N 0, 2 / (xt x)
X
t=T
(xt x) t N 0, (xt x)2 2 /
t=1
!
X
t=T X
t=T
2 1
(xt x) t N 0, (xt x) 2 / Pt=T
t=1 t=1 (xt x)2
t=1 " #2 t=T
Pt=T X
(xt x) t 0, 2 P 1
Pt=1t=T 2
N t=T 2
(xt x)2
t=1 (xt x) t=1 (xt x ) t=1
Pt=T !
t=1 (xt x ) t 2
Pt=T 2
N 0, Pt=T 2
/ + 1
t=1 (x t x
) (x t x
)
Pt=T t=1 !
2
(x t x
) t
1 + Pt=1 t=T 2
N , Pt=T
t=1 (x t x
) t=1 (xt x )2
!
2
1 N 1 , Pt=T
t=1 (xt x )2
Siguiendo igual procedimiento para el estimador 0 podemos resumir la
distribucin multinormal del vector de estimadores del modelo de regresin
simple como:
h i
2 1 P t=T x2 P t=T x
2
0 T
+ 2 2
N 0 , x)
t=1 (xt t=1 (xt x)
1 1 2x
P t=T (x x)2 P t=T 2
t=1 t (x x)2
t=1 t
50CHAPTER 3 MODELO CON UNA VARIABLE EXPLICATIVA
r 1 1
2
P t=T
x)2
t=1 (xt
t 1 = r
2
(T k) s 2
(T k)
1 1
t 1 = q 2
t (T 2)
P t=T s
x)2
t=1 (xt
s 0 0
1 2
2 + P t=Tx
T x)2
t=1 (xt
t 0 = r
2
(T k) s 2
(T k)
0
t 0 = r h 0 i t (T 2)
1 x
2
s2 T + P t=T (x x)2
t=1 t
Este estadstico nos permite hacer inferencia respecto al valor que toma
el parmetro estimado 0 y 1 . Adems podemos construir intervalos de
confianza para los parmetros a partir de un nivel de significancia subjetivo
y de las estimaciones de varianzas de los parmetros. Por ejemplo si definimos
como la desviacin estndar estimada del parmetro estimado 0 como 0 ,
entonces el intervalo de confianza para 0 ser:
0 0 |t |
0
Es decir:
0 |t |
0 0 0 + |t |
0
De igual manera para el parmetro 1 se tiene:
1 |t |
1 1 1 + |t |
1
como C 1 = P 0 P = C = P 1 (P 0 )1 , entonces:
z0
V = P 2 CP 0
z1
1
= P 2 P 1 (P 0 ) P0
= 2I
lo que nos indica que z0 N (0, 1) y z1 N (0, 1). Es decir que z0 N (0, 2 ) y
z1 N (0, 2 ), de manera que los cuadrados de estos estadsticos obedecen a
una distribucin chi-cuadrada con un grado de libertad:
2 2
z0 (1) 2 2
2
= z0 + z1 (2)
z12 2 (1)
h i 0
z0 0 0 0 0
z0 z1 = 0
PP
z1 1 1 1 1
0
0 0 1 0 0
= C 2 (2)
1 1 1 1
P ( < F ) = 1
1
Cij 1
con aij = 2s2
= 2s2 (x0 x)1
.
ij
Ejercicio. Consideremos un modelo que entrega los siguientes resulta-
dos como producto del proceso de estimacin de una base de datos de 100
observaciones:
1.45
0
1 0.84
con una matriz de varianzas y covarianzas estimada para los parmetros de:
0.136 31 0.171 48
=
0.171 48 0.266 04
Como sabemos
que2la expresin
para
2calcularla reginorea de confianza
es
= a00 0 0 + a11 1 1 + 2a01 0 0 1 1 , entonces
reemplacemos los valores que se obtienen de los clculos anteriores, con-
siderando un nivel de significancia del 95% y 99%, para T k = 100 2
grados de libertad, es decir para F0.95 (2, 98)
= 2.9 y F0.99 (2, 98)
= 4.4.
1
38.8 (1.45 0 )2 + 19.88 (0.84 1 )2 + 2 25.01 (1.45 0 ) (0.84 1 ) = 2.9
2
1
38.8 (1.45 0 )2 + 19.88 (0.84 1 )2 + 2 25.01 (1.45 0 ) (0.84 1 ) = 4.4
2
54CHAPTER 3 MODELO CON UNA VARIABLE EXPLICATIVA
Beta 1 3
0
0 0.5 1 1.5 2 2.5 3
Beta 0
-1
e0 e = 100
T = 70
50 0
x0 x =
0 50
0
x0 y =
300
0 + 1 = 0?
El rea de confianza se obtiene de aplicar la frmula:
1 0 h i1
F = V F95% (2, T k)
2
Para esto requerimos de los estimadores de los parmetros y de la matriz de
varianzas y covarianzas estimada de estos parmetros:
1
1 50 0 0 0.0
= (x0 x) x0 y = =
0 50 300 6.0
1
e0 e 140 50 0 0.04 0.0
1
V = (x0 x) = =
T k 72 2 0 50 0.0 0.04
1 0 h i1
F = V F95% (2, T k)
2
1
1 0.04 0.0 0 1
F = 0 1 6 2
2 0.0 0.04 6 2
1 25.0 0.0 0 1
F = 0 1 6 2
2 0.0 25.0 6 2
Esta es la ecuacin de un circulo que est centrado en las ordenadas (0, 6).
Recordemos que la frmula del crculo es:
( 1 1 )2 + ( 2 2 )2 = r2
De manera que el radio de esta circunferencia ser de 0.500 40 para una rea
de confianza generada con 95%. El crculo concentrico exterior se gener con
un nivel de confianza del 99%:
y 7
6.5
5.5
5
-1 -0.5 0 0.5 1
2.5
0
-5 -2.5 0 2.5 5
-2.5 x
-5
Los supuestos asociados a este modelo difieren levemente del caso simple,
y se presentan a continuacin:
1. Los errores tericos tienen un valor esperado cero:
E [t ] = 0
1 E [1 ]
2 E [2 ]
E [] = E
= =0
... ...
T E [T ]
T x1
= E [Y ] = X
57
58 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
1 1 1 2 1 3 ... 1 T
2 1 2 2 ... ... 2 T
0
E [ ] = E 3 1 ... ... ... 3 T
... ... ... ... ...
T 1 ... ... ... T T
E [1 1 ] E [1 2 ] E [1 3 ] ... E [1 T ]
E [2 1 ] E [2 2 ] ... ... E [2 T ]
= E [3 1 ] ... ... ... E [3 T ]
... ... ... ... ...
E [T 1 ] ... ... ... E [T T ]
2 0 0 ... 0
2
0 ... ... 0
= 0 ... ... ... 0 = 2 IT
... ... ... ... ...
2
0 ... ... ...
E [0 ] =
59
t N
$
= x0 x x0 y = 0
x0 e = 0
$ X
= 2 yt 1 2 x2t 3 x3t ... k xkt = 0
1
$ X
= 2
x2t yt 1 2 x2t 3 x3t ... k xkt = 0
2
$ X
= 2
x3t yt 1 2 x2t 3 x3t ... k xkt = 0
3
....
$ X
= 2 xkt yt 1 2 x2t 3 x3t ... k xkt = 0
k
x0 y = x0 x + x0 e
Promedio de Notas 5.5 6 4.8 5 5.1 6.1 6.2 4.2 5.5 4.9
Horas Semanales en Playa 2 3 1 4 3 2 1 5 1 2
1 1 1 1 1 1 1 1 1 1
x0 =
2 3 1 4 3 2 1 5 1 2
h i
y0 = 5.5 6 4.8 5 5.1 6.1 6.2 4.2 5.5 4.9
1
= (x0 x) x0 y
1
1 2 5. 5
1 3 6
1 1 4. 8
1 4 5
1 1 1 1 1 1 1 1 1 1 1 3 1 1 1 1 1 1 1 1 1 1 5. 1
=
2 3 1 4 3 2 1 5 1 2 1 2 2 3 1 4 3 2 1 5 1 2 6. 1
1 1 6. 2
1 5 4. 2
1 1 5. 5
1 2 4. 9
5. 932 9
=
0.251 22
presin:
= e0 e 1 y 0 y y 0 x 0 1
V () (x0 x) = (x x)
T k
T k
53. 3 X
como x0 y = , y0 y = y 2 = 287. 85
123. 8
0 0
= y y y x (x0 x)1
V ()
T k
h i 5. 932 9
287. 85 53.3 123.8
0.251 22
=
10 2
0.451 22 0.146 34
2
0.146 34 6. 097 6 10
0.451 22 0.146 34
= 0.340 93
2
0.146 34 6. 097 6 10
2
0.153 83 4. 989 2 10
=
4. 989 2 102 2. 078 9 102
1 1
tc = t (T k)
1
1 4.8
=
2 5.7
0
e e = 60
T = 34
60 13 20 100
5 3 25
=
1
(x0 x)
8 15
9
= e0 e 1
V () (x0 x)
T k
60 13 20 100
60 13 5 3 25
=
V ()
34 4
20 3 8 15
100 25 15 9
120.0 26.0 40.0 200.0
26.0 10.0 6.0 50.0
V () =
40.0 6.0 16.0 30.0
200.0 50.0 30.0 18.0
3 1 2 (3 1 2 )
tc = r t (T k)
2
V 3 1 2
Al comparar con un test t con 95% (de dos colas, es decir con 0.975) y con
T k = 34 4 = 30 grados de libertad se tiene que t0.975 (30) = 2.042 es
superior al nuestro tc = 0.442 23 de manera que no rechazamos la hiptesis
nula.
yt = 0 + 1 x1t + 2 x2t + t
4.1 TEST DE RESTRICCIONES 67
En este caso entonces analicemos la hiptesis nula de que todos los parmet-
ros son cero (recordemos que la constante est fuera de este conjunto de
parmetros analizados), es decir testeemos H0 : 2 = 3 = ... = k = 0.
Paea testear esta hiptesis podemos utilizar nuestra expresin del test F
definido por (J = k 1):
0
0 1 0 1
R q R (x x) R R q / (k 1)
Fc =
e0 e/(T k)
70 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
y0 x
T k
y0 y
Fc =
k1
y0 yy 0 x
y0 y
2
R T k
Fc =
1 R2 k1
Esta ltima expresin nos indica que aquellas regresiones que tienen bajo
coeficiente de ajuste, es decir un bajo R2 , tienen a su vez un test F tambin
muy bajo lo cual perimtira decir que la probabilidad de aceptar la hipotesis
nula es muy alta, o lo que esw lo mismo, que la probabilidad de rechazar la
hiptesis es muy baja. Este concepto se conoce como el valor de la probabili-
dad (P-Value) y est definido para este test como la integral de la funcin de
densidad f (s) desde el valor del test calculado (Fc ) a infinito (), es decir:
Z
P V alue = f (s) ds
Fc
Rit = + Rmt + ft + t
= 0.03 + 1.14Rmt + 0.19ft
(0.08) (0.28) (0.03)
2
R = 0.67
Multiplicando estas dos ltimas expresiones para generar una relacin entre la
suma del cuadrado de los residuos entre modelos restringidos y no restringidos
llegamos a (note que las multiplicaciones cruzadas no aparecen pues sabemos
por condiciones de ortogonalidad que x0 e = e0 x = 0):
0
e0R eR = e0 e + R x0 x R e0 e
De esta forma podemos ver la relacin que existe entre el anlisis de la difer-
encia de la suma de los residuos al cuadrado entre ambos modelos y el test
F analizado. El test para la hiptesis nula de que H0 : = R se puede
representar entonces como (J es el nmero de parmetros involucrados en la
hiptesis nula):
(e0 eR e0 e) /J
Fc = R0 F (J, T k)
e e/(T k)
Considerando que la variable dependiente en ambos modelos es la misma,
entonces la suma de los cuadrados totales es tambin similar, de manera que
podemos dividir el numerador y el denominador por y 0 My para encontrar una
relacin de esta expresin en trminos de los coeficientes de determinacin
74 CHAPTER 4 MODELO DE REGRESIN MLTIPLE
de ambos modelos:
e0R eR e0 e
y 0 My
y 0 My
/J
Fc = e0 e
y0 My
/(T k)
2 2
(R RR ) /J
Fc = F (J, T k)
(1 R2 ) /(T k)
vt = 1 + 2 yt + 2 gt + 3 pt + t
vt = 1 + 2 yt + 2 gt + t
Como este valor es superior a F95% (1, 666) = 3.84 entonces rechazamos la
hiptesis de que le parmetro es cero, lo cual implica que la variable gastos
en volantes es relevante como variable explicativa de las ventas del superme-
rcado.
Alternativamente podemos testear esta hiptesis utilizando el test en fun-
cin de los R2 :
(R2 RR 2
) /J
Fc = 2
(1 R ) /(T k)
(0.89 0.881 45) /1
Fc =
(1 0.89) /(670 4)
Fc = 51.741
De igual manera que con el formato de test anterior podemos decir que rec-
hazamos la hiptesis de que la variable p sea no significativa, recomendando
su inclusin en la estimacin.
Chapter 5
Evaluando Quiebres
Estructurales
Guerra Paz
Hombre Mujer
Profesional Tcnico
Gobierno A Gobierno B
Crisis Bancaria Normalidad
Tipo de Cambio Fijo Tipo de Cambio Flexible
77
78 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
t yt xt dt
1 y1 x1 0
2 y2 x2 0
... ... ... ...
s ys xs 0
s + 1 ys+1 xs+1 1
s + 2 ys+2 xs+1 1
... ... ... ...
T yT xT 1
yt = 1 + 2 xt + t t = 1, 2, ..., s, s + 1, ..., T
H0 : 1 = t s
: 1 =6 t > s
5.1 VARIABLES MUDAS 79
yt = 1 + 2 xt + 3 dt + t t = 1, 2, ..., T
1 + 2 xt + t dt = 0 t = 1, 2, ..., s
yt = 1 + 2 xt + 3 + t
dt = 1 t = s + 1, s + 2, ..., T
( + ) + x +
1 3 2 t t
H0 : 3 = 0
tc = r 3 3 = 3
3
V 3
H0 : 2 = t s
: 2 =6 t > s
yt = 1 + 2 xt + 4 dt xt + t t = 1, 2, ..., T
1 + 2 xt + t dt = 0 t = 1, 2, ..., s
yt = 1 + 2 xt + 4 xt + t
dt = 1 t = s + 1, s + 2, ..., T
+ ( + ) x +
1 2 4 t t
80 CHAPTER 5 EVALUANDO QUIEBRES ESTRUCTURALES
H0 : 4 = 0
tc = r 4 4 = 4
4
V 4
H0 : 1 = , 2 = t s
: 1 =6 , 2 6= t > s
yt = 1 + 2 xt + 3 dt + 4 dt xt + t t = 1, 2, ..., T
1 + 2 xt + t dt = 0 t = 1, 2, ..., s
yt = 1 + 2 xt + 3 + 4 xt + t
dt = 1 t = s + 1, s + 2, ..., T
( + ) + ( + ) x +
1 3 2 4 t t
H0 : 3 = 4 = 0
1
(R R)0 Rs2 (x0 x)1 R0 (R R)
Fc = F (J, T k)
J
1
(RR)0 [R(x0 x)1 R0 ] (RR)
J
Fc = e0 e
F (J, T k)
T k
5.2 SPLINES 81
1
(RR)0 [R(x0 x)1 R0 ] (RR)
2
Fc = e0 e
F (2, T 4)
T 4
5.2 SPLINEs
no se cumple:
d1 = 1 si t = s1 + 1, s1 + 2, ..., s2
d2 = 1 si t = s2 + 1, s2 + 2, ..., s3
...
dJ = 1 si t = ..., T
yt = 1 + 2 xt + 1 d1 + 1 d1 xt + 2 d2 + 2 d2 xt + .... + J dJ + J dJ xt + t
yt = 1 + 2 xt + t di = 0
yt = 1 + 2 xt + 1 d1 + 1 d1 xt + t
d1 = 1
yt = ( 1 + 1 ) + ( 2 + 1 ) xt + t
yt = 1 + 2 xt + 1 d1 + 1 d1 xt + 2 d2 + 2 d2 xt + t
d2 = 1
yt = ( 1 + 1 + 2 ) + ( 2 + 1 + 2 ) xt + t
... ...
yt = 1 + 2 xt + 1 d1 + 1 d1 xt + ... + J dJ + J dJ xt + t
P P dJ = 1
yt = 1 + Ji=1 i + 2 + Ji=1 i xt + t
1 + 2 xs1 = ( 1 + 1 ) + ( 2 + 1 ) xs1
( 1 + 1 ) + ( 2 + 1 ) xs2 = ( 1 + 1 + 2 ) + ( 2 + 1 + 2 ) xs2
etc...
i = i xsi i = 1, 2, ..., J
5.2 SPLINES 83
p+4
!
X Q
p+4 1 3
Bp (t) = t p +
i=p l=p,l6=i ( l i )
Madurez Tasa
1 da 4.75
1 mes 4.52
3 meses 4.45
1 ao 4.98
2 aos 5.65
8 aos 7.00
20 aos 7.91
plot(x,y,o,xx,yy);
7.5
6.5
5.5
4.5
4
0 2 4 6 8 10 12 14 16 18 20
y = x + t = 1, ..., T
(e0R eR e0 e) / (T k (T mk))
Fc = F (J, T k)
e0 e/(T mk)
(e0 eR e0 e) / ((m 1) k)
Fc = R F (J, T k)
e0 e/(T mk)
1 Nk ( 1 , 1 ) Primera Regresin
2 Nk ( 2 , 2 ) Segunda Regresin
1 2 Nk (0, 1 + 2 )
La expresin muestral para calcular este test asume conocida las matrices de
varianzas y covarianzas 1 + 2 , de manera que finalmente el test ser:
0 h i1
Wc = 1 2 1 + 2
1 2 2 (k)
P
j=t cj
cusumt =
j=k+1 s
Pj=t 2
j=k+1 cj
cusumqt = Pj=T 2
j=k+1 cj
5.5 TESTS CUSUM Y CUSUMQ 89
donde:
yj xj [j1]
cj = s N 0, 2
0 1 0
1 + x0j Xj1 Xj1 xj
| {z }
Varianza Predicha del Residuo (por 2 )
Pj=T
2
)2
j=k+1 (cj c
s =
T k1
Pj=T
j=k+1 cj 2
c = N 0,
T k T k
Los intervalos
deconfianza
para el CUSUM se generan por la conexin
de dos lneas k, T k y T, 3 T k , donde el valor de es 0.948
si se desea un intervalo del 95% y 1.143 si el intervalo es del 99%.
Para generar los intervalos de confianza del CUSUMQ hay que partir de
la distribucin de la media de c:
2
c N 0,
T k
c
q N (0, 1)
2
T k
inspeccin visual a un par de figuras que presentan estos tests. Si los es-
tadsticos generados secuencialmente (CUSUM y CUSUMQ) se salen de los
intervalos de confianza predefinidos (por ejemplo la lnea que se sale por el
lmite superior de las figuras) entonces podemos decir que se rechaza la es-
tabilidad del modelo. Adicionalmente este test estara indicando cuando se
produce el quiebre estructural.
6.1 Heteroscedasticidad
E [0 ] = =
91
92CHAPTER 6 DISTORSIONES DEL MODELO DE REGRESIN
E [0 ] =
6.1 HETEROSCEDASTICIDAD 93
E [0 ] = = = 2
donde no es la identidad.
H0 : 2t = 2 , t (Homocedasticidad)
Ha : 2t = 0 + zt
2t = 0 + zt
2t = 0 + zt 0
2t = 0
ARCH = (T q) R[a]
2
6.1.3 Correccin
Existen bsicamente dos formas de corregir bajo la presencia de heteroscedas-
ticidad. Una es el procedimiento de White o su versin ms general conocida
como el Mtodo de Mnimos Cuadrados Generalizados o Mnimos Cuadrados
Ponderados (MCG) y la segunda es estimacin por mximo verosimilitud,
esta ltima se deja para una discusin posterior.
y = x +
N (0, )
100CHAPTER 6 DISTORSIONES DEL MODELO DE REGRESIN
M CG MCO
0 1 1 1 1
x x (x0 x) x0 x (x0 x)
1
EMCG = 1 x
x0 1 y
x0
1
1 x
= x0
MCG
0 1 P
T
1
= (x x) V x0t t
(x0 x)
t=1
T
0 1 P 1
= (x x) xt V [t ] xt (x0 x)
0
t=1
T
0 1 P 0 2 1
= (x x) xt t xt (x0 x)
t=1
T
0 1 P 0 1
= (x x) xt xt t (x0 x)
2
t=1
T
0 1
P 0 2 1
= (x x) xt xt et (x0 x)
t=1
Esta matriz ser consistente y puede ser utilizada para hacer inferencia
sobre los parmetros estimados.
6.2 Autocorrelacin
La discusin de la autocorrelacin sigue un procedimiento muy similar la caso
de la heteroscedasticidad y los problemas que causa sobre los estimadores
mnimo cuadrados tambin.
Recordemos nuevamente que una matriz de varianzas y covarianzas puede
ser descompuesta en tres matrices, dos de las cuales son idnticas:
E [0 ] = =
por:
0 ... 0 0
1
0 2 0
= ... ... ...
0 ... ...
0 0 ... T
1 1,2 ... 1,T 1 1,T
2,1 1 2,T
= ... ... ...
T 1,1 ... ...
T,1 T,2 ... 1
Luego se puede escribir la anterior expresin como:
0 ... 0 0 1 1,2 ... 1,T 1 1,T 1 0 ... 0 0
1
0 2 0 2,1 1 2,T 0 2 0
0
E [ ] = ... ... ... ... ... ... ... ... ...
0 ... ... T 1,1 ... ... 0 ... ...
0 0 ... T T,1 T,2 ... 1 0 0 ... T
Al asumir no autocorrelacin de los residuos estamos imponiendo que la
matriz sea la matriz identiodad, = I, y a su vez al imponer homoscedas-
ticidad la matrices corresponden a matrices escalares I.
Al levantar el supuesto de no autocorrelacin ya no es posible definir
a la matriz de varianzas y covarianzas como 2 I, pues existir una matriz
que no es la identidad. Por esta razn es que la matriz de varianzas
y covarianzas se define ahora asumiendo homoscedasticidad pero si errores
autocorrelacionados:
E [0 ] = = 2
Considerando la notacin anterior analizaremos los efectos que produce en
los estimadores mnimos cuadrados el asumir autocorrelacin en los residuos,
104CHAPTER 6 DISTORSIONES DEL MODELO DE REGRESIN
donde no es la identidad.
los residuos estimando una ecuacin auxiliar al igual que con la heteroscedas-
ticidad. La hiptesis nula se representa por:
H0 : = 0 , t (No Autocorrelacin)
Ha : t = 1 t1 + 2 t2 + ... + q tq
t=1 et
PT 2 PT 2 PT
t=2 et t=2 et1 t=2 2et et1
d = PT 2 + PT 2 P T 2
t=1 et t=1 et t=1 et
Note sin embargo que esta ltima expresin tambin se puede escribir
como: PT !
t=2 et et1
d 2 1 P T 2
t=2 et
P P
donde hemos utilizado la aproximacin Tt=2 e2t Tt=2 e2t1 de manera
que en la prctica el coeficiente lo podemos extraer de una estimacin
del tipo et = et1 + t o una expresin auxiliar inversa como et1 =
et + t1 . Este punto es relevante para otros tests que se presentarn
ms adelante.
Finalmente reemplazando por el coeficiente estimado del factor de au-
tocorrelacin llegamos a la expresin que relaciona el estadstico d
con el coeficiente de autocorrelacin de primer orden :
d 2 (1 )
= 1 = d = 4 Autocorrelacin Negativa
= 0 = d = 2 No Autocorrelacin
= 1 = d = 0 Autocorrelacin Positiva
Este test es uno de los pocos que se contrasta con dos valores de una
misma tabla. Considerando un nivel de significancia de % se debe de-
terminar el nmero de parmetros estimados en la ecuacin o modelo
principal y = x + sin considerar la constante (k 1), y el nmero
de observaciones utilizadas en la estimacin (T ). Con esta informacin
la tabla entrega dos estadsticos dl , du , donde dl < du . Dado que el
estadstico d pertenece al intervalo [0, 4] los valores de tabla tambin
estarn acotados a ese mismo intervalo. Dependiendo del valor que
toma el estadstico d en relacin a los valores de tabla, rechazaremos o
no la hiptesis nula de no autocorrelacin de primer orden de los resid-
uos. La siguiente tabla entrega estas relaciones de la cual se concluye
que rechazamos la hiptesis nula de no autocorrelacin si el estadstico
d cae duera del intervalo [dl , 4 dl ]:
Rechazo H0
d < dl
Autocorrelacin Positiva
donde es la inflacin en t, y m
es la tasa de crecimiento de la cantidad
de dinero en t.
A partir de estos resultados sabemos queno podemos aplicar el test
tradicional de Durbin-Watson. En este caso al existir variables de-
pendientes rezagadas en la ecuacin entonces debemos aplicar el test
h-Durbin:
" # 12
= T j
h
1 (T j) V [1]
12
h = 0.87 180 2
1 (180 2) (0.04)2
h = 13.725
Claramente este valor supera los valores relevantes de una tabla estads-
tica normal (1.645 1.96), lo cual implica que rechazamos la hiptesis
de no autocorrelacin de primer orden de los residuos.
6.2 AUTOCORRELACIN 111
y = x +
t = x + 1 t1 + 2 t2 + ... + q tq + t
y = x + yj +
t = x + yj + 1 t1 + 2 t2 + ... + q tq + t
Cov (s , t ) E (s , t )
s t = =
V ar (t ) E (2t )
ts = s t + ts s = 1, 2, ..., q
P
q
Q = T 2s 2 (q)
s=1
0
Q = T 2 (q)