Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Supuestos Economicos PDF
Supuestos Economicos PDF
584
15.1. Introducción
En el Capítulo 1 de este manual, se definió econometría como: …
la aplicación de métodos matemáticos y estadísticos a tablas de
datos, que contienen “unidades” (de observación) por
características observables de las mismas (“variables”), con el
propósito de dar contenido empírico a las teorías económicas
planteadas en modelos, verificándolas a partir del estudio de la
semejanza entre unidades y la relación entre variables, en un
espacio y tiempo específico.
= >0
como:
= + ; ∀ = 1, … ,
Hay que tener en cuenta que, para realizar este estudio sobre el
consumo o cualquier otro que requiera la especificación de un
modelo lineal general, se deberá aplicar el proceso de investigación
econométrica descrito a lo largo de los anteriores capítulos. Es
decir, se deberá definir el problema a investigar -en este caso el
consumo-; se planteará una tabla de datos que contendrá unidades
586
de observación temporales (estudio de series de tiempo),
individuos (corte transversal) o una combinación de ambas (datos
de panel); se diseñará la fuente de información; se recolectará la
misma y, finalmente, se podrá realizar la especificación y
estimación del modelo propuesto.
= ,
Donde
= ; ∀ = 1, … ,
! "
Tabla 15.1
Observaciones Y X2 X3 K Xk
1 y1 x 21 x31 x k1
2
M
t yt x 2t x 3t K x kt
M
T yT x 2T x 3T K x kT
En este modelo:
explicativas o exógenas,
y1 = β1 + β 2 x 21 + β 3 x31 + L + β k x k1 + ε 1
y = β + β x + β x +L+ β x + ε
2 1 2 22 3 32 k k2 2
3y = β 1 + β x
2 23 + β x
3 33 + L + β x
k k3 + ε 3 [2]
M
yT = β 1 + β 2 x 2T + β 3 x3T + L + β k x kT + ε T
y = X β +ε [3]
Tx1 Txk kx1 Tx1
y1 1 x 21 x 31 L x k1 β1 ε 1
y 2 1 x 22 x 32 L x k2 β2 ε 2
y= X = β = ε =
L . L L L L L L
y 1 x 2T x 3T L x kT β ε
T k T
7 1 4 2 %'
D10I D1 6 4I D% I
C H C H C% H
' (
# = C 5 H $ = C1 2 1 H = = M ( N , = C 5 H
C11H C1 5 10H 5 C%O H
B20G B1 16 3 G B%P G
• La parte sistemática: $=
• La parte aleatoria: ,
592
#= ' + a ( β( + ⋯ + a c βc + ,
Esto es, # = $= + ,
g % = 0, ∀ = 1,2, … [4]
ε1 E ( ε1 ) 0
ε E( ε )
2 2 0
E (ε ) = E ε 3 = E ( ε 3 ) = 0 = 0
M M M
ε E ( ε ) 0
T T
594
Observación. Aplicar el operador esperanza matemática a una
matriz o vector, significa que hay que tomar esperanza matemática
de cada uno de los elementos de la matriz o vector en cuestión.
g % ( = /,( ∀ = 1,2, … . , k
g % , %l = 0 ∀ ≠ ? 6
h , = /,( jW 7
,~o 0, /,( jW 8
(Yt , )
X 2t , L , X kt , t = 1, 2, L , T
- = . + /,( 0; ∀1 = 1, 2, 3
perturbación σ ε2 .
596
La estimación, de estos parámetros, se puede llevar a cabo por dos
métodos
Min (Y − Xβ ) (Y − Xβ ) = Min ∑ (Y − β − β )
ˆ'
T 2
ˆ ˆ ˆ X 2 t − L − βˆ k X kt [9]
t 1 2
βˆ βˆ t =1
T T T
T ˆ
β + ˆ
β ∑ X + L + ˆ
β ∑ X = ∑ Y
1 2 2t k kt t
t =1 t =1 t =1
T T T T
βˆ ∑ X + βˆ ∑ X2 + L + βˆ ∑ X X =
1 2t 2 2t k kt 2t
∑ Y X
t 2t
t =1 t =1 t =1 t =1 [10]
....................................................................................
T T T T
βˆ ∑ X + βˆ ∑ X X + L + βˆ ∑ X2 = ∑ Y X
1 t = 1 kt 2
t =1
2t kt k
t =1
kt
t =1
t kt
597
3 = ' + ( 4( + 5 45 + % ; ∀ = 1, 2, … ,5
Tabla 15.2.
2
e=Y−Yˆ
2
X2 X3 Y X 2Y X 3Y X2 X3 X2 X3 Ŷ
1 4 2 7 28 14 8 16 4 7,233 -0,233
2 6 4 10 60 40 24 36 16 9,980 0,020
3 2 1 5 10 5 2 4 1 4,826 0,174
4 5 10 11 55 110 50 25 100 10,986 0,014
5 16 3 20 320 60 48 256 9 19,975 0,025
53 = 5 q' + 33 q( + 20 q5
473 = 33 q' + 337 q( + 132 q5
229 = 20 q' + 132 q( + 130 q5
(X X ) βˆ
'
MCO − X'y = 0
598
Para obtener estas ecuaciones hay que resolver matricialmente el
sistema a minimizar. Para ello, se plantea el siguiente problema de
mínimo:
Esto es
T
Min ∑ et2
t =1
Mín x x = # − #y # − #y
599
Planteado el problema de minimización, se debe resolver
algebraicamente la siguiente relación:
(
Min y − Xβ
ˆ )' (y − Xβˆ ) = Min [y' y − y' Xβˆ − (Xβˆ )' y + (Xβˆ )' Xβˆ ]
β β [11]
ˆ = (Xβ
Teniendo en cuenta que y' Xβ ˆ )' y
Entonces
[y' y − y' Xβˆ − (Xβˆ )' y + (Xβˆ )' Xβˆ ] = y' y − 2βˆ ' X' y + βˆ ' X' Xβˆ
Por lo tanto, la expresión a minimizar será
[
Min(e' e) = Min y' y − 2βˆ ' X' y + βˆ ' X' Xβˆ ] [12]
Algebraicamente
T T T T
∑ x 2t ∑ x 3t L ∑ x kt
t =1 t =1 t =1 ˆ
T T 2 T T β1
∑ x 2t ∑ x 2t ∑ x 2 t x 3t L ∑ x 2t x kt βˆ
[ ] = = =1 t =1 ⋅ βˆ
t 1 t 1 t 2
βˆ ' (X' X )βˆ = βˆ1 βˆ 2 βˆ3 L βˆk ⋅ T T T 2 T 3
∑ x ∑ x 3t x 2t ∑ x 3t L ∑x x
(1xk)
t=1 3t t =1 t =1 t =1 3t kt M
L L L O L βˆ
∑ T T T T 2 k
x ∑x x ∑ x x L ∑ x (kx1)
t=1 kt t =1 kt 2t t =1 kt 3t t =1 kt
(kxk)
T T T
βˆ1T + βˆ 2 ∑ x 2t + βˆ3 ∑ x 3t + L + βˆk ∑ x kt
t =1 t =1 t =1
T T 2 T T
βˆ1 ∑ x 2t + βˆ 2 ∑ x 2t + βˆ3 ∑ x 2t x 3t + L + βˆk ∑ x 2t x kt
[
= βˆ1 βˆ 2 βˆ3 L βˆk ⋅ ]t =1
T
t =1
T
t =1
T 2
βˆ ∑ x + βˆ ∑ x x + βˆ ∑ x + L + βˆ ∑ x x
t =1
T =
1 t=1 3t 2 t =1 3t 2t 3 t =1 3t k t =1 3t kt
M
βˆ ∑ T T T T 2
x + β 2 ∑ x kt x 2t + β 3 ∑ x kt x 3t + L + β k ∑ x kt
ˆ ˆ ˆ
1 t =1 kt t =1 t =1 t =1
T T T
= βˆ 1 βˆ 1T + βˆ 2 ∑ x 2t + βˆ 3 ∑ x 3t + L + βˆ k ∑ x kt +
t =1 t =1 t =1
T T 2 T T
+ βˆ 2 βˆ 1 ∑ x 2t + βˆ 2 ∑ x 2t + βˆ 3 ∑ x 2t x 3t + L + βˆ k ∑ x 2t x kt +
t =1 t =1 t =1 t =1
T T T 2 T
+ βˆ 3 βˆ 1 ∑ x 3t + βˆ 2 ∑ x 3t x 2t + βˆ 3 ∑ x 3t + L + βˆ k ∑ x 3t x kt +
t =1 t =1 t =1 t =1
T T T T 2
+ L + βˆ k βˆ 1 ∑ x kt + βˆ 2 ∑ x kt x 2t + βˆ 3 ∑ x kt x 3t + L + βˆ k ∑ x kt =
t =1 t =1 t =1 t =1
601
Reagrupando términos
T T T T
∑ x 2t ∑ x 3t L ∑ x kt
t =1 t=1
t =1
T T 2 T T βˆ1
∑ x 2t ∑ x 2t βˆ
∑ x 2t x 3t L ∑ x 2t x kt
t =1 t =1 t=1 t=1 ⋅ ˆ2 = 2X' Xβˆ
= 2⋅ T
β3
T T 2 T [13]
∑x ∑ x 2t x 3t ∑ x 3t L ∑ x 3t x kt
t =1 3t t=1 t =1 t =1 M
M M M M βˆ
T T T T 2 k
t∑ x
=1 3t
∑ x x ∑ x x
t=1 2t 3t t =1 3t kt
L ∑ x kt
t=1
∂β
ˆ ' (X' X)β
ˆ
= 2X' Xβ
ˆ [14]
∂β
ˆ
∂e' e
= −2X' y + 2X' Xβ
ˆ =0
∂β
ˆ
− X' y + X`Xβ
ˆ =0 [15]
603
En síntesis, resolver la condición de primer orden en el problema
de mínimo da como resultado las ecuaciones normales.
z {|} = $′$
= •€
$′# [16]
Donde
W W W •€
D I W
• 4( • 45 … • 4< D I
C H •3
C W ‚' ‚' ‚'
H C H
C
W W W
H C W ‚' H
C• 4( • 4(( • 4( 45 … • 4( 4< H C H
$′$ •€
= C ‚' H ; $ # = C• 3 4( H
C ‚' H
‚' ‚' ‚'
C H ⋮
C H
C ⋯ ⋯ ⋯ H C W H
C W W W W H C• 3 4< H
C• 4< • 4< 4( • 4< 45 … • 4<( H B ‚' G
B ‚' ‚' ‚' ‚' G
∂ 2 e' e
= 2X`X > 0 [17]
∂βˆ2
W W
• 4( • 45
W
† †
• 4( ‚' ‚'
† † W W W
| | ‚'
†• 4( • 4(( • 4( 45 † … |$ $|
† †
W W
† †
W W W
‚' ‚'
• 45 • 45 4( • 45(
‚' ‚' ‚'
−1 < |$ $| > 0
1 4 2 •' 7
Š̂ D •
1 1 1 1 1 1 6 4 Iˆ 1 1 1 1 1 10I
D
z []` = M4 C H C H
= 6 2 5 16N C1 2 1H M4 6 2 5 16N C 5 H
‰̂ 2 4 1 10 3 C1 5 10HŒ̂ 2 4 1 10 3 C11H
‡ B1 16 3 G‹ B20G
5 33 20 •' 53
= M33 337 132N M473N
20 132 130 229
2.418523
z []` = M1.033557N
=
0.34
∑
t =1
X jt e t = 0 j = 2, L, k [19]
3s = q' + q( 4(
Regresión muestral
4' , 3'
3'
Observación muestral
Ž'
3s€ %'
g 3⁄4 = + ( 4(
Regresión poblacional
'
4('
Figura 15.1. Líneas de regresión poblacional y muestral
607
Para demostrar estas propiedades se considera el vector de
residuos mínimos cuadráticos ordinarios
e = y − Xβ
ˆ ⇒ y = e + Xβ
ˆ
[20]
ˆ = X' y
(X' X)β
ˆ = X' (e + Xβ
(X' X)β ˆ)
T
∑ et
L 1 e1 T 0
t =1
1 1 1
x
21 x 22 x 23 x 2T e 2 ∑ x 2t et 0
t =1
(X' e) = x 31 x 32 x 33 x 3T ⋅ e3 = T = 0 =0 [22]
∑ x 3t et
O M t =1 M
x k1 xk2 xk3 x kT eT M
T 0
x e
∑
t =1
kt t
608
T ∑ et
∑ et =0⇒e = t =1
T
=0
t =1 [23]
regresión muestral,
z
#y = $=
Matricialmente
z
3s = $ =
609
kx1.
βˆ
1
βˆ
ˆ =[1 X 2
Esto es, Y X L X ] βˆ [24]
t 2t 3t kt 3
M
βˆ
k
βˆ 1
Ŷt = [ 1 X 2t X 3t ] βˆ 2
βˆ
3
Estimador lineal
La linealidad no requiere de demostración; es evidente, en el
cálculo del coeficiente en [16], la relación lineal que une al vector
de estimadores con la matriz que contiene los valores observados
de las variables.
Estimador insesgado
Para demostrar que el estimador es Insesgado se parte de [16]:
Utilizando [3]
que
ˆ = β + (X' X) −1 X' ε
β
E (βˆ ) = β [25]
Estimador óptimo
Un estimador es Óptimo cuando tiene mínima varianza. Antes de
demostrar esto, se debe hallar la varianza del estimador; la
diferencia entre el estimador y su esperanza matemática es igual a
ˆ − E( β
β ˆ − β = β + (X' X) −1 X' ε − β
ˆ )=β
ˆ ) = E {[β
V(β ˆ − β][β
ˆ − β]' }
612
ˆ = β + (X' X) −1 X' ε
β
De modo que,
Entonces:
{ [ ]}
V (βˆ ) = E (X' X) −1 X' ε (X' X) −1 X' ε ′
expresión
E (β*) = β + PXβ
Si PX = 0
E (β*) = β
El cálculo de la varianza de β * es
Donde
β * −β = β + (X' X) −1 X' ε + PX
{β + Pε − β
0
Manteniendo la restricción PX = 0
Reordenando
β * −β = [(X'X)−1 X'+P]ε
615
Reemplazando β * −β en V(β*) , se tiene que
{[ ] [
V(β*) = E (X´X ) X´ +P εε´ X (X´X ) + P´
−1 −1
]}
Introduciendo el operador esperanza
Por lo tanto,
[ ]
V(β*) = σ ε2 (X' X) −1 + PP' > V(β
ˆ) [28]
616
z
#y = $=
la expresión:
617
e' e
S2 = [29]
T −k
−0.233
D 0.020 I
C H
−0.233 0.020 0.174 0.014 0.025 C 0.174 H
C 0.014 H
” ” B 0.025 G
“( = =
−2 5−3
”” 0.08577
“( = = = 0.04289
−2 5−3
()
ˆ
Vβ
2 '
= σε X X ( )
−1
[30]
()
ˆ
ˆ β
V = S
2
(X ' X )−1 [31]
618
T
SCR = ∑ et2 = e' e [32]
t =1
e = y − X(X'X)−1 X' y
e = My
es simétrica (M' = M) y MX = 0 .
e = My = M(Xβ + ε) [33]
resolviendo
e = MXβ + Mε
e = Mε [34]
E( e' e ) = E( ε' Mε )
E( e' e ) = E [ tr ( ε' Mε )]
En particular,
e jW =
e 2› = 2 e ›
e ›+• = e › + e •
e › = e ›
e ›• = e •›
por lo que
E( e' e ) = E [ tr ( Mεε' )]
621
Pero la traza de un escalar es igual al mismo escalar
E( e' e ) = tr ( Mσ ε2 IT )
De modo que
de modo que:
= tr[I T ] − tr[I k ] = T − k
622
Por consiguiente, en [36]
E( e' e ) = σ ε2 (T − k ) [37]
e' e
De donde se observa inmediatamente que: S 2 = , es un
T −k
estimador insesgado de σ ε2 .
g %'
D I
C g %( H
g , = 38
C H
Bg % W G
Si se define el vector
g–%' − g %' —
D I
C g–%( − g %( — H
,−g , =C H
C ⋮ H
Bg–%W − g %W —G
D %' I
C %( %W HH
h , = g ,, = g C¡ ⋮ ¢ %' %( ⋯
C % H
B W G
ε2
2
E ε1 (
E ε1ε 2 ) E(ε1ε 3 ) ( )
L E ε1ε T
ε 1ε 2 ε 1ε 3 L ε 1ε T
1
ε ε ε2
2
ε 2ε 3 L (
ε 2 ε T E ε 2 ε1 ) E ε 22 E(ε 2 ε 3 ) L E(ε 2 ε T )
2 1
= E
ε 3 ε1 ε 3 ε 2
2
ε3 L
=
ε 3 ε T E ε ε
3 1
( ) E(ε 3 ε 2 ) E ε 32 L E(ε 3 ε T )
=
O O
ε ε ε ε 2
T 1 T 2 εTε3 L εT
(
Eε ε
T 1
) E(ε T ε 2 ) E(ε T ε 3 ) L E ε T
2
625
Teniendo en cuenta las definiciones dadas, los elementos de esta
matriz son las varianzas y covarianzas de las variables % , la cual se
puede representar como:
V ε1 ( )
Cov ε ε
1 2
( )L
Cov ε ε
1 3
( )
Cov ε ε
1T
( ) Cov (ε ε ) L Cov (ε ε )
Cov ε ε
Vε
2 1 2 2 3 2 T
=
( )
Cov ε3 ε1 ( )
Cov ε ε
3 2
Vε
3
L Cov (ε ε )
3 T
=
O
( ) Cov (εT ε2 ) Cov (εT ε3 ) L
Cov ε ε
T 1
Vε
T
/( 0 ⋯ 0 1 0 ⋯ 0
D , I
C0 /,( ⋯ 0 H = / ( ¡0 1 ⋯ 0
¢
C ⋮ ⋮ ⋱ ⋮H ,
⋮ ⋮ ⋱ ⋮
B0 0 ⋯ /,( G 0 0 ⋯ 1
Σ = h , = g ,, = /,( jW [39]
‘= ,−g , ¤ [40]
3( = ¤ , − g , ,−g , ¤
E ( Y 2 ) = c' Σc [41]
que Y = 0 .
627
Observación. La esperanza matemática de una constante s es
igual a la constante s, por lo tanto, la esperanza matemática del
cuadrado de una constante es el mismo cuadrado:
dice que los vectores son LI. Esta definición se aplica también
cuando el número de vectores es uno, de modo tal que un único
vector a1 es independiente si a1 ≠ 0 y dependiente si a1=0, es
variable desvío.
¦ a = ¦ 4' , 4( , … , 4
Con g a = § y h a = Σ
1 '
¦ $ = Ž 42
ª• a•« ¬ Σ-® a•« ¯
(
2¨ W⁄( |Σ
Σ|€⁄©
donde:
x ~ N( µ; Σ )
629
es decir, el vector x de variables 4 se distribuye según una ley
normal multivariante con vector de medias µ y matriz de
varianzas y covarianzas Σ.
Casos especiales
a) Cuando t=1,
[43]
y [42] se transforma en
1 2]
[− (x − µ)
1 2σ 2
p( X ) = e
( 2π )1 / 2 σ [44]
Q = (x − µ)' Σ −1 (x − µ) [45]
|Σ
Σ| = /,(W
|Σ
Σ|'/( = /,(W '/(
= /,( W/(
1
|Σ|•' = j
/,(
con lo que
1 ²•
'
, ,µ
¦ , = Ž (³,´ 48
2¨/ ( /(
= ¦ %' ¦ %( … ¦ %W 49
σ 11 0 0
B = 0 σ 22 0
0 0 σ 33
Donde:
3 es el número de variables
El determinante es
La inversa es
1
B −1 = I
σ2
1
B −1 = Adj (B )
B
/¿( (
0 0
º1 » = » = .−1 &¼+
½&¼+
¾
0 =˜ 0 /¿( (
0 š = /¿( À
0 0 /¿( (
De modo que:
1 O 1
»•' = Á /¿ À = / ( À
/¿ ¿
ε ~ N( 0,σ ε2IT )
633
Es decir, el vector de perturbaciones aleatorias ε tiene una
distribución normal multivariante, dada por [48], donde:
σ 11 0 L 0
0 σ L 0
Σ = σ 2I = 22
M M O M
0 0 L σ TT
- σ 11 = σ 22 = L = σ TT = σ 2
- Σ = σ 2T ; Σ
1/ 2
( )
= σ 2T
1/ 2
( )
= σ2
T/2
y Σ −1 =
1
σ2
I , con lo que
1
f ( ε ) = ( 2π ) −T / 2 ( σ ε2 ) −T / 2 exp[ − ε' ε ]
2σ ε2
máximo verosímiles, es
T
1
2 ∑
L = ( 2πσ ε2 ) −T / 2 exp[ − ( y t − X 't β ) 2 ]
2σ ε t =1
1
L = ( 2πσ ε2 ) −T / 2 exp[ − (y − Xβ )' (y − Xβ )] [50]
2σ ε2
y t = X't β + ε t
Se encuentra que
t t −∞
E( y ) = E ( Xβ + ε ) = Xβ + E ( ε ) = Xβ
V( y ) = E [( y − Xβ )( y − Xβ )' = E ( εε' ) = σ 2 I
calcula como:
∂ε t ∂( y t − X 'tβ )
g( y ) = f ( ε ) J ( y ) = f ( ε ) = f ( y t − X tβ )
'
∂y t ∂y t
T T 1
ln L = − ln 2π − ln σ ε2 − (y − Xβ )' (y − Xβ )
2 2 2σ ε2
∂ ln L 1
= X' (y − Xβ ) = 0
∂β 2σ ε2
∂ ln L −T 1
= + ( y − Xβ )' (y − Xβ ) = 0
∂σ ε2 2σ ε2 2σ ε4
637
Resolviendo el sistema y remplazando los parámetros por sus
estimadores, se obtiene
ˆ
β MV = X X
'
( )−1
X 'y = β
ˆ
MCO
e' e
σˆ MV
2
= ≠ S2
T
∂ 2 ln L X' X ∂ 2 ln L X' X
=− 2 con - E =
∂β∂β' σε ∂β∂β' σ 2
ε
∂ 2 ln L 2
X' ε ∂ ln L
=− con -E
∂β∂σ 2 = 0
∂β∂σ ε2 σ ε4
ε
2
∂ ln L
2
T ε' ε ∂ ln L T 2
= − con −E = ; ya que E(ε ' ε ) = Tσ
∂ ( )
σ ε2
2
2σ ε4 σ ε6 2 2 2σ ε4
∂ σ ε
ε
∂ 2 ln L ∂ 2 ln L 1 X' ε
2 − 2 ( X' X ) − 4
∂β∂β' σ ε ∂β∂σ ε σ ε σε
2
=
∂ 2 ln L ∂ ln L − X' ε
2 T ε' ε
− 6
σε 4
2σ ε σ ε
4
∂β∂σ ε ∂( σ ε2 ) 2
2
638
Constituyen una forma cuadrática definida negativa, condición
suficiente para la existencia de un máximo, porque
1
− ( X' X ) < 0
σ ε2
1 X' ε
− (X' X ) − 2
σ 2
σ ε4(X' X ) T ε' ε X' ε
ε
=− − 6
− − 4 > 0
−
X' ε T
−
ε' ε σ ε
2
2
εσ 4
σ ε σε
σ ε4 2σ ε4 σ ε6
1
( X' X ) 0
β σ 2
I 2 = ε
σ
ε 0
T
4
2σ ε
Y su inversa
σ ε2 ( X' X ) −1 0
β
I −1 2 =
2σ ε4
σ ε
0
T
σ ε2 ( X' X ) −1 0
−1 β
I 2 =
2σ ε4
σ ε
0
T
k
Pero el factor − desaparece en muestras grandes.
T
T 1 / 2 ( σˆ MV
2
− σ 2 ) →
d
(
N 0 k , 2σ 4 )
Donde T 1 / 2 ( σˆ MV
2
−σ 2 ) es una variable que representa
E [ T 1 / 2 ( σˆ MV
2
− σ 2 )] = T 1 / 2 E( σˆ MV
2
− σ 2 ) = T 1 / 2 [ E( σˆ MV
2
) − E( σ 2 )] =
k 2 kσ 2 kσ 2
= T 1 / 2 [(1 − )σ − σ 2 ] = T 1 / 2 [ − ] =−
T T T
V [ T 1 / 2 ( σˆ MV
2
− σ 2 )] = (T 1 / 2 ) 2V ( σˆ MV
2
− σ 2 ) = T [ V ( σˆ MV
2
) − V ( σ 2 )] =
σ4
=T[2 ] = 2σ 4
T
Entonces, cuando T → ∞ ; T 1 / 2 ( σˆ MV
2
− σ 2 ) → N 0 k , 2σ 4 ( )
641
Definiendo ahora,
k k
zT = 1 − T 1 / 2 ( σˆ MV
2
− σ 2 ) + 1/ 2 σ 2 ,
T T
k
por el sesgo 1 − y donde se ha utilizado la deducción anterior
T
de esperanza matemática para centrarla.
k
( 4 k
)
1 − N 0 k ,2σ + 1 / 2 σ
2
T T
k k
Pero, y 1 / 2 desaparecen a medida que T → ∞ , por lo que la
T T
(
distribución límite de zT también es N 0 k , 2σ 4 . )
Por otra parte, se puede demostrar que centrando
zT = T 1 / 2 ( S 2 − σ 2 ) ~ N ( 0 k ,2σ 4 )
ˆ ,σˆ 2 ) = − T T e' e T
ln L( β ln 2π − ln − e' e
2 2 T 2 e' e
ˆ ,σˆ 2 ) = − T ln 2π − T ln e' e − T
ln L( β
2 2 T 2
T
T − T
− e' e 2 −
ˆ ,σˆ ) = ( 2π )
L( β 2 2
e 2
T
T
T −
− e' e 2
ˆ ,σˆ 2 ) = ( 2π ⋅ e )
L( β 2
T
T
−
ˆ ,σˆ 2 ) = 2π ⋅ e
T
(e' e )− 2
2
L( β
T
T
ˆ ,σˆ 2 ) = constante ⋅ (e' e )− 2
L( β
Número de
Muestra X Y sX sY r XY
muestras
1 600 5 12 2 3 0.6
2 400 7 10 3 4 0.7
Y = α + βX + µ
a) Estimar α y β
Año 35 36 37 38 39 40 41 42 43 44 45 46
X, muerte de niños
menores de 1 año 60 62 61 55 53 60 63 53 52 48 49 43
(000)
Y, consumo de
23 23 25 25 26 26 29 30 30 32 33 31
cerveza (barriles)
unidad de medida.
c) Suponer que e X ,t y eY ,t indican los residuos de X e Y respecto
Creando Workfile.
Cargando datos
Graficando Series
Análisis de Regresión
Actividades Propuestas
T
SCR = ∑ et2 = e' e
t =1
Bibliografía
° Chiang, Alpha. Métodos Fundamentales De Economía Matemática.
México: McGraw Hill, 1987.
° Gujarati, Damodar. Econometría. México: Mc.Graw Hill, 2004.
° Johnston, J. y Dinardo, J. Métodos De Econometría. Barcelona:
Editorial Vicens Vives, 2001.
° Pulido San Román, Antonio. Modelos Econométricos. Madrid: Editorial
Pirámide, 1993.