Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INGENIERÍA
FACULTAD DE INGENIERÍA ECONÓMICA , ESTADÍSTICA
Y CIENCIAS SOCIALES
Título:
Presentado por :
LIMA-PERÚ
"Lo único cierto en la vida, es lo incierta que es"
2019
MEJORES ESTIMADORES LINEALES
INSESGADOS
(i) Una función lineal del vector observado Y ,que es, una función de la forma a0 Y+a0
donde a es un vector de constantes nx1 y a0 es un escalar y
En el siguiente importante teorema ,se demuestra que t’β̂=t0 (X0 X)−1 X0 Y, es el BLUE de
t0 β cuando E(E)=0 y cov(E)=σ 2 In . Este teorema es llamado Teorema de Gauss-Markov.
Y = Xβ + E
= XRT0 β + E
= Uω + E
donde U=XR y
0
tβ
ω = T0 β =
T00 β
ω̂ = (U0 U)−1 U0 Y
= (R0 X0 XR)−1 R0 X0 Y
1
= R−1 (X0 X)−1 R0−1 R0 X0 Y
= T0 (X0 X)−1 X0 Y = T0 β̂
t0 β̂
=
T00 β̂
= t0 (X 0 X)−1 X 0 Xβ + b0 Xβ + a0
= t0 β + b0 Xβ + a0 .
var(a0 Y + a0 ) = var(a0 Y)
= var(t0 X0 X)−1 X0 Y + b0 Y)
Pero σ 2 y t0 (X0 X)−1 t son constantes . Por lo tanto , var(a0 Y + a0 ) es minimizada cuando
b0 b = 0 o cuando b = 0px1 . Entonces , el BLUE de t0 β tiene varianza σ 2 (t0 (X0 X)−1 t) pero
t0 β̂ es un estimador lineal insesgado de t0 β con varianza σ 2 (t0 (X0 X)−1 t Por lo tanto t0 β̂ es
el BLUE de t0 β.
2
Problema 10
y E
1 1
u1
Y = y2 , U = , E = E2
u2
y3 E3
y1 1 0 E
u1 1
y2 =0 1 + E2 =⇒ Y = BU + E
u
2
y3 1 1 E3
La Esperanza y Variana de Y :
0
E(Y ) = E(BU + E) ⇒ BU +
E(E
i ) ⇒ BU
:
:0
V ar(Y ) = V ar(BU + E) ⇒
V ) + V ar(E) ⇒ E(Ei 2 ) − E(Ei Ej )2 ⇒ 2 − 1 ⇒ 1
ar(BU
M atricialmentesera ⇒ I3 + J3
Y : =⇒ E(Y ) = BU , Cov(Y ) = I3 + J3
N Calculando el Û :
Û = arg.min[E 0 E] = arg.min[(Y − BU )0 (Y − BU )]
3
Aplicamos la primera derivada:
d[(Y − BU )0 (Y − BU )] d(Y 0 Y − 2U 0 B 0 Y + U 0 B 0 BU )
=⇒ = =0
dU dU
2/3 −1/3 1/3
=⇒ −2B 0 Y + 2B 0 BU = 0 =⇒ Û Û = (B 0 B)−1 B 0 Y =⇒ Û Û = Y
−1/3 2/3 1/3
a) BLU E de u1 y u2 :
h i
u1 = 1 0 U
h i 2y1 y2 y3
û1 = 2/3 −1/3 1/3) Y = - +
3 3 3
para u2 :
h i
u2 = 0 1 U
h i y1 2y2 y3
û2 = −1/3 2/3 1/3) Y = - + +
3 3 3
h i h i
Cov( û1 , û2 ) = Cov( 2/3 −1/3 1/3 Y , −1/3 2/3 1/3 Y )
2 1 1 −1/3
h i
= 2/3 −1/3 1/3 1 2 1 2/3
1 1 2 1/3
1
Cov( û1 , û2 ) =
9
4
c) BLU E y varianza del BLU E de 2u1 + 3u2 :
h i h i 2/3 −1/3 1/3
2u1 + 3u2 = T = 2 3 U =⇒ T̂ T̂ = 2 3 Y
−1/3 2/3 1/3
h i y1 4y2 5y3
û T̂ = 1/3 4/3 5/3 Y = + +
3 3 3
2 1 1 1/3
h i h i
Var( T̂ ) = Var( 1/3 4/3 5/3 Y ) = 1/3 4/3 5/3 1 2 1 4/3
1 1 2 5/3
142
∴ Var(û T̂ ) =
9
5
Problema 11
Y1 = X1 β + U1 = X1 β + E1
Y2 = X2 β + U2 = X2 β + E1 + E2
Y3 = X3 β + U3 = X3 β + E1 + E2 + E3
..
.
Yn = Xn β + Un = Xn β + E1 + . . . + En
Y1∗ = X1 β + E1
Y2∗ = (X2 − X1 )β + E2
Y3∗ = (X3 − X2 )β + E3
..
.
En su forma matricial :
6
∗
Y1 X1 E1
Y ∗ X2 − X1 E2
2
= ×β+
Y ∗ X −X E
3 3 2 3
. . .
.. .
. ..
Yn∗ Xn − Xn−1 En
Entonces :
Y ∗ = X ∗β + E
Donde:
0
h i h i
X ∗ = X1∗ X2∗ X3∗ . . . Xn∗ = X1 X2 − X1 X3 − X2 . . . Xn − Xn−1
E(Y ∗ ) = X ∗ β
X 0 ... 0
1
0 X2 − X1 ... 0
∗ 2
Cov(Y ) = Cov(E) = σ . .. ... ..
..
. .
0 0 . . . Xn − Xn−1
0
β̂ = arg. min[E E]
β6=0
0
β̂ = arg. min[(Y ∗ − X ∗ β) (Y ∗ − X ∗ β)]
β6=0
7
Por; el ;criterio; de; la; primera; derivada:
0
d(Y ∗ − X ∗ β) (Y ∗ − X ∗ β)
=0
dβ
0
−2X ∗ Y ∗ + 2X ∗ X ∗ β̂ = 0
0 0
β̂ = (X ∗ X ∗ )−1 X ∗ Y ∗
0
d2 (Y ∗ − X ∗ β) (Y ∗ − X ∗ β) 0
2 = 2X ∗ X ∗ > 0
dβ
0 0
β̂ = (X ∗ X ∗ )−1 X ∗ Y ∗
0 0
V ar(β̂) = Cov((X ∗ X ∗ )−1 X ∗ Y ∗ )
0 0 0
V ar(β̂) = [(X ∗ X ∗ )−1 X ∗ ] Cov(Y ∗ ) [X ∗ (X ∗ X ∗ )−1 ]
X 3 + n (X 3 −X 3 )
P
V ar(β̂) = σ 2 [X 21+Pni=1(X 2i−X 2i−1)]2
1 i=1 i i−1
8
Demostración del Estadístico de prueba para la Prueba
de Significancia Global del Modelo Lineal
0 0 0
(Rβ̂ − r) (R(X X)−1 R )−1 (Rβ̂ − r)
Fc = 2
qσ̂M CO
h i
R= Ip y r = p×1
0
0 0
β̂ 1 (R(X X)−1 R )−1 β̂ 1
Fc = 2
pσ̂M CO
;Donde:
0 0
0 1n h i A11 A12 n 1n X1
XX= 0
1n X1 = =
0 0
X1 A21 A22 X1 1n X1 X1
Su inversa es:
11 12
0 A A
(X X)−1 =
21 22
A A
Donde:
0
A22 = (X1 Hn X1 )−1
9
Además:
0 0
h i A11 A12
R(X X)−1 R = Ip
0
21 −1
A (X1 Hn X1 ) Ip
0 0 0
R(X X)−1 R = (X1 Hn X1 )−1
0 0 0
(RX X)−1 R )−1 = X1 Hn X1
0 0 0
(RX X)−1 R )−1 = Xc Xc
10