Está en la página 1de 11

UNIVERSIDAD NACIONAL DE

INGENIERÍA
FACULTAD DE INGENIERÍA ECONÓMICA , ESTADÍSTICA
Y CIENCIAS SOCIALES

ESCUELA PROFESIONAL DE INGENIERÍA ESTADÍSTICA

Título:

Solucionario de Ejercicios de Modelos Lineales

Presentado por :

Jairo Saúl Valverde Reyes

LIMA-PERÚ
"Lo único cierto en la vida, es lo incierta que es"

2019
MEJORES ESTIMADORES LINEALES
INSESGADOS

Definicion: Mejores estimadores lineales insesgados (BLUE) de t0 β: El mejor estimador


lineal insesgado de t0 β es.

(i) Una función lineal del vector observado Y ,que es, una función de la forma a0 Y+a0
donde a es un vector de constantes nx1 y a0 es un escalar y

(ii) el estimador insesgado de t0 β con la varianza mas pequeña.

En el siguiente importante teorema ,se demuestra que t’β̂=t0 (X0 X)−1 X0 Y, es el BLUE de
t0 β cuando E(E)=0 y cov(E)=σ 2 In . Este teorema es llamado Teorema de Gauss-Markov.

Teorema: Si Y=Xβ + E donde E(E)=0 y Cov(E)=σ 2 In Entonces el estimador de mí-


nimos cuadrados de t0 β está dada por t’β̂=t0 (X0 X)−1 X0 Y y t0 β̂ es el BLUE de t0 β

Prueba: Primero , se muestra que el estimador de mínimos cuadrados de t0 β es t’β̂. Si


T es una matriz no singular pxp tal que T=(t|T0 ) donde t es un vector px1 y T0 es una
matriz px(p-1). Si R=T0−1 entonces

Y = Xβ + E

= XRT0 β + E

= Uω + E

donde U=XR y

 
0

ω = T0 β =  
T00 β

El estimador de mínimos cuadrados de ω está dado por:

ω̂ = (U0 U)−1 U0 Y

= (R0 X0 XR)−1 R0 X0 Y

1
= R−1 (X0 X)−1 R0−1 R0 X0 Y

= T0 (X0 X)−1 X0 Y = T0 β̂

 
t0 β̂
= 
T00 β̂

Por lo tanto t0 β̂ es el estimador de mínimos cuadrados de t0 β .Después se demuestra que


t0 β̂ es el BLUE de t0 β. Los estimadores lineales de t0 β toman la forma a0 Y + a0 .Dado que
t0 (X0 X)−1 X0 es conocida , sin pérdida de generalidad, si a0 = t0 (X0 X)−1 X0 + b0 Luego los
estimadores lineales insesgados de t0 β satifacen la relación

t0 β = E(a0 Y + a0 ) = E(t0 (X 0 X)−1 X 0 Y + b0 Y + a0 )

= t0 (X 0 X)−1 X 0 Xβ + b0 Xβ + a0

= t0 β + b0 Xβ + a0 .

Por lo tanto , en la clase de estimadores lineales insesgados b0 Xβ + a0 = 0 para todo β


. Pero para que esta expresión se mantenga para todo β, b0 X = 01xp y a0 = 0 . Ahora
calcule y minimize la varianza del estimador de a0 Y dentro de la clase de estimadores
insesgados de t0 β (ejemplo, cuando b0 X = 01xp y a0 = 0)

var(a0 Y + a0 ) = var(a0 Y)

= var(t0 X0 X)−1 X0 Y + b0 Y)

= σ 2 (t0 (X0 X)−1 t + b0 b).

Pero σ 2 y t0 (X0 X)−1 t son constantes . Por lo tanto , var(a0 Y + a0 ) es minimizada cuando
b0 b = 0 o cuando b = 0px1 . Entonces , el BLUE de t0 β tiene varianza σ 2 (t0 (X0 X)−1 t) pero
t0 β̂ es un estimador lineal insesgado de t0 β con varianza σ 2 (t0 (X0 X)−1 t Por lo tanto t0 β̂ es
el BLUE de t0 β.

2
Problema 10

Sea y1 = u1 + E1 , y2 = u2 + E2 , y3 = u1 + u2 + E3 , Donde: E(Ei ) = 0 y E(Ei 2 ) = 2,


E(Ei Ej ) = 1 para i 6= j= 1, 2, 3.

a)Encuentre los BLUES de u1 y u2 .


b)Encuentre la Covarianza entre los BLUES de u1 y u2 .
c)Encuentre el BLUE y la varianza del BLUE de 2u1 +3u2 .
Solución:

Reescribiendo en forma matricial:

   
y E
 1  1
 
u1
Y = y2  , U =   , E = E2 
   
  u2  
y3 E3

     
y1 1 0   E
    u1  1
y2 =0 1   + E2  =⇒ Y = BU + E
     
    u  
2
y3 1 1 E3

La Esperanza y Variana de Y :
0
E(Y ) = E(BU + E) ⇒ BU + 
E(E
i ) ⇒ BU
:


:0
V ar(Y ) = V ar(BU + E) ⇒ 
V  ) + V ar(E) ⇒ E(Ei 2 ) − E(Ei Ej )2 ⇒ 2 − 1 ⇒ 1
ar(BU


M atricialmentesera ⇒ I3 + J3

Y : =⇒ E(Y ) = BU , Cov(Y ) = I3 + J3

N Calculando el Û :

Û = arg.min[E 0 E] = arg.min[(Y − BU )0 (Y − BU )]

3
Aplicamos la primera derivada:

d[(Y − BU )0 (Y − BU )] d(Y 0 Y − 2U 0 B 0 Y + U 0 B 0 BU )
=⇒ = =0
dU dU

 
2/3 −1/3 1/3
=⇒ −2B 0 Y + 2B 0 BU = 0 =⇒ Û Û = (B 0 B)−1 B 0 Y =⇒ Û Û =  Y
−1/3 2/3 1/3

a) BLU E de u1 y u2 :

h i
u1 = 1 0 U

h i 2y1 y2 y3
û1 = 2/3 −1/3 1/3) Y = - +
3 3 3

para u2 :
h i
u2 = 0 1 U

h i y1 2y2 y3
û2 = −1/3 2/3 1/3) Y = - + +
3 3 3

b) Covarianza Del BLU E de u1 y u2 :

h i h i
Cov( û1 , û2 ) = Cov( 2/3 −1/3 1/3 Y , −1/3 2/3 1/3 Y )

  
2 1 1 −1/3
h i  
= 2/3 −1/3 1/3 1 2 1  2/3 
  
  
1 1 2 1/3

1
Cov( û1 , û2 ) =
9

4
c) BLU E y varianza del BLU E de 2u1 + 3u2 :

 
h i h i 2/3 −1/3 1/3
2u1 + 3u2 = T = 2 3 U =⇒ T̂ T̂ = 2 3  Y
−1/3 2/3 1/3

h i y1 4y2 5y3
û T̂ = 1/3 4/3 5/3 Y = + +
3 3 3
  
2 1 1 1/3
h i h i  
Var( T̂ ) = Var( 1/3 4/3 5/3 Y ) = 1/3 4/3 5/3 1 2 1 4/3
  
  
1 1 2 5/3
142
∴ Var(û T̂ ) =
9

5
Problema 11

Sea Yi = Xi β + Ui para un i = 1, 2, . . . , n y 0 < X1 < X2 < . . . < Xn donde Ui =


E1 + E2 + . . . + Ei y los Ei son incorrelacionados con E(Ei ) = 0, V ar(Eij ) = σ 2 (Xi − Xi−1
para i > 1 y V ar(E1 ) = σ 2 X1

(a) Halle el BLUE de β

(b) Halle la varianza del BLUE de β


Desarrollando los elementos del modelo :

Y1 = X1 β + U1 = X1 β + E1

Y2 = X2 β + U2 = X2 β + E1 + E2

Y3 = X3 β + U3 = X3 β + E1 + E2 + E3
..
.

Yn = Xn β + Un = Xn β + E1 + . . . + En

Hacemos la siguiente transformación a los valores de Yi .

Yi∗ = Yi − Yi−1 para i > 1 y Y1∗ = Y1

Entonces los elementos del modelo de la siguiente forma :

Y1∗ = X1 β + E1

Y2∗ = (X2 − X1 )β + E2

Y3∗ = (X3 − X2 )β + E3
..
.

Yn∗ = (Xn − Xn−1 )β + En

En su forma matricial :

6
     

Y1   X1   E1 
     
     
     
     
Y ∗   X2 − X1   E2 
 2     
     
 = ×β+ 
     
     
Y ∗   X −X  E 
 3   3 2   3
 .   .   . 
 ..   .
.   .. 
     
     
Yn∗ Xn − Xn−1 En

Entonces :
Y ∗ = X ∗β + E

 Donde:

0
h i h i
X ∗ = X1∗ X2∗ X3∗ . . . Xn∗ = X1 X2 − X1 X3 − X2 . . . Xn − Xn−1

E(Y ∗ ) = X ∗ β

 
X 0 ... 0
 1 
 0 X2 − X1 ... 0
 
∗ 2

Cov(Y ) = Cov(E) = σ  . .. ... ..

 ..

. . 
 
0 0 . . . Xn − Xn−1

En el ítem (a) nos piden el BLUE de β

 Por el teorema de GAUSS-MARKOV el BLUE de β es :

0
β̂ = arg. min[E E]
β6=0

0
β̂ = arg. min[(Y ∗ − X ∗ β) (Y ∗ − X ∗ β)]
β6=0

7
 Por; el ;criterio; de; la; primera; derivada:

0
d(Y ∗ − X ∗ β) (Y ∗ − X ∗ β)
=0

0
−2X ∗ Y ∗ + 2X ∗ X ∗ β̂ = 0

0 0
β̂ = (X ∗ X ∗ )−1 X ∗ Y ∗

Analizando la segunda derivada para verificar si β̂; es el argumento mnimo :

0
d2 (Y ∗ − X ∗ β) (Y ∗ − X ∗ β) 0

2 = 2X ∗ X ∗ > 0

⇒ En efecto la segunda derivada es positiva por lo tanto β̂ es el argumento mínimo :

Por lo tanto el BLUE de β es :

0 0
β̂ = (X ∗ X ∗ )−1 X ∗ Y ∗

En el ítem (b) nos piden la varianza del BLUE de β

0 0
V ar(β̂) = Cov((X ∗ X ∗ )−1 X ∗ Y ∗ )
0 0 0
V ar(β̂) = [(X ∗ X ∗ )−1 X ∗ ] Cov(Y ∗ ) [X ∗ (X ∗ X ∗ )−1 ]

X 3 + n (X 3 −X 3 )
P
V ar(β̂) = σ 2 [X 21+Pni=1(X 2i−X 2i−1)]2

1 i=1 i i−1

8
Demostración del Estadístico de prueba para la Prueba
de Significancia Global del Modelo Lineal

De la prueba de hipótesis lineal general tenemos que el estadístico de prueba es:

0 0 0
(Rβ̂ − r) (R(X X)−1 R )−1 (Rβ̂ − r)
Fc = 2
qσ̂M CO

Para el estadístico de prueba de la prueba de Significancia Global, tenemos que :

h i
R= Ip y r = p×1

Entonces el estadístico de prueba queda de la siguiente forma

0
0 0
β̂ 1 (R(X X)−1 R )−1 β̂ 1
Fc = 2
pσ̂M CO

;Donde:

     
0 0
0 1n h i A11 A12 n 1n X1
XX= 0
 1n X1 = =
0 0

X1 A21 A22 X1 1n X1 X1

Su inversa es:

 
11 12
0 A A
(X X)−1 =  
21 22
A A

Donde:
0
A22 = (X1 Hn X1 )−1

9
Además:

  
0 0
h i A11 A12
R(X X)−1 R = Ip 
0
 
21 −1
A (X1 Hn X1 ) Ip

0 0 0
R(X X)−1 R = (X1 Hn X1 )−1
0 0 0
(RX X)−1 R )−1 = X1 Hn X1
0 0 0
(RX X)−1 R )−1 = Xc Xc

Entonces el estadístico de prueba para la prueba de significancia global de un modelo lineal


es:
0
0
β̂ 1 (Xc Xc )β̂ 1
Fc = 2
pσ̂M CO
0 0 0 0 0 0
((Xc Xc )−1 Xc Y ) (Xc Xc )(Xc Xc )−1 Xc Y
Fc = 2
pσ̂M CO
0 0 −1 0 0
Y Xc (Xc Xc ) Xc Y Y HXc Y
Fc = 2
= 2
pσ̂M CO pσ̂M CO
0
Y (HX − n1 Jn )Y
Fc = 2
pσ̂M CO

10

También podría gustarte