Está en la página 1de 7

EParcial 1

Análisis de Regresión

Nathalia Bustos Zárate

Este trabajo es presentado al profesor


Oscar Melo

Universidad Nacional de Colombia


Bogotá, Colombia
Abril de 2020
1. Suponga Y ∼ N (Xβ, Σ) con Σ = σ 2 [(1 − ρ)Ik + ρJk ], 0 ≤ ρ ≤ 1. Responda las siguientes
preguntas:

a. Defina A1 = Ik − k1 Jk y A2 = k1 Jk , muestre que A1 y A2 son indepempotentes, A1 A2 = 0


y Σ = {(1 − ρ)A1 + [1 − (k − 1)ρ]A2 }σ 2
Tomando J = [bij ] = 11T
  
1 1
A1 A1 = Ik − Jk Ik − Jk
k k
  
1 1 1 1
= Ik Ik − Ik Jk − Jk Ik + Jk Jk
k k k k
1 1 1
= Ik − Jk − Jk + Jk
k k k
1
= Ik − Jk = A1
 k  
1 1
A2 A2 = Jk Jk
k k
como bi. ∗ b.j = |1 + 1 +
{z... + 1}
k veces
k
= Jk
k2
1
= Jk = A2
k
  
1 1
A1 A2 = Ik − Jk Jk
k k
   
1 1
= Ik Jk − Jk
k k
1 1
= Jk − Jk = 0
k k
Σ = [(1 − ρ)Ik + ρJk ]σ 2
1 + kρ − ρ − 1 + ρ
= {(1 − ρ)Ik + Jk }σ 2
  k
1 1 + kρ − ρ
= {(1 − ρ) Ik − Jk + Jk }σ 2
k k
= {(1 − ρ)A1 + [1 − (k − 1)ρ]A2 }σ 2

1 1
b. Sea qi = Y t Bi Y , i = 1, 2, con B1 = σ2 (1−ρ) A1 y B2 = σ2 [1+(k−1)ρ] A2 . Muestre que q1 y q2
son independientes y se distribuyen como chi-cuadrados, encuentre los parámetros de
la distribución.

1
Para mostrar que q1 y q2 son independientes basta con mostrar que B1 B2 = 01
1 1
B1 B2 = A1 2 A2
σ 2 (1
− ρ) σ [1 + (k − 1)ρ]
1
= 4 A1 A2
σ (1 − ρ)[1 + (k − 1)ρ]
Por literal a. A1 A2 = 0 por lo tanto B1 B2 = 0 Para decir que q1 y q2 distribuyen
chi-cuadrado es suficiente con mostrar B1 Σ y B2 Σ son idempotentes2
1
B1 Σ = A1 {(1 − ρ)A1 + [1 − (k − 1)ρ]A2 }σ 2
σ 2 (1
− ρ)
1 − (k − 1)ρ
= A1 A1 + A1 A2
1−ρ
Como A1 es idempotente y B1 Σ = A1 entonces B1 Σ es idempotente.
1
B2 Σ = A2 {(1 − ρ)A1 + [1 − (k − 1)ρ]A2 }σ 2
σ 2 [1
+ (k − 1)ρ]
1 − (k − 1)ρ
= A2 A1 + A2 A2
1−ρ
B2 Σ = A2 ası́ (B2 Σ)2 = A22 entonces B2 Σ es idempotente. Como B1 Σ y B2 Σ son
idempotentes entonces q1 y q2 distribuyen chi-cudrado con parámetros:
q1 ∼ χ2(r(B1 ),λ1 )

1 1 1
r(B1 ) = r( A1 ) = r( 2 (Ik − Jk ))
σ 2 (1
− ρ) σ (1 − ρ) k
1 1 1
= r( 2 Ik ) − r( 2 Jk )
σ (1 − ρ) σ (1 − ρ) k
=k−1
1 1
λ1 = [E(Y )]t B1 E(Y ) = [Xβ]t B1 Xβ
2 2
q2 ∼ χ2(r(B2 ),λ2 )

1 1 1
r(B2 ) = r( A2 ) = r( 2 Jk ))
σ 2 [1 + (k − 1)ρ] σ [1 + (k − 1)ρ] k
=1
1 1
λ2 = [E(Y )]t B2 E(Y ) = [Xβ]t B2 Xβ
2 2
c. Según los resultados anteriores cuál serı́a el modelo de regresión empleado en este pro-
blema. Basado en b., juzgue la hipótesis teniendo en cuenta ese modelo de regresión.
Serı́a un modelo de regresión lineal múltiple, con mı́nimos cuadrados ponderados
serı́a: Y ∼ N (Xβ, Σ)
β̂ = (X t Σ−1 X)−1 X t Σ−1 X
1
Teorema 3.5
2
Teorema 3.6

2
2.
3. En un modelo sin intercepto, suponga que: σ̂ 2 = 120, β̂ = (2 8 1)t , V ar(βˆ1 ) = 21, V ar(βˆ2 ) =
15, V ar(βˆ3 ) = 25, Cov(βˆ1 , βˆ2 ) = −8, Cov(βˆ1 , βˆ3 ) = 12 y Cov(βˆ2 , βˆ3 ) = −16 .
a. Estime el vector de parámetros de β bajo la restricción β1 − 2 = β2 + 3 = β3 + 5
Por la restricción sabemos que:
β1 − β2 = 5
β1 − β3 = 7
Luego podemos acomodarlo de la forma Aβ − C
 
  β1  
1 −1 0   5
β2 =
1 0 −1 7
β3
   
β1 − β2 5
=
β1 − β3 7
b. Muestre que el estimador encontrado en a. es insesgado y obtenga su varianza. Interprete
este resultado.
c. Pruebe la hipótesis β1 −2 = β2 +3 = β3 +5, utilizando n = 55 y un nivel de significancia
de 5 % .
d. Obtenga una región de confianza del 95 % para la hipótesis planteada en a., realice el
gráfico en tres dimensiones.
4. Se utiliza un modelo de regresión múltiple para relacionar viscosidad (y) de un producto
quı́mico con: temperatura (x1 ) y tiempo de reacción (x2 ). El modelo inicial ajustado fue:

ti = 250 + 1,85xi1 + 10,4xi2 , i = 1, 2, ..., 20

SCRes = 123,3 SCTcm = 1283,1 σ̂βˆ1 = 0,23 σ̂βˆ2 = 1,82

a. Construya la tabla de análisis de varianza para el modelo de regresión lineal. ¿El modelo
global es estadı́sticamente útil para predecir la viscosidad de producto quı́mico?

ANOVA
Causas de Variación gl SC CM F
Regresión 2 1159.8 579.9 84.66
Residual 17 123.3 7.25
Total 19 1283.1

Nos hace falta información para poder evaluar la utilidad del modelo.
b. ¿Qué proporción de la variabilidad total en la viscosidad está explicada por las variables
explicativas?
1 − CM Res 1 − 7,25
Rajustada = = = −0,0106
CM Tcm 587,15

3
c. Pruebe la hipótesis de que existe relación entre cada variable explicativa y la viscosi-
dad y obtenga un intervalo de confianza del 95 % para cada parámetro, interprete los
resultados.
β̂i − (βi )H o
t=
sqrtcjj CM Res
β̂i − (βi )H o
t= √
0, 23 ∗ 7,25
β̂i − (βi )H o
t= √
1,82 ∗ 7,25
d. Calcule una estimación de la viscosidad promedio estimada cuando x1 = 110◦ F y
x2 = 2,5 hr. Obtenga e interprete un intervalo de confianza del 95 % para la predic-
ción obtenida.
El intervalo√de confinza serı́a :
β̂1 ± t(17,2.5) 0,23 ∗ 7,25

β̂2 ± t(17,2.5) 1, 82 ∗ 7,25
e. Suponga que añade otra variable de regresión al modelo, velocidad de agitación (x3 ).
El nuevo valor de la suma de cuadrados del residuo es SCRes= 105.1. Calcule un es-
tadı́stico F para evaluar la contribución al modelo de esta nueva variable a un nivel de
significancia de 5 % , ¿a qué conclusiones puede llegarse?

ANOVA
Causas de Variación gl SC CM F
Regresión 3 1178 392.7 59.77
Residual 16 105.1 6.57
Total 19 1283.1

5. Una persona tiene una parrilla caliente y un panecillo de hamburguesa vacı́o, pero ha jurado
dejar las hamburguesas grasientas. ¿Es buena una hamburguesa sin carne? Los datos de
la tabla siguiente dan puntuación de sabor y textura (entre 0 y 100) para 12 marcas de
hamburguesas sin carne junto con el precio, número de calorı́as, cantidad de grasa y una
cantidad de sodio por hamburguesa. Algunas de estas marcas tratan de imitar el sabor de la
carne, no ası́ otras. Se desea realizar una regresión de la puntuación a sabor y en las cuatro
variables predictoras: precio, calorı́as, grasa y sodio. Los datos obtenidos son los siguientes:

4
Marca Puntos Precio Calorı́as Grasa Sodio
1 70 91 110 4 310
2 45 68 90 0 420
3 43 92 80 1 280
4 41 75 120 5 370
5 39 88 90 0 410
6 30 67 140 4 440
7 68 73 120 4 440
8 56 92 170 6 520
9 40 71 130 4 180
10 34 67 110 2 180
11 30 92 100 1 330
12 26 95 130 2 340

a. Plantee el modelo de regresión múltiple y juzgue la hipótesis global de relación de las


variables explicativas con la variable respuesta.

P untos = β1 P recio + β2 Calorı́as + β3 Grasa + β4 Sodio + 

Mirando la correlación de Precio, Calorı́as, Grasa y Sodio con respecto a la Puntuación


Precio-Puntos = 0.0705
Calorı́as-Puntos = 0.0899
Grasa-Puntos = 0.413
Sodio-Puntos = 0.276
Todas las varibales explicativas se relacionan a la puntuación aunque Precio y Calorı́as
en una cantidad muy pequeña.
b. Estime los parámetros del modelo de regresión lineal múltiple planteado en a. e inter-
prete la relación de cada uno de los parámetros del modelo en términos del problema.
−1
Por Mı́nimos Cuadrados sabemos que β̂ = (X t X) X t Y
Como conozco X y Y 3 :
βˆ0
   
59,4797
 βˆ  
 1   0,1298 
β̂ =  βˆ2  = 

−0,5805
  
 ˆ   
 β3   8,4758 
βˆ4 0,0496
El β0 muestra que el promedio de la variable respuesta ajustada es mayor que el pro-
medio de la variable explicativa
Los otros βs muestran que el Precio está poco relacionado con la puntuación. Calorı́as
está poco relacionado con la puntuación. Grasa tiene una relación inversa con la pun-
tuación. Sodio es el menos relacionado con la puntuación
c. Calcule e interprete el coeficiente de determinación apropiado.
2
El Rajustado = 0,2219 esto quiere decir que este modelo explica en un 22.19 % la varia-
bilidad de la puntuación la menor cantidad de predictores.
3
Codigo RS tudio

5
d. Juzgue la hipótesis de que cada una de las variables explicativas está relacionada con
la variable puntuación de sabor utilizando el modelo planteado en a.
Para juzgar cada una se mira la significancia R-studio donde nos muestra los siguientes
resultados:

Variable t-valor Pr( |t|)


Intercepto 1.677 0.1375
Precio 0.386 0.7113
Calorı́as -2.027 0.0823
Grasa 2.458 0.0436
Sodio 1.241 0.2547

Podemos ver que Grasa no aporta mucho y puede ser explicada por Calorı́as
e. Si desea reajustar el modelo al eliminar una de las variables independientes, ¿cuál eli-
minarı́a? ¿Por qué?
Dado que Calorı́as y Grasa tienen una correlación de 0.828 donde se podrı́a pensar en
colinealidad y por el literal d. concluirı́a eliminar Grasa.

También podría gustarte