Está en la página 1de 18

PRACTICA N°4

1.- Dada la siguiente muestra:

N° Y X1 X2 X3 X4 Y^2
1 11,2 56,5 71 38,5 43 125,4
2 14,5 59,5 72,5 38,2 44,8 210,3
3 17,2 69,2 76 42,5 49 295,8
4 17,8 74,5 79,5 43,4 56,3 316,8
5 19,3 81,2 84 47,5 60,2 372,5
6 24,5 88 86,2 47,4 62 600,3
7 21,2 78,2 80,5 44,5 58,1 449,4
8 16,9 69 72 41,8 48,1 285,6
9 14,8 58,1 68 42,1 46 219,0
10 20 80,5 85 48,1 60,3 400,0
11 13,2 58,3 71 37,5 47,1 174,2
12 22,5 84 87,2 51 65,2 506,3
213,1 3955,7
a. Obtener la matriz de correlación lineal simple. Al menos dos de los términos de la matriz
deben ser obtenidos manualmente. El resto de la matriz puede llenarse con software.

1 56,5 71,0 38,5 43,0 12,0 857,0 932,9 522,5 640,1


1 59,5 72,5 38,2 44,8 857,0 62595,8 67434,1 37803,1 46636,3
1 69,2 76,0 42,5 49,0 A= 932,9 67434,1 73038,0 40912,0 50325,3
1 74,5 79,5 43,4 56,3 522,5 37803,1 40912,0 22955,1 28215,6
1 81,2 84,0 47,5 60,2 640,1 46636,3 50325,3 28215,6 34805,5
X= 1 88,0 86,2 47,4 62,0
1 78,2 80,5 44,5 58,1
213,10 3,320
1 69,0 72,0 41,8 48,1
15688,43 0,421
1 58,1 68,0 42,1 46,0
G= 16830,85 B= -0,296
1 80,5 85,0 48,1 60,3
9444,07 0,016
1 58,3 71,0 37,5 47,1
11677,13 0,125
1 84,0 87,2 51,0 65,2

Y = 3,320 + 0,421*X1 – 0,296*X2 + 0,016*X3 + 0,125*X4

(∑ 𝑌)2 213,12
𝑆𝑦𝑦 = ∑ 𝑌 2 − = 3955,7 − = 171,39
𝑛 12
(∑ 𝑋1 )2 8572
𝑆𝑥1𝑥1 = ∑ 𝑋1 2 − = 62595,8 − = 1391,74
𝑛 12
(∑ 𝑋2 )2 932,92
𝑆𝑥2𝑥2 = ∑ 𝑋2 2 − = 73038,0 − = 512,83
𝑛 12

2 (∑ 𝑋3 )2 522,52
𝑆𝑥3𝑥3 = ∑ 𝑋3 − = 22955,1 − = 204,55
𝑛 12
(∑ 𝑋4 )2 640,12
𝑆𝑥4𝑥4 = ∑ 𝑋4 2 − = 34805,5 − = 661,53
𝑛 12
𝑆𝑥1𝑦 = 469,54; 𝑆𝑥2𝑦 = 264,10; 𝑆𝑥3𝑦 = 165,34; 𝑆𝑥4𝑦 = 310,02; 𝑆𝑥1𝑥2 = 809,49

𝑆𝑥1,𝑥3 = 487,85; 𝑆𝑥1,𝑥4 = 922,48; 𝑆𝑥2,𝑥3 = 292,01; 𝑆𝑥2𝑥4 = 562,90; 𝑆𝑥3,𝑥4 = 344,57
𝑆𝑥1𝑦 469,54
Ryx1 = = = 0,961
√𝑆𝑥1𝑥1 ∗ 𝑆𝑦𝑦 √1391,74 ∗ 171,39
𝑆𝑥2𝑦 264,10
Ryx2 = = = 0,891
√𝑆𝑥2𝑥2 ∗ 𝑆𝑦𝑦 √512,83 ∗ 171,39

MATRIZ DE CORRELACION LINEAL SIMPLE

Correlaciones
Y X1 X2 X3 X4
Y Correlación de Pearson 1 ,961** ,891** ,883** ,921**
Sig. (bilateral) ,000 ,000 ,000 ,000
N 12 12 12 12 12
X1 Correlación de Pearson ,961** 1 ,958** ,914** ,961**
Sig. (bilateral) ,000 ,000 ,000 ,000
N 12 12 12 12 12
X2 Correlación de Pearson ,891** ,958** 1 ,902** ,966**
Sig. (bilateral) ,000 ,000 ,000 ,000
N 12 12 12 12 12
X3 Correlación de Pearson ,883** ,914** ,902** 1 ,937**
Sig. (bilateral) ,000 ,000 ,000 ,000
N 12 12 12 12 12
X4 Correlación de Pearson ,921** ,961** ,966** ,937** 1
Sig. (bilateral) ,000 ,000 ,000 ,000
N 12 12 12 12 12
**. La correlación es significativa en el nivel 0,01 (bilateral).

b. Estimar manualmente el coeficiente de correlación lineal múltiple de Y con X1, X2, X3 y X4 (ρ


Y; X1, X2, X3, X4).

Y = 3,320 + 0,421*X1 – 0,296*X2 + 0,016*X3 + 0,125*X4


𝑆𝑆𝑇 = 𝑆𝑦𝑦 = 171,39

(∑ 𝑦𝑖 )2 (213,10)2
𝑆𝑆𝑅 = ∑ 𝑏𝑗 ∗ 𝑔𝑗 − = 3945,24 − = 160,94
𝑛 12
𝑆𝑆𝐸 = 𝑆𝑆𝑇 − 𝑆𝑆𝑅 = 171,39 − 160,94 = 10,45

SSR 160,94
R 𝑌;𝑋1,𝑋2,𝑋3,𝑋4 = √ =√ = 0,969
SST 171,39

c. Obtener un intervalo de confiabilidad del 95% para ρ Y; X1.


R 𝑌;𝑋1 = 0,961

1 1 + RY;Ŷ z0 1 1+ρ 1 1 + RY;Ŷ z0


P [ ∗ Ln ( )− < ∗ Ln ( ) < ∗ Ln ( )+ ]= 1−𝛼
2 1 − RY;Ŷ √n − 3 2 1−ρ 2 1 − RY;Ŷ √n − 3
1 1 + L. I. 1 1+ρ 1 1 + L. S.
P[ ∗ Ln ( ) < ∗ Ln ( ) < ∗ Ln ( )] = 1 − 𝛼
2 1 − L. I. 2 1−ρ 2 1 − L. S.
1 1 + RY;Ŷ 1 1 + 0,961
∗ Ln ( ) = ∗ Ln ( ) = 1,959
2 1 − RY;Ŷ 2 1 − 0,961
z0 1,96
= = 0,653
√n − 3 √12 − 3
Z0 (0,975) = 1,96
1 1+ρ
P [ 1,959 − 0,653 < ∗ Ln ( ) < 1,959 + 0,653] = 0,95
2 1−ρ
1 1+ρ
P [ 1,306 < ∗ Ln ( ) < 2,612] = 0,95
2 1−ρ
1 1 + L. I. 𝑒 2∗1,306 − 1
∗ Ln ( ) = 1,306 => L. I. = = 0,863
2 1 − L. I. 1 + 𝑒 2∗1,306
1 1 + L. S. 𝑒 2∗2,612 − 1
∗ Ln ( ) = 2,612 => L. S. = = 0,989
2 1 − L. S. 1 + 𝑒 2∗2,612
P[ 0,863 < ρ𝑌;𝑋1 < 0,989] = 0,95

d. Con α = 0,05 averiguar si ρ Y; X1, X2, X3, X4 < 0,5.

1º H0 : ρY;X1,X2,X3,X4 < 0,5


H1 : ρY;X1,X2,X3,X4 > 0,5
2º α = 0,05
3º Estadístico de Prueba
√𝑛 − 3 (1 + Ry;ŷ ) ∗ (1 − 𝜌0 )
Z= ∗ 𝐿𝑛 ( ) ~N(0,1)
2 (1 − Ry;ŷ ) ∗ (1 + 𝜌0 )
Z0(0,95)=1,645
Rechazar H0
si Zcalc > Z0 = 1,645
4º Resolviendo el estadístico tenemos:
160,94
R𝑌;𝑋1,𝑋2,𝑋3,𝑋4 = √ = 0,969
171,39

√12 − 3 (1 + 0,969) ∗ (1 − 0,5)


Z𝑐𝑎𝑙𝑐 = ∗ 𝐿𝑛 ( ) = 4,579
2 (1 − 0,969) ∗ (1 + 0,5)
5º Para α = 0,05
Rechazar H0 => ρY;X1,X2,X3,X4 > 0,5

e. Obtener la matriz de correlación lineal parcial simple, tomando como variable de control X 1.
Al menos dos de los términos de la matriz deben ser obtenidos manualmente. El resto de la
matriz puede llenarse con software.
Ry,x1 = 0,961 ; Ry,x2 = 0,891 ; Ry,x3 = 0,883 ; Rx1,x2 = 0,958

Rx1,x3 = 0,914
Ry,x2 − Ry,x1 ∗ Rx1,x2
Ry,x2/x1 =
√(1 − Ry,x1 2 ) ∗ (1 − Rx1,x2 2 )
0,891 − 0,961 ∗ 0,958
Ry,x2/x1 = = −0,386
√(1 − 0,9612 ) ∗ (1 − 0,9582 )
Ry,x3 − Ry,x1 ∗ Rx1,x3
Ry,x3/x1 =
√(1 − Ry,x1 2 ) ∗ (1 − Rx1,x3 2 )
0,883 − 0,961 ∗ 0,914
Ry,x3/x1 = = 0,036
√(1 − 0,9612 ) ∗ (1 − 0,9142 )

MATRIZ DE CORRELACION LINEAL PARCIAL SIMPLE CON VARIABLE DE CONTROL X1 según el


software SPSS:
Correlaciones
Variables de control Y X2 X3 X4
X1 Y Correlación 1,000 -,386 ,036 -,047
Significación (bilateral) . ,242 ,916 ,890
gl 0 9 9 9
X2 Correlación -,386 1,000 ,220 ,574
Significación (bilateral) ,242 . ,516 ,065
gl 9 0 9 9
X3 Correlación ,036 ,220 1,000 ,517
Significación (bilateral) ,916 ,516 . ,103
gl 9 9 0 9
X4 Correlación -,047 ,574 ,517 1,000
Significación (bilateral) ,890 ,065 ,103 .
gl 9 9 9 0

f. Con α = 0,05 averiguar si las variables X3 y X4 deben permanecer en el modelo de regresión


𝝁𝒀/𝑿𝟏,𝑿𝟐,𝑿𝟑,𝑿𝟒 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝜷𝟐 𝑿𝟐 + 𝜷𝟑 𝑿𝟑 + 𝜷𝟒 𝑿𝟒

1º H0 : ρY;X3,X4/X1,X2 = 0 Las variables X3 y X4 NO deben permanecer en el modelo.


H1 : ρY;X3,X4/X1,X2 ≠ 0 Las variables X3 y X4 SI deben permanecer en el modelo.
2º α = 0,05
3º Estadístico de Prueba
SSR(X1 , X2 , X3 , X 4 ) − SSR(X1 , X2 )
F= ℎ ~Fh;n−(p+h+1)
SSE X1, X 2 , X3 , X4 )
(
n − (p + h + 1)
F0,95 (2; 7) = 4,737
Rechazar H0 si Fcalc > 4,737

4º Resolviendo el estadístico tenemos:


ANOVA (X1, X2) ANOVA (X 1,X2,X3,X4)
Fuente Suma de Cuadrados Fuente Suma de Cuadrados
Regresión 160,34 Regresión 160,94
Error 11,05 Error 10,45
Total 171,39 Total 171,39

160,94 − 160,34
F= 2 = 0,201
10,45
12 − (2 − 2 − 1)

5º Para α = 0,05
Aceptar H0 => ρY;X3,X4/X1,X2 = 0
=> Las variables X3 y X4 NO deben permanecer en el modelo
g. Con α = 0,05 averiguar si ρ Y; X4/X1, X2, X3 = 0.

1º H0 : ρY; X4/X1, X2, X3 = 0


H1 : ρY; X4/X1, X2, X3 ≠ 0
2º α = 0,05
3º Estadístico de Prueba
SSR(X1 , X2 , X3 , X 4 ) − SSR(X1 , X2 , X3 )
F= ~F1;n−q−2
SSE(X1, X2 , X3 , X4 )
n−q−2
q : número de variables que se controlan
F0,95 (1; 7) = 5,591
Rechazar H0 si Fcalc > 5,591

4º Resolviendo el estadístico tenemos:


ANOVA (X1, X2, X3) ANOVA (X 1, X2, X3, X4)
Fuente Suma de Cuadrados Fuente Suma de Cuadrados
Regresión 160,54 Regresión 160,94
Error 10,85 Error 10,45
Total 171,39 Total 171,39

160,94 − 160,54
F= = 0,268
10,45
12 − 3 − 2
5º Para α = 0,05
Aceptar H0 => ρY; X4/X1, X2, X3 = 0

2. Dada la siguiente muestra:

N° X1 X2 X3 X4 X5 Y
1 170,00 170,00 106,00 106,00 240,57 4,75
2 140,00 130,00 92,00 93,00 195,40 4,07
3 180,00 170,00 93,00 78,00 152,99 4,04
4 160,00 160,00 103,00 93,00 197,09 4,18
5 170,00 150,00 104,00 93,00 266,56 4,35
6 150,00 150,00 101,00 87,00 260,56 4,16
7 170,00 180,00 108,00 106,00 219,25 4,43
8 110,00 110,00 86,00 92,00 132,68 3,20
9 120,00 110,00 90,00 86,00 130,24 3,02
10 130,00 120,00 85,00 80,00 205,58 3,64
11 120,00 140,00 89,00 83,00 153,92 3,68
12 140,00 130,00 92,00 94,00 154,64 3,60
13 160,00 150,00 95,00 95,00 240,57 3,85
Encontrar el mejor modelo de regresión lineal simple de primer orden. Utilizar α = 0,05
cuando sea necesario.
Inicialmente, obtenemos la MATRIZ DE CORRELACIÓN LINEAL SIMPLE.

Correlaciones
Y X1 X2 X3 X4 X5
Y Correlación de Pearson 1 ,832** ,862** ,845** ,533 ,756**
Sig. (bilateral) ,000 ,000 ,000 ,061 ,003
N 13 13 13 13 13 13
X1 Correlación de Pearson ,832** 1 ,896** ,775** ,357 ,607*
Sig. (bilateral) ,000 ,000 ,002 ,231 ,028
N 13 13 13 13 13 13
X2 Correlación de Pearson ,862** ,896** 1 ,814** ,423 ,524
Sig. (bilateral) ,000 ,000 ,001 ,150 ,066
N 13 13 13 13 13 13
X3 Correlación de Pearson ,845** ,775** ,814** 1 ,690** ,691**
Sig. (bilateral) ,000 ,002 ,001 ,009 ,009
N 13 13 13 13 13 13
X4 Correlación de Pearson ,533 ,357 ,423 ,690** 1 ,409
Sig. (bilateral) ,061 ,231 ,150 ,009 ,165
N 13 13 13 13 13 13
X5 Correlación de Pearson ,756** ,607* ,524 ,691** ,409 1
Sig. (bilateral) ,003 ,028 ,066 ,009 ,165
N 13 13 13 13 13 13

La variable mejor correlacionada con Y según la tabla es la variable X2, por lo tanto es la primera
variable que debería ingresar al modelo de regresión.
𝜇𝑌/𝑋1 = 𝛽0 + 𝛽2 𝑋2

a. Averiguamos si este modelo inicial tiene poder predictivo:


1º H0 : El modelo NO tiene poder predictivo
H1 : El modelo SI tiene poder predictivo

H0 : 𝛽2 = 0
H1 : 𝛽2 ≠ 0
2º α=0,05
3º Estadístico de Prueba
SSR
F = SSE ~ F1: n-2
n−2
F1, 11 = 4,844
Rechazar H0
Si Fcal > F0=4,844
4º ANOVA
Fuente de Suma de Grados de Cuadrado
Variación Cuadrados Libertad Medio Fcal
Regresión 2,132 1 2,132
Error 0,736 11 0,067 31,82
Total 2,868 12

5º Para α=0,05
Rechazar H0 => 𝛽2 ≠ 0
=> El modelo SI tiene poder predictivo

b. Averiguamos la siguiente variable a ingresar al modelo:


Obtenemos la MATRIZ DE CORRELACION LINEAL PARCIAL SIMPLE tomando como variable de
control a X2:

Correlaciones
Variables de control Y X1 X3 X4 X5
X2 Y Correlación 1,000 ,265 ,487 ,366 ,706
Significación (bilateral) . ,405 ,109 ,242 ,010
gl 0 10 10 10 10
X1 Correlación ,265 1,000 ,176 -,055 ,364
Significación (bilateral) ,405 . ,584 ,865 ,245
gl 10 0 10 10 10
X3 Correlación ,487 ,176 1,000 ,656 ,535
Significación (bilateral) ,109 ,584 . ,021 ,073
gl 10 10 0 10 10
X4 Correlación ,366 -,055 ,656 1,000 ,242
Significación (bilateral) ,242 ,865 ,021 . ,448
gl 10 10 10 0 10
X5 Correlación ,706 ,364 ,535 ,242 1,000
Significación (bilateral) ,010 ,245 ,073 ,448 .
gl 10 10 10 10 0

Estando la variable X2 en el modelo, la siguiente variable independiente mejor relacionada con


Y es X5, por tanto el nuevo modelo será:
𝜇𝑌/𝑋1 = 𝛽0 + 𝛽2 𝑋2 + 𝛽5 𝑋5
c. Averiguando si la variable X5 está en el modelo:
1º H0 : La adición de X5 a un modelo de regresión que ya incluye a X2, NO mejora la
predicción Y.
H1 : La adición de X5 a un modelo de regresión que ya incluye a X2, SI mejora la
predicción Y.

H0 : 𝛽5 = 0
H1 : 𝛽5 ≠ 0
2º α = 0,05
3º Estadístico de Prueba
SSR(X2 , X5 ) − SSR(X2 )
F= h ~Fh;n−(p+h+1)
SSE(X2 , X5 )
n − (p + h + 1)

F1, 10 = 4,965
Rechazar H0 si Fcalc > F0= 4,965

ANOVA (X2, X5) ANOVA (X2)
Fuente de Suma de Fuente de Suma de
Variación Cuadrados Variación Cuadrados
Regresión 2,498 Regresión 2,132
Error 0,369 Error 0,736
Total 2,868 Total 2,868

2,498 − 2,132
F𝑐𝑎𝑙𝑐 = 1 = 9,92
0,369
13 − (1 + 1 + 1)
5º Para α = 0,05
Rechazar H0 => 𝛽5 ≠ 0
=> La adición de X5 a un modelo de regresión que ya incluye a X2,
SI mejora la predicción Y.

d. Averiguamos la siguiente variable a ingresar al modelo:


Obtenemos la MATRIZ DE CORRELACION LINEAL PARCIAL SIMPLE tomando como variables de
control a X2 y X5:
Correlaciones
Variables de control Y X1 X3 X4
X2 & X5 Y Correlación 1,000 ,013 ,182 ,283
Significación (bilateral) . ,970 ,592 ,399
gl 0 9 9 9
X1 Correlación ,013 1,000 -,024 -,159
Significación (bilateral) ,970 . ,945 ,641
gl 9 0 9 9
X3 Correlación ,182 -,024 1,000 ,642
Significación (bilateral) ,592 ,945 . ,033
gl 9 9 0 9
X4 Correlación ,283 -,159 ,642 1,000
Significación (bilateral) ,399 ,641 ,033 .
gl 9 9 9 0

Estando las variables X2 y X5 en el modelo de regresión y observando la matriz de correlación


parcial vemos que no hay más variables mejor relacionadas con Y.
e. Averiguaremos si las variables X1, X3 y X4 deberían ingresar conjuntamente al modelo.

1º H0 : La adición de X1, X3 y X4 conjuntamente a un modelo de regresión que ya


incluye a X2 y X5, NO mejora la predicción Y.
H1 : La adición de X1, X3 y X4 conjuntamente a un modelo de regresión que ya
incluye a X2 y X5, SI mejora la predicción Y.

H0 : 𝛽1 = 𝛽3 = 𝛽4 = 0
H1 : 𝛽1 ≠ 0 y/o 𝛽3 ≠ 0 y/o 𝛽4 ≠ 0
2º α = 0,05
3º Estadístico de Prueba
SSR(X1 , X2 , X3 , X4 , X5 ) − SSR(X2 , X5 )
F= h ~Fh;n−(p+h+1)
SSE X1, X2 , X3 , X4 , X5 )
(
n − (p + h + 1)

F3, 7 = 4,347
Rechazar H0
si Fcalc > F0= 4,347

ANOVA (X1, X2, X3, X4, X5) ANOVA (X2, X5)
Fuente de Suma de Fuente de Suma de
Variación Cuadrados Variación Cuadrados
Regresión 2,529 Regresión 2,498
Error 0,338 Error 0,369
Total 2,868 Total 2,868

2,529 − 2,498
F𝑐𝑎𝑙𝑐 = 3 = 0,214
0,338
13 − (2 + 3 + 1)
5º Para α = 0,05
Aceptar H0 => 𝛽1 = 𝛽3 = 𝛽4 = 0
=> La adición de X1, X3 y X4 conjuntamente a un modelo de
regresión que ya incluye a X2 y X5, NO mejora la predicción Y

Por tanto, el mejor modelo de regresión lineal de primer grado, en este caso, es:
𝜇𝑌/𝑋1 = 𝛽0 + 𝛽2 𝑋2 + 𝛽5 𝑋5

Y su estimación es:
𝑌̂ = 1,109 + 0,014 𝑋2 + 0,004 𝑋4

3. Dada la siguiente muestra:

N° Y X1 X2 X3 Y^2
1 14,8 7,8 4,3 11,5 219,0
2 12,1 6,9 3,9 14,3 146,4
3 19,0 9,3 8,4 9,4 361,0
4 14,5 6,8 10,3 15,2 210,3
5 16,6 11,7 6,4 8,8 275,6
6 17,2 8,5 5,7 9,8 295,8
7 17,5 12,6 6,8 11,2 306,3
8 14,1 7,5 4,2 10,9 198,8
9 13,8 8,4 7,3 14,7 190,4
10 14,7 11,3 8,8 15,1 216,1
154,3 2419,7

a. Estimar ρ Y; X1, X2, X3.

1 7,8 4,3 11,5 10,0 90,8 66,1 120,9


1 6,9 3,9 14,3 A= 90,8 863,6 609,9 1082,4
1 9,3 8,4 9,4 66,1 609,9 478,4 815,1
1 6,8 10,3 15,2 120,9 1082,4 815,1 1518,0
1 11,7 6,4 8,8
X= 1 8,5 5,7 9,8 154,30 19,265
1 12,6 6,8 11,2 1422,93 0,142
1 7,5 4,2 10,9 G= 1032,38 B= 0,543
1 8,4 7,3 14,7 1831,39 -0,721
1 11,3 8,8 15,1
Y = 19,265 + 0,142*X1 + 0,543*X2 - 0,721*X3
𝑆𝑆𝑇 = 𝑆𝑦𝑦 = 38,84

(∑ 𝑦𝑖 )2 (154,30)2
𝑆𝑆𝑅 = ∑ 𝑏𝑗 ∗ 𝑔𝑗 − = 2415,28 − = 34,43
𝑛 10
𝑆𝑆𝐸 = 𝑆𝑆𝑇 − 𝑆𝑆𝑅 = 38,84 − 34,43 = 4,41

SSR 34,43
R𝑌;𝑋1,𝑋2,𝑋3 = √ =√ = 0,942
SST 38,84

b. Obtener la matriz de correlación lineal parcial simple, tomando como variable de control
X2.
Ry,x1 = 0,561 ; Ry,x2 = 0,310 ; Ry,x3 = −0,729 ; Rx1,x2 = 0,241

Rx2,x3 = 0,329
Ry,x1 − Ry,x2 ∗ Rx1,x2
Ry,x1/x2 =
√(1 − Ry,x2 2 ) ∗ (1 − Rx1,x2 2 )
0,561 − 0,310 ∗ 0,241
Ry,x1/x2 = = 0,528
√(1 − 0,3102 ) ∗ (1 − 0,2412 )
Ry,x3 − Ry,x2 ∗ Rx2,x3
Ry,x3/x2 =
√(1 − Ry,x2 2 ) ∗ (1 − Rx2,x3 2 )
−0,729 − 0,310 ∗ (0,329)
Ry,x3/x2 = = −0,926
√(1 − 0,3102 ) ∗ (1 − 0,3292 )

MATRIZ DE CORRELACION LINEAL PARCIAL SIMPLE CON VARIABLE DE CONTROL X2 según el


software SPSS:
Correlaciones
Variables de control Y X1 X3
X2 Y Correlación 1,000 ,528 -,926
Significación (bilateral) . ,144 ,000
gl 0 7 7
X1 Correlación ,528 1,000 -,444
Significación (bilateral) ,144 . ,231
gl 7 0 7
X3 Correlación -,926 -,444 1,000
Significación (bilateral) ,000 ,231 .
gl 7 7 0

c. Con α = 0,05 averiguar si ρ Y; X1, X2 = 0.

1º H0 : ρY: X1, X2 = 0
H1 : ρY; X1, X2 ≠ 0
2º α = 0,05
3º Estadístico de Prueba
𝑅𝑌;𝑋1,𝑋2 ∗ √𝑛 − 𝑘 − 1
T= ~t n−k−1
2
√1 − 𝑅𝑌;𝑋1,𝑋2
k : número de variables independientes
T0,025; 7 = 2,365
Rechazar H0 si |Tcalc|> 2,365

4º Resolviendo el estadístico tenemos:


ANOVAa
Suma de
Modelo cuadrados gl Media cuadrática F Sig.
1 Regresión 13,511 2 6,756 1,867 ,224b
Residuo 25,330 7 3,619
Total 38,841 9
a. Variable dependiente: Y
b. Predictores: (Constante), X2, X1

SSR 13,511
R𝑌;𝑋1,𝑋2 = √ =√ = 0,590
SST 38,841

0,590 ∗ √10 − 2 − 1
T= = 1,933
√1 − 0,5902
5º Para α = 0,05
Aceptar H0 => ρ Y: X1, X2 = 0
d. Con α = 0,05 averiguar si ρ Y; X1, X2, X3 = 0,7.

1º H0 : ρY;X1,X2,X3 = 0,70
H1 : ρY;X1,X2,X3 ≠ 0,70
2º α = 0,05
3º Estadístico de Prueba
√𝑛 − 3 (1 + Ry;x1,x2,x3 ) ∗ (1 − 𝜌0 )
Z= ∗ 𝐿𝑛 ( ) ~N(0,1)
2 (1 − Ry;x1,x2,x3 ) ∗ (1 + 𝜌0 )
Z0 (0,975)=1,96
Rechazar H0
Si |Zcalc|> Z0 = 1,96
4º Resolviendo el estadístico tenemos:
34,43
R𝑌;𝑋1,𝑋2,𝑋3 = √ = 0,942
38,84

√10 − 3 (1 + 0,942) ∗ (1 − 0,70)


Z𝑐𝑎𝑙𝑐 = ∗ 𝐿𝑛 ( ) = 2,350
2 (1 − 0,942) ∗ (1 + 0,70)
5º Para α = 0,05
Rechazar H0 => ρY;X1,X2,X3 ≠ 0,70

e. Obtener un intervalo de confiabilidad del 90% para ρ Y; X1, X2


13,511
R𝑌;𝑋1,𝑋2 = √ = 0,590
38,841

1 1 + RY;Ŷ z0 1 1+ρ 1 1 + RY;Ŷ z0


P [ ∗ Ln ( )− < ∗ Ln ( ) < ∗ Ln ( )+ ]= 1−𝛼
2 1 − RY;Ŷ √n − 3 2 1−ρ 2 1 − RY;Ŷ √n − 3
1 1 + L. I. 1 1+ρ 1 1 + L. S.
P[ ∗ Ln ( ) < ∗ Ln ( ) < ∗ Ln ( )] = 1 − 𝛼
2 1 − L. I. 2 1−ρ 2 1 − L. S.
1 1 + RY;Ŷ 1 1 + 0,590
∗ Ln ( ) = ∗ Ln ( ) = 0,678
2 1 − RY;Ŷ 2 1 − 0,590
z0 1,645
= = 0,622
√n − 3 √10 − 3
Z0 (0,95) = 1,645
1 1+ρ
P [ 0,678 − 0,622 < ∗ Ln ( ) < 0,678 + 0,622] = 0,90
2 1−ρ
1 1+ρ
P [ 0,056 < ∗ Ln ( ) < 1,30] = 0,90
2 1−ρ
1 1 + L. I. 𝑒 2∗0,056 − 1
∗ Ln ( ) = 0,056 => L. I. = = 0,056
2 1 − L. I. 1 + 𝑒 2∗0,056
1 1 + L. S. 𝑒 2∗1,30 − 1
∗ Ln ( ) = 1,30 => L. S. = = 0,862
2 1 − L. S. 1 + 𝑒 2∗1,30
P[ 0,056 < ρ𝑌;𝑋1,𝑋2 < 0,862] = 0,90

4. Dada la siguiente información:

N° Y X1 X2 X3 Y^2
1 15,8 8,8 5,3 12,5 249,6
2 13,1 7,9 4,9 15,3 171,6
3 20,0 10,3 9,4 10,4 400,0
4 15,5 7,8 11,3 16,2 240,3
5 17,6 12,7 7,4 9,8 309,8
6 18,2 9,5 6,7 10,8 331,2
7 18,5 13,6 7,8 12 342,3
8 15,1 8,5 5,2 11,9 228,0
9 14,8 9,4 8,3 15,7 219,0
10 15,7 12,3 9,8 16,1 246,5
164,3 2738,3
Dada las siguientes ANOVAS:

Variable X1 X1, X2 X1, X2, X3


SSR 12,246 13,511 34,66345
SSE 26,59545 25,330 4,178
SST 38,841 38,841 38,841

a) Averiguar cuál de los siguientes es el mejor modelo de regresión para predecir Y.


Modelo 1. 𝝁𝒀/𝑿𝟏 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏

Resultados según del software SPSS Statistics:

ANOVAa
Suma de
Modelo cuadrados gl Media cuadrática F Sig.
1 Regresión 12,246 1 12,246 3,684 ,091b
Residuo 26,595 8 3,324
Total 38,841 9
a. Variable dependiente: Y
b. Predictores: (Constante), X1

SSR 12,246
R𝑌;𝑋1 = √ =√ = 0,562 => 56,2%
SST 38,841

El modelo 1 explica el 56,2% de la variación total de la variable dependiente Y.


Modelo 2. 𝝁𝒀/𝑿𝟏,𝑿𝟐 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝜷𝟐 𝑿𝟐

Resultados según el software SPSS Statistics:

ANOVAa
Suma de
Modelo cuadrados gl Media cuadrática F Sig.
1 Regresión 13,511 2 6,756 1,867 ,224b
Residuo 25,330 7 3,619
Total 38,841 9
a. Variable dependiente: Y
b. Predictores: (Constante), X2, X1

SSR 13,511
R𝑌;𝑋1,𝑋2 = √ =√ = 0,590 => 59%
SST 38,841

El modelo 2 explica el 59% de la variación total de la variable dependiente Y.


Modelo 3. 𝝁𝒀/𝑿𝟏,𝑿𝟐,𝑿𝟑 = 𝜷𝟎 + 𝜷𝟏 𝑿𝟏 + 𝜷𝟐 𝑿𝟐 + 𝜷𝟑 𝑿𝟑

Resultados según el software SPSS Statistics:

ANOVAa
Suma de
Modelo cuadrados gl Media cuadrática F Sig.
1 Regresión 34,663 3 11,554 16,595 ,003b
Residuo 4,178 6 ,696
Total 38,841 9
a. Variable dependiente: Y
b. Predictores: (Constante), X3, X2, X1

SSR 34,663
R𝑌;𝑋1,𝑋2,𝑋3 = √ =√ = 0,945 => 94,5%
SST 38,841

El modelo 3 explica el 94,5% de la variación total de la variable dependiente Y.


Por lo tanto el mejor modelo para predecir Y es el modelo 3 según su valor alto para el
coeficiente de correlación, teniendo así el mayor porcentaje de variación.
b) Con α = 0,01 averigua si ρ Y; X1, X2 = 0.

1º H0 : ρY;X1,X2 = 0
H1 : ρY;X1,X2 ≠ 0
2º α = 0,01
3º Estadístico de Prueba
Ry;ŷ ∗√n−k−1
T= ~t 𝑛−𝑘−1=7 = 0,005
√1−Ry;ŷ 2

Rechazar H0 = 3,50
si |Tcalc|> T0=3,50
4º Resolviendo el estadístico tenemos:
R 𝑌;𝑋1,𝑋2 = 0,59

0,59 ∗ √10 − 2 − 1
T𝑐𝑎𝑙𝑐 = = 1,93
√1 − 0,592
5º Para α = 0,01
Aceptar H0 => ρ Y; X1, X2 = 0

c) Con α = 0,05 averigua si ρ Y; X3/X1, x2 = 0.

1º H0 : ρY; X3/X1, X2 = 0
H1 : ρY; X3/X1, X2 ≠ 0
2º α = 0,05
3º Estadístico de Prueba
SSR(X1 , X2 , X 3 ) − SSR(X1 , X2 )
F= ~F1;n−q−2
SSE(X1 , X2 , X3 )
n−q−2
q : número de variables que se controlan
F0,95 (1; 6) = 5,987
Rechazar H0 si Fcalc > 5,987

4º Resolviendo el estadístico tenemos:


ANOVA (X1, X2, X3) ANOVA (X 1, X2)
Fuente Suma de Cuadrados Fuente Suma de Cuadrados
Regresión 34,66345 Regresión 13,511
Error 4,178 Error 25,330
Total 38,841 Total 38,841
34,66345 − 13,511
F= = 30,38
4,178
10 − 2 − 2
5º Para α = 0,05
Rechazar H0 => ρY; X3/X1, X2 ≠ 0

d) Obtener un intervalo de confiabilidad del 90% para ρ Y; X3/X1, X2.

Correlaciones
Variables de control Y X3
X1 & X2 Y Correlación 1,000 -,914
Significación (bilateral) . ,001
gl 0 6
X3 Correlación -,914 1,000
Significación (bilateral) ,001 .
gl 6 0
Ry,x3/x1,x2 = −0,914
1 1 + RY;Ŷ z0 1 1+ρ 1 1 + RY;Ŷ z0
P [ ∗ Ln ( )− < ∗ Ln ( ) < ∗ Ln ( )+ ]= 1−𝛼
2 1 − RY;Ŷ √n − 3 2 1−ρ 2 1 − RY;Ŷ √n − 3
1 1 + L. I. 1 1+ρ 1 1 + L. S.
P[ ∗ Ln ( ) < ∗ Ln ( ) < ∗ Ln ( )] = 1 − 𝛼
2 1 − L. I. 2 1−ρ 2 1 − L. S.
1 1 + RY;Ŷ 1 1 + (−0,914)
∗ Ln ( ) = ∗ Ln ( ) = −1,551
2 1 − RY;Ŷ 2 1 − (−0,914)
z0 1,645
= = 0,622
√n − 3 √10 − 3
Z0 (0,95) = 1,645
1 1+ρ
P [−1,551 − 0,622 < ∗ Ln ( ) < −1,551 + 0,622] = 0,90
2 1−ρ
1 1+ρ
P [−2,173 < ∗ Ln ( ) < −0,929] = 0,90
2 1−ρ

1 1 + L. I. 𝑒 2∗(−2,173) − 1
∗ Ln ( ) = −2,173 => L. I. = = −0,974
2 1 − L. I. 1 + 𝑒 2∗(−2,173)
1 1 + L. S. 𝑒 2∗(−0,929) − 1
∗ Ln ( ) = −0,929 => L. S. = = −0,730
2 1 − L. S. 1 + 𝑒 2∗(−0,929)
P[−0,974 < ρ𝑌;𝑋3/𝑋1,𝑋2 < −0,730] = 0,90

También podría gustarte