Está en la página 1de 20

PASO A PASO 01

CORRELACIÓN

1. TENER LA BASE DE DATOS LISTO EN SPSS

2. DETERMINAR SI LOS DATOS X, Y LOS DOS SIGUEN DISTRIBUCIÓN NORMAL

En gráficos
Continuar y aceptar

Pruebas de normalidad
Kolmogorov-Smirnova Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
*
Tiempo de estudio .155 20 .200 .908 20 .058
Calificaión .171 20 .128 .961 20 .555
*. Esto es un límite inferior de la significación verdadera.
a. Corrección de significación de Lilliefors

Como tenemos 20 datos la prueba de normalidad apropiada es la de Shapiro – Wilk. Los


valores sig de la variable tiempo de estudio y calificación son mayores a 0.05, por tanto,
afirmamos que los datos de ambas variables siguen distribución normal.

3. ESTABLECER EL GRÁFICO DE DISPERSIÓN DE PUNTOS


Definir
Aceptar

Se aprecia que el gráfico de dispersión de puntos tiene tendencia a una línea recta.

4. DETERMINAR LA CORRELACIÓN DE PEARSON


Aceptar

Correlaciones
Tiempo de
estudio Calificaión
Tiempo de estudio Correlación de Pearson 1 .888**
Sig. (bilateral) .000
N 20 20
**
Calificaión Correlación de Pearson .888 1
Sig. (bilateral) .000
N 20 20
**. La correlación es significativa en el nivel 0,01 (bilateral).

El sig. (bilateral) es menor a 0.05, indica, que existe evidencia suficiente para probar la
aseveración de que existe relación entre el tiempo de estudio y la calificación, además, el
coeficiente de correlación es de 0.888, significa que existe una correlación altamente
significativa y directa.

REGRESIÓN

1. DETERMINAR LOS DATOS EN SPSS


En estadísticos

Continuar
En gráficos
Continuar

En guardar
Continuar
Aceptar

2. ANALIZAR LOS SUPUESTOS


2.1. LINEALIDAD
Como se observa la nube de puntos que se configura no debe mostrar un patrón observable.
Sino, que los puntos deben aparecer distribuidos aleatoriamente a lo largo del espacio del
gráfico en torno al valor cero de los residuos. Por tanto, cumple el criterio de linealidad.
2.2. INDEPENDENCIA

Resumen del modelob


Estadísticos de cambio
R Error Sig.
Model R cuadrado estándar de Cambio en Cambio Cambio Durbin-
o R cuadrado ajustado la estimación R cuadrado en F gl1 gl2 en F Watson
a
1 .888 .789 .777 1.322 .789 67.285 1 18 .000 1.624
a. Predictores: (Constante), Tiempo de estudio
b. Variable dependiente: Calificaión

El estadístico Durbin – Watson nos permite verificar el criterio de independencia. Si el


valor del estadístico está comprendido en el intervalo entre 1.5 y 2.5, cumple el criterio de
independencia. El valor del estadístico es 1.624, valor que está comprendido en el intervalo,
por tanto, cumple el criterio de independencia.

2.3. NORMALIDAD
Los gráficos de normalidad
En gráficos

Continuar
Aceptar

Pruebas de normalidad
Kolmogorov-Smirnova Shapiro-Wilk
Estadístico gl Sig. Estadístico gl Sig.
Unstandardized Residual .120 20 .200* .973 20 .816
*. Esto es un límite inferior de la significación verdadera.
a. Corrección de significación de Lilliefors

Como el número de datos es 20, el estadístico apropiado es el de Shapiro Wilk. El sig es


mayor que 0.05, por tanto, se afirma que sigue distribución normal. Cumple el criterio de
normalidad.

2.4. HOMOCEDASTICIDAD
El gráfico de dispersión no presenta forma de embudo, además los datos están
comprendidos entre -2 y 2. Por tanto, cumple el criterio de homocedasticidad.
Además:
Se puede comprobar también, determinando la relación entre PRE_1 y ARES1

Correlaciones
Unstandardized
Predicted Value ARES1
Unstandardized Predicted Correlación de Pearson 1 -.096
Value Sig. (bilateral) .687
N 20 20
ARES1 Correlación de Pearson -.096 1
Sig. (bilateral) .687
N 20 20

Se evidencia que el coeficiente de correlación es -0.096, indica que no existe correlación.


Por tanto, cumple el criterio de homocedasticidad
3. EL MODELO DE REGRESIÓN

ANOVAa
Suma de
Modelo cuadrados gl Media cuadrática F Sig.
1 Regresión 117.552 1 117.552 67.285 .000b
Residuo 31.448 18 1.747
Total 149.000 19
a. Variable dependiente: Calificaión
b. Predictores: (Constante), Tiempo de estudio

Si el p (sig) < 0.05, por tanto, el modelo es adecuado para realizar pronóstico.

Coeficientesa
Coeficientes no Coeficientes Estadísticas de
estandarizados estandarizados Correlaciones colinealidad
Desv. Orden
Modelo B Error Beta t Sig. cero Parcial Parte Tolerancia VIF
1 (Constante) 7.045 .956 7.372 .000
Tiempo de 1.434 .175 .888 8.203 .000 .888 .888 .888 1.000 1.000
estudio
a. Variable dependiente: Calificaión

El modelo toma la forma de:

^y =β 0 + β 1 x

^y =7.045+1.434 x

4. Estimación de σ 2

La estimación de la varianza, sirve para determinar el intervalo de confianza para β 0 y β 1

Por tanto:

SSRes
σ^ 2=
n−2
SSRes
σ^ 2= =MSRes
n−2
ANOVAa
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 117.552 1 117.552 67.285 .000b
Residuo 31.448 18 1.747
Total 149.000 19
a. Variable dependiente: Calificaión
b. Predictores: (Constante), Tiempo de estudio

SSRes
σ^ 2= =MSRes=1.747
n−2

5. INFERENCIA SOBRE β 1
5.1. INTERVALO DE CONFIANZA
Un intervalo de confianza de nivel 0.95=1−α para β 1 será:
^β 1 ± t α . se ^β
n−2;1− 1
2
^β 1=1.434

Coeficientesa
Coeficientes no Coeficientes Estadísticas de
estandarizados estandarizados Correlaciones colinealidad
Desv. Orden
Modelo B Error Beta t Sig. cero Parcial Parte Tolerancia VIF
1 (Constante) 7.045 .956 7.372 .000
Tiempo de 1.434 .175 .888 8.203 .000 .888 .888 .888 1.000 1.000
estudio
a. Variable dependiente: Calificaión
se ^β =0.17 5
1

Otra forma de calcular es:


SSRes / ( n−2 )
se ^β =
1

√ n

∑ ( x i− x́ )2
i=1

Estadísticos descriptivos
Desv.
N Mínimo Máximo Media Desviación
Tiempo de estudio 20 3 8 5.20 1.735
N válido (por lista) 20

√ ∑ ( xi − x́ ) 2
i=1

Despejando:
n
n−1
=1.735

∑ ( xi −x́ ) 2=( 1.735 )2 ( 19 ) =57.194


i=1

Por tanto:
31.448/18
se ^β =

57.194
1
=0.17477688=0.175

Luego calculamos:
t α
n−2; 1−
2

Para n−2=18 grados libertad y α =0.05 , en tablas tenemos:


t α =2.101
n−2; 1−
2

Por tanto, el intervalo de confianza será:


^β 1 ± t α . se ^β
n−2;1− 1
2
1.434 ± ( 2.101 )( 0.175 )
1.434 ± 0.368
[ 1.066 ; 1.802 ]

Luego planteamos las siguientes hipótesis:


H 0 : β1 =b
H1: β1 ≠ b

H 0 : β1 =0 (No hay asociación lineal)


H 1 : β 1 ≠ 0 (Si hay asociación lineal)
Si β 1=0, las y i no dependen de las x i, es decir no hay asociación lineal entre x e y.
En cambio, la hipótesis alternativa indica que si hay un vínculo lineal entre ambas
variables.
¿Cero está contenido en el intervalo? …… No, entonces rechazar Ho
Si b ∉ [ Li ; Ls ] ⇒ rechazar Ho
Por tanto:
Existe evidencia suficiente para probar la aseveración de que existe un vínculo
lineal entre las variables x e y.

5.2. TEST DEL NIVEL DE 0.05


H 0 : β1 =0 (No hay asociación lineal)
H 1 : β 1 ≠ 0 (Si hay asociación lineal)
Coeficientesa
Coeficientes no Coeficientes Estadísticas de
estandarizados estandarizados Correlaciones colinealidad
Desv. Orden
Modelo B Error Beta t Sig. cero Parcial Parte Tolerancia VIF
1 (Constante) 7.045 .956 7.372 .000
Tiempo de 1.434 .175 .888 8.203 .000 .888 .888 .888 1.000 1.000
estudio
a. Variable dependiente: Calificaión

Como el sig=0.000<0.05 entonces rechazar Ho.

Existe evidencia suficiente para probar la aseveración de que existe un vínculo


lineal entre las variables x e y.

Otra forma:
H 0 : β1 =0 (No hay asociación lineal)
H 1 : β 1 ≠ 0 (Si hay asociación lineal)
Para n−2=18 grados libertad y α =0.05 la t t=2.101
Luego la t c =8.203
Como la t c > t t entonces, rechazar la Ho.
Existe evidencia suficiente para probar la aseveración de que existe un vínculo
lineal entre las variables x e y.

5.3. TEST F (otro test para Ho: β 1=0


H 0 : β1 =0 (No hay asociación lineal)
H 1 : β 1 ≠ 0 (Si hay asociación lineal)

ANOVAa
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 117.552 1 117.552 67.285 .000b
Residuo 31.448 18 1.747
Total 149.000 19
a. Variable dependiente: Calificaión
b. Predictores: (Constante), Tiempo de estudio

SSReg .(n−2)
F=
SSRes
(117.552)(20−2)
F= =67.285
31.448

Si F> 1⇒ rechazar Ho
Si el sig=0.000<0.05 ⇒ rechazar Ho

Existe evidencia suficiente para probar la aseveración de que existe un vínculo


lineal entre las variables x e y (existe relación).

6. INFERENCIA SOBRE β 0
H 0 : β 0=0 (La ordenada al origen poblacional es nula)
H 1 : β 0 ≠ 0 (La ordenada al origen poblacional no es nula)
Coeficientesa
Coeficientes no Coeficientes Estadísticas de
estandarizados estandarizados Correlaciones colinealidad
Desv. Orden
Modelo B Error Beta t Sig. cero Parcial Parte Tolerancia VIF
1 (Constante) 7.045 .956 7.372 .000
Tiempo de 1.434 .175 .888 8.203 .000 .888 .888 .888 1.000 1.000
estudio
a. Variable dependiente: Calificaión
Si el sig< 0.05⇒ rechazar Ho
0.000< 0.05⇒ rechazar Ho

Existe evidencia suficiente para probar la aseveración de que la ordenada al origen


poblacional no es nula.

7. COEFICIENTE DE DETERMINACIÓN R2

Resumen del modelob


Estadísticos de cambio
R Error Sig.
Model R cuadrado estándar de Cambio en Cambio Cambio Durbin-
o R cuadrado ajustado la estimación R cuadrado en F gl1 gl2 en F Watson
a
1 .888 .789 .777 1.322 .789 67.285 1 18 .000 1.624
a. Predictores: (Constante), Tiempo de estudio
b. Variable dependiente: Calificaión

R2 se puede calcular de la siguiente manera:


ANOVAa
Suma de Media
Modelo cuadrados gl cuadrática F Sig.
1 Regresión 117.552 1 117.552 67.285 .000b
Residuo 31.448 18 1.747
Total 149.000 19
a. Variable dependiente: Calificaión
b. Predictores: (Constante), Tiempo de estudio
SSReg 117.552
R 2= = =0.7889395973
SSTo 149
R2=0.78 89
Este valor implica una relación lineal alta entre el tiempo de estudio y la
calificación. En particular el 78.89% de variabilidad observada en los valores de la
calificación queda explicada por la relación lineal entre la calificación y el tiempo
de estudio. El restante 21.11% de la variabilidad no queda explicada por esta
relación.
8. XXXXXXXXXXXXXXXXX

También podría gustarte