Está en la página 1de 14

Análisis de regresión simple.

Bryan Ocaña

21/11/2021

Ejercicios

11.2 Las siguientes son las calificaciones de un grupo de 9 estudiantes en un


informe de medio semestre (x) y en el examen final (y):

x <- c(77,50,71,72,81,94,96,99,67)
y <- c(82,66,78,34,47,85,99,99,68)

a) Estime la recta de regresión lineal.


Estimamos la recta y realizamos un grafico de dispersión para ver el comportamiento de los datos

plot(x,y,xlab = "Informe medio semestre", ylab = "Examen final",main = "Diagrama de Dispersión",col=rain

Diagrama de Dispersión
90 100
80
Examen final

70
60
50
40

50 60 70 80 90 100

Informe medio semestre

1
r_reg <- lm(y ~ x)
r_reg

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept) x
12.0623 0.7771

summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max
-34.017 -0.114 10.001 10.761 15.081

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 12.0623 34.6612 0.348 0.738
x 0.7771 0.4334 1.793 0.116

Residual standard error: 19.47 on 7 degrees of freedom


Multiple R-squared: 0.3147, Adjusted R-squared: 0.2168
F-statistic: 3.215 on 1 and 7 DF, p-value: 0.1161

Recta = 12.06 + 0.78 x

R2 = 0.3147
Esto nos quiere decir que solo el 31 % de la variabilidad de nuestros datos esta explicado por este modelo de
regresión
Supuestos de hipotesis
H0 : El intercepto es representativo
H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.05
p − value = 0.74 > α

No se rechaza H0 por lo tanto el intercepto no es representativo para el modelo.


Ahora comprobamos para la pendiente
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

2
H0 = 0
H1 ̸= 0

α = 0.05
p − value = 0.12 > α

No se rechaza H0 = 0 por lo tanto la pendiente no es representativa para el modelo.


b) Calcule la calificación final de un estudiante que obtuvo 85 de calificación en el informe de
medio semestre.
Calculamos la calificación de un estudiante

calificación <- 12.06+0.77*85 ; calificación

[1] 77.51

11.4 Para fines de calibración se recabaron los siguientes datos, los cuales per-
mitirían determinar la relación entre la presión y la lectura correspondiente en
la escala.

x<-c(10,10,10,10,10,50,50,50,50,50) # Presión (lb/pulg2)


y<-c(13,18,16,15,20,86,90,88,88,92) # Lectura en la escala

a) Calcule la ecuación de la recta de regresión.


Estimamos la recta y realizamos un gráfico de dispersión para ver el comportamiento de los datos

plot(x,y,xlab = "Presión", ylab = "Lectura en la escala",main = "Diagrama de Dispersión",col= rainbow(7)

3
Diagrama de Dispersión
80
Lectura en la escala

60
40
20

10 20 30 40 50

Presión

r_reg <- lm(y ~ x)


r_reg

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept) x
-1.70 1.81

summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max
-3.40 -1.25 -0.60 1.50 3.60

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.70000 1.42522 -1.193 0.267
x 1.81000 0.03953 45.790 5.72e-11 ***
---

4
Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 2.5 on 8 degrees of freedom


Multiple R-squared: 0.9962, Adjusted R-squared: 0.9957
F-statistic: 2097 on 1 and 8 DF, p-value: 5.716e-11

###Recta = -1.70 + 1.81 x

R2 = 0.9962

Esto nos quiere decir que el 99 % de la variabilidad de nuestros datos estan explicados por este modelo de
regresión, es decir que es excelente para predecir
Supuestos de hipotesis
Supuestos de hipotesis
H0 : El intercepto es representativo
H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.01
p − value = 0.27 > α

No se rechaza H0 = 0 por lo tanto el intercepto no es representativo para el modelo.


Ahora comprobamos para la pendiente
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

H0 = 0
H1 ̸= 0

α = 0.01
p − value = 0.12 < α

Se rechaza H0 por lo tanto la pendiente es representativa ya que es muy importante para el modelo.
b) En esta aplicación el propósito de la calibración es estimar la presión a partir de una lectura
observada en la escala. Estime la presión para una lectura en la escala de 54, usando x = (54
– b0)/b1

Presion <- (54 - (-1.70))/1.81 ; Presion

[1] 30.77348

5
11.6 En cierto tipo de espécimen de prueba metálico se sabe que la tensión
normal sobre un espécimen se relaciona funcionalmente con la resistencia al
corte. El siguiente es un conjunto de datos experimentales codificados para las
dos variables:

x <- c(26.8,25.4,28.9,23.6,27.7,23.9,24.7,28.1,26.9,27.4,22.6,25.6)#Tensión normal


y <- c(26.5,27.3,24.2,27.1,23.6,25.9,26.3,22.5,21.7,21.4,25.8,24.9)#Resistencia al corte

a) Calcule la ecuación de la recta de regresión.


Estimamos la recta y realizamos un grafico de dispersión para ver el comportamiento de los datos

plot(x,y,xlab = "Tensión normal", ylab = "Resistencia al corte",main = "Diagrama de Dispersión",col= rai

Diagrama de Dispersión
27
26
Resistencia al corte

25
24
23
22

23 24 25 26 27 28 29

Tensión normal

r_Reg <- lm(y ~ x)


r_reg

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept) x
-1.70 1.81

6
summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max
-3.40 -1.25 -0.60 1.50 3.60

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) -1.70000 1.42522 -1.193 0.267
x 1.81000 0.03953 45.790 5.72e-11 ***
---
Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 2.5 on 8 degrees of freedom


Multiple R-squared: 0.9962, Adjusted R-squared: 0.9957
F-statistic: 2097 on 1 and 8 DF, p-value: 5.716e-11

Recta = 42.58 - 0.69 x

R2 = 0.43

Esto nos quiere decir que el 43 % de la variabilidad de nuestros datos esta explicado por este modelo de
regresión, dicho de otro modo este modelo de regresión es regular para la predicción de nuestros datos
Supuestos de hipotesis
H0 : El intercepto es representativo H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.05
p − value = 6.52e − 05 < α

Se rechaza H0 por lo tanto el intercepto es representativo para el modelo de regresión.


Ahora comprobamos para la pendiente
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

H0 = 0
H1 ̸= 0

α = 0.001
p − value = 0.02 > α

No se rechaza H0 por lo tanto la pendiente no es representativa para este modelo de regresión.


b) Estime la resistencia al corte para una tensión normal de 24.5.

7
resistencia <- 42.58 - 0.69*(24.5) ; resistencia

[1] 25.675

11.8 Se aplica un examen de colocación de matemáticas a todos los estudiantes


de nuevo ingreso en una universidad pequeña. Se negará la inscripción al curso
regular de matemáticas a los estudiantes que obtengan menos de 35 puntos y se
les enviará a clases de regularización. Se registraron los resultados del examen
de colocación y las calificaciones finales de 20 estudiantes que tomaron el curso
regular:

x <- c(50,35,35,40,55,65,35,60,90,35,90,80,60,60,60,40,55,50,65,50) # Examen de colocación


y <- c(53,41,61,56,68,36,11,70,79,59,54,91,48,71,71,47,53,68,57,79) # Calificación en el curso

a) Elabore un diagrama de dispersión.

plot(x,y,xlab = "Examen de colocación", ylab = "Calificación en el curso",main = "Diagrama de Dispersión

Diagrama de Dispersión
80
Calificación en el curso

60
40
20

40 50 60 70 80 90

Examen de colocación

Al realizar el diagrama de dispersión nos podemos dar cuenta que existe una variabilidad considerable entre
estas dos variables.
b) Calcule la ecuación de la recta de regresión para predecir las calificaciones en el curso a
partir de las del examen de colocación.

8
r_reg <- lm(y ~ x)
r_reg

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept) x
32.5059 0.4711

summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max
-37.993 -6.592 4.375 10.230 22.941

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 32.5059 12.6386 2.572 0.0192 *
x 0.4711 0.2182 2.159 0.0446 *
---
Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 16.17 on 18 degrees of freedom


Multiple R-squared: 0.2057, Adjusted R-squared: 0.1615
F-statistic: 4.661 on 1 and 18 DF, p-value: 0.04461

Recta = 32.51 + 0.47 x

R2 = 0.21

Esto nos quiere decir que el 21 % de la variabilidad de nuestros datos esta explicado por este modelo de
regresión, dicho de otro modo este modelo de regresión es malo para realizar predicciones de nuestros datos
Supuestos de hipotesis
H0 : El intercepto es representativo H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.001
p − value = 0.02 > α

No se rechaza H0 por lo tanto el intercepto no es representativo para este modelo de regresión.


Ahora comprobamos para la pendiente

9
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

H0 = 0
H1 ̸= 0

α = 0.001
p − value = 5.72e − 11 < α

Se rechaza H0 por lo tanto la pendiente es representativa para este modelo de regresión.


c) Grafique la recta en el diagrama de dispersión.

plot(x,y,xlab = "Examen de colocación", ylab = "Calificación en el curso",main = "Diagrama de Dispersión


abline(lm(y ~ x), col = "orange", lwd = 3) # Ajsute lineal

Diagrama de Dispersión
80
Calificación en el curso

60
40
20

40 50 60 70 80 90

Examen de colocación

d) Si la calificación aprobatoria mínima fuera 60 puntos, ¿qué calificación en el examen de


colocación se debería usar en el futuro como criterio para negar a los estudiantes el derecho
de admisión a ese curso?

Calificacion_A <- 32.51 + 0.471*(58.4);Calificacion_A

[1] 60.0164

Si la calificación máxima seria de 60, para aprobar deberían sacar una nota de 58 como mínimo para aprobar
pero se debe tener en cuenta si se redondea al inmediato superior caso contrario la nota mínima sería de
58.40 para aprobar el exámen.

10
11.12 Se realizó un estudio para analizar el efecto de la temperatura ambiente
x sobre la energía eléctrica consumida por una planta química y. Otros fac-
tores se mantuvieron constantes y se recabaron los datos de una planta piloto
experimental.

y<- c(280,295,320,295,265,298,267,321)
x<- c(27,45,72,58,31,60,34,74)

a) Gráfique los datos.

plot(x,y,xlab = "Efecto de la Temperatura", ylab = "Energía Consumida",main = "Diagrama de Dispersión 1"

Diagrama de Dispersión 1
270 280 290 300 310 320
Energía Consumida

30 40 50 60 70

Efecto de la Temperatura

En esta grafica se puede observar que existe una relación fuerte entre ambas variables es dir si la una aumenta
la otra también
b) Estime la pendiente y la intersección en un modelo de regresión lineal simple.

r_reg <- lm(y ~ x)


r_reg

Call:
lm(formula = y ~ x)

Coefficients:

11
(Intercept) x
238.848 1.073

summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max
-8.325 -6.332 -1.230 4.898 12.185

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 238.8477 9.0364 26.432 1.94e-07 ***
x 1.0729 0.1704 6.296 0.000748 ***
---
Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 8.34 on 6 degrees of freedom


Multiple R-squared: 0.8685, Adjusted R-squared: 0.8466
F-statistic: 39.64 on 1 and 6 DF, p-value: 0.0007483

Pendiente = 0.000748

Intersección = 1.94e-07

Recta = 238.85 +1.07 x

R2 = 0.87

Esto nos quiere decir que el 87 % de la variabilidad de nuestros datos esta explicado por este modelo de
regresión, dicho de otro modo este modelo de regresión es excelente para realizar predicciones de nuestros
datos
Supuestos de hipotesis
H0 : El intercepto es representativo H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.05
p − value = 1.94e − 07 < α

Se rechaza H0 por lo tanto el intercepto es representativo o importante para este modelo de regresión.
Ahora comprobamos para la pendiente
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

H0 = 0

12
H1 ̸= 0

α = 0.05
p − value = 0.000748 < α

Se rechaza H0 por lo tanto la pendiente es representativa o importante para este modelo de regresión.
c) Pronostique el consumo de energía para una temperatura ambiente de 65°F.

Consumo <- 238.85 + 1.07*(65); Consumo

[1] 308.4

El consumo para 65°F es de 308.4 J.

11.14 Un profesor de la Escuela de Negocios de una universidad encuestó a una


docena de colegas acerca del número de reuniones profesionales a que acudieron
en los últimos cinco años (x) y el número de trabajos que enviaron a revistas
especializadas (y) durante el mismo periodo. A continuación se presenta el
resumen de los datos:

n <- 12
mx<- 4
my<- 12
x<- c(4,4,9,9,3,25,36,49,64,25,4);
y <- c(15,27,21,15,45,22,28,32,12,53,48);

Ajuste un modelo de regresión lineal simple entre x y y calculando los estimados de la intersec-
ción y la pendiente. Comente si la asistencia a más reuniones profesionales da como resultado
más publicaciones de artículos.

r_reg <- lm(y ~ x)


r_reg

Call:
lm(formula = y ~ x)

Coefficients:
(Intercept) x
32.1382 -0.1531

summary(r_reg)

Call:
lm(formula = y ~ x)

Residuals:
Min 1Q Median 3Q Max

13
-16.526 -10.050 -4.526 10.342 24.689

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 32.1382 6.3761 5.040 0.000699 ***
x -0.1531 0.2197 -0.697 0.503537
---
Signif. codes: 0 ’***’ 0.001 ’**’ 0.01 ’*’ 0.05 ’.’ 0.1 ’ ’ 1

Residual standard error: 14.52 on 9 degrees of freedom


Multiple R-squared: 0.05118, Adjusted R-squared: -0.05424
F-statistic: 0.4855 on 1 and 9 DF, p-value: 0.5035

Pendiente = 0.503537

Intersección = 0.000699

Recta = 32.14 - 0.157 x

R2 = 0.05

Esto nos quiere decir que solo el 5 % de la variabilidad de nuestros datos esta explicado por este modelo de
regresión, dicho de otro modo este modelo de regresión es malo para realizar predicciones de nuestros datos
Supuestos de hipotesis
H0 : El intercepto es representativo H1 ̸= 0 El intercepto no es representativo

H0 = 0
H1 ̸= 0

α = 0.001
p − value = 0.000699 < α

Se rechaza H0 por lo tanto el intercepto es representativo o importante para este modelo de regresión.
Ahora comprobamos para la pendiente
H0 : La pendiente es representativa H1 ̸= 0 La pendiente no es representativa

H0 = 0
H1 ̸= 0

α = 0.05
p − value = 0.503537 < α

Se rechaza H0 por lo tanto la pendiente es representativa o importante para este modelo de regresión.

14

También podría gustarte