Está en la página 1de 10

Estadística III

Manuela Restrepo Piedrahita

Universidad Tecnológica de Pereira

Pereira

2022
Ejercicio 1:

##MATRICES

x1 <- c(1,1,1,1,1,1,1,1,1,1) ##Alt- para sacar la flecha


x1
x<-c(27,45,41,19,35,39,19,49,15,31) ##Eficiencia de extraccion
x
y<-c(57,64,80,46,62,72,52,77,57,68) ##Tiempo de extraccion
y
reg_ejercicio_1 <- cbind(x1,x,y)
reg_ejercicio_1
reg_ejercicio_1 <- data.frame(colum1=x1,Eficiencia de extraccion=x,Tiempo de extraccion=y)
View(reg_ejercicio_1)

##GRAFICAR LOS DATOS


## Activar de library "Tidyverse"

plot(x , y , xlab = " Eficiencia de extraccion " ,ylab = " Tiempo de extraccion " , main = "DIAGRAMA
DE DISPERSION", col = "red")

ggplot(data = reg_ejercicio_1, aes(x = Eficiencia de extraccion , y = Tiempo de extraccion=)) +


geom_point(col="red", size = 3)+ labs(title = "ANALISIS DE REGRESION SIMPLE \n PRIMER
EJERCICIO",
subtitle = "ESTADISTICA III",
caption = " PROFESOR ALVARO TREJOS")+
theme(plot.title = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 15),
plot.subtitle = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 10))

## Generar la matriz X

x <- c(27,45,41,19,35,39,19,49,15,31)
x
X2 <- cbind(1,x)
X2

## Vector b apartir de la matriz X2

x <- X2
x
## Vector b = inv(x'x)x'y

b <- solve(t(x)%*%x)%*%t(x)%*%y
b
##Suma de cuadrados totales {y'y - (sum(Y)^2)/n)}

sct <- t(y)%*%y-(sum(y)^2)/10


sct

## Suma de cuadrados del error {y'y - b'x'y}

sce <-t(y)%*%y-t(b)%*%t(x)%*%y

## Suma cuadrados de la regresion {b'x'y - (sum(Y)^2)/n)}

scr <- t(b)%*%t(x)%*%y-(sum(y)^2)/10


scr
sce

## Y estimados Yest = x'b

yest <- x%*%b


yest

## Vector de errores {e = y - Yest} es la tabla azul de intervalos para estimación y pronóstico

error <- y-yest


error

## Coeficiente de determinacion R^2

R <- scr/sct
R

## Tabla ANOVA

p <- 2
n <- 10

cmr <- scr/(p-1)


cmr

cme <- sce/(n-p)


cme
f <- cmr/cme
f

## Regresión simple (ejemplo1 x = Eficiencia de extraccion , y = Tiempo de extraccion) Tabla de


intervalos de confianza : coeficientes a

ejercicio_1=lm(Tiempo de extraccion ~ Eficiencia de extraccion ,reg_ejercicio_1)


summary(ejercicio_1)

## SUPUESTOS DEL ANALISIS DE REGRESION

## LINEALIDAD
## Orden de las variables y,x

plot(ejercicio_1 , 1)## si los errores se encuentran al rededor de la media "sin ningun patron"
cor.test(reg_ejercicio_1$Tiempo de extraccion, reg_ejercicio1_1$Eficiencia de extraccion)## H0: =
0 Ha: != 0

## NORMALIDAD

hist(ejercicio_1$residuals)## histograma no presenta una relativa simetria parecia a la campana de


gauss
plot(ejercicio_1 , 2)## los puntos estan muy juntos a la linea entonces aceptamos normalidad
shapiro.test(ejercicio_1$residuals) ## H0: e = n(0,v=k) , Ha: e != n(0,v=k)

## HOMOCEDASTICIDAD
## Activar con library "car" y "psych"
## Orden de las variables y,x

plot(ejercicio_1 , 3)## no existe ninguna tendencia en los errores


ncvTest(ejercicio_1)## H0 : existe homocedasticidad Ha : no existe
var_cons_bartt <- bartlett.test(list(reg_ejercicio_1$Tiempo de
extraccion,reg_ejercicio_1$Eficiencia de extraccion) , data = reg_ejercicio_1)
print(var_cons_bartt)

## IDENTIFICACION DE OUTLIER

plot(ejercicio_1 , 4)## segun este grafico no hay un outlier , cook < 1


plot(ejercicio_1 , 5)## segun este grafico no hay un outlier , no hay ningún dato en la zona
Ejercicio 2:

##MATRICES

x1 <- c(1,1,1,1,1,1,1,1,1,1) ##Alt- para sacar la flecha


x1
x<-c(1,2,3,4,5,6) ##Tension
x
y<-c(14,33,40,63,76,85) ##Elongacion
y
reg_ejercicio_2 <- cbind(x1,x,y)
reg_ejercicio_2
reg_ejercicio_2 <- data.frame(colum1=x1,Tension=x,Elongacion=y)
View(reg_ejercicio_2)

##GRAFICAR LOS DATOS


## Activar de library "Tidyverse"

plot(x , y , xlab = " Tension” ,ylab = " Elongación”, main = "DIAGRAMA DE DISPERSION", col = "red")

ggplot(data = reg_ejercicio_2, aes(x = Tension , y = Elongacion=)) +


geom_point(col="red", size = 3)+ labs(title = "ANALISIS DE REGRESION SIMPLE \n SEGUNDO
EJERCICIO",
subtitle = "ESTADISTICA III",
caption = " PROFESOR ALVARO TREJOS")+
theme(plot.title = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 15),
plot.subtitle = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 10))

## Generar la matriz X

x <- c(1,2,3,4,5,6)
x
X2 <- cbind(1,x)
X2

## Vector b apartir de la matriz X2

x <- X2
x
## Vector b = inv(x'x)x'y

b <- solve(t(x)%*%x)%*%t(x)%*%y
b
##Suma de cuadrados totales {y'y - (sum(Y)^2)/n)}

sct <- t(y)%*%y-(sum(y)^2)/6


sct

## Suma de cuadrados del error {y'y - b'x'y}

sce <-t(y)%*%y-t(b)%*%t(x)%*%y

## Suma cuadrados de la regresion {b'x'y - (sum(Y)^2)/n)}

scr <- t(b)%*%t(x)%*%y-(sum(y)^2)/6


scr
sce

## Y estimados Yest = x'b

yest <- x%*%b


yest

## Vector de errores {e = y - Yest} es la tabla azul de intervalos para estimación y pronóstico

error <- y-yest


error

## Coeficiente de determinacion R^2

R <- scr/sct
R

## Tabla ANOVA

p <- 2
n <- 6

cmr <- scr/(p-1)


cmr

cme <- sce/(n-p)


cme

f <- cmr/cme
f

## Regresión simple (ejemplo1 x = Eficiencia de extraccion , y = Tiempo de extraccion) Tabla de


intervalos de confianza : coeficientes a

ejercicio_2=lm(Tension ~ Elongacion ,reg_ejercicio_2)


summary(ejercicio_2)

## SUPUESTOS DEL ANALISIS DE REGRESION

## LINEALIDAD
## Orden de las variables y,x

plot(ejercicio_2 , 1)## si los errores se encuentran al rededor de la media "sin ningun patron"
cor.test(reg_ejercicio_2$Elongacion, reg_ejercicio2_1$Tension)## H0: = 0 Ha: != 0

## NORMALIDAD

hist(ejercicio_2$residuals)## histograma no presenta una relativa simetria parecia a la campana de


gauss
plot(ejercicio_2 , 2)## los puntos estan muy juntos a la linea entonces aceptamos normalidad
shapiro.test(ejercicio_2$residuals) ## H0: e = n(0,v=k) , Ha: e != n(0,v=k)

## HOMOCEDASTICIDAD
## Activar con library "car" y "psych"
## Orden de las variables y,x

plot(ejercicio_2 , 3)## no existe ninguna tendencia en los errores


ncvTest(ejercicio_2)## H0 : existe homocedasticidad Ha : no existe
var_cons_bartt <- bartlett.test(list(reg_ejercicio_2$Elongacion,reg_ejercicio_2$Tension) , data =
reg_ejercicio_2)
print(var_cons_bartt)

## IDENTIFICACION DE OUTLIER

plot(ejercicio_2 , 4)## segun este grafico no hay un outlier , cook < 1


plot(ejercicio_2 , 5)## segun este grafico no hay un outlier , no hay ningún dato en la zona
Ejercicio 3:

##MATRICES

x1 <- c(1,1,1,1,1,1,1,1,1,1) ##Alt- para sacar la flecha


x1
x<-c(2,7,9,1,5,12) ##Semanas empleadas
x
y<-c(13,21,23,14,15,21) ##Automoviles inspeccionados
y
reg_ejercicio_3 <- cbind(x1,x,y)
reg_ejercicio_3
reg_ejercicio_3 <- data.frame(colum1=x1,Semanas empleadas=x,Automóviles inspeccionados=y)
View(reg_ejercicio_3)

##GRAFICAR LOS DATOS


## Activar de library "Tidyverse"

plot(x , y , xlab = " Semanas empleadas” ,ylab = " Automóviles inspeccionados”, main =
"DIAGRAMA DE DISPERSION", col = "red")

ggplot(data = reg_ejercicio_3, aes(x = Semanas empleadas , y = Automóviles inspeccionados =)) +


geom_point(col="red", size = 3)+ labs(title = "ANALISIS DE REGRESION SIMPLE \n TERCER
EJERCICIO",
subtitle = "ESTADISTICA III",
caption = " PROFESOR ALVARO TREJOS")+
theme(plot.title = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 15),
plot.subtitle = element_text(hjust = 0.5, face = "italic", colour = "darkred", size = 10))

## Generar la matriz X

x <- c(2,7,9,1,5,12)
x
X2 <- cbind(1,x)
X2

## Vector b apartir de la matriz X2

x <- X2
x
## Vector b = inv(x'x)x'y

b <- solve(t(x)%*%x)%*%t(x)%*%y
b
##Suma de cuadrados totales {y'y - (sum(Y)^2)/n)}

sct <- t(y)%*%y-(sum(y)^2)/6


sct

## Suma de cuadrados del error {y'y - b'x'y}

sce <-t(y)%*%y-t(b)%*%t(x)%*%y

## Suma cuadrados de la regresion {b'x'y - (sum(Y)^2)/n)}

scr <- t(b)%*%t(x)%*%y-(sum(y)^2)/6


scr
sce

## Y estimados Yest = x'b

yest <- x%*%b


yest

## Vector de errores {e = y - Yest} es la tabla azul de intervalos para estimación y pronóstico

error <- y-yest


error

## Coeficiente de determinacion R^2

R <- scr/sct
R

## Tabla ANOVA

p <- 2
n <- 6

cmr <- scr/(p-1)


cmr

cme <- sce/(n-p)


cme
f <- cmr/cme
f

## Regresión simple (ejemplo1 x =Semanas empleadas, y = Automóviles inspeccionados Tabla de


intervalos de confianza : coeficientes a

ejercicio_3=lm(Semanas empleadas~ Automóviles inspeccionados ,reg_ejercicio_3)


summary(ejercicio_3)

## SUPUESTOS DEL ANALISIS DE REGRESION

## LINEALIDAD
## Orden de las variables y,x

plot(ejercicio_3 , 1)## si los errores se encuentran al rededor de la media "sin ningun patron"
cor.test(reg_ejercicio_3$Automoviles inspeccionados, reg_ejercicio3_1$Semanas empleadas)##
H0: = 0 Ha: != 0

## NORMALIDAD

hist(ejercicio_3$residuals)## histograma no presenta una relativa simetria parecia a la campana de


gauss
plot(ejercicio_3 , 2)## los puntos estan muy juntos a la linea entonces aceptamos normalidad
shapiro.test(ejercicio_3$residuals) ## H0: e = n(0,v=k) , Ha: e != n(0,v=k)

## HOMOCEDASTICIDAD
## Activar con library "car" y "psych"
## Orden de las variables y,x

plot(ejercicio_3 , 3)## no existe ninguna tendencia en los errores


ncvTest(ejercicio_3)## H0 : existe homocedasticidad Ha : no existe
var_cons_bartt <- bartlett.test(list(reg_ejercicio_3$Automoviles
inspeccionados,reg_ejercicio_3$Semanas empleadas) , data = reg_ejercicio_3)
print(var_cons_bartt)

## IDENTIFICACION DE OUTLIER

plot(ejercicio_3 , 4)## segun este grafico no hay un outlier , cook < 1


plot(ejercicio_3 , 5)## segun este grafico no hay un outlier , no hay ningún dato en la zona

También podría gustarte