Documentos de Académico
Documentos de Profesional
Documentos de Cultura
SEDE MANIZALES
FACULTAD DE INGENIERA Y ARQUITECTURA
INGENIERA QUMICA
PRESENTADO A:
GERARD OLIVAR TOST
PRESENTADO POR:
YULITZA SNCHEZ ROS
MANIZALES
2017
TALLER DE PROBABILIDAD Y ESTADSTICA
CAPTULO 1
Ejercicio 12
> library(tcltk, pos=16)
> library(aplpack, pos=16)
> with(Ejercicio12_1, stem.leaf(V1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 0.12
leaf unit: 0.01
n: 36
1 3* | 1
6 3. | 56678
18 4* | 000112222234
(7) 4. | 5667888
11 5* | 144
8 5. | 58
6 6* | 2
5 6. | 6678
7* |
1 7. | 5
Ejercicio 15
#Creamy
> with(Ejercicio15_1, stem.leaf(Creamy, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 19
1 2 | 2
5 3 | 0069
(5) 4 | 00145
9 5 | 003666
3 6 | 258
#Crunchy
> with(Ejercicio15_1, stem.leaf(Crunchy, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 18
3 3 | 446
8 4 | 02277
(4) 5 | 0236
6 6 | 222
3 7 | 55
1 8 | 0
Ambos conjuntos de resultados estn dispersos. Parece que no hay valores atpicos. Las
puntuaciones ms altas son para Crunchy y las ms bajas para Creamy
Ejercicio 20
> with(Ejercicio20_1, stem.leaf(V1, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 1200
leaf unit: 100
n: 47
12 0 | 123334555599
23 1 | 00122234688
(10) 2 | 1112344477
14 3 | 0113338
7 4 | 37
5 5 | 23778
El histograma describe la misma forma general que la representada por el tallo y la hoja.
> hh
$breaks
[1] 0 1000 2000 3000 4000 5000 6000
$counts
[1] 13 10 10 7 2 5
$density
[1] 2.765957e-04 2.127660e-04 2.127660e-04 1.489362e-04 4.255319e-05
1.063830e-04
$mids
[1] 500 1500 2500 3500 4500 5500
$xname
[1] "Ejercicio20_1$V1"
$equidist
[1] TRUE
attr(,"class")
[1] "histogram"
Ejercicio 36
> with(Ejercicio36_1, stem.leaf(Tiempo, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 26
2 32 | 55
4 33 | 49
34 |
8 35 | 6699
(5) 36 | 34469
13 37 | 03345
8 38 | 9
7 39 | 2347
3 40 | 23
41 |
1 42 | 4
> Media=mean(Ejercicio36_1$Tiempo)
> Media
[1] 370.6923
> Mediana=median(Ejercicio36_1$Tiempo)
> Mediana
[1] 369.5
#Media en minutos
> Mediam=Media/60
> Mediam
[1] 6.178205
#Mediana en minutos
> Medianam=Mediana/60
> Medianam
[1] 6.158333
Ejercicio 44
> Rango=max(Ejercicio44_1$Oxigeno)-min(Ejercicio44_1$Oxigeno)
> Rango
[1] 25.8
> n=length(Ejercicio44_1$Oxigeno)
> Media=mean(Ejercicio44_1$Oxigeno)
> varianza=(sum((Ejercicio44_1$Oxigeno-Media)^2)/(n-1))
> varianza
[1] 49.31122
> desviacion=sqrt(varianza)
> desviacion
[1] 7.022195
> varianzaa=(sum(Ejercicio44_1$Oxigeno^2)/(n-1)-n*Media^2/(n-1))
> varianza
[1] 49.31122
Ejercicio 48
#Casas urbanas
> sumaU=237
> sumaUcu=10079
> n=length(Ejercicio48U_1$Urbanas)
> Media=mean(Ejercicio48U_1$Urbanas)
> varianza=(sumaUcu/(n-1)-n*Media^2/(n-1))
> varianza
[1] 497.2727
> desviacion=sqrt(varianza)
#Casas campestres
> sumaU=128.4
> sumaUcu=1617.94
> n=length(Ejercicio48C_1$Campestres)
> Media=mean(Ejercicio48C_1$Campestres)
> varianza=(sumaUcu/(n-1)-n*Media^2/(n-1))
> varianza
[1] 37.05971
> desviacion=sqrt(varianza)
> desviacion
[1] 6.087669
> boxplot(Ejercicio48U_1$Urbanas, Ejercicio48Uc_1$Urbanas,
Ejercicio48C_1$Campestres, Ejercicio48Cc_1$Campestres, xlab="Casas",
ylab="Endotoxina", main="Diagrama de caja de casas segn endotoxina")
Cada tipo de casa tiene valores atpicos presentes. Las casas tanto urbanas como campestres
donde se utilizaron bolsas captadoras de polvo la media muestral es mayor. Las casas
campestres que no utilizaron bolsas captadoras de polvo mostraron concentraciones de
endotoxina en el polvo menores al resto.
CAPTULO 6
Ejercicio 11
> x1=127
> x2=176
> n1=200
> n2=200
# estimacion p1-p2
> p1=x1/n1
> p2=x2/n2
> estimacion=p1-p2
> estimacion
[1] -0.245
#error estandar del estimador
> q1=1-p1
> q2=1-p2
> error=sqrt(p1*q1/n1+p2*q2/n2)
> error
[1] 0.04107158
CAPTULO 7
Ejercicio 1
# nivel de confianza distribucion normal
# a
> P=pnorm(q=2.81, lower.tail=F)
> nivel=2*(0.5-P)
> nivel
[1] 0.9950459
# b
> P=pnorm(q=1.44, lower.tail=F)
> nivel=2*(0.5-P)
> nivel
[1] 0.8501326
# c
> nivel=0.997
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.967738
# d
> nivel=0.75
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.150349
Ejercicio 4
# a
> sigma=3.0
> nivel=0.95
> n=25
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.12402
> maximo
[1] 59.47598
# b
> sigma=3.0
> nivel=0.95
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.71201
> maximo
[1] 58.88799
# c
> sigma=3.0
> nivel=0.99
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.52725
> maximo
[1] 59.07275
# d
> sigma=3.0
> nivel=0.82
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.89777
> maximo
[1] 58.70223
# e
# valor de n
> sigma=3.0
> nivel=0.99
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> n=(2*Q*sigma)^2
> n
[1] 238.8563
Ejercicio 5
# a
> s=0.75
> nivel=0.95
> n=20
> media=4.85
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 4.521304
> maximo
[1] 5.178696
# b
> s=0.75
> nivel=0.98
> n=16
> media=4.56
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.326348
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 4.12381
> maximo
[1] 4.99619
# c
# valor de n
> s=0.75
> nivel=0.95
> ancho=0.4
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
> n=(2*Q*s/ancho)^2
> n
[1] 54.02051
# d
# valor de n
> s=0.75
> nivel=0.99
> ancho=0.2
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.575829
> n=(2*Q*s/ancho)^2
> n
[1] 373.2129
Ejercicio 12
> n=110
> media=0.81
> s=0.34
> nivel=0.99
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.575829
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 0.7264975
> maximo
[1] 0.8935025
Ejercicio 32
> n=18
> media=30.2
> s=3.1
> nivel=0.95
> p=(1-nivel)/2
> Q=qt(p, df=17, lower.tail=F)
> Q
[1] 2.109816
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 28.65841
> maximo
[1] 31.74159
Ejercicio 33
> Boxplot( ~ V1, data=Ejercicio33_7, id.method="y", ylab="Grado
polimerizacion", main="")
> numSummary(Ejercicio33_7[,"V1"], statistics=c("mean", "quantiles"),
quantiles=c(0,.25,.5,.75,1))
mean 0% 25% 50% 75% 100% n
438.2941 418 425 437 448 465 17
> nivel=0.95
> n=length(Ejercicio33_7$V1)
> media=mean(Ejercicio33_7$V1)
> s=sd(Ejercicio33_7$V1)
> s
[1] 15.14416
> p=(1-nivel)/2
> Q=qt(p, df=16, lower.tail=F)
> Q
[1] 2.119905
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 430.5077
> maximo
[1] 446.0805
Ejercicio 42
# a
> qchisq(c(0.1), df=15, lower.tail=F)
[1] 22.30713
# b
> qchisq(c(0.1), df=25, lower.tail=F)
[1] 34.38159
# c
> qchisq(c(0.01), df=25, lower.tail=F)
[1] 44.3141
# d
> qchisq(c(0.006), df=25, lower.tail=F)
[1] 46.25164
# e
> qchisq(c(0.99), df=25, lower.tail=F)
[1] 11.52398
# f
> qchisq(c(0.995), df=25, lower.tail=F)
[1] 10.51965
Ejercicio 44
# para sigma^2
> n=9
> s=2.81
> nivel=0.95
> c2=qchisq(c(0.975), df=8, lower.tail=F)
> c1=qchisq(c(0.025), df=8, lower.tail=F)
> maximo=((n-1)*s^2/c2)
> minimo=((n-1)*s^2/c1)
#Intervalo de confianza
> minimo
[1] 3.602534
> maximo
[1] 28.98009
# para sigma
#Intervalo de confianza
> minimo=sqrt(minimo)
> maximo=sqrt(maximo)
> minimo
[1] 1.898034
> maximo
[1] 5.383316
Ejercicio 47
> n=48
> suma=387.8
> sumac=4247.08
> media=suma/n
# fuerza de adhesin promedio verdadera con nivel de confianza 0.98
> nivel=0.98
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> s=(sumac/(n-1)-n*media^2/(n-1))
> sd=sqrt(s)
> sd
[1] 4.868438
> maximo=(media+((Q*sd)/sqrt(n)))
> minimo=(media-((Q*sd)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 6.444446
> maximo
[1] 9.713888
# Intervalo de confianza para valores de fuerza que exceden de 10
> nivel=0.95
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> estp=13/n
> estp
[1] 0.2708333
> estq=1-estp
> maximo=((estp+Q^2/(2*n)+Q*sqrt(estp*estq/n+Q^2/(4+n^2)))/(1+Q^2/n))
> minimo=((estp+Q^2/(2*n)-Q*sqrt(estp*estq/n+Q^2/(4+n^2)))/(1+Q^2/n))
#Intervalo de confianza
> minimo
[1] 0.1498637
> maximo
[1] 0.4257655
Ejercicio 49
> Boxplot( ~ V1, data=Ejercicio49_7, id.method="y", ylab="% volumen",
main="")
data: V1
t = 19.358, df = 17, p-value = 5.097e-13
alternative hypothesis: true mean is not equal to 0
98 percent confidence interval:
33.53454 43.78768
sample estimates:
mean of x
38.66111
CAPTULO 8
Ejercicio 10
# a
# Ho: mi=1300; Ha: mi>1300
# b
# region de rechazo mediamuestral=1331,26
# distribucin de probabilidad del estadstico y probabilidad de un error
de tipo I
> n=20
> sigma=60
> media=1331.26
> mi=1300
> q=(media-mi)/(sigma/sqrt(n))
> alfa=pnorm(q, lower.tail=FALSE)
> alfa
[1] 0.009903529
# c
# distribucin de probabilidad del estadstico cuando mi=1350 y utilizando
#b la probabilidad de un error de tipo II
> mi=1350
> media=1331.26
> q=(media-mi)/(sigma/sqrt(n))
> beta=pnorm(q, lower.tail=TRUE)
> beta
[1] 0.08123729
# d
# Cmo cambiara el procedimiento de prueba en #b para obtener una prueba
con nivel de significacin de 0.05?. RTA: en la media=???
> mi=1300
> p=0.05
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.644854
> c=Q*sigma/sqrt(n)+mi
> c
[1] 1322.068
# Qu impacto tendra este cambio en la probabilidad de error en #c? RTA:
la media muestral tomaria el valor de c
> mi=1350
> media=c
> q=(media-mi)/(sigma/sqrt(n))
> beta=pnorm(q, lower.tail=TRUE)
> beta
[1] 0.0186746
#e
# Cules son los valores de Z correspondientes a la regin de rechazo en
#b? RTA: Z>=2.33
Ejercicio 26
# Ho: mi=50; Ha: mi>50
> n=45
> media=52.7
> s=4.8
> p=0.05
> mi=50
> Q=qnorm(p, lower.tail=FALSE)
> Q
[1] 1.644854
> z=(media-mi)/(s/sqrt(n))
> z
[1] 3.773365
> if(z>=Q){return("se rechaza Ho: se concluye que no es conveniente
utilizar los tubos")}
[1] "se rechaza Ho: se concluye que no es conveniente utilizar los tubos"
> if(z<Q){return("no se rechaza Ho")}
Ejercicio 27
# a
> numSummary(Ejercicio27_8[,"V1"], statistics=c("mean", "sd", "quantiles",
"skewness"), quantiles=c(0,.25,.5,.75,1), type="2")
mean sd skewness 0% 25% 50% 75% 100% n
0.7497959 0.3024655 0.744172 0.34 0.52 0.64 1 1.44 49
# b
# S es aceptable suponer que el desplazamiento lineal promedio est
normalmente distribuido
# c
# Ho: mi=1.0; Ha: mi<1.0
> n=length(Ejercicio27_8$V1)
> media=mean(Ejercicio27_8$V1)
> s=sd(Ejercicio27_8$V1)
> p=0.001
> mi=1.0
> Z=qnorm(p, lower.tail=FALSE)
> Z
[1] 3.090232
> z=(media-mi)/(s/sqrt(n))
> z
[1] -5.790507
> if(z<=-Z){return("se rechaza Ho: se concluye que el desplazamiento lineal
promedio es menor que 1.0")}
[1] "se rechaza Ho: se concluye que el desplazamiento lineal promedio es
menor que 1.0"
> if(z>-Z){return("no se rechaza Ho")}
# d
> nivel=0.95
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
# lmite de confianza superior para el desplazamiento lineal promedio
> maximo=(media+((Q*s)/sqrt(n)))
> maximo
[1] 0.8344847
# De forma directa
> with(Ejercicio27_8, (t.test(V1, alternative='less', mu=1.0,
conf.level=.95)))
data: V1
t = -5.7905, df = 48, p-value = 2.615e-07
alternative hypothesis: true mean is less than 1
95 percent confidence interval:
-Inf 0.8222677
sample estimates:
mean of x
0.7497959
Ejercicio 29
# Ho: mi=3.50; Ha: mi>3.50
> n=8
> media=3.72
> s=1.25
> mi=3.50
> p=0.05
> T=qt(p, df=7, lower.tail=FALSE)
> T
[1] 1.894579
> t=(media-mi)/(s/sqrt(n))
> t
[1] 0.4978032
> if(t>=T){return("se rechaza Ho")}
> if(t<T){return("no se rechaza Ho")}
[1] "no se rechaza Ho"