Está en la página 1de 17

UNIVERSIDAD NACIONAL DE COLOMBIA

SEDE MANIZALES
FACULTAD DE INGENIERA Y ARQUITECTURA
INGENIERA QUMICA

TALLER DE PROBABILIDAD Y ESTADSTICA

PRESENTADO A:
GERARD OLIVAR TOST

PRESENTADO POR:
YULITZA SNCHEZ ROS

MANIZALES
2017
TALLER DE PROBABILIDAD Y ESTADSTICA

CAPTULO 1
Ejercicio 12
> library(tcltk, pos=16)
> library(aplpack, pos=16)
> with(Ejercicio12_1, stem.leaf(V1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 0.12
leaf unit: 0.01
n: 36
1 3* | 1
6 3. | 56678
18 4* | 000112222234
(7) 4. | 5667888
11 5* | 144
8 5. | 58
6 6* | 2
5 6. | 6678
7* |
1 7. | 5

El grfico no es simtrico y parece que est inclinado positivamente.

Ejercicio 15
#Creamy
> with(Ejercicio15_1, stem.leaf(Creamy, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 19
1 2 | 2
5 3 | 0069
(5) 4 | 00145
9 5 | 003666
3 6 | 258
#Crunchy
> with(Ejercicio15_1, stem.leaf(Crunchy, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 18
3 3 | 446
8 4 | 02277
(4) 5 | 0236
6 6 | 222
3 7 | 55
1 8 | 0
Ambos conjuntos de resultados estn dispersos. Parece que no hay valores atpicos. Las
puntuaciones ms altas son para Crunchy y las ms bajas para Creamy

Ejercicio 20
> with(Ejercicio20_1, stem.leaf(V1, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 1200
leaf unit: 100
n: 47
12 0 | 123334555599
23 1 | 00122234688
(10) 2 | 1112344477
14 3 | 0113338
7 4 | 37
5 5 | 23778

> hh=hist(Ejercicio20_1$V1, scale="frequency", breaks="Sturges",


col="darkgray", xlab="Longitud", ylab="Frecuencia", main="")

El histograma describe la misma forma general que la representada por el tallo y la hoja.

> hh
$breaks
[1] 0 1000 2000 3000 4000 5000 6000
$counts
[1] 13 10 10 7 2 5
$density
[1] 2.765957e-04 2.127660e-04 2.127660e-04 1.489362e-04 4.255319e-05
1.063830e-04
$mids
[1] 500 1500 2500 3500 4500 5500
$xname
[1] "Ejercicio20_1$V1"
$equidist
[1] TRUE
attr(,"class")
[1] "histogram"

Proporcin de subdivisiones para una longitud total:


13+10
Menor a 2000: =0.489=48.9%
47
10+7
Entre 2000 y 4000: =0.362=36.2%
47

Ejercicio 36
> with(Ejercicio36_1, stem.leaf(Tiempo, m=1, trim.outliers=FALSE,
reverse.negative.leaves=FALSE, na.rm=TRUE))
1 | 2: represents 12
leaf unit: 1
n: 26
2 32 | 55
4 33 | 49
34 |
8 35 | 6699
(5) 36 | 34469
13 37 | 03345
8 38 | 9
7 39 | 2347
3 40 | 23
41 |
1 42 | 4

> Media=mean(Ejercicio36_1$Tiempo)
> Media
[1] 370.6923
> Mediana=median(Ejercicio36_1$Tiempo)
> Mediana
[1] 369.5
#Media en minutos
> Mediam=Media/60
> Mediam
[1] 6.178205
#Mediana en minutos
> Medianam=Mediana/60
> Medianam
[1] 6.158333
Ejercicio 44
> Rango=max(Ejercicio44_1$Oxigeno)-min(Ejercicio44_1$Oxigeno)
> Rango
[1] 25.8
> n=length(Ejercicio44_1$Oxigeno)
> Media=mean(Ejercicio44_1$Oxigeno)
> varianza=(sum((Ejercicio44_1$Oxigeno-Media)^2)/(n-1))
> varianza
[1] 49.31122
> desviacion=sqrt(varianza)
> desviacion
[1] 7.022195
> varianzaa=(sum(Ejercicio44_1$Oxigeno^2)/(n-1)-n*Media^2/(n-1))
> varianza
[1] 49.31122

Ejercicio 48
#Casas urbanas
> sumaU=237
> sumaUcu=10079
> n=length(Ejercicio48U_1$Urbanas)
> Media=mean(Ejercicio48U_1$Urbanas)
> varianza=(sumaUcu/(n-1)-n*Media^2/(n-1))
> varianza
[1] 497.2727
> desviacion=sqrt(varianza)
#Casas campestres
> sumaU=128.4
> sumaUcu=1617.94
> n=length(Ejercicio48C_1$Campestres)
> Media=mean(Ejercicio48C_1$Campestres)
> varianza=(sumaUcu/(n-1)-n*Media^2/(n-1))
> varianza
[1] 37.05971
> desviacion=sqrt(varianza)
> desviacion
[1] 6.087669
> boxplot(Ejercicio48U_1$Urbanas, Ejercicio48Uc_1$Urbanas,
Ejercicio48C_1$Campestres, Ejercicio48Cc_1$Campestres, xlab="Casas",
ylab="Endotoxina", main="Diagrama de caja de casas segn endotoxina")
Cada tipo de casa tiene valores atpicos presentes. Las casas tanto urbanas como campestres
donde se utilizaron bolsas captadoras de polvo la media muestral es mayor. Las casas
campestres que no utilizaron bolsas captadoras de polvo mostraron concentraciones de
endotoxina en el polvo menores al resto.

CAPTULO 6
Ejercicio 11
> x1=127
> x2=176
> n1=200
> n2=200
# estimacion p1-p2
> p1=x1/n1
> p2=x2/n2
> estimacion=p1-p2
> estimacion
[1] -0.245
#error estandar del estimador
> q1=1-p1
> q2=1-p2
> error=sqrt(p1*q1/n1+p2*q2/n2)
> error
[1] 0.04107158

CAPTULO 7
Ejercicio 1
# nivel de confianza distribucion normal
# a
> P=pnorm(q=2.81, lower.tail=F)
> nivel=2*(0.5-P)
> nivel
[1] 0.9950459
# b
> P=pnorm(q=1.44, lower.tail=F)
> nivel=2*(0.5-P)
> nivel
[1] 0.8501326
# c
> nivel=0.997
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.967738
# d
> nivel=0.75
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.150349

Ejercicio 4
# a
> sigma=3.0
> nivel=0.95
> n=25
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.12402
> maximo
[1] 59.47598
# b
> sigma=3.0
> nivel=0.95
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.71201
> maximo
[1] 58.88799
# c
> sigma=3.0
> nivel=0.99
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.52725
> maximo
[1] 59.07275
# d
> sigma=3.0
> nivel=0.82
> n=100
> media=58.3
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> maximo=(media+((Q*sigma)/sqrt(n)))
> minimo=(media-(Q*sigma)/sqrt(n))
#Intervalo de confianza
> minimo
[1] 57.89777
> maximo
[1] 58.70223
# e
# valor de n
> sigma=3.0
> nivel=0.99
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> n=(2*Q*sigma)^2
> n
[1] 238.8563

Ejercicio 5
# a
> s=0.75
> nivel=0.95
> n=20
> media=4.85
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 4.521304
> maximo
[1] 5.178696
# b
> s=0.75
> nivel=0.98
> n=16
> media=4.56
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.326348
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 4.12381
> maximo
[1] 4.99619
# c
# valor de n
> s=0.75
> nivel=0.95
> ancho=0.4
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
> n=(2*Q*s/ancho)^2
> n
[1] 54.02051
# d
# valor de n
> s=0.75
> nivel=0.99
> ancho=0.2
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.575829
> n=(2*Q*s/ancho)^2
> n
[1] 373.2129

Ejercicio 12
> n=110
> media=0.81
> s=0.34
> nivel=0.99
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 2.575829
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 0.7264975
> maximo
[1] 0.8935025

Ejercicio 32
> n=18
> media=30.2
> s=3.1
> nivel=0.95
> p=(1-nivel)/2
> Q=qt(p, df=17, lower.tail=F)
> Q
[1] 2.109816
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 28.65841
> maximo
[1] 31.74159

Ejercicio 33
> Boxplot( ~ V1, data=Ejercicio33_7, id.method="y", ylab="Grado
polimerizacion", main="")
> numSummary(Ejercicio33_7[,"V1"], statistics=c("mean", "quantiles"),
quantiles=c(0,.25,.5,.75,1))
mean 0% 25% 50% 75% 100% n
438.2941 418 425 437 448 465 17
> nivel=0.95
> n=length(Ejercicio33_7$V1)
> media=mean(Ejercicio33_7$V1)
> s=sd(Ejercicio33_7$V1)
> s
[1] 15.14416
> p=(1-nivel)/2
> Q=qt(p, df=16, lower.tail=F)
> Q
[1] 2.119905
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 430.5077
> maximo
[1] 446.0805

Ejercicio 42
# a
> qchisq(c(0.1), df=15, lower.tail=F)
[1] 22.30713
# b
> qchisq(c(0.1), df=25, lower.tail=F)
[1] 34.38159
# c
> qchisq(c(0.01), df=25, lower.tail=F)
[1] 44.3141
# d
> qchisq(c(0.006), df=25, lower.tail=F)
[1] 46.25164
# e
> qchisq(c(0.99), df=25, lower.tail=F)
[1] 11.52398
# f
> qchisq(c(0.995), df=25, lower.tail=F)
[1] 10.51965

Ejercicio 44
# para sigma^2
> n=9
> s=2.81
> nivel=0.95
> c2=qchisq(c(0.975), df=8, lower.tail=F)
> c1=qchisq(c(0.025), df=8, lower.tail=F)
> maximo=((n-1)*s^2/c2)
> minimo=((n-1)*s^2/c1)
#Intervalo de confianza
> minimo
[1] 3.602534
> maximo
[1] 28.98009
# para sigma
#Intervalo de confianza
> minimo=sqrt(minimo)
> maximo=sqrt(maximo)
> minimo
[1] 1.898034
> maximo
[1] 5.383316

Ejercicio 47
> n=48
> suma=387.8
> sumac=4247.08
> media=suma/n
# fuerza de adhesin promedio verdadera con nivel de confianza 0.98
> nivel=0.98
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> s=(sumac/(n-1)-n*media^2/(n-1))
> sd=sqrt(s)
> sd
[1] 4.868438
> maximo=(media+((Q*sd)/sqrt(n)))
> minimo=(media-((Q*sd)/sqrt(n)))
#Intervalo de confianza
> minimo
[1] 6.444446
> maximo
[1] 9.713888
# Intervalo de confianza para valores de fuerza que exceden de 10
> nivel=0.95
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> estp=13/n
> estp
[1] 0.2708333
> estq=1-estp
> maximo=((estp+Q^2/(2*n)+Q*sqrt(estp*estq/n+Q^2/(4+n^2)))/(1+Q^2/n))
> minimo=((estp+Q^2/(2*n)-Q*sqrt(estp*estq/n+Q^2/(4+n^2)))/(1+Q^2/n))
#Intervalo de confianza
> minimo
[1] 0.1498637
> maximo
[1] 0.4257655

Ejercicio 49
> Boxplot( ~ V1, data=Ejercicio49_7, id.method="y", ylab="% volumen",
main="")

> numSummary(Ejercicio49_7[,"V1"], statistics=c("mean", "IQR",


"quantiles"), quantiles=c(0,.25,.5,.75,1))
mean IQR 0% 25% 50% 75% 100% n
38.66111 11.7 22 33.625 38.25 45.325 51.5 18
> nivel=0.98
> n=length(Ejercicio49_7$V1)
> media=mean(Ejercicio49_7$V1)
> s=sd(Ejercicio49_7$V1)
> s
[1] 8.47322
> p=(1-nivel)/2
> Q=qt(p, df=n-1, lower.tail=F)
> Q
[1] 2.566934
> maximo=(media+((Q*s)/sqrt(n)))
> minimo=(media-((Q*s)/sqrt(n)))
# Intervalo de confianza
> minimo
[1] 33.53454
> maximo
[1] 43.78768
# De forma directa
> with(Ejercicio49_7, (t.test(V1, conf.level=.98)))

One Sample t-test

data: V1
t = 19.358, df = 17, p-value = 5.097e-13
alternative hypothesis: true mean is not equal to 0
98 percent confidence interval:
33.53454 43.78768
sample estimates:
mean of x
38.66111

CAPTULO 8
Ejercicio 10
# a
# Ho: mi=1300; Ha: mi>1300
# b
# region de rechazo mediamuestral=1331,26
# distribucin de probabilidad del estadstico y probabilidad de un error
de tipo I
> n=20
> sigma=60
> media=1331.26
> mi=1300
> q=(media-mi)/(sigma/sqrt(n))
> alfa=pnorm(q, lower.tail=FALSE)
> alfa
[1] 0.009903529
# c
# distribucin de probabilidad del estadstico cuando mi=1350 y utilizando
#b la probabilidad de un error de tipo II
> mi=1350
> media=1331.26
> q=(media-mi)/(sigma/sqrt(n))
> beta=pnorm(q, lower.tail=TRUE)
> beta
[1] 0.08123729
# d
# Cmo cambiara el procedimiento de prueba en #b para obtener una prueba
con nivel de significacin de 0.05?. RTA: en la media=???
> mi=1300
> p=0.05
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.644854
> c=Q*sigma/sqrt(n)+mi
> c
[1] 1322.068
# Qu impacto tendra este cambio en la probabilidad de error en #c? RTA:
la media muestral tomaria el valor de c
> mi=1350
> media=c
> q=(media-mi)/(sigma/sqrt(n))
> beta=pnorm(q, lower.tail=TRUE)
> beta
[1] 0.0186746
#e
# Cules son los valores de Z correspondientes a la regin de rechazo en
#b? RTA: Z>=2.33

Ejercicio 26
# Ho: mi=50; Ha: mi>50
> n=45
> media=52.7
> s=4.8
> p=0.05
> mi=50
> Q=qnorm(p, lower.tail=FALSE)
> Q
[1] 1.644854
> z=(media-mi)/(s/sqrt(n))
> z
[1] 3.773365
> if(z>=Q){return("se rechaza Ho: se concluye que no es conveniente
utilizar los tubos")}
[1] "se rechaza Ho: se concluye que no es conveniente utilizar los tubos"
> if(z<Q){return("no se rechaza Ho")}

Ejercicio 27
# a
> numSummary(Ejercicio27_8[,"V1"], statistics=c("mean", "sd", "quantiles",
"skewness"), quantiles=c(0,.25,.5,.75,1), type="2")
mean sd skewness 0% 25% 50% 75% 100% n
0.7497959 0.3024655 0.744172 0.34 0.52 0.64 1 1.44 49
# b
# S es aceptable suponer que el desplazamiento lineal promedio est
normalmente distribuido
# c
# Ho: mi=1.0; Ha: mi<1.0
> n=length(Ejercicio27_8$V1)
> media=mean(Ejercicio27_8$V1)
> s=sd(Ejercicio27_8$V1)
> p=0.001
> mi=1.0
> Z=qnorm(p, lower.tail=FALSE)
> Z
[1] 3.090232
> z=(media-mi)/(s/sqrt(n))
> z
[1] -5.790507
> if(z<=-Z){return("se rechaza Ho: se concluye que el desplazamiento lineal
promedio es menor que 1.0")}
[1] "se rechaza Ho: se concluye que el desplazamiento lineal promedio es
menor que 1.0"
> if(z>-Z){return("no se rechaza Ho")}
# d
> nivel=0.95
> p=(1-nivel)/2
> Q=qnorm(p, lower.tail=F)
> Q
[1] 1.959964
# lmite de confianza superior para el desplazamiento lineal promedio
> maximo=(media+((Q*s)/sqrt(n)))
> maximo
[1] 0.8344847
# De forma directa
> with(Ejercicio27_8, (t.test(V1, alternative='less', mu=1.0,
conf.level=.95)))

One Sample t-test

data: V1
t = -5.7905, df = 48, p-value = 2.615e-07
alternative hypothesis: true mean is less than 1
95 percent confidence interval:
-Inf 0.8222677
sample estimates:
mean of x
0.7497959
Ejercicio 29
# Ho: mi=3.50; Ha: mi>3.50
> n=8
> media=3.72
> s=1.25
> mi=3.50
> p=0.05
> T=qt(p, df=7, lower.tail=FALSE)
> T
[1] 1.894579
> t=(media-mi)/(s/sqrt(n))
> t
[1] 0.4978032
> if(t>=T){return("se rechaza Ho")}
> if(t<T){return("no se rechaza Ho")}
[1] "no se rechaza Ho"

También podría gustarte