Documentos de Académico
Documentos de Profesional
Documentos de Cultura
A U T Ó N O M O D E M É X I C O
Tarea 2
Tarea 2
1. Estimando una media Poisson usando una inicial discreta. Supongan que son dueños de una compañía
de transporte con una flota grande de camiones. Las descomposturas ocurren aleatoriamente en el
tiempo y supóngase que el número de descomposturas durante un intervalo de t días sigue un distribu-
ción Poisson con media 𝜆𝑡. El parámetro 𝜆 es la tasa de descompostura diaria. Los posibles valores
para � son 0.5, 1, 1.5, 2,2.5 y 3, con respectivas probabilidades 0.1, 0.2, 0.3, 0.2, 0.15 y 0.05. Si uno
observa y descomposturas, entonces la probabilidad posterior de 𝜆 es proporcional a
# Probabilidad posterior
posterior_p <- p * exp(-poisson_exp) * (poisson_exp^y)
# Normalización
posterior_p_norm <- posterior_p / sum(posterior_p)
# Resultados
for (i in seq_along(lambda)) {
cat(sprintf('P(lambda=%.1f | y=%d, t=%d) = %.5f\n', lambda[i], y, t, posterior_p_norm[i]))
}
1
days <- 7
# Probabilidad predictiva
predictive_p <- sum(posterior_p_norm * conditional_p)
# Resultado
cat(sprintf('Probabilidad de no descomposturas durante la siguiente semana: %.5f\n', predictive_p))
2. Estimando una proporción y predicción de una muestra futura. Un estudio reporta sobre los efectos de
largo plazo de exposición a bajas dosis de plomo en niños. Los investigadores analizaron el contenido
de plomo en la caída de los dientes de leche. De los niños cuyos dientes tienen un contenido de plomo
mayor que 22.22 ppm, 22 eventualmente se graduaron de la preparatoria y 7 no. Supongan que su
densidad inicial para p, la proporción de todos tales niños que se graduaron de preparatoria es beta(1,
1), y posterior es beta(23, 8).
# Parámetros posteriores
alpha <- 23
beta <- 8
# Nivel de confianza
intervalo_90 <- 0.90
# Cuantiles
inf <- qbeta((1 - intervalo_90) / 2, alpha, beta)
sup <- qbeta((1 + intervalo_90) / 2, alpha, beta)
# Resultado
cat(sprintf('Intervalo de confianza del %.2f%% para p: [%.4f, %.4f]\n', intervalo_90 * 100, inf, sup))
# Resultado
cat(sprintf('Probabilidad de que p exceda %.2f: %.4f\n', p_6, prob))
2
3. Estimando una media normal posterior con una inicial discreta. Supongamos que están interesados
en estimar el promedio de caida de lluvia por año 𝜇 en (cm) para una ciudad grande del Centro de
México. Supongan que la caída anual individual y1, . . . , yn son obtenidas de una población que se
supone N (𝜇, 100). Antes de recolectar los datos, supongan que creen que la lluvia media puede estar
en los siguiente valores con respectivas probabilidades 𝜇 20 30 40 50 60 70 g(𝜇) 0.1 0.15 0.25 0.25 0.15
0.1
a. Supongan que se observan los totales de caída de lluvia 38.6, 42.4, 57.5, 40.5, 51.7, 67.1, 33.4, 60.9,
64.1, 40.1, 40.7 y 6.4. Calcular la media.
# Datos
y_observed <- c(38.6, 42.4, 57.5, 40.5, 51.7, 67.1, 33.4, 60.9, 64.1, 40.1, 40.7, 6.4)
# Distribución inicial
mu <- c(20, 30, 40, 50, 60, 70)
prior_p <- c(0.1, 0.15, 0.25, 0.25, 0.15, 0.1)
# Función de densidad
likelihood <- function(y, mu) {
exp(-(y - mu)^2 / 200)
}
b. Calcular la función de verosimilitud utilizando como estadística suficiente la media 𝑦̄.̄ -Calcular las
probabilidades posteriores para 𝜇 -Encontrar un intervalo de probabilidad de 80 % para 𝜇.
# Función de verosimilitud
likelihood_mu <- function(mu, y_bar, sigma_squared = 100) {
exp(-sum((y_bar - mu)^2) / (2 * sigma_squared))
}
# Normalización
posterior_probabilities <- likelihood_values / sum(likelihood_values)
3
print(posterior_probabilities)
Distribución Posterior
0.3
Probabilidad Posterior
0.2
0.1
0.0
20 40 60
mu
4
Supongan que se observa una muestra aleatoria y1, . . . , yn de una densidad Cauchy con
parámetro de localización theta y parámetro de escala 1. Si una inicial uniforme se considera
para theta, entonces la densidad posterior, ¿cuál es? Supongan que se observan los datos
0,10,9,8,11,3,3,8,8,11.
La densidad posterior es
Y 1
P (θ|y(n) α )
(yi − θ)2 + 1
print(mi_secuencia)
## [1] -2.0 -1.9 -1.8 -1.7 -1.6 -1.5 -1.4 -1.3 -1.2 -1.1 -1.0 -0.9 -0.8 -0.7 -0.6
## [16] -0.5 -0.4 -0.3 -0.2 -0.1 0.0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
## [31] 1.0 1.1 1.2 1.3 1.4 1.5 1.6 1.7 1.8 1.9 2.0 2.1 2.2 2.3 2.4
## [46] 2.5 2.6 2.7 2.8 2.9 3.0 3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9
## [61] 4.0 4.1 4.2 4.3 4.4 4.5 4.6 4.7 4.8 4.9 5.0 5.1 5.2 5.3 5.4
## [76] 5.5 5.6 5.7 5.8 5.9 6.0 6.1 6.2 6.3 6.4 6.5 6.6 6.7 6.8 6.9
## [91] 7.0 7.1 7.2 7.3 7.4 7.5 7.6 7.7 7.8 7.9 8.0 8.1 8.2 8.3 8.4
## [106] 8.5 8.6 8.7 8.8 8.9 9.0 9.1 9.2 9.3 9.4 9.5 9.6 9.7 9.8 9.9
## [121] 10.0 10.1 10.2 10.3 10.4 10.5 10.6 10.7 10.8 10.9 11.0 11.1 11.2 11.3 11.4
## [136] 11.5 11.6 11.7 11.8 11.9 12.0
datos<-c(0,10,9,8,11,3,3,8,8,11)
for (k in mi_secuencia) {
1
resultado <- funcion1(k, datos)
densidad_posterior <- append(densidad_posterior, resultado)
}
2
Densidad Posterior
3e−08
2e−08
Densidad
1e−08
0e+00
0 4 8 12
Theta
Cómo podemos observar, la mayoría de la densidad esta a la derecha de la distribución. Asimismo, la altura
en realidad es pequeña. Tiene una gran concentración en pocos valores de theta
d. Calcula la media posterior y desviación estándar posterior.
Media de la posterior
df$producto<-df$theta*df$densidad
mean(df$producto)
## [1] 3.051009e-08
desviación<-sqrt(var(df$producto))
desviación
## [1] 7.101748e-08
Robustez Bayesiana. Supongan que están a punto de lanzar una moneda que creen que es
honesta. Si p denota la probabilidad de obtener sol, entonces su mejor creencia es que p =
0.5 Adicionalmente, creen que es altamente probable que la moneda sea cercana a honesta, lo
que cuantifican como P(0.44 < p < 0.56) = 0.9. Consideren las siguientes dos iniciales para
p: P1 p -> beta(100, 100) P2 p -> 0.9beta(500, 500) + 0.1beta(1, 1)
3
a. Simular 1000 valores de cada densidad inicial P1 y P2. Resumiendo las muestras simuladas,
mostrar que ambas iniciales concuerdan con las creencias iniciales acerca de la probabilidad p
del lanzamiento de moneda.
Para P1
for (i in 1:num_simulaciones) {
simulacion <- rbeta(i, shape1, shape2)
valores_convergentes[i] <- mean(simulacion)
}
0.50
0.49
0.48
Número de simulaciones
Para P2
4
shape3 <- 500
shape4 <- 500
#
shape5 <- 1
shape6 <- 1
num_simulaciones <- 1000
## [1] 0.961
5
Histograma de Simulaciones
Intervalo 90%
80
60
Frecuencia
40
20
0
Valores Simulados
par(mfrow=c(1,1))
Para P2
6
hist(simulaciones, breaks = 30, main = "Histograma de Simulaciones",
xlab = "Valores Simulados", ylab = "Frecuencia", col = "lightblue", border = "black")
Histograma de Simulaciones
Intervalo 90%
120
Frecuencia
20 40 60 80
0
Valores Simulados
par(mfrow=c(1,1))
c. Supongan que sólo observan 30 soles de los 100 lanzamientos. Nuevamente simular 1000
valores de las dos posteriores y calcular intervalos de probabilidad del 90 %.
P1
7
intervalo_prob_90 <- quantile(simulaciones, c(0.05, 0.95))
Histograma de Simulaciones
80
Intervalo 90%
60
Frecuencia
40
20
0
Valores Simulados
par(mfrow=c(1,1))
P2
8
shape3 <- 530
shape4 <- 570
shape5 <- 31
shape6 <- 71
9
Histograma de Simulaciones
150
Intervalo 90%
100
Frecuencia
50
0
Valores Simulados
par(mfrow=c(1,1))
d. Viendo los resultados de (b) y (c), comentar sobre la robustez de la inferencia con respecto
a la elección de la densidad inicial en cada caso.
Como podemos observar, existe robustez respecto a la elección de la densidad inicial pues en el inciso b, la
moneda, a pesar de los cambios muestra, una idea razonable de que sigue siendo justa en ambos casos, por
el contrario en el caso C, ambas inciales ya no muestran que la moneda sea justa.
6. Aprendiendo de datos agrupados. Supongan que manejan en carretera y típicamente
manejan a una velocidad constante de 70km/h. Un día, rebasan un carro y son rebasados por
17 carros. Supongan que las velocidades son distribuídas N (µ, 100). Si rebasan s carros y son
rebasados por f,
a. ¿Cuál es la verosimilitud de µ?
b. Asignando una densidad inicial plana para µ, si s = 1 y f = 17, graficar la densidad posterior
de µ.
s=1
f=17
sigma=10
x = seq(0,1,length=200)
10
prior = dbeta(x,1 ,1)
mu=1:200
verosimilitud = pnorm(70, mu, sigma)ˆs * (1 - pnorm(70, mu, sigma))ˆf
posterior = prior*verosimilitud/sum(prior*verosimilitud)
plot(mu, posterior, type = 'l', ylab = "posterior", main = "la densidad posterior de µ")
la densidad posterior de µ
0.08
0.06
posterior
0.04
0.02
0.00
mu
sum(mu * posterior)
## [1] 87.11109
sum(posterior[80:200])
## [1] 0.9468573
11