Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Índice__________________________________________________________________ 2
Resumen_______________________________________________________________ 3
Introducción____________________________________________________________ 4
Procedimiento, materiales y métodos_________________________________________ 5
Resultados______________________________________________________________ 5
Discusión______________________________________________________________ 23
Referencias y anexos_____________________________________________________ 24
2
Resumen
3
Introducción
Por otro lado, un suceso, cuando es producido por otros pequeños sucesos, se tienden a
distribuirse normalmente. La distribución normal es de variable continua, especificada por 2
parámetros de los que depende su función de densidad. Estos parámetros son μ y σ (media y
desviación) (Spiegel, 1991, 161).
Vamos a llamar estado a cada una de las sumas de lanzamiento, y microestados a cada
distribución de resultados que dé esa suma. Para lograr obtener los microestados de cada
estado se usó Python, de esta forma los dados no estarían cargados y saldría lo más azaroso
posible.
4
Procedimiento, materiales y métodos
En el presente trabajo se usó el código de Python entregado, con el cual se debió “lanzar” 3
dados, primero con 8 repeticiones, luego 16, 32, 64 y finalmente 128. El número mínimo de
la sumatoria de los 3 dados que se puede obtener es el 3 (1+1+1) y el máximo es 18 (6+6+6).
A estos les llamamos estados. Luego, mediante el código se extrajo los distintos gráficos que
se obtuvieron en Python y las probabilidades de obtener cada estado (microestados). Estas
posibilidades se sumaron en total, condensando estos datos en una tabla (ítem a) para luego
calcular la entropía de cada estado a partir de la cantidad de microestados obtenidos (ítem b)
y estos a su vez compararlos con los microestados teóricos. Después, se buscó el estado que
más se asemejaba a la distribución teórica, donde el que posee menor error promedio es el
que buscábamos (ítem c). Además, se comparó la distribución normal teórica con la obtenida
(ítem e). También, se calculó la probabilidad de obtener una suma s menor que cada estado b
para n = 3, 4 y 5, considerando todas las s posibles (ítem f).
Resultados
5
PE: Probabilidad de cada estado
Wt: Número teórico de microestados
Wm: Número de microestados obtenidos
ln (Wm): Entropía de cada estado
N° de veces = 8
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 0 —
6 10 10216 0 —
7 15 15216 0 —
8 21 21216 2 0.6931
9 25 25216 0 —
10 27 27216 1 0
11 27 27216 1 0
12 25 25216 0 —
13 21 21216 0 —
14 15 15216 0 —
15 10 10216 1 0
16 6 6216 1 0
17 3 3216 1 0
18 1 1216 0 —
N° de veces = 16
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 0 —
6 10 10216 1 0
7 15 15216 0 —
8 21 21216 1 0
9 25 25216 3 1.0986
10 27 27216 2 0.6931
11 27 27216 2 0.6931
12 25 25216 2 0.6931
13 21 21216 0 —
14 15 15216 0 —
15 10 10216 0 —
16 6 6216 0 —
17 3 3216 0 —
18 1 1216 0 —
6
N° de veces = 32
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 1 0
6 10 10216 2 0.6931
7 15 15216 1 0
8 21 21216 1 0
9 25 25216 3 1.0986
10 27 27216 1 0
11 27 27216 4 1.3863
12 25 25216 3 1.0986
13 21 21216 3 1.0986
14 15 15216 1 0
15 10 10216 0 —
16 6 6216 1 0
17 3 3216 0 —
18 1 1216 0 —
N° de veces = 64
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 2 0.6931
6 10 10216 3 1.0986
7 15 15216 6 1.7917
8 21 21216 8 2.0794
9 25 25216 9 2.1972
10 27 27216 9 2.1972
11 27 27216 7 1.9459
12 25 25216 8 2.0794
13 21 21216 0 —
14 15 15216 7 1.9459
15 10 10216 5 1.6094
16 6 6216 1 0
17 3 3216 1 0
18 1 1216 0 —
7
N° de veces = 128
Estado Wt PE Wm ln (Wm)
3 1 1216 0 —
4 3 4216 2 0.6931
5 6 6216 9 2.1972
6 10 10216 3 1.0986
7 15 15216 12 2.4849
8 21 21216 11 2.3979
9 25 25216 16 2.7726
10 27 27216 26 3.2561
11 27 27216 11 2.3979
12 25 25216 11 2.3979
13 21 21216 11 2.3979
14 15 15216 11 2.3979
15 10 10216 4 1.3863
16 6 6216 4 1.3863
17 3 1216 0 —
18 1 4216 2 0.6931
8
b) Distribución de probabilidad de microestados para cada estado
Para 8 Para 16
Para 32 Para 64
Para 128
9
c) Gráfico de entropía teórica y los conjuntos de datos. ¿Qué conjunto se acerca más a la
distribución teórica? Justifique numéricamente.
8 lanzamientos 16 lanzamientos
32 lanzamientos 64 lanzamientos
128 lanzamientos
10
El método más efectivo para averiguar cuál es el conjunto que más se acerca o ajusta a la
entropía teórica es, con ayuda de las barras de error, calcular el error promedio asociado a
cada gráfico. Para esto, se calcula el error asociado a cada punto, este valor corresponde a la
diferencia entre la entropía teórica y experimental:
8 lanzamientos
∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3
∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4
∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5
∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
6 6
∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7
∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 0 = 3. 22
9
∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0. 6931 = 3. 3
10 10
∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0 = 3. 3
11 11
∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 0 = 3. 22
12 12
∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13
∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14
∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15
∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16
11
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17
∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18
1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜8 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 2. 1404
16 lanzamientos
∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3
∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4
∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5
∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
6 6
∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7
∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 3979 = 3. 04
8 8
∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13
∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14
∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15
12
∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17
∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18
1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜16 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 9851
32 lanzamientos
∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3
∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4
∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5
∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7
∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
8 8
∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0 = 3. 3
10 10
∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14
13
∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15
∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17
∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18
1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜32 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 8478
64 lanzamientos
∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3
∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4
∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13
14
∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 1. 9459 = 0. 7641
14 14
∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17
∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18
1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜64 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 1735
128 lanzamientos
∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3
15
∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 3979 = 0. 6421
13 13
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17
∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0. 6931*
18 18
1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜128 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 0. 5287
(El resultado de ∆𝑆5 y ∆𝑆18es negativo, sin embargo, al estar calculando la distancia entre un
Al analizar los resultados se puede concluir que el gráfico para 128 lanzamientos posee el
menor valor de error promedio, por lo que es el que más se ajusta al modelo teórico.
16
d) Si ahora se aumenta la cantidad de dados a n, la expresión para la probabilidad de que la
⌊(𝑠−𝑛)/6⌋
1 𝑘
suma sea s es 𝑃(𝑛, 𝑠) = 𝑛 ∑ (− 1) . Por ejemplo, para 3 dados, la
6 𝑘=0
⌊(𝑠−3)/6⌋
1 𝑘
𝑃(𝑛 = 3, 𝑠) = 3 ∑ (− 1)
6 𝑘=0
⌊(𝑠−3)/6⌋
1 𝑘 3! (𝑠−6𝑘−1)(𝑠−6𝑘−2)
𝑃(𝑛 = 3, 𝑠) = 3 ∑ (− 1) · 𝑘!(3−𝑘)!
· 2
6 𝑘=0
en el caso particular cuando s = 4, la función ⌊(s − 3)/6⌋ = 0 (entero inferior más cercano), y
se puede simplificar cuando s ≤ 8 a,
1 (𝑠−1)(𝑠−2)
𝑃(𝑛 = 3, 𝑠) = 3 2
,
6
1 (3)(2)
𝑃(𝑛 = 3, 𝑠 = 4) = 3 2
,
6
3
𝑃(𝑛 = 3, 𝑠 = 4) = 216
17
e) P(n,s) se puede aproximar a una distribución normal de media μ = 3.5n y σ = 2. 91𝑛, es
decir, compare gráficamente las expresiones para n = 3, 4, 5.
18
𝑃𝑎𝑟𝑎 𝑛 = 3: 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 3: 0. 005569
19
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 12: 0. 278867
20
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 16: 0. 347070
21
g) Comente brevemente en términos termodinámicos sus resultados al aumentar n.
R: Los estados con mayor entropía son los valores intermedios dentro de las posibles sumas
(9, 10, 11 y 12). Esto se debe a que, estos estados poseen una mayor cantidad de microestados
posibles, es decir, el número de combinaciones entre los dados que al sumarlos da como
resultado estos valores.
22
Discusión
23
Referencias y anexos
Serway, R. A., & Faughn, J. S. (2001). Leyes de la termodinámica. In Física (pp. 390-392).
Interamericana.
import numpy as np
import matplotlib.pyplot as plt
print(hist)
print(bin_edges)
24
Para la sección B) se usó el siguiente código:
25
distribucion = counts / num_lanzamientos
return unique, distribucion
# Parámetros
num_caras_dado = 6
num_lanzamientos = 100000
plt.ylabel('Probabilidad')
plt.title('Distribución de Probabilidad para n=3, 4, 5')
plt.legend()
plt.grid(True)
plt.show()
26
Para la sección e) se usó el siguiente código:
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm
from scipy.integrate import quad
probabilidades=[]
for b in b_values:
27
probabilidad, _=quad(lambda x: norm.pdf(x, media,
desviacion_estandar), -np.inf, b)
probabilidades.append(probabilidad)
return probabilidades
valores_de_n = [3, 4, 5]
28
29