Está en la página 1de 29

Módulo Integrador

Matemática II y Física II - Tecnología Médica

Integrantes: Araxi Contreras


Benjamín Cerda Grupo: π𝑐𝑜𝑠(θ)
Fecha: 04/12/2023
Iren Sfeir
Vicente Camilla
Sebastián Barrera
Índice

Índice__________________________________________________________________ 2
Resumen_______________________________________________________________ 3
Introducción____________________________________________________________ 4
Procedimiento, materiales y métodos_________________________________________ 5
Resultados______________________________________________________________ 5
Discusión______________________________________________________________ 23
Referencias y anexos_____________________________________________________ 24

2
Resumen

El concepto de “Entropía” se aplica en diversos campos científicos, tanto en la mecánica de la


información como en la termodinámica. En este contexto particular, se aborda la entropía
desde su perspectiva estadística para analizar los distintos estados (resultados de los
lanzamientos) que surgen de los microestados (posibilidades de obtener dichos resultados)
mediante el lanzamiento de 3 dados usando código de Python.

La investigación se lleva a cabo utilizando herramientas informáticas para simular


lanzamientos con variaciones en la magnitud. Se realizan análisis gráficos y muestreos
correspondientes. De esta manera, se logra alcanzar los diversos objetivos establecidos y se
obtiene una comprensión más profunda de la entropía en el contexto de los lanzamientos de
dados, brindando perspectivas sobre el comportamiento y la variabilidad asociada a estos
procesos.

3
Introducción

La termodinámica se puede definir como la ciencia que estudia el proceso de transformación


de la energía, la cual explica las interacciones energéticas que ocurren en un sistema. Al
mismo tiempo, existen diversos procesos termodinámicos que ocurren de cierto modo
basándose en la entropía, la cual Boltzmann definió como una medida de la cantidad de
microestados posibles de un sistema en un macroestado sujeto (Serway & Faughn, 2001,
390).

La entropía puede tener un enfoque diferente asociado al mecanismo estadístico, donde la


forma en la que se comporta una sustancia es descrita según el comportamiento estadístico de
átomos y moléculas que contiene la misma. Asimismo, tienden a un desorden mayor sistemas
que se encuentren aislados, considerándose a la entropía como una medida de desorden.

Por otro lado, un suceso, cuando es producido por otros pequeños sucesos, se tienden a
distribuirse normalmente. La distribución normal es de variable continua, especificada por 2
parámetros de los que depende su función de densidad. Estos parámetros son μ y σ (media y
desviación) (Spiegel, 1991, 161).

Vamos a llamar estado a cada una de las sumas de lanzamiento, y microestados a cada
distribución de resultados que dé esa suma. Para lograr obtener los microestados de cada
estado se usó Python, de esta forma los dados no estarían cargados y saldría lo más azaroso
posible.

4
Procedimiento, materiales y métodos
En el presente trabajo se usó el código de Python entregado, con el cual se debió “lanzar” 3
dados, primero con 8 repeticiones, luego 16, 32, 64 y finalmente 128. El número mínimo de
la sumatoria de los 3 dados que se puede obtener es el 3 (1+1+1) y el máximo es 18 (6+6+6).
A estos les llamamos estados. Luego, mediante el código se extrajo los distintos gráficos que
se obtuvieron en Python y las probabilidades de obtener cada estado (microestados). Estas
posibilidades se sumaron en total, condensando estos datos en una tabla (ítem a) para luego
calcular la entropía de cada estado a partir de la cantidad de microestados obtenidos (ítem b)
y estos a su vez compararlos con los microestados teóricos. Después, se buscó el estado que
más se asemejaba a la distribución teórica, donde el que posee menor error promedio es el
que buscábamos (ítem c). Además, se comparó la distribución normal teórica con la obtenida
(ítem e). También, se calculó la probabilidad de obtener una suma s menor que cada estado b
para n = 3, 4 y 5, considerando todas las s posibles (ítem f).

Resultados

a) Completar la siguiente tabla para 8, 16 ,32 ,64 y 128 lanzamientos

Estado 8 16 32 64 128 Total


3 0 0 0 0 0 0
4 0 0 0 0 2 2
5 0 0 1 2 9 12
6 0 1 2 3 3 9
7 0 0 1 6 12 19
8 2 1 1 8 11 20
9 0 3 3 9 16 31
10 1 2 1 9 26 39
11 1 2 4 7 11 25
12 0 2 3 8 11 24
13 0 2 3 0 11 16
14 0 0 1 7 11 19
15 1 0 0 5 4 10
16 1 0 1 1 4 7
17 1 0 0 1 1 3
18 0 0 0 0 0 0

5
PE: Probabilidad de cada estado
Wt: Número teórico de microestados
Wm: Número de microestados obtenidos
ln (Wm): Entropía de cada estado

N° de veces = 8
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 0 —
6 10 10216 0 —
7 15 15216 0 —
8 21 21216 2 0.6931
9 25 25216 0 —
10 27 27216 1 0
11 27 27216 1 0
12 25 25216 0 —
13 21 21216 0 —
14 15 15216 0 —
15 10 10216 1 0
16 6 6216 1 0
17 3 3216 1 0
18 1 1216 0 —

N° de veces = 16
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 0 —
6 10 10216 1 0
7 15 15216 0 —
8 21 21216 1 0
9 25 25216 3 1.0986
10 27 27216 2 0.6931
11 27 27216 2 0.6931
12 25 25216 2 0.6931
13 21 21216 0 —
14 15 15216 0 —
15 10 10216 0 —
16 6 6216 0 —
17 3 3216 0 —
18 1 1216 0 —

6
N° de veces = 32
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 1 0
6 10 10216 2 0.6931
7 15 15216 1 0
8 21 21216 1 0
9 25 25216 3 1.0986
10 27 27216 1 0
11 27 27216 4 1.3863
12 25 25216 3 1.0986
13 21 21216 3 1.0986
14 15 15216 1 0
15 10 10216 0 —
16 6 6216 1 0
17 3 3216 0 —
18 1 1216 0 —

N° de veces = 64
Estado Wt PE Wm ln(Wm)
3 1 1216 0 —
4 3 4216 0 —
5 6 6216 2 0.6931
6 10 10216 3 1.0986
7 15 15216 6 1.7917
8 21 21216 8 2.0794
9 25 25216 9 2.1972
10 27 27216 9 2.1972
11 27 27216 7 1.9459
12 25 25216 8 2.0794
13 21 21216 0 —
14 15 15216 7 1.9459
15 10 10216 5 1.6094
16 6 6216 1 0
17 3 3216 1 0
18 1 1216 0 —

7
N° de veces = 128
Estado Wt PE Wm ln (Wm)
3 1 1216 0 —
4 3 4216 2 0.6931
5 6 6216 9 2.1972
6 10 10216 3 1.0986
7 15 15216 12 2.4849
8 21 21216 11 2.3979
9 25 25216 16 2.7726
10 27 27216 26 3.2561
11 27 27216 11 2.3979
12 25 25216 11 2.3979
13 21 21216 11 2.3979
14 15 15216 11 2.3979
15 10 10216 4 1.3863
16 6 6216 4 1.3863
17 3 1216 0 —
18 1 4216 2 0.6931

8
b) Distribución de probabilidad de microestados para cada estado

Para 8 Para 16

Para 32 Para 64

Para 128

9
c) Gráfico de entropía teórica y los conjuntos de datos. ¿Qué conjunto se acerca más a la
distribución teórica? Justifique numéricamente.

8 lanzamientos 16 lanzamientos

32 lanzamientos 64 lanzamientos

128 lanzamientos

10
El método más efectivo para averiguar cuál es el conjunto que más se acerca o ajusta a la
entropía teórica es, con ayuda de las barras de error, calcular el error promedio asociado a
cada gráfico. Para esto, se calcula el error asociado a cada punto, este valor corresponde a la
diferencia entre la entropía teórica y experimental:

8 lanzamientos

∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3

∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4

∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5

∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
6 6

∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7

∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0. 6931 = 2. 3469


8 8

∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 0 = 3. 22
9

∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0. 6931 = 3. 3
10 10

∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0 = 3. 3
11 11

∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 0 = 3. 22
12 12

∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13

∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14

∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15

∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16

11
∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17

∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18

1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜8 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 2. 1404

16 lanzamientos

∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3

∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4

∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5

∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
6 6

∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7

∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 3979 = 3. 04
8 8

∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 1. 0986 = 2. 1214


9

∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0. 6931 = 2. 6069


10 10

∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0. 6931 = 2. 6069


11 11

∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 0. 6931 = 2. 5269


12 12

∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13

∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14

∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15

12
∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16

∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17

∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18

1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜16 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 9851

32 lanzamientos

∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3

∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4

∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
5

∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 0. 6931 = 1. 6069


6 6

∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
7 7

∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
8 8

∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 1. 0986 = 2. 1214


9

∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 0 = 3. 3
10 10

∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 1. 3863 = 1. 9137


11 11

∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 1. 0986 = 2. 1214


12 12

∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 1. 0986 = 1. 9414


13 13

∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 0 = 2. 71
14 14

13
∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 0 = 2. 3
15

∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16

∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17

∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18

1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜32 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 8478

64 lanzamientos

∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3

∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
4 4

∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 0. 6931 = 2. 4913


5

∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 1. 0986 = 1. 2914


6 6

∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 1. 7917 = 0. 9183


7 7

∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 0794 = 0. 9606


8 8

∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 2. 1972 = 1. 0228


9

∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 2. 1972 = 1. 1028


10 10

∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 1. 9459 = 1. 3541


11 11

∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 2. 0794 = 1. 1406


12 12

∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 0 = 3. 04
13 13

14
∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 1. 9459 = 0. 7641
14 14

∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 1. 6094 = 0. 6906


15

∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 0 = 1. 8
16 16

∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17

∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0
18 18

1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜64 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 1. 1735

128 lanzamientos

∆𝑆3 = 𝑆𝑡 − 𝑆𝑊 = 0
3 3

∆𝑆4 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0. 6931 = 0. 4069


4 4

∆𝑆5 = 𝑆5 − 𝑆𝑊 = 1. 8 − 2. 1972 = 0. 3972 *


5

∆𝑆6 = 𝑆𝑡 − 𝑆𝑊 = 2. 3 − 1. 0986 = 1. 2014


6 6

∆𝑆7 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 2. 4948 = 0. 2152


7 7

∆𝑆8 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 3979 = 0. 6421


8 8

∆𝑆9 = 𝑆9 − 𝑆𝑊 = 3. 22 − 2. 7726 = 0. 4474


9

∆𝑆10 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 3. 2561 = 0. 0439


10 10

∆𝑆11 = 𝑆𝑡 − 𝑆𝑊 = 3. 3 − 2. 3979 = 0. 9021


11 11

∆𝑆12 = 𝑆𝑡 − 𝑆𝑊 = 3. 22 − 2. 3979 = 0. 8221


12 12

15
∆𝑆13 = 𝑆𝑡 − 𝑆𝑊 = 3. 04 − 2. 3979 = 0. 6421
13 13

∆𝑆14 = 𝑆𝑡 − 𝑆𝑊 = 2. 71 − 2. 3979 = 0. 3121


14 14

∆𝑆15 = 𝑆15 − 𝑆𝑊 = 2. 3 − 1. 3863 = 0. 9137


15

∆𝑆16 = 𝑆𝑡 − 𝑆𝑊 = 1. 8 − 1. 3863 = 0. 4137


16 16

∆𝑆17 = 𝑆𝑡 − 𝑆𝑊 = 1. 1 − 0 = 1. 1
17 17

∆𝑆18 = 𝑆𝑡 − 𝑆𝑊 = 0. 6931*
18 18

1
𝑒𝑟𝑟𝑜𝑟 𝑝𝑟𝑜𝑚𝑒𝑑𝑖𝑜128 𝑙𝑎𝑛𝑧𝑎𝑚𝑖𝑒𝑛𝑡𝑜𝑠 = 16
· ∑ ∆𝑆𝑛 ≈ 0. 5287

(El resultado de ∆𝑆5 y ∆𝑆18es negativo, sin embargo, al estar calculando la distancia entre un

punto y el otro, se considera el valor absoluto).

Al analizar los resultados se puede concluir que el gráfico para 128 lanzamientos posee el
menor valor de error promedio, por lo que es el que más se ajusta al modelo teórico.

16
d) Si ahora se aumenta la cantidad de dados a n, la expresión para la probabilidad de que la
⌊(𝑠−𝑛)/6⌋
1 𝑘
suma sea s es 𝑃(𝑛, 𝑠) = 𝑛 ∑ (− 1) . Por ejemplo, para 3 dados, la
6 𝑘=0

expresión anterior se puede desarrollar como,

⌊(𝑠−3)/6⌋
1 𝑘
𝑃(𝑛 = 3, 𝑠) = 3 ∑ (− 1)
6 𝑘=0

⌊(𝑠−3)/6⌋
1 𝑘 3! (𝑠−6𝑘−1)(𝑠−6𝑘−2)
𝑃(𝑛 = 3, 𝑠) = 3 ∑ (− 1) · 𝑘!(3−𝑘)!
· 2
6 𝑘=0

en el caso particular cuando s = 4, la función ⌊(s − 3)/6⌋ = 0 (entero inferior más cercano), y
se puede simplificar cuando s ≤ 8 a,

1 (𝑠−1)(𝑠−2)
𝑃(𝑛 = 3, 𝑠) = 3 2
,
6

1 (3)(2)
𝑃(𝑛 = 3, 𝑠 = 4) = 3 2
,
6

3
𝑃(𝑛 = 3, 𝑠 = 4) = 216

Grafique en Python el valor de la distribución de probabilidad para n = 3, 4, 5 y todas las


sumas posible

17
e) P(n,s) se puede aproximar a una distribución normal de media μ = 3.5n y σ = 2. 91𝑛, es
decir, compare gráficamente las expresiones para n = 3, 4, 5.

f) Utilizando la aproximación normal de P(n,s), calcular numéricamente la probabilidad de


que s < b, para n = 3, 4, 5 con todos los valores posibles de s.

18
𝑃𝑎𝑟𝑎 𝑛 = 3: 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 3: 0. 005569

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 4: 0. 013906

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 5: 0. 031339

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 6: 0. 063877

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 7: 0. 118094

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 8: 0. 198742

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 9: 0. 305841

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 10: 0. 432810

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 11: 0. 567190

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 12: 0. 694159

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 13: 0. 801258

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 14: 0. 881906

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 15: 0. 936123

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 16: 0. 968661

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 17: 0. 986094

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 18: 0. 994431

𝑃𝑎𝑟𝑎 𝑛 = 4: 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 4: 0. 001689

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 5: 0. 004170

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 6: 0. 009518

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 7: 0. 020098

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 8: 0. 039320

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 9: 0. 071389

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 10: 0. 120514

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 11: 0. 189615

19
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 12: 0. 278867

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 13: 0. 384721

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 14: 0. 500000

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 15: 0. 615279

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 16: 0. 721133

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 17: 0. 810385

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 18: 0. 879486

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 19: 0. 928611

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 20: 0. 960680

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 21: 0. 979902

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 22: 0. 990482

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 23: 0. 995830

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 24: 0. 998311

𝑃𝑎𝑟𝑎 𝑛 = 5: 𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 5: 0. 000525

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 6: 0. 001286

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 7: 0. 002955

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 8: 0. 006378

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 9: 0. 012928

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 10: 0. 024637

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 11: 0. 044186

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 12: 0. 074667

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 13: 0. 119055

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 14: 0. 179423

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 15: 0. 256104

20
𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 16: 0. 347070

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 17: 0. 447856

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 18: 0. 552144

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 19: 0. 652930

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 20: 0. 743896

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 21: 0. 820577

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 22: 0. 880945

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 23: 0. 925333

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 24: 0. 955814

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 25: 0. 975363

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 26: 0. 987072

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 27: 0. 993622

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 28: 0. 997045

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 29: 0. 998714

𝑃𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 𝑝𝑎𝑟𝑎 𝑠 < 30: 0. 999475

21
​g) Comente brevemente en términos termodinámicos sus resultados al aumentar n.

R: Según la pregunta previa el término n corresponde al número de dados, y cuando su valor


es aumentado, aumenta también la cantidad de estados posibles y, por ende, a una mayor
cantidad de microestados posibles, lo que está asociado en términos termodinámicos en un
aumento de la entropía total. Esto puede apreciarse gráficamente como:

h) ¿Cuál es el o los estado(s) con mayor entropía? ¿Por qué?

R: Los estados con mayor entropía son los valores intermedios dentro de las posibles sumas
(9, 10, 11 y 12). Esto se debe a que, estos estados poseen una mayor cantidad de microestados
posibles, es decir, el número de combinaciones entre los dados que al sumarlos da como
resultado estos valores.

22
Discusión

En conclusión, el presente informe ha abordado de manera integral los objetivos establecidos.


Se ha profundizado en la comprensión de los conceptos de microestados y macroestados en
sistemas, destacando su importancia teórica. Además, se logró la aplicación práctica de estos
conceptos utilizando la herramienta de computación científica Python.

La ejecución de la situación experimental, lanzando tres dados virtuales con frecuencias


específicas, permitió la obtención de datos relevantes. Estos datos fueron registrados en tablas
y posteriormente analizados para extraer conclusiones significativas. Las visualizaciones
gráficas proporcionaron una representación clara de los resultados, lo que facilitó la
identificación de patrones y la determinación de probabilidades asociadas a los diferentes
macroestados. El gráfico para 128 lanzamientos posee el menor valor de error promedio, por
lo que es el que más se ajusta al modelo teórico.

Este enfoque integrador ha contribuido no solo a fortalecer la comprensión teórica de los


conceptos estudiados, sino también a desarrollar habilidades prácticas en la aplicación de
herramientas computacionales para el análisis de sistemas complejos. Los resultados
obtenidos y analizados a la luz de la teoría existente respaldan la validez y relevancia de los
conceptos de microestado y macroestado en el contexto de la experimentación realizada.

23
Referencias y anexos

Serway, R. A., & Faughn, J. S. (2001). Leyes de la termodinámica. In Física (pp. 390-392).

Interamericana.

Spiegel, M. R. (1991). Distribución binomial, normal y de Poisson. In Estadística (pp.

160-162). McGraw-Hil Interamericana de México.

Código para simular lanzamiento de dados:

import numpy as np
import matplotlib.pyplot as plt

# genera N valores aleatorios entre 1 y 6 enteros


# se reemplazan (se pueden repetir)
N = 128
dado1 = np.random.randint(1, 6, N)
dado2 = np.random.randint(1, 6, N)
dado3 = np.random.randint(1, 6, N)

estado = dado1 + dado2 + dado3


print(estado)
print(estado == 17)

# construye un histograma de las repeticiones de cada dado


# entrega los conteos y muestra un gráfico
hist, bin_edges = np.histogram(estado, bins=range(3, 18))

print(hist)
print(bin_edges)

plt.hist(estado, bins=range(3, 18), align='left', rwidth=0.8)


plt.title("Histograma de los Resultados de los Dados")
plt.xlabel("Suma de los Lanzamientos de Dados")
plt.ylabel("Frecuencia")
plt.show()

24
Para la sección B) se usó el siguiente código:

Para la sección C) se usó el siguiente código:

Para la sección D) se usó el siguiente código:


import matplotlib.pyplot as plt
import numpy as np

def calcular_distribucion_probabilidad(n, num_caras_dado,


num_lanzamientos):
resultados = np.sum(np.random.randint(1, num_caras_dado + 1,
size=(num_lanzamientos, n)), axis=1)
unique, counts = np.unique(resultados, return_counts=True)

25
distribucion = counts / num_lanzamientos
return unique, distribucion

# Parámetros
num_caras_dado = 6
num_lanzamientos = 100000

# Calcular la distribución de probabilidad para n=3, n=4, n=5


resultados_n3, distribucion_n3 = calcular_distribucion_probabilidad(3,
num_caras_dado, num_lanzamientos)
resultados_n4, distribucion_n4 = calcular_distribucion_probabilidad(4,
num_caras_dado, num_lanzamientos)
resultados_n5, distribucion_n5 = calcular_distribucion_probabilidad(5,
num_caras_dado, num_lanzamientos)

# Crear el gráfico de distribución de probabilidad


plt.plot(resultados_n3, distribucion_n3, label='n=3')
plt.plot(resultados_n4, distribucion_n4, label='n=4')
plt.plot(resultados_n5, distribucion_n5, label='n=5')
plt.xlabel('Suma de los Dados')

plt.ylabel('Probabilidad')
plt.title('Distribución de Probabilidad para n=3, 4, 5')
plt.legend()
plt.grid(True)
plt.show()

26
Para la sección e) se usó el siguiente código:

Para la sección F) se usó:

import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import norm
from scipy.integrate import quad

def calcular_probabilidad(n, b_values):


media = 3.5*n
desviacion_estandar = np.sqrt(2.91*n)

probabilidades=[]

for b in b_values:

27
probabilidad, _=quad(lambda x: norm.pdf(x, media,
desviacion_estandar), -np.inf, b)
probabilidades.append(probabilidad)

return probabilidades

valores_de_n = [3, 4, 5]

b_values_n3 = np.arange(3, 19)


b_values_n4 = np.arange(4, 25)
b_values_n5 = np.arange(5, 31)

probabilidades_n3 = calcular_probabilidad(valores_de_n[0], b_values_n3)


probabilidades_n4 = calcular_probabilidad(valores_de_n[1], b_values_n4)
probabilidades_n5 = calcular_probabilidad(valores_de_n[2], b_values_n5)
for n, b_values, probabilidades in zip(valores_de_n, [b_values_n3,
b_values_n4, b_values_n5], [probabilidades_n3, probabilidades_n4,
probabilidades_n5]):
print(f"\nPara n={n}:")
for b, probabilidad in zip(b_values, probabilidades):
print(f"Probabilidad para s<{b}:{probabilidad:.6f}")
plt.plot(b_values_n3, probabilidades_n3, label=f'n={valores_de_n[0]}')
plt.plot(b_values_n4, probabilidades_n4, label=f'n={valores_de_n[1]}')
plt.plot(b_values_n5, probabilidades_n5, label=f'n={valores_de_n[2]}')
plt.title('Probabilidad de s<b para diferentes valores de n')
plt.xlabel('b')
plt.ylabel('Probabilidad')
plt.legend()
plt.grid(True)
plt.show()

28
29

También podría gustarte