Está en la página 1de 12

Procesos Estocásticos

Licenciatura en Actuarı́a
Actividad de Aprendizaje1

Instrucciones. Resolver en equipos cada uno de los ejercicios de la lista de abajo 1 y escribir
un documento con las soluciones. El documento estará conformado por:

Portada. La portada debe contener los nombres del capitán del equipo y sus inte-
grantes, del profesor y de la asignatura.

Soluciones. Las soluciones deben ser escritas con letra clara, respetando las reglas de
acentuación y gramática. Cada solución debe estar en una página diferente y ordenados
de manera ascendente.

Referencias. Al final del documento escribir al menos una referencia del material
consultado para la elaboración de las soluciones de la ADA.

La ADA se entrega en formato digital. Todos los integrantes del equipo colocarán la solución
de la ADA en la plataforma Moodle. Si algún integrante no lo realiza, la calificación asignada
al alumno será cero. Si algún integrante lo realiza fuera de tiempo, la sanción se aplicará a
todo el equipo. La sanción corresponde a 10 puntos por dı́a de entrega tardı́a. Esta sanción
será aplicable a la calificación obtenida después de la revisión.

• El nombre del archivo debe tener el siguiente formato ADANúmero Apellido Nombre.
El formato para la fecha debe ser DD-MM-AA. No escribir abreviaciones en el apellido
ni en el nombre de alumno.

• El formato del documento es word o pdf. En caso de que se entregue la ADA escaneada,
las soluciones deben ser legibles, de lo contrario la ADA se anula. Es responsabilidad
del capitán del equipo verificar que las soluciones escritas sean legibles.

Lista de ejercicios

1. Sean X0 , X1 , X2 , . . . variables aleatorias independientes Bernoulli con parámetro p =


1/2. Sea
1
Y0 = X0 , Yn = (Xn + Xn−1 ), n ≥ 1.
2
(a) Muestre que
1 1 1
P(Yn = 0) = , P(Yn = 1/2) = , P(Yn = 1) = , n ≥ 1.
4 2 4

(b) Verifique que


1
P(Yn = 1 | Yn−1 = 1/2) = , P(Yn = 1 | Yn−1 = 1/2, Yn−2 = 1) = 0, n ≥ 2.
4

(c) Con base en lo obtenido en (b), concluya que {Yn , n ≥ 0} no es una cadena de
Markov.
1
En caso de que sea un ejercicio opcional, no es necesario entregar su solución.

1
2. Considere el modelo de colas visto. Suponga que como máximo, un sólo cliente llega
durante un único perı́odo, pero que el tiempo de servicio de un cliente es una variable
aleatoria Z con distribución de probabilidad geométrica:

P(Z = k) = α(1 − α)k−1 , para k = 1, 2, . . . .

Especifique las probabilidades de transición para la cadena de Markov cuyo estado es


el número de clientes que esperan servicio o están siendo servidos al comienzo de cada
perı́odo. Suponga que la probabilidad de que un cliente en un perı́odo es β y que
ningún cliente llegue tiene probabilidad 1 − β.

3. Un especialista en genética está interesado en saber cómo se comportará una población


de chı́charos que poseen en el laboratorio. Actualmente, se tiene registrado el genotipo
de los individuos que forman dicha población como se muestra en la imagen.

Sea Xn la variable aleatoria que representa el número de alelos W dentro del conjunto
de alelos de la n-ésima generación de chı́charos, se pide

(a) Determinar el espacio de estados correspondiente a {Xn }.


(b) Según los datos de la generación original, hallar p13 y q13 . ¿Qué representan estos
valores?
(c) Hallar la distribución de la variable aleatoria X1 (considera que los datos repre-
sentados corresponden a la generación “cero”).
(d) Proporcionar los datos correspondientes a la fila 13 de la matriz de transición.
(e) Considerando (d)
i. ¿Cuál es la probabilidad de que la siguiente generación de chı́charos posea
mayor cantidad de alelos dominantes que recesivos?
ii. ¿Cuál es la probabilidad de que se dé la fijación alélica en la siguiente
generación? ¿Qué significa eso?

2
4. Un dado honesto se arroja repetidamente y se asigna Xn el máximo de los valores que
han aparecido hasta el n-ésimo tiro. Entonces, {Xn , n ≥ 0} es una cadena de Markov.
Halle la matriz de transición.

5. Una urna contiene 5 etiquetas, de las cuales 3 son rojas y 2 son verdes. Una etiqueta
se selecciona al azar de la urna y se reemplaza con una etiqueta del color opuesto.
Esto continúa hasta que solo quedan etiquetas de un solo color en la urna. Sea Xn el
número de etiquetas rojas en la urna después del n-ésimo sorteo, con X0 = 3 ¿Cuál
es la probabilidad de que el juego termine con la urna que contiene solo las etiquetas
rojas?

6. Considere una compañı́a de seguros que gane $1 por dı́a (de interés), pero cada dı́a,
independientemente del pasado, podrı́a sufrir un reclamo en su contra por la cantidad
de $2 con probabilidad q = 1 − 0.6 = 0.4. Si la compañı́a de seguros comienza
inicialmente con una reserva de $10, ¿cuál es la probabilidad de que eventualmente se
arruine? Y si la aseguradora tiene un lı́mite de reservas de $25, ¿cuál es la probabilidad
de ruina?

7. Un modelo simplificado para la propagación de un rumor, dice lo siguiente: Hay N = 5


personas en un grupo de amigos, de los cuales algunos han escuchado el rumor y los
otros no. Durante un periodo de tiempo único, se seleccionan dos personas al azar del
grupo y se supone que interactúan. La selección es tal que un encuentro entre cualquier
par de amigos es tan probable como entre cualquier otro par. Si una de estas personas
ha escuchado el rumor, con probabilidad 0.1, lo transmitirá. Sea Xn el número de
amigos que han escuchado el rumor al final del n-ésimo periodo. Suponiendo que el
proceso comienza en el tiempo 0 con una sola persona que conoce el rumor. ¿Cuál es
el tiempo medio que se necesita para que todos los amigos conozcan el rumor?

8. Sea {Xn , n ≥ 0} la cadena de Ehrenfest sobre E = {0, 1, . . . , d}. Suponga que


   d
d 1
pi = P(X0 = i) = , i = 0, . . . , d.
i 2

Encuentre P(Xn = j), n ≥ 1.

9. Sea {Xn , n ≥ 0} un proceso estocástico con espacio de estados discreto E. De-


muestre que si {Xn , n ≥ 0} tiene incrementos independientes, entonces es una cadena
de Markov. Use este resultado para concluir de manera directa que toda caminata
aleatoria con espacio de estados discreto, es una cadena de Markov.

10. En el dı́a 0, una casa tiene dos focos nuevos en reserva. La probabilidad de que la
casa necesite un foco nuevo en el dı́a es p y la probabilidad de que no lo necesite es
q = 1 − p. Sea Xn el número de focos nuevos al final del dı́a n.

(a) El proceso estocástico {Xn , n ≥ 0} es una cadena de Markov con espacio de


estados E = {0, 1, 2}, ¿por qué es esto cierto?
(b) Encuentre la matriz de transición P de {Xn , n ≥ 0}
(c) Encuentre Pn y limn→∞ Pn . Interprete el resultado en términos del modelo.

3
11. Ejercicio Extra (Opcional ). Dos jugadores, A y B, participan en una serie de apues-
tas. El jugador A cuenta en un principio con 4 mil pesos y el jugador B con 6 mil
pesos. Se apuesta mil pesos en cada partida y el jugador A lanza dos dados. Si al
lanzar los dados aparece el número 7 (sumando los dos números de las caras superiores
de los dados), el jugador A gana, si es superior a 7, el jugador B gana y si es inferior
a este número se dice que hay empate. El juego se termina cuando A gana toda la
fortuna de B o pierde todo su capital inicial. Con respecto a este juego se plantean las
siguientes preguntas:

(a) ¿Cuál es la probabilidad de que el jugador A se arruine?


(b) ¿Cuál es el tiempo esperado de duración del juego?
(c) ¿Es posible hallar el número esperado de veces que A contará con su fortuna
inicial durante la duración del juego?

Conteste estas preguntas usando la metodologı́a de cadenas de Markov estudiada hasta


el momento. Si utiliza algún software, favor de especificar el nombre del software y
anexar los resultados obtenidos. Por ejemplo, si usa R anexe el script en el documento
a entregar.

4
Solución
1. (a) Tenemos
1
P(Xn = 0) = P(Yn = 0, Yn−1 = 0) = ,
4
1
P(Xn = 1/2) = P(Yn = 0, Yn−1 = 1) + P(Yn = 1, Yn−1 = 0) = ,
2
1
P(Xn = 1) = P(Yn = 1, Yn−1 = 1) = .
4
(b) Ahora,
P(Xn = 1, Xn−1 = 1/2)
P(Xn = 1 | Xn−1 = 1/2) =
P(Xn−1 = 1/2)
P(Yn = 1, Yn−1 = 1, Yn−2 = 0)
=
P(Yn−1 = 1, Yn−2 = 1)
(1/2)3 1
= =
1/2 4
y
P(Xn = 1, Xn−1 = 1/2, Xn−2 = 1)
P(Xn = 1 | Xn−1 = 1/2, Xn−2 = 1) = = 0.
P(Xn−1 = 1/2, Xn−2 = 1)
La última igualdad se obtiene porque no existen valores de Yn−3 , Yn−2 , Yn−1 , Yn
que cumplan Yn = 1, Yn−1 = 1/2, Yn−2 = 1.
(c) De lo anterior, se concluye que {Xn , n ≥ 0} no satisface la propiedad de Markov.
2. Observe que son tres posibilidades que pueden ocurrir si la cadena se encuentra en el
estado i, para i 6= 0. Estas posibilidades son retroceder al estado i − 1, quedarse en
el estado i y avanzar al estado i + 1. Ahora bien, observe que el servidor se desocupa
en un periodo dado si P(Z = 0) = α y sigue ocupado si P(Z ≥ 1) = 1 − α. De esta
manera, si la cadena se encuentra en el estado i, para que transite al estado i − 1, en el
periodo dado, el servidor se debe desocupar y no debe llegar ningún cliente, esto ocurre
con probabilidad α(1 − β). En el siguiente periodo la cadena se mantiene en el estado
i si no se desocupa el servidor y no llega ningún cliente, o bien, se desocupa el servidor
y llega un cliente, lo anterior ocurre con probabilidad (1 − α)(1 − β) + αβ. Por último,
la cadena transita al estado i + 1 si el servidor no se desocupa en el periodo dado y
llega un cliente, esto ocurre con probabilidad (1 − α)β. Para completar el análisis, en
el caso i = 0, solo puede ocurrir que llegue un cliente en un periodo con probabilidad
β o ningún cliente llegue en el periodo con probabilidad 1 − β. De aquı́,
P0,0 = 1 − β, P0,1 = β.
Por el análisis previamente realizado, se concluye que la matriz de transición para este
modelo está dada por
0 1 2 3 ...
 
0 1−β β 0 0 ...
1 α(1 − β) (1 − α)(1 − β) + αβ (1 − α)β 0 ...
 
P=  
2  0 α(1 − β) (1 − α)(1 − β) + αβ (1 − α)β ...
.. .. .. .. ..
. . . . . ...

5
3. (a) Con base en las caracterı́sticas del modelo, tenemos que E = {0, . . . , 2N }, donde
2N = 18.
(b) Tenemos que i = 13 y 2N = 18. Entonces
13 5
p13 = , q13 = .
18 18
El valor p13 representa la proporción de alelos W del total de alelos del mismo gen.
De esta manera, p13 es la probabilidad de obtener un alelo dominante, W , en cada
prueba o alelo de la siguiente generación. En este sentido, q13 es la probabilidad
de que el alelo observado sea recesivo, w, en cada ensayo que forma la siguiente
generación dado que la generación actual posee 5 alelos recesivos.
(c) El modelo de Wright-Fisher establece que X1 | X0 = i tiene distribución binomial
con parámetros 2N = 18 y pi = i/2N = i/18. Esto es
 
18 k 18−j
P(X1 = j | X0 = i) = pi qi , j = 0, 1, . . . , 18.
j
(d) La fila 13 se calcula mediante la fórmula
 
18 k 18−j
P(X1 = j | X0 = 13) = p13 q13 , j = 0, 1, . . . , 18.
j
Con ayuda del software R se calculan los valores de las probabilidades anteriores,
los cuales se escriben a continuación:
j P(X1 = j | X0 = 13)
0 9.695160 × 10−11
1 4.537335 × 10−9
2 1.002751 × 10−7
3 1.390481 × 10−6
4 1.355719 × 10−5
5 9.869637 × 10−5
6 5.559896 × 10−4
7 2.478125 × 10−3
8 8.859296 × 10−3
9 2.559352 × 10−2
10 5.988884 × 10−2
11 1.132444 × 10−1
12 1.717539 × 10−1
13 2.061047 × 10−1
14 1.913830 × 10−1
15 1.326922 × 10−1
16 6.468744 × 10−2
17 1.978675 × 10−2
18 2.858086 × 10−3
(e) i. Nos piden calcular P(X1 ≥ 10 | X0 = 13). Con ayuda de la tabla anterior se
verifica
18
X
P(X1 ≥ 10 | X0 = 13) = P(X1 = k | X0 = 13) = 0.9623993.
k=10

6
ii. La fijación en la siguiente generación sucede si la cadena llega al estado 0 ó
al estado 18. Por lo tanto, la probabilidad pedida es

P(X1 = 0 | X0 = 13) + P(X1 = 18 | X0 = 13) = 0.002858086.

4. La cadena de Markov {Xn , n ≥ 0} corresponde a la de máximos sucesivos con espacio


de estados E = {1, 2, 3, 4, 5, 6}. La matriz de transición de esta cadena está dada por

1 2 3 4 5 6
1 1 1 1 1 1
1
6 6
2
6
1
6
1
6
1
6
1
2 0

6 6 6 6 6


 3 1 1 1
3 0 0 
P=  6 6 6 6 .
 4 1 1
4 0 0 0
 
6 6 6


 5 1
5 0 0 0 0 
6 6
6 0 0 0 0 0 1

5. La matriz de transición está dada por

0 1 2 3 4 5
 
0 1 0 0 0 0 0
1 4
15 0 5
0 0 0
2 3
2 0 5
0 5
0 0
P=  3 2
.
30 0 5
0 5
0
4 1
4 0 0 0 5
0 5
5 0 0 0 0 0 1

Definiendo ui = P(XT = 5|X0 = i), i = 1, 2, 3, 4, donde T = inf{n ≥ 0 : Xn =


0 ó Xn = 5}. Por análisis de primer paso:
4
u1 = u2
5
2 3
u2 = u1 + u3
5 5
3 2
u3 = u2 + u4
5 5
4 1
u4 = u3 +
5 5
Con ayuda del software R es posible resolver el sistema de ecuaciones anterior y obtener:

u1 = 0.375, u2 = 0.46875, u3 = 0.53125, u4 = 0.625.

6. Sea Xn la reserva de la compañı́a de seguros en el n-ésimo dı́a. De las condiciones dadas,


tenemos p > q. De aquı́, la probabilidad de que la compañı́a de seguros eventualmente

7
se arruine, comenzando con una reserva de 10 y sin lı́mite en la reserva (N → ∞) está
dada por  10
0.4 1024
lim u10 = = ≈ 0.017345.
N →∞ 0.6 59049
Ahora bien, si la aseguradora tiene un lı́mite para las reservas de 25, entonces N = 25,
por lo que la probabilidad de ruina, dado que iniciamos con una reserva de 10, está
dada por  10  25
0.4 0.4

0.6 0.6
u10 =  25 = 0.0173026.
0.4
1−
0.6

7. El proceso estocástico {Xn , n ≥ 0} es una cadena de Markov porque el número de per-


sonas enfermas en el periodo n+1 depende exclusivamente del número total de personas
enfermas en el periodo n, el número de personas enfermas en periodos anteriores a n
influyen únicamente en el periodo n y no en el posterior n + 1.
Observe que si la cadena inicia en el estado 0, no se puede mover a otro lugar, esto es,
si hay 0 enfermos, el contagio no tiene lugar. De esta forma, los estados importantes
para la cadena de Markov son {1, 2, 3, 4, 5}. Además, si la cadena se encuentra en
el estado i, i = 1, 2, 3, 4, sólo se puede mover al estado i + 1 (cuando hay contagio)
o se queda en i (cuando no hay contagio). Por último notamos que el estado 5 es
un estado absorbente (porque es la cantidad máxima de enfermos que puede haber).
Ahora bien, si hay i enfermos, entonces la probabilidad de obtener un enfermo y uno
sano al momento de seleccionar la pareja; es seleccionar uno de los i enfermos y uno
de los 5 − i no enfermos dividido por el número total de parejas que se pueden formar,
esto es,
i 5−i
 
1
5
1 .
2
De tal forma que la probabilidad de que el número de personas enfermas aumente en
uno, que es Pi,i+1 , está dada por
i 5−i
 
1
Pii+1 = 5
1 α, i = 1, 2, 3, 4.
2

El valor Pii = 1 − Pii+1 , i = 1, 2, 3, 4. Ası́, la matriz de transición queda

1 2 3 4 5
 24 1

1 25 25
0 0 0
47 3
2
0 50 50
0 0 

47 3
P = 3
0 0 50 50
0 .

24 1
4 0 0 0 25 25

5 0 0 0 0 1

8
Por análisis de primer paso:
24 1
v1 = 1 + v1 + v2
25 25
47 3
v2 = 1 + v2 + v3
50 50
47 3
v3 = 1 + v3 + v4
50 50
24
v4 = 1 +
25
Resolviendo el sistema anterior resulta
250 175 125
v1 = , v2 = , v3 = , v4 = 25.
3 3 3

8. Tenemos
d
X
P(X1 = j) = P(X1 = j | X0 = i)P(X0 = i) = pj+1 Pj+1,j + pj−1 Pj−1,j
i=0
   d    d
d 1 j+1 d 1 d−j+1
= +
j+1 2 d j−1 2 d
 d      d
1 (d − 1)! 1 1 d 1
= + = .
2 (j − 1)!(d − j − 1)! j d − j j 2

Usando inducción se concluye


   d
d 1
P(Xn = j) = , n ≥ 1.
j 2

9. Como {Xn , n = 0, 1, . . .} tiene incrementos independientes, entonces las variables


aleatorias Xn+1 − Xn y Xn son independientes. De aquı́,

P(Xn+1 − Xn = xn+1 − xn | Xn = xn ) = P(Xn+1 − Xn = xn+1 − xn ).

Ahora bien, usando de nuevo que {Xn , n = 0, 1, . . .} tiene incrementos independientes,


se afirma que las variables aleatorias Xn+1 − Xn , Xn − Xn−1 , . . . , X1 − X0 , X0 son
independientes. Ası́, para x0 , x1 , . . . , xn , xn+1 en el espacio de estados E se tiene

P(Xn+1 = xn+1 | Xn = xn , . . . , X1 = x0 , X0 = x0 )
= P(Xn+1 − Xn = xn+1 − xn | Xn − Xn−1 = xn − xn−1 , . . . , X1 − X0 = x1 − x0 , X0 = x0 )
= P(Xn+1 − Xn = xn+1 − xn ) = P(Xn+1 − Xn = xn+1 − xn | Xn = xn )
= P(Xn+1 = xn+1 | Xn = xn ).

Lo que muestra que {Xn , n = 0, 1, . . .} satisface la propiedad de Markov.


Debido a que toda caminata aleatoria tiene incrementos independientes, entonces toda
caminata aleatoria con espacio de estados discreto es una cadena de Markov.

9
10. (a) El número de focos nuevos al dı́a siguiente sólo depende del número de focos nuevos
del dı́a actual y no del número de focos nuevos en dı́as anteriores. Además, como
son sólo dos focos con los que se cuenta, entonces al final del dı́a n habrán 0, 1 ó
2 focos nuevos, esto es, la cadena de Markov en cuestión tiene espacio de estados
E = {0, 1, 2}.
(b) Si la cadena se encuentra en el estado 0 (focos nuevos), entonces no pueden haber
más focos nuevos, esto implica que el estado 0 es absorbente (P00 = 0). Ahora, si
hay i focos nuevos, i = 1, 2, entonces al dı́a siguiente habrán los mismos i focos
nuevos con probabilidad q o se habrá reducido el número por 1 con probabilidad
p. Con base en este análisis se obtiene que la matriz de transición de la cadena
está dada por
0 1 2
 
0 1 0 0
P = 1  p q 0 .
2 0 p q
(n)
(c) Para obtener la matriz de transición en n pasos, primero observe que P00 = 1
porque el estado 0 es absorbente Ahora bien, tenemos que no es posible pasar de i
focos nuevos a i + k focos nuevos, k ≥ 0, esto implica que P12 = 0. Además, para
i = 1, 2, Pii = q n porque si queremos que hayan la misma cantidad de focos nuevos
en n transiciones, entonces en ese número de transiciones no debe haber cambio
alguno de foco. Por último, P21 = npq n−1 se obtiene notando que para que después
de n periodos haya 1 un foco nuevo dado que al inicio hubieron 2, debió requerirse
un cambio de foco en algún instante en el tiemo y los n − 1 instantes restantes no
debehaber cambio alguno, esto ocurre con probabilidad pq n−1 puesto  n−1que existen
n n
n−1
trayectorias para que esto suceda, se sigue que P21 = n−1 pq = npq n−1 .
El análisis anterior verifica que la matriz de transición de la cadena está dada por

0 1 2
 
0 1 0 0
n
P = 1  1 − qn qn 0 .
2 1 − q n − npq n−1 npq n−1 qn

Para obtener el lı́mite cuando n → ∞ de la matriz anterior, observe que

lim q n = lim nq n−1 = 0,


n→∞ n→∞

para 0 < q < 1. Ası́,


0 1 2
 
0 1 0 0
n
lim P = 1 1 0 0 .
n→∞
2 1 0 0
Esto significa que, a largo plazo, no habrán focos funcionando.

10
11. Matriz de transición:
0 1 2 3 4 5 6 7 8 9 10
 
0 1 0 0 0 0 0 0 0 0 0 0
15 15 1
1 
 36 36 6
0 0 0 0 0 0 0 0 
15 15 1

2 
0 36 36 6
0 0 0 0 0 0 0 
15 15 1
3 
0 0 36 36 6
0 0 0 0 0 0 
15 15 1
4 
0 0 0 36 36 6
0 0 0 0 0 
15 15 1
P= 5 
0 0 0 0 36 36 6
0 0 0 0 
15 15 1
6 
0 0 0 0 0 36 36 6
0 0 0 
15 15 1
7 
0 0 0 0 0 0 36 36 6
0 0 
15 15 1
8 
0 0 0 0 0 0 0 36 36 6
0 
15 15 1 
9 0 0 0 0 0 0 0 0 36 36 6
10 0 0 0 0 0 0 0 0 0 0 1

Matrices Q y R:
 15 1
  15 
36 6
0 0 0 0 0 0 0 36
0
 15 15 1
0 0 0 0 0 0 0 0
 36 36
15
6
15 1
  
0 0 0 0 0 0 0 0
 36 36 6   
0 15 15 1
 0 36 36 6
0 0 0 0 
0
 0
15 15 1
0
Q= 0 0 0 0 0, R = 
0 0.

36 36 6
0 15 15 1
 0 0 0 36 36 6
0 0  0
 0
0 15 15 1
 0 0 0 0 36 36 6
0 
0
 0
0 15 15 1 
0 0 0 0 0 36 36 6
0 0
15 15 1
0 0 0 0 0 0 0 36 36
0 6

Con ayuda del software R, se calcula la matriz W = (I − Q)−1 :


 
2.3996 0.9594 0.3834 0.1529 0.0608 0.0239 0.0092 0.0033 0.0009
2.3986 3.3581 1.3419 0.5354 0.2128 0.0838 0.0322 0.0115 0.0033
 
2.3963 3.3548 3.7382 1.4916 0.5929 0.2335 0.0897 0.0322 0.0092
 
2.3904 3.3465 3.7290 3.8820 1.5432 0.6077 0.2335 0.0838 0.0239
 
2.3756 3.3259 3.7060 3.8580 3.9189 1.5432 0.5929 0.2128 0.0608
 
2.3388 3.2743 3.6485 3.7982 3.8580 3.8820 1.4916 0.5354 0.1529
 
2.2466 3.1452 3.5047 3.6485 3.7060 3.7290 3.7382 1.3419 0.3834
 
2.0162 2.8226 3.1452 3.2743 3.3259 3.3465 3.3548 3.3581 0.9594
1.4401 2.0162 2.2466 2.3388 2.3756 2.3904 2.3963 2.3986 2.3996

El tiempo esperado de duración del juego es:


4
X
W4j = 15.84034
j=1

El número esperado de veces que A contará con su fortuna inicial es:

W44 = 3.8820

11
Usando el software R nuevamente, se calcula la matriz U = W R:
 
0.9998427 0.0001573029
0.9994494 0.0005505601
 
0.9984663 0.0015337032
 
0.9960084 0.0039915609
 
0.9898638 0.0101362053
 
0.9745022 0.0254978160
 
0.9360982 0.0639018430
 
0.8400881 0.1599119104
0.6000629 0.3999370788

La probabilidad de que el jugador A se arruine es:

U41 = 0.9960084

12

También podría gustarte