Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1. Introducción y repaso
La teorı́a de la probabilidad, la ciencia matemática de la incertidumbre,
desempeña un papel cada vez mayor en la forma en que entendemos el mundo
que nos rodea, ya sea el clima del planeta, la propagación de una enfermedad in-
fecciosa o los resultados de la última encuesta de noticias. La palabra ëstocástico
p̈roviene del griego stokhazesthai, que significa apuntar o adivinar. Un proceso
estocástico, también llamado proceso aleatorio, es simplemente uno en el que
los resultados son inciertos. Por el contrario, en un sistema determinista no hay
aleatoriedad. En un sistema determinista, la misma salida siempre se produce
a partir de una entrada dada. Las funciones y ecuaciones diferenciales se usan
tı́picamente para describir procesos deterministas. Las variables aleatorias y las
distribuciones de probabilidad son los componentes básicos de los sistemas es-
tocásticos.
Problema 1.4 Ver ejercicio 1.2. Entre todos los asegurados que viven a
menos decinco millas del Océano Atlántico, el 75 % vive en Florida, el 20 %
vive en Luisiana y el 5 % vive en Texas. Para aquellos que viven cerca del
océano, las probabilidades de presentar un reclamo aumentan, como se indica
1
en la Tabla 1.2. Suponga que un asegurado vive a menos de cinco millas de la
costa atlántica. Use la ley de probabilidad total de probabilidad condicional en
el Ejercicio 1.3 para encontrar la posibilidad de que presenten un reclamo por
daños por inundación el próximo año.
Solucion:
Problema 1.7 Una rata está atrapada en un laberinto con tres puertas y un
poco de queso escondido. Si la rata toma la puerta uno, deambulará por el
laberinto durante 2 minutos y volverá a donde comenzó. Si toma la puerta dos,
deambulará por el laberinto durante 3 minutos y volverá a donde comenzó. Si
toma la puerta tres, encontrará el queso después de 1 minuto. Si la rata regresa
a donde comenzó, inmediatamente elige una puerta para pasar. La rata elige
cada puerta de manera uniforme al azar. ¿Cuánto tiempo, en promedio, vagará
la rata antes de encontrar el queso?
Solucion:
Suponga que X denotar el tiempo hasta que la rata encuentre el queso. Suponga
que 1, 2 y 3 denotan cada puerta, respectivamente. Entonces,
Luego
∞ ∞
−20
Z Z
fY (y) = f (x, y)dx = 4e−2x dx = lı́m − (−2e−2y ) = 2e−2y
−∞ y n→∞ e2x
2
Entonces −2x
f (x, y)
4e
fX|Y (x|y) = = = 2e−2(x−y)
fY (y) 2e−2y
b) Sabemos que
f (x,y)
fX (x) si 0 < fX (x) < ∞
fY |X (y|x) :=
0 si fX (x) ≥ ∞
Luego
Z ∞ Z ∞ Z x
−2x −2x
fX (x) = f (x, y)dy = 4e dy = 4e dy = 4xe−2x
−∞ x 0
Entonces
−2x
f (x, y) 4e 1
fX|Y (x|y) = = −2x=
fY (y) 4xe
x
Ademas Z x Z y
P (X ≤ x, Y ≤ y) = f (s, t)dtds
−∞ −∞
Asi pues
Z x Z y
P (X ≤ x, Y ≤ y) = 4e−2s dtsd
Z0 x 0 Z y
= 4e−2s dt ds
0 0
Z x
= (4e−2s y)ds
0
= −2ye−2x − (−2ye−2(0) )
= −2ye−2x + 2y
3
Tenemos a A = {X > 2}. Entonces
∞
1 X
E[X|A] = E[X|X > 2] = xf (x)
P (X > 2) x=2
∞
1 X 3x e−3
= x
P (X > 2) x=2 x!
∞
1 X 3 · 3x−1 e−3
= x
− 1)!
P (X > 2) x=2 x(x
∞
1 X 3 · 3x−1 e−3
=
P (X > 2) x=2 (x − 1)!
∞
3e−3 X 3y
=
P (X > 2) y=2 y!
∞
" #
3e−3 30 30 X 3y
= − + +
P (X > 2) 0! 0! y=1 y!
∞
" #
3e−3 30 X 3y
= − +
P (X > 2) 0! y=0 y!
3e−3
= (−1 + e3 )
1 − P (X ≤ 2)
−3e−3 + 3
= P2 x e−3
1 − x=0 3 x!
= 4.16525
4
Sean X y Y variables aleatorias continuas. Entonces
Z ∞
E(E[Y |X]) = E[Y |X]fX (x)dx
−∞
Z ∞ Z ∞
= yfY |X (y|x)dy fX dx
−∞ −∞
Z ∞Z ∞
= yfX fY |X (y|x)dxdy
−∞ −∞
Z ∞Z ∞
= yf (x, y)dxdy
−∞ −∞
Z ∞ Z ∞
= ydy f (x, y)dx
−∞ −∞
Z ∞
= ydy · fY (y)
−∞
Z ∞
= yfY (y)dy
−∞
= E[Y ]
y
V ar(T ) = 9(200) + 152 (402 ) = 361800, SD(T ) = $601.50
Problema 1.34 R El tiempo hasta que llega un autobús tiene una distribución
exponencial con una media de 30 minutos.
Solucion:
Problema 1.37 R Simule los resultados del ejercicio 1.28. Estime la media y
5
la varianza del número de accidentes por dı́a.
Solucion:
(b) P (X1 = 3, X2 = 1)
Solucion:
a) Sea n + 1 = 2 =⇒ n = 1, n − m = 1 =⇒ m = n − 1 = 2. Ademas
2 7 7
9 18 18
P3 = 2 1 1
3 6 6
10 17 17
27 54 54
3 7
Luego entonces P1,3 = 18
c)
5 7
P (X1 = 3)P (X2 = 1|X1 = 3) 12 18 175
P (X1 = 3|X2 = 1) = = 110
=
X2 = 1 200
594
6
Donde
0 0.5 0.5
0 = 16 5 5
0.5 0 0.5 = 1 0 12 12
= αP
0.3 0.3 0.3
0.67 0.17 0.17
110 9 9
αP 2 = 0.5 0 0.5 = 0 0.5 0.5 = 200 40 40
0.44 0.28 0.28
d)
2 19
P (X9 = 1, X7 = 2) = P1,3 = = 0.3518
54
Problema 2.4 Para la cadena general de dos estados con matriz
1−p p
P =
q 1−q
b)
1−p p
αP = α1 α2 = α1 (1 − p) + qα2 pα1 + α2 (1 − q) = α1 α2
q 1−q
α1 + α2 = 1 =⇒ pα1 = q − qα1
=⇒ (p + q)α1 = q ∧ p − pα2 = qα2
q p
=⇒ α1 = ∧ α2 =
p+q p+q
q p
∴ α = (α1 , α2 ) = ,
p+q p+q
7
Problema 2.12 Dos urnas contienen k bolas cada una. Inicialmente, las bolas
en la urna izquierda son todas rojas y las bolas en la urna derecha son todas
azules. En cada paso, elige una bola al azar de cada urna e intercambialas. Deje
que Xn sea el número de bolas azules en la urna izquierda. (Tenga en cuenta
que necesariamente X0 = 0 y X1 = 1.) Argumenta que el proceso es una cadena
de Markov. Encuentra la matriz de transición. Este modelo se llama modelo
de difusión de Bernoulli Laplace y fue introducido por Daniel Bernoulli en 1769
como modelo para el flujo de dos lı́quidos incompresibles entre dos contenedores.
Solucion:
Sea Xn = numero de bolas azules en la urna 1. Sea Xn = i, luego el numero de
bolas azuñes en ña urna es 2 = k − i pues el total de bolas en cada urna es k.
Luego
Xn − 1 si la bola azul es elegida para la urna 1 y la roja para la 2
Xn+1 := Xn si la bola elegida ya sean ambas rojas o azules
Xn + 1 si la bola azul es elegida para la urna 2 y la roja para la 1
Entonces se obtiene
i2
k2 si j =i−1
2i(k−i)
k2 si j=i
P (Xn+1 = j|Xn = i) :=
(k−i)2
si j =i+1
k2
0 en otro caso
Problema 2.19 Sea P una matriz de transición de una cadena de Markov con
k estados. Sea I que denote la matriz identidad k × k. Considere la matriz
···
a11 a12 a1k
a21 a22 ··· a2k
Pij = .
.. .. ..
.. . . .
ak1 ak2 ··· akk
8
Donde Pij = P (X1 = j|X0 = i). Luego (1 − p)I + pP = I − p(I − P )
Suponga que los aij = 0 ∀i, j excepto aim 6= 0 para algún m 6= j. Entonces
(a) 1 + 3 + 5 + · · · + (2n − 1) = n2
n(n+1)(2n+1)
(b) 12 + 22 + · · · + n2 = 6
Solucion:
a) i) Se prueba para n = 1:
1 = 12
∴ se verifico la igualdad
9
b) i) Se prueba para n = 1:
1(1 + 1)(2 + 1)
1 = 12 = =1
6
∴ se verifico la igualdad
12 + 22 + · · · + (k + 1)2 = 12 + 22 + · · · + k 2 + (k + 1)2
k(k + 1)(2k + 1)
= + (k + 1)2
6
k(2k + 1)
= (k + 1) + (k + 1)
6
(k + 1)(k + 2)(2k + 3)
=
6
c) i) Se prueba para n = 1:
(1 + x)1 ≥ 1 + 1x
∴ se verifico la igualdad
Mas alla, note que la condicion de π siendo una distribucion estacionaria es dada
por π T P = π y la suma de las componentes de π son no negativas y sumandole
10
1, todo lo cual satisface para k1 . Ademas, la cadena es irreducible y finita, por
lo tanto es positiva recurrente y por lo tanto admite una unica distribucion
estacionaria, por lo cual k1 sirve como muestra para la distribucion estacionaria.
1
∴ π(x) = ∀x ∈ {1, 2, · · · , k}
k
Solucion:
or lo cual todas las potencias pares de P n > 0 hacen a (P n)2 > 0 matriz
regular.
11
Problema 3.12 Una cadena de Markov tiene matriz de transición:
0 0 1 0
0 1 0 1
4 4
1 0 1 0
2 2
0 34 0 14
0 0 1 0
0 1 1
4 0 4
1, x2 , x3 , x4 1 1 = 1, x2 , x3 , x4
2 0 2 0
3 1
0 4 0 4
Tenemos que
(1, x2 , x3 , x4 )
x= : x2 ∈ R
2x2 + 3
start a
b f
c e
12
Pa es el timepo esperado de la primera visita a d dado que la cadena comenzo
en a.
Las simetrias es por que recorre los mismos estados de un lado a ptr, como un
espejo entonces, por ello se toman solo 3 vertices. Ademas como sus aristas son
iguales, entonces b = f tienen las mismas probabilidades, pues se tocan con
2 aristas y comparten el vertice a, c = f pues tienen 4 aristas de las cuales
comparten los vertices entre a, c y e
1 1 1
Pa = (1 + Pb ) + (1 + Pc ) −→ (2Pa − Pb − Pc ) = 1
2 2 2
1 1 1
Pb = (1 + Pa ) + (1 + Pc ) −→ (2Pb − Pa − Pc ) = 1
2 2 2
1 1 1 1 1
Pc = (1 + Pb ) + + (1 + Pa ) + (1 + Pc ) −→ (3Pc − Pb − Pa ) = 1
4 4 4 4 4
1 1 1 1 3 b a
c = (1 + b) + + (1 + a) + (1 + c) −→ c = + + 1
4 4 4 4 4 4 4
a c b c
b=1+ + ∧a=1+ +
2 2 2 2
3 3 b 3 a
⇒ c= a−1− = −1
4 2 2 2 2
a 5
⇒ = ∴ a = 10
4 2
Problema 3.22 Considere la cadena general con dos estados
1−p p
q 1−q
Solucion:
a)
P1 (T1 = 1) = P (T1 = 1|X0 = 1) = P (X1 = 1|X0 = 1) = 1 − p
13
Luego
14
b)
∞
X
E[T ] = jP (T = j)
j=1
∞
X
= 1 · P (T = 1) + jP (T = j)
j=2
∞
X
= (1 − p) + jpq(1 − q)j−2
j=2
(q − 1)2 (q + 1)
= (1 − p) + pq
q 2 (1 − q)2
q+p
=
q
Entonces
Problema 3.32 Sea X0 , X1 , .... una cadena de Markov ergodica con matriz
de transición P y distribución estacionaria π. Definimos el proceso bivariante
Zn = (Xn , Xn−1 ),∀n ≥ 1, con Z0 = (X0 , X0 ).
15
(a) de una explicación intuitiva del por que Z0 , Z1 , ... es una cadena de Markov.
b)
i Irreducible
ii Aperiodica
iii Tiene distribucion estacionaria π
n
∴ P(i,k)(j,l) >0
P (Xn = j) ≤ P (Xn−1 = j)+P (τj > n), P (Xn−1 = j) ≤ P (Xn = j)+P (τj > n)
Entonces
16
Ademas las probabilidades limitantes πj existen, estan dadas por πj = µ1j
P
y constituyen la unica solución al sistema de ecuaciones πj = i πi Pij .
P
Sujeto a als condiciones πj ≥ 0 y j πj = 1. Como la cadena es irreducible
y recurrente positiva, tiene una unica distribucion estacionaria dada por
πj = µ1j , es decir, es la unica solucion al sistema de ecuaciones π = πP con
πj ≥ 0 y j πj = 1. Ademas, por la aperiocidad Pijn → πj
P
Solucion:
Considere la siguiente matriz de transicion de la caminata aleatoria
0 1 0 0 0 ···
p 0 (1 − p) 0 0 · · ·
0 p 0 (1 − p) 0 · · ·
. . .. .. .. ..
. .
. . . . . .
0 0 0 0 0 · · ·
.. .. .. .. .. . .
. . . . . .
17
absorbente j. Sea Bij denota la probabilidad a partir de i de que la cadena se
absorbe en j. Sea B la resultante de la matriz t × (k − t). Por el análisis del
primer paso muestre que B = (I − Q)−1 R.
Solucion:
Para la cadena iniciada en i, defina variables indicadoras
1 si Xn = j
In :=
0 otro caso
P∞
Para n = 0, 1, . . . entonces n=0 In es el numero de visitas a j. El numero
esperado de visitas es Sea T el conjunto de estados transitorios y sea A el
conjunto de estados absorbentes. Suponga que i ∈ T y j ∈ A. Considere que la
cadena comenzó en i. En el primer paso, la cadena se mueve a algún estado k.
Si k es un estado absorbente, la cadena nunca visitará j, a menos que j = i,
en cuyo caso haya visitado j una vez. Si k es un estado transitorio, entonces
el número esperado de visitas a j es Fkj , si j 6= i, y 1 + Fki , si j = i. Esto da
Problema 3.52 El tablero para un juego modificado de Serpientes y Escalera
se muestra en la Figura 3.18. El juego se juega con un dado de tetraedro (cuatro
caras).
Solucion:
Problema 3.59 Considere la caminata aleatoria en el siguiente grafo pondera-
do:
start a b
1
4 2
1
d c
18
(b) Si la caminata comienza en a, encuentre el número esperado de pasos para
el primer golpe b.
Solucion:
Problema 3.62 Sea S una variable aleatoria que es constante, con probabi-
lidad 1, donde esa constante es un número entero positivo. Demuestre que S
es un tiempo de parada. Concluya que la propiedad de Markov se deriva de la
propiedad fuerte de Markov.
Solucion:
Problema 3.69 R Crea tu propio juego de mesa que puede modelarse como
una cadena de Markov. Haga preguntas interesantes y responda mediante simu-
lación y / o un análisis exacto.
Solucion:
4. Procesos de ramificacion
Problema 4.4 Si X es una distribución binomial negativa con los paráme-
tros r y p, entonces X puede escribirse como la suma de r i.i.d. variables alea-
torias geométricas con parámetro p. Usa este hecho para encontrar el pgf de
X. Luego, usa el pgf para encontrar la media y la varianza de la distribución
binomial negativa.
Solucion:
Problema 4.7 Proporcione la función de generación de probabilidad para una
distribución de descendencia en la que un individuo muere, con probabilidad
1 − p, o da a luz a tres hijos, con probabilidad p. También encuentre la media
y la varianza del número de hijos en la cuarta generación.
Solucion:
Un individuo muere con probabilidad M = 1 − p o da a luz a tres hijos con
probabilidad V = p. luego como X es una variable aleatoria discreta, la función
generadora de probabilidad está dada por
∞
X
G(s) = E(sX ) = sk P (X = k)
k=0
ak = (1 − p)k p
19
Entonces
3
X
G(s) = E(sX ) = sk P (X = k)
k=0
= s0 P (X = 0) + s1 P (X = 1) + s2 P (X = 2) + s3 P (X = 3)
= (1 − p) + ps3
Es decir
σ 2 = G00 (1) + G0 (1) − G0 (1)2
Entonces asi
G(s) = (1 − p) + ps3
µ = G0 (1) = 3p
σ 2 = G00 (1) + G0 (1) − G0 (1)2 = 6p + 3p − (3p)2 = 9p(1 − p)
Luego
Problema 4.12
Solucion:
Problema 4.16 Considere un proceso de ramificación donde Z0 = k. Es decir,
el proceso comienza con k individuos. Sea G(s) la función generadora de proba-
bilidad de la distribución de la descendencia. Sea Gn (s) la función generadora
de probabilidad de Zn para n = 0, 1, . . .
Solucion:
Problema 4.21 El caso fraccional lineal es uno de los pocos ejemplos de pro-
cesos de ramificación en los que la función generadora Gn (s) puede calcularse
20
explı́citamente. Para 0 < p < 1, sea
1−c−p
a0 =
1−p
con
ak = cpk−1 ∀n ∈ N
donde 0 < c < 1 − p es un parámetro. La distribución de la descendencia es una
distribución geométrica reescalada a 0.
np − (np + p − 1)s
Gn (s) =
1 − p + np − nps
donde
1−c−p
e=
p(1 − p)
es la probabilidad de extinción. Ver el Ejemplo 4.9. Observe que el modelo
de Lotka cae en el caso fraccionario lineal. Para los datos de Lotka, encuentre
la probabilidad de que una lı́nea de descendencia masculina se extinga en la
tercera generación.
Solucion:
Problema 4.27 Considere un proceso de ramificación cuya distribución de
descendencia es Bernoulli con el parámetro p.
Solucion:
Problema 4.33 R Simule la progenie total para un proceso de ramificación
cuya distribución de descendencia es Poisson con el parámetro λ = 0.60. Estime
la media y la varianza de la distribución total de la progenie.
Solucion:
> branch <- function(n,lam) { ## Poisson
21
+ z <- c(1,rep(0,n))
+ for (i in 2:(n+1)) {
+ z[i] <- sum(rpois(z[i-1],lam))
+ }
+ return(z) }
Assume extinction occurs by 50th generation
> n <- 10000
> simlist <- replicate(n, sum(branch(50,0.60)))
> mean(simlist)
2.5308
> var(simlist)
9.594811
22
6. Procesos de Poisson
Solucion:
a) 0.082
b) 0.0257
c) 0.01299
23
Problema 6.6 Muestre que la distribución geométrica no tiene memoria.
Solucion:
24
Problema 6.15 Se producen fallas para un proceso mecánico de acuerdo con
un proceso de Poisson. Las fallas se clasifican en mayores o menores. Las fallas
mayores ocurren a razón de 1.5 fallas por hora. Las fallas menores ocurren a
razón de 3.0 fallas por hora.
Solucion:
a) 0.112
b) 0.472
c) 0.997
25
Problema 6.17 Deje que (Nt )t≥0 sea un proceso de Poisson con el parámetro
λ y los tiempos de llegada S1 , S2 , . . . Evalúe la suma de cuadrados esperada de
los tiempos de llegada antes del tiempo t,
Nt
!
X
E Sn2
n=1
Solucion: !
Nt
X λt3
E Sn2 =
n=1
3
26
Problema 6.22 En el Casino de Poisson, se lanzan dos dados al azar según
un proceso de Poisson con el parámetro λ Halla la probabilidad de que en [0, t]
cada par de dados arroje un resultado de 7.
Solucion:
27
Problema 6.30 Ver ejemplo 6.9. Encuentra la variación del tiempo de espera
total de los asistentes al concierto que llegaron antes de que comience la banda.
Solucion:
28
Problema 6.35 Consulte las definiciones de los procesos de Poisson espaciales
y no homogéneos. Defina un proceso de Poisson espacial no homogéneo en R2 .
Considere dicho proceso (NA )A⊆R2 con función de intensidad
2
+y 2 )
λ(x, y) = e−(x , para − ∞ < x, y < ∞
Solucion:
−1
P (Nc = 0) = e(1−e )π
= 0.137
29
Problema 6.39 Ver ejercicio 6.38. Suponga que (Nt )t≥0 es un proceso mixto
de Poisson con un parámetro de velocidad distribuido uniformemente en (0, 1).
Encuentre P (N1 = 1).
Solucion:
e−2
P (N1 = 1) = = 0.264
e
30
Problema 6.41 Las metas ocurren en un juego de fútbol de acuerdo con un
proceso de Poisson. El número total promedio de goles marcados para un partido
de 90 minutos es 2.68. Suponga que dos equipos están igualados. Use la simu-
lación para estimar la probabilidad de que ambos equipos marquen el mismo
número de goles. Compara con el resultado teórico.
Solucion:
El proceso de puntuación de objetivos de Poisson tiene el parámetro λ = 2.6890.
Considere dos procesos diluidos independientes, cada uno con el parámetro pλ
donde p = 12 . Al condicionar el número de goles marcados en un partido de 90
minutos, la probabilidad deseada es
∞ λ
!2 ∞ −1.34 2
X e−90 2 (90 λ2 )k X e (1.34)k
= = 0.259
k! k!
k=0 k=0
Problema 7.1 Una cadena de Markov de tiempo continuo tiene una matriz ge-
neradora Muestra (i) la matriz de transición de la cadena de Markov incrustada
Solucion:
31
Problema 7.6 Una cadena de Markov (Xt )t≥0 en {1, 2, 3, 4} tiene matriz
generadora
−2 1 1 0
1 −3 1 1
Q=
2 2 −4 0
1 2 3 6
Use la tecnologı́a según sea necesario para lo siguiente:
Solucion:
32
Problema 7.12 El siguiente resultado del álgebra lineal relaciona el determi-
nante y la traza de la matriz A:
deteA = etrA
Solucion:
33
Problema 7.29 Considere una cadena de Markov de tiempo continuo absor-
bente con posiblemente más de un estado absorbente.
Solucion:
La matriz de transición de cadena incrustada, en forma canónica, es
1 0 0 0 0
1
0 1 0 0 0
2 1
P = 3 0 0 32 0
3
0 0 21 0 12
4
0 35 0 25 0
8. Conclusion
“I always thought something was fundamentally wrong with the universe”
[1]
Referencias
[1] D. Adams. The Hitchhiker’s Guide to the Galaxy. San Val, 1995.
34