Está en la página 1de 12

Solución de los ejercicios de las diapositivas

Diapositiva 4

Ejemplo de distribución de Binomial:


1
p = P ([Respuesta correcta o éxito]) = .
4
Las preguntas no tienen relación.
 
10 5
a) P ([X = 5]) = p (1 − p)5
5
10 10    
X X 10 i 10−i 10 0
b) P ([X ≥ 1]) = P ([X = i]) = p (1 − p) = 1 − P ([X = 0]) = 1 − p (1 − p)10
i 0
i=1 i=1
10 10  
X X 10 i
c) P ([X ≥ 5]) = P ([X = i]) = p (1 − p)10−i
i
i=5 i=5

Diapositiva 7

x = #deintentos = 15
La probabilidad de éxito es 0.05 (es decir, falle)
P (X = 15) = 0.05 ∗ (0.95)(15−1) = 0.0244
La probabilidad que falle por primera vez en su decimoquinto disparo es 2.44% o 0.0244.

Diapositiva 9
 
−r (−r)! (−r)(−r − 1)(−r − 2)... (−r)(−r − 1)...(−r − x + 1)
= = = =
x x!(−r − x)! x!(−r − x)(−r − x − 1)... x!
(−r)(−r − 1)...(−r − x + 1) r(r + 1)...(r + x − 1) (x + r − 1)(r + 1)...(r + x)
= (−1)x = (−1)x =
x! x! x!
 
(x + r − 1)! x+r−1
(−1)x = (−1)x
x!(r − 1)! x

Como ∞
P∞ x+r−1 P∞ x+r−1
P r Qx = 1 =⇒ Qx =
P  
x=0 P ([X = x]) = 1 =⇒ x=0 x i=1 x
P −r y Q + P = 1.

1
Luego,
∞ ∞ 
pr
  
X x+r−1 r x X x+r−1
E(e sX
)= sx
e p q =p r
(es q)x =
x x (1 − es q)r
x=0 x=0

, donde es q < 1 (Q = es q).

Diapositiva 10

Ejemplo de distribución de Binomial negativa:


p = P ([éxito]) = 0.4
r=3
 
7+3−1 3
P ([X = 7]) = p (1 − p)7
7

Diapositiva 11

Ejemplo de distribución de Binomial negativa:


a) r = 20
p = P ([éxito]) = 0.9
 
20 + x − 1 20
P ([X = x]) = p (1 − p)x
x
b) r = 1
 
1+x−1 1
P ([X = x]) = p (1 − p)x (Variable aleatoria geométrica)
x
c) T = 30(20 + X) = 600 + 30X

P ([X = (t − 600)/30]) ,para (t-600)/30 entero no negativo
P ([T = t]) = P ([600 + 30X = t]) =
0 ,en cualquier otro caso

2
Diapositiva 12

Experimento: Tiene las siguientes propiedades:


1. El proceso de Poisson no tiene memoria.
Supongase que t0 < t1 < ... < tn entonces Xt0 , Xt1 − Xt0 , ..., Xtn − Xtn−1 son variables aleatorias
independientes(proceso de incrementos independientes)
2. La probabilidad de al menos un resultado en un perı́odo de tiempo de duración h es: p(h) = λh + o(h),
h → 0, λ > 0
g(t)
(g(t) = o(t), t → 0 ⇐⇒ lim = 0)
t→0 t
3. La probabilidad de 2 o más resultados en el tiempo h es o(h),h → 0 (despreciable).

Se define la variable aleatoria Xt como el número de resultados que ocurre en un intervalo de tiempo
dado o región especı́fico. Ademas, λ es el número promedio de resultados por unidad de tiempo o región .
Denótese Pm (t) = P ([Xt = m]) con m=0,1,2,... es la probabilidad que exactamente ocurran
m resultados en el tiempo t.

X ∞
X
Nótese que: Pm (h) = o(h) y p(h) = Pm (h).
m=2 m=1
Por 1) se tiene: P0 (t + h) = P0 (t)P0 (h) = P0 (t)(1 − p(h))
P0 (t + h) − P0 (t) p(h)
=⇒ = −P0 (t)
h h
Si h → 0 =⇒ P00 (t) = −λP0 (t) =⇒ P0 (t) = Ce−λt .
Como P0 (0) = 1 =⇒ P0 (t) = e−λt

3
Como P0 (h) = 1 − p(h) , P1 (h) = p(h) − o(h) y
Xm m
X
Pm−i (t)Pi (h) ≤ Pi (h) = o(h) (Pm−i (t) ≤ 1).
i=2 i=2
m
X
Rearreglando, Pm (t + h) − Pm (t) = Pm (t)P0 (h) + Pm−1 (t)P1 (h) + Pm−i (t)Pi (h) − Pm (t) =
i=2
m
X
Pm (t)(P0 (h) − 1) + Pm−1 (t)P1 (h) + Pm−i (t)Pi (h) = −Pm (t)p(h) + Pm−1 (t)(p(h) − o(h)) + o(h) =
i=2
− λPm (t)h + λPm−1 (t)h + o(h)
Pm (t + h) − Pm (t) o(h)
=⇒ = −λPm (t) + λPm−1 (t) +
h h
0
Si h → 0 =⇒ Pm (t) = −λPm (t) + λPm−1 (t), m = 1, 2, 3, ...
Nótese que Pm (0) = 0, con m = 1, 2, ...

Se hace la siguiente sustitución Qm (t) = Pm (t)eλt , m = 0, 1, 2, 3, ... =⇒


0 d
Pm (t) = (e−λt Qm (t)) = Qm (t)e−λt (−λ) + e−λt Q0m (t).
dt
Además , − λPm (t) + λPm−1 (t) = −λe−λt Qm (t) + λe−λt Qm−1 (t).
Luego ,Qm (t)e−λt (−λ) + e−λt Q0m (t) = Pm
0
(t) = −λe−λt Qm (t) + λe−λt Qm−1 (t)
=⇒ e−λt Q0m (t) = λe−λt Qm−1 (t) =⇒ Q0m (t) = λQm−1 (t)
donde Q0 (0) = 1 y Qm (0) = 0 con m = 1, 2, ...
λm tm
Resolviendo recursivamente se tiene: Qm (t) = .
m!

4
Por inducción sobre el número de resultados m se tiene:
Paso base: Q01 (t) = λQ0 (t) = λP0 (t)eλt = λ =⇒ Q1 (t) = λt + C =⇒ Q1 (t) = λt (Q1 (0) = 0).
λk tk
Hipótesis de inducción: Supóngase que para k resultados la solución es Qk (t) =
k!
λk tk λk+1 tk
Paso inductivo: Q0k+1 (t) = λQk (t) = λ (por hipótesis de inducción) =
k! k!
λk+1 tk+1 λk+1 tk+1
=⇒ Qk+1 (t) = +C = + C =⇒
(k + 1)k! (k + 1)!
λk+1 tk+1
Qk+1 (t) = (Qk+1 (0) = 0)
(k + 1)!
λm tm −λt
Por lo tanto, P ([Xt = m]) = Pm (t) = Qm (t)e−λt = e con m = 0, 1, 2, 3, 4, ...
m!

Diapositiva 15

Ejemplo de distribución de Poisson:


a) λt = 0.2peticiones/seg ∗ (1seg) = 0.2
P ([X = 2]) = (0.2)2 e−0.2 /2!
b) P ([X ≤ 3]) = P ([X = 0]) + P ([X = 1]) + P ([X = 2]) + P ([X = 3]) =
3
X
(0.2)i e−0.2 /i!
i=0
c) P ([X > 4]) = 1–P ([X ≤ 4])
d) λt = 0.2peticiones/seg ∗ (60seg) = 12
P ([X = 20]) = (12)20 e−12 /20!

Diapositiva 19

Ejemplo de distribución Hipergeométrica:


    
40 60 100
a) / ≈ 0.119
10 10 20
 
20
b) (40/100)10 (60/100)10 ≈ 0.117
10
La diferencia entre la distribución binomial y la distribución hipergeométrica:
En la segunda el muestreo debe realizarse con reemplazo y en la primera no requiere independencia y
su muestreo es sin reemplazo.

5
Diapositiva 20

Ejemplo de distribución Hipergeométrica:


    
20 15 35
/ = 1140/6545 ≈ 0.174178
3 0 3

Diapositiva 21
b
1 ebs –eas
Z
1
M (s) = esx dx =
a b−a b−a s
d 1 ebs –eas
M 0 (s)|s=0 = ( )|s=0 =
ds b − a s
1 −1 1
[lim (ebs –eas ) 2 + (ebs b–eas a) ] =
b − a s→0 s s
1 −1(ebs –eas ) + (ebs b–eas a)s
[lim ]=
b − a s→0 s2
1 −1(ebs b–eas a) + (ebs b2 –eas a2 )s + (ebs b–eas a)
[lim ]=
b − a s→0 2s
1 −1(ebs b2 –eas a2 ) + (ebs b3 –eas a3 )s + (ebs b2 –eas a2 ) + (ebs b2 –eas a2 )
[lim ]=
b − a s→0 2
1 b2 –a2 b+a
[ ]=
b−a 2 2
d2 1 ebs –eas d 1 −1(ebs –eas ) + (ebs b–eas a)s
M 00 (s)|s=0 = ( )|s=0 = ( )|s=0 =
ds2 b − a s ds b − a s2
1 −2 1
[[−1(ebs –eas )+(ebs b–eas a)s] 3 +[−1(ebs b–eas a)+(ebs b2 –eas a2 )s+(ebs b–eas a)] 2 ]|s=0 =
b−a s s
1 2(ebs –eas ) − 2(ebs b–eas a)s (ebs b2 –eas a2 )s2
[ + ]|s=0 =
b−a s3 s3
1 2(ebs –eas ) − 2(ebs b–eas a)s + (ebs b2 –eas a2 )s2
[lim ]=
b − a s→0 s3
1 2(ebs b–eas a) − 2(ebs b–eas a) − 2(ebs b2 –eas a2 )s + (ebs b3 –eas a3 )s2 + (ebs b2 –eas a2 )2s
[lim ]=
b − a s→0 3s2
1 (ebs b3 –eas a3 )s2 1 ebs b3 –eas a3 1 b3 − a3 b2 + ab + a2
[lim 2
]= [lim ]= =
b − a s→0 3s b − a s→0 3 b−a 3 3

b2 + ab + b3 a + b 2 b2 + ab + b3 b2 + 2ab + a2
V AR(X) = E(X 2 ) − [E(X)]2 = −[ ] = −
3 2 3 4
4b2 + 4ab + 4a2 − 3b2 − 6ab − 3a2 b2 − 2ab + a2 (b − a)2
= = =
12 12 12

6
b b
1 xn+1 x=b bn+1 − an+1
Z Z
n n 1 1
E(X ) = x dx = xn dx = |x=a = para n=0,1,2,...
a b−a b−a a b−an+1 (b − a)(n + 1)
b2 −a2 b+a b3 −a3 b2 +ab+a2
Para n=1 y n=2, se tiene:E(X) = 2(b−a) = 2 y E(X 2 ) = 3(b−a) = 3

Diapositiva 22

Intervalo : [0, 60)



1/(60 − 0) = 1/60 , 0 < x < 60
f (x) =
0 , en cualquier otro caso
Z 2
P (0 ≤ X ≤ 25) = 51/60dx = 5/12
0

Diapositiva 23

15seg ∗ (1min/60seg) = 15/60min = 1/4min = 0.25min



1/(1 − 0) = 1 , 0 < x < 1
f (x) =
0 , en cualquier otro caso
Z 0.25
P (B) = P ( conmutador está ocupado ) = 1dx = 0.25
0
P (A) = P ( conmutador no está ocupado ) = 1 − P (B) = 1 − 0, 25 = 0.75

Diapositiva 24

1/(60 − 0) = 1/60 , 0 < x < 60
f (x) =
0 , en cualquier otro caso
Pepito llega después de las 9:20am y antes de las 9:40am, va encontrar a Mafalda,
porque Mafalda llego a las 9:30 en punto y espero 10 minutos.
Z 40
P (A) = P ( Pepito y Mafalda se encuentren ) = 1/60dx = 20/60 = 1/3
20
P (B) = P ( Pepito y Mafalda no se encuentren ) = 1 − P (A) = 1 − 1/3 = 2/3

7
Diapositiva 25
(x−µ)2

e−
Z
2σ 2
M (s) = esx √ dx
−∞ 2πσ
x−µ dx
Sustituyendo z = σ (dz = σ y x = µ + zσ) , se tiene:
2 2 z2
∞ − z2 ∞ − z2 ∞
ezσs− 2
Z Z Z
s(µ+zσ) e µs zσs e µs
M (s) = e √ dz = e e √ dz = e √ dz =
−∞ 2π −∞ 2π −∞ 2π
z2 2 2 2 2 z2 2 2 σ 2 s2
∞ − σ 2s + σ 2s ∞ − σ 2s
ezσs− ezσs−
Z Z
µs
2
µs
2 e 2
e √ dz = e √ dz =
−∞ 2π −∞ 2π
z2 σ 2 s2 1 2 −2σz+σ 2 s2 )
∞ ∞
ezσs− 2 − e− 2 (z
Z Z
σ 2 s2 2 2 2
µs µs+ σ 2s
e e 2 √ dz = e √ dz =
−∞ 2π −∞ 2π
1 2

e− 2 (z−σs)
2 2
Z
µs+ σ 2s
e √ dz (por propiedades de función densidad normal con media σs y varianza 1 ) =
−∞ 2π
σ 2 s2
eµs+ 2 , ∀s
d µs+ σ2 s2 2 2
µs+ σ 2s
E(X) = (e 2 )|
s=0 = e (µ + σ 2 s)|s=0 = µ
ds
d2 µs+ σ2 s2 d µs+ σ2 s2 2 2
µs+ σ 2s σ 2 s2
E(X 2 ) = 2
(e 2 )|
s=0 = (e 2
2 (µ+σ s))|
s=0 = e (µ+σ 2 s)2 +eµs+ 2 (σ 2 )|s=0 = µ2 +σ 2
ds ds
V AR(X) = E(X 2 ) − [E(X)]2 = µ2 + σ 2 − µ2 = σ 2

Diapositiva 26

Ejemplo de distribución normal


Los valores lı́mites son [2.99, 3.01]
Z1 = (2.99 − 3.0)/0.005 = −2.0
Z2 = (3.01 − 3.00)/0.005 = 2.0
De la tabla Z, se tiene que P ([Z < −2.0]) = 0.0228. Por simetrı́a, P ([Z > 2.0]) = 0.0228.
Luego, P ([Z < −2] ∪ [Z > 2]) = 0.0456.
En promedio, el 4.56% de las tuercas son descartadas.

8
Diapositiva 27

Ejemplo de distribución binomial


X=el número chips defectuosos
p = P ([chip defectuoso o éxito]) = 0.2
100  
X 100 i
a) P ([15 < X ≤ 100]) = p (1 − p)100−i
i
i=16
2
µ = np, σ = np(1 − p)
p p
z1 = (15.5 − np)/ np(1 − p), z2 = (100.5 − np)/ np(1 − p)
P (z1 ≤ Z ≤ z2 ) ≈ P ([16 ≤ X ≤ 100])
15  
X 100 i
b) P ([10 ≤ X ≤ 15]) = p (1 − p)100−i
i
i=10

Nota: Regla empı́rica np> 5 y n(1-p)> 5.


Teorema: Si X es una variable aleatoria binomial con media µ = np y varianza σ 2 =
npq. Entonces, la forma de lı́mite de la distribución Z= √X−np cuando n→ ∞, es la
np(1−p)
distribución normal con µ=0 y σ 2 =1.

Diapositiva 28

Z ∞ Z ∞ (s− 1 )x
sx 1 − β x 1 1 e β x=∞
1
(s− β1 )x
M (s) = e e dx = e dx = | =
0 β β 0 β s − β1 x=0
(s− 1 )x
1 e β 1 1 −1 1 1
[limx→∞ 1 − 1 ]= 1 = para s < (la integral converge).
β s− β s− β
βs− β 1 − βs β

Nota: Converge si s-1/β <0 (arriba de la exponencial).

Diapositiva 29

E(T ) = β = 18meses.
F (t) = 1 − e−t/β
P (T < 12) = 1 − e−12/18 = 1 − e−2/3 = 0.4866
P (T > 24) = 1 − P (T <= 24) = 1 − (1 − e−24/18 ) = e−24/18 = 0.2636
P (16 <= T <= 19) = P (T <= 19) − P (T < 16) = (1 − e−19/18 ) − (1 − e−16/18 ) = e−16/18 − e−19/18 = .063

9
Diapositiva 30

Ejemplo de distribución exponencial


Z ∞
1 –t 8
P ([T > 8]) = e 5 dt = e− 5 .
8 5
Sea X el número de componentes funcionando después de 8 años.
5  
X 5
P ([X ≥ 2]) = (P ([T > 8])x (1 − P ([T > 8]))5−x
x
x=2

Diapositiva 33

Ejemplo de distribución exponencial


P ([Xt = 0]) = e−5(10) = e−50 o P ([T > 10]) = 1 − P ([T ≤ 10]) = 1 − (1 − e−5(10) = e−50
e−5 50 e−5 51
P ([Xt ≥ 2]) = 1 − P ([Xt < 2]) = 1 − – = 1 − e−5 − 5e−5
0! 1!

Opción 1 para P ([Xt ≥ 2]):


Sean T1: tiempo del primer evento y T2: tiempo del segundo evento, las cuales están
distribuidas exponencialmente con parámetro β = 15 cada una e independientes.
R 1 R 1−t1 −5t2 −5t1 R1 R 1−t1 −5t2 R1
P([T1+T2≤1]) = 0 0 5e 5e dt2 dt1 = 0 5e−5t1 0 5e dt2 dt1 = 0 5e−5t1 [−e−5t2 |1−t1
0 ]
R 1 −5t1 −5+5t1
R1 −5
R 1 −5t1 −5 −5t1 1
dt1 = 0 5e (−e + 1) dt1 = 0 −5e dt1 + 0 5e dt1 = -5e + −e |0
−5 −5
dt1 = -5e + −e + 1 = 1 -5e -e . −5 −5

Opción 2 para P ([Xt ≥ 2]):


Sea T: tiempo hasta el segundo evento, la cual está distribuida gamma con α=2 y β = 51 .
R1 R1
P([T≤1])= 0 5e−5t (5 t) dt =-5te−5t |10 + 0 5e−5t dt =-5e−5 -e−5t |10 = -5e−5 -e−5 +1 = 1
-5e−5 -e−5

Diapositiva 34


x
α−1 e− β ∞ (s− 1 )x ∞ −( 1−sβ )x
xα−1 e β xα−1 e
Z Z Z
sx x
β
M (s) = e dx = dx = dx =
0 β α Γ(α) 0 β α Γ(α) 0
α
β Γ(α)
1 1
−( β )x α Z −( β )x
∞ ∞
xα−1 e xα−1 e
Z 
1−sβ 1 β 1−sβ
dx = α α dx ( por propieadades de función densidad) =
β α Γ(α)

0 β 0 β 1 − sβ
Γ(α)
1−sβ
 α
1 β 1 1
α
= α
para α > 0, β > 0 y s <
β 1 − sβ (1 − βs) β

La integral de la función densidad converge para α > 0 y β > 0

10
d 1
E(X) = ( )|s=0 = −α(1 − βs)−α−1 (−β)|s=0 =
ds (1 − βs)α
αβ
|s=0 = αβ
(1 − βs)α+1

d2 1 d
E(X 2 ) = ( )|s=0 = (αβ(1 − βs)−α−1 )|s=0 =
ds2 (1 − βs)α ds
αβ(−α − 1)(1 − βs)−α−2 (−β)|s=0 =
1
α(α + 1)β 2 |s=0 = α(α + 1)β 2
(1 − βs)α+2
V AR(X) = E(X 2 ) − [E(X)]2 = α(α + 1)β 2 − (αβ)2 = αβ 2 (α + 1 − α) = αβ 2

Z ∞ Z ∞
α+1−1 −x
Γ(α + 1) = x e dx = xα e−x dx =
0+ 0+

Integrando por partes (U=xα y dv=e−x ), se tiene:


Z ∞ Z ∞
Γ(α + 1) = xα e−x |∞
0 − αx α−1
× (−1) × e −x
dx = 0 + α xα−1 e−x dx =
0 0

αΓ(α)
Nota: Γ(n) = (n − 1)! para n ∈ Z+ .

Diapositiva 35

Γ(2) = (2 − 1)!
α=2yβ=3
C : Es el consumo diario de agua (en millones de litros).
9 es la capacidad diaria de dicha ciudad es de 9 millones de litros de agua.
P (C > 9) = 1 − P (C <= 9) = 1 − 0.8009 = 0.1991.
Z 9 −x/3 Z 3 Z 3
xe −u
P (C ≤ 9) = dx = (3u)e 3du/9 = ue−u du =
0 9 0 0
u = x/3 =⇒ x = 3u =⇒ dx = 3du
= −ue−u |30 − e−u |30 = −3e−3 − (e−3 − 1) = 1 − 4e−3 = 0.8009

11
Diapositiva 36
1 Z 1 k+a−1
xa−1 (1 − x)b−1 (1 − x)b−1
Z
x
E(X k ) = xk dx = dx =
0 B(a, b) 0 B(a, b)
Z 1 k+a−1
1 x (1 − x)b−1 B(k + a, b)
B(k + a, b) dx =
B(a, b) 0 B(k + a, b) B(a, b)
Γ(k + a)Γ(b) Γ(a + b) Γ(k + a)Γ(a + b)
=
Γ(k + a + b) Γ(a)Γ(b) Γ(a)Γ(k + a + b)
Γ(a + 1)Γ(a + b) aΓ(a)Γ(a + b) a
E(X) = = =
Γ(a)Γ(a + b + 1) Γ(a)(a + b)Γ(a + b) a+b
Γ(a + 2)Γ(a + b) (a + 1)aΓ(a)Γ(a + b) (a + 1)a
E(X 2 ) = = =
Γ(a)Γ(a + b + 2) Γ(a)(a + b + 1)(a + b)Γ(a + b) (a + b + 1)(a + b)
2
a2

(a + 1)a a (a + 1)a
V AR(X) = E(X 2 )−[E(X)]2 = − = − =
(a + b + 1)(a + b) a+b (a + b + 1)(a + b) (a + b)2
(a2 + a)(a + b) − a2 (a + b + 1) a3 + a2 + ba2 + ba − a3 − ba2 − a2 ab
2
= 2
=
(a + b + 1)(a + b) (a + b + 1)(a + b) (a + b + 1)(a + b)2

Diapositiva 37

α=3yβ=2
Γ(3) = (3 − 1)! = 2! = 2.
Γ(2) = (2 − 1)! = 1! = 1.
Γ(5) = (5 − 1)! = 4! = 24.
( α−1 β−1
Γ(α+β)p (1−p) Γ(5)p2 (1−p)
(Γ(α)Γ(β) = (Γ(3)Γ(2) = 24p2 (1 − p)/2 = 12p2 (1 − p) = 12p2 − 12p3 , 0 < p < 1
f (p) =
0 , en cualquier o
1
12p3 12p4 1
Z
P (P > 0.8) = 12p2 − 12p3 dp = – | = 4p3 –3p4 |10.8 = (4 − 3) − (4 ∗ 0.83 − 3 ∗ 0.84 )
0.8 3 4 0.8
= 1 − 4 ∗ 0.8 + 3 ∗ 0.84 = 0.1808.
3

12

También podría gustarte