Está en la página 1de 9

Universidad Técnica Federico Santa Marı́a

Departamento de Informática

Certamen Recuperativo - Estadı́stica Computacional


Semestre I 2014 - Jueves 03.07.14
100 minutos

1. Consideremos los siguientes eventos

A : Caja es de 20 unidades
B : Caja es de 40 unidades
D0 : Caja contiene 0 productos defectuosos
D1 : Caja contiene 1 producto defectuoso
D2 : Caja contiene 2 productos defectuosos

Del encabezado, tenemos que

P (D0 |A) = 0.6 P (D0 |B) = 0.35


P (D1 |A) = 0.3 P (D1 |B) = 0.5
P (D2 |A) = 0.1 P (D2 |B) = 0.15

(a) Queremos la probabilidad de D0 . Usando la regla de la probabilidad total,

P (D0 ) = P (D0 |A)P (A) + P (D0 |B)P (B)


= 0.6 · 0.7 + 0.35 · 0.3
= 0.525 .

La probabilidad de que exista al menos un defectuoso es el complemento de la probabilidad


de observar 0 defectuosos, i.e., P (D0 ) = 1 − P (D0 ) = 1 − 0.525 = 0.475.
(b) Queremos P (B|D0 ) y P (A|D0 ). Usando Bayes,

P (D0 |B)P (B) 0.35 · 0.3


P (B|D0 ) = = = 0.2 .
P (D0 ) 0.525

(c) Sabemos que el cliente solo recibe cajas de 20 unidades. En esta situación, P (D0 ) = 0.6,
P (D1 ) = 0.3, P (D2 ) = 0.1. Sea E 2 el evento de extraer dos unidades de una caja de
20 elegida al azar y que ambos sean no defectuosos. La probabilidad de E 2 depende de
cuántos defectuoso tenga la caja. Claramente (asumiendo que las dos extracciones son
independientes)

P (E 2 |D0 ) = 1
P (E 2 |D1 ) = (19/20) · (18/19) = 0.9
P (E 2 |D2 ) = (18/20) · (17/19) = 0.805 .

1
Usando la regla de la probabilidad total,

P (E 2 ) = P (E 2 |D0 )P (D0 ) + P (E 2 |D1 )P (D1 ) + P (E 2 |D2 )P (D2 )


= 1 · 0.6 + 0.9 · 0.3 + 0.805 · 0.1
= 0.9505 .

Nos piden P (D0 |E 2 ). Usando la regla de Bayes,


P (E 2 |D0 )P (D0 ) 1 · 0.6
P (D0 |E 2 ) = = = 0.6312 .
P (E 2 ) 0.9505

(d) En este caso, el cliente puede recibir cajas de 20 y 40 unidades. De modo análogo a la
pregunta anterior

P (E 2 |D0 , B) = 1
P (E 2 |D1 , B) = (39/40) · (38/39) = 0.95
P (E 2 |D2 , B) = (38/40) · (37/39) = 0.901 .

Usando la regla de la probabilidad total,

P (E 2 |B) = P (E 2 |D0 , B)P (D0 |B) + P (E 2 |D1 , B)P (D1 |B) + P (E 2 |D2 , B)P (D2 |B)
= 1 · 0.35 + 0.95 · 0.5 + 0.901 · 0.15
= 0.96015 .

En la pregunta anterior calculamos P (E 2 ) asumiendo A, es decir, P (E 2 |A). Combinando


ambas posibilidades,

P (E 2 ) = P (E 2 |A)P (A) + P (E 2 |B)P (B)


= 0.9505 · 0.7 + 0.96015 · 0.3
= 0.953395 .

2. Sea X el número de compras exitosas registradas en n intentos. X ∼ Bin(n, p), p = 0.65.


(a) En este caso, n = 5 y queremos calcular
    
5 5
P (X ≥ 2) = 1 − P (X ≤ 1) = 1 − 0.650 0.355 + 0.651 0.354
0 1
= 1 − (0.0053 + 0.0488) = 1 − 0.0541 = 0.9459

(b) Sea Y el número de intentos fallidos hasta comprar 3 objetos. Y ∼ Bn(0.65), donde r = 3
Necesitamos
1 
y+r−1 r
    
X
y 2 3 3
P (Y ≤ 1) = p (1 − p) = 0.65 + 0.653 0.35
y=0
r − 1 2 2
= 0.2746 + 0.2884 = 0.563

(c) La distribución es una binomial negativa, con r = 1. O también, sea Z el número de fallos
hasta lograr la compra. Z ∼ Geo(0.65).
Necesitamos calcular,
2
X
P (Z ≤ 1) = (1 − p)z p
z=0
= 0.65 + 0.35 ∗ 0.65 = 0.8775

2
(d) Sabemos que X ∼ Bin(6, 0.65).
Entonces, E[X] = np = 3.9 y V [X] = np(1 − p) = 1.365.


P (X > 3.9 + 1.365) = P (X > 5.068) = P (X ≥ 6)
 
6
= 0.656 0.350 = 0.0754
6
3. Sea f (x, y) f.d.p. conjunta.
(a)
1 1
2
Z Z
P (X + Y > 1.2) = (3x + 4y)dydx
7 0.2 1.2−x
Z 1
2 1
= (3xy + 2y 2 ) y=1.2−x dx
7 0.2
1
2
Z
= (3x − 3x(1.2 − x) + 2 − 2(1.2 − x)2 )dx
7 0.2
Z 1
2
= (3x − 3.6x + 3x2 + 2 − 2(1.22 − 2.4x + x2 ))dx
7 0.2
1
2
Z
= (−0.6x + 3x2 + 2 − 2.88 + 4.8x − 2x2 )dx
7 0.2
1
2
Z
= (4.2x + x2 − 0.88)dx
7 0.2
 1 !
x3

2 2

= 2.1x + − 0.88x
7 3 x=0.2
 
2 1 0.008
= 2.1 + − 0.88 − 2.1 · 0.04 − + 0.88 · 0.2
7 3 3
2
= 1.64267 = 0.4438
7
(b) Debemos calcular Cov(X, Y ) = E[XY ] − E[X]E[Y ].
R1
Para calcular E[X] = 0 fX (x)dx, debemos primero obtener fX (x) la función de dis-
tribución marginal de X:
1
2 1 2 2
Z
(3x + 4y)dy = (3xy + 2y 2 )

fX (x) = = (3x + 2) , 0 ≤ x ≤ 1
7 0 7 y=0 7
Luego, 1
1
2 2 3 2 4
Z
(x + x2 )

EX [X] = x(3x + 2)dx = = 2=
7 0 7 x=0 7 7
Ahora, procedemos análogamente para obtener E[Y ],
 1
2 1
  
2 3 2 2 3
Z

fY (y) = (3x + 4y)dx = x + 4xy = + 4y , 0 ≤ y ≤ 1
7 0 7 2 x=0 7 2
Entonces,
1   1  
2 3 2 3 2 3 4 25
Z
2

EY [Y ] = y + 4y dy = ( y + 2y ) = + =
7 0 2 7 2 y=0 7 4 3 42

3
Nos falta calcular
1 1
2
Z Z
E[XY ] = xy(3x + 4y)dydx
7 0 0
1 1
2
Z Z
= (3x2 y + 4xy 2 )dydx
7 0 0
1 1
2 3x2 y 2 4xy 3
Z
= ( + ) dx
7 0 2 3 y=0
1
2 3x2 4x
Z
= + ( )dx
7 0 2 3
1 !
2 3x3 2x2
= +
7 2 3 x=0
 
2 1 2 2 7 1
= + = · =
7 2 3 7 6 3
2 4 25
Por lo tanto, Cov(X, Y ) = E[XY ] − E[X]E[Y ] = 6 − 7 42 = −0.0068

La covarianza es negativa, luego X e Y tienen una correlación lineal negativa.


(c) ¿Cuál es la probabilidad de que la diferencia entre ambas tasas no exceda el valor 0.25?
3/4 1 1 x−1/4
1 2 2
Z Z Z Z
P (|X − Y |) ≤ = 1− (3x + 4y)dydx − (3x + 4y)dydx
4 7 0 x+1/4 7 1/4 0

Calculando la primera integral,


Z 3/4 Z 1 Z 3/4 1
(3x + 4y)dydx = (3xy + 2y 2 ) y=x+1/4 dx
0 x+1/4 0
Z 3/4
= (3x − 3x(x + 1/4) + 2 − 2(x + 1/4)2 )dx
0
3/4
3 1 1
Z
= (3x − 3x2 − x + 2 − 2(x2 + x + ))dx
0 4 2 16
Z 3/4  
9 1
= x − 3x2 + 2 − 2x2 − x − dx
0 4 8
Z 3/4  
5 2 15
= x − 5x + dx
0 4 8
  3/4
5 2 5 3 15
= x − x + x
8 3 8 x=0
45 45 45 135
= − + = = 1.05469
128 64 32 128

4
Ahora calculamos la segunda,
Z 1 Z x−1/4 Z 1 x−1/4
(3x + 4y)dydx = (3xy + 2y 2 ) y=0 dx
1/4 0 1/4
Z 1
= (3x(x − 1/4) + 2(x − 1/4)2 )dx
1/4
Z 1
3 1 1
= (3x2 − x + 2(x2 − x + ))dx
1/4 4 2 16
Z 1
3 1
= (3x2 − x + 2x2 − x + ))dx
1/4 4 8
Z 1
7 1
= (5x2 − x + )dx
1/4 4 8
  1
5 3 7 2 1
= x − x + x
3 8 8 x=1/4
 
5 3 5 7 1
= − − − + ≈ 0.9141
3 4 192 128 32
Por lo tanto,
1 2 2
P |X − Y | ≤
= 1 − 1.05469 − 0.914062 = 0.4375.
4 7 7
 R1R1
(d) Debemos encontrar t que minimice E (X + Y − t)2 = 0 0 (X + Y − t)2 f (x, y)dydx.


Derivando respecto a t
d 1 1
Z Z Z 1Z 1
(X + Y − t)2 f (x, y)dydx = −2 (X + Y − t)f (x, y)dydx
dt 0 0 0 0

Igualamos a cero,
Z 1 Z 1
−2 (X + Y − t)f (x, y)dydx = 0
0 0
Z 1 Z 1
(X + Y − t)f (x, y)dydx = 0
0 0
Z 1 Z 1 Z 1 Z 1
(X + Y )f (x, y)dydx = tf (x, y)dydx
0 0 0 0
Z 1Z 1 Z 1Z 1
(X + Y )f (x, y)dydx = t f (x, y)dydx
0 0 0 0
Z 1 Z 1
(X + Y )f (x, y)dydx = t
0 0

Es decir, el error cuadrático medio se minimiza con E[X + Y ].

E[X + Y ] = E[X] + E[Y ]


4 25
= + = 1.1667
7 42
4. Sea X1 , X2 , . . . , Xn una secuencia de n variables exponenciales con parámetro común λ IID.
Entonces, la f.d.p. de Xi es (
λe−λx x ≥ 0
fXi (x) =
0 e.t.o.c.

5
(a) Calculemos la f.g.m de

ϕX1 −X2 = E[et(x1 −x2 ) ]


= E[etx1 e−tx2 ]
= E[etx1 ]E[e−tx2 ], (X1 y X2 son independientes)
= ϕX1 (t)ϕX2 (−t)
 −1  −1
t t
= 1− 1+
λ λ
2 −1
 
t
= 1− 2
λ
Q
(b) X1 , X2 , . . . , Xn son independientes. Entonces, ϕSn (t) = i=1 nϕXi (t) Sabemos que
 −1
t
ϕXi (t) = 1− .
λ
Entonces,
 −n
Y t
ϕSn (t) = nϕXi (t) = 1 − .
i=1
λ

Luego por el teorema de unicidad, Sn es una función de distribución Gamma(n, 1/λ). Por
lo tanto, la f.d.p. de Sn es,
1
fSn (x) = xn−1 e−λx , x > 0
γ(n) λ1n
λn
= xn−1 e−λx
(n − 1)!
(λx)n−1
= λe−λx
(n − 1)!

(c) Derivando ϕSn (t) respecto de t,


 −n−1
n t
ϕ′Sn (t) = 1−
λ λ
n
Evaluando en cero, tenemos que E[X] = ϕ′Sn (0) = λ.
 −n−2
n(n + 1) t
ϕ′′Sn (t) = 1−
λ2 λ
n2 +n
Evaluando en cero, tenemos que E[X 2 ] = ϕ′′Sn (0) = λ2 .

5. (a) Las funciones de verosimilitud y log-verosimilitud toman, respectivamente, la siguiente


forma
n
Y λXi e−λ
L(λ) =
i=1
Xi !
n
X
ℓ(λ) = (Xi ln(λ) − λ − ln(Xi !))
i=1

6
La primera derivada en λ de ℓ(·) es
n  
δℓ(λ) X Xi
= −1
δλ i=1
λ

Igualando la expresión anterior a cero y evaluando en λ = λmv tenemos


n  
X Xi
−1 =0
i=1
λmv
Pn
mv i=1 Xi
⇒λ = = X̄
n

(b) Usando la aproximación X ∼ N (λ, λ), tenemos que λmv = X̄ ∼ N (λ, λ/n). Por lo tanto, la
cantidad
λmv − λ
Z= q ,
λmv
n

distribuye aproximadamente N (0, 1). Se sigue que un IC aproximado de confianza 1 − α


para λ esta dado por
" r # " r #
λmv

λmv ± z1−α = X̄ ± z1−α .
n n

Al nivel de significación requerido y con los datos disponibles, se obtiene


" r #
252
252 ± 1.96 = [252 ± 9.84] = [242.16; 261.84] .
10

(c) El sistema a analizar es

H0 : λ ≤ 300
H1 : λ > 300 .

que se analiza como

H0 : λ = 300
H1 : λ > 300 .

Si H0 es cierta, deberı́amos observar que


λmv − λ H0 λmv − 300
Z= q = q ,
λmv λmv
n n

cae dentro del intervalo [−∞, z1−α ] con probabilidad 1 − α. Para el nivel de significación
requerido z1−α = 1.64. El valor experimental de Z (bajo H0 ) es sin embargo,

λmv − 300 252 − 300


Z= q = = −9.56 ,
λmv 5.02
n

Como −9.56 = Z < z1−α = 1.64, la hipótesis no se rechaza.

7
6. (a) De la encuesta, p̂ = 0.4. Entonces, el IC para la proporción es:
" r # " r #
p̂(1 − p̂) 0.6(1 − 0.6)
ICp = p̂ ± Zα/2 = 0.6 ± Z0.025
n 10
= [0.6 ± 1.96 · 0.1549]
= 0.6 ± 0.3036 = [0.2964, 0.9036]

(b) Otro estudio afirma que el 44 % de los usuarios de internet jamás han twiteado. Contraste
esta hipótesis con la alternativa que afirma que dicha proporción es menor. Use α = 0.1.

H0 : p = 0.44 v/s H1 : p < 0.44


Usaremos el estadı́stico Z = q p̂1 −p . Z ∼ N (0, 1)
p1 (1−p1 )
n
H0 se rechaza si Z < −zα . Por tabla, −zα = −1.2815 Ahora calculamos el estadı́stico
0.4−0.44
muestral Z = q 0.44(1−0.44) = −0.04/0.1570 = −0.2548.
10

Por lo tanto no existe evidencia esperimental para rechazar H0 .


(c) α̂ = P (X ≤ 2|p = 0.44) = P (Y ≤ 2), Y ∼ Bin(10,0.44) Por lo tanto,
2  
X 10
P (Y ≤ 2) = 0.44y 0.5610−y
y=0
y
     
10 10 10
= 0.5610 + 0.44 · 0.569 + 0.442 · 0.568
0 1 2
= 0.003 + 0.024 + 0.084 = 0.1110

Por lo tanto, no se rechazarı́a con un nivel de significancia α = 0.1


(d) Sea β(p′ ) el error tipo II del test de hipótesis realizado usando H1 : p = p′ . O dicho de
otra forma, la potencia (o poder) del test es 1 − β(p′ ). Grafique β(p′ ) como función de p.
Comente.

β(p′ ) = P (X ≥ 3|p = p′ ) = P (Y ≥ 3), Y ∼ Bin(10,p’)


= 1 − P (Y ≤ 2)
2  
X 10 ′ y 10−y
= 1− p 1 − p′
y=0
y

Calculando β(p′ ) para p′ = 0, 0.2, 0.4, . . . , 1,


p′ β(p′ )
0 0
0,2 0.3222
0,4 0,8327
0,6 0.9877
0,8 0.9999
1 1
Graficando,

RNA LATEX

8
1.0
0.8
0.6
β

0.4
0.2
0.0

0.0 0.2 0.4 0.6 0.8 1.0

p’

También podría gustarte