Está en la página 1de 4

Tarea 4

Probabilidad II

Prof. Rafael Miranda Cordero Aydte. Miguel Hinojosa Medrano

07 de abril del 2019

Entrega: 15 de abril
1. Recordemos que dado (X, Y ) : Ω −→ R2 un vector aleatorio mixto, de modo tal que X es
abs. continua y Y es discreta, definimos la función de densidad conjunta de X y Y como
d
fX,Y (x, y) = P (X ≤ x, Y = y) (1)
dx
siempre que dicha derivada exista para cada y ∈ Y (Ω).
Demuestre que
X Z ∞
fX (x) = fX,Y (x, y) y P(Y = y) = fX,Y (x, y)dx. (2)
y −∞

2. En clase vimos dos definiciones de esperanza condicional, para este ejercicio considere que
la esperanza condicional de X dado Y = y, donde (X, Y ) : Ω −→ R2 es un v.a., se define
como
(P
ρX|Y (x|y) si (X, Y )es dicreto
E [X|Y = y] = R ∞x (3)
f (x|y)dx si (X, Y ) es absolutamente continuo.
−∞ X|Y

Así, dadas X, Y, X1 y X2 variables aleatorias, c una constante y g : R2 −→ R una función


medible demuestre que
a) E[cX1 + X2 |Y = y] = cE[X1 |Y = y] + E[X2 |Y = y]
b) E[g(X, Y )|Y = y] = E[g(X, y)|Y = y]
c) E[X|Y = y] = E[X] si X y Y son independientes.
3. Demuestre que si X y Y son independientes entonces E[X|Y ] = E[X].¿Si E[X|Y ] = E[X]
entonces X y Y son independientes? (demuestre o de un contraejemplo).

1
4. El objetivo de este ejercicio es mostrar que si no se asume que E[|X|] < +∞ entonces no
necesariamente E[X] = E[E[X|Y ]].
Suponga que Y ∼ χ(2) y que
1 1 2
fX|Y =y (x) = √ y 1/2 e 2 yx

para y ∈ R. Calcule E[X|Y = y], E[X|Y ] y E[E[X|Y ]]. ¿Cómo se distribuye Y ?, ¿cuál es
la esperanza de Y ?
5. Suponga que (X, Y ) es un v.a. con distribución normal bivariada µx , µy , σx > 0, σy > 0 y
−1 < ρ < 1. Demuestre que la matriz de varianza de (X, Y ) es definida positiva1 .
6. Sea f (x, y) la función de densidad normal bivariada estándar (µx = µy = 0 y σx2 = σy2 = 1)
con ρ = 0. Defina (
2f( x, y) si xy < 0
g(x, y) =
0 en otro caso
Demuestre que g(x, y) es una función de densidad bivariada que no es normal bivariada
pero cuyas densidades marginales son normales estándar. Si el vector aleatorio (X, Y )
tiene por densidad conjunta a g(x, y) ¿es su matriz de varianza definida positiva?
7. Demuestre a través del cambio de variable (u, v) = ((x − µx )/σx , (y − µy )/σy ), la función
de densidad normal bivariada se puede escribir como
 
1 1 2 1 2
f( u, v) = p exp − (u − ρv) − v .
(2π) 1 − ρ2 2(1 − ρ2 ) 2
p
Sea c > 0 y defina k = 1/(2πc 1 − ρ2 ). Demuestre ahora que las lineas de contorno
f (u, v) = c son las elipses
(u − ρv)2 v2
+ = 1.
2(1 − ρ2 ) ln k 2 ln k
Cuando ρ = 0 las elipses se reducen al círculo u2 + v 2 = 2 ln k.
8. Considere n + m ensayos con probabilidad común de éxito. Sin embargo, suponga que
dicha probabilidad no es fija y es toma valores que provienen de una distribución uniforme
en (0, 1). ¿Cuál es la distribución condicional de la probabilidad de éxito dado que los
n + m ensayos resultan en k?
9. La vida T (en horas) del foco de un proyector sigue una distribución exp(1/10). Durante
una semana normal este es usado en un número de clases que tienen una distribución
P oisson(12), cada clase dura exactamente una hora. Encuentre la probabilidad de que el
proyector con un nuevo foco instalado funcione correctamente durante una semana normal
sin ser remplazado.
1
Decimos que una M de n × n con coeficientes reales y simétrica es definida positiva si para todo vector


x ∈ Rn distinto de cero se tiene que →

x T M→

x > 0.

2
10. Suponga que el número de personas que entran a una tienda departamental en un día dado
se distribuye como una variable aleatoria con media 50. Suponga además que la cantidad
de dinero gastado por cada cliente es una variable aleatoria con media $8. Finalmente
suponga que la cantidad de dinero que gasta un cliente es independiente de la que gasta
cualquier otro y del número de clientes que entran a la tienda. ¿Cuál es la cantidad
promedio de dinero gastado en la tienda en un día dado?
11. Suponga que las variables N, X1 , X2 , . . . son independientes, N tiene una distribución
P oisson(λ) y Xk se distribuye Bernoulli(1/2). Definimos
N
X
Y1 = X k y Y2 = N − Y1 ,
k=1

entendiendo que Y1 = 0 si N = 0. Calcule la esperanza y la varianza de Y1 y de Y2 ,


determine sus distribuciones y demuestre que son independientes.
12. Sea U1 , U2 , . . . una sucesión de variables aleatorias independientes cada una con distribución
uniforme sobre(0, 1). Dado x ∈ [0, 1] definimos
( n
)
X
N (x) = mı́n n ∈ N| Ui > x .
i=1

¿Cuál es la esperanza de N (x)?, ¿cuál es su varianza?


13. Calcule la distribución de X, la de Y |X = x, la esperanza y la varianza de X y de Y |X = x
cuando
a) X|Y = y ∼ Binom(n, y) y Y ∼ Beta(2, 2)
b) X|Y = y ∼ P oisson(y) y Y ∼ exp(α)
c) X|Y = y ∼ P oisson(y) y Y ∼ Gamma(p, α)
d ) X|Y = y ∼ U nif (−y, y) y Y ∼ U nif (0, 1) .
14. El Problema del Mejor Premio. (3 puntos) Suponga que en un juego nos serán
presentados en secuencia n premios distintos. Una vez que nos presentan un premio
debemos decidir inmediatamente si lo aceptamos o lo rechazamos. Si lo aceptamos el
juego termina y no se nos muestran el resto de los premios, si lo rechazamos nos es
mostrado el siguiente pero ya no podemos obtener el anterior. Si llegamos al n-ésimo
premio nos quedamos con este por defecto. La única información que tenemos al ver un
premio es la calificación relativa de este comparado con aquellos que ya hemos visto, por
ejemplo, cuando el quinto premio nos es presentado nosotros sabemos que tan “valioso ”es
comparado con los otros cuatro que ya hemos visto (puede pensar por ejemplo que los
premios son cantidades de dinero por lo que mientras más alto sea el monto el premio es
más valioso).Queremos maximizar la probabilidad de obtener el mejor premio (en el caso
de dinero este sería el monto más alto), asumiendo que los n! ordenes en los que pueden
aparecer los n premios son igualmente probables, ¿cómo podemos hacer esto?

3
Una metodología simple para resolver este problema es entrenar nuestra calificación con una
cantidad 1 ≤ k < n de premios y luego quedarnos con el primer premio mejor calificado
con base a nuestro entrenamiento, es decir, elegimos un número k e invariantemente
rechazamos los primeros k premios, sin embargo, de acuerdo a nuestro criterio, calificamos
esos k premios del más valioso al menos valioso. Posteriormente, a partir del premio k + 1
nos quedaremos con el primero que tenga una mejor calificación que el mejor calificado de
nuestro premios de entrenamiento (los primeros k). Así, en el ejemplo de las cantidades
de dinero, rechazaríamos los primeros k montos que nos sean presentados y luego nos
quedaríamos con el primero monto que sea mayor al monto más grande de los k que
rechazamos. Bajo esta metodología calcule la probabilidad Pk de quedarnos con el mejor
premio dado un número k fijo. ¿Que valor de k maximiza Pk ?
15. (2 puntos) En clase vimos que para una variable de respuesta Y y un vector X de variables
explicativas, el mejor predictor de Y basado en X es E[Y |X]. Sin embargo, en la practica
por lo general no es sencillo calcular E[Y |X], debido a esto, se suele buscar el mejor
predictor lineal de Y basado de X, es decir, tomamos como predictor de Y una función de
la forma a0 + a1 X1 + · · · + an Xn . Para el caso particular de una sola variable explicativa
X calcule los coeficientes α y β que hacen de α + βX el mejor predictor lineal con base
en el error cuadrático. Calcule el error cuadrático del mejor predictor lineal. ¿Cómo son el
mejor predictor y el mejor predictor lineal cuando Y y X tienen una distribución conjunta
normal bivariada de parámetros µx , µy , σx > 0, σy > 0 y −1 < ρ < 1?
Sugerencia: Piense en E[(Y − (α + βX))2 ] como una función f (α, β) del plano en la recta.
Calcule el único punto crítico de f y demuestre que este es un mínimo utilizando el criterio
de las segundas derivadas parciales. Finalmente argumente porque dicho punto crítico es
un mínimo global.