alculo de Probabilidades
Francisco Montes
Departament dEstadstica i Investigaci
o Operativa
Universitat de Val`
encia
Indice general
1. Probabilidad
25
3. Esperanza
49
97
A.
109
A.1. Series aritmetico-geometricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.2. Suma de cuadrados de los n primeros enteros . . . . . . . . . . . . . . . . . . . . 111
INDICE GENERAL
Captulo 1
Probabilidad
Problema 1.1 Proporcionamos a A un trozo de papel para que escriba un signo + o un signo
, sabiendo que escribe el primero con probabilidad 1/3. El papel pasa a B, quien lo deja
como est
a o cambia el signo antes de pasarlo a C. A continuaci
on C, que puede o no haber
cambiado el signo, lo pasa a D, quien finalmente nos lo devuelve tras haber introducido o no
alg
un nuevo cambio. Si comprobamos que el papel tiene escrito un signo + y sabemos que la
probabilidad de que B, C y D cambiaran el signo es 2/3, obtener la probabilidad de que A
escribiera originalmente un signo +.
Soluci
on.- Sean N , M y E los sucesos,
N ={A escribi
o un signo +},
M ={A escribi
o un signo },
E={el papel tiene escrito un signo +}.
Aplicando Bayes,
P (N |E) =
P (E|N )P (N )
,
P (E|N )P (N ) + P (E|M )P (M )
1 1 3
3[ 3
2 1
1 1 3
+ 3 23
3[ 3
3 ]
2 1 2
2 2 1
2
3 3
3 ] + 3 [3 3
3
13
.
2 3 =
41
+ 3 ]
Problema 1.2 Un test para diagnosticar cierta enfermedad tiene una sensibilidad del 95 % y
una especificidad del 99 %. Si la enfermedad en cuesti
on tiene una prevalencia del 0.5 %, cu
al
es el valor predictivo del test?
Captulo 1. Probabilidad
Soluci
on.- Los conceptos de sensibilidad, especificidad, prevalencia y valor predictivo proviene
del lenguaje utilizado en el mundo sanitario y debemos, en primer lugar, traducirlos a nuestro
lenguaje probabilstico.
Consideremos los sucesos M ={un individuo padece la enfermedad } y + ={el resultado del
test es positivo}, entendiendo por positivo que el test diagnostica al individuo como enfermo.
Con estos dos sucesos tenemos que
- sensibilidad = P (+|M ) = 0,95
- especif icidad = P (|M c ) = 0,99, su complementaria P (+|M c ) es la probabilidad de falsos
positivos
- prevalencia = P (M ) = 0,005
El valor predictivo es P (M |+), para cuyo calculo recurriremos al teorema de Bayes,
P (+|M )P (M )
0,95 0,005
95
=
=
= 0,3231
P (+|M )P (M ) + P (+|M c )P (M c )
0,95 0,005 + 0,01 0,995
294
(1.1)
El resultado sorprende por lo bajo. A pesar de la elevada sensibilidad del test, su valor
predictivo (V P ) es muy pobre. Puede ser interesante estudiar la variacion de V P en funcion
de la sensibilidad (S) y la prevalencia (P ). Para ello hagamos ambas variables con valores
P (+|M ) = s y P (M ) = p. La expresion (1.1) se convierte en
P (M |+) =
VP =
sp
.
0,01 + p(s 0,01)
1,0
,9
valor predictivo
,8
,7
,6
,5
,4
,3
0,00
sens 99
sens 90
,05
,10
,15
,20
,25
,30
,35
,40
,45
,50
prevalencia
Captulo 1. Probabilidad
Soluci
on.- Sea A ={ninguno de ellos recibe su propio sombrero}, y sea Ai ={el i-esimo invitado
recupera su sombrero}. Se verifica que Ac = 4i=1 Ai y por tanto,
P (A) = 1 P (Ac )
1 P(
4
[
Ai )
i=1
= 1
4
X
P (Ai ) +
i=1
P (Ai Aj )
i<j
P (Ai Aj Ak ) + P (A1 A2 A3 A4 )
i<j<k
= 14
=
1
4 1
4
1
1
+
+
4
2 43
3 432 4321
9
= 0,375.
24
Este es un problema clasico que aparece ya citado en el libro de Montmort (1713) Essay
danalyse sur les jeux de hazard en relacion con un juego de cartas conocido como le Jeu du
Treize (El Juego del Trece), que consista en descubrir al azar 13 cartas numeradas del 1 al 13
ganando el jugador cuando el orden de aparicion de la carta y su n
umero coincidan.
El problema se presenta en m
ultiples versiones, sombreros elegidos al azar, sobres con direcciones en los que se introducen al azar cartas encabezadas con esas direcciones, permutaciones
aleatorias, .... Continuemos con la version de los sombreros y supongamos ahora que son n los
sombreros y sus propietarios. Si por Ai designamos el suceso {el individuo i ha recibido su propio sombrero}, A = A1 A2 An representa el suceso {al menos un individuo ha recibido
su propio sombrero} y
P (A) =
n
X
i=1
P (Ai )
X
P (Ai Aj )
1i<jn
1i<j<kn
donde
P (Ai )
(n 1)!
n!
P (Ai Aj )
(n 2)!
n!
...
P (Ai1 . . . Aim )
y por tanto
...
=
(n m)!
n!
Captulo 1. Probabilidad
P (A)
n 1
n (n 2)!
n+1 n 1
=
+ + (1)
1 n
2
n!
n n!
= 1
1
1
1
+ + + (1)n+1
2! 3!
n!
P (Ac ) 0,3688.
n1
n1
= P (Ac |C c )
.
n
n
n1
1
1
n1
pn =
pn1 +
pn2 =
pn1 + pn2
n
n1
n
n
o tambien
1
pn pn1 = (pn1 pn2 ).
n
Para obtener el valor de pn observemos que p1 = 0 y p2 = 1/2, a partir de aqu
1
p3 p2 = 31 (p2 p1 ) = 3!
p3 =
p4 p3 = 41 (p3 p2 ) =
... ...
1
1
1
p4 = 2!
3!
+ 4!
... ...
1
1
1
1
pn = 2!
3!
+ 4!
+ (1)n+1 n!
1
4!
1
2!
1
3!
Captulo 1. Probabilidad
donde sumamos sobre todas las posibles formas de elegir los k individuos y donde
P (Bk ) =
1
1
1
(n k)!
=
n n1
n (k 1)
n!
y
P (Cnk |Bk ) = pnk .
Como las posibles elecciones de los k individus son nk , lexpresion final de P (Ak ) es
P (Ak )
=
=
(n k)!
pnk
n
pnk =
k
n!
k!
1
2!
1
3!
1
4!
1
+ (1)n+1 n!
.
k!
se trata de que en los n k restantes no hay ninguna coincidencia, lo que ocurre con una
probabilidad
1
1
1
(n k)!
pnk =
pnk .
n n1
n (k 1)
n!
Como los k individuos pueden ser elegidos de nk formas distintas,
n
(n k)!
pnk
P (Ak ) =
pnk =
=
k
n!
k!
1
2!
1
3!
1
4!
1
+ (1)n+1 n!
.
k!
Problema 1.4 Se busca un paraguas que, con probabilidad p/7, se encuentra en cualquiera de
los siete pisos de un inmueble. Se han explorado en vano los seis primeros pisos. Cu
al es la
probabilidad de que el paraguas se encuentre en el septimo piso?
Soluci
on.- Denotemos por Ai ={el paraguas est
a en el piso i-esimo}, i = 1, . . . , 7. Sabemos
que P (Ai ) = p/7 y que P (7i=1 Ai ) = p. Sabemos tambien que el paraguas no se encuentra en
los 6 primeros pisos y nos piden calcular
P A7 | 6i=1 Aci .
Aplicando Bayes
c
7 6p
.
P 6i=1 Aci = P 6i=1 Ai
= 1 P 6i=1 Ai =
7
Sustituyendo en (1.2)
p
p/7
=
.
P A7 | 6i=1 Aci =
(7 6p)/7
7 6p
(1.2)
Captulo 1. Probabilidad
Problema 1.5 Tres prisioneros A, B y C son informados por su carcelero de que se ha elegido
al azar a uno de ellos para ser ejecutado y que los otros dos van a ser liberados. El prisionero A
le pide al carcelero que le diga en privado cu
al de sus compa
neros va a ser liberado, asegur
andole
que no pasa nada porque le de esa informaci
on puesto que el sabe que al menos uno de los otros
dos quedar
a libre. El carcelero no quiere contestar la pregunta porque dice que si A supiera cu
al
de sus dos compa
neros va a ser liberado entones su propia probabilidad de ser ejecutado subira
de 13 a 12 porque entonces el sera uno de los dos que podra ser ejecutado. Que piensas del
razonamiento del carcelero?
Soluci
on.- Si A no pregunta la probabilidad de ser ejecutado es 1/3 puesto que se ha elegido al azar aquel que va a ser ejecutado. Supongamos que pregunta y vamos a calcular cual
sera entonces la probabilidad ser indultado.
Denotemos por B y C, respectivamente, {el carcelero responde que B o C ha sido indultado}
y por A, {el prisionero A es indultado despues de preguntar }, tendremos
P (A) = P (A|B)P (B) + P (A)P (C).
Observemos que P (A|B) = 1/2 porque si le dicen que B ha sido indultado, el segundo preso
indultado sera A o C con igual probabilidad. Por otra parte P (B) = 2/3 porque los presos se
indultaron al azar. Un razonamiento similar conduce a P (A|C) = 1/2 y P (C) = 3/2. Sustituyendo en la anterior expresion,
P (A) =
2 1 2 1
2
+ = ,
3 2 3 2
3
Captulo 1. Probabilidad
n log[(1 p)/p]
+
.
2
2 log(1 r)
Observese que si p = 1/2, m = n/2 y las extracciones se reparten por igual en ambas urnas.
Problema 1.7 Repetimos indefinidamente una prueba en la que la probabilidad de exito es
siempre la misma, p, siendo los resultados de las pruebas independientes unos de otros (se trata
de una sucesi
on de pruebas de Bernoulli). Obtener la probabilidad de que a exitos ocurran antes
que b fracasos.
Soluci
on.- El suceso cuya probabilidad nos piden, A, puede interpretarse diciendo que, A ={en
la prueba en la que se alcanza el a-esimo exito, no han ocurrido todava b fracasos}. Si n es la
prueba en la que se alcanza el exito a, el n
umero de fracasos es entonces m = n a, que se
distribuyen de cualquier manera entre las n 1 pruebas (la u
ltima es seguro un exito). Pero n
tiene algunas restricciones:
n a,
n < a + b, pues si n = a + b, m = a + b a = b y no se cumple la condicion.
Si An ={a exitos en n pruebas}, A = a+b1
on disjunta,
n=a An , y siendo la uni
P (A) =
a+b1
X
P (An ) =
a+b1
X
n=a
n=a
b1
X
n1 a
a+j1
na
a
p (1 p)
=p
(1 p)j .
a1
a
1
j=0
3
X
P (B|Ci )P (Ci ) =
i=1
1
3
20 15 10
+
+
20 20 20
P (B|Ci )P (Ci )
,
P (B)
y de aqu
P1 =
4
9
P2 =
3
9
P3 = 29 .
3
4
10
Captulo 1. Probabilidad
Para la segunda extraccion, y la consecuente aplicacion del teorema del Bayes, utilizaremos
las probabilidades a posteriori que acabamos de obtener, en lugar de las P (Ci ) iniciales.
Obtendremos,
P (B) =
3
X
P (B|Ci )Pi
i=1
1
=
9
20
15
10
29
4 +3 +2
=
,
20
20
20
36
P (B|Ci )P3
=
P (B)
10 2
20 9
29
36
4
29
Soluci
on 2.- Aplicamos ahora Bayes una sola vez, pero utilizamos el suceso B1 B2 , que
representa la primera y la segunda extracciones son buenas. Tendremos,
3
X
1 20 20 15 15 10 10
29
P (B1 B2 ) =
=
.
P (B1 B2 |Ci )P (Ci ) =
3
20
20
20
20
20
20
48
i=1
Finalmente,
P (C3 |B1 B2 ) =
ostico autom
atico emite un diagn
ostico basado en el resulProblema 1.9 Un aparato de diagn
tado de n an
alisis de un mismo paciente. Cada an
alisis, independientemente de los restantes,
puede dar un resultado err
oneo con probabilidad p. La probabilidad de un buen diagn
ostico,
condicionada al n
umero de an
alisis correctos, es una funci
on creciente de dicho n
umero, g(m).
Durante una ma
nana la m
aquina ha diagnosticado a k pacientes. Encontrar la probabilidad
del suceso A ={al menos un paciente esta mal diagnosticado}. Particularizar el resultado para
g(m) = m/n.
Soluci
on.- Consideremos los sucesos B ={un paciente cualquiera est
a bien diagnosticado} y
Hm ={m an
alisis son correctos}. Aplicando el teorema de la probabilidad total tenemos,
P (B) =
n
X
P (B|Hm )P (Hm ),
m=1
m
n,
P (B) =
n
n!
m
1 X
n nm
pnm (1 p)m =
m
p
(1 p)m = 1 p,
m!(n
m)!
n
n
m
m=1
m=1
X
y P (A) = 1 (1 p)k .
Captulo 1. Probabilidad
11
(
d2 (A, B) =
P (A4B)
P (AB)
si P (A B) 6= 0,
si P (A B) = 0.
=
=
P (A C c ) + P (Ac C)
P (A C c B) + P (A C c B c ) + P (Ac C B) + P (Ac C B c )
P (C c B) + P (A B c ) + P (Ac B) + P (C B c )
P (A4B) + P (B4C)
d1 (A, B) + d1 (B, C)
Para d2 , representemos en primer lugar las distintas probabilidades asociadas a los sucesos
A, B y C y sus complementarios.
A
C
p
t
B
Bc
Cc
q
u
Ac
C Cc
r
s
v
w
As, P (A B C) = p, P (A B C c ) = p, etc..
Para comprobar la desigualdad triangular hemos de considerar los cuatro casos siguientes.
Caso 1.- Supongamos que P (A C) = 0.
Tenemos entonces que d2 (A, C) = 0 y la desigualdad de cumple obviamente.
Caso 2.- Supongamos que P (A C) 6= 0 y P (A B) = 0.
De acuerdo con la tabla, p = q = r = t = u = r = s = 0, v 6= 0 y
d2 (A, C) =
v
= 1,
v
d2 (A, B) = 0,
d2 (B, C) =
v
=1
v
y de aqu se deduce
d2 (A, C) d2 (A, B) + d2 (B, C).
Caso 3.- Supongamos que P (A C) 6= 0 y P (B B) = 0. Este caso es similar al anterior.
Caso 4.- Supongamos que
P (A C) =
6
0,
P (A B) =
6
0y
P (B C) =
6
0.
En estas condiciones las siguientes desigualdades son equivalentes.
12
Captulo 1. Probabilidad
P (A4C)
P (A C)
P (A4B)
P (B4C)
+
;
P (A B) P (B C)
q+u+r+v
p+q+t+u+r+v
t+u+r+s
q+s+t+v
+
;
p+q+t+u+r+s p+q+r+s+t+v
q+u+r+v
xs
t+u+r+s q+s+t+v
+
xv
xu
donde x = p + q + r + s + t + u + v;
(r + u) + (q + v)
xs
xs
+ (q + v)
x v
xu
xs
xs
+(s + t)
+
;
xv xu
(r + u)
vs
us
+ (q + v)
x v
xu
xs
xs
+(s + t)
+
;
xv xu
(r + u)
v(r + v) u(q + v)
+
x
v
xu
xs
xs
r+u
q+v
+s
+
x v x u x v x u
xs
xs
+t
+
xv xu
v(r + v) u(q + v)
+
x
v
xu
x (r + s + u) x (q + s + v)
+s
+
xv
xu
xs
xs
+t
+
.
xv xu
Esta u
ltima desigualdad es cierta porque la parte izquierda de la misma es una suma de
terminos positivos
Problema 1.11 Un taxi se ve involucrado en un accidente nocturno. En la ciudad hay dos
compa
nas de taxis, los taxis Negros y los taxis Blancos. Se sabe que el 85 % de los taxis de
la ciudad son Negros y el 15 % restante son Blancos. Un testigo del accidente afirma que el
taxi involucrado era Blanco y la fiabilidad de su testimonio es del 80 %, es decir, es capaz de
identificar correctamente el color del taxi el 80 % de las veces.
un c
alculo previo, piensas que es m
as probable que el taxi accidentado fuera el
1. Sin ning
Negro o el Blanco?
2. Calcula la probabilidad de que el taxi accidentado fuera el Blanco y compara ambas respuestas.
3. Supongamos que para 0 p 1 el 100p % de los taxis son Blancos y que la fiabilidad
del testigo contin
ua siendo del 80 %. Estudia la sensibilidad a los datos de la respuesta
Captulo 1. Probabilidad
13
P (T |B)P (B)
P (T |B)P (B) + P (T |N )P (N )
0,80 0,15
0,80 0,15 + 0,20 0,85
0,41,
y analogamente,
P (N |T ) = 0,59.
Este resultado contradice lo anterior y pone de manifiesto la confusion existente en el
manejo de las probabilidades por parte de gente no experta.
3. Ahora P (B) = p, P (N ) = 1 p, P (T |B) = 0,80 y P (T |N ) = 0,20 y aplicando Bayes
P (B|T ) =
0,8p
.
0,2 + 0,6p
pq
pq
=
.
pq + (1 p)(1 q)
1 p q + 2pq
Si queremos que P (B|T ) > 0,5 p y q deben estar en el recinto definido por 0 p 1,
0 q 1 y p + q > 1.
14
Captulo 1. Probabilidad
Problema 1.12 Dos jugadores A y B juegan a un juego en el que cada uno de ellos puede
efectuar n lanzamientos de dos dados, siendo A quien comienza. Las reglas del juego son las
siguientes:
Si A obtiene una suma 6 con los dados antes de que B haya obtenido una suma 7, A gana
el juego.
Si es B quien obtiene el 7 antes de que A haya obtenido el 6, es B quien gana.
El juego termina en empate cuando ambos han agotado su n lanzamientos.
Encontrar las expresiones de pA (n), pB (n) y pE (n) que denotan, respectivamente, que el ganador
es A, el ganador es B o el juego termina en empate. Calcular sus lmites cuando n .
Soluci
on.- Si Ak = {A ha obtenido una suma 6 en el lanzamiento k-esimo} y Bk = {B ha
obtenido una suma 7 en el lanzamiento k-esimo}, tenemos que P (Ak ) = 5/36 y P (Bk ) = 6/36
k.
Para que gane A al cabo de n lanzamientos debe ocurrir
c
An ).
{gana A} = A1 (Ac1 B1c A2 ) (Ac1 B1c , . . . , Acn1 Bn1
31 30
n1
X 31 k 30 k 5
5
362
= 0,4918 (1 0,7176n ).
pA (n) =
=
31 30
36
36
36
36
k=0
1
362
Para que sea B quien la gane el juego al cabo de n lanzamientos,
{gana B} = (Ac1 B1 ) (Ac1 B1c Ac2 B2 ) (Ac1 B1c , . . . , Acn Bn )
y de aqu,
k+1 k
n
X
30
6
31
pB (n) =
= 0,5082 (1 0,7176n+1 ).
36
36
36
k=0
X
n1
P (D Cn ) =
X
n1
P (A)
.
P (A) + P (B)
(1.3)
El resultado coincide con lo que la intuicion permita suponer. Para saber cual de los dos
ocurrira antes con mayor probabilidad bastara con observar sus probabilidades.
Captulo 1. Probabilidad
15
kD
kD
k{4,5,6}
la u
ltima igualdad siendo cierta por razones de simetra respecto de la suma media que es 7.
Calculos sencillos conducen a
3
3
P (S1=4 )P (S4 antes que 7 ) =
36 3 + 6
4
4
36 5 + 6
Sustituyendo en P (G),
P (G) =
8
+2
36
3 3
4 4
5 5
+
36 9 36 10 36 11
244
= 0,493
495
16
Captulo 1. Probabilidad
Como siempre, el juego favorece a la banca al ser la probabilidad de ganar inferior a 0,5.
Problema 1.15 (El coche y las cabras) En un concurso de TV hay tres puertas, una de
ellas esconde un coche y las otras dos sendas cabras. El concursante elige una de las puertas
y obtiene como premio aquello que la puerta oculta, pero la puerta permanece cerrada y el
presentador, que conoce lo que hay detr
as de cada puerta, abre una de las otras dos puertas
y aparece una cabra (l
ogicamente el presentador nunca abre la puerta que oculta el coche). El
presentador se dirige entonces al concursante y le permite cambiar su elecci
on, que le conviene
hacer al concursante?
Este concurso tuvo gran exito a principios de los 90 en los USA y una conocida columnista
de la revista Parade Magazine, Marylin vos Savant public
o que cambiando su elecci
on el concursante doblaba su probabilidad de ganar el coche, pues esta pasaba del 1/3 inicial a 2/3. Su
afirmaci
on era correcta. Compruebalo.
Soluci
on.- Veamos las distintas opciones del concursante.
No cambia
Si el concursante no cambia su eleccion inicial la probabilidad de ganar el coche es 1/3,
puesto que elige al azar una dde las tres puertas.
Cambia
Si numeramos los animales como cabra 1 y cabra 2 las opciones de cambio son
1. Si se eligio inicialmente la puerta que ocultaba el coche la cambiar lo perdera.
2. Si se eligio la puerta que ocultaba la cabra 1, al cambiar elegira la puerta que oculta
el coche y lo ganara (recordemos que el presentador nunca abre la puerta que oculta
el coche).
3. Si eligio la puerta que ocultaba la cabra 2 el razonamiento anterior es valido y
ganara tambien el coche.
En definitiva, de las 3 opciones posibles 2 de ellas le conducen a ganar el coche y la
probabilidad es por tanto 2/3.
Una generalizaci
on
Una persona, B, invita a otra, A, a jugar a un juego que consiste llevar a cabo extracciones
de una urna que contiene a bolas blancas y b bolas negras (a + b 3). Se le pide a A que
elija entre una de las dos siguientes estrategias (A llevara a cabo sus extracciones con los
ojos vendados).
1. Extrae una bola al azar y si es blanca gana, en caso contrario pierde.
2. Extrae una bola, se deshace de ella sin ni siquiera conocer su color y a continuacion
B retira una bola negra de la urna. A lleva a cabo una segunda extraccion y si la
bola extrada es blanca gana, en caso contrario pierde.
Que estrategia le conviene elegir? Las probabilidades de ganar para cada estrategia valen
a
a
a1
b
a
a
1
p1 =
, p2 =
=
1+
.
a+b
a+b a+b2 a+b a+b2
a+b
a+b2
Como p2 > p1 , le conviene la segunda estrategia.
En el concurso de la TV, tenamos a = 1 y b = 2 que dan lugar a p1 = 1/3 y p2 = 2/3.
Captulo 1. Probabilidad
17
P (A B)
P ((A B) A)
=
.
P (A)
P (A)
(1.4)
Si ha ocurrido A B,
P2 = P (A B|A B) =
P ((A B) (A B))
P (A B)
=
.
P (A B)
P (A B)
(1.5)
pA (n) =
b
a+b
3(n1)
a
= 3(n1) .
a+b
n1
.
1 3
X
n1
pB (n) =
3(n1) =
n1
.
1 3
2 3
2
=
=
.
3
3
3
1
1
1
1 3
18
Captulo 1. Probabilidad
Existe una solucion alternativa mas elegante que la anterior. Razonemos para ello de la siguiente forma. Si gana A es porque lo ha hecho en su primer lanzamiento o en alguno posterior.
A partir de su primer lanzamiento, caso de no haber ganado, A pasa a convertirse en el tercer
jugador y ganara con probabilidad pC , que representa no tanto el hecho de que gane concretamente C como que lo haga el jugador que lanza en tercer lugar. Un razonamiento analogo para
los otros dos jugadores nos proporciona las relaciones,
pA = + pC ;
pB = pA ;
pC = 2 pA .
Problema 1.19 (El problema de los puntos o del reparto de la apuesta) Dos jugadores A y B juegan a un juego consistente en un n
umero indeterminado de partidas. La probabilidad de ganar en cada partida es p para A y 1 p para B. Aquel de los dos que consigue antes
vencer en r partidas gana el juego y la apuesta que ambos hicieron. Si el juego se interrumpe
antes de finalizar, c
omo se debe repartir la apuesta?
Soluci
on.- Este problema tiene tambien su origen en la inquietud intelectual del caballero de
Mere quien lo planteo a Pascal en 1654. El problema origino una famosa correspondencia entre
Pascal y Fermat. Muchos autores se
nalan el nacimiento de la Probabilidad en el estudio que
Pascal y Fermat llevaron a cabo de estos dos problemas, de ah que a ambos se les reconozca
la paternidad de la criatura y se le otorgue con justicia a de Mere el papel de padrino.
Volviendo al problema, observemos que el juego no puede durar mas de 2r 1 partidas.
Supongamos que el juego se interrumpe cuando A ha ganado r a partidas y B ha ganado
r b. La solucion que propuso Pascal es que la apuesta se repartiera proporcionalmente a la
probabilidad que cada jugador tiene de ganar el juego si este se reanudara. Habra pues que
calcular dichas probabilidades.
Para que A gane el juego reanudado debe conseguir las a partidas que le faltan antes de que B
gane las suyas. Las partidas que se jugaran seran a+i, a lo sumo (2r1)(ra)(rb) = a+b1
y por tanto i = 0, 1, . . . , b 1. Debera ocurrir que A gane la u
ltima partida y otras a 1 entre
las a + i 1 restantes. Designado por pA (a, b) la probabilidad de que gane A,
pA (a, b) =
b1
b1
X
X
a + i 1 a1
a+i1 a
p
(1 p)i p =
p (1 p)i .
a
1
i
i=0
i=0
Captulo 1. Probabilidad
19
12 i
7
X
11 + i
2
3
= 0,0352,
i
5
5
i=0
p ar ad o ja d e B e r tr an d
caso 1
caso 2
caso 3
Cada una de estas interpretaciones supone una eleccion al azar sobre espacios muestrales
distintos. As,
Caso 1.- El espacio muestral es todo el crculo unidad, C(1) y solo las cuerdas cuyos puntos
medios caen
en el crculo inscrito en el triangulo equilatero, C(1/2), tienen longitud mayor que 3. Es sabido que este crculo tiene radio 1/2y recurriendo a la probabilidad
geometricas, si A={la cuerda tiene longitud mayor que 3}
P (A) =
area(C(1/2)
(1/2)2
1
=
= .
area(C(1)
Caso 2.- El espacio muestral es ahora el segmento (radio) [0,1] y solo las cuerdas cuyos puntos
medios estan en [0,1/2] cumplen la condicion. Tendremos
P (A) =
1
longitud([0, 1/2])
= .
longitud([0, 1])
2
20
Captulo 1. Probabilidad
Caso 3.- El espacio muestral es ahora la circunferencia del crculo unidad. Si fijamos un extremo de la cuerda y elegimos al azar la posicion del otro, solo aquellas cuerdas que tengan
este u
ltimo extremo sobre el tercio de la circunferencia opuesto al extremo fijo cumplen
la condicion. Tendremos
2/3
1
P (A) =
= .
2
3
Problema 1.21 (La paradoja de la urna vaca) Disponemos de una urna infinitamente
grande y de una colecci
on infinita de bolas numeradas. Procedemos a depositar las bolas en
la urna de tres formas distintas.
1. A las 5 de la tarde menos 1 minuto introducimos las 10 primeras extrayendo la que lleva el
n
umero 10 (supongamos que la introducci
on y la sucesiva extracci
on consumen un tiempo
0). A las 5 menos 12 minuto depositamos las 10 bolas siguientes y extraemos la que lleva
el n
umero 20. A las 5 menos 14 de minuto las 10 siguientes extrayendo a continuaci
on la
que lleva el n
umero 30. Y as sucesivamente.
2. El segundo procedimiento es an
alogo al anterior, pero las bolas que se extraen en cada
ocasi
on son las numeradas 1, 2, 3, .....
3. En el tercer procedimiento las bolas se introducen como en los dos anteriores pero en cada
decena la extracci
on se efectua al azar.
Cuantas bolas habr
a en la urna a las 5 de la tarde seg
un el procedimiento empleado?
Soluci
on.- Veamos a que conduce cada procedimiento.
1. La respuesta para el primer procedimiento no ofrece ninguna duda. A las 5 de la tarde
habra infinitas bolas en la urna porque eliminamos sistematicamente 1 de cada 10 en cada
ocasion y quedan por tanto 9n, n .
2. El segundo procedimiento exige una mayor reflexion. Consideremos la bola que lleva el
n
umero n y preguntemonos si estara en la urna cuando den las 5 de la tarde. Las bolas van
extrayendose consecutivamente despues de la introduccion de cada decena, as la n
umero
1 se extrae a las 5 menos 1 minuto, la n
umero 2 a las 5 menos 1/2 minuto, ... , la n
umero
n a las 5 menos (1/2)n1 minutos. La conclusion es que cualquier bola sera, mas o pronto
o mas tarde, extrada y que la urna estara vaca a las 5 de la tarde.
3. La respuesta es todava mas sorprendente si la extraccion es aleatoria, porque con probabilidad 1 la urna estara vaca a las 5 de la tarde. Fijemos nuestra atencion en una
bola cualquiera, por ejemplo la que lleva el n
umero 1. Si En ={la bola 1 permanece en la
urna despues de la n-esima extracci
on} y Ai ={la bola 1 no ha sido extrada en la i-esima
extracci
on}, i = 1, . . . , n, podemos escribir En = A1 A2 An y
P (En ) =
=
=
=
P (A1 A2 An )
P (A1 )P (A2 |A1 ) . . . P (An |A1 A2 An1 )
9n
9 18
10 19
9n + 1
n
Y
9i
.
9i
+1
i=1
Captulo 1. Probabilidad
21
Como los En constituyen una sucesion monotona decreciente, la probabilidad del suceso
F1 = n1 En ={la bola 1 permanece en la urna a las 5 de la tarde} puede obtenerse
haciendo uso de la continuidad de la probabilidad respecto del paso al lmite.
Y
Como
Y
n1
n1
9n
.
9n + 1
1
Y 9n + 1
9n
=
9n + 1
9n
n1
Y
1
1+
= .
9n
n1
Observemos que
Y
n1
1+
1
9n
=
>
=
m
Y
1
9n
n=1
1
1
1
1+
1+
1 +
9
18
9m
1
1
1
+
+ +
9 18
9m
m
1X1
,
9 i=1 i
1+
i1
22
Captulo 1. Probabilidad
b
Escru tin io tip o C
b
Escru tin io tip o D
P rin cip io d e reflexi n
b
Escru tin io tip o E
Para calcular P (C) hemos de contar sus elementos y tambien los de . Veamos como hacerlo.
1. Cardinal de
Cualquier escrutinio no es mas que una sucesion de a + b votos, con a de ellos favorables a
A y b favorables a B. El n
umero total de posibles escrutinios se obtiene distribuyendo de
todas las formas posibles los a votos de A (o los b de B) en a + b posiciones. En definitiva,
a+b
# =
.
a
2. Cardinal de E
Las trayectorias en E se caracterizan porque todas ellas comienzan con un voto para B,
a partir de aqu todas unen el punto (1,0) con el (b, a) contando para ello con los a votos
del candidato A o con los b 1 votos restantes del candidato B. Razonando como antes
a+b1
a+b1
#E =
=
.
a
b1
on
3. Cardinal de D. Principio de reflexi
Existe una correspondencia biunvoca entre las trayectorias de D y las de E. Consideremos
una trayectoria cualquiera de D, por ejemplo la de la grafica central de la figura. El tramo
Captulo 1. Probabilidad
23
comprendido entre el punto (0,0) y el punto (p, p), primer punto en el que la trayectoria
corta a la bisectriz, da lugar por reflexion respecto a dicha bisectriz a un nuevo tramo que
junto con el resto de la trayectoria inicial constituye una trayectoria de E. El razonamiento
es valido si partimos de una trayectoria de tipo E, en cuyo caso obtendremos por reflexion
una trayectoria de tipo D.
Aplicando ahora la formula de Laplace,
P (C)
# #D #E
#E
#C
=
=12
#
#
#
a+b1
a
1 2 a+b
ab
.
a+b
El resultado de las elecciones a la presidencia del Barca fue de 24025 votos para el Sr. N
un
ez y
5209 para el Sr. Fernandez y por tanto,
P (C) = 0,6436.
A a (A a)(A a 1)
(A a) . . . 2 1
A
+
+
=
A1
(A 1)(A 2)
(A 1) . . . (a + 1)a
a
Sugerencia.- Una urna con A bolas de las cuales a son blancas, extracciones sucesivas sin
reemplazamiento, primera bola blanca, ...
Soluci
on.- Siguiendo la sugerencia imaginemos un experimento aleatorio consistente en extracciones sucesivas sin reemplazamiento de una urna. La urna contiene A bolas de las cuales a son
blancas. Sabemos que mas pronto o mas tarde aparecera una bola blanca, lo que supone que el
correspondiente suceso tiene probabilidad 1, pero dicha probabilidad podemos descomponerla
de la forma
Aa+1 ! Aa+1
[
X
P (E) = P
Ei =
P (Ei ),
(1.6)
i=1
i=1
c
c
c
P (B1c )P (B2c |B1c ) P (Bi1
|Bi2
. . . B1c )P (Bi |Bi1
. . . B1c )
Aa Aa1
A a (i 2)
a
.
A
A1
A (i 2)
A (i 1)
24
Captulo 1. Probabilidad
Problema 1.24 A y B juegan a un juego en el que A tiene una probabilidad p de ganar una
partida. El vencedor es aquel que gana dos partidas consecutivas. Encontrar el valor de p si se
sabe que cuando A pierde la primera partida, las probabilidades de ganar el juego para A y para
B son iguales.
Soluci
on.- Si A pierde la primera partida solo podra ganar si el n
umero de partidas es impar.
Si denotamos por Ai ={A gana el juego en la partida i}, tendremos
P (A2n+1 |Ac1 ) = [p(1 p)]n1 p2
y de acuerdo con el enunciado
X
[p(1 p)]n1 p2 =
n1
Resolviendo la ecuacion,
p=
1
p2
= .
1 p(1 p)
2
51
= 0, 6180.
2
P (D|I)P (I)
0, 1x
=
,
c
c
P (D|I)P (I) + P (D|I )P (I )
0, 1x + 0, 9y
(1.7)
0, 1x
0, 1x + 0, 9y
lo que nos indica que alrededor de los valores originales de x e y cualquier variacion de y tiene
un efecto mayor que la variacion de x. La derivada negativa nos indica, ademas, que cuando y
decrece la probabilidad en (1.7) aumenta, como es logico que ocurra porque ello supone que el
sistema de deteccion es mas fiable.
Captulo 2
(d1 d2 )/2
(d2 d1 )/4
(d2 d1 )/2
(d2 d1 )/4
<Z<
de donde
pR = 1 pA = 1 (2(2) 1) = 2 2(2) = 0,04550
Problema 2.2 Sea X una variable aleatoria con funci
on de densidad
0,
si x 0,
f (x) =
ex xn
,
si
x > 0,
n!
donde n es un natural. Demostrar que se verifica la siguiente desigualdad
P (0 < X < 2(n + 1)) >
n
.
n+1
Soluci
on.- Obtengamos la E(X),
Z x n+1
Z
e x
1 n+1
E(X) =
dx =
x
(dex ) = = n + 1.
n!
n! 0
0
Analogamente, E(X 2 ) = (n + 2)(n + 1), y var(X) = E(X 2 ) [E(X)]2 = n + 1. Aplicando la
desigualdad de Tchebychev,
P (|X E(X)| < kX ) > 1
25
1
,
k2
26
n + 1 se convierte en
P (|X (n+1)| < (n+1)) = P ((n+1) < X (n+1) < (n+1)) = P (0 < X < 2(n+1)) >
n
.
n+1
4
m
4
m
n1
X
k=0
6n
k
k 6nk
5
1
.
6
6
(2.1)
n
1
2
3
4
5
100
6n
6
12
18
24
30
600
27
P(Xn n)
0.665
0.619
0.597
0.584
0.576
0.517
si x = 1,
(1 p)n ,
1 (1 p)n , si x = n + 1,
f (x) =
0,
en el resto
y el n
umero esperado de analisis sera
E(Xn ) = 1 (1 p)n + (n + 1) (1 (1 p)n ) = n + (1 nq n ),
con q = 1 p.
En definitiva,
si nq n < 1, la primera estrategia es la mejor,
si nq n > 1, la segunda estrategia es la mejor.
Problema 2.6 Consideremos el espacio de probabilidad (, A, P ) y sean A1 y A2 dos sucesos.
Definimos X1 = 1A1 y X2 = 1A2 , las funciones caractersticas asociadas. Demostrar que X1 y
X2 son independientes si y s
olo si A1 y A2 lo son.
28
Soluci
on.- Para ambas variables el soporte es D = {0, 1} y su distribucion de probabilidad
viene dada por P (Xi = 1) = P (Ai ) y P (Xi = 0) = 1 P (Ai ).
1. Si las variables son independientes P (X1 = i, X2 = j) = P (X1 = i) P (X2 = j) para
i, j = 0, 1. En particular para i = j = 1,
P (A1 A2 ) = P (X1 = 1, X2 = 1) = P (X1 = 1) P (X2 = 1) = P (A1 ) P (A2 ).
2. Si los conjuntos son independientes tambien lo son las parejas (A1 , Ac2 ), (Ac1 , A2 ) y (Ac1 , Ac2 )
y por tanto P (X1 = i, X2 = j) = P (X1 = i) P (X2 = j) para cualesquiera i, j.
Problema 2.7 Dos personas lanzan, cada una de ellas, n veces una moneda. Obtener la probabilidad de que ambas obtengan el mismo n
umero de caras.
Soluci
on.- Designemos por X e Y las variables que recogen el n
umero de caras obtenidas por
cada una de las personas. Ambas tienen un distribucion B(n, 1/2), de manera que
n
n
1
P (X = k) = P (Y = k) =
.
k
2
Queremos obtener P (X = Y ), para lo cual
P (X = Y ) = P (
n
[
[{X = k} {Y = k}]) =
k=0
n
X
P ({X = k} {Y = k}).
k=0
=
=
=
=
=
=
n
X
P (X = k)P (Y = k)
k=0
n
X
n 2
1
2
k=0
2n X
2
n
1
n!
2
k!(n k)!
k=0
2n
n
1
(n!)2 X
2n!
2
2n!
[k!(n k)!]2
k=0
2n
2
1
(n!)2 2n
2
2n! n
2n
2n
1
.
n
2
n
k
Problema 2.8 Para simular una moneda correcta a partir de una sesgada en la que la probabilidad de obtener una cara vale 6= 1/2 podemos proceder como sigue. Lanzamos dos veces la
moneda e interpretamos C+ como cara y +C como cruz. Si no aparece ninguno de estos dos
resultados, repetimos los pares de lanzamientos hasta que aparezca alguno de ellos. Encontrar la
distribuci
on de probabilidad y la esperanza del n
umero de pares de lanzamientos necesarios para
poder tomar una decisi
on (cara o cruz) y comprobar que, en efecto, se trata de la simulaci
on
de una moneda correcta.
29
Soluci
on.- De acuerdo con el enunciado tenemos la siguientes probabilidades:
P (C) =
P (+) = 1
P (C+) = (1 ) P (CC) = 2
P (+C) = (1 ) P (++) = (1 )2
k1
1
.
2(1 )
Para comprobar que la simulacion de la moneda correcta es buena, obtengamos las probabilidades de cara y cruz en el procedimiento dise
nado. Sea Ai el suceso, el resultado C+ se ha
obtenido en el i-esimo lanzamiento, tendremos
X
X
(1 )
1
P (cara) = P (i Ai ) =
P (Ai ) =
[1 2(1 )]i1 [(1 )] =
= .
2(1
)
2
i
i
Problema 2.9 Inyectamos a unos ratones microorganismos del tipo A y B en igual proporci
on.
Se supone que los microorganismos efectivos de cada tipo se distribuyen independientemente con
arreglo a una misma distribuci
on de Poisson de par
ametro . Un rat
on sobrevive si y s
olo si
no hay microorganismos efectivos en la dosis inyectada. A los ratones muertos se les examina
para ver si contenan microorganismos de uno o de los dos tipos. Encontrar la probabilidad de
que un rat
on muerto contenga microorganismos de un solo tipo.
Soluci
on.- Si por XA y XB representamos el n
umero de microorganismos efectivos de A y
B, respectivamente, sabemos por el enunciado que son independientes y que XA P () y
XB P ().
Sean A1 = {XA = 0} {XB > 0} y A2 = {XA > 0} {XB = 0}, la probabilidad que se nos
pide calcular es P (A1 A2 |M ), donde M es el suceso, el rat
on ha muerto, que en terminos de
XA y XB se expresa de la forma M c = {XA = 0} {XB = 0}. Observese que tanto A1 como
A2 son disjuntos y ambos son subconjuntos de M .
La probabilidad buscada viene dada por
P (A1 A2 |M ) = P (A1 |M ) + P (A2 |M ) = 2P (A1 |M ) = 2
Pero
P (A1 M )
P (A1 )
=2
.
P (M )
P (M )
(2.2)
y
P (M ) = 1 P (M c ) = 1 P (XA = 0, XB = 0) = 1 P (XA = 0)P (XB = 0) = 1 e2 .
Sustituyendo en (2.2),
P (A1 A2 |M ) = 2
e (1 e )
= 2(1 + e )1 .
1 e2
30
0,
en el resto.
Soluci
on.a) Por su definicion fX|Y (x|y) 0, bastara pues comprobar que al sumarla para todos los
valores de x la suma vale 1.
X y x ey
X yx
= ey
= ey ey = 1.
x!
x!
x0
x0
y x ey y
y x e2y
e =
, y > 0, x = 0, 1, . . .
x!
x!
fX (x) =
0
y x e2y
dy,
x!
(2.3)
y x e2y
.
(x + 1)( 12 )x+1
(x + 1)( 21 )x+1
x!
Z
0
x!
y x e2y
dy =
x!
(x + 1)( 12 )x+1
x+1 x+1
1
1
=
, x = 0, 1, . . .
2
2
Problema 2.11 El tiempo que tardan en ser atendidos los clientes del servicio de caja de cierta
sucursal bancaria es una variable aleatoria T Exp(), con = 0,2. Durante una ma
nana
han llegado 10 clientes, cu
al es la probabilidad de que a lo sumo 3 de ellos hayan tardado m
as
de 6 minutos en ser atendidos? (Suponemos que los clientes son atendidos independientemente
unos de otros)
31
Soluci
on.- Si la variable X designa el n
umero de clientes, de entre los 10 que han llegado
durante la ma
nana, que tardan mas de 6 minutos en ser atendidos, X B(10, p6 ), donde
p6 = P (T > 6), cuyo valor es
p6 = P (T > 6) = e60,2 ' 0,30.
El problema nos pide calcular
P (X 3) =
3
X
10
k=0
n
X
i=1
Soluci
on.- Si designamos por Ai = {Xi xi }, tendremos
F (x1 , x2 , . . . , xn ) = P (X1 x1 , . . . , Xn xn ) = P (
n
\
Ai ),
i=1
1 P(
Tn
i=1
Ai ) = P ([ni=1 Ai ] )
Pn
Pn
Sn
= P ( i=1 Aci ) i=1 P (Aci ) = i=1 (1 Fi (xi )),
lo que porporciona la primera de las desigualdades.
Problema 2.13 Las variables aleatorias X e Y tienen una distribuci
on conjunta uniforme
en el interior del tri
angulo T de vertices (0,0), (2,0) y (1,2). Calcular P (X < 1, Y < 1) y
P (Y < 1|X < 1,5).
Soluci
on.- Como la distribucion es uniforme su densidad sera constante en todo el recinto,
siendo dicha constante la inversa del area del triangulo . Como dicha area vale 2,
1
2 , (x, y) T,
fXY (x, y) =
0, fuera.
Las probabilidades que se nos pide calcular pueden obtenerse analticamente, integrando la
densidad conjunta sobre los recintos que definen los sucesos implicados, o bien geometricamente
mediante el calculo de las areas de dichos recintos, porque como la distribucion del vector es
uniforme, la probabilidad de que (X, Y ) este en cualquier recinto acotado es directamente
proporcional a su area, siendo el factor de proporcionalidad la inversa del area del soporte del
vector, con lo que en nuestro caso P ((X, Y ) A) = (area de A)/2. Veamos ambos metodos:
32
Desarrollo geom
etrico
1. Para obtener P (X < 1, Y < 1) observemos en la figura el recinto A que el suceso
determina.
y
2
En definitiva,
P (X < 1, Y < 1) =
area de A
1
=
2
2
1 1
+
4 2
3
.
8
donde B = {Y < 1, X < 1,5} y C = {X < 1,5}. La figura nos muestra ambos
recintos.
C
B
5/4
5
= .
7/4
7
Desarrollo analtico El triangulo soporte del vector (X, Y ) viene definido (vease la figura)
mediante T = {0 < x < 1, 0 < y < 2x} {1 < x < 2, 0 < y < 4 2x}.
33
2
y = 2x
y = 4 - 2x
1
2
2x
1
dxdy +
2
1
1
2
1
0
1
3
dxdy = .
2
8
R 12 R 2x
R 1,5 R 1
1
dxdy + 1 0 12 dxdy
0 2
R 1 R 2x 1
R 1,52 R 42x 1
dxdy
+
2 dxdy
0 0 2
1
0
0
5/8
5
= .
7/8
7
Problema 2.14 Las puntuaciones obtenidas por los estudiantes del centro A en las pruebas
de selectividad se distribuyen N (6,25, 1), mientras que las de los estudiantes del centro B se
distribuyen N (6, 1,5). Elegimos al azar 2 estudiantes del centro A y 3 del centro B. Se pide:
1. la probabilidad de que la puntuaci
on media de los 2 estudiantes de A sea superior a la
puntuaci
on media de los 3 de B, y
2. la probabilidad de que al escoger al azar uno de los 5 estudiantes, su nota sea superior a
6.5
Soluci
on.1. Designado por X A y X B las puntuaciones medias de los 2 estudiantes de A y los 3 de B,
tenemos que
2
,
X A = X1 +X
2
XB =
Y1 +Y2 +Y3
,
3
(2.4)
34
Pero
P (X > 6,5|es de A) = P
y
P (X > 6,5|es de B) = P
6,5 6,25
Z>
1
= P (Z > 0,25)
6,5 6
Z>
= P (Z > 0,408).
1,5
Sustituyendo en (2.4),
P (X > 6,5) =
2
3
P (Z > 0,25) + P (Z > 0,408) = 0,3655
5
5
Y
a=(c2-d2)1/2
l
R
a
X
a
Disposicin de las roturas a lo largo de la linea
(l2 [l c2 d2 ]2 ])
2 c2 d2
c2 d2
a
rea(A)
=
=
.
P (A) =
l2
l2
l
l2
Problema 2.16 Elegimos al azar dos puntos, X e Y , en el intervalo [0, a]. Calcular la funci
on
de distribuci
on de la distancia entre ellos.
Soluci
on.- Sabemos que X U (0, a) e Y U (0, a). Hemos de obtener la distribucion de la
variable D =| X Y |, concretamente F (d) = P (D d), y para ello utilizaremos, por mas
sencillo, un metodo geometrico.
Observemos que {D d} = {| X Y | d}, suceso este u
ltimo que se corresponde con el
conjunto A de la figura.
35
Tendremos pues, F (d) = P (D d) = P (| X Y | d), siendo esta probabilidad proporcional al area de A, con factor de proporcionalidad 1/a2 , inversa del area del cuadrado que
constituye el espacio muestral. Como
P (D) =
y por tanto
a
rea(A)
d(2a d)
=
,
a2
a2
0
F (d) =
d(2ad)
a2
si d < 0,
si 0 d a,
si d > a.
=
P (Ai ) = p = 49
49
6
Definamos ahora las variables Xi , i = 1, . . . , 49, mediante
36
= P (Xi = 1, Xj = 1) [E(Xi )]
" #n
47
492
6
49
43 42
49 48
43
49
2n
43
49
49
2n
n 49
43
49
P (X = 0) = (1 p) = 1
49
Es tambien posible calcular el valor exacto de la probabilidad buscada. El suceso A={no
han aparecido todos los n
umeros en los n sorteos}, complementario del que nos interesa, puede
escribirse mediante los Ai de la forma
49
[
A=
Ai .
i=1
49
X
i=1
P (Ai )
P (Ai Aj )
1i<j49
1i<j<k49
donde
" #n
48
P (Ai ) =
6
49
43
=
49
" #n
47
P (Ai Aj ) =
6
49
...
43 42
49 48
...
"
P (Ai1 . . . Aim ) =
49m
6
49
#n
43 42 . . . (43 m + 1)
49 48 . . . (49 m + 1)
n
, m 43.
La tabla nos muestra los valores exactos de P (Ac ) y los aproximados mediante la Binomial.
exactos
Binomial
n=9
0.0000
1.39E-8
n=18
0.0032
0.0074
n=27
0.2118
0.2317
37
Si recordamos que nuestro jugador haba hecho sus observaciones a lo largo de 18 semanas, no
debemos extra
narnos de que no hubieran aparecido todos los n
umeros. La probabilidad de que
lo hubieran hecho es apenas de 0,0032. Lo sorprendente hubiera sido que estuvieran todos.
Un buena excusa para hacer inferencia estadstica.- Las Loteras y Apuestas del Estado
es el organismo estatal encargado de organizar y gestionar las diferentes apuestas que dependen
del Estado, en particular, La Primitiva y las demas apuestas afines: Bonoloto y Gordo de La
Primitiva. Desde su hoja web http://onlae.terra.es/primitiv.htm podemos descargarnos
toda la informacion relativa a los sorteos que han tenido lugar desde la implantacion de La
Primitiva en octubre de 1985. Esta informacion puede sernos u
til para verificar, mediante el
anterior resultado, si los sorteos son, efectivamente, equiprobables.
Desde el 17 de octubre de 1985 hasta el 12 de octubre de 2003 han tenido lugar 5214 sorteos
de La Primitiva, Bonoloto y Gordo de La Primitiva. Aunque se trata de juegos distintos, los
consideraremos conjuntamente como si del mismo juego se tratara porque el mecanismo de
extraccion es igual en todos ellos.
Hemos agrupado los sorteos en grupos de 27. El orden considerado para establecer los grupos
es irrelevante puesto que los sorteos son, o deben ser, independientes. Hemos por tanto agrupado
a partir del orden cronologico en el que viene registrados. El haber elegido un tama
no de grupo
de 27 es debido a la que los tama
nos inferiores, 9 o 18 sorteos, tienen probabilidades demasiado
bajas para el n
umero de sorteos que manejamos.
El n
umero total de bloques de 27 sorteos es de 193, con un resto de 3 sorteos que despreciamos. Asociada a estos 193 grupos podemos definir una variable N , que cuente el total de
grupos en cuyos 27 sorteos han aparecido el total de los 49 n
umeros del juego. Analizados todos
los resultados encontramos que N = 36.
Si la hipotesis de independencia de los sorteos y equiprobabilidad de los resultados son ciertas,
no olvidemos que la gente juega con la creencia de que lo son, la distribucion de probabilidad de
la variable aleatoria N es conocida, N Bi(n, p27 ), con n = 193 y p27 = 0,2118. La pregunta
que surge de inmediato es si el valor observado, N = 36, es compatible con dicha hipotesis.
La respuesta es objeto de la Inferencia Estadstica (IE), que nos proporciona herramientas
para decidir acerca del las hipotesis sobre el comportamiento de una variable aleatoria a partir
de la observaciones de la misma. Lo que la IE nos propone en este caso es
1. definir, a partir de la observaci
on obtenida, el suceso A = {N 36} ={se observan valores
menores o iguales que 36 },
2. obtener p = P (A) supuesta cierta la hipotesis que hemos hecho, a la que en IE se denomina
hip
otesis nula, H0 ,
3. comparar dicha probabilidad con un umbral peque
no establecido de antemano, al que en
IE se denomina nivel de significaci
on y se designa por , y
- aceptar H0 si p > , o
- rechazar H0 si p .
En nuestro caso,
p = P (N 36) =
36
X
193
(0,2118)k (1 0,2118)1k = 0,2224
k
k=0
que es un valor grande y, en todo caso, mayor que el habitual de = 0,05. No hay por tanto
incompatibilidad entre lo observado y lo supuesto y aceptaremos H0 .
38
xy <1x+y
1x<x
y <1y
x - y = 1/2
y = 1/2
xy <
1
2
1
y<
2
1
2
x>
area sombreada
1/8
1
=
= .
area de D
1/2
4
2.- Supongamos que x > 1/2. El segundo punto sera elegido al azar en el intervalo [0, x].
As pues, X U (1/2, 1) e Y |X = x U (0, x). La distribucion conjunta de (X, Y ) sera
0, en el resto.
Tendremos
Z
(Z
dx
P (T ) = P ((X, Y ) A)) =
1
2
1
2
x 12
2
dy
x
)
= 2 ln 2 1.
3.- Al dividir el intervalo [0, 1] en dos partes con la primera eleccion, la segunda eleccion nos
permitira formar un triangulo siempre que el trozo elegido sea el mas grande, puesto que si
39
1
1
1
+1 = .
2
2
2
Si ademas queremos que el triangulo sea obtuso, recordemos que la longitud del lado de
un triangulo vale c2 = a2 + b2 2ab cos C. Cuando el angulo C es obtuso, c2 > a2 + b2 .
En nuestro caso, si suponemos x < 1/2, el trozo mayor sera 1 x que dividiremos en dos
partes iguales, con lo que c = x y a = b = (1 x)/2 (observese que el u
nico angulo que
puede ser obtuso es el opuesto al lado x). La condicion quedara de la forma
1x
x2 > 2
= x2 + 2x 1 > 0 = x > 2 1,
2
y en definitiva
P (Tobtuso ) = 2P
1
2 1 < X < 1/2 = 2
( 2 1) = 3 2 2.
2
El factor 2 se justifica porque la opcion x > 1/2 tiene una solucion simetrica con igual
resultado.
Problema 2.19 Las variables X e Y son independientes y continuas. Sea U una variable
dicot
omica, independiente de ambas con P (U = 1) = P (U = 1) = 1/2. Definimos S = U X y
T = U Y . Comprobar que S y T son dependientes, pero S 2 y T 2 son independientes.
Soluci
on.- La funcion de distribucion conjunta de S y T viene dada por,
GST (s, t) =
=
=
pero
GS (s) =
1
[FX (s) + (1 FX (s))]
2
GT (t) =
1
[FY (t) + (1 FY (t))]
2
40
Soluci
on.- Observemos en primer lugar que
{N > n} = {X1 + X2 + + Xn < x},
con lo que la probabilidad buscada es P (N > x) = P (Sn < x), siendo Sn = X1 + X2 + + Xn .
Como 0 < x < 1 cada componente de la suma cumplira tambien la condicion. Se trata pues
de obtener la funcion de distribucion de Sn |A donde A = {0 < Xk < 1, k = 1, . . . , n}, que
obtendremos recursivamente.
S2 = X1 + X2 ,
x2
2
xt
tdt
dx3 =
x3
3!
x 2
t
dt
2
xt
dx4 =
0
x4
4!
Por u
ltimo
P (N > n) = P (Sn < x) =
xn
.
n!
P (T t)
= P (XY t)
Z 1
t
= t+
dx
x
t
= t(1 ln t).
y = t/x
t
v) =
v.
41
2 GT V (t, v)
ln t
= ,
tv
2 v
0 < t, v < 1.
P (T V )
Z 1 Z 1
ln t
dv
dt
2 v
0
t
5
.
9
La figura nos muestra una de las posibles elecciones. El valor de los angulos del triangulo sera
A
1
( )
2
1
2
1
Para encontrar P (al menos uno de los angulos x) hemos de considerar dos situaciones,
dependiendo del valor de x.
1) x
1
2
1
2
Si x solo uno de los angulos puede superar x. La tabla recoge las tres situaciones
que pueden darse, con las inecuaciones que definen, que nos permitiran determinar los
subconjuntos de [0, 2] [0, 2] que las satisfacen.
(1) C > x
> 2x
< 2x
> 2(1 x)
(2) A > x
< 2x
> 2x
> 2(1 x)
(3) B > x
< 2x
< 2x
< 2(1 x)
42
= 2(1-x)
La figura nos muestra las regiones correspondientes a las tres situaciones descritas en la tabla, para el caso en que < puesto que el
caso contrario tiene una solucion simetrica. Las
tres regiones son iguales, triangulos rectangulos
isosceles cuyo cateto vale 2(1 x) y por tanto
la probabilidad buscada valdra
2
(1)
= 2x
- = 2x
(2)
(3)
(2(1 x)) /2
2
(2) /2
= 3(1 x)2 .
1
2
En este caso mas de un angulo puede superar x. Por esta razon es mas sencillo calcular la
probabilidad complementaria, P (todos los angulos < x). Observemos previamente que
esta probabilidad sera nula si x < 1/3, pues los angulos del triangulo suman siempre .
Las condiciones que deben verificar los angulos
en esta caso son
< x
2
1
2 < x
< x
2
(2(1-x), 2x)
< 2x
< 2x
< 2(1 x)
(4x,2x)
(2(1-x),2(1-2x))
(2(3x 1)) /2
2
(2) /2
= (3x 1)2 .
y de aqu
P (al menos uno de los angulos x) = 1 (3x 1)2 .
Resumiendo,
3(1 x)2 ,
P (al menos uno de los angulos x) =
1 (3x 1)2 ,
1
2
x < 1;
1
3
x < 12 ,
43
Soluci
on.- Obtengamos primero P (X x, X 2 y),
x,
y,
P (X x, X 2 y) = P (X x, X y) =
1,
si 0 x 1 y x
si 0 y 1 y
y;
y x;
si x 1 e y 1.
P (X x, y X 2 y + y)
y0
P (y X 2 y + y)
lm
P (X x, X 2 y + y) P (X x, X 2 y)
,
y0
P (y X 2 y + y)
lm
xx
lmy0
y + y y
P (X x|X 2 = y) =
y + y y
lmy0
,
y + y y
En definitiva,
P (X x|X 2 = y) =
si 0 x 1 y x
si 0 y 1 y
y;
y x;
0, si 0 x 1 y x y;
1, si 0 y 1 y
y x;
Problema 2.24 En una urna hay una bola roja. Extraemos tres cartas de una baraja francesa(52 cartas repartidas en 4 palos) y a
nadimos a la urna tantas bolas verdes como ases hayamos
extrado. A continuaci
on lanzamos 2 veces una moneda cuya probabilidad de cara es p = 1/5
y a
nadimos tantas bolas rojas como cruces hayamos obtenido. Finalmente llevamos a cabo 2
extracciones con reemplazamiento de la urna. Si X es el n
umero de bolas verdes a
nadidas a la
urna e Y el n
umero de bolas rojas a
nadidas a la urna,
1. Obtener la funci
on de probabilidad de X.
2. Obtener la funci
on de probabilidad de Y .
3. Si las dos bolas extradas con reemplazamiento son rojas, cu
al es la probabilidad de no
haber obtenido ning
un as al extraer las 3 cartas de la baraja francesa?
Soluci
on.- La respuesta a los tres apartados es,
Funci
on de probabilidad de X.- Observemos que X es una variable Hipergeometrica X
44
H(3, 52, 4), 3 cartas elegidas de un total de 52 de las cuales 4 son ases. As pues,
448
P (X = 0)
523
= 0,782624
448
P (X = 1)
522
= 0,204163
448
P (X = 2)
521
= 0,013032
448
P (X = 3)
520
= 0,000181
Funci
on de probabilidad de Y .- La distribucion de Y es B(2, 4/5) y
2
P (Y = 0) =
(0,8)0 (0,2)2 = 0,04
0
2
P (Y = 1) =
(0,8)1 (0,2)1 = 0,32
1
2
P (Y = 2) =
(0,8)2 (0,2)0 = 0,64
2
Probabilidad condicionada.- Lo que nos piden es obtener P (X = 0|RR), donde RR representa que ambas extracciones son bolas rojas. Aplicando la formula de la probabilidad
condicionada,
P (RR|X = 0)P (X = 0)
P (X = 0|RR) =
.
P (RR)
Observemos que P (RR|X = 0) = 1, lo que nos permite escribir
P (RR) =
P (RR|X = 0)P (X = 0) +
X X
P (RR|X = i, Y = j)P (X = i, Y = j)
1i3 0j2
P (RR|X = 0)P (X = 0) +
X X
P (RR|X = i, Y = j)P (X = i)P (Y = j)
1i3 0j2
0
0,031305
0,250440
0,500880
1
0,008167
0,031305
0,031305
2
0,000521
0,031305
0,031305
3
0,000007
0,031305
0,031305
Y
0
1
2
1
(1/2)2
(2/3)2
(3/4)2
X
2
(1/3)2
(2/4)2
(3/5)2
45
3
(1/4)2
(2/5)2
(3/6)2
0, 782624
= 0, 878028.
0, 891343
Problema 2.25 Sea X una variable aleatoria cuya densidad viene dada por
0,
si x < 0,
1
si 0 x 1,
fX (x) =
2,
1
2x2 , si x > 1.
Encontrar la densidad de Y = 1/X.
Soluci
on.- Si la transformacion es uno a uno, es derivable y tiene inversa, la densidad de la
nueva variable puede expresarse en terminos de la de X mediante
1
dg (y)
.
fY (y) = fX (g 1 (y))
dy
En este caso, x = g 1 (y) = 1/y y
dg 1 (y)
dy
0,
fY (y) =
1
2
1
y2 ,
1
2(1/y)2
si 1 y < ,
1
y2 ,
si 0 < y < 1,
46
1
l
, < x < +.
l2 + x2
2
2ded , d > 0
fD (d) =
0,
en el resto.
El
area del mayor disco libre (sin contactos) centrado en una celula es A = D2 . Encontrar la
densidad de probabilidad de A.
p
1
1/2
Soluci
on.- La transformacion inversa es D = A/ y su derivada vale dD
.
dA = 2 (A/)
La densidad de A valdra,
fA (a) = 2
a 12 1 a 12
ea = ea , a > 0,
6x(1 x), si 0 x 1;
fI (x) =
0,
fuera.
y
2y,
fR (y) =
0,
si 0 y 1;
fuera.
Hallar la densidad de W .
Soluci
on.- Definimos una variable auxiliar U = R para tener as un transformacion de R2 en
2
R ,
W = I 2R U = R
y sus inversas
r
I=
W
U
R = U.
r !
W
fW U (w, u) = 6 1
U
en el anterior recinto y 0 fuera de el.
fW (w) = 6
(1 wu1/2 )du
w
n
1 o
1
= 6 uw w2 uw
= 6(1 + w 2 w).
47
48
Captulo 3
Esperanza
Problema 3.1 Una variable aleatoria toma valores enteros positivos con probabilidades decreciendo en progresi
on geometrica. Elegir el primer termino y la raz
on de la progresi
on para que
E(X) = 10, y calcular, bajo dichas condiciones, P (X 10).
Soluci
on.- Puesto que el soporte de la variable es DX = {1, 2, 3, . . .} y las probabilidades
vienen dadas por P (X = k) = a1 rk1 , con a1 el primer termino de la progresion y r la razon,
se ha de verificar
X
X
a1
P (X = k) = a1
rk1 =
= 1.
(3.1)
1r
k1
k1
krk1 =
k1
a1
= 10.
(1 r)2
(3.2)
De (3.1) y (3.2) deducimos que r = 0,9 y a1 = 0,1, lo que nos permite calcular P (X 10),
P (X 10) =
=
1 P (X 11)
P
k11
P (X = k)
P
0,9k1
1 0,1
0,9
1 0,1 10,9
= 1 0,910 = 0,651
k11
10
49
50
Captulo 3. Esperanza
=
=
=
P (H1 M2 ) + P (M1 H2 )
P (H2 |M1 )P (M1 ) + P (M2 |H1 )P (H1 )
8 7
7 8
8
=
14 15 14 15
15
Esta probabilidad es la misma para cada uno de los 14 pares de butacas adyacentes. La
variable X, n
umero de parejas de distinto sexo entre las 14, sera B(14, 8/15) y su esperanza,
que es lo que el problema nos pide, viene dada por
E(X) = 14
8
15
Para el caso general de m mujeres, h hombres y m + h butacas en la fila, X B(n, p), con
n=m+h1 y
2hm
p=
,
(m + h)(m + h 1)
siendo su esperanza,
E(X) =
2mh
m+h
Problema 3.3 Dos jugadores A y B juegan al siguiente juego: lanzan una moneda hasta que
aparece un cara, si la cara aparece en el k-esimo lanzamiento el jugador B paga al jugador B
k monedas. Cuantas monedas deber
a pagar el jugador A antes de iniciarse el juego para que
este sea equilibrado?
Soluci
on.- Por juego equilibrado entendemos aquel en el que el precio de la apuesta coincide
con lo que esperamos ganar. Habremos por tanto de calcular lo que A espera ganar.
Si definimos la variable X, n
umero de lanzamiento necesarios para obtener la primera cara,
la ganancia esperada de A coincide con E(X). La variable X tiene una distribucion geometrica
de parametro p = 1/2, por tanto
k1
k
1
1
1
P (X = k) =
=
,
2
2
2
y
X 1 k
E(X) =
k
= 2.
2
k1
Captulo 3. Esperanza
51
Para comprobar que es, efectivamente, una funcion de probabilidad basta con sumar la serie
X
1p
p
[p(1 p)k1 + (1 p)pk1 ] = p
+ (1 p)
= 1.
p
1p
k2
k2
(3.3)
k2
pero a falta del primer termino, los sumandos coinciden con la expresion de la esperanza de
sendas variables geometricas con parametros p y 1 p, respectivamente. As, si Tp Ge(p),
E(Tp ) =
kp(1 p)k1 =
k1
k(1 p)pk1 =
k1
1
p
1
.
1p
Sustituyendo en (3.3)
E(X) =
1
1
1
p +
(1 p) =
1.
p
1p
p(1 p)
E(X 2 ) =
2p
1+p
2
y E(T1p
)=
.
p2
(1 p)2
2p
1+p
5p2 5p + 2
p
+
(1
p)
=
1,
2
2
p
(1 p)
(p(1 p))2
y
var(X) =
.
3p2 3p + 1
1
3
2=
2
(p(1 p))2
(p(1 p))2
p(1 p)
Problema 3.5 En dos lados distintos de un cuadrado unidad elegimos al azar e independientemente los puntos X e Y . Si por D designamos la distancia entre ellos, calcular E(D2 ) en las
dos situaciones posibles descritas en la figura.
Y
D
Y
D
52
Captulo 3. Esperanza
Soluci
on.Izquierda.- Se verifica que D2 = X 2 + Y 2 y de aqu
Z 1
Z
2
2
2
2
E(D ) = E(X ) + E(Y ) =
x dx +
0
y 2 dy =
2
.
3
7
2 1
= .
3 2
6
Problema 3.6 Elegimos al azar dos puntos en el intervalo [0, a]. Queremos conocer,
a) Area media del rect
angulo que tiene por lados las correspondientes longitudes.
b) Area media de dicho rect
angulo si ambos puntos son mayores que a/2.
Soluci
on.a) Si por X e Y designamos los puntos, la densidad conjunta viene dada por
1
a2 , (x, y) [o, a] [0, a],
fXY (x, y) =
0,
fuera.
El area del rectangulo viene dada por A = XY y por tanto
Z
E(A) =
0
xy
a2
dxdy = .
2
a
4
b) Se trata ahora de una distribucion condicionada al suceso B ={ambos puntos son mayores
que a2 }. La densidad condicionada viene dada por
4
a2 , (x, y) [ a2 , a] [ a2 , a],
fXY |B (x, y) =
0,
fuera.
Para obtener el area media,
Z
E(A) =
a
2
a
2
xy
dxdy =
a2
3
a
4
2
.
Captulo 3. Esperanza
53
Problema 3.8 Sea X una variable aleatoria discreta con soporte DX = {x1 , x2 , . . . , xm }. Calcular
E(X n+1 )
lm
.
n E(X n )
Soluci
on.- El cociente de esperanzas tiene la expresion
P n+1
E(X n+1 )
x
p
P i n i,
=
E(X n )
xi pi
si designamos mediante xmax el maximo de los posibles valores que toma X, podemos escribir,
P xi n+1
pi
n+1
xmax
E(X
)
=
x
.
m
a
x
n
P xi
E(X n )
p
xmax
Al pasar al lmite,
lm
n
luego
xi
xmax
0, si xi 6= xmax
1, si xi = xmax ,
E(X n+1 )
= xmax .
n E(X n )
lm
i1
1
1
1
= i.
2
2
2
1
10i ,
k B2 = [10 + 1, 102 ]
P (X = k|Ai ) =
1
10i ,
k B1 = [1, 10]
i 1,
i 2, P (X = k|Ai ) = 0, i < 2
1
,
i
j,
P
(X = k|Ai ) = 0, i < j
i
10
54
Captulo 3. Esperanza
X 1 1
1
=
,
i
i
10 2
19 20j1
j 1.
ij
P (X = k) =
X X
P (X = k)
j1 kBj
k1
X
j1
kBj k
19 20j1
10 X 10j 10j1
+
19
19 20j1
j2
X
1
10 + 9
19
j2
j1
1
1
(10 + 9) = 1.
19
Para obtener E(X) hemos de calcular primero la suma de las sucesiones aritmeticas de los
K que pertenecen a un mismo Bj . Para j = 1, S1 = 45, para 2,
Sj =
X
kBj
k=
10
X
k=
k=10j1 +1
La esperanza valdra
E(X) =
X X
kP (X = k)
j1 kBj
X
1
45 + 9
19
j2
j
1
(10j + 10j1 + 1) .
2
Como el termino general de las serie es mayor que 1, la serie diverge y E(X) = +. No existe
pues la esperanza.
Problema 3.10 Un trabajador est
a encargado del correcto funcionamiento de n m
aquinas situadas en linea recta y distantes una de otra l metros. El trabajador debe repararlas cuando se
averan, cosa que sucede con igual probabilidad para todas ellas e independientemente de una a
otra. El operario puede seguir dos estrategias:
Captulo 3. Esperanza
55
1. acudir a reparar la m
aquina estropeada y permanecer en ella hasta que otra m
aquina se
avera, desplaz
andose entonces hacia ella, o
2. situarse en el punto medio de la linea de m
aquinas y desde all acudir a la averiada,
regresando nuevamente a dicho punto cuando la avera est
a resuelta.
Si X es la distancia que recorre el trabajador entre dos averas consecutivas, c
ual de ambas
estrategias le conviene m
as para andar menos?
Soluci
on.- Se trata, en cualquiera de las dos estrategias, de obtener la E(X) y elegir aquella
que la proporciona menor. Designaremos por Ei (X) la esperanza obtenida bajo la estrategia
i = 1, 2.
Estrategia 1.- Sea Ak el suceso, el operario se encuentra en la m
aquina k. Para obtener E1 (X)
recurriremos a la conocida propiedad que liga la esperanza con la esperanza condicionada:
E1 (X) = E(E(X|Ak )).
Para obtener E(X|Ak ) tengamos en cuenta que si i es la proxima maquina averiada,
P (Ai ) = 1/n, i y el camino a recorrer sera
(k i)l, si i k,
X|Ak =
(i k)l, si i > k.
As pues,
E(X|Ak ) =
k
n
X
l
1 X
( (k i)l +
(i k)l) =
[2k 2 2(n + 1)k + n(n + 1)].
n i=1
2n
i=k+1
Utilizando
n
X
k2 =
k=1
n(n + 1)(2n + 1)
,
6
X
k
E(X|Ak ) =
l(n2 1)
3n
Estrategia 2.- Para facilitar los calculos supongamos que n es impar, lo que supone que hay
una maquina situada en el punto medio de la linea, la n+1
esima. Si la proxima maquina
2 -
averiada es la i la distancia a recorrer sera,
n+1
2( n+1
2 i)l, si i 2 ,
X=
n+1
2(i n+1
2 )l, si i > 2 ,
donde el 2 se justifica porque el operario en esta segunda estrategia regresa siempre al
punto medio de la linea de maquinas. La esperanza viene dada por,
n
E2 (X) =
l(n 1)
2 X n+1
i|l =
.
|
n i=1
2
2
56
Captulo 3. Esperanza
0,
en el resto.
La distancia entre ellos es |X Y |. Comenzaremos por calcular E(|X Y |n ).
Z aZ a
1
n
|x y|n 2 dx dy
E(|X Y | ) =
a
Z0 a Z0 x
Z aZ y
1
1
=
(x y)n 2 dy dx +
(y x)n 2 dx dy
a
a
0
0
0
0
2an
=
.
(n + 1)(n + 2)
Para n = 1 se obtiene E(|X Y |) = a/3 y para n = 2, E(|X Y |2 ) = a2 /6. La varianza se
obtendra a partir de
V ar(|X Y |) = E(|X Y |2 ) [E(|X Y |)]2 =
a2
a2
a2
=
.
6
9
18
Problema 3.12 Sea X una variable aleatoria no negativa. Demostrar que [E(X)]1/2 E(X 1/2 ).
Soluci
on.- Si hacemos Y = X 1/2 tendremos que
0 V ar(Y ) = E(Y 2 ) [E(Y )]2 = E(X) [E(X 1/2 )]2 ,
y de aqu se deduce la desigualdad.
Problema 3.13 Calcular el coeficiente de correlaci
on entre el mayor y el menor valor obtenidos al lanzar dos dados.
Soluci
on.- Designemos por X la mayor de
cuanta conjunta viene dada por
2
36
1
f (x, y) =
,
36
0,
si 1 y < x 6;
si 1 y = x 6;
en el resto.
Captulo 3. Esperanza
La marginal de X vale
fX (x) =
f (x, y) = f (x, x) +
f (x, y) =
1
2(x 1)
2x 1
+
=
, 1 x 6,
36
36
36
f (x, y) =
1
2(6 y)
13 2y
+
=
, 1 y 6,
36
36
36
y<x
yx
y fX (x) = 0 en el resto.
La marginal de Y vale
fY (y) =
f (x, y) = f (y, y) +
X
x>y
xy
y fY (y) = 0 en el resto.
Recordemos que
cov(X, Y )
XY = p
var(X)var(Y )
6
X
y(13 2y)
y=1
E(XY ) =
36
#
" 6
6
X
91
1 X
2
13y
2y =
=
.
36 y=1
36
y=1
xyf (x, y) =
6
X
x2
x=1
DXY
36
De aqu,
cov(X, Y ) = E(XY ) E(X)E(Y ) =
6 X
X
441
2xy
=
.
36
36
x=1 y<x
441 161 91
1225
=
.
36
36
36
362
E(X ) =
6
X
x2 (2x 1)
36
x=1
E(Y ) =
6
X
y 2 (13 2y)
y=1
36
#
" 6
6
1 X 3 X 2
791
2x
x =
=
,
36 x=1
36
x=1
" 6
#
6
X
1 X
301
2
3
=
13y
2y =
.
36 y=1
36
y=1
De aqu,
var(X) = E(X 2 ) [E(X)]2 =
791 1612
2555
=
,
36
362
362
301 912
2555
2 =
.
36
36
362
Finalmente,
XY =
1225/362
1225
=
= 0,4794.
2555/362
2555
57
58
Captulo 3. Esperanza
1, si (x, y) C1 ;
f (x, y) =
0, en el resto.
Las marginales de X e Y son iguales, por simetra, y valen
2p
2
1 x2 , si |x| 1;
1 y2 ,
fY (y) =
fX (x) =
0,
en el resto.
0,
Como ambas funciones son pares, E(X) = E(Y ) = 0. Ademas,
"Z 2
Z Z
Z
1
E(XY ) =
xydxdy =
C1
1x
x
1
1x2
si |y| 1;
en el resto.
ydy dx = 0,
con lo que cov(X, Y ) = 0 y, por tanto, XY = 0. Observese, no obstante, que las variables aun
siendo incorreladas no son independientes.
Problema 3.15 Sean X e Y dos variables aleatorias. Si E(X|Y ) = 10 Y y E(Y |X) =
7 X/4, obtener su coeficiente de correlaci
on.
Soluci
on.- La obtencion del coeficiente de correlacion, XY implica conocer la covarianza entre
X e Y y las varianzas de ambas.
Comencemos con la obtencion de las esperanzas de ambas variables. Para ello tengamos en
cuenta que E(X) = E(E(X|Y )) y E(Y ) = E(E(Y |X)), y por tanto
E(X) = 10 E(Y )
E(Y ) = 7 E(X)
4 ,
sistema cuya solucion es E(X) = 4 y E(Y ) = 6. De igual forma, la E(XY ) podremos escribirla
de cualquiera de estas dos formas, E(XY ) = E(E(XY |Y )) o E(XY ) = E(E(XY |Y )); pero una
propiedad de las esperanzas condicionadas nos dice que E[E(g(X)Y |X)] = E[g(X)E(Y |X)], al
aplicarla obtendremos las igualdades
E(XY ) = E(Y E(X|Y )) = E(Y (10 Y )) = 60 E(Y 2 )
E(XY ) = E(XE(Y |X)) = E(X(7
X
4 ))
= 28
E(X 2 )
,
4
e igualando ambas,
E(Y 2 ) =
E(X 2 )
+ 32.
4
E(X 2 )
4
+ 32 36 =
E(X 2 )
4
Captulo 3. Esperanza
59
E(X 2 )
E(X 2 )
24 = (
4) = var(Y ).
4
4
XY = p
4var(Y )var(Y )
1
2
X|Y = 1
Y |X = 1/4.
X|Y Y |X = 1/2
donde a = E(X), a00 = E(X | X > a) y a0 = E(X | X < a). Si X N (a, 2 ), encontrar la
relaci
on entre , a y .
Soluci
on.- Recordemos que
a00 = E(X | X > a) =
y
a0 = E(X | X < a) =
1
P (X > a)
1
P (X < a)
xf (x)dx
a
xf (x)dx.
Trat
andose de una distribucion normal con media a, P (X > a) = P (X < a) = 1/2, con lo que
la expresion de quedara
Z
Z a
2
xf (x)dx
xf (x)dx .
(3.5)
=
a
a
1
2
R
0
(z + a)e
+ a2 .
z2
2
dx
60
Captulo 3. Esperanza
Analogamente,
a
xf (x)dx = + .
2
2
cov(X, Y )
= p
var(X)var(Y )
Sustituyendo en (3.6),
= cov(X, Y ).
var(Z) = 1 + 2 22 = 1 2 .
(X, Z) = p
var(X)var(Z)
cov(X, X Y )
,
1 2
(3.7)
donde
cov(X, (X Y )) = E[X(X Y )] E(X)E(X Y ) = E(X 2 ) E(XY ),
(3.8)
(Y, Z) = p
var(Y )var(Z)
E(Y X) E(Y 2 )
=
= 0.
1 2
1 2
Problema 3.18 Lanzamos tres veces consecutivas una moneda y definimos las variables aleatorias X ={n
umero de caras en los dos primeros lanzamientos} e Y ={n
umero de caras en
los dos u
ltimos lanzamientos}. Obtener la distribuci
on de probabilidad conjunta de X e Y , sus
marginales y el coeficiente de correlaci
on entre ambas.
Captulo 3. Esperanza
61
Soluci
on.- La funcion de probabilidad conjunta, f (x, y) = P (X = x, Y = y), se muestra en la
tabla. Para cualquier otro par de valores (x, y) distinto de los que en ella figuran, f (x, y) = 0.
X=0
X=1
X=2
fY (y)
Y=0
1
8
1
8
2
8
Y=1
1
8
2
8
1
8
4
8
Y=2
1
8
1
8
2
8
fX (x)
2
8
4
8
2
8
De la tabla se deduce
E(X) = 1
E(X 2 ) =
5
2
var(X) =
3
2
E(Y ) = 1
E(Y 2 ) =
5
2
var(Y ) =
3
2
cov(X, Y ) = 41
El coeficiente de correlacion entre ambas valdra,
cov(X, Y )
(X, Y ) = p
var(X)var(Y )
1/4
1
= .
3/2
4
on Hipergeom
etrica negaProblema 3.19 ( Un problema de pastillas. La distribuci
tiva) Una caja contiene pastillas de dos tipos: grandes y peque
nas. Cada pastilla grande equivale
a dos peque
nas. Cada da el paciente elige debe tomar una de las pastillas, que elige al azar. Si
es de las grandes la parte en dos, toma una mitad y devuelve la otra a la caja. Si la pastilla es
peque
na la toma sin m
as. A todos los efectos las mitades devueltas a la caja son consideradas
como pastillas peque
nas.
Cu
al es el n
umero esperado de pastillas peque
nas que quedar
an en la caja cuando las grandes
se hayan terminado?
Soluci
on.- El problema puede tambien enunciarse de manera alternativa recurriendo a un
esquema de urna. Supongamos una urna con a bolas blancas y b bolas negras. Extraemos al
azar una bola, si es blanca no la reemplazamos y en su lugar introducimos una bola negra en
la urna. Si es negra simplemente la dejamos fuera. Las extracciones contin
uan hasta que no
quedan bolas blancas en la urna. Se trata de encontrar la esperanza del n
umero de bolas negras
que quedan en la urna.
Designemos mediante Di la extraccion en la que por primera vez el n
umero de bolas blancas
que quedan en la urna ha descendido a i, con i = a 1, a 2, . . . , 0, valores a los que a
nadiremos
Da = 0.
Sea Ni el n
umero de bolas negras en la urna una vez realizada la extraccion Di y sea Xi
el n
umero de bolas negras extradas entre Di y Di1 . Vamos a calcular E(Ni ) puesto que la
62
Captulo 3. Esperanza
respuesta que buscamos es, precisamente, E(N0 ). Para ellos nos valdremos de la variable condicionada Xi |Ni y obtendremos primero E(Xi |Ni ). Observemos que la variable Xi |Ni representa
el n
umero de bolas negras extradas, sin reemplazamiento, antes de extraer la primera bola
blanca, cuando la urna de la que llevamos a cabo las extracciones contiene Ni bolas negras e
i bolas blancas. Se trata de una variable relacionada con la variable Hipergeometrica negativa
(HipN ) que estudiamos con alg
un detalle a continuacion.
Hipergeom
etrica Negativa.- Supongamos una urna con a bolas blancas y b bolas negras. Llevamos a cabo extracciones con reemplazamiento y nos interesamos por el n
umero
de extracciones necesario para conseguir exactamente k bolas blancas, k = 1, 2, . . . , a. La
variable aleatoria X as definida se conoce con el nombre de Hipergeometrica negativa
y es una de las variables relacionadas con tiempos de espera discretos, la otra, la Binomial negativa, surge en el mismo contexto cuando las extracciones se llevan a cabo con
reemplazamiento.
Para obtener la distribuci
on de probabilidad de X, hemos de calcular pn = P (X = n).
El espacio muestral asociado al experimento descrito admite varias representaciones,
nosotros elegiremos aquella que lo hace equiprobable. Para ello deber
a contener a todas
las posibles formas de extraer la totalidad de las bolas que la urna contiene que son,
# =
!
a+b
a
!
a+b
.
b
Cu
ales de ellas son favorables al suceso {X = n}? Se trata de aquellas que verifican:
en la n-esima extracci
on hemos sacado la k-`esima bola blanca,
en las n 1 primeras extracciones hemos sacado k 1 bolas blancas, y
en las a + b n extracciones restantes aparecer
an las a k bolas blancas que faltan.
Es decir,
!
!
n1
a+bn
casos favorables =
k1
ak
!
!
n1
a+bn
k1
ak
!
pn = P (X = n) =
.
a+b
a
(3.9)
!
!
!
n1
a+bn
a+b
=
,
k1
ak
a
(3.10)
cuya obtenci
on puede encontrar el lector interesado en el texto de S. S. Wilks (Mathematical
Statistics, John Wiley, 1963).
La obtenci
on de los momentos de X puede abordarse de manera sencilla a partir de los
llamados momentos factoriales respecto de k. Si
(X k)[r] = (X k)(X k 1) (X k r + 1),
Captulo 3. Esperanza
63
b+k
X
(n k)[r] P (X = n)
n=k
b+k
X
(n k)[r]
n=k
(k + r 1)[r]
!
a+b
a
!
!
n1
a+bn
k1
ak
!
a+b
a
!
!)
( b+k
X
n1
a+bn
.
k+r1
ak
(3.11)
n=k+r
Si comparamos la expresi
on entre llaves de (3.11) con (3.10) vemos que dicha suma es igual
a
!
!
!
b+k
X
n1
a+bn
a+b
=
,
k+r1
ak
a+r
n=k+r
!
a+b
h
i
a+r
!.
E (X k)[r] = (k + r 1)[r]
a+b
a
(3.12)
k(a + b + 1)
a+1
y su varianza
var(X) =
b(b 1)k(k + 1)
k(2k + 1)(a + b + 1)
k2 (a + b + 1)2
+
k(k + 1).
(a + 2)(a + 1)
(a + 1)
(a + 1)2
Como nuestra variable Xi |Ni cuenta exclusivamente las bolas negras extradas antes de
la primera bola blanca (k = 1), su relacion con una variable X HipN como la estudiada es
Xi |Ni = X 1 y por tanto
E(Xi |Ni ) = E(X) 1 =
Ni + i + 1
Ni
1=
,
i+1
i+1
y de aqu
E(Ni )
.
i+1
De acuerdo con las reglas de extraccion que hemos establecido,
E(Xi ) =
Ni = Ni+1 Xi+1 + 1
y al tomar esperanzas
E(Ni ) = E(Ni+1 ) E(Xi+1 ) + 1 =
i+1
E(Ni+1 ) + 1.
i+2
64
Captulo 3. Esperanza
1
1
1
b
E(Ni ) = (i + 1)
+ +
+ +
.
a+1 a a1
i+1
Como dijimos, la respuesta buscada es E(N0 ), que vale
E(N0 ) =
b
1
1
+ +
+ + 1.
a+1 a a1
n
1
pi = 1
.
N
El n
umero esperado de hombres-da trabajando el da i-esimo sera
n
1
npi = n 1
.
N
El razonamiento es valido para cualquiera de los N das, por tanto el total de hombres-da
trabajados a lo largo del a
no de N das sera
n
1
(n) = nN 1
.
N
Observemos que
n+1
(n + 1)N 1 N1
n+1N 1
(n + 1)
n
=
=
,
(n)
n
N
nN 1 N1
de donde obtenemos
(1) < (2) < < (N 1) = (N ) > (N + 1) > (N + 2) > .
El maximo de (n) se alcanza para n = N 1 y para n = N y es igual a
N
1
(N 1) = (N ) = N 2 1
.
N
Puesto que el N-esimo trabajador no aporta nada, el n
umero optimo de trabajadores debe ser
n = N 1 = 364.
Captulo 3. Esperanza
65
NO
SI
NO
SI
es 4?
NO
SI
NO
SI
4
3
es 1?
NO
SI
1 pregunta
2 pregunta
3 pregunta
4 pregunta
6
4
17
+4
=
= 3, 4.
10
10
5
66
Captulo 3. Esperanza
Xk que describe el valor de la venta tomara los valores {0, 15, 15 2, . . . , 15(k 1), 15k} con
probabilidades P (Xk = 15i) = pi , i = 0, 1, . . . , k, donde pi = P (demanda de i periodicos)
excepto para i = k, que pk = P (demanda de k o mas periodicos) porque, como solo dispone de
k periodicos, nunca podra vender mas aunque la demanda sea superior.
As pues, lo que espera obtener por la venta sera
E(Xk ) = 0p0 + 15p1 + + 15(k 1)pk1 + 15kpk ,
y como pk = 1 (p0 + p1 + + pk1 ) al sustituir
E(Xk ) = 15k 15kp0 15(k 1)p1 15pk1 .
Para obtener lo que espera ganar habra que restarle lo que pago,
E(G) = 5k 15kp0 15(k 1)p1 15pk1 = g(k).
Como la funcion tiene un dominio discreto su maximo no podemos encontrarlo derivando.
Estudiaremos la relacion entre g(k) y g(k + 1), se trata de encontrar el mayor valor de k que
verifica g(k) < g(k + 1),
5k 15kp0 15(k 1)p1 15pk1 < 5(k + 1) 15(k + 1)p0 15kp1 30pk1 15pk ,
de donde deducimos,
15p0 + 15p1 + + 15pk < 5
P (Xk k) <
1
.
3
P(X=k)
0.05
0.08
0.10
0.15
0.15
0.10
0.08
k
7
8
9
10
11
12
13
P(X=k)
0.08
0.05
0.04
0.03
0.03
0.03
0.03
Soluci
on.- El problema es una generalizacion del anterior. Si ha comprado k ejemplares y
designamos por Gk la ganancia que espera obtener
E(Gk )
Captulo 3. Esperanza
67
FX (k)
V C
.
V R
FX (k ) >
V C
.
V R
x2
,
x2 + 2
si x > 0
F (x)
2
,
x2 + 2
si x < 0.
Soluci
on.- Si x > 0, tomemos un c cualquiera, entonces
Z +
(x + c)2 (1 F (x))
(y + c)2 dF (y)
x
Z +
(y + c)2 dF (y)
=
Tenemos pues
1 F (x)
+ c2 .
2 + c2
, c,
(x + c)2
que sera cierto, en particular, para el mnimo del segundo miembro que se alcanza en c = 2 /x.
Sustituyendo,
2
x2
1 F (x) 2
F
(x)
.
x + 2
x2 + 2
Para x < 0,
Z x
Z +
(x + c)2 F (x)
(y + c)2 dF (y)
(y + c)2 dF (y) = 2 + c2 .
68
Captulo 3. Esperanza
Problema 3.25 Un juego consiste en lanzar un dado repetidas veces. El juego se detiene bien
porque parece un 1, bien porque decidimos detenerlo en cualquier lanzamiento antes de que haya
aparecido el1. El premio que recibimos es el n
umero de puntos que muestra la cara del dado en
el ultimo lanzamiento. Cu
al es la estrategia m
as conveniente para obtener el mayor premio?
Soluci
on.- Para buscar la estrategia mas conveniente supondremos que
a) la decision de detener el juego depende tan solo de la cara C = r que nos muestra el
u
ltimo lanzamiento, y
b) si la estrategia es buena para r lo es tambien para cualquier otra cara C > r.
Si nuestra estrategia consiste en parar de jugar la primera vez que el dado nos muestre una
cara r o mayor, el premio que esperamos obtener, S(r), depende logicamente de r. As
S(6) = 6 P (6 sale antes que 1) + 1 P (1 sale antes que 6).
Para calcular P6,1 = P (6 sale antes que 1),
P61 =
X 1 4 n1
1
= .
6
6
2
n1
La otra probabilidad, P1,6 = P (1 sale antes que 6), es complementaria. En definitiva, S(6) =
7/2.
Para calcular S(5) necesitamos calcular la probabilidad de que el dado nos muestre una cara
mayor o igual a 5 antes que la cara 1. Si, por ejemplo, detenemos el juego por aparicion de un
5 en el n-esimo lanzamiento, es porque en los n 1 precedentes no ha salido ni un 1 ni un 6.
Hemos de calcular P5,16 y P6,15 .
X 1 3 n1
1
P5,16 = P6,15 =
= .
6
6
3
n1
Como antes, P1,56 = P (1 sale antes que 5 o 6), es complementaria de las dos anteriores y vale
1/3. Tendremos pues
S(5) = 5 P5,16 + 6 P6,15 + 1 P1,56 = 4.
Un razonamiento similar nos conduce a S(4) = 4, S(3) = 19/5 y S(2) = 7/2.
La estrategia a seguir es detener el juego si nos sale un 4, un 5 o un 6.
Problema 3.26 Sea X una variable aleatoria no negativa con funci
on de densidad f . Demostrar que
Z
rxr1 P (X > x)dx.
E(X r ) =
0
Soluci
on.- Utilizando el teorema de Fubini
Z
Z
Z
rxr1 P (X > x)dx =
rxr1
f (y)dy dx
0
0
Z yx
Z
=
f (y)
rxr1 dx dy
0
Z0
r
=
y f (y)dy = E(X r ).
0
Captulo 3. Esperanza
69
Problema 3.27 Sea X una variable aleatoria continua con media y funci
on de distribuci
on
F . Demostrar que
Z
Z
F (x)dx =
(1 F (x))dx.
Soluci
on.- Es siempre posible escribir X = X + X con X + = max{X, 0} y X =
min{X, 0}. Entonces,
Z
Z
P (X > x)dx
0
(1 F (x))dx
F (x)dx =
0
P (X < x)dx
0
(1 F (x))dx
0
F (x)dx.
F (x)dx +
0
(1 F (x))dx.
0
0 kP (X > k) = k
pi
ik+1
ipi ,
ik+1
(3.13)
Sea la variable X el n
umero de extracciones. Sabemos que P (X > 0) = 1. Por otra parte
{X > 1} = {la primera bola es blanca} y por tanto
P (X > 1) =
a
.
a+b
Ademas,
P (X > i|X > i 1) =
a+i1
.
a+b+i1
70
Captulo 3. Esperanza
a+k1
a+k2
a
a+b+k1 a+b+k2
a+b
(a + b 1)!(a + k 1)!
.
(a 1)!(a + b + k 1)!
a
a+1
a+k2
b
.
a+b a+b+1
a+b+k2 a+b+k1
a!(a + k 1)!
ak k
=
a,
(a 1)!(a + k)!
a+k
1+
1+
k0
X (a + b 1)!(a + k 1)!
k1
(a 1)!(a + b + k 1)!
(a + b 1)! X (a + k 1)!
.
(a 1)!
(a + b + k 1)!
(3.14)
k1
Observemos que
(a + k 1)!
1
(a + k 1)!
(a + k)!
=
,
(a + b + k 1)!
b 1 (a + b + k 2)! (a + b + k 1)!
y sustituyendo en (3.14) tendremos
(a + k)!
(a + b 1)! X
(a + k 1)!
.
E(X) = 1 +
(a 1)!(b 1)
(a + b + k 2)! (a + b + k 1)!
k1
Pero en la suma los terminos se van anulando sucesivamente, obteniendo como expresion
final para EX(X),
E(X) = 1 +
a!
a+b1
(a + b 1)!
=
.
(a 1)!(b 1) (a + b + 1)!
b1
Captulo 3. Esperanza
71
n
m
n X
m
X
X
X
cov
Xi ,
Yj =
cov(Xi , Yj ).
i=1
j=1
i=1 j=1
Al aplicarlo a U y V ,
cov(U, V ) =
cov
n
X
Xi ,
i=1
n
m+n
X
X
m+n
X
Xj
j=m+1
cov(Xi , Xj )
i=1 j=m+1
nm
X
cov(Xi , Xi ) = (n m) 2 ,
i=1
porque como n > m, habra n m sumandos comunes a U y V , que dan lugar a covarianzas
cuyo valor es la varianza com
un, mientras que los otros sumandos son nulos porque se trata de
covarianzas de variables independientes.
Por otro lado,
var(U ) =
n
X
var(Xi ) = n 2 ,
i=1
var(V ) =
m+n
X
var(Xj ) = n 2 ,
j=m+1
y finalmente
U V =
(n m) 2
nm
.
=
2
4
n
n
Problema 3.30 Una urna contiene 2n bolas numeradas de 0 a n, de forma que hay ni bolas
con el n
umero i. Si extraemos m sin reemplazamiento y por S denotamos la suma de sus
n
umeros, calcular E(S) y var(S).
Soluci
on.- Definimos Xk valor de la k-esima bola extrada. La distribucion de Xk viene dada
por
n
j
P (Xk = j) = n , j = 0, 1, . . . , n,
2
72
Captulo 3. Esperanza
puesto que, como ya sabemos, la probabilidad es independiente del orden de extraccion y solo
depende de la composicion inicial de la urna.
Las
Pmvariables Xk , k = 1, 2, . . . , m no son independientes y permiten definir S mediante
S = k=1 Xk . As pues,
E(S) =
m
X
E(Xk ),
var(S) =
k=1
m
X
m
X
var(Xk ) + 2
k=1
cov(Xl , Xk ).
1l<km
n
n
X
1 X
n1
n2n1
n
j
E(Xk ) =
j n = n
n
=
= .
n
2
2
j
1
2
2
j=0
j=1
Para calcular la varianza utilizaremos el momento factorial
n
n
n
X
1 X
n2
n(n 1)2n2
n(n 1)
j
E(Xk (Xk 1)) =
j(j 1) n = n
n(n 1)
=
=
.
n
2
2
j
2
2
22
j=0
j=2
De aqu,
E(Xk2 ) = E(XK (XK 1)) + E(Xk ) =
n(n 1) n
+ ,
22
2
y var(Xk ) valdra
2
n(n 1) n n 2
n
+
= 2.
22
2
2
2
E(Xl Xk ) =
n X
n
X
rsP (Xk = r, Xl = s)
s=0 r=0
n X
n
X
s=0 r=0
r6=s
n
X
s=r=0
n
n
n
n
1
n X
n
n
X
X
r
s
r
r
=
rs n
n +
r2 n
n .
2
1
2
2
1
2
s=0 r=0
s=r=0
r6=s
(3.15)
Captulo 3. Esperanza
1
2
s=0 r=0
n
X
n
n
X
1
n
r
s
r n
n
2 1 s=0 s
2
r=0
r6=s
r6=s
n
n
n
n
X
1 X n
r
s
r
s
s
2n 1 s=0 s r=0 2n
2n
1 X n
n
s s
s
n
n
2 1 s=0 s
2
2
n
2
n
n
n
X
X
n2
1
n
s
2
s
s
2(2n 1) s=0 2n
2n (2n 1) s=0
s
n2 2n
A.
22 (2n 1)
1
2
2
2
1
2
r
s=r=0
r=0
r=0
=
2n
1
n(n + 1)
E(X12 ) = A 2 n
.
1
2 (2 1)
Sustituyendo en (3.15)
E(Xl Xk )
n(n + 1)
n2 2n
A+A 2 n
2
n
2 (2 1)
2 (2 1)
n2 22 n(n + 1)
.
22 (2n 1)
n2 22 n(n + 1) n2
n
2 = 2 n
.
22 (2n 1)
2
2 (2 1)
m
X
var(Xk ) + 2
k=1
m
X
cov(Xl , Xk )
1l<km
m(m 1)
n
n
2
2 n
22
2
2 (2 1)
mn(2n m)
.
2n+2 22
73
74
Captulo 3. Esperanza
Problema 3.31 (Un camino aleatorio en la recta) Un punto se desplaza sobre el eje x a
derecha o izquierda de unidad en unidad. La probabilidad de que se desplace a la derecha es p
y 1 p de que lo haga a la izquierda. Si la variable X representa la posici
on del punto despues
de n desplazamientos, partiendo de 0, obtener su distribuci
on de probabilidad y calcular E(X)
y var(X).
Soluci
on.- Consideremos la variable Y ={n
umero de desplazamientos a la derecha}. Conocida
Y , el valor de X sera X = 2Y n y por tanto,
P (X = 2k n) = P (Y = k),
k = 0, 1, . . . , n.
Problema 3.32 (Un camino aleatorio en el plano) El punto se desplaza ahora sobre el
plano con movimientos independientes de manera que en cada movimiento la distancia que
recorre es siempre la misma, por ejemplo una unidad, pero la direcci
on es aleatoria determinada
por un
angulo cuya orientaci
on respecto la posici
on del punto se elige al azar en el intervalo
[0, 2]. Si D es la distancia del punto a su posici
on original despues de n movimientos, calcular
E(D2 ).
Soluci
on.- El desplazamiento del punto en el movimiento i-esimo tiene por coordenadas (Xi , Yi ),
i = 1, 2, . . . , n, que atendiendo al angulo i que marca la direccion del mismo valen
Xi = cos i ,
Yi = sin i .
2
1
=
=
n
X
Xi
i=1
n
X
i=1
!2
n+
n
X
!2
Yi
i=1
XX
Xi2 + Yi2 +
XX
i6=j
i6=j
(Xi Xj + Yi Yj )
Captulo 3. Esperanza
75
pero,
E(cos i ) = 0
por lo que
E(sin i ) = 0,
E(D2 ) = n.
Problema 3.33 (N
umero esperado de coincidencias) Recordemos que el llamado problema de las coincidencias consiste, en una de sus m
ultiples versiones, en n individuos que al abandonar una fiesta recogen sus sombreros al azar. Si por X denotamos el n
umero de individuos
que han cogido su propio sombrero (coincidencias), calcular E(X) y var(X).
Soluci
on.- Para este, como para otro tipo de problemas que veremos a continuacion, es u
til
recurrir variables Bernoulli asociadas a cada uno de los sucesos en los que podemos descomponer
el suceso de nuestro interes.
El n
umero de coincidencias, X, puede escribirse
X = X1 + X2 + . . . + Xn ,
donde Xi esta asociada al i-esimo individuo de manera que
1, si i ha cogido su sombrero;
Xi =
0, en caso contrario.
Tenemos que Xi B(1, pi ) con pi = 1/n, i, puesto que cada individuo tiene una probabilidad
1/n de coger cualquier sombrero. En definitiva,
E(X) =
n
= 1.
n
n
X
var(Xi ) + 2
i=1
cov(Xi , Xj ).
1i<jn
1
.
n(n 1)
1
1
1
= 2
n(n 1) n2
n (n 1)
n(n 1)
n
1
var(X) =
+2
= 1.
n2
2 n2 (n 1)
Problema 3.34 (N
umero esperado de parejas restantes) Se trata de un problema propuesto y resuelto por Daniel Bernoulli en el siglo XVIII. Se propona averiguar el n
umero
esperado de parejas que permanecen completas, de un total de N parejas iniciales, despues de
la muerte de m sus miembros.
76
Captulo 3. Esperanza
Soluci
on.- Supondremos que el total de 2N individuos (N parejas) tiene igual probabilidad
de morir. Para i = 1, 2, . . . , N definimos
= P (Xi = 1)
2N 2
m
2N
m
(2N m)(2N m 1)
2N (2N 1)
N
X
E(Xi ) =
i=1
(2N m)(2N m 1)
.
2(2N 1)
Problema 3.35 Sea X una variable aleatoria discreta con soporte DX = {x1 , x2 , . . . , xm }.
Calcular
p
lm n E(X n ).
n
Soluci
on.- Si designamos mediante xmax el maximo de los posibles valores que toma X y por
pi = P (X = xi ), podemos escribir,
sP
p
m
n
n
E(X n )
i=1 xi pi
= n
n
xmax
xmax
v
u
X xj n
u
n p
= t
pj .
m
ax +
xmax
xj 6=xmax
n
xj
0.
xmax
Quedar
a finalmente
p
n
lm
E(X n )
= lm n pmax = 1,
n
xmax
luego
lm
p
n
E(X n ) = xmax .
Captulo 3. Esperanza
77
r+1
Y
P (n+i = E) = qn qpr .
i=2
pn + p = 1
nr
pn < +,
nr
En consecuencia,
p = lm qn = 0.
n
P
Para calcular E(T ) utilizaremos la relacion E(T ) = nr P (T > n). Podemos escribir
qpr E(T ) =
qpr P (T > n) =
nr
pn+r+1 = 1 pr
n0
1 pr
.
qpr
E(g(X))
.
g(a)
Soluci
on.- Si g(x) es creciente y no negativa tendremos que
{X a} = {g(X) g(a)}
y por la desigualdad de Markov
P (X a) = P (g(X) g(a))
E(g(X))
.
g(a)
78
Captulo 3. Esperanza
k
X
E(Yi ) =
i=1
k
X
(1 pi )n .
(3.16)
i=1
(1 pi )n1 = (1 pk )n1
P
y como
pi = 1, pi = 1/k, i.
Para comprobar que se trata de un mnimo
2
2
pi = pk , i,
con = n(n 1)(1 1/k)n2 . Se comprueba que la matriz es definida positiva y se trata,
efectivamente, de un mnimo.
Problema 3.39 Sean X e Y dos variables aleatorias identicamente distribuidas, obtener cov(X+
Y, X Y ).
Captulo 3. Esperanza
79
Soluci
on.- Desarrollemos cov(X + Y, X Y ),
cov(X + Y, X Y ) = cov(X, X) cov(X, Y ) + cov(Y, X) cov(Y, Y ) = var(X) var(Y ) = 0.
Problema 3.40 Sean X1 , X2 , . . . una familia de variables aleatorias independientes con la misma media y la misma varianza 2 , y sea Yn = Xn + Xn+1 + Xn+2 . Hallar, para j 0,
cov(Yn , Yn+j )
Soluci
on.- Tendremos
cov((Yn , Yn+j ) =
=
=
=
y de aqu,
var(Xn+1 ) + var(Xn+2 ) = 2 2 ,
cov((Yn , Yn+j ) =
var(Xn+2 ) = 2 ,
0,
si
si
si
si
j
j
j
j
= 0;
= 1;
= 2;
3.
X
n1
1
,
(n 1)!
1
= e.
(n 1)!
80
Captulo 3. Esperanza
n
X
k(n k)P (X = k, Y = n k)
k=0
n
X
k(n k)
n k
p (1 p)nk
k
k(n k)
n!
pk (1 p)nk
k!(n k)!
k=0
n
X
k=0
n1
X
n(n 1)p(1 p)
k=1
(n 2)!
pk1 (1 p)n2(k1)
(k 1)!(n 2 (k 1))!
n2 j
= n(n 1)p(1 p)
)
p (1 p)n2j
j
j=0
n2
X
XY = p
n
X
E(Xi ) =
i=1
y de aqu
E(T ) = E[E(T |N )] = E
= 1.
Captulo 3. Esperanza
81
Problema 3.44 El n
umero de pasajeros que espera el tren en cierta estaci
on en un instante t
es una variable aleatoria Poisson de par
ametro t. Si el tiempo de llegada del tren se distribuye
uniformemente en el intervalo [0, T ], cu
al es el n
umero medio de pasajeros que subir
a al tren?
Obtener tambien su varianza.
Soluci
on.- El ejercicio es analogo al anterior y lo resolveremos de forma semejante. Si N es el
n
umero de pasajeros que suben al tren y X designa el tiempo de llegada del tren, para X = t
el n
umero de pasajeros en ese instante se distribuye N |X = t P o(t). As pues
E(N |X = t) = t.
Es decir, E(N |X) = X y por tanto
Z
T
1
x dx =
.
T
2
E[var(N |X)] =
T
2
y
var[E(N |X)] = var(X) = 2 var(X) = 2
T2
.
12
Sustituyendo
var(N ) = E[var(N |X)] + var[E(N |X)] = T + 2
T2
.
12
Problema 3.45 Un minero atrapado en una mina tiene tres posibles caminos para tratar de
escapar de la mina. El primero le conduce al exterior despues de 3 horas. El segundo le conduce
de nuevo al interior de la mina despues de un recorrido de 5 horas. El tercero le conduce tambien
al interior de la mina, pero despues de 7 horas de recorrido. Si el minero echa a suertes (igual
probabilidad) el camino por el que tratar de escapar, cu
al ser
a el tiempo de medio que tardar
a en
conseguirlo?
Soluci
on.- Si por T designamos el tiempo que tarda en salir y por C el camino elegido,
E(T ) = E[E(T |C)] =
1
(E(T |C = 1) + E(T |C = 2) + E(T |C = 3)) ,
3
donde
Sustituyendo,
E(T ) =
E(T |C = 1)
E(T |C = 2)
E(T |C = 3)
=
=
5 + E(T )
7 + E(T ).
1
(3 + 5 + E(T ) + 7 + E(T )) E(T ) = 15.
3
82
Captulo 3. Esperanza
X
N = mn n;
Xj > 1 .
j=1
Soluci
on.- Sea x [0, 1] y resolvamos el problema para
n
X
N (z) = mn n;
Xj > z .
j=1
E[N (z)|X1 = y] =
1,
1 + m(z y),
si y > z;
si y z.
Sustituyendo
Z
m(z) =
(1 + m(z y))dy +
0
dy = 1 +
z
m(z y)dy.
0
m0 (z)
=1
m(z)
ln m(z) = z + c
m(z) = kez .
0,
en el resto.
Hallar E(X) y var(X) haciendo uso de E(X|Y ) y de var(X|Y ).
Soluci
on.- Hemos de obtener primero la densidad condicionada de X y para ello necesitamos
la marginal de Y ,
Z +
1
1 yx
ye
dx = , 1 < y < 3,
fY (y) =
2
2
0
lo que nos dice que Y U (1, 3).
fX|Y (x|y) =
1/2yeyx
= yeyx , x > 0,
1/2
Captulo 3. Esperanza
83
E(X|Y ) =
Finalmente,
var(X|Y ) =
E(X) = E[E(X|Y )] =
1
1
.
Y2
3
1
1
ln 3
dy =
ln y 1 =
,
2y
2
2
y
var(X) = E[var(X|Y )] + var[E(X|Y )].
(3.17)
E[var(X|Y )] =
1
1
1
1
1 1
dy =
= ,
2
2y
2 y 3
3
y el segundo
var[E(X|Y )] = var
1
Y
=E
1
Y2
[E(1/Y )] =
ln 3
2
2
.
Sustituyendo en (3.17),
1 1
var(X) = +
3 3
ln 3
2
2
=
3
ln 3
2
2
.
2e2x
,
x
fXY (x, y) =
0,
0 x < +, 0 y x;
en el resto.
Calcular cov(X, Y ).
Sugerencia.- La obtenci
on de E(Y ) puede resultar m
as sencilla a traves de E(Y ) = E[E(Y |X)].
Soluci
on.- Recordemos que cov(X, Y ) = E(XY ) E(X)E(Y ).
Z
E(XY )
2e2x
dydx
x
0
0
Z x
Z +
2x
=
2e
ydy dx
xy
0
+
x2 e2x dx =
1
.
4
2e2x
dy = 2e2x , x 0
x
84
Captulo 3. Esperanza
y fX (x) = 0 si x < 0. Lo que nos dice que X Exp(2) y por tanto E(X) = 1/2.
La distribucion condicionada de Y |X tiene por densidad
fY |X (y|x) =
2e2x
x
2e2x
1
, 0yx
x
y fY |X (y|x) = 0 si y
/ [0, x]. Es decir, Y |X U (0, x) y E(Y |X) = X/2 y E(Y ) = E[E(Y |X)] =
E(X/2) = 1/4.
En definitiva
cov(X, Y ) = E(XY ) E(X)E(Y ) =
1 1 1
1
= .
4 2 4
8
Problema 3.49 Sea X una variable aleatoria con soporte DX = {0, 1, . . . , n} tal que E(X) =
var(X) = 1. Demostrar que para cualquier natural k,
P (X k + 1)
1
.
k2
Soluci
on.- Si aplicamos la desigualdad de Tchebishev,
P (|X 1| k)
1
.
k2
1
.
k2
P (A1 A2 A3 A4 )
20 18 16 14
= 0, 6934984.
20 19 18 16
Para obtener E(X) tendremos que calcular las probabilidades que nos faltan, P (X = 1) y
P (X = 2), aunque con uns de ellas nos bastara porque entre las tres deben sumar 1. Si por
Captulo 3. Esperanza
85
ai , i = 1, 2 denotamos los dos zapatos de la pareja a y de forma analoga lo hacemos con los
zapatos de las parejas b o c, las distintas elecciones de 4 zapatos que dan lugar a 1 pareja son
a1 a2 b1 c1
a1 b1 a2 c1
a1 b1 b2 c1
a1 b1 c1 a2
a1 b1 c1 b2
a1 b1 c1 c2 ,
20 18 16 1
.
20 19 18 17
As pues,
20 18 16
= 0, 2972136.
20 19 18 17
Por lo que respecta a la eleccion de dos parejas, con una notacion similar a la anterior, las
elecciones que nos permiten obtenerlas son,
P (X = 1) = 6
a1 a2 b1 b2
todas ellas con probabilidad
p2 =
a1 b1 a2 b2
a1 b1 b2 a2 ,
20 18 1 1
.
20 19 18 17
De aqu
20 18
= 0, 0092879.
20 19 18 17
La media del n
umero de parejas valdra
P (X = 2) = 3
1,
Xi =
0,
tendremos que X =
P10
i=1
E(Xi ); pero
218
12
E(Xi ) = P (Xi = 1) = 2202 =
.
20
19
4
Xi y de aqu E(X) =
Finalmente
E(X) = 10
i=1
12
6
=
= 0, 3157894.
20 19
19
+ cx3 , x ] 1, 1[;
2
f (x) =
0,
en el resto.
86
Captulo 3. Esperanza
Z 1
1
1
x4
+ cx3 dx = x + c = 1, c,
2
2
4 1
1
lo que supone que la primera condicion se cumple c. En cuanto a la segunda
1
+ cx3 0,
2
para x ] 1, 1[,
1
E(Y ) = E |X| 2
Z
|x|
12
Z
=
1
3
+ cx dx
2
x 2
dx = 2.
2
2
0
E(Y 2 ) = E |X|1
Z
|x|
Z
= 2
0
1
3
+ cx dx
2
1
1
dx = ln x0 .
2x
ax(s+1) ,
f (x) =
0,
si x > r;
si x r,
con r, s > 0.
1. Determinar a para que f (x) sea una funci
on de densidad de probabilidad.
2. Si la variable aleatoria X tiene por densidad f (x), para que valores de s existir
a su
esperanza?
Soluci
on.- Para que f (x) sea una densidad debe integrar 1 sobre el dominio. Por tanto,
+
Z +
xs
ars
ax(s+1) dx = a
=
= 1,
s r
s
0
Captulo 3. Esperanza
87
de donde deducimos que a = s/rs . Observese que a > 0 y tambien lo sera f (x), que es la otra
condicion que debe de cumplir.
La esperanza
"
+ #
Z +
s
s
xs+1
s
E(X) = s
x dx = s
,
r
r
s + 1 r
0
sera finita si s + 1 < 0, es decir s > 1.
Problema 3.53 Un autob
us tiene en su recorrido 15 paradas. Supongamos que en la primera
parada suben 20 personas. Cada una de ellas elige al azar e independientemente de las otras en
cu
al de las 14 paradas restantes quiere bajar.
1. Si Xi es una variable aleatoria que vale 1 si alguna de las personas baja en la parada i y
0 en caso contrario, calcular su distribuci
on de probabilidad.
2. Calcular el n
umero medio de paradas que debe realizar el autob
us para que bajen todos los
pasajeros.
Soluci
on.- Cada una de las Xi , i = 2, 3, . . . , 15, es una variable Bernoulli con probabilidad de
exito 1 p, donde p es la probabilidad de que no baje nadie en la parada i-esima,
20
13
p = P (Xi = 0) =
.
14
Todas las Xi tienen la misma distribucion.
Por lo que respecta al total
us para que hayan bajado
P15 de paradas, X, que debe hacer el autob
todos los pasajeros, X = i=2 Xi y de aqu
"
20 #
15
X
13
E(X) =
E(Xi ) = 14 1
.
14
i=2
Problema 3.54 Tenemos un lote de N pastillas y antes de comercializarlo lo sometemos al
siguiente control de calidad. Fijamos un umbral c (c < n) y a continuaci
on tomamos una
muestra de n pastillas del total de N que componen el lote. Sea X la variable aleatoria que nos
da el n
umero de pastillas en mal estado en la muestra, si X c entonces sustituimos las X
pastillas defectuosas por pastillas en buen estado y comercializamos, sin m
as inspecci
on, el lote.
En el caso en que X > c entonces se muestrean todas y cada una de las pastillas que componen
el lote y se sustituyen por pastillas en buen estado, comercializ
andolo a continuaci
on. En este
caso el lote no tiene ninguna pastilla en mal estado. Si la probabilidad de que el proceso de
fabricaci
on produzca una pastilla en mal estado es p, que n
umero medio de pastillas en mal
estado estamos lanzando al mercado?
Soluci
on.- Tenemos que X B(n, p) por P
lo que el lote se acepta sin muestrearlo completac
mente con probabilidad = P (X c) = i=1 P (X = i) y se muestrea completamente con
probabilidad 1 . Consideremos la variable M = 1Xc que vale uno cuando X c y cero
en otro caso. Sea Y la variable aleatoria que nos da el n
umero de unidades defectuosas que
comercializamos. Tenemos que Y = 0 si M = 0 y que Y B(N n, p) si M = 1. En resumen
conocemos la distribucion de probabilidad de Y condicionada a los valores de la variable M . El
valor medio de Y vendra dado por
E(Y ) = E[E(Y |M )],
88
Captulo 3. Esperanza
pero
E(Y |M = 0) = 0,
y
E(Y |M = 1) = (N n)p.
(3.18)
En consecuencia se sigue
E(Y ) = 0P (M = 0) + (N n)pP (M = 1) =
(N n)pP (X > c) = (N n)p
n
X
P (X = i).
(3.19)
i=c
Soluci
on.1. Para obtener la densidad conjunta de (X, Y ) hemos de calcular el Jacobiano de la trans1 ,u2 )
formacion inversa. Es decir J = (u
(x,y) . Para ello observemos que
U1 = X 2 y U2 =
Y
,
2X
con lo que el nuevo vector (X, Y ) tiene por soporte DXY = {(x, y); 0 < x < 1, 0 < y <
2x}, tal como nos muestra la figura.
u2
u1
En cuanto al Jacobiano,
(u1, u2 ) 2x
J=
=
2xy 2
(x, y)
0
1 = 1.
2x
f (x, y) =
1,
0,
Captulo 3. Esperanza
89
0<x<1
en el resto,
y la de Y por,
( R
1
fY =
y/2
dy = 1 y2 ,
0,
0<y<2
en el resto.
R1
0
R2
0
2 3 1
= 2,
3x 0
2 3 3 1
y
y
y
2 )dy =
2 6
0
2x2 dx =
y(1
= 23 .
E(W ) =
f (x, y)dxdy =
DXY A
1
4
2x
dydx +
0
dydx =
1
4
31
.
48
Problema 3.56 Elegimos un punto al azar en la circunferencia de centro cero y de radio uno.
Supongamos que denotamos por la variable aleatoria que nos da el
angulo aleatorio asociado
a este punto y por X la variable aleatoria que nos da la abscisa del punto. Se pide:
al es la distribuci
on de ? Hay que obtener tanto la funci
on de densidad como la
1. Cu
funci
on de distribuci
on.
2. Determinar P( [a, b]) para cualesquiera a y b con 0 a b 2.
3. Determinar la funci
on de distribuci
on de la variable X.
90
Captulo 3. Esperanza
4. Determinar la funci
on de densidad de la variable X.
5. Calcular E(X).
6. Calcular E(|X|).
Soluci
on.- Veamos la respuesta a los distintos apartados.
1. El angulo se distribuye uniforme en [0, 2], U (0, 2). La funcion de densidad viene
dada por
1
f () =
, (0, 2],
2
y cero en el resto. La funcion de distribucion es
, (0, 2].
2
F () =
Para valores menores que cero es nula y vale uno por encima de 2.
2. P ( [a, ]) =
ba
2 .
3. Notemos que x = cos(x) y por lo tanto = arc cos(x). Por argumentos geometricos
sencillos se tiene que la funcion de distribucion de X es FX (x) = 2 arc cos(x), si 1 x 1
(cero por debajo de -1 y uno por encima).
4. Derivando la funcion de distribucion obtenemos que
fX (x) =
5.
1
, 1 x 1.
1 x2
EX =
1
dx = 0,
1 x2
x
2
dx = .
2
1x
E|X| = 2
0
, r [0, 3];
9
fR (r) =
0
en el resto,
elegimos un punto al azar. Si X designa la distancia del punto al origen, obtener
1. La funci
on de distribuci
on y la funci
on de densidad de X|R = r.
2. La media y la varianza de X.
Captulo 3. Esperanza
91
Soluci
o.- Para obtener la funcion de distribucion condicionada de X a R = r, observemos que
FX|R (x|r) = P (X x|R = r) es la probabilidad de que al escoger un punto al azar en un
crculo de radio r caiga dentro del crculo concentrico de radio x r. Utilizando probabilidades
geometricas,
x2
x2
FX|R (x|r) = P (X x|R = r) =
= 2,
2
r
r
y derivando,
2x
2 , si x [0, r];
r
fX|R (x|r) =
0,
fora.
Para calcular E(X) haremos uso de la igualdad E(X) = E[E(X|R)]
Z R 2
2x
2R
dx =
,
E(X|R) =
2
R
3
0
i de aqu
E(X) = E[E(X|R)] =
0
2r
fR (r)dr =
3
3
0
2r3
3
dr = .
27
2
E[var(X|R)] =
0
r2
fR (r)dr =
18
27 92
2
5
4
R2
18
r4
3
dr =
.
162
10
(3.20)
27
5
9
,
4
3
.
20
(3.21)
3
3
9
+
=
.
10 20
20
Problema 3.58 El juego de los dos dedos se juega entre dos jugadores A y B. Los jugadores
muestran a la vez uno o dos dedos y simult
aneamente dicen el n
umero de dedos que su oponente
va a mostrar. El que acierta recibe del que pierde tantos euros como dedos hayan mostrado
entre ambos. Si ninguno acierta, o lo hacen ambos, nadie gana ni paga. Designemos por (i, j)
la jugada de cualquiera de los dos jugadores, consistente en mostrar i dedos y apostar a que
el contrario va a mostrar j dedos, i, j = 1, 2. El jugador A decide jugar s
olo las jugadas (1, 2)
con probabilidad 47 y (2, 1) con probabilidad 37 . Si el jugador B, independientemente de lo que
haga A, juega a cualquiera de las cuatro posibles jugadas con igual probabilidad, 14 , calcular la
ganancia esperada de A. Podra A mejorar sus ganancias manteniendo sus jugadas?
92
Captulo 3. Esperanza
Soluci
on.- La posibles situaciones que pueden darse con las estrategias seguidas por cada cada
jugador, y los ganadores en cada una de ellas, se muestran en la tabla.
Jugadas
de A
(1,1)
(1,2)
Gana B
(2,1)
Gana A
Jugadas de B
(1,2)
(2,1)
Ninguno
Ganan
acierta
ambos
Ganan
Ninguno
ambos
acierta
(2,2)
Gana A
Gana B
Si tenemos en cuenta que lo que un jugador gana lo pierde el otro, la variable XA , ganancias
de A, toma los valores {4, 2, 3}, donde el signo negativo representa perdidas. La funcion de
cuanta de XA es,
3 1
7 4
7 4
fXA (k) =
1
,
si {k = 0}=[{A(1, 2) B(1, 2)} {A(1, 2) B(2, 1)}]
1,
si {k = 3}={A(2, 1) B(1, 1)} {A(1, 2) B(2, 2)}.
4
En definitiva
E(XA ) = 4
3
4
1
1
2
+3 =
.
74
74
4
28
(3.22)
1
1
1
[4(1 p) 2p + 3(1 p) + 3p] = [p (1 p)] = (2p 1),
4
4
4
1 k m 1.
Captulo 3. Esperanza
93
k+1
k
<X<
k+1
k+2
k
k+1
k+2 k+1
y el segundo
P ({G = k} {X < 1/2})
= P
=
1
1
<X<
k+2
k+1
1
1
.
k+1 k+2
De aqu,
fG (k) =
k+1
k
1
1
2
=
,
k+2 k+1 k+1 k+2
(k + 2)(k + 1)
1 k m 1.
X>
m
m+1
=1
m
1
=
,
m+1
m+1
y el segundo
1
m+1
y de aqu
fG (m) =
En definitiva,
fG (k) =
1
1
2
+
=
.
m+1 m+1
m+1
(k + 2)(k + 1)
2
,
m+1
1 k m 1;
k = m.
1
,
m+1
94
Captulo 3. Esperanza
m1
X
k=1
2k
2m
+
(k + 2)(k + 1) m + 1
"m1
X
k=1
"m1
X
=
=
k
m
+
(k + 2)(k + 1) m + 1
k=1
2
1
k+2 k+1
m
+
m+1
1 1 1
1
2
m
2 + + + +
+
+
2 3 4
m m+1 m+1
1 1 1
1
2 1 + + + + +
1 .
2 3 4
m+1
1 1 1
1
1
2 1 + + + + +
1 2 ln(m + 1) + 1 +
,
2 3 4
m+1
2(m + 1)
donde = 0, 57722... es la constante de Euler. Observese que lmm+ Em (G) = +.
Problema 3.60 Supongamos que n ni
nos de alturas diferentes se colocan en fila. Elegimos el
primer ni
no y nos desplazamos con el a lo largo de la fila hasta que encontramos un ni
no m
as
alto o hasta el final de la misma. Si encontramos un ni
no m
as alto lo elegimos y continuamos
con el desplazamiento y as sucesivamente. Cu
al es el n
umero esperado de ni
nos que elegiremos
en la fila?
Soluci
on.- Si designamos por X el n
umero de ni
nos elegidos, podemos escribir
X = X1 + X2 + + Xn ,
donde
Xi =
1,
0,
si el ni
no i-esimo es elegido;
en caso contrario.
Un ni
no solo podra ser elegido si es el mas alto de todos cuantos le preceden. As, {Xi = 1}={el
ni
no i es el m
as alto entre los i primeros} y por tanto, P (Xi = 1) = 1/i. De aqu
E(Xi ) =
Finalmente,
E(X) =
n
X
1
i=1
1
,
i
i = 1, . . . , n.
=1+
1 1
1
+ + + .
2 3
n
1
,
2n
(3.23)
Captulo 3. Esperanza
95
Problema 3.61 Cu
al es el n
umero esperado de cumplea
nos distintos en un grupo de 100
personas elegidas al azar?
Soluci
on.- Aunque el enunciado no lo menciona, cabe suponer que los cumplea
nos se distribuyen uniformemente entre los 365 das del a
no (excluimos los bisiestos) y son independientes
unos de otros. Si X es el n
umero de cumplea
nos distintos, podemos expresarla como
X = X1 + X2 + + X365 ,
donde
Xi =
1,
0,
si el da i hay un cumple
naos;
en caso contrario.
P (Xi = 1) = 1 P (Xi = 0) = 1
De aqu,
"
E(X) = 365 1
364
365
364
365
100
,
i = 1, 2, . . . , 365.
100 #
= 87, 6.
96
Captulo 3. Esperanza
Captulo 4
P
y siendo Z =
Y 6000
30 60
Y 6000
y 6000
30 60
30 60
N (0, 1),
y6000
30 60
= 0,95,
6500 6000
Y 6000
30 60
30 60
= P (Z 2,15) = 0,9842
Problema 4.2 Una empresa produce 10000 bolas de acero para rodamientos, siendo p = 0,05
la probabilidad de que una bola sea defectuosa. El proceso de producci
on garantiza que las bolas
son fabricadas independientemente unas de otras. Las bolas defectuosas son arrojadas a un
recipiente cuya capacidad queremos determinar para que, con probabilidad 0.99, quepan en el
todas las bolas defectuosas del proceso.
97
98
Soluci
on.- Las condiciones del enunciado nos dicen que el n
umero de bolas defectuosas, X, es
una B(10000, 0,05). Como n es muy grande, la variable
X np
X 500
Z=p
=
,
475
np(1 p)
sigue una distribucion N (0, 1) que nos permite aproximar la de X.
Se nos pide determinar un valor x tal que P (X x) = 0,99, por tanto
x 500
P (X x) = P (Z
) = 0,99.
475
En las tablas de la N (0, 1) encontramos que P (Z 2,33) 0,99 y de aqu x 550. Hay por
tanto que prever una capacidad mnima de 550 bolas para el recipiente.
Problema 4.3 Las bombillas utilizadas por cierto aparato pueden ser de dos clases, A y B.
Las de la clase A tienen una duraci
on media A = 2000 horas con devsiaci
on tpica A = 400
horas, mientras que las de la clase B tienen una duraci
on media B = 1800 horas con desviaci
on
tpica B = 500 horas. Se compran 200 bombillas de la clase A y 150 de la clase B. Calcular
la probabilidad de que la duraci
on media de la muestra de la clase A no supere en m
as de 100
horas la duraci
on media de la muestra de la clase B.
Soluci
on.- Si por X A y X B designamos, respectivamente, las duraciones medias en las muestras
de A y B, sabemos que
A
X A = A X A = 200
B
X B = B X B = 150
2
2
) y X B N (X B , X
). Por otra
Por el TCL, muy aproximadamente, X A N (X A , X
A
2
2
parte, como X A y X B son independientes, X A X B N (X A X B , X
+ X
). Es decir,
A
X A X B N (200,
7400
)
3
100 200
10 3
P (X A X B 100) = P (Z q
) = P (Z ) P (Z 2,01) 0,0222
7400
74
3
P (X = 1) = 0,30
P (X = 2) = 0,50
99
500
X
Xi ,
i=1
y
E(S) = S =
P500
i=1
var(S) = S2 =
E(Xi ) = 650
P500
i=1
var(Xi ) = 305.
Si por x designamos el n
umero de asientos a disponer, debe verificarse P (S x) 0,95, y
como se dan las condiciones para aplicar el TCL, S N (S , S2 ). Tendremos pues
x S
x 650
S S
P (S x) = P
=P Z
0,95.
S
S
305
En las tablas de la N(0,1) encontramos que
x 650
1,64 x 679.
305
P (X = n) =
6
X
kn = k
6
X
n = 21k = 1 k =
P6
P6
n2
n=1 21
n3
n=1 21
2
var(X) = X
=
1
.
21
91
21
441
21
980
212 .
P100
var(S) = S2 =
i=1
E(Gi ) = 100(E(Xi ) 4) =
P100
i=1
100
3
100980
.
212
100
Z>
100/3
(100980)/212
P Z > 70
980
si x < 0;
0,
nx, si 0 x < 1/n;
Fn (x) =
1,
si x 1/n.
Por otra parte
FY (y) =
0,
1,
si x < 0;
si x 0.
0,
1
Fn (x) =
2,
1,
si x < 1 n1 ;
1
n
si 1
x < 1 + n1 ;
si x 1 + n1 .
1
1
x R 1 , 1 +
n
n
con
F (y) =
0,
1,
Fn (x) F (x),
si x < 0;
si x 0.
Sin embargo,
fn (x) =
1
2,
x=1
1
n
0,
en el resto,
101
o x = 1 + n1 ;
f (x) =
1
2,
x = 1;
0,
en el resto,
Zn = max(X1 , . . . , Xn ),
Un = nYn ,
Vn = n(1 Zn ).
Yn 0;
Zn 1;
Un U ;
Vn V,
P (|Yn | ) = P
n
\
{Xj } = (1 )n 0.
j=1
Analogamente,
P (|1 Zn | ) = P (Zn 1 ) = P
n
\
{Xj 1 } = (1 )n 0.
j=1
La convergencia en ley de las otras dos variables se comprueba a partir de la convergencia debil
de las funciones de distribucion. Si Fn es la funcion de distribucion de Un ,
Fn (u) = P (Un u) = 1 P (Un > u) =
\
u n n
1 eu ,
1 P (Yn > u/n) = 1 P {Xj > u/n} = 1 1
n
j=1
que es la funcion de distribucion de una Exp(1).
La convergencia de Vn se comprueba de forma analoga.
Problema 4.9 Demostrar que la independencia de las variables en la ley debil de los grandes
n
umeros puede relajarse exigiendo solamente independencia dos a dos y acotaci
on de las varianzas. Es decir, si Xj , j = 1, . . . , n, verifican que E(Xj ) = j y var(Xj ) = j2 son finitas,
entonces
P
X n n 0,
102
donde
n =
1X
j ,
n j=1
Xn =
1X
Xj
n j=1
Soluci
on.- La convergencia en probabilidad exige que para > 0, P (|X n n | ) 0. Si
aplicamos Tchebishev,
var(X n )
P (|X n n | )
,
2
pero
n
n
X
X
X
1
1
var(X n ) = 2 var
Xj = 2
var(Xj ) +
cov(Xi , Xj ) ,
n
n
j=1
j=1
i6=j
n
1 X 2
M
.
j
2
n j=1
n
Sustituyendo,
P (|X n n | )
M
n
0.
n 2
Problema 4.10 Aplicar el anterior resultado a las variables aleatorias Xj , j = 1, . . . , n, independientes dos a dos y tales que
P (Xj = aj ) = P (Xj = aj ) =
1
.
2
1 2j 1 2j
a + a = a2j ,
2
2
X n 0.
Problema 4.11 Sea Sn el n
umero de exitos en n pruebas Bernoulli con probabilidad de exito
p en cada prueba. Encontrar una cota para P (|Sn /n p| ) que no dependa de p.
Soluci
on.- La desigualdad de Tchebishev permite escribir
Sn
var(Sn /n)
p(1 p)
P
p
=
.
2
n
n2
En [0, 1] la parabola y = x(1 x) alcanza su maximo para p = 1/2 por lo que x(1 x) 1/4,
x [0, 1]. Sustituyendo,
Sn
1
p
.
P
n
4n2
103
Problema 4.12 Tenemos dos monedas, una correcta y otra con probabilidad de cara p = 3/4.
Elegimos al azar una de las dos y realizamos una serie de lanzamientos. Despues de observar el
resultado de un gran n
umero de ellos, podemos saber la moneda elegida? Cu
al es el mnimo
n
umero de lanzamientos para poder saberlo con una probabilidad de al menos 95 %?
Soluci
on.- La respuesta a la segunda pregunta supone una respuesta afirmativa a la primera.
Vamos pues a responderla.
La ley de los grandes n
umeros supone que la proporcion de caras en n lanzamientos converge
en probabilidad a p, que valdra 1/2 o 3/4 seg
un la moneda elegida. Es decir, para > 0
Sn
p 1.
P
n
Podemos acotar inferiormente la probabilidad haciendo uso de la desigualdad de Tchebishev,
Sn
var(Sn /n)
P
p 1
.
n
2
var(Sn /n)
0,95
2
20p(1 p)
.
2
Queda por decidir el valor de , que habra de elegirse para poder distinguir entre los posibles
valores de p. Como dichos valores distan entre s 1/4, debera a lo sumo valer 1/8 con lo que
si p =
1
2
20 64
= 320
4
si p =
3
4
20 3 64
= 240.
16
En definitiva, n 320 nos permitira saber la moneda elegida con una probabilidad mayor o
igual que 0,95.
Problema 4.13 (Aplicaci
on de la LGN a la aproximaci
on de funciones) Sea g una funci
on acotada definida sobre [0, 1], la funci
on Bn definida sobre [0, 1] mediante
Bn (x) =
n
X
k
n k
g
x (1 x)nk ,
n
k
k=0
104
n
n
X
X
k
n k
n k
nk
nk
g
|g(x) Bn (x)| = g(x)
x (1 x)
x (1 x)
k
k
n
k=0
k=0
n
X
g(x) g k n xk (1 x)nk
n k
k=0
X
g(x) g k n xk (1 x)nk +
=
n k
|k/nx|
X
k n k
nk
+
g(x) g n k x (1 x)
|k/nx|>
X n
+ 2M
xk (1 x)nk .
k
|k/nx|
Si Zn B(n, x), el u
ltimo sumatorio no es mas que
X n
Zn
P
x =
xk (1 x)nk ,
n
k
|k/nx|
y tendremos
Zn
|g(x) Bn (x)| + 2M P
x ,
n
Zn
0,
x
n
105
k0
Soluci
on.- La primera de ellas es real, lo que supone que la variable sera simetrica. Consideremos la variable discreta X con soporte DX = {k, k 0} y con funcion de probabilidad
fX (k) = fX (k) =
ak
.
2
k0
k0
n
X
nk
k=0
k!
1
.
2
Soluci
on.- Consideremos la sucesion de variables aleatorias independientes {Xi }i1 , todas ellas
Poisson de parametro = 1. La variable Sn = X1 + X2 + + Xn es tambien Poisson con
parametro = n y por tanto,
n
X
nk
P (Sn n) =
en .
k!
k=0
Por otra parte, el Teorema Central de Lmite (TCL) nos dice que
Sn n n
N (0, 1)
n
y de aqu,
e
n
X
nk
k=0
k!
= P (Sn n) = P
Sn n
0
n
1
.
2
2Sn (x) 9n
An (y) = x;
<y ,
33n
y sea (An (y)) la medida de Lebesgue de An (y). Probar que
Z y
u2
1
e 2 du.
lm (An (y)) =
n
2
106
Soluci
on.- Elegimos al azar un punto X en [0, 1], X U (0, 1). La medida de probabilidad
asociada es precisamente la medida de Lebesgue en [0, 1]. La variable Xn = n (X) es una
variable discreta uniforme en {0, 1, . . . , 9}, por tanto
9
2
E(Xn ) =
var(Xn ) =
33
.
4
Pn
Como las Xn son independientes, la variable Sn = k=1 Xk tendra como media y varianza
E(Sn ) = 9n/2 y var(Sn ) = 33n/4. El TCL asegura que
2Sn 9n n
N (0, 1),
33n
y de aqu se sigue el resultado pues
2Sn 9n
<y
33n
1
n
2
u2
2
du.
E(X n ) =
1X
E(Xi ) = 20,
n i=1
var(X n ) =
n
9
1 X
var(Xi ) = .
n2 i=1
n
P (X n > 19) = P
n(X n 20)
>
3
Es decir,
n(19 20)
3
= 0, 99.
P (Z n/3) = 0, 01
n
2, 3263
3
y por tanto n 48, 71 y el tama
no mnimo del lote debera ser de 49 envases.
1, si Y < ln n;
Xn =
0, en caso contario.
Obtener la funci
on de distribuci
on de Xn y estudiar la convergencia en ley de las Xn .
Soluci
on.- La variable Xn es una variable Bernoulli, Xn B(1, pn ), con parametro
Z
pn = P (Y < ln n) =
0
ln n
ey dy = 1
1
.
n
0,
1/n
Fn (x) =
1,
107
si x < 0;
si 0 x < 1;
si x 1.
lm Fn (x) =
0, si x < 1;
1, si x 1,
Problema 4.20 Sea T U (1/c, 1/c), c > 0, y definamos Y = cT . Para k N , las variables
aleatorias Xk se definen mediante,
1, si 1/k Y < 1.
Demostrar que Xk converge en ley a la variable aleatoria X con funci
on de probabilidad fX (1) =
fX (1) = 1/2 y fX (x) = 0, x
/ {1, 1}.
Soluci
on.- Para conocer la distribucion de las Xk hemos de conocer previamente la de Y . Es
facil comprobar que Y U (1, 1) y en consecuencia la funcion de probabilidad de Xk vale
P (Xk = 1) = P (Xk = 1) = P (1/k < |Y | < 1) =
y
P (Xk = 0) = P (1/k Y < 1/k) =
y la de distribucion
Fk (x) =
0,
12
1
2
1
k
si x < 1;
1
2k ,
si 1 x < 0;
1
2k ,
si 0 x < 1;
si x 1.
0,
1/2,
F (x) =
1,
si x < 1;
si 1 x < 1;
si x 1.
1
1
2 2k
108
En efecto, si x ] 1, 1[,
x < 0,
Fk (x) =
1 k 1
1
= F (X)
2 2k
2
x > 0,
Fk (x) =
1
1 k 1
+
= F (X)
2 2k
2
Ap
endice A
A.1.
Series aritm
etico-geom
etricas
k1
Se trata de una serie aritmetico-geometrica porque su termino general es el producto del termino
general de una serie aritmetica por el termino general de una serie geometrica. Es probabilidad
nos encontramos con frecuencia son este tipo de serie. veamos como sumarlas.
Designemos al termino general de la serie como bn = an pn , con an+1 = an + r y p < 1.
Tendremos
X
X
an pn ,
bn =
S=
n1
n1
an pn+1
n1
(an+1 r)pn+1
n1
an+1 pn+1
n1
rpn+1
n1
am pm r
m2
S a1 p r
p2
1p
p2
.
1p
p
1p
a1 + r
109
p
1p
110
Captulo A.
X
1
k[1 2(1 )]k
1 2(1 )
k1
1
1 2(1 )
1 2(1 )
2(1 )
1
.
(2(1 ))2
1 2(1 )
1
2(1 )
Captulo A.
A.2.
7
5
3
1
111
= 1 2 + 22 + + n2
= 1 n + 3 (n 1) + 5 (n 2) + + (2n 1) 1
n
X
=
ai ,
i=1
donde,
ai
=
=
=
(n (i 1))(2i 1)
2ni n 2i(i 1) + (i 1)
(2n + 3)i 2i2 (n + 1).
Sustituyendo en (A.1)
Sn2
n
X
i=1
n(n + 1)
2Sn2 n(n + 1)
2
2n + 1
= n(n + 1)
2Sn2 ,
2
= (2n + 3)
de donde
Sn2 =
n(n + 1)(2n + 1)
.
6
(A.1)