Está en la página 1de 113

Problemas de C

alculo de Probabilidades

Francisco Montes
Departament dEstadstica i Investigaci
o Operativa
Universitat de Val`
encia

Indice general
1. Probabilidad

2. Variables y vectores aleatorios

25

3. Esperanza

49

4. Convergencia y teoremas lmite

97

A.

109
A.1. Series aritmetico-geometricas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
A.2. Suma de cuadrados de los n primeros enteros . . . . . . . . . . . . . . . . . . . . 111

INDICE GENERAL

Captulo 1

Probabilidad
Problema 1.1 Proporcionamos a A un trozo de papel para que escriba un signo + o un signo
, sabiendo que escribe el primero con probabilidad 1/3. El papel pasa a B, quien lo deja
como est
a o cambia el signo antes de pasarlo a C. A continuaci
on C, que puede o no haber
cambiado el signo, lo pasa a D, quien finalmente nos lo devuelve tras haber introducido o no
alg
un nuevo cambio. Si comprobamos que el papel tiene escrito un signo + y sabemos que la
probabilidad de que B, C y D cambiaran el signo es 2/3, obtener la probabilidad de que A
escribiera originalmente un signo +.
Soluci
on.- Sean N , M y E los sucesos,
N ={A escribi
o un signo +},
M ={A escribi
o un signo },
E={el papel tiene escrito un signo +}.
Aplicando Bayes,
P (N |E) =

P (E|N )P (N )
,
P (E|N )P (N ) + P (E|M )P (M )

donde E|N representa el suceso, no se cambi


o el signo + inicial o se cambi
o dos veces, por lo
que
3
2
1
2
1
P (E|N ) =
+3
,
3
3
3
y E|M representa el suceso, se cambi
o el signo inicial un n
umero impar de veces, por lo que
2 3
2
1
2
P (E|M ) = 3
+
.
3
3
3
Se sigue,
P (N |E) =


1 1 3
3[ 3


2 1
1 1 3
+ 3 23
3[ 3
3 ]
2 1 2
2 2 1
2
3 3
3 ] + 3 [3 3
3

13
.
2 3 =
41
+ 3 ]

Problema 1.2 Un test para diagnosticar cierta enfermedad tiene una sensibilidad del 95 % y
una especificidad del 99 %. Si la enfermedad en cuesti
on tiene una prevalencia del 0.5 %, cu
al
es el valor predictivo del test?

Captulo 1. Probabilidad

Soluci
on.- Los conceptos de sensibilidad, especificidad, prevalencia y valor predictivo proviene
del lenguaje utilizado en el mundo sanitario y debemos, en primer lugar, traducirlos a nuestro
lenguaje probabilstico.
Consideremos los sucesos M ={un individuo padece la enfermedad } y + ={el resultado del
test es positivo}, entendiendo por positivo que el test diagnostica al individuo como enfermo.
Con estos dos sucesos tenemos que
- sensibilidad = P (+|M ) = 0,95
- especif icidad = P (|M c ) = 0,99, su complementaria P (+|M c ) es la probabilidad de falsos
positivos
- prevalencia = P (M ) = 0,005
El valor predictivo es P (M |+), para cuyo calculo recurriremos al teorema de Bayes,
P (+|M )P (M )
0,95 0,005
95
=
=
= 0,3231
P (+|M )P (M ) + P (+|M c )P (M c )
0,95 0,005 + 0,01 0,995
294
(1.1)
El resultado sorprende por lo bajo. A pesar de la elevada sensibilidad del test, su valor
predictivo (V P ) es muy pobre. Puede ser interesante estudiar la variacion de V P en funcion
de la sensibilidad (S) y la prevalencia (P ). Para ello hagamos ambas variables con valores
P (+|M ) = s y P (M ) = p. La expresion (1.1) se convierte en
P (M |+) =

VP =

sp
.
0,01 + p(s 0,01)

1,0
,9

valor predictivo

,8
,7
,6
,5
,4
,3
0,00

sens 99
sens 90
,05

,10

,15

,20

,25

,30

,35

,40

,45

,50

prevalencia

La grafica nos muestra como la variacion de V P depende mas de la prevalencia que de la


sensibilidad, pues no hay practicamente diferencias entres las curvas correspondientes a sensibilidades de 0,90 y 0,99. La influencia de la prevalencia es muy acusada y pone de manifiesto
que prevalencias muy bajas dan valores de V P muy pobres aun cuando la sensibilidad sea alta.
Para alcanzar un V P del orden de 0,90 se exige una prevalencia del orden de 0,10.
Problema 1.3 (El problema de las coincidencias) Supongamos que 4 invitados llegan a
una casa y dejan el sombrero en el vestbulo. Si a la salida los recuperan de modo aleatorio,
calcular la probabilidad de que ninguno de ellos reciba su propio sombrero.

Captulo 1. Probabilidad

Soluci
on.- Sea A ={ninguno de ellos recibe su propio sombrero}, y sea Ai ={el i-esimo invitado
recupera su sombrero}. Se verifica que Ac = 4i=1 Ai y por tanto,

P (A) = 1 P (Ac )

1 P(

4
[

Ai )

i=1

= 1

4
X

P (Ai ) +

i=1

P (Ai Aj )

i<j

P (Ai Aj Ak ) + P (A1 A2 A3 A4 )

i<j<k

= 14
=



1
4 1
4
1
1
+

+
4
2 43
3 432 4321

9
= 0,375.
24

Este es un problema clasico que aparece ya citado en el libro de Montmort (1713) Essay
danalyse sur les jeux de hazard en relacion con un juego de cartas conocido como le Jeu du
Treize (El Juego del Trece), que consista en descubrir al azar 13 cartas numeradas del 1 al 13
ganando el jugador cuando el orden de aparicion de la carta y su n
umero coincidan.
El problema se presenta en m
ultiples versiones, sombreros elegidos al azar, sobres con direcciones en los que se introducen al azar cartas encabezadas con esas direcciones, permutaciones
aleatorias, .... Continuemos con la version de los sombreros y supongamos ahora que son n los
sombreros y sus propietarios. Si por Ai designamos el suceso {el individuo i ha recibido su propio sombrero}, A = A1 A2 An representa el suceso {al menos un individuo ha recibido
su propio sombrero} y
P (A) =

n
X
i=1

P (Ai )
X

P (Ai Aj )

1i<jn

P (Ai Aj Ak ) + + (1)n+1 P (A1 A2 . . . An ),

1i<j<kn

donde

P (Ai )

(n 1)!
n!

P (Ai Aj )

(n 2)!
n!

...
P (Ai1 . . . Aim )

y por tanto

...
=

(n m)!
n!

Captulo 1. Probabilidad

P (A)




n 1
n (n 2)!
n+1 n 1
=

+ + (1)
1 n
2
n!
n n!
= 1

1
1
1
+ + + (1)n+1
2! 3!
n!

y recordando el desarrollo en serie de potencias de ex , para n suficientemente grande


P (A) 1 e1 = 0,6312 y

P (Ac ) 0,3688.

Este resultado, sorprendentemente, es muy parecido al obtenido para n = 4 lo que no debe de


extra
narnos porque la convergencia de la serie es rapida.
Una soluci
on alternativa basada en la probabilidad condicional.- Puesto que la probabilidad
que buscamos depende de n, n
umero de individuos, escribiremos P (Ac ) = pn . Sea ahora C ={el
primer individuo recibe el sombrero correcto}, entonces
pn = P (Ac ) = P (Ac |C)P (C)+P (Ac |C c )P (C c ) = 0P (C)+P (Ac |C c )

n1
n1
= P (Ac |C c )
.
n
n

El suceso Ac |C c representa el hecho de que no hayan coincidencias cuando n 1 individuos


reciben aleatoriamente n1 sombreros entre los que hay uno extra
no que no pertenece a ninguno
de aquellos. Observemos que este suceso puede ocurrir porque
1. no hay coincidencias y el individuo cuyo sombrero no esta entre los n 1 no elige el
extra
no, o
2. no hay coincidencias y el individuo cuyo sombrero no esta entre los n 1 elige el extra
no.
La probabilidad de la primera opcion es justamente pn1 porque podemos suponer que le
sombrero extra
no no lo es y en ese caso las condiciones son las iniciales pero con n1 individuos.
La segunda opcion tiene una probabilidad pn2 /(n 1). En definitiva,

n1
1
1
n1
pn =
pn1 +
pn2 =
pn1 + pn2
n
n1
n
n
o tambien

1
pn pn1 = (pn1 pn2 ).
n
Para obtener el valor de pn observemos que p1 = 0 y p2 = 1/2, a partir de aqu
1
p3 p2 = 31 (p2 p1 ) = 3!

p3 =

p4 p3 = 41 (p3 p2 ) =
... ...

1
1
1
p4 = 2!
3!
+ 4!
... ...
1
1
1
1
pn = 2!
3!
+ 4!
+ (1)n+1 n!

1
4!

1
2!

1
3!

La probabilidad del suceso Ak ={exactamente k individuos reciben su propio sombrero}


puede calcularse con un razonamiento analogo. Fijemos k individuos, y sean Bk ={estos k
individuos eligen correctamente sus sombreros} y Cnk ={en los nk restantes no hay ninguna
coincidencia}. El suceso Cnk |Bk representa el hecho que para los n k restantes individuos
no hay ninguna coincidencia aunque han elegido entre sus propios sombreros. Observemos que
X
X
P (Ak ) =
P (Bk Cnk ) =
P (Cnk |Bk )P (Bk ),

Captulo 1. Probabilidad

donde sumamos sobre todas las posibles formas de elegir los k individuos y donde
P (Bk ) =

1
1
1
(n k)!


=
n n1
n (k 1)
n!

y
P (Cnk |Bk ) = pnk .

Como las posibles elecciones de los k individus son nk , lexpresion final de P (Ak ) es
P (Ak )

=
=


(n k)!
pnk
n

pnk =
k
n!
k!
1
2!

1
3!

1
4!

1
+ (1)n+1 n!
.
k!

se trata de que en los n k restantes no hay ninguna coincidencia, lo que ocurre con una
probabilidad
1
1
1
(n k)!


pnk =
pnk .
n n1
n (k 1)
n!

Como los k individuos pueden ser elegidos de nk formas distintas,

n
(n k)!
pnk
P (Ak ) =

pnk =
=
k
n!
k!

1
2!

1
3!

1
4!

1
+ (1)n+1 n!
.
k!

Problema 1.4 Se busca un paraguas que, con probabilidad p/7, se encuentra en cualquiera de
los siete pisos de un inmueble. Se han explorado en vano los seis primeros pisos. Cu
al es la
probabilidad de que el paraguas se encuentre en el septimo piso?
Soluci
on.- Denotemos por Ai ={el paraguas est
a en el piso i-esimo}, i = 1, . . . , 7. Sabemos
que P (Ai ) = p/7 y que P (7i=1 Ai ) = p. Sabemos tambien que el paraguas no se encuentra en
los 6 primeros pisos y nos piden calcular

P A7 | 6i=1 Aci .
Aplicando Bayes

P 6i=1 Aci |A7 P (A7 )


6
c
P A7 | i=1 Ai =
.
P (6i=1 Aci )

Las distintas probabilidades que aparecen en (1.2) valen,

P 6i=1 Aci |A7 = 1,


y

c
7 6p
.
P 6i=1 Aci = P 6i=1 Ai
= 1 P 6i=1 Ai =
7
Sustituyendo en (1.2)

p
p/7
=
.
P A7 | 6i=1 Aci =
(7 6p)/7
7 6p

(1.2)

Captulo 1. Probabilidad

Problema 1.5 Tres prisioneros A, B y C son informados por su carcelero de que se ha elegido
al azar a uno de ellos para ser ejecutado y que los otros dos van a ser liberados. El prisionero A
le pide al carcelero que le diga en privado cu
al de sus compa
neros va a ser liberado, asegur
andole
que no pasa nada porque le de esa informaci
on puesto que el sabe que al menos uno de los otros
dos quedar
a libre. El carcelero no quiere contestar la pregunta porque dice que si A supiera cu
al
de sus dos compa
neros va a ser liberado entones su propia probabilidad de ser ejecutado subira
de 13 a 12 porque entonces el sera uno de los dos que podra ser ejecutado. Que piensas del
razonamiento del carcelero?
Soluci
on.- Si A no pregunta la probabilidad de ser ejecutado es 1/3 puesto que se ha elegido al azar aquel que va a ser ejecutado. Supongamos que pregunta y vamos a calcular cual
sera entonces la probabilidad ser indultado.
Denotemos por B y C, respectivamente, {el carcelero responde que B o C ha sido indultado}
y por A, {el prisionero A es indultado despues de preguntar }, tendremos
P (A) = P (A|B)P (B) + P (A)P (C).
Observemos que P (A|B) = 1/2 porque si le dicen que B ha sido indultado, el segundo preso
indultado sera A o C con igual probabilidad. Por otra parte P (B) = 2/3 porque los presos se
indultaron al azar. Un razonamiento similar conduce a P (A|C) = 1/2 y P (C) = 3/2. Sustituyendo en la anterior expresion,
P (A) =

2 1 2 1
2
+ = ,
3 2 3 2
3

y, como era de esperar, la probabilidad es la misma que la inicial.


Problema 1.6 Una bola marcada puede estar en una cualquiera de las dos urnas que tenemos
disponibles, con probabilidades p y 1 p, respectivamente. La probabilidad de extraer la bola de
la urna en la que est
a alojada es r (r 6= 1). Cu
al es la mejor forma de utilizar n extracciones
con reemplazamiento, de cualquiera de las dos urnas, para que la probabilidad de extraer la bola
sea m
axima?
Soluci
on.- Supongamos que de las n extracciones m se llevan a cabo en la primera urna y
n m en la segunda. Sea A ={se extrae la bola marcada} y Hi ={la bola est
a en la urna i},
i = 1, 2. Sabemos que P (H1 ) = p, P (H2 ) = 1 p y
P (A|H1 ) = 1 (1 r)m , pues se han llevado a cabo m extracciones con reemplazamiento de
la urna 1,
P (A|H2 ) = 1(1r)nm , pues se han llevado a cabo nm extracciones con reemplazamiento
de la urna 2.
Aplicando el teorema de la probabilidad total,
P (A) =
=
=

P (A|H1 )P (H1 ) + P (A|H2 )P (H2 )


(1 (1 r)m )p + (1 (1 r)nm )(1 p)
1 p(1 r)m + (p 1)(1 r)nm .

Suponiendo m continuo, derivando e igualando a 0,


dP (A)
= 0 (1 p)(1 r)nm p(1 r)m = 0.
dm

Captulo 1. Probabilidad

Tomando logaritmos y despejando m, obtenemos


m=

n log[(1 p)/p]
+
.
2
2 log(1 r)

Observese que si p = 1/2, m = n/2 y las extracciones se reparten por igual en ambas urnas.
Problema 1.7 Repetimos indefinidamente una prueba en la que la probabilidad de exito es
siempre la misma, p, siendo los resultados de las pruebas independientes unos de otros (se trata
de una sucesi
on de pruebas de Bernoulli). Obtener la probabilidad de que a exitos ocurran antes
que b fracasos.
Soluci
on.- El suceso cuya probabilidad nos piden, A, puede interpretarse diciendo que, A ={en
la prueba en la que se alcanza el a-esimo exito, no han ocurrido todava b fracasos}. Si n es la
prueba en la que se alcanza el exito a, el n
umero de fracasos es entonces m = n a, que se
distribuyen de cualquier manera entre las n 1 pruebas (la u
ltima es seguro un exito). Pero n
tiene algunas restricciones:
n a,
n < a + b, pues si n = a + b, m = a + b a = b y no se cumple la condicion.
Si An ={a exitos en n pruebas}, A = a+b1
on disjunta,
n=a An , y siendo la uni
P (A) =

a+b1
X

P (An ) =

a+b1
X

n=a

n=a

b1
X
n1 a
a+j1
na
a
p (1 p)
=p
(1 p)j .
a1
a

1
j=0

umero de piezas que re


unen
Problema 1.8 Disponemos de 3 cajas de 20 piezas cada una. El n
las condiciones de calidad exigidas son, respectivamente, 20, 15 y 10. De una de las cajas elegida
al azar se extrae una pieza que resulta ser buena. Se devuelve a la caja y se extrae una segunda
pieza que tambien resulta buena. Cu
al es la probabilidad de que la caja elegida haya sido la
3a ?.
Soluci
on 1.- Se trata de aplicar reiteradamente el teorema de Bayes. Si por Ci , i = 1, 2, 3,
designamos el suceso la caja elegida es la i-esima, y por B el suceso la pieza extrada es
buena, para la primera de las extracciones tendremos,
P (B) =

3
X

P (B|Ci )P (Ci ) =

i=1

1
3

20 15 10
+
+
20 20 20

Aplicando el teorema de Bayes, para i = 1, 2, 3, tendremos


P (Ci |B) = Pi =

P (B|Ci )P (Ci )
,
P (B)

y de aqu
P1 =

4
9

P2 =

3
9

P3 = 29 .

3
4

10

Captulo 1. Probabilidad

Para la segunda extraccion, y la consecuente aplicacion del teorema del Bayes, utilizaremos
las probabilidades a posteriori que acabamos de obtener, en lugar de las P (Ci ) iniciales.
Obtendremos,

P (B) =

3
X

P (B|Ci )Pi

i=1

1
=
9

20
15
10
29
4 +3 +2
=
,
20
20
20
36

y aplicando nuevamente Bayes,


P (C3 |B) =

P (B|Ci )P3
=
P (B)

10 2
20 9
29
36

4
29

Soluci
on 2.- Aplicamos ahora Bayes una sola vez, pero utilizamos el suceso B1 B2 , que
representa la primera y la segunda extracciones son buenas. Tendremos,

3
X
1 20 20 15 15 10 10
29
P (B1 B2 ) =

=
.
P (B1 B2 |Ci )P (Ci ) =
3
20
20
20
20
20
20
48
i=1
Finalmente,
P (C3 |B1 B2 ) =

P (B1 B2 |C3 )P (C3 )


4
=
.
P (B1 B2
29

ostico autom
atico emite un diagn
ostico basado en el resulProblema 1.9 Un aparato de diagn
tado de n an
alisis de un mismo paciente. Cada an
alisis, independientemente de los restantes,
puede dar un resultado err
oneo con probabilidad p. La probabilidad de un buen diagn
ostico,
condicionada al n
umero de an
alisis correctos, es una funci
on creciente de dicho n
umero, g(m).
Durante una ma
nana la m
aquina ha diagnosticado a k pacientes. Encontrar la probabilidad
del suceso A ={al menos un paciente esta mal diagnosticado}. Particularizar el resultado para
g(m) = m/n.
Soluci
on.- Consideremos los sucesos B ={un paciente cualquiera est
a bien diagnosticado} y
Hm ={m an
alisis son correctos}. Aplicando el teorema de la probabilidad total tenemos,
P (B) =

n
X

P (B|Hm )P (Hm ),

m=1

pnm (1 p)m . La expresion final de P (B) sera,


n
X
n nm
P (B) =
p
(1 p)m g(m).
m
m=1

donde P (B|Hm ) = g(m) y P (Hm ) =

La probabilidad buscada vendra dada por


P (A) = 1 [P (B)]k .
Si g(m) =

m
n,

P (B) =


n
n!
m
1 X
n nm
pnm (1 p)m =
m
p
(1 p)m = 1 p,
m!(n

m)!
n
n
m
m=1
m=1
X

y P (A) = 1 (1 p)k .

Captulo 1. Probabilidad

11

Problema 1.10 Sea (, A, P) un espacio de probabilidad. Si A y B son dos sucesos y A4B


es la diferencia simetrica entre ambos, definimos las funciones d1 (A, B) y d2 (A, B) mediante
d1 (A, B) = P (A4B),
y

(
d2 (A, B) =

P (A4B)
P (AB)

si P (A B) 6= 0,
si P (A B) = 0.

Probar que d1 y d2 son distancias.


Soluci
on.- De las tres condiciones exigibles para que ambas funciones sean distancias, las
dos primeras se verifican de inmediato en los dos casos. Hay que comprobar explcitamente la
desigualdad triangular.
Para d1 ,
d1 (A, C) = P (A4C) =
=

=
=

P (A C c ) + P (Ac C)
P (A C c B) + P (A C c B c ) + P (Ac C B) + P (Ac C B c )
P (C c B) + P (A B c ) + P (Ac B) + P (C B c )
P (A4B) + P (B4C)
d1 (A, B) + d1 (B, C)

Para d2 , representemos en primer lugar las distintas probabilidades asociadas a los sucesos
A, B y C y sus complementarios.
A
C
p
t

B
Bc

Cc
q
u

Ac
C Cc
r
s
v
w

As, P (A B C) = p, P (A B C c ) = p, etc..
Para comprobar la desigualdad triangular hemos de considerar los cuatro casos siguientes.
Caso 1.- Supongamos que P (A C) = 0.
Tenemos entonces que d2 (A, C) = 0 y la desigualdad de cumple obviamente.
Caso 2.- Supongamos que P (A C) 6= 0 y P (A B) = 0.
De acuerdo con la tabla, p = q = r = t = u = r = s = 0, v 6= 0 y
d2 (A, C) =

v
= 1,
v

d2 (A, B) = 0,

d2 (B, C) =

v
=1
v

y de aqu se deduce
d2 (A, C) d2 (A, B) + d2 (B, C).
Caso 3.- Supongamos que P (A C) 6= 0 y P (B B) = 0. Este caso es similar al anterior.
Caso 4.- Supongamos que
P (A C) =
6
0,
P (A B) =
6
0y
P (B C) =
6
0.
En estas condiciones las siguientes desigualdades son equivalentes.

12

Captulo 1. Probabilidad

P (A4C)
P (A C)

P (A4B)
P (B4C)
+
;
P (A B) P (B C)

q+u+r+v
p+q+t+u+r+v

t+u+r+s
q+s+t+v
+
;
p+q+t+u+r+s p+q+r+s+t+v

q+u+r+v
xs

t+u+r+s q+s+t+v
+
xv
xu
donde x = p + q + r + s + t + u + v;

(r + u) + (q + v)

xs
xs
+ (q + v)
x v
xu
xs
xs
+(s + t)
+
;
xv xu
(r + u)

vs
us
+ (q + v)
x v
xu
xs
xs
+(s + t)
+
;
xv xu

(r + u)

v(r + v) u(q + v)
+
x
v
xu

xs
xs
r+u
q+v
+s
+

x v x u x v x u
xs
xs
+t
+
xv xu
v(r + v) u(q + v)
+
x
v
xu

x (r + s + u) x (q + s + v)
+s
+
xv
xu

xs
xs
+t
+
.
xv xu

Esta u
ltima desigualdad es cierta porque la parte izquierda de la misma es una suma de
terminos positivos
Problema 1.11 Un taxi se ve involucrado en un accidente nocturno. En la ciudad hay dos
compa
nas de taxis, los taxis Negros y los taxis Blancos. Se sabe que el 85 % de los taxis de
la ciudad son Negros y el 15 % restante son Blancos. Un testigo del accidente afirma que el
taxi involucrado era Blanco y la fiabilidad de su testimonio es del 80 %, es decir, es capaz de
identificar correctamente el color del taxi el 80 % de las veces.
un c
alculo previo, piensas que es m
as probable que el taxi accidentado fuera el
1. Sin ning
Negro o el Blanco?
2. Calcula la probabilidad de que el taxi accidentado fuera el Blanco y compara ambas respuestas.
3. Supongamos que para 0 p 1 el 100p % de los taxis son Blancos y que la fiabilidad
del testigo contin
ua siendo del 80 %. Estudia la sensibilidad a los datos de la respuesta

Captulo 1. Probabilidad

13

anterior viendo como vara esta en funci


on de p. A partir de que valor de p la probabilidad
de que haya sido el taxi Blanco el accidentado supera 0.5?
4. El an
alisis anterior puede completarse permitiendo que la fiabilidad del testigo sea variable,
100q %, con 0 q 1. Determina la regi
on dentro del cuadrado
{(p, q) : 0 p 1, 0 q 1}
en la que la probabilidad de que haya sido el taxi Blanco el accidentado supera 0.5.
Cuando en todo cuanto precede nos referimos a la probabilidad de que haya sido el taxi Blanco
se sobrentiende que dado que el testigo afirma que era Blanco.
Soluci
on.1. Sin ning
un calculo previo lo logico sera creer al testigo, tanto mas cuanto la fiabilidad de
su testimonio hemos admitido que es del 80 %. Lo mas probable, por tanto, es que el taxi
implicado fuera Blanco.
2. Para obtener esta probabilidad hemos de recurrir al teorema de Bayes. Si B ={El taxi
implicado era Blanco}, N ={El taxi implicado era Negro} y T ={El testigo afirma que el
taxi era Blanco}, sabemos que P (B) = 0,15, P (N ) = 0,85, P (T |B) = 0,80 y P (T |N ) =
0,20. Por el teorema de Bayes
P (B|T ) =

P (T |B)P (B)
P (T |B)P (B) + P (T |N )P (N )

0,80 0,15
0,80 0,15 + 0,20 0,85

0,41,

y analogamente,
P (N |T ) = 0,59.
Este resultado contradice lo anterior y pone de manifiesto la confusion existente en el
manejo de las probabilidades por parte de gente no experta.
3. Ahora P (B) = p, P (N ) = 1 p, P (T |B) = 0,80 y P (T |N ) = 0,20 y aplicando Bayes
P (B|T ) =

0,8p
.
0,2 + 0,6p

Si queremos que P (B|T ) > 0,5 p debe verificar 0,2 < p 1.


4. Ahora P (B) = p, P (N ) = 1 p, P (T |B) = q y P (T |N ) = 1 q y aplicando Bayes
P (B|T ) =

pq
pq
=
.
pq + (1 p)(1 q)
1 p q + 2pq

Si queremos que P (B|T ) > 0,5 p y q deben estar en el recinto definido por 0 p 1,
0 q 1 y p + q > 1.

14

Captulo 1. Probabilidad

Problema 1.12 Dos jugadores A y B juegan a un juego en el que cada uno de ellos puede
efectuar n lanzamientos de dos dados, siendo A quien comienza. Las reglas del juego son las
siguientes:
Si A obtiene una suma 6 con los dados antes de que B haya obtenido una suma 7, A gana
el juego.
Si es B quien obtiene el 7 antes de que A haya obtenido el 6, es B quien gana.
El juego termina en empate cuando ambos han agotado su n lanzamientos.
Encontrar las expresiones de pA (n), pB (n) y pE (n) que denotan, respectivamente, que el ganador
es A, el ganador es B o el juego termina en empate. Calcular sus lmites cuando n .
Soluci
on.- Si Ak = {A ha obtenido una suma 6 en el lanzamiento k-esimo} y Bk = {B ha
obtenido una suma 7 en el lanzamiento k-esimo}, tenemos que P (Ak ) = 5/36 y P (Bk ) = 6/36
k.
Para que gane A al cabo de n lanzamientos debe ocurrir
c
An ).
{gana A} = A1 (Ac1 B1c A2 ) (Ac1 B1c , . . . , Acn1 Bn1

Teniendo en cuenta la independencia de los lanzamientos y la incompatibilidad de los sucesos,

31 30

n1
X 31 k 30 k 5

5
362

= 0,4918 (1 0,7176n ).
pA (n) =
=
31 30
36
36
36
36
k=0
1
362
Para que sea B quien la gane el juego al cabo de n lanzamientos,
{gana B} = (Ac1 B1 ) (Ac1 B1c Ac2 B2 ) (Ac1 B1c , . . . , Acn Bn )
y de aqu,

k+1 k
n
X
30
6
31
pB (n) =
= 0,5082 (1 0,7176n+1 ).
36
36
36
k=0

Si en n lanzamientos no ha ganado ninguno de los dos, debe de haberse producido un empate y


pE (n) = 1 pA (n) pB (n) = 0,8565 0,7176n .
Al pasar al lmite pA (n) 0,4918, pB (n) 0,5082 y pE (n) 0.
Problema 1.13 Sean A y B dos sucesos incompatibles con probabilidad distinta de cero. Cu
al
es la probabilidad de que A ocurra antes que B si el experimento se repite indefinidamente?
Soluci
on.- Consideremos el suceso Cn ={ni A ni B han ocurrido en las n primeras pruebas pero
uno de ellos lo ha hecho en la n + 1}. Los Cn constituyen una particion del espacio muestral.
Si D denota el suceso que nos interesa, A ocurre antes que B, tendremos
P (D) =

X
n1

P (D Cn ) =

X
n1

(1 P (A) P (B))n P (A) =

P (A)
.
P (A) + P (B)

(1.3)

El resultado coincide con lo que la intuicion permita suponer. Para saber cual de los dos
ocurrira antes con mayor probabilidad bastara con observar sus probabilidades.

Captulo 1. Probabilidad

15

Existe un razonamiento alternativo y mas directo para obtener (1.3). Condicionemos D a


los posibles resultados del primer experimento,
P (D) = P (D|A)P (A) + P (D|B)P (B) + P (D|(A B)c )P ((A B)c ).
Logicamente P (D|A) = 1 y P (D|B) = 0. En cuanto a P (D|(A B)c ), si ni A ni B han ocurrido
en el primer experimento podemos razonar como si nada hubiera ocurrido y comenzar de nuevo,
es decir P (D|(A B)c ) = P (D). Sustituyendo,
P (D) = P (A) + 0 + P (D)P ((A B)c ) = P (A) + P (D)(1 P (A) P (B))
y despejando obtenemos (1.3).
Este resultado permitira resolver el problema anterior de forma mas sencilla. En lugar de
volver sobre el vamos a aplicarlo a un conocido juego de dados.
Problema 1.14 (El juego de craps) Un jugador lanza dos dados, si la suma del primer
lanzamiento es 7 u 11 gana, si la suma es 2, 3 o 12 pierde y si la suma es cualquier otro
n
umero continua lanzando hasta que aparezca una suma 7 o la suma que inicialmente obtuvo.
Si aparece la suma 7 antes que la suma inicial pierde, en caso contrario gana. Calcular la
probabilidad de que gane el juego.
Soluci
on.- Si por G denotamos el suceso {el jugador gana} y por G1 y G>1 que lo hace en
la primera jugada o en una jugada posterior, respectivamente, sabemos que P (G) = P (G1 ) +
P (G>1 ). Sabemos tambien que P (G1 ) = 8/36.
Para que ocurra G>1 la suma del primer lanzamiento debe de ser alguna de las del conjunto
D = {4, 5, 6, 8, 9, 10} y debe volver a aparecer antes de que aparezca una suma 7. As pues,
o
[ n
G>1 =
S1=k Sk antes que 7 ,
kD

donde la notacion empleada es obvia. De aqu


P (G>1 )

P S1=k Sk antes que 7

kD

kD

P (S1=k )P (Sk antes que 7 )


X

P (S1=k )P (Sk antes que 7 ),

k{4,5,6}

la u
ltima igualdad siendo cierta por razones de simetra respecto de la suma media que es 7.
Calculos sencillos conducen a
3
3
P (S1=4 )P (S4 antes que 7 ) =

36 3 + 6
4
4

P (S1=5 )P (S5 antes que 7 ) =


36 4 + 6
5
5
P (S1=6 )P (S6 antes que 7 ) =

36 5 + 6
Sustituyendo en P (G),
P (G) =

8
+2
36

3 3
4 4
5 5
+

36 9 36 10 36 11

244
= 0,493
495

16

Captulo 1. Probabilidad

Como siempre, el juego favorece a la banca al ser la probabilidad de ganar inferior a 0,5.
Problema 1.15 (El coche y las cabras) En un concurso de TV hay tres puertas, una de
ellas esconde un coche y las otras dos sendas cabras. El concursante elige una de las puertas
y obtiene como premio aquello que la puerta oculta, pero la puerta permanece cerrada y el
presentador, que conoce lo que hay detr
as de cada puerta, abre una de las otras dos puertas
y aparece una cabra (l
ogicamente el presentador nunca abre la puerta que oculta el coche). El
presentador se dirige entonces al concursante y le permite cambiar su elecci
on, que le conviene
hacer al concursante?
Este concurso tuvo gran exito a principios de los 90 en los USA y una conocida columnista
de la revista Parade Magazine, Marylin vos Savant public
o que cambiando su elecci
on el concursante doblaba su probabilidad de ganar el coche, pues esta pasaba del 1/3 inicial a 2/3. Su
afirmaci
on era correcta. Compruebalo.
Soluci
on.- Veamos las distintas opciones del concursante.
No cambia
Si el concursante no cambia su eleccion inicial la probabilidad de ganar el coche es 1/3,
puesto que elige al azar una dde las tres puertas.
Cambia
Si numeramos los animales como cabra 1 y cabra 2 las opciones de cambio son
1. Si se eligio inicialmente la puerta que ocultaba el coche la cambiar lo perdera.
2. Si se eligio la puerta que ocultaba la cabra 1, al cambiar elegira la puerta que oculta
el coche y lo ganara (recordemos que el presentador nunca abre la puerta que oculta
el coche).
3. Si eligio la puerta que ocultaba la cabra 2 el razonamiento anterior es valido y
ganara tambien el coche.
En definitiva, de las 3 opciones posibles 2 de ellas le conducen a ganar el coche y la
probabilidad es por tanto 2/3.
Una generalizaci
on
Una persona, B, invita a otra, A, a jugar a un juego que consiste llevar a cabo extracciones
de una urna que contiene a bolas blancas y b bolas negras (a + b 3). Se le pide a A que
elija entre una de las dos siguientes estrategias (A llevara a cabo sus extracciones con los
ojos vendados).
1. Extrae una bola al azar y si es blanca gana, en caso contrario pierde.
2. Extrae una bola, se deshace de ella sin ni siquiera conocer su color y a continuacion
B retira una bola negra de la urna. A lleva a cabo una segunda extraccion y si la
bola extrada es blanca gana, en caso contrario pierde.
Que estrategia le conviene elegir? Las probabilidades de ganar para cada estrategia valen

a
a
a1
b
a
a
1
p1 =
, p2 =

=
1+
.
a+b
a+b a+b2 a+b a+b2
a+b
a+b2
Como p2 > p1 , le conviene la segunda estrategia.
En el concurso de la TV, tenamos a = 1 y b = 2 que dan lugar a p1 = 1/3 y p2 = 2/3.

Captulo 1. Probabilidad

17

Problema 1.16 Sean A y B dos sucesos. Obtener la probabilidad de A B si ha ocurrido A


o si ha ocurrido A B. Comentar el resultado.
Soluci
on.- Si ha ocurrido A,
P1 = P (A B|A) =

P (A B)
P ((A B) A)
=
.
P (A)
P (A)

(1.4)

Si ha ocurrido A B,
P2 = P (A B|A B) =

P ((A B) (A B))
P (A B)
=
.
P (A B)
P (A B)

(1.5)

Observemos que si B A (1.4) y (1.5) son iguales y el resultado carece de interes. Si B no


esta incluido en A y P (Ac B) > 0,
P (A B) = P (A) + P (Ac B) > P (A)
y de (1.4) y (1.5) deducimos que P2 < P1 .
El resultado es llamativo porque A B es un suceso que contiene mas informacion que A
y sin embargo su conocimiento previo disminuye la probabilidad de A B, en contra de lo que
cabra suponer.
Problema 1.17 (El segundo problema de Huygens) El holandes Christian Huygens public
o en 1657 uno de primeros libros sobre Probabilidad que se conocen, De Ratiociniis in Ludo
Aleae (Del Razonamiento en los Juegos de Azar), en el que planteaba una serie de problemas.
El que se conoce como segundo problema de Huygens lo enunciamos a continuaci
on
Tres jugadores A, B y C participan en el siguiente juego. Una urna contiene a bolas blancas
y b negras. Los jugadores, en el orden ABCABC . . ., extraen una bola con reemplazamiento
hasta que uno de ellos obtiene una bola blanca y gana. Encontrar la probabilidad de ganar para
cada jugador
Soluci
on.- Para que gane A en su extraccion n-esima ninguno de los tres jugadores debe
de haber extrado bola blanca en la n 1 extracciones precedentes. Si por = a/(a + b)
representamos la probabilidad de extraer una bola blanca y por = b/(a + b) la de extraerla
negra, pA (n), probabilidad de que gane A en su n-esima extraccion, vale

pA (n) =

b
a+b

3(n1)

a
= 3(n1) .
a+b

Si A gana lo hara en alguna de las jugadas y por tanto


X
X
pA =
pA (n) =
3(n1) =
n1

n1

.
1 3

Un razonamiento analogo nos permite deducir pB , probabilidad de que B gane,


pB =

X
n1

pB (n) =

3(n1) =

n1

.
1 3

Finalmente, como pA + pB + pC = 1, tendremos


pC = 1

2 3
2

=
=
.
3
3
3
1
1
1
1 3

18

Captulo 1. Probabilidad

Existe una solucion alternativa mas elegante que la anterior. Razonemos para ello de la siguiente forma. Si gana A es porque lo ha hecho en su primer lanzamiento o en alguno posterior.
A partir de su primer lanzamiento, caso de no haber ganado, A pasa a convertirse en el tercer
jugador y ganara con probabilidad pC , que representa no tanto el hecho de que gane concretamente C como que lo haga el jugador que lanza en tercer lugar. Un razonamiento analogo para
los otros dos jugadores nos proporciona las relaciones,
pA = + pC ;

pB = pA ;

pC = 2 pA .

La resolucion del sistema conduce a los resultados anteriores.


Problema 1.18 (La paradoja del caballero De Mer
e) En un juego consistente en lanzar
repetidamente un par de dados, encontrar el menor n
umero n de lanzamientos para que la
probabilidad de obtener al menos un doble seis sea mayor que 0.5
35
Soluci
on.- En cada jugada la probabilidad de no obtener el doble seis es 36
, por lo que al cabo
n
de n jugadas la probabilidad de que no haya aparecido el doble seis sera [ 35
36 ] . El suceso que
35 n
interesa es el complementario, cuya probabilidad es pn,2 = 1[ 36 ] , obteniendose p24,2 = 0,4901
y p25,2 = 0,5055. La respuesta es n = 25.
Comentario.- El origen de la paradoja esta en la pregunta que Antoine Gombauld, caballero
De Mere, planteo a Pascal Observaba De Mere una discrepancia entre la realidad, deducida de
su larga experiencia como jugador, y una antigua regla muy extendida entre los jugadores que
afirmaba que n = 24. Esta erronea regla tena su origen en la creencia de un comportamiento
lineal de las probabilidades. Se saba que si los lanzamientos eran de un solo dado y se persegua
la obtencion de un seis, n = 4, pues p3,1 = 0,4213 y p4,1 = 0,5177. Se razonaba a continuacion
mediante una sencilla regla de tres: 4 es a 6 como 24 a 36.

Problema 1.19 (El problema de los puntos o del reparto de la apuesta) Dos jugadores A y B juegan a un juego consistente en un n
umero indeterminado de partidas. La probabilidad de ganar en cada partida es p para A y 1 p para B. Aquel de los dos que consigue antes
vencer en r partidas gana el juego y la apuesta que ambos hicieron. Si el juego se interrumpe
antes de finalizar, c
omo se debe repartir la apuesta?
Soluci
on.- Este problema tiene tambien su origen en la inquietud intelectual del caballero de
Mere quien lo planteo a Pascal en 1654. El problema origino una famosa correspondencia entre
Pascal y Fermat. Muchos autores se
nalan el nacimiento de la Probabilidad en el estudio que
Pascal y Fermat llevaron a cabo de estos dos problemas, de ah que a ambos se les reconozca
la paternidad de la criatura y se le otorgue con justicia a de Mere el papel de padrino.
Volviendo al problema, observemos que el juego no puede durar mas de 2r 1 partidas.
Supongamos que el juego se interrumpe cuando A ha ganado r a partidas y B ha ganado
r b. La solucion que propuso Pascal es que la apuesta se repartiera proporcionalmente a la
probabilidad que cada jugador tiene de ganar el juego si este se reanudara. Habra pues que
calcular dichas probabilidades.
Para que A gane el juego reanudado debe conseguir las a partidas que le faltan antes de que B
gane las suyas. Las partidas que se jugaran seran a+i, a lo sumo (2r1)(ra)(rb) = a+b1
y por tanto i = 0, 1, . . . , b 1. Debera ocurrir que A gane la u
ltima partida y otras a 1 entre
las a + i 1 restantes. Designado por pA (a, b) la probabilidad de que gane A,
pA (a, b) =

b1
b1
X
X
a + i 1 a1
a+i1 a
p
(1 p)i p =
p (1 p)i .
a

1
i
i=0
i=0

Captulo 1. Probabilidad

19

Obviamente pB (a, b) = 1 pA (a, b).


Por ejemplo, si p = 2/5, r = 15 y el juego se interrumpe cuando A ha ganado 3 partidas y
B ha ganado 7 partidas, tendremos a = 12, b = 8 y
pA (a, b) =

12 i
7
X
11 + i
2
3

= 0,0352,
i
5
5
i=0

con lo que A debera recibir el 3,5 % de la apuesta y B el 96,5 % restante.


Problema 1.20 (La paradoja de Bertrand) Elegimos una cuerda al azar en el crculo unidad. Cu
al es la probabilidad de que su longitud supere la del lado del tri
angulo equil
atero inscrito
en el crculo?
Soluci
on.- La paradoja estriba en que la respuesta parece no ser u
nica. En efecto, el valor
de la probabilidad que se nos pide depende del significado que demos a la elecci
on al azar. La
longitud de una cuerda en un crculo puede calcularse a partir de,
1. la distancia al centro de su punto,
2. la posicion de su punto medio sobre un radio cualquiera,
3. la posicion de uno de sus extremos sobre la circunferencia, supuesto fijo el otro extremo.

p ar ad o ja d e B e r tr an d

caso 1

caso 2

caso 3

Cada una de estas interpretaciones supone una eleccion al azar sobre espacios muestrales
distintos. As,
Caso 1.- El espacio muestral es todo el crculo unidad, C(1) y solo las cuerdas cuyos puntos
medios caen
en el crculo inscrito en el triangulo equilatero, C(1/2), tienen longitud mayor que 3. Es sabido que este crculo tiene radio 1/2y recurriendo a la probabilidad
geometricas, si A={la cuerda tiene longitud mayor que 3}
P (A) =

area(C(1/2)
(1/2)2
1
=
= .
area(C(1)

Caso 2.- El espacio muestral es ahora el segmento (radio) [0,1] y solo las cuerdas cuyos puntos
medios estan en [0,1/2] cumplen la condicion. Tendremos
P (A) =

1
longitud([0, 1/2])
= .
longitud([0, 1])
2

20

Captulo 1. Probabilidad

Caso 3.- El espacio muestral es ahora la circunferencia del crculo unidad. Si fijamos un extremo de la cuerda y elegimos al azar la posicion del otro, solo aquellas cuerdas que tengan
este u
ltimo extremo sobre el tercio de la circunferencia opuesto al extremo fijo cumplen
la condicion. Tendremos
2/3
1
P (A) =
= .
2
3

Problema 1.21 (La paradoja de la urna vaca) Disponemos de una urna infinitamente
grande y de una colecci
on infinita de bolas numeradas. Procedemos a depositar las bolas en
la urna de tres formas distintas.
1. A las 5 de la tarde menos 1 minuto introducimos las 10 primeras extrayendo la que lleva el
n
umero 10 (supongamos que la introducci
on y la sucesiva extracci
on consumen un tiempo
0). A las 5 menos 12 minuto depositamos las 10 bolas siguientes y extraemos la que lleva
el n
umero 20. A las 5 menos 14 de minuto las 10 siguientes extrayendo a continuaci
on la
que lleva el n
umero 30. Y as sucesivamente.
2. El segundo procedimiento es an
alogo al anterior, pero las bolas que se extraen en cada
ocasi
on son las numeradas 1, 2, 3, .....
3. En el tercer procedimiento las bolas se introducen como en los dos anteriores pero en cada
decena la extracci
on se efectua al azar.
Cuantas bolas habr
a en la urna a las 5 de la tarde seg
un el procedimiento empleado?
Soluci
on.- Veamos a que conduce cada procedimiento.
1. La respuesta para el primer procedimiento no ofrece ninguna duda. A las 5 de la tarde
habra infinitas bolas en la urna porque eliminamos sistematicamente 1 de cada 10 en cada
ocasion y quedan por tanto 9n, n .
2. El segundo procedimiento exige una mayor reflexion. Consideremos la bola que lleva el
n
umero n y preguntemonos si estara en la urna cuando den las 5 de la tarde. Las bolas van
extrayendose consecutivamente despues de la introduccion de cada decena, as la n
umero
1 se extrae a las 5 menos 1 minuto, la n
umero 2 a las 5 menos 1/2 minuto, ... , la n
umero
n a las 5 menos (1/2)n1 minutos. La conclusion es que cualquier bola sera, mas o pronto
o mas tarde, extrada y que la urna estara vaca a las 5 de la tarde.
3. La respuesta es todava mas sorprendente si la extraccion es aleatoria, porque con probabilidad 1 la urna estara vaca a las 5 de la tarde. Fijemos nuestra atencion en una
bola cualquiera, por ejemplo la que lleva el n
umero 1. Si En ={la bola 1 permanece en la
urna despues de la n-esima extracci
on} y Ai ={la bola 1 no ha sido extrada en la i-esima
extracci
on}, i = 1, . . . , n, podemos escribir En = A1 A2 An y
P (En ) =
=
=
=

P (A1 A2 An )
P (A1 )P (A2 |A1 ) . . . P (An |A1 A2 An1 )
9n
9 18


10 19
9n + 1
n
Y
9i
.
9i
+1
i=1

Captulo 1. Probabilidad

21

Como los En constituyen una sucesion monotona decreciente, la probabilidad del suceso
F1 = n1 En ={la bola 1 permanece en la urna a las 5 de la tarde} puede obtenerse
haciendo uso de la continuidad de la probabilidad respecto del paso al lmite.
Y

P (F1 ) = P (n1 En ) = lm P (En ) = lm


n

Como
Y
n1

vamos a probar que

n1

9n
.
9n + 1

1
Y 9n + 1
9n

=
9n + 1
9n
n1

Y
1
1+
= .
9n

n1

Observemos que
Y
n1

1+

1
9n

=
>
=

m
Y

1
9n
n=1

1
1
1
1+
1+
1 +
9
18
9m
1
1
1
+
+ +
9 18
9m
m
1X1
,
9 i=1 i
1+

y como la serie armonica es divergente, se sigue el resultado.


Hemos demostrado que P (F1 ) = 0 y de la misma forma comprobaramos que P (Fi ) = 0,
i. La probabilidad de que la urna no este vaca a las 5 de la tarde se calcula mediante
P (i1 Fi ) pero
[
X
P ( Fi )
P (Fi ) = 0.
i1

i1

Problema 1.22 (Un camino aleatorio cul


e) El da 27 de julio de 1997 se celebraron elecciones a la presidencia del Barca. Haba s
olo dos candidatos, el se
nor Fern
andez y el se
nor
N
un
ez, siendo este u
ltimo el ganador. Un socio con veleidades probabilsticas se hizo la siguiente pregunta: habr
a ido el se
nor N
un
ez por delante del se
nor Fern
andez a lo largo de todo el
escrutinio?
Soluci
on.- Designemos por A al candidato ganador, el Sr. N
un
ez, y por B al otro candidato,
el Sr. Fernandez. Sabemos que han recibido a y b votos, respectivamente, y que a > b.
Cada posible escrutinio puede representarse mediante una trayectoria no decreciente sobre el
plano que une los puntos (0,0), inicio del escrutinio, y (b, a), final del escrutinio. La trayectoria se
forma al desplazarse una unidad a la derecha cada vez que contemos un voto para el candidato B
o una unidad hacia arriba si el voto es para A. En la figura vemos tres ejemplos de trayectorias.
Las trayectorias son funciones no decrecientes de la forma
f : {0, 1, 2, . . . , b} {0, 1, 2, . . . , a}

22

Captulo 1. Probabilidad

con f (0) = 0 y f (b) = a.


Sea el conjunto de todas estas trayectorias, cuyo n
umero es finito, y sea A = P().
Dotaremos al espacio muestral de una probabilidad, P , uniforme que, recordemos, exige conocer
el cardinal de y de cualquier suceso para poder calcular su probabilidad. Observemos que el
suceso que nos interesa esta constituido por todas aquellas trayectorias que no cortan a la recta
y = x (la bisectriz del primer cuadrante). Como contar las trayectorias?
Consideremos la siguiente particion de , = C D E, con
C representa el suceso que nos interesa, a lo largo del escrutinio el candidato A ha ido
siempre por delante de B,
D C c representa aquellos escrutinios en los que el primer voto ha sido para A, y
E C c representa aquellos escrutinios en los que el primer voto ha sido para B.
En la figura se muestran escrutinios de cada uno de esto conjuntos.
a

b
Escru tin io tip o C

b
Escru tin io tip o D
P rin cip io d e reflexi n

b
Escru tin io tip o E

Para calcular P (C) hemos de contar sus elementos y tambien los de . Veamos como hacerlo.
1. Cardinal de
Cualquier escrutinio no es mas que una sucesion de a + b votos, con a de ellos favorables a
A y b favorables a B. El n
umero total de posibles escrutinios se obtiene distribuyendo de
todas las formas posibles los a votos de A (o los b de B) en a + b posiciones. En definitiva,

a+b
# =
.
a
2. Cardinal de E
Las trayectorias en E se caracterizan porque todas ellas comienzan con un voto para B,
a partir de aqu todas unen el punto (1,0) con el (b, a) contando para ello con los a votos
del candidato A o con los b 1 votos restantes del candidato B. Razonando como antes

a+b1
a+b1
#E =
=
.
a
b1
on
3. Cardinal de D. Principio de reflexi
Existe una correspondencia biunvoca entre las trayectorias de D y las de E. Consideremos
una trayectoria cualquiera de D, por ejemplo la de la grafica central de la figura. El tramo

Captulo 1. Probabilidad

23

comprendido entre el punto (0,0) y el punto (p, p), primer punto en el que la trayectoria
corta a la bisectriz, da lugar por reflexion respecto a dicha bisectriz a un nuevo tramo que
junto con el resto de la trayectoria inicial constituye una trayectoria de E. El razonamiento
es valido si partimos de una trayectoria de tipo E, en cuyo caso obtendremos por reflexion
una trayectoria de tipo D.
Aplicando ahora la formula de Laplace,
P (C)

# #D #E
#E
#C
=
=12
#
#
#
a+b1

a
1 2 a+b

ab
.
a+b

El resultado de las elecciones a la presidencia del Barca fue de 24025 votos para el Sr. N
un
ez y
5209 para el Sr. Fernandez y por tanto,
P (C) = 0,6436.

Problema 1.23 Utilizando argumentos probabilsticos, probar la igualdad (A > a)


1+

A a (A a)(A a 1)
(A a) . . . 2 1
A
+
+
=
A1
(A 1)(A 2)
(A 1) . . . (a + 1)a
a

Sugerencia.- Una urna con A bolas de las cuales a son blancas, extracciones sucesivas sin
reemplazamiento, primera bola blanca, ...
Soluci
on.- Siguiendo la sugerencia imaginemos un experimento aleatorio consistente en extracciones sucesivas sin reemplazamiento de una urna. La urna contiene A bolas de las cuales a son
blancas. Sabemos que mas pronto o mas tarde aparecera una bola blanca, lo que supone que el
correspondiente suceso tiene probabilidad 1, pero dicha probabilidad podemos descomponerla
de la forma
Aa+1 ! Aa+1
[
X
P (E) = P
Ei =
P (Ei ),
(1.6)
i=1

i=1

donde Ei ={la primera bola blanca aparece en la i-esima extracci


on}. A su vez, si Bj ={la
j-esima extracci
on es una bola blanca}, el teorema de la multiplicacion conduce a
P (Ei ) =
=

c
c
c
P (B1c )P (B2c |B1c ) P (Bi1
|Bi2
. . . B1c )P (Bi |Bi1
. . . B1c )

Aa Aa1
A a (i 2)
a

.
A
A1
A (i 2)
A (i 1)

Sustituyendo en (1.6) y recordando que P (E) = 1,


a
(A a)a
(A a)(A a 1)a
(A a) . . . 2 1 a
+
+
+
= 1.
A A(A 1)
A(A 1)(A 2)
A(A 1) . . . (a + 1)a
Despejando el factor com
un a/A se obtiene la igualdad buscada.

24

Captulo 1. Probabilidad

Problema 1.24 A y B juegan a un juego en el que A tiene una probabilidad p de ganar una
partida. El vencedor es aquel que gana dos partidas consecutivas. Encontrar el valor de p si se
sabe que cuando A pierde la primera partida, las probabilidades de ganar el juego para A y para
B son iguales.
Soluci
on.- Si A pierde la primera partida solo podra ganar si el n
umero de partidas es impar.
Si denotamos por Ai ={A gana el juego en la partida i}, tendremos
P (A2n+1 |Ac1 ) = [p(1 p)]n1 p2
y de acuerdo con el enunciado
X

[p(1 p)]n1 p2 =

n1

Resolviendo la ecuacion,

p=

1
p2
= .
1 p(1 p)
2

51
= 0, 6180.
2

Problema 1.25 La probabilidad de que un virus inform


atico haya infectado nuestro ordenador
es 0, 1. Si el ordenador est
a infectado, un sistema antivirus detecta la infecci
on con probabilidad x = 0, 95, mientras que en caso de no infecci
on el sistema detecta falsas infecciones
con probabilidad y = 0, 03. Interesa que el sistema antivirus tenga un elevado valor predictivo={probabilidad de que el ordenador este infectado cuando el antivirus detecta una infeccion}.
Calcularlo a partir de los datos anteriores. Si queremos aumentarlo, donde hemos de dirigir
nuestros esfuerzos, a aumentar x o a rebajar y?
Soluci
on.- Si I ={el ordenador est
a infectado} y D ={el antivirus detecta el virus}, el valor
predictivo viene dado por P (I|D) y aplicando Bayes,
P (I|D) =

P (D|I)P (I)
0, 1x
=
,
c
c
P (D|I)P (I) + P (D|I )P (I )
0, 1x + 0, 9y

(1.7)

que para los valores de x e y del enunciado vale P (I|D) = 0, 26027.


Para responder a la pregunta que plantea el enunciado, sea
p(x, y) =

0, 1x
0, 1x + 0, 9y

y consideremos la funciones univariantes resultantes de seccionar respectivamente con y = 0, 03


y x = 0, 95,
0, 1x
0, 095
h(x) =
,
g(y) =
.
0, 1x + 0, 027
0, 095 + 0, 9y
Se trata de funciones que nos proporcionan probabilidades marginales y que nos permiten
estudiar como influyen las variaciones de x e y en (1.7). Si calculamos el valor de sus derivadas
en x = 0, 95 e y = 0, 03, respectivamente, tendremos
h0 (0, 95) = 0, 1814

g 0 (0, 03) = 5, 7444,

lo que nos indica que alrededor de los valores originales de x e y cualquier variacion de y tiene
un efecto mayor que la variacion de x. La derivada negativa nos indica, ademas, que cuando y
decrece la probabilidad en (1.7) aumenta, como es logico que ocurra porque ello supone que el
sistema de deteccion es mas fiable.

Captulo 2

Variables y vectores aleatorios


Problema 2.1 Un fabricante de bolas para rodamientos somete su producto al siguiente proceso
de control de calidad. Las bolas son aceptadas si no pasan a traves de un agujero de di
ametro
d1 , pero s lo hacen a traves de otro de di
ametro d2 , d2 > d1 . Se sabe que el di
ametro D de las
bolas es aleatorio con una distribuci
on N (, 2 ), = (d1 + d2 )/2 y = (d2 d1 )/4. Cu
al es
la probabilidad de rechazar una bola?
Soluci
on.- La probabilidad de aceptacion de una bola viene dada por pA = P (d1 < D < d2 ),
siendo la de rechazo pR = 1 pA .

(d1 +d2 )/2


d2 (d1 +d2 )/2
pA = P d1(d
<
Z
<
d
)/4
(d
d
)/4
2
1
2
1

(d1 d2 )/2
(d2 d1 )/4

(d2 d1 )/2
(d2 d1 )/4

P (2 < Z < 2) = 2(2) 1,

<Z<

de donde
pR = 1 pA = 1 (2(2) 1) = 2 2(2) = 0,04550
Problema 2.2 Sea X una variable aleatoria con funci
on de densidad

0,
si x 0,
f (x) =
ex xn
,
si
x > 0,
n!
donde n es un natural. Demostrar que se verifica la siguiente desigualdad
P (0 < X < 2(n + 1)) >

n
.
n+1

Soluci
on.- Obtengamos la E(X),
Z x n+1
Z
e x
1 n+1
E(X) =
dx =
x
(dex ) = = n + 1.
n!
n! 0
0
Analogamente, E(X 2 ) = (n + 2)(n + 1), y var(X) = E(X 2 ) [E(X)]2 = n + 1. Aplicando la
desigualdad de Tchebychev,
P (|X E(X)| < kX ) > 1

25

1
,
k2

26

Captulo 2. Variables y vectores aleatorios

que para nuestra X y para k =

n + 1 se convierte en

P (|X (n+1)| < (n+1)) = P ((n+1) < X (n+1) < (n+1)) = P (0 < X < 2(n+1)) >

n
.
n+1

Problema 2.3 En un proceso de fabricaci


on de hilados se producen roturas del hilo de manera
aleatoria a lo largo del tiempo. Es importante conocer cuando y c
omo pueden producirse dichas
roturas. Supongamos que un trabajador controla 800 husos y que la probabilidad de rotura del
hilo en cada bobina, durante un cierto intervalo de tiempo , es p = 0,005. Encontrar el n
umero
de roturas m
as probable y la probabilidad de que se produzcan a lo sumo 10 roturas.
Soluci
on.- La variable que describe el n
umero de roturas es X B(800, 0,005) y dado el valor
de sus parametros puede aproximarse mediante una Poisson de parametro = 800 0,005 = 4.
Es decir,
4m
P (X = m) = e4
.
m!
Para obtener el m mas probable (que se conoce con el nombre de moda de la distribucion),
observemos que
P (X = m)
e4 4m (m 1)!
4
=
= .
P (X = m 1)
e4 4m m!
m
Si
m<4
m>4

4
m
4
m

> 1 P (X = m) > P (X = m 1) creciente


< 1 P (X = m) < P (X = m 1) decreciente,

lo que supone que el maximo se alcanza, indistintamente, en m = 3 o m = 4, siendo la


correspondiente probabilidad P (X = 3) = P (X = 4) = 0,1954.
Por otra parte
10
X
4m
P (X 10) =
e4
= 0,99716
m!
m=0

Problema 2.4 Samuel Pepy, contempor


aneo de Isaac Newton, saba que al lanzar 6n dados
el n
umero esperado de seises era n. A partir de este resultado deduca que los sucesos An ={al
menos n seises al lanzar 6n dados}, n = 1, 2, 3, tenan todos igual probabilidad. Isaac Newton
hubo de sacarlo de su error.1
Soluci
on.- La variable Xn que recoge el n
umero de seises en los 6n lanzamientos es una
B(6n, 1/6), con lo que la probabilidad del suceso An viene dada por P (An ) = P (Xn n),
P (Xn n) = 1 P (Xn n 1) = 1

n1
X
k=0

6n
k

k 6nk
5
1
.
6
6

(2.1)

La tabla recoge los valores n


umericos de (2.1) para distintos valores de n.
1 El problema, que es de f
acil soluci
on y puede incluso parecer ingenuo a alg
un lector, se recoge aqu por su
inter
es hist
orico y tambi
en porque el autor de esta colecci
on ha tenido ocasi
on de comprobar que los
emulos
actuales de Samuel Pepy son todava numerosos

Captulo 2. Variables y vectores aleatorios

n
1
2
3
4
5

100

6n
6
12
18
24
30

600

27

P(Xn n)
0.665
0.619
0.597
0.584
0.576

0.517

Problema 2.5 Un reba


no de ovejas es sometido a examen para detectar aquellas que padecen
determinada enfermedad. Sabemos que cada una de ellas la padece con probabilidad p e independientemente de las otras. La detecci
on de la enfermedad requiere una an
alisis de sangre y
si se mezcla la sangre de n ovejas, basta que una de ellas padezca la enfermedad para que el
an
alisis de positivo. Como el reba
no es grande se plantean dos posibles estrategias:
1. examinar los animales uno a uno y llevar a cabo tantos an
alisis como animales tiene el
reba
no, o
2. examinar a los animales por grupos de n elementos, si el an
alisis es negativo todos los del
grupo est
an sanos, pero si es positivo habr
a que analizar uno a uno todos los animales del
grupo.
Determinar cu
al de las dos estrategias es mejor porque conduce a un n
umero menor de
an
alisis.
Soluci
on.- Como el tama
no del grupo puede ser elegido, podemos suponer, sin perdida de
generalidad, que el tama
no del reba
no y del grupo son iguales. Ello supone que en la primera
estrategia el n
umero total de analisis a realizar es n, puesto que en este caso no hay aleatoriedad.
El n
umero de analisis a llevar a cabo en la segunda estrategia es una variable aleatoria,
por lo que lo mas adecuado sera comparar su esperanza con el valor anterior. Si designamos
por Xn la variable, observemos que solamente toma dos valores con probabilidad distinta de
cero: 1, si todos los animales del grupo estan sanos, y n + 1, si alguno de ellos esta enfermo. La
correspondiente funcion de probabilidad vale

si x = 1,
(1 p)n ,
1 (1 p)n , si x = n + 1,
f (x) =

0,
en el resto
y el n
umero esperado de analisis sera
E(Xn ) = 1 (1 p)n + (n + 1) (1 (1 p)n ) = n + (1 nq n ),
con q = 1 p.
En definitiva,
si nq n < 1, la primera estrategia es la mejor,
si nq n > 1, la segunda estrategia es la mejor.
Problema 2.6 Consideremos el espacio de probabilidad (, A, P ) y sean A1 y A2 dos sucesos.
Definimos X1 = 1A1 y X2 = 1A2 , las funciones caractersticas asociadas. Demostrar que X1 y
X2 son independientes si y s
olo si A1 y A2 lo son.

28

Captulo 2. Variables y vectores aleatorios

Soluci
on.- Para ambas variables el soporte es D = {0, 1} y su distribucion de probabilidad
viene dada por P (Xi = 1) = P (Ai ) y P (Xi = 0) = 1 P (Ai ).
1. Si las variables son independientes P (X1 = i, X2 = j) = P (X1 = i) P (X2 = j) para
i, j = 0, 1. En particular para i = j = 1,
P (A1 A2 ) = P (X1 = 1, X2 = 1) = P (X1 = 1) P (X2 = 1) = P (A1 ) P (A2 ).
2. Si los conjuntos son independientes tambien lo son las parejas (A1 , Ac2 ), (Ac1 , A2 ) y (Ac1 , Ac2 )
y por tanto P (X1 = i, X2 = j) = P (X1 = i) P (X2 = j) para cualesquiera i, j.
Problema 2.7 Dos personas lanzan, cada una de ellas, n veces una moneda. Obtener la probabilidad de que ambas obtengan el mismo n
umero de caras.
Soluci
on.- Designemos por X e Y las variables que recogen el n
umero de caras obtenidas por
cada una de las personas. Ambas tienen un distribucion B(n, 1/2), de manera que
n
n
1
P (X = k) = P (Y = k) =
.
k
2
Queremos obtener P (X = Y ), para lo cual
P (X = Y ) = P (

n
[

[{X = k} {Y = k}]) =

k=0

n
X

P ({X = k} {Y = k}).

k=0

Como los lanzamientos son independientes, la probabilidad de la interseccion puede factorizarse


y
P (X = Y )

=
=
=
=
=
=

n
X

P (X = k)P (Y = k)

k=0
n
X

n 2
1
2
k=0
2n X
2
n
1
n!
2
k!(n k)!
k=0
2n
n
1
(n!)2 X
2n!
2
2n!
[k!(n k)!]2
k=0
2n
2
1
(n!)2 2n
2
2n! n
2n
2n
1
.
n
2
n
k

Problema 2.8 Para simular una moneda correcta a partir de una sesgada en la que la probabilidad de obtener una cara vale 6= 1/2 podemos proceder como sigue. Lanzamos dos veces la
moneda e interpretamos C+ como cara y +C como cruz. Si no aparece ninguno de estos dos
resultados, repetimos los pares de lanzamientos hasta que aparezca alguno de ellos. Encontrar la
distribuci
on de probabilidad y la esperanza del n
umero de pares de lanzamientos necesarios para
poder tomar una decisi
on (cara o cruz) y comprobar que, en efecto, se trata de la simulaci
on
de una moneda correcta.

Captulo 2. Variables y vectores aleatorios

29

Soluci
on.- De acuerdo con el enunciado tenemos la siguientes probabilidades:
P (C) =
P (+) = 1

P (C+) = (1 ) P (CC) = 2
P (+C) = (1 ) P (++) = (1 )2

La variable X, que describe el n


umero de pares de lanzamientos hasta que aparezca C+ o
+C, sera una variable geometrica con parametro p = 2(1) cuya distribucion de probabilidad
viene dada, para k = 1, 2, 3 . . ., por
P (X = k) = [1 2(1 )]k1 [2(1 )],
siendo su esperanza
X
X
E(X) =
k[1 2(1 )]k1 [2(1 )] = 2(1 )
k[1 2(1 )]k1 =
k1

k1

1
.
2(1 )

Para comprobar que la simulacion de la moneda correcta es buena, obtengamos las probabilidades de cara y cruz en el procedimiento dise
nado. Sea Ai el suceso, el resultado C+ se ha
obtenido en el i-esimo lanzamiento, tendremos
X
X
(1 )
1
P (cara) = P (i Ai ) =
P (Ai ) =
[1 2(1 )]i1 [(1 )] =
= .
2(1

)
2
i
i
Problema 2.9 Inyectamos a unos ratones microorganismos del tipo A y B en igual proporci
on.
Se supone que los microorganismos efectivos de cada tipo se distribuyen independientemente con
arreglo a una misma distribuci
on de Poisson de par
ametro . Un rat
on sobrevive si y s
olo si
no hay microorganismos efectivos en la dosis inyectada. A los ratones muertos se les examina
para ver si contenan microorganismos de uno o de los dos tipos. Encontrar la probabilidad de
que un rat
on muerto contenga microorganismos de un solo tipo.
Soluci
on.- Si por XA y XB representamos el n
umero de microorganismos efectivos de A y
B, respectivamente, sabemos por el enunciado que son independientes y que XA P () y
XB P ().
Sean A1 = {XA = 0} {XB > 0} y A2 = {XA > 0} {XB = 0}, la probabilidad que se nos
pide calcular es P (A1 A2 |M ), donde M es el suceso, el rat
on ha muerto, que en terminos de
XA y XB se expresa de la forma M c = {XA = 0} {XB = 0}. Observese que tanto A1 como
A2 son disjuntos y ambos son subconjuntos de M .
La probabilidad buscada viene dada por
P (A1 A2 |M ) = P (A1 |M ) + P (A2 |M ) = 2P (A1 |M ) = 2
Pero

P (A1 M )
P (A1 )
=2
.
P (M )
P (M )

(2.2)

P (A1 ) = P (XA = 0, XB > 0) = P (XA = 0)P (XB > 0) = e (1 e ),

y
P (M ) = 1 P (M c ) = 1 P (XA = 0, XB = 0) = 1 P (XA = 0)P (XB = 0) = 1 e2 .
Sustituyendo en (2.2),
P (A1 A2 |M ) = 2

e (1 e )
= 2(1 + e )1 .
1 e2

30

Captulo 2. Variables y vectores aleatorios

Problema 2.10 Consideremos la siguiente funci


on
yx ey
x! , si y 0, x = 0, 1, . . .
fX|Y (x|y) =
0,
en el resto.
a) Demostrar que para cada y fijo, fX|Y (x|y) es una funci
on de probabilidad (la de X condicionada a Y = y).
b) Si Y Exp(), con = 1, encontrar la densidad conjunta de X e Y .
c) Comprobar que la marginal de X viene dada por
1
2x+1 , x = 0, 1, . . .
fX (x) =

0,
en el resto.
Soluci
on.a) Por su definicion fX|Y (x|y) 0, bastara pues comprobar que al sumarla para todos los
valores de x la suma vale 1.
X y x ey
X yx
= ey
= ey ey = 1.
x!
x!

x0

x0

b) La densidad de Y Exp(1) es de la forma fY (y) = ey , y > 0, fY (y) = 0, y 0. Para


obtener la conjunta,
fXY (x, y) = fX|Y (x|y)fY (y) =

y x ey y
y x e2y
e =
, y > 0, x = 0, 1, . . .
x!
x!

siendo nula en el resto.


c) Para obtener la marginal de X,
Z

fX (x) =
0

y x e2y
dy,
x!

(2.3)

pero la densidad de una G(x + 1, 2) es de la forma


f (y) =

y x e2y
.
(x + 1)( 12 )x+1

Operando adecuadamente en (2.3), tendremos


fX (x) =

(x + 1)( 21 )x+1
x!

Z
0

x!
y x e2y
dy =
x!
(x + 1)( 12 )x+1

x+1 x+1
1
1
=
, x = 0, 1, . . .
2
2

Problema 2.11 El tiempo que tardan en ser atendidos los clientes del servicio de caja de cierta
sucursal bancaria es una variable aleatoria T Exp(), con = 0,2. Durante una ma
nana
han llegado 10 clientes, cu
al es la probabilidad de que a lo sumo 3 de ellos hayan tardado m
as
de 6 minutos en ser atendidos? (Suponemos que los clientes son atendidos independientemente
unos de otros)

Captulo 2. Variables y vectores aleatorios

31

Soluci
on.- Si la variable X designa el n
umero de clientes, de entre los 10 que han llegado
durante la ma
nana, que tardan mas de 6 minutos en ser atendidos, X B(10, p6 ), donde
p6 = P (T > 6), cuyo valor es
p6 = P (T > 6) = e60,2 ' 0,30.
El problema nos pide calcular
P (X 3) =

3
X
10
k=0

pk6 (1 p6 )10k = 0,6496

Problema 2.12 Sean X1 , X2 , . . . , Xn variables aleatorias con funci


on de distribuci
on conjunta
F y con funciones de distribuci
on marginales F1 , F2 , . . . , Fn . Demostrar que
1

n
X

[1 Fi (xi )] F (x1 , x2 , . . . , xn ) mn Fi (xi ).


1in

i=1

Soluci
on.- Si designamos por Ai = {Xi xi }, tendremos
F (x1 , x2 , . . . , xn ) = P (X1 x1 , . . . , Xn xn ) = P (

n
\

Ai ),

i=1

pero, ni=1 Ai Ai , i y de aqu se obtiene P (ni=1 Ai ) P (Ai ), i, lo que conduce a la segunda


parte de la desigualdad,
F (x1 , x2 , . . . , xn ) mn Fi (xi ).
1in

Por otra parte,


1 F (x1 , x2 , . . . , xn )

1 P(

Tn
i=1

Ai ) = P ([ni=1 Ai ] )

Pn
Pn
Sn
= P ( i=1 Aci ) i=1 P (Aci ) = i=1 (1 Fi (xi )),
lo que porporciona la primera de las desigualdades.
Problema 2.13 Las variables aleatorias X e Y tienen una distribuci
on conjunta uniforme
en el interior del tri
angulo T de vertices (0,0), (2,0) y (1,2). Calcular P (X < 1, Y < 1) y
P (Y < 1|X < 1,5).
Soluci
on.- Como la distribucion es uniforme su densidad sera constante en todo el recinto,
siendo dicha constante la inversa del area del triangulo . Como dicha area vale 2,
1
2 , (x, y) T,
fXY (x, y) =

0, fuera.
Las probabilidades que se nos pide calcular pueden obtenerse analticamente, integrando la
densidad conjunta sobre los recintos que definen los sucesos implicados, o bien geometricamente
mediante el calculo de las areas de dichos recintos, porque como la distribucion del vector es
uniforme, la probabilidad de que (X, Y ) este en cualquier recinto acotado es directamente
proporcional a su area, siendo el factor de proporcionalidad la inversa del area del soporte del
vector, con lo que en nuestro caso P ((X, Y ) A) = (area de A)/2. Veamos ambos metodos:

32

Captulo 2. Variables y vectores aleatorios

Desarrollo geom
etrico
1. Para obtener P (X < 1, Y < 1) observemos en la figura el recinto A que el suceso
determina.

y
2

En definitiva,
P (X < 1, Y < 1) =

area de A
1
=
2
2

1 1
+
4 2

3
.
8

2. Para obtener P (Y < 1|X < 1,5), tengamos en cuenta que


P (Y < 1|X < 1,5) =

P (Y < 1, X < 1,5)


area de B
=
,
P (X < 1,5)
area de C

donde B = {Y < 1, X < 1,5} y C = {X < 1,5}. La figura nos muestra ambos
recintos.

C
B

Del calculo de sus areas tendremos,


P (Y < 1|X < 1,5) =

5/4
5
= .
7/4
7

Desarrollo analtico El triangulo soporte del vector (X, Y ) viene definido (vease la figura)
mediante T = {0 < x < 1, 0 < y < 2x} {1 < x < 2, 0 < y < 4 2x}.

Captulo 2. Variables y vectores aleatorios

33

2
y = 2x
y = 4 - 2x

Teniendo en cuenta los recintos que definen los distintos sucesos,


Z
P (X < 1, Y < 1) =

1
2

2x

1
dxdy +
2

1
1
2

1
0

1
3
dxdy = .
2
8

R 12 R 2x

P (Y < 1|X < 1,5) =

R 1,5 R 1
1
dxdy + 1 0 12 dxdy
0 2
R 1 R 2x 1
R 1,52 R 42x 1
dxdy
+
2 dxdy
0 0 2
1
0
0

5/8
5
= .
7/8
7

Problema 2.14 Las puntuaciones obtenidas por los estudiantes del centro A en las pruebas
de selectividad se distribuyen N (6,25, 1), mientras que las de los estudiantes del centro B se
distribuyen N (6, 1,5). Elegimos al azar 2 estudiantes del centro A y 3 del centro B. Se pide:
1. la probabilidad de que la puntuaci
on media de los 2 estudiantes de A sea superior a la
puntuaci
on media de los 3 de B, y
2. la probabilidad de que al escoger al azar uno de los 5 estudiantes, su nota sea superior a
6.5
Soluci
on.1. Designado por X A y X B las puntuaciones medias de los 2 estudiantes de A y los 3 de B,
tenemos que
2
,
X A = X1 +X
2
XB =

Y1 +Y2 +Y3
,
3

con Xi N (6,25, 1) e independientes e Yj N (6, 1,5) e independientes. Se deduce de


ello que X A N (6,25, 1/2) y X B N (6, 1,5/3). A su vez, la diferencia entre ambas
variables, X A X B , sera tambien Normal con parametros = 0,25 y 2 = 0,5 + 0,5 = 1.
Podemos ya calcular la probabilidad que nos piden.
P (X A > X B ) = P (X A X B > 0) = P (Z > 0,25) = 0,5987
2. Si X es la nota del estudiante elegido al azar, aplicando el teorema de la probabilidad
total tenemos
P (X > 6,5) = P (X > 6,5|es de A)P (es de A) + P (X > 6,5|es de B)P (es deB)

(2.4)

34

Captulo 2. Variables y vectores aleatorios

Pero

P (X > 6,5|es de A) = P

y
P (X > 6,5|es de B) = P

6,5 6,25
Z>
1

= P (Z > 0,25)

6,5 6
Z>
= P (Z > 0,408).
1,5

Sustituyendo en (2.4),
P (X > 6,5) =

2
3
P (Z > 0,25) + P (Z > 0,408) = 0,3655
5
5

Problema 2.15 Tenemos dos lneas de comunicaci


on telef
onica paralelas de longitud l, separadas por una distancia d < l. Sabemos que, al azar y de manera independiente, se producen
sendas roturas a lo largo del recorrido de cada una de ellas. Encontrar la probabilidad de que la
distancia R entre ambas roturas no sea superior a c.
Soluci
on.- Si X e Y son las abscisas de las roturas, ambas se distribuyen U (0, l) y son independientes de acuerdo con el enunciado. El conjunto de posiciones de todas las posibles roturas
sea pues el cuadrado de lado l, con area l2 .
El conjunto de posiciones que satisface la condicion exigida (vease la figura) viene dado por
p
A = {(x, y); |x y|2 + d2 c2 } = {(x, y); |x y| c2 d2 }.

Y
a=(c2-d2)1/2

l
R

a
X
a
Disposicin de las roturas a lo largo de la linea

El conjunto de puntos (x,y) que cumplen la


condicin son los situados entre ambas rectas

Aplicando probabilidades geometricas,

(l2 [l c2 d2 ]2 ])
2 c2 d2
c2 d2
a
rea(A)
=
=

.
P (A) =
l2
l2
l
l2
Problema 2.16 Elegimos al azar dos puntos, X e Y , en el intervalo [0, a]. Calcular la funci
on
de distribuci
on de la distancia entre ellos.
Soluci
on.- Sabemos que X U (0, a) e Y U (0, a). Hemos de obtener la distribucion de la
variable D =| X Y |, concretamente F (d) = P (D d), y para ello utilizaremos, por mas
sencillo, un metodo geometrico.
Observemos que {D d} = {| X Y | d}, suceso este u
ltimo que se corresponde con el
conjunto A de la figura.

Captulo 2. Variables y vectores aleatorios

35

Tendremos pues, F (d) = P (D d) = P (| X Y | d), siendo esta probabilidad proporcional al area de A, con factor de proporcionalidad 1/a2 , inversa del area del cuadrado que
constituye el espacio muestral. Como
P (D) =
y por tanto

a
rea(A)
d(2a d)
=
,
a2
a2

0
F (d) =

d(2ad)
a2

si d < 0,
si 0 d a,
si d > a.

Problema 2.17 (Los sorteos de La Primitiva) Un asiduo de La Primitiva anda un tanto


preocupado al comprobar que en los 18 u
ltimos sorteos hay algunos n
umeros que no han sido
extrados. Piensa que las 108 extracciones (18 6) suponen un poco m
as del doble de 49 y
que por tanto cada n
umero debera haber aparecido, aproximadamente, unas dos veces. Y si el
sorteo no fuera correcto? Habr
a n
umeros m
as probables que otros?
Soluci
on.- Para sacar de dudas al jugador lo mas conveniente sera obtener la probabilidad de
que los 49 n
umeros haya aparecido a lo largo de las 18 semanas o, en general, de n semanas.
Sea Ai ={el n
umero i no ha aparecido en los n sorteos}. Como los sorteos son independientes
unos de otros,
" #n
n
48
43
6

=
P (Ai ) = p = 49
49
6
Definamos ahora las variables Xi , i = 1, . . . , 49, mediante

1, si i no ha aparecido en los n sorteos;


Xi =
0, si i s ha aparecido en los n sorteos,
P49
de manera que Xi Bi(1, p). La variable X = i=1 Xi representa el total de n
umeros que no
han aparecido en las n semanas. Aun cuando se trata de una suma de variables Bernoulli, X

36

Captulo 2. Variables y vectores aleatorios

no se distribuye como una Binomial porque aquellas no son independientes. En efecto,


cov(Xi , Xj )

= E(Xi Xj ) E(Xi )E(Xj )


2

= P (Xi = 1, Xj = 1) [E(Xi )]
" #n
47

492

6
49

43 42
49 48

43
49

2n

43
49
49

2n

Podemos, no obstante, aproximar la probabilidad buscada suponiendo que X Bi(49, p). El


suceso que nos interesa viene representado por {X=0 } y

n 49
43
49
P (X = 0) = (1 p) = 1
49
Es tambien posible calcular el valor exacto de la probabilidad buscada. El suceso A={no
han aparecido todos los n
umeros en los n sorteos}, complementario del que nos interesa, puede
escribirse mediante los Ai de la forma
49
[

A=

Ai .

i=1

La formula de inclusion-exclusion nos permite calcular su probabilidad,


P (A)

49
X
i=1

P (Ai )

P (Ai Aj )

1i<j49

P (Ai Aj Ak ) + + P (A1 A2 . . . A49 ),

1i<j<k49

donde
" #n
48
P (Ai ) =

6
49

43
=
49

" #n
47
P (Ai Aj ) =

6
49

...

43 42
49 48

...
"

P (Ai1 . . . Aim ) =

49m
6
49

#n

43 42 . . . (43 m + 1)
49 48 . . . (49 m + 1)

n
, m 43.

La tabla nos muestra los valores exactos de P (Ac ) y los aproximados mediante la Binomial.
exactos
Binomial

n=9
0.0000
1.39E-8

n=18
0.0032
0.0074

n=27
0.2118
0.2317

Captulo 2. Variables y vectores aleatorios

37

Si recordamos que nuestro jugador haba hecho sus observaciones a lo largo de 18 semanas, no
debemos extra
narnos de que no hubieran aparecido todos los n
umeros. La probabilidad de que
lo hubieran hecho es apenas de 0,0032. Lo sorprendente hubiera sido que estuvieran todos.
Un buena excusa para hacer inferencia estadstica.- Las Loteras y Apuestas del Estado
es el organismo estatal encargado de organizar y gestionar las diferentes apuestas que dependen
del Estado, en particular, La Primitiva y las demas apuestas afines: Bonoloto y Gordo de La
Primitiva. Desde su hoja web http://onlae.terra.es/primitiv.htm podemos descargarnos
toda la informacion relativa a los sorteos que han tenido lugar desde la implantacion de La
Primitiva en octubre de 1985. Esta informacion puede sernos u
til para verificar, mediante el
anterior resultado, si los sorteos son, efectivamente, equiprobables.
Desde el 17 de octubre de 1985 hasta el 12 de octubre de 2003 han tenido lugar 5214 sorteos
de La Primitiva, Bonoloto y Gordo de La Primitiva. Aunque se trata de juegos distintos, los
consideraremos conjuntamente como si del mismo juego se tratara porque el mecanismo de
extraccion es igual en todos ellos.
Hemos agrupado los sorteos en grupos de 27. El orden considerado para establecer los grupos
es irrelevante puesto que los sorteos son, o deben ser, independientes. Hemos por tanto agrupado
a partir del orden cronologico en el que viene registrados. El haber elegido un tama
no de grupo
de 27 es debido a la que los tama
nos inferiores, 9 o 18 sorteos, tienen probabilidades demasiado
bajas para el n
umero de sorteos que manejamos.
El n
umero total de bloques de 27 sorteos es de 193, con un resto de 3 sorteos que despreciamos. Asociada a estos 193 grupos podemos definir una variable N , que cuente el total de
grupos en cuyos 27 sorteos han aparecido el total de los 49 n
umeros del juego. Analizados todos
los resultados encontramos que N = 36.
Si la hipotesis de independencia de los sorteos y equiprobabilidad de los resultados son ciertas,
no olvidemos que la gente juega con la creencia de que lo son, la distribucion de probabilidad de
la variable aleatoria N es conocida, N Bi(n, p27 ), con n = 193 y p27 = 0,2118. La pregunta
que surge de inmediato es si el valor observado, N = 36, es compatible con dicha hipotesis.
La respuesta es objeto de la Inferencia Estadstica (IE), que nos proporciona herramientas
para decidir acerca del las hipotesis sobre el comportamiento de una variable aleatoria a partir
de la observaciones de la misma. Lo que la IE nos propone en este caso es
1. definir, a partir de la observaci
on obtenida, el suceso A = {N 36} ={se observan valores
menores o iguales que 36 },
2. obtener p = P (A) supuesta cierta la hipotesis que hemos hecho, a la que en IE se denomina
hip
otesis nula, H0 ,
3. comparar dicha probabilidad con un umbral peque
no establecido de antemano, al que en
IE se denomina nivel de significaci
on y se designa por , y
- aceptar H0 si p > , o
- rechazar H0 si p .
En nuestro caso,
p = P (N 36) =

36
X
193
(0,2118)k (1 0,2118)1k = 0,2224
k

k=0

que es un valor grande y, en todo caso, mayor que el habitual de = 0,05. No hay por tanto
incompatibilidad entre lo observado y lo supuesto y aceptaremos H0 .

38

Captulo 2. Variables y vectores aleatorios

Problema 2.18 Calcular la probabilidad de poder formar un tri


angulo con dos puntos elegidos
en el intervalo [0, 1] seg
un los distintos metodos que se enumeran a continuaci
on.
1. Los dos puntos se eligen al azar en el intervalo.
2. Elegimos primero un punto al azar y a continuaci
on elegimos el segundo punto, tambien
al azar, pero sobre el trozo mayor.
3. Elegimos un punto al azar y a continuaci
on uno de los trozos, elegido al azar, lo dividimos
en dos partes iguales. Calcular, para este metodo, la probabilidad de que el tri
angulo sea
obtuso.
Soluci
on.- Elegimos los puntos x e y en el intervalo [0, 1]. Supongamos que y < x (el caso contrario se razona de igual forma) y situemonos en el recinto triangular D de vertices
(0, 0), (1, 0), (11), podremos formar un triangulo siempre que
Y
x = 1/2
x=y

xy <1x+y

1x<x

y <1y

x - y = 1/2
y = 1/2

xy <
1
2
1
y<
2

1
2

x>

lo que da lugar a la region sombreada de la


figura.
1

Designemos por T el suceso podemos formar un tri


angulo con los puntos elegidos. Vamos a
calcular su probabilidad seg
un los distintos supuestos.
1.- Como la distribucion conjunta de X e Y es uniforme en el recinto D,
P (T ) =

area sombreada
1/8
1
=
= .
area de D
1/2
4

2.- Supongamos que x > 1/2. El segundo punto sera elegido al azar en el intervalo [0, x].
As pues, X U (1/2, 1) e Y |X = x U (0, x). La distribucion conjunta de (X, Y ) sera

, 1/2 < x < 1, 0 < y < x ;


x
fXY (x, y) = fY |X (y|x)fX (x) =

0, en el resto.
Tendremos
Z

(Z

dx

P (T ) = P ((X, Y ) A)) =
1
2

1
2

x 12

2
dy
x

)
= 2 ln 2 1.

3.- Al dividir el intervalo [0, 1] en dos partes con la primera eleccion, la segunda eleccion nos
permitira formar un triangulo siempre que el trozo elegido sea el mas grande, puesto que si

Captulo 2. Variables y vectores aleatorios

39

la eleccion fuese el trozo peque


no no se cumplira la condicion de que un lado es siempre
menor que la suma de los otros dos. En definitiva,
P (T ) = P (T |peque
no)P (peque
no) + P (T |grande)P (grande) = 0

1
1
1
+1 = .
2
2
2

Si ademas queremos que el triangulo sea obtuso, recordemos que la longitud del lado de
un triangulo vale c2 = a2 + b2 2ab cos C. Cuando el angulo C es obtuso, c2 > a2 + b2 .
En nuestro caso, si suponemos x < 1/2, el trozo mayor sera 1 x que dividiremos en dos
partes iguales, con lo que c = x y a = b = (1 x)/2 (observese que el u
nico angulo que
puede ser obtuso es el opuesto al lado x). La condicion quedara de la forma

1x
x2 > 2
= x2 + 2x 1 > 0 = x > 2 1,
2
y en definitiva
P (Tobtuso ) = 2P

1
2 1 < X < 1/2 = 2
( 2 1) = 3 2 2.
2

El factor 2 se justifica porque la opcion x > 1/2 tiene una solucion simetrica con igual
resultado.

Problema 2.19 Las variables X e Y son independientes y continuas. Sea U una variable
dicot
omica, independiente de ambas con P (U = 1) = P (U = 1) = 1/2. Definimos S = U X y
T = U Y . Comprobar que S y T son dependientes, pero S 2 y T 2 son independientes.
Soluci
on.- La funcion de distribucion conjunta de S y T viene dada por,
GST (s, t) =
=
=

P (S s, T t|U = 1)P (U = 1) + P (S s, T t|U = 1)P (U = 1)


1
[P (X s, Y t) + P (X s, Y t)]
2
1
[FX (s)FY (t) + (1 FX (s))(1 FY (t))] ,
2

pero
GS (s) =

1
[FX (s) + (1 FX (s))]
2

GT (t) =

1
[FY (t) + (1 FY (t))]
2

con lo que GST (s, t) 6= GS (s)GT (t).


Una forma mas intuitiva y rapida de comprobar la dependencia entre S y T es observar que
si X e Y son positivas, entonces S > 0 implica necesariamente T > 0.
Por otra parte S 2 = X 2 y T 2 = Y 2 y como se trata de transformaciones medibles, por
continuas, de variables independientes, las transformadas tambien lo son.
Problema 2.20 Sean {Xk , k = 1, . . . , n} variables aleatorias i. i. d. con distribuci
on U (0, 1).
Tomemos 0 < x < 1 y definamos
N = mn{n 1; X1 + X2 + + Xn > x}.
Encontrar P (N > n).

40

Captulo 2. Variables y vectores aleatorios

Soluci
on.- Observemos en primer lugar que
{N > n} = {X1 + X2 + + Xn < x},
con lo que la probabilidad buscada es P (N > x) = P (Sn < x), siendo Sn = X1 + X2 + + Xn .
Como 0 < x < 1 cada componente de la suma cumplira tambien la condicion. Se trata pues
de obtener la funcion de distribucion de Sn |A donde A = {0 < Xk < 1, k = 1, . . . , n}, que
obtendremos recursivamente.
S2 = X1 + X2 ,

x2
2

P (S2 < x) = P (X1 + X2 < x) =


y de aqu, fS2 |A (x) = x, 0 < x < 1.
S3 = X1 + X2 + X3 ,
Z

P (S3 < x) = P (X3 < x S2 ) =

xt

tdt

dx3 =

x3
3!

y de aqu, fS3 |A (x) = x2 /2, 0 < x < 1.


S4 = X1 + X2 + X3 + X4 ,
Z
P (S4 < x) = P (X4 < x S3 ) =
0

x 2

t
dt
2

xt

dx4 =
0

x4
4!

y de aqu, fS4 |A (x) = x3 /3!, 0 < x < 1.

Por u
ltimo
P (N > n) = P (Sn < x) =

xn
.
n!

Problema 2.21 Sean X, Y, Z variables aleatorias i. i. d. con distribuci


on U (0, 1). Encontrar
la densidad conjunta de XY y Z 2 y calcular P (XY Z 2 ).
Soluci
on.-Para encontrar la distribucion de T = XY , de acuerdo con la grafica,
Y

P (T t)

= P (XY t)
Z 1
t
= t+
dx
x
t
= t(1 ln t).

y = t/x
t

Para la obtencion de la distribucion de V = Z 2 ,


GV (v) = P (V v) = P (Z 2 v) = P (Z

v) =

v.

Captulo 2. Variables y vectores aleatorios

41

Como T = XY y V = Z 2 son independientes,

GT V (t, v) = P (T t, V v) = P (T t)P (V v) = t(1 ln t) v.


La densidad conjunta valdra,
gT V (t, v) =

2 GT V (t, v)
ln t
= ,
tv
2 v

0 < t, v < 1.

La probabilidad que se nos pide podemos calcularla mediante la densidad conjunta,


P (XY Z 2 ) =
=
=

P (T V )

Z 1 Z 1
ln t
dv
dt
2 v
0
t
5
.
9

Problema 2.22 Elegimos al azar tres puntos A, B, C sobre la circunferencia de un crculo.


Calcular la probabilidad de que al menos uno de los
angulos del tri
angulo que determinan sea
mayor que x, 0 < x < 1.
Soluci
on.- Para fijar la posicion de los puntos en la circunferencia utilizaremos coordenadas
polares, haciendo coincidir el origen de los angulos en A. Ello nos permite fijar las posiciones
de los puntos en la circunferencia con solo dos angulos, y , elegidos al azar entre [0, 2].
B

La figura nos muestra una de las posibles elecciones. El valor de los angulos del triangulo sera
A

1
( )
2
1

2
1

Para encontrar P (al menos uno de los angulos x) hemos de considerar dos situaciones,
dependiendo del valor de x.
1) x

1
2
1
2

Si x solo uno de los angulos puede superar x. La tabla recoge las tres situaciones
que pueden darse, con las inecuaciones que definen, que nos permitiran determinar los
subconjuntos de [0, 2] [0, 2] que las satisfacen.
(1) C > x
> 2x
< 2x
> 2(1 x)

(2) A > x
< 2x
> 2x
> 2(1 x)

(3) B > x
< 2x
< 2x
< 2(1 x)

42

Captulo 2. Variables y vectores aleatorios

= 2(1-x)

La figura nos muestra las regiones correspondientes a las tres situaciones descritas en la tabla, para el caso en que < puesto que el
caso contrario tiene una solucion simetrica. Las
tres regiones son iguales, triangulos rectangulos
isosceles cuyo cateto vale 2(1 x) y por tanto
la probabilidad buscada valdra

2
(1)

= 2x
- = 2x

(2)

(3)

P (al menos uno de los angulos x) = 3


2) x <

(2(1 x)) /2
2

(2) /2

= 3(1 x)2 .

1
2

En este caso mas de un angulo puede superar x. Por esta razon es mas sencillo calcular la
probabilidad complementaria, P (todos los angulos < x). Observemos previamente que
esta probabilidad sera nula si x < 1/3, pues los angulos del triangulo suman siempre .
Las condiciones que deben verificar los angulos
en esta caso son

< x
2

1
2 < x

< x
2

(2(1-x), 2x)

< 2x

< 2x

< 2(1 x)

que determinan el triangulo rectangulo isosceles


de la figura, cuyo cateto vale 2(3x 1).

(4x,2x)

(2(1-x),2(1-2x))

La probabilidad buscada valdra


2

P (todos los angulos < x) =

(2(3x 1)) /2
2

(2) /2

= (3x 1)2 .

y de aqu
P (al menos uno de los angulos x) = 1 (3x 1)2 .
Resumiendo,

3(1 x)2 ,
P (al menos uno de los angulos x) =

1 (3x 1)2 ,

1
2

x < 1;

1
3

x < 12 ,

Problema 2.23 Sea X U (0, 1). Calcular P (X x, X 2 y) y P (X x|X 2 = y).

Captulo 2. Variables y vectores aleatorios

43

Soluci
on.- Obtengamos primero P (X x, X 2 y),

x,

y,
P (X x, X 2 y) = P (X x, X y) =

1,

si 0 x 1 y x
si 0 y 1 y

y;

y x;

si x 1 e y 1.

Para calcular P (X x|X 2 = y) recurriremos a la expresion


P (X x|X 2 = y) =
=

P (X x, y X 2 y + y)
y0
P (y X 2 y + y)
lm

P (X x, X 2 y + y) P (X x, X 2 y)
,
y0
P (y X 2 y + y)
lm

que teniendo en cuenta el resultado anterior conduce a

xx

lmy0

y + y y

P (X x|X 2 = y) =

y + y y

lmy0
,
y + y y
En definitiva,
P (X x|X 2 = y) =

si 0 x 1 y x

si 0 y 1 y

y;

y x;

0, si 0 x 1 y x y;

1, si 0 y 1 y

y x;

Problema 2.24 En una urna hay una bola roja. Extraemos tres cartas de una baraja francesa(52 cartas repartidas en 4 palos) y a
nadimos a la urna tantas bolas verdes como ases hayamos
extrado. A continuaci
on lanzamos 2 veces una moneda cuya probabilidad de cara es p = 1/5
y a
nadimos tantas bolas rojas como cruces hayamos obtenido. Finalmente llevamos a cabo 2
extracciones con reemplazamiento de la urna. Si X es el n
umero de bolas verdes a
nadidas a la
urna e Y el n
umero de bolas rojas a
nadidas a la urna,
1. Obtener la funci
on de probabilidad de X.
2. Obtener la funci
on de probabilidad de Y .
3. Si las dos bolas extradas con reemplazamiento son rojas, cu
al es la probabilidad de no
haber obtenido ning
un as al extraer las 3 cartas de la baraja francesa?
Soluci
on.- La respuesta a los tres apartados es,
Funci
on de probabilidad de X.- Observemos que X es una variable Hipergeometrica X

44

Captulo 2. Variables y vectores aleatorios

H(3, 52, 4), 3 cartas elegidas de un total de 52 de las cuales 4 son ases. As pues,
448
P (X = 0)

523

= 0,782624

448
P (X = 1)

522

= 0,204163

448
P (X = 2)

521

= 0,013032

448
P (X = 3)

520

= 0,000181

Funci
on de probabilidad de Y .- La distribucion de Y es B(2, 4/5) y

2
P (Y = 0) =
(0,8)0 (0,2)2 = 0,04
0

2
P (Y = 1) =
(0,8)1 (0,2)1 = 0,32
1

2
P (Y = 2) =
(0,8)2 (0,2)0 = 0,64
2
Probabilidad condicionada.- Lo que nos piden es obtener P (X = 0|RR), donde RR representa que ambas extracciones son bolas rojas. Aplicando la formula de la probabilidad
condicionada,
P (RR|X = 0)P (X = 0)
P (X = 0|RR) =
.
P (RR)
Observemos que P (RR|X = 0) = 1, lo que nos permite escribir
P (RR) =

P (RR|X = 0)P (X = 0) +
X X
P (RR|X = i, Y = j)P (X = i, Y = j)
1i3 0j2

P (RR|X = 0)P (X = 0) +
X X
P (RR|X = i, Y = j)P (X = i)P (Y = j)
1i3 0j2

La primera tabla recoge la funcion de probabilidad conjunta de X e Y , que es el producto


de las marginales porque son independents.
X
Y
0
1
2

0
0,031305
0,250440
0,500880

1
0,008167
0,031305
0,031305

2
0,000521
0,031305
0,031305

3
0,000007
0,031305
0,031305

La segunda tabla recoge leas probabilidades P (RR|X = i, Y = j)

Captulo 2. Variables y vectores aleatorios

Y
0
1
2

1
(1/2)2
(2/3)2
(3/4)2

X
2
(1/3)2
(2/4)2
(3/5)2

45

3
(1/4)2
(2/5)2
(3/6)2

Combinando ambas tablas obtendremos


P (RR) = 0, 78264 + 0, 104577 + 0, 004103 + 0, 000039 = 0, 891343
y finalmente
P (X = 0|RR) =

0, 782624
= 0, 878028.
0, 891343

Problema 2.25 Sea X una variable aleatoria cuya densidad viene dada por

0,
si x < 0,

1
si 0 x 1,
fX (x) =
2,

1
2x2 , si x > 1.
Encontrar la densidad de Y = 1/X.
Soluci
on.- Si la transformacion es uno a uno, es derivable y tiene inversa, la densidad de la
nueva variable puede expresarse en terminos de la de X mediante
1
dg (y)
.
fY (y) = fX (g 1 (y))
dy
En este caso, x = g 1 (y) = 1/y y

dg 1 (y)
dy

0,

fY (y) =

1
2

= y12 , por tanto


si y < 0,

1
y2 ,

1
2(1/y)2

si 1 y < ,

1
y2 ,

si 0 < y < 1,

que adecuadamente ordenado da lugar a la misma densidad que posea X.


Problema 2.26 Se traza aleatoriamente una linea recta a traves del punto (0, l). Encontrar la
densidad de probabilidad de la abcisa en el origen, X, de dicha recta.
Soluci
on.- Trazar una recta aleatoriamente significa elegir al azar un angulo en el intervalo
[0, ] (por razones de simetra la eleccion en el intervalo [, 2] duplicara las rectas). Es decir,
la variable , que designa el angulo elegido, es U (0, ).
Elegido el angulo, el valor de la abcisa en el origen es X = l tan y la transformacion
inversa viene dada por = arctan X/l, cuya derivada respecto de X es
l
d
= 2
.
dx
l + x2

46

Captulo 2. Variables y vectores aleatorios

La densidad de X sera pues,


fX (x) =

1
l

, < x < +.
l2 + x2

Problema 2.27 Sea el n


umero de celulas por unidad de
area en una preparaci
on celular.
Puede demostrarse que la distancia, D, de una celula a su vecino m
as pr
oximo tiene por densidad de probabilidad,

2
2ded , d > 0
fD (d) =
0,
en el resto.
El
area del mayor disco libre (sin contactos) centrado en una celula es A = D2 . Encontrar la
densidad de probabilidad de A.
p
1
1/2
Soluci
on.- La transformacion inversa es D = A/ y su derivada vale dD
.
dA = 2 (A/)
La densidad de A valdra,
fA (a) = 2

a 12 1 a 12
ea = ea , a > 0,

que es la densidad de una exponencial de parametro , A Exp().


Problema 2.28 Cuando una corriente de I amperios pasa a traves de una resistencia de R
ohmios, la potencia generada viene dada por W = I 2 R vatios. Supongamos que I y R son
variables aleatorias independientes con densidades

6x(1 x), si 0 x 1;
fI (x) =

0,
fuera.
y

2y,
fR (y) =

0,

si 0 y 1;
fuera.

Hallar la densidad de W .
Soluci
on.- Definimos una variable auxiliar U = R para tener as un transformacion de R2 en
2
R ,
W = I 2R U = R
y sus inversas

r
I=

W
U

R = U.

El jacobiano de la transformacion inversa vale J = 1/2 W U y el nuevo soporte para el vector


(W, U ) es 0 W U 1. La densidad conjunta del vector (W, U ) sera,

r !
W
fW U (w, u) = 6 1
U
en el anterior recinto y 0 fuera de el.

Captulo 2. Variables y vectores aleatorios

La marginal de W , que es lo que nos piden,


Z 1

fW (w) = 6
(1 wu1/2 )du
w

n
1 o
1
= 6 uw w2 uw

= 6(1 + w 2 w).

47

48

Captulo 2. Variables y vectores aleatorios

Captulo 3

Esperanza
Problema 3.1 Una variable aleatoria toma valores enteros positivos con probabilidades decreciendo en progresi
on geometrica. Elegir el primer termino y la raz
on de la progresi
on para que
E(X) = 10, y calcular, bajo dichas condiciones, P (X 10).
Soluci
on.- Puesto que el soporte de la variable es DX = {1, 2, 3, . . .} y las probabilidades
vienen dadas por P (X = k) = a1 rk1 , con a1 el primer termino de la progresion y r la razon,
se ha de verificar
X
X
a1
P (X = k) = a1
rk1 =
= 1.
(3.1)
1r
k1

k1

Por otra, y puesto que E(X) ha de valer 10,


E(X) = a1

krk1 =

k1

a1
= 10.
(1 r)2

(3.2)

De (3.1) y (3.2) deducimos que r = 0,9 y a1 = 0,1, lo que nos permite calcular P (X 10),
P (X 10) =
=

1 P (X 11)
P
k11

P (X = k)
P

0,9k1

1 0,1

0,9
1 0,1 10,9
= 1 0,910 = 0,651

k11
10

Problema 3.2 En una fila de 15 butacas de un cine se sientan aleatoriamente 7 mujeres y


8 hombres. Por termino medio, cuantas parejas de asientos adyacentes est
an ocupadas por
personas de distinto sexo.
Soluci
on.- El n
umero total de parejas de asientos adyacentes en la fila sera de 14, y en cada
una de ellas las parejas MH o HM cumplen la condicion deseada. Consideremos uno cualquiera
de estos pares y designemos por Mi , i = 1, 2, el hecho que la mujer ocupe la butaca i-esima.
De manera analoga designaremos por Hi el correspondiente suceso para el hombre. De acuerdo

49

50

Captulo 3. Esperanza

con esta notacion,


P (pareja de distinto sexo)

=
=
=

P (H1 M2 ) + P (M1 H2 )
P (H2 |M1 )P (M1 ) + P (M2 |H1 )P (H1 )
8 7
7 8
8

=
14 15 14 15
15

Esta probabilidad es la misma para cada uno de los 14 pares de butacas adyacentes. La
variable X, n
umero de parejas de distinto sexo entre las 14, sera B(14, 8/15) y su esperanza,
que es lo que el problema nos pide, viene dada por
E(X) = 14

8
15

Para el caso general de m mujeres, h hombres y m + h butacas en la fila, X B(n, p), con
n=m+h1 y
2hm
p=
,
(m + h)(m + h 1)
siendo su esperanza,
E(X) =

2mh
m+h

Problema 3.3 Dos jugadores A y B juegan al siguiente juego: lanzan una moneda hasta que
aparece un cara, si la cara aparece en el k-esimo lanzamiento el jugador B paga al jugador B
k monedas. Cuantas monedas deber
a pagar el jugador A antes de iniciarse el juego para que
este sea equilibrado?
Soluci
on.- Por juego equilibrado entendemos aquel en el que el precio de la apuesta coincide
con lo que esperamos ganar. Habremos por tanto de calcular lo que A espera ganar.
Si definimos la variable X, n
umero de lanzamiento necesarios para obtener la primera cara,
la ganancia esperada de A coincide con E(X). La variable X tiene una distribucion geometrica
de parametro p = 1/2, por tanto
k1
k
1
1
1
P (X = k) =
=
,
2
2
2
y

X 1 k
E(X) =
k
= 2.
2
k1

Problema 3.4 Sea X el n


umero de pruebas de Bernoulli necesarias para obtener un exito y
un fracaso. Determinar la distribuci
on de probabilidad de X y calcular E(X) y var(X).
Soluci
on.- Si la probabilidad de exito en cada prueba es p y designamos por X1 el n
umero de
exitos y por X2 el n
umero de fracasos tendremos,
{X = k} = {X1 = 1, X2 = k 1} {X2 = 1, X1 = k 1}, k 2,
y siendo las pruebas independientes, la funcion de probabilidad de X vendra dada por
f (k) = P (X = k) = p(1 p)k1 + (1 p)pk1 , k 2.

Captulo 3. Esperanza

51

Para comprobar que es, efectivamente, una funcion de probabilidad basta con sumar la serie
X
1p
p
[p(1 p)k1 + (1 p)pk1 ] = p
+ (1 p)
= 1.
p
1p
k2

Para obtener E(X),


X
X
X
E(X) =
k[p(1 p)k1 + (1 p)pk1 ] =
kp(1 p)k1 +
k(1 p)pk1 ,
k2

k2

(3.3)

k2

pero a falta del primer termino, los sumandos coinciden con la expresion de la esperanza de
sendas variables geometricas con parametros p y 1 p, respectivamente. As, si Tp Ge(p),
E(Tp ) =

kp(1 p)k1 =

k1

y si T1p Ge(1 p),


E(T1p ) =

k(1 p)pk1 =

k1

1
p

1
.
1p

Sustituyendo en (3.3)

E(X) =

1
1
1
p +
(1 p) =
1.
p
1p
p(1 p)

Para obtener var(X) = E(X 2 ) [E(X)]2 recurrimos nuevamente a Tp y T1p ,


E(Tp2 ) =
As,

E(X 2 ) =

2p
1+p
2
y E(T1p
)=
.
p2
(1 p)2

2p
1+p
5p2 5p + 2

p
+

(1

p)
=
1,
2
2
p
(1 p)
(p(1 p))2

y
var(X) =
.

3p2 3p + 1
1
3
2=

2
(p(1 p))2
(p(1 p))2
p(1 p)

Problema 3.5 En dos lados distintos de un cuadrado unidad elegimos al azar e independientemente los puntos X e Y . Si por D designamos la distancia entre ellos, calcular E(D2 ) en las
dos situaciones posibles descritas en la figura.

Y
D
Y
D

52

Captulo 3. Esperanza

Soluci
on.Izquierda.- Se verifica que D2 = X 2 + Y 2 y de aqu
Z 1
Z
2
2
2
2
E(D ) = E(X ) + E(Y ) =
x dx +
0

y 2 dy =

2
.
3

Derecha.- Ahora D2 = 1 + (Y X)2 , y


E(D2 ) = E(1 + X 2 + Y 2 2XY ) = 1 + E(X 2 ) + E(Y 2 ) 2E(X)E(Y ) = 1 +

7
2 1
= .
3 2
6

Problema 3.6 Elegimos al azar dos puntos en el intervalo [0, a]. Queremos conocer,
a) Area media del rect
angulo que tiene por lados las correspondientes longitudes.
b) Area media de dicho rect
angulo si ambos puntos son mayores que a/2.
Soluci
on.a) Si por X e Y designamos los puntos, la densidad conjunta viene dada por
1
a2 , (x, y) [o, a] [0, a],
fXY (x, y) =

0,
fuera.
El area del rectangulo viene dada por A = XY y por tanto
Z

E(A) =
0

xy
a2
dxdy = .
2
a
4

b) Se trata ahora de una distribucion condicionada al suceso B ={ambos puntos son mayores
que a2 }. La densidad condicionada viene dada por
4
a2 , (x, y) [ a2 , a] [ a2 , a],
fXY |B (x, y) =

0,
fuera.
Para obtener el area media,
Z

E(A) =
a
2

a
2

xy
dxdy =
a2

3
a
4

2
.

Problema 3.7 Sean X e Y variables aleatorias independientes. Demostrar que si X y X Y


son independientes, entonces X es una variable aleatoria degenerada.
Soluci
on.- Sabemos que
E(X(X Y )) = E(X 2 ) E(XY ) = E(X 2 ) E(X)E(Y ).
Pero si son independientes,
E(X(X Y )) = E(X)E(X Y ) = [E(X)]2 E(X)E(Y ).
Igualando ambas expresiones, E(X 2 ) = [E(X)]2 y de aqu V ar(X) = 0.

Captulo 3. Esperanza

53

Problema 3.8 Sea X una variable aleatoria discreta con soporte DX = {x1 , x2 , . . . , xm }. Calcular
E(X n+1 )
lm
.
n E(X n )
Soluci
on.- El cociente de esperanzas tiene la expresion
P n+1
E(X n+1 )
x
p
P i n i,
=
E(X n )
xi pi
si designamos mediante xmax el maximo de los posibles valores que toma X, podemos escribir,
P xi n+1
pi
n+1
xmax
E(X
)

=
x

.
m
a
x
n
P xi
E(X n )
p
xmax

Al pasar al lmite,

lm
n

luego

xi

xmax

0, si xi 6= xmax
1, si xi = xmax ,

E(X n+1 )
= xmax .
n E(X n )
lm

Problema 3.9 Elegimos un n


umero aleatorio X de la siguiente forma: lanzamos repetidamente
una moneda hasta que nos muestre la primera cara, si el n
umero lanzamientos que hemos
necesitado es N , elegimos aleatoriamente un entero k en 1, 2, . . . , 10N , valor que asignamos a
X. Encontrar la distribuci
on de probabilidad de X y su valor esperado.
Soluci
on.- Consideremos los sucesos Ai = {N = i}, que al constituir una particion del espacio
muestral permiten aplicar el teorema de la probabilidad total y obtener
X
X
P (X = k|Ai ) P (Ai ) =
P (X = k|N = i) P (N = i).
(3.4)
P (X = k) =
i

La distribucion de N es una geometrica de parametro p = 12 , por lo que


P (N = i) =

i1
1
1
1

= i.
2
2
2

La obtencion de P (X = k|Ai ) requiere una mayor atencion. Conviene que partamos el


dominio de X de la siguiente forma
[
DX =
Bj , Bj = [10j1 + 1, 10j ],
j1

porque la probabilidad de {X = k} depende del Bj que lo contiene. En efecto,


P (X = k|Ai ) =

1
10i ,

k B2 = [10 + 1, 102 ]
P (X = k|Ai ) =

k Bj = [10j1 + 1, 10j ] P (X = k|Ai ) =

1
10i ,

k B1 = [1, 10]

i 1,

i 2, P (X = k|Ai ) = 0, i < 2

1
,
i

j,
P
(X = k|Ai ) = 0, i < j
i
10

54

Captulo 3. Esperanza

y de aqu obtendremos que para k Bj = [10j1 + 1, 10j ],


P (X = k) =

X 1 1
1
=
,
i
i
10 2
19 20j1

j 1.

ij

Para comprobar que la expresion anterior corresponde a la funcion de cuanta de X, si por


kBj k designamos el n
umero de puntos (enteros) que hay en Bj ,
X

P (X = k) =

X X

P (X = k)

j1 kBj

k1

X
j1

kBj k
19 20j1

10 X 10j 10j1
+
19
19 20j1
j2

X
1
10 + 9
19
j2

j1
1

1
(10 + 9) = 1.
19

Para obtener E(X) hemos de calcular primero la suma de las sucesiones aritmeticas de los
K que pertenecen a un mismo Bj . Para j = 1, S1 = 45, para 2,
Sj =

X
kBj

k=

10
X

k=

k=10j1 +1

(10j1 + 1 + 10j )(10j 10j1 )


9 10j1 (10j + 10j1 + 1)
=
.
2
2

La esperanza valdra
E(X) =

X X

kP (X = k)

j1 kBj

45 X 9 10j1 (10j + 10j1 + 1)


+
19
2 19 20j1
j2

X
1
45 + 9
19
j2

j
1
(10j + 10j1 + 1) .
2

Como el termino general de las serie es mayor que 1, la serie diverge y E(X) = +. No existe
pues la esperanza.
Problema 3.10 Un trabajador est
a encargado del correcto funcionamiento de n m
aquinas situadas en linea recta y distantes una de otra l metros. El trabajador debe repararlas cuando se
averan, cosa que sucede con igual probabilidad para todas ellas e independientemente de una a
otra. El operario puede seguir dos estrategias:

Captulo 3. Esperanza

55

1. acudir a reparar la m
aquina estropeada y permanecer en ella hasta que otra m
aquina se
avera, desplaz
andose entonces hacia ella, o
2. situarse en el punto medio de la linea de m
aquinas y desde all acudir a la averiada,
regresando nuevamente a dicho punto cuando la avera est
a resuelta.
Si X es la distancia que recorre el trabajador entre dos averas consecutivas, c
ual de ambas
estrategias le conviene m
as para andar menos?
Soluci
on.- Se trata, en cualquiera de las dos estrategias, de obtener la E(X) y elegir aquella
que la proporciona menor. Designaremos por Ei (X) la esperanza obtenida bajo la estrategia
i = 1, 2.
Estrategia 1.- Sea Ak el suceso, el operario se encuentra en la m
aquina k. Para obtener E1 (X)
recurriremos a la conocida propiedad que liga la esperanza con la esperanza condicionada:
E1 (X) = E(E(X|Ak )).
Para obtener E(X|Ak ) tengamos en cuenta que si i es la proxima maquina averiada,
P (Ai ) = 1/n, i y el camino a recorrer sera

(k i)l, si i k,
X|Ak =

(i k)l, si i > k.
As pues,
E(X|Ak ) =

k
n
X
l
1 X
( (k i)l +
(i k)l) =
[2k 2 2(n + 1)k + n(n + 1)].
n i=1
2n
i=k+1

Utilizando

n
X

k2 =

k=1

n(n + 1)(2n + 1)
,
6

obtenemos par E1 (X)


E1 (X) = E(E(X|Ak )) = 1/n

X
k

E(X|Ak ) =

l(n2 1)
3n

Estrategia 2.- Para facilitar los calculos supongamos que n es impar, lo que supone que hay
una maquina situada en el punto medio de la linea, la n+1
esima. Si la proxima maquina
2 -
averiada es la i la distancia a recorrer sera,

n+1
2( n+1
2 i)l, si i 2 ,
X=

n+1
2(i n+1
2 )l, si i > 2 ,
donde el 2 se justifica porque el operario en esta segunda estrategia regresa siempre al
punto medio de la linea de maquinas. La esperanza viene dada por,
n

E2 (X) =

l(n 1)
2 X n+1
i|l =
.
|
n i=1
2
2

56

Captulo 3. Esperanza

Como E1 (X) E2 (X) (n + 1)/3n 1/2 n 2, podemos deducir que la primera


estrategia es mejor, salvo que hubiera una sola maquina.
Problema 3.11 Dos puntos se eligen al azar sobre un segmento de longitud a. Encontrar la
esperanza y la varianza de la distancia entre ellos.
Soluci
on.- Si por X e Y designamos las distancias al origen de cada uno de los puntos, la
eleccion al azar implica que ambas variables son U (0, a) y ademas independientes. Ello supone
que la densidad conjunta viene dada por,
1
a2 , (x, y) [0, a] [0, a]
fXY (x, y) =

0,
en el resto.
La distancia entre ellos es |X Y |. Comenzaremos por calcular E(|X Y |n ).
Z aZ a
1
n
|x y|n 2 dx dy
E(|X Y | ) =
a
Z0 a Z0 x
Z aZ y
1
1
=
(x y)n 2 dy dx +
(y x)n 2 dx dy
a
a
0
0
0
0
2an
=
.
(n + 1)(n + 2)
Para n = 1 se obtiene E(|X Y |) = a/3 y para n = 2, E(|X Y |2 ) = a2 /6. La varianza se
obtendra a partir de
V ar(|X Y |) = E(|X Y |2 ) [E(|X Y |)]2 =

a2
a2
a2

=
.
6
9
18

Problema 3.12 Sea X una variable aleatoria no negativa. Demostrar que [E(X)]1/2 E(X 1/2 ).
Soluci
on.- Si hacemos Y = X 1/2 tendremos que
0 V ar(Y ) = E(Y 2 ) [E(Y )]2 = E(X) [E(X 1/2 )]2 ,
y de aqu se deduce la desigualdad.
Problema 3.13 Calcular el coeficiente de correlaci
on entre el mayor y el menor valor obtenidos al lanzar dos dados.
Soluci
on.- Designemos por X la mayor de
cuanta conjunta viene dada por
2

36

1
f (x, y) =
,

36

0,

las dos caras y por Y la menor. Su funcion de

si 1 y < x 6;
si 1 y = x 6;
en el resto.

Captulo 3. Esperanza

La marginal de X vale
fX (x) =

f (x, y) = f (x, x) +

f (x, y) =

1
2(x 1)
2x 1
+
=
, 1 x 6,
36
36
36

f (x, y) =

1
2(6 y)
13 2y
+
=
, 1 y 6,
36
36
36

y<x

yx

y fX (x) = 0 en el resto.
La marginal de Y vale
fY (y) =

f (x, y) = f (y, y) +

X
x>y

xy

y fY (y) = 0 en el resto.
Recordemos que

cov(X, Y )

XY = p

var(X)var(Y )

Hemos de obtener E(X), E(Y ), E(XY ), E(X 2 ) y E(Y 2 ).


#
" 6
6
6
X
161
x(2x 1)
1 X 2 X
E(X) =
2x
x =
=
.
36
36 x=1
36
x=1
x=1
E(Y ) =

6
X
y(13 2y)
y=1

E(XY ) =

36

#
" 6
6
X
91
1 X
2
13y
2y =
=
.
36 y=1
36
y=1

xyf (x, y) =

6
X
x2
x=1

DXY

36

De aqu,
cov(X, Y ) = E(XY ) E(X)E(Y ) =

6 X
X
441
2xy
=
.
36
36
x=1 y<x

441 161 91
1225

=
.
36
36
36
362

Para obtener las varianzas,


2

E(X ) =

6
X
x2 (2x 1)

36

x=1

E(Y ) =

6
X
y 2 (13 2y)
y=1

36

#
" 6
6
1 X 3 X 2
791
2x
x =
=
,
36 x=1
36
x=1
" 6
#
6
X
1 X
301
2
3
=
13y
2y =
.
36 y=1
36
y=1

De aqu,
var(X) = E(X 2 ) [E(X)]2 =

791 1612
2555

=
,
36
362
362

var(Y ) = E(Y 2 ) [E(Y )]2 =

301 912
2555
2 =
.
36
36
362

Finalmente,
XY =

1225/362
1225
=
= 0,4794.
2555/362
2555

57

58

Captulo 3. Esperanza

Problema 3.14 Obtener el coeficiente de correlaci


on entre las coordenadas de un punto elegido
al azar en el crculo unidad.
Soluci
on.- La densidad conjunta de (X, Y ) vale

1, si (x, y) C1 ;
f (x, y) =
0, en el resto.
Las marginales de X e Y son iguales, por simetra, y valen
2p
2
1 x2 , si |x| 1;
1 y2 ,

fY (y) =
fX (x) =
0,
en el resto.
0,
Como ambas funciones son pares, E(X) = E(Y ) = 0. Ademas,
"Z 2
Z Z
Z
1

E(XY ) =

xydxdy =
C1

1x

x
1

1x2

si |y| 1;
en el resto.

ydy dx = 0,

con lo que cov(X, Y ) = 0 y, por tanto, XY = 0. Observese, no obstante, que las variables aun
siendo incorreladas no son independientes.
Problema 3.15 Sean X e Y dos variables aleatorias. Si E(X|Y ) = 10 Y y E(Y |X) =
7 X/4, obtener su coeficiente de correlaci
on.
Soluci
on.- La obtencion del coeficiente de correlacion, XY implica conocer la covarianza entre
X e Y y las varianzas de ambas.
Comencemos con la obtencion de las esperanzas de ambas variables. Para ello tengamos en
cuenta que E(X) = E(E(X|Y )) y E(Y ) = E(E(Y |X)), y por tanto
E(X) = 10 E(Y )
E(Y ) = 7 E(X)
4 ,
sistema cuya solucion es E(X) = 4 y E(Y ) = 6. De igual forma, la E(XY ) podremos escribirla
de cualquiera de estas dos formas, E(XY ) = E(E(XY |Y )) o E(XY ) = E(E(XY |Y )); pero una
propiedad de las esperanzas condicionadas nos dice que E[E(g(X)Y |X)] = E[g(X)E(Y |X)], al
aplicarla obtendremos las igualdades
E(XY ) = E(Y E(X|Y )) = E(Y (10 Y )) = 60 E(Y 2 )
E(XY ) = E(XE(Y |X)) = E(X(7

X
4 ))

= 28

E(X 2 )
,
4

e igualando ambas,
E(Y 2 ) =

E(X 2 )
+ 32.
4

La obtencion de E(X 2 ) o E(Y 2 ) permitira conocer todos los elementos involucrados en


XY , pero dicha obtencion no parece sencilla. Observemos por contra que
var(Y ) = E(Y 2 ) [E(Y )]2 =

E(X 2 )
4

+ 32 36 =

E(X 2 )
4

var(X) = E(X 2 ) [E(X)]2 = E(X 2 ) 16 = 4var(Y )

Captulo 3. Esperanza

59

Por otra parte,

cov(X, Y ) = E(XY ) E(X)E(Y ) = 28

E(X 2 )
E(X 2 )
24 = (
4) = var(Y ).
4
4

Sustituyendo en (??) tenemos


var(Y )

XY = p

4var(Y )var(Y )

1
2

Existe una soluci


on alternativa mas corta que la anterior. En efecto, recordemos que
la esperanza condicional es la curva de regresion mnimo-cuadratica y observemos que en este caso tanto E(X|Y ) como E(Y |X) son rectas. Significa esto que ambas coinciden con su
correspondiente recta de regresion y por tanto,
E(X|Y ) = 10 Y =
E(Y |X) = 7 X/4 =

X|Y = 1
Y |X = 1/4.

El coeficiente de correlacion valdra,


XY =

X|Y Y |X = 1/2

y como X|Y < 0 y Y |X < 0, tendremos finalmente XY = 1/2.


Problema 3.16 Una m
aquina fabrica fibras de longitud aleatoria X. Para medir la desigualdad
entre las longitudes de las fibras fabricadas se utiliza el coeficiente
a00 a0
,
a

donde a = E(X), a00 = E(X | X > a) y a0 = E(X | X < a). Si X N (a, 2 ), encontrar la
relaci
on entre , a y .
Soluci
on.- Recordemos que
a00 = E(X | X > a) =
y
a0 = E(X | X < a) =

1
P (X > a)
1
P (X < a)

xf (x)dx
a

xf (x)dx.

Trat
andose de una distribucion normal con media a, P (X > a) = P (X < a) = 1/2, con lo que
la expresion de quedara
Z

Z a
2
xf (x)dx
xf (x)dx .
(3.5)
=
a
a

Hemos de calcular ahora las integrales que aparecen en la expresion.


R
R
1 xa 2
xf (x)dx = 12 a xe 2 ( ) dx
a
=

1
2

R
0

(z + a)e

+ a2 .

z2
2

dx

60

Captulo 3. Esperanza

Analogamente,

a
xf (x)dx = + .
2
2

Sustituyendo en (3.5) obtenemos la relacion buscada


r
2
a = 2
.

Problema 3.17 Las variables aleatorias X e Y tienen media 0, varianza 1 y su coeficiente


de correlaci
on es , Encontrar la media y la varianza de Z = X Y y sus coeficientes de
correlaci
on con X e Y .
Soluci
on.- Para obtener la media,
E(Z) = E(X Y ) = E(X) E(Y ) = 0.
La varianza vale
var(Z) = var(X Y ) = var(X) + 2 var(Y ) 2 cov(X, Y ) = 1 + 2 2 cov(X, Y ), (3.6)
pero

cov(X, Y )

= p

var(X)var(Y )

Sustituyendo en (3.6),

= cov(X, Y ).

var(Z) = 1 + 2 22 = 1 2 .

En cuanto al coeficiente de correlacion con X,


cov(X, Z)

(X, Z) = p

var(X)var(Z)

cov(X, X Y )
,
1 2

(3.7)

donde
cov(X, (X Y )) = E[X(X Y )] E(X)E(X Y ) = E(X 2 ) E(XY ),

(3.8)

y como E(X) = E(Y ) = 0, E(X 2 ) = var(X) = 1 y E(XY ) = cov(XY ) = , sustituyendo


primero en (3.8) y luego en (3.7) obtendremos
(X, Z) = 1.
Para obtener (Y, Z),
cov(Y, Z)

(Y, Z) = p

var(Y )var(Z)

E(Y X) E(Y 2 )

=
= 0.
1 2
1 2

Problema 3.18 Lanzamos tres veces consecutivas una moneda y definimos las variables aleatorias X ={n
umero de caras en los dos primeros lanzamientos} e Y ={n
umero de caras en
los dos u
ltimos lanzamientos}. Obtener la distribuci
on de probabilidad conjunta de X e Y , sus
marginales y el coeficiente de correlaci
on entre ambas.

Captulo 3. Esperanza

61

Soluci
on.- La funcion de probabilidad conjunta, f (x, y) = P (X = x, Y = y), se muestra en la
tabla. Para cualquier otro par de valores (x, y) distinto de los que en ella figuran, f (x, y) = 0.
X=0

X=1

X=2

fY (y)

Y=0

1
8

1
8

2
8

Y=1

1
8

2
8

1
8

4
8

Y=2

1
8

1
8

2
8

fX (x)

2
8

4
8

2
8

De la tabla se deduce

E(X) = 1

E(X 2 ) =

5
2

var(X) =

3
2

E(Y ) = 1

E(Y 2 ) =

5
2

var(Y ) =

3
2

cov(X, Y ) = 41
El coeficiente de correlacion entre ambas valdra,
cov(X, Y )

(X, Y ) = p

var(X)var(Y )

1/4
1
= .
3/2
4

on Hipergeom
etrica negaProblema 3.19 ( Un problema de pastillas. La distribuci
tiva) Una caja contiene pastillas de dos tipos: grandes y peque
nas. Cada pastilla grande equivale
a dos peque
nas. Cada da el paciente elige debe tomar una de las pastillas, que elige al azar. Si
es de las grandes la parte en dos, toma una mitad y devuelve la otra a la caja. Si la pastilla es
peque
na la toma sin m
as. A todos los efectos las mitades devueltas a la caja son consideradas
como pastillas peque
nas.
Cu
al es el n
umero esperado de pastillas peque
nas que quedar
an en la caja cuando las grandes
se hayan terminado?
Soluci
on.- El problema puede tambien enunciarse de manera alternativa recurriendo a un
esquema de urna. Supongamos una urna con a bolas blancas y b bolas negras. Extraemos al
azar una bola, si es blanca no la reemplazamos y en su lugar introducimos una bola negra en
la urna. Si es negra simplemente la dejamos fuera. Las extracciones contin
uan hasta que no
quedan bolas blancas en la urna. Se trata de encontrar la esperanza del n
umero de bolas negras
que quedan en la urna.
Designemos mediante Di la extraccion en la que por primera vez el n
umero de bolas blancas
que quedan en la urna ha descendido a i, con i = a 1, a 2, . . . , 0, valores a los que a
nadiremos
Da = 0.
Sea Ni el n
umero de bolas negras en la urna una vez realizada la extraccion Di y sea Xi
el n
umero de bolas negras extradas entre Di y Di1 . Vamos a calcular E(Ni ) puesto que la

62

Captulo 3. Esperanza

respuesta que buscamos es, precisamente, E(N0 ). Para ellos nos valdremos de la variable condicionada Xi |Ni y obtendremos primero E(Xi |Ni ). Observemos que la variable Xi |Ni representa
el n
umero de bolas negras extradas, sin reemplazamiento, antes de extraer la primera bola
blanca, cuando la urna de la que llevamos a cabo las extracciones contiene Ni bolas negras e
i bolas blancas. Se trata de una variable relacionada con la variable Hipergeometrica negativa
(HipN ) que estudiamos con alg
un detalle a continuacion.
Hipergeom
etrica Negativa.- Supongamos una urna con a bolas blancas y b bolas negras. Llevamos a cabo extracciones con reemplazamiento y nos interesamos por el n
umero
de extracciones necesario para conseguir exactamente k bolas blancas, k = 1, 2, . . . , a. La
variable aleatoria X as definida se conoce con el nombre de Hipergeometrica negativa
y es una de las variables relacionadas con tiempos de espera discretos, la otra, la Binomial negativa, surge en el mismo contexto cuando las extracciones se llevan a cabo con
reemplazamiento.
Para obtener la distribuci
on de probabilidad de X, hemos de calcular pn = P (X = n).
El espacio muestral asociado al experimento descrito admite varias representaciones,
nosotros elegiremos aquella que lo hace equiprobable. Para ello deber
a contener a todas
las posibles formas de extraer la totalidad de las bolas que la urna contiene que son,

# =

!
a+b
a

!
a+b
.
b

Cu
ales de ellas son favorables al suceso {X = n}? Se trata de aquellas que verifican:
en la n-esima extracci
on hemos sacado la k-`esima bola blanca,
en las n 1 primeras extracciones hemos sacado k 1 bolas blancas, y
en las a + b n extracciones restantes aparecer
an las a k bolas blancas que faltan.
Es decir,

!
!
n1
a+bn
casos favorables =
k1
ak

!
!
n1
a+bn
k1
ak

!
pn = P (X = n) =
.
a+b
a

(3.9)

Que (3.9) es una funci


on de probabilidad se deriva de la igualdad
b+k
X
n=k

!
!
!
n1
a+bn
a+b
=
,
k1
ak
a

(3.10)

cuya obtenci
on puede encontrar el lector interesado en el texto de S. S. Wilks (Mathematical
Statistics, John Wiley, 1963).
La obtenci
on de los momentos de X puede abordarse de manera sencilla a partir de los
llamados momentos factoriales respecto de k. Si
(X k)[r] = (X k)(X k 1) (X k r + 1),

Captulo 3. Esperanza

63

el momento factorial de orden r respecto de k es


h
i
E (X k)[r]

b+k
X

(n k)[r] P (X = n)

n=k

b+k
X

(n k)[r]

n=k

(k + r 1)[r]

!
a+b
a

!
!
n1
a+bn
k1
ak

!
a+b
a
!
!)
( b+k
X
n1
a+bn
.
k+r1
ak

(3.11)

n=k+r

Si comparamos la expresi
on entre llaves de (3.11) con (3.10) vemos que dicha suma es igual
a

!
!
!
b+k
X
n1
a+bn
a+b
=
,
k+r1
ak
a+r
n=k+r

y sustituyendo en (3.11) tenemos

!
a+b
h
i
a+r
!.
E (X k)[r] = (k + r 1)[r]
a+b
a

(3.12)

A partir de esta expresi


on para r = 1, 2 se obtienen f
acilmente la esperanza de X,
E(X) =

k(a + b + 1)
a+1

y su varianza
var(X) =

b(b 1)k(k + 1)
k(2k + 1)(a + b + 1)
k2 (a + b + 1)2
+

k(k + 1).
(a + 2)(a + 1)
(a + 1)
(a + 1)2

Como nuestra variable Xi |Ni cuenta exclusivamente las bolas negras extradas antes de
la primera bola blanca (k = 1), su relacion con una variable X HipN como la estudiada es
Xi |Ni = X 1 y por tanto
E(Xi |Ni ) = E(X) 1 =

Ni + i + 1
Ni
1=
,
i+1
i+1

y de aqu

E(Ni )
.
i+1
De acuerdo con las reglas de extraccion que hemos establecido,
E(Xi ) =

Ni = Ni+1 Xi+1 + 1
y al tomar esperanzas
E(Ni ) = E(Ni+1 ) E(Xi+1 ) + 1 =

i+1
E(Ni+1 ) + 1.
i+2

64

Captulo 3. Esperanza

Como E(Na ) = b, por induccion obtenemos

1
1
1
b
E(Ni ) = (i + 1)
+ +
+ +
.
a+1 a a1
i+1
Como dijimos, la respuesta buscada es E(N0 ), que vale
E(N0 ) =

b
1
1
+ +
+ + 1.
a+1 a a1

Problema 3.20 (Si hay cumplea


nos no se trabaja) En algunos pases socialistas y en alg
un
momento de su historia se estableci
o una ley laboral por la que en las factoras e instituciones
estatales se trabajaba todos los das de la semana. La excepci
on a esta regla era que algunos
de los trabajadores cumpliera a
nos, ese da nadie trabajaba. Suponiendo un a
no no bisiesto y
que los cumplea
nos se distribuyen equiprobablemente a lo largo del a
no, encontrar el n
umero de
trabajadores para que el n
umero esperado de hombres-da trabajados sea m
aximo.
Soluci
on.- Observemos que con 1 solo trabajador en la fabrica habra 364 hombres-da de
trabajo, con 2 lo mas probable es que no tuvieran el mismo cumplea
nos y habra 2 363 = 726
hombres-da trabajados. Cabe pues suponer que el n
umero de trabajadores n que conviene sea
superior a 2. Por otra parte, si la factora tuviera una nomina de empleados muy elevada se
correra el riesgo de no trabajar ning
un da porque todos los das habra un cumplea
nos que
celebrar. Esto nos asegura que n sera finito.
Reemplacemos 365 por N para dar mayor generalidad la resultado. La probabilidad pi de
que un da cualquiera i se trabaje sera la del suceso {ninguno empleado cumple a
nos ese da},

n
1
pi = 1
.
N
El n
umero esperado de hombres-da trabajando el da i-esimo sera

n
1
npi = n 1
.
N
El razonamiento es valido para cualquiera de los N das, por tanto el total de hombres-da
trabajados a lo largo del a
no de N das sera

n
1
(n) = nN 1
.
N
Observemos que

n+1

(n + 1)N 1 N1
n+1N 1
(n + 1)

n
=
=
,
(n)
n
N
nN 1 N1

de donde obtenemos
(1) < (2) < < (N 1) = (N ) > (N + 1) > (N + 2) > .
El maximo de (n) se alcanza para n = N 1 y para n = N y es igual a

N
1
(N 1) = (N ) = N 2 1
.
N
Puesto que el N-esimo trabajador no aporta nada, el n
umero optimo de trabajadores debe ser
n = N 1 = 364.

Captulo 3. Esperanza

65

Problema 3.21 Elegimos al azar un n


umero del 1 al 10. Hemos de adivinarlo mediante preguntas cuya respuesta sea si o no. Calcular el n
umero esperado de preguntas que debemos hacer
si,
1. la pregunta i-esima que hacemos es se trata del n
umero i?, o
umeros restantes.
2. con cada pregunta intentamos eliminar la mitad de los n
Soluci
on.- Designemos por Y el n
umero elegido. Se trata de una variable discreta uniforme
sobre {1, 2, . . . , 10} de manera que P (Y = k) = 1/10, k = 1, 2, . . . , 10. Mediante X1 y X2
denotaremos el n
umero de preguntas necesarias seg
un 1 y 2, respectivamente. Para calcular
E(X1 ) y E(X2 ) necesitamos conocer como se distribuyen las variables.
Observemos que {X1 = i} = {Y = i} con lo que X1 es tambien uniforme sobre {1, 2, . . . , 10}.
As pues
10
10
X
X
11
i
E(X1 ) =
ifX1 (i) =
=
= 5, 5.
10
2
i=1
i=1
Por lo que respecta a X2 , puede tomar los valores 3 y 4 tal como se deduce del esquema que
sigue.
1 mitad

NO
SI

NO
SI

es 4?

NO
SI

NO
SI

4
3
es 1?

NO
SI

1 pregunta

2 pregunta

3 pregunta

4 pregunta

Como el esquema sera simetrico para el caso en que el n


umero elegido estuviera en la segunda
mitad, deducimos que X2 toma el valor 3 en 6 de las 10 posibles ocasiones, y el valor 4 en las
4 restantes (observese que esto es independiente de como se vayan fraccionando las sucesivas
mitades). En definitiva,
E(X2 ) = 3

6
4
17
+4
=
= 3, 4.
10
10
5

El segundo metodo es mas conveniente porque reduce claramente el n


umero esperado de
preguntas necesarias para adivinar el n
umero elegido.
odicos compra cada ejemplar a 10 centimos y los vende
Problema 3.22 Un vendedor de peri
a 15 centimos. Como no puede devolver los ejemplares no vendidos, trata de saber cuantos le
conviene comprar para maximizar lo que espera ganar cada da. Si las demandas diarias siguen
una distribuci
on B(10, 1/3), cu
antos ejemplares debe comprar?
Soluci
on.- Supongamos que el n
umero de ejemplares que ha comprado es k, cuyo coste es
10k centimos. Para lo que espera ganar con la venta de esos periodicos debemos definir una
variable aleatoria adecuada. Por cada i ejemplares vendidos obtiene 15i centimos, la variable

66

Captulo 3. Esperanza

Xk que describe el valor de la venta tomara los valores {0, 15, 15 2, . . . , 15(k 1), 15k} con
probabilidades P (Xk = 15i) = pi , i = 0, 1, . . . , k, donde pi = P (demanda de i periodicos)
excepto para i = k, que pk = P (demanda de k o mas periodicos) porque, como solo dispone de
k periodicos, nunca podra vender mas aunque la demanda sea superior.
As pues, lo que espera obtener por la venta sera
E(Xk ) = 0p0 + 15p1 + + 15(k 1)pk1 + 15kpk ,
y como pk = 1 (p0 + p1 + + pk1 ) al sustituir
E(Xk ) = 15k 15kp0 15(k 1)p1 15pk1 .
Para obtener lo que espera ganar habra que restarle lo que pago,
E(G) = 5k 15kp0 15(k 1)p1 15pk1 = g(k).
Como la funcion tiene un dominio discreto su maximo no podemos encontrarlo derivando.
Estudiaremos la relacion entre g(k) y g(k + 1), se trata de encontrar el mayor valor de k que
verifica g(k) < g(k + 1),
5k 15kp0 15(k 1)p1 15pk1 < 5(k + 1) 15(k + 1)p0 15kp1 30pk1 15pk ,
de donde deducimos,
15p0 + 15p1 + + 15pk < 5

P (Xk k) <

1
.
3

Observese que el desarrollo anterior es independiente de la distribucion de Xk . Solo para


obtener el valor de k hemos de hacer intervenir dicha distribucion, que en nuestro caso es
Xk B(10, 1/3). Para k = 2 se cumple la condicion, lo que supone que el maximo se alcanza
en k = 3, que sera el n
umero de periodicos que debera comprar.
Problema 3.23 Un vendedor de peri
odicos compra cada ejemplar a C centimos de euro y
lo vende a V centimos de euro (C < V ). Puede devolver los ejemplares no vendidos pero s
olo
obtiene R centimos de euro por ejemplar (R < C). Se trata de saber cuantos le conviene comprar
para maximizar lo que espera ganar cada da. Si la demanda diaria X sigue una distribuci
on
discreta con P (X = k) = pk , k = 0, 1, 2, . . . , n, cu
antos ejemplares debe comprar? Aplicar el
resultado para el caso en que V = 100, C = 50, R = 20 y la funci
on de probabilidad viene dada
por
k
0
1
2
3
4
5
6

P(X=k)
0.05
0.08
0.10
0.15
0.15
0.10
0.08

k
7
8
9
10
11
12
13

P(X=k)
0.08
0.05
0.04
0.03
0.03
0.03
0.03

Soluci
on.- El problema es una generalizacion del anterior. Si ha comprado k ejemplares y
designamos por Gk la ganancia que espera obtener
E(Gk )

= kRp0 + ((k 1)R + V )p1 + ((k 2)R + 2V )p2 +


+(R + (k 1)V )pk1 + kV (pk + pk+1 + + pn ) kC.

Captulo 3. Esperanza

67

Para obtener el maximo de E(Gk ) compararemos su valor con el de E(Gk+1 ),


E(Gk+1 )

(k + 1)Rp0 + (kR + V )p1 + ((k 1)R + 2V )p2 +


+(R + kV )pk + (k + 1)V (pk+1 + pk+2 + + pn ) (k + 1)C.

Para que E(Gk+1 ) E(Gk ) 0


Rp0 + Rp2 + + Rpk + V (pk+1 + pk+2 + + pn ) C 0,
que en terminos de la funcion de distribucion de X se expresa
RFX (k) + V (1 FX (k)) C 0.
Operando,
E(Gk+1 ) E(Gk ) 0

FX (k)

V C
.
V R

Es decir, debera comprar un n


umero de periodicos k , siendo
k el primer entero tal que

FX (k ) >

V C
.
V R

Para los datos concretos de la aplicacion,


V C
100 50
=
= 0, 625
V R
100 20
y como FX (4) < 0, 625 y FX (5) = 0, 63, concluimos que k = 5.
Problema 3.24 Si X es una variable aleatoria continua con media 0 y varianza 2 y funci
on
de distribuci
on F , comprobar que se verifica
F (x)

x2
,
x2 + 2

si x > 0

F (x)

2
,
x2 + 2

si x < 0.

Soluci
on.- Si x > 0, tomemos un c cualquiera, entonces
Z +
(x + c)2 (1 F (x))
(y + c)2 dF (y)
x
Z +

(y + c)2 dF (y)
=
Tenemos pues
1 F (x)

+ c2 .

2 + c2
, c,
(x + c)2

que sera cierto, en particular, para el mnimo del segundo miembro que se alcanza en c = 2 /x.
Sustituyendo,
2
x2
1 F (x) 2

F
(x)

.
x + 2
x2 + 2
Para x < 0,
Z x
Z +
(x + c)2 F (x)
(y + c)2 dF (y)
(y + c)2 dF (y) = 2 + c2 .

El resto se obtiene de forma similar.

68

Captulo 3. Esperanza

Problema 3.25 Un juego consiste en lanzar un dado repetidas veces. El juego se detiene bien
porque parece un 1, bien porque decidimos detenerlo en cualquier lanzamiento antes de que haya
aparecido el1. El premio que recibimos es el n
umero de puntos que muestra la cara del dado en
el ultimo lanzamiento. Cu
al es la estrategia m
as conveniente para obtener el mayor premio?
Soluci
on.- Para buscar la estrategia mas conveniente supondremos que
a) la decision de detener el juego depende tan solo de la cara C = r que nos muestra el
u
ltimo lanzamiento, y
b) si la estrategia es buena para r lo es tambien para cualquier otra cara C > r.
Si nuestra estrategia consiste en parar de jugar la primera vez que el dado nos muestre una
cara r o mayor, el premio que esperamos obtener, S(r), depende logicamente de r. As
S(6) = 6 P (6 sale antes que 1) + 1 P (1 sale antes que 6).
Para calcular P6,1 = P (6 sale antes que 1),
P61 =

X 1 4 n1
1

= .
6
6
2

n1

La otra probabilidad, P1,6 = P (1 sale antes que 6), es complementaria. En definitiva, S(6) =
7/2.
Para calcular S(5) necesitamos calcular la probabilidad de que el dado nos muestre una cara
mayor o igual a 5 antes que la cara 1. Si, por ejemplo, detenemos el juego por aparicion de un
5 en el n-esimo lanzamiento, es porque en los n 1 precedentes no ha salido ni un 1 ni un 6.
Hemos de calcular P5,16 y P6,15 .
X 1 3 n1
1
P5,16 = P6,15 =

= .
6
6
3
n1

Como antes, P1,56 = P (1 sale antes que 5 o 6), es complementaria de las dos anteriores y vale
1/3. Tendremos pues
S(5) = 5 P5,16 + 6 P6,15 + 1 P1,56 = 4.
Un razonamiento similar nos conduce a S(4) = 4, S(3) = 19/5 y S(2) = 7/2.
La estrategia a seguir es detener el juego si nos sale un 4, un 5 o un 6.
Problema 3.26 Sea X una variable aleatoria no negativa con funci
on de densidad f . Demostrar que
Z
rxr1 P (X > x)dx.
E(X r ) =
0

Soluci
on.- Utilizando el teorema de Fubini
Z

Z
Z
rxr1 P (X > x)dx =
rxr1
f (y)dy dx
0
0
Z yx

Z
=
f (y)
rxr1 dx dy
0
Z0
r
=
y f (y)dy = E(X r ).
0

Captulo 3. Esperanza

69

Problema 3.27 Sea X una variable aleatoria continua con media y funci
on de distribuci
on
F . Demostrar que
Z
Z
F (x)dx =
(1 F (x))dx.

Soluci
on.- Es siempre posible escribir X = X + X con X + = max{X, 0} y X =
min{X, 0}. Entonces,
Z
Z

P (X > x)dx
0

(1 F (x))dx

= E(X) = E(X + ) E(X ) =

F (x)dx =
0

P (X < x)dx
0

(1 F (x))dx
0

F (x)dx.

Por otra parte, es trivialmente cierta la igualdad


Z
=

F (x)dx +
0

(1 F (x))dx.
0

Igualando ambas expresiones de se obtiene el resultado.


Problema 3.28 Una caja contiene a bolas blancas y b bolas negras, con a > 0 y b > 0. Se
extrae una bola al azar y si es negra el proceso termina. Si la bola es blanca se reintegra a la
caja junto con otra bola blanca y el proceso continua. Calcular la probabilidad de que el proceso
termine en la k-esima extracci
on. Calcular la probabilidad de que el n
umero de extracciones sea
finito. Obtener el n
umero esperado de extracciones.
Soluci
on.- Recordemos que si una variable aleatoria X tiene por soporte los naturales, 1, 2, . . .
con probabilidades P (X = k) = pk y su esperanza es finita, se verifican las dos propiedades
siguientes:
P
1. E(X) = k0 P (X > k), y
2. como consecuencia de la desigualdad
X

0 kP (X > k) = k

pi

ik+1

ipi ,

ik+1

cierta k, tenemos que


lm kP (X > k) = 0.

(3.13)

Sea la variable X el n
umero de extracciones. Sabemos que P (X > 0) = 1. Por otra parte
{X > 1} = {la primera bola es blanca} y por tanto
P (X > 1) =

a
.
a+b

Ademas,
P (X > i|X > i 1) =

a+i1
.
a+b+i1

70

Captulo 3. Esperanza

Podemos ahora calcular facilmente P (X > k) aplicando el teorema de la multiplicacion,


P (X > k)

= P (X > k|X > k 1)P (X > k 1|X > k 2) P (X > 1)


=

a+k1
a+k2
a

a+b+k1 a+b+k2
a+b

(a + b 1)!(a + k 1)!
.
(a 1)!(a + b + k 1)!

De la expresion anterior se deduce que P (X > k) 0 cuando k , lo que nos permite


afirmar que el n
umero de extracciones es finito con probabilidad 1.
La probabilidad de que el n
umero de extracciones sea k se obtiene mediante
P (X = k) = P (X > k 1) P (X > k) =

a
a+1
a+k2
b

.
a+b a+b+1
a+b+k2 a+b+k1

Para calcular E(X) distingamos dos situaciones


b=1
entonces,
kP (X > k) = k

a!(a + k 1)!
ak k
=
a,
(a 1)!(a + k)!
a+k

y al no cumplirse (3.13) E(X) = .


b2
para obtener E(X) podemos utilizar la expresion E(X) =
que P (X > 0) = 1,
E(X) =

1+
1+

k0

P (X > k), recordando

X (a + b 1)!(a + k 1)!
k1

(a 1)!(a + b + k 1)!

(a + b 1)! X (a + k 1)!
.
(a 1)!
(a + b + k 1)!

(3.14)

k1

Observemos que

(a + k 1)!
1
(a + k 1)!
(a + k)!
=

,
(a + b + k 1)!
b 1 (a + b + k 2)! (a + b + k 1)!
y sustituyendo en (3.14) tendremos

(a + k)!
(a + b 1)! X
(a + k 1)!

.
E(X) = 1 +
(a 1)!(b 1)
(a + b + k 2)! (a + b + k 1)!
k1

Pero en la suma los terminos se van anulando sucesivamente, obteniendo como expresion
final para EX(X),
E(X) = 1 +

a!
a+b1
(a + b 1)!

=
.
(a 1)!(b 1) (a + b + 1)!
b1

Captulo 3. Esperanza

71

Estos resultado llaman la atencion, porque si la caja contiene una u


nica bola negra (b = 1) la
esperanza es infinita, es decir, esperamos llevar a cabo un n
umero infinito de extracciones. Por
contra, por muchas bolas blancas que contuviera, por ejemplo a = 106 , si las negras fueran solo
2, el n
umero esperado de extracciones sera finito. Observemos ademas, que en cualquiera de los
dos casos, con probabilidad 1, el proceso se detiene al cabo de un n
umero finito de extracciones.
Problema 3.29 Las variables aleatorias X1 , X2 , . . . , Xm+n , n > m, son independientes e
identicamentePdistribuidas con
varianza com
un, 2 , finita. Calcular el coeficiente de correlaPm+n
n
ci
on de U = i=1 Xi y V = j=m+1 Xj .
Soluci
on.- Recordemos que U V = cov(U, V )/[var(U )var(V )]1/2 . Para obtener cov(U, V ) haremos uso de la siguiente propiedad, de facil comprobacion,

n
m
n X
m
X
X
X
cov
Xi ,
Yj =
cov(Xi , Yj ).
i=1

j=1

i=1 j=1

Al aplicarlo a U y V ,

cov(U, V ) =

cov

n
X

Xi ,

i=1

n
m+n
X
X

m+n
X

Xj

j=m+1

cov(Xi , Xj )

i=1 j=m+1

nm
X

cov(Xi , Xi ) = (n m) 2 ,

i=1

porque como n > m, habra n m sumandos comunes a U y V , que dan lugar a covarianzas
cuyo valor es la varianza com
un, mientras que los otros sumandos son nulos porque se trata de
covarianzas de variables independientes.
Por otro lado,
var(U ) =

n
X

var(Xi ) = n 2 ,

i=1

var(V ) =

m+n
X

var(Xj ) = n 2 ,

j=m+1

y finalmente
U V =

(n m) 2
nm

.
=
2
4
n
n


Problema 3.30 Una urna contiene 2n bolas numeradas de 0 a n, de forma que hay ni bolas
con el n
umero i. Si extraemos m sin reemplazamiento y por S denotamos la suma de sus
n
umeros, calcular E(S) y var(S).
Soluci
on.- Definimos Xk valor de la k-esima bola extrada. La distribucion de Xk viene dada
por

n
j
P (Xk = j) = n , j = 0, 1, . . . , n,
2

72

Captulo 3. Esperanza

puesto que, como ya sabemos, la probabilidad es independiente del orden de extraccion y solo
depende de la composicion inicial de la urna.
Las
Pmvariables Xk , k = 1, 2, . . . , m no son independientes y permiten definir S mediante
S = k=1 Xk . As pues,

E(S) =

m
X

E(Xk ),

var(S) =

k=1

m
X

m
X

var(Xk ) + 2

k=1

cov(Xl , Xk ).

1l<km

Hemos por tanto de calcular los momentos ligados a las variables Xk .



n

n
n
X
1 X
n1
n2n1
n
j
E(Xk ) =
j n = n
n
=
= .
n
2
2
j

1
2
2
j=0
j=1
Para calcular la varianza utilizaremos el momento factorial

n

n
n
X
1 X
n2
n(n 1)2n2
n(n 1)
j
E(Xk (Xk 1)) =
j(j 1) n = n
n(n 1)
=
=
.
n
2
2
j

2
2
22
j=0
j=2
De aqu,
E(Xk2 ) = E(XK (XK 1)) + E(Xk ) =

n(n 1) n
+ ,
22
2

y var(Xk ) valdra
2

var(Xk ) = E(Xk2 ) (E(Xk )) =

n(n 1) n n 2
n
+
= 2.
22
2
2
2

Para calcular cov(Xl , Xk ) necesitamos E(Xl Xk ),

E(Xl Xk ) =

n X
n
X

rsP (Xk = r, Xl = s)

s=0 r=0

n X
n
X
s=0 r=0
r6=s

rsP (Xk = r|Xl = s)P (Xl = s) +

n
X

r2 P (Xk = r|Xl = r)P (Xl = r)

s=r=0





n
n
n
n

1
n X
n
n
X
X
r
s
r
r
=
rs n
n +
r2 n
n .
2

1
2
2

1
2
s=0 r=0
s=r=0
r6=s

(3.15)

Captulo 3. Esperanza

Desarrollemos el primer sumando




n
n
n X
n
X
r
s
rs n
n
=
2

1
2
s=0 r=0


n
X
n
n
X

1
n
r
s
r n

n
2 1 s=0 s
2
r=0

r6=s

r6=s



n
n

n
n
X
1 X n
r
s

r
s

s
2n 1 s=0 s r=0 2n
2n

1 X n
n
s s
s

n
n
2 1 s=0 s
2
2


n
2
n
n
n
X
X
n2
1
n
s
2
s

s
2(2n 1) s=0 2n
2n (2n 1) s=0
s

n2 2n
A.
22 (2n 1)

El desarrollo del segundo sumando conduce a





n
n
n
2
1
n
n
n
X
X
X
1
n
1
r
r
r
r2 n
n
=
r2
n
r2 n
n (2n 1)
2

1
2
2
2

1
2
r
s=r=0
r=0
r=0
=

2n

1
n(n + 1)
E(X12 ) = A 2 n
.
1
2 (2 1)

Sustituyendo en (3.15)
E(Xl Xk )

n(n + 1)
n2 2n
A+A 2 n
2
n
2 (2 1)
2 (2 1)

n2 22 n(n + 1)
.
22 (2n 1)

Podemos ahora calcular cov(Xl , Xk )


cov(Xl , Xk ) =

n2 22 n(n + 1) n2
n
2 = 2 n
.
22 (2n 1)
2
2 (2 1)

La varianza buscada valdra


var(S) =

m
X

var(Xk ) + 2

k=1

m
X

cov(Xl , Xk )

1l<km

m(m 1)
n
n
2
2 n
22
2
2 (2 1)

mn(2n m)
.
2n+2 22

73

74

Captulo 3. Esperanza

Problema 3.31 (Un camino aleatorio en la recta) Un punto se desplaza sobre el eje x a
derecha o izquierda de unidad en unidad. La probabilidad de que se desplace a la derecha es p
y 1 p de que lo haga a la izquierda. Si la variable X representa la posici
on del punto despues
de n desplazamientos, partiendo de 0, obtener su distribuci
on de probabilidad y calcular E(X)
y var(X).
Soluci
on.- Consideremos la variable Y ={n
umero de desplazamientos a la derecha}. Conocida
Y , el valor de X sera X = 2Y n y por tanto,
P (X = 2k n) = P (Y = k),

k = 0, 1, . . . , n.

La distribucion de Y B(n, p) y por tanto


E(X) = 2E(Y ) n = n(2p 1),
lo que significa que si p = 1/2 esperamos que el punto permanezca en el origen, mientras que
su posicion esperada estara en el semieje positivo o negativo seg
un que p > 1/2 o p < 1/2,
respectivamente. En cuanto a var(X),
var(X) = 4var(Y ) = 4np(1 p).

Problema 3.32 (Un camino aleatorio en el plano) El punto se desplaza ahora sobre el
plano con movimientos independientes de manera que en cada movimiento la distancia que
recorre es siempre la misma, por ejemplo una unidad, pero la direcci
on es aleatoria determinada
por un
angulo cuya orientaci
on respecto la posici
on del punto se elige al azar en el intervalo
[0, 2]. Si D es la distancia del punto a su posici
on original despues de n movimientos, calcular
E(D2 ).
Soluci
on.- El desplazamiento del punto en el movimiento i-esimo tiene por coordenadas (Xi , Yi ),
i = 1, 2, . . . , n, que atendiendo al angulo i que marca la direccion del mismo valen
Xi = cos i ,

Yi = sin i .

Como los movimientos son independientes, las i tambien lo son.

Despues del n-esimo movimiento la posici


tendra por coordenadas
Ponn delPpunto
n
( i=1 Xi , i=1 Yi ) y D2 valdra

2
1

=
=

n
X

Xi

i=1
n
X

i=1

!2

n+

n
X

!2
Yi

i=1

XX
Xi2 + Yi2 +

XX
i6=j

i6=j

(Xi Xj + Yi Yj )

(cos i cos j + sin i sin j )

Si tomamos ahora esperanzas en esta expresion y tenemos en cuenta la independencia entre


i y j
XX
E(D2 ) = n +
[E(cos i )E(cos j ) + E(sin i )E(sin j )] ,
i6=j

Captulo 3. Esperanza

75

pero,
E(cos i ) = 0
por lo que

E(sin i ) = 0,

E(D2 ) = n.

Problema 3.33 (N
umero esperado de coincidencias) Recordemos que el llamado problema de las coincidencias consiste, en una de sus m
ultiples versiones, en n individuos que al abandonar una fiesta recogen sus sombreros al azar. Si por X denotamos el n
umero de individuos
que han cogido su propio sombrero (coincidencias), calcular E(X) y var(X).
Soluci
on.- Para este, como para otro tipo de problemas que veremos a continuacion, es u
til
recurrir variables Bernoulli asociadas a cada uno de los sucesos en los que podemos descomponer
el suceso de nuestro interes.
El n
umero de coincidencias, X, puede escribirse
X = X1 + X2 + . . . + Xn ,
donde Xi esta asociada al i-esimo individuo de manera que

1, si i ha cogido su sombrero;
Xi =
0, en caso contrario.
Tenemos que Xi B(1, pi ) con pi = 1/n, i, puesto que cada individuo tiene una probabilidad
1/n de coger cualquier sombrero. En definitiva,
E(X) =

n
= 1.
n

Para calcular var(X)


var(X) =

n
X

var(Xi ) + 2

i=1

cov(Xi , Xj ).

1i<jn

Como Xi B(1, 1/n), var(Xi ) = (n 1)/n2 , y


cov(Xi , Xj ) = E(Xi Xj ) E(Xi )E(Xj ),
pero
E(Xi Xj ) = P (Xi = 1, Xj = 1) = P (Xi = 1|Xj = 1)P (Xj = 1) =
Sustituyendo,
cov(Xi , Xj ) =
y, finalmente,

1
.
n(n 1)

1
1
1

= 2
n(n 1) n2
n (n 1)


n(n 1)
n
1
var(X) =
+2
= 1.
n2
2 n2 (n 1)

Problema 3.34 (N
umero esperado de parejas restantes) Se trata de un problema propuesto y resuelto por Daniel Bernoulli en el siglo XVIII. Se propona averiguar el n
umero
esperado de parejas que permanecen completas, de un total de N parejas iniciales, despues de
la muerte de m sus miembros.

76

Captulo 3. Esperanza

Soluci
on.- Supondremos que el total de 2N individuos (N parejas) tiene igual probabilidad
de morir. Para i = 1, 2, . . . , N definimos

1, si la pareja i permanece completa;


Xi =
0, en caso contrario.
Observemos que i,
E(Xi )

= P (Xi = 1)

2N 2
m

2N
m

(2N m)(2N m 1)
2N (2N 1)

La esperanza buscada vale


E(X) =

N
X

E(Xi ) =

i=1

(2N m)(2N m 1)
.
2(2N 1)

Problema 3.35 Sea X una variable aleatoria discreta con soporte DX = {x1 , x2 , . . . , xm }.
Calcular
p
lm n E(X n ).
n

Soluci
on.- Si designamos mediante xmax el maximo de los posibles valores que toma X y por
pi = P (X = xi ), podemos escribir,
sP
p
m
n
n
E(X n )
i=1 xi pi
= n
n
xmax
xmax
v
u
X xj n
u
n p
= t
pj .
m
ax +
xmax
xj 6=xmax

Al pasar al lmite, como (xj /xmax ) < 1, xj =


6 xmax ,

n
xj
0.
xmax
Quedar
a finalmente

p
n
lm

E(X n )

= lm n pmax = 1,
n
xmax

luego
lm

p
n
E(X n ) = xmax .

Captulo 3. Esperanza

77

Problema 3.36 Se repite indefinida e independientemente un experimento cuyo resultado es


E (exito), con probabilidad p, o F (fracaso), con probabilidad q = 1 p. Denotamos por n
el resultado de la n-esima repetici
on. Sea T la variable que designa el n
umero mnimo de
repeticiones necesarias para alcanzar r exitos consecutivos. Demostrar que P (T = ) = 0 y
calcular E(T ).
Soluci
on.- Sea pn = P (T = n), 0 n +, y qn = P (T > n). Observemos que
{T = n + r + 1} = {T > n; n+1 = F ; n+1 = E; . . . ; n+r+1 = E}
y como las repeticiones son independientes,
pn+r+1 = P (T = n + r + 1) = P (T > n)P (n+1 = F )

r+1
Y

P (n+i = E) = qn qpr .

i=2

Por otra parte se verifica que


X

pn + p = 1

nr

pn < +,

nr

y el termino general de la sucesion tiende a 0. En particular


lm pn+r+1 = qpr lm qn = 0.

En consecuencia,
p = lm qn = 0.
n
P
Para calcular E(T ) utilizaremos la relacion E(T ) = nr P (T > n). Podemos escribir
qpr E(T ) =

qpr P (T > n) =

nr

pn+r+1 = 1 pr

n0

y como pr = pr sustituyendo y despejando


E(T ) =

1 pr
.
qpr

Problema 3.37 Si g(x) es una funci


on creciente no negativa de x, probar que
P (X a)

E(g(X))
.
g(a)

Soluci
on.- Si g(x) es creciente y no negativa tendremos que
{X a} = {g(X) g(a)}
y por la desigualdad de Markov
P (X a) = P (g(X) g(a))

E(g(X))
.
g(a)

78

Captulo 3. Esperanza

Problema 3.38 Se realizan n pruebas independientes de P


un experimento que tiene k resultados
posibles A1 , A2 , . . . , Ak con probabilidades p1 , p2 , . . . , pk ,
pi = 1. Sea Y la variable n
umero
de resultados que no han aparecido en ninguna de las n pruebas.
1. Que distribuci
on tiene cada una de las variables Xj que indica el n
umero de veces que
ha sucedido Aj ? (Puedes usar el resultado visto en el tema anterior sin demostrarlo)
2. Cu
al es el valor esperado de Y ?
3. Comprobar que los valores de p1 , . . . , pk que hacen mnima E(Y ) son p1 = p2 = =
pk = 1/k.
Soluci
on.- Se trata de un experimento multinomial y como es sabido la distribucion marginal
de cada variable es una Binomial, Xi B(n, pi ).
Pk
Para calcular E(Y ) podemos definir Y = i=1 Yi , donde

1, si no ocurre Ai en las n pruebas;


Yi =

0, si ha ocurrido Ai en alguna prueba.


Tendremos que P (Yi = 1) = (1 pi )n y
E(Y ) =

k
X

E(Yi ) =

i=1

k
X
(1 pi )n .

(3.16)

i=1

Para determinar los valores de p1 , p2 , . . . , pk que minimizan (3.16) escribamosla de la forma


E(Y ) = (1 p1 )n + (1 p2 )n + + (1 pk1 )n + (p1 + p2 + + pk1 )n .
Derivando parcialmente,
E(Y )
= n(1 pi )n1 + n(p1 + p2 + + pk1 )n1
pi
y
E(Y )
= 0
pi

(1 pi )n1 = (1 pk )n1

P
y como
pi = 1, pi = 1/k, i.
Para comprobar que se trata de un mnimo

2
2

pi = pk , i,

hemos de estudiar la matriz hessiana, que vale

con = n(n 1)(1 1/k)n2 . Se comprueba que la matriz es definida positiva y se trata,
efectivamente, de un mnimo.
Problema 3.39 Sean X e Y dos variables aleatorias identicamente distribuidas, obtener cov(X+
Y, X Y ).

Captulo 3. Esperanza

79

Soluci
on.- Desarrollemos cov(X + Y, X Y ),
cov(X + Y, X Y ) = cov(X, X) cov(X, Y ) + cov(Y, X) cov(Y, Y ) = var(X) var(Y ) = 0.

Problema 3.40 Sean X1 , X2 , . . . una familia de variables aleatorias independientes con la misma media y la misma varianza 2 , y sea Yn = Xn + Xn+1 + Xn+2 . Hallar, para j 0,
cov(Yn , Yn+j )
Soluci
on.- Tendremos
cov((Yn , Yn+j ) =
=
=
=

cov(Xn + Xn+1 + Xn+2 , Xn+j + Xn+j+1 + Xn+j+2


cov(Xn , Xn+j ) + cov(Xn , Xn+j+1 ) + cov(Xn , Xn+j+2 )
cov(Xn+1 , Xn+j ) + cov(Xn+1 , Xn+j+1 ) + cov(Xn+1 , Xn+j+2 )
cov(Xn+2 , Xn+j ) + cov(Xn+2 , Xn+j+1 ) + cov(Xn+2 , Xn+j+2 )

y de aqu,

var(Xn ) + var(Xn+1 ) + var(Xn+2 ) = 3 2 ,

var(Xn+1 ) + var(Xn+2 ) = 2 2 ,
cov((Yn , Yn+j ) =
var(Xn+2 ) = 2 ,

0,

si
si
si
si

j
j
j
j

= 0;
= 1;
= 2;
3.

Problema 3.41 Sea X1 , X2 , . . . una sucesi


on de variables aleatorias continuas independientes
e identicamente distribuidas. Sea N 2 el punto en que la sucesi
on deja de ser decreciente, es
decir, X1 X2 . . . XN 1 < XN . Demostrar que E(N ) = e.
Sugerencia.- Obtener primero P (N n)
Soluci
on.P Dada la naturaleza de N , podemos calcular su esperanza mediante la expresion
E(N ) = n0 P (N n), pero
P (N n) = P (X1 X2 . . . XN 1 ) =
y de aqu
E(N ) =

X
n1

1
,
(n 1)!

1
= e.
(n 1)!

Problema 3.42 Sean X e Y el n


umero de exitos y fracasos, respectivamente, cuando llevamos
a cabo n pruebas Bernoulli con probabilidad de exito p. Calcular el coeficiente de correlaci
on
entre ambas, XY .
Soluci
on.- Observemos que X B(n, p) e Y B(n, 1 p). Como XY = XY /(X Y ),

80

Captulo 3. Esperanza

necesitamos calcular XY = E(XY ) E(X)E(Y ).


E(XY )

n
X

k(n k)P (X = k, Y = n k)

k=0

n
X

k(n k)


n k
p (1 p)nk
k

k(n k)

n!
pk (1 p)nk
k!(n k)!

k=0

n
X
k=0

n1
X

n(n 1)p(1 p)

k=1

(n 2)!
pk1 (1 p)n2(k1)
(k 1)!(n 2 (k 1))!

n2 j
= n(n 1)p(1 p)
)
p (1 p)n2j
j
j=0
n2
X

= n(n 1)p(1 p).


Sustituyendo,
XY = n(n 1)p(1 p) npn(1 p) = np(1 p)(n 1 n) = np(1 p),
y de aqu,
np(1 p)
p
= 1.
np(1 p) n(1 p)p

XY = p

No era necesario efectuar el desarrollo anterior para saber que XY = 1. En efecto, la


relacion que liga a ambas variables es lineal, X + Y = n, y por un corolario de la desigualdad
de Cauchy-Schwarz su coeficiente de correlacion debe valer 1. El signo negativo lo determina la
relacion negativa (decreciente) que hay entre ellas, como indica el valor negativo de la pendiente
de la recta.
Problema 3.43 El n
umero de clientes en la cola de la caja de un supermercado sigue una
distribuci
on de Poisson con par
ametro . El tiempo que tarda cada cliente en ser atendido
sigue una Exponencial de par
ametro . Calcular el tiempo medio que debemos esperar en la
cola.
Soluci
on.- Designemos por N , X y T el n
umero de clientes que nos preceden
Pn en la cola, el
tiempo que cada uno de ellos espera y el tiempo que debemos. Si N = n, T = i=1 Xi , con las
Xi i.i.d. como X. De acuerdo conesto,
E(T |N = n) =

n
X

E(Xi ) =

i=1

y de aqu

E(T ) = E[E(T |N )] = E

= 1.

Captulo 3. Esperanza

81

Problema 3.44 El n
umero de pasajeros que espera el tren en cierta estaci
on en un instante t
es una variable aleatoria Poisson de par
ametro t. Si el tiempo de llegada del tren se distribuye
uniformemente en el intervalo [0, T ], cu
al es el n
umero medio de pasajeros que subir
a al tren?
Obtener tambien su varianza.
Soluci
on.- El ejercicio es analogo al anterior y lo resolveremos de forma semejante. Si N es el
n
umero de pasajeros que suben al tren y X designa el tiempo de llegada del tren, para X = t
el n
umero de pasajeros en ese instante se distribuye N |X = t P o(t). As pues
E(N |X = t) = t.
Es decir, E(N |X) = X y por tanto
Z

E(N ) = E[E(N |X)] =


0

T
1
x dx =
.
T
2

En cuanto a la varianza, var(N ) = E[var(N |X)] + var[E(N |X)].


var(N |X) = X

E[var(N |X)] =

T
2

y
var[E(N |X)] = var(X) = 2 var(X) = 2

T2
.
12

Sustituyendo
var(N ) = E[var(N |X)] + var[E(N |X)] = T + 2

T2
.
12

Problema 3.45 Un minero atrapado en una mina tiene tres posibles caminos para tratar de
escapar de la mina. El primero le conduce al exterior despues de 3 horas. El segundo le conduce
de nuevo al interior de la mina despues de un recorrido de 5 horas. El tercero le conduce tambien
al interior de la mina, pero despues de 7 horas de recorrido. Si el minero echa a suertes (igual
probabilidad) el camino por el que tratar de escapar, cu
al ser
a el tiempo de medio que tardar
a en
conseguirlo?
Soluci
on.- Si por T designamos el tiempo que tarda en salir y por C el camino elegido,
E(T ) = E[E(T |C)] =

1
(E(T |C = 1) + E(T |C = 2) + E(T |C = 3)) ,
3

donde

Sustituyendo,
E(T ) =

E(T |C = 1)

E(T |C = 2)
E(T |C = 3)

=
=

5 + E(T )
7 + E(T ).

1
(3 + 5 + E(T ) + 7 + E(T )) E(T ) = 15.
3

82

Captulo 3. Esperanza

Problema 3.46 Sea {Xj }j1 una sucesi


on de variables aleatorias uniformes en el intervalo
[0, 1]. Calcular E(N ) siendo

X
N = mn n;
Xj > 1 .

j=1

Soluci
on.- Sea x [0, 1] y resolvamos el problema para

n
X

N (z) = mn n;
Xj > z .

j=1

Sea m(z) = E[N (z)] y condicionemos respecto de X1 , tendremos


Z 1
m(z) =
E[N (z)|X1 = y]dy.
0

La esperanza condicionada vale

E[N (z)|X1 = y] =

1,
1 + m(z y),

si y > z;
si y z.

Sustituyendo
Z

m(z) =

(1 + m(z y))dy +
0

dy = 1 +
z

m(z y)dy.
0

Haciendo el cambio u = x y y derivando


m0 (z) = m(z)

m0 (z)
=1
m(z)

ln m(z) = z + c

m(z) = kez .

Como m(0) = 1 la constante k = 1 y m(z) = ez .


En particular si z = 1,
E(N ) = e.
As pues, el n
umero esperado de uniformes [0, 1] cuya suma supera 1 es e.
Problema 3.47 El vector aleatorio (X, Y ) tiene por densidad conjunta

yeyx , 1 < y < 3, x > 0;


2
fXY (x, y) =

0,
en el resto.
Hallar E(X) y var(X) haciendo uso de E(X|Y ) y de var(X|Y ).
Soluci
on.- Hemos de obtener primero la densidad condicionada de X y para ello necesitamos
la marginal de Y ,
Z +
1
1 yx
ye
dx = , 1 < y < 3,
fY (y) =
2
2
0
lo que nos dice que Y U (1, 3).
fX|Y (x|y) =

1/2yeyx
= yeyx , x > 0,
1/2

Captulo 3. Esperanza

83

y por tanto X|Y Exp(y). Entonces,


1
Y

E(X|Y ) =

Finalmente,

var(X|Y ) =

E(X) = E[E(X|Y )] =
1

1
.
Y2

3
1
1
ln 3
dy =
ln y 1 =
,
2y
2
2

y
var(X) = E[var(X|Y )] + var[E(X|Y )].

(3.17)

El primer sumando vale


Z

E[var(X|Y )] =
1

1
1
1
1 1
dy =
= ,
2
2y
2 y 3
3

y el segundo

var[E(X|Y )] = var

1
Y

=E

1
Y2

[E(1/Y )] =

ln 3
2

2
.

Sustituyendo en (3.17),
1 1
var(X) = +
3 3

ln 3
2

2
=
3

ln 3
2

2
.

Problema 3.48 El vector aleatorio (X, Y ) tiene por densidad conjunta

2e2x

,
x
fXY (x, y) =

0,

0 x < +, 0 y x;
en el resto.

Calcular cov(X, Y ).
Sugerencia.- La obtenci
on de E(Y ) puede resultar m
as sencilla a traves de E(Y ) = E[E(Y |X)].
Soluci
on.- Recordemos que cov(X, Y ) = E(XY ) E(X)E(Y ).
Z

E(XY )

2e2x
dydx
x
0
0
Z x

Z +
2x
=
2e
ydy dx

xy

0
+

x2 e2x dx =

1
.
4

Para obtener E(X) necesitamos conocer su marginal


Z
fX (x) =
0

2e2x
dy = 2e2x , x 0
x

84

Captulo 3. Esperanza

y fX (x) = 0 si x < 0. Lo que nos dice que X Exp(2) y por tanto E(X) = 1/2.
La distribucion condicionada de Y |X tiene por densidad
fY |X (y|x) =

2e2x
x
2e2x

1
, 0yx
x

y fY |X (y|x) = 0 si y
/ [0, x]. Es decir, Y |X U (0, x) y E(Y |X) = X/2 y E(Y ) = E[E(Y |X)] =
E(X/2) = 1/4.
En definitiva
cov(X, Y ) = E(XY ) E(X)E(Y ) =

1 1 1
1
= .
4 2 4
8

Problema 3.49 Sea X una variable aleatoria con soporte DX = {0, 1, . . . , n} tal que E(X) =
var(X) = 1. Demostrar que para cualquier natural k,
P (X k + 1)

1
.
k2

Soluci
on.- Si aplicamos la desigualdad de Tchebishev,
P (|X 1| k)

1
.
k2

Por otra parte,


{X k + 1} {|X 1| k}
y de aqu
P (X k + 1) P (|X 1| k)

1
.
k2

al es la probaProblema 3.50 Tenemos 10 pares de zapatos y elegimos al azar 4 zapatos. Cu


bilidad de que no hayamos elegido ning
un par? Si X es una variable aleatoria que representa el
n
umero de pares elegidos, obtener el n
umero medio de pares entre los 4 zapatos elegidos.
Soluci
on.- La variable X puede tomar los valores 0, 1 i 2. Nos piden obtener P (X = 0). El
suceso {X = 0} podemos escribirlo de la forma
{X = 0} = A1 A2 A3 A4 ,
donde Ai ={el zapato i-esimo no forma pareja con ninguno de los anteriores}. As,
P (X = 0)

P (A1 A2 A3 A4 )

= P (A1 )P (A2 |A1 )P (A3 |A1 A2 )P (A4 |A1 A2 A3 ).


Dde donde facilmente se obtiene
P (X = 0) =

20 18 16 14

= 0, 6934984.
20 19 18 16

Para obtener E(X) tendremos que calcular las probabilidades que nos faltan, P (X = 1) y
P (X = 2), aunque con uns de ellas nos bastara porque entre las tres deben sumar 1. Si por

Captulo 3. Esperanza

85

ai , i = 1, 2 denotamos los dos zapatos de la pareja a y de forma analoga lo hacemos con los
zapatos de las parejas b o c, las distintas elecciones de 4 zapatos que dan lugar a 1 pareja son
a1 a2 b1 c1
a1 b1 a2 c1
a1 b1 b2 c1

a1 b1 c1 a2
a1 b1 c1 b2
a1 b1 c1 c2 ,

todas ellas con igual probabilidad,


p1 =

20 18 16 1
.
20 19 18 17

As pues,

20 18 16
= 0, 2972136.
20 19 18 17
Por lo que respecta a la eleccion de dos parejas, con una notacion similar a la anterior, las
elecciones que nos permiten obtenerlas son,
P (X = 1) = 6

a1 a2 b1 b2
todas ellas con probabilidad
p2 =

a1 b1 a2 b2

a1 b1 b2 a2 ,

20 18 1 1
.
20 19 18 17

De aqu

20 18
= 0, 0092879.
20 19 18 17
La media del n
umero de parejas valdra
P (X = 2) = 3

E(X) = 1 0, 2972136 + 2 0, 0092879 = 0, 3157894.


Esta esperanza puede calcularse
Bernoulli asociadas a cada pareja de

1,
Xi =
0,
tendremos que X =

P10
i=1

de forma mucho mas sencilla haciendo uso de variables


zapatos. Si definimos Xi mediante
si la pareja i ha sido elegida;
en caso contrario,
P10

E(Xi ); pero
218
12
E(Xi ) = P (Xi = 1) = 2202 =
.
20
19
4
Xi y de aqu E(X) =

Finalmente
E(X) = 10

i=1

12
6
=
= 0, 3157894.
20 19
19

Problema 3.51 La funci


on de densidad de la variable aleatoria X viene dada por

+ cx3 , x ] 1, 1[;
2
f (x) =

0,
en el resto.

86

Captulo 3. Esperanza

1. Determinar los valores de c para que f (x) sea una densidad.


1

2. Calcular, si existen, los momentos de orden 1 y 2 de la variable Y = |X| 2 .


Soluci
on.- Para que f (x) sea una densidad debe integrar 1 sobre el dominio y ser no negativa.
Por tanto,
1

Z 1
1
1
x4
+ cx3 dx = x + c = 1, c,
2
2
4 1
1
lo que supone que la primera condicion se cumple c. En cuanto a la segunda
1
+ cx3 0,
2

para x ] 1, 1[,

lo que conduce |c| 1/2.


El momento de orden 1 de Y , E(Y ), podemos calcularlo utilizando la funcion de densidad
de X,

1
E(Y ) = E |X| 2
Z

|x|

12

Z
=

1
3
+ cx dx
2

x 2
dx = 2.
2

2
0

El momento de segundo orden no existe porque

E(Y 2 ) = E |X|1
Z

|x|

Z
= 2
0

1
3
+ cx dx
2

1
1
dx = ln x0 .
2x

Problema 3.52 Definamos la funci


on

ax(s+1) ,
f (x) =
0,

si x > r;
si x r,

con r, s > 0.
1. Determinar a para que f (x) sea una funci
on de densidad de probabilidad.
2. Si la variable aleatoria X tiene por densidad f (x), para que valores de s existir
a su
esperanza?
Soluci
on.- Para que f (x) sea una densidad debe integrar 1 sobre el dominio. Por tanto,
+
Z +
xs
ars
ax(s+1) dx = a
=
= 1,

s r
s
0

Captulo 3. Esperanza

87

de donde deducimos que a = s/rs . Observese que a > 0 y tambien lo sera f (x), que es la otra
condicion que debe de cumplir.
La esperanza
"
+ #
Z +
s
s
xs+1
s
E(X) = s
x dx = s
,
r
r
s + 1 r
0
sera finita si s + 1 < 0, es decir s > 1.
Problema 3.53 Un autob
us tiene en su recorrido 15 paradas. Supongamos que en la primera
parada suben 20 personas. Cada una de ellas elige al azar e independientemente de las otras en
cu
al de las 14 paradas restantes quiere bajar.
1. Si Xi es una variable aleatoria que vale 1 si alguna de las personas baja en la parada i y
0 en caso contrario, calcular su distribuci
on de probabilidad.
2. Calcular el n
umero medio de paradas que debe realizar el autob
us para que bajen todos los
pasajeros.
Soluci
on.- Cada una de las Xi , i = 2, 3, . . . , 15, es una variable Bernoulli con probabilidad de
exito 1 p, donde p es la probabilidad de que no baje nadie en la parada i-esima,
20
13
p = P (Xi = 0) =
.
14
Todas las Xi tienen la misma distribucion.
Por lo que respecta al total
us para que hayan bajado
P15 de paradas, X, que debe hacer el autob
todos los pasajeros, X = i=2 Xi y de aqu
"
20 #
15
X
13
E(X) =
E(Xi ) = 14 1
.
14
i=2
Problema 3.54 Tenemos un lote de N pastillas y antes de comercializarlo lo sometemos al
siguiente control de calidad. Fijamos un umbral c (c < n) y a continuaci
on tomamos una
muestra de n pastillas del total de N que componen el lote. Sea X la variable aleatoria que nos
da el n
umero de pastillas en mal estado en la muestra, si X c entonces sustituimos las X
pastillas defectuosas por pastillas en buen estado y comercializamos, sin m
as inspecci
on, el lote.
En el caso en que X > c entonces se muestrean todas y cada una de las pastillas que componen
el lote y se sustituyen por pastillas en buen estado, comercializ
andolo a continuaci
on. En este
caso el lote no tiene ninguna pastilla en mal estado. Si la probabilidad de que el proceso de
fabricaci
on produzca una pastilla en mal estado es p, que n
umero medio de pastillas en mal
estado estamos lanzando al mercado?
Soluci
on.- Tenemos que X B(n, p) por P
lo que el lote se acepta sin muestrearlo completac
mente con probabilidad = P (X c) = i=1 P (X = i) y se muestrea completamente con
probabilidad 1 . Consideremos la variable M = 1Xc que vale uno cuando X c y cero
en otro caso. Sea Y la variable aleatoria que nos da el n
umero de unidades defectuosas que
comercializamos. Tenemos que Y = 0 si M = 0 y que Y B(N n, p) si M = 1. En resumen
conocemos la distribucion de probabilidad de Y condicionada a los valores de la variable M . El
valor medio de Y vendra dado por
E(Y ) = E[E(Y |M )],

88

Captulo 3. Esperanza

pero
E(Y |M = 0) = 0,
y
E(Y |M = 1) = (N n)p.

(3.18)

En consecuencia se sigue
E(Y ) = 0P (M = 0) + (N n)pP (M = 1) =
(N n)pP (X > c) = (N n)p

n
X

P (X = i).

(3.19)

i=c

Problema 3.55Sean U1 y U2 dos variables aletorias independientes ambas uniformes en [0,1].


Definimos X = U1 e Y = 2XU2 .
1. Obtener la densidad conjunta de (X, Y )
2. Obtener las densidades marginales de X e Y y sus esperanzas.
3. Si W es una variable Bernoulli tal que P (W = 1) = P (0 Y

X), calcular E(W ).

Soluci
on.1. Para obtener la densidad conjunta de (X, Y ) hemos de calcular el Jacobiano de la trans1 ,u2 )
formacion inversa. Es decir J = (u
(x,y) . Para ello observemos que
U1 = X 2 y U2 =

Y
,
2X

con lo que el nuevo vector (X, Y ) tiene por soporte DXY = {(x, y); 0 < x < 1, 0 < y <
2x}, tal como nos muestra la figura.

u2

u1

En cuanto al Jacobiano,

(u1, u2 ) 2x
J=
=
2xy 2
(x, y)

0
1 = 1.

2x

La densidad conjunta valdra,

f (x, y) =

1,
0,

0 < x < 1, 0 < y < 2x


en el resto.

Captulo 3. Esperanza

2. La marginal de X viene dada por


R 2x
dy = 2x,
0
fX =
0,

89

0<x<1
en el resto,

y la de Y por,
( R
1
fY =

y/2

dy = 1 y2 ,

0,

0<y<2
en el resto.

Sus esperanzas valen,


E(X) =
E(Y ) =

R1
0
R2
0

2 3 1
= 2,
3x 0
2 3 3 1

y
y
y
2 )dy =
2 6
0

2x2 dx =
y(1

= 23 .

3. La E(W ) = P (W = 1) = P (0 Y X) = P (Y 2 X). Para obtener esta probabilidad


hemos de determinar la interseccion del soporte de (X, Y ), DXY , con la region A =
{(x, y); y 2 x}. Esta interseccion determina el suceso {W = 1}. Los puntos de corte son
(0,0) y ( 14 , 12 ), tal como se muestra en la figura.

La esperanza vendra dada por


Z Z

E(W ) =

f (x, y)dxdy =
DXY A

1
4

2x

dydx +
0

dydx =
1
4

31
.
48

Problema 3.56 Elegimos un punto al azar en la circunferencia de centro cero y de radio uno.
Supongamos que denotamos por la variable aleatoria que nos da el
angulo aleatorio asociado
a este punto y por X la variable aleatoria que nos da la abscisa del punto. Se pide:
al es la distribuci
on de ? Hay que obtener tanto la funci
on de densidad como la
1. Cu
funci
on de distribuci
on.
2. Determinar P( [a, b]) para cualesquiera a y b con 0 a b 2.
3. Determinar la funci
on de distribuci
on de la variable X.

90

Captulo 3. Esperanza

4. Determinar la funci
on de densidad de la variable X.
5. Calcular E(X).
6. Calcular E(|X|).
Soluci
on.- Veamos la respuesta a los distintos apartados.
1. El angulo se distribuye uniforme en [0, 2], U (0, 2). La funcion de densidad viene
dada por
1
f () =
, (0, 2],
2
y cero en el resto. La funcion de distribucion es

, (0, 2].
2

F () =

Para valores menores que cero es nula y vale uno por encima de 2.
2. P ( [a, ]) =

ba
2 .

3. Notemos que x = cos(x) y por lo tanto = arc cos(x). Por argumentos geometricos
sencillos se tiene que la funcion de distribucion de X es FX (x) = 2 arc cos(x), si 1 x 1
(cero por debajo de -1 y uno por encima).
4. Derivando la funcion de distribucion obtenemos que
fX (x) =
5.

1
, 1 x 1.
1 x2

EX =
1

dx = 0,
1 x2

simplemente notando que f (x) = f (x).


6.

x
2
dx = .
2

1x

E|X| = 2
0

La integral es inmediata haciendo el cambio de variable y = x2 .

Problema 3.57 Sobre un crculo cuyo radio R es aleatorio con funci


on de densidad
2
r

, r [0, 3];
9
fR (r) =

0
en el resto,
elegimos un punto al azar. Si X designa la distancia del punto al origen, obtener
1. La funci
on de distribuci
on y la funci
on de densidad de X|R = r.
2. La media y la varianza de X.

Captulo 3. Esperanza

91

Soluci
o.- Para obtener la funcion de distribucion condicionada de X a R = r, observemos que
FX|R (x|r) = P (X x|R = r) es la probabilidad de que al escoger un punto al azar en un
crculo de radio r caiga dentro del crculo concentrico de radio x r. Utilizando probabilidades
geometricas,
x2
x2
FX|R (x|r) = P (X x|R = r) =
= 2,
2
r
r
y derivando,

2x

2 , si x [0, r];
r
fX|R (x|r) =

0,
fora.
Para calcular E(X) haremos uso de la igualdad E(X) = E[E(X|R)]
Z R 2
2x
2R
dx =
,
E(X|R) =
2
R
3
0
i de aqu

E(X) = E[E(X|R)] =
0

2r
fR (r)dr =
3

3
0

2r3
3
dr = .
27
2

Para la varianza, recordemos que var(X) = E[var(X|R)] + var[E(X|R)].


var(X|R) = E(X 2 |R) [E(X|R)]2 =
de donde,

E[var(X|R)] =
0

r2
fR (r)dr =
18

por otra parte var[E(X|R)] = var(2R/3) = 4var(R)/9,


Z 3 4
r
2
E(R ) =
dr =
0 9
Z 3 3
r
E(R) =
dr =
0 9
y de aqu,
4
var[E(X|R)] =
9
Sumando (3.20) y (3.21),
var(X) =

27 92
2
5
4

R2
18

r4
3
dr =
.
162
10

(3.20)

27
5
9
,
4

3
.
20

(3.21)

3
3
9
+
=
.
10 20
20

Problema 3.58 El juego de los dos dedos se juega entre dos jugadores A y B. Los jugadores
muestran a la vez uno o dos dedos y simult
aneamente dicen el n
umero de dedos que su oponente
va a mostrar. El que acierta recibe del que pierde tantos euros como dedos hayan mostrado
entre ambos. Si ninguno acierta, o lo hacen ambos, nadie gana ni paga. Designemos por (i, j)
la jugada de cualquiera de los dos jugadores, consistente en mostrar i dedos y apostar a que
el contrario va a mostrar j dedos, i, j = 1, 2. El jugador A decide jugar s
olo las jugadas (1, 2)
con probabilidad 47 y (2, 1) con probabilidad 37 . Si el jugador B, independientemente de lo que
haga A, juega a cualquiera de las cuatro posibles jugadas con igual probabilidad, 14 , calcular la
ganancia esperada de A. Podra A mejorar sus ganancias manteniendo sus jugadas?

92

Captulo 3. Esperanza

Soluci
on.- La posibles situaciones que pueden darse con las estrategias seguidas por cada cada
jugador, y los ganadores en cada una de ellas, se muestran en la tabla.

Jugadas
de A

(1,1)

(1,2)

Gana B

(2,1)

Gana A

Jugadas de B
(1,2)
(2,1)
Ninguno
Ganan
acierta
ambos
Ganan
Ninguno
ambos
acierta

(2,2)

Gana A
Gana B

Si tenemos en cuenta que lo que un jugador gana lo pierde el otro, la variable XA , ganancias
de A, toma los valores {4, 2, 3}, donde el signo negativo representa perdidas. La funcion de
cuanta de XA es,

3 1

, si {k = 4}={A(2, 1) B(2, 2)};

7 4

4 1 , si {k = 2}={A(1, 2) B(1, 1)};

7 4
fXA (k) =
1

,
si {k = 0}=[{A(1, 2) B(1, 2)} {A(1, 2) B(2, 1)}]

[{A(2, 1) B(1, 2)} {A(2, 1) B(2, 1)}] ;

1,
si {k = 3}={A(2, 1) B(1, 1)} {A(1, 2) B(2, 2)}.
4
En definitiva
E(XA ) = 4

3
4
1
1
2
+3 =
.
74
74
4
28

(3.22)

Si A mantiene sus jugadas solo puede mejorarlas asignandoles diferentes probabilidades. Si


P (A(1, 2)) = p y P (A(2, 1)) = 1 p, (3.22) se convierte en
E(XA ) =

1
1
1
[4(1 p) 2p + 3(1 p) + 3p] = [p (1 p)] = (2p 1),
4
4
4

y como 0 p 1, el mayor valor de E(XA ) se alcanza para p = 1. Luego la mejor eleccion de


A sera jugar siempre la jugada (1, 2).
Problema 3.59 Un juego consiste en partir al azar un palo en dos trozos y apostar acerca
de la raz
on entre las longitudes del trozo mayor y el menor. Si acertamos ganamos k euros si
dicha raz
on est
a entre k y k+1, con 1 k m 1, o m euros si la raz
on supera m, siendo
m un entero positivo dado. Cuanto deberamos apostar para que el juego sea justo? C
omo se
comporta la apuesta a medida que m aumenta?
Soluci
on.- Sin perdida de generalidad podemos suponer que la longitud del palo es la unidad.
Se trata de elegir un punto X al azar en [0, 1] (X U (0, 1)) y calcular el cociente X/(1 X)
o (1 X)/X seg
un que X > 1/2 o X < 1/2. Si designamos por G la ganancia recibida, los
valores que G puede tomar son {1, 2, . . . , m 1, m}. Obtengamos su funcion de cuanta,
fG (k) = P (G = k) = P ({G = k} {X > 1/2}) + P ({G = k} {X < 1/2}),

1 k m 1.

Captulo 3. Esperanza

93

El primer sumando vale


P ({G = k} {X > 1/2}) =

P (k < X/(1 X) < k + 1)

k+1
k
<X<
k+1
k+2

k
k+1

k+2 k+1

y el segundo
P ({G = k} {X < 1/2})

= P (k < (1 X)/X < k + 1)

= P
=

1
1
<X<
k+2
k+1

1
1

.
k+1 k+2

De aqu,
fG (k) =

k+1
k
1
1
2

=
,
k+2 k+1 k+1 k+2
(k + 2)(k + 1)

1 k m 1.

Por otra parte,


fG (m) = P (G = m) = P ({G = m} {X > 1/2}) + P ({G = m} {X < 1/2}).
El primer sumando

P ({G = m} {X > 1/2}) = P (X/(1 X) > m) = P

X>

m
m+1

=1

m
1
=
,
m+1
m+1

y el segundo

P ({G = m} {X < 1/2}) = P ((1 X)/X > m) = P X <

1
m+1

y de aqu
fG (m) =
En definitiva,

fG (k) =

1
1
2
+
=
.
m+1 m+1
m+1

(k + 2)(k + 1)

2
,
m+1

1 k m 1;
k = m.

1
,
m+1

94

Captulo 3. Esperanza

La ganancia esperada vale,


E(G) =

m1
X
k=1

2k
2m
+
(k + 2)(k + 1) m + 1

"m1
X
k=1

"m1
X

=
=

k
m
+
(k + 2)(k + 1) m + 1

k=1

2
1

k+2 k+1

m
+
m+1

1 1 1
1
2
m
2 + + + +
+
+
2 3 4
m m+1 m+1

1 1 1
1
2 1 + + + + +
1 .
2 3 4
m+1

Este sera el precio de la apuesta para que el juego sea justo.


Que ocurre cuando m crece? Para m grande, la expresion anterior puede aproximarse
mediante

1 1 1
1
1
2 1 + + + + +
1 2 ln(m + 1) + 1 +
,
2 3 4
m+1
2(m + 1)
donde = 0, 57722... es la constante de Euler. Observese que lmm+ Em (G) = +.
Problema 3.60 Supongamos que n ni
nos de alturas diferentes se colocan en fila. Elegimos el
primer ni
no y nos desplazamos con el a lo largo de la fila hasta que encontramos un ni
no m
as
alto o hasta el final de la misma. Si encontramos un ni
no m
as alto lo elegimos y continuamos
con el desplazamiento y as sucesivamente. Cu
al es el n
umero esperado de ni
nos que elegiremos
en la fila?
Soluci
on.- Si designamos por X el n
umero de ni
nos elegidos, podemos escribir
X = X1 + X2 + + Xn ,
donde

Xi =

1,
0,

si el ni
no i-esimo es elegido;
en caso contrario.

Un ni
no solo podra ser elegido si es el mas alto de todos cuantos le preceden. As, {Xi = 1}={el
ni
no i es el m
as alto entre los i primeros} y por tanto, P (Xi = 1) = 1/i. De aqu
E(Xi ) =
Finalmente,
E(X) =

n
X
1
i=1

1
,
i

i = 1, . . . , n.

=1+

1 1
1
+ + + .
2 3
n

Cuando n crece (3.23) puede aproximarse mediante,


En (X) ln(n) + +
donde = 0, 57722... es la constante de Euler.

1
,
2n

(3.23)

Captulo 3. Esperanza

95

Problema 3.61 Cu
al es el n
umero esperado de cumplea
nos distintos en un grupo de 100
personas elegidas al azar?
Soluci
on.- Aunque el enunciado no lo menciona, cabe suponer que los cumplea
nos se distribuyen uniformemente entre los 365 das del a
no (excluimos los bisiestos) y son independientes
unos de otros. Si X es el n
umero de cumplea
nos distintos, podemos expresarla como
X = X1 + X2 + + X365 ,
donde

Xi =

1,
0,

si el da i hay un cumple
naos;
en caso contrario.

Por la independencia de los cumplea


nos de las 100 personas del grupo,

P (Xi = 1) = 1 P (Xi = 0) = 1
De aqu,

"
E(X) = 365 1

364
365

364
365

100
,

i = 1, 2, . . . , 365.

100 #
= 87, 6.

96

Captulo 3. Esperanza

Captulo 4

Convergencia y teoremas lmite


Problema 4.1 Ante la caja de un banco hay 60 personas que esperan recibir su salario, del
que sabemos que es una cantidad aleatoria de media = 100 ecus y desviaci
on tpica = 30e.
Si los salarios son independientes de un asalariado a otro, queremos saber:
1. cuanto dinero debe tener la caja para, con probabilidad 0,95, poder pagar todos los salarios?
2. si la caja cuenta incialmente con 7,000e, c
ual es la probabilidad de que al final de los
pagos queden en caja al menos 500e?
Soluci
on.P60
a) Si por Xi designamos el salario del ocupante i-esimo de la cola, S = i=1 Xi representa
el total a pagar y es una variable que, por el T.C.L., puede aproximarse mediante una
N (Y , Y2 ), con Y = 60 = 6000e y Y2 = 60 2 = 60 302 e2 . Habra que determinar una
cantidad y tal que P (Y y) = 0,95, por lo que

P
y siendo Z =

Y 6000

30 60

Y 6000
y 6000

30 60
30 60

N (0, 1),

y6000

30 60

= 0,95,

= 1,65 y de aqu y = 6383,42e.

b) Para que sobren 500e, habra de suceder que Y 6500e, luego

6500 6000
Y 6000

30 60
30 60

= P (Z 2,15) = 0,9842

Problema 4.2 Una empresa produce 10000 bolas de acero para rodamientos, siendo p = 0,05
la probabilidad de que una bola sea defectuosa. El proceso de producci
on garantiza que las bolas
son fabricadas independientemente unas de otras. Las bolas defectuosas son arrojadas a un
recipiente cuya capacidad queremos determinar para que, con probabilidad 0.99, quepan en el
todas las bolas defectuosas del proceso.

97

98

Captulo 4. Convergencia y teoremas lmite

Soluci
on.- Las condiciones del enunciado nos dicen que el n
umero de bolas defectuosas, X, es
una B(10000, 0,05). Como n es muy grande, la variable
X np
X 500
Z=p
=
,
475
np(1 p)
sigue una distribucion N (0, 1) que nos permite aproximar la de X.
Se nos pide determinar un valor x tal que P (X x) = 0,99, por tanto
x 500
P (X x) = P (Z
) = 0,99.
475
En las tablas de la N (0, 1) encontramos que P (Z 2,33) 0,99 y de aqu x 550. Hay por
tanto que prever una capacidad mnima de 550 bolas para el recipiente.
Problema 4.3 Las bombillas utilizadas por cierto aparato pueden ser de dos clases, A y B.
Las de la clase A tienen una duraci
on media A = 2000 horas con devsiaci
on tpica A = 400
horas, mientras que las de la clase B tienen una duraci
on media B = 1800 horas con desviaci
on
tpica B = 500 horas. Se compran 200 bombillas de la clase A y 150 de la clase B. Calcular
la probabilidad de que la duraci
on media de la muestra de la clase A no supere en m
as de 100
horas la duraci
on media de la muestra de la clase B.
Soluci
on.- Si por X A y X B designamos, respectivamente, las duraciones medias en las muestras
de A y B, sabemos que
A
X A = A X A = 200

B
X B = B X B = 150
2
2
) y X B N (X B , X
). Por otra
Por el TCL, muy aproximadamente, X A N (X A , X
A

2
2
parte, como X A y X B son independientes, X A X B N (X A X B , X
+ X
). Es decir,
A

X A X B N (200,

7400
)
3

Designando por Z N (0, 1), la probabilidad que hemos de calcular es

100 200
10 3
P (X A X B 100) = P (Z q
) = P (Z ) P (Z 2,01) 0,0222
7400
74
3

a preparando la fiesta de graduaci


on de sus 500 estudiantes. Se
Problema 4.4 Un colegio est
sabe, por lo ocurrido en otras ocasiones, que el 50 % de los estudiantes vienen acompa
nados de
sus padres, el 30 % s
olo por uno de ellos y el 20 % restante vienen solos. Cuantos asientos hay
que disponer para los padres si queremos que, con una probabilidad superior a 0.95, todos ellos
puedan sentarse?
Soluci
on.- Para cada estudiante podemos definir una variable aleatoria X que representa las
personas que lo acompa
nan a la graduacion. Observemos que X = {0, 1, 2} y toma dichos
valores con probabilidad
P (X = 0) = 0,20

P (X = 1) = 0,30

P (X = 2) = 0,50

Captulo 4. Convergencia y teoremas lmite

99

Su esperanza y su varianza valen E(X) = 1,3 y var(X) = 0,61.


Si designamos por Xi la variable asociada al estudiante i, i = 1, 2, . . . , 500, todas ellas son
independientes y se distribuyen como X. El n
umero total de padres asistentes a la fiesta se
obtendra sumando los acompa
nantes de cada estudiante,
S=

500
X

Xi ,

i=1

y
E(S) = S =

P500
i=1

var(S) = S2 =

E(Xi ) = 650

P500
i=1

var(Xi ) = 305.

Si por x designamos el n
umero de asientos a disponer, debe verificarse P (S x) 0,95, y
como se dan las condiciones para aplicar el TCL, S N (S , S2 ). Tendremos pues

x S
x 650
S S
P (S x) = P

=P Z
0,95.
S
S
305
En las tablas de la N(0,1) encontramos que
x 650

1,64 x 679.
305

Problema 4.5 Disponemos de un dado cargado en el que la probabilidad de obtener cualquiera


de las caras es proporcional a su n
umero de puntos. Jugamos con el pagando 4 euros por jugada
y recibiendo como premio tantos euros como puntos tiene la cara obtenida al lanzarlo. Obtener
la probabilidad aproximada de ir ganando al cabo de 100 jugadas.
Soluci
on.- Obtengamos en primer lugar la probabilidad asociada a cada cara. Si X designa el
n
umero de puntos obtenidos,
6
X

P (X = n) =

6
X

kn = k

6
X

n = 21k = 1 k =

Los momentos de X valen


E(X) = X =
E(X 2 ) =

P6

P6

n2
n=1 21

n3
n=1 21

2
var(X) = X
=

1
.
21

91
21

441
21

980
212 .

En la jugada iPnuestra ganancia es Gi = Xi 4 y nuestra ganancia al final de la jugada n


umero
100 sera S = i=1 100Gi . Lo que nos piden es P (S > 0), que podemos aproximar aplicando el
TCL. Para ello necesitamos calcular primero E(S) y var(S).
E(S) = S =

P100

var(S) = S2 =

i=1

E(Gi ) = 100(E(Xi ) 4) =

P100
i=1

100
3

var(Gi ) = 100 var(Xi ) =

100980
.
212

100

Captulo 4. Convergencia y teoremas lmite

Tendremos pues que S N (S , S2 ) y


P (S > 0) =

Z>

100/3
(100980)/212

P Z > 70
980

P (Z > 2,24) = 0,9875

Problema 4.6 Consideremos la variable aleatoria X U (0, 1) y definamos la sucesi


on Xn =
L
X/n, n 1. Comprobar que Xn Y , siendo Y una variable aleatoria degenerada, P (Y = 0) =
1.
Soluci
on.- Como facilmente se comprueba Xn U (0, 1/n) y su funcion de distribucion vale

si x < 0;
0,
nx, si 0 x < 1/n;
Fn (x) =

1,
si x 1/n.
Por otra parte

FY (y) =

0,
1,

si x < 0;
si x 0.

Para cualquier punto de continuidad de FY , es decir x R {0},


lm Fn (x) = FY (x)

y se dara la convergencia en ley.


Problema 4.7 La sucesi
on de variables aleatorias {Xn }n1 tales que P (Xn = 1 1/n) =
P (Xn = 1 + 1/n) = 1/2, convergen en ley a la variable aleatoria X tal que P (X = 1) = 1.
Tienden sus funciones de probabilidad a una funci
on de probabilidad?
Soluci
on.- Observemos que

0,

1
Fn (x) =
2,

1,

si x < 1 n1 ;
1
n

si 1

x < 1 + n1 ;

si x 1 + n1 .

Facilmente se comprueba que

1
1
x R 1 , 1 +
n
n
con

F (y) =

0,
1,

Fn (x) F (x),

si x < 0;
si x 0.

Captulo 4. Convergencia y teoremas lmite

Sin embargo,

fn (x) =

1
2,

x=1

1
n

0,

en el resto,

101

o x = 1 + n1 ;

y al tender n +, las fn tienden a

f (x) =

1
2,

x = 1;

0,

en el resto,

que no es una funcion de probabilidad.


Problema 4.8 Sean Xj , j = 1, . . . , n, variables aleatorias independientes, todas ellas U (0, 1).
Definimos
Yn = mn(X1 , . . . , Xn ),

Zn = max(X1 , . . . , Xn ),

Un = nYn ,

Vn = n(1 Zn ).

Demostrar que cuando n +,


P

Yn 0;

Zn 1;

Un U ;

Vn V,

siendo U y V variables aleatorias exponenciales con par


ametro = 1.
Soluci
on.- Para > 0,

P (|Yn | ) = P

n
\

{Xj } = (1 )n 0.

j=1

Analogamente,

P (|1 Zn | ) = P (Zn 1 ) = P

n
\

{Xj 1 } = (1 )n 0.

j=1

La convergencia en ley de las otras dos variables se comprueba a partir de la convergencia debil
de las funciones de distribucion. Si Fn es la funcion de distribucion de Un ,
Fn (u) = P (Un u) = 1 P (Un > u) =

\
u n n
1 eu ,
1 P (Yn > u/n) = 1 P {Xj > u/n} = 1 1
n
j=1
que es la funcion de distribucion de una Exp(1).
La convergencia de Vn se comprueba de forma analoga.
Problema 4.9 Demostrar que la independencia de las variables en la ley debil de los grandes
n
umeros puede relajarse exigiendo solamente independencia dos a dos y acotaci
on de las varianzas. Es decir, si Xj , j = 1, . . . , n, verifican que E(Xj ) = j y var(Xj ) = j2 son finitas,
entonces
P
X n n 0,

102

Captulo 4. Convergencia y teoremas lmite

donde

n =

1X
j ,
n j=1

Xn =

1X
Xj
n j=1

las Xj son independientes dos a dos y j2 M , j.


n

Soluci
on.- La convergencia en probabilidad exige que para > 0, P (|X n n | ) 0. Si
aplicamos Tchebishev,
var(X n )
P (|X n n | )
,
2
pero

n
n
X
X
X
1
1
var(X n ) = 2 var
Xj = 2
var(Xj ) +
cov(Xi , Xj ) ,
n
n
j=1
j=1
i6=j

y como hay independencia dos a dos y acotacion de las varianzas,


var(X n ) =

n
1 X 2
M
.
j
2
n j=1
n

Sustituyendo,
P (|X n n | )

M
n
0.
n 2

Problema 4.10 Aplicar el anterior resultado a las variables aleatorias Xj , j = 1, . . . , n, independientes dos a dos y tales que
P (Xj = aj ) = P (Xj = aj ) =

1
.
2

Para que valores de a es aplicable el resultado?


Soluci
on.- Como las Xj son simetricas su esperanza sera 0 y j2 = E(Xj2 ).
E(Xj2 ) =

1 2j 1 2j
a + a = a2j ,
2
2

que esta acotada si 0 < a 1 y entonces se cumple que


P

X n 0.
Problema 4.11 Sea Sn el n
umero de exitos en n pruebas Bernoulli con probabilidad de exito
p en cada prueba. Encontrar una cota para P (|Sn /n p| ) que no dependa de p.
Soluci
on.- La desigualdad de Tchebishev permite escribir

Sn
var(Sn /n)
p(1 p)

P
p
=
.
2
n

n2
En [0, 1] la parabola y = x(1 x) alcanza su maximo para p = 1/2 por lo que x(1 x) 1/4,
x [0, 1]. Sustituyendo,

Sn
1

p
.
P
n
4n2

Captulo 4. Convergencia y teoremas lmite

103

Problema 4.12 Tenemos dos monedas, una correcta y otra con probabilidad de cara p = 3/4.
Elegimos al azar una de las dos y realizamos una serie de lanzamientos. Despues de observar el
resultado de un gran n
umero de ellos, podemos saber la moneda elegida? Cu
al es el mnimo
n
umero de lanzamientos para poder saberlo con una probabilidad de al menos 95 %?
Soluci
on.- La respuesta a la segunda pregunta supone una respuesta afirmativa a la primera.
Vamos pues a responderla.
La ley de los grandes n
umeros supone que la proporcion de caras en n lanzamientos converge
en probabilidad a p, que valdra 1/2 o 3/4 seg
un la moneda elegida. Es decir, para > 0

Sn
p 1.
P
n
Podemos acotar inferiormente la probabilidad haciendo uso de la desigualdad de Tchebishev,

Sn

var(Sn /n)
P
p 1
.
n
2

Como queremos que P Snn p 0,95 tendremos


1

var(Sn /n)
0,95
2

20p(1 p)
.
2

Queda por decidir el valor de , que habra de elegirse para poder distinguir entre los posibles
valores de p. Como dichos valores distan entre s 1/4, debera a lo sumo valer 1/8 con lo que
si p =

1
2

20 64
= 320
4

si p =

3
4

20 3 64
= 240.
16

En definitiva, n 320 nos permitira saber la moneda elegida con una probabilidad mayor o
igual que 0,95.
Problema 4.13 (Aplicaci
on de la LGN a la aproximaci
on de funciones) Sea g una funci
on acotada definida sobre [0, 1], la funci
on Bn definida sobre [0, 1] mediante
Bn (x) =


n
X
k
n k
g
x (1 x)nk ,
n
k

k=0

es conocida como polinomio de Bernstein de grado n.


El teorema de aproximaci
on de Weierstrass asegura que que toda funci
on continua sobre
un intervalo cerrado puede ser aproximada uniformemente mediante polinomios. Probar dicha
afirmaci
on para los polinomios de Bernstein.
Soluci
on.- Si la funcion g a aproximar es continua en [0, 1], sera uniformemente continua,
entonces
> 0, > 0 tal que |g(x) g(y)| < , si |x y| < .
Ademas g estara tambien acotada y por tanto |g(x)| < M, x [0, 1].

104

Captulo 4. Convergencia y teoremas lmite

Sea ahora un x cualquiera en [0, 1],


n
n

X
X
k
n k
n k

nk
nk
g
|g(x) Bn (x)| = g(x)
x (1 x)

x (1 x)

k
k
n
k=0
k=0

n
X

g(x) g k n xk (1 x)nk

n k
k=0

X

g(x) g k n xk (1 x)nk +
=

n k
|k/nx|

X
k n k
nk

+
g(x) g n k x (1 x)
|k/nx|>
X n
+ 2M
xk (1 x)nk .
k
|k/nx|

Si Zn B(n, x), el u
ltimo sumatorio no es mas que

X n
Zn

P
x =
xk (1 x)nk ,
n
k
|k/nx|

y tendremos

Zn

|g(x) Bn (x)| + 2M P
x ,
n

pero por la ley de los grandes n


umeros
Zn P
x y por tanto
n

Zn

0,

x
n

lo que demuestra la convergencia uniforme de Bn a g en [0, 1].


Problema 4.14 Probar que una variable aleatoria X es simetrica s y s
olo s su funci
on caracterstica es real.
Soluci
on.- Para probar la condicion observemos primero que para cualquier funcion caracterstica
X (t) = E(eitX ) = E(cos tX) iE(sin tX) = X (t).
Probemos ahora ambas condiciones suponiendo que X es continua.
Directa.- Si X es simetrica, su densidad es simetrica y fX (x) = fX (x), lo que por otra
parte supone que Y = X tiene la misma distribucion que X. Entonces, por el teorema
de unicidad X (t) = X (t), pero por una propiedad de las funciones caractersticas
X (t) = X (t) = X (t) y en definitiva X (t) = X (t). Es decir, X (t) es real.
Inversa.- Si X (t) es real entonces X (t) = X (t), pero X (t) = X (t), con lo que X
e Y = X tienen la misma distribucion de probabilidad y seran simetricas.

Captulo 4. Convergencia y teoremas lmite

105

Problema 4.15 Encontrar la distribuci


on de las variables aleatorias que tiene por funci
on
caracterstica
X
X
1) 1 (t) =
ak cos kt,
2) 2 (t) =
ak eik t .
k0

k0

Soluci
on.- La primera de ellas es real, lo que supone que la variable sera simetrica. Consideremos la variable discreta X con soporte DX = {k, k 0} y con funcion de probabilidad
fX (k) = fX (k) =

ak
.
2

Su funcion caracterstica valdra


X
X ak
X ak
X (t) =
eitk + eitk =
2 cos kt =
ak cos kt.
2
2
k0

k0

k0

La segunda funcion corresponde a la funcion caracterstica de una variable discreta Y con


DY = {k , k 0} y fY (k ) = ak .
Problema 4.16 Probar con argumentos probabilsticos que
en

n
X
nk
k=0

k!

1
.
2

Soluci
on.- Consideremos la sucesion de variables aleatorias independientes {Xi }i1 , todas ellas
Poisson de parametro = 1. La variable Sn = X1 + X2 + + Xn es tambien Poisson con
parametro = n y por tanto,
n
X
nk
P (Sn n) =
en .
k!
k=0

Por otra parte, el Teorema Central de Lmite (TCL) nos dice que
Sn n n

N (0, 1)
n
y de aqu,
e

n
X
nk
k=0

k!

= P (Sn n) = P

Sn n

0
n

1
.
2

Problema 4.17 Consideremos


Pn x [0, 1] y sea n (x)={el n-esimo dgito de su expresion decimal}. Definamos Sn (x) = k=1 k (x) y

2Sn (x) 9n

An (y) = x;
<y ,
33n
y sea (An (y)) la medida de Lebesgue de An (y). Probar que
Z y
u2
1
e 2 du.
lm (An (y)) =
n
2

106

Captulo 4. Convergencia y teoremas lmite

Soluci
on.- Elegimos al azar un punto X en [0, 1], X U (0, 1). La medida de probabilidad
asociada es precisamente la medida de Lebesgue en [0, 1]. La variable Xn = n (X) es una
variable discreta uniforme en {0, 1, . . . , 9}, por tanto
9
2

E(Xn ) =

var(Xn ) =

33
.
4

Pn
Como las Xn son independientes, la variable Sn = k=1 Xk tendra como media y varianza
E(Sn ) = 9n/2 y var(Sn ) = 33n/4. El TCL asegura que
2Sn 9n n

N (0, 1),
33n
y de aqu se sigue el resultado pues

(An (y)) = P (An (y)) = P

2Sn 9n

<y
33n

1
n

2

u2
2

du.

Problema 4.18 La fabricaci


on de zumo de naranja se lleva a cabo por lotes de n envases. La
caducidad en das de cada envase es una variable aleatoria de media = 20 y varianza 2 = 9.
Obtener la media y la varianza de la caducidad media del lote y calcular el tama
no mnimo del
lote para que con probabilidad 0,99 dicha caducidad media supere los 19 das.
Soluci
on.- Si por X n designamos la duracion media del lote de n envases,
n

E(X n ) =

1X
E(Xi ) = 20,
n i=1

var(X n ) =

n
9
1 X
var(Xi ) = .
n2 i=1
n

Por el TCL, X n N (20, 9/n) y tendremos

P (X n > 19) = P

n(X n 20)
>
3

Es decir,

n(19 20)
3

= 0, 99.

P (Z n/3) = 0, 01

n
2, 3263
3
y por tanto n 48, 71 y el tama
no mnimo del lote debera ser de 49 envases.

Problema 4.19 La variable aleatoria Y se distribuye Exp(1). Definimos

1, si Y < ln n;
Xn =
0, en caso contario.
Obtener la funci
on de distribuci
on de Xn y estudiar la convergencia en ley de las Xn .
Soluci
on.- La variable Xn es una variable Bernoulli, Xn B(1, pn ), con parametro
Z
pn = P (Y < ln n) =
0

ln n

ey dy = 1

1
.
n

Captulo 4. Convergencia y teoremas lmite

Su funcion de distribucion vendra dada por

0,
1/n
Fn (x) =

1,

107

si x < 0;
si 0 x < 1;
si x 1.

Al pasar al lmite cuando n

lm Fn (x) =

0, si x < 1;
1, si x 1,

que es la funcion de distribucion de una variable aleatoria degenerada tal que P (X = 1) = 1.


As pues,
L
Xn 1.

Problema 4.20 Sea T U (1/c, 1/c), c > 0, y definamos Y = cT . Para k N , las variables
aleatorias Xk se definen mediante,

1, si 1 < Y < 1/k;


0, si 1/k Y < 1/k;
Xk =

1, si 1/k Y < 1.
Demostrar que Xk converge en ley a la variable aleatoria X con funci
on de probabilidad fX (1) =
fX (1) = 1/2 y fX (x) = 0, x
/ {1, 1}.
Soluci
on.- Para conocer la distribucion de las Xk hemos de conocer previamente la de Y . Es
facil comprobar que Y U (1, 1) y en consecuencia la funcion de probabilidad de Xk vale
P (Xk = 1) = P (Xk = 1) = P (1/k < |Y | < 1) =
y
P (Xk = 0) = P (1/k Y < 1/k) =
y la de distribucion

Fk (x) =

0,

12

1
2

1
k

si x < 1;
1
2k ,

si 1 x < 0;

1
2k ,

si 0 x < 1;

si x 1.

La funcion de distribucio de X vale

0,
1/2,
F (x) =

1,

si x < 1;
si 1 x < 1;
si x 1.

La convergencia en ley de las Xk a X supone que


lm Fx (x) = F (x), x ] , 1[[1, +[.

1
1

2 2k

108

Captulo 4. Convergencia y teoremas lmite

En efecto, si x ] 1, 1[,
x < 0,

Fk (x) =

1 k 1
1

= F (X)
2 2k
2

x > 0,

Fk (x) =

1
1 k 1
+
= F (X)
2 2k
2

Ap
endice A

A.1.

Series aritm
etico-geom
etricas

En el problema 2.8 la obtencion de un esperanza exige sumar la serie


X

k[1 2(1 )]k1 .

k1

Se trata de una serie aritmetico-geometrica porque su termino general es el producto del termino
general de una serie aritmetica por el termino general de una serie geometrica. Es probabilidad
nos encontramos con frecuencia son este tipo de serie. veamos como sumarlas.
Designemos al termino general de la serie como bn = an pn , con an+1 = an + r y p < 1.
Tendremos
X
X
an pn ,
bn =
S=
n1

n1

que al multiplicarla por p da lugar a


pS

an pn+1

n1

(an+1 r)pn+1

n1

an+1 pn+1

n1

rpn+1

n1

am pm r

m2

S a1 p r

p2
1p

p2
.
1p

Restando pS de S, y operando se obtiene


S=

p
1p

a1 + r

109

p
1p

110

Captulo A.

Si aplicamos este resultado a la serie del problema 2.8,


X
S =
k[1 2(1 )]k1
k1

X
1
k[1 2(1 )]k
1 2(1 )
k1

1
1 2(1 )

1 2(1 )
2(1 )

1
.
(2(1 ))2

1 2(1 )
1
2(1 )

Captulo A.

A.2.

Suma de cuadrados de los n primeros enteros


Pn
Una forma sencilla de obtener el valor de k=1 k 2 , es
sumando las areas correspondientes a los cuadrados de
lados 1, 2, 3, . . . , n. Si observamos el dibujo comprobaremos que

7
5

1. para pasar del cuadrado de lado k al de lado k + 1


basta con orlar el primero con Ok = 2k + 1 cuadrados unitarios,

3
1

111

2. al sumar las areas de todos los cuadrados Ok , k =


0, 1, . . . , n 1 es sumada n k veces.

Teniendo en cuenta lo anterior,


Sn2

= 1 2 + 22 + + n2
= 1 n + 3 (n 1) + 5 (n 2) + + (2n 1) 1
n
X
=
ai ,
i=1

donde,
ai

=
=
=

(n (i 1))(2i 1)
2ni n 2i(i 1) + (i 1)
(2n + 3)i 2i2 (n + 1).

Sustituyendo en (A.1)
Sn2

n
X

(2n + 3)i 2i2 (n + 1)

i=1

n(n + 1)
2Sn2 n(n + 1)
2
2n + 1
= n(n + 1)
2Sn2 ,
2

= (2n + 3)

de donde
Sn2 =

n(n + 1)(2n + 1)
.
6

(A.1)