Está en la página 1de 297

INTRODUCCIN A LA TEORA DE LA

PROBABILIDAD, VOL. 1
Miguel Angel Garca Alvarez

CONTENIDO
Prlogo

vii

Notacin

ix

Un poco de historia

Parte 1.

EL CLCULO DE PROBABILIDADES

Captulo 1. EL MODELO MATEMTICO


1. Experimentos aleatorios
2. Eventos
3. Principio de regularidad de las frecuencias
4. El concepto de probabilidad
5. Espacios muestrales
6. Representacin de eventos
7. Composicin de eventos
8. Funciones de probabilidad

11
11
15
16
18
19
20
21
24

Captulo 2. LAS REGLAS BSICAS


1. Algunas propiedades elementales
2. Propiedad de la aditividad finita
3. Regla de la suma
4. Elecciones al azar y resultados equiprobables
5. Probabilidad condicional
6. Regla del producto
7. Independencia estocstica
8. Interpretacin objetiva vs. interpretacin subjetiva de la probabilidad

27
27
28
28
29
32
35
38
44

Captulo 3. MUESTREO ALEATORIO


1. Muestreo aleatorio con reemplazo
2. Muestreo aleatorio ordenado sin reemplazo
3. Muestreo aleatorio no ordenado sin reemplazo
4. Coeficientes binomiales

51
51
52
54
61

iii

iv

CONTENIDO

Captulo 4. COMBINANDO LAS REGLAS BSICAS


1. Regla de la probabilidad total
2. Regla de Bayes

69
69
78

Captulo 5. LA ADITIVIDAD NUMERABLE


1. Espacios muestrales infinitos numerables
2. Probabilidades geomtricas
3. Sucesiones infinitas de ensayos de Bernoulli
4. El problema de la medida
5. Espacios de Probabilidad
5.1 Teorema de clases montonas
5.2 Los borelianos y la medida de Lebesgue

87
87
99
105
107
110
112
116

Parte 2.

125

VARIABLES ALEATORIAS

Captulo 6. VARIABLES ALEATORIAS


1. Variables aleatorias reales
2. Funciones de distribucin
3. Clasificacin de variables aleatorias
4. Independencia de variables aleatorias
5. Funcin gama
6. Frmulas de Wallis y de Stirling

127
127
129
131
134
136
137

Captulo 7. VARIABLES ALEATORIAS DISCRETAS


1. Distribucin binomial
2. Distribucin geomtrica
3. Distribucin binomial negativa
4. Distribucin Poisson
5. Distribucin hipergeomtrica
6. Otras distribuciones
6.1 Distribuciones truncadas
6.2 Distribucin uniforme discreta
7. Caminatas aleatorias
7.1 Distribucin de la posicin en el n-simo paso
7.2 Retornos al origen
7.3 Distribucin del tiempo de primer retorno al origen
7.4 Primer paso por un valor positivo
7.5 Distribucin del tiempo de primer paso por un valor positivo

143
143
148
150
153
158
162
162
163
164
164
165
168
168
169

CONTENIDO

Captulo 8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS


1. Distribucin uniforme continua
2. Distribucin normal
3. Teorema de de Moivre-Laplace
4. Distribucin exponencial
5. Distribucin gama
6. Distribuciones uniformes en el plano
7. Distribucin de funciones de variables aleatorias continuas
7.1 Simulacin de distribuciones

175
175
178
180
189
192
195
196
198

Captulo 9. ESPERANZAS
1. Esperanza de variables aleatorias discretas
2. Esperanza de variables aleatorias absolutamente continuas
3. Algunas ideas errneas
4. Definicin general de la Esperanza
5. Esperanza de funciones de variables aleatorias
6. Propiedades de la Esperanza
7. Varianza y dems momentos
8. Desigualdad de Chebyshev
9. Funciones generadoras
9.1 Funcin generadora de probabilidades
9.2 Funcin generadora de momentos

207
209
210
211
213
220
223
229
239
243
244
249

Apndice
1. Sucesiones y series
2. Integral de Riemann

263
263
264

Respuestas a los ejercicios

269

Tabla de la distribucin normal

283

ndice

285

Prlogo
Los hombres son los productores de sus representaciones,
de sus ideas, etc., pero los hombres reales y actuantes,
tal y como se hallan condicionados por un determinado
desarrollo de sus fuerzas productivas y por el intercambio que a l corresponde, hasta llegar a sus formaciones
ms amplias... All donde termina la especulacin, en la
vida real, comienza tambin la ciencia real y positiva, la
exposicin de la accin prctica, del proceso prctico de
desarrollo de los hombres.
Karl Marx

Este libro est concebido como introductorio a la Teora de la Probabilidad. Se presenta en l


todo el material que forma parte del programa de los dos primeros cursos de probabilidad que
se ofrecen en varias universidades. El primer volumen comprende los temas correspondientes
al primer curso y el segundo volumen comprende los del segundo curso.
A este nivel introductorio, la Teora de la Probabilidad utiliza como herramienta matemtica
bsica el Clculo Combinatorio, la Teora de Series de nmeros reales y el Clculo Diferencial
e Integral en una y varias variables, de manera que, para el primer volumen se asume el
conocimiento de los dos primeros de estos temas as como del Clculo en una variable, mientras
que para el segundo volumen se asume adems el conocimiento del Clculo en varias variables.
En este libro se pretende presentar una introduccin a la formulacin moderna de la Teora de
la Probabilidad, intentando combinar diferentes aspectos: se busca la motivacin heurstica
de los conceptos, se trata de ubicar el origen de ellos y se exponen los resultados con el
mayor rigor posible. Esta ltima tarea presenta dificultades pues la Teora de la Probabilidad
moderna requiere, como herramienta bsica, de la Teora de la Medida y sta no es conocida
por la mayor parte de los lectores a quienes est dirigido este libro. Para salvar esta dificultad,
se introducen, a lo largo de los dos volmenes, los elementos que se necesitan para entender
algunos conceptos probabilsticos bsicos y contar con la herramienta que permite demostrar
los resultados que se exponen.
Como se muestra en este primer volumen, el mtodo para calcular probabilidades consiste en
comenzar asignando probabilidades a una determinada familia de eventos y despus, utilizando
las propiedades de la funcin de probabilidad, se trata de extender sta a una familia de eventos
tan grande como sea posible. El enfoque de este libro es probabilstico en el sentido de que,
para resolver cualquier problema, antes que nada, se busca llevar este mtodo tan lejos como
vii

viii

PRLOGO

sea posible, en lugar de intentar reducirlo, desde el inicio, a un problema de otro tipo, como
pudiera ser uno de Clculo Combinatorio.
La Teora de la Probabilidad surge del estudio de los fenmenos aleatorios. El primer problema
a resolver en este estudio consiste en encontrar un modelo matemtico que permita analizar a
profundidad el fenmeno en consideracin. El modelo utilizado en este libro es el que formul
Andrey Nikolaevich Kolmogorov en el ao 1933. Para un estudiante que se inicia en la Teora
de la Probabilidad no resulta simple entender el por qu se utiliza este modelo, lo cual es
muy explicable por el hecho de que ste es el resultado de un proceso de investigacin en el
cual estuvieron involucrados muchos estudiosos del tema y, por lo general, no se muestra al
alumno ms que la conclusin del proceso. En este libro se profundiza en este tema buscando
dar mayor claridad al estudiante.
Este primer volumen est dividido en dos grandes partes; en la primera se desarrolla el mtodo
para calcular probabilidades y se presentan las reglas bsicas; en la segunda se hace el estudio
de las variables aleatorias, concepto bsico en la Teora de la Probabilidad.
A su vez, la primera parte se divide en cinco captulos: en el primero se definen los conceptos
bsicos del Clculo de Probabilidades y se comienza a construir el modelo matemtico de
los fenmenos aleatorios; en el segundo se formulan las propiedades que permiten extender
la funcin de probabilidad, definida en el captulo 1, adems de introducir los conceptos de
probabilidad condicional y de independencia as como las reglas que se relacionan con ellos;
en el tercer captulo se estudian diferentes maneras en que se puede seleccionar una familia de
elementos de una coleccin dada; en el cuarto captulo se integra lo estudiado en los 3 primeros
captulos para formular las reglas generales del Clculo de Probabilidades; finalmente, en el
quinto captulo se completa el modelo matemtico de los fenmenos aleatorios introduciendo la
propiedad que facilita el estudio de aquellos cuyo conjunto de posibles resultados es infinito; de
esta forma, queda formulado el modelo de Kolmogorov, el cual ser la base para los captulos
posteriores.
La segunda parte se divide en cuatro captulos: en el primero se hace un estudio general de
las variables aleatorias, adems de formular algunos resultados de Clculo Integral que sern
de utilidad ms adelante; en el segundo y tercero se estudian las familias bsicas de variables
aleatorias; finalmente, en el cuarto, se introduce y se estudia otro concepto fundamental de la
Teora de la Probabilidad, el de Esperanza.
Miguel A. Garca Alvarez
Junio, 2003
Departamento de Matemticas
Facultad de Ciencias,UNAM
MXICO D.F., 04510
e-mail: magaz@servidor.unam.mx

Notacin

N
Z
R
{n, . . . , m}
{n, n + 1 . . .}
AB
A
Sn B
Ak
Tk=1
n
k=1 Ak
Ac
AB
AB
AB
(a, b)
[a, b]
(a, b]
[a, b)
xy
kxk
|x|
[[x]]
z
mn(a, b)
max(a, b)
x+
x
P
n
Qnk=1 xk
k=1 xk
ln
x
n
k

gf
f : A 7 B
x

Conjunto vaco
Conjunto de los nmeros naturales
Conjunto de los nmeros enteros
Conjunto de los nmeros reales
Conjunto de nmeros enteros entre n y m inclusive
Conjunto de nmeros enteros mayores o iguales a n
Unin de los conjuntos A y B
Interseccin de los conjuntos A y B
Unin de los conjuntos A1 , . . . , An
Interseccin de los conjuntos A1 , . . . , An
Complemento del conjunto A
Producto cartesiano de los conjuntos A y B
El conjunto A est contenido en el conjunto B
El conjunto A contiene al conjunto B
Intervalo abierto {x R |a < x < b}
Intervalo cerrado {x R |a x b}
Intervalo semiabierto {x R |a < x b}
Intervalo semiabierto {x R |a x < b}
Producto punto de los vectores x y y
Norma del vector x
Valor absoluto del nmero real x
Mayor entero menor o igual a x
Conjugado del nmero complejo z
Mnimo entre a y b
Mximo entre a y b
max(x, 0)
max(x, 0)
Suma de los nmeros x1 , . . . , xn
Producto de los nmeros x1 , . . . , xn
Logaritmo natural de x
Combinaciones de n elementos tomados de k en k
Composicin de las funciones f y g
funcin definida sobre el conjunto A, con valores en el conjunto B
x tiende al valor

ix

Un poco de historia
Le 29 juillet 1654
Monsieur,
Limpatiente me prend aussi bien qua vous; et quoique je
sois encore au lit, je ne puis mempcher de vous dire que
je reus hier au soir, de la part de M. de Carcavi, votre
lettre sur les partis, que jadmire si fort, que je ne puis
vous le dire. Je nai pas le loisir de metendre; mais en un
mot vous avez trouv les deux partis des ds et des parties
dans la parfaite justesse; jen suis tout satisfait; car je ne
dout plus maintenant que je suis dans la verit, aprs la
rencontre admirable o je me trouve avec vous ... jen ai
trouv un abrg, et proprement une autre mthode bien
plus courte et plus nette, que je voudrais pouvoir vous
dire ici en peu de mots; car je voudrais dsormais vous
ouvrir mon coeur, sil se pouvait, tant que jai de joie
de voir notre rencontre. Je vois bien que la verit est la
mme Toulouse et Paris.
Carta de Pascal a Fermat

El surgimiento del Clculo de Probabilidades, como disciplina matemtica independiente,


tiene como base las soluciones que, durante el periodo que va del ao 1654 al 1657, dieron
Blaise Pascal, Pierre de Fermat ([12]) y Christiaan Huygens ([14]) a varios problemas, entre
los cuales destacan los siguientes:
Problema 1. Cmo deben repartirse las apuestas en un juego que se interrumpe? Por
ejemplo, suponiendo que dos jugadores, A y B, apuestan 32 pesos cada uno en un juego que
consiste de partidas consecutivas, en cada una de las cuales cada jugador tiene la misma
posibilidad de ganarla, de tal manera que quien gane una partida acumula un punto y el juego
es ganado por quien obtenga primero cuatro puntos, cmo deben de repartirse las apuestas en
caso de que el juego se interrumpa cuando el jugador A ha ganado dos puntos y B un punto?
Problema 2. Cuntas veces se necesita lanzar un par de dados para que sea ms favorable
obtener por lo menos un par de seises que no obtenerlo?
Problema 3. Dos jugadores, P y Q, juegan a lanzar alternadamente un par de dados. El
juego comienza lanzando P el par de dados, con la condicin de que si obtiene una suma
igual a 6 gana el juego; en caso contrario el juego contina lanzando Q el par de dados, con
1

UN POCO DE HISTORIA

la condicin de que si obtiene una suma igual a 7 gana el juego; en caso contrario el juego
contina lanzando P el par de dados bajo las condiciones iniciales. Cules son las respectivas
probabilidades que cada jugador tiene de ganar el juego?
Problema 4. Dos jugadores, A y B, los cuales poseen 12 fichas cada uno, juegan a lanzar
sucesivamente tres dados, establecindose que A dar una ficha a B cada vez que se obtenga
una suma igual a 11, mientras que B dar una ficha a A cada vez que se obtenga una suma
igual a 14. Si el ganador del juego es el primero que llegue a poseer las 24 fichas, cules son
las respectivas probabilidades que cada jugador tiene de ganar el juego?
Los problemas 1 y 2 fueron planteados a Pascal en el ao 1654 por Antoine Gombaud de Mr,
conocido como el chevalier de Mr, quien era aficionado a los juegos de azar y haba logrado
resolver el problema 2 pero no el 1. Pascal y Fermat encontraron las soluciones correctas
a los dos problemas, mismas que se dieron a conocer entre ellos en una serie de cartas las
cuales constituyen los nicos documentos en los cuales quedaron plasmados los mtodos que
utilizaron. Ms tarde, Huygens, sin conocer los mtodos utilizados por Pascal y Fermat,
encontr tambin las soluciones correctas a ambos problemas y en el ao 1657 public sus
soluciones en su libro De ratiociniis in Ludo Aleae ([14]), siendo sta la publicacin que se
convirti en la base para el desarrollo posterior del Clculo de Probabilidades.
Sin embargo, no fueron Pascal, Fermat y Huygens los primeros en resolver de manera correcta
problemas de probabilidad. La historia del Clculo de Probabilidades se remonta por lo menos
al siglo X cuando se plantearon algunos problemas que ms tarde fueron la base para resolver
problemas de probabilidad. En particular, en esa poca se plante el problema de determinar
cuntos resultados distintos pueden obtenerse al lanzar n dados. La primera solucin correcta
conocida de este problema se encuentra en un poema titulado De Vetula y escrito por
Richard de Fournival (1200-1250). Ah se afirma que 3 dados pueden caer en un total de 216
caminos.
La primera referencia conocida a una relacin entre las diferentes posibilidades de ocurrencia
de un evento y la frecuencia con que ste se observa, se encuentra en los comentarios a una
publicacin de La Divina Comedia que en el ao 1477 hizo Benvenuto dImola. Dice ah:
Concerniente a estos lanzamientos (de dados) debe observarse que los dados son cuadrados
y cualquier cara puede caer, as que un nmero que pueda aparecer en ms caminos debe
ocurrir ms frecuentemente, como en el siguiente ejemplo: con tres dados, tres es el ms
pequeo nmero que puede obtenerse y slo se obtiene con tres ases; cuatro puede obtenerse
slo en un camino, con un dos y dos ases.
En el libro titulado Summa de Arithmetica, Geometria, Proportioniti et Proportionalit,
escrito por Luca Paccioli en 1487 y publicado en 1494, se encuentra formulado un problema
similar al 1: Dos personas juegan de manera que se requiere un total de 60 puntos para ganar,
siendo el premio de 22 ducados. Por alguna circunstancia, cuando uno tiene acumulados 50
puntos y el otro 30, no pueden continuar el juego. Qu parte del premio le corresponde a
cada uno?. Paccioli consideraba, errneamente, que la parte que corresponde a cada uno debe
ser proporcional a los puntos que lleva ganados; en este caso, la reparticin debera hacerse
en la proporcin de 5 : 3, es decir, al que lleva 50 puntos le corresponderan 58 y al otro 38 .
El primer estudio sistemtico de problemas de probabilidad se debe a Girolamo Cardano, quien
en el ao 1526 escribi un libro titulado Liber de Ludo Aleae, cuya primera publicacin

UN POCO DE HISTORIA

apareci en el ao 1663 ([6]). En ese trabajo, Cardano realiz un estudio de problemas


relacionados con lanzamientos de dados.
En su libro, estableci Cardano el nmero de posibilidades en el lanzamiento de 2 y 3 dados,
obteniendo 36 y 216, respectivamente. Aunque en un lenguaje distinto al que se us ms tarde
en el Clculo de Probabilidades, Cardano plante y resolvi, a la manera clsica, problemas
de probabilidad. Un ejemplo es el siguiente:
Considerando el lanzamiento de 2 dados, estableci que por lo menos un as se obtiene de 11
maneras; lo mismo puede decirse de por lo menos un dos, y as sucesivamente. Agregaba que,
sin embargo, un as o un dos no se obtiene de 22 maneras, pues hay 11 maneras en que se
obtiene por lo menos un as y 9 ms en que se obtiene por lo menos un dos, as que en total
son 20 maneras de obtener por lo menos un as o por lo menos un dos. Continuaba diciendo
que si se agrega ahora el 3, habr 7 maneras ms y as sucesivamente; en el siguiente paso
habr que sumar 5 maneras ms, luego 3 y por ltimo 1.
Deca entonces que si alguien dijera, quiero un as un dos o un tres, se sabe que hay 27
caminos favorables y como el circuito es de 36, los caminos en que no se obtiene ninguno de
estos nmeros son 9; las posibilidades son entonces de 3 a 1.
Con este razonamiento Cardano lleg de hecho a la llamada definicin clsica de probabilidad
estableciendo las posibilidades de obtener un determinado resultado en funcin del nmero de
posibles maneras en que ese resultado puede obtenerse.
Situndonos nuevamente en la poca de Pascal y Fermat, el problema 1 fue el problema que
ms inters provoc debido a que pocos lograron encontrar la solucin correcta. La solucin
de Fermat a este problema es la siguiente:
Al jugador P le faltan dos partidas para ganar y al jugador Q tres partidas, entonces, a lo
ms en 4 partidas adicionales se acaba el juego. Denotando por la letra a el que P gane una
partida y por la letra b el que gane Q, los posibles resultados de 4 partidas son los siguientes:
(a, a, a, a), (a, a, a, b), (a, a, b, a), (a, b, a, a), (b, a, a, a), (a, a, b, b), (a, b, a, b), (a, b, b, a),
(b, a, a, b), (b, a, b, a), (b, b, a, a), (a, b, b, b), (b, a, b, b), (b, b, a, b), (b, b, b, a), (b, b, b, b)
en donde, por ejemplo, (b, b, a, b) significa que P gana slo la tercera partida y Q las otras 3.
De estos 16 posibles resultados, hay 11 que hacen ganar al jugador P, a saber, (a, a, a, a),
(a, a, a, b), (a, a, b, a), (a, b, a, a), (b, a, a, a), (a, a, b, b), (a, b, a, b), (a, b, b, a), (b, a, a, b), (b, a, b, a),
(b, b, a, a). Los 5 restantes hacen ganar al jugador Q. Por lo tanto, las apuestas se deben repartir en la proporcin 11 : 5.
Los mtodos seguidos por Pascal y Huygens para resolver este problema son distintos al de
Fermat pero similares entre ellos. Su solucin es como sigue:
Supongamos que al jugador A le falta una partida para ganar y a B dos, entonces, al jugar
la siguiente partida hay dos posibilidades, la primera es que P la gane, en cuyo caso gana el
juego y por lo tanto toda la apuesta, la segunda es que Q la gane, en cuyo caso P y Q quedan
en igualdad de condiciones y debe entonces tocar a cada uno la mitad de las apuestas, es decir
32. Entonces en un caso a P le tocan 64 y en otro 32, as que, cualquiera que sea el caso, P
tiene asegurado 32 y los otros 32 de las apuestas pueden corresponder a P o a Q con un azar
igual; por lo tanto, de esos 32, la mitad debe ser para P y la otra para Q. Es decir, cuando a
P le falta un punto y a Q dos, a P le corresponde 32 + 16 = 48 y a Q 16.

UN POCO DE HISTORIA

Supongamos ahora que a A le falta un punto y a B tres. En esta situacin, si se juega la


siguiente partida, P puede ganar toda apuesta o bien 48 por el primer caso. Por lo tanto a P
le corresponde 48 + 12 (16) = 56 y a Q 8.
Finalmente, supongamos que a P le faltan dos puntos y a Q tres. En esa situacin, si se juega la
siguiente partida, P puede quedar faltndole un punto y tres a Q, en cuyo caso le corresponde
56 por el segundo caso; o bien, si Q gana esa partida, quedan en igualdad de circunstancias y
toca a cada uno 32. Entonces P tiene asegurados 32 y puede ganar 56 32 = 24 con un azar
igual que Q; as que entonces a P le corresponde 32 + 12 (24) = 44 y a Q 8 + 12 (24) = 20, es
decir, la reparticin de las apuestas debe ser de 11 : 5.
Aunque los resultados de Pascal, Fermat y Huygens permitieron el establecimiento de reglas
generales para resolver problemas de probabilidad y en ese sentido pueden considerarse como
el origen del Clculo de Probabilidades, la Teora de la Probabilidad comenz a ganarse
un lugar importante dentro de la Matemtica a partir del libro de Jacques Bernoulli, Ars
Conjectandi, publicado en el ao 1713, ocho aos despus de su muerte ([3]).
Adems de resolver con sus propios mtodos los problemas ya resueltos por Pascal, Fermat
y Huygens, Bernoulli se plante un problema de singular importancia, el cual sera la base
para todo el desarrollo posterior de la teora. Escribi Bernoulli en su libro: parece que, para
hacer una hiptesis correcta sobre un hecho cualquiera, slo es necesario calcular exactamente
el nmero de casos posibles y, entonces, determinar las veces que puede posiblemente ocurrir
un caso ms que otro. Pero aqu, inmediatamente, surge nuestra mayor dificultad, porque este
procedimiento se puede aplicar nicamente a muy pocos fenmenos; de hecho, casi exclusivamente a los relacionados con los juegos de azar ... pero hay otro camino que nos conduce a lo
que buscamos, y nos permite, por lo menos, hallar a posteriori lo que no podemos determinar
a priori, o sea, averiguando a partir de los resultados observados en numerosos casos similares.
Ha de suponerse, a este respecto, que, bajo condiciones similares, la ocurrencia (o no ocurrencia) de un suceso en el futuro seguir la misma pauta que se ha observado para sucesos iguales
en el pasado ... Lo que an tiene que ser averiguado es si, cuando se aumenta el nmero de
observaciones, tambin se sigue aumentando la probabilidad de que la proporcin registrada
de casos favorables y desfavorables se aproxime a la verdadera relacin ... Este es el problema
que he decidido publicar aqu, despus de haber trabajado sobre l durante veinte aos. El
resultado al que hace referencia Bernoulli en su libro es el ahora llamado teorema de Bernoulli
(ver seccin 7.1).
Ms tarde, en el ao 1733 ([10]), siguiendo a Bernoulli, Abraham de Moivre demostrara
el ahora llamado teorema de de Moivre-Laplace (ver seccin 8.3). Ambos resultados constituyeron los primeros teoremas lmite de la Teora de la Probabilidad, cuyo estudio se prolong
durante un periodo de ms de 200 aos, sentando as las bases de la Teora de la Probabilidad
moderna.
Los teoremas lmite fueron formulados y demostrados de manera general a principios del siglo
XX, interviniendo en ese proceso, entre otros, Pierre Simon Laplace ([20], [21]), Simon
Denis Poisson ([29]), Pafnuty Lvovich Chebyshev ([7], [8], [9]), Andrei Andreyevich Markov
([27]), Aleksandr Mikhailovich Lyapunov ([25], [26]), Flix douard Justin mile Borel ([2]),
Francesco Paolo Cantelli ([3], [4], [5]), J. W. Lindeberg ([24]), Paul Pierre Lvy ([22], [23]),
Aleksandr Yakovlevich Khintchine ([15], [16]), Andrey Nikolaevich Kolmogorov ([17], [18]) y
William Feller ([11]).

UN POCO DE HISTORIA

A principios del siglo XX la Teora de la Probabilidad gozaba ya de una gran popularidad, sin
embargo, sus fundamentos matemticos no eran satisfactorios. De hecho, la probabilidad no
era considerada como parte de la Matemtica. Sus conceptos y mtodos eran especficos para
las aplicaciones y no formaban parte de una estructura abstracta general. La misma definicin
de probabilidad, la cual estaba basada en el concepto de equiprobabilidad, resultaba insatisfactoria pues no en todos los fenmenos aleatorios resulta evidente qu resultados pueden
considerarse como equiprobables.
Una buena referencia para conocer el estado de la Teora de la Probabilidad a principios del
siglo XX es el libro de Jules Henri Poincar ([28]), cuya primera frase es elocuente: No
se puede dar una definicin satisfactoria de la probabilidad. Comenta ms adelante que
la definicin completa de la probabilidad es una especie de peticin de principio: cmo
reconocer que todos los casos son igualmente probables? Aqu, una definicin matemtica
no es posible; deberemos, en cada aplicacin, hacer convenciones, decir que consideramos tal
y tal caso como igualmente probables. Esas convenciones no son completamente arbitrarias,
pero escapan al espritu del matemtico, que no tendr ms que examinarlas una vez que son
admitidas. As, todo problema de probabilidad ofrece dos periodos de estudio: el primero,
metafsico, por as decirlo, el cual legitima tal o cual convencin; el segundo, matemtico, que
aplica a esas convenciones las reglas del clculo.
El estudio de la fundamentacin matemtica de la Teora de la Probabilidad se realiz en los
primeros 30 aos del siglo XX, hasta que, en el ao 1933, A. N. Kolmogorov public un artculo
([19]) en el cual estableci la formulacin de la Teora de la Probabilidad que prevalece hasta
nuestros das.
El modelo que formul Kolmogorov es axiomtico, lo cual se explica por el hecho de que, a
principios del siglo XX, el mtodo axiomtico haba ganado un gran prestigio, luego de las
aportaciones de Nikolai Ivanovich Lobachevskii, Hermann Minkowski y otros matemticos,
las cuales mostraban que es posible definir geometras no euclideanas mediante diferentes
sistemas axiomticos. Aportaciones como sas, as como la bsqueda del rigor en la ciencia, haban llevado a plantear la necesidad de la axiomatizacin para todas las ramas de la
Matemtica, as como para aquellas ramas de la Fsica en donde las Matemticas juegan un
papel preponderante ([13]).
La historia de la Teora de la Probabilidad no termina con su fundamentacin matemtica;
sta, que fue la conclusin de un proceso, se convirti a su vez en punto de partida para
profundizar en temas estudiados con anterioridad y para el estudio de nuevos sujetos de
inters. Una vez formulado el modelo de Kolmogorov, la Teora de la Probabilidad cont con
una nueva herramienta que la hara desarrollarse mucho ms: la Teora de la Medida. En
particular, la Teora de los Procesos Estocsticos se convirti en el centro de inters de los
estudiosos de la Probabilidad, tema que hasta la fecha contina desarrollndose.

Referencias
[1] Bernoulli, J., LArt de Conjecturer, L.G.F. Vastel, G. Le Roy, Caen, 1801. Traduccin de Ars Conjectandi,
Basileae, 1713.
[2] Borel, F. E. J. E., Les probabilits dnombrables et leurs applications arithmtiques, Rendiconti del
Circolo Matematico di Palermo, T. 27, p. 247-270, 1909. Reimpreso en Oeuvres de mile Borel, Tome II,
Centre National de la Recherche Scientifique, p. 1055-1079, 1972.
[3] Cantelli, F. P., Sulla legge dei grandi numeri, Mem. Acad. Lincei, Vol. 11, Srie 5, p. 329-349, 1916.
[4] Cantelli, F. P., Sulla probabilit comme limite della frequenza, Rend. Acad. Lincei, Vol. 26, p. 39-45,
1917.
[5] Cantelli, F. P., Su due applicazioni di un teorema di G. Boole alla Statistica Matematica, Accademia dei
Lincei Roma, Classe di Scienze Fisiche, Matematiche e Naturali, Rendiconti, 26 (5), p. 295-302, 1917.
[6] Cardano, G., Liber de ludo aleae, 1564. Publicado en Opera Imnia, Vol. 1, 1663. Traduccin al ingls en
The book on games on chance, Holt, Rinehart and Winston, New York, 1961.
[7] Chebyshev, P. L., Des valeurs moyennes, Matematicheskii Sbornik, 127, p. 1-9, 1867, tambin publicado
en Liouvilles Journal de Mathmatiques Pures et Appliques, 88, p.177-184, 1867.
[8] Chebyshev, P. L., Dmonstration lmentaire dune proposition gnrale de la thorie des probabilits.
[9] Chebyshev, P. L., Sur deux thormes relatifs aux probabilits.
[10] de Moivre, A., A method of aproximating the sum of the terms of the binomial (a + b)n expanded into
a series, from whence are deduced some practical rules, to estimate the degree of assent which is to
be given to experiments, The doctrine of chances, Third edition, p. 243-259, A. Millar, London, 1756.
Reimpreso por Chelsea, New York, 1967. Traduccin (con algunas adiciones) de Approximatio ad summam
terminorum binomii (a + b)n in seriem expansi, 1733.
[11] Feller, W., ber den zentralen Grenzwertsatz der Wahrscheinlichkeitsrechnung, Math. Zeitsch, 40, p.
521-559, 1935.
[12] Fermat, P. & Pascal, B., Correspondance - 1654, Oeuvres de Pascal, t. III, p. 369-430.
[13] D. Hilbert, Sur les problmes futures des Mathmatiques, Comptes Rendus du Deuxime Congrs International des mathematiciens, Paris, p. 58-114, 1900.
[14] Huygens, C., Du calcul dans les jeux de hasard, Oeuvres Compltes de Christiaan Huygens, Vol. XIV,
Martinus Nijho, 1920. Traduccin de De Ratiociniis in Aleae Ludo, 1657.
[15] Khintchine, A.Ya., Sur la loi des grands nombres, Comp. Rend. Acad. Sci., 188, p. 477-479, 1929.
[16] Khintchine, A.Ya., Sur la loi forte des grands nombres, C. R. Ac. Sc. Paris, Vol. 186, p. 285-287, 1928.
[17] Kolmogorov, A. N., Sur la loi des grands nombres, Rend. Acad. Lincei, Vol. 9, p. 470-474, 1929.
[18] Kolmogorov, A. N., Sur la loi forte des grands nombres, C. R. Ac. Sc. Paris, Vol. 191, p. 910-912, 1930.
[19] Kolmogorov, A. N., Foundations of the Theory of Probability, Chelsea, 1950. Traduccin de Grundbegrie
der Wahrscheinlichkeitsrechnung, Erg Mat. 2, No. 3, 1933.
[20] Laplace, P. S., Thorie Analytique des Probabilits (1812), Livre I. Calcul des fonctions gnratrices,
Troisime edition, Courcier, Paris, 1820. Oeuvres compltes de Laplace, Tome septime, Gauthier-Villars,
1886.
[21] Laplace, P. S., Thorie Analytique des Probabilits (1812), Livre II. Thorie gnrale des probabilits,
Troisime edition, Courcier, Paris, 1820. Oeuvres compltes de Laplace, Tome septime, Gauthier-Villars,
1886.
[22] Lvy, P. P., Calcul des Probabilits, Gauthier Villars, Paris, 1925.
[23] Lvy, P. P., Thorie de laddition des variables aleatories, Gauthier Villars, Paris, 1937 (deuxime edition
- 1954).
7

REFERENCIAS

[24] Lindeberg, J. W., Eine neue Herleitung des Exponentialgesetzes in der Wahrscheinlichkeitsrechnung,
Math. Zeitsch, t. 15, p. 211-225, 1922.
[25] Lyapunov, A. M., Sur une proposition de la Thorie des Probabilits, Izv. Akad. Nauk., Ser. 5, 13, p.
359-386, 1900.
[26] Lyapunov, A. M., Nouvelle forme du thorme sur la limite des probabilits, Notes Acad. Sci. Phys. Math.
Sect., Ser. 8, 2, p. 1-24, 1901.
[27] Markov, A. A., Ischislenie Veroyatnostei (El Clculo de Probabilidades), Moscow, 1913 (Cuarta edicin,
1924).
[28] Poincar, J. H., Calcul des Probabilits, Gauthier-Villars, Pars, 1896.
[29] Poisson, S. D., Recherches sur la probabilit des jugements en matire criminelle et en matire civile,
Bachelier, Paris, 1837.

Parte 1

EL CLCULO DE PROBABILIDADES

CAPTULO 1

EL MODELO MATEMTICO
En medio de las causas variables y desconocidas que designamos con el nombre de azar y que hacen incierta e
irregular la marcha de los acontecimientos, se ve surgir, a medida que ellos se multiplican, una regularidad
asombrosa, que parece obedecer a un designio y que se
ha considerado como una prueba de la providencia. Pero
reflexionando sobre ella, se reconoce pronto que esta regularidad no es ms que el desarrollo de las respectivas
posibilidades de los acontecimientos simples, los cuales
deben presentarse ms frecuentemente cuando ms probables son.
Pierre Simon Laplace

1.1. Experimentos aleatorios


El estudio de la naturaleza se realiza mediante la experimentacin, es decir, la observacin de
sistemas que son brindados por la misma naturaleza o diseados especialmente para el estudio
de determinadas propiedades del sujeto de inters. Por ejemplo, en Fsica, se estudian las leyes
del movimiento de los cuerpos basndose ya sea en la observacin del movimiento de cuerpos
que ofrece la misma naturaleza, como pueden ser los planetas de nuestro sistema solar, o
bien diseando experimentos en el laboratorio, por ejemplo, utilizando planos inclinados para
estudiar el movimiento de cuerpos sobre ellos.
En general, el estudio de un determinado sistema conduce a un modelo de ste mediante el
cual el estudio puede ser profundizado. El modelo, en general, es solo una aproximacin del
sistema real y est sujeto siempre a comprobacin. As, por ejemplo, en Fsica, el estudio
del movimiento de los cuerpos condujo a la Mecnica Clsica, segn la cual este movimiento
obedece a las llamadas leyes de Newton. stas se aplicaron a todo sistema en donde intervienen
movimientos mecnicos hasta que se descubrieron fenmenos a los cuales no se adaptaban
con exactitud. La Teora de la Relatividad mostrara que las leyes de Newton son vlidas
nicamente dentro de un cierto rango ms all del cual es necesario substituirlas por las leyes
de la Mecnica Relativista.
En la Teora de la Probabilidad nos planteamos el estudio de una determinada clase de experimentos mediante un modelo matemtico que definiremos ms adelante. Para este fin,
11

12

1. EL MODELO MATEMTICO

consideraremos un experimento como cualquier proceso que conduce a un resultado especfico. As, el observar el color de los ojos de una persona, el preguntar a una persona si le
gustan los chocolates, el medir el tiempo que permanece prendida una lmpara de manera
ininterrumpida, el medir el tiempo que una piedra tarda en caer de un edificio, son todos
ejemplos de experimentos. Como puede verse, le estamos dando al concepto de experimento
un sentido muy amplio, no nos interesa el tipo de proceso involucrado, pudiendo ser ste una
observacin, una medicin o cualquier otra cosa, lo nico que requerimos es que el proceso en
consideracin conduzca a un resultado que puede ser especificado.
Definicin 1.1 (Experimento). Un experimento es cualquier proceso que conduce a un
resultado especfico.
Para los fines del tema que abordaremos en este libro, clasificaremos a los experimentos en dos
grandes categoras. Por un lado consideraremos todos aquellos experimentos en los cuales, una
vez definidas todas las condiciones bajo las cuales se realizan, su resultado queda nicamente
determinado. A este tipo de experimentos los llamaremos determinsticos. Los experimentos
relativos al movimiento de un cuerpo bien determinado, sujeto a la accin de ciertas fuerzas,
tambin bien determinadas, entran dentro de esta categora. El movimiento del cuerpo queda
perfectamente determinado conociendo la posicin y velocidad del cuerpo en un momento
dado, as como las fuerzas que actan sobre l. Ese movimiento queda determinado en el
sentido de que siempre que se repitan las mismas condiciones, el cuerpo seguir la misma
trayectoria.
Por otro lado, consideraremos todos aquellos experimentos que no son determinsticos, es
decir, aquellos en los cuales, una vez definidas las condiciones en que se realizan, su resultado
no queda nicamente determinado. A un experimento de este tipo lo llamaremos aleatorio.
En otras palabras, un experimento es aleatorio si, una vez definido, al considerar diferentes
repeticiones de l, aunque sea potencialmente, todas bajo las condiciones establecidas, se
pueden obtener resultados distintos.
Definicin 1.2 (Experimento determinstico). Un experimento determinstico es un experimento con la caracterstica de que, una vez definidas todas las condiciones bajo las cuales
se realiza, su resultado queda nicamente determinado.
Definicin 1.3 (Experimento aleatorio). Un experimento aleatorio es un experimento con
la caracterstica de que, una vez definidas todas las condiciones bajo las cuales se realiza, su
resultado no queda nicamente determinado.
Dentro de la categora de experimentos aleatorios caben todos aquellos en los cuales la indeterminacin del resultado se debe simplemente a la incompleta determinacin de las condiciones
precisas en que se realizan, as como, en caso de existir, aquellos que son por naturaleza no
determinsticos, es decir, aquellos en los que an estando determinadas con precisin las condiciones en que se realizan, el resultado es impredecible por no estar nicamente determinado.
No caben dentro de esta categora de experimentos aquellos que son determinsticos pero en
los cuales el experimentador no es capaz de predecirlos por ignorancia, ya sea de las condiciones en que se realizan o de las leyes que los rigen, o bien por no disponer de los medios
adecuados para ello. Algunos ejemplos ilustrarn este punto:
Ejemplo 1.4. Consideremos una lnea de un boliche, boliches y una bola de boliche, todos
con caractersticas fsicas que podemos considerar invariables mientras experimentamos con

1.1. EXPERIMENTOS ALEATORIOS

13

ellos. Supongamos, adems, que contamos con algn aparato que nos permite colocar los
boliches en cualquier posicin determinada y con otro aparato que nos permite lanzar la bola
con la fuerza y direccin que deseemos. Fijemos una posicin determinada de los boliches,
elijamos una fuerza de lanzamiento de la bola orientada hacia los boliches y consideremos el
experimento consistente en lanzar la bola con esa fuerza y direccin determinadas a priori y
en observar el nmero de boliches que caen. Este experimento, as definido, es un ejemplo
de un experimento determinstico. Incluso si el experimentador desconoce las leyes fsicas
involucradas en el experimento o no cuenta con los medios adecuados para realizar clculos
rpidos y entonces no puede predecir, antes de que la bola llegue a los boliches, el nmero de
boliches que caern, el experimento sigue siendo determinstico pues siempre que se repitan las
mismas condiciones, el resultado ser el mismo, es decir ste est nicamente determinado.
Ejemplo 1.5. Consideremos ahora el mismo dispositivo de boliches, pero definamos un nuevo
experimento consistente en lanzar la bola con una fuerza y direccin arbitrarias (sobre la lnea)1
y en observar el nmero de boliches que caen. Este nuevo experimento es ahora un ejemplo de
un experimento aleatorio. Incluso si el experimentador conoce perfectamente las leyes fsicas
involucradas en el problema y dispone de una computadora que le permite efectuar clculos
rpidos y as predecir, antes de que la bola llegue a los boliches, el nmero de boliches que
caern en cada lanzamiento, el experimento sigue siendo aleatorio pues la eleccin arbitraria
de la fuerza y direccin de lanzamiento de la bola es parte del experimento y entonces el
resultado de ste no est nicamente determinado.
Ejemplo 1.6. Supongamos que tenemos tres pelotitas pintadas, una de rojo, una de azul y otra
de verde, colocadas en 3 cajas numeradas del 1 al 3, de manera que la bola roja se encuentre en
la caja 1, la azul en la 2 y la verde en la 3. Consideremos entonces el experimento consistente
en pedirle a una persona, elegida arbitrariamente, que saque la pelotita colocada en la caja
nmero 3 y anote el color de ella como resultado del experimento. Incluso si la persona
elegida desconoce la manera en que estn colocadas las pelotitas en las cajas y entonces para
ella el resultado del experimento es impredecible, el experimento descrito es un experimento
determinstico pues estando ya colocadas las pelotitas en sus respectivas cajas, el resultado
ser siempre el mismo.
Ejemplo 1.7. Consideremos las mismas 3 pelotitas del ejemplo anterior, las mismas 3 urnas
numeradas del 1 al 3 y consideremos el experimento consistente en colocar las pelotitas en las
cajas, una en cada una, de manera arbitraria, y en seleccionar despus la pelotita de la urna
nmero 3, anotando su color como resultado del experimento. Incluso si alguna persona fuera
capaz de predecir la manera en que quedarn colocadas las pelotitas en las cajas en cada realizacin particular del experimento descrito, ste es un experimento aleatorio pues la colocacin
arbitraria de las pelotitas en las cajas es parte del experimento. La prediccin del resultado en
cada realizacin particular del experimento indicara que cada realizacin particular admite un
nico posible resultado, pero una repeticin del experimento, en las mismas condiciones (que
incluyen la colocacin arbitraria de las pelotitas en las cajas), puede dar un resultado distinto.
En los dos ejemplos de experimentos aleatorios dados arriba, la indeterminacin del resultado
de ellos se debe exclusivamente a que las condiciones en que se realizan no estn perfectamente
1

cosa que se puede lograr, por ejemplo, eligiendo a una persona de manera arbitraria y pidindole que
lanze la bola sobre la lnea como mejor le parezca

14

1. EL MODELO MATEMTICO

especificadas y entonces, al repetirlos, podemos esperar distintos resultados. En otras palabras,


si bien estn definidos con base en experimentos que son por naturaleza determinsticos, se
introduce la aleatoriedad al permitir que las condiciones precisas en que se realizan sean
variables. La existencia de otro tipo de experimentos aleatorios en los cuales la aleatoriedad
sea intrnseca a ellos es un problema en gran medida filosfico. Existe an discusin al respecto
y no es nuestra intencin abordarla en este libro. Los ejemplos que pueden darse para abordarla
requieren la profundizacin en reas cientficas como puede ser la Mecnica Cuntica, en donde
hay quienes defienden la aleatoriedad intrnseca en algunos fenmenos de nivel microscpico.
Lo nico que podemos mencionar aqu es que ambos tipos de experimentos aleatorios caben
en el estudio que haremos y nuestro objetivo ser el establecer modelos que nos permitan
estudiarlos.
Como puede verse por los ejemplos dados arriba, en general, la definicin de un experimento
aleatorio involucra una familia de experimentos particulares, todos realizados bajo las mismas
condiciones. La situacin es distinta nicamente cuando se trata de experimentos con una
aleatoriedad intrnseca; es decir, cuando incluso al quedar completamente determinadas las
condiciones bajo las cuales se realiza, el resultado no est nicamente determinado. Ahora
bien, el que la definicin de un experimento aleatorio involucre en general una familia de
experimentos particulares no significa que sea posible realizar realmente cada experimento
particular de la familia; es decir, no significa que el experimento aleatorio sea realmente
repetible. El siguiente ejemplo ilustrar este punto:
Ejemplo 1.8. Tomemos un gato para experimentar, digamos el gato de la Sra. Conchita
que vive en la casa de al lado, el cual est completamente sano y no tiene ninguna herida.
Consideremos entonces el experimento consistente en elegir una persona de manera arbitraria,
darle una pistola cargada y pedirle que dispare sobre el gato. Como resultado del experimento,
observemos si, despus de realizarlo, el gato est vivo o muerto. Si quisiramos considerar una serie de repeticiones de este experimento, en un momento dado, posiblemente despus de su primera realizacin, este experimento ya no ser repetible pues el gato ya estar
herido o muerto y entonces no se pueden reproducir las condiciones originales bajo las cuales
est definido el experimento. Sin embargo, el experimento que definimos es un experimento
aleatorio y su definicin involucra, al menos conceptualmente, una familia de experimentos
particulares, a saber, diferentes personas que disparan sobre el gato de diferentes maneras
particulares. El estudio de este tipo de experimentos puede ser ms complejo que el de un
experimento aleatorio que se pueda realizar tantas veces como queramos, sin embargo, forma
parte del grupo de experimentos que nos interesa estudiar.
En general, consideraremos en este libro experimentos aleatorios del tipo de los ejemplos 1.5 y
1.7, es decir, en los cuales la aleatoriedad proviene de que las condiciones en que se realizan no
son lo suficientemente precisas y entonces no podemos esperar el mismo resultado en cada una
de sus posibles realizaciones. En ese tipo de experimentos, cada una de sus realizaciones se
efecta bajo condiciones particulares precisas y su resultado est entonces nicamente determinado; la aleatoriedad proviene de que, dentro de las condiciones generales que caracterizan
al experimento aleatorio, caben diferentes condiciones precisas de experimentacin. Tambin,
como nota aclaratoria, estaremos interesados fundamentalmente en el estudio de experimentos aleatorios, aunque eventualmente consideraremos experimentos determinsticos, vindolos

1.2. EVENTOS

15

como casos extremos de experimentos aleatorios en los cuales slo se admite un posible resultado. Finalmente, cabe mencionar que en todo problema de probabilidad est involucrado un
experimento aleatorio, aunque no sea explcitamente.
Definicin 1.9 (Realizacin de un experimento aleatorio). A cada repeticin particular
de un experimento aleatorio la llamaremos una realizacin de ste.
1.2. Eventos
A partir de esta seccin consideraremos algunos experimentos aleatorios cuya descripcin
conviene sealar de una vez. En ocasiones consideraremos un experimento aleatorio consistente
en lanzar cierto nmero de dados y anotar los nmeros que se obtienen. En ese caso debe
entenderse, a menos que se diga otra cosa, que se trata en primer lugar de dados usuales, es
decir cubos con seis caras marcadas con nmeros del 1 al 6; adems se entender tambin
que se trata de dados perfectamente simtricos y balanceados y que el lanzamiento de ellos
se realiza tambin de la manera en que se hace usualmente en un juego con dados, es decir
se agitan de manera arbitraria y se hacen caer sobre una mesa; finalmente se considera que
el resultado que se obtiene con cada dado es el nmero que aparece en su cara superior. Una
descripcin semejante puede hacerse de un experimento aleatorio consistente en lanzar una o
varias monedas y anotar el resultado que se obtiene; en ese caso, los dos posibles resultados del
lanzamiento de una moneda sern llamados cara y cruz. En muchas ocasiones consideraremos
un experimento aleatorio consistente en seleccionar al azar uno o varios elementos de
una coleccin de objetos, que bien pueden ser cosas, animales, personas, etc.; en esos casos
podemos hablar en general de la eleccin al azar de individuos de una poblacin y
la eleccin al azar se refiere, por el momento, a que sta se realiza de manera arbitraria,
es decir sin que haya predileccin por elegir algunos de los individuos de la poblacin. Ms
adelante definiremos el trmino al azar de una manera ms precisa.
Hechas estas aclaraciones, consideremos el experimento aleatorio consistente en lanzar un
dado 3 veces en forma consecutiva, anotando los nmeros que se obtienen. Cada posible
resultado de este experimento lo podemos representar por una terna de nmeros; as, la terna
(2, 5, 3) significa que en el primer lanzamiento se obtiene 2, en el segundo 5 y en el tercero
3. Cada posible resultado de este experimento tiene determinadas propiedades, por ejemplo,
el resultado (2, 6, 1) tiene la propiedad de que nos da una suma igual a 9, tambin tiene la
propiedad de que los 3 nmeros son distintos, otra es que el nmero ms grande es el 6,
etc.; estas propiedades no son las mismas para todos los posibles resultados del experimento,
aunque algunas de ellas pueden coincidir para varios resultados, por ejemplo, el resultado
(3, 2, 6) tiene como propiedad comn, con el resultado anterior, el que su nmero ms grande
es el 6, tambin es comn la propiedad de estar formado por 3 nmeros distintos, en cambio
la propiedad de que la suma es 9 no se presenta aqu.
Con cada posible resultado del experimento descrito podemos asociar entonces determinadas
propiedades. Supongamos ahora que an no hemos realizado el experimento y fijemos una
determinada propiedad, por ejemplo, el que la suma de los 3 nmeros que se obtienen sea 12.
Antes de realizar el experimento, no sabemos si esta propiedad se presentar o no al realizarlo,
nicamente realizando el experimento podemos decir si se presenta o no.
En general, diremos que una propiedad es relativa al experimento aleatorio si una vez realizado
ste podemos decir si se presenta o no, es decir, si el experimento aleatorio determina la

16

1. EL MODELO MATEMTICO

presencia o no de esa propiedad. Dado un experimento aleatorio, a cada propiedad relativa a


ese experimento la llamaremos un evento relativo al experimento, o simplemente un evento,
si no hay confusin sobre el experimento aleatorio al que se refiere.
Definicin 1.10 (Propiedad relativa a un experimento aleatorio). Diremos que una
propiedad es relativa a un experimento aleatorio si una vez realizado ste podemos decir si se
presenta o no
Definicin 1.11 (Eventos). Un evento es una propiedad relativa a un experimento aleatorio.
Cuando, al realizar un experimento, la propiedad que define a un evento se presenta, diremos
que el evento ocurre, en caso contrario, diremos que no ocurre. Un evento tiene entonces la
caracterstica de que una vez realizado el experimento podemos decir si ocurre o no ocurre.
Definicin 1.12 (Ocurrencia de un evento). Se dice que un evento ocurre al realizar un
experimento aleatorio si la propiedad que lo caracteriza se presenta en esa realizacin.
Los eventos relativos a un experimento aleatorio sern denotados por letras maysculas A,
B, C,. . .; as, en el ejemplo descrito antes, podemos definir a A como el evento: se obtienen
resultados distintos en cada uno de los 3 dados.
A manera de ilustracin, consideremos los siguientes ejemplos:
Ejemplo 1.13. Consideremos el experimento aleatorio consistente en lanzar 3 veces un dado
en forma consecutiva y en anotar el nmero resultante en cada lanzamiento. Los siguientes
son eventos relativos a este experimento:
A: Se obtiene una suma igual a 9.
B: Se obtiene por lo menos un 5.
C: En el segundo lanzamiento se obtiene 3.
Ejemplo 1.14. De una urna en la cual hay 2 bolas rojas, 4 bolas blancas y 7 bolas negras, se
extraen 3 bolas al azar. Los siguientes son eventos relativos a este experimento:
A: Se obtienen 3 bolas de distinto color.
B: Ninguna de las 3 bolas seleccionadas es blanca.
Ejemplo 1.15. Se elige al azar un matrimonio de una cierta poblacin y se cuenta el nmero
de hijos e hijas que ha tenido. Los siguientes son eventos relativos a este experimento:
A: El matrimonio seleccionado tiene 2 nios y una nia.
B: El matrimonio seleccionado tiene en total 4 hijos.
C: El matrimonio seleccionado tiene ms nios que nias.
D: El matrimonio seleccionado tiene nicamente un nio.
Ejemplo 1.16. De una determinada poblacin humana se eligen al azar 10 personas y se
anota su sexo, edad, peso y estatura. Los siguientes son eventos relativos a este experimento:
A: Todas las personas elegidas son mayores de 21 aos.
B: Todas las personas elegidas menores de 10 aos pesan menos de 30 kilos.
C: La estatura promedio de las personas elegidas es un nmero entre 1.5 m. y 2.0 m.

1.3. PRINCIPIO DE REGULARIDAD DE LAS FRECUENCIAS

17

1.3. Principio de regularidad de las frecuencias


Algo que hace interesante el estudio de los experimentos aleatorios es el hecho de que, a
pesar de su aleatoriedad, presentan tambin una regularidad, aunque de un tipo distinto a
la del ejemplo del movimiento de un cuerpo sujeto a la accin de ciertas fuerzas, en el cual
la regularidad consiste en que, siempre que se repitan las condiciones establecidas para el
experimento, el cuerpo seguir la misma trayectoria.
En el caso de un experimento aleatorio, cuando, de ser posible, ste se realiza varias veces,
se obtienen diferentes resultados; sin embargo, se puede observar que se manifiesta una regularidad en la frecuencia relativa de ocurrencia de cada posible resultado, mantenindose
aproximadamente constante cuando el nmero de realizaciones del experimento es grande.
Por frecuencia relativa de un posible resultado o, en general, de un evento relativo a un
experimento, entenderemos la fraccin que resulta de dividir el nmero de veces que el evento
ocurre en una serie de realizaciones del experimento entre el nmero total de veces que el
experimento se realiza en esa serie. Esta frecuencia relativa se puede expresar tambin como
un porcentaje simplemente multiplicando por 100 la fraccin descrita.
Por ejemplo, consideremos el experimento aleatorio consistente en observar el sexo de un
recin nacido elegido arbitrariamente en un cierto hospital. El resultado de una realizacin
de este experimento no est nicamente determinado, pudiendo ser una de dos alternativas:
hembra o varn. Sin embargo, si se mide la frecuencia relativa con que cada una de estas
dos alternativas se ha presentado, se observar que la proporcin de hembras y varones se
mantiene aproximadamente constante.
La misma regularidad se puede observar en la frecuencia relativa de ocurrencia de cualquier
evento relativo a un experimento aleatorio repetible. As, por ejemplo, al realizar muchas veces
el experimento aleatorio consistente en lanzar 3 dados y anotar los nmeros que resultan,
se podr observar que, a medida que crece el nmero de repeticiones del experimento, la
frecuencia relativa con que se obtiene una suma igual a 8 se mantiene aproximadamente
constante.
A esta propiedad de regularidad de la frecuencia relativa con que ocurre cada uno de los
posibles resultados de un experimento aleatorio repetible o, en general, cada evento relativo al
experimento, la llamaremos principio de regularidad de las frecuencias. Este principio
no es un principio absoluto que se cumple en cualquier serie de repeticiones de un experimento
aleatorio; por ejemplo, supongamos que tenemos a la mano un dado perfectamente simtrico y
balanceado y consideremos el experimento aleatorio consistente en lanzar ese dado de manera
arbitraria sobre una mesa y en observar el nmero que muestra la cara superior del dado
al estabilizarse sobre la mesa. Supongamos adems que el experimento aleatorio descrito lo
hemos ya realizado un milln de veces, observando que el nmero 1 resulta en 15% de los
casos. Si el mismo experimento lo realizamos un milln de veces ms, no necesariamente
se obtendr una frecuencia relativa de ocurrencia del nmero 1 cercana al 15%, en realidad
cualquier frecuencia de ocurrencia es perfectamente aceptable. Sin embargo, basndonos en el
principio de regularidad de las frecuencias, podemos decir que en muchas series de un milln
de realizaciones del experimento aleatorio descrito, una desviacin grande de la frecuencia
con que ocurre el nmero 1 de un determinado porcentaje, ocurrir raramente, es decir en
proporcin pequea. La cadena de razonamientos en este sentido es interminable, nuevamente
la ltima afirmacin no debe tomarse como algo absoluto, siendo perfectamente aceptable

18

1. EL MODELO MATEMTICO

que en diferentes series de un milln de realizaciones del experimento aleatorio se obtengan


porcentajes de ocurrencia del nmero 1 completamente distintos.
Abundando un poco ms en el anlisis del ejemplo anterior, supongamos que en la segunda
serie de un milln de realizaciones del experimento descrito, se observe que el nmero 1 se
obtiene nicamente 10 veces, es decir que el nmero 1 se obtiene slo en 0.001% de los casos en
vez de un porcentaje cercano al 15%. Significa eso que podemos estar seguros que el nmero
1 se presentar en un porcentaje muy superior al 15% en una serie posterior de realizaciones
del mismo experimento, de manera que, tomando las dos series juntas, el porcentaje con que
se presente el nmero 1 sea ya cercano al 15%? La respuesta es un no. De hecho, dos series
de repeticiones del experimento descrito son totalmente independientes, es decir lo que ocurra
en una de ellas no tiene ninguna influencia en lo que ocurra en la otra. Esto no contradice
el que el porcentaje con que se presenta el nmero 1 se pueda estabilizar a la larga, pues lo
que ocurre en una serie de un milln de realizaciones del experimento tiene poca influencia
en el porcentaje de ocurrencia del nmero 1 digamos en un billn de realizaciones del mismo
experimento.
As, el principio de regularidad de las frecuencias debe interpretarse con cuidado. Expresa
que la frecuencia con que se presenta cada posible resultado de un experimento aleatorio, en
una serie grande de realizaciones, se mantiene aproximadamente constante, pero, una eventual
desviacin de esa constante, si bien es algo que ocurre raramente, es perfectamente aceptable.
1.4. El concepto de probabilidad
Consideremos un determinado experimento aleatorio y eventos A, B, C, . . . relativos a ese
experimento. Al considerar una realizacin del experimento, podemos decir si cada uno de
los eventos en consideracin ocurre o no, pero antes de realizar el experimento no podemos,
en general, determinar si un evento ocurrir o no al realizarlo. Sin embargo, cuando un
experimento aleatorio se realiza varias veces, se puede observar que la frecuencia relativa con
que ocurre cada evento, relativo a ese experimento, no es la misma para todos los eventos.
La manera ms simple de verificar esto es observando que en una serie de realizaciones de
un experimento aleatorio hay eventos que ocurren muy raramente y otros que ocurren casi
siempre. Por ejemplo, si consideramos el experimento consistente en lanzar 10 dados y lo
realizamos varias veces, se podr observar que el evento se obtiene un 1 en cada uno de los 10
dados ocurre muy raramente, mientras que el evento la suma de los nmeros que se obtienen
en los 10 dados es mayor que 10 ocurre casi siempre. En general, la diferencia en la frecuencia
relativa de ocurrencia de un par de eventos no ser tan marcada como en este ejemplo, pero
s se podr observar que, en general, son distintas para eventos distintos. Esta diferencia en
la frecuencia relativa con que ocurre cada evento relativo a un experimento aleatorio puede
interpretarse diciendo que, entre todos los eventos, hay unos que ocurren ms fcilmente
que otros. Ms an, con base en el principio de regularidad de las frecuencias, en una serie
grande de realizaciones de un experimento aleatorio, la frecuencia relativa con que ocurre cada
evento se mantiene aproximadamente constante. Esa constante puede interpretarse como una
medida del que tan fcilmente esperamos que el evento correspondiente ocurra.
El problema que se plantea en el Clculo de Probabilidades consiste en encontrar una manera
que permita medir el que tan fcilmente se presentar un evento en futuras realizaciones de
un experimento aleatorio. As, se trata de asignar un nmero a cada evento, el cual exprese esa

1.5. ESPACIOS MUESTRALES

19

medida. De acuerdo con lo dicho anteriormente, esperamos que, en el caso de experimentos


aleatorios repetibles, los nmeros asignados a los diferentes eventos sean tales que, mientras
ms grande sea el nmero asignado a un evento, ms grande ser la frecuencia relativa con
que ste ocurre en una serie grande de realizaciones del experimento.
A ese nmero que mide la facilidad con que un evento ocurre al realizar el experimento
aleatorio correspondiente lo llamaremos la probabilidad del evento correspondiente.
Definicin 1.17 (Probabilidad de un evento). La probabilidad de un evento relativo a
un experimento aleatorio es un nmero que mide la facilidad con que el evento ocurre al
realizar el experimento.

1.5. Espacios muestrales


En general, dado un experimento aleatorio, no es difcil precisar y denotar de alguna manera
a cada uno de sus posibles resultados. Por ejemplo, vimos que en el caso del experimento
aleatorio consistente en lanzar un dado 3 veces en forma consecutiva, anotando los nmeros
que se obtienen, cada posible resultado puede representarse mediante una terna de nmeros
con la convencin de que, por ejemplo, la terna (2, 5, 3) significa que en el primer lanzamiento
se obtiene 2, en el segundo 5 y en el tercero 3.
A manera de notacin, utilizaremos la letra con un subndice para denotar a cada posible
resultado de un experimento aleatorio. As, en el caso del lanzamiento de dados descrito
arriba, podramos denotar con 1 al resultado (1, 1, 1), con 2 al resultado (1, 1, 2), . . .
Al conjunto formado por todos los posibles resultados de un experimento aleatorio se le llama
el espacio muestral de ese experimento y se le denota con la letra . As, en el ejemplo dado
arriba, el espacio muestral est dado por:
= {(1, 1, 1), (1, 1, 2), ...}
O bien, si hemos definido a los posibles resultados usando s, podemos escribir:
= { 1 , 2 , . . .}
Definicin 1.18 (Espacio muestral). El espacio muestral de un experimento aleatorio es
el conjunto formado por todos sus posibles resultados.
El espacio muestral de un experimento aleatorio puede ser un conjunto muy grande e incluso
puede contener una infinidad de elementos. Un ejemplo tpico de esa situacin es el siguiente:
Ejemplo 1.19. Consideremos el experimento aleatorio consistente en lanzar una moneda al
aire tantas veces como sea necesario hasta obtener por primera vez cruz, anotando el resultado
de cada lanzamiento. Los posibles resultados de este experimento pueden representarse por
sucesiones de As y Cs, en donde A representa la obtencin de cara y C la obtencin de
cruz en un lanzamiento. As, la sucesin CCCCCCA representa un posible resultado del
experimento aleatorio descrito. Utilizando s, podramos definir:

20

1. EL MODELO MATEMTICO

1 = C
2 = CA
3 = CCA
.. .. ..
. . .
El nmero de cruces que resultan antes de la obtencin de una cara puede ser cualquier
nmero entero no negativo, es decir, en este caso el espacio muestral es un conjunto infinito
numerable.
Como se muestra en el ejemplo siguiente, el espacio muestral de un experimento aleatorio
puede incluso ser ms grande que un conjunto infinito numerable.
Ejemplo 1.20. Considrese el experimento aleatorio consistente en elegir al azar una lmpara de la produccin de una cierta fbrica y en medir su tiempo de vida, es decir, el tiempo
que permanece iluminando continuamente antes de fundirse. Aunque el tiempo de vida lo
podramos dar mediante un mltiplo entero de una unidad de tiempo elegida previamente,
tericamente ese tiempo de vida puede ser cualquier nmero real no negativo. En otras palabras, en este caso, cada posible resultado del experimento aleatorio puede representarse con
un nmero real no negativo, que representa el tiempo de vida de la lmpara seleccionada, y
= {x R : x 0}. As, en este caso, es un conjunto infinito no numerable.
1.6. Representacin de eventos
Consideremos un experimento aleatorio y un evento A relativo a ese experimento. Antes
de realizar el experimento, no sabemos si el evento A ocurrir o no. Siendo el evento A una
propiedad relativa al experimento, solo podemos saber si ocurre o no realizando el experimento.
Es decir, el que A ocurra o no depende de cual sea el resultado del experimento. Para algunos
resultados, la propiedad que define al evento A se presentar y para otros resultados no se
presentar. El evento A divide entonces al conjunto de todos los posibles resultados del
experimento en dos clases; una clase est formada por todos aquellos resultados de los cuales
se deduce la ocurrencia de A y la otra por todos aquellos resultados de los cuales se deduce la
no ocurrencia de A. Al conjunto formado por los resultados de la primera clase lo llamaremos
el conjunto de resultados favorables a la ocurrencia de A.
Definicin 1.21 (Resultados favorables a un evento). Los resultados favorables a un
evento A, relativo a un experimento aleatorio, son todos aquellos posibles resultados del experimento de los cuales se deduce la ocurrencia de A.
De esta manera, cada evento A relativo a un experimento aleatorio puede representarse como
un subconjunto del espacio muestral de dicho experimento, el formado por los posibles
resultados que le son favorables.
Ejemplo 1.22. Consideremos el experimento aleatorio consistente en lanzar 3 dados sobre
una mesa, anotando los nmeros que se obtienen, y llamemos A al evento: se obtiene el
mismo nmero en los 3 dados, entonces podemos escribir:
A = {(1, 1, 1), (2, 2, 2), (3, 3, 3), (4, 4, 4), (5, 5, 5), (6, 6, 6)}

1.6. REPRESENTACIN DE EVENTOS

21

Por otra parte, cada subconjunto A del espacio muestral representa un evento, a saber, el
evento: ocurre alguno de los resultados que conforman A2.
Dado un evento especfico, el subconjunto del espacio muestral que lo representa queda nicamente determinado; por otra parte, dado un subconjunto del espacio muestral, se le pueden
asociar diferentes eventos, los cuales, formalmente, son distintos; por ejemplo, si consideramos el experimento aleatorio consistente en lanzar un dado 3 veces en forma consecutiva, al
subconjunto del espacio muestral A = {(1, 1, 1)} se le pueden asociar los eventos la suma de
los nmeros que se obtienen es igual a 3 y se obtiene 1 en cada uno de los lanzamientos.
Sin embargo, puede observarse que todos los posibles eventos que pueden asociarse con un
subconjunto del espacio muestral tienen la caracterstica de que uno de ellos ocurre en una
realizacin del experimento si y slo si ocurren los otros. Esto motiva la siguiente definicin:
Definicin 1.23 (Equivalencia de eventos). Dos eventos son equivalentes si la ocurrencia
de cualquiera de ellos implica la ocurrencia del otro en cualquier realizacin del experimento.
Con base en esta definicin, la familia de eventos queda partida en clases formadas por eventos
que son equivalentes entre s. Todos los eventos de una clase son esencialmente el mismo y
as lo consideraremos en lo sucesivo. De esta manera, hay una correspondencia uno a uno
entre los eventos relativos a un experimento aleatorio y los subconjuntos del correspondiente
espacio muestral.
En particular, cada posible resultado representa un evento, consistente en la ocurrencia
de . A esta clase particular de eventos, que se representan por un elemento de , los
llamaremos eventos elementales.
Definicin 1.24 (Eventos elementales). Un evento elemental relativo a un experimento
aleatorio es un evento consistente en la ocurrencia de un especfico posible resultado del experimento.
De la misma manera, el mismo espacio muestral representa un evento, el cual tiene la
particularidad de ocurrir siempre que se realiza el experimento aleatorio correspondiente,
razn por la cual es llamado el evento seguro.
Definicin 1.25 (Evento seguro). El evento seguro relativo a un experimento aleatorio es
un evento que siempre ocurre al realizar el experimento.
Finalmente, el conjunto vaco representa tambin un evento, el cual no tiene asociados
resultados favorables y que podra definirse como: no ocurre ninguno de los posibles resultados
del experimento. Evidentemente este evento nunca ocurre, razn por la cual es llamado el
evento imposible.
Definicin 1.26 (Evento imposible). El evento imposible relativo a un experimento aleatorio es un evento que nunca ocurre al realizar el experimento.
2En

la formulacin moderna de la Teora de la Probabilidad se restringe la familia de eventos de tal manera


que se pueda garantizar que la funcin de probabilidad satisfaga determinadas propiedades. Este punto ser
analizado ms adelante.

22

1. EL MODELO MATEMTICO

1.7. Composicin de eventos


Consideremos un experimento aleatorio, digamos lanzar 3 veces un dado en forma consecutiva.
Con relacin a un experimento de este tipo, hemos dicho que podemos definir eventos, los
cuales tienen la caracterstica de ocurrir o no ocurrir cuando realizamos el experimento. En
el ejemplo en consideracin, los siguientes son eventos:
A: Se obtiene una suma igual a 7.
B: Se obtiene 3 nmeros iguales.
C: Se obtiene por lo menos un 5.
D: Se obtiene una suma igual a 3.
E: En el primer lanzamiento se obtiene 6.
F : En el segundo lanzamiento se obtiene 3.
G: No se obtiene ningn 5.
H: Se obtiene una suma menor que 20.
Estos eventos se pueden comparar unos con otros, por ejemplo, al comparar el evento A con
el evento B, podemos decir que, al realizar el experimento, es imposible que ocurran ambos;
al comparar el evento C con el evento G, podemos decir que, al realizar el experimento, uno
ocurre si y slo si el otro no ocurre; al comparar el evento E con el evento F , podemos decir que
la ocurrencia o no ocurrencia de uno de ellos no influye sobre la ocurrencia o no ocurrencia del
otro; comparando los eventos B y D, podemos decir que la ocurrencia de D en una realizacin
del experimento implica la ocurrencia de B.
Tambin a partir de los eventos dados, podemos definir nuevos eventos. Por ejemplo, a partir
de C y B podemos considerar un evento definido por la propiedad de que ocurre en la realizacin de un experimento si y slo si ocurre alguno de los dos eventos considerados o ambos,
en este caso, el nuevo evento as definido ocurre slo cuando se obtienen 3 nmeros iguales,
o bien cuando los 3 nmeros no son iguales pero se obtiene por lo menos un 5; tambin
podemos considerar otro evento definido por la propiedad de que ocurre en la realizacin de
un experimento si y slo si ocurren ambos eventos, en este caso, el nuevo evento as definido
ocurre nicamente cuando se obtienen tres cincos.
Las consideraciones anteriores nos llevan a las siguientes definiciones, para las cuales supondremos que se tiene definido un experimento aleatorio E y eventos A, B, C,. . . relativos a ese
experimento.
Definicin 1.27 (Unin de eventos). Si A y B son dos eventos, definimos un nuevo evento
caracterizado por la propiedad de que ocurre en la realizacin de un experimento si y slo si
ocurre alguno de los eventos A o B, o ambos. A este nuevo evento lo llamaremos la unin de
A y B y lo denotaremos por A B.
Definicin 1.28 (Interseccin de eventos). Si A y B son dos eventos, definimos un nuevo
evento caracterizado por la propiedad de que ocurre en la realizacin de un experimento si y
slo si los dos eventos A y B ocurren. A este nuevo evento lo llamaremos la interseccin de
A y B y lo denotaremos por A B.
Definicin 1.29 (Complemento de un evento). Si A es un evento, definimos un nuevo
evento caracterizado por la propiedad de que ocurre en la realizacin de un experimento si y

1.7. COMPOSICIN DE EVENTOS

23

slo si A no ocurre. A este nuevo evento lo llamaremos el complemento o la negacin de A y


lo denotaremos por Ac .
Ejemplo 1.30. Considerando el experimento y los eventos definidos al inicio de esta seccin,
tenemos:
E F : se obtiene 6 en el primer lanzamiento o se obtiene 3 en el segundo lanzamiento, o bien
se obtienen ambos resultados.
A C: Se obtiene un 5 y 2 unos.
B c : No se obtienen 3 nmeros iguales.
La terminologa de la Teora de Conjuntos utilizada en las definiciones anteriores no es fortuita pues hemos visto que hay una correspondencia uno a uno entre los eventos relativos a un
experimento aleatorio y los subconjuntos del correspondiente espacio muestral, de tal manera
que las operaciones entre conjuntos se traducen inmediatamente en operaciones entre eventos
y resulta evidente que las definiciones anteriores corresponden precisamente a las correspondientes operaciones entre conjuntos. De esta manera, todas las propiedades que se tienen para
las operaciones entre conjuntos se traducen inmediatamente en propiedades de las operaciones
entre eventos. Entre estas propiedades podemos destacar la conmutatividad, la asociatividad,
la distributividad y las leyes de Morgan.
Todas las operaciones entre conjuntos se traducen en operaciones entre eventos, por ejemplo,
dados dos eventos A y B, se puede definir la diferencia A B como el evento A B c , es decir
como el evento que ocurre si y slo si ocurre el evento A pero no el evento B.
De la misma manera, las relaciones que se pueden establecer entre conjuntos se traducen en
relaciones entre eventos; por ejemplo, se puede decir que el evento A est contenido en el
evento B, y denotarse por A B, si, vistos como subconjuntos del espacio muestral, A y B
tienen esa relacin; es decir si la ocurrencia del evento A implica la ocurrencia del evento B.
Ejemplo 1.31. Sean A y B dos eventos, entonces el evento ocurre A pero no B se puede
representar por A B c ; el evento ocurre exactamente uno de los dos eventos A y B se puede
representar por A B A B; el evento no ocurre ninguno de los eventos A y B se puede
representar por Ac B c o bien por (A B)c .
En la Teora de Conjuntos se tiene el concepto de eventos ajenos, lo cual significa que stos
tienen una interseccin vaca. Como veremos ms adelante, este concepto es especialmente
importante en la Teora de la Probabilidad. Cuando dos eventos se representan mediante dos
conjuntos ajenos se dice que dichos eventos son mutuamente excluyentes; en otras palabras,
se tiene la siguiente definicin.
Definicin 1.32 (Eventos mutuamente excluyentes). Diremos que dos eventos A y B
son mutuamente excluyentes si la ocurrencia de ambos en cualquier realizacin del experimento
es imposible.
Este concepto, si bien simple, en ocasiones se vuelve confuso al compararlo con el de independencia, el cual se define ms adelante (ver seccin 2.7). Por tal motivo conviene ilustrarlo
aqu con un ejemplo:
Ejemplo 1.33. Un experimento aleatorio consiste en lanzar un dado dos veces en forma
consecutiva. El resultado del experimento consiste en la pareja ordenada de nmeros que

24

1. EL MODELO MATEMTICO

muestran las caras superiores de los dados. Los eventos A y B que se definen a continuacin
son entonces mutuamente excluyentes:
A: Se obtiene 6 en el primer lanzamiento.
B: Se obtiene 5 en el primer lanzamiento.
Sin embargo, si C es el evento se obtiene 6 en el segundo lanzamiento, los eventos A y C no
son mutuamente excluyentes:
Esto es as porque los eventos A y B no pueden, en ningn caso, ocurrir ambos en alguna
realizacin del experimento aleatorio; en cambio, es posible que los eventos A y C ocurran
ambos en alguna realizacin del experimento.
Definicin 1.34 (Eventos mutuamente excluyentes). Diremos que n eventos A1 , . . . , An
son mutuamente excluyentes si los eventos Ai y Aj son mutuamente excluyentes para toda
i, j {1, . . . , n}, con i 6= j.
Un problema de particular importancia consiste en expresar un evento dado en trminos de
otros eventos ms simples. Por ejemplo, como veremos ms adelante, en muchas ocasiones se
busca expresar un evento dado en trminos de una unin de eventos ms simples que el evento
dado y de tal manera que estos ltimos sean mutuamente excluyentes.
Ejemplo 1.35. En una cierta compaa el esquema para aprobar una propuesta es el siguiente:
tres personas A, B y C analizan la propuesta y sta es aprobada nicamente si por lo
menos dos de las tres personas dan su visto bueno. Consideremos una determinada propuesta
y sean A, B, C y D los eventos la persona A da su visto bueno, la persona B da su visto
bueno, la persona C da su visto bueno y la propuesta es aprobada, respectivamente. D
puede expresarse como una unin de eventos mutuamente excluyentes, cada uno de los cuales
est dado en trminos de A, B y C, a saber, D = (A B C c )(A B c C)(Ac B C)
(A B C).
1.8. Funciones de probabilidad
Como hemos dicho antes, el problema que se plantea en el Clculo de Probabilidades consiste
en encontrar una manera que permita asignar a cada evento un nmero, el cual mida el que
tan fcilmente se presentar el evento en futuras realizaciones de un experimento aleatorio.
Ese nmero que se asigna a un evento es llamado, como ya dijimos tambin, la probabilidad
del evento. Dicho de otra manera, lo que se busca es una funcin con valores reales definida
sobre la familia de eventos; a tal funcin la llamaremos la funcin de probabilidad.
Al asignar probabilidades a cada evento, relativo a un experimento aleatorio dado, lo que
estamos haciendo es definir un modelo que nos permitir estudiar el experimento aleatorio.
En un problema real cada probabilidad asignada tendr una interpretacin prctica y con
base en esa interpretacin se podr decidir sobre la fidelidad con que el modelo representa al
fenmeno aleatorio en consideracin. La asignacin de probabilidades es as, en un cierto sentido, arbitraria, pues se puede proponer una cierta asignacin, desarrollar el modelo con base
en ella y ms adelante, de acuerdo a la interpretacin prctica que demos a la probabilidad,
decidir sobre la validez del modelo como representacin del experimento aleatorio. Sin embargo, como veremos en los ejemplos desarrollados en este libro, para nosotros la probabilidad

1.8. FUNCIONES DE PROBABILIDAD

25

de un evento refleja siempre determinadas caractersticas del experimento aleatorio en consideracin, es decir, tiene un sentido objetivo. De esta manera, al desarrollar un modelo para
un experimento aleatorio buscaremos que la asignacin de probabilidades no sea arbitraria,
debiendo reflejar de alguna manera las caractersticas del experimento aleatorio.
La interpretacin prctica de la probabilidad de un evento que se utiliza ms frecuentemente
es la basada en el principio de regularidad de las frecuencias. Segn esta interpretacin, la
probabilidad de un evento A, relativo a un experimento aleatorio repetible, es un nmero que
debe ser aproximadamente igual a la frecuencia relativa con que el evento A ocurre en una
serie grande de realizaciones del experimento aleatorio. A lo largo de este texto, utilizaremos
esta interpretacin en diferentes situaciones, en particular, en lo que sigue, la usaremos para
deducir algunas reglas que impondremos sobre nuestros modelos.
Si interpretamos a la probabilidad de un evento de acuerdo con el principio de regularidad de
las frecuencias, se imponen algunas restricciones sobre el modelo que queremos construir. En
particular, siendo la frecuencia relativa con que ocurre un evento una cantidad no negativa,
la probabilidad de un evento cualquiera debe tener entonces la misma propiedad. En otras
palabras, podemos escribir la siguiente regla:
Si A es un evento y denotamos por P (A) a su probabilidad de ocurrencia, entonces P (A) 0.
Por otro lado, el evento seguro tiene, en cualquier caso, una frecuencia relativa igual a 1
pues siempre ocurre. Es decir, podemos escribir P () = 1.
Supongamos ahora que un cierto evento C es la unin de dos eventos mutuamente excluyentes
A y B y que hemos logrado de alguna manera asignar las probabilidades P (A) y P (B) a
los eventos A y B respectivamente. De acuerdo a la interpretacin que estamos dando a la
probabilidad de un evento, P (A) y P (B) representan las frecuencias relativas con que ocurren
los eventos A y B, respectivamente, en una serie grande de realizaciones del experimento
aleatorio. Resulta entonces claro que la suma P (A) + P (B) representa la frecuencia relativa
con que ocurre el evento C y se tiene entonces P (C) = P (A) + P (B).
Hemos derivado las 3 propiedades anteriores del supuesto de que podemos interpretar a la
probabilidad de un evento como un nmero que debe ser aproximadamente igual a la frecuencia relativa con que el evento ocurre en una serie grande de realizaciones del experimento
aleatorio. Sin embargo, las propiedades mismas no involucran el uso de la frecuencia relativa
con que ocurre cada uno de los eventos en consideracin. Ms an, si pensamos a la funcin
de probabilidad que buscamos como una medida definida sobre los eventos relativos al experimento aleatorio en consideracin, las propiedades primera y tercera pueden considerarse
como las mnimas que se pueden pedir, mientras que la segunda puede verse simplemente
como una normalizacin de dicha medida. En otras palabras, esas 3 propiedades parecen ser
lo suficientemente razonables como para ser compatibles con cualquier interpretacin prctica
que se d a la probabilidad. Con base en esto, tomaremos esas propiedades como punto de
partida en la construccin del modelo que estamos buscando. En otras palabras, se tiene la
siguiente definicin:
Definicin 1.36 (Funcin de probabilidad). Dado un experimento aleatorio cualquiera,
denotando por A a la familia de eventos relativos a ese experimento, diremos que una funcin
P : A 7 R es una funcin de probabilidad si se satisfacen las siguientes propiedades:
(i) P (A) 0 para todo evento A.

26

1. EL MODELO MATEMTICO

(ii) P () = 1.
(iii) Si A y B son dos eventos mutuamente excluyentes, entonces:
P (A B) = P (A) + P (B)
EJERCICIOS
Ejercicio 1.1 (Problema de los 3 jugadores). Tres jugadores P,Q y R juegan partidas
por parejas, comenzando P contra Q. Quien gane una partida juega con el otro jugador, hasta
que uno de los jugadores gane dos partidas consecutivas, ganando entonces el juego. Describa
el espacio muestral de este juego.
Ejercicio 1.2. Un experimento aleatorio consiste en elegir al azar 3 nmeros a, b y c
en el intervalo [0, 1], para formar la ecuacin ax2 + bx + c = 0. Sea A el evento las dos races
de la ecuacin son reales y distintas. Represente como un conjunto al espacio muestral de
este experimento y al evento A como un subconjunto de .
Ejercicio 1.3. Dos personas, P y Q, juegan un juego de azar, el cual consiste en ir lanzando
un par de dados por turnos, comenzando por P, de tal manera que, si P obtiene una suma
igual a 7, se acaba el juego, ganando P, mientras que, si Q obtiene una suma igual a 6, se
acaba el juego, ganando Q. Sea A el evento el jugador P gana el juego. Represente como un
conjunto al espacio muestral de este juego y al evento A como un subconjunto de .
Ejercicio 1.4. Sean A y B dos eventos y sean E y F los eventos ocurre exactamente uno
de los dos eventos A y B y ocurre a lo ms uno de los dos eventos A y B, respectivamente.
Exprese los eventos E y F en trminos de A y B.
Ejercicio 1.5. Un trabajador produce n partes de un artculo. Sea Ai el evento la i-sima
parte est defectuosa. Exprese en trminos de los Ai cada uno de los siguientes eventos: a)
ninguna de las n partes est defectuosa, b) al menos una de las n partes est defectuosa, c)
exactamente una de las n partes est defectuosa.

CAPTULO 2

LAS REGLAS BSICAS


Mientras ms difcil parezca determinar por la razn lo
que es incierto y est sometido al azar, la ciencia que
logre ese resultado parecer ms admirable.
Christiaan Huygens

2.1. Algunas propiedades elementales


De las 3 propiedades que estamos pidiendo a cualquier funcin de probabilidad se derivan
otras, entre las que destacan las siguientes:
Proposicin 2.1. Si A es cualquier evento, entonces P (A) 1 y P (Ac ) = 1 P (A).
Demostracin
Los eventos A y Ac son mutuamente excluyentes y su unin es el evento seguro , as que
1 = P () = P (A) + P (Ac ), de lo cual se sigue el resultado.
Proposicin 2.2. P () = 0.
Demostracin
Siendo y complementarios, se tiene, por la proposicin anterior, P () = 1 P () =
1 1 = 0.
Proposicin 2.3. Si A y B son eventos tales que A B entonces P (B A) = P (B)P (A).
Demostracin
Se tiene B = A (B A) y los eventos A y B A son mutuamente excluyentes, de manera
que se tiene, P (B) = P (A) + P (B A), de lo cual se sigue el resultado.
Proposicin 2.4. Si A y B son eventos tales que A B, entonces P (A) P (B).
Demostracin
Por la proposicin anterior, se tiene P (B)P (A) = P (BA), de manera que, siendo P (BA)
un nmero real no negativo, se tiene el resultado.
27

28

2. LAS REGLAS BSICAS

2.2. Propiedad de la aditividad finita


Una propiedad especialmente importante de la funcin de probabilidad est dada en la siguiente proposicin:
Proposicin 2.5 (Propiedad de
S la aditividad
P finita). Sean A1 , . . . , An n eventos mutuamente excluyentes, entonces, P ( nk=1 Ak ) = nk=1 P (Ak ).

Demostracin
La demostracin es por induccin sobre el nmero de eventos n. Para n = 2 el resultado se
obtiene directamente de la definicin 1.36.
Supongamos ahora que la propiedad es vlida para el caso de cualesquiera n 1 eventos
mutuamente
excluyentes y sean A1 , . . . , An n eventos mutuamente excluyentes. Los eventos
S n1
k=1 Ak y An son entonces mutuamente excluyentes, as que se tiene:
S
Pn1
Pn
S
P ( nk=1 Ak ) = P ( n1
k=1 Ak ) + P (An ) =
k=1 (P Ak ) + P (An ) =
k=1 (P Ak )

La propiedad de la aditividad finita puede considerarse como la propiedad bsica de la funcin de probabilidad pues sta permite establecer un mtodo para calcular probabilidades de
eventos. Mediante este mtodo, dado un evento A, cuya probabilidad se busca, se trata de
encontrar una descomposicin de A en una unin de eventos mutuamente excluyentes cuyas
probabilidades sean ms simples de calcular; entonces la probabilidad de A se obtiene como la
suma de esas probabilidades. Numerosos ejemplos de esta situacin se presentarn a lo largo
del texto.
De manera general, el mtodo para asignar probabilidades a los eventos relativos a
cualquier experimento aleatorio va de lo simple a lo complejo: primero se encuentra la probabilidad de una clase particular de eventos y, a partir de ah, utilizando
las propiedades de la funcin de probabilidad, se extiende sta a una clase ms
amplia de eventos y despus a familias cada vez ms extensas. ste ser el mtodo
que utilizaremos a los largo de este texto.

Proposicin 2.6 (Subaditividad


S
P finita o desigualdad de Boole). Sean A1 , . . . An n
eventos, entonces, P ( nk=1 Ak ) nk=1 P (Ak ).

Demostracin
S
Sn
Sn
Sea B1 = A1 y, para k {2, . . . , n}, Bk = Ak k1
k=1 Ak =
k=1 Ak ,
j=1 Aj , entonces
Bk Ak para cualquier k {1, . . . , n} y los eventos B1 , . . . , Bn son mutuamente excluyentes,
as que:
S
S
P
P
P ( nk=1 Ak ) = P ( nk=1 Bk ) = nk=1 P (Bk ) nk=1 P (Ak )
2.3. Regla de la suma
Al igual que la propiedad de la aditividad finita, la siguiente propiedad generaliza la propiedad
iii de la funcin de probabilidad y es tambin particularmente importante:
Proposicin 2.7 (Regla de la suma para 2 eventos). Si A y B son dos eventos cualesquiera, entonces:

2.4. ELECCIONES AL AZAR Y RESULTADOS EQUIPROBABLES

29

P (A B) = P (A) + P (B) P (A B)

Demostracin
Se tiene A B = A (B A B) y los eventos A y B A B son mutuamente excluyentes,
as que se tiene, P (A B) = P (A) + P (B A B) = P (A) + P (B) P (A B).
La siguiente proposicin, cuya demostracin se deja como ejercicio, generaliza la proposicin
2.7 para el caso de n eventos cualesquiera.
Proposicin 2.8 (Regla de la suma para n eventos). Sean A1 , . . . , An n eventos cualesquiera, entonces:
P
P
P (nk=1 Ak ) = nk=1 P (Ak ) {i,j{1,...,n},:i6=j} P (Ai Aj )
P
+ {i,j,k{1,...,n},:i6=j,j6=k,i6=k} P (Ai Aj A2 k) . . . + (1)n+1 P (A1 A2 . . . An )

Ejemplo 2.9. Dos eventos A y B son tales que P (A) = 0.3, P (B) = 0.4 y P (A B) = 0.1.
Encuentre la probabilidad de que a) ocurra exactamente uno de los dos eventos A y B y b) no
ocurra ninguno de los dos eventos.
Solucin
a. P (A A B) + P (B A B) = 0.3 0.1 + 0.4 0.1 = 0.5
b. P (Ac B c ) = P ((A B)c ) = 1 P (A B) = 1 P (A) P (B) + P (A B)
= 1 0.3 0.4 + 0.1 = 0.4
Para implementar el mtodo para asignar probabilidades, descrito en la seccin 2.2, se requiere
obviamente de una manera que permita iniciar el proceso, lo cual es objeto de parte del
siguiente tema. Adems, con el objeto de tener todas las herramientas que permiten extender
la funcin de probabilidad, se tratarn tambin los temas de la probabilidad condicional y
otros relacionados.
2.4. Elecciones al azar y resultados equiprobables
En una clase bastante amplia de problemas, la asignacin de probabilidades a los eventos de
un experimento aleatorio puede iniciarse gracias al concepto de eleccin al azar.
La eleccin al azar se refiere a experimentos aleatorios en los cuales se dispone de una coleccin
de objetos, los cuales pueden ser bolas, cajas, tarjetas, personas, etc., y se define el experimento
aleatorio precisamente como la eleccin al azar de uno o varios objetos de la coleccin. El
trmino elegir al azar que se utiliza en esos casos se entiende en el sentido de que, al elegir los
objetos, no se tiene preferencia por la eleccin de uno de ellos sobre la eleccin de otro. Ahora
bien, si recordamos que la probabilidad de un evento es un nmero que representa la facilidad
con que el evento se presenta al realizar el experimento aleatorio, entonces, al considerar el
experimento aleatorio consistente en elegir al azar uno o varios objetos de la coleccin,
los posibles resultados del experimento debern tener asignada la misma probabilidad, en
cuyo caso diremos que los posibles resultados son equiprobables. De aqu que, en realidad,
el trmino eleccin al azar es sinnimo de equiprobabilidad de los posibles resultados de la
eleccin.
Un experimento aleatorio puede estar compuesto por dos o ms experimentos definidos como
elecciones al azar y en algunos casos la equiprobabilidad se da nicamente parcialmente, pero,

30

2. LAS REGLAS BSICAS

de cualquier manera, esto puede ser suficiente para determinar la probabilidad de cada uno
de los posibles resultados del experimento compuesto. Esto resuelve nuestro problema pues
una vez asignada una probabilidad a cada evento elemental, la probabilidad de cualquier
evento compuesto por un nmero finito de eventos elementales se puede calcular, gracias a
la propiedad de la aditividad finita, simplemente sumando las probabilidades de los eventos
elementales que lo componen.
En particular, aunque no siempre es el caso, los posibles resultados de un experimento aleatorio
pueden resultar equiprobables. En ese caso resulta an ms simple asignar una probabilidad
a cualquier evento. En primer lugar, con base en la propiedad ii de la funcin de probabilidad
y en la propiedad de la aditividad finita, la suma de las probabilidades asignadas a los eventos
elementales debe ser igual a 1, de manera que si son N los posibles resultados del experimento
y todos ellos tienen asignada la misma probabilidad, cada una de ellas debe ser entonces igual
a N1 . Sea entonces = { 1 , . . . , N } el espacio muestral del experimento aleatorio y A =
{ j1 , . . . , jn } un evento cualquiera; por la propiedad de la aditividad finita, la probabilidad
del evento A est dada por P (A) = Nn .
En otras palabras, en este caso, para calcular la probabilidad de un evento A, es necesario
nicamente encontrar el nmero de eventos elementales que lo componen y dividir este nmero
por el nmero total de eventos elementales.
Este mtodo de encontrar probabilidades, basndose en la equiprobabilidad de los posibles
resultados, es conocido como la definicin clsica de probabilidad. Segn esta definicin,
la probabilidad de un evento A se calcula de la siguiente manera:
P (A) =

# de eventos elementales que producen la ocurrencia de A


# total de eventos elementales

relacin que es exactamente la misma que la que hemos dado anteriormente.


Debe tenerse presente que esta manera de calcular probabilidades puede aplicarse nicamente
cuando se ha determinado que los posibles resultados del experimento aleatorio son equiprobables.
En algunos casos se tienen experimentos aleatorios en donde intervienen
simetras, las cuales hacen que tales experimentos se puedan considerar equivalentes a una eleccin al azar. El ejemplo tpico de esa situacin se presenta al considerar el
experimento consistente en lanzar un dado sobre una mesa y observar el nmero que muestra
finalmente su cara superior. Si se trata de un dado perfectamente simtrico y balanceado, por
consideraciones de simetra, este experimento puede considerarse equivalente a seleccionar al
azar un nmero del conjunto {1, 2, 3, 4, 5, 6}, de tal manera que la probabilidad de cada uno
de sus posibles resultados es igual a 16 .
Ejemplo 2.10. Un experimento aleatorio consiste en seleccionar al azar un paquete de dos
bolas de una urna, la cual contiene 4 bolas rojas y 6 bolas blancas. Cul es la probabilidad
de que las dos bolas seleccionadas sean de color rojo?
Solucin
Dado que la eleccin es al azar y que el nmero de paquetes de dos bolas que se pueden obtener
como resultado del experimento es igual a 45, se puede concluir que la obtencin de cada uno
1
de esos paquetes es igual a 45
. Por otra parte, de los 45 posibles paquetes de dos bolas, hay 6
6
en los cuales las dos bolas son rojas. Por lo tanto, la probabilidad que se busca es igual a 45
.

2.4. ELECCIONES AL AZAR Y RESULTADOS EQUIPROBABLES

31

Como ya dijimos, el concepto de eleccin al azar puede aplicarse de manera parcial y esto
ser suficiente para determinar la funcin de probabilidad. Como ilustracin consideremos el
siguiente ejemplo:
Ejemplo 2.11. Una primera urna contiene 2 bolas rojas y 4 blancas; una segunda urna
contiene 8 bolas rojas y 7 blancas; y una tercera urna contiene 6 bolas rojas y 4 blancas. Un
experimento aleatorio consiste de dos partes, en la primera parte se selecciona una urna al
azar y en la segunda parte se selecciona al azar una bola de la urna elegida en la primera
parte. Cul es la probabilidad de que se seleccione una bola roja?1
Solucin
El espacio muestral de este experimento aleatorio tiene 31 elementos, uno por cada una de las
posibles bolas que se seleccionan. Representemos por R1 , R2 las bolas rojas de la primera urna;
por R3 , R4 , R5 , R6 , R7 , R8 , R9 , R10 las bolas rojas de la segunda urna, etc. De la misma manera,
representemos las bolas blancas de la primera urna por B1 , B2 , B3 , B4 , etc., y consideremos,
para i {1, 2, 3}, los siguientes eventos:
Ai : Se elige la i-sima urna.
B: Se selecciona una bola roja.
Como la eleccin de la urna se realiza al azar, se tiene, P (Ai ) = 13 . Por otra parte, dado que,
una vez seleccionada la urna, la eleccin de la bola se realiza tambin al azar, la probabilidad
de seleccionar cualquiera de las bolas de la primera urna es la misma para todas ellas; lo
mismo puede decirse de la probabilidad de seleccionar cualquiera de las bolas de la segunda o
de la tercera urna (sin embargo, la probabilidad de seleccionar cualquiera de las 31 bolas no
es la misma para todas ellas). Llamemos pi a la probabilidad comn de seleccionar cualquiera
de las bolas de la i-sima urna. Los eventos Ai tienen la siguiente representacin:
A1 = {R1 , R2 , B1 , B2 , B3 , B4 }
A2 = {R3 , R4 , R5 , R6 , R7 , R8 , R9 , R10 , B5 , B6 , B7 , B8 , B9 , B10 , B11 }
A3 = {R11 , R12 , R13 , R14 , R15 , R16 , B12 , B13 , B14 , B15 }
As que, aplicando la propiedad de la aditividad finita, se tiene:
1
= P (A1 ) = 6p1
3
1
= P (A2 ) = 15p2
3
1
= P (A3 ) = 10p3
3
1
1
1
Por lo tanto, p1 = 18
, p2 = 45
y p3 = 30
.
Finalmente, aplicando nuevamente la propiedad de la aditividad finita, se tiene:
2
8
6
+ 45
+ 30
= 22
P (B) = 18
45
Una aplicacin general de esta idea se realizar posteriormente en el estudio del muestreo
aleatorio.

1En

realidad en este problema est implcito el concepto de probabilidad condicional, el cual se introduce
ms adelante. Se trata aqu nicamente para ilustrar el hecho de que el concepto de eleccin al azar permite
encontrar la funcin de probabilidad, incluso en casos en donde los posibles resultados del experimento no son
equiprobables.

32

2. LAS REGLAS BSICAS

2.5. Probabilidad condicional


En ocasiones un experimento aleatorio est compuesto por varios experimentos, tambin
aleatorios, los cuales se realizan uno despus del otro. Un ejemplo tpico de esta situacin
se obtiene al considerar n elecciones sucesivas, todas ellas al azar, de elementos de una determinada poblacin. El resultado de cada parte puede ser independiente o depender de las
partes anteriores. En general en estos casos lo que se tiene a la mano para iniciar el proceso de
calcular probabilidades son probabilidades de eventos relativos a cada parte del experimento,
condicionadas a lo que haya ocurrido en las primeras partes. Este tipo de probabilidades es
conocido con el nombre de probabilidades condicionales. Como ilustracin, consideremos
el ejemplo siguiente:
Ejemplo 2.12. Una urna contiene 3 bolas rojas y 6 bolas negras. Un experimento aleatorio
consiste en dos partes, en la primera, se selecciona al azar una bola de la urna y se deja fuera
de sta, en la segunda, se selecciona al azar una de las bolas restantes en la urna.
Denotemos por B1 , B2 , B3 , B4 , B5 , B6 , B7 , B8 , B9 las 9 bolas de la urna. Cada posible resultado
del experimento aleatorio puede entonces representarse mediante una pareja (Bi , Bj ), con i 6=
j, en donde Bi representa el resultado de la primera eleccin y Bj el de la segunda. El espacio
muestral consta as de 72 elementos.
La descripcin del experimento no da directamente la probabilidad de cada uno de estos posibles
resultados, en cambio, se obtiene inmediatamente la siguiente informacin:
Como la eleccin de la primera bola se realiza al azar, cualquiera de las bolas en la urna tiene
la misma probabilidad de ser elegida, de manera que si, para i {1, . . . , 9}, definimos los
siguientes eventos:
Bi1 : En la primera eleccin se obtiene la bola Bi ,
se tiene:
Bi1 = {(Bi , B1 ), (Bi , B2 ), . . . (Bi , Bi1 ), (Bi , Bi+1 ), . . . (Bi , B9 )}
y P (Bi1 ) = 19 para toda i.
Por otra parte, una vez seleccionada la primera bola, la eleccin de la segunda se realiza
tambin al azar, de manera que todas las bolas restantes tienen la misma probabilidad de ser
elegidas. Esto significa que, para cada i {1, . . . , 9}, las probabilidades de cada uno de los 8
posibles resultados que componen el evento Bi1 , son iguales.
Con esta informacin se puede obtener la probabilidad de cada uno de los posibles resultados
del experimento pues siendo 8 los elementos que componen cada Bi1 , teniendo todos ellos la
misma probabilidad y la suma de ellas siendo igual a 19 , se concluye que la probabilidad de
1
cada uno de ellos es 72
.
Las probabilidades relacionadas con la segunda parte del experimento del ltimo ejemplo
pueden calificarse como condicionales pues se obtienen condicionadas a lo que ocurri en la
primera parte. Podramos escribir stas de la siguiente manera:
P (Bj2 |Bi1 ) =

1
8

para j {1, . . . , 9}, j 6= i

en donde Bj2 representa al evento en la segunda eleccin se obtiene la bola Bj .

2.5. PROBABILIDAD CONDICIONAL

33

Las probabilidades as definidas se leen: la probabilidad condicional del evento Bj2 dada la
ocurrencia del evento Bi1 .
Lo que hemos visto en el ejemplo anterior es que a partir de las probabilidades P (Bi1 ) y
P (Bj2 |Bi1 ) es posible obtener las probabilidades P (Bi1 Bj2 ) = P ((Bi , Bj )).
A continuacin se muestra como estas ideas pueden extenderse a una situacin general y
obtener as una herramienta ms que nos permitir extender la funcin de probabilidad.
Una probabilidad condicional tiene un sentido muy claro en los casos en que se trata de la
probabilidad de un evento que depende de una segunda parte de un experimento, condicionada
a lo que ocurra en la primera parte de ste. En el caso general de cualquier experimento
aleatorio, es posible definir el concepto de probabilidad condicional de un evento B dada la
ocurrencia de un evento A, pero cambiando el enfoque.
Decir que un evento A ocurre equivale a decir que ocurre alguno de los posibles resultados
que lo componen; en otras palabras los posibles resultados del experimento aleatorio no son
ya todos los elementos del espacio muestral sino nicamente aquellos que conforman el evento
A. Tambin se puede dar la misma idea diciendo que, cuando el evento A ocurre, el espacio
muestral se reduce y queda conformado exclusivamente por los posibles resultados que componen al evento A. La pregunta es: qu relacin existe entre la probabilidad de un evento B,
calculada con relacin a todo el espacio muestral, con la probabilidad del evento B, calculada
con relacin al espacio muestral restringido? Obviamente estas probabilidades no tienen que
ser iguales pues, por ejemplo, dado que A ocurre, la ocurrencia de A se vuelve segura, es decir,
se tiene P (A|A) = 1; pero A puede tener cualquier otra probabilidad, tomndola con relacin
a todo el espacio muestral.
Dado que el evento A ocurre, un evento B ocurre si y slo si ocurre A B, es decir, se debe
de tener P (B | A) = P (A B | A), de manera que el problema se reduce a determinar cul
es la probabilidad de un subconjunto del espacio muestral restringido, con relacin a ste.
De acuerdo con el significado que queremos darle a la probabilidad de un evento, como una
medida del que tan fcilmente ocurre ste al realizar el experimento aleatorio, podemos asumir
que las probabilidades en el espacio muestral restringido deben asignarse de tal manera que
entre ellas guarden la misma proporcin que la que guardan en el espacio muestral original.
En otras palabras, si D1 y D2 son eventos cualesquiera contenidos en A entonces se debe tener:

Es decir:

P (D2 )
P (D2 |A)
=
P (D1 )
P (D1 |A)
P (D2 )
P (D1 )
=
=c
P (D2 |A)
P (D1 |A)

en donde c depende exclusivamente del evento A.


Por otra parte, sabemos que P (A|A) = 1, de lo cual se obtiene c = P (A) y, entonces,
, para cualquier evento D A.
P (D | A) = PP (D)
(A)

Adems, P (B | A) = P (A B | A), para cualquier evento B.


As, podemos concluir que la siguiente definicin es la adecuada:

34

2. LAS REGLAS BSICAS

Definicin 2.13 (Probabilidad condicional). Sean A y B dos eventos y supongamos


P (A) > 0, se define la probabilidad condicional de B, dada la ocurrencia de A, P (B|A),
mediante la frmula:
P (B|A) =

P (A B)
P (A)

Siendo la probabilidad condicional una probabilidad calculada en un espacio muestral reducido, es de esperarse que sta tenga las mismas propiedades que cualquier funcin de probabilidad. En efecto, esto es as, como se demuestra en seguida, de manera que la probabilidad
condicional satisface las mismas propiedades que se obtienen como corolarios para cualquier
funcin de probabilidad, por ejemplo, la propiedad de la aditividad finita, la regla de la suma,
etc.
Proposicin 2.14. Dado un evento A de probabilidad positiva, la funcin que asigna a cada
evento B el nmero real P (B | A), de acuerdo con la definicin 2.13, es una funcin de
probabilidad, de acuerdo con la definicin 1.36.
Demostracin
La funcin as definida es claramente no negativa, adems:
(i) P ( | A) = P P(A)
= PP (A)
=1
(A)
(A)
(ii) Si B y C son eventos mutuamente excluyentes, entonces:
(AC)
P (B C | A) = P [A(BC)]
= P [(AB)(AC)]
= P (AB)+P
P (A)
P (A)
P (A)
=

P (AB)
P (A)

P (AC)
P (A)

= P (B | A) + P (C | A)

Ejemplo 2.15. Una urna contiene tarjetas numeradas del 1 al n, de tal manera que, al
seleccionar una de ellas al azar, la probabilidad de obtener un nmero dado es proporcional a
su magnitud. Si se selecciona una tarjeta al azar, cul es la probabilidad de que est marcada
con el nmero 1 en cada uno de los dos casos siguientes: a) sin disponer de informacin
adicional y b) sabiendo que la bola seleccionada est marcada con algn nmero entre 1 y m
(1 m n)?
Solucin
a. Consideremos, para cada k {1, . . . , n}, al evento Ak : la tarjeta seleccionada est marcada con el nmero k. Se P
sabe que P (Ak ) = ck, en donde c es una constante; adems,
P
n
n
2
2
P
(A
)
=
1,
es
decir,
c
k
k=1
k=1 k = 1, as que c = n(n+1) y, entonces, P (Ak ) = n(n+1) k, de
2
.
manera que, P (A1 ) = n(n+1)
b. Consideremos, para cada m {1, . . . , n}, al evento Bm : la tarjeta est marcada con algn
nmero entre 1 y m (inclusive). Se tiene:
P
Pm
m(m+1)
2
P (Bm ) = m
k=1 P (Ak ) = n(n+1)
k=1 k = n(n+1)
As que:
P (A1 | Bm ) =

P (A1 Bm )
P (Bm )

P (A1 )
P (Bm )

2
m(m+1)

Obsrvese que el resultado corresponde a la idea de que una probabilidad condicional consiste
en una probabilidad calculada en un espacio muestral reducido, a saber, el que corresponde a

2.6. REGLA DEL PRODUCTO

35

la condicin. El saber que la tarjeta que se obtiene est marcada con algn nmero entre 1 y
m es equivalente a decir que lo que se tiene es una urna con tarjetas numeradas del 1 al m
de tal manera que, al seleccionar una de ellas al azar, la probabilidad de obtener un nmero
dado es proporcional a su magnitud.
Ejemplo 2.16. Sea C un evento de probabilidad positiva y A, B dos eventos tales que, dado
que C ocurre, la probabilidad de que A ocurra es 29 , la probabilidad de que B ocurra es 39 y la
probabilidad de que no ocurra ni A ni B es 59 . Encuentre la probabilidad de que a) ocurra al
menos uno de los dos eventos A y B, b) ocurran los dos eventos A y B y c) ocurra exactamente
uno de los dos eventos A y B, sabiendo, en los 3 casos, que C ocurre.
Solucin
a. P (A B | C) = 1 P ((A B)c | C) = 1 P (Ac B c | C) = 1 59 = 49
b. P (A B | C) = P (A | C) + P (B | C) P (A B | C) = 29 + 39 49 = 19
c. P (A A B | C) + P (B A B | C) = 29 19 + 39 19 = 39
Ejemplo 2.17. Una cierta fruta crece en dos regiones X y Y, las cuales en ocasiones estn
infectadas con una plaga que puede daar la fruta. Es sabido que la probabilidad de que la
regin X est infectada es igual a 25 , la probabilidad de que la regin Y lo est es igual a 34 y la
probabilidad de que alguna de las dos regiones est infectada es igual a 45 . Dado que un envo
de fruta que viene de la regin X est infectado con la plaga, cul es la probabilidad de que
la regin Y tambin se encuentre infectada?
Solucin
Si llamamos A y B a los eventos la regin X est infectada con la plaga y la regin Y est
infectada con la plaga, respectivamente, se sabe P (A) = 25 , P (B) = 34 y P (A B) = 45 , as
que:
7
P (A B) = P (A) + P (B) P (A B) = 25 + 34 45 = 20
Por lo tanto:
7
7
20
=
P (B | A) = P P(AB)
2 = 8
(A)
5

2.6. Regla del producto


La definicin de probabilidad condicional puede utilizarse en dos sentidos diferentes; por un
lado, se puede utilizar de manera directa para calcular la probabilidad de un evento B, dado
que ocurre algn otro evento A, es decir, con respecto a un espacio muestral reducido; por
otro lado, la definicin puede expresarse en la forma siguiente:
P (A B) = P (B|A)P (A)
relacin que es conocida como la regla del producto (para dos eventos).
Esta forma, si bien expresa exactamente la misma relacin que la forma original, se aplica en
un sentido muy distinto pues permite calcular la probabilidad de una interseccin de eventos
en aquellos casos en que la probabilidad condicional de la frmula puede obtenerse de manera
directa. Esta idea ya la aplicamos en el ejemplo 2.12 en el cual las condiciones del problema

36

2. LAS REGLAS BSICAS

determinaban algunas probabilidades no condicionales y otras condicionales; a partir de ambas, se pudo establecer la probabilidad de ocurrencia de cada uno de los posibles resultados
del experimento aleatorio, los cuales consisten, en ese caso, de intersecciones de eventos.
La idea general que puede establecerse aqu es la siguiente:
Dado un determinado experimento aleatorio, se trata de establecer, con base en
las caractersticas del experimento, las probabilidades (condicionales o no) de una
clase particular de eventos. Una vez establecidas stas, el problema radica en
extender la funcin de probabilidad a una clase de eventos tan amplia como sea
posible, utilizando las propiedades que tiene la funcin de probabilidad. Las probabilidades condicionales que puedan asignarse en la primera parte de este proceso
no se calculan con base en la definicin, sino que ms bien se establecen como
caractersticas que se imponen al modelo matemtico que estamos construyendo
para el experimento aleatorio en consideracin. En la segunda parte del proceso, las propiedades bsicas de la funcin de probabilidad, las cuales permiten
su extensin, son la regla de la suma y la del producto.
La regla del producto, establecida para dos eventos, puede generalizarse al caso de n eventos,
obtenindose as la forma general de la regla del producto, la cual, junto a la forma general
de la regla de la suma, constituye, como ya lo mencionamos, una de las herramientas bsicas
en el Clculo de Probabilidades.
Proposicin 2.18 (Regla del producto). Sean A1 , . . . , An n eventos tales que P (A1 . . .
An1 ) > 0, entonces:
P (nk=1 Ak ) = P (An |A1 . . . An1 ) P (A2 |A1 )P (A1 )
La demostracin de esta proposicin se deja como ejercicio.
Ejemplo 2.19. Una urna contiene 15 bolas negras y 10 bolas blancas. Un experimento aleatorio consiste en seleccionar al azar, una por una, 10 bolas de la urna, de tal manera que cada
bola seleccionada se deja fuera de la urna. Calcule la probabilidad de que la primera bola
blanca se obtenga en la quinta eleccin.
Solucin
Sea Nk el evento se obtiene bola negra en la k-sima eleccin y Bk el evento se obtiene bola
blanca en la k-sima eleccin, entonces:
P (N1 N2 N3 N4 B5 )
= P (B5 | N1 N2 N3 N4 )P (N4 | N1 N2 N3 ) P (N1 )
13
12 13 14 15
= 253
= 0.051383
= 10
21 22 23 24 25
Ejemplo 2.20. Se van colocando al azar bolas, una a una, en cualquiera de N cajas, hasta
que alguna caja llegue a tener 2 bolas.Cul es la probabilidad de que el proceso termine en el
paso n, en donde 2 n N + 1?
Solucin
Consideremos los siguientes eventos:
A: el proceso termina en el paso n.
Bk : la k-sima bola que se coloca queda en una caja desocupada.
B: la n-sima bola que se coloca queda en una caja ocupada.

2.6. REGLA DEL PRODUCTO

Se tiene:
P (A) = P (B1 Bn1 B)
= P (B | B1 Bn1 ) P (B2 | B1 )P (B1 )
n1 N (n2) N(n3) N1 n1
= N
N = N
1
N
N

1
N

37

2
N

n2
N

Ejemplo 2.21. Cada uno de n palillos se rompe en una parte corta y una parte larga; inmediatamente despus se forman n parejas al azar, con las 2n partes que se obtienen. Cul
es la probabilidad de que a) cada una de las n parejas est formada por una parte corta y
una larga? y b) cada una de las n parejas quede formada como lo estaba antes de romper los
palillos?
Solucin
a. Se puede asumir que la formacin de las nuevas n parejas se forman eligiendo al azar cada
una de las parejas de manera consecutiva. Sea entonces Ak el evento la pareja nmero k est
formada por una parte corta y una larga.
Dadas r partes cortas y r partes largas, si se seleccionan 2 al azar, la probabilidad de que se
2
r
elija una parte corta y una parte larga est dada por r2r = 2r1
, as que:
(2)
P (A1 An ) = P (An | A1 An1 ) P (A2 | A1 )P (A1 )
=

12
13

n2 n1 n
2n5
=
2n3 2n1

n!(2)(4)(2n4)(2n2)(2n)
(2n)!

1
1
1
2n5
=
2n3 2n1

(2)(4)(2n4)(2n2)(2n)
(2n)!

2n (n!)2
(2n)!

b. Sea Bk el evento la pareja nmero k forma uno de los palillos originales. Dados r palillos
cortados, cada uno en una parte corta y una larga, si se seleccionan 2 partes al azar, la
1
probabilidad de que correspondan al mismo palillo est dada por 2rr = 2r1
, as que:
(2)
P (B1 Bn ) = P (Bn | B1 Bn1 ) P (B2 | B1 )P (B1 )
=

11
13

2n n!
(2n)!

Ejemplo 2.22. En un concurso se colocan tres puertas y detrs de ellas se colocan al azar tres
premios, uno de los cuales es un automvil y los otros dos son pequeos regalos de consolacin.
A cada concursante se le asigna inicialmente la puerta nmero 1, pero otra persona, que puede
ver como estn colocados los premios, abre alguna de las puertas 2 y 3 en donde no se encuentre
el automvil, de tal manera que, si no se encuentra en ninguna de ellas, abre la nmero 2 con
probabilidad p y la nmero 3 con probabilidad 1p. El concursante, quien conoce el valor de p,
tiene entonces la opcin de escoger cualquiera de las dos puertas que se encuentren cerradas.
Cul es la mejor estrategia del concursante para tratar de conseguir el automvil?
Solucin
El espacio muestral del experimento aleatorio est dado por = {(1, 2), (1, 3), (2, 3), (3, 2)},
en donde, en cada pareja de nmeros, el primero indica la puerta detrs de la cual se coloca
el automvil y el segundo indica la puerta que se abre para ser mostrada al concursante.
Utilizando la regla del producto, se tiene:
P [(1, 2)] = 13 p
P [(1, 3)] = 13 (1 p)
P [(2, 3)] = 13
P [(3, 2)] = 13

38

2. LAS REGLAS BSICAS

Definamos ahora los eventos:


A: el automvil se encuentra detrs de la puerta nmero 1.
B: la puerta abierta que se muestra al concursante es la nmero 2.
C: la puerta abierta que se muestra al concursante es la nmero 3.
El primer anlisis que se puede hacer consiste en decir que, como P (A) = 13 , entonces, antes
de que se muestre al concursante la puerta que se abre, la mejor estrategia consiste en cambiar
de puerta, teniendo as una probabilidad de ganar el automvil igual a 23 . Sin embargo conviene
hacer un anlisis ms detallado pues pudiera ser que la ocurrencia de B o de C incremente
la probabilidad de A.
Se tiene P (A | B) =

P (AB)
P (B)

1
p
3
1
1
p+
3
3

p
p+1

p
Ahora bien, la funcin f (p) = p+1
, definida en el intervalo [0, 1], es creciente, de manera que
1
su valor mximo es f (1) = 2 . Por lo tanto, si B ocurre, la mejor estrategia para el concursante
contina siendo la de cambiar de puerta, independientemente del valor de p. Evidentemente,
la conclusin es la misma en caso de que C ocurra. As que, en cualquier caso, la mejor
estrategia consiste en cambiar de puerta.

2.7. Independencia estocstica


Hemos visto que la probabilidad condicional de un evento B, dada la ocurrencia de un evento
A, es una probabilidad calculada con respecto a un espacio muestral reducido, el que queda
conformado nicamente por aquellos posibles resultados del experimento aleatorio para los
cuales el evento A ocurre. En general, la probabilidad de ocurrencia de un evento B se altera
al reducirse el espacio muestral; tal fue el caso del ejemplo 2.15, en donde se obtiene P (A1 ) =
2
, mientras que al condicionar con la ocurrencia del evento Bm , se tiene P (A1 |Bm ) =
n(n+1)
2
. Esto puede interpretarse diciendo que la probabilidad de ocurrencia del evento B no
m(m+1)
es independiente de la ocurrencia del evento A. De la misma manera, en los casos en que la
ocurrencia de un evento A no altere la probabilidad de ocurrencia de un evento B, se puede
hablar de independencia de la probabilidad de ocurrencia de B con respecto a la ocurrencia
de A. En esta ltima situacin se tiene la siguiente relacin:
P (B|A) = P (B)
de la cual se sigue, asumiendo P (B) > 0:
P (A|B) =

P (AB)
P (B)

P (B|A)P (A)
P (B)

P (B)P (A)
P (B)

= P (A)

Es decir, si la probabilidad de ocurrencia de un evento B es independiente de la ocurrencia de


un evento A, entonces la probabilidad de ocurrencia del evento A es tambin independiente
de la ocurrencia de B. En otras palabras, se puede decir simplemente que los eventos A y B
son estocsticamente independientes. El calificativo de estocstico es necesario pues lo
que es independiente de la ocurrencia de uno de los eventos es la probabilidad de
ocurrencia del otro, y no simplemente su ocurrencia.
De la condicin de independencia estocstica entre dos eventos A y B, se obtiene:
P (A B) = P (A|B)P (B) = P (A)P (B)

2.7. INDEPENDENCIA ESTOCSTICA

39

La relacin entre el primer trmino y el ltimo de estas igualdades establece una frmula que
tiene la virtud de eliminar la restriccin de que las probabilidades de los eventos A y B tengan
que ser positivas, como en la forma que utiliza probabilidades condicionales. Por tal motivo,
sta es la forma que se utiliza para definir la independencia estocstica de dos eventos.
Definicin 2.23 (Independencia de 2 eventos). Se dice que dos eventos A y B son
estocsticamente independientes si P (A B) = P (A)P (B).
Al igual que la frmula que establece la definicin de probabilidad condicional, la frmula que
establece la independencia estocstica de dos eventos se utiliza en dos sentidos diferentes. Por
un lado, una vez que se ha encontrado la probabilidad de cualquier evento, se puede utilizar
para determinar cundo dos eventos dados son estocsticamente independientes. Este uso se
ilustra en el ejemplo siguiente:
Ejemplo 2.24. En una escuela, las estadsticas muestran que la probabilidad de que un estudiante pase Qumica es 0.35, la probabilidad de que pase Fsica es 0.4 y la probabilidad de
que pase ambas es 0.1. Sea A el evento un estudiante elegido al azar pasa Qumica y B el
evento un estudiante elegido al azar pasa Fsica. Son A y B eventos independientes?
Solucin
P (A)P (B) = (0.35)(0.4) = 0.14 6= P (A B). Por lo tanto, A y B no son independientes.
Por otro lado, en ocasiones se sabe, por las caractersticas del experimento, que determinadas
parejas de eventos resultan independientes y entonces la relacin que establece la independencia estocstica de eventos se impone como condicin al modelo matemtico que se est
construyendo. Un ejemplo tpico de esta situacin se presenta cuando el experimento aleatorio
en consideracin est compuesto por dos experimentos, los cuales son independientes entre
s y entonces, si A es un evento cuya ocurrencia o no ocurrencia depende exclusivamente de
alguno de esos experimentos y B es otro evento cuya ocurrencia o no ocurrencia depende
exclusivamente del otro, esos eventos deben de ser estocsticamente independientes dentro de
cualquier modelo matemtico que se construya para el experimento aleatorio compuesto. Los
siguientes 2 ejemplos ilustran estas ideas.
Ejemplo 2.25. Una urna contiene 3 bolas rojas y 6 bolas negras. Un experimento aleatorio
consiste en dos partes, en la primera, se selecciona al azar una bola de la urna y se regresa a
la misma, en la segunda, nuevamente se selecciona al azar una de las bolas de la urna.
Denotemos por B1 , B2 , B3 , B4 , B5 , B6 , B7 , B8 , B9 las 9 bolas de la urna. Cada posible resultado
del experimento aleatorio puede entonces representarse mediante una pareja (Bi , Bj ) con i, j
{1, . . . , 9}, en donde Bi representa el resultado de la primera eleccin y Bj el de la segunda.
El espacio muestral consta as de 81 elementos.
Como la eleccin de la primera bola se realiza al azar, cualquiera de las bolas en la urna tiene
la misma probabilidad de ser elegida, de manera que si, para i {1, . . . , 9}, definimos los
siguientes eventos:
Bi1 : En la primera eleccin se obtiene la bola Bi ,
se tiene, P (Bi1 ) = 19 para toda i.
Por otra parte, la eleccin de la segunda bola se realiza tambin al azar de entre todas las bolas
de la urna original, de manera que si, para j {1, . . . , 9}, definimos los siguientes eventos:

40

2. LAS REGLAS BSICAS

Bj2 : En la segunda eleccin se obtiene la bola Bj ,


se tiene, P (Bj2 ) = 19 para toda j.
Ahora bien, como las dos elecciones son independientes una de la otra, los eventos Bi1 y Bj2
(i, j {1, . . . , 9}) son independientes y entonces se debe de imponer la condicin
1
P (Bi1 Bj2 ) = P (Bi1 )P (Bj2 ) = 81
Pero las intersecciones Bi1 Bj2 representan a los posibles resultados del experimento aleatorio
1
y entonces se concluye que cada uno de ellos tiene una probabilidad igual a 81
.
Ejemplo 2.26. Un sistema contra incendios est compuesto por dos mecanismos, cada uno
de los cuales lo activa automticamente en caso de un incendio. Se ha determinado, con base
en la experiencia, que cuando hay un incendio, el primer mecanismo activa el sistema en 95%
de los casos, mientras que el otro mecanismo, que acta en forma independiente del primero,
lo hace en 85% de los casos. Si un incendio comienza en un edificio que tiene instalado dicho
sistema, a) cul es la probabilidad de que el sistema sea activado? b) Dado que el sistema es
activado, cul es la probabilidad de que el primer mecanismo funcione correctamente?
Solucin
a. Consideremos el evento A: el sistema es activado y, para i {1, 2}, los eventos Ai : el
mecanismo i activa el sistema. Se tiene entonces:
a, P (A) = P (A1 A2 ) = P (A1 ) + P (A2 ) P (A1 A2 )
= P (A1 ) + P (A2 ) P (A1 )P (A2 ) = 0.95 + 0.85 (0.95)(0.85) = 0.9925
b. P (A1 | A) =

P (A1 A)
P (A)

P (A1 )
P (A)

0.95
0.9925

= 0.957179

Cabe hacer nfasis en el hecho de que la independencia estocstica entre dos eventos establece
una relacin entre probabilidades de eventos y no nicamente entre los eventos mismos. Para
ilustrar este punto consideremos el ejemplo siguiente:
Ejemplo 2.27. Una urna contiene 2 bolas rojas y 2 bolas negras. Un experimento aleatorio
consiste en dos partes, en la primera, se selecciona al azar una bola de la urna y se regresa
a la misma, en la segunda, nuevamente se selecciona al azar una de las bolas de la urna. Se
considera como resultado del experimento a la pareja ordenada de colores que se obtiene.
El espacio muestral de este experimento aleatorio se puede representar de la siguiente manera:
= {(B, N), (B, B), (N, B), (N, N)}
La probabilidad de cada uno de estos posibles resultados se puede calcular de manera similar a como se obtuvieron las probabilidades de los posibles resultados en el ejemplo previo,
obtenindose que cada uno de ellos tiene una probabilidad igual a 14 .
Consideremos ahora los siguientes eventos:
A: La primera bola seleccionada es roja.
B: Las dos bolas seleccionadas son de distinto color.
Utilizando la propiedad de la aditividad finita, se tiene:
P (A) = P ({(B, N), (B, B)}) = 12
P (B) = P ({(B, N), (N, B)}) = 12
P (A B) = P ({(B, N)}) = 14

2.7. INDEPENDENCIA ESTOCSTICA

41

Entonces, P (A B) = P (A)P (B), as que los eventos A y B son estocsticamente independientes.


Consideremos ahora el mismo experimento aleatorio, pero con una urna que contiene 2 bolas
rojas y 4 bolas negras. El espacio muestral de este nuevo experimento sigue siendo el mismo,
a saber:
= {(R, N), (R, R), (N, R), (N, N)}
La probabilidad de cada uno de los posibles resultados se calcula de la misma manera que
antes, obtenindose:
P ({(R, N)}) = 29
P ({(R, R)}) = 19
P ({(N, R)}) = 29
P ({(N, N)}) = 49
Considerando los mismos eventos A y B que antes, se tiene:
P (A) = P ({(R, N), (R, R)}) = 39
P (B) = P ({(R, N), (N, R)}) = 49
P (A B) = P ({(R, N)}) = 29
Entonces P (A B) 6= P (A)P (B), as que los eventos A y B no son estocsticamente independientes.
De esta manera hemos mostrado que se puede definir un espacio muestral y dos eventos A
y B relativos a ese espacio muestral de tal manera que, con una cierta asignacin de probabilidades, los eventos A y B resultan ser estocsticamente independientes, mientras que, con
otra asignacin de probabilidades, resultan no serlo. La propiedad de independencia involucra
entonces a la funcin de probabilidad de manera determinante.
El concepto de independencia estocstica as como su utilizacin en los dos sentidos mencionados antes se puede extender al caso de ms de dos eventos. Diremos que n eventos
A1 , . . . , An , relativos todos a un determinado experimento aleatorio, son estocsticamente
independientes si la probabilidad de ocurrencia de cualquiera de ellos no es afectada por la
ocurrencia de los otros. En otras palabras, si la probabilidad de ocurrencia de cualquier evento
Aj (j {1, . . . , n}) no cambia dada la ocurrencia de cualquier subcoleccin Aj1 , . . . , Ajm , es
decir:
P (Aj |Aj1 Ajm ) = P (Aj ),

/ {j1 , . . . , jm }.
en donde, para k {1, . . . , m}, jk {1, . . . , n} y j
Estas relaciones en trminos de probabilidades condicionales pueden transformarse en trminos
de probabilidades de intersecciones, lo cual es ms adecuado pues, como en el caso de dos
eventos, elimina la restriccin de que los eventos en consideracin deban tener probabilidad
positiva. Es por esto que la definicin se da en los siguientes trminos:
Definicin 2.28 (Independencia de n eventos). Se dice que n eventos A1 , . . . , An son
estocsticamente independientes si dada cualquier subcoleccin de ellos, Aj1 , . . . , Ajm , con 1
j1 < < jm , se tiene:
P (Aj1 Ajm ) = P (Aj1 ) P (Ajm )

42

2. LAS REGLAS BSICAS

Debemos observar que, para que n eventos sean estocsticamente independientes, no basta
con pedir que lo sean por parejas. Un ejemplo ilustrar este hecho.
Ejemplo 2.29. Consideremos el experimento aleatorio consistente en lanzar 2 veces consecutivas una moneda balanceada. El espacio muestral de este experimento se puede representar
de la siguiente manera:
= {(A, S), (A, A), (S, A), (S, S)}
en donde S representa cara y A representa cruz.
La probabilidad de cada uno de los elementos del espacio muestral se puede calcular inmediatamente asumiendo que los resultados de ambos lanzamientos son independientes uno del otro,
obtenindose que la probabilidad de cada elemento es igual a 14 .
Consideremos ahora los siguientes eventos:
A: Se obtiene cara en el primer lanzamiento.
B: Se obtiene cara en el segundo lanzamiento.
C: Se obtiene el mismo resultado en los dos lanzamientos.
Los eventos A,B y C son estocsticamente independientes por parejas, en efecto, se tiene:
P (A) = 12 , P (B) = 12 , P (C) = 12 , P (A B) = 14 , P (A C) = 14 y P (B C) = 14 , as que,
P (A B) = P (A)P (B), P (A C) = P (A)P (C) y P (B C) = P (B)P (C).
Pero P (A B C) = 14 , de manera que P (A B C) 6= P (A)P (B)P (C).
La no independencia de los 3 eventos es intuitivamente clara pues existe una dependencia
entre ellos; efectivamente, cuando el evento A ocurre entonces B ocurre si y slo si C ocurre.
Tambin se puede ver la dependencia entre los 3 eventos observando que dada la ocurrencia
de A y B, el evento C se convierte en el evento seguro.
Por otra parte, tambin se puede mostrar que dados 3 eventos A, B y C, se puede cumplir la
relacin P (AB C) = P (A)P (B)P (C) sin que los eventos sean independientes (ver ejercicio
2.27).
Ejemplo 2.30. En la bsqueda de un libro, un estudiante tiene acceso a 3 bibliotecas, cada una
de las cuales opera en forma independiente de las otras. Para cada biblioteca, la probabilidad
de poseer el libro es igual a 12 y, si lo posee, la probabilidad de que se encuentre prestado es
tambin igual a 12 . Encuentre la probabilidad de que el estudiante consiga el libro en alguna
de las 3 bibliotecas.
Solucin
Consideremos, para k {1, 2, 3}, los eventos Ak : la biblioteca k posee el libro, Bk : la
biblioteca k tiene prestado el libro y Ck : el estudiante consigue el libro en la biblioteca k.
Adems, sea C el evento el estudiante consigue el libro en alguna de las 3 bibliotecas. Se
tiene entonces:
P (Ckc ) = P (Ak Bk ) + P (Ack ) = P (Bk | Ak )P (Ak ) + P (Ack ) = 12 21 + 12 = 34
P (C) = 1 P (C c ) = 1 P (C1c C2c C3c ) = 1 P (C1c )P (C2c )P (C3c )
3
= 0.578125
= 1 34 = 37
64

Ejemplo 2.31. Calcule la probabilidad de que al lanzar n veces un dado se obtenga por lo
menos un 6.

2.7. INDEPENDENCIA ESTOCSTICA

43

Solucin
Consideremos, para k {1, . . . , n}, el evento Ak : se obtiene 6 en el k-simo lanzamiento y
sea Bn el evento se obtiene por lo menos un 6 en los n lanzamientos. Se tiene entonces:
n
P (Bn ) = 1 P (Bnc ) = P (Ac1 Acn ) = 1 P (Ac1 ) P (Acn ) = 1 56
Este problema est relacionado con uno de los primeros problemas de probabilidad que se
plantearon. Se preguntaba cuntos lanzamientos de un dado se requieren para que sea ms
favorable obtener por lo menos un 6 que no obtenerlo. Obsrvese que P (Bn ) crece con n,
siendo su valor ms pequeo 16 y su valor lmite, cuando n , 1. Para alguna n, P (Bn )
pasa entonces de un valor menor o igual a 12 a un valor mayor que 12 . El problema planteado
es entonces equivalente a preguntarse a partir de que n se tiene P (Bn ) > 12 . Tomando en
consideracin
n el valor de P (Bn ) encontrado arriba, se busca el ms pequeo nmero natural
n tal que 56 < 12 ; es decir n ln 56 < ln 2. Resolviendo esta desigualdad, se obtiene n 4.

Ejemplo 2.32. Cada una de n bolas se va colocando al azar en cualquiera de N cajas. Cunto
debe valer n para que sea ms favorable la ocupacin de la primera caja?2
Solucin
En este caso el experimento consiste en la colocacin de n bolas en N cajas, el cual est
compuesto de n experimentos independientes, consistentes cada uno de ellos en la colocacin
al azar de una de las bolas en cualquiera de las N cajas. Consideremos entonces los eventos
siguientes:
A: la primera caja es ocupada por alguna de las n bolas.
Ai : la primera caja es ocupada por la i-sima bola.
Tenemos entonces:

n
P (A) = 1 P (Ac ) = 1 P (Ac1 Acn ) = 1 P (Ac1 ) P (Acn ) = 1 N1
N
El
problema
planteado
se
reduce
entonces
a
encontrar
un
nmero
n
que
satisfaga
la desigualdad
N1 n 1
ln 2
<
,
es
decir,
n
>

.
1
N
2
ln(1 N
)

1
Si N es grande, se tiene ln 1 N N1 , as que entonces se busca n tal que n N1 <
ln 2, es decir, n > N ln 2 0.7N.
Como aplicacin de este resultado, supongamos que en una urna hay 32 bolas, de las cuales
nicamente una est marcada con premio. Si un juego consiste en seleccionar una bola al
azar de la urna (reemplazndola), cuntas veces se debe de jugar para que sea ms favorable
obtener por lo menos un premio?
2
ln 2
ln ln
= ln 1
= 21.83
(1 N1 )
( 321 )
As que, jugando por lo menos 22 veces, la probabilidad de obtener por lo menos un premio es
mayor que 12 .
Ejemplo 2.33. Supongamos que n bolas se van colocando, una por una y al azar, en cualquiera
de n cajas. Calcule la probabilidad de que la primera caja quede vaca.
Solucin
Definamos los eventos:
2Este

problema, el cual incluye como caso particular el problema del ejemplo anterior, fue resuelto por
Abraham de Moivre en el ao 1717.

44

2. LAS REGLAS BSICAS

Ak : la bola nmero k no se coloca en la primera caja.


A: la primera caja queda vaca.

n
n
= 1 n1
Se tiene, P (A) = P (A1 An ) = n1
n
Si n es grande, obtenemos la aproximacin:
P (A) e1 = 0.367879
Es decir, si n es grande, la probabilidad de que la primera caja quede vaca es aproximadamente
constante e igual a 0.36788. En particular, es ms probable que la primera caja quede ocupada.
Ejemplo 2.34. Se van colocando al azar bolas, una a una, en cualquiera de N cajas, hasta
que se ocupe la primera caja, cul es la probabilidad de que el proceso termine en el paso n?
Solucin
Consideremos los siguientes eventos:
A: el proceso termina en el paso n.
Bn1 : la primera caja no es ocupada por ninguna de las primeras n 1 bolas.
B: la primera caja es ocupada por la n-sima bola.
n1 1

.
Se tiene entonces, P (A) = P (Bn1 B) = P (Bn1 )P (B) = N1
N
N
2.8. Interpretacin objetiva vs. interpretacin subjetiva de la probabilidad

Cabe en este momento hacer nfasis en el sentido objetivo que hemos dado a la probabilidad de
un evento en los ejemplos considerados hasta este momento. Al construir un modelo para un
determinado experimento aleatorio, hemos buscado que la probabilidad de un evento exprese
determinadas propiedades objetivas del experimento aleatorio. As, cuando decimos que la
probabilidad de obtener el resultado 5 al lanzar un dado es 16 , queremos expresar con eso que
las caractersticas del experimento consistente en lanzar un dado son tales que el lanzamiento
del dado equivale a seleccionar al azar un nmero entre 1 y 6 y entonces se puede construir el
modelo basndonos en la equiprobabilidad de los posibles resultados.
La objetividad en la asignacin de probabilidades tiene sentido pues para nosotros un experimento es aleatorio no porque desconozcamos cual resultado se va a obtener, sino porque efectivamente caben varias posibilidades en cuanto al resultado, de acuerdo a como fue planteado
en la seccin 1.1. En otras palabras, la aleatoriedad del experimento es objetiva.
No es ste el nico enfoque que existe en el Clculo de Probabilidades, tambin se puede
desarrollar ste desde un enfoque subjetivo. Un ejemplo aclarar la diferencia entre dicho
enfoque y el que seguimos en este libro.
Ejemplo 2.35. Supongamos que tenemos dos cajas, una marcada con el nmero 1 y otra
marcada con el nmero 2, y que en cada una de ellas hay una bola. Supongamos adems que
sabemos que una de las bolas es roja y la otra blanca, pero desconocemos cual est en cada
caja. Tomamos entonces la caja nmero 1 y nos preguntamos por la probabilidad de encontrar
ah la bola roja.
Tal y como est planteado el problema, no tenemos definido ah algn experimento aleatorio
pues las bolas ya estn colocadas una en cada caja, de manera que al tomar la caja 1 necesariamente encontraremos en ella la bola que est colocada ah, habiendo entonces solo un
posible resultado. En otras palabras, desde nuestro enfoque, la probabilidad de encontrar la

EJERCICIOS

45

bola roja en la caja 1 es 0 si en ella se encuentra la bola blanca y es 1 si en ella se encuentra


la bola roja.
El azar en este experimento existe slo en nuestra mente pues si bien la probabilidad buscada
es 0 o 1, desconocemos cual de los dos valores es el correcto.3
Ahora bien, con una interpretacin subjetiva de la probabilidad, podramos decir que es igualmente probable encontrar la bola roja o la bola blanca en la caja 1 y entonces concluir que la
probabilidad de encontrar la bola roja en la caja 1 es 12 . Vemos as que los diferentes enfoques
nos conducen a resultados diferentes.
El problema cambia si lo planteamos de la siguiente manera: Supongamos que tenemos dos
bolas, una roja y una blanca, y dos cajas, una marcada con el nmero 1 y otra marcada con el
nmero 2; consideramos entonces el experimento consistente en colocar las bolas al azar, una
en cada caja y nos preguntamos por la probabilidad de que la bola roja quede colocada en la
caja 1.
Planteado de esta segunda forma, ahora s tenemos definido un experimento aleatorio. De ste,
puede resultar tanto que la bola roja quede colocada en la caja 1, como que quede colocada en
la caja 2; y como la colocacin es al azar, podemos partir de la equiprobabilidad de los dos
posibles resultados. De esta manera la probabilidad de que la bola roja quede colocada en la
caja 1 es 12 .
Obsrvese que al valor 12 encontrado de esta manera podemos darle una interpretacin frecuentista diciendo que si el experimento aleatorio que hemos definido lo repetimos muchas veces,
aproximadamente en la mitad de las veces la bola roja quedar colocada en la caja 1.
Por otra parte, el valor 12 encontrado desde un enfoque subjetivo, en la primera forma en
que se plante el experimento, no admite una interpretacin frecuentista pues estando ya
colocadas las bolas, una en cada caja, una repeticin del experimento consiste en colocar las
bolas exactamente de la misma manera, as que si el experimento se repite muchas veces,
en todas las repeticiones la bola roja quedar en la caja 1 o en todas quedar en la caja 2.
Sin embargo, cabe aclarar que dentro del enfoque subjetivo, este ltimo hecho no constituye
una limitacin pues dentro de ese enfoque la probabilidad de un evento no es interpretada de
acuerdo al principio de regularidad de las frecuencias.

EJERCICIOS
Ejercicio 2.1. Un experimento aleatorio admite nicamente dos posibles resultados, uno de
ellos ocurre con probabilidad p y el otro con probabilidad p2 . Encuentre el valor de p.
Ejercicio 2.2. Sean A y B dos eventos tales que P (B) = 0.6 y P (A B) = 0.2. Encuentre
P (A B c ).
Ejercicio 2.3. Sean A y B dos eventos relativos a un experimento aleatorio y supongamos
que la probabilidad de que A ocurra es 38 , la probabilidad de que B ocurra es 12 y la probabilidad
3Con

base en esto se podra definir un experimento consistente en que, una vez seleccionada la caja 1, se
elija al azar un color, ya sea rojo o blanco. Tal experimento sera aleatorio y cabra, por ejemplo, preguntarnos
por la probabilidad de que el color elegido coincida con el color de la bola de la caja.

46

LAS REGLAS BSICAS

de que ocurra exactamente uno de los dos eventos A y B es 58 . Encuentre la probabilidad de


que ocurra A pero no B.
Ejercicio 2.4. Sean A y B dos eventos relativos a un experimento aleatorio y supongamos
que la probabilidad de que A ocurra es 35 , la probabilidad de que B ocurra es 15 y la probabilidad
de que ocurra A pero no B es 12 . Encuentre la probabilidad de que a) ocurra al menos uno de
los dos eventos A y B y b) ocurra exactamente uno de los dos eventos A y B.
Ejercicio 2.5. Sean A y B dos eventos relativos a un experimento aleatorio. Supongamos
1
. Encuentre a) P (A B), b) P (Ac B c ) y c)
que P (A) = 13 , P (B) = 12 y P (A B) = 12
P (Ac B).
Ejercicio 2.6. La unin de dos eventos A y B se puede expresar como la unin de dos
eventos mutuamente excluyentes, a saber, A y B A B. Exprese la unin de tres eventos
A, B y C como unin de eventos mutuamente excluyentes y utilice esa representacin para
demostrar la siguiente frmula:
P (A B C) = P (A) + P (B) + P (C) P (A B) P (A C) P (B C) + P (A B C)
Ejercicio 2.7. Sean A, B y C tres eventos relativos a un experimento aleatorio. Supongamos
3
que P (A) = 34 , P (B) = 12 , P (C) = 14 , P (A B) = 38 , P (A C) = 18 , P (B C) = 16
y
1
P (A B C) = 8 . Encuentre la probabilidad de que no ocurra A, ni B, ni C.
Ejercicio 2.8 (Regla de la suma para n eventos). Demuestre que si A1 , . . . An son n
eventos cualesquiera, entonces:
P
P
P (nk=1 Ak ) = nk=1 P (Ak ) {i,j{1,...,n},:i6=j} P (Ai Aj )
P
+ {i,j,k{1,...,n},:i6=j,j6=k,i6=k} P (Ai Aj Ak ) . . . + (1)n+1 P (A1 A2 . . . An )

Ejercicio 2.9. Sean A y B dos eventos con probabilidad positiva tales que A B. Demuestre
que a) P (A|B) = P (A)/P (B) y b) P (B|A) = 1.
Ejercicio 2.10. Sean A y B dos eventos de probabilidad positiva tales que P (A | B) < P (A),
demuestre que P (B | A) < P (B).
Ejercicio 2.11. Sean A y B eventos con probabilidad positiva tales que P (A) = P (B),
demuestre que P (A|B) = P (B|A).
Ejercicio 2.12. Un dado desbalanceado est hecho de tal forma que la probabilidad de obtener
el nmero k es igual a ck, en donde c es una constante y k {1, 2, 3, 4, 5, 6}. Un experimento
aleatorio consiste en lanzar dicho dado. Dado que se obtiene un nmero par, cul es la
probabilidad de que se obtenga el nmero 2?

Ejercicio 2.13. En una ciudad se publican los peridicos A, B y C. Una encuesta reciente
muestra que 20% de los habitantes adultos de la ciudad lee A, 16% lee B, 14% lee C, 8% lee
A y B, 5% lee A y C, 4% lee B y C y 2% lee A, B y C. Si se elige un adulto al azar,
calcule la probabilidad de que a) no lea ninguno de los peridicos, b) lea exactamente uno de
los peridicos y c) lea al menos A y B sabiendo que lee al menos uno de los 3 peridicos.
Ejercicio 2.14. Dada una poblacin formada exclusivamente por hermanos gemelos, consideremos el experimento aleatorio consistente en seleccionar primero una pareja de hermanos
gemelos al azar y despus, tambin al azar, uno de los hermanos de esa pareja. Supongamos

EJERCICIOS

47

que la probabilidad de que los hermanos gemelos seleccionados sean del mismo sexo es igual a
0.7 y que la probabilidad de que la persona seleccionada, en la segunda parte del experimento,
sea de sexo masculino es igual a 0.4. Sabiendo que la persona seleccionada en la segunda parte
del experimento es de sexo masculino, cul es la probabilidad de que su hermano tambin lo
sea?
Sugerencia: Represente como = {(MM)M, (F F )F, (MF )M, (MF )F } y encuentre la
probabilidad de cada uno de sus elementos.
Ejercicio 2.15 (Regla del producto). Demuestre que si A1 , . . . An son n eventos cualesquiera, entonces:
P (nk=1 Ak ) = P (An |A1 . . . An1 ) P (A2 |A1 )P (A1 )
Ejercicio 2.16. Consideremos una urna que contiene r bolas rojas y b bolas blancas y un
experimento aleatorio que consiste en dos partes, en la primera, se selecciona al azar una
bola de la urna y se deja fuera de sta, en la segunda, se selecciona al azar una de las bolas
restantes. Denotemos por R1 , . . . , Rr a las bolas rojas. El hecho de que la segunda eleccin
sea al azar se traduce inmediatamente, por ejemplo, en que la probabilidad de obtener en la
1
segunda eleccin la bola Ri , dado que en la primera se obtiene la bola Rj , es igual a r+b1
, para
cualquier i, j {1, . . . , r} con i 6= j; por la propiedad de la aditividad finita se sigue entonces
que la probabilidad de obtener en la segunda eleccin una bola roja, dado que en la primera
r1
se obtiene la bola Rj , es igual a r+b1
para cualquier j {1, . . . , r}. Nos gustara entonces
poder decir simplemente que la probabilidad de que la segunda bola seleccionada sea roja dado
r1
que la primera tambin lo es, est dada tambin por r+b1
. Esto es correcto, pero requiere de
un pequeo razonamiento que demuestre su validez. Demuestre el siguiente resultado general
y utilcelo para fundamentar esta conclusin.
Sean A1 , . . . , An n eventos mutuamente excluyentes de probabilidad positiva y B un evento tal
que P (B | A1 ) = = P (B | An ) = c, entonces P (B | A1 An ) = c.
Ejercicio 2.17. Las letras A,A,A,C,E,I,M,M,T,T se colocan al azar, una despus de la otra.
Cul es la probabilidad de que se obtenga la palabra MATEMATICA?
Ejercicio 2.18. Un ropero contiene 10 pares (distintos) de zapatos. Si se escogen al azar
5 zapatos, cul es la probabilidad de que la muestra contenga exactamente uno de los pares
originales?
Ejercicio 2.19. Un ropero contiene 10 pares (distintos) de zapatos. Si se escogen al azar 3
zapatos, cul es la probabilidad de que se obtengan 2 que formen un par?
Ejercicio 2.20. De una caja que contiene n pares (distintos) de zapatos se seleccionan al
azar 2r zapatos con 2r < n. Encuentre la probabilidad de que con los zapatos seleccionados a)
no se forme algn par, b) se forme exactamente un par y c) se formen exactamente 2 pares.
Ejercicio 2.21. En un pueblo de n+1 habitantes, una persona le rumorea algo a una segunda
persona, quien a su vez lo repite a una tercera, etc. En cada caso, la persona escoge al receptor
del rumor, al azar, de entre las otras n personas del pueblo. Si el rumor se transmite r veces
(r < n), encuentre la probabilidad de que a) no regrese a la que lo origin y b) que no pase
dos veces por la misma persona.

48

LAS REGLAS BSICAS

Ejercicio 2.22. En un concurso se colocan tres puertas y detrs de ellas se colocan tres
premios, uno de los cuales es un automvil y los otros dos son pequeos regalos de consolacin.
Los premios se colocan de tal manera que la probabilidad de que el automvil se coloque detrs
de la puerta nmero 1 es igual a q mientras que la probabilidad de que se coloque detrs de
la puerta nmero 2 (resp. 3) es igual a 1q
. A cada concursante se le asigna inicialmente
2
la puerta nmero 1, pero otra persona, que puede ver como estn colocados los premios, abre
alguna de las puertas 2 y 3 en donde no se encuentre el automvil, de tal manera que, si
no se encuentra en ninguna de ellas, abre la nmero 2 con probabilidad p y la nmero 3
con probabilidad 1 p. El concursante, quien conoce los valores de p y q, tiene entonces la
opcin de escoger cualquiera de las dos puertas que se encuentren cerradas. Cul es la mejor
estrategia del concursante para tratar de conseguir el automvil?
Ejercicio 2.23. Sean A y B dos eventos independientes tales que la probabilidad de que
ocurran simultneamente es 16 y la probabilidad de que ninguno ocurra es 13 . Encuentre P (A)
y P (B).
Ejercicio 2.24. Sean A y B dos eventos independientes y supongamos P (A) =
7
. Encuentre P (B).
B) = 10

1
2

y P (A

Ejercicio 2.25. Sean A y B dos eventos relativos a un experimento aleatorio. Supongamos


que P (A) = 0.4, P (A B) = 0.7 y sea p = P (B). a) Para qu valor de p son A y B
mutuamente excluyentes? b) Para que valor de p son A y B independientes?
Ejercicio 2.26. Un experimento aleatorio consiste en lanzar un par de dados, uno blanco y
uno azul. Sea A el evento se obtiene 1 o 2 con el dado blanco y sea B el evento la suma de
los nmeros que se obtienen es igual a 7. Son A y B eventos independientes? Justifique su
respuesta.
Ejercicio 2.27. Muestre con un ejemplo que es posible tener 3 eventos A, B y C tales que
P (A B C) = P (A)P (B)P (C) pero de tal manera que estos eventos no sean independientes.

Ejercicio 2.28. Se tienen dos dados, uno rojo y uno azul. Un experimento aleatorio consiste
en lanzar el par de dados dos veces consecutivas. Encuentre la probabilidad de que se obtenga
exactamente el mismo resultado en los dos lanzamientos, es decir, el mismo nmero con el
dado rojo y el mismo nmero con el dado azul.
Ejercicio 2.29. Calcule el nmero de lanzamientos de un par de dados que se requieren para
que sea ms favorable obtener por lo menos un par de seises que no obtenerlo.4
Ejercicio 2.30. Calcule el nmero de lanzamientos de tres dados que se requieren para que
sea ms favorable obtener por lo menos una tercia de cincos que no obtenerla.
Ejercicio 2.31. Cada una de n urnas contiene N bolas numeradas de 1 a N. Se extrae
una bola al azar de cada urna. Calcule la probabilidad de que m sea el ms grande nmero
extrado, en donde m {1, . . . , N }.
Ejercicio 2.32. Un experimento aleatorio consiste en lanzar sucesivamente una moneda balanceada hasta que se obtengan dos resultados iguales en forma consecutiva. Encuentre la
probabilidad de que el experimento termine en el sexto lanzamiento.
4Este

problema fue resuelto en forma correcta en el ao 1654 por Blaise Pascal, siendo uno de los primeros
problemas de probabilidad relativamente complejo que se plante.

EJERCICIOS

49

Ejercicio 2.33. Una urna contiene 2 bolas negras y 4 bolas blancas. Un experimento aleatorio
consiste en ir seleccionando al azar una bola de la urna, regresndola despus de observar
su color, hasta que salgan dos bolas del mismo color en forma consecutiva. Encuentre la
probabilidad de que este proceso termine antes de la cuarta eleccin.
Ejercicio 2.34. Una mquina est compuesta por 4 componentes que funcionan independientemente uno del otro y que estn organizados de tal manera que la mquina falla nicamente
si los 4 componentes fallan. Supongamos que las probabilidades de que cada componente falle
son 0.1, 0.2, 0.25 y 0.3, respectivamente. Cul es la probabilidad de que la mquina funcione
bien?
Ejercicio 2.35. Un componente de una cierta mquina falla el 20% de las veces. Con el
objeto de disminuir la probabilidad de que la mquina falle, se instalan en la mquina n de
dichos componentes de tal manera que la mquina falla nicamente cuando los n componentes
fallan. Asumiendo que los n componentes funcionan de manera independiente, cul es el
ms pequeo valor de n que garantiza que la mquina funcionar bien el 99% de las veces?
Ejercicio 2.36. Dos equipos A y B van a jugar una serie de juegos de beisbol. El equipo que
gane 2 de 3 juegos gana la serie. El primer juego se realizar en el estadio del equipo A, el
segundo se har en el estadio del equipo B y, en caso de llegar a un tercer juego, el ltimo
juego se efectuar en el estadio del equipo B. Se sabe que cuando juega en su estadio, el equipo
A tiene una probabilidad de ganarle al equipo B igual a 0.7, mientras que cuando se juega en
el estadio del equipo B, la probabilidad de que el equipo A le gane al equipo B es igual a 0.2.
Suponiendo que los resultados de los juegos son independientes entre s, calcule la probabilidad
de que el equipo A gane la serie.
Ejercicio 2.37. En una cierta compaa el esquema para aprobar una propuesta es el siguiente: tres personas A, B y C analizan la propuesta y sta es aprobada nicamente
si por lo menos dos de las tres personas dan su visto bueno. Se sabe que las tres personas
analizan cada propuesta en forma independiente y que las probabilidades de que den su visto
bueno ante una propuesta son 0.3, 0.2 y 0.1, respectivamente. a) Cul es la probabilidad de
que una determinada propuesta sea aprobada. b) Si se sabe que una propuesta es aprobada,
cul es la probabilidad de que sta sea aprobada por C?
Ejercicio 2.38. En una cierta compaa, la toma de decisiones sigue el esquema que se
muestra a continuacin: Cualquier propuesta pasa primero por A; si la aprueba, entonces la
propuesta se pasa a B, C y D; si ya sea B o D la aprueban, la propuesta pasa entonces a E; si
ya sea E o C aprueban la propuesta entonces se pasa a F. La propuesta es aprobada finalmente
nicamente si sta llega hasta F y a su vez F la aprueba. Supongamos que la probabilidad de
que A, C y F aprueben cualquier propuesta que les llegue es 0.5, mientras que la probabilidad
de que B, D y E aprueben cualquier propuesta que les llegue es 0.7. Supongamos adems que
A, B, C, D, E y F toman sus decisiones independientemente uno del otro. a) Cul es la
probabilidad de que una determinada propuesta sea aprobada? b) Si se sabe que una propuesta
es aprobada, cul es la probabilidad de que pase por E? c) Si se sabe que una propuesta es
aprobada, cul es la probabilidad de que pase por C y ste la apruebe?
Ejercicio 2.39. Dos personas P y Q juegan a lanzar consecutivamente una moneda balanceada con la condicin de que cada vez que se obtenga cara, P gana un punto, mientras que
Q lo gana cuando se obtiene cruz. Cada persona apuesta una cantidad x y convienen en que

50

LAS REGLAS BSICAS

gana el juego quien obtenga primero 4 puntos. Supongamos que, cuando el jugador P lleva
ganado un punto y el jugador Q dos puntos, se les pierde la moneda y no pueden continuar el
juego. Cmo deben repartirse las apuestas en ese momento de manera que se tome en cuenta
correctamente el nmero de puntos que lleva ganado cada uno?.
Ejercicio 2.40. Sean A y B dos eventos independientes. Demuestre que tambin son independientes a) Ac y B c , b) A y B c y c) Ac y B.
Ejercicio 2.41. Sean A, B y C tres eventos relativos a un experimento aleatorio. Cules
de las siguientes aseveraciones son verdaderas?
a) P (B|A) + P (B c |A) = 1.
b) P (B|A) + P (B|Ac ) = 1.
c) Si A y B son independientes, entonces P (A B|C) = P (A|C)P (B|C).
d) Si P (A|B) = P (B), entonces A y B son independientes.
e) Si P (A) = P (B), entonces P (A|B) = P (B|A).
f) Si P (A|B) = P (B|A), entonces P (A) = P (B).
g) Si P (A) = P (B) = p, entonces P (A B) p2 .
En todos los casos, justifique su respuesta, ya sea demostrando que la aseveracin es verdadera
o dando un contraejemplo que muestre que la aseveracin es falsa.
Ejercicio 2.42. Dos de tres prisioneros son elegidos al azar para ser liberados. El prisionero
A pide al guardia que investigue los nombres seleccionados y que le diga uno de ellos que no
sea l mismo. Supongamos que el guardia acepta hacer lo que le pide el prisionero y que, en
caso de que A no vaya a ser liberado, le dir el nombre del prisionero B con probabilidad p y
el del prisionero C con probabilidad 1 p. Consideremos entonces los siguientes eventos:
A: El prisionero A es seleccionado para ser liberado.
B: El guardia informa al prisionero A que el prisionero B va a ser liberado.
Son A y B independientes?
Ejercicio 2.43. Consideremos la situacin del ejercicio 2.22 y definamos los siguientes eventos:
A: El automvil se encuentra detrs de la puerta nmero 1.
B: La puerta abierta que se muestra al concursante es la nmero 2.
Son A y B independientes?

CAPTULO 3

MUESTREO ALEATORIO
El arte de hacer Matemticas consiste en encontrar ese
caso particular que contiene todos los grmenes de generalidad.
David Hilbert

3.1. Muestreo aleatorio con reemplazo


Supongamos que tenemos una poblacin de N objetos distintos. Siendo distintos, podemos
pensar en que los N objetos estn marcados de tal manera que se pueden distinguir uno del
otro1. Consideremos entonces el siguiente experimento: elegimos un objeto al azar de entre
los N, anotamos el resultado y regresamos el objeto seleccionado a la poblacin; elegimos
nuevamente un objeto al azar de entre los N, anotamos el resultado y regresamos el objeto
seleccionado a la poblacin; este proceso lo continuamos hasta haber realizado n elecciones. A
un experimento aleatorio de este tipo lo llamaremos un muestreo aleatorio con reemplazo,
a los n datos obtenidos los llamaremos una muestra con reemplazo de tamao n y al
nmero n lo llamaremos el tamao de la muestra.
El resultado de un muestreo aleatorio con reemplazo consiste de una coleccin de n datos, los
cuales representan los n objetos que se obtienen en las n elecciones. Si denotamos a los N
objetos de la poblacin por y1 , ..., yN , entonces cada posible resultado lo podemos representar
por una eneada (yk1 , . . . , ykn ), en donde cada ndice kj es un nmero entero entre 1 y N y ykj
es el elemento que se obtiene en la j-sima eleccin. El espacio muestral consta as de N n
elementos.
Como la eleccin de cada una de los objetos se realiza al azar, en cada eleccin, cualquiera de
las objetos de la poblacin tiene la misma probabilidad de ser elegido, de manera que si, para
i {1, . . . , n} y j {1, . . . , N }, definimos los siguientes eventos:
Bij : en la j-sima eleccin se obtiene el elemento yi .
se tiene, P (Bij ) = N1 para toda i.
Ahora bien, como las n elecciones son independientes entre s, los eventos de cualquier coleccin
Bkjj (j {1, . . . , n}) son independientes y entonces se debe de imponer la condicin:

P (Bk11 Bknn ) = P (Bk11 ) P (Bknn ) =

1
Nn

1En

un problema real, los N objetos pueden ser indistinguibles para un observador. El pensarlos como
distinguibles es slo para fines de entendimiento del modelo y se justifica por el hecho de que en cualquier
caso, aunque pudiendo ser indistinguibles, se trata de N objetos distintos.
51

52

3. MUESTREO ALEATORIO

Pero las intersecciones Bk11 Bknn representan a los posibles resultados del experimento
aleatorio y entonces se concluye que cada uno de ellos tiene una probabilidad igual a N1n .
Conclusin: En un muestreo aleatorio con reemplazo, los N n posibles resultados son equiprobables.
Obsrvese que el experimento aleatorio consistente en lanzar n dados, el cual es equivalente
a lanzar n veces el mismo dado, se puede pensar como un muestreo aleatorio con reemplazo.
La poblacin consiste de las 6 caras del dado y la muestra que se obtiene es de tamao n.
Ejemplo 3.1. Un experimento aleatorio consiste en lanzar un par de dados, cul es la
probabilidad de que la suma de los nmeros que se obtienen sea igual a 9?
Solucin
Tratndose de un muestreo aleatorio con reemplazo, cada uno de los 36 posibles resultados del
1
experimento tiene una probabilidad igual a 36
. Ahora bien, de los 36 posibles resultados, hay
4 en los cuales la suma es igual a 9, por lo tanto la probabilidad buscada es igual a 19 .
Obsrvese que, como estamos interesados nicamente en la suma de los nmeros que se obtienen, independientemente del resultado que se obtenga con cada dado, podramos pensar los
posibles resultados del experimento como las diferentes sumas que se pueden obtener. En ese
caso el espacio muestral tendra nicamente 11 elementos, a saber cualquier nmero entero
entre 2 y 12. Sin embargo, esto no simplifica el problema pues los elementos de ese espacio
muestral no son equiprobables.
Tambin podramos pensar los posibles resultados del experimento como parejas, de tal manera
que una pareja (a, b) representara el resultado consistente en la obtencin de a con un dado y
b con el otro, sin importar cual resultado especfico se obtiene con cada dado. En este caso,
el espacio muestral constara de 21 posibles resultados, los cuales se describen en la siguiente
figura:
(1, 1) (1, 2) (1, 3) (1, 4) (1, 5)
(2, 2) (2, 3) (2, 4) (2, 5)
(3, 3) (3, 4) (3, 5)
(4, 4) (4, 5)
(5, 5)

(1, 6)
(2, 6)
(3, 6)
(4, 6)
(5, 6)
(6, 6)

Sin embargo, este mtodo tampoco simplificara el problema pues nuevamente los 21 elementos
del espacio muestral no son equiprobables.
El experimento consistente en lanzar dos dados es equivalente al de lanzar 2 veces el mismo
dado y entonces no se trata ya de 2 dados distintos. Sin embargo, en este caso lo que habra
que distinguir no son los dos dados sino los lanzamientos pues se trata de dos lanzamientos
distintos.
3.2. Muestreo aleatorio ordenado sin reemplazo
Supongamos nuevamente que tenemos una coleccin de N objetos distintos y consideremos
el siguiente experimento aleatorio: elegimos un objeto al azar de entre los N; despus, sin
regresar el primer objeto a la poblacin, elegimos al azar otro objeto de entre los que restan
y as sucesivamente, hasta tener elegidos n objetos. A un experimento aleatorio de este tipo

3.2. MUESTREO ALEATORIO ORDENADO SIN REEMPLAZO

53

lo llamaremos un muestreo aleatorio ordenado sin reemplazo, a los n datos obtenidos


lo llamaremos una muestra ordenada sin reemplazo de tamao n y al nmero n lo
llamaremos el tamao de la muestra.
Como en el caso anterior, el resultado de un muestreo aleatorio sin reemplazo consiste de una
coleccin de n datos, los cuales representan los n objetos que se obtienen en las n elecciones.
Si denotamos a los N objetos de la poblacin por y1 , . . . , yN , entonces cada posible resultado
lo podemos representar por una eneada (yk1 , . . . , ykn ), en donde cada ndice kj es un nmero
entero entre 1 y N y todos ellos son distintos.
Como las elecciones de los objetos se realizan en orden, los posibles resultados son eneadas
ordenadas (yk1 , . . . , ykn ), en donde ykj representa el resultado de la j-sima eleccin; as, dos
eneadas que tengan los mismos elementos pero en distinto orden, representan dos resultados
distintos. El espacio muestral consta as de N(N 1) (N n + 1) elementos.
Denotaremos por (N)n al producto N(N 1) (N n + 1) y denominaremos a esta cantidad
el nmero de ordenaciones de N objetos tomados de n en n. Es evidente que se tiene
la siguiente relacin:
(N)n =

N!
(Nn)!

Como la eleccin de cada una de los objetos se realiza al azar, en cada eleccin cualquiera de
las objetos que quedan de la poblacin tiene la misma probabilidad de ser elegido, de manera
que si, para i {1, . . . , n} y j {1, . . . , N }, definimos los siguientes eventos:
Bij : En la j-sima eleccin se obtiene el elemento yi ,
1
se tiene, P (Bi1 ) = N1 para i {1, . . . , N }. Adems, P (Bkj j |Bk11 Bkj1
) = Nj+1
para
j1
j {2, . . . , N }, en donde cada ndice ki es un nmero entero entre 1 y N y todos ellos son
distintos.
Entonces utilizando la regla del producto, se obtiene:
P (Bk11 Bknn )
= P (Bknn |Bk11 Bkn1
)P (Bkn1
|Bk11 Bkn2
) P (Bk33 |Bk11 Bk22 )P (Bk22 |Bk11 )P (Bk11 )
n1
n1
n2

1
1
Nn+1 Nn+2

1
1 1
N2
=
N1 N

1
N (N 1)(N2)...(Nn+1)
Bknn representan a

Pero las intersecciones Bk11


los posibles resultados del experimento
aleatorio y entonces se concluye que cada uno de ellos tiene una probabilidad igual a
1
N(N1)(N2)...(Nn+1)

Conclusin: En un muestreo aleatorio ordenado sin reemplazo, los N(N 1) (N n + 1)


posibles resultados son equiprobables.
Ejemplo 3.2. Una urna contiene r bolas rojas y b bolas blancas. Se elige al azar una bola
de la urna, despus, sin reemplazar la primera, se elige otra y as sucesivamente hasta sacar
todas las bolas. Calcule la probabilidad de que en el j-simo paso se saque una bola roja.
Solucin
Podemos suponer que el proceso se detiene en el j-simo paso y entonces estamos tomando una
muestra aleatoria ordenada sin reemplazo de tamao j, de una poblacin de tamao r + b; as
que, tomando muestras ordenadas, hay un total de (r + b)j posibles resultados equiprobables.
De stos, aquellos en los cuales se obtiene una bola roja en el ltimo paso son (r + b 1)j1 r

54

3. MUESTREO ALEATORIO

pues una bola roja puede ser cualquiera de las r y una vez definida sta quedan r + s 1
bolas, de las cuales hay que elegir j 1. Entonces, llamando Rj al evento en consideracin,
se obtiene:
(r+b1)
r
r
P (Rj ) = (r+b)j1 = (r+b1)(r+b2)(r+bj+1)r
= r+b
(r+b)(r+b1)(r+bj+1)
j

Tambin se puede hacer el razonamiento de la siguiente manera:


Sean a1 , . . . , ar las bolas rojas y ar+1 , . . . , ar+b las bolas blancas. Denotemos entonces por sk
al total de muestras ordenadas sin reemplazo de tamao r + b en las cuales la bola k se elige
en el j-simo paso y por s al total de muestras ordenadas sin reemplazo de tamao r + b. Se
tiene entonces s1 = s2 = = sr+b y s = s1 + s2 + + sr+b , as que:
rs1
r
r
= (r+b)s
= r+b
P (Rj ) = s1 +s2 ++s
s
1

3.3. Muestreo aleatorio no ordenado sin reemplazo


Supongamos nuevamente que tenemos una coleccin de N objetos distintos y consideremos el
experimento aleatorio consistente en elegir al azar un paquete de n objetos de entre los N . A
un experimento aleatorio de este tipo lo llamaremos un muestreo aleatorio no ordenado
sin reemplazo, a los n datos obtenidos lo llamaremos una muestra no ordenada sin
reemplazo de tamao n y al nmero n lo llamaremos el tamao de la muestra.
Como en el caso anterior, el resultado de un muestreo aleatorio no ordenado sin reemplazo
consiste de una coleccin de n datos, los cuales representan los n objetos que se seleccionan. Si denotamos a los N objetos de la poblacin por y1 , . . . , yN , entonces como la eleccin de los objetos se realiza en paquete, cada posible resultado es una eneada no ordenada,
es decir,un subconjunto de tamao n del conjunto {y1 , . . . , yN }. As, cada posible resultado puede representarse por {yk1 , . . . , ykn }, en donde cada ndice kj es un nmero entero y
1 yk1 < < ykn N.
Como la eleccin de cada una de los paquetes se realiza al azar, cada uno de los subconjuntos
{yk1 , . . . , ykn } tiene la misma probabilidad de ser seleccionado, de manera que se concluye
que tambin en un muestreo aleatorio no ordenado sin reemplazo, los posibles resultados son
equiprobables.
Siendo cada posible resultado del experimento un subconjunto de tamao n del conjunto
{y1 , . . . , yN }, el nmero de elementos del espacio muestral es igual al nmero de subconjuntos
de tamao n que se pueden obtener de un conjunto de N elementos. Es bien sabido como calcular este nmero; aqu lo podemos obtener argumentando que por cada muestra no ordenada
sin reemplazo de tamao n, permutando sus elementos, se obtienen n! muestras ordenadas sin
reemplazo de tamao n, as que el total de muestras no ordenadas sin reemplazo de tamao
n
N!
n es igual a (N)
= n!(Nn)!
, cantidad que es conocida como el nmero de combinaciones de
n!

N objetos tomados de n en n, y que se representa con la notacin Nn .
Este razonamiento muestra de paso una propiedad importante, a saber, que cuando se tiene un
muestreo no ordenado sin reemplazo, la probabilidad de un evento puede calcularse tambin
asumiendo que el muestreo es ordenado. Esto se debe a que, como se dice arriba, por cada
muestra no ordenada sin reemplazo, se obtienen n! muestras ordenadas, las cuales corresponden a un muestreo ordenado sin reemplazo y, como tanto las muestras ordenadas como las no

3.3. MUESTREO ALEATORIO NO ORDENADO SIN REEMPLAZO

55

ordenadas son equiprobables, el evento formado por las n! muestras ordenadas que corresponden a una muestra no ordenada tiene la misma probabilidad de ocurrencia que tal muestra
no ordenada. De esta manera, cuando el experimento aleatorio consiste en un muestreo sin
reemplazo y se busca encontrar la probabilidad de un evento en el cual no est involucrado el
orden de los elementos de la muestra, no es necesario especificar si el muestreo se realiza con
orden o sin orden pues se obtiene la misma solucin asumiendo cualquiera de los dos casos.
Obviamente, cuando en el evento cuya probabilidad nos interese calcular est involucrado el
orden de los elementos de la muestra, necesariamente tenemos que asumir que el muestreo es
ordenado y debemos de tomar como posibles resultados a las posibles muestras ordenadas que
puedan obtenerse.
En resumen, hemos visto que en los 3 casos que hemos considerado de muestreo aleatorio,
los posibles resultados del experimento son equiprobables, de tal manera que, de acuerdo con
la propiedad de la aditividad finita, para calcular la probabilidad de un evento cualquiera,
relativo al muestreo aleatorio en consideracin, basta con determinar el nmero de posibles
resultados que lo componen y la probabilidad buscada es entonces el cociente de ese nmero
entre el total de posibles resultados.
El siguiente resultado se demuestra fcilmente:
Proposicin 3.3. Sean n, N N con n < N, entonces:
N N
=
Nn Nn
N+1
N
+
= n+1
n
n+1

Ejemplo 3.4. Supongamos que n bolas se van colocando una por una, al azar, en cualquiera
de n cajas. Calcule la probabilidad de que slo la caja 1 quede vaca.
Solucin
Consideremos los siguientes eventos:
A: nicamente la caja 1 queda vaca.
Ai : nicamente la caja 1 queda vaca y quedan dos bolas en la caja i (i {2, . . . , n}).
La colocacin de las n bolas en las n cajas puede interpretarse como un muestreo sin reemplazo
de tamao n, de una poblacin de tamao n, de manera que se tiene:
(n)(n2)!
P (Ai ) = 2 nn
(n1)(n
(n2)!
(n2 )(n1)!
2)
Y entonces, P (A) = P (A2 ) + + P (An ) =
=
nn
nn
Ejemplo 3.5. En una urna hay N tarjetas numeradas del 1 al N. Se toma una muestra, al
azar y sin reemplazo, de tamao n. Calcule la probabilidad de que el nmero ms grande de
la muestra sea igual a k, en donde k n.
Solucin
El problema se puede resolver de dos maneras distintas:

1o. Asumiendo que el muestreo es no ordenado, tenemos un total de Nn posibles resultados y
stos son equiprobables. Para que un posible resultado pertenezca al evento en consideracin
se requiere que de la muestra de n elementos, n 1 sean nmeros entre 1 y k 1 y uno de
ellos sea igual a k; es decir, n 1 de ellos se deben elegir como una muestra, no ordenada,

56

3. MUESTREO ALEATORIO

k1
de una poblacin de k 1 elementos, de las cuales hay un total de n1
; el objeto restante se
puede elegir de una sola manera. Entonces, llamando A al evento en consideracin, tenemos:
(k1)
P (A) = n1
(Nn )
2o. Definamos el evento Ak como el nmero ms grande de la muestra es menor o igual a
k, entonces A = Ak Ak1 , de manera que, nuevamente asumiendo que el muestreo es no
ordenado:
(k) (k1)
(k1)
P (A) = P (Ak ) P (Ak1 ) = Nn Nn = n1
(n)
(n)
(Nn )
Ejemplo 3.6. De una poblacin de N objetos se toma una muestra aleatoria con reemplazo
de tamao n. Calcule la probabilidad de que todos los elementos de la muestra sean distintos.
Solucin
En este caso tenemos un total de N n posibles resultados, los cuales son equiprobables. De
stos, el nmero de casos en que todos los elementos de la muestra con distintos es igual al
nmero total de muestras ordenadas sin reemplazo, es decir (N)n . Entonces llamando A al
evento en consideracin, tenemos:
(Nn )n!
n
=
= N(Nn+1)
= (1 N1 ) (1 n1
)
P (A) = (N)
n
N
Nn
Nn
N
Obsrvese que cuando el tamao de la poblacin es muy grande, comparado con el tamao
de la muestra, la probabilidad anterior es muy cercana a 1. En otras palabras, cuando el
tamao de la poblacin es muy grande, el total de resultados equiprobables en un muestreo
con reemplazo es del mismo orden de magnitud que el total de resultados equiprobables en un
muestreo sin reemplazo. Esto es intuitivamente evidente pues si la poblacin es grande, es de
esperarse que ningn elemento se obtenga dos veces o ms. Este resultado puede interpretarse
en el sentido de que para poblaciones grandes el muestreo con reemplazo y el muestreo sin
reemplazo son prcticamente idnticos.
Este ejemplo se presenta en una diversidad de situaciones; como las siguientes:
a) Un nmero de 4 cifras se forma eligiendo dgitos al azar del conjunto {0, 1, ..., 9}. Cul
es la probabilidad de que los 4 dgitos sean distintos? En este caso, N = 10 y n = 4, as que:
(104)4!
63
P (A) = 10
= 125
= 0.504
4
en donde A es el evento los 4 dgitos seleccionados son distintos.
b) Supongamos que elegir una persona al azar y anotar el da de su cumpleaos es equivalente
a elegir al azar un da de entre los 365 del ao. Cul es entonces la probabilidad de que en
un grupo de 23 personas, elegidas al azar, todas tengan su cumpleaos en das distintos?
En este caso, N = 365 y n = 23, as que:
(23)!
(365
23 )
= 0.4927
P (A) = (365)
23
en donde A es el evento todas las personas seleccionadas tienen su da de cumpleaos en das
distintos.
Esta probabilidad es menor que 12 ; si el grupo fuera de 22 personas obtendramos una probabilidad mayor que 12 (0.5243). Entonces, en una poblacin de 22 personas es ms probable que
todas festejen su cumpleaos en das distintos, pero, en una poblacin de 23 o ms, es ms
probable que coincida el da de cumpleaos de por lo menos dos personas.

3.3. MUESTREO ALEATORIO NO ORDENADO SIN REEMPLAZO

57

c) Un elevador parte con 7 pasajeros y se detiene en 10 pisos. Si suponemos que cada persona
desciende del elevador, al azar, en cualquiera de los pisos, calcule la probabilidad de que todas
las personas bajen del elevador en pisos distintos.
En este caso N = 10 y n = 7, as que:
(107)7!
= 0.06048
P (A) = 10
7
en donde A es el evento las 7 personas bajan del elevador en pisos distintos.

Ejemplo 3.7. n bolas se encuentran colocadas en n cajas, una en cada caja. Un experimento
consiste en sacar las bolas de la caja y en colocarlas despus, al azar, nuevamente una en cada
caja. Calcule la probabilidad de que, al realizar el experimento, ninguna bola quede en la caja
en la que estaba originalmente.
Solucin
El lector puede intentar calcular esta probabilidad directamente y se dar cuenta que no resulta
tan simple. El uso de la regla de la suma nos facilitar este clculo.
Definamos los siguientes eventos:
A: ninguna bola queda en la caja en la que estaba originalmente.
B: por lo menos una bola queda en la caja en la que esta originalmente.
Bi : la bola que estaba colocada en la i-sima caja queda en esa misma caja.
Se tiene B = B1 Bn , entonces usando la regla de la suma, tenemos:
P (B) = P (B1 ) + + P (Bn ) P (B1 B2 ) P (B1 B3 ) P (Bn1 Bn ) +
Para encontrar P (B), basta entonces con calcular P (Bi1 Bir ) para cualquier coleccin
de ndices 1 i1 < i2 < < ir n. Pero Bi1 Bir es el evento consistente en que las
bolas que estaban colocadas en las cajas i1 , . . . , ir quedan en su lugar.
Como nos interesa distinguir el lugar que ocupa cada bola, el experimento aleatorio es equivalente a un muestreo ordenado sin reemplazo en donde tanto el tamao de la poblacin como
el de la muestra es n. Tenemos entonces un total de n! posibles resultados, los cuales son
equiprobables. De stos, aquellos en los cuales las bolas que estaban en las cajas i1 , . . . , ir
quedan en su lugar, se obtienen permutando los lugares de las n r bolas restantes; es decir,
obtenemos (n r)! resultados favorables al evento Bi1 Bir . Entonces:
P (Bi1 Bir ) = (nr)!
n!
Notemos que esta probabilidad depende slo del nmero de ndices y no de los ndices
n especficos
de que se trata, as que, como en la expresin que se obtiene para P (B) hay r sumandos de
la forma P (Bi1 Bir ), utilizando la regla de la suma, se tiene:




n2 (n2)!
+ n3 (n3)!
+ (1)n+1 nn n!1
P (B) = n1 (n1)!
n!
n!
n!
=1

(n2)!
n!
2!(n2)! n!
1
+ 3!1
2!

(n3)!
n!
3!(n3)! n!
(1)n+1 n!1

+ (1)n+1 n!1

=1
+
y entonces:
P (A) = 1 P (B) = 2!1 3!1 + + (1)n n!1
es la probabilidad buscada.

58

3. MUESTREO ALEATORIO

Podemos encontrar una aproximacin de esta probabilidad si recordamos la relacin ex =


2
3
1 x + x2! x3! + , de la cual se obtiene e1 = 2!1 3!1 + . Entonces, si n es grande,
obtenemos:
P (A) e1 = 0.367879
Es decir, si n es grande, la probabilidad de que ninguna bola quede en la caja en la que estaba
colocada originalmente es aproximadamente constante e igual a 0.368. Obsrvese entonces,
en particular, que, con probabilidad mayor que 12 , por lo menos una bola queda colocada en la
caja donde estaba.
53
= 0.368056, as que a partir de esta n, podemos
Para n = 6, el resultado exacto es P (A) = 144
considerar como buena la aproximacin.
Este problema se aplica a varias situaciones entre las que se encuentran las siguientes:
i) 10 parejas, formadas cada una por un hombre y una mujer, llegan a una fiesta y en ella
se forman 10 nuevas parejas hombre-mujer al azar. Cul es la probabilidad de que ninguna
persona quede con la pareja que iba?
ii) Se tienen dos juegos de cartas con 52 cartas cada uno; se van sacando simultneamente
una carta de cada juego hasta agotar las cartas. Cul es la probabilidad de que en ninguna
ocasin salgan dos cartas iguales?
iii) Una persona escribe n cartas dirigidas a n personas distintas, mete cada carta en un sobre
y, finalmente, escribe al azar las direcciones de las n personas, una en cada sobre. Cul es la
probabilidad de que por lo menos una de las cartas llegue a la persona para quien fue escrita?
Ejemplo 3.8. Dos personas P y Q juegan a lanzar consecutivamente una moneda balanceada
con la condicin de que cada vez que se obtenga cara, P gana un punto, mientras que Q lo
gana cuando se obtiene cruz. Cada persona apuesta una cantidad x y convienen en que gana
el juego quien obtenga primero n puntos. Supongamos que cuando al jugador P le faltan r
puntos para ganar y al jugador Q s puntos, se les pierde la moneda y no pueden continuar el
juego. Cmo deben repartirse las apuestas en ese momento de manera que se tome en cuenta
correctamente el nmero de puntos que lleva ganado cada uno?
Solucin
Se trata de calcular, en la situacin dada, la probabilidad que cada jugador tiene de ganar
y entonces la reparticin de apuestas debe ser en la misma proporcin que las respectivas
probabilidades.
Para calcular la probabilidad buscada, se pueden obtener todas las posibles combinaciones de
juegos ganados y perdidos que conducen a la victoria de cada jugador; la probabilidad de cada
una de ellas puede obtenerse mediante la propiedad de independencia y entonces la probabilidad
que cada jugador tiene de ganar se obtiene aplicando la propiedad de la aditividad finita. Sin
embargo, si bien la lgica de este mtodo es bastante simple, no conduce fcilmente a una
frmula que resuelva el problema de manera general. Vamos a ver que planteando el problema
como un problema de muestreo se obtiene una solucin general y muy simple.
Observemos que en la situacin dada, para que alguno de los dos gane el juego necesitaran
lanzar la moneda a lo ms r + s 1 veces. As que consideremos el experimento consistente
en jugar ese nmero de lanzamientos. Este experimento tiene un total de 2r+s1 posibles
resultados, los cuales son equiprobables y cada uno de ellos se puede representar mediante una
serie de letras del tipo (P, P, Q, B, Q, Q, . . .), en donde P y Q significa que el jugador P y Q

3.3. MUESTREO ALEATORIO NO ORDENADO SIN REEMPLAZO

59

ganan el correspondiente lanzamiento, respectivamente. De estas series, aquellas que tengan


por lo menos r veces la letra P representan resultados favorables al triunfo de P y aquellas
que tengan por lo menos s veces la letra Q representan resultados favorables al triunfo de Q.
Pero de entre todas las posibles series de r + s 1 letras, el nmero de aqullas en las que
hay exactamente k veces la letra
P es igual al nmero de combinaciones de r + s 1 objetos
tomadas de k en k, es decir r+s1
. Por lo tanto, el total de resultados favorables al triunfo
k
de P es:
r+s1
r+s1 r+s1
+
+

+
r
r+1
r+s1
y el total de resultados favorables al triunfo de Q es:

r+s1 r+s1
+ s+1 + + r+s1
s
r+s1
Entonces si p es la probabilidad de que P gane y q la probabilidad de que Q gane, tenemos:
++(r+s1
)+(r+s1
(r+s1
r
r+1 )
r+s1)
p=
2r+s1
++(r+s1
)+(r+s1
(r+s1
s
s+1 )
r+s1)
q=
r+s1
2
As que, la reparticin de las apuestas debe ser como p : q.
Este problema tiene una gran importancia desde el punto de vista histrico pues con base en
l se desarrollaron algunos mtodos de solucin de problemas de probabilidad. El mtodo que
dimos aqu es debido a Fermat (1654), inmediatamente despus, Pascal, usando otro mtodo,
encontr la siguiente regla, la cual es sorprendente por su simplicidad y elegancia.
La regla de Pascal est basada en el llamado tringulo aritmtico, el cual se construye de la
siguiente manera:
1
1
1
1
1
1
1
1
1
.. .. ..
. . .

2
3

4
5

6
10

15

1
3

1
4

10
20

1
5

15

1
6

7
21
35
35
21
7
8
28
56
70
56
28
.. .. .. .. .. .. .. .. .. .. .. ..
. . . . . . . . . . . .

1
1
8
.. ..
. .

1
.. ..
. .

Cada elemento de un rengln se obtiene sumando los dos elementos adyacentes del rengln
anterior.
Entonces si a P le faltan r puntos y a Q s puntos, para determinar como debe ser la reparticin
de las apuestas, tmese del tringulo aritmtico el rengln que tenga r + s elementos. Si H
es la suma de los primeros s elementos y G es la suma de los r ltimos, la reparticin de las
apuestas entre P y G debe ser en la proporcin H : G.
1
1
Para
demostrar
lo
anterior
observemos
que
=
= 1, as que, gracias a la relacin
0
1
n n n+1
+ k+1 = k+1 , el tringulo aritmtico puede expresarse de la siguiente manera:
k

60

3. MUESTREO ALEATORIO

..
.

5
0

..
.

4
0

..
.

3
0

5
1

..
.

2
0

4
1

..
.

1
0

3
1

5
2

..
.

1
2
1

4
2

..
.

1
1

3
2

5
3

..
.

2
2

4
3

..
.

3
3

5
4

..
.

4
4

..
.

5
5

..
.

..
.

De esta manera, si consideramos el rengln del tringulo


aritmtico
conr + selementos,
r+s1

r+s1 la
r+s1
r+s1
+
+ + s1 =
+
suma de los primeros s elementos resulta ser
0
1
r
r+s1
r+s1
r+s1 r+s1
+ + r+s1 y la suma de los ltimos r elementos resulta ser
+ s+1 +
r+1
s

r+s1
+ r+s1 , y entonces, efectivamente, de acuerdo al resultado obtenido previamente, la
reparticin de las apuestas debe realizarse proporcionalmente a estas sumas.
Ejemplo 3.9 (Probabilidades de tipo binomial). Una poblacin contiene r objetos de
tipo I y s objetos de tipo II. Se toma una muestra aleatoria con reemplazo de tamao n y
queremos calcular la probabilidad de que la muestra contenga exactamente k objetos de tipo I,
en donde k n.
Podemos razonar como sigue: k objetos de tipo I y n k de tipo II pueden obtenerse de
diferentes maneras, por ejemplo, si los primeros k son de tipo I y los restantes de tipo II,
si los primeros k 1 y el k + 1 son de tipo I y los restantes de tipo II, etc., es decir, hay

tantas maneras como maneras hay de elegir k lugares de entre los n, lo cual es igual a nk .
De acuerdo con la regla del producto, cada uno de estos casos tiene una probabilidad igual
r k s nk
a r+s
, de manera que si llamamos Ak al evento en consideracin, se obtiene
r+s
finalmente:
r k s nk
P (Ak ) = nk r+s
, para k {0, 1, 2, . . . , n}.
r+s

Ejemplo 3.10 (Probabilidades de tipo hipergeomtrico). Una poblacin contiene r


objetos de tipo I y s objetos de tipo II. Se toma una muestra aleatoria sin reemplazo de tamao
n y queremos calcular la probabilidad de que la muestra contenga exactamente k objetos de
tipo I, en donde k n, k r y n k s.
Como ya se mencion antes, se obtiene el mismo resultado independientemente de que el
muestreo
sea ordenado o no. Asumiendo que el muestreo es no ordenado, tenemos un total de
r+s
posibles
resultados, los cuales son equiprobables. De stos, el total
n
r de
casos en los cuales
s
se obtienen k objetos de tipo I y n k objetos de tipo II es igual a k nk . De manera que,
llamando Bk al evento en consideracin, se obtiene:
P (Bk ) =

s
)
(kr )(nk
(r+s
)
n

Es interesante comparar las probabilidades obtenidas en los dos casos anteriores. Esperaramos
que si r y s son grandes, estas probabilidades se parezcan. En efecto, se puede demostrar la
siguiente relacin.

k
nk

n n
1 kr
1 nk
P
(A
)
<
P
(B
)
<
1

P (Ak )
k
k
s
r+s

3.4. COEFICIENTES BINOMIALES

61

As que si r y s son grandes comparados con n y k, P (Ak ) P (Bk ). Es decir, nuevamente


obtenemos que, para poblaciones grandes, prcticamente no hay diferencia entre el muestreo
con reemplazo y el muestreo sin reemplazo.
3.4. Coeficientes binomiales

La cantidad Nn aparece en numerosos lugares, de ah la importancia de estudiar algunas de
sus propiedades.
En primer lugar, la definicin se puede extender como sigue:
Definicin 3.11 (Coeficientes binomiales). Sean z
z(z1)(z2)(zm+1)
z
m!
=
1
m

R y m Z, entonces definimos:
si m > 0
si m = 0
si m < 0

Tambin definimos 0! = 1.
Obviamente, cuando z y m son enteros no negativos, entonces:

z!
z
si m z
m!(zm)!
=
m
0
si z < m
z z
Adems, en este caso se tiene m = zm .

Proposicin 3.12. Para cualesquiera z R y m Z, se tiene:


a) mz = (1)m m1z
m
z z+1
= m+1
b) mz + m+1

Demostracin

a. mz = z(z1)(z2)(zm+1)
= (1)m z(1z)(2z)(m1z)
= (1)m m1z
m
m!
m!
b. Para m > 0, se tiene:
z z z(z1)(z2)(zm+1) z(z1)(z2)(zm)
+
+ m+1 =
m
m!
(m+1)!
z+1

z(z1)(z2)(zm+1)
(z+1)z(z1)(z2)(zm+1)
zm
=
= m+1
1 + m+1 =
m!
(m+1)!
z+1
z
= z + 1 = m+1
Para m = 0, mz + m+1
z
z+1
Para m = 1, mz + m+1
= 1 = m+1
z
z+1
Para m < 1, mz + m+1
= 0 = m+1

Proposicin 3.13 (Teorema del binomio). Sean t, x R, entonces:


Pz z k
t para cualquier t R si z {0, 1, . . .}
z
k
(1 + t) = Pk=0
z k
en otro caso
k=0 k t para |t| < 1

Demostracin
Desarrollando la funcin f (z) = (1 + t)z en serie de Taylor alrededor de 0, se obtiene:
P
f (k) (0) k
(1 + t)z =
t = 1 + zt + z(z1)
t2 + z(z1)(z2)
t3 +
k=0
k!
2!
3!

62

3. MUESTREO ALEATORIO

P z k
= 0 + z1 t + z2 t2 + z3 t3 + =
k=0 k t
z
Si z {0, 1, . . .}, entonces
= 0 para cualquier entero k > z, as que: la serie converge para
P z kk Pz z k
cualquier t R y
=
t
k=0 k
k=0 k t .
Si z
/ {0, 1, . . .}, entonces el radio de convergencia R de la serie est dado por:
z

(k)
z(z1)(zk+1)

k!
= lmk k+1 = 1
R = lmk z = lmk z(z1)(zk)
zk

(k+1)
(k+1)!
As que la serie converge para |t| < 1.

Corolario 3.14 (Teorema del binomio de Newton). Si a y b son dos nmeros reales
cualesquiera y n N, entonces:
P
(a + b)n = nk=0 nk ak bnk

Corolario 3.15. Si a y b son dos nmeros reales tales que ab < 1 y z R, entonces:
P z k zk
(a + b)z =
k=0 k a b
Proposicin 3.16. Sean n, m N, entonces:

m1 Pn1 j n1
P
Pn
m n
= n2n1 + n m1
k=1 k
j=1
k=1 k
k
j
k

Demostracin
Pn

Pn
Pn
n!
m n
m1
m1 n1
k
k
=
n
k
=
k=1
k=1
k=1
k
k1
(k1)!(nk)!
i
Pm1 m1
Pn h
Pn
m1 n1
j
= n k=1 1 + j=1
(k 1) n1
= n k=1 [(k 1) + 1]
k1
j
k1

Pn Pm1 m1
Pn n1
j n1
(k 1) k1
= n k=1 k1 + n k=1 j=1
j
Pn1 n1
Pn1 Pm1 m1 j n1
= n k=0 k + n k=1 j=1
k k
j

P
P
n1 j n1
m1
= n2n1 + n m1
j=1
k=1 k
j
k

Corolario 3.17. Sea n N, entonces:


P
a) nk=0 nk = 2n

P
b) nk=1 k nk = n2n1

P
c) nk=1 k2 nk = (n2 + n)2n2

P
d) nk=1 k3 nk = (n3 + 3n2 ) 2n3

Demostracin
a. Resulta de aplicar el teorema del binomio de Newton para a = b = 1.

Pn1 j n1
P
P
= n2n1
b. nk=1 k nk = n2n1 + n 0j=1 m1
k=1 k
j
k

P
P
n1
c. nk=1 k2 nk = n2n1 + n n1
= n2n1 + n(n 1)2n2 = (n2 + n)2n2
k=1 k k

Pn1 2 n1
Pn
P
n1
d. k=1 k3 nk = n2n1 + n 2 n1
k
+ k=1 k k
k=1
k
n1
n2
2
n3
+ 2n(n 1)2
+ n (n 1)2
= (n3 + 3n2 ) 2n3
= n2
Proposicin 3.18.

Pn

k m
k=1 (1) k

n
k

= 0, para cualesquiera n, m N, con n > m.

EJERCICIOS

63

Demostracin
La demostracin es por induccin sobre m.
Para n > 1, se tiene:
n Pn

Pn
Pn
n!
k
k
k1 n1
k=1 (1) k k =
k=1 (1) (k1)!(nk)! = n
k=1 (1)
k1

Pn1
k n1
n1
=0
= n k=0 (1) k = n(1 + 1)

Pn
k j n
Supongamos ahora que k=0 (1) k k = 0 para cualquier j m y cualquier n > j, entonces,
para n > m + 1, se tiene:
Pn
Pn
n!
k m+1 n
= k=1 (1)k [(k 1) + 1]m (k1)!(nk)!
k=0 (1) k
k


Pm m Pn1
P
P m
j n1
k j n1
=0
= n nk=1 (1)k1 m
j=0 j (k 1) k1 = n
j=0 j
k=0 (1) k
k
EJERCICIOS
Ejercicio 3.1. Demuestre las siguientes relaciones:
k m+1
P
a) m
k=n n = n+1
n+r
P
= n
b) nk=0 k+r1
k

Pr n m n+m
c) k=0 k rk = r
P 2
d) nk=0 nk = 2n
Pn n k n n nm
e) k=m k m = m 2
P n nk n m
f) m
k=0 k mk = m 2
k
Pn
g) k=m (1)k nk m
=0
nk
Pm
k n
h) k=0 (1) k mk = 0
en donde m, n, r N.
Ejercicio 3.2. Demuestre que:
h
i
Pm1 m+1 Pn
Pn
1
m
m+1
j
(n + 1) j=1
k=1 k = m+1 (n + 1)
k=1 k
j

para cualesquiera n, m N.
m+1
P
Sugerencia: Utilice la relacin km+1 = [(k 1) + 1]m+1 = 1 + m+1
(k 1)j
j=1
j

Ejercicio 3.3. Utilice el resultado del ejercicio anterior para demostrar las siguientes relaciones:
P
a) nk=1 k = 12 n(n + 1)
P
b) nk=1 k2 = 16 n (n + 1) (2n + 1)
P
c) nk=1 k3 = 14 n2 (n + 1)2
P
1
d) nk=1 k4 = 30
n (n + 1) (2n + 1) (3n2 + 3n 1)
en donde n N.

64

MUESTREO ALEATORIO

Ejercicio 3.4. De una poblacin de N objetos, b1 , . . . , bN , se toma una muestra aleatoria


ordenada sin reemplazo de tamao n. Dado k {1, . . . , N }, calcule la probabilidad de que bk
se encuentre en la muestra.
Ejercicio 3.5. Se tienen 2 urnas, cada una de las cuales contiene 10 bolas numeradas del 1
al 10. Un experimento aleatorio consiste en seleccionar al azar una bola de cada urna. Calcule
la probabilidad de que los nmeros de las dos bolas seleccionadas difieran por 2 o ms.
Ejercicio 3.6. Un experimento aleatorio consiste en lanzar 3 dados sobre una mesa, uno de
los dados es rojo, otro azul y el otro blanco. Cul es la probabilidad de que a) los 3 nmeros
que se obtienen sean distintos? b) b) el nmero que se obtiene con el dado azul sea igual a la
suma de los nmeros que se obtienen con los otros dos dados?
Ejercicio 3.7. Una urna contiene 8 bolas rojas, 7 bolas negras y 10 bolas blancas. Un
experimento aleatorio consiste en seleccionar, al azar y con reemplazo, 3 bolas de la urna.
Calcule la probabilidad de que a) las 3 bolas seleccionadas sean del mismo color y b) por lo
menos una de las bolas seleccionadas sea blanca.
Ejercicio 3.8. 5 personas suben a un elevador en la planta baja de un edificio de 10 pisos.
Supongamos que cada persona puede bajar en cualquiera de los 10 pisos con la misma probabilidad. Calcule la probabilidad de que a) por lo menos una persona baje del elevador despus
del piso 5 y b) las 5 personas bajen del elevador en pisos distintos.
Ejercicio 3.9. Sabiendo que al lanzar un par de dados se obtiene una suma igual a 6, cul
es la probabilidad de que uno de los nmeros que se obtienen sea el 1?
Ejercicio 3.10. Un experimento aleatorio consiste en lanzar un par de dados. Sabiendo que
como resultado del experimento se obtienen dos nmeros distintos, cul es la probabilidad de
que uno de esos nmeros sea el 4?
Ejercicio 3.11. Un experimento aleatorio consiste en seleccionar, al azar y con reemplazo,
2 bolas de una urna, la cual contiene 3 bolas blancas y 2 bolas negras. Si se sabe que las dos
bolas seleccionadas son del mismo color, cul es la probabilidad de que las dos sean blancas?
Ejercicio 3.12. Un experimento aleatorio consiste en lanzar un dado 10 veces. Si se sabe
que se obtiene por lo menos un 6, cul es la probabilidad de obtener dos o ms 6s?
Ejercicio 3.13. Un dado se lanza 10 veces. Suponiendo que en 6 ocasiones se obtiene un
nmero entre 1 y 4 (inclusive), cul es la probabilidad de que se obtenga por lo menos una
vez el nmero 1?
Ejercicio 3.14. Un dado es lanzado 3 veces. Si se sabe que se obtiene al menos una vez el
nmero 6, cul es la probabilidad de que se obtenga exactamente una vez el nmero 6?
Ejercicio 3.15. Un dado se lanza 5 veces. Sabiendo que los 5 nmeros que se obtienen son
distintos, cul es la probabilidad de que entre ellos no est el nmero 6?
Ejercicio 3.16. Se van colocando al azar bolas, una a una, en cualquiera de N cajas, hasta
que alguna caja llegue a tener 2 bolas.Cul es la probabilidad de que el proceso termine en el
paso n?.

EJERCICIOS

65

Ejercicio 3.17. Se seleccionan, al azar y con reemplazo, 3 tarjetas de una urna que contiene
N tarjetas numeradas del 1 al N. Encuentre la probabilidad de que el menor de los nmeros
seleccionados sea igual a 2.
Ejercicio 3.18. Se seleccionan, al azar y con reemplazo, 4 tarjetas de una urna que contiene
N tarjetas numeradas del 1 al N. Encuentre la probabilidad de que el mayor de los nmeros
seleccionados sea igual a N.
Ejercicio 3.19. Se seleccionan, al azar y con reemplazo, 10 tarjetas de una urna que contiene
N tarjetas numeradas del 1 al N. Encuentre la probabilidad de que a) el menor de los nmeros
seleccionados sea igual a k y b) el mayor de los nmeros seleccionados sea igual a k, en donde
k N.
Ejercicio 3.20. Antonio y Luis forman parte de un grupo de 12 personas, las cuales ocupan
al azar 12 sillas que se encuentren formando un crculo. Cul es la probabilidad de que
queden exactamente 4 personas entre Antonio y Luis en el arco que va de Antonio a Luis en
direccin positiva?
Ejercicio 3.21. Antonio y Luis forman parte de un grupo de n personas (n > 2), las cuales
ocupan al azar n sillas que se encuentren formando un crculo. Cul es la probabilidad de que
a) Antonio y Luis queden sentados uno al lado del otro? y b) queden exactamente k personas
entre Antonio y Luis?
Ejercicio 3.22. n personas se sientan al azar en n sillas alrededor de una mesa redonda.
Encuentre la probabilidad de que las personas A, B y C queden juntas, con A a la derecha de
B y C a la izquierda de B.
Ejercicio 3.23. Los nmeros 1, . . . , n (n 3) se colocan uno despus del otro en un orden
aleatorio. Encuentre la probabilidad de que los nmeros 1, 2 y 3 queden colocados juntos y
ordenados en forma creciente.
Ejercicio 3.24. Juan y Pedro forman parte de un grupo de 10 personas, las cuales ocupan al
azar 10 sillas que se encuentren en hilera. Cul es la probabilidad de que queden exactamente
2 personas entre Juan y Pedro?
Ejercicio 3.25. 5 hombres y 5 mujeres se sientan al azar en 10 sillas colocadas en hilera.
Encuentre la probabilidad de que por lo menos una de las personas quede sentada junto a otra
del mismo sexo.
Ejercicio 3.26. Un tablero circular se divide en tres zonas acotadas por crculos concntricos
de radios 13 , 12 y 1, respectivamente. Si se hacen tres disparos al azar sobre el tablero, cul
es la probabilidad de que cada zona reciba uno de los disparos?
Ejercicio 3.27. Cada una de n bolas se coloca al azar en una de n cajas. Encuentre la
probabilidad de que exactamente una de las cajas quede vaca.
Ejercicio 3.28. 10 parejas, formadas cada una por un hombre y una mujer, llegan a una
fiesta y en ella se forman 10 nuevas parejas hombre-mujer al azar. Cul es la probabilidad de
que a) ninguna persona quede con la pareja que iba? y b) a lo ms 2 parejas queden formadas
como lo estaban originalmente?

66

MUESTREO ALEATORIO

Ejercicio 3.29. Una persona escribe n cartas dirigidas a n personas distintas, mete cada
carta en un sobre y, finalmente, escribe al azar las direcciones de las n personas, una en cada
sobre. Encuentre la probabilidad de que por lo menos una de las cartas llegue a la persona
para quien fue escrita.
Ejercicio 3.30. n bolas se encuentren colocadas en n cajas, una en cada caja. Un experimento
consiste en sacar las bolas de la caja y en colocarlas despus, al azar, nuevamente una en cada
caja. Calcule la probabilidad de que al realizar el experimento, exactamente k bolas queden en
las cajas en las que estaban originalmente.
Ejercicio 3.31. Una urna contiene 4 bolas blancas, 4 rojas y 4 azules. Se van seleccionando
bolas de la urna, una a una y sin reemplazo, hasta obtener en forma consecutiva dos bolas del
mismo color, o hasta que se agoten las bolas de la urna. Encuentre la probabilidad de que este
proceso termine en la quinta eleccin.
Ejercicio 3.32. Tres urnas contienen bolas blancas y negras; la primera 2 blancas y 3 negras,
la segunda 2 blancas y 2 negras y la tercera 3 blancas y 1 negra. Se transfiere una bola de la
primera a la segunda urna, despus una de la segunda a la tercera y, finalmente, una de la
tercera a la primera, siendo todas las transferencias al azar. Qu composicin de bolas en la
primera urna, despus de las transferencias, es la ms probable?
Ejercicio 3.33. Una urna contiene r bolas rojas y b bolas blancas. Se elige al azar una bola
de la urna, despus, sin reemplazar la primera, se elige otra y as sucesivamente hasta sacar
n bolas. Calcule la probabilidad de que en el j-simo paso se saque una bola roja sabiendo que
la muestra contiene s bolas rojas.
Ejercicio 3.34. En una urna hay N tarjetas numeradas del 1 al N. Se van seleccionando al
azar las tarjetas de la urna, una a una y sin reemplazo, hasta que se seleccionan todas. Para
k {1, . . . , N }, sea Ak el evento el nmero de la k-sima tarjeta seleccionada es mayor que
los nmeros de las seleccionadas previamente. Encuentre la probabilidad de cada evento Ak
y demuestre que los eventos A1 , . . . , An son independientes.
Ejercicio 3.35. Una urna contiene 20 bolas numeradas del 1 al 20. Se seleccionan 2 bolas, al azar y sin reemplazo. Encuentre la probabilidad de que los dos nmeros de las bolas
seleccionadas difieran por 3 o ms.
Ejercicio 3.36. Se eligen al azar dos nmeros del conjunto {1, . . . , n}. Encuentre la probabilidad de que uno de los nmeros seleccionados sea menor que k y el otro sea mayor que k,
en donde 1 < k < n.
Ejercicio 3.37. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 3
bolas de una urna, la cual contiene 6 bolas blancas y 4 bolas negras. Si se sabe que las tres
bolas seleccionadas son del mismo color, cul es la probabilidad de que las tres sean blancas?
Ejercicio 3.38. De una urna que contiene 6 bolas blancas y 4 bolas rojas se seleccionan, sin
reemplazo, 4 bolas al azar y se transfieren a una segunda urna, la cual se encuentre vaca.
Inmediatamente despus, se seleccionan, al azar y sin reemplazo, dos bolas de la segunda
urna. Sabiendo que entre las 4 bolas que se transfieren hay por lo menos 2 blancas, calcule la
probabilidad de que las dos bolas seleccionadas de la segunda urna sean ambas blancas.

EJERCICIOS

67

Ejercicio 3.39. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 3


bolas de una urna, la cual contiene 6 bolas negras y 4 bolas blancas. Si se sabe que al menos
una de las bolas seleccionadas es negra, cul es la probabilidad de que las 3 sean negras?
Ejercicio 3.40. De una urna que contiene 4 bolas rojas y 6 blancas se seleccionan, al azar
y sin reemplazo, dos bolas; inmediatamente despus se selecciona al azar una de las bolas
restantes. Cul es la probabilidad de que la tercera bola seleccionada sea roja si se sabe que
entre las dos primeras hay por lo menos una roja?
Ejercicio 3.41. Cada una de dos urnas contiene N bolas numeradas del 1 al N. De cada
una de las cajas se toma una muestra de tamao n sin reemplazo. Calcule la probabilidad de
obtener exactamente k bolas con el mismo nmero.
Ejercicio 3.42. Cada una de N personas estaciona su automvil en uno de N lugares consecutivos para ser atendidos en una oficina. El automvil de una persona A no queda en
ninguno de los extremos y antes de A son atendidas n personas, cada una de las cuales retira
su auto. Asumiendo que las N personas son atendidas al azar, cul es la probabilidad de que
a) A encuentre desocupados los dos lugares contiguos a su auto? y b) A encuentre ocupados
los dos lugares contiguos a su auto?
Ejercicio 3.43. Pedro es un arquero y se sabe que, al disparar una flecha, la probabilidad de
9
que sta de en el blanco es igual a 10
. Si Pedro realiza 6 lanzamientos de manera independiente,
a) cul es la probabilidad de que acierte en el blanco por lo menos una vez?. b) Sabiendo
que, de los 6 disparos, acierta en el blanco por lo menos una vez, cul es la probabilidad de
que acierte en el blanco por lo menos dos veces?
Ejercicio 3.44. Una urna contiene 6 bolas rojas y 4 bolas blancas. Un experimento aleatorio
consiste en seleccionar, al azar y con reemplazo, 20 bolas de la urna. Encuentre la probabilidad
de que se obtengan por lo menos 4 bolas rojas en la muestra.
Ejercicio 3.45. Una urna contiene 8 tarjetas marcadas con nmeros positivos y 10 tarjetas
marcadas con nmeros negativos. Un experimento aleatorio consiste en seleccionar, al azar y
con reemplazo, 4 tarjetas de la urna. Encuentre la probabilidad de que el producto de los 4
nmeros que se obtienen sea positivo.
Ejercicio 3.46. Calcule la probabilidad de obtener exactamente k veces 6 en n lanzamientos
de un dado2.
Ejercicio 3.47. Un lote contiene n artculos. Si se sabe que r artculos son defectuosos y se
inspeccionan uno por uno en un orden aleatorio, cul es la probabilidad de que el k-simo
artculo (k r) inspeccionado sea el ltimo defectuoso en el lote?

Ejercicio 3.48. Una urna contiene 8 bolas rojas, 7 bolas negras y 10 bolas blancas. Un
experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 3 bolas de la urna.
Calcule la probabilidad de que a) las 3 bolas seleccionadas sean del mismo color y b) por lo
menos una de las bolas seleccionadas sea blanca.
2Este

problema fue uno de los primeros problemas de probabilidad que se plantearon. En las primeras
soluciones no era evidente la relacin que haba con el desarrollo de un binomio, sta fue encontrada ms tarde.
Gracias a esta relacin, este tipo de probabilidades adquiri una gran importancia en el desarrollo posterior
de la Teora de la Probabilidad (como puede verse en el captulo siguiente) y actualmente sigue siendo uno de
los tipos principales.

68

MUESTREO ALEATORIO

Ejercicio 3.49. De una urna que contiene 10 bolas rojas, 10 bolas negras y 10 bolas blancas,
se seleccionan 2 bolas al azar y sin reemplazo. Calcule la probabilidad de que las dos bolas
seleccionadas sean de distinto color.
Ejercicio 3.50. Una urna contiene 6 tarjetas marcadas con nmeros positivos y 8 tarjetas
marcadas con nmeros negativos. Un experimento aleatorio consiste en seleccionar, al azar
y sin reemplazo, 4 tarjetas de la urna. Encuentre la probabilidad de que el producto de los 4
nmeros que se obtienen sea positivo.
Ejercicio 3.51. Una urna contiene 16 bolas rojas y 14 bolas blancas. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 10 bolas de la urna. Encuentre la probabilidad de que se obtengan a lo ms 4 bolas rojas.
Ejercicio 3.52. En una fbrica hay 35 trabajadores por contrato, de los cuales 20 laboran
en el turno matutino, y 40 con definitividad, de los cuales 25 laboran en el turno matutino.
En una asamblea de todos los trabajadores, se forma una comisin eligiendo 6 personas al
azar. Cul es la probabilidad de que queden representados en la comisin los 4 sectores de
trabajadores?
Ejercicio 3.53. En una rifa se reparten n boletos, de los cuales m obtendrn algn premio.
Encuentre la probabilidad de que una persona, que tiene k boletos, obtenga por lo menos un
premio.
Ejercicio 3.54. Un grupo de 2N nios y 2N nias se divide en dos grupos de 2N personas
cada uno. Encuentre la probabilidad de que cada grupo contenga el mismo nmero de nios
que de nias.
Ejercicio 3.55. Una urna contiene 4 bolas rojas, 6 bolas negras y 8 bolas blancas. Un
experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 4 bolas de la urna.
Calcule la probabilidad de que se obtengan por lo menos 2 bolas blancas en la muestra.

CAPTULO 4

COMBINANDO LAS REGLAS BSICAS


Sea que sobrevengan espontneamente o que sean inducidas artifialmente, las mutaciones aparecen siempre
al azar. Nunca se encuentra alguna relacin entre su
produccin y las condiciones externas, ninguna direccin
dada por el medio.
Francois Jacob

Los eventos elementales iniciales que abren la via de la


evolucin a esos sistemas intensamente conservadores
que son los seres vivos, son microscpicos y fortuitos...
Pero una vez inscritos en la estructura del ADN, el accidente singular y como tal esencialmente impredecible
ser mecanicamente y fielmente replicado y traducido...
Sacado del reino del azar puro, entra en el de la necesidad, el de las certidumbres ms implacables.
Jacques Monod

4.1. Regla de la probabilidad total


Definicin 4.1 (Particin de un espacio muestral). Se dice que una coleccin de eventos
de probabilidad positiva A1 , . . . , An forman una particin del espacio muestral si stos son
mutuamente excluyentes y A1 An = .
Proposicin 4.2 (Regla de la probabilidad total). Sean B un evento cualquiera y
A1 , . . . , An una particin del espacio muestral , entonces:
P (B) = P (B | A1 )P (A1 ) + . . . + P (B | An )P (An )

Demostracin
Los eventos B A1 , . . . , B An son mutuamente excluyentes y B = (B A1 ) (B An ),
as que, usando la regla de la suma primero y despus la del producto, obtenemos:
P (B) = P [(B A1 ) (B An )]
= P (B A1 ) + + P (B An )
= P (B | A1 )P (A1 ) + + P (B | An )P (An ) 69

70

4. COMBINANDO LAS REGLAS BSICAS

Ejemplo 4.3. Una urna contiene 2N bolas numeradas del 1 al 2N. Un experimento consiste
en elegir al azar una bola de esa urna, dejndola fuera, y despus, en elegir al azar una
segunda. Calcule la probabilidad de que la suma de los nmeros elegidos sea par.
Solucin
Consideremos los siguientes eventos:
B: la suma de los dos nmeros elegidos es par.
A1 : el nmero de la primera eleccin es par.
A2 : El nmero de la primera eleccin es impar.
Usando la regla de la probabilidad total, obtenemos:
N1 N
N1 N
N1
+ 2N
= 2N
P (B) = P (B | A1 )P (A1 ) + P (B | A2 )P (A2 ) = 2N1
2N
1 2N
1

Ejemplo 4.4. Una urna contiene r bolas rojas y s bolas blancas; otra urna contiene a bolas
rojas y b bolas blancas. Una bola elegida al azar es transferida de la primera urna a la segunda
y, despus de esto, se extrae la azar una bola de esta ltima. Cul es la probabilidad de que
esta bola sea roja?
Solucin
Consideremos los siguientes eventos:
A1 : la bola transferida de la primera urna en la segunda es roja.
A2 : la bola transferida de la primera urna en la segunda es blanca.
B: la bola extrada de la segunda urna es roja.
Usando la regla de la probabilidad total, obtenemos:
r(a+1)+as
a+1
a
r
s
+ a+b+1
= (r+s)(a+b+1)
P (B) = P (B | A1 )P (A1 ) + P (B | A2 )P (A2 ) = a+b+1
r+s
r+s

Ejemplo 4.5. Se tienen 3 escritorios, cada uno con dos cajones. El primer escritorio contiene
una moneda de oro en cada cajn; el segundo contiene una moneda de oro en un cajn y una de
plata en el otro; el tercero contiene una moneda de plata en cada cajn. Se elige un escritorio
al azar, se abre un cajn y despus el otro. Calcule la probabilidad de que el segundo cajn
contenga una moneda de oro bajo la hiptesis de que el primero contiene una moneda de oro.
Solucin
Consideremos los eventos siguientes:
A1 : se elige el primer escritorio.
A2 : se elige el segundo escritorio.
A3 : se elige el tercer escritorio.
B : el primer cajn que se abre contiene una moneda de oro.
A : el segundo cajn contiene una moneda de oro.
Entonces:
1
P (A1 )
3
=
=
= 23
P (A | B) = P P(AB)
1
(B)
P (B|A1 )P (A1 )+P (B|A2 )P (A2 )
+1 1
3

23

Podra pensarse que dado que el primer cajn que se abre contiene una moneda de oro, slo
hay dos posibilidades para el otro cajn, entonces la probabilidad de que el segundo cajn
contenga una moneda de oro debera ser de 12 . Sin embargo, ese razonamiento es incorrecto;

4.1. REGLA DE LA PROBABILIDAD TOTAL

71

en realidad hay 3 posibilidades (igualmente probables) de elegir un cajn con una moneda de
oro y de ellas 2 son favorables al evento en consideracin.
Ejemplo 4.6 (Urna de Polya). Una urna contiene bolas rojas y blancas. Un experimento
aleatorio consiste en seleccionar sucesivamente una bola al azar de la urna de tal manera
que, despus de cada eleccin, la bola seleccionada se regresa a la urna junto con c bolas
ms del mismo color. Para n N, sea Bn el evento la bola seleccionada en el paso n es
blanca. Vamos a demostrar que, cualquiera que sea la configuracin de bolas en la urna y
para cualquier n N, P (Bn ) es igual a la proporcin inicial de bolas blancas. La demostracin
es por induccin sobre n.
Para n = 1, el resultado es inmediato. Supongamos ahora que el resultado es cierto para n = k
y que el proceso se inicia con r bolas rojas y b bolas blancas, entonces,
P (Bk+1 ) = P (Bk+1 | B1 )P (B1 ) + P (Bk+1 | B1c )P (B1c )
=

b+c
b
r+b+c r+b

b
r
r+b+c r+b

b(b+c+r)
(r+b+c)(r+b)

b
r+b

Ejemplo 4.7. Una urna contiene 2 bolas rojas y 3 bolas blancas; una segunda contiene 1 bola
roja y 7 bolas blancas y una tercera contiene 3 bolas rojas y 4 bolas blancas. Un experimento
consiste en elegir al azar una de las urnas y, despus de eso, en elegir al azar una bola de la
urna elegida. Calcule la probabilidad de que a) esta ltima sea roja y b) la bola seleccionada
sea roja sabiendo que se elige una de las dos primeras urnas.
Solucin
Consideremos los siguientes eventos:
A1 : la urna elegida es la primera.
A2 : la urna elegida es la segunda.
A3 : La urna elegida es la tercera.
B : la bola extrada es roja.
a. Usando la regla de la probabilidad total, obtenemos:
P (B) = P (B | A1 )P (A1 ) + P (B | A2 )P (A2 ) + P (B | A3 )P (A3 )
89
= 25 31 + 18 31 + 37 31 = 280
b. P (B | A1 A2 ) =

P [B(A1 A2 )]
P (A1 A2 )

(A1 )
= P (B | A1 ) P (AP1 )+P
+ P (B |
(A2 )

P [(BA1 )(BA2 )]
1 )+P (B|A2 )P (A2 )
= P (B|A1 )PP (A
P (A1 A2 )
(A1 )+P (A2 )
(A2 )
A2 ) P (AP1 )+P
= 25 21 + 18 21 = 21
(A2 )
80

Obsrvese que en el ejemplo anterior, P (B | A1 A2 ) tiene una interpretacin natural, pues


dada la ocurrencia de A1 A2 , la probabilidad del evento B se calcula olvidndonos de la
tercera urna y suponiendo que el experimento consiste primero en elegir una de las dos primeras
urnas y, despus de eso, en extraer al azar una bola de la urna elegida. Este resultado puede
generalizarse dndonos una interpretacin de la probabilidad condicional en caso anlogos al
considerado en el ejemplo.
Sea E un experimento aleatorio, A1 , . . . , Ar r eventos mutuamente excluyentes relativos a E y
B otro evento relativo a E. Tenemos entonces:
1 Ar )]
1 )(BAr )]
= P [(BA
P (B | A1 Ar ) = P [B(A
P (A1 Ar )
P (A1 Ar )
=

P (B|A1 )P (A1 )++P (B|Ar )P (Ar )


P (A1 )++P (Ar )

72

4. COMBINANDO LAS REGLAS BSICAS

= P (B | A1 )P (A1 | A1 Ar ) + + P (B | Ar )P (Ar | A1 Ar )
Es decir, dada la ocurrencia del evento A1 Ar , cambiando las probabilidades P (Ai ) por
P (Ai | A1 Ar ), la probabilidad del evento B se calcula directamente usando la regla de
la probabilidad total. Obsrvese que este resultado va de acuerdo con la idea de que dada la
ocurrencia de un evento A, ste se vuelve el evento seguro.
En realidad el resultado anterior se puede ver como caso particular de la siguiente generalizacin de la regla de la probabilidad total.
Proposicin 4.8 (Regla generalizada de la probabilidad total). Sean A, B y A1 , . . . , An
eventos relativos a un experimento E y supongamos que los eventos A1 , . . . , An forman una
particin del espacio muestral y que P (A) > 0. Entonces:
P
P (B | A) = nk=1 P (B | A Ak )P (Ak | A)
Demostracin
=
P (B | A) = P P(BA)
(A)

=
=

P [(BAA1 )...(BAAn )]
(BAAn )
= P (BAA1 )+...+P
P (A)
P (A)
P (B|AA1 )P (AA1 )+...+P (B|AAn )P (AAn )
P (A)
P (AA1 )
n)
P (B | A A1 ) P (A) + . . . + P (B | A An ) P (AA
P {A)

= P (B | A A1 )P (A1 | A) + . . . + P (B | A An )P (An | A)

Ejemplo 4.9 (Ley de la sucesin de Laplace). Supongamos que tenemos N + 1 urnas,


cada una de las cuales contiene N bolas; supongamos adems que la urna nmero k (k
{0, . . . , N }) contiene k bolas rojas y N k bolas blancas. Un experimento aleatorio consiste
en seleccionar al azar una urna y, despus de eso, en elegir, al azar y con reemplazo, n + 1
bolas de la urna seleccionada. Si en las primeras n extracciones se han obtenido n bolas rojas,
cul es la probabilidad de que la siguiente tambin resulte bola roja?
Solucin
Consideremos los siguientes eventos:
Ak : la urna elegida es la i-sima.
Bi : en cada una de las primeras i extracciones se obtiene bola roja.
B: en la ltima extraccin se obtiene bola roja.
Entonces:
P
PN k n 1
PN k n
1
= N+1
P (Bn ) = N
i=0 P (Bn | Aik )P (Aik ) =
k=0 N
k=0 N
N+1
Los nmeros N0 , N1 , . . . , N
representan una particin del intervalo [0, 1], as que, cuando N es
PN Nk n 1
grande, la suma k=0 N N se puede aproximar por la integral entre 0 y 1 de la funcin xn .
R1
P k n
N
Es decir, N
N 0 xn dx = n+1
, de lo cual se obtiene:
k=0 N
N
1
1
n+1
P (Bn ) N+1
n+1
De manera anloga, se tiene:
P
PN k n+1
P (B Bn ) = P (Bn+1 ) = N
k=0 P (Bn+1 | Ak )P (Ak ) =
k=0 N
PN k n+1
1
1
N
1
N
1
= N+1 k=0 N
N+1 n+2 = N+1 n+2 n+2
Por lo tanto, tenemos:

1
N+1

4.1. REGLA DE LA PROBABILIDAD TOTAL

73

SN

k n+1
k=0 N
SN
k n
k=0 N

( )
n+1
n+2
( )
Es decir, mientras ms grande sea la sucesin de bolas rojas obtenidas, la probabilidad de que
la siguiente sea tambin roja se acercar ms a 1.
El resultado es aparentemente paradjico pues pudiera pensarse que como las bolas se extraen al
azar y con reemplazo de una urna fija, entonces el resultado de las primeras n extracciones no
debera influir en la extraccin siguiente. Sin embargo, si bien la urna es fija una vez elegida,
se trata de una urna elegida al azar de entre varias y es de esperarse que mientras ms bolas
rojas tenga la urna elegida ms probable ser que las primeras n bolas extradas sean rojas
y tambin ms probable ser que la ltima sea tambin roja. Esto es, intuitivamente puede
pensarse que si en las primeras n extracciones se han obtenido n bolas rojas, entonces lo ms
probable es que se haya elegido una urna con muchas bolas rojas, de aqu que lo ms probable es
que en la ltima extraccin tambin resulte bola roja. De una manera ms precisa, utilizando
la regla generalizada de la probabilidad total (vase proposicin 4.8), tenemos:
P
P (B | Bn ) = N
k=0 P (B | Bn Ak )P (Ak | Bn )
Adems, P (B | Bn Ak ) = P (B | Ak ), pues dado que la urna elegida es la k-sima, la
probabilidad de B no se altera por el resultado de las primeras n extracciones. Por lo tanto,
se obtiene:
P
P (B | Bn ) = N
k=0 P (B | Ak )P (Ak | Bn )
Observemos entonces que, dado que el evento Bn ocurre, la situacin que tenemos es equivalente a considerar un experimento consistente en elegir una de N + 1 posibles urnas, cada
una de las cuales tiene una probabilidad distinta de ser elegida, dada por P (Ak | Bn ), respectivamente; despus de elegir la urna se extrae una bola de la urna elegida y nos preguntamos
entonces por la probabilidad de que la bola extrada sea roja. Si las urnas con mayor nmero
de bolas rojas tienen mayor probabilidad de ser elegidas, entonces la probabilidad de extraer
una bola roja ser grande. Efectivamente, este es el caso, pues tenemos:
(Ak )
|Ak )P (Ak )
k Bn )
P (Ak | Bn ) = P (A
= P (BnP|A(Bk )P
= SNP (BPn(B
P (Bn )
n)
|A )P (A )
P (B | Bn ) =

P (BBn )
P (Bn )

j=)

n
( )
( )
= SN
= SN j n = SNk j n
j=0
j=0 ( )
j=0 ( N )
As que mientras ms grande sea k, ms grande ser P (Ak | Bn ).
k
N

1
N +1
n
j
1
N
N +1

k
N

Ejemplo 4.10 (Aplicacin a la Gentica). En la reproduccin de animales y plantas,


algunas caractersticas de los individuos se transmiten a los descendientes; estas caractersticas
son llamadas caracteres hereditarios.
Los caracteres hereditarios de un individuo estn condicionados por el material gentico transmitido por los padres. ste est contenido en los cromosomas de los individuos de la especie
y, en las especies heterosexuales, se transmite cuando una clula reproductora de un macho
fecunda una clula reproductora de una hembra, formando una sola clula, en la cual est
presente el material gentico de cada una de las clulas reproductoras que la originaron.
El nmero de cromosomas de cada clula reproductora es una constante N para cada especie;
as, por ejemplo, las clulas reproductoras del ser humano contienen 23 cromosomas. Al
unirse una clula reproductora masculina con una femenina, se forman clulas con N pares

74

4. COMBINANDO LAS REGLAS BSICAS

de cromosomas, los N de cada una de ellas. Los cromosomas de cada par tienen la misma
estructura y se llaman cromosomas homlogos.
Cada cromosoma est compuesto de unidades de material gentico, llamados genes. En general, con cada gen de un cromosoma se encuentra asociado un gen del cromosoma homlogo.
Cada par de genes homlogos, o un grupo de pares de ellos, determina un carcter hereditario,
tal como el color de las flores de una planta, el color de los ojos de un animal, el tamao de
la nariz o la estatura de un ser humano.
Genes del mismo tipo no producen siempre el mismo efecto; por ejemplo, en dos plantas de la
misma especie, el color de las flores est determinado por el mismo tipo de gen, sin embargo,
en una el color puede ser blanco y en otra rojo. En otras palabras, un mismo tipo de gen se
puede presentar de diferentes formas, las cuales representaremos mediante letras maysculas
A, B, C, . . . o minsculas a, b, c, . . .. El efecto que se produzca en un individuo depender de
la forma en que se presente cada uno del par de genes homlogos correspondientes al carcter
hereditario en consideracin.
Muchos genes se pueden presentar nicamente en una de dos posibles formas; tal es el caso de
los genes que determinan el color de algunas flores o el sexo de un ser humano; sin embargo,
otros genes se pueden presentar en una de tres o ms formas posibles; tal es el caso de los
genes que determinan el tipo de sangre en un ser humano, los cuales se pueden presentar en
una de tres posibles formas.
En lo que sigue consideraremos nicamente caracteres hereditarios determinados por genes
que pueden presentarse nicamente en una de dos posibles formas, A y a. El efecto sobre un
individuo depender de las formas en que se presenten los genes en los correspondientes pares
de cromosomas homlogos. Son tres las posibilidades, AA-Aa-aa, a cada una de las cuales
llamaremos un genotipo. Diremos que un individuo con genotipo AA o aa es puro, mientras
que uno con genotipo Aa ser llamado hbrido.
Una clula reproductora contiene nicamente uno de los cromosomas de cada par de cromosomas homlogos, de manera que una de estas clulas contiene nicamente uno de los dos genes
presentes en el par de cromosomas homlogos. Este gen, presente en una de las formas A o a
en las clulas reproductoras, se transmite a los descendientes. El genotipo de un descendiente
depender entonces del genotipo de cada uno de los padres y de la forma, A o a, presente en
el genotipo que se transmita.
Cuando el genotipo de un padre es AA o aa, no existe ningn problema para determinar
cual forma, A o a, se transmite pues nicamente hay una posibilidad. As, si un macho de
genotipo AA se cruza con una hembra de genotipo aa, los descendientes tendrn genotipo Aa.
El problema se presenta cuando uno de los padres tiene genotipo Aa, pues en ese caso hay dos
posibilidades para la forma que se transmite.
En algunos casos la presencia de un genotipo puede no ser evidente pues una de las formas
del gen puede ser dominante, lo cual significa que se manifestar siempre que est presente.
Por ejemplo, al cruzar dos lneas de chcharos, una que produce flores blancas y otra flores de
color, se observa que todos los descendientes producen flores de color; sin embargo, al cruzar
los descendientes, se observa que los nuevos descendientes producen tanto flores de color como
flores blancas. Este resultado se explica si suponemos que la forma A es dominante y, siempre
que se presente en el genotipo de un individuo, tendr como efecto el que se produzcan flores de
color. La otra forma a, que llamaremos recesiva, tendr el efecto de que se produzcan flores

4.1. REGLA DE LA PROBABILIDAD TOTAL

75

blancas nicamente cuando el genotipo sea aa. As, en el ejemplo de los chcharos, se comienza
cruzando individuos de genotipo AA con individuos de genotipo aa, dando como resultado
descendientes de genotipo Aa, los cuales, por estar presente A en el genotipo, producirn
flores de color todos ellos. Al cruzar los descendientes, se producirn individuos con genotipo
AA, Aa o aa, es decir de flores blancas o de color.
Gregor Johann Mendel (1822-1884), experimentando con la reproduccin de semillas de chcharo,
descubri que los resultados experimentales, respecto a un carcter hereditario, se explican si
se supone que, al cruzarse dos individuos de una poblacin, cada uno de ellos puede transmitir a los descendientes una de las dos formas presentes en su genotipo, siendo iguales las
probabilidades de transmitir una u otra de esas formas y siendo independientes una de otra la
transmisin que realiza cada individuo de la pareja.
En este ejemplo vamos a utilizar este modelo para estudiar la manera en que evoluciona
la proporcin de cada genotipo, de un determinado carcter hereditario, en una poblacin
heterosexual. Asumiremos que el carcter hereditario en consideracin est determinado por
un tipo de gen que se puede presentar nicamente en dos posibles formas, que denotaremos
por A y a, dando lugar entonces a los genotipos AA, Aa y aa. Asumiremos tambin que los
individuos de la poblacin se reproducen con cruzamientos al azar entre dos individuos de sexo
opuesto presentes en la poblacin. La poblacin inicial 0 da origen, mediante reproduccin,
a una poblacin 1 , la cual a su vez origina una poblacin 2 , etc.
Para cada n {0, 1, . . .}, sean un , vn , wn (resp. u0n , vn0 , wn0 ) las frecuencias relativas de los
genotipos AA, Aa y aa, respectivamente, entre los machos (resp. hembras) de la poblacin
n . Adems, denotaremos por pn y qn (resp. p0n y qn0 ) a las probabilidades de que en un
apareamiento de la poblacin n , el macho (resp. hembra) aporte las formas A y a del gen,
respectivamente. Evidentemente se tiene un + vn + wn = 1, u0n + vn0 + wn0 = 1, pn + qn = 1 y
p0n + qn0 = 1.
Por la regla de la probabilidad total se tiene:
pn = un + 12 vn
qn = wn + 12 vn
p0n = u0n + 12 vn0
qn0 = wn0 + 12 vn0
As que, por la regla del producto y la propiedad de la aditividad finita:

u0n+1 = un+1 = pn p0n = un + 12 vn u0n + 12 vn0

0
= vn+1 = pn qn0 + p0n qn = un + 12 vn wn0 + 12 vn0 + u0n + 12 vn0 wn + 12 vn
vn+1

0
= wn+1 = qn qn0 = wn + 12 vn wn0 + 12 vn0
wn+1
De manera que, para n 1, se tiene:

2
u0n+1 = un+1 = un + 12 vn

0
vn+1
= vn+1 = 2 un + 12 vn wn + 12 vn

2
0
= wn+1 = wn + 12 vn
wn+1
Por lo tanto, para n 2, se tiene:

2
u0n+1 = un+1 = un + 12 vn

76

4. COMBINANDO LAS REGLAS BSICAS

h
2

i2
un1 + 12 vn1 + un1 + 12 vn1 wn1 + 12 vn1

2

2
= un1 + 12 vn1
un1 + 12 vn1 + wn1 + 12 vn1

2
2
= un1 + 12 vn1 [un1 + vn1 + wn1 ]2 = un1 + 12 vn1 = un

2
0
wn+1
= wn+1 = wn + 12 vn
h
2

i2
= wn1 + 12 vn1 + un1 + 12 vn1 wn1 + 12 vn1

2

2
= wn1 + 12 vn1
wn1 + 12 vn1 + un1 + 12 vn1

2
2
= wn1 + 12 vn1 [wn1 + vn1 + un1 ]2 = wn1 + 12 vn1 = wn
0
vn+1
= vn+1 = 1 un+1 wn+1 = 1 un wn = vn
Se obtiene as lo que se conoce como la ley de Hardy: a partir de la segunda generacin, la
frecuencia de cada uno de los genotipos se estabiliza.
El sexo de un individuo es determinado por un tipo de gen que se presenta en dos formas,
denotadas usualmente por X y Y , una de las cuales es dominante, usualmente la que es
denotada por Y . En la mayora de los casos, siempre que se presenta la forma Y , el individuo
es de sexo masculino, tal es el caso de la especie humana, de la mosca de la fruta y de muchas
otras especies; pero, en aves, mariposas y otras especies, la presencia de la forma Y en un
individuo determina que su sexo sea femenino.
Existen algunos caracteres determinados por genes que se presentan nicamente en los cromosomas que contienen la forma X. Ese tipo de genes se presenta en general bajo dos formas, A
y a, de las cuales una es dominante, digamos A. Tal es el caso de los genes que determinan
el color de los ojos de la mosca de la fruta, siendo rojo en todos los individuos que tengan en
su genotipo por lo menos una forma A y blanco en los otros casos.
En todos los casos en que un carcter hereditario est determinado por genes que se presentan
nicamente en los cromosomas que contienen la forma X, diremos que el carcter, o el gen,
est ligado al sexo. Cuando un gen ligado al sexo se presenta nicamente en una de dos
posibles formas A y a, de las cuales la primera es dominante y la segunda recesiva, diremos
que un individuo es recesivo cuando se encuentre ausente la forma A en su genotipo.
Algunos genes ligados al sexo causan defectos en los individuos recesivos, tal es el caso de los
genes que producen el daltonismo y la hemofilia en los seres humanos.
Consideraremos ahora una poblacin en la cual la forma XY determina sexo masculino y la
forma XX sexo femenino. Consideraremos adems un gen ligado al sexo de esa poblacin, que
se presenta en forma dominante y recesiva, y asumiremos que los individuos de la poblacin
se reproducen con cruzamientos al azar entre dos individuos de sexo opuesto presentes en la
poblacin. La poblacin inicial 0 da origen, mediante reproduccin, a una poblacin 1 , la
cual a su vez origina una poblacin 2 , etc.
Para cada n {0, 1, . . .}, sean un , vn , wn las frecuencias relativas de los genotipos AA, Aa y
aa, respectivamente, entre las hembras de la poblacin n y rn , sn las frecuencias relativas de
los genotipos A y a, respectivamente, entre los machos. Adems, denotaremos por pn y qn a
las probabilidades de que en un apareamiento de la poblacin n , la hembra aporte las formas
A y a del gen, respectivamente. Evidentemente, se tiene un + vn + wn = 1, rn + sn = 1 y
pn + qn = 1.
=

4.1. REGLA DE LA PROBABILIDAD TOTAL

77

Por la regla de la probabilidad total se tiene:


pn = un + 12 vn
qn = wn + 12 vn
Mientras que, por la regla del producto y la propiedad de la aditividad finita, se tiene:
un+1 = pn rn
vn+1 = pn sn + qn rn
wn+1 = qn sn
Finalmente, se tiene tambin:
rn+1 = pn
sn+1 = qn
As que:
pn+1 = un+1 + 12 vn+1 = pn rn + 12 (pn sn + qn rn ) = 12 (pn rn + pn sn )+ 12 (pn rn + qn rn ) = 12 (pn + rn )
De manera que:
p1 p0 = 12 (p0 + r0 ) p0 = 12 (p0 r0 )
Y, para n 1:
pn+1 pn = 12 (pn + rn ) pn = 12 (pn + pn1 ) pn = 12 (pn pn1 )
Por lo tanto, para n 1, se tiene:
pn pn1 = (1)n 21n (p0 r0 )
P
P
pn = nk=1 (pk pk1 ) + (p0 r0 ) + r0 = r0 + nk=0 (1)k 21k (p0 r0 )
1
2

1(1)n+1 n+1
n 1
2
= r0 +
(p

r
)
=
r
+
+
(1)
(p0 r0 )
1
0
0
0
n
3
32
1+
2

+ (1)n 321 n (p0 r0 )

qn = 1 pn = 1 23 p0 + 13 r0 + (1)n 321 n (p0 r0 )

= 1 1 23 q0 13 s0 (1)n 321 n (q0 s0 )


= 23 q0 + 13 s0 + (1)n 321 n (q0 s0 )
rn = pn1 = 23 p0 + 13 r0 + (1)n1 321n1 (p0 r0 )
sn = qn1 = 23 q0 + 13 s0 + (1)n1 321n1 (q0 s0 )
Si n es grande, se tiene entonces:

pn rn 23 p0 + 13 r0 = 1 23 q0 + 13 s0
qn sn 23 q0 + 13 s0
Definamos = 23 q0 + 13 s, entonces se tiene:
pn rn 1
qn sn
un = pn1 rn1 (1 )2
vn = pn1 sn1 + qn1 rn1 2(1 )
wn = qn1 sn1 2
=

2
p
3 0

1
r
3 0

78

4. COMBINANDO LAS REGLAS BSICAS

Del resultado anterior, se sigue, en particular, que si, a la larga, es la frecuencia relativa
de machos recesivos, entonces la frecuencia de hembras recesivas ser 2 . As, por ejemplo,
si 1 de cada 100 machos sern recesivos, entonces 1 de cada 10, 000 hembras sern recesivas.
Esto explica, por ejemplo, el que la hemofilia y el daltonismo sean ms frecuentes entre los
hombres que entre las mujeres.

4.2. Regla de Bayes


La probabilidad condicional surge de problemas del siguiente tipo: se realizan en forma sucesiva dos experimentos aleatorios tales que, una vez hecho el primero, las probabilidades de los
posibles resultados del segundo dependen del resultado de aqul; entonces, si A y B son dos
eventos relativos al primero y segundo experimento, respectivamente, nos interesa conocer la
probabilidad de que ocurra el evento B dado que ocurre el evento A. Sin embargo, la definicin de probabilidad condicional es general y, en la misma situacin descrita, tiene sentido
calcular la probabilidad de ocurrencia del evento A dado que ocurre el evento B. A este tipo
de probabilidades se les conoce como probabilidades de causas pues si pensamos en los eventos A y B como relativos a un primero y segundo experimentos, respectivamente, podemos
pensar tambin a los resultados del primer experimento como las causas de los resultados
del segundo; evidentemente el nombre causas expresa nicamente que hay un orden en la
realizacin de los experimentos y no una relacin real de causa-efecto.
En general, en una situacin como la descrita, es ms simple calcular P (B | A) que P (A | B),
por tal motivo el clculo de esta ltima se realiza utilizando la siguiente frmula:
P (A | B) =

P (B|A)P (A)
P (B)

relacin que es conocida como frmula de Bayes por haber sido Thomas Bayes el primero
en usarla explcitamente, aunque resulta inmediatamente de la regla del producto y sta ya
haba sido demostrada en su forma general por Abraham de Moivre.
Consideremos ahora un experimento aleatorio en el cual necesariamente ocurre alguno de n
eventos mutuamente excluyentes A1 , . . . , An . Sea B un evento relativo al experimento; usando
la regla de la probabilidad total, la frmula de Bayes puede ser escrita de la siguiente manera:
P (Ai | B) =

P (B|Ai )P (Ai )
P (B|A1 )P (A1 )++P (B|An )P (An )

Ejemplo 4.11. Una urna contiene r bolas rojas y b bolas blancas. Se sacan sucesivamente y
sin reemplazo, dos bolas de la urna. Calcule la probabilidad de que la primera bola sea roja
bajo la hiptesis de que la segunda lo es.
Solucin
Consideremos los eventos siguientes:
A1 : la primera bola es roja.
A2 : la primera bola es blanca.
B: la segunda bola es roja.
Entonces:
P (B|A1 )P (A1 )
r1
= r+b1
P (A1 | B) = P (B|A1 )P
(A1 )+P (B|A2 )P (A2 )

4.2. REGLA DE BAYES

79

Obsrvese que, en este caso, P (A1 | B) = P (B | A1 ), lo cual es explicable pues en realidad la


segunda extraccin puede ser considerada como la primera y viceversa.
Ejemplo 4.12. Una urna contiene 2N bolas numeradas del 1 al 2N. Un experimento consiste en elegir, al azar y sin reemplazo, dos bolas de la urna, consecutivamente. Calcule la
probabilidad de que en la primera eleccin resulte un nmero par bajo la hiptesis de que la
suma es par.
Solucin
Consideremos los eventos siguientes:
B: la suma de los dos nmeros elegidos es par.
A1 : el nmero de la primera eleccin es par.
A2 : el nmero de la segunda eleccin es impar.
Entonces:
P (B|A1 )P (A1 )
= 12
P (A1 | B) = P (B|A1 )P
(A1 )+P (B|A2 )P (A2 )
Ejemplo 4.13. Supongamos que tenemos N urnas, cada una de las cuales contiene N bolas;
supongamos adems que la urna nmero i (i {1, . . . , N }) contiene i bolas rojas y N i bolas
blancas. Un experimento est compuesto de dos partes, en la primera se selecciona al azar una
urna, fijando as la probabilidad p de que, al seleccionar una bola de ella, se obtenga una roja.
En la segunda parte se seleccionan, al azar y con reemplazo, n bolas de la urna seleccionada.
Sabiendo que la muestra de n bolas contiene k bolas rojas, cul es la probabilidad de que el
valor de p, que se fija en la primera parte del experimento, est comprendido entre dos valores
y , en donde 0 1?
Solucin
Consideremos los siguientes eventos:
Ai : p toma el valor pi = Ni , para i {1, . . . , N }.
A: p est comprendida entre y .
Bk : la muestra de n bolas contiene exactamente k rojas.
Se tiene:
S
SN
P (BAi )
{i: i }
i=1 P (ABk Ai )
SN
SN N
=
i=1 P (Bk |i )P (Ai )
i=1 P (Bk |Ai )P (Ai )
S
S
n k
1
p (1pi )nk N
P (Bk |Ai )P (Ai )
{i: i }
{i: k } ( k ) i
N
SNN
S
=
n k
N
nk 1
i=1 P (Bk |Ai )P (Ai )
i=1 ( k )pi (1pi )
N
S
n
i k
i nk 1
1
i } ( k )( N ) (
N)
N
{i: N
SN
n
i k
i nk 1
i=1 ( k )( N ) (1 N )
N

P (A | Bk ) =

=
=

P (ABk )
P (Bk )

Con
cada suma de este cociente es una suma de Riemann correspondiente a la funcin
n kN fija, nk
(1x)
y a una particin del intervalo [, ] y [0, 1], respectivamente, en partes iguales.
x
k
Por lo tanto, si N es grande tendremos:
U n k
R
( )x (1x)nk dx
P (A | Bk ) U1 nk xk (1x)nk dx = (n + 1) nk xk (1 x)nk dx
0 (k)
Este resultado se debe a Bayes, quien se planteaba el problema de determinar la probabilidad
de ocurrencia de un evento a partir del conocimiento del resultado de n repeticiones del experimento con respecto al cual est definido dicho evento. Si p es la probabilidad buscada,

80

4. COMBINANDO LAS REGLAS BSICAS

Bayes encuentra que, dado que en las n repeticiones del experimento el evento ocurre k veces,
la probabilidad de que p est comprendida entre dos nmeros y est dada por la frmula
de arriba.

La grfica de la funcin x 7 nk xk (1 x)nk es como sigue:
0.25
0.2
0.15
0.1
0.05

0.2

0.4

0.6

0.8

n = 20, k = 15
Obsrvese que el valor mximo se alcanza en x0 = nk ; esto significa que, dado que el evento
ocurre k veces en n repeticiones del experimento, es ms probable que p est comprendida en
un intervalo que contenga al punto nk .
El tomar pi = ni al inicio del experimento lo justifica Bayes por el hecho de que, de esa manera,
la probabilidad de obtener exactamente k bolas rojas en la muestra de n es la misma cualquiera
que sea k, en efecto:
R1
P n i k
i nk 1
1
0 nk xk (1 x)nk dx = n+1
P (Bk ) = N
i=1 k ( N ) (1 N )
N
En su forma original, Bayes no parte de las probabilidades pi = ni sino de un modelo continuo.
Bajo esa forma, este problema volver a tratarse en la seccin de distribuciones condicionales,
en el segundo volumen de este libro.

Ejemplo 4.14. Una moneda balanceada es lanzada N veces. En cada lanzamiento se coloca
en una urna una bola blanca, cuando el resultado es cara y una bola roja, cuando el resultado
es cruz. En seguida se sacan con reemplazo n bolas de la urna. Calcule la probabilidad de que
la proporcin de bolas blancas en la urna est comprendida entre dos nmeros y bajo la
hiptesis de que de las n bolas extradas, k son blancas.
Solucin
Consideremos los siguientes eventos:
Ai : la urna contiene i bolas blancas.
Bk : de las n bolas extradas, k son blancas.
A: la proporcin de bolas blancas en la urna esta comprendida entre y .
Entonces:
S
P (A | Bk ) =

P (ABk )
P (Bk )

SN
i=1 P (ABk Ai )
SN
i=1 P (Bk |i )P (Ai )

{i: i }
N

SN

i=1

P (Bk Ai )

P (Bk |Ai )P (Ai )

4.2. REGLA DE BAYES

i } P (Bk |Ai )P (Ai )


{i: N
SN
i=1 P (Bk |Ai )P (Ai )

n
i k
i nk
i } k ( N ) (1 N )
{i: N
SN
n
i k
i nk N
i=1 k ( N ) (1 N )
i

(Ni ) 21N
=
( ) 21N

()

()

81
S

nk

(Ni )( Ni ) (1 Ni )
SN
N
i k
i nk
i=1 ( i )( N ) (1 N )

i }
{i: N

Como se ilustra con el siguiente ejemplo, la regla de Bayes puede ser til an cuando no se
trate de experimentos que constan de varias partes.
Ejemplo 4.15. Cuando se realiza una prueba para detectar la presencia de una cierta enfermedad, se dice que se obtiene un falso negativo cuando la prueba resulta negativa para una
persona que tiene la enfermedad, mientras que se dice que se obtiene un falso positivo cuando
la prueba resulta positiva para una persona que no la tiene. Una buena prueba es entonces
aquella para la cual la probabilidad de un falso negativo y de un falso positivo sean pequeas.
Supongamos que una prueba de sangre de una cierta enfermedad contagiosa es tal que las
probabilidades de un falso negativo y de un falso positivo son ambas iguales a 0.05. Supongamos adems que la probabilidad de que una persona elegida al azar est contagiada es igual
a p. Se elige una persona al azar y se le practica la prueba, resultando positiva, cul es la
probabilidad de que la persona est contagiada?
Solucin
Definamos los eventos
A: la persona seleccionada est contagiada.
B: la prueba resulta positiva.
| A) = 0.05 , P (B | A)
= 0.05 y P (A) = p.
Se sabe entonces que P (B
Por lo tanto:
(A)
(B|A)P (A)
0.95p
0.95p
P (A | B) = P (B|A)P
= P (B|A)PP(A)+P
= 0.95p+0.05(1p)
= 0.90p+0.05
P (B)
(B|Ac )P (Ac )
La grfica de la funcin f (p) =

0.95p
0.90p+0.05

se muestra a continuacin.

1
0.8
0.6
0.4
0.2

0.2

0.4

0.6

0.8

Obsrvese que cuando p es pequea, dado que la prueba resulta positiva, la probabilidad de
que la persona est contagiada no es muy grande. Por ejemplo, f (0.005) = 0.087, de manera
que, en ese caso, menos del 9% de la personas para las cuales la prueba resulta positiva, estn
contagiadas. La probabilidad de contagio es alta nicamente para valores de p relativamente
altos, por ejemplo f (0.3) = 0.89063, de manera que, en ese caso, ms del 89% de las personas
para las cuales la prueba resulta positiva, estn contagiadas.

82

4. COMBINANDO LAS REGLAS BSICAS

EJERCICIOS
Ejercicio 4.1. Una urna contiene 2 bolas blancas y 4 bolas rojas, una segunda urna contiene 3
bolas blancas y 2 bolas rojas y una tercera urna contiene 4 bolas blancas y 5 bolas rojas. Se elige
1 bola al azar de la primera urna y se transfiere a la segunda; despus de esto, se selecciona
al azar 1 bola de la segunda urna y se transfiere a la tercera; finalmente se selecciona al azar
una bola de la tercera urna. Calcule la probabilidad de que la bola que se obtiene finalmente
sea roja.
Ejercicio 4.2. Una urna contiene 2 bolas blancas y 8 bolas rojas, una segunda urna contiene
4 bolas blancas y 4 bolas rojas. Se eligen, al azar y sin reemplazo, 2 bolas de la primera urna
y se transfieren a la segunda; despus de esto, se selecciona al azar 1 bola de la segunda urna.
Calcule la probabilidad de que la bola que se obtiene finalmente sea roja.
Ejercicio 4.3. De una urna que contiene 6 bolas blancas y 4 bolas rojas se seleccionan,
sin reemplazo, 6 bolas al azar y se transfieren a una segunda urna, la cual se encuentra
vaca. Inmediatamente despus, se seleccionan, al azar y sin reemplazo, 4 bolas de la segunda
urna. Calcule la probabilidad de que entre las 4 bolas seleccionadas de la segunda urna haya
exactamente 2 blancas.
Ejercicio 4.4. De una urna que contiene 6 bolas blancas y 4 bolas rojas se seleccionan, sin
reemplazo, 4 bolas al azar y se transfieren a una segunda urna, la cual se encuentra vaca.
Inmediatamente despus, se seleccionan, al azar y sin reemplazo, dos bolas de la segunda
urna. Calcule la probabilidad de que las dos bolas seleccionadas de la segunda urna sean
ambas blancas.
Ejercicio 4.5. Una urna contiene 8 bolas blancas y 2 bolas rojas, una segunda urna contiene
5 bolas blancas y 5 bolas rojas y una tercera urna contiene 3 bolas blancas y 5 bolas rojas. Se
elige 1 bola al azar de cada una de las dos primeras urnas y se transfieren a la tercera; despus
de esto, se seleccionan al azar 2 bolas de la tercera urna. Calcule la probabilidad de que las
dos bolas seleccionadas de la tercera urna sean ambas blancas.
Ejercicio 4.6. Una urna contiene 4 bolas rojas y 6 blancas; una segunda contiene 6 bolas
rojas y 2 blancas y una tercera contiene 3 bolas rojas y 5 blancas. Un experimento aleatorio
consiste en elegir al azar una de las urnas y, despus de eso, en elegir al azar una bola de la
urna elegida. Sabiendo que la bola seleccionada no proviene de la tercera urna, cul es la
probabilidad de que sea roja?
Ejercicio 4.7. Una urna contiene r bolas rojas y b bolas blancas. Se elige al azar una bola
de la urna, despus, sin reemplazar la primera, se elige otra y as sucesivamente, hasta sacar
todas las bolas. Utilizando la regla de la probabilidad total y mediante un razonamiento de
induccin, demuestre que la probabilidad de que en el j-simo paso se saque una bola roja es
r
igual a r+b
.
Ejercicio 4.8. Consideremos una poblacin formada por familias en las cuales hay a lo ms
5 hijos, de tal manera que los porcentajes de familias con 0, 1, 2 ,3, 4 y 5 hijos estn dados
por 5%, 15%, 30%, 25%, 20% y 5%, respectivamente. Supongamos adems que la probabilidad
de que un hijo sea varn es igual a 0.5. Al seleccionar una familia al azar de esa poblacin,

EJERCICIOS

83

cul es la probabilidad de que todos los hijos sean varones sabiendo que a) hay al menos un
hijo varn? y b) la familia tiene por lo menos un hijo?
Ejercicio 4.9. Se tienen 3 cartas; una de ellas es roja de ambos lados, la segunda es roja de
un lado y blanca del otro y la tercera es blanca de ambos lados. Se elige al azar una de las
cartas y se coloca sobre una mesa. Sabiendo que el color que muestra la carta seleccionada es
rojo, cul es la probabilidad de que del otro lado tambin sea roja?
Ejercicio 4.10. Se tienen 4 escritorios, cada uno con dos cajones. Los dos primeros escritorios contienen una moneda de oro en cada cajn, el tercero contiene una moneda de plata en
cada cajn y el cuarto contiene una moneda de oro en un cajn y una de plata en el otro. Se
elige un escritorio al azar, se abre un cajn al azar y despus el otro. Si en el primer cajn
se encuentra una moneda de oro, cul es la probabilidad de que el segundo cajn tambin
contenga una moneda de oro?
Ejercicio 4.11. La probabilidad de que un documento se encuentre en alguno de los 8 cajones
de un escritorio es igual a p. Si el documento se encuentra en el escritorio, es igualmente
probable que se encuentre en cualquiera de sus 8 cajones. Se busca el documento en 7 de los
cajones y no se encuentra. Calcule la probabilidad de encontrarlo en el octavo cajn.
Ejercicio 4.12. Una urna contiene 2 bolas blancas y 8 bolas rojas, una segunda urna contiene
4 bolas blancas y 4 bolas rojas. Se eligen, al azar y sin reemplazo, 2 bolas de la primera urna
y se transfieren a la segunda; despus de esto, se seleccionan, al azar y sin reemplazo, 3 bolas
de la segunda urna. Calcule la probabilidad de que entre estas ltimas haya bolas de los dos
colores.
Ejercicio 4.13. Una urna contiene 2 bolas blancas y 1 negra; otra urna contiene 1 bola blanca
y 5 bolas negras. Una bola elegida al azar es transferida de la primera urna a la segunda y,
despus de sto, se extrae al azar una bola de esta ltima. Calcule la probabilidad de que la
bola que se transfiere sea negra bajo la hiptesis de que en la extraccin resulta bola blanca.
Ejercicio 4.14. Se selecciona al azar una bola de una urna, la cual contiene 3 bolas rojas y
6 blancas. Si la bola seleccionada es blanca, se devuelve a la urna, mientras que si es roja, no
se devuelve. Inmediatamente despus se elige al azar otra bola de la urna. Si se sabe que la
segunda bola seleccionada es roja, cul es la probabilidad de que la primera tambin lo sea?
Ejercicio 4.15. Se selecciona al azar una bola de una urna, la cual contiene 10 bolas rojas
y 5 bolas negras. Si la bola seleccionada es roja, se regresa a la urna, mientras que si es
negra, la bola seleccionada se regresa a la urna junto con dos bolas negras ms. a) Calcule la
probabilidad de que una segunda bola que se seleccione al azar de la urna sea negra. b) Si al
seleccionar una segunda bola al azar se obtiene una bola negra, cul es la probabilidad de que
la primera bola que se selecciona tambin sea negra?
Ejercicio 4.16. De una urna que contiene 3 bolas rojas y 6 bolas blancas se selecciona al
azar una bola y se regresa a la urna junto con 3 bolas ms del mismo color; inmediatamente
despus se selecciona al azar otra bola de la urna. Sabiendo que la segunda bola seleccionada
es roja, cul es la probabilidad de que la primera tambin lo sea?
Ejercicio 4.17. Se tienen dos urnas, la primera contiene 3 bolas blancas y 4 bolas rojas,
mientras que la segunda contiene 6 bolas blancas y 3 bolas rojas. Un experimento aleatorio

84

COMBINANDO LAS REGLAS BSICAS

consiste en lanzar una moneda balanceada una vez; si se obtiene cara, se selecciona al azar
una bola de la primera urna, si se obtiene cruz, se selecciona al azar una bola de la segunda
urna. Sabiendo que finalmente se obtiene una bola blanca, cul es la probabilidad de que se
obtenga cara al lanzar la moneda?
Ejercicio 4.18. Una moneda desbalanceada est hecha de tal forma que la probabilidad de
obtener cara es el doble de la probabilidad de obtener cruz. Un experimento aleatorio consiste
en lanzar dicha moneda una vez, si se obtiene cara, se selecciona al azar una bola de una urna
que contiene 9 bolas blancas y 3 bolas rojas, mientras que si se obtiene cruz, se selecciona
al azar una bola de otra urna que contiene 4 bolas blancas y 8 bolas rojas. a) Cul es la
probabilidad de que se obtenga finalmente una bola roja? b) Supongamos que como resultado
del experimento se obtiene finalmente una bola roja, cul es la probabilidad de que en la
primera parte de ste se obtenga cruz al lanzar la moneda?
Ejercicio 4.19. En una cierta poblacin, el 70% de los individuos son hombres y el 30%
son mujeres. Se sabe que el 40% de los hombres de esa poblacin fuma, mientras que de las
mujeres lo hace el 60%. a) Si se seleccionada al azar una persona de dicha poblacin, cul es
la probabilidad de que esa persona fume? b) Si se observa que un individuo de dicha poblacin
est fumando, cul es la probabilidad de que esa persona sea una mujer?
Ejercicio 4.20. Una compaa de seguros estima que en una cierta poblacin, el 30% de los
individuos son propensos a tener accidentes. Estima adems que la probabilidad de que una
persona propensa a tener dicho accidente lo tenga realmente, en un periodo de un ao, es
igual a 0.4, mientras que esta probabilidad se reduce a 0.2 para las personas no propensas. a)
Cul es la probabilidad de que un nuevo asegurado tenga un accidente durante el primer ao
de la pliza?. Si un asegurado tiene un accidente durante el primer ao de la pliza, cul es
la probabilidad de que b) esa persona sea propensa a tener un accidente? y c) el asegurado
tenga un accidente durante el segundo ao de la pliza?
Ejercicio 4.21. Un estudiante presenta un examen de opcin mltiple en el cual cada pregunta tiene 5 posibles respuestas, de las cuales nicamente una es la correcta. Si el estudiante
conoce la respuesta correcta, esa es la que selecciona, en otro caso selecciona al azar una de
las 5 posibles respuestas. Supongamos que el estudiante conoce la respuesta correcta de 70%
de las preguntas. Dada una pregunta que es contestada correctamente, cul es la probabilidad
de que el estudiante conozca la respuesta correcta?
Ejercicio 4.22. Un bolso contiene 3 monedas, una de las cuales est acuada con dos caras
mientras que las otras dos monedas son normales (cara de un lado, cruz del otro). Se escoge
al azar una moneda del bolso y se lanza 4 veces en forma sucesiva. Sabiendo que se obtiene
cara en las 4 ocasiones que se lanza la moneda, cul es la probabilidad de que se seleccione
la moneda con dos caras?
Ejercicio 4.23. En una fbrica hay dos mquinas, A y B, las cuales producen el 40% y el 60%
respectivamente de la produccin total. Se sabe que la mquina A produce aproximadamente
3% de artculos defectuosos, mientras que la mquina B produce aproximadamente 5% de
artculos defectuosos. Encuentre la probabilidad de que un determinado artculo defectuoso
sea producido por la mquina A.
Ejercicio 4.24. La probabilidad de que cada artculo producido por una mquina satisfaga el
estndar es igual a 0.96. Cuando un artculo satisface el estndar, la probabilidad de que pase

EJERCICIOS

85

el sistema de inspeccin es igual a 0.98, mientras que cuando no lo satisface la probabilidad es


de 0.05. Dado que un artculo pasa el sistema de inspeccin, cul es la probabilidad de que
satisfaga el estndar?
Ejercicio 4.25. Supongamos que una prueba de sangre de una cierta enfermedad contagiosa
es tal que las probabilidades de un falso negativo y de un falso positivo son ambas iguales a 0.01.
Supongamos adems que la probabilidad de que una persona elegida al azar est contagiada
es igual a p. Para qu valores de p, estn contagiadas ms del 90% de la personas para las
cuales la prueba resulta positiva?
Ejercicio 4.26. En un juicio, se est demandando a un hombre pensin alimenticia para un
nio, por ser el supuesto padre; sin embargo, el demandado asegura no ser el padre del nio.
El abogado de la demandante argumenta que se ha encontrado en el nio una caracterstica
gentica que posee el padre, la cual se presenta nicamente en el 1% de la poblacin adulta
y, cuando est presente, se transmite con seguridad de padre a hijo. El abogado aade que, a
priori no se sabe si el hombre demandado es el padre del nio, de manera que la probabilidad
de que lo sea es igual a 12 , pero, dado que se ha encontrado en el nio la caracterstica gentica
que posee el hombre, la probabilidad de que el demandado sea realmente el padre del nio es
casi igual a 1. a) Encuentre la probabilidad cercana a 1 a la cual hace referencia el abogado. b)
Qu se podra argumentar en contra del razonamiento que hace el abogado de la demandante?
c) Supongamos que, antes de disponer de la informacin sobre la presencia en el nio de la
caracterstica gentica que posee el hombre, el juez determina que la probabilidad de que el
hombre sea el padre del nio es igual a p. Cul es la nueva probabilidad P de que el hombre
sea el padre del nio que determinara el juez una vez que dispone de la nueva informacin?
d) Para 0 p 0.1, grafique P como funcin de p. e) Determine los valores de p para los
cuales P resulta cercana a 1 (tmese como cercana a 1 una probabilidad mayor que 0.99).
Ejercicio 4.27. Un mdico lleg a la conclusin de que la probabilidad de que su paciente,
el Sr. Flores, padezca una cierta enfermedad es igual a 0.6. El mdico sigue una regla segn
la cual cuando la probabilidad de que un paciente padezca dicha enfermedad es 0.8 o ms,
entonces recomienda ciruga, pero si la probabilidad es menor a 0.8, entonces recomienda
estudios adicionales, los cuales son costosos y dolorosos. Por tal motivo, el mdico recomienda
al Sr. Flores hacerse un estudio, resultando positivo. Dicho estudio tiene la caracterstica de
resultar positivo en todos los casos en que la persona padece la enfermedad y negativo en los
casos en que la persona no padece la enfermedad y el resultado del estudio no es alterado
por otros padecimientos del paciente. El resultado del estudio indicaba al mdico que debe de
recomendar ciruga, sin embargo, despus de realizado el estudio, el Sr. Flores informa al
mdico que padece de diabetes, lo cual no haba contemplado el mdico hasta ese momento.
Esta informacin pone en duda al mdico pues el estudio que le practicaron al Sr. Flores resulta
positivo en 30% de los casos en que el paciente no padece la enfermedad pero es diabtico. Qu
debo recomendar?, se pregunta el mdico, otro estudio o ciruga?
Ejercicio 4.28. Un dado desbalanceado est hecho de tal forma que la probabilidad de obtener
el nmero k es igual a ck, en donde c es una constante y k {1, 2, 3, 4, 5, 6}. Un experimento
aleatorio consiste en lanzar dicho dado; si se obtiene como resultado el nmero k, se lanza
una moneda balanceada k veces. Dado que al lanzar la moneda se obtiene por lo menos una
cara, cul es la probabilidad de que se obtenga el nmero 2 al lanzar el dado?

86

COMBINANDO LAS REGLAS BSICAS

Ejercicio 4.29. Un dado balanceado es lanzado 5 veces. Despus de cada lanzamiento se


coloca en una urna A una bola blanca cuando el resultado es el nmero 6 y una bola roja
cuando el resultado no es el nmero 6. Inmediatamente despus, se seleccionan, al azar y con
reemplazo, 3 bolas de la urna. Dado que las 3 bolas seleccionadas son blancas, cul es la
probabilidad de que la urna contenga nicamente bolas blancas?
Ejercicio 4.30. Se tienen dos urnas, la primera contiene 4 bolas rojas y 6 bolas blancas,
mientras que la segunda contiene 8 rojas y 2 blancas. Se seleccionan, al azar y sin reemplazo, 2
bolas de la primera urna y se transfieren a la segunda. Inmediatamente despus, se seleccionan,
al azar y sin reemplazo, 2 bolas de la segunda urna. Sabiendo que finalmente se obtienen 2
bolas blancas, cul es la probabilidad de que se transfieran 2 bolas blancas de la primera urna
a la segunda?
Ejercicio 4.31. Una moneda balanceada es lanzada 5 veces. En cada lanzamiento se coloca
en una urna una bola blanca cuando el resultado es cara y una bola roja cuando el resultado
es cruz. En seguida se sacan con reemplazo n bolas de la urna. Calcule la probabilidad de que
la urna contenga solo bolas blancas bajo la hiptesis de que las n bolas extradas son blancas.
Ejercicio 4.32. Supongamos que disponemos de 5 urnas de tal manera que 4 de ellas contienen 3 bolas rojas y 3 bolas blancas cada una, mientras que la quinta contiene 5 bolas blancas
y 1 bola roja. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 3
bolas de una de las 5 urnas, la cual se selecciona tambin al azar. Sabiendo que las 3 bolas
seleccionadas son blancas, cul es la probabilidad de que se seleccione la urna con 5 bolas
blancas?

CAPTULO 5

LA ADITIVIDAD NUMERABLE
No hay entonces ningn fundamento para la oposicin
que habamos credo discernir entre el Clculo de Probabilidades y el individualismo? Por el contrario, hay
uno muy real pues el individualismo es antisocial mientras que el Clculo de Probabilidades es la base de lo que
se podra llamar las matemticas sociales. En efecto, su
estudio nos recuerda que vivimos en sociedad y que los
fenmenos sociales tienen una existencia real y un inters propio. Nos recuerda que, si bien los hombres son
diferentes en muchas cosas, son parecidos en el sentido
de que todos ellos estn expuestos a los accidentes, a la
enfermedad, a la muerte; ... El estudio de esos hechos
no puede ms que contribuir a desarrollar la nocin de
solidaridad, a recordar a cada uno que no debe considerarse como independiente del medio en donde vive y que
debe participar en la reparacin de los daos fortuitos que
sufra su vecino y que podra estarlos sufriendo l mismo.
Flix douard Justin mile Borel

5.1. Espacios muestrales infinitos numerables


No es dificil imaginar un experimento aleatorio el cual admita un nmero infinito de posibles
resultados; consideremos por ejemplo el experimento consistente en lanzar una moneda tantas
veces como sea necesario hasta obtener una cara; en este caso, dado cualquier nmero entero
positivo n, es posible que la primera cara ocurra en el n-simo lanzamiento. De hecho ya hemos
considerado anteriormente experimentos aleatorios de este tipo (vanse los ejemplos 2.34 y 4.6
y los ejercicios 2.32 y 2.33) y hemos calculado probabilidades de eventos asociados con ellos,
mediante las reglas y mtodos que hemos considerado hasta estos momentos. Sin embargo,
si se revisan esos ejemplos se observar que, si bien el experimento aleatorio correspondiente
admite una infinidad de posibles resultados, nos interesaba calcular la probabilidad de un
evento cuya ocurrencia o no ocurrencia depende solo de un nmero finito de ellos.
En esta seccin consideraremos algunos problemas relacionados con experimentos aleatorios
que admiten una infinidad de posibles resultados, pero, a diferencia de los ejemplos tratados
con anterioridad, en esta ocasin se tratar de calcular probabilidad de eventos cuya ocurrencia
87

88

5. LA ADITIVIDAD NUMERABLE

o no ocurrencia depende de una coleccin infinita de posibles resultados. El tratamiento de


estos problemas nos llevar a la consideracin de la extensin de la propiedad de la aditividad
finita al caso infinito numerable.
Consideremos nuevamente el experimento consistente en lanzar una moneda tantas veces como
sea necesario hasta obtener una cara.
Llamando E (xito) al hecho de obtener cara en un lanzamiento y F (fracaso) al hecho de
no obtenerla, cada posible resultado de este experimento puede representarse ya sea mediante
una sucesin finita (F, . . . , F, S) formada por fracasos consecutivos seguidos de un xito, o
bien mediante una sucesin infinita (F, F, . . .) formada exclusivamente por fracasos. De esta
manera, el espacio muestral de este experimento se puede representar de la siguiente manera:
= {(E), (F, E), (F, F, E), . . .} {(F, F, . . .)}
Como los lanzamientos son independientes uno del otro, la probabilidad de cada uno de los
posibles resultados del experimento se puede calcular fcilmente. Efectivamente, si llamamos
n al elemento de consistente de una secuencia de n 1 fracasos seguidos de un xito, se
tiene:
n
P ({ n }) = 12 , para n N
Por otra parte, si denotamos por al elemento (F, F, F, . . .), entonces la ocurrencia del
evento { } implica que, dado cualquier n N, en los primeros n lanzamientos se obtiene
fracaso, de manera que, aplicando las propiedades de la funcin de probabilidad, se debe de
tener:
n
P ({ }) 12 , para toda n N, as que, P ({ }) = 0.
Obsrvese que en el caso de un experimento aleatorio con un espacio muestral finito, P (A) = 0
significa que el evento A nunca ocurre; en cambio aqu tenemos un evento de probabilidad
cero cuya ocurrencia es posible.
Gracias a la propiedad de la aditividad finita, la probabilidad de cualquier evento compuesto
por un nmero finito de elementos de queda entonces nicamente determinada y se puede
calcular simplemente sumando las probabilidades de los posibles resultados que lo componen.
De la misma manera, la probabilidad de un evento compuesto por todos los elementos de ,
excepto un nmero finito de ellos, tambin queda nicamente determinada y se puede calcular
restando de 1 la suma de las probabilidades de los posibles resultados que no pertenecen al
evento en consideracin. Sin embargo, el clculo de la probabilidad de un evento tal que tanto
l como su complemento estn compuestos por una infinidad de posibles resultados no puede
calcularse inmediatamente aplicando la propiedad de la aditividad finita. Esta probabilidad
quedara nicamente determinada y se podra calcular si agregramos como propiedad del
modelo que queremos construir una anloga a la de la aditividad finita para el caso de una
coleccin infinita numerable de eventos, la cual llamaremos la propiedad de la aditividad
numerable.
Para ser ms precisos, definamos formalmente el concepto de aditividad numerable y, dado
que ms adelante utilizaremos este concepto de una manera general, sin hacer referencia a
un espacio de probabilidad, conviene dar la definicin de este concepto as como del de la
aditividad finita dentro de un contexto ms amplio.
Definicin 5.1 (Funcin finitamente aditiva). Sea un conjunto y A la familia de todos
los subconjuntos de . Se dice que una funcin P : A 7 [0, 1] es finitamente aditiva si dada

5.1. ESPACIOS MUESTRALES INFINITOS NUMERABLES

89

cualquier familia finita de subconjuntos de , A1 , . . . , An , tales que Ai Aj = para i 6= j,


n
P
S
entonces P ( Ak ) = nk=1 P (Ak ) .
k=1

Definicin 5.2 (Funcin -aditiva). Sea un conjunto y A la familia de todos los subconjuntos de . Se dice que una funcin P : A 7 [0, 1] es -aditiva, o que satisface la
propiedad de la aditividad numerable, si es finitamente aditiva y dada cualquier familia infinita numerable de subconjuntos de , A1 , A2 , . . ., tales que Ai Aj = para i 6= j, entonces

P
S
P ( Ak ) =
k=1 P (Ak ).
k=1

La propiedad de la aditividad numerable va a jugar el mismo papel que las otras propiedades
de la funcin de probabilidad, es decir, servir para poder extender la funcin de probabilidad a
una familia ms grande de eventos cuando se ha iniciado el proceso de asignar probabilidades a
una familia particular. Con algunas consideraciones adicionales sobre la familia de eventos a los
cuales se podr asignar una probabilidad, en un modelo matemtico general, la propiedad de
la aditividad numerable deber agregarse como propiedad adicional de la funcin
de probabilidad si queremos que sta se pueda extender a eventos que dependen
de una coleccin infinita de posibles resultados. Sin embargo, es ilustrativo abundar
en el estudio de esta propiedad pues se puede mostrar que en algunos casos se puede obtener
como consecuencia de las otras propiedades de la funcin de probabilidad que hemos estudiado
hasta este momento.
Ejemplo 5.3. Supongamos que, dado el experimento aleatorio descrito antes, queremos calcular la probabilidad de que el experimento se termine en un nmero par de lanzamientos. El
correspondiente evento A se puede entonces representar como A = { 2 , 4 , . . .}. De manera
que, asumiendo que la funcin de probabilidad es -aditiva, se tiene:
P 1 2k 1
=3
P (A) =
k=1 2
La probabilidad del evento A se puede encontrar con otro mtodo, aparentemente sin apelar a
una generalizacin de la propiedad de la aditividad finita al caso infinito. En efecto, consideremos los siguientes eventos:
A1 : se obtiene fracaso en el primer lanzamiento y xito en el segundo.
C: se obtiene fracaso en los primeros dos lanzamientos.
Por la propiedad de la aditividad finita, se tiene:
P (A) = P (A1 ) + P (A C) = P (A1 ) + P (A | C)P (C) = P (A1 ) + P (A)P (C)
Pero, dado que C ocurre, las condiciones del experimento son como las del inicio, por lo tanto,
P (A | C) = P (A). As que:
P (A) = P (A1 ) + P (A | C)P (C) = P (A1 ) + P (A)P (C)
Por lo tanto, P (A) =

P (A1 )
1P (C)

= 14 1 =
4

1
3

Aparentemente no se est haciendo aqu referencia a la propiedad de -aditividad; sin embargo,


vamos a mostrar que la relacin P (AC) = P (A)P (C) la contiene implcitamente. En efecto,
definamos, para k N, Qk = { k , k+2 , . . .}. La relacin P (A C) = P (A)P (C) se puede
escribir entonces como P (Q4 ) = P (C)P (Q2 ).

90

5. LA ADITIVIDAD NUMERABLE

Pero, para k {3, 4, . . .}, tenemos P ({ k }) = 14 P ({ k2 }). As que, utilizando la propiedad


de la aditividad finita, se tiene:
P (Q2k ) = 14 P (Q2(k1) ), para k {2, 3, . . .}
k1
Por lo tanto, P (Q2k ) = 14
P (Q2 ) y entonces lmk P (Q2k ) = 0.
Ahora, para k N, definamos Ak = { 2 , 4 , . . . , 2k }. Entonces, utilizando la propiedad de
la aditividad finita, se tiene:
P
p() + P (Q2(k+1) )
P (A) = P (Ak ) + P (Q2(k+1) ) =
Ak

As que, tomando lmites, se tiene:


P
P
p() =
p()
P (A) = lmk
Ak

Se concluye entonces que el razonamiento basado en probabilidades condicionales contiene


implcitamente la propiedad de -aditividad.
Todo indica entonces que un problema del tipo planteado nicamente se puede resolver agregando a las propiedades de la funcin de probabilidad la de -aditividad. Sin embargo, vamos
a ver que, en este caso particular, esto no es necesario pues la probabilidad del evento A puede
obtenerse recurriendo nicamente a la aditividad finita y a las otras propiedades bsicas de la
funcin de probabilidad.
Sea B el evento el experimento se termina en un nmero impar de lanzamientos, entonces
B = {1 , 3 , . . .}. Definamos adems pn = P ({n }).
Para cualquier n N, se tiene { 2 , 4 , . . . , 2n } A y {1 , 3 , . . . , 2n1 } B, por lo tanto
P (A) p2 + p4 + + p2n y P (B) p1 + p3 + + p2n1 . De manera que, tomando lmites,
cuando n , se tiene:
P 1
P
1
P (A)
n=1 p2n =
n=1 22n = 3
P
P
1
2
P (B)
n=1 p2n1 =
n=1 22n1 = 3
Supongamos que P (A) > 13 , entonces se tendra:
1 P (A) + P (B) > 13 + 23 = 1
lo cual es una contradiccin, por lo tanto, P (A) = 13 y P (B) = 23 .
Vamos a ver en seguida que en realidad para un problema como el planteado en el ejemplo
anterior, la propiedad de -aditividad es una consecuencia de las 3 propiedades bsicas de la
funcin de probabilidad que hemos considerado hasta ahora. Este resultado no debe interpretarse en el sentido de que siempre la -aditividad se puede obtener como consecuencia de estas
propiedades. El resultado se probar nicamente para una clase particular de experimentos
aleatorios. Se puede mostrar que, en general, la -aditividad no es consecuencia de
las 3 propiedades bsicas de la funcin de probabilidad consideradas hasta ahora
y entonces, si queremos ampliar la familia de eventos a los cuales se les puede
asignar una probabilidad de manera nica, la propiedad de -aditividad se debe
de agregar como una propiedad adicional.
Teorema 5.4. Sea = { 1 , 2 , . . .} un conjunto infinito numerable, A la familia formada
por todos los subconjuntos de y P : A
7 [0, 1] una funcin que satisface las siguientes
condiciones:

5.1. ESPACIOS MUESTRALES INFINITOS NUMERABLES

91

(i) PPes finitamente aditiva


(ii)
P ({}) = 1,

entonces P es -aditiva.

Demostracin
Definamos pk = P ({ k }) y sea A cualquier subconjunto de infinito numerable, digamos
A = {j1 , j2 , . . .}. Sea Ac = {i1 , i2 , . . .}. En vista de que P es no negativa y finitamente
aditiva, es montona
P no decreciente, as que P (A) pj1 + . . . + cpjn para
P toda n N. Por lo
tanto, PP
(A) k=1 pjk . De la misma manera,
P se obtiene
P P (A ) k pik . Adems, como
la serie
p
converge
a
1,
las
dos
series
p
y
k=1 k
k=1 jk
k pik son tambin convergentes y su
P
suma es 1. Ahora bien, si P (A) > k=1 pjk , entonces tendramos:
P
P
1 P () = P (A) + P (Ac ) >
k=1 pjk +
k pik = 1
P
lo cual es una contradiccin. Por lo tanto, podemos concluir que P (A) =
k=1 pjk .
Sea ahora A1 , A2 , . . . una coleccin infinita numerable de subconjuntos no vacos de tales
que Ai Aj = para i 6= j. Si A =
An = { k1 , k2 , . . .}, entonces, como P es no negativa
n=1
P
0
y finitamente aditiva, se tiene P (A) nn=1
P (An ) para toda n0 N. As que:
(5.1)

P (A)

P (An )

n=1

0
Por otro lado, dada N N, existe n0 N tal que {kj : j N} nn=1
An , as que:
Sn0
Pn0
P
PN
j=1 pkj = P ({ kj : j N}) P ( n=1 An ) =
n=1 P (An )
n=1 P (An )
P
PN
Es decir, j=1 pkj n=1 P (An ) para toda N N. Por lo tanto

(5.2)

P (A) =

X
j=1

pkj

Combinando (5.1) y (5.2), obtenemos P (A) =

P (An )

n=1

n=1

P (An ), lo cual prueba el resultado.

Corolario 5.5. Sea cualquier conjunto, A la familia formada por todos los subconjuntos de y P : A 7 [0, 1] una funcinPfinitamente aditiva. Supongamos que existe un
0
subconjunto
0 P ({}) = 1. Entonces P es -aditiva y
P numerable de tal que
P (A) = {A0 } P ({}) para todo A A.

Demostracin
Sea A0 la familia formada por todos los subconjuntos de 0 . Entonces, de acuerdo con el
teorema 5.4, restringida a A0 , P es -aditiva. En particular:
P
P (0 ) = 0 P ({}) = 1.
As que, si B es cualquier subconjunto de 0 , tenemos:
1 P (B 0 ) = P (B) + P (0 ) = P (B) + 1

92

5. LA ADITIVIDAD NUMERABLE

de lo cual se sigue P (B) = 0. Entonces, si A es cualquier subconjunto de , se tiene P (A) =


P (A 0 ). As que, si A1 , A2 , . . . es cualquier coleccin numerable de subconjuntos de tales
que Ai Aj = para i 6= j, entonces:
S
S
P
P
S
P ( k Ak ) = P [( k Ak ) 0 ] = P [ k (Ak 0 )] = k P (Ak 0 ) = k P (Ak )
lo cual prueba que P es -aditiva sobre A.
Finalmente, obsrvese que, en particular, si A es cualquier subconjunto de , se tiene:
P
P (A) = P (A 0 ) = {A0 } P ({}).
Vamos ahora a aplicar este resultado a una clase de experimentos aleatorios, la cual incluye
el ejemplo con el que se inici esta seccin y otros similares.

Definicin 5.6 (Ensayos de Bernoulli). Un ensayo de Bernoulli es un experimento aleatorio el cual admite nicamente dos posibles resultados, los cuales llamaremos xito y fracaso,
respectivamente.
Sea B1 , B2 , . . . una sucesin de ensayos de Bernoulli independientes y rk > 0 la probabilidad
de xito en el k-simo ensayo.
Sea el conjunto formado por todas las colecciones finitas (s1 , . . . , sn ) de 0s y 1s y, para
cada = (s1 , . . . , sn ) , definamos p() = p(s1 ) p(sn ), en donde:

si sk = 1
rk
p(sk ) =
1 rk si sk = 0
Si = (s1 , . . . , sn ) , diremos que tiene longitud n y definimos l() = n.
Consideremos el experimento aleatorio E consistente en la realizacin consecutiva de los ensayos de Bernoulli B1 , B2 , . . . y supongamos que est definida una condicin C de tal manera
que el experimento se termina cuando la condicin C se satisface por primera vez. Por ejemplo,
C podra definirse como la ocurrencia de cierto nmero fijo de xitos.
El espacio muestral de E puede descomponerse en dos subconjuntos F y I , en donde F es
el conjunto de resultados de las sucesiones finitas de ensayos de Bernoulli que terminan con la
primera ocurrencia de C y I es el conjunto de resultados de las sucesiones infinitas de ensayos
de Bernoulli para las cuales la condicin C nunca se alcanza en un nmero finito de realizaciones
de los ensayos de Bernoulli. Cada elemento de F puede representarse mediante una sucesin
finita (s1 , . . . , sn ) de 0s y 1s y cada elemento de I puede representarse mediante una sucesin
infinita (s1 , s2 , . . .) de 0s y 1s, en donde si = 0 y si = 1 representan, respectivamente, un
fracaso y un xito en el i-simo ensayo. En vista de que es un conjunto numerable y F ,
F es tambin un conjunto numerable. Sin embargo, I puede ser un conjunto no numerable.
P
Lema 5.7. {:l()=n} p() = 1 para cualquier n N.
Demostracin
P
Para cada n N, definamos S(n) = {:l()=n} p(). Entonces , S(1) = r1 + (1 r1 ) = 1
y S(n + 1) = rn+1 S(n) + (1 rn+1 )S(n) = S(n) para toda n N.
P
P
Lema 5.8. La serie F p() siempre es convergente y F p() 1.
Demostracin
Para cada n N, definamos:

5.1. ESPACIOS MUESTRALES INFINITOS NUMERABLES

F(n)

93

= F | l() n ,

y, para cada F(n) , definamos:

(n) () = {0 | l( 0 ) = n y 0 comienza con }.


Dado F(n) , sea m = l(). Si m = n, entonces (n) () = {}, si no:
P
P
0
0
p(
)
=
p()
(n)
0
()
{0 :l(0 )=nm} p( ) = p().
P
As que, en cualquier caso, p() = 0 (n) () p( 0 ).

Obviamente, dados dos elementos distintos , 0 F(n) , los subconjuntos (n) () y (n) (0 )
son ajenos. Adems:
S
(n) () { | l() = n}
F
(n)

As que, para cualquier n N, tenemos:


P
P
p() {:l()=n} p() = 1
F
(n)
P
P
P
Por lo tanto, la serie F p() = lmn F p() es convergente y F p() 1.
(n)

Proposicin 5.9. Dada M N y t1 , . . . , tM M nmeros naturales fijos, supongamos que


los ensayos de Bernoulli se clasifican en M tipos, T1 , . . . , TM , con probabilidades de xito p1 , . . . , pM , respectivamente, y que la condicin C se satisface cuando, para alguna i
{1, . . . , M }, se obtienen ti xitos en los ensayos de Bernoulli de tipo Ti . Sea el espacio
muestral del correspondiente experimento aleatorio, F el conjunto de resultados de las sucesiones finitas de ensayos de Bernoulli que terminan con la primera ocurrencia de C, A la
familia de todos los subconjuntos de y P : A 7 [0, 1] una funcin de probabilidad (finitamente aditiva)
tal que P ({}) = p() para toda F . Entonces, P es -aditiva y, adems,
P
P (A) = {AF } p() para todo A A.
Demostracin
P
De acuerdo con el corolario 5.5, basta con demostrar que {F } p() = 1.

Sea t = t1 + + tM , p = mn {p1 , . . . , pM } y, para cada n N, definamos el evento:


Ant : La primera ocurrencia de C se obtiene en alguno de los primeros nt ensayos.
Ant se representa mediante un conjunto finito formado por los elementos de F de longitud
menor o igual a nt, de manera que:
P
P (Ant ) = {F :l()nt} p()
Por lo tanto:
P
P
mn {F :l()nt} p() = lmn P (Ant )
{F } p() = l
n

Vamos a demostrar que P (Acnt ) (1 pt ) para cualquier n N, de lo cual se sigue que


lmn P (Ant ) = 1, as que la proposicin quedar demostrada.
n
La demostracin de la desigualdad P (Acnt ) (1 pt ) , para cualquier n N, se har por
induccin sobre n.
Si en los primeros t ensayos hay xito, entonces ocurre At , as que P (At ) pt . Por lo tanto,
P (Act ) 1 pt .
Obsrvese que si = (s1 , . . . , sm ) Ant , entonces, por el lema 5.7, se tiene:
P
p() = {:l()=nt, y coinciden en sus primeros m elementos} p()

94

5. LA ADITIVIDAD NUMERABLE

As que, si

l() = nt y los primeros elementos de no


Cnt = :
coinciden con los elementos de ninguna 0 Ant
P
entonces P (Acnt ) = {Cnt } p().
n

Supongamos ahora que la desigualdad P (Acnt ) (1 pt ) se cumple para n = k N,


entonces:

c
c
c
P A(k+1)t = P A(k+1)t Akt = P (Ackt ) P A(k+1)t Ackt

A(k+1)t Ackt est formada por los elementos de F de longitud mayor que kt y menor o igual
a (k + 1)t, de manera que:
P
P (A(k+1)t Ackt ) = {F :kt<l()(k+1)t} p()
Pero, si = (s1 , . . . , sm ) A(k+1)t Ackt , entonces, por el lema 5.7, se tiene:
P
p() = {:l()=(k+1)t, y coinciden en sus primeros m elementos} p()
As que, si

l() = (k + 1)t, los primeros kt elementos de coinciden con

Dkt = : los elementos de alguna 0 Ckt y los primeros elementos de

coinciden con los elementos de alguna 0 A(k+1)t

l() = (k + 1)t y est formada por


Ek t = :
una sucesin en Ckt seguida de t 1s
entonces:
P
P
P
P (A(k+1)t Ackt ) = {Dkt } p() {Ekt } p() pt {Ckt } p() = pt P (Ackt )
As que,

P Ac(k+1)t = P (Ackt )P A(k+1)t Ackt P (Ackt )pt P (Ackt ) = (1pt )P (Ackt ) (1pt )k+1

Comentario 5.10. La ltima proposicin muestra que si queremos construir un modelo probabilstico para el experimento aleatorio E de tal manera que se satisfagan las siguientes condiciones:
(i) Cualquier subconjunto del espacio muestral representa un evento,
(ii) La funcin de probabilidad P : A 7 [0, 1], en donde A es la familia de todos los
subconjuntos de , es finitamente aditiva,
(iii) P ({}) = p() para toda F .

Entonces, nicamente
hay una posible eleccin para la funcin de probabilidad P, a
P
P ({}) para cualquier A A, lo cual define una funcin de probabilidad
saber, P (A) =
AF

-aditiva.

A continuacin se presentan algunos problemas que caen dentro de la categora de problemas


descritos en la proposicin 5.9 y, por consiguiente, en cada uno de ellos, la asignacin de
probabilidades dada en el comentario 5.10 define la nica posible funcin de probabilidad
satisfaciendo las condiciones i ii y iii ah enunciadas.
Ejemplo 5.11. Una persona A juega contra otra persona B lanzando alternadamente un par
de dados. A lanza primero los dados, con la condicin de que gana el juego si obtiene una

5.1. ESPACIOS MUESTRALES INFINITOS NUMERABLES

95

suma igual a 6; en caso contrario, el juego contina lanzando B los dados, con la condicin de
que gana el juego si obtiene una suma igual a 7; en caso contrario, el juego contina lanzando
A los dados bajo las condiciones iniciales. Calcule las probabilidades que cada jugador tiene
de ganar el juego.1
Solucin
Vamos a resolver este problema por dos mtodos, en el primero se utilizar explcitamente la
propiedad de la aditividad numerable2, mientras que en el segundo se utilizar un razonamiento
basado en probabilidades condicionales, el cual, al igual que en el caso del ejemplo tratado con
anterioridad, contiene implcitamente la propiedad de la aditividad numerable3
1er. mtodo:
Para cada lanzamiento, definamos como xito al hecho de que el jugador que lanza los dados
gana el juego en ese lanzamiento. Entonces cada posible resultado de este juego puede representarse ya sea mediante una sucesin finita (F, . . . , F, S) formada por fracasos consecutivos
seguidos de un xito, o bien mediante una sucesin infinita (F, F, . . .) formada exclusivamente
por fracasos. Denotemos por n al posible resultado (F, . . . , F, S) formado por n 1 fracasos seguidos de un xito. Entonces, de acuerdo con las reglas estudiadas en las secciones
anteriores, se puede asignar una probabilidad p( n ) a cada n de la siguiente manera:
p(2k ) = (1 p1 )k (1 p2 )k1 p2 si n = 2k para alguna k N
p(2k1 ) = (1 p1 )k1 (1 p2 )k1 p1 si n = 2k 1 para alguna k N
en donde p1 , p2 son las probabilidades, respectivamente, de obtener 6 y 7 puntos al lanzar el
5
par de dados, es decir p1 = 36
y p2 = 16 . Ahora bien, como la funcin de probabilidad es
-aditiva, las probabilidades P (A) y P (B) de que A y B ganen, respectivamente, estn dadas
por:
P 31 k1 5 k1 5
P
= 30
P (A) =
k=1 p( 2k1 ) =
k=1 36
6
36
61
P
P 31 k 5 k1 1
31
P (B) = k=1 p( 2k ) = k=1 36
= 61
6
6
2o. mtodo:
Consideremos los siguientes eventos:
A: A gana el juego.
B: B gana el juego.
A1 : Se obtiene xito en el primer lanzamiento.
B1 : Se obtiene fracaso en el primer lanzamiento y xito en el segundo.
C: Se obtiene fracaso en los primeros dos lanzamientos.
Utilizando la propiedad de la aditividad finita y observando que la ocurrencia de C coloca a
los dos jugadores en la misma situacin que al inicio del juego, se tiene:
1Este

problema fue propuesto por Christiaan Huygens a M. de Roberval en el ao 1656 y constituye el


primer planteamiento de un problema de probabilidad en el cual el conjunto de posibles resultados es infinito
([7]).
2Este mtodo de solucin fue utilizado por Jacques Bernoulli en el ao 1705 para resolver este problema
([3]).
3Este fue bsicamente el mtodo utilizado por C. Huygens en su libro Du Calcul dans les Jeux de Hasard,
publicado en 1657 ([7]).

96

5. LA ADITIVIDAD NUMERABLE

P (A) = P (A1 ) + P (A C) = P (A1 ) + P (A | C)P (C) = P (A1 ) + P (A)P (C)


P (B) = P (B1 ) + P (B C) = P (B1 ) + P (B | C)P (C) = P (B1 ) + P (B)P (C)
De lo cual se obtiene, P (A) =

P (A1 ) =

5
,
36

P (B1 ) =

31 1
,
36 6

P (A1 )
1P (C)

y P (C) =

y P (B) =

31 5
.
36 6

P (B1 )
.
1P (C)

As que , P (A) =

Esto resuelve el problema ya que


5
36

5
1 31
36 6

30
61

y P (B) =

31 1
36 6

5
1 31
36 6

31
.
61

Ejemplo 5.12. Tres personas, P, Q y R, colocan doce fichas en una urna, 4 de ellas son blancas y 8 negras. Juegan sacando por turnos una ficha al azar de la caja, reemplazndola despus
y con la condicin de que el primero que saque una ficha blanca gana el juego. Suponiendo
que el primer turno es de P, el segundo de Q y el tercero de R, calcule las probabilidades que
cada jugador tiene de ganar.
Solucin
Para cada eleccin, llamemos xito al hecho de que el jugador que est haciendo la eleccin obtiene una bola blanca. Entonces cada posible resultado de este experimento puede representarse
ya sea mediante una sucesin finita (F, , F, S), formada por fracasos consecutivos seguidos de
un xito, o bien mediante una sucesin infinita (F, F, . . .), formada exclusivamente por fracasos. Denotemos por n al posible resultado (F, . . . , F, S) formado por n 1 fracasos seguidos
de un xito. Entonces, de acuerdo con las reglas estudiadas en las secciones anteriores, se
puede asignar una probabilidad p(n ) a cada n de la siguiente manera:
p( n ) = p(1 p)n1
en donde p es la probabilidad de obtener una bola blanca en una eleccin, es decir p = 13 .
Ahora bien, como la funcin de probabilidad es -aditiva, las probabilidades P (A), P (B) y
P (C) de que P, Q y R ganen, respectivamente, estn dadas por
P 1 2 3k
P
9
= 19
P (A) =
k=0 p( 3k+1 ) =
k=0 3 3
P
P 1 2 3k+1
6
P (B) =
= 19
k=0 p( 3k+2 ) =
k=0 3 3
P
P 1 2 3k+2
4
P (C) =
p(
)
=
= 19
3k+3
k=0
k=0 3 3

Ejemplo 5.13 (Problema de los 3 jugadores). Tres jugadores, P, Q y R, juegan partidas


por parejas en cada una de las cuales la probabilidad que cada jugador tiene de ganar es
1
; quien gane una partida juega con el otro jugador hasta que uno de los jugadores gane dos
2
partidas consecutivas, ganando entonces el juego. Suponiendo que comienzan jugando P contra
Q, calcule las probabilidades que cada uno tiene de ganar el juego.
Solucin
El experimento aleatorio E asociado con este problema puede verse como la realizacin de una
sucesin de ensayos de Bernoulli B1 , B2 , . . ., en donde B1 es xito si el jugador P gana la
primera partida y, para i 1, Bi+1 es xito si el jugador que gan la i-sima partida gana
tambin la que sigue. Con estas convenciones, el juego se termina en el momento en que
por primera vez se obtiene xito despus del primer ensayo. Entonces cada posible resultado
de este experimento puede representarse ya sea mediante una sucesin finita (F, . . . , F, S),
formada por fracasos consecutivos seguidos de un xito , o bien mediante una sucesin finita
(S, F, . . . , F, S), formada por un xito seguido de fracasos consecutivos a los cuales sigue un
xito, o bien mediante una sucesin infinita (F, F, . . .), formada exclusivamente por fracasos.
Denotemos por n al posible resultado (F, . . . , F, S) formado por n fracasos seguidos de un
xito y por 0n al posible resultado (S, F, . . . , F, S) formado por un xito seguido de n1 fracasos

5.1. ESPACIOS MUESTRALES INFINITOS NUMERABLES

97

consecutivos a los cuales sigue un xito. Entonces, de acuerdo con las reglas estudiadas en
las secciones anteriores, se puede asignar probabilidades p(n ) y p( n ) a cada n y 0n de la
siguiente manera:
p(n ) = p(1 p)n
p(0n ) = p2 (1 p)n1
en donde p es la probabilidad de xito en cada ensayo, es decir p = 12 . Ahora bien, como la
funcin de probabilidad es -aditiva, las probabilidades P (A), P (B) y P (C) de que P, Q y R
ganen, respectivamente, estn dadas por:
P
P 1 3k+4 P 1 3k+2
P
5
+ k=0 2
= 14
P (A) =
k=0 p( 3k+3 ) +
k=0 p( 3k+1 ) =
k=0 2
P
P
P 1 3k+2 P 1 3k+4
5
P (B) =
+ k=0 2
= 14
k=0 p( 3k+1 ) +
k=0 p( 3k+3 ) =
k=0 2
P
P
P 1 3k+3 P 1 3k+3 2
P (C) =
+ k=0 2
=7
k=0 p( 3k+2 ) +
k=0 p( 3k+2 ) =
k=0 2
El siguiente problema es especialmente importante por el papel que jug en el desarrollo de
la Teora de la Probabilidad.

Ejemplo 5.14 (Problema de la ruina del jugador). Dos jugadores, A y B, los cuales
poseen, respectivamente, a y b fichas, juegan partidas consecutivas, en cada una de las cuales
las probabilidades de que A y B ganen son, respectivamente, p y q = 1 p y de tal manera que
en cada una de ellas el perdedor dar una de sus fichas al vencedor. Si el ganador del juego
es aquel que en algn momento llegue a poseer la totalidad de fichas, qu probabilidad tiene
cada jugador de ganar el juego?4
Solucin
Obsrvese que este problema no cae dentro de la categora de problemas descritos en la proposicin 5.9, de manera que no podemos utilizarla para probar que, al igual en los otros problemas
que se han tratado en esta seccin, la propiedad de la aditividad numerable es consecuencia de
las otras propiedades de la funcin de probabilidad. Sin embargo, utilizando el mismo mtodo
que el utilizado en la demostracin de la proposicin 5.9, se puede mostrar que tambin en
este caso la propiedad de la aditividad numerable es consecuencia de las otras propiedades de
la funcin de probabilidad.
El uso directo de la propiedad de la aditividad numerable en la solucin de este problema da
lugar a una serie cuyo clculo no es evidente, as que resulta ms sencillo aplicar el mtodo
basado en probabilidades condicionales, el cual contiene, implcitamente, la propiedad de la
aditividad numerable.
Para z {0, . . . , a+b}, denotemos por pz a la probabilidad de que el jugador P quede arruinado
al comenzar con z fichas. Por la regla de la probabilidad total, tenemos, para z {1, . . . , a +
b 1}:
pz = ppz+1 + qpz1
Adems, p0 = 1 y pa+b = 0.
Esto establece una ecuacin en diferencias. Para resolverla la escribiremos en la siguiente
forma equivalente, la cual se obtiene escribiendo pz = pz (p + q):
q (pz pz1 ) = p (pz+1 pz )
4Este

problema fue propuesto a Pierre de Fermat por Blaise Pascal en el ao 1656.

98

5. LA ADITIVIDAD NUMERABLE

Consideremos dos casos. Supongamos primero que p = q, entonces se tiene:


p1 p0 = p2 p1 = = pa+b pa+b1 = c
en donde c es una constante. As que, para z {1, . . . , a + b}:
P
pz p0 = zk=1 (pk pk1 ) = cz
Por lo tanto, pz = p0 + cz = 1 + cz
1
y entonces:
Utilizando ahora la condicin pa+b = 0, se obtiene c = a+b

z
= a+bz
pz = p0 + cz = 1 a+b
a+b
En forma anloga, si, para z {0, . . . , a + b}, denotamos por qz a la probabilidad de que el
z
jugador Q quede arruinado al comenzar P con z fichas, se obtiene qz = a+b
.
En particular, se tiene pz + qz = 1, es decir, con probabilidad 1 alguno de los dos jugadores se
arruina.
Para el problema planteado inicialmente, en el cual el jugador P comienza con a fichas y el
b
.
jugador Q con b fichas, la probabilidad de ruina del jugador P es entonces a+b
Supongamos ahora p 6= q. En este caso tenemos, para z {1, . . . , a + b 1},
Q
Q
qz zk=1 (pk pk1 ) = pz zk=1 (pk+1 pk )
As que:
z
pz+1 pz = pq (p1 p0 )

y entonces, para z {1, . . . , a + b},


z
P
Pz1 q k
1( pq )
pz p0 = z1
(p

p
)
=
(p

p
)
=
(p

p
)
q
k+1
k
1
0
1
0
k=0
k=0 p
1
p

Por lo tanto:

pz = 1 + (p1 1)

1( pq )
1 pq

Utilizando ahora la condicin pa+b = 0, se obtiene p1 1 =


z

a+b

a+b

1( pq )

y entonces:

( pq ) ( pq )
a+b
q a+b
1( p )
1( pq )
En forma anloga, si, para z {0, . . . , a + b}, denotamos por qz a la probabilidad de que el
jugador Q quede arruinado al comenzar P con z fichas, se obtiene:
a+bz
a+b
z
( pq )
1( pq )
(p)
qz = q
=
a+b
a+b
1( pq )
1( pq )
En particular, tambin en este caso se tiene pz + qz = 1. Es decir, con probabilidad 1, alguno
de los dos jugadores se arruina.
Para el problema planteado inicialmente, en el cual el jugador P comienza con a fichas y el
a
a+b
( q ) ( q )
jugador Q con b fichas, la probabilidad de ruina del jugador P es entonces p q pa+b .
1( p )
Un caso interesante de este problema se obtiene al considerar un juego contra un jugador
inmensamente rico. En otras palabras, supongamos que b es muy grande.
Si p q, entonces, como es de esperarse, la probabilidad de ruina del jugador P tiende a 1
a medida que b crece. Pero si p > q entonces, cuando b crece, la probabilidad de ruina del
pz = 1

1( pq )

1 pq

5.2. PROBABILIDADES GEOMTRICAS

99

a
jugador P tiende a pq
< 1. En otras palabras, a pesar de tener una fortuna tan grande
como se quiera, la probabilidad de ruina del jugador Q es positiva, incluso esta probabilidad
1
, entonces bastara con que P comenzara con
podra ser cercana a 1. Por ejemplo si pq = 10
99
.
una fortuna a = 2 para que ya la probabilidad de ruina de Q fuera muy cercana a 100
5.2. Probabilidades geomtricas
Supongamos que tenemos una barra de extremos A y B y consideremos el siguiente experimento aleatorio: una bola W , la cual consideraremos sin dimensiones, es decir puntual, es
lanzada al azar sobre la barra, de manera que la bola queda sobre ella. Si imaginamos la barra
colocada sobre la recta real, de tal manera que los extremos de la barra correspondan a los
puntos A y B sobre la recta, este experimento equivale a la eleccin al azar de un punto en
el intervalo [A, B]. El espacio muestral asociado a este experimento es entonces el mismo
intervalo [A, B]. Ahora bien, si, como hemos considerado hasta este momento, cualquier subconjunto del espacio muestral representa un evento, entonces la construccin de un modelo
matemtico para este experimento consiste en la definicin de una funcin de probabilidad
P definida sobre la familia A formada por todos los subconjuntos de . La definicin de P
deber estar basada en el hecho de que la eleccin del punto sobre el intervalo [A, B] se
realiza al azar, lo cual podemos interpretar en el sentido de que dos subconjuntos
de [A, B] que se puedan sobreponer geomtricamente uno sobre el otro deben de
tener asignada la misma probabilidad.
Un problema del mismo tipo se puede plantear en el plano, en 3 dimensiones, o, de manera
ms general, en Rn . Por ejemplo, en R2 consideremos el experimento aleatorio consistente en
elegir al azar un punto al interior de un rectngulo, en R3 el de elegir al azar un punto al
interior de un paraleleppedo, etc. Si interpretamos la eleccin al azar en el mismo sentido
que antes, tendramos que buscar entonces una funcin de probabilidad definida sobre todos
los subconjuntos de la regin en donde se elige el punto, de tal manera que dos subconjuntos
que se puedan sobreponer geomtricamente uno sobre el otro tengan asignada la misma probabilidad. Debido a la caracterizacin geomtrica de lo que significa la eleccin al azar, este
tipo probabilidades reciben el nombre de probabilidades geomtricas.
El problema que se plantea en estos casos consiste en llevar a cabo el proceso de asignacin
de probabilidades a todos los subconjuntos de la regin en donde se elige el punto al azar.
Consideremos, por ejemplo, el problema en una dimensin5, es decir, supongamos que el
experimento aleatorio consiste en la eleccin al azar de un punto dentro del intervalo [A, B].
Para cada punto x [A, B], definamos el evento Ax : la bola cae en el punto x.
Demostremos en primer lugar que la probabilidad del evento Ax es cero para cualquier x.
En efecto, sea > 0 un nmero arbitrariamente pequeo y dividamos el segmento AB en N
partes iguales de longitud menor que . Sean A = x0 < x1 < < xN = B los puntos de la
subdivisin y, para i {0, . . . , N 1}, definamos los siguientes eventos:
Ai : la bola cae en el intervalo [xi , xi+1 ).6
5Los
6Si

resultados para el caso de 2 o ms dimensiones son similares.


x = B, consideramos intervalos de la forma (xi , xi+1 ].

100

5. LA ADITIVIDAD NUMERABLE

Los eventos Ai son mutuamente excluyentes y tienen una probabilidad comn p pues se pueden
sobreponer uno sobre el otro, de manera que tenemos Np 1, es decir p N1 < . Sea entonces
A el evento Ai correspondiente al intervalo [xi , xi+1 ) que contiene a x. Evidentemente se tiene
P (Ax ) P (A) < y siendo arbitrariamente pequea obtenemos P (Ax ) = 0.
Sean ahora a < b dos puntos cualesquiera en el intervalo [A, B]. Para cada > 0, arbitrariamente pequea, consideremos una subdivisin del intervalo [A, B] del tipo descrito
anteriormente, de tal manera que los puntos a y b queden en distintos subintervalos. Sean
[y0 , y1 ) y [z1 , z0 ) los subintervalos en los cuales quedan comprendidos a y b respectivamente7.
A

y0 a y1

z1 b z0

Consideremos entonces los siguientes eventos:


B: la bola cae en el intervalo (a, b).
C: la bola cae en el intervalo (y1 , z1 ).
D: la bola cae en el intervalo (y0 , z0 ).
Bi : la bola cae en el intervalo (xi , xi+1 ).
Evidentemente se tiene P (C) P (B) P (D).
Ahora bien, los eventos Bi son mutuamente excluyentes y tienen una probabilidad comn
p. Adems, la bola W cae en algn punto del intervalo [A, B] con probabilidad 1 y se ha
demostrado que P (Ax ) = 0. Con base en esto se tiene:
P (Bi ) = N1 = xi+1lxi
en donde l es la longitud del intervalo [A, B].
Por otra parte, los intervalos (y1 , z1 ) y (y0 , z0 ) son unin de un nmero finito de puntos y de
un nmero finito de intervalos (xi , xi+1 ), los cuales son ajenos; por lo tanto, tenemos tambin:
1
P (C) = z1 y
l
0
P (D) = z0 y
l
As que:
z1 y1
0
P (B) z0 y
l
l
Pero como cada subintervalo tiene una longitud menor que , se tiene:
z1 y1 > (b a) 2
z0 y0 < (b a) + 2
Entonces:
ba
2l < P (B) < ba
+ 2l
l
l
Siendo arbitrariamente pequea, se obtiene finalmente:
P (B) = ba
l
Se concluye entonces que la condicin de que la eleccin se realiza al azar determina de manera
nica la probabilidad de cada subintervalo del intervalo [A, B], la cual es igual a la longitud
de dicho subintervalo dividida por la longitud total del segmento en donde se elige el punto.

7Si

b = B, consideramos intervalos de la forma ]xi , xi+1 ].

5.2. PROBABILIDADES GEOMTRICAS

101

La pregunta que viene ahora es hasta dnde se podr continuar este proceso de asignacin
de probabilidades, de manera nica, a los subconjuntos del intervalo [A, B]?
En el caso de elecciones al azar en el plano, se puede ver ms claramente como llevar ms lejos
el proceso de asignacin de probabilidades de manera nica.
Sea R un rectngulo en el plano y consideremos el experimento aleatorio consistente en elegir
al azar un punto al interior de R. En forma anloga al caso de una dimensin, se demuestra
sin dificultad que la probabilidad de que el punto seleccionado sea un punto determinado o
pertenezca a un segmento horizontal o vertical dentro de R, es igual a cero. Tambin, la
probabilidad de que pertenezca al interior de un rectngulo contenido en R es igual al rea de
dicho rectngulo dividida por el rea de R.
Sea ahora S cualquier regin contenida en R y sea A el evento el punto seleccionado pertenece
a la regin S.

S
R
Partamos tanto la base como la altura de R en n partes iguales y sobre cada una de ellas
tracemos lneas verticales y horizontales, respectivamente, que corten a R. Esto determina
una particin de R en rectngulos. Considerando que la funcin de probabilidad es finitamente
aditiva, la probabilidad del evento A, en caso de que est bien definida, queda acotada, por
abajo, por la suma de las reas de los rectngulos contenidos en la regin S, dividida por el
rea de R, y por arriba, por la suma de las reas de los rectngulos que contienen puntos de S,
dividida por el rea de R. Por lo tanto, cuando esas sumas tienden a un lmite comn cuando
n tiende a , ese lmite comn, dividido por el rea de R, es la probabilidad del evento A.
Se puede demostrar la coincidencia de los lmites antes mencionados cuando S es cualquier
regin con un rea bien definida con los mtodos basados en la integral de Riemann que se
estudian en los primeros cursos de Clculo y, adems, ese lmite comn es precisamente el
rea de S.
De esta manera, hemos llegado a la determinacin de probabilidades geomtricas en el plano
para regiones S con un rea bien definida: la probabilidad de que el punto seleccionado
pertenezca a la regin S es igual al cociente del rea de S entre el rea de R. Obsrvese que
para tener este resultado es suficiente con que sea vlido para el caso en que la regin S es
rectangular.
Ejemplo 5.15 (Problema del encuentro). Dos personas P y Q se citan en un determinado
lugar entre las 11 y las 12 de la maana, acordando que aquella que llegue primero esperar a
la otra a lo ms 20 minutos y en ningn caso despus de la 12. Suponiendo que cada persona

102

5. LA ADITIVIDAD NUMERABLE

llega a la cita en un tiempo al azar entre las 11 y las 12 de manera que los tiempos de llegada
son independientes uno del otro, calcule la probabilidad de que las dos personas se encuentren
en el lugar de la cita.
Solucin
Los posibles tiempos de llegada a la cita los podemos representar por parejas de puntos (x, y), en
donde x, y son los tiempos en que llegan P y Q, respectivamente. Si estos tiempos los contamos
en minutos a partir de las 12, los posibles tiempos de llegada quedarn representados por todos
los puntos de un cuadrado de lado 60 sobre el plano.

60
50
40
y
30
20
10
0

10

20

30 x 40

50

60

Sean 0 < a < b < 60 y A el evento P llega entre los tiempos a y b. Por las hiptesis, se
tiene: P (A) = ba
.
60
Sea tambin 0 < c < d < 60 y B el evento Q llega entre los tiempos c y d. Por las hiptesis,
.
tenemos: P (B) = dc
60
Ahora bien, siendo los tiempos de llegada independientes, tenemos: P (A B) =

(ba)(dc)
.
(60)2

Es decir, la probabilidad de que las llegadas de P y Q estn comprendidas en el rectngulo


(a, b) (c, d) es igual al rea del rectngulo dividida por el rea total del cuadrado. Entonces,
como dijimos antes, la probabilidad de un evento determinado por una regin S dentro del
cuadrado es igual al rea de la regin S dividida entre el rea del cuadrado.
Para que las dos personas se encuentren en el lugar de la cita es necesario y suficiente que
|x y| 20; por lo tanto el evento del cual deseamos calcular la probabilidad est representado
por los puntos con esa propiedad, los cuales conforman la regin S sombreada de la siguiente
figura:

70
60
50
40
y
30
20
10
0

10

20

30 x 40

50

60

70

5.2. PROBABILIDADES GEOMTRICAS

103

El rea de esta regin es (60)2 (40)2 ; por lo tanto llamando A al evento P y Q se encuentran
en el lugar de la cita, tenemos:
P (A) =

(60)2 (40)2
(60)2

=1

4
9

5
9

Ejemplo 5.16 (Paradoja de Bertrand). Se traza una cuerda al azar en un crculo; cul
es la probabilidad de que la longitud de la cuerda sea mayor que la longitud comn de cada
lado de un tringulo equiltero inscrito al crculo?
Solucin
La aparente paradoja proviene del hecho de que, al interpretar de diferentes maneras lo que
significa trazar al azar una cuerda del crculo, se obtienen distintos valores de la probabilidad
buscada. En efecto, resolveremos a continuacin el problema planteado para algunas de esas
interpretaciones. Siendo irrelevante la magnitud del radio del crculo, supondremos que ste
es igual a 1.
a) Trazar una cuerda al azar puede interpretarse como equivalente a elegir dos puntos sobre
el crculo de manera que las elecciones sean independientes y que, al elegir cada punto, hay
la misma probabilidad de que ste est comprendido en cualquiera de dos arcos de la misma
longitud sobre el crculo.
La longitud de la cuerda exceder la longitud del lado del tringulo inscrito si y slo si la
longitud del arco que une A con B en cualquier direccin es mayor que la tercera parte del
permetro del crculo. Entonces el problema es equivalente a elegir al azar dos puntos x, y del
intervalo [0, 2] y queremos calcular la probabilidad de que se tenga 4
|y x| 2
. Esta
3
3
probabilidad la podemos encontrar calculando el rea de la regin sombreada de la siguiente
figura:

7
6
5
4
y
3
2
1
0

Esta rea es igual a


tenemos p =

42
3

(2)2

4 2
3

1
3

2 2
3

4 2
;
3

3 x 4

por lo tanto, llamando p a la probabilidad buscada,

b) Rotando el crculo despus de la eleccin de la cuerda, podemos hacer que un extremo de


la cuerda est fijo de antemano; de esta manera se trata solo de elegir al azar un punto sobre
la circunferencia. Fijando el primer punto en el origen, la longitud de la cuerda exceder
la longitud del lado del tringulo equiltero inscrito cuando el segundo punto se elija en el

104

5. LA ADITIVIDAD NUMERABLE

intervalo [ 2
, 4
], cuya longitud es 13 de la longitud de la circunferencia; es decir, se obtiene
3
3
1
tambin p = 3 .
Obsrvese que este resultado es independiente del punto que se fije, lo cual se puede ver en
la figura hecha para el caso a; ah, fijo un punto x sobre el eje horizontal, obtenemos la
probabilidad buscada trazando una vertical y dividiendo la longitud de la parte en que sta
intersecta la regin sombreada entre 2, que es la longitud de todo el intervalo en el cual se
puede elegir el segundo punto.
c) Rotando el crculo despus de elegir la cuerda, siempre podemos hacer que la cuerda quede
en una direccin determinada de antemano, digamos en la direccin del eje x.
A

B
-1

C
-1

D
La cuerda elegida tendr una longitud mayor a la longitud del tringulo equiltero inscrito
siempre que caiga dentro de la regin sombreada de la figura.
Ahora bien, la cuerda puede quedar determinada de varias maneras: 1o. eligiendo al azar un
punto sobre el semicrculo ABCD y trazando por l una cuerda horizontal. En ese caso la
cuerda queda en la regin sombreada si y slo si el punto se elige sobre el arco BC cuya longitud
es la tercera parte del semicrculo, es decir, en este caso se obtiene p = 13 ; 2o. eligiendo al
azar un punto sobre el intervalo [1, 1] sobre el eje y y trazando por l una cuerda horizontal,
en ese caso la cuerda queda en la regin sombreada si y slo si el punto se elige sobre el
intervalo [ 12 , 12 ], cuya longitud es la mitad de la de todo el intervalo, es decir, en este caso se
obtiene p = 12 ; 3o. eligiendo al azar un punto dentro del crculo y trazando por l una cuerda
horizontal, en este caso la cuerda queda en la regin sombreada si
y slo si el punto se elige

dentro de sta, as que, siendo el rea de la regin sombreada 3 + 2 , dividiendo esta


cantidad

1
3
entre el rea total del crculo, obtendremos la probabilidad buscada; es decir p = 3 + 2 0.69.
d) Una cuerda de un crculo queda determinada por su punto medio, entonces la eleccin al
azar de la cuerda puede interpretarse como la eleccin al azar de su punto medio dentro del
crculo. Estando el punto medio del lado de un tringulo equiltero inscrito a una distancia
del centro igual a la mitad del radio, la cuerda tendr una longitud mayor a la del lado del
tringulo equiltero inscrito siempre que su punto medio caiga dentro de un crculo concntrico
con el original y de radio 12 . El rea de este segundo crculo es la cuarta parte del rea del
crculo original, as que en este caso se tiene p = 14 .

5.3. SUCESIONES INFINITAS DE ENSAYOS DE BERNOULLI

105

5.3. Sucesiones infinitas de ensayos de Bernoulli


Consideremos el experimento aleatorio consistente en realizar una sucesin infinita de ensayos
de Bernoulli, independientes uno de otro, en cada uno de los cuales la probabilidad de xito
es igual a p, en donde 0 < p 1.
Cada posible resultado de este experimento puede representarse mediante una sucesin infinita
formada por xitos y fracasos del tipo (F, F, S, F, S, S, S, F, . . .). Denotemos por a la
sucesin formada exclusivamente por fracasos y por 0 al conjunto de todas las otras sucesiones
que componen el espacio muestral.
La ocurrencia del evento { } implica que, dado cualquier n N, en los primeros n lanzamientos se obtiene fracaso, de manera que
P ({ }) (1 p)n , para toda n N
As que, P ({ }) = 0. Por lo tanto, P (0 ) = 1. Lo cual significa que la probabilidad de
obtener por lo menos un xito es igual a 1.
Obsrvese que el resultado dice tambin que la probabilidad de obtener el primer xito en un
nmero finito de ensayos es igual a 1.
Al aplicar esta propiedad, aparentemente tan simple, se obtienen resultados que pueden parecer sorprendentes. Tomemos, por ejemplo, la obra Hamlet de Shakespeare y determinemos el
conjunto C de caracteres tipogrficos que ah se utilizan (incluyendo el espacio blanco), as
como el nmero total T de caracteres fsicamente distintos que se utilizan en la obra. Supongamos ahora que una persona escribe una secuencia de T caracteres, cada uno seleccionado al
azar del conjunto C. La probabilidad de que esa secuencia de T caracteres coincida exacta T
mente con la obra de Shakespeare resulta ser igual a p = m1 , en donde m es el nmero de
elementos que hay en C. Esta probabilidad p, aunque es extremadamente pequea, es positiva.
Supongamos ahora que el experimento consistente en escribir una secuencia de T caracteres,
cada uno seleccionado al azar del conjunto C, se repite indefinidamente, siendo cada repeticin
independiente de las dems. En cada repeticin de este experimento, definamos xito al hecho
de obtener, en esa repeticin, una secuencia de T caracteres que coincida exactamente con la
obra de Shakespeare. Tendremos entonces una sucesin de ensayos de Bernoulli, independientes, en cada uno de los cuales la probabilidad de xito es igual a p. La relacin P (0 ) = 1
nos dice entonces que la probabilidad de que en algn momento una de las secuencias de T
caracteres coincida exactamente con la obra de Shakespeare es igual a 1.

106

5. LA ADITIVIDAD NUMERABLE

De igual forma, consideremos el experimento aleatorio consistente en realizar n ensayos de


Bernoulli, independientes uno de otro, en cada uno de los cuales la probabilidad de xito es
igual a p, en donde 0 < p 1. La probabilidad de obtener xito en todos los ensayos es
entonces igual a pn > 0.
Supongamos ahora que este experimento se repite indefinidamente, siendo cada repeticin
independiente de las dems. En cada repeticin de este experimento, definamos xito al
hecho de obtener, en esa repeticin, n xitos. Tendremos entonces una sucesin de ensayos
de Bernoulli, independientes, en cada uno de los cuales la probabilidad de xito es igual a
pn . La relacin P (0 ) = 1 nos dice entonces que la probabilidad de que en algn momento
se obtenga una secuencia de n xitos es igual a 1. De esta manera, por ejemplo, no debe ser
sorprendente el que en alguna ocasin una persona lance una moneda balanceada 100 veces y
obtenga nicamente caras.
En general, sorprende que un evento de probabilidad muy pequea ocurra. Sin embargo, por
lo mencionado antes, la probabilidad de que tal evento ocurra por lo menos una vez en una
sucesin de repeticiones independientes del correspondiente experimento aleatorio, es igual a
1. En contraparte, el nmero de ensayos que deban realizarse, en promedio, hasta obtener la
ocurrencia de dicho evento, puede ser muy grande. Este punto se analizar con ms detalle
en el captulo 9.
En realidad, cuando un resultado parece sorprendente es porque se est comparando un grupo
de resultados con otro grupo distinto. Por ejemplo, la obtencin de una secuencia de 100
caras al lanzar al aire 100 veces una moneda no debera ser sorprendente pues ese es uno
de los posibles resultados que pueden obtenerse y todos ellos tienen la misma probabilidad
de ocurrencia. Sin embargo dicho resultado puede parecer sorprendente al hacer diferentes
tipos de comparaciones. Desde el punto de vista de la frecuencia de caras que se obtienen,
es sorprendente pues el conjunto de posibles resultados con una frecuencia cercana a 12 tiene
una probabilidad bastante ms alta que la correspondiente al conjunto de resultados cuya
frecuencia difiere sustancialmente de 12 . Desde el punto de vista de la regularidad de la
secuencia, es sorprendente pues el conjunto de posibles resultados con una regularidad visible
es bastante ms pequeo que los que no presentan una regularidad a simple vista, de manera
que el primer grupo tiene una probabilidad ms pequea que el segundo.
De hecho, muchos mtodos estadsticos estn basados en las ideas expresadas arriba. Por
ejemplo, para realizar una prueba de hiptesis se selecciona un conjunto de posibles resultados
de tal manera que, bajo el supuesto de que la hiptesis es verdadera, su probabilidad es
pequea, y se adopta el criterio de rechazar la hiptesis si se obtiene un resultado de ese
grupo. El criterio no garantiza que una hiptesis verdadera no va a ser rechazada pues, siendo
verdadera es posible que ocurra uno de los posibles resultados del grupo que se est utilizando
como criterio de rechazo, sin embargo, la pequeez de la probabilidad de ese conjunto garantiza
que la probabilidad de rechazar una hiptesis verdadera es pequea. Hasta aqu cualquier
conjunto de probabilidad pequea es igualmente til como criterio de rechazo, sin embargo
se tiene que buscar tambin que la probabilidad de rechazar una hiptesis falsa sea alta. Los
mtodos para lograr esto pertenecen al campo de la Estadstica Matemtica.
Regresando al estudio de las sucesiones infinitas de ensayos de Bernoulli independientes, se
puede decir todava ms. Para m, k N, Definamos los eventos:
Am : Se obtienen menos de m xitos.

5.4. EL PROBLEMA DE LA MEDIDA

107

Bk : En los primeros k m ensayos se obtienen menos de m xitos.


Si se obtiene xito en cada uno de los primeros m ensayos, entonces ocurre B1c , as que pm
P (B1c ). Por lo, tanto, P (B1 ) 1 pm . De la misma manera, para k 2, P (Bk | Bk1 )
1 pm , as que:

c
c
)
P (Bk ) = P (Bk | Bk1 ) P (Bk1 ) + P Bk | Bk1
P (Bk1
= P (Bk | Bk1 ) P (Bk1 ) (1 pm )P (Bk1 )
Por lo tanto, P (Bk ) (1 pm )k .
Ahora bien, si Am ocurre, entonces ocurre Bk para cualquier k, as que P (Am ) (1 pm )k
para cualquier k. Por lo tanto, P (Am ) = 0. Lo cual significa que la probabilidad de obtener
por lo menos m xitos es igual a 1.
Si suponemos que la funcin de probabilidad es -aditiva, se puede enunciar un resultado
todava ms fuerte. Definamos el evento:
A: se produce nicamente un nmero finito de xitos.
Entonces, la sucesin de eventos A1 , A2 , . . . es montona creciente y su unin es A. Se tiene
entonces:
S
A=
m=1 Am = A1 (A2 A1 ) (A3 A2 )
As que:
P (A) = P (A1 ) + P (A2 A1 ) + P (A3 A2 ) + = 0
Por lo tanto, con probabilidad 1, se produce una infinidad de xitos.

5.4. El problema de la medida


Consideremos el experimento aleatorio consistente en la eleccin al azar de un punto en el
intervalo [0, 1]. Como dijimos antes, si cualquier subconjunto del espacio muestral representa
un evento, la construccin de un modelo matemtico para este experimento consiste en la
definicin de una funcin de probabilidad P definida sobre la familia A formada por todos
los subconjuntos del intervalo [0, 1]. Ya vimos que la condicin de que la eleccin se realiza
al azar determina de manera nica la probabilidad de cada subintervalo del intervalo [0, 1],
la cual es igual a la longitud de dicho subintervalo. Sin embargo, an no tenemos el modelo
completo pues no hemos asignado una probabilidad a cada subconjunto del intervalo [0, 1].
Por otra parte, la funcin de probabilidad que queremos definir debe de tener la propiedad
de que dos subconjuntos del intervalo [0, 1] que se puedan sobreponer geomtricamente uno
sobre el otro deben de tener asignada la misma probabilidad.
En el ao 1902, Henri Lon Lebesgue ([9]) se plante un problema similar al que queremos
resolver. e manera especfica, bautiz como el problema de la medida al consistente en
encontrar una funcin m definida sobre todos los subconjuntos acotados de nmeros reales y
satisfaciendo las siguientes condiciones:
(i)
(ii)
(iii)
(iv)

m es no negativa.
m es -aditiva.
m([0, 1]) = 1.
m es invariante bajo traslaciones.

108

5. LA ADITIVIDAD NUMERABLE

Este problema fue atacado por diferentes personas, en particular por Giuseppe Vitali, quien
demostr en 1905 que el problema de la medida de Lebesgue no tiene solucin ([13]).
El resultado de Vitali provoc algo de insatisfaccin pues de lo que se trata es de definir
una funcin, llamada medida, que permita extender el concepto de longitud de un intervalo
a todos los subconjuntos acotados de nmeros reales, de tal manera que se satisfagan ciertas
propiedades que razonablemente podran esperarse para esta funcin. El resultado de Vitali
plante una disyuntiva, o bien se aceptan como razonables las condiciones i, ii, iii y iv y
entonces se restringe la familia de conjuntos a los cuales se les puede asignar una medida,
o bien se buscan condiciones menos restrictivas para la funcin m de tal manera que pueda
definirse para cualquier subconjunto acotado de nmeros reales.
En la bsqueda de alternativas para el problema de la medida, otros matemticos lo estudiaron
considerando diferentes modificaciones. Los resultados en este sentido son los siguientes:
Felix Hausdorf ([5]) propuso en 1914 el problema de la medida en sentido amplio, el cual
consiste en encontrar una funcin m definida sobre todos los subconjuntos acotados de nmeros
reales y que satisfaga las siguientes condiciones:
(i)
(ii)
(iii)
(iv)

m es no negativa.
m es finitamente aditiva.
m([0, 1]) = 1.
m es invariante bajo traslaciones.

Stefan Banach demostr en 1923 que este problema, as como el problema anlogo en dos
dimensiones, s tiene solucin ([1]). Sin embargo, el mismo Hausdorf haba demostrado que
el problema anlogo en tres o ms dimensiones no tiene solucin.
Banach y Kazimierz Kuratowski se plantearon en 1929 el problema de encontrar una funcin m definida sobre todos los subconjuntos el intervalo [0, 1] y satisfaciendo las siguientes
condiciones:
(i) m es no negativa.
(ii) m es -aditiva.
(iii) Si I es un intervalo, entonces m(I) es igual a la longitud de I.
El resultado de Banach y Kuratowski fue que tal problema no tiene solucin ([2]). Esto
sorprendi a muchos, por ejemplo a Paul Pierre Lvy quien pensaba que, al quitar a la
medida la condicin de ser invariante bajo traslaciones, es posible asignar una medida a todos
los subconjuntos de nmeros reales ([10]).
Alfred Tarski atac en 1930 el problema de la medida en sentido amplio plantendose el
problema de encontrar una funcin m definida sobre todos los subconjuntos del intervalo [0, 1]
y satisfaciendo las siguientes condiciones:
(i) m es no negativa.
(ii) m es finitamente aditiva.
(iii) Si I es un intervalo, entonces m(I) es igual a la longitud de I.
Tarski mostr que tal problema, as como el anlogo en dos o ms dimensiones, s tiene
solucin. Sin embargo, mostr tambin que la solucin no es nica ([12]).

5.4. EL PROBLEMA DE LA MEDIDA

109

Volviendo a nuestro problema de asignar una probabilidad a cada subconjunto del intervalo
[0, 1] de tal manera que dos subconjuntos del intervalo [0, 1] que se puedan sobreponer geomtricamente uno sobre el otro tengan asignada la misma probabilidad, vemos, a la luz de
los resultados anteriores, que ste no tiene solucin si se quiere una funcin de probabilidad
que sea -aditiva, en cambio, si nicamente se quiere una funcin de probabilidad finitamente
aditiva, el problema s tiene solucin, aunque, an en ese caso, el problema anlogo en tres
dimensiones no lo tiene. De esta manera se puede concluir que la invariancia geomtrica es
muy restrictiva. Sustituyendo sta por la condicin de que un intervalo tenga asignada una
probabilidad igual a su longitud, vemos que, si se quiere una funcin de probabilidad que
sea -aditiva, el problema tampoco tiene solucin. Por otra parte, si nicamente se quiere
una funcin de probabilidad finitamente aditiva, el problema s tiene solucin, pero sta no es
nica.
La conclusin que se deriva de estos resultados es que los experimentos descritos no pueden
ser modelados dentro del marco que hemos considerado hasta este momento. Por lo tanto, se
debe de tomar una de dos alternativas, o bien se renuncia a modelar este tipo de experimentos
o bien se cambia alguna o algunas de las caractersticas del modelo.
Hemos visto que la modelacin de experimentos consistentes en elecciones al azar, de los
elementos de un conjunto finito, ha jugado un papel central para poder construir modelos
probabilsticos en el caso general de experimentos aleatorios que admiten nicamente un conjunto finito de posibles resultados, e incluso para aquellos que admiten un conjunto infinito
numerable. La misma situacin se presenta en el caso de experimentos aleatorios que admiten
una infinidad no numerable de posibles resultados, la modelacin de experimentos consistentes en elecciones al azar juega tambin un papel central en la construccin de modelos
probabilsticos en general. Adems, se puede mostrar que el problema planteado para el caso
de elecciones al azar se presenta en prcticamente todos los casos de experimentos aleatorios
en donde el conjunto de posibles resultados es infinito no numerable. Por tal motivo, la renuncia a modelar tales tipos de experimentos empobrecera mucho la teora desarrollada. De
esta manera, la alternativa que queda consiste en relajar las caractersticas que se piden a la
funcin de probabilidad.
Es posible tomar como modelo el que incluya una funcin de probabilidad que sea nicamente
finitamente aditiva de tal manera que, para el experimento aleatorio planteado, se pueda
asignar una probabilidad a cualquier subconjunto del intervalo [0, 1]. Con esta opcin se
estara renunciando a la unicidad en la asignacin de probabilidades. Esta opcin es la que se
toma, por ejemplo, en la Estadstica Bayesiana. Sin embargo, en el enfoque clsico de la Teora
de la Probabilidad se busca que cada evento tenga asignada una probabilidad de manera nica.
Esto hace que la opcin de tomar una funcin de probabilidad que sea nicamente finitamente
aditiva tampoco resulte satisfactoria.
Abundando en el problema de la unicidad, se puede mostrar que si se quiere definir una funcin
de probabilidad P -aditiva, esta funcin queda nicamente determinada sobre una familia L
de subconjuntos del intervalo [0, 1], la cual tiene las siguientes propiedades:

(i) Si I es cualquier subintervalo del intervalo [0, 1], entonces I L.


(ii) Si A es un subconjunto del intervalo [0, 1] tal que A L, entonces [0, 1] A L.

110

5. LA ADITIVIDAD NUMERABLE

(iii) S
Si A1 , A2 , . . . es una coleccin finita, o infinita numerable, de elementos de L, entonces
Ak L.
k

Por otra parte, si se quiere definir una funcin de probabilidad P finitamente aditiva, se puede
mostrar que esta funcin queda nicamente determinada sobre una familia J de subconjuntos
del intervalo [0, 1], la cual tiene las siguientes propiedades:
(i) Si I es cualquier subintervalo del intervalo [0, 1], entonces I J .
(ii) Si A es un subconjunto del intervalo [0, 1] tal que A J , entonces [0, 1] A J .
n
S
(iii) Si A1 , . . . , An es una coleccin finita de elementos de J , entonces
Ak J .
k=1

Evidentemente la familia L contiene a la familia J pues una funcin de probabilidad -aditiva


tambin es finitamente aditiva. Tal contencin es propia. En efecto, se puede mostrar que hay
subconjuntos del intervalo [0, 1] que pertenecen a L pero no a J . Por ejemplo, la probabilidad
de un subconjunto del intervalo [0, 1] que sea infinito numerable no queda determinada de
manera nica si nicamente se cuenta con la propiedad de la aditividad finita, en cambio,
asumiendo que la funcin de probabilidad es -aditiva, la probabilidad de tal subconjunto
queda nicamente determinada y es igual a cero pues los conjuntos formados por un punto
tienen probabilidad igual a cero.
Vemos as que el proceso de asignacin de probabilidades, de manera nica, a los subconjuntos
del espacio muestral se puede llevar ms lejos con una funcin de probabilidad -aditiva que
con una que sea simplemente finitamente aditiva. Esta es una de las razones bsicas por las
cuales se prefiere adoptar como modelo matemtico para los experimentos aleatorios el que
incluye la -aditividad de la funcin de probabilidad.
5.5. Espacios de Probabilidad
Lo expuesto en las secciones anteriores de este captulo motiva las siguientes definiciones:
Definicin 5.17 (lgebra de conjuntos). Sea un conjunto. Se dice que una familia A
de subconjuntos de es un lgebra si se satisfacen las siguientes condiciones:
(i) A.
(ii) Si A A entonces Ac A.

(iii) Si A1 , . . . , An es cualquier familia finita de elementos de A, entonces

n
S

k=1

Ak A.

Definicin 5.18 (-lgebra). Sea un conjunto. Se dice que una familia A de subconjuntos
de es una -lgebra si es un lgebra y dada cualquier coleccin numerable de elementos de

S
A, A1 , A2 , . . ., entonces
Ak A.
k=1

Definicin 5.19 (Funcin finitamente aditiva sobre un lgebra). Sea un conjunto


y A un lgebra de subconjuntos de . Se dice que una funcin P : A 7 R es finitamente
aditiva si dada cualquier familia finita, A1 , . . . , An , de elementos de A tal que Ai Aj =
n
P
S
para i 6= j, entonces P ( Ak ) = nk=1 P (Ak ).
k=1

5.5. ESPACIOS DE PROBABILIDAD

111

Definicin 5.20 (Funcin -aditiva sobre un lgebra). Sea un conjunto y A un lgebra


de subconjuntos de . Se dice que una funcin P : A 7 R es -aditiva si es finitamente aditiva
y dada cualquier familia numerable, A1 , A2 , . . ., de elementos de A tal que Ai Aj = para

S
S
P
Ak A, entonces P ( Ak ) =
i 6= j y
k=1 P (Ak ).
k=1

k=1

Definicin 5.21 (Funcin -subaditiva). Sea un conjunto y A un lgebra de subconjuntos de . Se dice que una funcin P : A 7 R es -subaditiva, o que satisface la propiedad de
la subaditividad numerable,Ssi dada cualquier
S familia
Pfinita o infinita numerable, A1 , A2 , . . .,
de elementos de A tal que k Ak A, P ( k Ak ) k P (Ak ).

Debe de observarse que, en general, la -aditividad no es una consecuencia de la aditividad


finita. Consideremos, por ejemplo, el lgebra A formada por los subconjuntos de los nmeros
naturales que son finitos o de complemento finito y definamos la funcin P : A 7 [0, 1]
mediante las relaciones: P (A) = 0 si A es finito y P (A) = 1 si Ac es finito. Tal funcin
es finitamente aditiva pero no -aditiva. Ms an, se puede mostrar ([4]) que P puede
extenderse (no de manera nica) a una funcin finitamente aditiva definida sobre la familia
de todos los subconjuntos de los nmeros naturales. Tal extensin, la cual est definida sobre
una -lgebra, resulta entonces ser finitamente aditiva, pero no -aditiva.
Definicin 5.22 (Medida de probabilidad). Sea un conjunto y A una -lgebra de
subconjuntos de . Se dice que una funcin P : A 7 R es una medida de probabilidad si se
satisfacen las siguientes propiedades:
(i) P (A) 0 para todo evento A.
(ii) P () = 1.
(iii) P es -aditiva.
De acuerdo con lo dicho en la seccin anterior, un experimento aleatorio ser modelado por
una terna (, A, P ), en donde es un conjunto, A una -lgebra de subconjuntos de y
P una medida de probabilidad definida sobre A. Una terna de este tipo ser llamada un
espacio de probabilidad. Este modelo est basado en la formulacin axiomtica de la
Teora de la Probabilidad dada por Andrey Nikolaevich Kolmogorov en el ao 1933 ([8]). En
su artculo, Kolmogorov mostr que la -aditividad admite un tratamiento matemtico slido,
convenciendo as al medio matemtico de aceptarla como una propiedad razonable del modelo
probabilstico de cualquier experimento aleatorio.
El siguiente resultado muestra que la -aditividad se puede formular de diferentes maneras,
todas ellas equivalentes.

Proposicin 5.23. Sea un conjunto, A un lgebra de subconjuntos de y P una funcin


finitamente aditiva definida sobre A. Las siguientes propiedades son equivalentes:
(i) P es -subaditiva.
(ii) P es -aditiva.
(iii) Para S
cualquier coleccin infinitaSA1 , A2 , . . . de elementos de A tales que A1 A2

... y
mn P (An ).
n=1 An A, se tiene P ( n=1 An ) = l
(iv) Para T
cualquier coleccin infinitaTA1 , A2 , . . . de elementos de A tales que A1 A2

... y
mn P (An ).
n=1 An A, se tiene P ( n=1 An ) = l

112

5. LA ADITIVIDAD NUMERABLE

(v) Para T
cualquier coleccin infinita A1 , A2 , . . . de elementos de A tales que A1 A2
... y
mn P (An ) = 0.
n=1 An = , se tiene l
Demostracin
i ii
Supongamos que P es -subaditivaSy sea A1 , A2 , . . . una coleccin numerable de elementos de
A, ajenos por parejas y tales que j Aj A. Se tiene:
S
P
S
P
P ( j Aj ) nk=1 P (Aj ) para cualquier n N, as que P ( j Aj )
k=1 P (Aj ).
Por lo tanto, P es -aditiva.
Supongamos ahora
numerable
de elementos
S
S
S que P es -aditiva y seaSA1 , A2 , . . . una coleccin
A
,
entonces
A
=
B
,
as
que:
de A tales que j Aj A. Sea Bn = An n1
j
j j
j j
S
S
P
P j=1
P ( j Aj ) = P ( j Bj ) = k=1 P (Bj ) k=1 P (Aj )
ii = iii
Supongamos queSP es -aditiva y sea A1 , A2 , . . . una coleccin de elementos de A tales que
A1 A2 . . . y
n=1 An A, entonces:
S
n=1 An = A1 (A2 A1 ) (A3 A2 )
As que:
P
P
S
mn nk=1 P (Ak Ak1 ) = lmn P (An )
P(
n=1 An ) =
k=1 P (Ak Ak1 ) = l
en donde A0 = .
iii = iv es inmediato tomando complementos.
iv = v es inmediato pues v es un caso particular de iv.
v = ii.
de elementos de A, ajenos porT parejas y tales que
Sea A1 , A2 , . . . una coleccin
S
S numerable
Sn

A.
Sea
B
=
A

A
n
j=1 j
j=1 j , entonces B1 B2 . . . y
n=1 Bn = . Por lo
j j
tanto, lmn P (Bn ) = 0, as que:
S
P
P
S
mn P ( nj=1 Aj ) = lmn nk=1 P (Aj ) =
P(
j=1 Aj ) = l
k=1 P (Aj )

5.5.1. Teorema de clases montonas. Si es un conjunto arbitrario, se pueden definir


distintas -lgebras de subconjuntos de . Por ejemplo, si A es cualquier subconjunto de ,
la familia A = {, , A, Ac } constituye una -lgebra de subconjuntos de . Tambin la
familia formada por todos los subconjuntos de constituye una -lgebra.
Definicin 5.24 (Interseccin de -lgebras). Dado un conjunto y una familia arbitraria de -lgebras de subconjuntos de , se define la interseccin de esas -lgebras como
la familia de conjuntos que pertenecen a todas ellas.
Se puede ver fcilmente que la interseccin de -lgebras de subconjuntos de es tambin
una -lgebra y, dada una coleccin arbitraria B de subconjuntos de , siempre existe por lo
menos una -lgebra que contiene a todos los elementos de B, a saber, la formada por todos
los subconjuntos de . Se puede definir entonces una -lgebra como la interseccin de todas
las -lgebras de subconjuntos de que contienen a todos los elementos de B. La -lgebra
as definida es llamada la -lgebra generada por B y evidentemente es la ms pequea
-lgebra de subconjuntos de que contiene a todos los elementos de B.

5.5. ESPACIOS DE PROBABILIDAD

113

Definicin 5.25 ( lgebra generada por una familia de conjuntos). Dada una coleccin A de subconjuntos de un conjunto , se define la -lgebra generada por A como la
interseccin de todas las -lgebras que contienen a todos los conjuntos de A.
Es muy frecuente encontrar un problema del siguiente tipo: Se tiene un conjunto , un lgebra
A de subconjuntos de y la -lgebra (A) generada por A, y se quiere demostrar que una
cierta propiedad es vlida para todo elemento de (A). Un mtodo para resolver este problema
consiste en demostrar que la familia H de subconjuntos de que tienen la propiedad deseada
es una -lgebra que contiene a todos los elementos de A, de manera que entonces contiene a la
-lgebra generada por A. Sin embargo, en ocasiones puede resultar sumamente complicado
demostrar que efectivamente H forma una -lgebra, sobre todo la demostracin de que H es
cerrada bajo uniones o intersecciones finitas. Por ejemplo para probar, siguiendo este mtodo,
que si dos medidas de probabilidad P1 y P2 , definidas sobre (A), coinciden sobre A entonces
coinciden sobre (A), se requerira demostrar, en particular, que si A1 y A2 son dos elementos
de (A) tales que P1 (A1 ) = P2 (A1 ) y P1 (A2 ) = P2 (A2 ) entonces P1 (A1 A2 ) = P2 (A1 A2 ) (o,
equivalentemente, P1 (A1 A2 ) = P2 (A1 A2 )), lo cual no hay manera de hacerlo, de manera
directa, para dos medidas de probabilidad P1 y P2 . Para salvar esta dificultad, se tienen,
afortunadamente, los resultados que se exponen en esta seccin, los cuales son conocidos
como teoremas de clases montonas.
Definicin 5.26 (Familia de conjuntos cerrada bajo diversas operaciones). Sea un
conjunto y G una familia de subconjuntos de . Diremos que
(i) G es cerrada bajo complementos si Ac G para cualquier A G.
(ii) G es cerrada bajo diferencias propias si B A G para cualquier pareja A, B G
tal que A B.
S
(iii) G es cerrada bajo uniones (resp. intersecciones) finitas si nj=1 Aj G (resp.
Tn
de G.
j=1 Aj G) para cualquier coleccin finita A1 , . . . , An de elementos
S
(iv) G es cerrada bajo uniones (resp. intersecciones) montonas si j=1 Aj G (resp.
T
j=1 Aj G) para cualquier sucesin A1 , A2 , . . . de elementos de G tal que A1
A2 (resp. A1 A2 ).
Definicin 5.27 (Clase montona). Sea un conjunto y M una familia de subconjuntos
de . Se dice que M es una clase montona si es cerrada bajo uniones e intersecciones
montonas.
Definicin 5.28 (Interseccin de clases montonas). Dado un conjunto y una familia
arbitraria de clases montonas de subconjuntos de , se define la interseccin de esas clases
montonas como la familia de conjuntos que pertenecen a todas ellas.
Se puede ver fcilmente que la interseccin de clases montonas, de subconjuntos de un conjunto , forma una clase montona.
Definicin 5.29 (clase montona generada por una familia de conjuntos). Dada una
coleccin A de subconjuntos de un conjunto , se define la clase montona generada por A
como la interseccin de todas las clases montonas que contienen a todos los elementos de A
y se le denota por M(A).

114

5. LA ADITIVIDAD NUMERABLE

Obsrvese que la definicin anterior es consistente pues, dada cualquier coleccin A de subconjuntos de un conjunto , existe por lo menos una clase montona que contiene a todos los
conjuntos de A, a saber, la clase montona formada por todos los subconjuntos de .
Obsrvese tambin que la clase montona generada por una familia A de subconjuntos de un
conjunto es la ms pequea clase montona de subconjuntos de que contiene a todos los
elementos de A.
Teorema 5.30. Sea un conjunto y A un lgebra de subconjuntos de , entonces la clase
montona generada por A sigue siendo un lgebra.
Demostracin
Para demostrar que M(A) es cerrada bajo complementos, sea
C = {A M(A) : Ac M(A)}
C es entonces una clase montona. En efecto, si A1 A2 es una sucesin de
S elementos de
c
C entonces,
para
cualquier
n

N,
se
tiene
A

M(A)
y
A

M(A),
as
que
n S
n
n An M(A)
S
T c
c
y ( n An ) = n An M(A), por lo tanto, n An C. De la misma manera se demuestra
que C es cerrada bajo intersecciones montonas.
Obviamente C contiene a A, de manera que entonces se puede concluir que C contiene a M(A),
lo cual prueba que M(A) es cerrada bajo complementos.
Para demostrar que M(A) es cerrada bajo intersecciones finitas, sea
C1 = {A M(A) : A B M(A) para cualquier B A}
C1 es entonces una clase montona. En efecto, si A1 A2 es una sucesin de elementos
de CS
n N ySB A, se tiene An M(A) y AnS
B M(A), as
1 entonces, para cualquier
S
que n An M(A) y ( n An ) B = n (An B) M(A), por lo tanto, n An C1 . De la
misma manera se demuestra que C1 es cerrada bajo intersecciones montonas.
Obviamente C1 contiene a A, de manera que entonces se puede concluir que C1 contiene a
M(A), es decir, para cualquier A M(A) y B A, se tiene A B M(A).
Sea ahora
C2 = {A M(A) : A B M(A) para cualquier B M(A)}
C2 es entonces una clase montona. En efecto, si A1 A2 es una sucesin de elementos de
C2 entonces,
para cualquier
M(A), se tiene An M(A) y AnS B M(A), as
S
S n N y BS
que n An M(A) y ( n An ) B = n (An B) M(A), por lo tanto, n An C2 . De la
misma manera se demuestra que C2 es cerrada bajo intersecciones montonas.
Como C1 contiene a M(A), se tiene que C2 contiene a A, de manera que entonces se puede
concluir que C2 contiene a M(A), es decir, para cualesquiera A, B M(A), se tiene A B
M(A).
Corolario 5.31 (Teorema de clases montonas para lgebras). Sea un conjunto y
A un lgebra de subconjuntos de , entonces M(A) = (A).
Proposicin 5.32. Sea un conjunto, A un lgebra de subconjuntos de y P1 y P2 dos
medidas de probabilidad, definidas sobre (A), tales que P1 (A) = P2 (A) para cualquier A A,
entonces P1 (A) = P2 (A) para cualquier A (A).

5.5. ESPACIOS DE PROBABILIDAD

115

Demostracin
Sea H = {A (A) : P1 (A) = P2 (A)}
H es entonces una clase montona que contiene a los elementos de A, as que H contiene a
(A) = M(A).
El teorema 5.30 puede ser insuficiente pues en ocasiones nicamente se puede demostrar
inmediatamente que la propiedad que se quiere probar como vlida para cualquier elemento
de una -lgebra se cumple para una familia de conjuntos que la generan y que es cerrada
bajo intersecciones finitas (por ejemplo, la familia formada por todos los intervalos de nmeros
reales).
Definicin 5.33 ( sistema). Sea un conjunto y P una familia de subconjuntos de . Se
dice que P es un -sistema si es cerrada bajo intersecciones finitas.

Definicin 5.34 (d-sistema). Sea un conjunto y D una familia de subconjuntos de .


Se dice que D es un d-sistema si D y es cerrada bajo diferencias propias y uniones
montonas.

Definicin 5.35 (Interseccin de d-sistemas). Dado un conjunto y una familia arbitraria de d-sistemas de subconjuntos de , se define la interseccin de esos d-sistemas como
la familia de conjuntos que pertenecen a todos ellos.
Se puede ver fcilmente que la interseccin de d-sistemas, de subconjuntos de un conjunto ,
forma un d-sistema.
Definicin 5.36 (d-sistema generado por una familia de conjuntos). Dada una coleccin G de subconjuntos de un conjunto , se define el d-sistema generado por G como la
interseccin de todos los d-sistemas que contienen a todos los elementos de G y se le denota
por d(G).
Obsrvese que la definicin anterior es consistente pues, dada cualquier coleccin P de subconjuntos de un conjunto , existe por lo menos un d-sistema que contiene a todos los conjuntos
de P, a saber, el d-sistema formada por todos los subconjuntos de .
Obsrvese tambin que el d-sistema generado por una familia P de subconjuntos de un conjunto es el ms pequeo d-sistema de subconjuntos de que contiene a todos los elementos
de P.

Teorema 5.37. Sea un conjunto y P un -sistema de subconjuntos de , entonces el


d-sistema generado por P es un -sistema.
Demostracin
Sea
C1 = {A d(P) : A B d(P) para cualquier B P}
C1 es entonces un d-sistema. En efecto, si A1 A2 es una sucesin de elementos de C1 ,
entonces, para cualquier
n NS
y B P, se tiene An d(P) y A
S
Sn B d(P), as que
S
A

d(P)
y
(
A
)

B
=
(A

B)

d(P);
por
lo
tanto,
n
n n
n n
n
n An C1 . Sean ahora
A, C C1 tales que A C, entonces A, C, A B, C B d(P) y A B C B para
cualquier B P, as que C A d(P) y (C A) B = C B A B d(P), por lo tanto,
C A C1 . Finalmente, es obvio que C1 .

116

5. LA ADITIVIDAD NUMERABLE

Obviamente C1 contiene a P, de manera que entonces se puede concluir que C1 contiene a


d(P), es decir, para cualquier A d(P) y B P, se tiene A B d(P).
Sea ahora
C2 = {A d(P) : A B d(P) para cualquier B d(P)}
C2 es entonces un d-sistema. En efecto, si A1 A2 es una sucesin de elementos de C2
entonces, para cualquier
n N ySB d(P), se tiene An d(P) y S
An B d(P), as que
S
S
A

d(P)
y
(
A
)

B
=
(A

B)

d(P);
por
lo
tanto,
n
n
n
n
n
n
n An C2 . Sean ahora
A, C C2 tales que A C, entonces A, C, A B, C B d(P) y A B C B para
cualquier B d(P), as que C A d(P) y (C A) B = C B A B d(P), por lo
tanto, C A C2 . Finalmente, es obvio que C2 .
Como C1 contiene a d(P), se tiene que C2 contiene a P, de manera que entonces se puede
concluir que C2 contiene a d(P), es decir, para cualesquiera A, B d(P), se tiene AB d(P).
Corolario 5.38 (Teorema de clases montonas para -sistemas). Sea un conjunto
y P un -sistema de subconjuntos de , entonces d(P) = (P).
Proposicin 5.39. Sea un conjunto, P un -sistema de subconjuntos de tal que P
y P1 y P2 dos medidas de probabilidad, definidas sobre (P), tales que P1 (A) = P2 (A) para
cualquier A P, entonces P1 (A) = P2 (A) para cualquier A (P).
Demostracin
Sea H = {A (P) : P1 (A) = P2 (A)}
H es entonces un d-sistema que contiene a los elementos de P, as que H contiene a (P) =
d(P).

Las proposiciones 5.32 y 5.39 son de gran importancia para la Teora de la Probabilidad pues
muestran que el proceso de extensin de una funcin de probabilidad, definida sobre
un lgebra o un -sistema, a una medida de probabilidad sobre la -lgebra que
generan, en caso de poder realizarse, se puede lograr de una nica manera. Es
decir, la extensin es nica.
5.5.2. Los borelianos y la medida de Lebesgue.
Definicin 5.40 (-lgebra de Borel en R). La -lgebra de Borel en R es la -lgebra
de subconjuntos de R generada por la familia de intervalos de la forma (, x], en donde
x R. A los elementos de esa -lgebra se les llama borelianos de R.
Las siguientes proposiciones pueden ser probadas fcilmente y se dejan como ejercicio.
Proposicin 5.41. Todo intervalo de R es boreliano.
Proposicin 5.42. Los subconjuntos abiertos y los subconjuntos cerrados de R son borelianos.
Proposicin 5.43. La -lgebra de los conjuntos borelianos de R est generada por cualquiera
de las siguientes familias de subconjuntos.
a) Los intervalos de la forma (x, ).
b) Los intervalos de la forma (, x).

5.5. ESPACIOS DE PROBABILIDAD

117

c) Los intervalos de la forma [x, ).


d) Los intervalos de la forma (a, b].
e) Los intervalos de la forma [a, b).
f) Los intervalos de la forma (a, b).
g) Los intervalos de la forma [a, b].
h) Los conjuntos abiertos.
i) Los conjuntos cerrados.
Definicin 5.44 (-lgebra de Borel en (a, b)). La -lgebra de Borel en el intervalo
(a, b) es la -lgebra de subconjuntos de (a, b) formada por las intersecciones de los borelianos
en R con el intervalo (a, b). A los elementos de esa -lgebra se les llama borelianos de (a, b).
Definicin 5.45 (Medida cero). Se dice que un conjunto A R tiene medida cero si, para
cualquier > S
0, existePuna coleccin finita o infinita numerable de intervalos abiertos {In }
tales que A n In y n l(In ) < , en donde l(In ) denota la longitud del intervalo In .
El siguiente resultado se demuestra fcilmente:

Proposicin 5.46. Si {An } es una familia finita o infinita numerable de conjuntos de medida
cero, entonces A = n An tiene medida cero.
Ejemplo 5.47. Cualquier conjunto numerable A R tiene medida cero. En efecto, si A =
{x1 , x2 , . . .}, dada > 0, consideremos,
para
un intervalo
In , de centro
S
P cada n
PN,
Pabierto

xn y longitud 2n+1 , entonces A n In y n l(In ) = n=1 2n+1 = n=1 2n+1 = 2 < .

La familia de conjuntos borelianos, si bien es bastante grande, presenta una limitacin consistente en que un conjunto de medida cero puede no ser boreliano. En un problema de probabilidad, esto a su vez se traduce en que puede haber subconjuntos de conjuntos de probabilidad
cero para los cuales, por no ser borelianos, no est definida la funcin de probabilidad. Por
esa razn, es conveniente considerar una -lgebra ms grande que los borelianos, que incluya
a todos los conjuntos de medida cero. A continuacin se muestra cmo puede hacerse tal
extensin.
Lema 5.48. Todo conjunto de medida cero est contenido en un conjunto boreliano de medida
cero.

Demostracin
Sea A (0, 1) un conjunto de medida cero, entonces, para cualquier S
> 0, existe
P una coleccin
finita o infinita numerable de intervalos abiertos {Ik } tales que A k Ik y k l(Ik ) < , en
donde l(Ik ) denota la longitud del intervalo Ik .
Para cada n N, sea
{Ikn } una
S
P coleccin finita o infinita numerable de
S intervalos abiertos
T
{Ikn } tales que A k Ikn y k l(Ikn ) < n1 . Definamos entonces Bn = k Ikn y B = n Bn .
Entonces, B es boreliano, tiene medida cero y A B.
Definicin 5.49 (Conjunto Lebesgue medible). Diremos que un conjunto A R es
Lebesgue medible si pertenece a la -lgebra de subconjuntos de R generada por los borelianos
y los conjuntos de medida cero.

118

5. LA ADITIVIDAD NUMERABLE

Proposicin 5.50. Todo conjunto Lebesgue medible se puede expresar como la unin de un
conjunto boreliano y un conjunto de medida cero.
Demostracin
Denotemos por B a los conjuntos borelianos y sea:
H = {H R : H = B C, en donde B B y C tiene medida cero}
Obviamente, cualquier elemento de H es Lebesgue medible y H contiene tanto a los borelianos
como a los conjuntos de medida cero. Para probar el resultado, basta entonces con demostrar
que H es una -lgebra.
H contiene a R y es cerrada bajo uniones numerables. La nica dificultad consiste en demostrar
que H es cerrada bajo complementos.
Sea H H, entonces H puede expresarse en la forma H = B C, en donde B es un conjunto
boreliano y C es un conjunto de medida cero.
Por el lema 5.48, existe un conjunto boreliano D de medida cero tal que C D. Sea
A = D B c , entonces:
S
H c = (B C)c = (B A)c (A C)
As que H c H.
Corolario 5.51. La -lgebra de los conjuntos Lebesgue medibles est formada por todos los
conjuntos de la forma B C, en donde B es un conjunto boreliano y C un conjunto de medida
cero.
Proposicin 5.52. Sea L la -lgebra de los conjuntos Lebesgue medibles contenidos en el
intervalo (0, 1) y P1 : L 7 [0, 1], P2 : L 7 [0, 1] dos medidas de probabilidad tales que
P1 (I) = P2 (I) = longitud(I) para cualquier intervalo I contenido en el intervalo (0, 1), entonces P1 (B) = P2 (B) para cualquier B L.

Demostracin
Por la proposicin 5.39, P1 y P2 coinciden sobre los conjuntos borelianos del intervalo (0, 1).
Sea ahora A (0, 1) un conjunto de medida cero, entonces, para cualquier > 0,Sexiste
una
P coleccin finita o infinita numerable de intervalos abiertos {In } tales que A n In y
n l(In ) < , en donde l(In ) denota la longitud del intervalo In . Por lo tanto:
S
P
P
P1 (A) P1 ( n In ) n P1 (In ) = n l (In ) <
As que, P1 (A) = 0.
De la misma manera, se tiene, P2 (A) = 0. Por lo tanto, P1 y P2 coinciden sobre los conjuntos
de medida cero contenidos en el intervalo (0, 1). As que, nuevamente por la proposicin 5.39,
P1 y P2 coinciden sobre los conjuntos Lebesgue medibles contenidos en el intervalo (0, 1).

Definicin 5.53 (Medida de Lebesgue en (0, 1)). La medida de Lebesgue m en el intervalo


(0, 1) es la nica medida de probabilidad definida sobre los subconjuntos Lebesgue medibles
contenidos en el intervalo (0, 1) tal que m(I) es igual a la longitud de I para cualquier intervalo
I (0, 1)8.
8La

existencia de tal medida fue demostrada por Henri Lon Lebesgue en el ao 1902 ([9]).

5.5. ESPACIOS DE PROBABILIDAD

119

Ejemplo 5.54. Demuestre que el conjunto de Cantor C es Lebesgue medible y que m(C) = 0.
Solucin
, 20 ) ( 25
, 26 )
[0, 1] C = ( 13 , 23 ) ( 312 , 322 ) ( 372 , 382 ) ( 313 , 323 ) ( 373 , 383 ) ( 19
33 33
33 33
As que C es Lebesgue medible y
m(C) = 1 m ([0, 1] C)

= 1 m ( 13 , 23 ) m ( 312 , 322 ) m ( 372 , 382 )

1
1
2
22
23
= 1 3 + 32 + 33 + 34 + = 1 1 3 2 = 0
3

Definicin 5.55 (Medida de Lebesgue en (a, b)). La medida de Lebesgue m en el intervalo


(a, b) es la nica funcin no negativa y -aditiva, definida sobre los subconjuntos Lebesgue
medibles del intervalo (a, b), tal que m(I) es igual a la longitud de I para cualquier intervalo
I (a, b).
Por un rectngulo en Rn se entender un conjunto de la forma I1 In , en donde I1 , , In
son intervalos en R. Adems, diremos que el rectngulo R = I1 In es abierto (resp.
cerrado) si los intervalos I1 , , In son abiertos (resp. cerrados).
Definicin 5.56 (-lgebra de Borel en Rn ). La -lgebra de Borel en Rn es la -lgebra
de subconjuntos de Rn generada por la familia de los rectngulos en Rn de la forma (, x1 ]
(, xn ]. A los elementos de esa -lgebra se les llama borelianos de Rn .
De manera anloga al caso de R, se tienen las siguientes proposiciones:
Proposicin 5.57. Todo rectngulo de Rn es boreliano.
Proposicin 5.58. Los subconjuntos abiertos y los subconjuntos cerrados de Rn son borelianos.
Proposicin 5.59. La -lgebra de los conjuntos borelianos de Rn est generada por cualquiera
de las siguientes familias de subconjuntos.
(i)
(ii)
(iii)
(iv)

Los
Los
Los
Los

rectngulos abiertos.
rectngulos cerrados.
conjuntos abiertos.
conjuntos cerrados.

Proposicin 5.60. Si B1 , . . . , Bn son borelianos de R, entonces B1 B2 . . . Bn es un


boreliano de Rn .
Demostracin
Sean x1 , . . . , xn1 nmeros reales cualesquiera, entonces la familia de conjuntos B R tales
que (, x1 ] (, xn ] B es un boreliano de Rn , forma una -lgebra que contiene
a los intervalos de la forma (, x]; por lo tanto, contiene a todos los borelianos de R.
De la misma manera, si Bn R es un boreliano cualquiera, entonces la familia de conjuntos
B R tales que (, x1 ] B Bn es un boreliano de Rn , forma una -lgebra que
contiene a los intervalos de la forma (, x]; por lo tanto, contiene a todos los borelianos de
R.

120

5. LA ADITIVIDAD NUMERABLE

Continuando con este procedimiento, se obtiene que los conjuntos de la forma (, x1 ]B2
. . . Bn , en donde x1 es un nmero real cualquiera y B2 , . . . , Bn son borelianos cualesquiera
de R, son borelianos de Rn .
Finalmente, si B2 , . . . , Bn son borelianos cualesquiera de R, entonces la familia de conjuntos
B R tales que B B2 . . . Bn es un boreliano de Rn , forma una -lgebra que contiene
a los intervalos de la forma (, x]; por lo tanto, contiene a todos los borelianos de R.
Definicin 5.61 (Funcin boreliana). Una funcin f : Rn 7 Rm es llamada boreliana si
f 1 (B) es un conjunto boreliano de Rn para todo boreliano B de Rm .
n
en Rm y B, B1 , B2 ,T
. . . son subconjuntos
de Rm ,
Recurdese que si f es cualquier funcin
S de R S
T 1
c
1
c
1
1
1
1
entonces f (B ) = [f (B)] , f ( n Bn ) = n f (Bn ) y f ( n Bn ) = n f (Bn ). Esto
implica que la familia de subconjuntos B de Rm , tales que f 1 (B) es un conjunto boreliano
de Rn , forman una -lgebra de subconjuntos de Rm , de manera que, para demostrar que una
cierta funcin f es boreliana, basta con probar que f 1 (B) es un conjunto boreliano de Rn
para cualquier elemento B de una familia de generadores de los borelianos en Rm . Con base en
esta idea, se pueden demostrar las siguientes proposiciones, algunas de cuyas demostraciones
se dejan como ejercicio:

Proposicin 5.62. Si f : Rn 7 Rm y g : Rm 7 Rp son borelianas, entonces gf es boreliana.


Proposicin 5.63. Toda funcin continua f : Rn 7 Rm es boreliana.
Proposicin 5.64. Sean f y g funciones de R en R y H : R 7 R2 definida por H(x) =
(f (x), g(x)), entonces H es boreliana si y slo si f y g son borelianas.
Demostracin
Supongamos que f y g son borelianas, entonces, f 1 ((, x]) y g1 ((, y]) son conjuntos borelianos Tde R para cualesquiera x, y R. Por lo tanto, H 1 ((, x] (, y]) =
f 1 ((, x]) g1 ((, y]) es un boreliano de R.
Por otra parte, la familia de subconjuntos B R2 tales que H 1 (B) es un boreliano de R
forma una -lgebra de subconjuntos de R2 la cual, como se demostr antes, contiene a los
rectngulos de la forma (, x] (, y]; por lo tanto, contiene a todos los borelianos de
R2 .
Inversamente, supongamos que la funcin H : R 7 R2 definida por H(x) = (f (x), g(x)) es
boreliana, entonces f 1 ((, x]) = H 1 ((, x] R) y g 1 ((, y]) = H 1 (R (, y])
son borelianos de R para cualesquiera x, y R.
Finalmente, la familia de subconjuntos B R tales que f 1 (B) (resp. g1 (B)) es un boreliano
de R forma una -lgebra de subconjuntos de R la cual, como se demostr antes, contiene a los
rectngulos de la forma (, x] (resp. (, y]); por lo tanto, contiene a todos los borelianos
de R. Es decir, f (resp. g) es boreliana.
Corolario 5.65. Si f : R 7 R y g : R 7 R son borelianas y a, b, R con 0, entonces
af + b, |f | , f + g, f g, max(f, g) y mn(f, g) son borelianas.

EJERCICIOS

121

EJERCICIOS
Ejercicio 5.1. Resuelva los ejemplos 5.12 y 5.13 siguiendo el mtodo de Huygens, es decir,
utilizando probabilidades condicionales.
Ejercicio 5.2. Muestre que los siguientes problemas caen dentro de la categora de problemas
descritos en la proposicin 5.9 y encuentre las probabilidades que se piden.
a) Dos jugadores, A y B, juegan a lanzar sucesivamente un par de dados, con la condicin de
que A ganar el juego en el momento en que obtenga 6 puntos, mientras que B lo ganar en
el momento en que obtenga 7 puntos. A tiene el primer turno y despus, comenzando con B,
cada uno de ellos tendr dos oportunidades consecutivas de ganar. Qu probabilidad tiene
cada jugador de ganar el juego.9
b) Tres jugadores, A, B y C, juegan un juego consistente en seleccionar, por turnos, una ficha,
al azar y con reemplazo, de una caja que contiene 4 fichas blancas y 8 negras. Si el ganador
es el primero que obtenga una ficha blanca, qu probabilidad tiene cada jugador de ganar el
juego?10
Ejercicio 5.3. Demuestre que en el problema de la ruina del jugador, si a + b > 3, entonces
I no es numerable.
P
Ejercicio 5.4. Demuestre que en el problema de la ruina del jugador, {F } p() = 1.

Ejercicio 5.5 (Problema de los N jugadores). N jugadores, A1 , A2 , . . . , AN , compiten


por parejas de tal manera que en cada competencia cada uno de ellos tiene una probabilidad
de ganar igual a 12 . Primero A1 compite contra A2 y el ganador compite contra A3 ; el nuevo
ganador compite contra A4 , etc. El ganador del juego es el primer jugador que logre vencer a
los otros N 1 jugadores de manera consecutiva.
El experimento aleatorio E asociado con este problema puede verse como la realizacin de una
sucesin de ensayos de Bernoulli B1 , B2 , . . ., en donde B1 es xito si el jugador P gana la
primera partida y, para i 1, Bi+1 es xito si el jugador que gan la i-sima partida gana
tambin la que sigue. Con estas convenciones, el juego se termina en el momento en que se
obtienen, por primera vez, N 2 xitos despus del primer ensayo.
El espacio muestral de E puede descomponerse en dos subconjuntos F y I , en donde F
es el conjunto de resultados de las sucesiones finitas de ensayos de Bernoulli que terminan
con la primera ocurrencia de N 2 xitos consecutivos despus del primer ensayo y I es
el conjunto de resultados de las sucesiones infinitas de ensayos de Bernoulli para las cuales
nunca se obtienen N 2 xitos consecutivos despus del primer ensayo. Como antes, cada
elemento de F puede representarse mediante una sucesin finita (s1 , s2 , . . . , sn ) de 0s y 1s
y cada elemento de I puede representarse mediante una sucesin infinita (s1 , s2 , . . .) de 0s y
1s, en donde si = 0 y si = 1 representan, respectivamente, un fracaso y un xito en el i-simo
ensayo. Adems, si = (s1 , . . . , sn ) es una coleccin finita de 0s y 1s, definimos p() = 21n .
Demuestre entonces que:
a) Si N 4, entonces I no es numerable.
9Este

problema fue propuesto a C. Huygens por P. Fermat en junio de 1656.


problema fue propuesto por C. Huygens en su libro ([7]).

10Este

122

b)

LA ADITIVIDAD NUMERABLE

p() = 1

Ejercicio 5.6. Dos personas, A y B, quedan de verse en un determinado lugar a las 12 hrs.
Cada una de ellas llega al lugar de la cita en un tiempo al azar entre las 12 y las 12 : 30 hrs.
Una vez que llega al lugar de la cita, la persona A est dispuesta a esperar a lo ms 5 minutos
a que llegue la persona B, mientras que la persona B est dispuesta a esperar a la persona A
a lo ms 10 minutos. Cul es la probabilidad de que las 2 personas se encuentren?
Ejercicio 5.7. En una parada, el primer autobs del da pasa en un tiempo al azar entre las
7 : 00 y las 7 : 15 hrs. Si una persona llega a la parada en un tiempo al azar entre las 7 : 10
y las 7 : 15 hrs., cul es la probabilidad de que la persona llegue a la parada antes que el
primer autobs del da?
Ejercicio 5.8. Para ir de una parte de la ciudad a otra, una persona puede tomar cualquiera
de dos transportes, los cuales siguen rutas distintas, identificadas con las letras A y B. Los
transportes que siguen la ruta A salen cada 15 minutos comenzando a las 7 de la maana, los
que siguen la ruta B salen tambin cada 15 minutos pero comienzan a la 7 : 05 de la maana.
La persona en consideracin llega siempre al inicio de las rutas en un tiempo al azar entre las
7 y las 8 de la maana y toma el primer transporte que salga despus de su llegada. Cul es
el porcentaje de veces en que la persona toma el transporte que sigue la ruta A?
Ejercicio 5.9. Sea A1 , AT
2 , . . . una coleccin de eventos tales que P (An ) = 1 para cualquier
n N. Demuestre que P (
n=1 An ) = 1.
Ejercicio 5.10. Sean A1 , A2 , . . . y B1 , B2 , . . . dos colecciones de eventos tales que:
lmn P (An ) = 1 y lmn P (Bn ) = p
Demuestre que lmn P (An Bn ) = p.
Ejercicio 5.11. Demuestre las proposiciones 5.41, 5.42 y 5.43.
Ejercicio 5.12. Demuestre la proposicin 5.46.
Ejercicio 5.13. Demuestre las proposiciones 5.62 y 5.63.
Ejercicio 5.14. Demuestre el corolario 5.65.

Referencias
[1] Banach, S., Sur le problme de la mesure, Fundamenta Mathematicae, 4, p. 7-33, 1923.
[2] Banach, S. & Kuratowski, C., Sur une gnralisation du problme de la mesure, Fundamenta Mathematicae, t. 14, p. 127-131, 1929.
[3] Bernoulli, J., LArt de Conjecturer, L.G.F. Vastel, G. Le Roy, Caen, 1801. Traduccin de Ars Conjectandi,
Basileae, 1713.
[4] Bhaskara Rao, K.P.S. and Bhaskara Rao, M., Theory of Charges (A study of finitely additive measure),
Academic Press, 1983.
[5] Hausdor, F., Grundzge der Mengenlehre, Chelsea Publishing Company, 1914.
[6] Horn, A., and Tarski, A., Measures in boolean algebras, Trans. Amer. Math. Soc., t. 64, p. 467-497, 1948.
[7] Huygens, C., Du calcul dans les jeux de hasard, Oeuvres Compltes de Christiaan Huygens, Vol. XIV,
Martinus Nijho, 1920. Traduccin de De Ratiociniis in Aleae Ludo, 1657.
[8] Kolmogorov, A. N., Foundations of the Theory of Probability, Chelsea, 1950. Traduccin de Grundbegrie
der Wahrscheinlichkeitsrechnung, Erg Mat. 2, No. 3, 1933.
[9] Lebesgue, H. L., Leons sur lintgration et la recherche des fonctions primitives, Gauthier-Villars, 1904.
[10] Lvy, P. P., Les lois de probabilit dans les ensembles abstraits, Revue de Mtaphysique et Morale, 1924.
Reproducido en Calcul des Probabilits, Gauthier Villars, 1925.
[11] Los, J. & Marczewski, E., Extensions of measures, Fundamenta Mathematicae, t. 36, p. 267-276, 1949.
[12] Tarski, A., Une contribution a la Thorie de la Mesure, Fundamenta Mathematicae, t. 15, p. 42-50, 1930.
[13] Vitali, G., Sul problema della misura dei gruppi di punti di una retta, Tip. Bamberini et Parmeggiani,
Bologna, 1905.

123

Parte 2

VARIABLES ALEATORIAS

CAPTULO 6

VARIABLES ALEATORIAS
La Matemtica es el arte de dar el mismo nombre a diferentes cosas. La Poesa es el arte de dar diferentes
nombres a la misma cosa.
Jules Henri Poincar

En la ciencia uno trata de decir a la gente, de una manera que sea entendido por cualquiera, algo que nadie
nunca conoci antes. Pero en la poesa, es exactamente
lo opuesto.
Paul Dirac

Es cierto que un matemtico que no tiene algo de poeta


nunca ser un perfecto matemtico.
Karl Theodor Wilhelm Weierstrass

En todo este captulo se asume que se tiene un espacio de probabilidad (, =, P ) correspondiente a un determinado experimento aleatorio.
Dados los conjuntos , E, E1 , . . . , En , las funciones X : 7 E, X1 : 7 E1 , . . . , Xn :
7 En y los conjuntos B E, B1 E1 , . . ., Bn En , denotaremos por [X B] al
conjunto { : X() B} y por [X1 B1 , . . . , Xn Bn ] a la interseccin de los conjuntos
{ : Xk () Bk }, para k {1, . . . , n}. Tambin, si A E1 . . . En , denotaremos por
[(X1 , . . . , Xn ) A] al conjunto { : (X1 (), . . . , Xn ()) A}.
En el caso en que B sea un intervalo de la forma [a, b], tambin se utilizar la notacin
[a X b] para el conjunto [X B], con la desigualdad estricta si el intervalo es abierto en
el extremo correspondiente. Para los intervalos infinitos se utilizar una notacin similar, por
ejemplo, si B = (, b], denotaremos por [X b] al conjunto [X B].
En lo que sigue se har referencia a los conjuntos y funciones borelianas, conceptos que fueron
estudiados en la seccin 5.5.2.
127

128

6. VARIABLES ALEATORIAS

6.1. Variables aleatorias reales


En ocasiones, dado un experimento aleatorio, estamos interesados en alguna caracterstica
numrica del resultado que se obtiene, por ejemplo, al considerar el lanzamiento de un par de
dados, pudiramos estar interesados no en el resultado especfico que se obtiene con cada dado
sino en la suma de ellos. El valor numrico que se obtiene depende del resultado especfico
del experimento, de manera que la caracterstica numrica de inters puede representarse
mediante una funcin X : 7 R. Ahora bien, como el valor de X depende del resultado
del experimento, antes de realizar ste, no se conoce su valor, pero, como se tiene definida
una funcin de probabilidad, dado un conjunto B de nmeros reales es posible calcular la
probabilidad del conjunto [X B] siempre que ste represente un evento. Es por esto que
no toda funcin X : 7 R se considera una variable aleatoria, para que lo sea se requiere
que los conjuntos [X B] representen eventos para una familia suficientemente grande de
subconjuntos B de nmeros reales.
Definicin 6.1 (Variable aleatoria real). Se dice que una funcin X : 7 R es una
variable aleatoria real si [X x] = para cualquier x R.
Ejemplo 6.2. En los siguientes casos, X es una variable aleatoria:
(i) Un experimento aleatorio consiste en seleccionar al azar una bola de una urna, la cual
contiene N bolas numeradas del 1 al N, y X es el nmero de la bola seleccionada.
(ii) Un experimento aleatorio consiste en tomar una muestra aleatoria con reemplazo de
tamao n de una urna, la cual contiene r bolas rojas y b bolas blancas, y X es el
nmero de bolas blancas en la muestra.
(iii) Un experimento aleatorio consiste en lanzar 3 dados y X es la diferencia entre el
mayor y el menor de los nmeros que se obtienen.
(iv) Un experimento aleatorio consiste en lanzar una moneda indefinidamente y X es el
nmero de caras que se obtienen antes de la primera cruz.
(v) Un experimento aleatorio consiste en elegir al azar un nmero del intervalo (0, 1) y
X es el nmero que se obtiene.
(vi) Un experimento aleatorio consiste en elegir al azar un nmero del intervalo (0, N) y
X es la parte entera del nmero que se obtiene.
Obsrvese que si A es un evento, entonces IA es una variable aleatoria y, en el caso de un
espacio muestral finito, cualquier funcin X : 7 R es una variable aleatoria.
Proposicin 6.3. Sea X una variable aleatoria real, entonces [X B] = para cualquier
boreliano B de R.
Demostracin
Sea H = {B R : B es boreliano y [X B] =}, entonces H es una -lgebra de subconjuntos de R que contiene a los intervalos de la forma (, x], por lo tanto contiene a todos
los borelianos de R, ya que, de acuerdo con la definicin 5.40, la -lgebra de los conjuntos
borelianos en R est generada por los intervalos de ese tipo.
Proposicin 6.4. Sean X y Y dos variables aleatorias reales, entonces [(X, Y ) B] =
para cualquier boreliano B de R2 .

6.2. FUNCIONES DE DISTRIBUCIN

129

Demostracin
Sea H = {B R2 : B es boreliano y [(X, Y ) B] =}, entonces H es una -lgebra de
subconjuntos de R2 que contiene a los rectngulos de la forma (, x] (, y], por lo tanto
contiene a todos los borelianos de R2 , ya que, de acuerdo con la definicin 5.56, la -lgebra
de los conjuntos borelianos en R2 est generada por los rectngulos de ese tipo.
Proposicin 6.5. Sea X una variable aleatoria real y f : R 7 R una funcin boreliana,
entonces f (X) es una variable aleatoria real.
Demostracin
Sea B un boreliano de R, entonces f 1 (B) es boreliano, as que:
[f (X) B] = [X f 1 (B)] =.
Proposicin 6.6. Sean X y Y dos variables aleatorias reales y f : R2 7 R una funcin
boreliana, entonces f (X, Y ) es una variable aleatoria real.
Demostracin
Sea B un boreliano de R, entonces f 1 (B) es boreliano de R2 , as que:
[f (X, Y ) B] = [(X, Y ) f 1 (B)] =.
Corolario 6.7. Sean X y Y dos variables aleatorias reales y a, b, R con 0, entonces
aX + b, |X| , X + Y , XY , max(X, Y ) y mn(X, Y ) tambin son variables aleatorias reales.
El uso explcito del concepto de variable aleatoria real, como fue definido arriba, es relativamente reciente, se dio nicamente a partir de fines del siglo pasado. Sin embargo, implcitamente se han estudiado variables aleatorias casi desde el inicio del Clculo de Probabilidades
como disciplina matemtica. Para ser ms precisos, ya el trabajo de Christiaan Huygens del
ao 1657 contiene problemas relativos a variables aleatorias. A medida que se desarroll la
Teora de la Probabilidad el concepto de variable aleatoria, implcito en muchos problemas,
se fue convirtiendo en uno de los conceptos fundamentales.
6.2. Funciones de distribucin
Decir que una variable aleatoria puede tomar como valor uno de un conjunto de posibles
valores no nos da mucha informacin pues, como puede verse en los ejemplos, diferentes
variables aleatorias pueden admitir el mismo conjunto de posibles valores. Realmente lo que
nos interesa de una variable aleatoria es el valor que va a tomar en un experimento y no
nicamente el conjunto de sus posibles valores; sin embargo, esto no podemos conocerlo antes
de realizar el experimento. Es por esto que lo ms importante de una variable aleatoria es la
informacin sobre las probabilidades con que puede tomar sus diferentes posibles valores. Esta
informacin es la que nos da la funcin de distribucin, concepto que se define a continuacin.
Definicin 6.8 (Funcin de distribucin). Si X es una variable aleatoria real, la funcin
FX : R 7 R, definida por FX (x) = P [X x], es llamada la funcin de distribucin de X.

130

6. VARIABLES ALEATORIAS

Ejemplo 6.9. Un experimento aleatorio consiste en seleccionar al azar una bola de una urna,
la cual contiene N bolas numeradas del 1 al N, y X es el nmero de la bola seleccionada,
entonces:
si x < 1
0
1
[[x]] si x [1, N)
FX (x) =
1N
si x N
en donde [[x]] es la parte entera de x.
Ejemplo 6.10. Un experimento aleatorio consiste en elegir al azar un nmero del intervalo
(0, 1) y X es el nmero que se obtiene, entonces:

0 si x < 0
x si x [0, 1)
FX (x) =
1 si x 1

Ejemplo 6.11. Un experimento aleatorio consiste en lanzar una moneda indefinidamente y


X es el nmero de caras que se obtienen antes de la primera cruz, entonces

0
si x < 0
0
si x < 0
FX (x) = P[[x]] 1
=
1
si
x0
1

2[[x]]+1
k=0 2k+1 si x 0
en donde [[x]] es la parte entera de x.
Proposicin 6.12. Sea X una variable aleatoria real y FX su funcin de distribucin, entonces:
(i) FX es una funcin montona no decreciente y continua por la derecha.
(ii) lmx FX (x) = 1
(iii) lmx FX (x) = 0
Demostracin
i. Sea (xn ) una sucesin montona decreciente tal que lmn xn = x, entonces:
T
FX (x+) = lmn FX (xn ) = lmn P [X xn ] = P [
n=1 [X xn ]]
= P [X x] = FX (x)
ii. Sea (xn ) una sucesin montona creciente tal que lmn xn = , entonces:
S
lmn FX (xn ) = lmn P [X xn ] = P [
n=1 [X xn ]] = P [] = 1
iii. Sea (xn ) una sucesin montona decreciente tal que lmn xn = , entonces:
T
lmn FX (xn ) = lmn P [X xn ] = P [
n=1 [X xn ]] = P [] = 0

Como se ilustra en los ejemplos, la funcin de distribucin de una variable aleatoria real
no siempre es una funcin continua. La continuidad o discontinuidad de una funcin de
distribucin en un punto x depende del valor de P [X = x].

Proposicin 6.13. Sea X una variable aleatoria real y FX su funcin de distribucin, entonces, para cualquier x R, se tiene FX (x) = P [X < x].
Demostracin
Sea x R y (xn ) una sucesin montona creciente tal que lmn xn = x, entonces:
S
FX (x) = lmn FX (xn ) = lmn P [X xn ] = P [
n=1 [X xn ]] = P [X < x]

6.3. CLASIFICACIN DE VARIABLES ALEATORIAS

131

Corolario 6.14. Sea X una variable aleatoria real y FX su funcin de distribucin, entonces:
FX (x) FX (x) = P [X = x]
Demostracin
FX (x) FX (x) = P [X x] P [X < x] = P [X = x]
6.3. Clasificacin de variables aleatorias
Lema 6.15. Si F : R 7 R es una funcin montona no decreciente, entonces el conjunto de
puntos en los cuales F es discontinua, es finito o infinito numerable.
Demostracin
Sea D el conjunto de puntos en donde F es discontinua, entonces:
D = {x R : F (x+) F (x) > 0}
Fijemos m N y definamos A = F (m) F (m). Entonces, para cada n N, el conjunto

Dnm = x (m, m) : F (x+) F (x) > An


tiene a lo ms n 1 elementos pues, si hubiera n nmeros reales distintos, x1 , . . . , xn , pertenecientes a Dnm , se tendra:
P
A = F (m) F (m) nk=1 [F (xk +) F (xk )] > nA
=A
n
S
m
m
Por lo tanto, el conjunto D = {x (m, m) : F (x+) F (x) > 0} =
n=1 Dn
es finito o infinito numerable.
S
m
tambin es finito o infinito numerable.
As que, D =
m=1 D

Corolario 6.16. El conjunto {x R : P [X = x] > 0} es finito o infinito numerable.


Demostracin
De acuerdo con la proposicin 6.14, la funcin de distribucin de una variable aleatoria real
X es discontinua en un punto x si y slo si P [X = x] > 0, de manera que el resultado se sigue
inmediatamente del lema 6.15.
Sea X una variable aleatoria, D = {x R : P [X = x] > 0}, C = {x R : P [X = x] = 0} y
p = P [X D]. Entonces, de acuerdo con la ltima proposicin D es numerable.
Las variables aleatorias se clasifican de acuerdo al valor de p. Si p = 0, diremos que la
variable aleatoria es continua, si p = 1 diremos que es discreta. Cuando 0 < p < 1, se tiene
P [X D] > 0 y P [X C] > 0, de manera que se puede decir que, en ese caso, la variable
aleatoria tiene una parte discreta (la que corresponde al conjunto D) y una parte continua (la
que corresponde al conjunto C).
Definicin 6.17 (Variable aleatoria continua). Se dice que una variable aleatoria es
continua si su funcin de distribucin es continua.

Obsrvese que una variable aleatoria X es continua si y slo si P [X = x] = 0 para cualquier


x R.
Entre lasR funciones continuas F : R 7 R, son de particular importancia aquellas de la forma
x
F (x) = f (y)dy para alguna funcin integrable f . Este tipo de funciones continuas son
llamadas absolutamente continuas.

132

6. VARIABLES ALEATORIAS

Definicin 6.18 (Variable aleatoria absolutamente continua). Se dice que la funcin


de distribucin FX de la variable aleatoria X es absolutamente continua si existe una funcin
no negativa fX : R 7 R, integrable, tal que:
Rx
FX (x) = fX (y)dy para cualquier x R
En este caso se dice tambin que la variable aleatoria X es absolutamente continua y la funcin
fX es llamada una funcin de densidad de X.
Cuando existe una funcin de densidad de una variable aleatoria continua X, sta no es nica.
En efecto, dada una de ellas, se puede, por ejemplo, modificar su valor en un nmero finito
de puntos y la nueva funcin que se obtiene sigue siendo una funcin de densidad de X.
Dado x R, definamos A = (, x]. La propiedad que caracteriza a una funcin de densidad
de X se puede escribir entonces de la siguiente manera:
R
P [X A] = A fX (y)dy

Se puede demostrar que


R esta misma relacin se cumple para cualquier subconjunto A R
para el cual la integral A fX (y)dy est bien definida.
La continuidad absoluta de una variable aleatoria puede establecerse aplicando el siguiente
resultado, el cual es un corolario del Teorema Fundamental del Clculo:

Lema 6.19. Sea F : R 7 R una funcin de distribucin continua. Sean a = nf {x R : F (x) > 0}
y b = sup {x R : F (x) < 1}, y supongamos que la derivada F 0 de F existe y es continua en
el intervalo (a, b) de tal manera que cuando a (resp. b) es finito, F 0 se puede extender continuamente a a (resp. b), entonces la funcin f : R 7 R definida por:
0
F (x) si x (a, b)
f (x) =
0
en otro caso

es una funcin de densidad de F .

Proposicin 6.20. Sea X una variable aleatoria absolutamente continua y fX su funcin de


densidad, entonces:
(i) RfX (x) 0 para cualquier x R.

(ii) fX (x)dx = 1

Demostracin
La primera propiedad es parte de la definicin de funcin de densidad. Para la segunda se
tiene,
R
Ry
f
(x)dx
=
l
m
f (x)dx = lmy FX (y) = 1.
X
y

Definicin 6.21 (Funcin de densidad). Se dice que una funcin f : R 7 R es una


funcin de densidad si satisface las propiedades i y ii de la ltima proposicin.

Ejemplo 6.22. Las siguientes son funciones de densidad

(n + 1)xn si x (0, 1)
f (x) =
0
en otro caso
en donde n es un entero no negativo.

6.3. CLASIFICACIN DE VARIABLES ALEATORIAS

133

(n 1)xn si x (1, )
0
en otro caso
en donde n {2, 3, . . .}.
1
si x (0, 1)

31
si x (2, 3)
6
f (x) =
1
si x (4, 5)

02 en otro caso
x
e
si x > 0
f (x) =
0
en otro caso
en donde > 0.
1 2
f (x) = 12 e 2 x para cualquier x R.
f (x) =

Definicin 6.23 (Variable aleatoria discreta). Se dice que una variable aleatoria real X
es discreta si existe una coleccin finita o infinita
numerable de nmeros reales, x1 , x2 , . . .,
P
tales que P [X = xk ] > 0 para cualquier xk y k P [X = xk ] = 1. En este caso, diremos que
el conjunto VX = {x1 , x2 , . . .} es el conjunto de posibles valores de X.
Ejemplo 6.24. Si A1 , A2 , . . . es una coleccin finita o numerable de eventos mutuamente
P
excluyentes y a1 , a2 , . . . son nmeros reales arbitrarios, entonces la funcin X = k ak IAk es
una variable aleatoria discreta.
En particular, Si A es un evento, entonces X = IA es una variable aleatoria discreta.
El ejemplo anterior da bsicamente la forma general de una variable aleatoria
discreta X pues
P
si VX = {x1 , x2 , . . .} es su conjunto de posibles valores y definimos Y = k xk I[X=xk ] , entonces
P [X = Y ] = 1.
Proposicin 6.25. Sea X una variable aleatoria discreta, entonces la probabilidad de que X
tome un valor finito es igual a 1.
Demostracin
Sea VX = {x1 , x2 , . . .} el conjunto de los posibles valores de X, entonces:
P
P [X VXc ] = 1 P [X VX ] = 1 k P [X = xk ] = 0
Por lo tanto:
P [X < ] = P [X < , X VX ] + P [X < , X VXc ]
P
= P [X VX ] = k P [X = xk ] = 1

Definicin 6.26 (Funcin de densidad de una variable aleatoria discreta). Sea X


una variable aleatoria discreta. La funcin fX : R 7 R definida por f (x) = P [X = x] es
llamada la funcin de densidad (o funcin de probabilidad) de X.
La definicin 6.23 implica inmediatamente el siguiente resultado:
Proposicin 6.27. Sea X una variable aleatoria discreta y fX su funcin de densidad, entonces:
(i) 0 fX (x) 1.

134

6. VARIABLES ALEATORIAS

(ii) Existe unPconjunto finito o infinito numerable D tal que fX (x) > 0 para cualquier
x D y xD fX (x) = 1.

Definicin 6.28 (Funcin de densidad discreta). Se dice que una funcin f : R 7 R es


una funcin de densidad discreta si satisface las propiedades i y ii de la ltima proposicin
Ejemplo 6.29. Las siguientes son funciones de densidad discretas:
x
cr si x {0, . . . , N }
f (x) =
0
en otro caso
1
si r = 1
1
N +1
en donde r > 0, N N y c = SN rx =
1r
si r 6= 1
x=0
1rN +1
x
cr si x {0, 1, . . .}
f (x) =
0
en otro caso

en donde 0 < r < 1 y c = S1 rx = 1 r


x=0
x
si x N
cr
f (x) =
0
en otro caso
en donde 0 < r < 1 y c = S 1 rx
x=0
c
si x N
x2
f (x) =
0 en otro caso

en donde k {2, 3, . . .} y c = S1 1 = 62
x=1 x2
1
si x N
x(x+1)
f (x) =
0
en otro caso
1
si x = 2k , k N
2k
f (x) =
0 en otro caso

1
si x = 2k , k N
k(k+1)2
Pk
1
si x = 0
1 k=1 k(k+1)2
f (x) =
k

0
en otro caso
e x
si x {0, 1, . . .}
x!
f (x) =
0
en otro caso
en donde > 0

Una variable aleatoria real no necesariamente cae en una de las dos categoras definidas arriba.
En general, dada una variable aleatoria X, existe un conjunto finito o infinito numerable
D
/ D y
Pcualquier x D, P [X = x] = 0 para cualquier x
P tal que P [X = x] > 0 para
P
[X
=
x]

1.
Cuando
P
[X
=
x]
=
1,
la
variable
aleatoria
es
discreta,
mientras
xD
xD
P
que cuando D = , la variable aleatoria es continua. Pero, si D 6= y xD P [X = x] < 1,
la variable aleatoria no es ni discreta ni continua.
Ejemplo 6.30. Sea

0
1 ex
FX (x) =
1

X una variable aleatoria con funcin de distribucin dada por:


si x < 0
si 0 x < 1
si x 1

6.4. INDEPENDENCIA DE VARIABLES ALEATORIAS

135

entonces P [X = 1] = e1 y P [X = x] = 0 para cualquier x 6= 1, de manera que X no es ni


discreta ni continua.
6.4. Independencia de variables aleatorias
Definicin 6.31 (Independencia de variables aleatorias). Se dice que n variables aleatorias, X1 , . . . , Xn , son independientes si para cualquier coleccin de subconjuntos borelianos de
nmeros reales, A1 , . . . , An , se tiene:
P [X1 A1 , . . . , Xn An ] = P [X1 A1 ] P [Xn An ]
Obsrvese que la condicin de independencia de X1 , . . . , Xn equivale a pedir que, para cualquier coleccin de subconjuntos de nmeros reales, A1 , . . . , An , los eventos [X1 A1 ], . . .,
[Xn An ] son independientes.

Proposicin 6.32. Sean X1 , . . . , Xn n variables aleatorias independientes, entonces cualquier


subcoleccin de ellas, Xi1 , . . . , Xik , es tambin una familia de variables aleatorias independientes.
Demostracin
Sean Ai1 , . . . , Aik subconjuntos borelianos de R y, para j {1, . . . , n}{i1 , . . . , ik }, definamos
Aj = R, entonces:
P [Xi1 Ai1 , . . . , Xik Aik ] = P [X1 A1 , . . . , Xn An ]
= P [X1 A1 ] P [Xn An ] = P [Xi1 Ai1 ] P [Xik Aik ]
Proposicin 6.33. Sean X1 , . . . , Xn n variables aleatorias independientes y f1 , . . . , fn n funciones borelianas de R en R. Entonces las variables aleatorias f1 (X1 ), . . . , fn (Xn ) son independientes.
Demostracin
Sean A1 , . . . , An subconjuntos borelianos de R, entonces f11 (A1 ), . . . , fn1 (An ) son tambin
subconjuntos borelianos de R, as que:

P [f1 (X1 ) A1 , . . . , fn (Xn ) An ] = P X1 f11 (A1 ), . . . , Xn fn1 (An )

= P X1 f11 (A1 ) P [Xn fn1 (An )] = P [f1 (X1 ) A1 ] P [fn (Xn ) An ]

Proposicin 6.34. Sean X1 , . . . , Xn , Xn+1 , . . . , Xn+m n+m variables aleatorias independientes y f : Rn 7 R y g : Rm 7 R dos funciones borelianas. Entonces, las variables aleatorias
f (X1 , . . . , Xn ) y g(Xn+1 , . . . , Xn+m ) son independientes.
Demostracin
Sea G la familia de subconjuntos B Rm tales que:
P [(X1 , . . . , Xn ) I, (Xn+1 , . . . , Xn+m ) B] = P [(X1 , . . . , Xn ) I] P [(Xn+1 , . . . , Xn+m ) B].
para cualquier intervalo I de Rn .
G es entonces un d-sistema que contiene a los rectngulos de Rm , as que, por el teorema 5.38,
G contiene a todos los borelianos de Rm .
Sea H la familia de subconjuntos A Rn tales que:
P [(X1 , . . . , Xn ) A, (Xn+1 , . . . , Xn+m ) B] = P [(X1 , . . . , Xn ) A] P [(Xn+1 , . . . , Xn+m ) B].

136

6. VARIABLES ALEATORIAS

para cualquier boreliano B de Rm .


H es entonces un d-sistema que contiene a los rectngulos de Rn , as que, por el teorema 5.38,
H contiene a todos los borelianos de Rn .
Por lo tanto:
P [(X1 , . . . , Xn ) A, (Xn+1 , . . . , Xn+m ) B] = P [(X1 , . . . , Xn ) A] P [(Xn+1 , . . . , Xn+m ) B]
para cualquier pareja de borelianos A y B de Rn y Rm , respectivamente.
Sean C y D subconjuntos borelianos de R, entonces f 1 (C) y g 1 (D) son subconjuntos borelianos de Rn y Rm , respectivamente. Por lo tanto:
P [f (X1 , . . . , Xn ) C, g(Xn+1 , . . . , Xn+m ) D]
= P [(X1 , . . . , Xn ) f 1 (C), (Xn+1 , . . . , Xn+m ) g1 (D)]
= P [(X1 , . . . , Xn ) f 1 (C)] P [(Xn+1 , . . . , Xn+m ) g 1 (D)]
= P [f (X1 , . . . , Xn ) C] P [g(Xn+1 , . . . , Xn+m ) D]
Las definiciones y resultados de las siguientes dos secciones se utilizarn ms adelante para el
estudio de las variables aleatorias.
6.5. Funcin gama
R
Proposicin 6.35. La integral 0 t1 et dt es finita para cualquier > 0.
Demostracin
Obsrvese que lmt t+1 et = 0, as que, existe K > 0 tal que t+1 et < 1 para cualquier
t K. Por lo tanto:
R 1 t
R 2 +1 t
R 2
t
e
dt
=
t
t
e
dt
<
t dt = K1 <
K
K
K
Adems:
RK
R K 1 t
t e dt < 0 t1 dt = 1 K <
0

Definicin 6.36 (Funcin gama). La funcin : (0, ) 7 R definida por () =


cuya grfica se muestra a continuacin, es llamada la funcin gama.

0.5

1.5

2.5

3.5

Proposicin 6.37. ( + 1) = () para cualquier > 0.


Demostracin
Integrando por partes se obtiene:
R
R
( + 1) = 0 t et dt = 0 t1 et dt = ()

R
0

t1 et dt,

6.5. FUNCIN GAMA

137

Corolario 6.38. Si n es un entero positivo, entonces (n) = (n 1)!


Por otra parte:
R 1
R
2
( 12 ) = 0 t 2 et dt = 2 0 ex dy
R
2
Sea A = ex dx, entonces:
hR
i hR
i R R
2
2
2

y 2
e
dy
= ex ey dxdy
A2 = ex dx

Ahora, cambiando a coordenadas polares, se obtiene:


R R 2
R
2
2
A2 = 0 0 rer ddr = 0 2rer dr =
Por lo tanto:
R x2

e dx =

As que:
R
R

2
2
( 12 ) = 2 0 ex dx = ex dx =
Mediante la funcin gama podemos expresar de otra forma de definicin de los coeficientes
binomiales (vase la seccin 3.4).
Proposicin 6.39. Sean x R y n {0, 1, . . .}, entonces:
(z+1)
si m z

z m!(zm+1)
m (mz)
(1) m!(z)
si z < 0
=
m

hzi(1hzi)
[[mz]] (z+1)(mz)
(1)
si 0 z < m
m!
(1+hzi)(2hzi)

en donde hzi representa a la parte decimal de z y [[m z]] a la parte entera de m z.

Demostracin

Para m = 0, de acuerdo con la definicin 3.11, mz = 1 para cualquier z R, as que el
resultado se cumple trivialmente.
Si 0 < m z, se tiene:
(z + 1) = z(z 1) (z m + 1)(z m + 1)
As que:
z z(z1)(z2)(zm+1)
(z+1)
= m!(zm+1)
=
m
m!
Si z < 0 < m, entonces 0 < m m 1 z, as que, de acuerdo con la proposicin 3.12 y el
resultado previo, se tiene

z
(mz)
m m1z
=
(1)
= (1)m m!(z)
m
m

Si 0 z < m, se tiene:
(z + 1) = z(z 1) (1 + hzi) (1 + hzi)
(m z) = (m z 1)(m z 2) (2 hzi) (2 hzi)
= (1)[[mz]]1 (hzi 2) (z m + 1) (2 hzi)
As que:
z z(z1)(z2)(zm+1)
hzi(1hzi)
= (1)[[mz]] (z+1)(mz)
=
m
m!
m!
(1+hzi)(2hzi)

138

6. VARIABLES ALEATORIAS

6.6. Frmulas de Wallis y de Stirling


Teorema 6.40 (Frmula de Wallis). lmn

224466(2n)2n)
13355(2n1)(2n1)(2n+1)

Demostracin
R
Para n {0, 1, . . .}, sea Sn = 02 senn xdx.
Como, para x (0, 2 ), 0 < senx < 1, la sucesin {Sn } es montona decreciente y Sn > 0
para cualquier n.
Por otra parte, integrando por partes, se obtiene, para n 2:
R
R
senn2 xdx
senn xdx = n1 senn1 x cos x + n1
n
As que:
R
R
Sn2
senn2 xdx = n1
Sn = 02 (senx)n dx = n1
n
n
Por lo tanto,

Sn
Sn+2

n+2
n+1

para cualquier n.

Adems, como la sucesin {Sn } es montona decreciente, se tiene


para cualquier n. As que:
n
n
SSn+2
= n+2
1 SSn+1
n+1
n
Por lo tanto, lmn SSn+1
=1

Tambin se tiene, para n 1:


2n3
S2n2 = 2n1
S
S2n = 2n1
2n
2n 2n2 2n4
= =

S2n+1 =
= =

2n1 2n3
2n3
12 S0 = 2n1
2n 2n2
2n 2n2
2n
2n 2n2
S
= 2n+1
S
2n+1 2n1
2n1 2n3
2n 2n2
2n 2n2
23 S1 = 2n+1
2n+1 2n1
2n1

As que:
S2n

= 13355(2n1)(2n1)(2n+1)
S2n+1
224466(2n)2n)
2

12 2 =
23 =

135(2n1)
246(2n) 2

246(2n)
35(2n+1)

Por lo tanto:

2n
= lmn SS2n+1
=1
lmn 13355(2n1)(2n1)(2n+1)
224466(2n)2n)
2
de lo cual se sigue el resultado.
2n

=
Corolario 6.41. lmn 2(2n)!(n!)
n

Demostracin
22n (n!)2
22n (n!)2
=
=
(2n)! n
123(2n) n
=

22n (n!)2

135(2n1)n!2n n

As que:
2n 2 2
2 (n!)

(2n)! n

22n (n!)2

135(2n1)246(2n) n

2n n!
135(2n1) n

224466(2n)2n)
13355(2n1)(2n1)n

246(2n)

135(2n1) n

224466(2n)2n)
2n+1
13355(2n1)(2n1)(2n+1) n

Por lo tanto, utilizando la frmula de Wallis, se obtiene:


2n 2 2
224466(2n)2n)
2n+1

= lmn 13355(2n1)(2n1)(2n+1)
=
lmn 2(2n)!(n!)
n
n
de lo cual se sigue el resultado.

Sn
Sn+1

1y

Sn
Sn+1

Sn
Sn+2

6.6. FRMULAS DE WALLIS Y DE STIRLING

Lema 6.42. Sea n N, entonces

1
2

ln(1 + n1 ) =

1
2n+1

1
1
3 (2n+1)3

139

1
1
5 (2n+1)5

Demostracin
Desarrollando la funcin f (x) = ln(1 + x) en serie de Taylor alrededor del cero, se obtiene:
ln(1 + x) = x 12 x2 + 13 x3 14 x4 +
ln(1 x) = x 12 x2 13 x3 14 x4
As que:
1
ln 1+x
= 12 ln(1 + x) 12 ln(1 x) = x + 13 x3 + 15 x5 +
2
1x
Tomando x =
1
2

ln(1 + n1 ) =

1
, se tiene 1+x
= 1 + n1 , as que:
2n+1
1x
1
1
1
1
+ 13 (2n+1)
3 + 5 (2n+1)5 +
2n+1

Teorema 6.43 (Frmula de Stirling). Sea n N, entonces n! =


1
1
donde 12n+1
< n < 12n
.

2nn en nen , en

Demostracin
n!
Sea (n) = nn en
, entonces:
n

n+ 12 1
n+1 e1 n+1
(n)

= (n+1)
= 1 + n1
e
(n+1)
(n+1)nn n

As que, utilizando el lema 6.42:

(n)
= n + 12 ln 1 + n1 1
ln (n+1)

1
1
1
1
+ 13 (2n+1)
+
+

1
= (2n + 1) 2n+1
3
5 (2n+1)5

1
1
3 (2n+1)2

1
1
5 (2n+1)4
(n)
tanto, (n+1)

1
1
7 (2n+1)6

+ > 0

> 1 para cualquier n N, lo cual significa que la sucesin {(n)} es


Por lo
montona decreciente.
Adems:
h
i
1
1
1
1
1
1
1
1
1
1
+ 5 (2n+1)4 + 7 (2n+1)6 + < 3 (2n+1)2 + (2n+1)4 + (2n+1)6 +
3 (2n+1)2
=

1
1
3 (2n+1)2 1

1
12n(n+1)

1
12n

1
12n
1
}
12n

Por lo tanto, ln (n)

1
12(n+1)

< ln (n + 1)

1
12(n+1)

para cualquier n N, lo cual significa que


1

es montona creciente y entonces tambin la sucesin {(n)e 12n }


la sucesin {ln (n)
es montona creciente.
Tambin se tiene:
1
1
1
1
1
1
1
1
1
+ 15 (2n+1)
4 + 7 (2n+1)6 + > 3 (2n+1)2 > 12n+1 12(n+1)+1
3 (2n+1)2

1
1
Por lo tanto, ln (n) 12n+1
> ln (n + 1) 12(n+1)+1
para cualquier n N, lo cual significa
1
que la sucesin {ln (n) 12n+1 } es montona decreciente y entonces tambin la sucesin
1

{(n)e 12n+1 } es montona decreciente.


Sea A = lmn (n), entonces:
1

lmn (n)e 12n = A y, como la sucesin {(n)e 12n } es montona creciente, (n)e 12n A
para cualquier n N. En particular, A > 0.

140

6. VARIABLES ALEATORIAS
1

lmn (n)e 12n+1 = A y, como la sucesin {(n)e 12n+1 } es montona decreciente, A


1
(n)e 12n+1 para cualquier n N.
De las siguientes desigualdades:
1

(n)e 12n A (n)e 12n+1 para cualquier n N


se sigue:
1

Ae 12n+1 (n) Ae 12n para cualquier n N


As que:
n!
1
1
= (n) = Aen , en donde 12n+1
n 12n
y A = lmn (n) > 0.
nn en n

Resta nicamente probar que A = 2- Para esto, se tiene:


2 (n)
(2n)

(2n)2n e2n 2n (n!)2


(2n)!
n2n e2n n

22n (n!)2 2

(2n)! n

As que, por el corolario 6.41:


A=

A2
A

= lmn

2 (n)
(2n)

2n

(n!) 2

= lmn 2 (2n)!
=
n

EJERCICIOS
Ejercicio 6.1. Sea X una variable aleatoria continua. Exprese P [|X 1| > 2] en trminos
de la funcin de distribucin, FX , de X.
Ejercicio 6.2. Sea X una variable aleatoria con funcin de distribucin dada por:

FX (x) =

Encuentre a) P

1
2

<X<

5
2

12 x2

si
si
3
si
4
1
(x + 1) si
4
1
si

x<0
x [0, 1)
x [1, 2)
x [2, 3)
x3

, b) P [X < 1], c) P [X = 1] y d) P X = 12 .

Ejercicio 6.3. Sea f la funcin definida por:

x + 1 si 1 < x < 0
2x 6 si 3 < x < c
f (x) =
0
en otro caso

en donde c es una constante. a) Determine el valor de c de tal manera que f sea una funcin
de densidad. b) Encuentre la funcin de distribucin correspondiente a f .
Ejercicio 6.4. Sea f la funcin definida por:
f (x) =

C(x3 2x) si 0 < x < 52


0
en otro caso

en donde C es una constante. Podra ser f una funcin de densidad?

EJERCICIOS

141

Ejercicio 6.5. El volumen de ventas (en miles de galones) por semana de una estacin de
gasolina es una variable aleatoria con funcin de densidad dada por:
f (x) =

5(1 x)4 si 0 < x < 1


0
en otro caso

Si la estacin es abastecida de gasolina una vez por semana, cul debe ser la capacidad del
tanque para que la probabilidad de que se rebase sea menor que 0.01?
Ejercicio 6.6. Una urna contiene n tarjetas numeradas del 1 al n. Un experimento aleatorio
consiste en seleccionar tarjetas al azar, una a una y con reemplazo, hasta que se obtiene una
tarjeta que ya se seleccion con anterioridad. Encuentre la funcin de densidad de la variable
aleatoria X definida como el nmero de tarjetas que son seleccionadas en este proceso.
Ejercicio 6.7. Muestre con un ejemplo que existen variables aleatorias X y Y tales que X 2
y Y 2 son independientes, pero X y Y no lo son.

CAPTULO 7

VARIABLES ALEATORIAS DISCRETAS


Todo debera hacerse tan simple como sea posible, pero
no ms simple.
Albert Einstein

7.1. Distribucin binomial


Definicin 7.1 (Distribucin binomial). Si n N y p [0, 1], se dice que una variable
aleatoria X tiene distribucin binomial con parmetros n y p si su funcin de densidad est
dada por la frmula:
n x
p (1 p)nx si x {0, . . . , n}
x
fX (x) =
0
en otro caso

El nombre binomial obedece a que los trminos nx px (1 p)nx son los del desarrollo de
(p + q)n , en donde q = 1 p.
La distribucin binomial surgi prcticamente desde los inicios del Clculo de Probabilidades,
al considerarse el experimento aleatorio consistente en lanzar n veces un dado y buscar la
probabilidad de obtener una de las caras cierto nmero de veces. Se encuentra por primera
vez en el tratado sobre probabilidad de Jacques Bernoulli titulado Ars Conjectandi, el cual
fue publicado postumamente en el ao 1713. Surge ah como solucin de un problema que
plantea Christiaan Huygens en su libro, De ratiociniis in ludo ale, el cual consiste en lo
siguiente:
Cuntas veces debe lanzarse un dado para que sea ms favorable obtener por lo menos dos
veces el nmero 6?
Bernoulli plante y resolvi la siguiente forma general del problema de Huygens:
Supongamos que se tiene un dado con a = b + c caras y que un jugador apuesta a que, en
n tiradas sucesivas del dado, obtendr por lo menos m veces alguna de las b caras del dado,
cul es la probabilidad de que tal jugador consiga su objetivo?
Bernoulli resolvi este problema estableciendo primero que, el lanzar n veces uno de tales
dados es equivalente a lanzar una vez n dados con la misma configuracin. Al lanzar n dados
con a caras cada uno, hay an posibles resultados; de ellos hay cn casos en los cuales no se
obtiene alguna de las b caras con ninguno de los n dados; adems, hay bk cnk casos en que,
con cada uno de k dados particulares, se obtiene
n alguna de las b caras y en el resto se obtiene
alguna de las c caras. Habiendo un total de k maneras en que se pueden seleccionar k dados
143

144

7. VARIABLES ALEATORIAS DISCRETAS

n
particulares de entre los
n, obtuvo entonces que de los a posibles resultados del lanzamiento
n k nk
de los n dados, hay k b c
casos en los cuales el jugador obtiene k de las caras por las que
ha apostado; la probabilidad de que ste no consiga su objetivo est dada entonces por:
n1 2 n2
n bm1 cnm+1
cn
+ n1 bcan + n2 b can + + m1
an
an

De manera general, la distribucin binomial se obtiene dentro del contexto de los llamados
ensayos de Bernoulli (ver seccin 5.1):
Supongamos que se realizan n ensayos de Bernoulli de tal manera que se satisfagan las siguientes condiciones:
Cada ensayo es independiente de los dems.
La probabilidad de xito en cada ensayo es igual a una constante p.

Si definimos X como el nmero de xitos que se obtienen en los n ensayos, entonces X tiene
distribucin binomial con parmetros n y p. En efecto, para k {1, . . . , n}, la probabilidad

de obtener k xitos y n k fracasos, en lugares fijos, es igual a pk (1 p)k , y hay nk maneras
en que se pueden seleccionar k lugares fijos para los xitos, por
lo tanto, la probabilidad de
obtener exactamente k xitos en los n ensayos est dada por nk pk (1 p)k .
Como vimos en el ejemplo 3.9, esta situacin se presenta de manera tpica en problemas de
muestreo con reemplazo. De manera especfica, cuando se toma una muestra aleatoria con
reemplazo de una poblacin formada por dos tipos de objetos, I y II, la variable aleatoria
X definida como el nmero de objetos de tipo I (o II), que se obtienen en la muestra, tiene
distribucin binomial.

Proposicin 7.2. Los trminos tk = nk pk (1 p)k , de una distribucin binomial, crecen con
k hasta alcanzar su mximo valor cuando np + p 1 k np + p, despus de lo cual decrecen
con k.
Demostracin

Para k {0, . . . , n}, sea tk = nk pk (1 p)nk . Se tiene entonces, para k {1, . . . , n}:
n
)pk1 qnk+1
(k1
tk1
kq
=
= (nk+1)p
tk
(nk)pk qnk
De manera que tk1 tk si y slo si kq np kp + p, es decir, k np + p.
Para k {0, . . . , n 1}, se tiene:
(n)pk qnk
(k+1)q
tk
= n kpk+1 qnk+1 = (nk)p
tk+1
(k+1)
De manera que tk tk+1 si y slo si kq + q np kp, es decir, k np q = np + p 1.
A continuacin se presentan las grficas de algunas funciones de densidad tipo binomial. Con
el objeto de visualizar ms fcilmente la forma que adquieren, se han trazado continuas,
(n+1)
graficando la funcin f (x) = (x+1)(nx+1)
px (1 p)nx , definida en el intervalo [0, n]. Evidentemente, los valores de la funcin de densidad corresponden nicamente a los valores enteros
comprendidos entre 0 y n inclusive.

7.1. DISTRIBUCIN BINOMIAL


0.4

0.4

0.25
0.2

0.3

145

0.3

0.15
0.2

0.2
0.1

0.1

0.1

0.05

n = 10, p =

10

1
8

n = 10, p =

10

1
2

10

7
8

n = 10, p =

0.2

0.18

0.18

0.08

0.16

0.16

0.14

0.14

0.06

0.12

0.12
0.1

0.1
0.04

0.08

0.08
0.06

0.06
0.02

0.04

0.04

0.02
0

0.02
2

8x

10

12

n = 100, p =

14

1
20

16

20

30

40x

50

n = 100, p =

60

2
5

84 86

88

90

92x 94

96

98 100

n = 100, p =

19
20

Ejemplo 7.3. Una parte de un satlite est compuesta por 10 componentes independientes,
de tal manera que dicha parte funciona nicamente si por lo menos 6 de sus partes funcionan.
En un da lluvioso cada una de las componentes funciona con probabilidad p1 = 12 , mientras
que en un da sin lluvia cada una de las componentes funciona con probabilidad p2 = 34 .
Suponiendo que la probabilidad de que maana llueva es igual a 14 , cul es la probabilidad de
que la mencionada parte del satlite funcione bien?
Solucin
Sea X el nmero de componentes que funcionan y definamos los eventos:
A: la parte funciona.
B: el da es lluvioso.
Se tiene entonces:
P 10 j
10j
P (A | B) = P (X 6 | B) = 10
j=6 j p1 (1 p1 )
P 10 j
10j
P (A | B c ) = P (X 6 | B c ) = 10
j=6 j p2 (1 p2 )
P (A) = P (A | B)P (B) + P (A | B c )P (B c )
P 10 j
P 10 j
10j
10j
+ 34 10
= 1647613
= 0.78564
= 14 10
j=6 j p1 (1 p1 )
j=6 j p2 (1 p2 )
2097152
Obsrvese que, para i 6= j, los eventos, la componente i funciona y la componente j funciona, no son independientes. En efecto, definamos los eventos:
Cj : la componente j funciona.
Entonces:
P (Cj ) = P (Cj | B)P (B) + P (Cj | B c )P (B c ) = 12 41 + 34 43 = 11
16
9 3
P (Ci Cj ) = P (Ci Cj | B)P (B) + P (Ci Cj | B c )P (B c ) = 14 41 + 16
= 31
= 124
4
64
256
11 11
121
P (Ci )P (Cj ) = 16 16 = 256

146

7. VARIABLES ALEATORIAS DISCRETAS

As que, P (Ci Cj ) 6= P (Ci )P (Cj ).


Esto se puede explicar observando que si C1 ocurre, entonces la probabilidad de lluvia disminuye, en efecto:
P (B) = 14 = 11
44
mientras que:
P (B | C1 ) =

P (C1 |B)P (B)


P (C1 )

11
24
11
16

2
11

8
44

Esto hace que la probabilidad de que C2 ocurra se incremente, en efecto:


= 121
P (C2 ) = 11
16
176
mientras que:
P (C2 | C1 ) =

P (Ci1 C2 )
P (C1 )

31
64
11
16

31
44

124
176

La distribucin binomial es una de las distribuciones ms importantes de la Teora de la


Probabilidad pues su estudio ha conducido a resultados fundamentales. Jacques Bernoulli,
adems de ser el primero en obtenerla, realiz un estudio a fondo de ella al plantearse el
problema de demostrar que la frecuencia relativa de ocurrencia de un evento se aproxima a la
probabilidad del mismo.
Si p es la probabilidad de ocurrencia de un evento A en un determinado experimento aleatorio,
entonces llamando Xn al nmero de veces que ocurre A al realizar n repeticiones independientes
del experimento, Xn tiene distribucin binomial con parmetros n y p.
Ahora bien, Xnn es la frecuencia relativa de ocurrencia de A en las n repeticiones del experimento. Bernoulli demostr entonces que dado cualquier nmero > 0, se tiene:

lmn P Xn p > = 0
n

Este resultado, cuya demostracin llev a Bernoulli 20 aos, se conoce como el teorema de
Bernoulli y constituye el primero de los llamados teoremas lmite de la Teora de la Probabilidad. Su publicacin marc una lnea de investigacin, la cual se extendi durante un
periodo de ms de 200 aos, hasta concluir en las versiones generales de este teorema y otros
similares.
Dentro de la teora moderna, el teorema de Bernoulli es nicamente un caso particular de la
ley dbil de los grandes nmeros. Sin embargo, resulta ilustrativa una demostracin directa,
la cual puede realizarse con la herramienta que se tiene desarrollada hasta este momento.
Proposicin 7.4 (Teorema de Bernoulli). Sea E un experimento aleatorio y A un evento
relativo a ese experimento, de probabilidad igual a p. Consideremos un nuevo experimento
aleatorio consistente en la repeticin indefinida del experimento E, de tal manera que cada
repeticin es independiente de las otras. Sea Xn el nmero de veces que ocurre el evento A en
las primeras n repeticiones del experimento y un nmero positivo arbitrario, entonces:

lmn P Xn p > = 0
n

Demostracin
Sabemos
que Xn tiene distribucin binomial de parmetros n y p. Para j {0, . . . , n}, sea
tj = nj pj (1 p)nj . De acuerdo con la proposicin 7.2, los trminos tj crecen con j hasta
alcanzar su mximo valor cuando np + p 1 j np + p, despus de lo cual decrecen

7.1. DISTRIBUCIN BINOMIAL

con j. Adems, la sucesin sj =


j {2, . . . , n}, se tiene:

sj =

tj
tj1

(nj+1)p
jq

<

(nj+2)p
(j1)q

Sea j k > (n + 1)p y r =


tj =

tj
t
tj1 j1

tk
t
tk1 j1

tk
tk1

tj
,
tj1

tj1
tj2

con j {1, . . . , n} , es decreciente. En efecto, para

= sj1

(nk+1)p
,
kq

(nk+1)p
tj1
kq

147

entonces 0 < r < 1 y:

= rtj1

As que:
tj rtj1 r2 tj2 rjk tk
Por lo tanto:
P
P
P [Xn k] = nj=k tj tk nj=k rjk <

1
t
1r k

kq
t
k(n+1)p k

Sea m el nico nmero entero tal que (n + 1)p 1 < m (n + 1)p, entonces, como tm >
tm+1 > > tk1 > tk , se tiene:
1 > tm + tm+1 + + tk1 > (k m)tk [k (n + 1)p] tk
1
As que tk < k(n+1)p
. Por lo tanto:
P [Xn k] <

kq
[k(n+1)p]2

Dada > 0 y n N tal que n > 1, sea k0 el nico entero tal que np + n < k0 np + n + 1,
entonces:

k0 q
P Xnn p > = P [Xn > np + n] = P [Xn k0 ] < [k (n+1)p]
2
0

(np+n+1)q
[np+n(n+1)p]2

(np+n+1)q
[np]2

Por lo tanto:

lmn P Xnn p > = 0


Sea Yn el nmero de veces que no ocurre el evento A en las primeras n repeticiones del
experimento, se tiene entonces Yn = n Xn , as que:

lmn P Xnn p < = lmn P q Ynn < = lmn P Ynn q > = 0


Por lo tanto:

lmn P Xnn p > = 0


El teorema de Bernoulli no asegura que, en una sucesin infinita de repeticiones del experimento E, la frecuencia relativa de ocurrencia de A, en las primeras n repeticiones del
experimento, tenga un lmite igual a p, lo cual demostrara la validez de la interpretacin
frecuencial de la probabilidad.
Lo que afirma es que, dada cualquier > 0, la probabilidad

Xn

del evento n p se acerca a 1 a medida que n crece. Es decir, establece una relacin
en trminos de probabilidades. Para aclarar el resultado, supongamos que el experimento E
consiste en el lanzamiento de un dado y que A representa la obtencin de un 6 al realizar
el experimento. La probabilidad p = 16 significa entonces, en este caso, que se tiene 1 caso
favorable y 5 desfavorables para la ocurrencia de A. En n repeticiones del experimento hay
un total de 6n posibles resultados, todos ellos con la misma probabilidad, de manera que si
llamamos An (resp. Bn ) al nmero de posibles resultados que favorecen la ocurrencia del

148

7. VARIABLES ALEATORIAS DISCRETAS

Xn

p > ) en las n repeticiones del experimento, se tiene


evento Xnn p

(resp.

An + Bn = 6n , P Xnn p = A6nn y P Xnn p > = B6nn . As que:


lmn

An
Bn

= lmn

P [| Xnn p|]
P [| Xnn p|>]

As que, en este caso, una formulacin equivalente del teorema de Bernoulli consiste en decir
que, a medida
n crece, el nmero de posibles resultados que favorecen la ocurrencia del
Xn que

p se hace mucho
evento
n
Xnms grande
que el nmero de posibles resultados que
p > , de tal manera que su cociente tiende a ,
favorecen la ocurrenciadel evento

n
pero no que el evento Xnn p ocurra con seguridad.
De
tambin equivalente,
manera

Xn

se puede decir que para determinar si el evento B = n p ocurre, se pueden colocar


An bolas blancas y Bn bolas negras en una urna, despus de lo cual se selecciona una bola
al azar. Si sta resulta blanca, entonces B ocurre. Evidentemente, el que An sea muchsimo
ms grande que Bn (para n grande) no significa que al seleccionar una bola al azar de la
urna, sta sea necesariamente blanca. Tampoco significa que si se repite muchas veces el
experimento aleatorio consistente en seleccionar, al azar y con reemplazo, una bola de esa
urna, casi siempre se obtendr una bola blanca. El que esto ocurriera sera un resultado
experimental que reforzara una interpretacin frecuencial de la probabilidad, pero no una
prueba de la validez del teorema de Bernoulli. De hecho, el teorema de Bernoulli, siendo
un resultado terico dentro del modelo de probabilidad que hemos definido, no requiere de
ninguna verificacin experimental, es vlido como cualquier resultado que se demuestre en
cualquier teora matemtica.
Por otro lado, si bien el teorema de Bernoulli no demuestra la validez de la interpretacin
frecuencial de la probabilidad, si se muestra con l que tal interpretacin es compatible con el
modelo probabilstico que hemos definido, haciendo as que las aplicaciones de la Teora de la
Probabilidad basadas en su interpretacin frecuencial tengan bases ms slidas.
Adems, la publicacin del teorema de Bernoulli, en el ao 1713, hizo renacer el inters por la
Teora de Probabilidad, la cual, despus de la publicacin del trabajo de Christiaan Huygens,
en el ao 1657, haba quedado relegada, siendo vista nicamente como una curiosidad que
tena que ver exclusivamente con los juegos de azar. Siguiendo a Bernoulli vendran despus
los trabajos de Abraham de Moivre, Simon Denis Poisson y Pierre Simon Laplace, marcndose
as, como dijimos arriba, una lnea de investigacin que se extendi por un periodo de ms de
200 aos.
7.2. Distribucin geomtrica
Definicin 7.5 (Distribucin geomtrica). Dado p (0, 1], se dice que una variable
aleatoria X tiene distribucin geomtrica con parmetro p si su funcin de densidad est dada
por la frmula:

p(1 p)x si x {0, 1, . . .}


fX (x) =
0
en otro caso
El nombre P
geomtrica obedece a que los trminos p(1 p)x son los trminos de la serie
geomtrica x p(1 p)x .
P
x
Como
x=0 p(1 p) = 1, efectivamente X resulta ser una variable aleatoria discreta.

7.2. DISTRIBUCIN GEOMTRICA

149

La distribucin geomtrica surge tambin dentro del contexto de los ensayos de Bernoulli.
Supongamos que se realiza una sucesin indefinida de ensayos de Bernoulli independientes, en
cada uno de los cuales la probabilidad de xito es igual a p. Definamos X como el nmero de
fracasos que se obtienen antes del primer xito. X tiene entonces distribucin geomtrica con
parmetro p. En efecto, para k {0, 1, . . .}, definamos los siguientes eventos:
Ak : Se obtiene fracaso en cada uno de los primeros k ensayos.
B: Se obtiene xito en el ensayo nmero k.
Entonces:
P [X = k] = P (Ak B) = P (Ak )P (B) = (1 p)k p
A continuacin se presentan las grficas de algunas funciones de densidad tipo geomtrica.
Con el objeto de visualizar ms fcilmente la forma que adquieren, se han trazado continuas,
graficando la funcin f (x) = p(1 p)x , definida en el intervalo [0, ). Evidentemente, los
valores de la funcin de densidad corresponden nicamente a los valores enteros no negativos.
0.5

0.12

0.8
0.4

0.1

0.6

0.08

0.3

0.06

0.4

0.2
0.04

0.2

0.1

0.02

10

20
x

p=

30

1
8

40

4x

p=

1
2

0.5

1.5
x

p=

2.5

7
8

Ejemplo 7.6. Cada una de 12 personas lanza una moneda indefinidamente, deteniendo sus
lanzamientos en el momento en que obtiene por primera vez guila. Cul es la probabilidad
de que por lo menos 10 de ellas realicen menos de 4 lanzamientos?
Solucin
Sea X el nmero de lanzamientos que se realizan antes de obtener por primera vez guila
al lanzar una moneda indefinidamente y Y el nmero de personas que realizan menos de 4
lanzamientos. Y tiene entonces distribucin binomial con parmetros n = 12 y p = P [X < 3].
A su vez, X tiene distribucin geomtrica de parmetro 12 . As que:
k
P
p = P [X < 3] = P [X 2] = 2k=0 12 12 = 78
12 7 k 1 12k
P
P [Y 10] = 12
= 0.818
k=10 k
8
8
Ejemplo 7.7. Sea X una variable aleatoria con distribucin geomtrica. Demuestre que para
cualquier par de nmeros enteros no negativos n y k, se tiene:
P [X = k + n | X > n 1] = P [X = k]
Obsrvese que este resultado dice que si en una sucesin de ensayos de Bernoulli independientes ya han ocurrido n fracasos, entonces la probabilidad de que haya k fracasos ms antes
del primer xito se puede calcular como si se reiniciara el proceso. Este resultado se puede
interpretar diciendo que una variable aleatoria con distribucin geomtrica no tiene memoria.
Solucin

150

7. VARIABLES ALEATORIAS DISCRETAS

P [X = k + n | X > n 1] =

P [X=k+n,X>n1]
P [X>n1]

P [X=k+n]
P [X>n1]

p(1p)k+n
(1p)n

= p(1 p)k = P [X = k]

Dado que una variable aleatoria X con distribucin geomtrica es discreta, se tiene P [X < ] =
1 (ver proposicin 6.25). Esta propiedad aparentemente tan simple expresa que, en una sucesin indefinida de ensayos de Bernoulli independientes, todos con la misma probabilidad de
xito, la probabilidad de que en algn momento se produzca xito es igual a 1. Como ya se
expuso en la seccin 5.3, la aplicacin de este resultado produce otros que pueden parecer
sorprendentes, por ejemplo, ah vimos que si C es el conjunto de caracteres tipogrficos (incluyendo el espacio blanco) que se utilizan en la obra Hamlet de Shakespeare y consideramos
el experimento aleatorio consistente en escribir una secuencia indefinida de caracteres, cada
uno seleccionado al azar del conjunto C, entonces la probabilidad de que en algn momento
una subsecuencia de caracteres coincida exactamente con la obra de Shakespeare es igual a 1.
7.3. Distribucin binomial negativa
Definicin 7.8 (Distribucin binomial negativa). Si r (0, ) y p (0, 1], se dice
que una variable aleatoria X tiene distribucin binomial negativa con parmetros r y p si su
funcin de densidad est dada por la frmula:
r+x1 r
p (1 p)x si x {0, 1, . . .}
x
fX (x) =
0
en otro caso
De acuerdo con las proposiciones 3.12 y 6.39, esta densidad puede escribirse tambin en la
forma siguiente:
(r+x) r

r
p (1 p)x si x {0, 1, . . .}
p (1 p)x si x {0, 1, . . .}
(1)x r
x!(r)
x
fX (x) =
=
0
en otro caso
0
en otro caso
r+x1 r
El nombre binomial negativa obedece a que los trminos
p (1p)x son los del desarrollo
x
q r
1
de ( p p ) , en donde q = 1 p. En efecto, por el corolario 3.15 y la proposicin 3.12, se
tiene:
P r q k 1 rk
( p1 pq )r = ( pq + 1p )r =
p
k=0 k
p

P
P

r
r+k1
= k=0 (1)k k pr q k = k=0
pr q k
k
La distribucin binomial negativa se obtuvo por primera vez en las soluciones que dieron
Blaise Pascal y Pierre de Fermat, en el ao de 1654, al llamado problema de la divisin de
apuestas, el cual consiste en lo siguiente:
Cmo deben repartirse las apuestas en un juego que se interrumpe? Por ejemplo, suponiendo
que dos jugadores, A y B, apuestan 32 pesos cada uno en un juego que consiste de partidas
consecutivas, en cada una de las cuales cada jugador tiene la misma posibilidad de ganarla
y quien la gane acumula un punto, de tal manera que el juego es ganado por quien obtenga
primero cuatro puntos, cmo deben de repartirse las apuestas en caso de que el juego se
interrumpa cuando el jugador A ha ganado dos puntos y B un punto?
Para que se vea ms claramente como surge la distribucin binomial negativa en la solucin
de este problema, consideremos un juego que se interrumpe cuando a los jugadores A y B les
faltan r y s puntos para ganar, respectivamente.

7.3. DISTRIBUCIN BINOMIAL NEGATIVA

151

Partiendo de esa situacin, el jugador A ganar el juego cuando, en las siguientes r + s 1


partidas, B gane a lo ms
s
r+s1
1 1de ellas, pero la probabilidad de que B gane k de r + s 1
partidas est dada por
, es decir por una distribucin binomial negativa. De esta
2r+s1
k
forma, la probabilidad de que A gane el juego est dada por:
r+s1 1
r+s1 1
1

+
+

+
P (A) = r+s1
r+s1
r+s1
0
1
s1 2r+s1
2
2
Esencialmente, este resultado es el que encontraron tanto Pascal como Fermat.
La distribucin binomial negativa se obtiene tambin dentro del contexto de los ensayos de
Bernoulli. Supongamos que se realiza una sucesin indefinida de ensayos de Bernoulli independientes, en cada uno de los cuales la probabilidad de xito es igual a p. Definamos X como
el nmero de fracasos que se obtienen antes del xito r. X tiene entonces distribucin binomial
negativa con parmetros r y p; en efecto, para k {0, 1, . . .}, definamos los siguientes eventos:
Ak : Se obtienen r 1 xitos en los primeros r + k 1 ensayos.
B: Se obtiene xito en el ensayo nmero r + k.
Entonces:

r1

r
p (1 p)k p = r+k1
p (1 p)k
P [X = k] = P (Ak B) = P (Ak )P (B) = r+k1
r1
k
Obsrvese que en el problema de la divisin de apuestas, partiendo de que a los jugadores A
y B les faltan r y s puntos para ganar, respectivamente, el jugador A ganar el juego cuando,
en las siguientes r + s 1 partidas, el nmero de derrotas antes del r-simo triunfo sea menor
que s.

r
Proposicin 7.9. Los trminos tk = r+k1
p (1p)k , de una distribucin binomial negativa,
k
crecen con k hasta alcanzar su mximo valor cuando (r1)q
1 k (r1)q
, despus de lo
p
p
cual decrecen con k.
Demostracin

r
p (1 p)k . Se tiene entonces, para k {1, 2, . . .}:
Para k {0, 1, . . .}, sea tk = r+k1
k
pr (1p)k1
(r+k2
tk1
k
k1 )
=
= (r+k1)(1p)
r+k1 r
tk
( k )p (1p)k
De manera que tk1 tk si y slo si k (r + k 1)(1 p), es decir, k

(r1)q
.
p

De manera que tk tk+1 si y slo si k + 1 (r + k)(1 p), es decir, k

rq1
p

Para k {0, 1, . . .}, se tiene:


)pr (1p)k
(r+k1
tk
k+1
k
=
= (r+k)(1p)
r+k
tk+1
(k+1)pr (1p)k+1

(r1)q
p

1.

A continuacin se presentan las grficas de algunas funciones de densidad tipo binomial negativa. Con el objeto de visualizar ms fcilmente la forma que adquieren, se han trazado
(r+x)
continuas, graficando la funcin f (x) = (x+1)(r)
pr (1 p)x , definida en el intervalo [0, ).
Evidentemente, los valores de la funcin de densidad corresponden nicamente a los valores
enteros no negativos.

152

7. VARIABLES ALEATORIAS DISCRETAS

.016

0.3

0.08

.014

0.25

.012

0.06

0.2

0.01
.008

0.15

0.04

.006

0.1

.004

0.02

0.05

.002
0

20

40

60

80x 100 120 140 160

r = 10, p =

1
8

10

15
x

20

25

r = 10, p =

30

1
2

4x

r = 10, p =

7
8

.025
0025

0.16
0.14

0.02
.002

0.12
.015

0.1

0015

0.08

0.01

0.06

.001

0.04

.005

0.02

0005
0
0

1200 1400 1600 1800x2000 2200 2400 2600

r = 100, p =

1
20

80 100 120 140 x160 180 200 220

r = 100, p =

2
5

x8

10

12

r = 100, p =

14

19
20

Ejemplo 7.10. Cuando una determinada mquina no est bien ajustada, la probabilidad de
que produzca un artculo defectuoso es igual a 0.2. Cada da la mquina se pone a funcionar
y se detiene para su ajuste en el momento en que ya ha producido 3 artculos defectuosos.
Cul es la probabilidad de que, estando desajustada, la mquina producir por lo menos 5
artculos antes de ser detenida para su ajuste?
Solucin
Sea X el nmero de artculos que produce una mquina desajustada antes de ser detenida para
su ajuste; los posible valores de X son entonces 3, 4, . . .. Si llamamos xito a la produccin
de un artculo defectuoso, entonces, para k {3, 4, . . .}, el evento [X = k] ocurre cuando se
tienen k 3 fracasos antes del tercer xito, por lo tanto:


P [X = k] = k1
(0.8)k3 (0.2)3 = k1
(0.8)k3 (0.2)3
k3
2
As que:
P [X 5] = 1 P [X = 3] P [X = 4]

= 1 22 (0.8)0 (0.2)3 32 (0.8)1 (0.2)3 = 0.9728

Ejemplo 7.11. Se lanza una moneda tantas veces como sea necesario hasta obtener 5 veces
sol. Sabiendo que en los primeros 6 lanzamientos an no se logra el objetivo, cul es la
probabilidad de que se requieran, en total, menos de 9 lanzamientos para lograrlo?
Solucin
Llamemos xito al hecho de obtener sol al lanzar la moneda una vez y sea X el nmero de
fracasos antes del quinto xito. X tiene entonces distribucin binomial negativa con parmetros p = 12 y r = 5, y se busca P [X 3 | X 2].
(6)p5 (1p)2 +(7)p5 (1p)3
P [X=2]+P [X=3]
65
= 1P
= 12 4 p5 (1p)0 3 5 p5 (1p) = 228
= 0.285088
P [X 3 | X 2] = P [X3,X2]
P [X2]
[X=0]P [X=1]
(0)
(1)

7.4. DISTRIBUCIN POISSON

153

Dado que una variable aleatoria X con distribucin binomial negativa es discreta, se tiene
P [X < ] = 1 (ver proposicin 6.25). Esta propiedad expresa que, para cualquier r
N, en una sucesin indefinida de ensayos de Bernoulli independientes, todos con la misma
probabilidad de xito, la probabilidad de obtener por lo menos r xitos es igual a 1.
De aqu se sigue un resultado ms fuerte, ya expuesto en la seccin 5.3: Consideremos una
sucesin indefinida de ensayos de Bernoulli independientes, todos con la misma probabilidad
de xito, y definamos los eventos:
B: se produce un nmero infinito de xitos.
Bk : se producen por lo menos k xitos.
Entonces, la sucesin de eventos B1 , B2 , . . . es montona decreciente y su interseccin es B.
Se tiene entonces:
T
P (B) = P (
mk P (Bk ) = 1
k=1 Bk ) = l
Por lo tanto, con probabilidad 1, se produce una infinidad de xitos.
Como ya se expuso en la seccin 5.3, la aplicacin de este resultado produce otros que pueden
parecer sorprendentes, por ejemplo, ah vimos que si C es el conjunto de caracteres tipogrficos
(incluyendo el espacio blanco) que se utilizan en la obra Hamlet de Shakespeare y consideramos
el experimento aleatorio consistente en escribir una secuencia indefinida de caracteres, cada
uno seleccionado al azar del conjunto C, entonces la probabilidad de que alguna subsecuencia
de caracteres coincida exactamente con la obra de Shakespeare, una infinidad de veces, es
igual a 1.
Para r N, la distribucin binomial negativa puede obtenerse de la distribucin binomial
observando que si X tiene distribucin binomial negativa de parmetros r y p, entonces, para
cada entero no negativo k, se tiene:

r
r+k r
r
r
k
P [X = k] = r+k1
(1

p)
=
P [Y = r]
p
p (1 p)k = r+k
r1
r
r+k
en donde Y es una variable aleatoria con distribucin binomial de parmetros r + k y p.
7.4. Distribucin Poisson
Definicin 7.12 (Distribucin Poisson). Si es un nmero real positivo, se dice que una
variable aleatoria X tiene distribucin Poisson de parmetro si su funcin de densidad est
dada por la frmula:
x e
si x {0, 1, . . .}
x!
fX (x) =
0
en otro caso

Ejemplo 7.13. Supongamos que el nmero de accidentes que ocurren en una cierta carretera
tiene una distribucin Poisson de parmetro = 2. Cul es la probabilidad de que en un da
ocurran, en esa carretera, ms de dos accidentes, sabiendo que ocurre por lo menos uno?
Solucin
Sea X el nmero de accidentes que ocurren en la carretera, entonces:
P [X > 2 | X 1] =

P [X>2,X1]
P [X1]

P [X>2]
P [X1]

1P [X2]
1P [X=0]

1e (1++2 /2)
1e

15e2
1e2

= 0.37393

e
, de una distribucin Poisson, crecen con k hasta
Proposicin 7.14. Los trminos tk = k!
alcanzar su mximo valor cuando 1 k , despus de lo cual decrecen con k.

154

7. VARIABLES ALEATORIAS DISCRETAS

Demostracin
Para k {0, 1, . . .}, sea tk =
tk1
tk

k e
.
k!

Se tiene entonces, para k {1, 2, . . .}:

= k
De manera que tk1 tk si y slo si k .
Para k {0, 1, . . .}, se tiene:
tk
= k+1
tk+1

De manera que tk tk+1 si y slo si k + 1 , es decir, k 1.


A continuacin se presentan las grficas de algunas funciones de densidad tipo Poisson. Con
el objeto de visualizar ms fcilmente la forma que adquieren, se han trazado continuas,
x e
, definida en el intervalo [0, ). Evidentemente, los valores
graficando la funcin f (x) = (x+1)
de la funcin de densidad corresponden nicamente a los valores enteros no negativos.
0.18

0.35
0.3

0.14

0.25

0.12

0.2

0.1

0.03

0.02

0.08

0.15

0.06

0.1

0.01

0.04

0.05
0

0.04

0.16

0.02
2

5
4

10

x8

10

12

14

=5

60

70

80

90 x 100 110 120 130

= 95

El nombre Poisson obedece a que fue Simon Denis Poisson quien encontr esta distribucin
al demostrar que se obtiene como lmite de una distribucin binomial, resultado que fue publicado en 1837 en un artculo titulado Recherches sur la probabilit des jugements en matire
criminelle et en matire civile, prcedes des regles gnrales du Calcul des Probabilits.
Teorema 7.15 (Teorema de Poisson). Supongamos que, para cada n N, Xn es una
variable aleatoria con distribucin binomial de parmetros n y p (0, 1) de tal manera que
= np es constante, entonces, para cualquier k {0, 1, . . .}, se tiene:
lmn P [Xn = k] =

k e
k!

Demostracin


nk
k
1

P [X = k] = nk pk (1 p)nk = n(n1)(nk+1)
k
k!
n
n

k
1
2
k1
k
n
1 n
1 n
= k! 1 n 1 n 1 n
As que:

n
k
k
e
lmn P [X = k] = k! lmn 1 n = k!

Con el objeto de comparar los valores exactos de una funcin de densidad binomial con sus
valores aproximados por medio de una densidad Poisson, a continuacin se muestran las
grficas que se obtienen con ambos valores. Con el objeto de apreciar mejor la aproximacin,
las grfica de los valores exactos y aproximados de la densidad binomial fX (x) se han trazado
(n+1)
x e
px (1 p)nx y (x+1)
, respectivamente. La lnea
continuas, expresndolos como (x+1)(nx+1)

7.4. DISTRIBUCIN POISSON

155

slida corresponde a los valores exactos, mientras que la lnea punteada corresponde a los
valores aproximados.
0.35

0.35

0.3

0.3

0.25

0.25

0.2

0.2

0.15

0.15

0.1

0.1

0.05

0.05

n = 10, p =

0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02

10

7
8

n = 10, p =

10

1
8

x8

10

12

n = 100, p =

14

1
20

Como se muestra a continuacin, la distribucin Poisson aproxima otras distribuciones.


Teorema 7.16. Supongamos que, para cada r N, Xn es una variable aleatoria con distribucin binomial negativa de parmetros r y p (0, 1) de tal manera que = r pq es constante,
entonces, para cualquier k {0, 1, . . .}, se tiene:
lmn P [Xn = k] =
Demostracin
r

p (1 p)k =
P [X = k] = r+k1
k
k

r
r+k2
= k! r+k1
r+
(1
r+
r+
As que:

lmr P [X = k] =
=

k
k!

k
k!

(r+k1)(r+k2)(r)
(1
k!

r
)
r+
r
)
r+
k
e
k!

lmr (1

lmx (1 x )x (1 x ) =

k
k!

k e
k!

r k
)
r+ (r+)k

lmx (1 x )x

Con el objeto de comparar los valores exactos de una funcin de densidad binomial negativa
con sus valores aproximados por medio de una densidad Poisson, a continuacin se muestran las
grficas que se obtienen con ambos valores. Con el objeto de apreciar mejor la aproximacin,
las grfica de los valores exactos y aproximados de la densidad binomial negativa fX (x) se
(r+x)
x e
han trazado continuas, expresndolos como (x+1)(r)
pr (1 p)x y (x+1)
, respectivamente. La
lnea slida corresponde a los valores exactos, mientras que la lnea punteada corresponde a
los valores aproximados.
0.35
0.16

0.3

0.04

0.14
0.25

0.03
0.02

0.12

0.2

0.1

0.15

0.08
0.06

0.1

0.04

0.01
0.05
0

20

40

60

80x 100 120 140 160

r = 10, q =

7
8

0.02
1

4x

r = 10, q =

1
8

x8

10

12

r = 100, q =

14

1
20

Ejemplo 7.17. Se prepara masa para hacer N galletas. Cuntas pasas se deben de mezclar
en la masa para evitar que, en promedio, en cada 100 galletas haya ms de una sin pasas?

156

7. VARIABLES ALEATORIAS DISCRETAS

Solucin
Sea n el nmero de pasas que se deben de agregar a la masa. Como las pasas se mezclan en
la masa, se puede asumir que cada pasa puede quedar en cualquiera de las N galletas. De
manera que si consideramos una galleta y una pasa determinadas y llamamos xito al hecho
de que esa pasa quede en la galleta, la probabilidad de xito es igual a N1 . Considerando las n
pasas y una galleta determinada, llamando X al nmero de pasas que quedan en esa galleta,
se tiene:
n 1 k N1 nk ( Nn )k e Nn
P [X = k] = k N

N
k!
n

Se busca n tal que P [X = 0] 0.01, es decir, e N 0.01. As que:


n N ln(0.01) = 4.605N
En general, si se quiere evitar que, en promedio, en cada m galletas haya ms de una sin
n
pasas, se debe de tener e N m1 , es decir, n N ln(m).

La distribucin Poisson se aplica de manera importante para el estudio de eventos que ocurren
aleatoriamente en el tiempo.
De manera ms especfica, consideremos un experimento aleatorio consistente en la observacin
de eventos que ocurren aleatoriamente en el tiempo. Para cada intervalo I formado por
nmeros reales no negativos, sea NI el nmero de eventos que ocurren en el intervalo de tiempo
I y definamos Nt = N[0,t] . Supongamos ahora que se satisfacen las siguientes condiciones:
(i) N0 = 0
(ii) Para cualquier intervalo I, la distribucin de NI depende nicamente de la longitud
de I.
(iii) Si I1 , . . . , In son intervalos ajenos y k1 , . . . , kn son nmeros enteros no negativos
cualesquiera, entonces los eventos [NI1 = k1 ] , . . . , [NIn = kn ] son independientes .
(iv) P [Nt = 1] es, en una vecindad de t = 0, de un orden de magnitud comparable con t
de tal manera que lmt0 1t P [Nt = 1] existe y
= lmt0 1t P [Nt = 1] > 0
(v) P [Nt 2] es pequea en una vecindad de t = 0 de tal manera que:
lmt0 1t P [Nt 2] = 0
Para k entero no negativo y t > 0, sea Pk (t) = P [Nt = k]. Adems, para cada n N, definamos
h = nt y consideremos los intervalos I1 = [0, h), I2 = [h, 2h), . . ., In1 = [(n 2)h, (n 1)h),
In = [(n 1)h, t]. Se tiene entonces, para cualquier n N:

Pk (t) = P [Nt = k] = P Nt = k, NIj 1 para cualquier j {1, . . . , n}


+P [Nt = k, NIj 2 para alguna j {1, . . . , n}]
Pero:
P [Nt = k, NIj 2 para alguna j {1, . . . , n}]
P [Nt = k, NIj 2 para alguna j {1, . . . , n}]

S
P
= P [ nj=1 NIj 2 ] nj=1 P NIj 2 = nP [Nh 2] = ht P [Nh 2]
As que:
lmn P [Nt = k, NIj 2 para alguna j {1, . . . , n}] lmn ht P [Nh 2] = 0
Adems:

7.4. DISTRIBUCIN POISSON

157

P Nt = k, NIj 1 para cualquier j {1, . . . , n}



= nk (P [Nh = 1])k (P [Nh = 0])nk

= nk (P [Nh = 1])k (1 P [Nh = 1] P [Nh 2])nk
=

n(n1)(nk+1) (t)k nk
k!
nk (t)k

(t)k
k!

(P [Nh = 1])k (1 P [Nh = 1] P [Nh 2])nk


k


1 1
P
[N
=
1]
1 n1 1 n2 1 k1
h
k
n
h

(1 P [Nh = 1] P [Nh 2])k (1 P [Nh = 1] P [Nh 2])n


Pero:

lmn 1 n1 1 n2 1 k1
=1
n

k
lmn 1k h1 P [Nh = 1] = 1

lmn (1 P [Nh = 1] P [Nh 2])k = 1


lmn (1 P [Nh = 1] P [Nh 2])n
n
n

= lmn 1 n1 ht P [Nh = 1] ht P [Nh 2]


= lmn 1 n1 f (n)
en donde lmn f (n) = t
Por lo tanto, utilizando el lema 7.18, se obtiene:

k t
lmn P Nt = k, NIj 1 para cualquier j {1, . . . , n} = (t)k!e
Y entonces:
k t
Pk (t) = P [Nt = k] = (t)k!e
Lema 7.18. Sea (sn ) una sucesin convergente y s = lmn sn , entonces:

n
lmn 1 n1 sn = es

Demostracin
Dada > 0, sea N tal que, para cualquier n N se tenga s < sn < s + , as como
1 n1 (s + ) > 0, 1 n1 (s ) > 0 y 1 n1 sn > 0. Entonces, para n N, se tiene:

n
n
n
1 n1 (s + ) < 1 n1 sn < 1 n1 (s )
Por lo tanto:
n

lmnf n 1 n1 sn lmn 1 n1 (s + ) = e(s+)

n
lm supn 1 n1 sn lmn 1 n1 (s ) = e(s)
De manera que, como esto vale para cualquier > 0, se tiene:

n
es lmnf n 1 n1 sn lm supn 1 n1 sn es
As que:

n
lmn 1 n1 sn = es
La familia de variables aleatorias (Nt )t0 forman lo que se conoce como un proceso de Poisson,
de acuerdo con la siguiente definicin:

Definicin 7.19 (Proceso de Poisson). Se dice que una familia {Pt : t 0} de variables
aleatorias discretas forma un proceso de Poisson de parmetro si se satisfacen las siguientes
propiedades:

158

7. VARIABLES ALEATORIAS DISCRETAS

(i) P0 = 0
(ii) Si 0 < t1 < t2 < < tn , entonces las variables aleatorias Pt1 , Pt2 Pt1 , Pt3 Pt2 ,
. . ., Ptn Ptn1 son independientes.
(iii) Si s < t, entonces la variable aleatoria Pt Ps tiene distribucin Poisson de parmetro
(t s).
Los siguientes son ejemplos de eventos que ocurren aleatoriamente en el tiempo y que satisfacen
aproximadamente las condiciones i-v:
(i)
(ii)
(iii)
(iv)
(v)

Emisin de partculas por una fuente radioactiva.


Intercambio de cromosomas entre clulas inducido por irradiacin de rayos X.
Surgimiento, por reproduccin, de colonias de bacterias en una determinada regin.
Llamadas que llegan a una central telefnica.
Errores de imprenta en un libro.
7.5. Distribucin hipergeomtrica

Definicin 7.20 (Distribucin hipergeomtrica). Si r, s y n son nmeros enteros positivos tales que n r +s, se dice que una variable aleatoria X tiene distribucin hipergeomtrica
con parmetros r, s y n si su funcin de densidad est dada por la frmula:
( r s
(x)(nx)
si x {m, . . . , M }
(r+s
fX (x) =
n )
0
en otro caso
en donde m = max {0, n s} y M = mn {n, r}.
El nombre hipergeomtrica obedece a las siguientes consideraciones:
s sn+k s n
= n k ,
Para simplificar, supongamos que n < mn {r, s}. Se tiene entonces, nk
k
para cualquier k {max {0, n s} , . . . , mn {n, r}}, as que:
s
)
(kr)(nk
(kr ) (ns )(nk)
(ns ) (nk)(kr )
= r+s
= r+s
r+s
sn+k
(n)
( n )( k )
( n ) (sn+k
)
k
Por otra parte, se puede demostrar que si a, b son nmeros enteros cualesquiera y c un nmero
b
P
(a
k )( k ) k
entero positivo, entonces la serie
k=0 (c+k1) x converge absolutamente para cualquier x tal
k
que |x| < 1. Adems, si c > b > 0, se tiene la siguiente representacin integral:
b
c1 R 1 b1
P (a
k )( k ) k
t (1 t)cb1 (1 tx)a dt
k=0 (c+k1) x = (c b) b1
0
k
El trmino (1 tx)a , el cual, para a = 1, se desarrolla como una serie geomtrica, motiva
que a la serie del lado izquierdo de la ltima igualdad se le llame serie hipergeomtrica.
(nk)(kr)
Finalmente, obsrvese que los trminos sn+k
corresponden a los de una serie hipergeomtrica
( k )
en donde a = n, b = r y c = s n + 1.
La distribucin hipergeomtrica surgi prcticamente desde los inicios del Clculo de Probabilidades, al considerarse el experimento aleatorio consistente en seleccionar, con reemplazo,
bolas de una urna, la cual contiene bolas de dos colores, y buscarse la probabilidad de obtener
cierto nmero de bolas de uno de los colores. Un problema de este tipo se encuentra formulado
en el libro de C. Huygens:

7.5. DISTRIBUCIN HIPERGEOMTRICA

159

A tiene doce fichas, 4 blancas y 8 negras, y apuesta con B a que al tomar 7 fichas al azar, 3
de ellas sern blancas. Cul es la probabilidad de que A gane?
De manera general, la distribucin hipergeomtrica se presenta al considerar un muestreo sin
reemplazo de la siguiente manera: Supongamos que se tiene una poblacin formada por dos
tipos de elementos, los cuales llamaremos de tipo I y II, de tal manera que hay r elementos de
tipo I y s de tipo II. Si se toma una muestra sin reemplazo de tamao n r+s de esa poblacin
y llamamos X al nmero de elementos de tipo I que se obtienen en la muestra, entonces X tiene
distribucin hipergeomtrica de parmetros
r+sr,
s y n. En efecto, el nmero total de posibles
muestras que pueden obtenerse es igual a n y todas ellas son equiprobables. De stas, para
k {max {0, n s} , . . . , mn {n, r}}, el total de muestras
s en las cuales se obtienen k objetos
r
de tipo I y n k objetos de tipo II es igual a k nk , de lo cual se sigue el resultado (ver
ejemplo 3.10).
s
)
(kr)(nk
, de una distribucin hipergeomtrica, crecen
r+s
(n)
con k hasta alcanzar su mximo valor cuando (n+1)(r+1)
1 k (n+1)(r+1)
, despus de lo
r+s+2
r+s+2
cual decrecen con k.
Demostracin
s
)
(r )(nx
. Se tiene
Sea m = max {0, n s}, M = mn {n, r} y, para k {m, . . . , M}, tk = x r+s
(n)
entonces, para k {m + 1, . . . , M}:

Proposicin 7.21. Los trminos tk =

tk1
tk

k(sn+k)
(nk+1)(rk+1)

De manera que tk1 tk si y slo si k(sn+k) (nk +1)(rk +1), es decir, k


Para k {m, m + 1, . . . , M 1}, se tiene:
tk
tk+1

(n+1)(r+1)
.
r+s+2

(k+1)(sn+k+1)
(nk)(rk)

De manera que tk tk+1 si y slo si (k + 1)(s n + k + 1) (n k)(r k), es decir,


k (n+1)(r+1)
1.
r+s+2
A continuacin se presentan las grficas de algunas funciones de densidad tipo hipergeomtrica.
Con el objeto de visualizar ms fcilmente la forma que adquieren, se han trazado continuas,
graficando la funcin
(s+1)
(n+1)(r+sn+1)
(r+1)
f (x) = (x+1)(rx+1)
(nx+1)(sn+x+1)
(r+s+1)
definida en el intervalo [0, n]. Evidentemente, los valores de la funcin de densidad corresponden nicamente a los valores enteros comprendidos entre 0 y n inclusive.
0.3

0.3

0.25

0.25

0.2

0.2

0.15

0.15

0.1

0.1

0.05

0.05

0.18
0.16
0.14
0.12
0.1
0.08
0.06
0.04
0.02

10

r = 10, s = 90, n = 20

10

12

14

x 16

18

20

r = 90, s = 10, n = 20

8 10x 12 14 16 18 20

r = 80, s = 120, n = 20

160

7. VARIABLES ALEATORIAS DISCRETAS

Ejemplo 7.22. En un lago se capturan al azar 1000 peces, los cuales se marcan y se devuelven
al lago. Despus de algn tiempo, se capturan al azar otros 1000 peces y entre ellos se encuentran 100 peces de los marcados. Con este dato, se quiere estimar el nmero de peces que hay
en el lago. Para esto, denotemos por p(k, n) a la probabilidad de obtener k peces marcados en
la muestra cuando hay n peces en el lago, se tiene entonces:
(1000)(n1000)
p(k, n) = k n1000k
(1000)
p(k,n)
p(k,n1)

(n1000)2
n(n2000+k)

=1+

1000000nk
n(n2000+k)

De manera que, fijando k, p(k, n) crece con n hasta alcanzar su valor mximo cuando 1000000

k
1000000
1 n k , despus de lo cual decrece con n.
Un mtodo de estimacin puede consistir entonces en tomar como valor de n uno que haga
mximo el valor de p(k, n). En nuestro caso tenemos k = 100, as que un valor de n que hace
mximo el valor de p(k, n) es n = 10, 000.
Como ya lo hemos hecho notar con anterioridad, para poblaciones grandes, prcticamente no
hay diferencia entre el muestreo con reemplazo y el muestreo sin reemplazo. Esto significa
que, en ese caso, una distribucin binomial y una hipergeomtrica sern muy parecidas (ver
seccin 3.3). A continuacin se prueba este resultado.
Teorema 7.23. Supongamos que, para cada r, s, n N, Xn es una variable aleatoria con
r
distribucin hipergeomtrica de parmetros r, s y n de tal manera que p = r+s
es constante,
entonces, para cualquier k {0, 1, . . .}, se tiene:

lmr,s P [Xn = k] = nk pk (1 p)nk .

Demostracin
Suponiendo n < mn {r, s}, se tiene, para k {0, 1, 2, . . . , n}:
r r(r1)(rk+1)
k
rk
= r(r1)(rk+1)
< rk!
=
k
k!
rk
k!
s s(s1)(sn+k+1)
snk
snk
= s(s1)(sn+k+1)
< (nk)!
=
nk
(nk)
snk
(nk)!
r+s (r+s)(r+s1)(r+sn+1)
(r+s)n
<
=
n
n!
n!
r r(r1)(rk+1)

r(r1)(rk+1) rk
(rk)k rk
k k rk
=
=
>
=
1

k
k
k
k!
r
k!
r
k!
r
k!

s s(s1)(sn+k+1)
k
s(s1)(sn+k+1) snk
(sn+k)k snk
=
> snk (nk)! = 1 nk
=
nk
(nk)
snk
(nk)!
s
r+s (r+s)(r+s1)(r+sn+1)
n (r+s)n
(r+s)n
= (r+s)(r+s1)(r+sn+1)
> (r+sn)
=
n
n!
(r+s)n
n!
(r+s)n
n!

n
n
(r+s)
n
= 1 r+s
n!
As que:
s

k snk
)
(r)(nk
n n
n!
fX (k) = k r+s
1

< rk! (nk)!


n
(r+s)
r+s
(n)

r k s nk
k
nk
n
n
s
n n n
r
n!
= 1 r+s
= 1 r+s
k
k!(nk)! (r+s)k (r+s)nk
r+s
r+s
r
s

k k
k snk
( )(nk)
n!
fX (k) = k r+s
> 1 kr rk! 1 nk
s
(nk)! (r+s)n
(n)

k
nk n!
snk
rk
= 1 kr
1 nk
s
k!(nk)! (r+s)k (r+s)nk

snk
(nk)!

7.5. DISTRIBUCIN HIPERGEOMTRICA

k
nk n r k s nk
= 1 kr
1 nk
s
r+s
r+s
k
Es decir:

k
nk n r k s nk

< fX (k) < 1


1 nk
1 kr
k
s
r+s
r+s

Por lo tanto, lmr,s P [Xn = k] = nk pk (1 p)nk .

161

r k
n n n
k
r+s
r+s

s nk
r+s

Con el objeto de comparar los valores exactos de una funcin de densidad hipergeomtrica con
sus valores aproximados por medio de una densidad binomial, a continuacin se muestran las
grficas que se obtienen con ambos valores. Con el objeto de apreciar mejor la aproximacin,
las grfica de los valores exactos y aproximados de la densidad hipergeomtrica fX (x) se
(s+1)
(n+1)(r+rn+1)
(r+1)
y
han trazado continuas, expresndolos como (x+1)(rx+1)
(nx+1)(sn+x+1)
(r+s+1)
(n+1)
px (1 p)nx ,
(x+1)(nx+1)

respectivamente. La lnea slida corresponde a los valores exactos,


mientras que la lnea punteada corresponde a los valores aproximados.
0.18

0.3
0.4

0.16
0.25

0.3

0.14
0.12

0.2

0.1

0.15

0.08

0.2

0.06

0.1
0.1

0.04

0.05

2x

r = 4, s = 6, n = 5

0.02
10

12

14

x 16

18

20

r = 90, s = 10, n = 20

10
x 12 14 16 18 20

r = 80, s = 120, n = 20

Ejemplo 7.24. Supongamos que en un supermercado se venden 400 artculos, 6 de los cuales
no tienen marcada la clave de su precio. Si un cliente compra 10 artculos, estime la probabilidad de que entre ellos haya por lo menos uno que no tenga marcada la clave de su precio.
Solucin
Sea X el nmero de artculos, de los 10 que compra el cliente, que no tienen marcada la clave
de su precio. X tiene entonces distribucin hipergeomtrica con parmetros r = 6, s = 394 y
n = 10, la cual se puede aproximar mediante una distribucin binomial de parmetros n = 10
r
= 0.015. A su vez sta se puede aproximar mediante una distribucin Poisson con
y p = r+s
parmetro = np = (10)(0.015) = 0.15, as que:
P [X 1] = 1 P [X = 0] 1 e = 1 e0.15 = 0.13929
Aproximando la distribucin de X mediante una binomial con parmetros n = 10 y p = 0.015,
se obtiene:
P [X 1] = 1 P [X = 0] = 1 (1 p)10 = 1 (0.985)10 = 0.14027
Utilizando la distribucin exacta (hipergeomtrica), se obtiene:
(6)(394)
P [X 1] = 1 P [X = 0] = 1 0 40010 = 0.14177
( 10 )
Ejemplo 7.25. Supongamos que el 5% de las personas que manejan tienen su licencia de
manejo vencida. Utilice la aproximacin de Poisson para estimar la probabilidad de que a
lo ms 2 de 50 personas que manejan, seleccionadas al azar, tengan su licencia de manejo
vencida.

162

7. VARIABLES ALEATORIAS DISCRETAS

Solucin
Sea X el nmero de personas, del grupo de 50, que tienen su licencia de manejo vencida. X
tiene entonces, aproximadamente, distribucin Poisson con parmetro = (50)(0.05) = 2.5,
as que:
P
2
k
P [X 2] 2k=0 e k! = e (1 + + 2 ) = 53
e5/2 = 0.543813
8

Ejemplo 7.26. Una mquina produce artculos defectuosos y no defectuosos de tal manera
que, en promedio, se producen 20 defectuosos en cada 1000 artculos. Cul es la probabilidad
de que una caja con 100 artculos, seleccionados al azar de una poblacin grande, no contenga
artculos defectuosos?
Solucin
Sea N el total de artculos en la poblacin y llamemos X al nmero de artculos defectuosos
en la caja con 100 artculos. Entonces:
k e2
(0.02N )( 0.98N )
P [X = k] = k N 100k 100
(0.02)k (0.98)100k 2 k!
k
(100)
As que:
P [X = 0] e2 = 0.1353
7.6. Otras distribuciones

7.6.1. Distribuciones truncadas. En ocasiones, una distribucin discreta se presenta


de manera truncada, lo cual significa que algunos de sus posibles valores no son tomados
en cuenta. Un caso frecuente se presenta cuando el valor 0 no se considera. Por ejemplo, al
estudiar la atencin diaria a usuarios de una determinada institucin, los das laborables en los
cuales el nmero de usuarios atendidos es cero podran no ser considerados por corresponder
a das en los cuales la institucin no atendi a usuarios por causas que le fueron ajenas.
De esta manera, por cada una de las distribuciones estudiadas anteriormente se puede definir la
correspondiente distribucin truncada. Por ejemplo, una variable aleatoria X con distribucin
binomial truncada, mediante la eliminacin del valor 0, tiene una funcin de densidad dada
por:
n x
c x p (1 p)nx si x {1, . . . , n}
fX (x) =
0
en otro caso
en donde c es una constante.
El valor de c se puede determinar fcilmente utilizando el hecho de que fX es una funcin de
densidad.
Un caso interesante es el de una variable aleatoria X con distribucin binomial negativa, de
parmetros p (0, 1] y r (0, ), truncada, mediante la eliminacin del valor 0. En este
caso la funcin de densidad de X est dada por:
(r+x) r
c x!(r) p (1 p)x si x {1, 2, . . .}
fX (x) =
0
en otro caso
en donde c es una constante.
P
(k+r) r
k
r
Como
k=1 k!(r) p (1 p) = 1 p , se obtiene que c =

1
,
1pr

de manera que se tiene:

7.6. OTRAS DISTRIBUCIONES

fX (x) =

(r+x) pr
(1
x!(r) 1pr

163

p)x si x {1, 2, . . .}
en otro caso

El caso r = 0 no est incluido aqu. Sin embargo, la distribucin para este caso puede obtenerse
tomando lmites. En efecto, para x {1, 2, . . .}, se tiene:

lmr0 fX (x) = lmr0


=

(x) 1
(1
x! ln p

(r+x) pr
(1
x!(r) 1pr
x

q
1
p)x = ln(1q)
x

p)x = lmr0

(r+x)
r
pr (1
x!(r+1) 1pr

p)x

Se puede ver que lo que se obtiene como lmite es una funcin de densidad (ver ejercicio
k
7.30), la cual es conocida como densidad serie logartmica por el hecho de que los trminos qk
corresponden a los del desarrollo, en serie de Taylor alrededor de 0, de la funcin ln(1 q).
7.6.2. Distribucin uniforme discreta.
Definicin 7.27 (Distribucin uniforme discreta). Si A es un conjunto finito de nmeros
reales, se dice que una variable aleatoria X tiene distribucin uniforme discreta en el conjunto
A si su funcin de densidad est dada por la frmula:
1
si x A
N
fX (x) =
0 en otro caso

en donde N es el nmero de elementos de A.

Como puede verse inmediatamente, una distribucin uniforme discreta surge al considerar una
variable X definida como el nmero que se obtiene al seleccionar al azar un elemento de un
conjunto finito de nmeros reales. Es decir, la distribucin uniforme es una expresin de la
eleccin al azar, la cual a su vez es sinnimo de equiprobabilidad.
Por su simplicidad, la distribucin uniforme puede ser utilizada para ilustrar algunos mtodos
para encontrar probabilidades de eventos que dependen de varias variables aleatorias. Esto se
muestra en los siguientes dos ejemplos:
Ejemplo 7.28. Sean X y Y dos variables aleatorias independientes, X con distribucin uniforme en el conjunto {0, . . . , n}, Y con distribucin binomial de parmetros n y p. a) Encuentre P [X < Y ] y P [X > Y ]. b) Determine los valores de n y p para los cuales P [X > Y ] >
P [X < Y ].
Solucin
P
P
P [X < Y ] = ny=0 P [X < Y, Y = y] = ny=0 P [X < y, Y = y]
Pn
P
P
y
np
1
P [Y = y] = n+1
= ny=0 P [X < y] P [Y = y] = ny=0 n+1
y=0 yP [Y = y] = n+1
P
P
P [X > Y ] = ny=0 P [X > Y, Y = y] = ny=0 P [X > y, Y = y]
P
P
P [Y = y]
= ny=0 P [X > y] P [Y = y] = ny=0 ny
n+1
P
P
n
n
n(1p)
np
n
1
n
= n+1
y=0 P [Y = y] n+1
y=0 yP [Y = y] = n+1 n+1 = n+1
As que, P [X > Y ] > P [X < Y ] cuando

n(1p)
n+1

>

np
,
n+1

es decir, p < 12 .

Ejemplo 7.29. Sean X y Y dos variables aleatorias independientes, ambas con distribucin
uniforme en el conjunto {1, . . . , N }. Encuentre la funcin de densidad de Z = mn(X, Y ).

164

7. VARIABLES ALEATORIAS DISCRETAS

Solucin
Si z {1, . . . , N }, se tiene:
P [Z = z] = P [mn(X, Y ) = z]
= P [X = z, Y > z] + P [X > z, Y = z] + P [X = z, Y = z]
1
+ Nz
+
= N1 Nz
N
N N
Por lo tanto:

fZ (z) =

2(Nz)+1
N2

1 1
NN

2(Nz)+1
N2

si z {1, . . . , N }
en otro caso
7.7. Caminatas aleatorias

Consideremos una partcula que se mueve a saltos sobre la recta real de tal manera que,
comenzando en el origen, en cada intervalo de tiempo h, la partcula salta una distancia
d hacia la derecha con probabilidad 12 o una distancia d hacia la izquierda, tambin con
probabilidad 12 . Llamemos Sn a la posicin de la partcula en el tiempo nh. La familia de
variables aleatorias Sn es uno de los ejemplos ms simples de lo que se conoce con el nombre
de caminata aleatoria.
Definicin 7.30 (Caminata aleatoria). Dados un nmero real z y una sucesin de variables
aleatorias, Z1 , Z2 , . . ., idnticamente distribuidas, y tales que cualquier coleccin finita de ellas
forma unaPfamilia de variables aleatorias independientes, la sucesin de variables aleatorias
Sn = z + nk=1 Zk es llamada una caminata aleatoria.

Las caminatas aleatorias juegan un papel muy importante en la Teora de la Probabilidad


moderna pues modelan, por lo menos como una aproximacin, muchos fenmenos aleatorios
de inters.
En esta parte, para el caso particular de la caminata aleatoria introducida al inicio de esta
seccin, nos limitaremos a encontrar la distribucin de tres variables aleatorias de inters, a
saber, Sn misma, el tiempo que lleva a la partcula regresar al origen y el tiempo que lleva a
la partcula alcanzar una posicin positiva. De paso abordaremos el problema de determinar
el nmero de retornos al origen que se realizan, cuando se permite que la partcula se mueva
indefinidamente.

7.7.1. Distribucin de la posicin en el n-simo paso. Para cada n N, definamos


las variables aleatorias Xn y Yn como el nmero de saltos que da la partcula hacia la derecha
y hacia la izquierda, respectivamente, en el tiempo nh.
Si consideramos cada salto de la partcula como un ensayo de Bernoulli, en donde un movimiento
hacia la derecha representa un xito, Xn resulta ser entonces igual al nmero de xitos que se
tienen en n ensayos, as que su distribucin es binomial con parmetros n y p = 12 , es decir:
n 1
si x {0, . . . , n}
x 2n
P [Xn = x] =
0
en otro caso
Ahora bien, se tiene:
Xn + Yn = n y d(Xn Yn ) = Sn , as que, Sn = d(2Xn n).
Por lo tanto, se tiene el siguiente resultado:

7.7. CAMINATAS ALEATORIAS

165

Proposicin 7.31. P [Sn = dr] = P Xn = n+r


2
n 1
si r {n, n + 2, . . . , n 2, n}
n+r
2n
2
=
0
en otro caso
Este resultado se puede interpretar geomtricamente de la siguiente manera:
El movimiento de la partcula puede representarse en un plano cartesiano tomando el tiempo
sobre el eje horizontal y la posicin en cada tiempo sobre el eje vertical. Adems, para
simplificar, podemos tomar h como unidad en el eje horizontal y d en el eje vertical. De esta
forma, los posibles movimientos de la partcula son similares a los de la siguiente figura:
2
20

40

60

80

100

0
-2
-4
-6
-8

-12

A cada sucesin de puntos (1, S1 ), (2, S2 ), . . . , (n, Sn ) la llamaremos una textbftrayectoria hasta
el paso n.
n
Ahora bien, es claro que el nmero total de posibles trayectorias hasta el paso n es igual
n a21
y todas ellas tienen la misma probabilidad de ocurrencia. La relacin P [Sn = dr] = n+r 2n
2
expresa entonces el siguiente resultado:
Proposicin 7.32. Si r {n, n + 2, . . . , n 2, n}, entonces el nmero
de posibles trayec
n
.
torias que conducen a la partcula a la posicin (n, r) es igual a n+r
2

7.7.2. Retornos al origen.

Definicin 7.33 (Retornos al origen). Diremos que hay un retorno al origen en el paso n
si Sn = 0.
Obsrvese que si hay un retorno al origen en el paso n, entonces n es un nmero par. Ahora
bien, utilizando la imagen geomtrica descrita en la subseccin 7.7.1, para que no se presente
ningn retorno al origen hasta el paso n se requiere que, a partir del paso 1 y hasta el paso
n, la partcula se mantenga ya sea todo el tiempo por arriba del eje horizontal, o bien todo
el tiempo por debajo de ste. Como todas las trayectorias hasta el paso n son igualmente
probables, para calcular la probabilidad de que ocurra alguna de las dos situaciones anteriores
basta con contar el total de trayectorias que producen su respectiva ocurrencia. La siguiente
proposicin establece el resultado de tal conteo.
Proposicin 7.34. Sea (n, r) un punto en el primer cuadrante que sea un posible punto
de paso de la caminata aleatoria, entonces el total de posibles trayectorias tales que S1 >
0,
S2 > 0,
. . .,
n1
n1
Sn1
n> 0 y que conducen a la partcula a la posicin (n, r), es igual a
r
n+r = n n+r .
n+r
1
2

2r>0

166

7. VARIABLES ALEATORIAS DISCRETAS

Demostracin
Como (n, r) es un posible punto de paso en el cuadrante positivo, se tiene r > 0 y y r
+
al total de posibles trayectorias tales que S1 > 0,
{n, n 2, . . .}. Ahora bien, llamemos Kn,r
+
S2 > 0, . . ., Sn1 > 0 y que conducen a la partcula a la posicin (n, r); Kn,r
es entonces igual
al total de posibles trayectorias que van del punto (1, 1) al punto (n, r) y que no tocan el eje
horizontal. Pero hay una correspondencia uno a uno entre el conjunto de posibles trayectorias
que van del punto (1, 1) al punto (n, r) y que tocan el eje horizontal con el conjunto total
de posibles trayectorias que van del punto (1, 1) al punto (n, r), pues dada una posible
trayectoria que va del punto (1, 1) al punto (n, r) y que toca el eje horizontal en el punto
(t, 0), se le puede asociar la trayectoria 0 que comienza en (1, 1) y conduce al punto (n, r),
pasando por (t, 0), definida como el reflejo de la trayectoria en el eje horizontal hasta el
punto (t, 0) y que coincide con desde el punto (t, 0) hasta el punto (n, r), como se ilustra en
la siguiente figura:
6
4
2

10

20

30

40

50

-2
-4

+
Con base en lo anterior, Kn,r
es igual al total de posibles trayectorias que van del punto (1, 1)
al punto (n, r) menos el total de posibles trayectorias que van del punto (1, 1) al punto (n, r).
Pero hay tantas trayectorias que van del punto (1, 1) (resp. (1, 1) ) al punto (n, r) como
trayectorias que van del origen al punto (n 1, r 1) (resp. (n 1, r + 1)), de manera que
por la proposicin 7.32, se tiene, para r 6= n:
n1 n1 n1 n1 n+r n nr n r n
+
Kn,r
= n+r2
n+r = n+r 1 n+r = 2n n+r 2n n+r = n n+r
2

Adems, como

+
Kn,n

= 1, el resultado tambin se cumple para r = n.

Proposicin 7.35. La probabilidad


de que no ocurra ningn retorno al origen hasta el paso
2m 1
2m, inclusive, es igual a m 22m .

Demostracin
Sea pm la probabilidad de que no ocurra ningn retorno al origen hasta el paso 2m, entonces,
utilizando la proposicin 7.34, se tiene:
pm = P [S1 6= 0, S2 6= 0, . . . , S2m 6= 0]
= P [S1 > 0, S2 > 0, . . . , S2m > 0] + P [S1 < 0, S2 < 0, . . . , S2m < 0]
= 2P [S1 > 0, S2 > 0, . . . , S2m > 0]
P
=2 m
x=1 P [S1 > 0, S2 > 0, . . . , S2m1 > 0, S2m = 2x]
2m1 2m1
2m1 2m1
P
2
2

=
2m
= 22m m
2m
x=1
m+x1
m+x
m
2

7.7. CAMINATAS ALEATORIAS

2 2m1
m
22m

1 2m
22m m

Obsrvese que si definimos pm =


1
lmm pm = lmm 2m
m 22m

2m
m

1
,
22m

167

entonces, utilizando el corolario 6.41, se tiene:

m 1
1

= lmm (2m)!
= lmm 2(2m)!
2m (m!)2
m!m! 22m
m

m
= lmm 2(2m)!
mm
2m (m!)2 l

1
m

lmm

1
m

=0

Proposicin 7.36. Para cualquier n N, la probabilidad de que haya por lo menos n retornos
al origen es igual a 1.
Demostracin
Sea Rn el paso en que ocurre el n-simo retorno al origen y definamos los eventos:
Bn : Ocurren menos de n retornos al origen.
A0 : No ocurre ningn retorno al origen.
Am
0 : No ocurre retorno al origen en ninguno de los primeros 2m pasos.
An : No ocurre ningn retorno al origen despus del n-simo retorno al origen.
Am
n : No ocurre retorno al origen en ninguno de los 2m pasos que siguen al n-simo retorno al
origen.
De acuerdo con la proposicin 7.35, se tiene P [A0 ] P [Am
0 ] = pm para cualquier m. Por lo
tanto, P [A0 ] = 0.
Supongamos ahora que P [A0 ] = P [A1 ] = = P [Ak ] = 0, entonces:
P
P [Bk+1 ] = P [A0 A1 Ak ] kj=1 P [Aj ] = 0
c
Pero, si ocurre Bk+1
, entonces Rk+1 es finito. Por lo tanto:
c
P [Rk+1 < ] P Bk+1 = 1
As que, para cualquier m, se tiene:
P
P [Ak+1 , Rk+1 = 2j]
P [Ak+1 ] = P [Ak+1 , Rk+1 < ] =
m
P j=1 m

P
j=1 P Ak+1 , Rk+1 = 2j = j=1 P Ak+1 | Rk+1 = 2j P [Rk+1 = 2j]
P
P
m
m
=
j=1 P [A0 ] P [Rk+1 = 2j] = P [A0 ]
j=1 P [Rk+1 = 2j]
m
= P [Am
0 ] P [Rk+1 < ] = P [A0 ] = pm
Se puede concluir entonces que P [Ak+1 ] lmm pm = 0.
As que, por el principio de induccin, P [An ] = 0 para cualquier n {0, 1, . . .}.
Finalmente, para cualquier n N, se tiene:
P
P [Bn ] = P [A0 A1 An1 ] n1
j=1 P [Aj ] = 0
c
As que, P [Bn ] = 1
Corolario 7.37. La probabilidad de que haya una infinidad de retornos al origen es igual a
1.
Demostracin
Definamos los eventos:
Bn : Ocurren menos de n retornos al origen.

168

7. VARIABLES ALEATORIAS DISCRETAS

B: Se produce nicamente un nmero finito de retornos al origen.


Obsrvese que B1 B2 y
S
B=
m=1 Bm = B1 (B2 B1 ) (B3 B2 )
As que:
P (B) = P (B1 ) + P (B2 B1 ) + P (B3 B2 ) + = 0
7.7.3. Distribucin del tiempo del primer retorno al origen. Sea R el paso en
que ocurre el primer retorno al origen. Por la proposicin 7.36, P [R < ] = 1. Adems,
utilizando la proposicin 7.35, se tiene:
P [R = 2m] = P [S1 6= 0, S1 6= 0, . . . , S2m1 6= 0, S2m = 0]
= P [S1 6= 0, S1 6= 0, . . . , S2m2 6= 0] P [S1 6= 0, S1 6= 0, . . . , S2m 6= 0]
2m2

2m

1
1 2m
1
m2
1 2m
22m
= 22m2
22m
= 22m2
m1
m
m
(2m1)(2m) m
1 2m

2m

2m
1 2m
1
1 2m
1 2m
= 2m1 22m m 22m m = 2m1 1 22m m = 2m1 22m
m
7.7.4. Primer paso por un valor positivo.

Proposicin 7.38. La probabilidad de que no ocurra ningn


1 paso por un valor positivo en
ninguno de los primeros 2m pasos, inclusive, es igual a 2m
.
m 22m
Demostracin
P [S1 < 0, S2 < 0, . . . , S2m < 0]
= P [X1 = 1, X2 0, X2 + X3 0, . . . , X2 + X3 + + X2m 0]
= P [X1 = 1] P [X2 0, X2 + X3 0, . . . , X2 + X3 + + X2m 0]
= 12 P [X1 0, X1 + X2 0, . . . , X1 + X2 + + X2m1 0]
= 12 P [S1 0, S2 0, . . . , S2m1 0] = 12 P [S1 0, S2 0, . . . , S2m 0]
As que:
P [S1 0, S2 0, . . . , S2m 0] = 2P [S1 < 0, S2 < 0, . . . , S2m < 0]
Adems:
P [S1 < 0, S2 < 0, . . . , S2m < 0] = 12 P [S1 6= 0, S2 6= 0, . . . , S2m 6= 0]
Por lo tanto:
1
P [S1 0, S2 0, . . . , S2m 0] = P [S1 6= 0, S2 6= 0, . . . , S2m 6= 0] = 2m
m 22m
Proposicin 7.39. La probabilidad de que haya por lo menos un paso por un valor positivo
es igual a 1.
Demostracin
Definamos los eventos:
A0 : No ocurre ningn paso por un valor positivo.
Am
0 : No ocurre ningn paso por un valor positivo en ninguno de los primeros 2m pasos.
Se tiene, P [A0 ] P [Am
0 ] = pm para cualquier m N, por lo tanto:
P [A0 ] lmm pm = 0

7.7. CAMINATAS ALEATORIAS

169

Corolario 7.40. Para cualquier n Z, la probabilidad de que haya una infinidad de pasos
por la posicin z = n es igual a 1.
Demostracin
Para cada n N, Sea Zn el paso en el cual la partcula alcanza el valor z = n por primera
vez, entonces, por la proposicin 7.39, P [Z1 < ] = 1.
Supongamos ahora que P [Zk < ] = 1 para alguna k N, entonces, con probabilidad 1, la
partcula alcanza el valor z = k. Una vez que lo alcanza, se inicia una caminata aleatoria del
mismo tipo que la inicial pero partiendo de z = k, de manera que, por la proposicin 7.39,
la probabilidad de que esa caminata alcance el valor z = k + 1 es igual a 1. Por lo tanto
P [Zk+1 < ] = 1.
Por el principio de induccin se puede concluir entonces que P [Zn < ] = 1 para cualquier
n N. Por lo tanto, para cualquier n N, con probabilidad 1, la partcula alcanza el valor
z = n. Una vez que lo alcanza, se inicia una caminata aleatoria del mismo tipo que la inicial
pero partiendo de z = n, de manera que, por la proposicin 7.37, la probabilidad de que esa
caminata visite el valor z = n una infinidad de veces es igual a 1.
Finalmente, definamos los eventos:
Bn : La partcula pasa una infinidad de veces por la posicin z = n.
B: La partcula pasa una infinidad de veces por la posicin z = n para cualquier n N.
Se tiene entonces:
c
P
P [B c ] = P [B1c B2c ]
j=1 P Bj = 0
El caso z = n se demuestra de manera similar y el caso z = 0 est demostrado en la
proposicin 7.37. Combinando los tres casos se obtiene la conclusin deseada.
7.7.5. Distribucin del tiempo de primer paso por un valor positivo. Sea Z el
paso en el cual la partcula alcanza un valor positivo por primera vez, entonces, Z puede tomar
nicamente valores impares y, si m N, entonces:
P [Z = 2m 1] = P [S1 0, . . . , S2m2 0, S2m1 > 0]
Pero:
P [S1 0, . . . , S2m2 0, S2m1 > 0] + P [S1 0, . . . , S2m2 0, S2m1 0]
= P [S1 0, . . . , S2m2 0]
As que:
P [S1 0, . . . , S2m2 0, S2m1 > 0]
= P [S1 0, . . . , S2m2 0] P [S1 0, . . . , S2m2 0, S2m1 0]
= P [S1 0, . . . , S2m2 0] P [S1 0, . . . , S2m2 0, S2m 0]
2m2

1
1 2m
= 22m2
22m
m1
m
Por lo tanto:

2m2

2m

1
1 2m
1 2m
1
1 2m
1 = 2m1
22m
= 22m
P [Z = 2m 1] = 22m2
m1
m
m
2m1
22m m

170

7. VARIABLES ALEATORIAS DISCRETAS

EJERCICIOS
Ejercicio 7.1. Cada da el precio de una determinada accin sube o baja una unidad con
probabilidades de 34 y 14 , respectivamente. Cul es la probabilidad de que en 6 das el precio
de la accin regresar a su valor original?
Ejercicio 7.2. Asumiendo que la probabilidad de que un hijo procreado por una pareja sea
nio es igual a 12 , qu evento es ms probable, que una pareja con 4 hijos tenga 2 hombres y
2 mujeres, o bien 3 hijos de un sexo y uno del otro?
Ejercicio 7.3. Qu evento es ms probable, obtener por lo menos un 6 al lanzar 6 veces un
dado, por lo menos 2 seises al lanzar 12 eces un dado, o bien por lo menos 3 seises al lanzar
18 veces un dado?
Ejercicio 7.4. Se quiere transmitir un mensaje que consiste de uno de los dos dgitos, 0 1.
Debido a la esttica, un dgito transmitido es recibido incorrectamente con probabilidad igual
a 0.2. Para reducir la probabilidad de error, en lugar de transmitir el dgito 0 se trasmite la
secuencia 00000 y en lugar del 1 se transmite 11111. Quien recibe el mensaje decide que el
dgito que se transmiti fue aquel que recibi por lo menos 3 veces. Cul es la probabilidad
de que el mensaje sea recibido correctamente?
Ejercicio 7.5. Considere el dispositivo que se muestra en la figura de abajo, en el cual cada
punto representa un clavo colocado verticalmente. Cuando se hace pasar una pelotita entre
los dos clavos de la parte superior, sta golpea el clavo del nivel siguiente y con probabilidad
1
contina su camino por el hueco de la derecha o el de la izquierda. Este proceso contina
2
hasta que la pelotita cae en alguna de las 5 cajas de la parte inferior. Si se realiza este proceso
con 1, 000 pelotitas de manera independiente, aproximadamente cuntas de ellas caern en
la caja marcada con el nmero 2?


b cb cb cb cb c
0 1 2 3 4
Ejercicio 7.6. Sea X una variable aleatoria con distribucin binomial de parmetros n y p
y sea k un nmero entero entre 0 y n. Encuentre el valor de p que hace que P (X = k) sea un
mximo.

EJERCICIOS

171

Ejercicio 7.7. Sea X una variable aleatoria con distribucin binomial de parmetros n y
p. Demuestre que la probabilidad de que X tenga como valor un nmero impar es igual a
1
[1 (q p)n ].
2
Ejercicio 7.8. Sea X una variable aleatoria con distribucin binomial de parmetros n y p.
Si se sabe que el valor de X es k, cul es la probabilidad de que ocurra cada uno de los nk
arreglos de k xitos y n k fracasos?

Ejercicio 7.9. Dos jugadores de ajedrez, A y B, juegan una serie de juegos con la condicin
de que A ganar la serie si gana 12 partidas antes de que B gane 6, de otra manera, B gana
la serie (los empates no cuentan). Si la probabilidad de que A le gane una partida a B es igual
a 23 y la serie se interrumpe cuando A ha ganado 7 juegos y B 4, quin merece ser nombrado
el ganador?
Ejercicio 7.10. Un fumador tiene dos cajas con N cerillos cada una. Cada vez que necesita
un cerillo, selecciona al azar una de las cajas y lo toma de ah. Sea X el nmero de cerillos
que le quedan en el momento en que encuentre que la caja que selecciona ya no tiene cerillos.
Encuentre la distribucin de X.

Ejercicio 7.11. Supongamos que, para n 1, una pareja tiene n hijos con probabilidad igual
a pn , en donde 0 < 1p
y 0 < p < 1. Supongamos adems que cada uno de los hijos es
p
hombre o mujer con probabilidad igual a 12 . Para k {1, 2, . . .}, cul es la probabilidad de
que una pareja tenga por lo menos k hijos, de los cuales k exactamente sean mujeres?
Ejercicio 7.12. Sea X una variable aleatoria con distribucin geomtrica de parmetro p.
Encuentre P (X x) para todos los enteros no negativos x.

Ejercicio 7.13. Sea X una variable aleatoria discreta que toma nicamente valores enteros
no negativos y tal que, para cualquier entero no negativo n, se tiene:
P [X = n | X > n 1] = P [X = 0]

Demuestre que X tiene distribucin geomtrica.

Ejercicio 7.14. Se quiere seleccionar a una persona de entre n. Para ello, cada una lanza
una moneda y se conviene en que si alguna obtiene un resultado distinto al de las otras,
entonces esa persona es la seleccionada; de otra manera se vuelven a lanzar las monedas bajo
las mismas condiciones. Encuentre la probabilidad de que la persona sea seleccionada en el
intento nmero k.
Ejercicio 7.15. Dos basketbolistas, A y B, juegan a lanzar por turnos una pelota sobre el aro,
detenindose en el momento en que uno de ellos logre acertar. En cada uno de sus turnos,
los jugadores A y B tienen probabilidades de acertar iguales a p1 y p2 , respectivamente. Sean
X y Y los nmeros de tiros que realizan A y B, respectivamente, sin contar el ltimo, hasta
que se termina el juego. Asumiendo que todos los lanzamientos son independientes y que el
primero en tirar es A, argumente, sin realizar clculos, para mostrar que la distribucin de Y
es geomtrica. Encuentre la funcin de densidad de X y el parmetro p de la distribucin de
Y.
Ejercicio 7.16. Sea X una variable aleatoria con distribucin Poisson de parmetro .
Demuestre

que la probabilidad de que X tenga como valor un nmero impar es igual a
1

e e .
2

172

VARIABLES ALEATORIAS DISCRETAS

Ejercicio 7.17. Supongamos que el nmero de accidentes que tiene una persona en un ao
tiene distribucin Poisson de parmetro , de tal manera que, en una cierta poblacin, = 2
para el 60% de personas y = 3 para el 40%. Si X es el nmero de accidentes en un ao de
una persona seleccionada al azar, encuentre la distribucin de X.
Ejercicio 7.18. Utilice la aproximacin de Poisson para calcular la probabilidad de que en
una caja de 100 cerillos se encuentren a lo ms 2 cerillos defectuosos si 3% de los cerillos que
se producen son defectuosos.
Ejercicio 7.19. Los astrnomos estiman que en la Va Lctea hay alrededor de 100 billones
de estrellas las cuales tienen planetas a su alrededor. Sea p la probabilidad de que en un
sistema solar determinado haya vida inteligente. Para qu valores de p la probabilidad de
que haya vida inteligente en algn sistema solar de la Va Lctea es mayor que 12 ?
Ejercicio 7.20. Supongamos que el nmero de huevos, X, que pone un insecto tiene distribucin Poisson de parmetro y que la probabilidad de que un huevo se desarrolle es igual a p.
Sea Y el nmero de huevos que se desarrollan. Demuestre que Y tiene distribucin Poisson
de parmetro p.
Ejercicio 7.21. Sea X una variable aleatoria con distribucin Poisson de parmetro . Para
un nmero entero positivo k fijo, encuentre el valor de que hace que P (X = k) sea un
mximo.
Ejercicio 7.22. En una fbrica se empacan cajas de cereal con pasas mezclando primero,
en un gran recipiente, el cereal con las pasas y de tal manera que cada caja contenga, en
promedio, 12 pasas. Estime la probabilidad de que una caja de cereal, seleccionada al azar,
contenga menos de 7 pasas.
Ejercicio 7.23. Un libro de 500 pginas contiene 500 errores de imprenta. Estime la probabilidad de que una pgina, seleccionada al azar, contenga 3 o ms errores.
Ejercicio 7.24. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo,
dos bolas de una caja que contiene N bolas marcadas con los nmeros 1, . . . N . Sea X el
mayor de los dos nmeros de las bolas seleccionadas. Encuentre la funcin de densidad de X.
Ejercicio 7.25. Un experimento aleatorio consiste en seleccionar, al azar y sin reemplazo, 3
nmeros del conjunto {1, . . . , N }. Sea X el menor de los nmeros seleccionados, Z el mayor
de ellos y Y el nmero intermedio. Encuentre las funciones de densidad de X, Y y Z.
Ejercicio 7.26. Un estudiante va a presentar un examen, el cual consistir de 5 preguntas
seleccionadas al azar de entre 10 que el profesor les dej estudiar. Si el estudiante prepara
nicamente las respuestas de 8 de las 10 preguntas, cul es la probabilidad de que responda
bien por lo menos 4 preguntas del examen?
s
Ejercicio 7.27. Utilice la identidad (1 + t)r+s = (1 + t)r (1 + t)P
para demostrar que si la
variable aleatoria X tiene distribucin hipergeomtrica, entonces k P [X = k] = 1.

Ejercicio 7.28. Supongamos que 5 personas, incluidas A y B, se sientan al azar en 5 sillas


colocadas en hilera y sea X el nmero de personas colocadas entre A y B. Encuentre la funcin
de densidad de X.

EJERCICIOS

173

Ejercicio 7.29. Sea X una variable aleatoria con funcin de densidad dada por
c
si x {2, 3, . . .}
3x
f (x) =
0 en otro caso
en donde c es una constante. Encuentre el valor de c y la probabilidad de que X tome como
valor un nmero par.
Ejercicio 7.30. Demuestre que la funcin dada por:

qx
1
si x {1, 2, . . .}
ln(1q)
x
fX (x) =
0
en otro caso
es una funcin de densidad, en donde q (0, 1].
Ejercicio 7.31. Sea X una variable aleatoria uniformemente distribuida en {0, 1, ...., 99}.
Calcule a) P (X 25), b) P (2.6 X 12.2), c) P (8 < X 10 30 < X 32) y d)
P (25 X 30).
Ejercicio 7.32. Un experimento aleatorio consiste en seleccionar al azar un nmero entero
entre 0 y 99 (inclusive). Sea X la suma de los dgitos que se obtienen. Encuentre la funcin
de densidad de X.
Ejercicio 7.33. Sea X y Y dos variables aleatorias independientes, X con distribucin uniforme en el conjunto {1, . . . , N }, Y con distribucin uniforme en el conjunto {1, . . . , M }, en
donde N M. Encuentre P [X < Y ] y P [X = Y ].
Ejercicio 7.34. Sea X una variable aleatoria distribuida uniformemente en el conjunto
{1, . . . , N }, en donde N es un entero positivo y sea M < N otro entero positivo. Encuentre
la funcin de densidad de Y = max(X, M).
Ejercicio 7.35. Sea X una variable aleatoria distribuida uniformemente en el conjunto
{1, . . . , N }, en donde N es un entero positivo y sea 1 < M N otro entero positivo. Encuentre la funcin de densidad de Y = mn(X, M ).
Ejercicio 7.36. Sean X y Y dos variables aleatorias independientes, ambas con distribucin
uniforme en el conjunto {1, . . . , N }. Encuentre la funcin de densidad de Z = max(X, Y ).
Ejercicio 7.37. Sean X y Y dos variables aleatorias independientes, X con distribucin geomtrica de parmetro p, Y con distribucin Poisson de parmetro . a) Encuentre P [X < Y ]
y P [X > Y ]. b) Determine los valores de p y para los cuales P [X > Y ] > P [X < Y ].
Ejercicio 7.38. Sean X y Y dos variables aleatorias independientes, ambas con distribucin
geomtrica de parmetro p. Encuentre a) P [X < Y ] y P [X = Y ] y b) la funcin de densidad
de Z = mn(X, Y ).

CAPTULO 8

VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS


La doctrina de los azares puede ser una ayuda para curar
una especie de supersticin, la cual ha estado arraigada
por mucho tiempo en el mundo, a saber, que hay en los
juegos algo como la suerte, buena o mala.
Abraham de Moivre

8.1. Distribucin uniforme continua


Definicin 8.1 (Distribucin uniforme en (a, b)). Se dice que una variable aleatoria X
tiene distribucin uniforme en el intervalo (a, b) si su funcin de densidad est dada por la
frmula:
1
si x (a, b)
ba
fX (x) =
0
en otro caso
Una distribucin uniforme en el intervalo (0, 1) no es otra cosa que la medida de Lebesgue
en ese intervalo (ver seccin 5.5.2). En efecto, sea X una variable aleatoria con distribucin
uniforme en el intervalo (0, 1) y J un intervalo (de cualquier tipo), de extremos c y d, contenido
en el intervalo (0, 1), entonces:
Rd
P [X J] = c dx = d c = l(J)
en donde l(J) denota la longitud del intervalo J.
Pero, de acuerdo con la proposicin 5.52, la medida de Lebesgue es la nica medida de
probabilidad, definida sobre los conjuntos Lebesgue medibles contenidos en el intervalo (0, 1),
que asigna a cada intervalo su longitud. Por lo tanto, si m denota a la medida de Lebesgue, se
tiene P [X A] = m(A) para cualquier conjunto Lebesgue medible contenido en el intervalo
(0, 1).
La distribucin uniforme continua surge como una extensin al caso continuo del concepto
de equiprobabilidad. Se encuentra esta distribucin, por ejemplo, en un artculo de Thomas
Bayes publicado en el ao 1763 ( An essay towards solving a problem in the doctrine of
chances, Philos. Trans. Roy. Soc. London Ser. A 53, 1763, reproducido en Biometrika 45,
1958) en el cual, dado un rectngulo ABCD, con base el segmento AB y altura el segmento
AC, Bayes consider el experimento aleatorio que consiste en lanzar una bola W sobre el
rectngulo, de tal manera que haya la misma probabilidad de que la bola caiga en cualquiera
de dos partes iguales del rectngulo.
175

176

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

A travs del punto en donde cae la bola W , se traza una recta paralela a AC, la cual corta al
segmento AB en el punto s. Encontr entonces que la probabilidad de que el punto s caiga
entre cualquier par de puntos del segmento AB es igual a la razn de la distancia entre los
dos puntos a la longitud del segmento AB. Es decir, mostr que la distribucin del punto s
en el segmento AB es uniforme.
De manera general, la distribucin uniforme se obtiene al considerar el experimento aleatorio
consistente en la eleccin al azar de un nmero real en el intervalo (a, b) y definiendo X
como el nmero que se obtiene. La. eleccin al azar se interpreta en el sentido de que dos
subconjuntos del intervalo (a, b) que se puedan sobreponer geomtricamente uno sobre el otro
deben de tener asignada la misma probabilidad.
Ya estudiamos este tipo de experimentos en la seccin 5.2, y ah encontramos que si J es un
intervalo de cualquier tipo, de extremos c y d, contenido en (a, b), entonces:
dc
P [X J] = ba
Por lo tanto:

si x a
0
xa
si a < x < b
FX (x) = P [X x] =
ba
1
si x b
As que, la funcin de densidad de X est dada por:
1
si x (a, b)
ba
fX (x) =
0
en otro caso
Ejemplo 8.2. Consideremos el experimento aleatorio consistente en la eleccin al azar de un
nmero real en el intervalo (0, 1) y sea X el nmero que se obtiene. Cul es la probabilidad
de que a) X sea un nmero racional? y b) X pertenezca al conjunto de Cantor?
Solucin
a) Como P [X = x] = 0 para cualquier x R y el conjunto de los nmeros racionales es
numerable, la propiedad de la aditividad numerable nos permite concluir que la probabilidad
de que X sea un nmero racional es igual a 0.
b) Sea C el conjunto de Cantor, entonces:
, 20 ) ( 25
, 26 )
[0, 1] C = ( 13 , 23 ) ( 312 , 322 ) ( 372 , 382 ) ( 313 , 323 ) ( 373 , 383 ) ( 19
33 33
33 33
As que:
P [X C] = 1 P [X [0, 1] C]

8.1. DISTRIBUCIN UNIFORME CONTINUA

177

= 1 P X ( 13 , 23 ) P X ( 312 , 322 ) P X ( 372 , 382 )

1
2
3
= 1 13 + 322 + 233 + 234 + = 1 1 3 2 = 0
3

La distribucin uniforme puede tambin obtenerse dentro del contexto de los ensayos de
Bernoulli. Supongamos que se realiza una sucesin infinita de ensayos de Bernoulli independientes, en cada uno de los cuales la probabilidad de xito es igual a 12 . Los posibles
resultados de este experimento aleatorio son entonces sucesiones infinitas (ck ) de xitos y
fracasos, los cualesP
pueden ser representados por 1s y 0s, respectivamente. Si = (ck ),
ck
definamos X() =
k=1 2k . En otras palabras, cada sucesin (ck ) se est viendo como el desarrollo en base 2 de un nmero real en el intervalo [0, 1] y X() es precisamente ese nmero
real.
Para obtener la distribucin de X, observemos primero que P [X = x] = 0 para cualquier
nmero real x. En efecto, llamemos Xk al resultado del k-simo ensayo de Bernoulli. Entonces,
dado cualquier posible resultado = (ck ), se tiene, para cualquier n N:
P [{}] = P [X1 = c1 , X2 = c2 , . . . , Xn = cn , . . .]
P [X1 = c1 , X2 = c2 , . . . , Xn = cn ] = P [X1 = c1 ] P [X2 = c2 ] P [Xn = cn ] = 21n
Por lo tanto, P [{}] = 0.
Ahora bien, dado un nmero real x [0, 1], el evento [X = x] ocurre si y slo si se obtiene
como resultado una sucesin = (ck ), la cual representa al nmero x escrito en base 2.
Pero cada punto x tiene a lo ms dos desarrollos en base 2, es decir, el evento [X = x] est
formado por a los ms dos posibles resultados del espacio muestral, cada uno de los cuales
tiene probabilidad 0. Por lo tanto P [X = x] = 0.
Para cada n N, consideremos ahora un intervalo de la forma ( 2kn , k+1
), con 0 k < 2n .
2n
Asociada a tal intervalo existe una nica coleccin de n 0s y 1s, c1 , c2 , . . . , cn , tal que un
punto x pertenece al intervalo ( 2kn , k+1
) si y slo si tiene un desarrollo en base 2 de la forma
2n
x = 0.c1 c2 . . . cn . . .. Por lo tanto:

) = P [X1 = c1 , X2 = c2 , . . . , Xn = cn ]
P X ( 2kn , k+1
2n
= P [X1 = c1 ] P [X2 = c2 ] P [Xn = cn ] = 21n

Es decir, la probabilidad del evento X ( 2kn , k+1


) es igual a la longitud del intervalo ( 2kn , k+1
).
2n
2n

,
a,
1

b
,
Finalmente, dado un intervalo (a, b) (0, 1) y > 0, sea n N tal que 21n < mn , ba
4
k
r el ms pequeo nmero entero no negativo k tal que 2n (a, b) y M el ms grande
nmero entero no negativo k tal que r+k
(a, b). Consideremos los intervalos I1 = ( 2rn , r+1
),
2n
2n
r+2
r+M1 r+M
r
r+M
,
),
.
.
.,
I
=
(
,
).
Entonces
(a,
b)
y
(a,
)

(
,
b)
I2 = ( r+1
M
1
2
M
2n
2n
2n
2n
2n
2n
difieren nicamente por un nmero finito de puntos, as que:

P
r
r+M
P [X (a, b)] = M
k=1 (Ik ) + P X (a, 2n ) + P X ( 2n , b)

P
[(a, b)] = M
(a, 2rn ) + ( r+M
, b)
k=1 (Ik ) +
2n
Adems:

,
b)
0 P X (a, 2rn ) + P X ( r+M
n
2

r
r+M r+M+1
P X ( r1
,
)
+
P
X

(
, 2n ) = 22n < 2
2n 2n
2n

,
b)
< 22n < 2
0 (a, 2rn ) + ( r+M
n
2

178

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

As que:
P
0 P [X (a, b)] M
k=1 (Ik ) < 2
PM
0 [(a, b)] k=1 (Ik ) < 2
Por lo tanto:
|P [X (a, b)] [(a, b)]| < 2
Como esto es vlido para cualquier > 0, se puede concluir que:
P [X (a, b)] = [(a, b)]
8.2. Distribucin normal
Definicin 8.3 (Distribucin normal). Sean , R, con > 0. Se dice que una variable
aleatoria X tiene distribucin normal de parmetros y 2 si su funcin de densidad est
dada por la frmula:

fX (x) = 12 exp 21 2 (x )2

Verifiquemos que esta funcin, as definida, es una funcin de densidad:


1

R 1
R y2
2

1
exp

(x

)
e dy = 1
dx
=
2
2
2

R y2
La integral indefinida e dy no se puede expresar en forma cerrada, de ah que para evaluar
Rb
2
una integral definida a ey dy se tenga que recurrir a mtodos numricos. Por esta razn es
comn encontrar tablas que contienen evaluaciones de ese tipo de integrales para diferentes
intervalos. Con el objeto de no tener que recurrir
a una tabla diferente
para cada valor de

Rb
1
2
y , para evaluar una integral de la forma a exp 22 (x ) dx, es conveniente reducir
Rb 1 2
sta, mediante un cambio de variable, a una de la forma a e 2 y dy. De manera equivalente,
una variable aleatoria con distribucin normal de parmetros y 2 se puede transformar, de
manera muy simple, en una con distribucin normal de parmetros 0 y 1. Esto se formula en
la siguiente proposicin:
Proposicin 8.4. Sea X una variable aleatoria con distribucin normal de parmetros y
2 , entonces Y = X
tiene distribucin normal de parmetros 0 y 1.

Demostracin

y
= P [X + y] = FX ( + y)
FY (y) = P [Y y] = P X

Por lo tanto:
d
d
FY (y) = dy
FX ( + y) = fX ( + y) = 12 exp {f rac12y 2 }
fY (y) = dy
Definicin 8.5 (Distribucin normal estndar). Se dice que una variable aleatoria X
tiene distribucin normal estndar si su distribucin es normal con parmetros = 0 y
2 = 1.
Dada una variable aleatoria X, con distribucin normal, la proposicin 8.4 permite calcular
cualquier probabilidad de la forma P [a < X < b], mediante una tabla correspondiente a la
distribucin normal estndar.
1 2
Otra simplificacin se obtiene al considerar que la funcin e 2 y es simtrica con respecto al
eje vertical, lo cual implica, en particular, que:

8.2. DISTRIBUCIN NORMAL


1
2
1
2
1

179

R0

R 1 2
1 2
e 2 y dy = 12 0 e 2 y dy = 0.5

R a 1 y2
R 1 y2
1
2
e
dy
=
e 2 dy para cualquier a > 0

2 a
R 0 1 y2
Ra 1 2
e 2 dy = 12 0 e 2 y dy para cualquier a > 0
a

En la pgina 283 se presenta una tabla de la distribucin


estndar. Ntese que sta
R a normal
1 2
contiene las evaluaciones de integrales de la forma 12 0 e 2 y dy para a {0.00, 0.01, 0.02,
. . ., 3.90}.
Para z 0, definamos:
1
(z) =
2

1 2

e 2 y dy

Para valores de z (0, 3.9), que no pertenezcan al conjunto A = {0.00, 0.01, 0.02, . . . , 3.90},
se puede obtener una aproximacin de (z) a partir de los valores de en los dos puntos,
z1 , z2 A entre los cuales se encuentra z. Para esto, se considera la recta en R2 que une
los puntos (z1 , (z1 )) con (z2 , (z2 )); si (z, u) se encuentra sobre esa recta, entonces u es una
aproximacin de (z). Por ejemplo:
(1.37)(1.36)
(1.367 1.36)
1.371.36
0.41470.4131
(1.367 1.36) = 0.41422
1.371.36

(1.367) (1.36) +
= 0.4131 +

Ejemplo 8.6. Sea X una variable aleatoria con distribucin normal de parmetros = 2.4 y
2 = 1.6. Encuentre P [2 < X < 3], P [1 < X < 0.5], P [X > 1.5] y P [X > 3.1].
Solucin
h
i

X
32.4

P [2 < X < 3] = P 22.4


<
<
< 0.474
= P 0. 316 < X

1.6
1.6
= (0.316) + (0.474) 0.12398 + 0.18224 = 0.30622
h
i

X
12.4
0.52.4

P [1 < X < 0.5] = P


=
P
2.688 <
<
<

1.6
1.6

< 1.502

= (2.688) (1.502) 0.49638 0.43346 = 0.06292


h
i

1.52.4

P [X > 1.5] = P X
= P X
>
> 3.083 = 0.5 + (3.083)

1.6
= 0.5 + 0.499 = 0.999
h
P [X > 3.1] = P

>

3.12.4

1.6

0.5 0.20985 = 0.29015

=P

> 0. 553 = 0.5 (0.553)

La distribucin normal es una de las distribuciones ms importantes, tanto en la Estadstica


como en la Teora de la Probabilidad,pues aproxima a muchas otras distribuciones. De hecho,
surgi como una distribucin lmite, siendo Abraham de Moivre el primero en obtenerla como
una aproximacin de la distribucin binomial. Esto lo hizo en su trabajo titulado Approximatio ad summam terminorum binomii (a+b)n in seriem expansi, publicado en 1733, en el
cual investig las desviaciones que se presentan entre la frecuencia relativa de ocurrencia de un
evento A en n repeticiones del experimento correspondiente y la probabilidad de ocurrencia
de A. Ms tarde Laplace complement ese trabajo, por lo cual actualmente se le conoce como
el teorema de de Moivre-Laplace.

180

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

El resultado de de Moivre-Laplace constituye el segundo de los llamados teoremas lmite de


la Teora de la Probabilidad. Este resultado y el de Bernoulli (ver proposicin 7.4) marcaron
la pauta para el desarrollo posterior de la Teora de la Probabilidad, concluyndose su estudio
apenas a principios del siglo XX con la formulacin general de los teoremas lmite.
Dentro de la teora moderna, el teorema de de Moivre-Laplace es nicamente un caso particular
del teorema del lmite central. Sin embargo, resulta ilustrativa una demostracin directa, la
cual puede realizarse con la herramienta que se tiene desarrollada hasta este momento.
8.3. Teorema de de Moivre-Laplace
Teorema 8.7 (Teorema local de de Moivre-Laplace). Para cada n N, sea Xn una
variable aleatoria con distribucin binomial de parmetros n y p (0, 1). Dados a y b dos

nmeros reales tales que a < b, definamos, para cada entero no negativo k tal que np+a npq

, entonces:
k np + b npq, xk,n = knp
npq
lmn

P [Xn =k]
exp{ 12 x2k,n }

1

2 npq

= 1 uniformemente en k

Demostracin
Por la frmula de Stirling, se tiene, para cualquier m N:

1
1
< m < 12m
.
m! = 2mm em mem , en donde 12m+1
Por lo tanto, para k {0, 1, . . . , n}, se tiene:

n!
pk (1 p)nk
P [Xn = k] = nk pk (1 p)nk = k!(nk)!
p np q nq np k nq nk
n ne n
1 1
k
nk

= 2kk kek n(nk)


p
(1

p)
=
e n k nk
nk nke nk
k
nk
k
nk
2 npq

Ahora bien, si k satisface np + a npq k np + b npq, entonces nq b npq n k

nq a npq, as que:
np

np
np+anpnpq
np+b npq
k
nq

nqa npq

np
k

np

nqb npq

n k nk n + k + nk <

1
12

1
k

1
nk

1
12

Por lo tanto:q
p
nq n k nk
e
= 1 uniformemente en k.
lmn np
k
nk
k nq nk
Sea ahora Hn (k) = np
k
nk
Obsrvese entonces que:
q

np+xk,n npq
q
k
=
=
1
+
x
k,n
np
np
np
q

nqxk,n npq
p
nk
=
=
1

x
k,n
nq
nq
nq
As que:

1
n

1
np+a npq

1
nqb npq

q
q

q
p
ln Hn (k) = (np + xk,n npq) ln 1 + xk,n np (nq xk,n npq) ln 1 xk,n nq
Pero, existen C y N tales que:

8.3. TEOREMA DE DE MOIVRE-LAPLACE

q
q
q 2
q
q
= x np
ln 1 + x np
12 np
x + An (x)

q
q
p 2
p
p
ln 1 x nq
= x nq
12 nq
x + Bn (x)

en donde n n |An (x)| < C, n n |Bn (x)| < C para n N y x [a, b].
Por lo tanto:
h
i
q

q
1 q 2
ln Hn (k) = (np + xk,n npq) xk,n np 2 np xk,n + An (xk,n )
h
i
q

p
p 2
(nq xk,n npq) xk,n nq
12 nq
xk,n + Bn (xk,n )

= 12 x2k,n (np + xk,n npq)An (xk,n ) (nq xk,n npq)Bn (xk,n )


Ahora bien:

(np + xk,n npq)An (xk,n ) = p + xk,n pq nnAn (xk,n ) < C p +


n
n
n

181

xk,n
pq
n

As que:

lmn (np + xk,n npq)An (xk,n ) = 0 uniformemente en k.


De la misma manera:

lmn (nq xk,n npq)Bn (xk,n ) = 0 uniformemente en k.

Por lo tanto, si Gn (k) = exp (np + xk,n npq)An (xk,n ) (nq xk,n npq)Bn (xk,n ) , en1 2
tonces lmn Gn (k) = 1 uniformemente en k y Hn (k) = Gn (xk,n )e 2 xk,n .
As que:

p q nq np k nq nk
1 2
1 2
lmn 2 npqP [Xn = k] e 2 xk,n = lmn 12 np
e n k nk e 2 xk,n
k
nk
k
nk
p q nq
p np q nq
1 2
n
k
nk H (k)e 2 xk,n = l
= lmn np
e
m
e n k nk Gn (k)
n
n
k
nk
k
nk
p q

np
nq n k nk
e
= lmn
lmn Gn (k) = 1 uniformemente en k.
k
nk
Corolario 8.8. Para cada n N, sea Xn una variable aleatoria con distribucin binomial
de parmetros n y p (0, 1) y k un entero no negativo tal que k n. Entonces:
lmn P [Xn = k] = 0 uniformemente en k
Demostracin
Recordemos que si X es una variable aleatoria con distribucin binomial de parmetros n
y p, entonces los trminos P [X = k] crecen con k hasta alcanzar su mximo valor cuando
np + p 1 k np + p, despus de lo cual decrecen con k. Entonces, para probar el
resultado, basta con demostrar que el trmino mximo tiende a cero cuando n . Para
cada n N, sea kn un entero no negativo tal que:
P [Xn = kn ] = max {P [Xn = k] : k es un entero no negativo tal que k n}

Entonces, tomando n suficientemente grande, se tiene np npq kn np + npq. As


, entonces:
que, por el teorema local de de Moivre-Laplace, si xn = kn np
npq
lmn


2 npqP [Xn =kn ]
exp{ 12 x2n }

=1

182

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

Pero p 1 kn np p, as que lmn xn = 0. Por lo tanto, lmn exp 12 x2n = 1 y


entonces:

lmn 2 npqP [Xn = kn ] = 1
lo cual implica que lmn P [Xn = kn ] = 0.

El teorema local del lmite puede utilizarse para encontrar aproximaciones de la funcin de
densidad de una variable aleatoria con distribucin binomial. Para esto, en la bsqueda de

. De esta forma, se tendr


una estimacin de una probabilidad P [X = k], se define xk,n = knp
npq
P [X = k]

1 x2
1 1 e 2 k,n .
npq 2

Es decir:

P [X = k]

1 1
npq 2


2
1 knp
exp 2 npq

Obsrvese ahora que la funcin f (x) =

1 1
npq 2


2
1 xnp
es la funcin de densidad
exp 2 npq

de una variable aleatoria con distribucin normal de parmetros = np y 2 = npq. De esta


manera se tiene el siguiente resultado:
Corolario 8.9. Sea X una variable aleatoria con distribucin binomial de parmetros n y
p [0, 1] y x {0, . . . , n}, entonces P [X = x] f (x), en donde f es la funcin de densidad
de una variable aleatoria con distribucin normal de parmetros = np y 2 = npq.
De acuerdo con el teorema local del lmite, la aproximacin ser mejor cuando k est ms
cerca de np.
Ejemplo 8.10. Sea X una variable aleatoria con distribucin binomial de parmetros n = 50
y p = 14 . Entonces, de acuerdo con el ltimo corolario, para x {0, . . . , 50}, se tiene:
1 x 3 50x
fX (x) = P [X = x] = 50
4
q
n x 4
2 o
1
4
fX (x) 25 3
exp 75
x 25
2

Con el objeto de comparar los valores exactos de una funcin de densidad binomial con sus
valores aproximados por medio de una densidad normal, a continuacin se muestran las grficas que se obtienen con ambos valores. Con el objeto de apreciar mejor la aproximacin, la
grfica de los valores exactos de la densidad binomial fX se ha trazado para todos los valores
reales de x comprendidos en el intervalo [0, 50]. Para esto se ha expresado fX en la forma:
1 x 3 50x
50!
fX (x) = (x+1)(51x)
4
4
La lnea slida corresponde a los valores exactos, mientras que la lnea punteada corresponde
a los valores aproximados.

8.3. TEOREMA DE DE MOIVRE-LAPLACE

183

0.12
0.1
0.08
0.06
0.04
0.02
0

10

15

20

25

De acuerdo con las grficas, la aproximacin es bastante buena y pareciera que es mejor en
las colas de la distribucin que en el centro de ella. Sin embargo, esto no es as pues si bien el
error absoluto que se comete con la aproximacin es ms grande en el centro de la distribucin,
el error relativo es menor en esa misma regin. Por ejemplo, se tiene:

P [X = 2] = 50
(.25)2 (.75)48 = 7.7083 105
250
P [X = 10] = 10 (.25)10 (.75)40 = 0.09 8518
Mientras que, utilizando el teorema de de Moivre-Laplace, se tiene:
q
n

2 o
1
4
P [X = 2] 25 3
= 3.6414 104
exp 75
2 25
2
q
n

2 o
1
4
= 0.09336
P [X = 10] 25 3
exp 75
10 25
2

Para el caso de P [X = 2], los errores absolutos y relativos que se cometen con la aproximacin
estn dados, respectivamente, por:
ea = 3. 6414 104 7. 7083 105 = 2.8706 104
ea
2.8706104
er = 7.708310
5 = 7.7083105 = 3.724
Por otro lado, para el caso de P [X = 10], se tiene:
ea = 0.09336 0.098518 = 5.158 103
3
ea
er = 0.098518
= 5.15810
= 0.052356
.098518
Entonces, efectivamente, en el primer caso, el error absoluto es menor, pero el error relativo
es mucho mayor.

Cuando n no es grande, la aproximacin no es muy buena. Por ejemplo, a continuacin


se presentan las grficas de los valores exactos y aproximados para el caso de una variable
aleatoria con distribucin binomial de parmetros n = 12 y p = 14 .

184

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

0.25
0.2
0.15
0.1
0.05

4x

Teorema 8.11 (Teorema integral de de Moivre-Laplace). Sean a y b dos nmeros reales


tales que a < b y, para cada n N, sea Xn una variable aleatoria con distribucin binomial
de parmetros n y p (0, 1). Entonces:
h
i
Rb 1 2
np
< b = 12 a e 2 x dx
lmn P a < Xnnpq

Demostracin
Para cada entero no negativo k tal que a <

2 npqP [Xn =k]
exp{ 12 x2k,n }

knp

npq

< b, definamos xk,n =

1, entonces:
1 2
1 1
exp
2 xk,n [1 + (n, k)]
P [Xn = k] = npq
2

knp

npq

y (n, k) =

as que:
i P
h
np
r P [X = k]
< b = qk{0,1,...,n}:a< knp
P a < Xnnpq
n

<b
npq

P
1 1
= {k{0,1,...,n}:a<xk,n <b} npq
exp 12 x2k,n [1 + (n, k)]
2
Ahora bien, obsrvese que el conjunto P = {xk,n : k {0, . . . , n} , a < xk,n b} {a, b} forma
una particin del intervalo [a, b], de manera que si P = {y0 , y1 , . . . , ym }, con a = y0 < y1 <
1
< ym = b, entonces kP k = max {yj yj1 : j {1, . . . , m}} = npq
y

P
1 1
(y1 a) 12 exp 12 a2 + {k{0,1,...,n}:a<xk,n <b} npq
exp 12 x2k,n
2

1 1
2
2
exp 12 ym1
+ (b ym1 ) 12 exp 12 ym1
npq
2
1 2
P
1
= m
j=1 (yj yj1 ) 2 exp 2 yj1

constituye una suma de Riemann de la funcin 12 exp 12 x2 , correspondiente a la particin


P . Adems:

1 1
0 (y1 a) 12 exp 12 a2 npq
2

1 2
1
1
1 1
0 npq b + ym1 2 exp 2 ym1 npq
2
Por lo tanto:
P
lmn {k{0,1,...,n}:a<xk,n <b}

1 1
npq 2

exp 12 x2k,n

8.3. TEOREMA DE DE MOIVRE-LAPLACE

185

P
1 exp 1 y 2
= lmn m
(y

y
)
j
j1
j=1
2 j1
2

1
2
lmn (y1 a) 12 exp 12 a2 + lmn npq
b + ym1 12 exp 12 ym1
Rb 1 2
= 12 a e 2 x dx

Por otra parte, de acuerdo con el teorema local de de Moivre-Laplace, lmn (n, k) = 0
uniformemente en k, es decir, dada > 0, existe N tal que si n N y k es un entero no

negativo tal que np + a npq k np + b npq, entonces |(n, k)| < . As que, para n N,
se
Ptiene:

1 2

1 1

exp

x
(n,
k)
{k{0,...,n}:a<xk,n <b} npq 2

2 k,n

P
1 1
{k{0,...,n}:a<xk,n <b} npq
exp 12 x2k,n |(n, k)|
2
1 2
P
1 1
exp
2 xk,n
< {k{0,...,n}:a<xk,n <b} npq
2
Por lo tanto, para cualquier > 0, se tiene:
P

1 2

1 1
exp

x
(n,
k)
lmn {k{0,...,n}:a<xk,n <b} npq

2 k,n
2

R b 1 x2
P
1 1
1 2

lmn {k{0,...,n}:a<xk,n <b} npq


exp

x
e 2 dx <
=
k,n
2
2
2 a
As que:
1 2
P
1 1
exp
2 xk,n (n, k) = 0
lmn {k{0,...,n}:a<xk,n <b} npq
2

Por lo tanto:
h
i
np
lmn P a < Xnnpq
<b
1 2
P
1 1
= lmn {k{0,...,n}:a<xk,n <b} npq
exp
2 xk,n [1 + (n, k)]
2

P
1 1
exp 12 x2k,n
= lmn {k{0,1,...,n}:a<xk,n <b} npq
2
1 2
P
1 1
exp
2 xk,n (n, k)
+ lmn {k{0,1,...,n}:a<xk,n <b} npq
2
R
1 2
b
= 12 a e 2 x dx

Corolario 8.12. Sea a cualquier nmero real y, para cada n N, sea Xn una variable
aleatoria con distribucin binomial de parmetros n y p (0, 1). Entonces:
h
i
R 1 2
np
> a = 12 a e 2 x dx
lmn P Xnnpq
h
i
Ra
1 2
np
lmn P Xnnpq
< a = 12 e 2 x dx

Demostracin
h
i
R 1 x2
Xn np
1

>
a
=
e 2 dx.
Demostraremos primero que lmn P
npq
2 a
R
1 2
Para esto, como 12 e 2 x dx = 1, dada > 0 se puede elegir M > 0 suficientemente
RM
R 1 2
1 2
grande tal que 12 M e 2 x dx > 1 4 . De esta forma se tiene 12 M e 2 x dx < 4 .

Sea ahora N1 tal que, para cualquier n N1 , se tenga:


h
i
R M 1 x2

Xn np
1

P M < npq < M 2 M e 2 dx < 4

186

Entonces:
h
P M <

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

Xn np

npq

i
<M >

As que:
i
h
np
M <
P Xnnpq

1
2

RM

1 2

e 2 x dx

>1

Si a M, entonces, para n N1 , se tiene:


i
h
i
h
np
np
> a P Xnnpq
M < 2
P Xnnpq
y
R 1 x2
R 1 2
1
e 2 dx 12 M e 2 x dx < 4
2 a
as que:
h
i
R 1 x2
Xn np
1

>
a

e 2 dx < 2 <
P

npq
2 a

Si a < M, sea N2 tal que, para cualquier n N2 , se tenga:


h
i
R M 1 x2

Xn np
1

P
a
<
<
M

e 2 dx < 4

npq
2 a

Entonces, para n max {N1 , N2 }, se tiene:


h
i
R 1 x2
Xn np
1

> a 2 a e 2 dx
P
npq
h
i
h
i
RM 1 2
R 1 2

np
np
= P a < Xnnpq
< M + P Xnnpq
M 12 a e 2 x dx 12 M e 2 x dx
h
h
i
i
R M 1 x2
R 1 x2

Xn np
Xn np
1

1
2

P a < npq < M 2 a e


dx + P

M
+
e 2 dx
npq
2 M

< 4 + 2 + 4 =
El otro lmite se puede ahora obtener de la siguiente forma:
h
i
h
i
h
i
Xn np
Xn np
Xn np
lmn P npq < a = 1 lmn P npq > a lmn P npq = a
R 1 2
Ra
1 2
= 1 12 a e 2 x dx = 12 e 2 x dx.

Ejemplo 8.13. Un productor de focos sabe que el 5% de su produccin est defectuosa. El


productor da una garanta en su envo de 10,000 focos, prometiendo la devolucin del costo
de la mercanca si ms de focos en el envo resultan defectuosos. Qu tan pequeo puede
escoger el productor el valor de de tal manera que pueda confiar en que no tendr que dar
un reembolso en ms del 1% de los envos?
Solucin
Sea X el nmero de artculos defectuosos en un envo de 10,000 focos. X tiene entonces
distribucin binomial de parmetros n = 10, 000 y p = 0.05. Por otra parte, se est buscando
tal que P [X > ] 0.01.
Utilizando el teorema de de Moivre-Laplace, se tiene:

np
P [X > ] P Z
= P Z 500
21.794
np(1p)

en donde Z es una variable aleatoria con distribucin normal estndar.


2.33. Es decir,
Pero P [Z 2.33] 0.01, de manera que se busca tal que 500
21.794
500 + (21.794)(2.33) = 550.78

8.3. TEOREMA DE DE MOIVRE-LAPLACE

187

Por lo tanto, escogiendo 551, el productor puede confiar en que no tendr que dar un
reembolso en ms del 1% de los envos.
Ejemplo 8.14 (Movimiento browniano). Consideremos una partcula que se mueve a
saltos sobre la recta real de tal manera que, comenzando en el origen, en cada intervalo de
tiempo h, la partcula salta una distancia d hacia la derecha con probabilidad 12 o una distancia
d hacia la izquierda, tambin con probabilidad 12 . Llamemos Sn a la posicin de la partcula
en el tiempo nh.
De acuerdo con lo expuesto en la seccin 7.7, si para cada n N, definimos la variable
aleatoria Xn como el nmero de saltos que da la partcula hacia la derecha en el tiempo
nh, entonces la distribucin de Xn es binomial con parmetros n y p = 12 y, adems, Sn =
d(2Xn n).
Por el teorema de de Moivre-Laplace, tenemos:
h
i
Rb 1 2
X 1n
lmn P a < n1 n2 < b = 12 a e 2 x dx
2

Pero

Xn 12 n
1
n
2

=
h
lmn P a <

Sn
,
d n
Sn
d n

as que:
i
Rb 1 2
< b = 12 a e 2 x dx

Es decir, cuando n es grande, la distribucin de Sn es aproximadamente normal con parmetros = 0 y 2 = d2 n.


Una caminata aleatoria de este tipo se utiliza para modelar el movimiento browniano, el cual
consiste en el movimiento de una pequea partcula que se encuentra suspendida en agua, de
tal manera que los choques de las molculas del agua con la partcula provocan que esta ltima
se desplace sobre el lquido. Este tipo de movimiento fue observado y estudiado por Robert
Brown, de lo cual se deriva su nombre. Ms tarde, Albert Einstein lo explic utilizando la
teora molecular y finalmente Norbert Wiener estableci el modelo probabilstico que permite
estudiarlo.
Visto el Movimiento Browniano en una dimensin, digamos proyectado sobre el eje horizontal,
se observa que la partcula se mueve avanzando y retrocediendo en una forma que parece
azarosa, de ah que se modele considerando primero una partcula que se mueve a saltos sobre
la recta real de tal manera que, comenzando en un punto x, en cada intervalo de tiempo h,
la partcula salta una distancia d hacia la derecha con probabilidad 12 o una distancia d hacia
la izquierda, tambin con probabilidad 12 ; despus se hace tender h a cero, asumiendo adems
que d2 es proporcional a h, lo cual es una hiptesis que viene del anlisis fsico.
Llamemos St a la posicin de la partcula en el tiempo t > 0 y, considerando primero el
movimiento a saltos, definamos Xt como el nmero de saltos que da la partcula hacia la
derecha en el tiempo t. Sabemos entonces que si n es el ms grande entero menor o igual que
t
, la distribucin de Xt es binomial con parmetros n y p = 12 y, adems, St = x + d(2Xt n).
h
Por el teorema de de Moivre-Laplace, tenemos:
h
i
Rb 1 2
X 1n
lmh0 P a < 1t n2 < b = 12 a e 2 x dx
2

Pero, asumiendo d2 = h (lo cual es posible hacer tomando las unidades adecuadas) y tomando
X 1n
x
t x
= St nh
= S
, as que:
h de la forma mt con m N, se tiene 1t n2 = Sdtx
n
t
2

188

h
lmm P a <

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS


S
t x
t

i
<b =

1
2

Rb
a

1 2

e 2 x dx

Es decir, la distribucin de St es normal con parmetros = 0 y 2 = t.


La siguiente figura ilustra una trayectoria browniana:
2
20

40

60

80

100

0
-2
-4
-6
-8

-12

Para lograr una mejor aproximacin de la distribucin binomial mediante una distribucin
normal se requiere realizar una pequea correccin antes de aplicar el teorema de de MoivreLaplace. sta tiene que ver con el hecho de que se est aproximando una distribucin discreta
mediante una continua. Por ejemplo, si X es una variable aleatoria con distribucin binomial
de parmetros n = 500 y p = 0.3 y queremos encontrar un valor estimado de P [X > 130], el
teorema de de Moivre-Laplace nos permite escribir:
h
i
h
i
R
1 2
np
Xn np

P [X > 130] = P Xnnpq


=
P
> 130150
>
1.
9518
12 1. 9518 e 2 x dx = 0.97452
npq
105

Es decir, estamos aproximando la probabilidad P [X > 130], que se obtiene como una suma
de probabilidades, mediante el rea de de una regin bajo la grfica de la funcin de densidad
normal estndar. El valor exacto de P [X > 130] se puede obtener tambin como un rea bajo
la grfica de una funcin f definiendo sta como sigue:

P [X = k] si x (k 0.5, k + 0.5] y k {0, . . . , n}


f (x) =
0
en otro caso
con lo cual se tiene:
R 500.5
P [X > 130] = 130.5 f (x)dx
Al aplicar el teorema de de Moivre-Laplace, lo que estamos haciendo es aproximar la funcin f
mediante el Corolario 8.9, pero entonces obtendramos una mejor aproximacin considerando
el intervalo de integracin con la correccin de 0.5 que interviene en la definicin de la funcin
f . De esta forma, una mejor aproximacin para P [X > 130] se obtiene de la siguiente manera:
h
i
R
1 2
130.5150

1
P [X > 130] P Z >
e 2 x dx = 0.97148
=
P
[Z
>
1.
903]
=
105
2 1. 903

en donde Z es una variable aleatoria con distribucin normal estndar.


El valor exacto de la probabilidad en consideracin est dado por:
500
P
k
500k
P [X > 130] = 500
= 0.97267
k=131 k (0.3) (0.7)

Ejemplo 8.15. Sea X una variable aleatoria con distribucin binomial de parmetros n =
5000 y p = 0.2. Utilice el teorema de de Moivre Laplace para estimar P [990 X 1020].

8.4. DISTRIBUCIN EXPONENCIAL

Solucin
h

P [990 X 1020] P 989.51000


Z
800
R 0.72478
2
= 12 0. 37123 ex /2 dx = 0.41047

1020.51000

800

189

= P [0. 37123 Z 0.72478]

en donde Z es una variable aleatoria con distribucin normal estndar.


Ejemplo 8.16. Utilice el teorema de de Moivre-Laplace para estimar la probabilidad de que
en 10, 000 dgitos, seleccionados al azar, el nmero 7 no aparezca ms de 985 veces.
Solucin
Sea X el nmero de veces que aparece el 7. X tiene entonces distribucin binomial con parmetros n = 10, 000 y p = 0.1. Utilizando el teorema de de Moivre-Laplace, se tiene:
h
i
R
2
985.51000

1
ex /2 dx = 0.68557
P [X 985] P Z
=
P
[Z

0.48333]
=
900
2 0.48333

en donde Z es una variable aleatoria con distribucin normal estndar.


8.4. Distribucin exponencial

Definicin 8.17 (Distribucin exponencial). Si es un nmero real positivo, se dice


que una variable aleatoria X tiene distribucin exponencial de parmetro si su funcin de
densidad est dada por la frmula
x
si x > 0
e
fX (x) =
0
en otro caso
Una distribucin de este tipo se obtiene al considerar el tiempo que transcurre entre dos
ocurrencias consecutivas de eventos que ocurren aleatoriamente en el tiempo. Este esquema
ya lo consideramos en la seccin 7.4 al estudiar la distribucin Poisson. Ah consideramos un
experimento aleatorio consistente en la observacin de eventos que ocurren aleatoriamente en
el tiempo de tal manera que si, para t 0, Xt es el nmero de veces que ocurre el evento hasta
el tiempo t, entonces la familia de variables aleatorias {Xt }t0 forma un proceso de Poisson
de parmetro . En particular, X0 = 0 y si s < t, entonces la variable aleatoria Xt Xs tiene
distribucin Poisson de parmetro (t s).
Sea ahora T1 el tiempo que transcurre desde el instante inicial t = 0 hasta que ocurre el primer
evento. Obsrvese entonces que, para t > 0, el evento [T1 > t] ocurre si y slo si ocurre el
evento [Nt = 0]. Por lo tanto:
P [T1 > t] = P0 (t) = et
As que:
FT1 (t) = 1 et
Y entonces:
t
si t > 0
e
fT1 (t) =
0
en otro caso
Es decir, T1 tiene distribucin exponencial de parmetro .
Sea ahora s > 0 y T el tiempo que transcurre desde el instante s hasta que ocurre un evento
ms. Obsrvese entonces que, para t > 0, el evento [T > t] ocurre si y slo si no hay ocurrencias
de eventos en el intervalo de tiempo (s, s + t]. Por lo tanto:

190

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

P [T > t] = P [Ns+t Ns = 0] = et

P [T > t] = P N(s,s+t] = 0 = P [Nt = 0] = P0 (t) = et


As que, nuevamente, T tiene una distribucin exponencial de parmetro .
A continuacin se presentan las grficas de algunas funciones de densidad tipo exponencial.
2

0.12

10

1.8
1.6

0.1

1.4

0.08

1.2
1

0.06

0.8
0.04

0.6

0.4

0.02

0.2
10

20
x

30

1
8

40

0.5

1.5
x

2.5

=2

0.2

0.4 x 0.6

0.8

= 10

Ejemplo 8.18. Sea T una variable aleatoria con distribucin exponencial de parmetro .
Demuestre que, para cualquier par de nmeros reales positivos s y t, se tiene:
P [T > t + s | T > t] = P [T > s]
Supongamos ahora que el tiempo, en aos, que un radio funciona, tiene distribucin exponencial de parmetro = 18 . Si una persona compra un radio usado, cul es la probabilidad de
que ese radio funcionar durante 8 aos ms?
Solucin
(t+s)
>t]
= PP[T[T>t+s]
= e et = es = P [T > s]
P [T > t + s | T > t] = P [T P>t+s,T
[T >t]
>t]

Por otra parte, se busca P [T > t + 8 | T > t], en donde t es el tiempo que ha funcionado el
radio en el momento de la compra. Por la relacin demostrada anteriormente, se tiene:
P [T > t + 8 | T > t] = P [T > 8] = e8
As que la probabilidad de que el radio comprado funcionar durante 8 aos ms es igual a
e1 = 0.368.
Ejemplo 8.19. Sean T1 y T2 dos variables aleatorias independientes, ambas con distribucin
exponencial, T1 con parmetro 1 y T2 con parmetro 2 . Demuestre que T = mn(T1 , T2 )
tiene distribucin exponencial de parmetro = 1 + 2 .
Solucin
P [T > t] = P [mn(T1 , T2 ) > t] = P [T1 > t, T2 > t]
= P [T1 > t] P [T2 > t] = e1 t e2 t = e(1 +2 )t

Ejemplo 8.20. La siguiente figura muestra 4 componentes, cada uno de los cuales tiene un
tiempo de vida, independiente de los dems, distribuido exponencialmente con parmetro .
Los 4 componentes estn articulados formando un sistema de tal forma que, al funcionar el
sistema, se activan los 4 componentes. El sistema permanece funcionando mientras una de las
dos partes, la superior o la inferior, funcionan. A su vez cada una de stas funciona cuando
sus dos componentes funcionan. Encuentre la distribucin del tiempo de vida del sistema.

8.4. DISTRIBUCIN EXPONENCIAL

C1

191

C2

I
I

C3

C4

Solucin
Sean T1 , T2 , T3 , T4 los tiempos de vida de los componentes C1 , C2 , C3 , C4 , respectivamente, T
el tiempo de vida del sistema, X = mn {T1 , T2 } y Y = mn {T3 , T4 }. Entonces X y Y son
independientes y ambas tienen distribucin exponencial de parmetro 2. As que, para t > 0,
se tiene:

2
P [T t] = P [max {X, Y } t] = P [X t, Y t] = P [X t] P [Y t] = 1 e2t
As que:

4e2t 1 e2t si t > 0


fT (t) =
0
en otro caso
La grfica de fT se muestra a continuacin para el caso = 2.

3
2.5
2
1.5
1
0.5
0

0.2

0.4

0.6 t

0.8

1.2

1.4

La siguiente figura muestra la grfica de la funcin t 7 P [T > t] en lnea slida, mientras que
la lnea punteada muestra la grfica de la funcin t 7 P [X > t] = P [Y > t], ambas tomando
= 2.

192

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0

0.1

0.2

0.3

0.4

0.5
t

0.6

0.7

0.8

0.9

8.5. Distribucin gama


Definicin 8.21 (Distribucin gama). Si es un nmero real positivo y n un nmero
entero positivo, se dice que una variable aleatoria X tiene distribucin gama con parmetros
n y si su funcin de densidad est dada por la frmula:
n xn1 ex
si x > 0
(n1)!
fX (x) =
0
en otro caso
Al igual que la distribucin exponencial, una distribucin de este tipo se obtiene al considerar el tiempo que transcurre entre cierto nmero de ocurrencias de eventos que ocurren
aleatoriamente en el tiempo.
Consideremos, como en la seccin anterior, un experimento aleatorio consistente en la observacin de eventos que ocurren aleatoriamente en el tiempo de tal manera que si, para t 0, Xt
es el nmero de veces que ocurre el evento hasta el tiempo t, entonces la familia de variables
aleatorias {Xt }t0 forma un proceso de Poisson de parmetro .
Sabemos entonces que, para k entero no negativo y t > 0:
k t

Pk (t) = P [Nt = k] = (t)k!e


Sea ahora X el tiempo que transcurre desde el origen hasta la r-sima ocurrencia del evento.
Para x > 0, se tiene:
P [X > x] = P [ocurren menos de r eventos en el intervalo de tiempo [0, x]]
Pr1 ex (x)k
P
= r1
k=0 P [Nx = k] =
k=0
k!
Pr1 ex (x)k
As que: FX (x) = 1 k=0
k!
Por lo tanto:
P
P
ex (x)k
kex (x)k1
r1
fX (x) = FX0 (x) = ex + r1
k=1
k=1
k!
k!
Pr1 ex (x)k
Pr1 ex (x)k1
x
= e
+ k=1
k=1 (k1)!
k!
P
P
x (x)r1
r r1 x
ex (x)k
ex (x)k
e
= r1
r2
= e (r1)!
= x(r1)!
k=1
k=1
k!
k!
Es decir, X tiene distribucin gama de parmetros = r y .

8.5. DISTRIBUCIN GAMA

193

Ejemplo 8.22. En una estacin meteorolgica se cuenta con un tipo de aparato de medicin, el
cual tiene un tiempo de vida que se distribuye exponencialmente, de tal manera que su tiempo
promedio de vida es de 1, 000 horas. Si se utilizan 10 de esos aparatos en forma consecutiva,
uno de ellos despus de que el anterior ya no funciona, a) cul es la probabilidad de que
alguno de los aparatos estar funcionando despus de 10, 000 horas?, b) si despus de 5, 000
horas todava est funcionando alguno de los aparatos, cul es la probabilidad de que alguno
de ellos siga funcionando despus de 10, 000 horas ms?
Solucin
Sea X el tiempo total de vida de los 10 aparatos, utilizados, como se indica, uno despus del
otro. X tiene entonces distribucin gama con parmetros = 0.001 y = 10; por lo tanto:
R
10
a) P [X > 10, 000] = 10,000 (0.001)
x9 e.001x dx = 0.45793
9!
b) P [X > 15, 000 | X > 5000] =

P [X>15,000]
P [X>5,000]

(0.001)10 9 0.001x
x e
dx
15,000
9!
U (0.001)10
x9 e0.001x dx
5,000
9!

0.0698537
0.968172

= 0.0721501

Tambin se podra considerar la variable aleatoria Xt , igual al nmero de aparatos que han
dejado de funcionar hasta el tiempo t y se tendra:
P
k t
P [X > t] = P [Xt < 10] = 9k=0 (t)k!e
As que:
P
k
P [X > 10, 000] = e10 9k=0 (10)
= 0.45793
k!
P
k
9
(5)
P [X > 5, 000] = e5 k=0 k! = 0.968172
A continuacin se define la distribucin gama de una manera ms general.

Definicin 8.23 (Distribucin gama). Si y son nmeros reales positivos, se dice que
una variable aleatoria X tiene distribucin gama con parmetros y si su funcin de
densidad est dada por la frmula
x1 ex
si x > 0
()
fX (x) =
0
en otro caso
Verifiquemos que esta funcin as definida es una funcin de densidad.
R x1 ex
R 1 x
R 1 1 t
R 1 t

1
dx = ()
x e dx = ()
t e dt = ()
t e dt = 1
()
0
0
0
0

Aunque la obtencin de una funcin de densidad tipo gama se remonta al ao 1836, su


importancia se dej ver al obtenerse la funcin de densidad de la suma de los cuadrados de
n variables aleatorias independientes, con distribucin normal estndar, la cual es un caso
particular de distribucin gama. La obtencin de tal funcin de densidad, en el caso general,
se encuentra en un artculo de Bienaym del ao 1852.

Ejemplo 8.24. Sea X una variable aleatoria con distribucin normal estndar, muestre que
X 2 tiene distribucin gama.
Solucin
Para z > 0, se tiene:

FX 2 (z) = P [X 2 z] = P [ z X z] = FX ( z) FX ( z)
As que:

194

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

fX 2 (z) =

d
F 2 (z)
dz X

f ( z)
2 z X

f ( z)
2 z X

1
1 1 e 2 z
z 2

1
1
1 z 2 e 2 z
2

1 fX ( z)
z

( 12 ) 2 z 2 e 2 z
( 12 )

Por lo tanto, X 2 tiene distribucin gama con parmetros =

1
2

y = 12 .

1 x

crece hasta alcanzar un mximo en x =


Proposicin 8.25. La funcin f (x) = x ()e
despus de lo cual decrece.
Demostracin
Sea g(x) = x1 ex ,entonces:
g0 (x) = ( 1)x2 ex x1 ex = x2 ex ( 1 x) = 0
.
As que g alcanza su valor mximo cuando g0 (x) = 0, es decir, en x = 1

1
,

A continuacin se presentan las grficas de algunas funciones de densidad tipo gama.


1.2
1

0.18

0.16

1.8
1.6

0.14

1.4

0.12

0.8

1.2

0.1
0.6

0.8

0.06

0.4
0.2
0

0.08

0.5

1.5
x

2.5

0.6

0.04

0.4

0.02

0.2

10
x 12 14 16 18 20

1 1.2 1.4 1.6 1.8 2x 2.2 2.4 2.6 2.8 3

= 20, = 2

= 54 , = 2

= 100, = 50

Como lo mencionamos antes, un caso particular importante de distribucin gama se obtiene al


considerar la distribucin de la suma de los cuadrados de n variables aleatorias independientes
con distribucin normal estndar. El resultado es una distribucin gama de parmetros = n2
y = 12 , la cual es conocida como distribucin 2 con n grados de libertad.
Definicin 8.26 (Distribucin 2 ). Sea n N. Se dice que una variable aleatoria X tiene
distribucin 2 con n grados de libertad si su distribucin es gama con parmetros = n2 y
= 12 , es decir, si su funcin de densidad est dada por la frmula:
( n 1 1 x
x2 e 2
si x > 0
n
2 2 ( n
)
fX (x) =
2
0
en otro caso
A continuacin se presentan las grficas de algunas funciones de densidad tipo 2 .
2.5
0.04

0.03

1.5

0.02

0.01

0.5

2x

n=1

10

20

30 x 40

50

n = 40

60

70

8.6. DISTRIBUCIONES UNIFORMES EN EL PLANO

195

8.6. Distribuciones uniformes en el plano


De la misma manera en que, como vimos en la seccin 8.1, una distribucin uniforme continua
en el intervalo (a, b) se obtiene al considerar el experimento aleatorio consistente en la eleccin
al azar de un nmero real en (a, b) y definiendo X como el nmero que se obtiene, obtenemos
una distribucin uniforme en el plano al considerar el experimento aleatorio consistente en la
eleccin al azar de un punto en una regin R del plano con un rea bien definida. Como en el
caso de una dimensin, la eleccin al azar se interpreta en el sentido de que dos subconjuntos
de R que se puedan sobreponer geomtricamente uno sobre el otro deben de tener asignada
la misma probabilidad. En esta situacin, vimos en la seccin 5.2 que la probabilidad de que
el punto seleccionado pertenezca a la regin S es igual al cociente del rea de S entre el rea
de R.
Utilizando esta idea podemos obtener la distribucin de una variable aleatoria que se genere
en este contexto geomtrico.
Ejemplo 8.27. Un experimento aleatorio consiste en seleccionar al azar un punto (x, y) en
el interior de un crculo de radio R. Sea X la distancia del punto seleccionado al centro del
crculo. Encuentre la funcin de densidad de X.
Solucin
Para x (0, R), el evento [X x] consiste del disco de radio x, por lo tanto:

si x < 0
0
x2
FX (x) = P [X x] =
si 0 x < R
R2
1
si x R
As que:
2x
si 0 < x < R
R2
fX (x) =
0 en otro caso
Ejemplo 8.28. Un experimento aleatorio consiste en seleccionar al azar un punto en el interior de un tringulo de base b y altura h. Sea X la distancia del punto seleccionado a la base.
Encuentre la funcin de densidad de X.
Solucin
Para x (0, h), el evento [X x] consiste del trapecio que se forma al intersectar el tringulo
dado mediante la recta paralela a la base del tringulo y situada a una distancia x de la misma.
El rea de esta regin es igual al rea total del tringulo dado menos el rea del tringulo de
base la recta paralela mencionada.

196

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

Por lo tanto:

0
si x 0
2 1
1
2
bh 2h b(h x)
si 0 < x < h
FX (x) = P [X x] =
bh 2
1
si x h

si x 0
0
1
2
1 h2 (h x) si 0 < x < h
=

1
si x h
As que:
2
(h x) si 0 < x < h
h2
fX (x) =
0
en otro caso
8.7. Distribucin de funciones de variables aleatorias continuas
En ocasiones la distribucin de una variable aleatoria X es conocida y se quiere obtener la
distribucin de una funcin de X. Ya hemos encontrado esta situacin con anterioridad; en
efecto, en el ejemplo 8.4 mostramos que si X es una variable aleatoria con distribucin normal
de parmetros y 2 , entonces Y = X
tiene distribucin normal de parmetros 0 y 1 y en el

ejemplo 8.24 mostramos que si X es una variable aleatoria con distribucin normal estndar,
entonces X 2 tiene distribucin gama. Como se muestra en esos ejemplos, para encontrar la
distribucin de una funcin f (X) de una variable aleatoria X absolutamente continua, se
puede seguir el mtodo siguiente: primero se expresa la funcin de distribucin de f (X) en
trminos de la funcin de distribucin de X; despus, la funcin de densidad de f (X) se
obtiene derivando la expresin anterior y utilizando el hecho de que la derivada de la funcin
de distribucin de X es igual a su funcin de densidad. En seguida se exponen ms ejemplos
de este tipo.
Ejemplo 8.29. Un experimento aleatorio consiste en seleccionar al azar un punto (x, y) en
el interior de un crculo de radio 1 y centro en el origen. Despus de eso, se traza un crculo
C de centro en el origen que pasa por (x, y). Encuentre la distribucin del rea de C.
Solucin

si x < 0
0
x2
FX (x) = P [X x] =
si 0 x < R
R2
1
si x R
Sea r el radio de C. De acuerdo con el ejercicio 8.27, la funcin de densidad de r est dada
por:

2x si 0 < x < 1
fr (x) =
0 en otro caso
Sea ahora A el rea de C, entonces, para y (0, ), se tiene:

p y
p
FA (y) = P [A y] = P [r2 y] = P r y = Fr

Por lo tanto:
p y
p
d
= 22y y = 1
FA (y) = 21y fr
fA (y) = dy

As que la distribucin del rea es uniforme en el intervalo (0, ).

8.7. DISTRIBUCIN DE FUNCIONES DE VARIABLES ALEATORIAS CONTINUAS

197

Ejemplo 8.30. En Mecnica Estadstica, la velocidad V de una molcula de masa m en un


gas, a temperatura T , se modela como una variable aleatoria con funcin de densidad dada
por
2 m v2
cv e 2kT
si v > 0
fV (v) =
0
en otro caso
en donde c es una constante y k es la constante de Boltzmann. Encuentre la funcin de
densidad de la energa E = 12 mV 2 .
Solucin
Para x > 0, se tiene:
q i
q
h

2x
(
)
=
F
FE (x) = P [E x] = P 12 mV 2 x = P V 2x
V
m
m
Por lo tanto:
fE (x) =

d
F (x)
dx E

1
f (
2mx V

2x
)
m

m
1
c 2x e 2kT
2mx m

2x
m

q
1
x
= c 2m1 3 x 2 e kT

As que la distribucin de la energa es gama con parmetros =

3
2

y=

1
.
kT

En particular, de aqu se puede obtener el valor de c. En efecto, se debe de tener


por lo tanto:
q
q

c = ()
2m3 = 1 k31T 3 2m3 = k2m
3T 3

()

q
= c 2m1 3 ,

Ejemplo 8.31. Sea X una variable aleatoria distribuida uniformemente en el intervalo 2 , 2 .


Encuentre la funcin de distribucin y la funcin de densidad de Y = tan(X) .
Solucin
Para y R, se tiene:

P [Y y] = P [tan(X) y] = P 2 X arctan(y) = 1 2 + arctan(y)

1
As que, FY (y) = 1 2 + arctan(y) y fY (y) = (1+y
2) .
A esta distribucin se le conoce como distribucin Cauchy.

Ejemplo 8.32. Sea T una variable aleatoria con distribucin exponencial de parmetro y
M > 0. Encuentre la distribucin de X = mn {T, M}.
Solucin
P [X > x] = P [mn {T, M} > x] = P [T > x, M > x]

si x 0
si x 0
1
1
x
P [T > x] si x < M =
e
si x < M
=
0

si x M
0
si x M
As que:

si x 0
0
1 ex si 0 < x < M
FX (x) = P [X x] = 1 P [X > x] =

1
si x M
Obsrvese que la funcin de distribucin de Z es continua y estrictamente creciente en el
intervalo (0, M), pero tiene una discontinuidad en z = M, de manera que Z es una variable
aleatoria que no es ni discreta ni continua.

198

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

A continuacin se muestra la grfica de FX para el caso =

1
5

y M = 5.

1
0.9
0.8
0.7
0.6
0.5
0.4
0.3
0.2
0.1
0

5x

1
,
5

10

M =5

8.7.1. Simulacin de distribuciones. Un problema importante en la Teora de la Probabilidad consiste en la obtencin de nmeros que simulen los valores de una variable aleatoria
con distribucin dada. Por ejemplo, para generar nmeros en el intervalo [0, 1) que simulen
los valores de una variable aleatoria con distribucin uniforme en ese intervalo, uno de los
mtodos ms utilizados consiste en seleccionar un nmero natural M (llamado mdulo y cuyo
valor se toma grande, por ejemplo M = 232 ), un nmero natural X0 < M (llamado semilla)
y dos nmeros naturales ms, a y c (que se toman pequeos, por ejemplo a = 2, c = 1). Se
define entonces la sucesin X1 , X2 , . . ., recursivamente, mediante la frmula:
Xn+1 = aXn + c mod(M)
Los nmeros XM1 , XM2 , . . . simulan entonces los valores de una variable aleatoria con distribucin
uniforme en el intervalo [0, 1).
Una vez resuelto el problema de simulacin para la distribucin uniforme, es posible resolverlo
para cualquier otra distribucin utilizando los resultados que se exponen en esta seccin.
Proposicin 8.33. Sea X una variable aleatoria continua y FX su funcin de distribucin,
entonces la variable aleatoria Y = FX (X) tiene distribucin uniforme en el intervalo (0, 1).
Demostracin
Se tiene inmediatamente:

0 si y < 0 y = 0 y FX (x) > 0 para toda x


1 si y 1
Por otra parte, si y (0, 1) y = 0 y FX (x) = 0 para alguna x, definamos:
x0 = sup {x R : FX (x) = y}
Como FX es continua, se tiene FX (x0 ) = y. Adems, FX (x) > y para cualquier x > x0 y
FX (x) y para cualquier x < x0 . Es decir, FX (x) y si y slo si x x0 . Por lo tanto:
P [FX (X) y] = P [X x0 ] = FX (x0 ) = y
As que:
P [Y y] = P [FX (X) y] =

8.7. DISTRIBUCIN DE FUNCIONES DE VARIABLES ALEATORIAS CONTINUAS

199

0 si y 0
y si y (0, 1)
P [Y y] = P [FX (X) y] =
1 si y 1

Cuando la funcin de distribucin FX tiene una inversa, FX1 , la proposicin 8.33 permite
obtener una variable aleatoria con funcin de distribucin FX a partir de una variable aleatoria
Y con distribucin uniforme en el intervalo (0, 1), simplemente definiendo X = FX1 (Y ).
Ejemplo 8.34. Sea X una variable aleatoria con distribucin exponencial de parmetro ,
entonces:
0
si x < 0
FX (x) =
x
si x 0
1e

As que, Y = 1 eX tiene distribucin uniforme en el intervalo (0, 1). Por lo tanto, si


Y tiene distribucin uniforme en el intervalo (0, 1), entonces 1 ln(1 Y ) tiene distribucin
exponencial de parmetro .
Ahora bien, como la distribucin de 1 Y coincide con la de Y , se concluye que 1 ln Y tiene
distribucin exponencial de parmetro .
Cuando la funcin de distribucin FX no es invertible, se requiere un resultado ms fino
para poder obtener una variable aleatoria con funcin de distribucin FX a partir de una
variable aleatoria con distribucin uniforme en el intervalo (0, 1). Este resultado se expone a
continuacin:
Proposicin 8.35. Sea X una variable aleatoria con funcin de distribucin FX , Y una
variable aleatoria con distribucin uniforme en el intervalo (0, 1) y definamos la funcin
d : (0, 1) 7 R mediante la relacin d(t) = nf {s R : FX (s) t}, entonces la funcin de
distribucin de la variable aleatoria d(Y ) es FX .
Demostracin
Obsrvese que d es una funcin no decreciente y, como FX es continua por la derecha, se tiene
FX (d(t)) t.
Vamos a demostrar que [d(Y ) z] = [Y FX (z)]. En efecto, si d(Y ()) z, entonces
Y () FX (d(Y ())) FX (z) y si Y () FX (z), entonces:
d (Y ()) = nf {s R : FX (s) Y ()} z
Por lo tanto, se tiene:
P [d(Y ) z] = P [Y FX (z)] = FX (z)
Corolario 8.36. Sea X una variable aleatoria con funcin de distribucin FX , Y una
variable aleatoria con distribucin uniforme en el intervalo (0, 1) y definamos la funcin
c : (0, 1) 7 R mediante la relacin c(t) = nf {s R : FX (s) > t}, entonces la funcin de
distribucin de la variable aleatoria c(Y ) es FX .
Demostracin
Definamos C como el conjunto de puntos t (0, 1) para los cuales existe un intervalo de
longitud positiva en el cual FX es constante e igual a t.
Obsrvese que c(t) = d(t) excepto en los puntos del conjunto C. Adems, d es discontinua en
los puntos t que pertenecen C. Por otra parte, por el lema 6.15, el conjunto de puntos en los

200

8. VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

cuales d es discontinua es finito o infinito numerable. Por lo tanto, c(t) = d(t) excepto a lo
ms en un conjunto infinito numerable.
Finalmente c(Y ) = d(Y ) excepto en el conjunto [Y C]. Pero como C es a lo ms un conjunto
infinito numerable, se tiene P [Y C] = 0. Por lo tanto, P [c(Y ) = d(Y )] = 1. As que:
P [c(Y ) z] = P [d(Y ) z] = FX (z)
Ejemplo 8.37. Sea X una variable aleatoria con distribucin geomtrica de parmetro p,
entonces:

0
si x < 0
0
si x < 0
FX (x) = P[[x]]
=
[[x]]+1
k
si x 0
1

(1

p)
p(1

p)
si
x

0
k=0
en donde [[x]] es el mayor entero menor o igual a x.
As que, definiendo = ln(1 p), se tiene:

c(t) = nf {s R : FX (s) > t} = nf s R : 1 (1 p)[[s]]+1 > t



= nf s R : s 1 ln(1 t)
= nf s R : 1 es t

= 1 ln(1 t)
hh
ii
Por lo tanto, si U tiene distribucin uniforme en el intervalo (0, 1), entonces ln(1U)
tiene
ln(1p)
distribucin geomtrica de parmetro p.
hh
ii
ln U
Ahora bien, como U y 1 U tienen la misma distribucin, entonces ln(1p)
tiene distribucin geomtrica de parmetro p.
ln U
= 1 ln U tiene distribucin exponencial
Obsrvese que, de acuerdo con el ejemplo 8.34, ln(1p)
de parmetro , de manera que, dado p (0, 1), si definimos = ln(1 p) y Z es una
variable aleatoria con distribucin exponencial de parmetro , entonces [[Z]] tiene distribucin
geomtrica de parmetro p.
Ejemplo 8.38. Sea X una variable aleatoria con distribucin Poisson de parmetro , entonces:
0
si x < 0
FX (x) = P[[x]] k e
si x 0
k=0
k!
en donde [[x]] es el mayor entero menor o igual a x.
As que:
n
o
P[[s]] k e
c(t) = nf {s R : FX (s) > t} = nf s R : k=0 k! > t
n
o
P
k
e
= nf j {0, 1, . . .} : jk=0 k!
>t
Por lo tanto, si Y tiene distribucin uniforme en el intervalo (0, 1), entonces:
n
o
Pj k e
c(Y ) = nf j {0, 1, . . .} : k=0 k! > Y

tiene distribucin Poisson de parmetro .

La generacin de una variable aleatoria con distribucin Poisson puede obtenerse tambin a
partir del hecho de que cuando se tiene un experimento aleatorio consistente en la observacin
de eventos que ocurren aleatoriamente en el tiempo de tal manera que si, para t 0, Xt es

EJERCICIOS

201

el nmero de veces que ocurre el evento hasta el tiempo t, entonces la familia de variables
aleatorias {Xt }t0 forma un proceso de Poisson de parmetro . En esta situacin, como vimos
en la seccin 8.4, los tiempos entre ocurrencias sucesivas tienen distribucin exponencial de
parmetro .
Dado > 0, consideremos entonces una sucesin de variables aleatorias independientes, T1 ,
T2 , . . ., todas ellas con distribucin exponencial de parmetro . La sucesin de variables
aleatorias T1 , T1 + T2 , T1 + T2 + T3 , . . ., simula entonces los tiempos de ocurrencia de eventos
que ocurren aleatoriamente en el tiempo. Llamemos Xt al nmero de eventos que ocurren
hasta el tiempo t. Entonces, el evento [Xt = 0] ocurre si y slo si T1 > t y, para k N, el
evento [Xt = k] ocurre si y slo si T1 + . . . + Tk t y T1 + . . . + Tk + Tk+1 > t. Es decir:
n
o
P
Xt = mn i N | ij=1 Tj > t 1

es una variable aleatoria con distribucin Poisson de parmetro t.


De acuerdo con el ejemplo 8.34, cada variable aleatoria Tj puede generarse mediante una
variable aleatoria Uj con distribucin uniforme en el intervalo (0, 1), definiendo Tj = 1 ln Uj .
De esta forma, si U1 , U2 , . . . es una sucesin de variables aleatorias independientes, todas ellas
con distribucin uniforme en el intervalo (0, 1), y en un nmero real positivo, entonces la
variable aleatoria
o
n
P
X = mn i N | ij=1 1 ln Uj > 1 1
tiene distribucin Poisson de parmetro .
Finalmente, obsrvese que:
o
n
o
n
Q
P
X = mn i N | ij=1 1 ln Uj > 1 1 = mn i N | 1 ln ij=1 Uj > 1 1
n
o
o
n
Qi
Qi

= mn i N | ln j=1 Uj < 1 = mn i N | j=1 Uj < e


1

EJERCICIOS
Ejercicio 8.1. En una parada de autobs, el tiempo de llegada de ste se distribuye uniformemente en el intervalo que va de las 7 : 00 a las 7 : 15 hrs. y el siguiente autobs pasa
exactamente 15 minutos despus del primero. Si el tiempo de llegada de una persona a esa
parada se distribuye uniformemente en el intervalo que va de las 7 : 10 a las 7 : 15 hrs. Si
T es el tiempo que espera la persona, desde que llega a la parada hasta que pasa un autobs,
encuentre la distribucin de T .
Ejercicio 8.2. Sea X una variable aleatoria con
distribucin uniforme en el intervalo (0, 1).
Encuentre la funcin de densidad de Y = 1 X.

Ejercicio 8.3. Sea X una variable aleatoria con distribucin uniforme en el intervalo (1, 1).
Encuentre la funcin de densidad de a) Y = |X| y b) Z = X 2 .

Ejercicio 8.4. Sea X una variable aleatoria distribuida uniformemente en el intervalo 2 , 2 .


Encuentre la funcin de distribucin y la funcin de densidad de Y = cos(X).
Ejercicio 8.5. Sea A un evento que puede ocurrir en algn momento entre los tiempos 0 y
T de tal manera que la probabilidad de que ocurra es igual a p y, en caso de que ocurra, si X

202

VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

es el tiempo en el cual ocurre, entonces X tiene distribucin uniforme en el intervalo [0, T ].


Sabiendo que el evento A no ha ocurrido hasta el tiempo t (0, T ), encuentre la probabilidad
de que A ocurra en el intervalo (t, T ].
Ejercicio 8.6. Sea X una variable aleatoria con distribucin normal de parmetros y 2 .
Encuentre P [|X | ].

Ejercicio 8.7. Supongamos que el peso, X, de una persona, que se selecciona al azar de una
determinada poblacin, se distribuye normalmente con parmetros y 2 . Si P [X 70] = 12
y P [X 60] = 14 , encuentre , y P [X 80]. Qu porcentaje de la gente de la poblacin
que pesa al menos 80 kilos, pesa ms de 90 kilos?
Ejercicio 8.8. Sea X una variable aleatoria distribuida normalmente con parmetros = 1
y 2 = 4. Encuentre P [5 X 2 + 1 10].

Ejercicio 8.9. Se ha determinado que en una determinada regin la precipitacin anual de


lluvia tiene una distribucin normal.. Si las estadsticas muestran que en el 15% de los casos la
precipitacin ha sido de ms de 45 pulgadas y en el 3% ha sido de menos de 30 pulgadas, cul
es la probabilidad de que en los prximos 5 aos, por lo menos en uno de ellos la precipitacin
sea de ms de 50 pulgadas?
Ejercicio 8.10. En una fbrica se producen componentes electrnicos cuyo voltaje tiene distribucin normal de parmetros y 2 . El departamento de control de calidad checa los
componentes y todos aquellos con un voltaje menor o igual a b son rechazados. Encuentre la
distribucin del voltaje de los componentes que pasan el control de calidad.
Ejercicio 8.11. Sea X una variable aleatoria con distribucin binomial de parmetros n =
1, 000 y p = 0.3. Utilice el teorema de de Moivre-Laplace para estimar P [X = 310]. Encuentre
adems el valor exacto de esa probabilidad y compare los resultados. Con los mismos datos,
estime P [280 < X < 310].
Ejercicio 8.12. Supongamos que la probabilidad de que un recin nacido sea hombre es igual
a 0.515. Estime la probabilidad de que entre 10 mil recin nacidos, haya ms hombres que
mujeres.
Ejercicio 8.13. Un cierto tipo de semilla tiene una probabilidad de germinar igual a 0.8.
Estime la probabilidad de que, en un paquete de 1, 000 semillas, por lo menos el 65% germinar.
Ejercicio 8.14. Estime la probabilidad de que al lanzar 10,000 veces un dado se obtengan
por lo menos 1680 1s.
Ejercicio 8.15. Estime el ms pequeo nmero natural k tal que la probabilidad de que el
nmero de soles que se obtienen en 1, 000 lanzamientos de una moneda est comprendido entre
480 y k, inclusive, sea mayor que 0.6.
Ejercicio 8.16. Supongamos que el tiempo de vida, en horas, de un cierto producto tiene
1
una distribucin exponencial de parmetro = 50
. Consideremos una poblacin compuesta
por 100 de esos productos y sea X el nmero de productos en la poblacin que duran ms de
50 horas. Estime P [X > 40] .
Ejercicio 8.17. Utilice el teorema de de Moivre-Laplace para estimar el ms pequeo valor
de n con la propiedad de que al lanzar n veces una moneda, la probabilidad de que el porcentaje
de las veces en que se obtiene sol est comprendido entre 49% y 51% sea mayor o igual a 0.95.

EJERCICIOS

203

Ejercicio 8.18. Los focos producidos en una cierta fbrica tienen un tiempo de vida que se
distribuye exponencialmente y se sabe que el 50% de los focos que se producen tienen un tiempo
de vida mayor a 1, 000 horas. Estime la probabilidad de que entre 1, 000 focos, seleccionados
al azar de la produccin de esa fbrica, haya ms de 275 con un tiempo de vida superior a
2, 000 horas.
Ejercicio 8.19. Sea X una variable aleatoria con distribucin exponencial de parmetro y
supongamos que P [X 10] = 12 . Encuentre un nmero t tal que P [X t] = 0.9.
Ejercicio 8.20. La vida de una partcula radioactiva se modela frecuentemente con una distribucin exponencial y se define la vida media de la partcula como el tiempo que transcurre
hasta que la radioactividad de la partcula se reduce a la mitad. Si la vida media del uranio
es de 7.13 108 aos, determine el tiempo que se requiere para que la radioactividad de una
masa de uranio se reduzca un 90%.
Ejercicio 8.21. Supongamos que se tiene un nmero muy grande de partculas radioactivas,
cada una de las cuales tiene un tiempo de estabilizacin que se distribuye exponencialmente
con parmetro . Si la mitad de las partculas se estabiliza durante el primer segundo, cunto
tiempo se requiere para que se estabilice el 75% de ellas?
Ejercicio 8.22. Sea T una variable aleatoria absolutamente continua con funcin de densidad
continua y tal que, para cualquier par de nmeros reales positivos s y t, se tiene:
P [T > t + s | T > t] = P [T > s]

Demuestre que T tiene distribucin exponencial.

Ejercicio 8.23. Una cierta mquina funciona bien nicamente si por lo menos 3 de sus
5 motores funcionan. Cada motor opera independientemente de los otros y el tiempo T que
permanece funcionando tiene como funcin de densidad a f (x) = xex para x > 0. Asumiendo
que los 5 motores se ponen a funcionar al mismo tiempo, encuentre la distribucin del tiempo
que la mquina funciona bien.
Ejercicio 8.24. El tiempo, en horas, que le toma a un tcnico reparar una mquina tiene
distribucin exponencial de parmetro = 2. Cul es la probabilidad de que ese tcnico pueda
reparar 3 mquinas en menos de 2 horas?
Ejercicio 8.25. Sea Y = (X 3)2 + 1, en donde X es una variable aleatoria con distribucin
gama de parmetros = 2 y . Encuentre P [Y 5].
Ejercicio 8.26. Sea X una variable aleatoria con distribucin gama de parmetros y .
Encuentre la distribucin de Y = cX, en donde c es una constante positiva.
Ejercicio 8.27. Supongamos que la vida en horas de cada lmpara, de una cierta clase, es
una variable aleatoria T con funcin de densidad dada por:
100
si t > 100
t2
fT (t) =
0
en otro caso
Cul es la probabilidad de que de 4 de esas lmparas, a) ninguna tenga que ser sustituida
durante las primeras 150 horas de uso? y b) las 4 tengan que reemplazarse durante las primeras
150 horas de uso?

204

VARIABLES ALEATORIAS ABSOLUTAMENTE CONTINUAS

Ejercicio 8.28. Un experimento aleatorio consiste en seleccionar, al azar, un punto al interior del tringulo formado por la recta y = x + 1 y los ejes coordenados. Sea Y la distancia
del punto seleccionado al eje y. Encuentre la funcin de densidad de Y .
Ejercicio 8.29. Un experimento aleatorio consiste en seleccionar, al azar, un punto sobre la
base AB de un tringulo equiltero ABC cuyos lados miden 2 unidades cada uno. Sea X la
distancia del punto seleccionado al vrtice C. Encuentre la funcin de densidad de X.
Ejercicio 8.30. Un experimento aleatorio consiste en seleccionar al azar un punto (x, y)
del cuadrado 0 x 1, 0 y 1. Sea X la distancia del punto seleccionado al origen.
Encuentre la funcin de densidad de X.
Ejercicio 8.31. Un experimento aleatorio consiste en seleccionar al azar un punto (x, y) del
cuadrado 0 x 1, 0 y 1. Sea Z la suma x + y. Encuentre la funcin de densidad de
Z.
Ejercicio 8.32. Un experimento aleatorio consiste en seleccionar, al azar, un punto en el
interior del cuadrado 0 x 1, 0 y 1. Sea X la distancia del punto seleccionado a la
diagonal de pendiente 1. Encuentre la funcin de densidad de X.
Ejercicio 8.33. Un experimento aleatorio consiste en seleccionar al azar un punto en el
interior del rombo de vrtices (0, 1), (2, 0), (0, 1) y (2, 0). Sea X la distancia del punto
seleccionado a la diagonal menor del rombo. Encuentre la funcin de densidad de X.
Ejercicio 8.34. Dos personas A y B juegan el siguiente juego: cada persona elige al azar, de
manera independiente de la otra, un punto sobre el intervalo (0, 1). Si la distancia entre los
dos puntos seleccionados es menor que una cantidad d, fija de antemano, el juego es ganado
por A; de otra manera, el juego es ganado por B. Encuentre el valor de d para el cual ambas
personas tienen la misma probabilidad de ganar el juego.
Ejercicio 8.35. Sea X una variable aleatoria continua con funcin de densidad f . Encuentre
la funcin de densidad de Y = aX + b, en donde a y b son constantes y a 6= 0. Aplique el
resultado al caso en que X tiene distribucin uniforme en el intervalo (0, 1).
Ejercicio 8.36. Sea X una variable aleatoriacontinua, no negativa, con funcin de densidad
f . Encuentre la funcin de densidad de Y = X. Aplique el resultado al caso en que X tiene
distribucin gama de parmetros y .
Ejercicio 8.37. Sea X una variable aleatoria continua con funcin de densidad f . Encuentre
la funcin de densidad de Y = |X|. Aplique el resultado al caso en que X tiene distribucin
a) normal de parmetros y 2 y b) uniforme en el intervalo (1, 2).
Ejercicio 8.38. Sea X una variable aleatoria continua con funcin de densidad f . Encuentre
la funcin de densidad de Y = eX . Aplique el resultado al caso en que X tiene distribucin
a) normal de parmetros y 2 y b) gama de parmetros y .
Ejercicio 8.39. La funcin de densidad f , de una variable aleatoria continua X, est dada
por la frmula siguiente:

cx2 si 0 x < 1
x
si 1 x < 2
f (x) =
02
en otro caso

EJERCICIOS

205

en donde c es una constante. Encuentre la funcin de densidad de la variable aleatoria Y =


(1 X)2 .
Ejercicio 8.40. Muestre con un ejemplo que si X no es continua entonces la distribucin de
FX (X) no necesariamente es uniforme.
Ejercicio 8.41. Sea X una variable aleatoria con funcin de distribucin FX , continua y
estrictamente creciente, y definamos la funcin d : (0, 1) 7 R mediante la relacin:
d(t) = nf {s R : FX (s) t}
Demuestre que d es la inversa de FX .
Ejercicio 8.42. Demuestre directamente que si Y tiene distribucin uniforme en el intervalo
(0, 1), entonces, dado > 0, 1 ln Y tiene distribucin exponencial de parmetro .
Ejercicio 8.43. Demuestre directamente
que si Y tiene distribucin uniforme en el intervalo
hh
ii
ln Y
(0, 1), entonces, dado p (0, 1), ln(1p) tiene distribucin geomtrica de parmetro p, en
donde [[x]] es el mayor entero menor o igual a x.
Ejercicio 8.44. Demuestre directamente que si p (0, 1), = ln(1 p) y Z es una variable aleatoria con distribucin exponencial de parmetro , entonces, [[Z]] tiene distribucin
geomtrica de parmetro p, en donde [[x]] es el mayor entero menor o igual a x.
Ejercicio 8.45. Demuestre directamente que si Y tiene distribucin uniforme en el intervalo
(0, 1), entonces, dado > 0,
n
o
P
k
e
c(Y ) = nf j {0, 1, . . .} : jk=0 k!
>Y

tiene distribucin Poisson de parmetro .

CAPTULO 9

ESPERANZAS
El principio fundamental de mi mtodo consiste en que,
en los juegos de azar, el valor de la suerte o de lo que espera cada jugador es precisamente lo que requerira tener
para que, jugando sin ventaja ni desventaja, tuviera una
suerte o una espera similar. Por ejemplo, si alguien esconde tres monedas en una mano y siete en la otra y me
deja escoger una de las dos alternativas, esta ventaja es
para m lo mismo que si me diera cinco monedas, porque
con cinco monedas me encontrara en el caso de tener la
misma espera para tres o para siete monedas en un juego
sin ventaja ni desventaja.
Jacques Bernoulli

En este captulo se estudia uno de los conceptos bsicos de la Teora de la Probabilidad, el


de Esperanza de una variable aleatoria. Su importancia es comparable con la del concepto
mismo de probabilidad de un evento. De hecho, el concepto de esperanza y el de probabilidad surgen en forma paralela cuando, a mediados del siglo XV II, se inicia la Teora de la
Probabilidad como disciplina matemtica. Es Christiaan Huygens quien introdujo este concepto en su libro Du calcul dans les jeux de hasard, publicado en el ao 1657. En esa
poca, Blaise Pascal y Pierre de Fermat haban resuelto algunos problemas de probabilidad,
con mtodos que sentaran las bases para el desarrollo de una nueva disciplina matemtica,
el Clculo de Probabilidades. Huygens resolvi, con sus propios mtodos, los problemas que
antes haban resuelto Pascal y Fermat y algunos otros ms. Uno de los aspectos interesantes
de la metodologa utilizada por Huygens es que en ningn momento se consideran ah probabilidades de eventos, todas las soluciones estn basadas en el clculo de esperanzas, lo cual haca
ver ya que este concepto poda tomarse como primario, previo incluso al de probabilidad de un
evento, y a partir de l desarrollar la nueva disciplina. La historia no fue de ese modo pues el
concepto que prevaleci como primario fue el de probabilidad. Sin embargo, la historia misma
mostrara ms adelante que esta dualidad de importancia, entre el concepto de esperanza y el
de probabilidad, que se dio al inicio del desarrollo de la Teora de la Probabilidad como disciplina matemtica, tena fuertes races pues al evolucionar el concepto de probabilidad, hasta
fusionarse con el de medida en los primeros aos de este siglo, result palpable la estrecha
relacin entre ambos conceptos, de tal manera que, efectivamente, cualquiera de los dos puede
tomarse como punto de partida, quedando inmersos uno dentro del otro. Esto ltimo ya no
nicamente dentro del contexto de la Teora de la Probabilidad, sino dentro del contexto ms
207

208

9. ESPERANZAS

amplio de la Teora de la Medida, en donde el concepto de probabilidad corresponde al de


medida y el de esperanza al de integral.
Como motivacin de la definicin de la Esperanza, se expone a continuacin su formulacin
basada en la idea de juego justo, siguiendo el trabajo original de Huygens.
Definicin 9.1 (Juego justo). Consideremos un juego con un nmero finito de participantes, de tal manera que uno de ellos resultar el ganador, determinndose quin, de manera
especfica, con base en el resultado de un experimento aleatorio E. Diremos entonces que este
juego es justo si puede ser considerado como combinacin de juegos en cada uno de los cuales
ocurre alguna de las siguientes dos situaciones:
(i) Si para un participante hay una probabilidad p de ganar una cantidad x, entonces
para cualquier otro participante hay la misma probabilidad p de ganar x.
(ii) Si para un participante hay una probabilidad p de ganar una cantidad x, entonces
hay la misma probabilidad p de perderla.
Definicin 9.2 (Valor de un juego). Consideremos un juego en el cual participa una
persona Q, de tal manera que, dependiendo del resultado de un experimento aleatorio E, Q
tiene la posibilidad de ganar algn valor. El valor del juego para Q es una cantidad x, la cual
puede ser negativa, tal que existe un juego justo que le ofrece a Q las mismas posibilidades de
ganar que el juego original y en el cual paga la cantidad x por participar1.
Ejemplo 9.3. Sea E un experimento aleatorio cuyos posibles resultados son equiprobables,
A1 , . . . , An una particin del correspondiente espacio muestral y x1 , . . . , xn n nmeros reales.
Supongamos que una persona Q participa en un juego consistente en la realizacin del experimento aleatorio E, de tal manera que si ocurre el evento Ai entonces recibe xi pesos. Cul
es el valor de este juego para Q?
Solucin
Sea ri el nmero de elementos que tiene Ai y supongamos que hay n grupos de personas de
tal manera que el i-simo grupo est formado por ri personas y que Q forma parte del n-simo
grupo. Consideremos entonces un juego entre esas N = r1 + + rn personas, consistente
en la realizacin del experimento E, de tal manera que, en una relacin uno a uno, se asocia
con cada una de las personas del i-simo grupo un elemento del evento Ai . Se conviene que
cada una de las personas paga una cierta cantidad x por participar en el juego y quien lo gane
recibe toda la cantidad acumulada al inicio, es decir, Nx. Evidentemente, ste es un juego
justo. Supongamos adems que Q conviene con cada una de las personas del grupo i que en
caso de que alguna de las dos gane el juego, el ganador dar al otro xi pesos. Claramente, con
esta nueva consideracin, el juego sigue siendo justo. De acuerdo a lo establecido, en caso de
que Q gane el juego recibe Nx r1 x1 rn1 xn1 (rn 1)xn pesos. Si tomamos x de tal
manera que esta ltima cantidad resulte ser igual a xn , entonces se tendr un juego justo en el
cual Q recibe xi pesos cuando ocurre el evento Ai , es decir se tendr un juego justo que ofrece
a Q las mismas posibilidades de ganar que el juego original. Por participar en este juego, Q
debe pagar x pesos, en donde x es solucin de la ecuacin:
Nx r1 x1 rn1 xn1 (rn 1)xn = xn
1Esta

definicin requerira de la demostracin de que tal nmero x, en caso de existir, es nico. Sin
embargo, como no se trata aqu de desarrollar una teora del valor de juegos, no se abunda sobre este tema.
La definicin tiene por nico objeto la motivacin de la definicin de esperanza que se da ms adelante.

9.1. ESPERANZA DE VARIABLES ALEATORIAS DISCRETAS

Resolviendo sta, se obtiene:


r1
n xn
= r1 ++r
x1 + +
x = r1 xr11++r
++rn
n

209

rn
x
r1 ++rn n

= x1 P (A1 ) + + xn P (An )
P
Por lo tanto, el valor del juego para Q es x = ni=1 xi P (Ai ).

9.1. Esperanza de variables aleatorias discretas

Consideremos un experimento aleatorio E, con espacio muestral , y cuyos posibles resultados


sean equiprobables. Sea X : 7 R una variable aleatoria discreta cuyos posibles valores
formen un conjunto finito {x1 , . . . , xn }. Entonces, los eventos Ai = [X = xi ], con 1 i n,
constituyen una particin de . Cada posible valor xi de X puede pensarse como una cantidad
que se recibe si ocurre el evento Ai . De manera que X representa un juego del tipo que se
considera en el ejemplo
El valor de este juego, que puede entonces definirse como el valor
P9.3.
n
de X, est dado por i=1 xi P [X = xi ].
En general, dada una variable aleatoria discreta X, parece difcil encontrar su valor mediante
la definicin de un juego justo que ofrezca las mismas posibilidades de ganancia que el juego
definido por X como se describi en el prrafo anterior. Si embargo, la frmula que se obtiene
en el caso particular considerado en el ejemplo 9.3 puede servir como motivacin para la
siguiente definicin:
Definicin 9.4 (Esperanza de variables aleatorias discretas). Sea X una variable
aleatoriaPdiscreta y sean x1 , x2 , . . . sus posibles valores. Se dice que X tiene esperanza finita si
la serie k |xk | P [X = xk ] es convergente y, en ese caso, se define la esperanza de X, E [X],
mediante la relacin:
P
E [X] = k xk P [X = xk ]
Los siguientes
dos ejemplos ilustran dos de los mtodos que se utilizan para evaluar la sumaP
toria k xk P [X = xk ] en el caso de variables aleatorias que admiten como posibles valores
nicamente enteros no negativos.

Ejemplo 9.5. Sea X una variable aleatoria con distribucin binomial de parmetros n y p.
Encuentre E [X].
Solucin

P
P
E [X] = nx=0 xP [X = x] = nx=0 x nx px (1 p)nx
P
P
n!
n!
= nx=0 x x!(nx)!
px (1 p)nx = nx=1 (x1)!(nx)!
px (1 p)nx
P
P x1
(n1)!
= np nx=1 (x1)!(nx)!
px1 (1 p)nx = np nx=1 n1
p (1 p)nx
x1
n1 x
P
= np n1
p (1 p)n1x = np
x=0
x

Ejemplo 9.6. Sea X una variable aleatoria con distribucin Poisson de parmetro . Encuentre E [X].
Solucin
P
P k e
Pn kk1

E [X] =
kP
[X
=
k]
=
k
=
e
k=0
k=0
k=1 k!
k!

P k
d
d
= e d k=1 k! = e d e 1 =

210

9. ESPERANZAS

La siguiente proposicin establece un mtodo, en ocasiones ms simple que la aplicacin directa


de la definicin, para calcular esperanzas de variables aleatorias discretas cuyos posibles valores
son nicamente valores enteros.
Proposicin 9.7. Si X es una variable aleatoria discreta que toma nicamente valores enteros, entonces:
P
P
{x:x>0} xfX (x) =
x=1 P [X x]
P
P
x=1 P [X x]
{x:x<0} |x| fX (x) =
Demostracin
P
P
x=1 xP [X = x] = P [X = 1] + 2P [X = 2] +
{x:x>0} xfX (x) =
P
P
= x=1 P [X = x] + x=2 P [X = x] +
P
= P [X 1] + P [X 2] + =
x=1 P [X x]
P
P
x=1 |x| P [X = x] = P [X = 1] + 2P [X = 2] +
{x:x<0} |x| fX (x) =
P
P
= x=1 P [X = x] + x=2 P [X = x] +
P
= P [X 1] + P [X 2] + =
x=1 P [X x]

Corolario 9.8. Sea X una variable aleatoria discreta que


enteros.
P toma nicamente
Pvalores

Entonces X tiene esperanza finita si y slo si las series


P
[X

x]
y
P
[X
x]
x=1
x=1
convergen. Adems, en ese caso, se tiene:
P
P
P
[X

x]
+
P [X x]
E [|X|] =
Px=1
Px=1
E [X] = x=1 P [X x] x=1 P [X x]

Ejemplo 9.9. Sea X una variable aleatoria con distribucin geomtrica de parmetro p. Encuentre E [X].
Solucin
P
P
1p
x
E [X] =
x=1 P [X x] =
x=1 (1 p) = p
9.2. Esperanza de variables aleatorias absolutamente continuas

Definicin 9.10 (Esperanza de variables aleatorias absolutamente continuas). Sea


X una variable aleatoria absolutamenteR continua con funcin de densidad fX . Se dice que

X tiene esperanza finita si la integral |x| fX (x)dx es finita y, en ese caso, se define la
esperanza de X, E [X], mediante la relacin:
R
E [X] = xfX (x)dx.
Ejemplo 9.11. Sea X una variable aleatoria con distribucin gama de parmetros y .
Encuentre E [X].
Solucin
R x
R y
R

1
x
e
dx
=
y e dy = (+1)
=
E [X] = xfX (x)dx = ()
() 0
()
0
Ejemplo 9.12. Sea X una variable aleatoria con distribucin normal de parmetros y 2 .
Encuentre E [X].

9.3. ALGUNAS IDEAS ERRNEAS

Solucin
R
R
1
2
E [X] = xfX (x)dx = 12 xe 22 (x) dx =
R
R
1
1
2
2
= 12 ye 22 y dy + 2 e 22 y dy =

1
2

211

(y + )e 22 y dy

9.3. Algunas ideas errneas


Eventualmente surgen algunas ideas errneas con relacin al concepto de esperanza. Dos de
ellas provienen de que a la esperanza de una variable aleatoria X se le llama tambin su valor
esperado, trmino que sugiere dos cosas, primero, que la esperanza de X coincide con alguno
de sus posibles valores, segundo, que la esperanza de X es, efectivamente, el valor que se
espera obtener al realizar el experimento aleatorio.
La primera de esas ideas errneas es muy simple de aclarar, basta, por ejemplo, con considerar
una variable aleatoria X con distribucin binomial de parmetros n y p, en donde np no es
un nmero entero. En ese caso, la esperanza de X, np, no coincide con alguno de sus posibles
valores.
La segunda de esas ideas errneas est relacionada con la primera pues si la esperanza de una
variable aleatoria no coincide con alguno de sus posibles valores, entonces no se puede esperar
obtener ese valor al realizar el experimento aleatorio. Sin embargo, si se precisa de manera
adecuada lo que se entiende por el valor que se espera obtener esta segunda idea errnea
contiene algo de verdad. Para aclarar esto, consideremos una variable aleatoria discreta X
cuyo conjunto de posibles valores sea finito, digamos {x1 , . . . , xm }. Supongamos ahora que
el experimento aleatorio respecto al cual est definida X se repite n veces, obtenindose Xk
de los valores que se obtienen
como valor de X en la realizacin nmero k. El promedio X
X1 ++Xn

para X est dado entonces por X =


.
n
Por otra parte, en cada una de las realizaciones del experimento, el valor de X es alguno de
sus posibles valores. Para k {1, . . . , m}, sea nk el nmero de veces que se obtiene, como
valor de X, el resultado xk . Se tiene entonces:
X1 + + Xn = n1 x1 + + nm xm
De manera que:
= n1 x1 ++nm xm = x1 n1 + + xm nm
X
n
n
n
Ahora bien, el cociente nnk es la frecuencia relativa con la que X toma el valor xk , de manera
que, si tomamos la interpretacin frecuencial de la probabilidad, se esperara que, cuando n
es grande, dicho cociente se parezca a la probabilidad P [X = xk ], obtenindose as:
x1 P [X = x1 ] + + xm P [X = xm ] = E [X]
X
De esta manera llegamos a la conclusin de que la esperanza de mathbf X representa
el promedio de los valores que toma la variable aleatoria cuando el experimento
aleatorio se repite muchas veces. La esperanza de X no es entonces el valor que se espera
obtener para X, pero s el valor que se espera obtener en promedio. Esta interpretacin de la
esperanza de una variable aleatoria X ser analizada en el segundo volumen de este libro a la
luz de la ley dbil de los grandes nmeros.

212

9. ESPERANZAS

Obsrvese que, independientemente de que se tome el punto de vista frecuentista, la esperanza


de una variable aleatoria discreta X, de acuerdo a su definicin, es un promedio ponderado de
sus diferentes posibles valores, de tal manera que al valor xk se le asigna el peso P [X = xk ].
Otra idea errnea que suele tenerse con relacin al concepto de esperanza es que su valor
es igual, o por lo menos est cercano, a un valor x de X para el cual fX (x) es un mximo.
Esto ocurre con algunas de las distribuciones ms conocidas, por ejemplo en los casos de las
distribuciones binomial, Poisson y normal. Sin embargo, considrese por ejemplo el caso de
1
una variable aleatoria X con distribucin geomtrica de parmetro p = 100
. El valor mximo
de fX (x) se obtiene cuando x = 0, pero E [X] = 99. De la misma manera, considrese el
1
caso de una variable aleatoria X con distribucin exponencial de parmetro = 100
. El valor
mximo de fX (x) se obtiene cuando x = 0, pero E [X] = 100.
El siguiente ejemplo muestra que incluso puede darse el caso en que la esperanza de una
variable aleatoria coincida con su valor menos probable.
Ejemplo 9.13. Sea X una variable aleatoria con funcin de densidad dada por:

1
N(3N+2) (2N x) si x {0, . . . , N 1}
1
x
si x {N, . . . , 2N}
fX (x) =
N(3N+2)

0
en otro caso
en donde N es un nmero entero positivo.
Obsrvese que el valor x de X para el cual la probabilidad P [X = x] es mnima corresponde a
x = N. Adems, como se muestra en la figura de abajo, la grfica de fX es simtrica alrededor
de x = N.
0.12
0.1
0.08
0.06
0.04
0.02
0

5x 6

9 10

La simetra de la grfica de fX (x) alrededor de X = N hace que E [X] = N. En efecto:


PN1
P2N 2
1
1
E [X] = N(3N+2)
x=0 x(2N x) + N(3N+2)
x=N x
=

1 (4N +1)(N1)
6
3N+2

1 (N+1)(14N+1)
6
3N+2

= N.

Por ltimo, debe mencionarse que si una variable aleatoria X representa la ganancia en un
cierto juego, debe tenerse cuidado en la interpretacin de su esperanza como lo que se tiene
que pagar por el juego para que resulte justo. El siguiente ejemplo es ilustrativo al respecto.
Ejemplo 9.14 (Paradoja de San Petersburgo). Consideremos un juego consistente en
la realizacin de lanzamientos consecutivos de una moneda, de tal manera que el juego se
termina en el momento en que se obtenga por primera vez guila o, en caso de no obtenerse
guila previamente, en el momento en que se hayan hecho N lanzamientos, en donde N es un

9.4. DEFINICIN GENERAL DE LA ESPERANZA

213

nmero entero positivo fijo. Supongamos que usted participa en dicho juego, establecindose
que, si se obtiene guila por primera ocasin en el k-simo lanzamiento, entonces recibir 2k
pesos. Llamando X a su ganancia en el juego, se tiene:
1
2k si x = 2k , k {1, . . . , N }
1
si x = 0
fX (x) =
2N
0 en otro caso
P
k 1
E [X] = N
k=1 2 2k = N
Interpretando a la esperanza como el precio que se tiene que pagar por participar en el juego
de tal manera que resulte justo, usted tendra que pagar N pesos por participar en l.
Consideremos ahora un juego especfico, en donde N = 1, 000, 000. Segn lo establecido
anteriormente, pagando un milln de pesos por participar en el juego, resultara justo. Si se
estableciera que usted paga nicamente 500, 000 pesos por participar en dicho juego, resulta
entonces que ste le sera favorable. Aceptara usted participar en esas condiciones?
Obsrvese que para obtener una ganancia neta al participar en el juego, se requerira que se
obtuviera guila por primera vez despus del lanzamiento nmero 18 y la probabilidad de que
esto ocurra es igual a 2119 + 2120 + + 21N < 2118 = 3.8147 106 . La conclusin parece ser
entonces que, ante la probabilidad tan pequea de obtener una ganancia neta, es prcticamente
seguro que se perderan los 500, 000 pesos que se pagan y entonces el juego parecera ms
bien desfavorable para usted. Es errnea entonces la interpretacin que estamos dando a la
esperanza?
La aparente contradiccin entre la interpretacin que estamos dando a la esperanza y el razonamiento previo se resuelve si recurrimos a la interpretacin de la esperanza de una variable
aleatoria como el promedio de los valores que toma esa variable aleatoria cuando el correspondiente experimento aleatorio se repite muchas veces, pues de esa manera lo justo del juego
puede interpretarse en el sentido de que, en promedio, se gana lo mismo que se pierde al
participar en l. De manera que, efectivamente, el juego resulta ser justo siempre y cuando se
juegue un nmero considerablemente grande de veces.
En el caso del juego especfico planteado en el ejemplo, pagando 500, 000 pesos por participar
en l, se tendra un juego que le es favorable, siempre y cuando estuviera usted en posibilidad
de jugarlo el nmero de veces suficiente que le permitiera, por lo menos, recuperar sus prdidas
de los juegos previos. Por ejemplo, dado que la probabilidad de obtener una ganancia neta en
un juego es aproximadamente igual a 2118 , lo cual significa que en promedio se obtendr una
ganancia neta en uno de cada 218 juegos, el nmero de juegos que tendra usted que jugar
para esperar tener una ganancia, despus de haber compensado sus prdidas, debera de ser
considerablemente superior a 218 . Evidentemente entra aqu, por lo menos, la limitacin de
la fortuna que usted posee, la cual seguramente no le permite tener la posibilidad de jugar
tal cantidad de juegos pagando 500, 000 pesos por participar en cada uno de ellos. Pero, si
dispusiera de tan fabulosa fortuna, a la larga estara usted ganando, en promedio, 500, 000
pesos en cada juego.
9.4. Definicin general de la Esperanza
Las definiciones 9.4 y 9.10 permiten calcular la esperanza de una variable aleatoria discreta o
de una variable aleatoria absolutamente continua, pero no todas las variables aleatorias son

214

9. ESPERANZAS

de ese tipo, un caso as lo vimos en el ejemplo 8.32. Se hace necesario entonces contar con una
definicin general de la esperanza que permita su clculo en cualquier caso y tambin para
poder estudiar sus propiedades generales. Los siguientes resultados muestran cmo puede
obtenerse una definicin general.
Obsrvese que, dada cualquier variable aleatoria, las funciones x 7 1 FX (x) y x 7
FX (x) estn acotadas y son montonas, por lo tanto, de acuerdo con el teorema 14 del
son Riemann
RApndice,
R integrables en cualquier intervalo finito. De manera que las integrales

[1

F
(x)]
dx
y
FX (x)dx siempre estn definidas (pudiendo ser iguales a ).
X
0
0

Proposicin 9.15. Sea X una variable aleatoria discreta con funcin de densidad fX , g :
R 7 R cualquier funcin boreliana (ver seccin 5.5.2 y la proposicin 6.5) y Fg(X) la funcin
de distribucin de g(X). Entonces:

R
P
a) {xR:g(x>0} g(x)fX (x) = 0 1 Fg(X) (z) dz
R
P
b) {xR:g(x)<0} |g(x)| fX (x) = 0 Fg(X) (z)dz
Demostracin
a. Para cualquier n N, se tiene:

R
R
P R nk
(z)
dz
=
P
[g(X)
>
z]
dz
=
1

F
g(X)
k=1 k1 P [g(X) > z] dz
0
0
n

Pero:

R nk
R nk
k
1
k
k1 P [g(X) > z] dz
k1 P g(X) > n dz = n P g(X) > n
n
n

R nk
R nk
k1
1
k1
P
g(X)
>
dz
=
k1 P [g(X) > z] dz
k1 P g(X) >
n
n
n
n

Por lo tanto:

1 P

P R nk
P 1
k
k
k=1 k1 P [g(X) > z] dz
k=1 n P g(X) > n = n
k=1 P g(X) > n

Pn
1
= n k=0 P g(X) > nk n1 P [g(X) > 0]

= n1 P n0 < g(X) n1 + 2P n1 < g(X) n2 + n1 P [g(X) > 0]


k1

P
< g(X) nk n1 P [g(X) > 0]
= n1
k=1 kP
n
k1
1 P k P
P
k
k
P
<
g(X)

n = k=1 n {xR: k1 <g(x) k } fX (x) n1



k=1 n
n
n
n
n
P P
P
1
1
g(x)f

(x)

=
g(x)f
k1
k
X
X (x) n
k=1
{xR:g(x)>0}
n
{xR: <g(x) }
n

De la misma manera se demuestra:


P 1
P R nk
P
[g(X)
>
z]
dz

k1
k=1
k=1 n P g(X) >
n

k1
n

{xR:g(x)>0}

g(x)fX (x) +

As que, para cualquier n N, se tiene:

R
P
P
1
1 Fg(X) (z) dz {xR:g(x)>0} g(x)fX (x) +
{xR:g(x)>0} g(x)fX (x) n 0
Por lo tanto:

R
P
1 Fg(X) (z) dz = {xR:g(x)>0} g(x)fX (x)
0
b. Para cualquier n N, se tiene:
R
R
P R nk
F
(z)dz
=
P
[g(X)

z]
dz
=
g(X)
k=1 k1 P [g(X) z] dz
0
0
n

Pero:

1
n

1
n

9.4. DEFINICIN GENERAL DE LA ESPERANZA

R nk

k1
n
k
n
k1
n

P [g(X) z] dy
P [g(X) z] dz

R nk

k1
n
k
n
k1
n

215

P g(X) nk dz = n1 P g(X) nk

1
k1
P g(X) k1
P
g(X)

dz
=
n
n
n

Por lo tanto:

1 P

P 1
P R nk
k
k
P
[g(X)

z]
dz

P
g(X)

P
g(X)

=
k1
k=1
k=1 n
k=1
n
n
n
1
Pn
1
k
= n k=0 P g(X) n n P [g(X) 0]

= n1 P n1 < g(X) n0 + 2P n2 < g(X) n1 + n1 P [g(X) 0]


k
1
P
k1
n P [g(X) 0]
= n1
k=1 kP n < g(X) n

P
P
P k k
k
fX (x) n1
n1 =
k=1 n P n < g(X) k1
k=1 n
n
{xR: nk <g(x) k1
n }
P P
P
1
1
|g(x)|
f

(x)

=
k1
k
X
k=1
{xR:g(x)<0} |g(x)| fX (x) n
xR:
<g(x)
n
}
{
n

De la misma manera se demuestra:

P 1
P R nk
k1
k=1 k1 P [g(X) z] dz
k=1 n P g(X) n
P n
{xR:g(x)<0} |g(x, y)| fX (x) + n1
As que, para cualquier n N, se tiene:
R
P
P
1
{xR:g(x)<0} |g(x)| fX (x) n 0 Fg(X) (z)dz
{xR:g(x)<0} |g(x)| fX (x) +
Por lo tanto:
R
P
Fg(X) (z)dz = {xR:g(x)<0} |g(x)| fX (x)
0

1
n

Corolario 9.16. Sea X una variable aleatoria discreta con funcin de densidad fX , g : R 7
R cualquier funcin boreliana y Fg(X) la funcin de distribucin de g(X). Entonces:
R

R
P
|g(x)|
f
(x)
<

si
y
solo
si
(z)
dz
<

y
Fg(X) (z)dz < .
1

F
X
g(X
{xR}
0
0
Adems, en ese caso, se tiene:

R
R
P
a) {xR} |g(x)| fX (x) = 0 1 Fg(X) (z) dz + 0 Fg(X) (z)dz

R
R
P
b) {xR} g(x)fX (x) = 0 1 Fg(X) (z) dz 0 Fg(X) (z)dz

Corolario 9.17. Sea X una variable aleatoria discreta con funcin de distribucin FX ,
entonces:
R
R
X tiene esperanza finita si y slo si 0 [1 FX (x)] dx < y 0 FX (x)dx <
en cuyo caso se tiene:
R
R
E [X] = 0 [1 FX (x)] dx 0 FX (x)dx

Proposicin 9.18. Sea X una variable aleatoria absolutamente continua con funcin de
densidad fX , g : R 7 R cualquier funcin boreliana (ver seccin 5.5.2 y la proposicin
6.5), Riemann integrable en todo intervalo finito, y Fg(X) la funcin de distribucin de g(X).
Entonces:

R
R
a) {xR:g(x)>0} g(x)fX (x)dx = 0 1 Fg(X) (z) dz
R
R
b) {xR:g(x)<0} |g(x)| fX (x)dx = 0 Fg(X) (z)dz

216

9. ESPERANZAS

Demostracin

R
R
a. 0 1 Fg(X) (z) dz = 0 P [g(X) > z] dz
RR
RR
= 0 {xR:g(x)>z} fX (x)dxdz = 0 I{uR:g(u)>z} (x)fX (x)dxdz
RR
= 0 I{(u,w)R2 :0<w<g(u} (x, z)fX (x)dxdz
R R
= 0 I{(u,w)R2 :0<w<g(u)} (x, z)fX (x)dzdx
R R
= 0 I{uR:g(u)>0} (x)I(0,g(x)) (z)fX (x)dzdx
R
R
R g(x)
= {xR:g(x)>0} 0 fX (x)dzdx = {xR:g(x)>0} g(x)fX (x)dx
R
R
b. 0 Fg(X) (z)dz = 0 P [g(X) z] dz
RR
RR
= 0 {xR:g(x)z} fX (x)dxdz = 0 I{uR:g(u)z} (x)fX (x)dxdz
RR
= 0 I{(u,w)Rn+1 :0wg(u)} (x, z)fX (x)dxdz
R R
= 0 I{(u,w)Rn+1 :0wg(u)} (x, z)fX (x)dzdx
R R
= 0 I{uR:g(u)<0} (x)I[0,g(x)] (z)fX (x)dzdx
R
R
R g(x)
= {xR:g(x)<0} 0
fX (x)dzdx = {xR:g(x)<0} |g(x)| fX (x)dx

Corolario 9.19. Sea X una variable aleatoria absolutamente continua con funcin de densidad fX , g : R 7 R cualquier funcin boreliana, Riemann
R integrable en todo intervalo finito,
y Fg(X) la funcin de distribucin de g(X). Entonces |g(x)| fX (x)dx < si y slo si

R
R
1 Fg(X) (z) dz < y 0 Fg(X) (z)dz < . Adems, en este caso, se tiene:
0

R
R
R
a) |g(x)| fX (x)dx = 0 1 Fg(X) (z) dz + 0 Fg(X) (z)dz

R
R
R
b) g(x)fX (x)dx = 0 1 Fg(X) (z) dz 0 Fg(X) (z)dz
Corolario 9.20. Sea X una variable aleatoria absolutamente continua con funcin de distribucin FX , entonces:
R
R
X tiene esperanza finita si y slo si: 0 [1 FX (x)] dx < y 0 FX (x)dx <
en cuyo caso se tiene:
R
R
E [X] = 0 [1 FX (x)] dx 0 FX (x)dx

Los corolarios 9.17 y 9.20 muestran que la esperanza de una variable aleatoria X, de esperanza
finita, se puede calcular, tanto
R en el caso discreto
R como en el caso absolutamente continuo,
mediante la frmula E [X] = 0 [1 FX (x)] dx 0 FX (x)dx. Adems, esta frmula comn
involucra nicamente a la funcin de distribucin de X, la cual est bien definida no slo en los
casos discreto y absolutamente continuo. Esto sugiere que se pueda utilizar la misma frmula
para definir la esperanza de cualquier variable aleatoria, como se hace a continuacin:

Definicin 9.21 (Definicin general de la Esperanza). Sea X cualquier


R variable aleatoria
con funcin
de
distribucin
F
,
diremos
que
X
tiene
esperanza
finita
si
[1 FX (x)] dx <
X
0
R
y 0 FX (x)dx < y, en este caso, se define la esperanza de X, E [X], mediante la
frmula:
R
R
E [X] = 0 [1 FX (x)] dx 0 FX (x)dx

9.4. DEFINICIN GENERAL DE LA ESPERANZA

217

Ejemplo 9.22. Sea X una variable aleatoria con distribucin exponencial de parmetro y
sea M > 0, Encuentre E [mn(X, M)].
Solucin
Sea Z = mn(X, M), entonces, como vimos en el ejemplo 8.32, Z es una variable aleatoria
que no es ni discreta ni continua y se tiene:

si z < 0
si z < 0
0
0
z
P [X z] si 0 z < M =
1e
si 0 z < M
FZ (z) =
1
1
si z M
si z M
As que:

R
R
RM
E [Z] = 0 [1 FZ (z)] dz 0 FZ (z)dy = 0 ez dz = 1 1 eM
R
R
Cuando se tiene
[1

F
(x)]
dx
=

y
X
R 0 FX (x)dx < , se define E [X] = , mientras
R 0
que cuando 0 [1 FX (x)] dx < y 0 FX (x)dx = , se define E [X] = . Cuando
ambas integrales sean divergentes, entonces la esperanza de X no est definida.
Tomando en cuenta estas ltimas convenciones, si X es una variable aleatoria no negativa,
entonces la esperanza de X siempre est definida (pudiendo ser o ). En particular, Si
X es cualquier variable aleatoria, las esperanzas de |X|, X + = max(X, 0) y X = max(X, 0)
siempre estn definidas.
En el caso discreto, se tiene:
R
P
E [X + ] = {xR:x>0} xfX (x) = 0 [1 FX (x)] dx
R
P
E [X ] = {xR:x<0} |x| fX (x) = 0 FX (x)dx

De la misma manera, en el caso absolutamente continuo se tiene:


R
R
E [X + ] = {xR:x>0} xfX (x)dx = 0 [1 FX (x)] dx
R
R
E [X ] = {xR:x<0} |x| fX (x)dx = 0 FX (x)dx
La siguiente proposicin generaliza estos resultados.

Proposicin 9.23. Sea X cualquier variable aleatoria, entonces:


R
a) E [X + ] = 0 [1 FX (x)] dx
R
b) E [X ] = 0 FX (x)dx
Demostracin

P [X x] si x 0
FX (x) si x 0
=
a. FX + (x) = P [X x] =
0
en otro caso
0
en otro caso
R
R
R
As que, 0 [1 FX + (x)] dx = 0 [1 FX (x)] dx y 0 FX + (x)dx = 0, de lo cual se sigue la
primera parte.

P [X x] si x 0
1 P [X < x] si x 0

b. FX (x) = P [X x] =
=
0
en otro caso
0
en otro caso
R
R
R
As que, 0 [1 FX (x)] dx = 0 P [X < x] dx y 0 FX (x)dx = 0.
Pero por la proposicin 6.13 y el lema 6.15, se tiene P [X < x] = FRX (x), excepto a lo

ms
R en un conjunto numerable, as que, por el teorema 16 del Apndice, 0 P [X < x] dx =
FX (x)dx, de lo cual se obtiene la segunda parte.
0
+

218

9. ESPERANZAS

Corolario 9.24. Sea X cualquier variable aleatoria, entonces:


a) X tiene esperanza finita si y slo si X + y X tienen esperanza finita y, en ese caso, se
tiene:
E [X] = E [X + ] E [X ].
b) E [X] = si y slo si E [X + ] = y E [X ] < .
c) E [X] = si y slo si E [X + ] < y E [X ] = .
d) La esperanza de X no est definida si y slo si E [X + ] = y E [X ] = .
Ejemplo 9.25. Sea X una variable aleatoria con funcin de densidad dada por:
6
si x N
2 x2
fX (x) =
0
en otro caso
Encuentre E [X].
Solucin
P
+
]
=
Como
X
es
una
variable
aleatoria
no
negativa,
se
tiene
E
[X]
=
E
[X
x=1 xfX (x) =
P 1
6
=
.
x=1 x
2
Obsrvese que las probabilidades P [X = x] decrecen a medida que crece x y sin embargo
E [X] = .
Ejemplo 9.26. Consideremos una caminata aleatoria simple, tal como fue descrita en la
seccin 7.7, es decir una partcula se mueve a saltos sobre la recta real de tal manera que,
comenzando en el origen, en cada intervalo de tiempo h, la partcula salta una distancia d hacia
la derecha con probabilidad 12 o una distancia d hacia la izquierda, tambin con probabilidad
1
.
2
Sea R el paso en que ocurre el primer retorno al origen y Z el paso en el cual se alcanza un
valor positivo por primera vez, es decir, R es el ms pequeo nmero natural n tal que Sn = 0
y Z es el ms pequeo nmero natural n tal que Sn = d, en donde Sn es la posicin de la
partcula en el tiempo nh. De acuerdo con los resultados de las secciones 7.7.3 y 7.7.5, se
tiene:
1 1 2m
si m N
2m1 22m m
P [R = 2m] =
0
en otro caso
1 1 2m
si m N
2m1 22m m
P [Z = 2m 1] =
0
en otro caso
Ahora bien, con base en el corolario 6.41, se tiene:


(2m)! m
m 2m
lmm 22m
=1
=
l
m
m
2m
m
2 (m!)2

1
m 2m
As que, existe N N tal que, para cualquier m N, se tiene 22m
> 2.
m
Por lo tanto:
P

P
1 2m
1 2m

2m
2m
m=1 2
m=N 2
m
m
P m 2m 1
P
P
1

= m=N 22m m m > m=N 21 1m > 21


m=N m =
As que:
P
E [R] =
m=1

2m
1 2m
2m1 22m m

>

1 2m
m=1 22m m

9.4. DEFINICIN GENERAL DE LA ESPERANZA

219


P
1 2m
E [Z] =
m=1 22m m =
Obsrvese que, definiendo, para m N, tm = P [R = 2m] = P [Z = 2m 1], se tiene:
2m
1
1
2 (2m)!(m+1)!(m+1)!
tm
2m1 22m ( m )
=
= 2m+2
>1
= (2m+1)2
2m+2
1
1
tm+1
2m1
(2m+2)!m!m!
2m1
2m+1 22m+2 ( m+1 )
As que, la sucesin (tm ) es decreciente. Es decir, tambin en este caso las probabilidades
P [R = 2m] y P [Z = 2m 1] decrecen a medida que crece m y sin embargo E [R] = E [Z] =
.
Los resultados del ltimo ejemplo complementan los resultados sobre caminatas aleatorias que
obtuvimos en la seccin 7.7. Ah demostramos que, tanto la probabilidad de que haya una
infinidad de retornos al origen, como la probabilidad de que haya una infinidad de pasos por
z = d, es igual a 1. Ahora podemos agregar que, sin embargo, el nmero de pasos que se
requieren, en promedio, para obtener el primer retorno al origen, o el primer paso por z = d,
es .
Ejemplo 9.27. Sea X una variable con funcin de densidad dada por:
1
si x = 2k con k {2, 3, . . .}
|x|
fX (x) =
0 en otro caso
Est definida la esperanza de X?
Solucin
P
k 1
E [X + ] = E [X ] =
k=2 2 2k = . Por lo tanto, la esperanza de X no est definida.

Ejemplo 9.28. Sea X una variable con funcin de densidad dada por:
6
si x {1, 3, . . .} {2, 4, . . .}
2 x2
fX (x) =
0
en otro caso
Est definida la esperanza de X?
Solucin
P
P
1
6
6
E [X + ] =
k=0 (2k + 1) 2 (2k+1)2 = 2
k=0 2k+1 =
P
P 1
6
3
E [X ] =
k=1 2k 2 (2k)2 = 2
k=1 k =

PorPlo tanto, la esperanza de X no est definida. Esto a pesar de que la serie

6
k+1 1
es convergente, en donde xk = (1)k+1 k.
k=1 (1)
2
k

k=1

xk fX (xk ) =

Proposicin 9.29. Sea X cualquier variable aleatoria, entonces:


R
R
E [|X|] = 0 [1 FX (x)] dx + 0 FX (x)dx
Demostracin
Para x 0, se tiene:
1 F|X| (x) = 1 P [|X| x] = 1 P [x X x] = 1 FX (x) + P [X < x]
As que:

R
R
R
E [|X|] = 0 1 F|X| (x) dx = 0 [1 FX (x)] dx + 0 P [X < x] dx
Pero por la proposicin 6.13 y el lema 6.15, se tiene P [X < x] = FRX (x), excepto a lo

en un conjunto numerable, as que, por el teorema 16 del Apndice, 0 P [X < x] dx =


Rms

FX (x)dx, de lo cual se obtiene el resultado.


0

220

9. ESPERANZAS

Corolario 9.30. Sea X cualquier variable aleatoria, entonces:


E [|X|] = E [X + ] + E [X ]
Corolario 9.31. Sea X cualquier variable aleatoria, entonces X tiene esperanza finita si y
slo si E [|X|] < .

Demostracin
Si X tiene esperanza finita, entonces E [X + ] < y E [X ] < , as que E [|X|] = E [X + ] +
E [X ] < .
Supongamos ahora que E [|X|] < , entonces:
E [X + ] E [X + ] + E [X ] = E [|X|] <
E [X ] E [X + ] + E [X ] = E [|X|] <
Es decir, X tiene esperanza finita.
9.5. Esperanza de funciones de variables aleatorias

Tomando en consideracin la definicin 9.21, los corolarios 9.16 y 9.19 tienen como consecuencia los siguientes dos resultados:
Proposicin 9.32. Sea X una variable aleatoria discreta con funcin de densidad fX y
gP: R 7 R cualquier funcin boreliana. Entonces, g(X) tiene esperanza finita si y slo si
x |g(x)| fX (x) < y, en ese caso, se tiene:
P
E [g(X)] = x g(x)fX (x)

Proposicin 9.33. Sea X una variable aleatoria absolutamente continua con funcin de
densidad fX y g : R 7 R cualquier funcin boreliana, Riemann
integrable en todo intervalo
R
finito. Entonces, g(X) tiene esperanza finita si y slo si |g(x)| fX (x)dx < y, en ese
caso, se tiene:
R
E [g(X)] = g(x)fX (x)dx

Ejemplo 9.34. Sea X una variable aleatoria con distribucin exponencial de parmetro y
sea M > 0. Utilice la proposicin 9.33 para calcular E [mn(X, M].
Solucin
RM
R
R
E [mn(X, M ] = 0 mn(x, M)ex dx = 0 xex dx + M Mex dx

= 1 1 eM MeM + MeM = 1 1 eM
Ejemplo 9.35. Sea X una variable aleatoria con distribucin Poisson de parmetro . Encuentre la esperanza de (1 + X)1 .
Solucin
P
P
P e k+1
e k
1
1 e k
=
E [(1 + X)1 ] =
k=0 (1 + k)
k=0 (k+1)! =
k=0 (k+1)!
k!

P
k

= 1 k=1 e k! = 1 1 e

Ejemplo 9.36. La demanda de peridicos que tiene un vendedor tiene distribucin binomial
de parmetros n = 300 y p = 13 . Cada peridico lo compra en 3 pesos y lo vende en 4 pesos,

9.5. ESPERANZA DE FUNCIONES DE VARIABLES ALEATORIAS

221

pero no se le reembolsa el costo de los peridicos que compre y no venda. Cuntos peridicos
debe de comprar de tal manera que el valor esperado de su ganancia sea mximo?
Solucin
Sea m el nmero de peridicos que compra, X el nmero de peridicos que vende y G(m) la
ganancia que obtiene el vendedor. Entonces:

X 3(m X) si X < m
4X 3m si X < m
G(m) =
=
m
si X m
m
si X m
As que:
Pn
P
E [G(m)] = m1
k=0 (4k 3m)P [X = k] + m
k=m P [X = k]
Pm1
P
Pm1
= k=0 (4k 4m)P [X = k] + m k=0 P [X = k] + m nk=m P [X = k]
Pm1
(k m)P [X = k]
= m + 4 k=0
Por lo tanto:
E [G(m + 1)] E [G(m)]
Pm1
P
=m+1+4 m
k=0 (k m 1)P [X = k] m 4
k=0 (k m)P [X = k]
Pm
= 1 4 k=0 P [X = k] = 1 4P [X m]
As que la funcin G(m) crece mientras P [X m] < 14 , despus de lo cual decrece. Es decir,
la ganancia es mxima cuando m es el ms pequeo nmero entero tal que P [X m] 14 .
Por el teorema de de Moivre Laplace, se tiene:

m+0.5100
P [X m] P Z 200
3

en donde Z es una variable aleatoria con distribucin normal estndar.


De acuerdo con la tabla de la distribucin normal estndar, de la pgina 283, y definiendo
(z) = P [0 Z z], se tiene:
(0.67) = P [0 Z 0.67] = 0.2486
(0.68) = P [0 Z 0.68] = 0.2518
Adems, de acuerdo con lo expuesto en la seccin 8.3, para z (0.67, 0.68):
(0.68)(0.67)
(z
0.680.67
0.25180.2486
(z 0.67)
0.680.67

(z) (0.67) +

0.67)

= 0.2486 +
= 0.2486 + 0.32 (z 0.67)
As que (z) = 0.25 cuando z = 0.674375.
Por
lo tanto:

200 0.674375
cuando m+0.5100
3
q
= 93.9938
es decir, m 99.5 0.674375 200
3

P Z

m+0.5100

200
3

1
4

Por lo tanto, el valor esperado de la ganancia es mximo cuando m = 94.


Aunque este valor se obtuvo aproximando la distribucin binomial mediante una distribucin
normal estndar, el resultado obtenido es exacto. En efecto, se tiene:
P 300 1 k 2 300k
= 0.21374
P [X 93] = 93
k=0 k
3
3

222

9. ESPERANZAS

P 300 1 k 2 300k
P [X 94] = 94
= 0.2515
k=0 k
3
3
Para m = 94, la ganancia esperada resulta ser:
300 1 k 2 300k
P
= 89.6642
E [G(94)] = 94 4 93
k=0 (94 k) k
3
3

Obsrvese que una variable aleatoria X puede tener una esperanza infinita, pero existir alguna
funcin f tal que f (X) tenga esperanza finita. Por ejemplo, si X es una variable aleatoria de
esperanza infinita, entonces eX tiene esperanza finita.
Las proposiciones 9.15 y 9.18 pueden generalizarse al caso de una funcin g(X1 , . . . , Xn ) de
n variables aleatorias X1 , . . . , Xn , siendo sus demostraciones prcticamente las mismas que
en el caso de una sola variable aleatoria. Las proposiciones 9.32 y 9.33, las cuales son consecuencia de 9.15 y 9.18, pueden entonces tambin generalizarse al caso multidimensional. Sin
embargo, el estudio general del caso multidimensional requiere de la introduccin y estudio
de los conceptos propios a ese caso, tal como el de la funcin de distribucin de n variables
aleatorias. Por tal motivo, las mencionadas generalizaciones se tratan despus del estudio de
dichos temas, lo cual se realiza en el segundo volumen de este libro. Por otra parte, la demostracin de algunas propiedades de la esperanza, las cuales se tratan en la siguiente seccin,
requieren de la generalizacin de la proposicin 9.32 al caso bidimensional. Por tal motivo, a
continuacin se expone este resultado.
Definicin 9.37 (Funcin de densidad conjunta de una pareja de variables aleatorias discretas). Dadas dos variables aleatorias discretas, X y Y , la funcin fX,Y : R2 7 R
definida por:
fX,Y (x, y) = P [X = x, Y = y]
es llamada la funcin de densidad conjunta de X y Y .
Si X y Y son dos variables aleatorias discretas con funcin de densidad conjunta fX,Y y A
cualquier subconjunto de R2 , entonces la propiedad de la aditividad numerable implica la
siguiente relacin:
P
P [(X, Y ) A] = {(x,y)AVX,Y } fX,Y (x, y)

en donde VX,Y = {(x, y) R2 : x VX y y VY }.


En particular:
P
fX (x) = yVy fX,Y (x, y) para cualquier x R
P
fY (y) = xVX fX,Y (x, y) para cualquier y R

en donde VX y VY son los conjuntos de posibles valores de X y Y respectivamente.

Proposicin 9.38. Sean X y Y dos variables aleatorias discretas con funcin de densidad
conjunta fX,Y y gP: R2 7
PR cualquier funcin boreliana. Entonces g(X, Y ) tiene esperanza
finita si y slo si yVY xVX |g(x, y)| fX,Y (x, y) < y, en ese caso, se tiene:
P
P
E [g(X, Y )] = yVY xVX g(x, y)fX,Y (x, y)
en donde VX y VY son los conjuntos de posibles valores de X y Y , respectivamente.
Demostracin
Sea Z = g(X, Y ), VZ el conjunto de posibles valores de Z y, para cada z VZ , definamos:

9.6. PROPIEDADES DE LA ESPERANZA

223

Az = {(x, y) R2 : x VX , y VY y g(x, y) = z}
S
P
Entonces P [Z = z] = (x,y)Az fX,Y (x, y) y zVZ Az = {(x, y) R2 : x VX y y VY }. De
manera que se tiene:
P
P
P
E [|Z|] = zVZ |z| P [Z = z] = zVZ |z| (x,y)Az fX,Y (x, y)
P
P
P
P
= zVZ (x,y)Az |z| fX,Y (x, y) = zVZ (x,y)Az |g(x, y)| fX,Y (x, y)
P
P
= yVY xVX |g(x, y)| fX,Y (x, y)
lo cual demuestra la primera parte.
Supongamos ahora que Z tiene esperanza finita, entonces:
P
P
P
E [Z] = zVZ zP [Z = z] = zVZ z (x,y)Az fX,Y (x, y)
P
P
P
P
= zVZ (x,y)Az zfX,Y (x, y) = zVZ (x,y)Az g(x, y)fX,Y (x, y)
P
P
= yVY xVX g(x, y)fX,Y (x, y)
lo cual demuestra la segunda parte.
9.6. Propiedades de la Esperanza
Lema 9.39. Sea X una variable aleatoria y (Xn )nN una sucesin de variables aleatorias
tales que Xn Xn+1 para cualquier n N y lmn Xn () = X() para cualquier .
Entonces, si para cada n N, FXn es la funcin de distribucin de Xn y FX es la funcin de
distribucin de X, la sucesin (FXn (x)) es montona no creciente y lmn FXn (x) = FX (x)
para cualquier x R.

Demostracin
Como Xn Xn+1 , se tiene, para cualquier x R, FXn+1 (x) = P [Xn+1 x] P [Xn x] =
FXn (x), as que la sucesin (FXn (x)) es montona no creciente.
T
Ahora bien, como lmn Xn () = X() para cualquier , se tiene
n=1 [Xn x] =
[X x] para cualquier x R, de manera que:
FX (x) = P [X x] = lmn P [Xn x] = lmn FXn (x)

Corolario 9.40. Sea X una variable aleatoria no negativa y (Xn )nN una sucesin de variables aleatorias no negativas tales que Xn Xn+1 para cualquier n N y lmn Xn () =
X() para cualquier . Entonces:
E [X] = lmn E [Xn ]
Demostracin
Por el lema 9.39, se tiene que, para cualquier x R, la sucesin (1 FXn (x)) es montona no
decreciente. De manera que, por el teorema 20 del Apndice, se tiene:
R
R
E [X] = 0 [1 FX (x)] dx = lmn 0 [1 FXn (x)] dx = lmn E [Xn ]

Lema 9.41. Sea X una variable aleatoria no negativa, entonces existe una sucesin (Xn )nN
de variables aleatorias discretas no negativas tales que Xn Xn+1 para cualquier n N y
lmn Xn () = X() para cualquier .

224

9. ESPERANZAS

Demostracin
P
m
Para cada n N, sea Xn =
m+1 . Evidentemente Xn es una variable aleatoria
m=0 2n I[ 2m
n X< 2n ]
discreta no negativa.
Dados n N y , sea m el nico nmero entero no negativo tal que 2mn X() < m+1
.
2n
Entonces, como Xn () = 2mn , se tiene X() 21n < Xn () X(), as que lmn Xn () =
X().
2m+2
2m
2m+1
2m+1
Ahora bien, como 22m
n+1 X() < 2n+1 , se tiene que 2n+1 X() < 2n+1 o bien 2n+1
X() < 2m+2
. En el primer caso, se tiene Xn+1 () = 22m
n+1 = Xn () mientras que en el segundo,
2n+1
2m+1
2m
se tiene Xn+1 () = 2n+1 > 2n+1 = Xn (). As que, en cualquier caso, Xn () Xn+1 ().
Proposicin 9.42. Sean X y Y dos variables aleatorias y c cualquier constante. Entonces:
(i) Si P [X = c] = 1, entonces E [X] = c.
(ii) Si X es no negativa, entonces E [X] = 0 si y slo si P [X = 0] = 1.
(iii) Si X tiene esperanza finita, entonces cX tambin tiene esperanza finita y E [cX] =
cE [X].
(iv) Si P [0 X Y ] = 1 y Y tiene esperanza finita, entonces X tiene esperanza finita
y E [X] E [Y ].
(v) Si X y Y tienen esperanza finita, entonces X + Y tambin tiene esperanza finita y
E [X + Y ] = E [X] + E [Y ].
(vi) Si X y Y son independientes y tienen esperanza finita, entonces XY tambin tiene
esperanza finita y E [XY ] = E [X] E [Y ].
(vii) Si X y Y tienen esperanza finita y P [X Y ] = 1, entonces E [X] E [Y ].
(viii) Si X tiene esperanza finita, entonces |E [X]| E [|X|].
Demostracin
i) Si P [X = c] = 1, entonces X es una variable aleatoria discreta cuyo nico posible valor es
c, de manera que se tiene E [X] = cP [X = c] = c.
R
ii) Supongamos E [X] = 0, entonces 0 [1 FX (x)] dx = E [X] = 0.
Sea x > 0 tal que FX es continua en x. Si 1 FX (x) >R 0, entonces existe > 0 tal

que 1 FX > en una vecindad de x; as que se tendra 0 [1 FX (x)] dx > 0. Por lo


tanto, FX (x) = 1. Pero FX es continua excepto en un conjunto numerable; de manera que,
dada cualquier y > 0 existe, x tal que 0 < x < y y FX es continua en x. Por lo tanto,
FX (y) FX (x) = 1. Finalmente, como X es no negativa y FX es continua por la derecha, se
tiene:

0 si x < 0
FX (x) =
1 si x 0
As que, P [X = 0] = 1.
La otra implicacin es corolario de i.
iii) Se tiene (X)+ = X y (X) = X + , de manera que, como X tiene esperanza finita,
(X)+ y (X) tienen esperanza finita. Por lo tanto, X tiene esperanza finita y
E [X] = E [(X)+ ] E [(X) ] = E [X ] E [X + ] = E [X]
Ahora bien, si c > 0, se tiene:

R
R
R
x
dx
[1

F
(x)]
dx
=
P
[cX
>
x]
dx
=
P
X
>
cX
0
0
0
c

9.6. PROPIEDADES DE LA ESPERANZA

225

P [X > y] dy = cE [X + ] <

R
R
FcX (x)dx = 0 P [cX x] dx = 0 P X xc dx
0
R
= c 0 P [X y] dy = cE [X ] <
De manera que cX tiene esperanza finita y
E [cX] = cE [X + ] cE [X ] = cE [X]
Si c < 0, entonces cX = (cX) tiene esperanza finita y se tiene:
E [cX] = E [(c)X] = (c)E [X] = cE [X]
iv) Para cualquier x > 0, se tiene:
FY (x) = P [Y x] P [X x] = FX (x)
de manera que 1 FX (x) 1 FY (x). Por lo tanto:
R
R
[1

F
(x)]
dx

[1 FY (x)] dx <
X
0
0
Es decir, X tiene esperanza finita y E [X] E [Y ].
v) Supongamos primero que X y Y son variables aleatorias discretas y sea g : R2 7 R definida
por g(x, y) = x + y. Entonces:
P
P
P
P
|x + y| fX,Y (x, y)
yVY
xVX |g(x, y)| fX,Y (x, y) =
yVY
P
P
P
P xVX
yVY xVX |x| fX,Y (x, y) + yVY xVX |y| fX,Y (x, y)
P
P
P
P
= xVX |x| yVY fX,Y (x, y) + yVY |y| xVX fX,Y (x, y)
P
P
= xVX |x| fX (x) + yVY |y| fY (y) <
en donde VX y VY son los conjuntos de posibles valores de X y Y , respectivamente.
As que X + Y = g(X, Y ) tiene esperanza finita. Adems:
P
P
E [X + Y ] = E [g(X, Y )] = yVY xVX |g(x, y)| fX,Y (x, y)
P
P
= yVY xVX (x + y)fX,Y (x, y)
P
P
P
P
= yVY xVX xfX,Y (x, y) + yVY xVX yfX,Y (x, y)
P
P
P
P
= xVX x yVY fX,Y (x, y) + yVY y xVX fX,Y (x, y)
P
P
= xVX xfX (x) + yVY yfY (y) = E [X] + E [Y ]
Sean ahora X y Y dos variables aleatorias no negativas de esperanza finita. De acuerdo con
el lema 9.41, existen dos sucesiones (Xn )nN y (Yn )nN de variables aleatorias discretas no
negativas tales que Xn Xn+1 y Yn Yn+1 para cualquier n N y lmn Xn () = X()
y lmn Yn () = Y () para cualquier , lo cual implica Xn + Yn Xn+1 + Yn+1 para
cualquier n N y lmn (Xn + Yn ) () = (X + Y ) () para cualquier . De manera
que, por el corolario 9.40, se tiene:
E [X] = lmn E [Xn ], E [Y ] = lmn E [Yn ] y E [X + Y ] = lmn E [Xn + Yn ]
Pero como, para cualquier n N, Xn y Yn son variables aleatorias discretas y Xn X y
Yn Y , entonces, por iv, Xn y Yn tienen esperanza finita, de manera que, siendo discretas,
se tiene que Xn + Yn tiene esperanza finita y E [Xn + Yn ] = E [Xn ] + E [Yn ]. Por lo tanto,
X + Y tiene esperanza finita y E [X + Y ] = E [X] + E [Y ].
Finalmente, si X y Y son dos variables aleatorias cualesquiera de esperanza finita, se tiene:
|X + Y | = |X + + Y + X Y | X + + Y + + X + Y
=c
R

226

9. ESPERANZAS

Pero, siendo X + , X , Y + y Y variables aleatorias no negativas de esperanza finita, su suma


tambin lo es, de manera que, por iv, X + Y tiene esperanza finita. Adems:
(X + Y )+ (X + Y ) = X + Y = (X + + Y + ) (X + Y )
As que:
(X + Y )+ + (X + Y ) = (X + + Y + ) + (X + Y )
Por lo tanto:
E [(X + Y )+ ] + E [X + Y ] = E [(X + Y ) ] + E [X + + Y + ]
de lo cual se sigue:
E [X + Y ] = E [(X + Y )+ ] E [(X + Y ) ] = E [X + + Y + ] E [X + Y ]
= E [X + ] + E [Y + ] E [X ] E [Y ] = (E [X + ] E [X ]) + (E [Y + ] E [Y ])
= E [X] + E [Y ].
vi) Supongamos primero que X y Y son variables aleatorias discretas y sea g : R2 7 R
definida por g(x, y) = xy. Entonces:
P
P
P
P
yVY
xVX |g(x, y)| fX,Y (x, y) =
yVY
xVX |xy| fX (x)fY (y)
h
i
P
P
=
xVX |x| fX (x)
yVY |y| fY (y) <
en donde VX y VY son los conjuntos de posibles valores de X y Y , respectivamente.
As que XY = g(X, Y ) tiene esperanza finita. Adems:
P
P
P
P
E [XY ] = E [g(X, Y )] = yVY xVX g(x, y)fX,Y (x, y) = yVY xVX xyfX (x)fY (y)
i
hP
P
xf
(x)
yf
(y)
= E [X] E [Y ]
=
X
Y
xVX
yVY

Sean ahora X y Y dos variables aleatorias independientes no negativas de esperanza finita.


De acuerdo con el lema 9.41, existen dos sucesiones (Xn )nN y (Yn )nN de variables aleatorias discretas no negativas tales que Xn Xn+1 y Yn Yn+1 para cualquier n N y
lmn Xn () = X() y lmn Yn () = Y () para cualquier , lo cual implica
Xn Yn Xn+1 Yn+1 para cualquier n N y lmn (Xn Yn ) () = (XY ) () para cualquier
. De manera que, por el corolario 9.40, se tiene:
E [X] = lmn E [Xn ], E [Y ] = lmn E [Yn ] y E [XY ] = lmn E [Xn Yn ]
Adems, de acuerdo con la demostracin del lema 9.41, si, para cada n N, definimos la
funcin fn : R 7 R mediante la frmula fn (x) = 21n [[2n x]], en donde [[2n x]] denota al mayor
entero menor o igual a 2n x, se puede elegir Xn = fn (X) y Yn = fn (Y ), de manera que, por la
proposicin 6.33, Xn y Yn son independientes.
Por otra parte, para cualquier n N, Xn y Yn son variables aleatorias discretas y Xn X
y Yn Y , as que, por iv, Xn y Yn tienen esperanza finita, de manera que, siendo discretas,
se tiene que Xn Yn tiene esperanza finita y E [Xn Yn ] = E [Xn ] E [Yn ]. Por lo tanto, E [XY ] =
E [X] E [Y ].
Finalmente, si X y Y dos variables aleatorias independientes cualesquiera de esperanza finita,
se tiene:
|XY | = |(X + X ) (Y + Y )| (X + + X ) (Y + + Y )
Pero, siendo X + + X y Y + + Y variables aleatorias no negativas de esperanza finita, su
producto tambin lo es, de manera que, por iv, XY tiene esperanza finita.

9.6. PROPIEDADES DE LA ESPERANZA

227

Adems, por la proposicin 6.33, X + = max(X, 0) y Y + = max(Y, 0) son independientes y,


de la misma manera, lo son X + y Y , X y Y + y X y Y . Por lo tanto:
E [XY ] = E [(X + X ) (Y + Y )] = E [X + Y + + X Y X + Y X Y + ]
= E [X + Y + ] + E [X Y ] E [X + Y ] E [X Y + ]
= E [X + ] E [Y + ] + E [X ] E [Y ] E [X + ] E [Y ] E [X ] E [Y + ]
= (E [X + ] E [X ]) (E [Y + ] E [Y ]) = E [X] E [Y ].
vii) Supongamos que X es no negativa y tiene esperanza finita, entonces, por iv, E [X] 0.
Si P [X Y ] = 1, entonces Y X es una variable aleatoria no negativa de esperanza finita,
por lo tanto, E [Y X] 0, lo cual, utilizando v, implica el resultado.
viii) Se tiene X |X| y X |X|. De manera que la conclusin se sigue aplicando vii y ii.
Un razonamiento de induccin permite demostrar los siguientes dos corolarios:
aleatorias
de esperanza finita, entonces
Corolario 9.43. Sean X1 , . . . , Xn n
Pvariables
Pn
n
tambin tiene esperanza finita y E [ k=1 Xk ] = k=1 E [Xk ].

Pn

k=1

Xk

de esperanza finita,
Corolario
Qn 9.44. Sean X1 , . . . , Xn n variables aleatorias
Qn independientes
Qn
entonces k=1 Xk tambin tiene esperanza finita y E [ k=1 Xk ] = k=1 E [Xk ].

Ejemplo 9.45. Sea X una variable aleatoria con distribucin hipergeomtrica de parmetros
r, s y n. Recordemos que esta distribucin se presenta al tomar una muestra sin reemplazo de
tamao n r + s de una poblacin formada por dos tipos de elementos, I y II, de tal manera
que hay r elementos de tipo I y s de tipo II y definiendo X como el nmero de elementos de
tipo I que se obtienen en la muestra. Para cada i {1, . . . , n}, definamos la variable aleatoria
Xi de la siguiente manera:

1 si el i-simo elemento de la muestra es de tipo I


Xi =
0 si el i-simo elemento de la muestra es de tipo II
r
nr
entonces E [Xi ] = r+s
y, como X = X1 + + Xn , se tiene E [X] = r+s
.

Ejemplo 9.46. Consideremos una urna en la cual hay N bolas numeradas del 1 al N. Un
juego consiste en ir sacando bolas al azar, una a una y sin reemplazo, hasta tener todas fuera,
recibiendo un peso cada vez que el lugar de la eleccin coincida con el nmero de la bola
seleccionada. Sea X la cantidad que se recibe al terminar el juego. Para cada i {1, . . . , N },
definamos la variable aleatoria Xi de la siguiente manera:

1 si en la i-sima eleccin se obtiene la bola nmero i


Xi =
0 en otro caso
entonces E [Xi ] =

1
N

y, como X = X1 + + XN , se tiene E [X] = 1.

Ejemplo 9.47 (Problema del colector de cupones). Se van colocando al azar bolas, una a
una, en cualquiera de n cajas hasta que ninguna caja se encuentre vaca. Cul es la esperanza
del nmero de bolas que se utilizan?
Solucin
Sea X el nmero de bolas que se utilizan y, para j {1, . . . , n}, sea Xj el nmero de bolas que
se utilizan a partir del momento en que hay exactamente j 1 cajas ocupadas hasta que alguna
bola queda colocada en una caja distinta a cualquiera de esas j 1 cajas. Se tiene entonces

228

9. ESPERANZAS

X1 = 1 y, para j {2, . . . , n}, Xj 1 es una variable aleatoria con distribucin geomtrica


j1
n
de parmetro p = nj+1
, as que E [Xj ] = 1 + 1p
= 1 + nj+1
= nj+1
n
p
Por lo tanto:
E [X] = 1 + E [X2 ] + E [X3 ] + + E [Xn ]

n
n
= 1 + n1
+ n2
+ + n1 = n 1 + 12 + + n1

Ejemplo 9.48. Una urna contiene N pares de tarjetas, de tal manera que, para cada i
{1, . . . , N }, hay un par de ellas marcadas con el nmero i. Si se seleccionan al azar m
tarjetas, Encuentre la esperanza de a) el nmero de parejas que quedan dentro la urna y b)
el nmero de parejas que quedan fuera de la urna. c) Consideremos una poblacin en la cual
hay 1000 matrimonios y supongamos que todas las personas de la poblacin tienen la misma
probabilidad de morir en cualquier momento dado. Al morir 500 de esas personas, cul es
la esperanza del nmero de personas que quedan viudas?
Solucin
a. Sea X el nmero de pares que quedan en la urna y, para cada i {1, . . . , N } , sea Xi una
variable aleatoria que toma el valor 1 si el par de tarjetas marcadas con el nmero i queda en
la urna despus de las extracciones, y 0 en otro caso. Se tiene entonces
(2Nm2)
m1)
E [Xi ] = P [Xi = 1] = 2N
= (2Nm)(2N
2N(2N1)
(m)
As que:
i P
hP
N
(2Nm)(2Nm1)
= N
X
E [X] = E
i
i=1
i=1 E [Xi ] =
2(2N1)
b. Sea Y el nmero de parejas que quedan fuera de la urna y, para cada i {1, . . . , N } , sea
Yi una variable aleatoria que toma el valor 1 si el par de tarjetas marcadas con el nmero i
queda fuera de la urna, y 0 en otro caso. Se tiene entonces:
(2)(2N 2)
m(m1)
E [Yi ] = P [Yi = 1] = 2 2Nm2 = 2N(2N1)
(m)
As que:
i P
hP
N
m(m1)
= N
Y
E [Y ] = E
i
i=1
i=1 E [Yi ] = 2(2N1)

c. Definamos el nmero de rompimientos como el nmero de parejas tales que uno de sus
elementos queda fuera de la urna y el otro dentro, y sea Z el nmero de rompimientos, se
tiene entonces Z = N X Y , as que:
m(m1)
m
E [Z] = N E [X] E [Y ] = N (2Nm)(2Nm1)
2(2N1)
= 2N
m
2(2N1)
2N 1
Obsrvese que, si N es grande, para valores pequeos de m, esta esperanza es aproximadamente
igual a m. Esto significa que se esperara que los m elementos seleccionados fueran de parejas
distintas.
En el caso de la poblacin de matrimonios, el nmero de personas que quedan viudas es igual
al nmero de rompimientos, de manera que:
E [Z] = 2Nm
m = 2000500
(500) = 375.19
2N1
20001
Digamos que una pareja es afectada si por lo menos uno de sus elementos queda fuera de la
urna y sea U el nmero de parejas afectadas. Se tiene entonces U = N X, as que:
E [U] = N (2Nm)(2Nm1)
= 4Nm1
m
2(2N1)
4N2

9.7. VARIANZA Y DEMS MOMENTOS

229

Obsrvese que, si N es grande, para valores pequeos de m esta esperanza es aproximadamente


igual a m.
U es tambin el nmero de nmeros distintos seleccionados.
En el caso de la poblacin de matrimonios, se tiene:
m = 40005001
(500) = 437.59
E [U ] = 4Nm1
4N2
40002
E [X] =
E [Y ] =

(2Nm)(2Nm1)
= (2000500)(20005001)
2(2N1)
2(20001)
m(m1)
500(5001)
= 2(20001) = 62.406
2(2N 1)

= 562.41

Ejemplo 9.49. Una caja contiene n componentes elctricos, de los cuales r estn defectuosos.
Se checa cada uno de los componentes en un orden aleatorio hasta que se encuentren los r
defectuosos. Cul es la esperanza del nmero de chequeos que se realizan?
Solucin
Sea X el nmero de chequeos que se realizan y, para i {1, . . . , n r} , sea Xi una variable
aleatoria que toma el valor 1 si la i-sima lmpara que no est defectuosa se selecciona antes
de que se hayan seleccionado todas las que s lo estn, y 0 en otro caso. Entonces se tiene:
r
E [Xi ] = P [Xi = 1] = r+1
As que:

P
P
(nr)r
r(n+1)
E [X] = E r + nr
X
= r + nr
i
i=1
i=1 E [Xi ] = r + r+1 = r+1
Ejemplo 9.50. Sean X1 , . . . , Xn n variables aleatorias idnticamente distribuidas de esperanza
finita y tales que P [Xk = 0] = 0, entonces:
hP
i P
i
h
i
h
n
n
SnXk
SnXk
SnXk
1=E
=
=
nE
E
k=1
k=1
Xk
k=1 Xk
k=1 Xk
h k=1 i
As que, E SnXk Xk = n1 .
k=1

9.7. Varianza y dems momentos


Como ya vimos, la esperanza de una variable aleatoria X es un nmero que es aproximadamente igual al promedio de los valores que toma X cuando el correspondiente experimento
aleatorio se repite muchas veces. Sin embargo, los valores particulares que toma X pueden
diferir en mucho de su esperanza. Qu tanto se alejan de su esperanza los valores que toma
X? Esta pregunta tiene sentido no nicamente desde el punto de vista terico, tambin lo
tiene desde un punto de vista prctico pues siendo E [X] aproximadamente igual al promedio
de los valores que toma X, en un problema especfico, E [X] podra tomarse como una aproximacin a los valores de X, cosa que funcionara entonces muy bien en promedio, pero qu
pasara con la aproximacin al tener cada valor individual de X?, o en otras palabras, qu
error estaramos cometiendo al aproximar un valor particular de X con su esperanza? Esto
nos lleva a considerar la diferencia X E [X] y a establecer una medida para esta diferencia,
lo cual podemos hacer de diferentes maneras.
Una manera podra consistir en considerar el promedio de los valores que toma la variable
aleatoria Y = |X E [X]| y tomar ese promedio como una medida del alejamiento de los
valores de X de su esperanza. Sin embargo, existe un problema con ese mtodo. Para
verlo claramente, observemos que el tomar el valor de E [|X E [X]|] como la medida del

230

9. ESPERANZAS

alejamiento de X de su esperanza, nos lleva a preguntarnos si, en este sentido, es la esperanza


de X la mejor aproximacin a los valores de X. Es decir, el nmero real que mejor aproxime a
los valores de X debera ser uno para el cual la funcin f (x) = E [|X x|] alcanzara un valor
mnimo. Ser x = E [X] este valor? La respuesta es negativa. Consideremos, por ejemplo,
una variable aleatoria con distribucin exponencial de parmetro , se tiene entonces:
R
Rx
R
f (x) = E [|X x|] = 0 |y x| ey dy = 0 (x y)ey dy + x (y x)ey dy
= 1 (ex + x 1) + 1 ex = 1 (2ex + x 1).
Derivando esta expresin con respecto a x e igualando a cero se obtiene x = 1 ln 2, punto en
el cual la funcin f alcanza un mnimo pues su segunda derivada en ese punto es positiva. De
esta manera, no es en x = E [X] = 1 en donde la funcin f alcanza su valor mnimo.
Un valor x para el cual la funcin f (x) = E [|X x|] alcanza un valor mnimo tiene una
caracterizacin interesante, la cual puede obtenerse del siguiente resultado:
Proposicin
R x 9.51. Sea X una variable aleatoria de esperanza finita, entonces E [|X x|] =
E [|X|] + 2 0 FX (z)dz x para cualquier x R.
Demostracin
Fijemos x R y sea Y = |X x|, entonces, para y 0, se tiene:
FY (y) = P [|X x| y] = P [y X x y] = P [x y X x + y]
= FX (x + y) FX (x y) + P [X = x y]
As que:
R
G(x) = E [|X x|] = 0 [1 FY (y)] dy
R
= 0 [1 FX (x + y) + FX (x y) P [X = x y]] dy
R
R
Rx
= 0 [1 FX (x + y) + FX (x y)] dy = x [1 FX (z)] dz + FX (z)dz
Rx
R0
Rx
R
= 0 [1 FX (z)] dz 0 [1 FX (z)] dz + FX (z)dz + 0 FX (z)dz
Rx
= E [|X|] + 2 0 FX (z)dz x

Si X es una variable aleatoria continua, de la proposicin 9.51 se sigue que la funcin f (x) =
E [|X x|] alcanza un valor mnimo si y slo si FX (x) = 12 . Un nmero real x con esta
propiedad es llamado una mediana de X. De manera general, se tiene la siguiente definicin:

Definicin 9.52 (Mediana). Sea X una variable aleatoria cualquiera. Se dice que un nmero
real m es mediana de X si P [X m] 12 y P [X m] 12 .
El ejercicio 9.40 desarrolla este concepto y en el ejercicio 9.42 se demuestra que m R es
mediana de X si y slo si la funcin f (x) = E [|X x|] alcanza su valor mnimo en m.. Por
el momento basta con mencionar que uno de los problemas que se presenta con este concepto
es que no siempre hay una nica mediana, lo cual se ilustra con el siguiente ejemplo:
Ejemplo 9.53. Sea X una variable aleatoria con distribucin geomtrica de parmetro p.
Encuentre el conjunto de medianas de X.
Solucin
Pn
Pn
x
n+1
P [X n] =
12 si y slo si n
x=0 P [X = x] =
x=0 p(1 p) = 1 (1 p)
ln 2
ln(1p)
1.

9.7. VARIANZA Y DEMS MOMENTOS

P [X n] =

x=n

P [X = x] =

x=n

p(1 p)x = (1 p)n

1
2

231
ln 2
si y slo si n ln(1p)
.

ln 2
es un nmero natural entonces m R es mediana de X si y slo si
De manera que si ln(1p)
i
h
1
ln 2
ln 2
. Esto ocurre nicamente cuando p = 1 12 k para algn nmero
1, ln(1p)
m ln(1p)
natural k, en cuyo caso, m es mediana de X si y slo si m [k 1, k].
ln 2
no sea un nmero natural, es decir que p no sea de la forma
En el caso en que ln(1p)
1 k1
con k N, entonces X tiene una nica mediana m, igual al ms pequeo
p = 1 2
ln 2
nmero entero no negativo n tal que n ln(1p)
1.
1
ln 2
Por ejemplo si p = 1 12 8 , entonces ln(1p)
= 8, as m es mediana de X si y slo si
1p
m [7, 8]. En este caso, E [X] = p = 11.049, pero un valor para el cual E [|X x|] sea un
mnimo es cualquier nmero real en el intervalo [7, 8].
Por otra parte, en cualquier caso, si E [|X x|] es la medida del alejamiento entre x y los
valores de X, se tendra que tomar como mejor aproximacin de los valores de X a cualquiera
de sus medianas en lugar de su esperanza.

Proposicin 9.54. Sea X una variable aleatoria


de varianza finita y definamos la funcin

H : R 7 R mediante la relacin H(x) = E (X x)2 . Entonces H alcanza su valor mnimo


en x = E [X].
Demostracin

H(x) = E (X x)2 = E [X 2 ] 2xE [X] + x2


H 0 (x) = 2x 2E [X]
As que H alcanza su valor mnimo en x = E [X].
De acuerdo con la discusin anterior, podemos tomar a E [|X x|] como la medida del alejamiento entre x y los valores de X, en cuyo caso se tendra que tomar como mejor
aproxi
macin de los valores de X a cualquiera de sus medianas, o bien podemos tomar a E (X x)2
como la medida del alejamiento entre x y los valores de X, en cuyo caso la mejor aproximacin
de los valores de X es su esperanza. Las dos opciones son perfectamente aceptables, pero
siendo la segunda la que conserva a la esperanza como la mejor aproximacin de los valores
de X, parece ser la mejor. Adems, es la segunda la que histricamente surgi de manera
natural, sobre todo en la formulacin general de los teoremas que generalizan resultados como
el de de Moivre, que se expuso en la seccin 8.3, los cuales son conocidos como los teoremas
lmite y que han jugado un papel central en el desarrollo de la Teora de la Probabilidad.
Lo anterior motiva las siguientes definiciones:
Definicin 9.55 (Varianza). Sea X una variable aleatoria de esperanza finita. Se define la
varianza de X, V ar(X), mediante la relacin:

V ar(X) = E (X E(X))2

A la raz cuadrada no negativa de la varianza se le llama la desviacin estndar de X.

La varianza de una variable aleatoria mide entonces el alejamiento de los valores de X de su


esperanza. Tambin se acostumbra decir que la varianza es una medida de la dispersin de
los valores de la variable aleatoria.

232

9. ESPERANZAS

Definicin 9.56 (Varianza finita). Diremos que una variable aleatoria X tiene varianza
finita si se cumplen las siguientes dos condiciones:
(i) X tiene esperanza finita.
(ii) (X E [X])2 tiene esperanza finita.

Proposicin 9.57. Una variable aleatoria X tiene varianza finita si y slo si X 2 tiene esperanza finita.
Demostracin
Se tiene X 2 = (X E [X])2 + 2XE [X] (E [X])2 , as que si X tiene varianza finita, entonces
X 2 tiene esperanza finita.
Supongamos ahora que X 2 tiene esperanza finita.
Se tiene |X| 1 + X 2 y (X E [X])2 = X 2 2XE [X] (E [X])2 . De manera que tanto X
como (X E [X])2 tienen esperanza finita. Es decir, X tiene varianza finita.
Proposicin 9.58. Sea X una variable aleatoria de esperanza finita, entonces V ar(X) =
E [X 2 ] (E [X])2 .

Demostracin
Si X no tiene varianza finita entonces X 2 no tiene esperanza finita, as que se cumple la
igualdad. Si X tiene varianza finita, entonces X 2 tiene esperanza finita y se tiene:

V ar(X) = E (X E(X))2 = E X 2 2XE(X) + (E [X])2 = E [X 2 ]2 (E [X])2 +(E [X])2


= E [X 2 ] (E [X])2 .

Ejemplo 9.59. Sea X una variable aleatoria con distribucin binomial de parmetros n y p.
Encuentre la varianza de X.
Solucin
E [X 2 ] = E [X(X 1) + X] = E [X(X 1)] + E [X]

P
P
= nx=0 x(x 1)P [X = x] + np = nx=0 x(x 1) nx px (1 p)nx + np
P
P
n!
n!
px (1 p)nx + np = nx=2 (x2)!(nx)!
px (1 p)nx + np
= nx=0 x(x 1) x!(nx)!
P
(n2)!
px2 (1 p)nx + np
= n(n 1)p2 nx=2 (x2)!(nx)!

P
px2 (1 p)nx + np
= n(n 1)p2 nx=2 n2
x2

P
n2 x
= n(n 1)p2 n2
p (1 p)n2x + np = n(n 1)p2 + np = n2 p2 + np(1 p)
x=0
x
As que:
V ar(X) = E [X 2 ] (E [X])2 = n2 p2 + np(1 p) n2 p2 = np(1 p)
Ejemplo 9.60. Sea X una variable aleatoria con distribucin Poisson de parmetro . Encuentre la varianza de X.
Solucin
E [X 2 ] = E [X(X 1) + X] = E [X(X 1)] + E [X]
P
P
x e
+
=
x=0 x(x 1)P [X = x] + =
x=0 x(x 1) x!
P
x2
2
2

= 2 e
x=2 (x2)! + = e e + = +

9.7. VARIANZA Y DEMS MOMENTOS

233

As que:
V ar(X) = E [X 2 ] (E [X])2 = 2 + 2 =
Ejemplo 9.61. Sea X una variable aleatoria con distribucin geomtrica de parmetro p.
Encuentre la varianza de X.
Solucin
E [X 2 ] = E [X(X 1) + X] = E [X(X 1)] + E [X]
P
1p
x
=
x=0 x(x 1)p(1 p) + p
P
x2
= p(1 p)2
+ 1p
x=2 x(x 1)(1 p)
p
P d2
P
1p
1p
2
x
2 d2
x
= p(1 p)
x=2 dp2 (1 p) + p = p(1 p) dp2
x=2 (1 p) + p
2

d (1p)
= p(1 p)2 dp
+
2
p
As que:

1p
p

2(1p)2
p2

V ar(X) = E [X 2 ] (E [X])2 =

2(1p)2
p2

1p
p

1p
p

(1p)2
p2

(1p)2
p2

1p
p

1p
p2

Ejemplo 9.62. Sea X una variable aleatoria con funcin de densidad dada por

1
si x = 2k , k N
k(k+1)2
Pk
1
si x = 0
1 k=1 k(k+1)2
f (x) =
k

0
en otro caso
Encuentre la varianza de X.
Solucin

P 1
P
2k
1
=

=1
E [X] =
k
k=1 k(k+1)2
k=1 k
k+1
P
P
2k
k

2
2
E [X 2 ] =
k=1 k(k+1)2k =
k=1 k(k+1) =

As que, aunque X tiene esperanza finita, su varianza es infinita.

Ejemplo 9.63. Sea X una variable aleatoria con distribucin gama de parmetros y .
Encuentre la varianza de X.
Solucin
R +1 x
R +1 y
R

1
x
e
dx
=
y e dy = (+2)
= (+1)
E [X 2 ] = x2 fX (x)dx = ()
2
0
() 0
2 ()
2
As que:
V ar(X) = E [X 2 ] (E [X])2 =

(+1)
2

2
2

Ejemplo 9.64. Sea X una variable aleatoria con distribucin normal de parmetros y 2 .
Encuentre la varianza de X.
Solucin
R

R
1
2
V ar(X) = E (X )2 = (x )2 fX (x)dx = 12 (x )2 e 22 (x) dx
R
R
1
1
2
2
1
2 R
2
2

( 3 ) = 2
= 12 y 2 e 22 y dy = 22 0 y 2 e 22 y dy = 2
z 2 ez dz = 2
2
0

Proposicin 9.65. Sean X y Y dos variables aleatorias de varianza finita. Entonces, XY


tiene esperanza finita.

234

9. ESPERANZAS

Demostracin
Para cualquier par de nmeros enteros x y y, se tiene |xy| x2 +y 2 . As que, |XY | X 2 +Y 2 .
Por lo tanto, XY tiene esperanza finita.
Corolario 9.66. Si X y Y son dos variables aleatorias de varianza finita y a y b son dos
nmeros reales cualesquiera, entonces aX + bY tiene varianza finita.
Demostracin
(aX + bY )2 = a2 X 2 + 2abXY + b2 Y 2 , as que, por las proposiciones 9.65 y 9.57, aX + bY
tiene varianza finita.
Definicin 9.67 (Covarianza). Sean X y Y dos variables aleatorias de varianza finita. Se
define la covarianza de X y Y , Cov(X, Y ), mediante la relacin:
Cov(X, Y ) = E [(X E [X]) (Y E [Y ])] = E [XY ] E [X] E [Y ]
Proposicin 9.68. Sean X y Y dos variables aleatorias independientes de varianza finita,
entonces Cov(X, Y ) = 0.
Demostracin
El resultado es inmediato pues X y Y son independientes y tienen esperanza finita, as que
E [XY ] = E [X] E [Y ].
El siguiente ejemplo muestra que la covarianza entre dos variables aleatorias puede ser cero
sin que stas sean independientes.
Ejemplo 9.69. Sea X una variable aleatoria con funcin de densidad dada por:
1
4 si x {1, 1}
1
si x = 0
f (x) =
2
0 en otro caso
y sea Z una variable aleatoria, independiente de X, con distribucin uniforme en el conjunto
{1, 1}. Definamos la variable aleatoria Y de la siguiente manera:

Z si X = 0
Y =
0 en otro caso
Se tiene entonces:
fY (y) = P [Y = y] = P [Y = y, X = 0] + P [Y = y, X 6= 0]
= P [Z = y, X = 0] + P [Y = y, X 6= 0] = P [Z = y] P [X = 0] + I{0} (y)P [X 6= 0]
1
4 si y {1, 1}
1
1
1
si y = 0
= 4 I{1,1} (y) + 2 I{0} (y) =
2
0 en otro caso
fX,Y (x, y) = P [X = x, Y = y] = P [X = x, Y = y, X = 0] + P [X = x, Y = y, X 6= 0]
= I{0} (x)P [Z = y, X = 0] + I{0} (y)I{1,1} (x)P [X = x]
= I{0} (x)P [Z = y] P [X = 0] + I{0} (y)I{1,1} (x)P [X = x]
= 14 I{0} (x)I{1,1} (y) + 14 I{0} (y)I{1,1} (x)

9.7. VARIANZA Y DEMS MOMENTOS

235

1
4

si x = 0, y {1, 1} y = 0, x {1, 1}
0 en otro caso
As que, por ejemplo, P [X = 1, Y = 1] 6= P [X = 1] P [Y = 1], de manera que X y Y no son
independientes. Por otro lado, E [X] = E [Y ] = E [XY ] = 0, de manera que Cov(X, Y ) = 0.
=

Proposicin 9.70. Sean X y Y dos variables aleatorias de varianza finita y a y b dos nmeros
reales cualesquiera. Entonces Cov(aX, bY ) = abCov(X, Y ).
Demostracin
Cov(aX, bY ) = E [aXbY ] E [aX] E [bY ] = ab (E [XY ] E [X] E [Y ]) = abCov(X, Y )
Proposicin 9.71. Sean X, X1 , . . . , Xn n + 1 variables aleatorias de esperanza finita. Entonces:
(i) V ar(X) = 0 si y slo si existe una constante c tal que P [X = c] = 1.
a y b.
(ii) V ar(aX + b) = a2 V ar(X) para cualesquiera constantes
Pn
(iii) Si X1 , .P
. . , Xn tienen
i=1 Xi tambin tiene varianza finita
Pvarianza finita, entonces
P
y V ar( ni=1 Xi ) = ni=1 V ar(Xi ) + 2 {i,j{1,...,n}:i<j} Cov(Xi , Yj ).
Demostracin

i. V ar(X) = 0 si y slo si E (X E(X))2 = 0, lo cual, por la proposicin 9.42, ocurre si y

slo si P (X E(X))2 = 0 = 1, es decir, P [X = E(X)] = 1.

ii. V ar(aX + b) = E (aX aE [X])2 = a2 E (X E [X])2 = a2 V ar(X)


P
iii. Que ni=1 Xi tiene varianza finita se sigue del corolario 9.66 y un razonamiento de induccin. Adems:
i
hP
i
hP
P
P
2
2
V ar( ni=1 Xi ) = E ( ni=1 Xi ni=1 E [Xi ]) = E ( ni=1 (Xi E [Xi ]))

P
P
= ni=1 E (Xi E [Xi ])2 + 2 {i,j{1,...,n}:i<j} E [(Xi E [Xi ]) (Xj E [Xj ])]
P
P
= ni=1 V ar(Xi ) + 2 {i,j{1,...,n}:i<j} Cov(Xi , Yj )
Corolario
P independientes
P y de varianza finita,
P 9.72. Sean X1 , . . . , Xn n variables aleatorias
entonces ni=1 Xi tambin tiene varianza finita y V ar( ni=1 Xi ) = ni=1 V ar(Xi ).

Ejemplo 9.73. Sea X una variable aleatoria con distribucin normal de parmetros y 2 .
Encuentre la esperanza y la varianza de X.
Solucin
tiene distribucin normal estndar y X = Y + , as que,
La variable aleatoria Y = X

E [X] = E [Y ] + =
V ar(X) = 2 V ar(Y ) = 2

Ejemplo 9.74. n bolas se van colocando, una por una y al azar, en cualquiera de n cajas.
Sea X el nmero de cajas que quedan vacas. Encuentre la Esperanza y la Varianza de X.
Solucin
Para cada i {1, . . . , n}, definamos la variable aleatoria Xi de la siguiente manera:

1 si la i-sima caja queda vaca


Xi =
0 en otro caso

236

9. ESPERANZAS

Entonces, para i, j {1, . . . , n}, se tiene:

n
1 n
=
1

E [Xi ] = (n1)
n
n
n

n
E [Xi2 ] = E [Xi ] = 1 n1
n

n
E [Xi Xj ] = (n2)
= 1 n2 para i 6= j
nn
As que:

n
2n
V ar(Xi ) = E [Xi2 ] (E [Xi ])2 = 1 n1 1 n1

n
2n
Cov(Xi , Xj ) = E [Xi Xj ] E [Xi ] E [Xj ] = 1 n2 1 n1
para i 6= j
Pn
y, como X = i=1 E [Xi ], entonces:
n

P
E [X] = ni=1 E [Xi ] = n 1 n1
P
P
V ar(X) = ni=1 V ar(Xi ) + 2 {i,j{1,...,n}, i<j} Cov(Xi , Xj )
n
2n
n
2n i

1 n2 1 n1
+ 2 n2
= n 1 n1 n 1 n1

n
2n
n
2n
+ n(n 1) 1 n2 n(n 1) 1 n1
= n 1 n1 n 1 n1

n
n

2n
= n 1 n1 + n(n 1) 1 n2 n2 1 n1
h

i
1 n
2 n
2 n
1 2n
2
=n 1 n 1 n
+n 1 n 1 n

Obsrvese que si n es grande, entonces E [X] ne1 0.3679n, as que, en promedio,


aproximadamente el 36.79% de las cajas quedan vacas.
En ocasiones este problema se plantea de la siguiente forma: dadas n tarjetas numeradas del 1
al n, se seleccionan, al azar y con reemplazo, n de ellas; entonces, si n es grande, en promedio,
aproximadamente el 36.79% de las tarjetas no son seleccionadas.

Proposicin 9.75 (Desigualdad de Cauchy-Schwarz). Sean X y Y dos variables aleatorias cualesquiera, entonces:
p
p
E [|XY |] E [X 2 ] E [Y 2 ]
p
p
Adems, si X y Y tienen varianza finita, entonces |E [XY ]| = E [X 2 ] E [Y 2 ] si y slo si
existen constantes a y b tales que por lo menos una de ellas es distinta de cero y P [aX + bY = 0] =
1.
Demostracin
Si E [X 2 ] = o E [Y 2 ] = la desigualdad es obvia.
Supongamos ahora que E [X 2 ] < y E [Y 2 ] < , es decir, que tanto X como Y tienen
varianza finita.
1
1
Sea = (E [Y 2 ]) 2 y = (E [X 2 ]) 2 .
Si = 0, se tiene E [X 2 ] = 0, de manera que:
P [|XY | = 0] P [X = 0] = P [X 2 = 0] = 1
Por lo tanto, E [|XY |] = 0. As que se cumple la desigualdad.
De la misma manera, si = 0, entonces E [|XY |] = 0. As que se cumple la desigualdad.
Supongamos ahora que > 0 y > 0.
Sabemos que |X| |Y | tiene varianza finita y se tiene:

9.7. VARIANZA Y DEMS MOMENTOS

237

0 E ( |X| |Y |)2 = 2 E [X 2 ] + 2 E [Y 2 ] 2E [|XY |] = 22 2 2E [|XY |]


As que, E [|XY |] 0. Es decir, E [|XY |] .
Para
parte, supongamos primero que X y Y tienen varianza finita y que |E [XY ]| =
p
p la segunda
E [X 2 ] E [Y 2 ].
1

Definiendo, como antes, = (E [Y 2 ]) 2 y = (E [X 2 ]) 2 , se tiene:


Si = 0 y = 0, entonces P [X = 0] = P [Y = 0] = 1. Por lo tanto P [X = 0, Y = 0] = 1.
De manera que, tomando en consideracin que P [X = 0, Y = 0] P [X + Y = 0], se tiene
P [X + Y = 0] = 1. Es decir, se tiene el resultado deseado con a = b = 1.
Si 6= 0 6= 0 se tienen los siguientes dos casos:
Si E [XY ] > 0, entonces:

0 E (X Y )2 = 22 2 2E [XY ] = 0

As que, E (X Y )2 = 0, de lo cual se sigue P [X Y = 0] = 1


Es decir, se tiene el resultado deseado con a = y b = .
Si E [XY ] < 0, entonces:

0 E (X + Y )2 = 22 2 + 2E [XY ] = 0

As que, E (X + Y )2 = 0, de lo cual se sigue P [X + Y = 0] = 1.


Es decir, se tiene el resultado deseado con a = y b = .
Finalmente, supongamos que existen constantes a y b tales que por lo menos una de ellas
es distinta de cero y P [aX + bY = 0] = 1. Supongamos, por ejemplo, que a 6= 0, entonces
P X = ab Y = 1. As que:
h
2 i
2
2
E [Y 2 ] = E [X 2 ] E [Y 2 ]
(E [XY ])2 = ab 2 (E [Y 2 ]) = E ab Y
Corolario 9.76. Sean X y Y dos variables aleatorias de varianza finita. Entonces
p
p
|Cov(X, Y )| V ar(X) V ar(Y )

Adems, la igualdad se cumple si y slo si existen constantes a, b y c tales que a y b no son


ambas cero y P [aX + bY = c] = 1.
Demostracin
Utilizando la proposicin 9.75, se tiene:
|Cov(X, Y )| = |E [(X E [X]) (Y E [Y ])]| E [|X E [X]| |Y E [Y ]|]
q
q
p
p
2
E (X E [X])
E (Y E [Y ])2 = V ar(X) V ar(Y )

Si la igualdad se cumple, entonces se tiene


q
q

2
|E [(X E [X]) (Y E [Y ])]| = E (X E [X])
E (Y E [Y ])2 .

De manera que, nuevamente por la proposicin 9.75, existen constantes a y b tales que no son
ambas cero y P [a (X E [X]) + b (Y E [Y ]) = 0] = 1. Es decir, P [aX + bY = c] = 1, en
donde c = aE [X] + bE [Y ].
Supongamos ahora que existen constantes a, b y c tales que a y b no son ambas cero y

238

9. ESPERANZAS

P [aX + bY = c] = 1. Entonces E [aX + bY c] = 0, de lo cual se sigue c = E [aX + bY ]. De


manera que se tiene P [a (X E [X]) + b (Y E [Y ]) = 0] = 1. As que, por la proposicin
9.75, se tiene:
p
p
|Cov(X, Y )| = |E [(X E [X]) (Y E [Y ])]| = V ar(X) V ar(Y )

Definicin 9.77 (Momento de orden n). Sea X una variable aleatoria y n un entero no
negativo. Si |X|n tiene esperanza finita, se dice que X tiene momento de orden n finito y a
la cantidad E [X n ] se le llama el momento de orden n de X.
Ejemplo 9.78. Para cualquier n N, encuentre el momento de orden n de una variable
aleatoria con distribucin normal estndar.
Solucin
Sea X una variable aleatoria con distribucin normal estndar. Para cualquier n N, se
tiene:
R
R
1 2
1 2
E [|X|n ] = 12 |x|n e 2 x dx = 22 0 xn e 2 x dx
n R
n
n1 y
22
22
=
y 2 e dy =
( n+1
)<
2
0

As que X tiene momento de orden n finito.

R n 1 x2
0
si n es impar
1
n
R n 1 x2
E [X ] = 2 x e 2 dx =
2
2
x e
dx si n es par
2 0
(
(
0
si n es impar
0
si n es impar
n R
n
=
=
n1 y
2
2
2
2
n+1

(
y 2 e dy si n es par
) si n es par
2
0

0
si n es impar
=
1 3 5 (n 1) si n es par

Proposicin 9.79. Si una variable aleatoria X tiene momento de orden n finito, entonces,
para cualquier entero no negativo m n, X tiene momento de orden m finito.
Demostracin

Para cualquier r N y x R, se tiene |x|r1 1+ |x|r , as que E |X|r1 1 + E [|X|r ].


Por lo tanto, si X tiene momento de orden r finito, entonces tambin tiene momento de orden
r 1 finito, lo cual prueba el resultado.
Ejemplo 9.80. Sea X una variable aleatoria con funcin de densidad f dada por:
c
si x N
xr+2
f (x) =
0
en otro caso

en donde r es un entero no negativo y c =

S 1

1
x=1 xr+2

Sea n un entero no negativo. Si n r, entonces:


P
P
P 1
xn
1
E [|X|n ] = c
x=1 xr+2 = c
x=1 x(rn)+2 c
x=1 x2 <
As que X tiene momento de orden n finito.
Si n > r, entonces:
P
P xnr
P 1
xn
E [|X|n ] = c
x=1 xr+2 = c
x=1 x2 c
x=1 x =
As que X no tiene momento de orden n finito.

9.8. DESIGUALDAD DE CHEBYSHEV

239

9.8. Desigualdad de Chebyshev


Proposicin 9.81. Sea X cualquier variable aleatoria y cualquier nmero real positivo,
entonces:
P [|X| ] 1 E [|X|]

Demostracin

R
R
R
E [|X|] = 0 1 F|X| (x) dx = 0 1 F|X| (x) dx + 1 F|X| (x) dx

R
R
R
0 1 F|X| (x) dx = 0 P [|X| > x] dx 0 P [|X| ] dx = P [|X| ]

Corolario 9.82. Sea X cualquier variable aleatoria y cualquier nmero real positivo, entonces:
Demostracin
P [|X| ] = P [X 2 2 ]

P [|X| ]
1
E
2

1
E
2

[X 2 ]

[X 2 ]

Corolario 9.83 (Desigualdad de Chebyshev). Sea X cualquier variable aleatoria de


esperanza finita y cualquier nmero real positivo, entonces
P [|X E [X]| ]

1
V
2

ar [X]

Ejemplo 9.84. Sea X una variable aleatoria con distribucin binomial de parmetros n y p.
Tomando n = 16, p = 12 y = 2, la desigualdad de Chebyshev establece P [|X 8| < 1] 0,
de lo cual no se obtiene informacin. Adems:
P 35750
= 65536 = 0.5455
P [|X 8| < 2] = P [7 X 9] = 2116 9k=7 16
k
Es decir, la cota que establece la desigualdad de Chebyshev est muy lejos del valor exacto.
Para valores de n grandes, el teorema de de Moivre Laplace establece:

R 1 2

P |Xn np| > x npq 22 x e 2 y dy

mientras que la desigualdad de Chebyshev nos dice:

P |Xn np| > x npq x12


De manera que si x 1 la desigualdad de Chebyshev no da informacin y la cota que establece
puede ser bastante mala, por ejemplo:

R 1 2

P |Xn np| > 0.2 npq 22 0.2 e 2 y dy = 0.8415

Cuando x es muy grande, la desigualdad de Chebyshev establece una cota cercana a cero, la cual
est cercana al valor exacto de la probabilidad, sin embargo, an en ese caso el error relativo
que se comete, tomando la cota de la desigualdad de Chebyshev por la verdadera probabilidad,
es muy grande ya que:
lmx
=

1
2

2
2

U
x

1 2

e 2 y dy

1
x2

lmx

3x
1 2

e2x

= lmx
3
2

1 2
2 e 2 x
2
2
x3

lmx

1
1 2

xe 2 x

1
2

lmx

x3
1 2

e2x

=0

Es decir, el valor aproximado que da la desigualdad de Chebyshev es bastante ms grande que


el valor exacto.

240

9. ESPERANZAS

Como conclusin podemos decir que, para el caso de una distribucin binomial, con parmetro
n grande, es preferible recurrir al teorema de de Moivre Laplace para aproximarla.
1
Ejemplo 9.85. Sea X una variable aleatoria con distribucin geomtrica de parmetro p = 10
.
Para = 10 la desigualdad de Chebyshev establece P [|X 8| < 2] 0.1, pero:
P18 9 k
1
P [|X 9| < 10] = P [X 18] = 10
= 0.8649
k=0 10
Es decir, la cota que establece la desigualdad de Chebyshev est muy lejos del valor exacto.

Ejemplo 9.86. Sea X una variable aleatoria con distribucin exponencial de parmetro = 1.
Para = 1 la desigualdad de Chebyshev establece P [|X 1| < 1] 0, pero:
R2
P [|X 1| < 1] = P [X < 2] = 0 ex dx = 0.8647
Es decir, la cota que establece la desigualdad de Chebyshev est muy lejos del valor exacto.
A pesar de que en general la cota que establece la desigualdad de Chebyshev es mala, sta
puede alcanzarse, como se muestra en el siguiente ejemplo:
Ejemplo 9.87. Sea X una variable aleatoria que admite como posibles valores 1, 0 y 1
con probabilidades p, 1 2p y p, respectivamente, en donde 0 < p < 1. Se tiene entonces,
E [X] = 0 y V ar(X) = 2p, as que, la desigualdad de Chebyshev establece P [|X| ] 2p
2
para cualquier > 0. Para valores de mayores que 1 pero cercanos a 1 y valores de p
cercanos a 12 , la cota que establece la desigualdad de Chebyshev es cercana a 1. Por ejemplo,
= 0.9607, pero P [|X| ] = 0 para cualquier > 1. De
para = 1.01 y p = 0.49, se tiene 2p
2
manera que en este caso la cota que establece la desigualdad de Chebyshev es bastante burda.
Sin embargo, para = 1, se tiene P [|X| ] = 2p, es decir, la cota se alcanza.
La desigualdad de Chebyshev puede utilizarse para resolver algunos problemas de estimacin.
Sin embargo, como en muchos casos la cota que establece es muy burda, el mtodo en general
no es muy bueno, tal como se muestra en los siguientes ejemplos:
Ejemplo 9.88. Supongamos que para decidir si una moneda est balanceada, la lanzamos
10, 000 veces y rechazamos la moneda como balanceada si el nmero de soles que se obtienen
difiere de 5, 000 en k o ms, en donde k es un nmero por determinar, de tal manera que,
estando balanceada, la probabilidad de rechazar la moneda sea a lo ms 0.01. Si llamamos X
al nmero de soles en los 10, 000 lanzamientos y suponemos que la moneda est balanceada,
la desigualdad de Chebyshev establece:
P [|X 5, 000| k] 2,500
k2

De manera que si tomamos k de tal forma que 2,500


0.01, es decir k 500, la probabilidad
k2
de rechazar una moneda balanceada es menor que 0.01.
El procedimiento con cualquier k 500, digamos k = 500, es bueno en tanto que satisface
la condicin de rechazar una moneda balanceada con probabilidad menor o igual a 0.01. Sin
embargo, veamos el resultado que se obtiene utilizando el teorema de de Moivre Laplace, de
acuerdo al cual se tiene:
k

R k0.5
1 2
k
50
P [|X 5, 000| < k] = P 50
< X5000
< 50
e 2 x dx 0.99
12 k0.5
50
50

k0.5
50

2.575, es decir k 130, se tiene P [|X 5, 000| < k] 0.99


De manera que tomando
As que basta con tomar k 130 para que la probabilidad de rechazar una moneda balanceada
sea menor que 0.01.

9.8. DESIGUALDAD DE CHEBYSHEV

241

Obviamente, tomando k = 500 se satisface el requerimiento de que la probabilidad de rechazar


una moneda balanceada sea menor que 0.01, sin embargo, de esta manera el margen dentro del
cual no se rechaza la moneda es ms amplio, as que la probabilidad de aceptar una moneda no
balanceada resulta bastante ms alta que tomando k = 130. En efecto, si p es la probabilidad
real de que la moneda caiga sol, tomando k = 500, la probabilidad f (p) de que la moneda se
acepte est dada por:

R 54.995100p
1 2
p(1p)
45100p
Xnp
55100p
1

f (p) = P [4500 < X < 5500] = P


= 2 45.005100p
< npq <
e 2 x dx

p(1p)

p(1p)

p(1p)

Mientras que, tomando k = 130, la probabilidad g(p) de que la moneda se acepte est dada
por:

R 51.295100p
1 2
p(1p)
48.7100p
Xnp
51.3100p
1

2 48.705100p
< npq <
e 2 x dx
g(p) = P [4870 < X < 5130] = P

p(1p)

p(1p)

p(1p)

La grfica siguiente muestra f en lnea slida y g punteada, observndose la notable diferencia


entre ellas para algunos valores de p. Por ejemplo, f (0.46) = 0.977055, mientras que g(0.46) =
2.85912 108 .
1
0.8
0.6
0.4
0.2

0 0.4 0.42 0.44 0.46 0.48 0.5

0.52 0.54 0.56 0.58 0.6

Ejemplo 9.89. Una poblacin muy grande est compuesta de dos clases de peces. Para
estimar la proporcin de peces de cada una de las clases, tomamos una muestra y la proporcin
de peces de tipo I que se obtenga en la muestra la tomamos como la proporcin de peces de tipo
I en la poblacin. De qu tamao debe de ser la muestra para garantizar que la probabilidad
de cometer un error menor que 0.01 con esta estimacin sea mayor o igual que 0.95?
Solucin
Si p es la proporcin de peces de tipo I en la poblacin, n el tamao de la muestra y X el
nmero de peces de tipo I que se obtienen en la muestra, entonces X tieneaproximadamente

distribucin binomial y se estn buscando los valores de n para los cuales P Xn p < 0.01
0.95.
La desigualdad de Chebyshev establece:

P Xn p 0.01 np(1p)
2500
(0.01n)2
n
De manera que tomando 2500
0.05, es decir n 50000, se obtiene el resultado deseado.
n
Por otra parte, el teorema de de Moivre Laplace establece:

242

9. ESPERANZAS

P X
n

1
2

0.01n

p < 0.01 = P

npq
R .01n
npq

.01n

npq

1 2

e 2 x dx

1
2

.01n
1 n
2
1.01n

2 n

Xnp

npq

<

0.01n

npq

1 2

e 2 x dx

1.96, es decir n 9604, se obtiene el resultado deseado, lo


De manera que tomando 0.01n
1
n
2
cual muestra que la desigualdad de Chebyshev da un resultado muy burdo.
Por lo expuesto anteriormente, pareciera que, al establecer estimaciones muy burdas, la desigualdad de Chebyshev no tiene gran utilidad. Sin embargo, esto no es as pues sta permite
la demostracin de resultados fundamentales en la Teora de la Probabilidad. Pafnuty Lvovich
Chebyshev la demostr en 1867 en un artculo en el cual mostr que el teorema de Bernoulli
(ver proposicin 7.4) se puede generalizar para obtener lo que se conoce actualmente como
la Ley Dbil de los Grandes Nmeros, la cual fue uno de los resultados que hicieron avanzar
fuertemente las investigaciones alrededor de los llamados teoremas lmite de la Teora de la
Probabilidad.
Recordemos que el teorema de Bernoulli establece que si p es la probabilidad de ocurrencia
de un evento A, en un determinado experimento aleatorio, entonces, llamando Xn al nmero
de veces que ocurre A al realizar n repeticiones independientes del experimento, se tiene:

lmn P Xnn p > = 0


para cualquier nmero > 0.
Utilizando la desigualdad de Chebyshev, este resultado se demuestra como sigue:

P Xnn p > = P [|Xn np| > n] = P [|Xn E [Xn ]| > n]

= p(1p)
P [|Xn E [Xn ]| n] n212 V ar [Xn ] = np(1p)
n2 2
n2
As que:

lmn P Xnn p > lmn p(1p)


=0
n2
En el ao 1800, Simon Denis Poisson demostr una generalizacin del teorema de Bernoulli al
considerar una sucesin indefinida de ensayos independientes de tal forma que la probabilidad
de xito en el ensayo n es igual a pn . Entonces, llamando Xn al nmero de xitos que se
obtienen en los primeros n ensayos, se tiene:

i
h
Xn 1 Pn

lmn P n n j=1 pj > = 0


para cualquier nmero > 0.
Utilizando la desigualdad de Chebyshev, este resultado se demuestra como sigue:

i
h
i
h
P
P

P Xnn n1 nj=1 pj > = P Xn nj=1 pj > n = P [|Xn E [Xn ]| > n]


1
V
n2 2

P [|Xn E [Xn ]| n]
ar [Xn ] =
As que:

i
h

Xn 1 Pn
lmn P n n j=1 pj > lmn

Sn

pj (1pj )
n2 2

j=1

1
4n2

1
n
4
n2 2

1
4n2

=0

Las formas generales de estos resultados se expondrn en el segundo volumen de este libro.

9.9. FUNCIONES GENERADORAS

243

9.9. Funciones generadoras


En esta seccin vamos a introducir dos nuevos conceptos, el de funcin generadora de probabilidades y el de funcin generadora de momentos. El origen de ambos se remonta a Abraham
de Moivre, quien, al resolver el problema de la determinacin de la probabilidad de obtener
una suma dada al lanzar n dados, introdujo un mtodo que, al generalizarse, dara origen a
una herramienta poderosa para el estudio de sumas de variables aleatorias independientes.
El problema que se plante de Moivre es el siguiente: dados un nmero natural n y un nmero
entero m, comprendido entre n y 6n, cul es la probabilidad de obtener una suma igual a m
al lanzar n dados?
Para resolver este problema, de Moivre consider un nmero entero positivo t y n dados
balanceados imaginarios, cada uno con t + t2 + + t6 caras, de tal manera que t de ellas estn
marcadas con el nmero 1, t2 con el nmero 2, etc. Consider entonces el experimento aleatorio
consistente en el lanzamiento de esos n dados imaginarios, para el cual hay (t + t2 + + t6 )n
posibles resultados equiprobables. Entonces, el total de formas en que puede obtenerse una
suma igual a m, al lanzar los dados imaginarios, est dado por el trmino que contiene a tm
en el desarrollo de (t + t2 + + t6 )n . Adems:
in
h
6
n
n
= tn (1 t6 ) (1 t)n
(t + t2 + + t6 ) = t 1t
1t
Pn
P n+k1 k
k n 6k
= tn
t
k=0 (1) k t
k=0
n1
Ahora bien, dado un nmero entero no negativo y, al desarrollar el producto
P n+k1 k
Pn
k n 6k
(1)
t
t
k=0
k=0
k
n1
y
los trminos que contienen t son aquellos que se obtienen de multiplicar un trmino del
primer factor conteniendo t6k , para alguna k tal que y 6k, con un trmino del segundo
factor conteniendo ty6k . De manera que:
Pn
P n+k1 k P P

y
k n 6k
t = y=0 {k:0k y } (1)k nk n+y6k1
t
k=0 (1) k t
k=0
n1
n1
6

As que:

P P
n
k n n+y6k1 y
(t + t2 + + t6 ) = tn
t
y (1)
y=0
k:0k
k
n1
{
6}

P P
P
P
k n x6k1 x
= y=0 {k:06ky} (1)k nk n+y6k1
tn+y =
t
x=n
{k:06kxn} (1) k
n1
n1
Por lo tanto, si S es la suma de los nmeros que se obtienen al lanzar los n dados imaginarios,
se tiene:

P
1
k n m6k1 m
P [S = m] = (t+t2 ++t
t
6 )n
{k:06kmn} (1) k
n1

Finalmente, la solucin al problema original se obtiene haciendo t = 1, as que la probabilidad


pm de obtener una suma igual a m, al lanzar los n dados originales, est dada por:

P
pm = 61n {k:06kmn} (1)k nk m6k1
n1
Por ejemplo, la probabilidad de obtener una suma igual a 11, al lanzar 3 dados, est dada
por:

10
4 1
P
P1
1
1
k 3 106k
p3 = 613 {k:06k8} (1)k k3 106k
(1)
=
=

3
=8
3
3
k=0
2
k
2
2
2
6
6

244

9. ESPERANZAS

9.9.1. Funcin generadora de probabilidades. El mtodo utilizado por de Moivre


en la solucin del problema planteado en la introduccin de esta seccin motiva la siguiente
definicin:
Definicin 9.90 (Funcin generadora de probabilidades). Sea X una variable aleatoria
discreta que admite como posibles valores nicamente enteros no negativos. A la funcin X
definida por:
X
P
k
P
[X
=
k]
t
=
E
t
X (t) =
k=0
P
para todos aquellos nmeros reales t para los cuales la serie k=0 P [X = k] tk converja absolutamente, se le llama la funcin generadora de probabilidades de X.
Ejemplo 9.91. Sea X una variable con distribucin binomial negativa de parmetros r y p,
entonces:
h
ir
X
P x r+x1
r
p
r
x
r
X (t) = E t = p
(1 p) = p [1 t(1 p)] = 1t(1p)
x=0 t
x
para todos los nmeros reales t tales que |t(1 p)| < 1, es decir, |t| <

1
.
1p

Obsrvese que, dada cualquier variable aleatoriaP


discreta X que admita como posibles va
k
lores nicamente enteros no negativos, la serie
k=0 P [X = k] t converge absolutamente
para
acotada por la serie convergente
P cualquier t [1, 1] pues en ese caso
Pdicha serie est
k
1. Adems, si la serie k=0 P [X = k] t0 converge para alguna t0 > 0 y t
k=0 P [X = k] =P
P
P
k
k
k
[t0 , t0 ], entonces
k=0 P [X = k] |t|
k=0 P [X
= k] t0 , as quePlaserie k=0 P k[X = k] t
converge absolutamente. Por lo tanto, si tX = sup t > 0 : la serie
k=0 P [X = k] t converge ,
P
k
entonces tX 1 y la serie k=0 P [X = k] t converge absolutamente para cualquier t
(tX , tX ) y diverge para cualquier t (tX , ) (, tX ). De esta forma, la funcin generadora de probabilidades de X est definida ya sea en el intervalo (tX , tX ) o bien en el
intervalo [tX , tX ].
El siguiente ejemplo muestra que la funcin generadora de probabilidades de una variable
aleatoria X puede estar definida nicamente en el intervalo [1, 1].
Ejemplo 9.92. Sea X una variable aleatoria con funcin de densidad dada por:
c
si x N
x2
fX (x) =
0 en otro caso
P
tx
en donde c es una constante
P c xpositiva tal que x=1 fX (x) = 1. Si t > 1, se tiene lmx x2 =
, as que la serie x=1 x2 t no converge. Por lo tanto, la funcin generadora de probabilidades de X est definida nicamente en el intervalo [1, 1].
Las siguientes dos proposiciones establecen dos de las propiedades bsicas de la funcin generadora de probabilidades.
Proposicin 9.93. Sean X y Y dos variables aleatorias discretas que admiten como posibles
valores nicamente enteros no negativos y sean X y Y sus respectivas funciones generadoras
de probabilidades. Supongamos adems que X (t) = Y (t) para cualquier t [1, 1], entonces
X y Y tienen la misma funcin de densidad.

9.9. FUNCIONES GENERADORAS

245

Demostracin
Por el teorema 7 del Apndice, para cualquier t (1, 1), se tiene que tanto X como Y
tienen derivadas de cualquier orden en t y, adems:
P
P
k
k
X (t) =
k=0 P [X = k] t = P [X = 0] +
k=1 P [X = k] t
P
P
k1
k1
0X (t) =
= P [X = 1] +
k=1 kP [X = k] t
k=2 kP [X = k] t
P
P
k2
k2
00X (t) =
= 2!P [X = 2] +
k=2 k(k 1)P [X = k] t
k=3 k(k 1)P [X = k] t
P
P
k3
k3
000
= 3!P [X = 3]+
X (t) =
k=3 k(k1)(k2)P [X = k] t
k=4 k(k1)(k2)P [X = k] t
..
.
P
(n)
k!
kn
X (t) = n!P [X = n] +
k=n+1 (kn)! P [X = k] t
(n)

en donde X es la n-sima derivada de X .


De aqu se sigue que:
(n)

X (0) = n!P [X = n]
De la misma manera, se tiene:
(n)

Y (0) = n!P [Y = n]
(n)

(n)

Pero como X (t) = Y (t) para cualquier t [1, 1], entonces X (0) = Y (0) para cualquier
n {0, 1, . . .}, de lo cual se sigue el resultado.
Proposicin 9.94. Sean X y Y dos variables aleatorias discretas que admiten como posibles
valores nicamente enteros no negativos y sean X y Y sus respectivas funciones generadoras
de probabilidades. Supongamos adems que X y Y son independientes, entonces X+Y (t) =
X (t)Y (t) para cualquier t en la interseccin de los dominios de definicin de X y Y .
Demostracin

Como X y Y son independientes, se tiene E tX+Y = E[tX ]E[tX ], as que t pertenece al


dominio de definicin de X+Y si y slo si t pertenece a la interseccin de los dominios de
definicin de X y Y . Adems, para una t con esa propiedad, se tiene:

X+Y (t) = E tX+Y = E[tX ]E[tX ] = X (t)Y (t)

Ejemplo 9.95. Sean X y Y dos variable aleatorias independientes, ambas con distribucin
binomial negativa de parmetros r, p y s, p, respectivamente, entonces, para cualquier t [0, 1],
se tiene:
ir h
is h
ir+s
h
p
p
p
=
X+Y (t) = X (t)Y (t) = 1t(1p)
1t(1p)
1t(1p)
As que X + Y tiene distribucin binomial negativa de parmetros r + s y p.

Proposicin 9.96. Sea X una variable aleatoria discreta que admite como posibles valores
nicamente enteros no negativos y sea X su funcin generadora de probabilidades. Supongamos adems que tX > 1. Entonces todos los momentos de X son finitos y, para cualquier
n N, se tiene:
(n)

(n)

E [X(X 1) (X n + 1)] = X (1)

en donde X es la n-sima derivada de X .

246

9. ESPERANZAS

Demostracin
Por el teorema 7 del Apndice, para cualquier t (tX , tX ), X tiene derivadas de cualquier
orden en t y, adems:
P
k
X (t) =
k=0 P [X = k] t
P
k1
0X (t) =
k=1 kP [X = k] t
P
k2
00X (t) =
k=2 k(k 1)P [X = k] t
P
k3
000
X (t) =
k=3 k(k 1)(k 2)P [X = k] t
..
.
P
(n)
kn
X (t) =
k=n k(k 1)(k 2)(k n + 1)P [X = k] t
De aqu se sigue que:
P
(n)
X (1) =
k=n k(k 1)(k 2)(k n + 1)P [X = k] = E [X(X 1) (X n + 1)]
Ejemplo 9.97. Sea X una variable con distribucin binomial negativa de parmetros r y p,
entonces: h
ir
1
r
X (t) = p 1t(1p)
h
ir1
h
ir+1
1p
1
1
r
0X (t) = rpr 1t(1p)
=
r(1

p)p
1t(1p)
[1t(1p)]2
ir
h
ir+2
h
1p
1
1
2 r
00X (t) = r(1 p)pr (r + 1) 1t(1p)
=
r(r
+
1)(1

p)
p
1t(1p)
[1t(1p)]2
As que:
0
E [X] = X (1) = r 1p
p

E [X(X 1)] = 00X (1) = r(r + 1)

1p
p

1p
p

E [X ] = E [X(X 1)] + E [X] = r(r + 1)


+ r 1p
p
2
2
2
1p
1p
2
2 1p
V ar(X) = E [X ] (E [X]) = r(r + 1) p
+r p r
p

2
1 + 1p
= r 1p
= r 1p
+ r 1p
= r 1p
p
p
p
p
p2
2

La proposicin 9.96 permite calcular la esperanza de una variable aleatoria, con valores enteros
no negativos, a partir de su funcin generadora de probabilidades para el caso en que esta
ltima est definida en una vecindad de t = 1. Sin embargo, como muestra el ejemplo 9.92,
la funcin generadora pudiera estar definida nicamente en el intervalo [1, 1]. La siguiente
proposicin permite el clculo de la esperanza, cuando es finita, en esta situacin.
Proposicin 9.98. Sea X una variable aleatoria discreta de esperanza finita que admite
como posibles valores nicamente enteros no negativos y sea X su funcin generadora de
probabilidades. Entonces
E [X] = lmt1 0X (t)
Demostracin
P
k1
Por el teorema 7 del Apndice, la serie
converge absolutamente para
k=1 kP [X = k] t
t [0, 1) y, como X tiene esperanza finita, tambin se tiene la convergencia absoluta para

9.9. FUNCIONES GENERADORAS

247

x = 1. P
As que, Por el teorema 8 del Apndice,
si definimos f : [0, 1] 7 R mediante la relacin
P
k1
f (t) =
kP
[X
=
k]
t
,
entonces
kP
[X = k] = lmx1 f (x).
k=1
k=1
Adems, tambin
7 del Apndice, para cualquier t [0, 1), X es derivable en
P por el teorema
k1
t y 0X (t) =
kP
[X
=
k]
t
= f (t).
k=1
Por lo tanto:
P
mt1 f (t) = lmt1 0X (t)
E [X] =
k=1 kP [X = k] = l

Ejemplo 9.99 (Duracin esperada del juego en el problema de la ruina del jugador).
Dos jugadores, A y B, los cuales poseen, respectivamente, a y b fichas, juegan partidas consecutivas en cada una de las cuales las probabilidades de que A y B ganen son, respectivamente,
p y q = 1 p y de tal manera que en cada una de ellas el perdedor dar una de sus fichas al
vencedor. Si el juego se termina en el momento en que alguno de los dos jugadores llegue a
poseer la totalidad de fichas, cul es la duracin esperada del juego?
Solucin
El experimento aleatorio E asociado con este problema puede verse como la realizacin de una
sucesin de ensayos de Bernoulli B1 , B2 , . . ., en donde Bi es xito si el jugador A gana la
i-sima partida.
Sea t = a + b 1 y, para cada n N, definamos el evento:
An : Alguno de los dos jugadores se arruina en alguno de los primeros n ensayos.
k
Demostremos primero que P (Ackt ) (1 pt ) para cualquier k N. La demostracin ser
por induccin:
Si A gana las primeras b partidas, entonces ocurre At , as que P (At ) pb pt . Por lo tanto
P (Act ) 1 pt .
k

Supongamos ahora que la desigualdad P (Ackt ) (1 pt ) se cumple para k = m N, entonces:

P Ac(m+1)t = P Ac(m+1)t Acmt = P (Acmt ) P A(m+1)t Acmt

= P (Acmt ) P A(m+1)t | Acmt P (Acmt )


hasta quedarse
Pero, dado que Acmt ocurre, Si A gana consecutivamente las siguientes partidas

con todas las fichas, entonces ocurre A(m+1)t , as que P A(m+1)t | Acmt pt . Por lo tanto:

P Ac(m+1)t = P (Acmt ) P A(m+1)t | Acmt P (Acmt )


m

m+1

P (Acmt ) pt P (Acmt ) = (1 pt ) P (Acmt ) (1 pt ) (1 pt ) = (1 pt )


Sea ahora T el nmero de ensayo en el cual alguno de los dos jugadores queda arruinado.
Entonces, se tiene:
k
P [T > tk] = P (Actk ) (1 pt ) para cualquier k N
As que:
P
P
E [T ] =
n=1 P [T n] = 1 +
n=1 P [T > n]
= 1 + P [T > 1] + + P [T > t] + P [T > t + 1] + + P [T > 2t] + =
1 + tP [T > 1] + tP [T > t] + tP [T > 2t] +
P
P
t
t k
1+t+t
k=1 P [T > tk] 1 + t
k=0 (1 p ) = 1 + pt <

248

9. ESPERANZAS

Sea T0 = Ta+b = 0 y, para z {1, . . . , a + b 1}, sea Tz el nmero de ensayo en el cual


alguno de los dos jugadores queda arruinado a partir del momento en que el jugador A tiene
z fichas. Sea adems, para z {0, . . . , a + b}, z la funcin generadora de probabilidades de
Tz .
Se tiene P [T0 = 0] = P [Ta+b = 0] = 1, as que 0 (t) = a+b (t) 1.
Para z {1, . . . , a + b 1}, se tiene P [Tz = 0] = 0 y, si n N:
P [Tz = n] = pP [Tz+1 = n 1] + qP [Tz1 = n 1]
As que:
P
k
z (t) = E tTz =
k=1 t P [Tz = k]
P
P k
k
=p
k=1 t P [Tz+1 = k 1] + q
k=1 t P [Tz1 = k 1]
P k1
P
= pt k=1 t P [Tz+1 = k 1] + qt
tk1 P [Tz1 = k 1]
P k
P k k=1
= pt k=0 t P [Tz+1 = k] + qt k=0 t P [Tz1 = k]
= ptz+1 (t) + qtz1 (t)
Por lo tanto, para cualquier t (0, 1), se tiene:
0z (t) = pt0z+1 (t) + qt0z1 (t) + pz+1 (t) + qz1 (t)
De manera que, tomando lmites cuando t tiende a 1 por la izquierda y utilizando la proposicin
9.98, se tiene:
E [Tz ] = pE [Tz+1 ] + qE [Tz1 ] + 1
Para encontrar el valor de E [Tz ] tenemos que resolver entonces la ecuacin en diferencias:
mz = pmz+1 + qmz1 + 1 para z {1, . . . , a + b 1}
Una solucin particular de esta ecuacin est dada por:

z 2 si p = q
z =
z
si p 6= q
qp
Si { z }z{0,1,...,a+b} es otra solucin, entonces z = z z es solucin de:

z = p z+1 + q z1 para z {1, . . . , a + b 1}


Para encontrar la solucin general de esta ecuacin, la escribiremos en la siguiente forma
equivalente, la cual se obtiene escribiendo z = z (p + q).

q z z1 = p z+1 z
Supongamos primero que p = q, entonces se tiene:
1 0 = 2 1 = = a+b a+b1 = c
en donde c es una constante. As que, para z {1, . . . , a + b}:

P
z 0 = zk=1 k k1 = cz
Por lo tanto, z = 0 + cz
Supongamos ahora p 6= q. En este caso tenemos, para z {1, . . . , a + b 1}:

Q
Q
qz zk=1 k k1 = pz zk=1 k+1 k
As que:
z
z+1 z = pq ( 1 0 )
y entonces, para z {1, . . . , a + b}:

9.9. FUNCIONES GENERADORAS

z 0 =

249

Pz1
Pz1 q k
1( pq )

)
=
(

=
(
k+1
k
1
0
1
0
k=0
k=0 p
1 q
p

Por lo tanto:

z = 1 + ( 1 1)

1( pq )
1 pq

=A+B

en donde A y B son constantes.


As que:
(
0 + cz si p = q
z
z =
A + B pq
si p 6= q
Por lo tanto:

z = z + z =

z
q
p

z 2 + 0 + cz si p = q
z
q
z
+
A
+
B
si p 6= q
qp
p

es la solucin general de la ecuacin original.


As que:
(
z 2 + 0 + cz si p = q
z
mz =
z
+ A + B pq
si p 6= q
qp

Ahora bien, como m0 = ma+b = 0, se tiene:

si p = q
0
0=
A + B si p 6= q
(
(a + b)2 + 0 + c(a + b) si p = q
a+b
0=
a+b
+ A + B pq
si p 6= q
qp
As que:
a+b
0 = 0; c = a + b; A = qp

1
a+b ;
1( pq )

B = A

Por lo tanto:

(
si p = q
(a + b z)z
z 2 + (ah+ b)z i si p = q
q z
z
1
(
)
mz =
=
p
z
a+b
z
si p 6= q
+ A 1 pq
qp qp 1 q a+b si p 6= q
qp
(p)
Para el problema planteado inicialmente, en el cual el jugador A comienza con a fichas y el
jugador B con b fichas, se tiene:

si p = q
ab
q a
E [T ] =
a
a+b 1( p )
qp qp 1 q a+b si p 6= q
(p)
9.9.2. Funcin generadora de momentos.

Definicin 9.100 (Funcin generadora de momentos). Sea X una variable aleatoria. A


la funcin MX definida por:
MX (t) = E[etX ]
para todos aquellos nmeros reales t para los cuales etX tenga esperanza finita, se le llama la
funcin generadora de momentos de X

250

9. ESPERANZAS

Ejemplo 9.101. Sea X una variable con distribucin gama de parmetros y , entonces:
R
R 1 e(t)x
1 x
dx
MX (t) = E[etX ] = 0 etx x ()e dx = 0 x ()

R (t) x1 e(t)x

dx = t
= (t)

()
0
para todos los nmeros reales t tales que t > 0, es decir, t < .

Ejemplo 9.102. Sea X una variable con distribucin normal estndar, entonces
R
R
1 2
1
2
MX (t) = E[etX ] = etx 12 e 2 x dx = 12 etx e 2 (x 2tx) dx
R
1 2 R
1
1 2
1 2
1 2
2
= 12 e 2 t e 2 (xt) dx = e 2 t 12 e 2 y dy = e 2 t

para cualquier nmero real t.


Ahora, si Y es una variable con distribucin normal de parmetros y 2 , entonces X = Y
2
tiene distribucin normal estndar, as que:

1 2 2
2
2
MY (t) = E[etY ] = E[et(+ X) ] = et E[e tX ] = et MX ( 2 t) = et e 2 t = exp t + 12 2 t2
para cualquier nmero real t.
Obsrvese que etX tiene esperanza finita por lo menos para t = 0. El siguiente ejemplo
muestra que la funcin generadora de momentos de una variable aleatoria X puede estar
definida nicamente en t = 0.
Ejemplo 9.103. Sea X una variable aleatoria con distribucin Cauchy, es decir, con funcin
1
de densidad dada por fX (x) = (1+x
2 ) para cualquier x R.
R etx
tx
e
etx
mx 1+x
Si t > 0, se tiene lmx 1+x
2 = , as que 0
2 dx = . Si t < 0, se tiene l
2 =
1+x
R 0 etx
, as que 1+x2 dx = . Por lo tanto:
R etx
R
etx
1 0
dx = para cualquier t 6= 0.
MX (t) = E[etX ] = 1 0 1+x
2 dx +
1+x2

Ejemplo
9.104. Sea X una variable aleatoria con funcin de densidad dada por fX (x) =

1 |x|
e
para cualquier x R.
4

Si t > 0, se tiene lmx (tx x) = lmx (t x 1) x = , as que 0 etx x dx = .

Si t < 0, se tiene lmx (tx x) = lmx (t x 1) x = as que 0 etx x dx =


.
Por lo tanto:

R
R
R0
MX (t) = E[etX ] = etx e |x| dx = 0 etx x dx + etx x dx

R
R
= 0 etx x dx + 0 etx x dx = para cualquier t 6= 0.

Por otra parte, definiendo Z = etX , se tiene, para z > 0:

FZ (z) = P etX z = P [tX ln z]


FX( 1t ln z) si t > 0
P X 1t ln z si t > 0
=
=
P X 1t ln z si t < 0
P X 1t ln z si t < 0
As que:
R
MX (t) = E[etX ] = E[Z] = 0 [1 FZ (z)] dz
R

1 FX ( 1t ln z) dz si t > 0
0
R
=

FX ( 1t ln z)dz
si t < 0
0

9.9. FUNCIONES GENERADORAS

251

R
t
etx dx si t > 0
R [1 FX (x)]
=
tx
t
FX (x)e dx
si t < 0
( R
R0
t 0 [1 FX (x)] etx dx + t [1 FX (x)] etx dx si t > 0
R0
R
=
t FX (x)etx dx t 0 FX (x)etx dx
si t < 0
R
R
0
= 1 + t 0 [1 FX (x)] etx dx t FX (x)etx dx
R0
Para t > 0, la integral FX (x)etx dx siempre es finita, por lo tanto, MX (t) < si y slo si
R
R
tx
[1

F
(x)]
e
dx
<
;
mientras
que
si
t
<
0,
la
integral
[1 FX (x)] etx dx siempre es
X
0
0
R0
finita, por lo tanto MX (t) < si y slo si FX (x)etx dx < .
R
Si 0 [1R FX (x)] et0 x dx < para alguna t0 > 0 y 0 < t < t0 , entonces etx < et0 x para x > 0,

as que 0 [1 FX (x)] etx dx < . Por lo tanto MX (t) < para cualquier t [0, t0 ].
R0
Si FX (x)es0 x dx < para alguna s0 < 0 y s0 < t < 0, entonces etx < es0 x para x < 0, as
R0
que FX (x)et0 x dx < . Por lo tanto MX (t) < para cualquier t [s0 , 0].
De esta forma, la funcin generadora de momentos de X est definida en un intervalo de
extremos s0 y t0 .
Proposicin 9.105. Sea X una variable aleatoria y MX su funcin generadora de momentos.
Supongamos adems que MX est definida en una vecindad de 0. Entonces todos los momentos
de X son finitos y
k
P
tk
MX (t) =
E
X .
k=0 k!
Demostracin
Definiendo Z = |X|k , se tiene, para z > 0:
i
h 1
i
i
h
i
h
h
1
1
1
1
FZ (z) = P |X|k z = P |X| z k = P z k X z k = FX (z k ) P X < z k

As que:

i
R
Rh
1
1
E[|X|k ] = 0 [1 FZ (z)] dz = 0 1 FX (z k ) + FX (z k ) dz
R
= k 0 [1 FX (x) + FX (x)] xk1 dx
R
R
= k 0 [1 FX (x)] xk1 dx + k 0 FX (x)xk1 dx
R
R
= k 0 [1 FX (x)] xk1 dx + k 0 FX (x)xk1 dx
R
R0
= k 0 [1 FX (x)] xk1 dx + k FX (x) |x|k1 dx
Ahora bien, recordemos que se tiene:
R
R0
MX (t) = 1 + t 0 [1 FX (x)] etx dx t FX (x)etx dx
de 0, as que existen t1 P
> 0 y t2 < 0
y que, porR hiptesis, MX es finita en una
R 0 vecindad

tk k
t1 x
t2 x
tx
tales que 0 [1 FX (x)] e dx < y FX (x)e dx < . Adems, e =
k=0 k! x , as
que xk tk!k et1 x para cualquier x > 0 y cualquier k y |x|k |t|k!k et2 x para cualquier x < 0 y
cualquier k.
R0
R
Por lo tanto, 0 [1 FX (x)] xk1 dx < y FX (x) |x|k1 dx < , as que E[|X|k ] < .
Para k impar, definiendo Y = X k , se tiene:

252

9. ESPERANZAS

i
h
k

1
1
k
FY (y) = P X y = P X y = FX (y k )

As que:
R
R0
E[X k ] = 0 [1 FY (y)] dy FY (y)dy
i
R0
Rh
1
1
= 0 1 FX (y k ) dy FX (y k )dy
R
R0
= k 0 [1 FX (x)] xk1 dx k FX (x)xk1 dx
R0
R
= k 0 [1 FX (x)] xk1 dx k FX (x)xk1 dx
Por otra parte, si k es par:
R
R0
E[X k ] = E[|X|k ] = k 0 [1 FX (x)] xk1 dx + k FX (x) |x|k1 dx
R0
R
= k 0 [1 FX (x)] xk1 dx k FX (x)xk1 dx
As que, en cualquier caso, para k > 0:
R
R0
E[X k ] = k 0 [1 FX (x)] xk1 dx k FX (x)xk1 dx
Por lo tanto:

P
Pn tk k
k
= 1 + nk=1 tk! E X k
k=0 k! E X
R
R0
P
P
k
k
= 1 + nk=1 tk! k 0 [1 FX (x)] xk1 dx nk=1 tk! k FX (x)xk1 dx
R
R0
P
Pn1 tk k
tk k
= 1 + t 0 [1 FX (x)] n1
k=0 k! x dx t FX (x)
k=0 k! x dx
P
k
Pero como etx = lmn nk=0 tk! xk , se tiene2
R
R
P
tk k
tx
lmn 0 [1 FX (x)] n1
k=0 k! x dx = 0 [1 FX (x)] e dx
R0
R
P
Pn1 (t)k k
tk k
x
dx
=
l
m
F
(x)
lmn FX (x) n1
n
X
k=0 k!
k=0 k! x dx
0
R
R
0
= 0 FX (x)etx dx = FX (x)etx dx
Por lo tanto:

P
P tk k
k
= lmn nk=0 tk! E X k
k=0 k! E X
R0
R
= 1 + t 0 [1 FX (x)] etx dx t FX (x)etx dx = MX (t)
Corolario 9.106. Sea X una variable aleatoria y sea MX su funcin generadora de momentos. Supongamos adems que MX est definida en una vecindad de 0. Entonces, para
cualquier n N, se tiene:
(n)

E[X n ] = MX (0)
(n)

en donde MX denota la ensima derivada de MX .


Ejemplo 9.107. Sea X una variable aleatoria con distribucin uniforme en el intervalo [a, b],
entonces:
2Para

t > 0 el primer lmite se obtiene del teorema 20 del Apndice. Lo mismo puede decirse del segundo
lmite para t < 0. En los otros casos el resultado tambin es vlido pero se justifica con el teorema de
convergencia dominada de Lebesgue, cuya demostracin requiere de herramientas no desarrolladas en este
libro.

9.9. FUNCIONES GENERADORAS

253

1 tb
ta
R

e
e
si t 6= 0
b
1
t(ba)
MX (t) = E[etX ] = ba
etx dx =
a
1
si t = 0
tb

tb

1
1
0
ta
ta
MX (t) = t(ba) be ae t2 (ba) e e
2 tb

tb

tb

1
2
2
b e a2 eta t2 (ba)
be aeta + t3 (ba)
e eta
MX00 (t) = t(ba)

As que:

tb

tb
i
1
be aeta t2 (ba)
e eta = 12 (a + b)
h
2 tb

tb

tb
i
1
2
2
2
2 ta
ta
ta
E[X ] = lmt0 t(ba) b e a e t2 (ba) be ae + t3 (ba) e e
E[X] = lmt0

1
t(ba)

= 13 (a2 + ab + b2 )

V ar(X) = E[X 2 ] (E[X])2 = 13 (a2 + ab + b2 ) 14 (a + b)2 =

1
12

(b a)2

Las siguientes dos proposiciones establecen dos de las propiedades bsicas de la funcin generadora de momentos. La demostracin de la primera de ellas requiere de herramientas no
desarrolladas en este libro. Puede consultarse una demostracin en Billingsley, P., Probability
and Measure, John Wiley, 1979.
Proposicin 9.108. Sean X y Y dos variables aleatorias y sean MX y MY sus respectivas
funciones generadoras de momentos. Supongamos adems que MX y MY estn definidas y
son iguales en una vecindad de 0, entonces X y Y tienen la misma distribucin.
Proposicin 9.109. Sean X y Y dos variables aleatorias independientes y sean MX y MY
sus respectivas funciones generadoras de momentos. Entonces MX+Y (t) = MX (t)MY (t) para
cualquier t en la interseccin de los dominios de definicin de MX y MY .
Demostracin
Como X y Y son independientes, se tiene E[et(X+Y ) ] = E[etX) ]E[etY ], as que t pertenece al
dominio de definicin de MX+Y si y slo si t pertenece a la interseccin de los dominios de
definicin de MX y MY . Adems, para una t con esa propiedad, se tiene:
MX+Y (t) = E[et(X+Y ) ] = E[etX) ]E[etY ] = MX (t)MY (t)
Ejemplo 9.110. Sean X y Y dos variables aleatorias independientes, ambas con distribucin
gama de parmetros 1 , y 2 , , respectivamente, entonces, para cualquier t < , se tiene:
1 2 1 +2
MX+Y (t) = MX (t)MY (t) = t
= t
t
As que X + Y tiene distribucin gama de parmetros 1 + 2 y .

254

9. ESPERANZAS

EJERCICIOS
Ejercicio 9.1. Utilice el mtodo del ejemplo 9.5 para calcular la esperanza de una variable
aleatoria X con distribucin Poisson de parmetro .
Ejercicio 9.2. Utilice el mtodo del ejemplo 9.6 para calcular la esperanza de una variable
aleatoria X con distribucin a) binomial de parmetros n y p y b) binomial negativa de parmetros r y p.
Ejercicio 9.3. Sea X una variable aleatoria con funcin de densidad dada por:
2x
si x {1, . . . , N }
N(N+1)
fX (x) =
0
en otro caso
en donde N es un entero positivo. Encuentre E [X].
Ejercicio 9.4. Sea X una variable aleatoria con funcin de densidad dada por:
1
si x {2, 3, . . .}
x!
3 e si x = 0
fX (x) =
0
en otro caso
Encuentre E [X].

Ejercicio 9.5. Un juego popular en Inglaterra consiste en el lanzamiento de 3 dados. Un


jugador puede apostar a cualquiera de los nmeros enteros entre 1 y 6. Si se obtiene ese nmero
en exactamente uno de los 3 lanzamientos, se gana lo mismo que se apost; si se obtiene en
exactamente dos de los 3 lanzamientos, se gana el doble de la apuesta y si se obtiene en los
3 lanzamientos se gana el triple de la apuesta. Por otro lado, si no se obtiene el nmero en
ninguno de los 3 lanzamientos, el jugador pierde la apuesta. Encuentre la esperanza de la
ganancia (o prdida) de un jugador que apuesta un peso en dicho juego.

Ejercicio 9.6. Un juego consiste en el lanzamiento de n dados. Un jugador elige un nmero


entero entre 1 y 6. Por cada dado con el cual se obtenga ese nmero el jugador gana 1 peso.
Por otro lado, si no se obtiene el nmero en ninguno de los n lanzamientos, el jugador pierde
n pesos. a) Encuentre la esperanza de la ganancia del jugador. b) Cul es el ms pequeo
valor de n con el cual la esperanza de la ganancia es positiva?
Ejercicio 9.7. Una urna contiene N tarjetas numeradas del 1 al N. Un experimento aleatorio
consiste en seleccionar n tarjetas al azar y sin reemplazo. Encuentre el valor esperado del
nmero ms grande en la muestra.
Ejercicio 9.8. Una urna contiene N tarjetas numeradas del 1 al N. Un experimento aleatorio
consiste en seleccionar n tarjetas al azar y con reemplazo. Encuentre el valor esperado del
nmero ms grande en la muestra.
Ejercicio 9.9. Sea X una variable aleatoria distribuida geometricamente con parmetro p y
sea M un entero positivo. Encuentre la esperanza de Y = mn(X, M ) y Z = max(X, M).
Ejercicio 9.10. Se escoge al azar un nmero del conjunto {1, 2, . . . , 10}. Una persona A trata
entonces de determinar el valor del nmero seleccionado mediante preguntas cuyas nicas
respuestas son s o no. Encuentre la esperanza del nmero de preguntas que se tienen que
hacer hasta encontrar el valor del nmero en cada uno de los casos siguientes:

EJERCICIOS

255

a) La pregunta nmero i es se seleccion el nmero i?


b) Se pregunta de tal manera que la respuesta elimina aproximadamente la mitad de las posibles
soluciones.
Ejercicio 9.11. Una caja contiene 5 componentes elctricos, de los cuales 2 estn defectuosos.
Se checa cada uno de los componentes en un orden aleatorio hasta que se encuentren los dos
defectuosos. Cul es la esperanza del nmero de chequeos que se realizan?
Ejercicio 9.12. Se van colocando al azar bolas, una a una, en cualquiera de N cajas hasta
que se ocupe la primera caja. Cul es el nmero esperado de bolas que se colocan en las
cajas?
Ejercicio 9.13. Una persona dispone de n llaves, una de las cuales es la nica que abre una
puerta. La persona va probando, una a una, cada llave, hasta encontrar la que abre la puerta.
Encuentre el nmero esperado de intentos que realiza en cada uno de los casos siguientes: a)
en cada intento, elige una llave al azar entre las n, b) en cada intento, elige una llave al azar
entre las que an no ha probado.
Ejercicio 9.14. Se realizan sucesivamente ensayos de Bernoulli independientes, en cada uno
de los cuales la probabilidad de xito es p, hasta obtener 2 veces consecutivas xito o dos veces
consecutivas fracaso Cul es el nmero esperado de ensayos que se realizan?
Ejercicio 9.15. Una urna contiene N bolas numeradas del 1 al N . Se van sacando bolas al
azar de la urna, una a una y con reemplazo, hasta obtener dos veces consecutivas la misma
bola. Cul es el nmero esperado de elecciones que se realizan?
Ejercicio 9.16. Se quiere seleccionar a una persona de entre n. Para ello, cada una lanza
una moneda y se conviene en que si alguna obtiene un resultado distinto al de las otras,
entonces esa persona es la seleccionada; de otra manera se vuelven a lanzar las monedas bajo
las mismas condiciones. Encuentre la esperanza del nmero de intentos que se realizan hasta
que la persona sea seleccionada.
Ejercicio 9.17. Una pareja de recin casados planea tener tantos hijos como sea necesario
hasta tener una nia. Suponiendo que la probabilidad de que un hijo que procree la pareja sea
nia es igual a 12 , cul es el valor esperado del nmero de hijos que tendr la pareja?
Ejercicio 9.18. Una pareja de recin casados planea tener tantos hijos como sea necesario
hasta tener por lo menos una nia y por lo menos un nio, deteniendo la procreacin una vez
conseguido su objetivo. Suponiendo que la probabilidad de que un hijo que procree la pareja
sea nia es igual a la probabilidad de que sea nio, cul es la esperanza del nmero de hijos
que tendr la pareja?
Sugerencia: Defina Y como el nmero de hijos que tiene la pareja y el evento A: el primer
hijo de la pareja es una nia. Considere entonces la distribucin de Y dado que A ocurre y
la distribucin de Y dado que A no ocurre.
Ejercicio 9.19. Cuando una determinada mquina no est bien ajustada, la probabilidad de
que produzca un artculo defectuoso es igual a 0.2. Cada da la mquina se pone a funcionar
y se detiene para su ajuste en el momento en que ya ha producido 3 artculos defectuosos.
Cul es el nmero esperado de artculos que produce una mquina desajustada antes de ser
detenida para su ajuste?

256

ESPERANZAS

Ejercicio 9.20. Un lote contiene 100, 000 artculos, de los cuales 10, 000 estn defectuosos.
Se van seleccionando artculos de la poblacin, uno a uno y al azar, hasta obtener 20 no
defectuosos. Estime el nmero esperado de artculos que se inspeccionan.
Ejercicio 9.21 (Problema de los 3 jugadores). Tres jugadores, P, Q y R, juegan partidas
por parejas en cada una de las cuales la probabilidad que cada jugador tiene de ganar es 12 ;
quien gane una partida juega con el otro jugador, hasta que uno de los jugadores gane dos
partidas consecutivas, ganando entonces el juego. Encuentre el valor esperado del nmero de
partidas que se juegan hasta que uno de los jugadores gana el juego.
Ejercicio 9.22. Se tienen dos muebles, cada uno con 20 cajones. Se elige un mueble al azar
y luego un cajn al azar, de ese mueble, colocando ah un documento. Una persona, que est
buscando el documento, elige uno de los muebles al azar y, en ese mueble, va abriendo los
cajones al azar, uno a uno, buscando ah el documento. Si despus de revisar 10 cajones an
no se encuentra el documento, qu estrategia hace mnimo el nmero esperado de cajones que
se abrirn hasta encontrar el documento: a) continuar buscndolo en el mismo mueble y, en
caso de no encontrarlo ah, continuar con el otro o b) continuar buscndolo en el otro mueble
y, en caso de no encontrarlo ah, continuar con los diez cajones que restan del primero?
Ejercicio 9.23. Se tienen dos muebles, cada uno con 20 cajones. Se elige uno de los muebles
de tal manera que la probabilidad de que sea seleccionado el primero es igual a p, en donde
p > 12 ; en seguida, se elige un cajn al azar, de ese mueble, colocando ah un documento.
Una persona, que est buscando el documento, elige el primer mueble y, en ese mueble, va
abriendo los cajones al azar, uno a uno, buscando ah el documento. Si despus de revisar 10
cajones an no se encuentra el documento, qu estrategia hace mnimo el nmero esperado
de cajones que se abrirn hasta encontrar el documento: a) continuar buscndolo en el mismo
mueble y, en caso de no encontrarlo ah, continuar con el otro o b) continuar buscndolo en
el otro mueble y, en caso de no encontrarlo ah, continuar con los diez cajones que restan del
primero?
Ejercicio 9.24. El tiempo de vida, en das, de cierto componente, tiene distribucin exponencial de parmetro = 0.1. Un usuario adquiere el componente bajo la condicin de que
pagar 20 pesos por cada da de operacin (o bien la parte proporcional en caso de no completarse un da) despus de la primera semana de uso. a) Cul es la probabilidad de que el
productor reciba ms de 100 pesos por un componente? b) Cul es la esperanza de lo que
recibe el productor por un componente?
Ejercicio 9.25. El tiempo, en horas, que le toma a un tcnico reparar una mquina tiene
distribucin exponencial. Si en promedio ese tcnico repara 2 mquinas cada hora, cul es la
probabilidad de que pueda reparar 3 mquinas en menos de 2 horas?
Ejercicio 9.26. Cada foco producido en una cierta fbrica tiene un tiempo aleatorio de vida
T , con funcin de densidad dada por:
2 t
te
si t > 0
f (t) =
0
en otro caso
Se sabe adems que, en promedio, el tiempo de vida de cada foco es de 2, 000 horas. Estime
la probabilidad de que entre 1, 000 focos, seleccionados al azar de la produccin de esa fbrica,
haya ms de 210 con un tiempo de vida superior a 3000 horas.

EJERCICIOS

257

Ejercicio 9.27. Sea n R N y X una variable aleatoria


tal que X n tiene esperanza finita.
R

0
Demuestre que E [X n ] = 0 nxn1 [1 FX (x)] dz nxn1 FX (x) dz.
Como corolario de este resultado, demuestre que si p(x) es un polinomio de grado n y X es
una variable aleatoria tal que X n tiene esperanza finita, entonces:
R0
R
E [p(X)] = 0 p0 (x) [1 FX (x)] dz p0 (x)FX (x) dz

Ejercicio 9.28. Sea X una variable aleatoria binomial de parmetros n y p. Encuentre la


esperanza de (1 + X)1 .
Ejercicio 9.29. Sea F la funcin de distribucin de una variable aleatoria con distribucin
normal
estndar y sea X2 una variable aleatoria con distribucin exponencial de parmetro
= 2 . Exprese E(eX ) en trminos de F y encuentre su valor.
Ejercicio
h
i 9.30. Sea X una variable aleatoria con distribucin normal estndar. Encuentre:
2
E e3XX .

Ejercicio 9.31. La demanda de un cierto producto, que se vende segn su peso, est dada
por una variable aleatoria continua X con funcin de distribucin FX (no necesariamente
absolutamente continua). La venta de x kilos del producto produce una ganancia de ax pesos,
mientras que x kilos no vendidos producen una prdida de bx pesos, en donde x es cualquier
nmero real no negativo. Demuestre que el valor esperado de la ganancia se maximiza coma
prando, para su venta, x0 kilos del producto, en donde x0 es tal que FX (x0 ) = a+b
.
Ejercicio 9.32. Sea Z una variable aleatoria con distribucin normal estndar, y R y
definamos la variable aleatoria X mediante la siguiente relacin:

Z si Z > y
X=
0 en otro caso
Encuentre E [X].
Ejercicio 9.33. Un experimento aleatorio consiste en lanzar 10 dados. Sea X la suma de
los nmeros que se obtienen. Encuentre E [X].
Ejercicio 9.34. Cada persona de un grupo de N lanza su sombrero al aire de tal manera que
cada persona recoge uno de ellos al azar. Cul es la esperanza del nmero de personas que
obtienen el sombrero que llevaban originalmente?
Ejercicio 9.35. Una caja contiene n lmparas, de las cuales r funcionan correctamente. Se
checa cada una de las lmparas en un orden aleatorio hasta que se encuentre una que funcione
correctamente. Cul es la esperanza del nmero de chequeos que se realizan?
Ejercicio 9.36. Una caja contiene n componentes elctricos, de los cuales r estn defectuosos. Se checa cada uno de los componentes en un orden aleatorio hasta que se encuentran s
defectuosos. Cul es la esperanza del nmero de chequeos que se realizan?
Ejercicio 9.37. Para determinar si alguna persona tiene una cierta enfermedad es necesario
realizarle un anlisis de sangre. Se quiere examinar a N = n m personas y, para reducir el
nmero de pruebas, se decide formar grupos de m personas cada uno. Las muestras de sangre
de las m personas en cada grupo se mezclan y se analiza la mezcla. Si la prueba resulta
negativa, se concluye que ninguna persona en el grupo tiene la enfermedad y no es necesario

258

ESPERANZAS

realizar ningn otro anlisis a las personas de ese grupo, pero si resulta positiva, se realiza el
examen a cada una de las personas del grupo. Suponiendo que cada una de las N personas
tiene la enfermedad con probabilidad p = 0.01, encuentre la esperanza del nmero de anlisis
que se realizan, siguiendo el mtodo descrito, para determinar si cada una de las N personas
tiene la enfermedad.
Ejercicio 9.38. Supongamos que elegir una persona al azar y anotar el da de su cumpleaos
es equivalente a elegir al azar un da de entre los 365 del ao. Encuentre el nmero esperado
de das de nacimiento distintos en un grupo de N personas elegidas al azar.
Ejercicio 9.39. Una urna contiene N bolas numeradas del 1 al N. Se van sacando bolas de
la urna, una a una y con reemplazo, hasta que se ha seleccionado por lo menos una bola de
cada nmero. Encuentre el tamao esperado de la muestra que se obtiene.
Ejercicio 9.40. Sea X una variable aleatoria cualquiera, demuestre que a) si FX (m) = 12 ,
entonces m es mediana de X, b) Si X es una variable aleatoria continua, entonces m es
existe algn punto
x R tal que FX (x) = 12 ,
mediana de X si
y slo si FX (m) = 12, c) si no

entonces m = nf x R : FX (x) > 12 = sup x R : FX (x) < 12 es la nica mediana de X


y d) si existe algn punto x R tal que FX (x) = 12 entonces un
nmero real
m es mediana de1 X

1
si y slo si m [a, b], en donde a = nf x R : FX (x) = 2 y b = sup x R : FX (x) = 2 .
Ejercicio 9.41. Encuentre una mediana de X si su distribucin es a) uniforme en el intervalo
(a, b), b) normal de parmetros y 2 y c) exponencial de parmetro .

Ejercicio 9.42. Sea X una variable aleatoria de esperanza finita. Demuestre que m R es
mediana de X si y slo si la funcin G(x) = E [|X x|] alcanza su valor mnimo en x = m.
Ejercicio 9.43. Se desea construir una estacin de bomberos en algn punto de un camino de
longitud infinita. Supongamos que el punto sobre el camino en el cual se presenta un incendio
es aleatorio, de tal manera que la distancia, X, desde el origen hasta dicho punto es una
variable aleatoria con distribucin exponencial de parmetro . En dnde deber construirse
la estacin de tal manera que la esperanza de la distancia de la estacin a un incendio sobre
el camino sea mnima?
Ejercicio 9.44. Sea X una variable aleatoria distribuida uniformemente en {0, 1, . . . N }.
Encuentre la esperanza y la varianza de X.
Ejercicio 9.45. Sean a < b dos
reales y X una variable
nmeros
aleatoria distribuidada
k
uniformemente en el conjunto xk = a + n (b a) | k {1, . . . , n} . Encuentre la esperanza
y la varianza de X.
Ejercicio 9.46. Sea X una variable aleatoria con distribucin uniforme en el intervalo
(2, 1). Encuentre la esperanza y la varianza de Y = |X + 1|.
Ejercicio 9.47. Sea X una variable aleatoria distribuida uniformemente en el intervalo
(3, 2). Encuentre la esperanza y la varianza de Y = |X 2 1|.
Ejercicio 9.48. Se toma una muestra con reemplazo de tamao 4 de una urna que contiene
30 bolas numeradas del 1 al 30. Sea X la suma de los nmeros que se obtienen. Encuentre la
varianza de X.

EJERCICIOS

259

Ejercicio 9.49. Supongamos que X y Y son dos variables aleatorias independientes tales que
E(X 4 ) = 2, E(Y 2 ) = 1, E(X 2 ) = 1 y E(Y ) = 0. Encuentre V ar(X 2 Y ).
Ejercicio 9.50. Sean X y Y dos variables aleatorias independientes de varianza finita. Exprese la varianza de 2X + 3Y en trminos de las varianzas de X y Y .
Ejercicio 9.51. En un grupo de 20 personas, de las cuales 10 son hombres y 10 son mujeres,
se forman 10 parejas al azar. Encuentre la esperanza y la varianza del nmero de parejas
integradas por un hombre y una mujer, entre las 10 que se forman al azar.
Ejercicio 9.52. Sea X una variable aleatoria con distribucin hipergeomtrica de parmetros
r, s y n. Encuentre la varianza de X.
Ejercicio 9.53. Sea X una variable aleatoria con distribucin gama de parmetros y .
Encuentre E [X n ] para cualquier n N.
Ejercicio 9.54. Sea X una variable aleatoria y n un entero no negativo. Si X tiene esperanza
finita y |X E(X)|n tambin tiene esperanza finita, se dice que X tiene momento central de
orden n finito y a la cantidad E [(X E(X))n ] se le llama el momento central de orden n de
X. a) Demuestre que una variable aleatoria X tiene momento central de orden n finito si y
slo si X tiene momento de orden n finito. b) Para cualquier n N, encuentre el momento
central de orden n de una variable aleatoria con distribucin normal de parmetros y 2 .
Ejercicio 9.55. Sea X una variable aleatoria con funcin de densidad tipo Poisson de
parmetro . Utilice la desigualdad de Chebyshev para verificar las siguientes desigualdades:
a) P (X 2 ) 4
b) P (X 2) 1
Ejercicio 9.56. Supongamos que, para decidir si una moneda est balanceada, la lanzamos
1, 000 veces, y rechazamos la moneda como balanceada si el nmero de soles o el nmero de
guilas que se obtienen es mayor o igual a 550. Utilice la desigualdad de Chebyshev para determinar el mximo porcentaje de monedas balanceadas que se rechazan con este procedimiento.
Compare el resultado con el que se obtiene aplicando el teorema de de Moivre Laplace.
Ejercicio 9.57. Para estimar la proporcin de cierta clase de peces, en una determinada
poblacin, se toma una muestra con reemplazo de tamao 100 y la proporcin de peces que
se obtiene en la muestra se toma como la proporcin de peces en la poblacin. Calcule la
probabilidad de cometer un error mayor que 0.005 con esta estimacin.
Ejercicio 9.58. De acuerdo con su experiencia, un profesor sabe que la calificacin de un
estudiante en su examen final es una variable aleatoria X con esperanza 75. a) Obtenga una
cota superior para la probabilidad de que la calificacin de un estudiante exceda 85. Suponga
adems que el profesor sabe que la varianza de X es igual a 25. b) Qu se puede decir acerca
de la probabilidad de que un estudiante obtenga una calificacin entre 65 y 85? c) Cuntos
estudiantes tendran que presentar el examen de tal manera que, con una probabilidad de por
lo menos 0.9, el promedio de calificaciones distar de 75 en menos que 5?
Ejercicio 9.59. Sea X una variable aleatoria con distribucin binomial de parmetros n = 30
y p = 12 . a) Encuentre el valor exacto de P [12 X 18] . b) Utilice la desigualdad de
Chebyshev para estimar P [12 X 18].

260

ESPERANZAS

Ejercicio 9.60. a) Utilice el teorema de de Moivre-Laplace para estimar el ms pequeo valor


de n con la propiedad de que al lanzar n veces una moneda, la probabilidad de que el porcentaje
de las veces en que se obtiene sol est comprendido entre 49% y 51% sea mayor o igual a 0.95.
b) Resuelva el mismo problema utilizando la desigualdad de Chebyshev.
Ejercicio 9.61. Sea X una variable aleatoria discreta con funcin de densidad dada por:
e x1
si x {1, 2, . . .}
(x1)!
fX (x) =
0
en otro caso
en donde es una constante positiva. Encuentre la funcin generadora de probabilidades,
X (t) = E tX , de X.
Ejercicio 9.62. Sea X una variable aleatoria discreta con funcin de densidad dada por:
1
2x si x {1, . . . , N }
1
si x = N + 1
fX (x) =
N
2
0 en otro caso
en donde N es un entero positivo. Encuentre la funcin generadora de probabilidades de X.

Ejercicio 9.63. Sea X una variable aleatoria distribuida uniformemente en {0, 1, . . . N }.


Encuentre la funcin generadora de probabilidades de X y utilcela para calcular su esperanza.

Ejercicio 9.64. Sea X una variable aleatoria con funcin de densidad dada por:
2N x3
si x {3, 4, . . .}
(N+2)x2
fX (x) =
0
en otro caso
Encuentre la funcin generadora de probabilidades de X y utilcela para calcular su esperanza.
Ejercicio 9.65. Sea X una variable aleatoria distribuida binomialmente con parmetros n
y p. Utilice la funcin generadora de probabilidades de X para calcular su esperanza y su
varianza.
Ejercicio 9.66. Sean X y Y dos variables aleatorias independientes cuyas funciones gene2
radoras de probabilidades estn dadas por X (t) = et 1 y Y (t) = 14 (t3 + 2t2 + 1), respectivamente. Encuentre E [XY (X + 1)].
Ejercicio 9.67. Sean X y Y dos variables aleatorias independientes cuyas funciones gene4
3
3
2
radoras de probabilidades estn dadas por X (t) = 2t +t 8+3t+2 y X (t) = 4t +2t9 +3t , respectivamente. Encuentre E [XY 2 (2X + 3)].
Ejercicio 9.68. Sean X y Y dos variables aleatorias independientes cuyas funciones genera4
3 +5t2 +1
3
2
doras de probabilidades estn dadas por X (t) = 3t +t 10
y Y (t) = 4t +2t9 +3t , respectivamente. Encuentre la funcin de densidad de X + Y .
Ejercicio 9.69. Demuestre los siguientes resultados:
a) Si X y Y son dos variables aleatorias independientes, ambas con distribucin binomial
de parmetros n1 , p y n2 , p, respectivamente, entonces X + Y tiene distribucin binomial de
parmetros n1 + n2 , p.
b) Si X y Y son dos variables aleatorias independientes, ambas con distribucin Poisson de
parmetros 1 y 2 , respectivamente, entonces X + Y tiene distribucin Poisson de parmetro
1 + 2 .

EJERCICIOS

261

Ejercicio 9.70. Sea X una variable aleatoria con funcin de densidad dada por:
1 x
e
si x 0
2
fX (x) =
1 x
e
si x > 0
2
Encuentre la funcin generadora de momentos de X, especificando la regin en la cual est
bien definida.
Ejercicio 9.71. Demuestre que si X y Y son variables aleatorias independientes, ambas con
distribucin normal de parmetros 1 , 21 y 2 , 22 , respectivamente, entonces X + Y tiene
distribucin normal de parmetros 1 + 2 , 21 + 22 .
Ejercicio 9.72. Sean X y Y dos variables aleatorias independientes, ambas con distribucin
uniforme en el intervalo (0, 1). Encuentre la funcin generadora de momentos de a) U = X +Y
y b) V = X Y .
Ejercicio 9.73. Utilice la funcin generadora de momentos para encontrar la Esperanza y la
Varianza de X en cada uno de los casos siguientes:
a) X tiene distribucin exponencial de parmetro .
b) X tiene distribucin gama con parmetros y .
c) X tiene distribucin normal con parmetros y 2 .
Ejercicio 9.74. Sean X y Y dos variables aleatorias independientes cuyas funciones generadoras de momentos estn dadas por MX (t) = (1 t)3 e2t y MY (t) = 14 (e3t + 2e2t + 1),
respectivamente. Encuentre E [X 3 Y (X Y 2 )].

Apndice
Los desarrollos de Riemann sobre las series trigonomtricas deben ser vistos, en cuanto a los principios fundamentales, como perfectamente de acuerdo con los mtodos de
exposicin de Wierstrass, quien, en este aspecto, suprime
completamente la intuicin geomtrica y opera exclusivamente con las definiciones aritmticas. Pero no me puedo
imaginar que Riemann, en su interior, haya visto alguna
vez la intuicin geomtrica, al igual que lo hacen ciertos representantes celosos de las Matemticas hipermodernas, como algo contrario al espritu matemtico y que
deba conducir necesariamente a conclusiones errneas.
Por el contrario, l debi pensar que en las dificultades
que se presentan aqu, es posible encontrar un terreno de
conciliacin.
Flix Christian Klein

A.1. Sucesiones y series


Definicin 1 (Sucesin de nmeros reales). Una sucesin de nmeros reales es una
funcin f : N 7 R. Si, para n N, xn = f (n), se denota a la sucesin por (xn )nN .
Definicin 2 (Convergencia de una sucesin). Se dice que una sucesin (xn )nN converge
si existe un nmero real x tal que, para cualquier > 0, existe N N tal que |xn x| <
para cualquier n N. Si la sucesin no converge, se dice que diverge.
Definicin 3 (Serie de nmeros reales). Si (xn )nN es una sucesin
Pn de nmeros reales,
la serie
P generada por (xn )nN es la sucesin (sn )nN definida por sn = k=1 xn y se le denota
por
k=1 xn . Se dice que la serie converge si converge la sucesin (sn )nN . En caso contrario,
se dice que la serie diverge.
Definicin 4 (Convergencia absoluta de una serie).
P Se dice que la serie (sn )nN , generada por (xn )nN , converge absolutamente si la serie k=1 |xn | converge.

La convergencia absoluta de una serie implica su convergencia. Cuando


P la sucesin (xn )nN
est formada por trminos no negativos, la convergencia de la serie
k=1 xn es equivalente
a su convergencia absoluta. Adems, en ese caso, la serie converge si y slo si la sucesin
263

264

APNDICE

P
sn = nk=1 xn esta acotada, en cuyo caso la serie converge a sup{sn | nP N}; en caso de que
esto no ocurra, se dice que la serie diverge a , lo cual se denota por
k=1 xn = .
El siguiente resultado ser utilizado ms adelante.
Lema 5. Para cada pareja j, k N sea ajk unP
nmero real
negativo y bP
. . . cualquier
1 , b2 , P
Pno P

ordenamiento de los elementos ajk . Entonces


b
=
a
=
i=1 i
j=1
k=1 jk
k=1
j=1 ajk .
Demostracin
Pn Pm
P P
Si la serie
j=1
k=1 ajk converge a L, para cualquier pareja n, m N, se tiene
j=1
k=1 ajk
L. De manera que, dado N N, podemos tomar n, m N tales que {b1 , . . . , bN } {ajm |
P
P P
P
j n, k m} y entonces N
bi nj=1 m
ajk L. As que la serie
i=1
k=1
i=1 bi converge y
P P
P
i=1 bi
j=1
k=1 ajk .
P
Supongamos
ahora
que
la
serie
L, entonces,
para cualquier pareja n, m N,
P P
P i=1 bi converge aP
n P
se tiene nj=1 m
a

b
=
L,
as
que
a
n N y,
jk
i=1 i
j=1 P
k=1 jk L para cualquier
P
P P
Pk=1P

por lo tanto, j=1 k=1 ajk L. As que la serie j=1 k=1 ajk converge y j=1 k=1 ajk
P
i=1 bi .
P P
P
bi converge si y slo si la serie
Se concluye entonces que la serie
i=1
j=1
k=1 ajk converge
P P
P
y, en ese caso, i=1 bi = j=1 k=1 ajk .
P
P P
De la misma manera, la serie
bi converge si y slo si la serie
i=1
k=1
j=1 ajk converge y,
P P
P
en ese caso, i=1 bi = k=1 j=1 ajk .
Definicin
6 (Serie de potencias). Si (an )nN es una sucesin de nmeros reales, la serie
P
n
a
x
,
definida
para x R, es llamada una serie de potencias.
k=1 n

Las demostraciones de los siguientes dos resultados pueden consultarse en el libro de Robert
G. Bartle, Introduccin al Anlisis Matemtico, p. 351-358, Limusa, 1990.

Teorema
la serie de poP7. Sea n(an ) una sucesin de nmeros reales y R > 0. Supongamos queP
n1
tencias n=1 an x converge absolutamente para x (R, R), entonces la serie
n=1 nan x
tambin converge absolutamente
para x (R, R). Adems, si f : (R, R) 7 R est
P
n
definida P
por f (x) = n=1 an x , entonces f es continua y derivable en el intervalo (R, R) y
n1
.
f 0 (x) =
n=1 nan x
Teorema 8. Sea (an ) una sucesin de nmeros reales. Supongamos que la serie de potencias
P

an xn converge absolutamente
para x [0, 1] y sea f : [0, 1] 7 R definida por f (x) =
Pn=1
P

n
a
x
,
entonces
a
=
l
m
x1 f (x).
n=1 n
n=1 n
A.2. Integral de Riemann

Definicin 9 (Particin de un intervalo). Una particin P del intervalo [a, b] es un


conjunto finito de nmeros reales {x0 , . . . , xn } tales que a = x0 < x1 < < xn = b.

Definicin 10 (Refinamiento de una particin). Se dice que una particin P es un


refinamiento de la particin Q si P Q.
Definicin 11 (Suma de Riemann). Dada una funcin acotada f : [a, b] 7 R y una
particin P del intervalo [a, b], una suma de Riemann de f con respecto a P es un nmero
S(P ; f ) definido por:

A.2. INTEGRAL DE RIEMANN

S(P ; f ) =
en donde i [xi1 , xi ].

Pn

i=1

265

f ( i )(xi xi1 )

Definicin 12 (Funcin Riemann integrable). Se dice que una funcin acotada f :


[a, b] 7 R es Riemann integrable en el intervalo [a, b] si existe un nmero real, denotado
Rb
por a f (x)dx, tal que, para cualquier > 0, existe una particin P del intervalo [a, b] tal que
si P = {x0 , . . . , xn } es un refinamiento de P entonces:

Rb

S(P ; f ) a f (x)dx <

para cualquier suma de Riemann, S(P ; f ), de f con respecto a P .

La demostracin del siguiente criterio de integrabilidad puede consultarse tambin en el libro


de Robert G. Bartle (p. 256-257) citado antes.
Teorema 13 (Criterio de integrabilidad de Riemann). Sea f : [a, b] 7 R una funcin
acotada, entonces f es Riemann integrable en el intervalo [a, b] si y slo si, para cualquier
> 0, existe una particin P del intervalo [a, b] tal que si P = {x0 , . . . , xn } es un refinamiento
de P entonces:
Pn
i=1 (Mi mi )(xi xi1 ) <
en donde Mi = sup{f (x) | x [xi1 , xi ]} y mi = nf{f (x) | x [xi1 , xi ]}.
Teorema 14. Sea f : [a, b] 7 R una funcin acotada y montona no decreciente, entonces f
es Riemann integrable en el intervalo [a, b].
Demostracin
Dada > 0, sea N N tal que N > 2M(ba)
, en donde M = f (b)f (a). Entonces, el conjunto

M
DN = x [a, b] : f (x+) f (x) 2N
tiene a lo ms 2N elementos pues si hubiera 2N + 1 nmeros reales distintos, x1 , . . . , x2N+1 ,
pertenecientes a DN , se tendra:
P
(2N+1)M
f (b) f (a) 2N+1
> f (b) f (a)
k=1 [f (xk +) f (xk )]
2N
Sea DN = {x1 , . . . , xk }.
Para para j {1, . . . , k}, consideremos un intervalo cerrado [aj , bj ] de tal forma que:
a a1 < x1 < b1 < a2 < x2 < b2 < a3 < < ak < xk < bk b
P

y kj=1 (bj aj ) < 2M


Vamos ahora a definir una particin conveniente de cada uno de los intervalos [a, a1 ], [b1 , a2 ],
. . . que tenga longitud positiva.
Consideremos, por ejemplo, el intervalo [b1 , a2 ]. Por comodidad en la notacin, definamos
c = b1 y d = a2 .
M
, as que el conjunto
Como c
/ DN , se tiene f (c+) f (c) < 2N

M
Fc = x (c, b] | f (c) f (x) < f (c) + 2N es no vaco.
Sea y1 = sup Fc .
M
pues, en ese caso, y1 no podra ser el
Si y1 6= d, no es posible tener f (y1 +) < f (c) + 2N
M
supremo del conjunto Fc . As que f (y1 +) f (c) + 2N .

266

APNDICE

M
M
Por otra parte, se tiene f (y1 ) f (c) + 2N
y f (y1 +) f (y1 ) < 2N
, as que, sumando
M
, es decir,
las desigualdades, se obtiene f (y1 +) < f (c) + N y, entonces f (y1 ) < f (c) + M
N
M
f (y1 ) f (c) < N .

M
De la misma manera, se puede definir y2 (y1 , d] tal que f (y2 +) f (y1 )+ 2N
y f (y2 )f (y1 ) <
M
M
. Como f (yj+1 +) f (yj ) + 2N , en un nmero finito, m, de pasos se tendr ym = d.
N
Sea P la particin formada por a, a1 , b1 , a2 , b2 , . . ., ak , bk , b y todos los puntos yj generados en
el proceso descrito con anterioridad. Entonces, si P = {x0 , . . . , xn } es cualquier refinamiento
de P , se tiene:
Pn
M

i=1 (Mi mi )(xi xi1 ) M + (b a) N < M + 2


en donde es la suma de las longitudes de los subintervalos de la particin P en los cuales
Mi mi > M
.
N
Pk

Pero j=1 (bj aj ) < 2M


y N1 > 2M(ba)
, as que:
Pn
M

i=1 (Mi mi )(xi xi1 ) M + (b a) N < 2 + 2 =

Corolario 15. Sea f : [a, b] 7 R una funcin acotada y montona no creciente, entonces f
es Riemann integrable en el intervalo [a, b].

Teorema 16. Sean f : [a, b] 7 R y g : [a, b] 7 R dos funciones acotadas, Riemann integrables
en el intervalo [a, b], y tales que el conjunto D = {x [a, b] | f (x) 6= g(x)} es finito o infinito
Rb
Rb
numerable, entonces a f (x)dx = a g(x)dx.
Demostracin
Dada > 0 existen particiones P y Q del
intervaloR [a, b] tales
que si P es un refinamiento
de P
Rb

b
y Q es un refinamiento de Q , entonces S(P ; f ) a f (x)dx < 2 y S(Q; g) a g(x)dx < 2 ,
para cualquier suma de Riemann, S(P ; f ), de f con respecto a P y cualquier suma de Riemann,
S(Q; g), de g con respecto a Q.

Rb

Sea P = {x0 , . . . , xn } un refinamiento de P Q , entonces S(P ; f ) a f (x)dx < 2 y

Rb

S(P ; g) a g(x)dx < 2 , para cualquier suma de Riemann, S(P ; f ) de f con respecto a P
y cualquier suma de Riemann, S(P ; g) de g con respecto a P .
Como el conjunto
D es a lo ms infinito numerable,
podemos tomar dos sumas de Riemann
Pn
Pn
S(P ; f ) = i=1 f ( i )(xi xi1 ) y S(P ; g) = i=1 g( i )(xi xi1 ) de tal forma que los puntos
no pertenezcan a D, as que se tiene S(P ; f ) = S(P ; g). Por lo tanto:
Ri

Rb
Rb
Rb
b



f
(x)dx

g(x)dx

S(P
;
f
)

f
(x)dx
+
S(P
;
g)

g(x)dx
a


< 2+2 =
a
a
a
R

Rb
Rb
b

Es decir, a f (x)dx a g(x)dx < para cualquier > 0, lo cual implica a f (x)dx =
Rb
g(x)dx.
a
Lema 17. Sea A1 , A2 , . . . una sucesin de subconjuntos Lebesgue medibles del intervalo (a, b)
tales que m(Ai ) para toda i N, en donde es un nmero real positivo fijo y m denota
a la medida de Lebesgue. Entonces el conjunto
A = {x (a, b) : x An para una infinidad de valores de n}

A.2. INTEGRAL DE RIEMANN

267

es Lebesgue medible y m(A) .


Demostracin
S
Para cada m N,Tsea Bm =
n=m An . Entonces la sucesin de conjuntos Bm es montona

decreciente y A = m=1 Bm , as que A es Lebesgue medible y


S
T
mm m [
m(A) = m [
m=1 Bm ] = l
n=m An ]

Corolario 18. Sea A1 , A2 , . . . una sucesin de subconjuntos Lebesgue medibles del intervalo
(a, b) tales que m(Ai ) para toda i N, en donde es un nmero real positivo fijo.
Entonces el conjunto
A = {x (a, b) : x An para una infinidad de valores de n}
es infinito no numerable.
Demostracin
Si A fuera finito o infinito numerable se tendra m(A) = 0, lo cual contradice el lema 17.

Teorema 19. Sea (fn )nN una sucesin montona no decreciente de funciones no negativas,
Riemann integrables en el intervalo [a, b], y tales que la funcin f = lmn fn es tambin
Rb
Rb
Riemann integrable en el intervalo [a, b], entonces a f (x)dx = lmn a fn (x)dx.

Demostracin
Rb
1
g (x)dx = > 0, entonces
Para cada n N, sea gn = f fn y supongamos lmn ba
a n
Rb
n = a gn (x)dx (b a) > 0 para cualquier n N.
Sea P0 = {a, b} y, para n N, seaPPn una particin del intervalo [a, b], que sea un refinamiento
de Pn1 y tal que si S(Pn ; gn ) = ni=1 gn ( i )(xi xi1 ) es cualquier suma de Riemann correspondiente a Pn , entonces |S(Pn ; gn ) n | < 13 (b a).
Sea En = {x [a, b] | gn (x) 13 }, An la familia de subintervalos de la particin Pn que estn
contenidos en En , Bn la familia de subintervalos de la particin Pn que no estn contenidos
en En y Ln la suma de las longitudes de los intervalos de An . En cada subintervalo [xi1 , xi ]
de Bn escojamos un punto i tal que gn ( i ) < 13 , entonces:
Pn
2
1
1
(b

a)

(b

a)
<
S(P
;
g
)
=
n
n
n
i=1 gn ( i )(xi xi1 ) 3 (b a) + MLn
3
3
en donde M = sup{f (x) | x [a, b]}.
Por lo tanto:
1
(b a)
Ln > 3M
As que, por el corolario 18, el conjunto
A = {x [a, b] : x En para una infinidad de valores de n}
es infinito no numerable, lo cual es imposible pues lmn gn (x) = 0 para cualquier x [a, b].
Rb
1
Se concluye entonces que la hiptesis lmn ba
g (x)dx = > 0 es falsa, es decir:
a n
R
b
1
g (x)dx = 0
lmn ba
a n
de lo cual se sigue el resultado.

268

APNDICE

Teorema 20. Sea (fn )nN una sucesin montona no decreciente de funciones no negativas,
Riemann integrables en todo intervalo finito, y tales que
R la funcin f = lmn
R fn es tambin
Riemann integrable en todo intervalo finito, entonces 0 f (x)dx = lmn 0 fn (x)dx.
Demostracin
Rk
Definamos f0 = 0 y, para cada j, k N, sea ajk = k1 [fj (x) fj1 (x)] dx. Obsrvese que se
tiene:
R
R
P P
P P
mn 0 fn (x)dx
k=1
j=1 ajk = 0 f (x)dx y
j=1
k=1 ajk = l
En efecto:

P P
Pm P
Pm
Pn
l
m
a
=
l
m
a
=
l
m
a
jk
m
jk
m
n
jk
k=1
j=1
k=1
j=1
k=1
j=1

Rk
Pm
Pm R k
= lmm k=1 lmn k1 fn (x)dx = lmm k=1 k1 f (x)dx (por el teorema 19)
Rm
R
= lmm 0 f (x)dx = 0 f (x)dx
P P
P P
P
P
mn nj=1
mn nj=1 (lmm m
j=1
k=1 ajk = l
k=1 ajk = l
k=1 ajk )

Rm
Pn
= lmn j=1 lmm 0 [fj (x) fj1 (x)] dx

Pn R m
= lmn lmm j=1 0 [fj (x) fj1 (x)] dx

Rm
R
= lmn lmm 0 fn (x)dx = lmn 0 fn (x)dx
El resultado se sigue entonces del lema 5.

Respuestas a los ejercicios


CAPTULO 1
1.1. = {(P, P ), (P, R, Q, P, P ), (P, R, Q, P, R, Q, P, P ), . . .}
{(Q, R, P, P ), (Q, R, P, Q, R, P, P ), . . .}
{(Q, Q), (Q, R, P, Q, Q), (Q, R, P, Q, R, P, Q, Q), . . .}
{(P, R, Q, Q), (P, R, Q, P, R, Q, Q), . . .}
{(P, R, R, ), (P, R, Q, P, R, R), . . .}
{(Q, R, R, ), (Q, R, P, Q, R, R), . . .}

1.2. = {(a, b, c) R3 : 0 a 1, 0 b 1, 0 c 1}
A = {(a, b, c) : b2 4ac > 0}

P ), (P , Q,
P , Q,
P ), . . . (P , Q), (P , Q,
P , Q), (P , Q,
P , Q,
P , Q), . . .
1.3. = (P ), (P , Q,

P ), (P , Q,
P , Q,
P ), . . .
A = (P ), (P , Q,

B A = A B A B
1.4. E = A B

AB
B A = A B
F = A B

1.5. a) ni=1 Aci ; b) ni=1 Ai ; c) ni=1 Ai j6=i Acj


CAPTULO 2
2.1. p =

1+ 5
2

2.2. 0.6
2.3.

1
4

2.4. a)

7
;
10

b)

2.5. a) 34 ; b)
2.7.
2.12.

3
5
11
;
12

c)

5
12

1
16
1
6

2.13. a) 0.65, b) 0.22, c)

8
35

2.14. 0.625
2.17.

1
151200

2.18.

140
323

269

270

2.19.

RESPUESTAS A LOS EJERCICIOS


3
19

n1
(2rn )
2r2 (2r2)
2n ; b) n2
( 2r )
(2n
2r )
n r!
n1 r1
; b) r nr
2.21. a) n

2.20. a) 22r

2.22. Si la puerta abierta que se muestra al concursante es la nmero 2 y p > 1q


, la mejor
2q
1q
estrategia consiste en elegir la puerta nmero 1, mientras que si p < 2q , la mejor estrategia
consiste en cambiar de puerta. Si la puerta abierta que se muestra al concursante es la nmero
3 ocurre y p < 3q1
, la mejor estrategia consiste en elegir la puerta nmero 1, mientras que
2q
3q1
si p > 2q , la mejor estrategia consiste en cambiar de puerta.
2.23. P (A) =
2.24.

1
3

y P (B) = 12 , o bien, P (A) =

1
2

y P (B) =

1
3

2
5

2.25. a) 0.3; b) 0.5


2.26. S lo son.
2.28.

1
36

2.29. n 25
2.30. n 150
n m1 m
2.31. m
N
N
2.32.

1
32

2.33.

7
9

2.34. 0.9985
2.35. n 3
2.36. 0.264
2.37. a) 0.098; b) 0.44898
2.38. a) 0.20463; b) 0.94502; c) 0.61086
2.39. La reparticin de las apuestas debe de ser de 11 a 5.
2.41. a) Verdadera; b) Falsa; c) Falsa; d) Falsa; e) Verdadera; f) Falsa; g) Falsa
2.42. nicamente si p =

1
2

2.43. nicamente si p =

1
2

CAPTULO 3
3.4.

n
N

3.5.

18
25

RESPUESTAS A LOS EJERCICIOS

3.6. a) 59 ; b)

271

5
72

3.7. a) 0.1187; b) 0.784


3.8. a) 0.96875; b) 0.3024
3.9.

2
5

3.10.

1
3

3.11.

9
13

3.12. 0.614772
6
3.13. 1 34
3.14.

75
91

3.15.

1
6

3.16.

(n1)(N 1)(Nn+2)
N n1

3.17.

N2 3

N1 3
N

N1 4

si 2 n N + 1

3.18. 1 N

10 Nk 10
3.19. a. Nk+1
N
; b.
N
3.20.

1
11

2
;
n1

3.21. a.
1
n1

b.

3.22.

1
(n1)(n2)

3.23.

1
n(n1)

3.24.

7
45

3.25.

125
126

3.26.

5
72

3.27.

k10
N 10

2
,
n1

(k1)10
N 10

excepto si n = 2k + 2, en cuyo caso la probabilidad buscada es igual a

(n2 )n!
nn

3.28. a)

1
2!

1
3!

+ +

1
;
10!

b) 0.9197

3.29. 1 2!1 + 3!1 + + (1)n1 n!1 1 e1

1
1
1
1
nk
3.30. k! 2! 3! + + (1) (nk)!

3.31.

17
165

3.32. Si X es el Nmero de bolas blancas en la primera urna despus de las transferencias,


14
60
51
entonces P [X = 1] = 125
, P [X = 2] = 125
y P [X = 3] = 125

272

RESPUESTAS A LOS EJERCICIOS


s
n

3.33.

1
k

3.34. P (Ak ) =
3.35.

153
190

3.36.

(k1)(nk)

3.37.

5
6

3.38.

14
37

3.39.

5
29

3.40.

7
20

3.41.

(Nk )
( )(Nn )

(n2 )

N
n

3.42. a)

n(n1)
;
(N1)(N2)

b)

(Nn1)(Nn2)
(N1)(N2)

3.43. a) 0.999999; b) 0.999946


3.44. 0.99995
3.45. 0.500076
k 5 nk
3.46. nk 16
6
r

nr

(r1)(kr )
1
nk+1
(n)

3.47.

k1

3.48. a)

211
;
2300

3.49.

20
29

3.50.

505
1001

3.51.

2591
10005

b)

3.52. 0.3959
(nm)
3.53. 1 nk
(k )
3.54.

2N
(2N
N )( N )
(4N
2N )

3.55.

21
34

CAPTULO 4
4.1.

49
90

4.2.

14
25

4.3.

3
7

1845
2300

RESPUESTAS A LOS EJERCICIOS

4.4.

1
3

4.5.

73
450

4.6.

23
40

4.8.

125
608

4.9.

2
3

4.10.

4
5

4.11.

p
87p

4.12.

548
675

4.13.

1
5

4.14.

3
11

4.15. a)
4.16.

1
2

4.17.

9
23

4.18. a)

55
;
153

7
;
18

b)

b)

21
55

4
7

4.19. a) 0.46; b) = 0.3913


4.20. a) 0.26; b) 0.4615; c) 0.2923
4.21. 0.92105
4.22.

8
9

4.23. 0.28571
4.24. 0.99788
4.25. p >

1
12

4.26. a) 0.9903
p
c) .99p+.01

0.8
0.6
0.4
0.2

0.02

e) p > 0.49749

0.04

0.06

0.08

0.1

273

274

RESPUESTAS A LOS EJERCICIOS

4.27. La probabilidad de que el Sr. Flores padezca la enfermedad es igual a 0.8333, as que el
mdico debe de recomendar ciruga.
4.28.

4
51

4.29.

5
339

4.30.

15
28

4.31.

S5

k=0

( k5 ) (k5)

5
7

4.32.

CAPTULO 5
5.2. a) 0.33059 y 0.66941, respectivamente; b)
5.6.

31
72

5.7.

1
6

9
, 6
19 19

4
,
19

respectivamente.

5.8. 66.66%
CAPTULO 6
6.1. P [|X 1| > 2] = 1 FX (3) + FX (1)

6.2. a) 34 ; b) 12 ; c) 14 ; d) 0

frac12 (x + 1)2
1
6.3. a) c = 3 + 2 2; b) FX (x) =
1

+ (x 3)2

si x < 1
si
si
si
si

x [1, 0)
x [0, 3)
x [3, c)
xc

6.4. No

6.5. Mayor que 0.6019


x1


1
2
1

1
n
n
n
6.6. f (x) =
0

x2
n

si x {2, . . . , n + 1}
en otro caso

CAPTULO 7
7.1.

135
1024

7.2. P [2 hombres y 2 mujeres] = 38 ; P [3 hijos de un sexo y 1 del otro] =


7.3. P [obtener por lo menos 1 seis al lanzar 6 veces un dado] = 0.6651
P [obtener por lo menos 2 seises al lanzar 12 veces un dado] = 0.61867
P [obtener por lo menos 3 seises al lanzar 18 veces un dado] = 0.59735.
7.4. 0.94208

1
2

RESPUESTAS A LOS EJERCICIOS

7.5. 375
7.6.

k
n

7.8. Los

n
k

posibles arreglos de k xitos y n k fracasos tienen la misma probabilidad.

7.9. El jugador A pues la probabilidad que tiene de ganar el juego es igual a 0.5706
2N x 2Nx
1
si x {0, . . . , N }
N
2
7.10. f (x) =
0
en otro caso
(
k
p
2
si k {1, 2, . . .}
2p 2p
7.11. P[exactamente k mujeres] =
p
1 (1p)(2p) si k = 0
7.12. P (X x) = (1 p)x
h
n1 ik1 1 n1
7.14. 1 n 12
n 2

si x = 0
p1
(1 p1 )x (1 p2 )x1 [p2 + p1 (1 p2 )] si x {1, 2, . . .}
7.15. fX (x) =
0
en otro caso
p = p1 + p2 (1 p1 )
1
(0.6e2 2x + 0.4e3 3x ) si x {0, 1, . . .}
x!
7.17. f (x) =
0
en otro caso
7.18.

17 3
e
2

11

7.19. p > 1 210


7.21. = k
7.22. 0.045822
7.23. 1 52 e1
7.24. fX (x) =

7.25. fX (x) =

fY (y) =
fZ (z) =

x1

si x {2, . . . , N }
(N2 )
0
en otro caso
3(N x)(Nx1)
N(N1)(N2)

6(y1)(Ny)
N(N1)(N2)

0
3(z1)(z2)
N(N 1)(N2)

7.26. 0.77778
7.28. fX (x) =

4x
10

si x {1, . . . , N 2}
en otro caso

si y {2, . . . , N 1}
en otro caso
si z {3, . . . , N }
en otro caso

si x {0, 1, 2, 3}
en otro caso

275

276

RESPUESTAS A LOS EJERCICIOS

7.29. c = 6; P [X es par] = 34 .
7.31. a) 34 ; b)
7.32. fX (x) =

1
;
10

c)

1
;
25

x+1
100
19x
100

d)

3
50

si x {0, . . . , 9}
si x {10, . . . , 18}
en otro caso

7.33. P [X < Y ] = 1 N(N+1)


; P [X = Y ] = M1
2MN
M
N si y = M
1
7.34. fY (y) =
si y {M + 1, . . . , N }
N
0 en otro caso
NM+1
si y = M

N
1
7.35. fY (y) =
si y {1, . . . , M 1}
N
0
en otro caso
2z1
si z {1, . . . , N}
N2
7.36. fZ (z) =
0
en otro caso

7.37. a) P [X < Y ] = 1 ep ; P [X > Y ] = (1 p)ep


b) P [X > Y ] > P [X < Y ] cuando < 1p ln(2 p).
p
; P [X = Y ] = 2p
7.38. a) P [X < Y ] = 1p
2p

p(2 p)(1 p)2z si z {0, 1, . . .}


b) fZ (z) =
0
en otro caso

CAPTULO 8
8.1. T tiene una distribucin uniforme en el intervalo [0, 15].

2(1 y) si y (0, 1)
8.2. fY (y) =
0
en otro caso

1 si 0 < y < 1
8.3. a. fY (y) =
0 en otro caso
1

si 0 < z < 1
2z
b. fZ (z) =
0
en otro caso
(
2
si y (0, 1)
(1y2 )
8.4. fY (y) =
0
en otro caso
8.5.

T t
p
T pt

8.6. 0.682689
8.7. 0.354032
8.8. 0.193939
8.9. 0.10618

RESPUESTAS A LOS EJERCICIOS

8.10. fX (x) =

U
b

1
exp{

12 (y)2
2

277

2
exp

si x b
2 (x )
2
}dy
en otro caso

8.11. Utilizando el teorema de de Moivre-Laplace, se tiene P [X = 310] 0.0216969 mientras


que el valor exacto es 0.0215234.
P [280 < X < 310] 0.654736
8.12. 0.998611
8.13. 1
8.14. 0.36529
8.15. 508
8.16. 0.220718
8.17. 9604
8.18. 0.0312832
8.19. 1.52
8.20. 2.3685 107 aos
8.21. 2 segundos.
8.23. Si Y es el tiempo que la mquina funciona bien, se tiene, FY (t) = 1
pt )5k , en donde pt = (1 + t)et .
8.24. 0.761897
8.25. 1 + e5 (5 + 1) e ( + 1)

8.26. Y tiene distribucin gama de parmetros y c .


4
4
8.27. a) 23 ; b) 13

2(1 y) si y (0, 1)
8.28. fY (y) =
0
en otro caso

x

si x
3, 2
2 3
x
8.29. fX (x) =
0
en otro caso
1
si 0 x <
1
2 x
8.30. fX (x) =
2xarcsen x1 12 x si 1 < x 2

0
en otro caso

si 0 z 1
z
2 z si 1 < z 2
8.31. fZ (z) =
0
en otro caso



si x 0, 12 2
2 2 1x 2
8.32. fX (x) =
0
en otro caso

5 k
k=3 k pt (1

P5

278

RESPUESTAS A LOS EJERCICIOS

8.33. fX (x) =

8.34. d = 1

1
2

1
(2
2

x) si 0 x 2
en otro caso

2
1

f ( yb
)
si a > 0
a
<y <
yb
1
a f ( a ) si a < 0
Para el caso en que X tiene distribucin uniforme en el intervalo (0, 1), si a > 0, Y tiene
distribucin uniforme en el intervalo (b, a + b), mientras que si a < 0, Y tiene distribucin
uniforme en el intervalo (a + b, b).

2yf (y 2 ) si y > 0
8.36. fY (y) =
0
en otro caso
Para el caso en que X tiene distribucin gama de parmetros y , se tiene
2 21 y2
y
e
si y > 0
()
fY (y) =
0
en otro caso

f (y) + f (y) si y > 0


8.37. fY (y) =
0
en otro caso
(
h
i
2
2
(y) /2
(y+)2 /22
1
+
e
e
si y > 0
2
a. fY (y) =
0
en otro caso
2
3 si y (0, 1)
1
si y [1, 2)
b. fY (y) =
3
0 en otro caso
1
f (ln y) si y > 0
y
8.38. fY (y) =
0
en otro caso
1 (ln y)2 /22
e
si y > 0
y 2
a. fY (y) =
0
en otro caso

1
1
(ln y)
si y > 1
y +1 ()
b. fY (y) =
0
en otro caso
(

3y4 y+5

si 0 < y 1
8 y
8.39. fY (y) =
0
en otro caso
8.35. fY (y) =

CAPTULO 9
9.3.

2N +1
3

9.4. e 1
17
9.5. 216

5 n

9.6.

n
6

9.7.

n(N+1)
n+1

; n = 10

RESPUESTAS A LOS EJERCICIOS

9.8. N

1
Nn

9.9. E(Y ) =

PN1
k=1

1p
p

279

kn

1 (1 p)M ; E [Z] = M +

(1p)M+1
p

9.10. a) 5.5; b) 3.4


9.11. 4
9.12. N
9.13. a) n; b)
9.14.

n+1
2

2+p(1p)
1p(1p)

9.15. N + 1
9.16.

1 n1
2
n

9.17. 2
9.18. 3
9.19. 15
9.20. 22.22
9.21. 3
9.22. En los dos casos el nmero esperado de cajones que se abrirn hasta encontrar el documento es igual a 15.5.
9.23. En el caso (a), el nmero esperado de cajones que se abrirn hasta encontrar el documento es igual a 12 8271p
, mientras que en el caso (b) es igual a 32 14+3p
, de manera que la
2p
2p
mejor estrategia es la indicada en (a).
9.24. a) 0.3012; b) 99.32
9.25. 0.761897
9.26. 0.1844
9.28.

1
(n+1)p

9.29.

2e [1 F (1)] = 0.65568

(1 (1 p)n+1 )

9.30.

3/2
e
3

9.32.

1 2
1 e 2 y
2

9.33. 35
9.34. 1
9.35.

n+1
r+1

9.36.

s(n+1)
r+1

280

RESPUESTAS A LOS EJERCICIOS

9.37. N 1 + m1 (1 p)m
h
N i
9.38. 365 1 364
365

9.39. N 1 + 12 + + N1

9.41. a) 12 (a + b).; b) ; c)

ln 2.

9.43. A una distancia igual a

9.44. E(X) = 12 N; V ar(X) =

N(N+2)
12

9.45. E(X) = 12 (a + b) +

1
(b
2n

ln 2 del origen.

a); V ar(X) =

9.46. E [|X + 1|] = 56 ; V ar [|X + 1|] =


9.47. E [Y ] =

28
;
15

V ar(Y ) =

1
(b
12

11
36

a)2

1
(b
12n2

a)2

866
225

9.48. 299.67
9.49. 2
9.50. 4V ar(X) + 9V ar(Y )
9.51. E [X] = 5.2632; V ar(X) = 2.6397
9.52. V ar(X) =
9.53. E [X n ] =

nrs(r+sn)
(r+s)2 (r+s1)

(+n1)(+n2)
n
n

9.54. b) E [(X ) ] =

0
si n es impar
n
1 3 5 (n 1) si n es par

9.56. La desigualdad de Chebyshev establece que a lo ms se rechazan 1 de cada 10 monedas


balanceadas.
El teorema de de Moivre Laplace establece que se rechazan, aproximadamente, 16 de cada
10, 000 monedas balanceadas.
9.57. 0.9203
9.58. a. 0.88235; b. es mayor o igual a 34 ; c. por lo menos 10
9.59. a.) 0.79951; b) P [12 X 18] 0.16667
9.60. a) n 9604.; b n 50000
9.61. X (t) = te(t1)
9.62. X (t) =

t2N +tN +1 tN +2
2N (2t)

9.63. X (t) =

t 1tN
;
N 1t

9.64. X (t) =

2t3
;
N+2Nt

E [X] =

N +1
2

E [X] = 3 + 12 N

9.65. X (t) = (tp + 1 p)n ; E [X] = np; V ar(X) = np(1 p)

RESPUESTAS A LOS EJERCICIOS

9.66.

35
2

9.67.

3055
36

3
2
9.68. fX+Y (1) = 90
; fX+Y (2) = 90
; fX+Y (3) =
10
12
; fX+Y (7) = 90
90
fX+Y (z) = 0 para z
/ {1, 2, 3, 4, 5, 6, 7}.

9.70. MX (t) =

1
2(1+t)

9.72. a) MU (t) =
9.74. 278

1
2(1t)

1
(et
t2

19
;
90

fX+Y (4) =

para 1 < t < 1

1)2 si t 6= 0
, b) MV (t) =
si t = 0

281

13
;
90

1 t t
e (e
t2

fX+Y (5) =

31
;
90

1)2 si t 6= 0
si t = 0

fX+Y (6) =

(z) =
z
0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
1.1
1.2
1.3
1.4
1.5
1.6
1.7
1.8
1.9
2.0
2.1
2.2
2.3
2.4
2.5
2.6
2.7
2.8
2.9
3.0
3.1
3.2
3.3
3.4
3.5
3.6
3.7
3.8
3.9

0
.0000
.0398
.0793
.1179
.1554
.1915
.2258
.2580
.2881
.3159
.3413
.3643
.3849
.4032
.4192
.4332
.4452
.4554
.4641
.4713
.4773
.4821
.4861
.4893
.4918
.4938
.4953
.4965
.4974
.4981
.4987
.4990
.4993
.4995
.4997
.4998
.4998
.4999
.4999
.5000

1
2

1
.0040
.0438
.0832
.1217
.1591
.1950
.2291
.2612
.2910
.3186
.3438
.3665
.3869
.4049
.4207
.4345
.4463
.4564
.4649
.4719
.4778
.4826
.4865
.4896
.4920
.4940
.4955
.4966
.4975
.4982
.4987
.4991
.4993
.4995
.4997
.4998
.4998
.4999
.4999

Rz
0

1 2

e 2 y dy

2
.0080
.0478
.0871
.1255
.1628
.1985
.2324
.2642
.2939
.3212
.3461
.3686
.3888
.4066
.4222
.4357
.4474
.4573
.4656
.4726
.4783
.4830
.4868
.4898
.4922
.4941
.4956
.4967
.4976
.4983
.4987
.4991
.4994
.4995
.4997
.4998
.4999
.4999
.4999

3
.0120
.0517
.0910
.1293
.1664
.2019
.2357
.2673
.2967
.3238
.3485
.3708
.3907
.4082
.4236
.4370
.4485
.4582
.4664
.4732
.4788
.4834
.4871
.4901
.4925
.4943
.4957
.4968
.4977
.4983
.4988
.4991
.4994
.4996
.4997
.4998
.4999
.4999
.4999

0
4
.0160
.0557
.0948
.1331
.1700
.2054
.2389
.2704
.2996
.3264
.3508
.3729
.3925
.4099
.4251
.4382
.4495
.4591
.4671
.4738
.4793
.4838
.4875
.4904
.4927
.4945
.4959
.4969
.4977
.4984
.4988
.4992
.4994
.4996
.4997
.4998
.4999
.4999
.4999

5
.0199
.0596
.0987
.1368
.1736
.2088
.2422
.2734
.3023
.3289
.3531
.3749
.3944
.4115
.4265
.4394
.4505
.4599
.4678
.4744
.4798
.4842
.4878
.4906
.4929
.4946
.4960
.4970
.4978
.4984
.4989
.4992
.4994
.4996
.4997
.4998
.4999
.4999
.4999

6
.0239
.0636
.1026
.1406
.1772
.2123
.2454
.2764
.3051
.3315
.3554
.3770
.3962
.4131
.4279
.4406
.4515
.4608
.4686
.4750
.4803
.4846
.4881
.4909
.4931
.4948
.4961
.4971
.4979
.4985
.4989
.4992
.4994
.4996
.4997
.4998
.4999
.4999
.4999

7
.0279
.0675
.1064
.1443
.1808
.2157
.2486
.2794
.3079
.3340
.3577
.3790
.3980
.4147
.4292
.4418
.4525
.4616
.4693
.4756
.4808
.4850
.4884
.4911
.4932
.4949
.4962
.4972
.4980
.4985
.4989
.4992
.4995
.4996
.4997
.4998
.4999
.4999
.4999

8
.0319
.0714
.1103
.1480
.1844
.2190
.2518
.2823
.3106
.3365
.3599
.3810
.3997
.4162
.4306
.4430
.4535
.4625
.4700
.4762
.4812
.4854
.4887
.4913
.4934
.4951
.4963
.4973
.4980
.4986
.4990
.4993
.4995
.4996
.4997
.4998
.4999
.4999
.4999

9
.0359
.0753
.1141
.1517
.1879
.2224
.2549
.2852
.3133
.3389
.3621
.3830
.4015
.4177
.4319
.4441
.4545
.4633
.4706
.4767
.4817
.4857
.4890
.4916
.4936
.4952
.4964
.4974
.4981
.4986
.4990
.4993
.4995
.4997
.4998
.4998
.4999
.4999
.4999

ndice

lgebra de conjuntos, 110

d sistema, 115
dImola, B., 2
de Fournival, R., 2
de Mr, A. G., 2
de Moivre, A., 4, 43, 175, 244
de Moivre-Laplace
teorema integral de, 184
teorema local de, 180
de Roberval, M., 95
Desviacin estndar, 232
Dirac, P., 127
Dispersin, 232
Distribucin
binomial, 143
binomial negativa, 150
Cauchy, 197
chi cuadrada, 194
exponencial, 189
gama, 192, 193
geomtrica, 148
hipergeomtrica, 158
normal, 178
normal estndar, 178
tabla, 283
Poisson, 153
uniforme continua, 175
uniforme discreta, 163
uniforme en el plano, 195
Distribucin
de funciones de variables aleatorias continuas,
196
Distribuciones truncadas, 162

Banach, S., 108


Bayes
frmula de, 78
Bayes, T., 175
Bernoulli
ensayos de, 92, 144
teorema de, 146, 243
Bernoulli, J., 4, 95, 143, 146, 207
Bertrand
paradoja de, 103
Bienaym, I. J., 193
Boole
desigualdad de, 28
Borel
sigma lgebra de, 116
Borel, F. E. J. E., 4, 87
Boreliana
funcin, 120
Boreliano
conjunto, 116
Brown, R., 187
Caminatas aleatorias, 164
distribucin de la posicin en el n-simo, 164
distribucin del tiempo del primer retorno al origen, 168
primer paso por un valor positivo, 168
distribucin del tiempo del, 169
retornos al origen, 165
Cantelli, F. P., 4
Caracteres hereditarios, 73
Cardano, G., 2, 3
Cauchy-Schwarz
desigualdad de, 237
Chebyshev
desigualdad de, 240
Chebyshev, P. L., 4, 243
Clase montona, 113
Covarianza, 235

Einstein, A., 143, 187


Elecciones al azar, 29
Espacios de probabilidad, 110
Espacios muestrales, 19
infinitos numerables, 87
Esperanza
de funciones de variables aleatorias, 220
285

286

NDICE

de variables aleatorias absolutamente continuas,


210
de variables aleatorias discretas, 209
definicin general, 216
propiedades, 224
Eventos, 16
complemento, 22
composicin, 22
elementales, 21
equivalencia, 21
imposibles, 21
interseccin, 22
mutuamente excluyentes, 23
ocurrencia, 16
representacin, 20
resultados favorables, 20
seguros, 21
unin, 22
Experimento, 12
aleatorio, 12
realizacin, 15
repetible, 14
determinstico, 12
Feller, W., 4
Fermat, P., 14, 97, 121, 207
Frecuencia relativa, 17
Funcin de densidad, 132
conjunta, 223
de una variable aleatoria absolutamente continua, 132
de una variable aleatoria discreta, 133
Funcin de distribucin, 129
Funcin finitamente aditiva, 88, 110
Funcin gama, 136
Funcin generadora
de momentos, 250
de probabilidades, 245
Funcin sigma-aditiva, 89, 111
Funcin sigma-subaditiva, 111
Gentica
aplicacin a la, 73
Hausdorf F., 108
Hilbert, D., 51
Huygens, C., 14, 27, 95, 121, 129, 143, 148, 158,
207
Independencia
de eventos, 38, 39, 41
de variables aleatorias, 135
Jacob, F., 69

Khintchine, A. Ya., 4
Klein, F. C., 263
Kolmogorov, A. N., viii, 4, 5, 111
Kuratowski, K., 108
Lvy, P. P., 4, 108
Laplace
ley de la sucesin de, 72
Laplace, P. S., 4, 11, 179
Lebesgue
medida de, 118, 119
Lebesgue, H. L., 107, 118
Ley dbil de los grandes nmeros, 146, 243
Lindeberg, J. W., 4
Lobachevskii, N. I., 5
Lyapunov, A. M., 4
Markov, A. A., 4
Marx, K., vii
Mediana, 231, 259
Mendel, G. J., 75
Minkowski, H, 5
Momento
central de orden n, 260
de orden n, 239
Monod, J., 69
Movimiento browniano, 187
Muestreo
aleatorio con reemplazo, 51
aleatorio no ordenado sin reemplazo, 54
aleatorio ordenado sin reemplazo, 52
Paccioli, L., 2
Paradoja de San Petersburgo, 212
Pascal, B., 14, 48, 97, 207
pi-sistema, 115
Poincar, J. H., 5, 127
Poisson
proceso de, 157
teorema de, 154
Poisson, S. D., 4, 154, 243
Polya
urna de, 71
Principio de regularidad de las frecuencias, 17
Probabilidad
condicional, 32, 34
definicin clsica, 30
funcin de, 25, 133
geomtrica, 99, 195
idea intuitiva, 19
interpretacin objetiva, 44
interpretacin subjetiva, 44
medida de, 111
Probabilidades de tipo binomial, 60

NDICE

Probabilidades de tipo hipergeomtrico, 60


Problema
de la divisin de apuestas, 150
de la medida, 107
de la ruina del jugador, 97, 248
de los N jugadores, 121
de los tres jugadores, 26, 96, 257
del colector de cupones, 228
del encuentro, 101
Propiedad de la aditividad finita, 28
Propiedad de la aditividad numerable, 89
Regla
de Bayes, 78
de la probabilidad total, 69
generalizada, 72
de la suma
para 2 eventos, 28
para n eventos, 29, 46
del producto, 35, 36, 47
Resultados equiprobables, 29
sigma-lgebra, 110
Simulacin, 198
Stirling
frmula de, 139
Subaditividad
finita, 28
numerable, 111
Tamao de una muestra, 51, 53, 54
Tarski, A., 108
Teorema de clases montonas, 112
para lgebras, 114
para pi sistemas, 116
Teorema del lmite central, 180
Teoremas lmite, 146, 180, 243
Tringulo aritmtico, 59
Variables aleatorias, 128
absolutamente continuas, 132, 175
clasificacin, 131
continuas, 131
discretas, 133, 143
Varianza, 232
propiedades, 236
Vitali, G., 108
Wallis
frmula de, 138
Weierstrass, K. T. W., 127
Wiener, N., 187

287