Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROBABILIDAD
Luis Rinc
on
Departamento de Matematicas
Facultad de Ciencias UNAM
Circuito Exterior de CU
04510 Mexico DF
Mayo 2005
Prefacio
El presente texto est
a dirigido a estudiantes de mitad de carrera de las
licenciaturas de matem
aticas, actuara y areas afines. Contiene el material
b
asico para un curso intermedio de probabilidad y tiene como origen las
notas de clase del curso semestral de Probabilidad II impartido por el autor
en la Facultad de Ciencias de la UNAM a lo largo de varios semestres.
El texto contiene una gran cantidad de ejercicios la mayora de los cuales
son de tipo mec
anico, algunos de ellos son muy sencillos y en otros se pide
reproducir lo realizado antes, de modo que el termino ejercicios me parece
justo y adecuado. La intenci
on es la de crear confianza y soltura por parte
del alumno en el manejo de los conceptos y notaci
on involucrados. El n
umero
de ejercicios excede lo que normalmente puede realizarse en un semestre y
el objetivo que siempre tuve en mente estos a
nos fue el tener un n
umero
suficiente de ellos para presentar algunos en clase, dejar otros para trabajo
en casa y asignar algunos otros para preguntas de examen, usando material
ligeramente distinto cada semestre para evitar repeticiones. Los ejercicios
se encuentran regularmente al final de cada secci
on y se han numerado de
manera consecutiva a lo largo del curso.
Al final del texto aparece una lista de referencias que me permito sugerir al
lector consultar para profundizar y a veces precisar en algunos temas. Algunos de estos textos no han sido referenciados explcitamente pero aparecen
en la lista por que en alg
un momento he obtenido inspiraci
on de ellos.
Me disculpo de antemano por cualquier error u omisi
on y agradezco sinceramente cualquier correcci
on o comentario en el correo electr
onico que aparece
abajo.
Luis Rinc
on
Mayo 2005
Ciudad Universitaria UNAM
lars@fciencias.unam.mx
Contenido
1. Espacios de probabilidad
1.1. Espacios de probabilidad . . . . .
1.2. -
algebras . . . . . . . . . . . . .
1.2.1. Conjuntos de Borel . . . .
1.2.2. Sucesiones de eventos . .
1.3. Medidas de probabilidad . . . . .
1.3.1. Propiedades elementales .
1.3.2. Continuidad . . . . . . . .
1.3.3. Independencia de eventos
1.3.4. Lema de Borel-Cantelli .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
4
4
5
11
14
20
23
28
32
34
2. Variables aleatorias
2.1. Variables aleatorias . . . . . .
2.2. Funci
on de distribuci
on . . .
2.3. Tipos de variables aleatorias .
2.4. Integral de Riemann-Stieltjes
2.5. Caractersticas numericas . .
2.5.1. Esperanza . . . . . . .
2.5.2. Varianza . . . . . . . .
2.5.3. Momentos . . . . . . .
2.6. Distribuciones discretas . . .
2.7. Distribuciones continuas . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
36
36
44
50
53
55
55
59
61
63
70
3. Vectores aleatorios
3.1. Vectores aleatorios . . . . . . . . . . . . . . . . .
3.2. Distribuci
on conjunta . . . . . . . . . . . . . . .
3.3. Densidad conjunta . . . . . . . . . . . . . . . . .
3.4. Distribuci
on marginal . . . . . . . . . . . . . . .
3.5. Distribuci
on condicional . . . . . . . . . . . . . .
3.6. Independencia de variables aleatorias . . . . . . .
3.7. Esperanza condicional . . . . . . . . . . . . . . .
3.8. Varianza condicional . . . . . . . . . . . . . . . .
3.9. Esperanza de una funci
on de un vector aleatorio
3.10. Covarianza . . . . . . . . . . . . . . . . . . . . .
3.11. Coeficiente de correlaci
on . . . . . . . . . . . . .
3.12. Esperanza y varianza de un vector aleatorio . . .
3.13. Distribuciones multivariadas discretas . . . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
80
80
81
84
87
88
91
95
98
99
102
105
110
111
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
de
. .
. .
. .
. .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
114
114
116
118
122
124
126
orden
. . . .
. . . .
. . . .
. . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
130
131
140
141
145
.
.
.
.
.
.
.
.
150
. 150
. 151
. 152
. 153
. 154
. 154
. 156
. 160
.
.
.
.
.
.
.
.
.
.
.
.
6. Convergencia
6.1. Convergencia puntual . . . . . . . . . . . . . . . .
6.2. Convergencia casi segura . . . . . . . . . . . . . . .
6.3. Convergencia en probabilidad . . . . . . . . . . . .
6.4. Convergencia en media . . . . . . . . . . . . . . . .
6.5. Convergencia en media cuadr
atica . . . . . . . . .
6.6. Convergencia en distribuci
on . . . . . . . . . . . .
6.7. Relaciones generales entre los tipos de convergencia
6.8. Dos resultados importantes de convergencia . . . .
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
7. Funciones generadoras
162
7.1. Funci
on generadora de probabilidad . . . . . . . . . . . . . . 162
7.2. Funci
on generadora de momentos . . . . . . . . . . . . . . . . 166
7.3. Funci
on caracterstica . . . . . . . . . . . . . . . . . . . . . . 171
8. Teoremas lmite
178
8.1. Desigualdades de Markov y de Chebyshev . . . . . . . . . . . 178
8.2. Ley de los grandes n
umeros . . . . . . . . . . . . . . . . . . . 183
8.3. Teorema del lmite central . . . . . . . . . . . . . . . . . . . . 185
A. Distribuciones de probabilidad
188
B. Formulario
193
C. Tabla de la distribuci
on normal est
andar
196
Captulo 1
Espacios de probabilidad
La teora de la probabilidad es la parte de las matem
aticas que se encarga
del estudio de los fen
omenos o experimentos aleatorios. Se entiende por
experimento aleatorio todo aquel experimento tal que cuando se le repite
bajo las mismas condiciones iniciales, el resultado que se obtiene no siempre
es el mismo. A menudo y por muy diversas razones es necesario aceptar
que no es posible predecir el resultado de un experimento particular y en
consecuencia se considera aleatorio. Bajo estas circunstancias, la teora de
la probabilidad tiene el objetivo de modelar matem
aticamente cualquier
experimento aleatorio de interes.
1.1.
Espacios de probabilidad
El modelo matem
atico creado durante el primer tercio del siglo XX para estudiar los experimentos aleatorios es el as llamado espacio de probabilidad.
Este modelo consiste de una terna ordenada, denotada usualmente por
(, F, P ),
en donde es un conjunto arbitrario, F es una -
algebra de subconjuntos
de y P es una medida de probabilidad definida sobre F. Explicamos a
continuaci
on brevemente cada uno de estos elementos.
Espacio muestral. El conjunto es llamado espacio muestral o espacio muestra y tiene como objetivo agrupar a todos los posibles resultados del experimento aleatorio en cuesti
on. No es imprescindible darle esta interpretaci
on
al conjunto y matem
aticamente se le considera entonces un conjunto arbitrario.
-
algebras. Una clase o colecci
on no vaca F de subconjuntos de es una algebra si es cerrada bajo las operaciones de tomar complementos y uniones
numerables. A los elementos de una -
algebra se les llama eventos o conjuntos medibles. En particular, un evento es simple si consta de a lo m
as
4
[
X
P(
An ) =
P (An ).
n=1
n=1
Definici
on 1 Un espacio de probabilidad es una terna (, F, P ) en donde
es un conjunto arbitrario, F es una -
algebra de subconjuntos de y
P : F [0, 1] es una medida de probabilidad.
1.2.
-
algebras
En esta secci
on se estudia el concepto de -
algebra y se define la mnima
-
algebra generada por una colecci
on arbitraria. Recordemos nuevamente la
definici
on de esta estructura.
Definici
on 2 Una colecci
on F de subconjuntos de es una -
algebra si
cumple las siguientes condiciones.
1. F.
2. Si A F entonces Ac F.
3. Si A1 , A2 , . . . F entonces
n=1
An F.
En palabras, una -
algebra es una colecci
on de subconjuntos de que es
no vaca y cerrada bajo las operaciones de tomar complemento y efectu5
Figura 1.1: Una -algebra F = {A, B, C, D, E, . . .} es una coleccion no vaca de subconjuntos de que es cerrada bajo complementos y uniones numerables.
En la secci
on de ejercicios se pueden encontrar algunos otros ejemplos de
-
algebras. El uso de la letra F para denotar una -
algebra proviene del
nombre en ingles field que significa campo. En algunos textos se usa
6
i=1
Ai F.
3. Si A, B F entonces A B F.
4. Si A, B F entonces AB F.
Demostraci
on. (1) Como F y F es una colecci
on cerrada bajo complec = F. (2) Si A , A , . . . F entonces Ac , Ac , . . . F.
mentos entonces
1
2
1
2
S
c
Por lo tanto
n=1 An F. Tomando complementos y usando las leyes de
De Morgan se obtiene
!c
\
[
c
An F.
An =
n=1
n=1
y A1 , A2 , . . . F2 . Por lo tanto
S
n=1 An F1 F2 .
n=1 An
F1 y
n=1 An
F2 , es decir,
Definici
on 3 Sea C una colecci
on no vaca de subconjuntos de . La a
lgebra generada por C, denotada por (C), es la colecci
on
\
(C) = {F : F es -
algebra y C F}.
Por la proposici
on anterior sabemos que (C) es una -
algebra pues es la
intersecci
on de todas aquellas -
algebras que contienen a C. Tambien se le
llama mnima -
algebra generada por C y el adjetivo mnima es claro
a partir del hecho de que (C) es la -
algebra m
as peque
na que contiene
a la colecci
on C. Es decir, si F es una -
algebra que contiene a C entonces
forzosamente (C) F. Observe que C (C) pues a la colecci
on C se le
han a
nadido posiblemente algunos otros subconjuntos para convertirla en la
-
algebra (C).
Ejemplo 3 Sean A, B con A B = . Defina la colecci
on C = {A, B}.
En general esta colecci
on no es una -
algebra pero podemos a
nadirle algunos
subconjuntos de para encontrar la -
algebra generada por C. Esto es
(C) = {, A, B, (A B)c , A B, Ac , B c , }.
Proposici
on 4 Sean C1 y C2 dos colecciones de subconjuntos de tales que
C1 C2 . Entonces (C1 ) (C2 ).
Demostraci
on. Claramente C1 C2 (C2 ). Entonces (C2 ) es una -
algebra que contiene a la colecci
on C1 . Por lo tanto (C1 ) (C2 ).
Proposici
on 5 Si F es una -
algebra entonces (F) = F.
Demostraci
on. Sabemos que F (F). Como F es una -
algebra que contiene a F entonces (F) F. Esto demuestra la igualdad.
En la siguiente secci
on se estudia un ejemplo importante de una -
algebra
de subconjuntos de los n
umeros reales: la -
algebra de Borel.
EJERCICIOS
1. Defina con precisi
on y de manera completa los siguientes conceptos:
-
algebra, espacio medible, evento, evento simple y evento compuesto.
2. Definici
on alternativa de -
algebra. Demuestre que F es una -
algebra
de subconjuntos de si y solo si
a) F.
b) A F Ac F.
c) A1 , A2 , . . . F
n=1
An F.
3. Definici
on alternativa de -
algebra. Demuestre que F es una -
algebra
de subconjuntos de si y solo si
a) F.
b) A, B F A B F.
\
c) A1 , A2 , . . . F
An F.
n=1
10
20. Sean A, B arbitrarios. Encuentre explcitamente todos los elementos de {A, B}. Por el ejercicio anterior, el total de elementos en
{A, B} en el caso m
as general es 16.
21. Sea {A1 , . . . , An } una partici
on finita de . Demuestre que la cardinalidad de {A1 , . . . , An } es 2n .
22. Sea {A, B, C} una partici
on de . Encuentre explcitamente los ocho
elementos de {A, B, C}.
23. Sea C una colecci
on de subconjuntos de . Diga falso o verdadero
justificando en cada caso: C (C) 2 .
24. Demuestre que 2 es una -
algebra de subconjuntos de y que no
existe una -
algebra de subconjuntos de que sea m
as grande.
25. Sea F una -
algebra de un espacio muestral finito. Demuestre que F
contiene un n
umero par de elementos.
26. Sea un conjunto, F una -
algebra de subconjuntos de y A un
evento. Determine cu
al de las dos expresiones siguientes es notacionalmente correcta. Explique su respuesta.
a)
b)
c)
d)
1.2.1.
F
A
F
AF
o
o
F.
A .
F.
A F.
Conjuntos de Borel
Considere la colecci
on de todos los intervalos abiertos (a, b) de R en donde
a b. A la mnima -
algebra generada por esta colecci
on se le llama algebra de Borel de R y se le denota por B(R).
Definici
on 4
B(R) = {(a, b) R : a b}
Demostraci
on. Primeramente observe que los intervalos cerrados [a, b] son
conjuntos Borelianos pues podemos escribirlos en terminos de una intersecci
on numerable de intervalos abiertos de la siguiente forma
[a, b] =
n=1
1
1
, b + ).
n
n
(a
(, b) =
n=1
n=1
(a, a + n) B(R),
(b n, b) B(R).
Por lo tanto
[a, ) =
y
(, b] =
n=1
(a
1
, ) B(R),
n
(, b +
n=1
1
) B(R).
n
De forma an
aloga se puede hacer ver que los intervalos semiabiertos de la
forma [a, b) y (a, b] son conjuntos Borelianos. Los conjuntos que constan de
un solo n
umero tambien son conjuntos Borelianos pues
{a} =
n=1
(a
1
1
, a + ).
n
n
1. {[a, b] : a b}.
2. {(a, b] : a b}.
3. {[a, b) : a b}.
4. {(a, ) : a R}.
5. {(, b) : b R}.
Demostraci
on. Se prueba u
nicamente el inciso (1). El resto de los incisos
se demuestra usando el mismo procedimiento. Para demostrar que B(R) =
{[a, b] : a b} se verifican ambas contenciones. Claramente [a, b] B(R),
por lo tanto {[a, b] : a b} B(R). Entonces
{[a, b] : a b} (B(R)) = B(R).
Ahora se demuestra S
la contenci
on contraria. Sabemos que (a, b) {[a, b] :
1
1
a b} pues (a, b) =
[a
+
n=1
n , b n ]. Entonces
{(a, b) : a b} {[a, b] : a b}.
Por lo tanto
B(R) = {(a, b) : a b} {[a, b] : a b}.
De manera equivalente se puede definir a B(R) como la mnima -
algebra
generada por una colecci
on m
as grande, aquella de todos los subconjuntos
abiertos de R. En ambos casos la -
algebra generada es B(R). Es posible
considerar tambien la -
algebra de conjuntos de Borel restringidos a una
porci
on de los n
umeros reales como se indica a continuaci
on.
Definici
on 5 Sea A B(R). La -
algebra de Borel de A, denotada por
B(A), se define como sigue
B(A) = A B(R) = {A B : B B(R)}.
No es difcil comprobar que B(A) es efectivamente una -
algebra de subconjuntos de A. Observe que el nuevo conjunto total es A y no R. El concepto
de -
algebra de Borel de R puede extenderse a dimensiones mayores de la
siguiente forma. Considere la colecci
on C de todas los rect
angulos abiertos
2
de R , es decir,
C = {(a, b) (c, d) : a b, c d}.
EJERCICIOS
27. Defina con precisi
on a la -
algebra de Borel de R y de Rn .
28. Demuestre que los conjuntos (a, b] y [a, b) con a b son Borel medibles.
29. Demuestre que N, Z y Q son elementos de B(R).
30. Demuestre que el conjunto de n
umeros irracionales es un conjunto de
Borel de R.
31. Demuestre que B(R) = {[a, b] : a b}.
32. Demuestre que B(R) = {(a, b] : a b}.
33. Demuestre que B(R) = {[a, b) : a b}.
34. Demuestre que B(R) = {(a, ) : a R}.
35. Demuestre que B(R) = {[a, ) : a R}.
36. Demuestre que B(R) = {(, b) : b R}.
37. Demuestre que B(R) = {(, b] : b R}.
38. Sea A B(R). Demuestre que B(A) es efectivamente una -
algebra de
subconjuntos de A.
39. Diga falso o verdadero. Justifique su respuesta.
1
, n1 ] : n N } = B(0, 1].
a) { ( n+1
1
, n1 ] : n N } = { (0, n1 ] : n N }.
c) { ( n+1
1.2.2.
Sucesiones de eventos
En esta secci
on se estudia el concepto de convergencia de una sucesi
on infinita de eventos. Para enunciar tal concepto necesitaremos antes la definiciones
de lmite superior y lmite inferior que se establecen a continuaci
on.
14
Definici
on 6 Para una sucesi
on de eventos {An : n N} se define el lmite
superior y el lmite inferior como sigue
1. lm sup An =
n
2. lm inf An =
n
[
\
Ak .
n=1 k=n
\
[
Ak .
n=1 k=n
Tanto el lmite superior como el lmite inferior son operaciones bien definidas,
es decir, el resultado siempre existe y es u
nico. En cada caso el conjunto
resultante es siempre un evento, es decir, un conjunto medible. Es sencillo
comprobar que
lm inf An lm sup An .
n
Definici
on 7 (Convergencia de eventos) Sea {An : n N} una sucesi
on de eventos. Si existe un evento A tal que
lm inf An = lm sup An = A
n
En textos de habla inglesa a menudo se escribe lm sup An = (An i.o.), en donde i.o.
n
15
Proposici
on 8 Sea {An : n N} una sucesi
on mon
otona de eventos.
1. Si A1 A2 entonces lm An =
n
2. Si A1 A2 entonces lm An =
n
An .
An .
n=1
n=1
Demostraci
on. (1) Como la sucesi
on es creciente,
Ak =
Ak .
k=1
k=n
Por lo tanto
[
\
lm sup An =
n
=
=
n=1 k=n
[
\
Ak
Ak
n=1 k=1
Ak .
k=1
Ak = An . Entonces
k=n
lm inf An =
n
\
[
Ak
n=1 k=n
An .
n=1
(2) La demostraci
on es completamente an
aloga al inciso anterior. En este
caso como la sucesi
on de eventos es decreciente se tiene que
k=n
Ak =
Ak
k=1
Ak = An .
k=n
[
\
Ak =
n=1
n=1 k=n
16
lm inf An =
n
\
[
Ak =
n=1
n=1 k=n
{0} = {0}.
n=1
Bn =
An .
n=1
Demostraci
on. El inciso (1) es evidente a partir de la definici
on de Bn . Para
demostrar (2) suponga n < m, entonces
Bn Bm = (An
= (An
= .
n1
[
k=1
n1
\
k=1
Ak ) (Am
Ack ) (Am
m1
[
k=1
m1
\
Ak )
Ack )
k=1
1 n n0
1.
Entonces
x
A
.
Por
lo tanto x
A
=
B
n
n
n
0
0
n=1
S
B
.
pertenece a
n=1 n
17
EJERCICIOS
42. Sea {An : n N} una sucesi
on de eventos. Demuestre que
a) lm sup An es un evento.
n
b) lm inf An es un evento.
n
c) lm inf An lm sup An .
n
b) lm inf An lm inf Bn .
n
An .
n=1
An .
n=1
b) lm An = A lm 1An = 1A .
n
50. Calcule el lmite superior e inferior para cada una de las siguientes
sucesiones de eventos. Determine en cada caso si la sucesi
on es convergente.
18
1
a) An = ( , 2 + (1)n ).
n
b) An = {(x, y) : x2 + y 2 (1 + n1 )n }.
n
c) An = {(x, y) : x2 + y 2 2 + sin( )}.
2
51. Demuestre que las siguientes sucesiones de eventos no son convergentes.
a) An = si n es impar y An = si n es par.
1
b) An = (0, 1 + ( )n ).
2
52. Suponga que lm An = A y lm Bn = B. Defina la sucesi
on
n
Cn =
An si n es impar,
Bn si n es par.
a) lm (An B) = A B.
n
b) lm (An B) = A B.
n
c) lm (An B) = A B.
n
d ) lm (An B) = AB.
n
a) lm lm (An Bm ) = A B.
n m
b) lm lm (An Bm ) = A B.
n m
c) lm lm (An Bm ) = A B.
n m
d ) lm lm (An Bm ) = AB.
n m
19
b) lm (An Bn ) = A B.
n
c) lm (An Bn ) = A B.
n
d ) lm (An Bn ) = AB.
n
1.3.
Medidas de probabilidad
En esta secci
on y en lo que resta del presente captulo se estudian algunas propiedades de las medidas de probabilidad. Empecemos por recordar
nuevamente la definici
on de este concepto.
Definici
on 8 Sea (, F) un espacio medible. Una medida de probabilidad
es una funci
on P : F [0, 1] que satisface (Kolmogorov, 1933)
1. P () = 1.
2. P (A) 0, para cualquier A F.
3. Si A1 , A2 , . . . F son ajenos dos a dos, esto es, An Am = para
X
[
P (An ).
An ) =
n 6= m, entonces P (
n=1
n=1
#A
.
#
X 1
.
2n
nA
EJERCICIOS
57. Escriba de manera completa la definici
on de espacio de probabilidad,
definiendo claramente cada uno de sus componentes.
58. Determine completamente un espacio de probabilidad (, F, P ) para
el experimento aleatorio de
a) lanzar una moneda equilibrada.
b) lanzar un dado equilibrado.
21
c) escoger al azar un n
umero real dentro del intervalo unitario [0, 1].
d ) extraer dos bolas de una urna en donde hay dos bolas blancas y
dos negras.
e) lanzar una moneda honesta hasta obtener las dos caras.
59. Defina con precisi
on el concepto de medida de probabilidad.
60. Sea {xn : n N} una sucesi
on de n
umeros reales. SeaP
{an : n N}
otra sucesi
on de n
umeros reales no negativos tal que
n=1 an = 1.
Defina la funci
on P : B(R) [0, 1] de la siguiente forma
P (A) =
n=1
an 1(xn A) (n).
b) P (A) =
X 1
.
2n
nA
b) P (A) =
kA
1
(1 ).
k
65. Considere el espacio medible ((0, 1), B(0, 1)). Demuestre en cada caso
que P es una medida de probabilidad. Para cada A B(0, 1) defina
Z
2x dx.
a) P (A) =
A
22
b) P (A) =
3
x dx.
2
P (A B)
,
P (B)
1.3.1.
Propiedades elementales
Proposici
on 10 Sea P una medida de probabilidad. Entonces
1. P (Ac ) = 1 P (A).
2. P () = 0.
3. Si A B entonces P (B A) = P (B) P (A).
4. Si A B entonces P (A) P (B).
5. 0 P (A) 1.
6. P (A B) = P (A) + P (B) P (A B).
Demostraci
on. Para la propiedad (1) expresamos a como la uni
on disjunta
c
A A . Aplicamos P y obtenemos la igualdad requerida. Tomando el caso
particular A igual a en la propiedad (1) obtenemos la propiedad (2).
Para demostrar (3) escribimos B = A (B A). Aplicando P obtenemos
P (B) P (A) = P (B A). Como la probabilidad de cualquier evento es un
n
umero no negativo de la anterior igualdad obtenemos tambien la propiedad
(4). La primera desigualdad de la propiedad (5) es el segundo axioma y la
segunda desigualdad es consecuencia de la propiedad (1) y el primer axioma.
Finalmente para demostrar (6) descomponemos el evento A B como la
23
siguiente uni
on de tres eventos disjuntos dos a dos, A B = (A B)
(A B) (B A) = (A A B) (A B) (B A B). Por lo tanto
P (A B) = P (A) P (A B) + P (A B) + P (B) P (A B).
Se estudian a continuaci
on algunas otras propiedades de las medidas de
probabilidad.
Proposici
on 11 (Desigualdades de Boole) Sea {An : n N} una sucesi
on de eventos. Entonces
1. P (
An )
An ) 1
n=1
2. P (
n=1
P (An ).
n=1
P (Acn ).
n=1
Demostraci
on. (1) Sean B1 = A1 y para n 2 defina
Bn = An
n1
[
Ak .
k=1
An ) = P (
Bn )
n=1
n=1
n=1
P (Bn )
P (An ).
n=1
An ) = 1.
n=1
An ) = 1.
An ) = 0.
n=1
n=1
24
An ) = 0.
n=1
Demostraci
on. (1) Por las leyes de De Morgan y la desigualdad de Boole,
P(
n=1
An ) = 1 P (
1
= 1.
(2) Como An
Acn )
n=1
P (Acn )
n=1
n=1 An ,
1 = P (An ) P (
An ).
n=1
(3) Como
n=1 An
An ,
P(
n=1
An ) P (An ) = 0.
n=1
An )
P (An ) = 0.
n=1
Las propiedades (1) y (4) de la proposici
on anterior pueden interpretarse
de la siguiente forma. Intersectar dos eventos produce en general un evento
m
as peque
no o por lo menos no mayor a los intersectandos. Sin embargo
la propiedad (1) establece que la intersecci
on, a
un infinita, de eventos con
probabilidad uno produce un evento con probabilidad todava uno. An
alogamente unir dos eventos produce en general un evento mayor, pero por la
propiedad (4), la uni
on, a
un infinita, de eventos con probabilidad cero tiene
probabilidad que se mantiene en cero.
EJERCICIOS
68. Demuestre que
a) P (Ac ) = 1 P (A).
b) 0 P (A) 1.
b) sin usar P () = 1.
70. Demuestre que
a) P (A B) = P (A) P (A B).
b) P (B A) = P (B) P (A).
P (A B) P (A C) P (B C)
+P (A B C).
n
[
n
X
Ai ) =
i=1
i=1
P (Ai )
i<j<k
X
i<j
P (Ai Aj )
P (Ai Aj Ak )
+ (1)n+1 P (A1 An )
76. Demuestre que
P(
n
\
Ai ) =
n
X
i=1
i=1
P (Ai )
i<j<k
X
i<j
P (Ai Aj )
P (Ai Aj Ak )
(1)n P (A1 An )
77. Demuestre que
P(
n
\
k=1
Ak ) 1
26
n
X
k=1
P (Ack ).
P (B A) = P (B) P (A).
P (A B) = P (A B) + P (B A).
P (A) > 0 = P (A B) > 0.
P (A) > 0 = P (A B) > 0.
P (A) < 1 = P (A B) < 1.
P (A) < 1 = P (A B) < 1.
P (A) = 0 = P (A B) = 0.
P (A) = 0 = P (A B) = 0.
P (A B) = 0 = P (A) = 0.
P (A B) = 0 = P (A) = 0.
P (A) = 1 = P (A B) = 1.
P (A) = 1 = P (A B) = 1.
P (A B) = 1 = P (A) = 1.
P (A B) = 1 = P (A) = 1.
P (B|An )P (An ).
n=1
82. Se lanza una moneda tantas veces como indica un dado previamente
lanzado. Calcule la probabilidad de que
a) se obtengan ambas caras de la moneda igual n
umero de veces.
b) se obtenga una misma cara siempre.
83. Teorema de Bayes. Sea (, F, P ) un espacio de probabilidad y sea
{A1 , A2 , . . .} una partici
on de tal que para cada n 1, el conjunto
An es un elemento de F y P (An ) > 0. Demuestre que para cualquier
evento B tal que P (B) > 0 y cualquier m 1 fijo,
P (Am |B) =
P (B|Am )P (Am )
.
X
P (B|An )P (An )
n=1
27
n
[
i=1
Ai )
n
X
i=1
P (Ai )
X
i<j
P (Ai Aj ).
n
[
i=1
1.3.2.
n
n
X
X
P (Ai )
P (Ai Aj )}.
Ai ) mn{
j
i=1
i=1
i6=j
Continuidad
El siguiente resultado establece que las medidas de probabilidad son funciones continuas respecto de sucesiones no decrecientes de eventos.
Proposici
on 13 Sea {An : n N} una sucesi
on no decreciente de eventos,
esto es, A1 A2 . Entonces
P(
An ) = lm P (An ).
n
n=1
Demostraci
on. Como An An+1 tenemos que P (An ) P (An+1 ). Por lo
tanto la sucesi
on numerica {P (An ) : n N} es no decreciente y acotada
superiormente. Entonces el lmite de esta sucesi
on existe y el lado derecho
de la igualdad tiene sentido. Defina los eventos
B1 = A1 ,
Bn = An An1 para n 2.
La sucesi
on {Bn : n N} es una colecci
on de eventos disjuntos dos a dos y
tal que (Ver Proposici
on 9 en la p
agina 17)
An =
n=1
n=1
Por lo tanto
P(
n=1
An ) = P (
Bn )
n=1
28
Bn .
P (Bn )
n=1
= P (B1 ) +
= P (A1 ) +
= P (A1 ) +
n=2
n=2
n=2
P (Bn )
P (An An1 )
P (An ) P (An1 )
= P (A1 ) + lm
m
X
n=2
P (An ) P (An1 )
lm P (Am ).
Las medidas de probabilidad tambien son continuas respecto de sucesiones
no crecientes de eventos. Esta afirmaci
on es el contenido del siguiente resultado que se demuestra a partir de la proposici
on anterior.
Proposici
on 14 Sea {An : n N} una sucesi
on no creciente de eventos,
esto es, A1 A2 . Entonces
P(
An ) = lm P (An ).
n
n=1
Demostraci
on. Observe que si An An+1 entonces Acn Acn+1 . Por la
proposici
on anterior,
P(
Acn ) = lm P (Acn ).
n=1
n=1
An ) = lm (1 P (An )),
n
de donde se sigue f
acilmente el resultado.
Proposici
on 15 (Continuidad de las medidas de probabilidad) Sea
{An : n N} una sucesi
on de eventos convergente al evento A. Entonces
lm P (An ) = P (A).
Demostraci
on. La prueba se basa en las siguientes dos desigualdades
a) lm sup P (An ) P (lm sup An ).
n
Como la sucesi
on de eventos {An : n N} es convergente al evento A
entonces
lm sup An = lm inf An = A.
n
= P (A)
= P (lm inf An )
n
lm inf P (An ).
n
Ak ),
k=n
lm P (
= P ( lm
= P(
Ak )
k=n
Ak )
k=n
Ak )
k=n
[
\
Ak )
n=1 k=n
= P (lm sup An ).
n
30
(b) Como
k=n Ak
An entonces
P(
k=n
Ak ) P (An ),
lm P (
= P ( lm
= P(
Ak )
k=n
Ak )
k=n
Ak )
k=n
\
[
Ak )
n=1 k=n
= P (lm inf An ).
n
Ejemplo 8 Se lanza un dado equilibrado una infinidad de veces. Sea el evento A = {2, 4, 6} y sea An el evento correspondiente a obtener el evento A
en cada uno de los primeros n lanzamientos del dado. Entonces claramente
An An+1 para cualquier n en N. Por lo tanto
lm An =
An .
n=1
Entonces
P(
An ) = P ( lm An )
n
n=1
lm P (An )
1
lm ( )n
n 2
= 0.
=
T
El evento
n=1 An se interpreta como aquel resultado en el que siempre se
obtiene un n
umero par en una sucesi
on infinita de lanzamientos. Hemos demostrado que la probabilidad de tal evento es cero. Observe que el argumento
presentado funciona de la misma forma cuando el evento A es cualquier subconjunto propio de . Por ejemplo, si A = {1, 2, 3, 4, 5} la probabilidad de
nunca obtener 6 es cero.
31
EJERCICIOS
87. Se lanza una moneda honesta una infinidad de veces. Demuestre que la
probabilidad de que eventualmente cada una de las dos caras aparezca
es uno. Sugerencia: proceda como en el ejemplo 8.
1.3.3.
Independencia de eventos
En esta secci
on se define el importante concepto de independencia de even
tos. Este es un concepto central en la teora de la probabilidad y uno de
sus rasgos distintivos. De manera natural la independencia aparecer
a con
frecuencia a lo largo del texto a partir de ahora y nos ayudar
a a simplificar
el c
alculo de probabilidades. La definici
on matem
atica es la siguiente.
Definici
on 9 Dos eventos A y B son independientes si
P (A B) = P (A)P (B).
Aceptar la hip
otesis de que dos eventos son independientes es una cuesti
on
de apreciaci
on por parte del observador. Puede interpretarse en el sentido
de que la ocurrencia de uno de los eventos no proporciona informaci
on que
modifique la probabilidad de ocurrencia del segundo evento. Contrario a alguna primera concepci
on intuitiva err
onea, el hecho de que dos eventos sean
independientes no implica que ellos sean ajenos. La proposici
on contraria
tampoco es v
alida, dos eventos ajenos no necesariamente son independientes. La definici
on de independencia puede extenderse a colecciones finitas
e incluso infinitas de eventos del siguiente modo.
Definici
on 10 Los eventos A1 , . . . , An son independientes si se cumplen
todas y cada una de las siguientes condiciones
P (Ai Aj ) = P (Ai )P (Aj ), i, j distintos.
(1.1)
b) A, B ajenos =
6
A, B independientes.
n
[
k=1
Ak ) = 1
n
Y
k=1
[1 P (Ak )].
Ak
y Cn =
Ak .
k=n
k=n
1.3.4.
Lema de Borel-Cantelli
Proposici
on 16 (Lema de Borel-Cantelli) Sea {An : n N} una sucesi
on de eventos. Sea A = lm sup An .
n
1. Si
n=1
2. Si A1 , A2 , . . . son independientes y
n=1
Demostraci
on. (1) Para cada n en N,
P (A) P (
k=n
Ak )
P (Ak ).
k=n
Como n=1 P (An ) < , el lado derecho tiende a cero cuando n tiende a
infinito. Esto implica que P (A) = 0.
(2) Es suficiente
umero natural n se cumple la
S demostrar que para todo n
igualdad P (
A
)
=
1,
pues
la
intersecci
on numerable de eventos con
k=n k
probabilidad uno tiene probabilidad uno. Para cada m > n,
1 P(
k=n
Ak ) 1 P (
m
[
Ak )
k=n
= P(
m
\
Ack )
k=n
m
Y
[1 P (Ak )]
k=n
exp(
m
X
P (Ak )).
k=n
Para obtener la u
ltima expresi
on se usaPla desigualdad 1 x ex , v
alida
para cualquier n
umero real x. Como
P
(A
)
=
,
el
lado
derecho
n
n=1
S
tiende a cero cuando m tiende a infinito. Por lo tanto P (
k=n Ak ) = 1 para
cualquier valor de n y entonces P (A) = 1.
34
EJERCICIOS
97. Enuncie con precisi
on el lema de Borel-Cantelli.
35
Captulo 2
Variables aleatorias
En este captulo se estudian los conceptos de variable aleatoria, funci
on de
distribuci
on, funci
on de densidad y esperanza. Se estudian tambien algunas
distribuciones de probabilidad de variables aleatorias discretas y continuas
particulares. A partir de ahora y en el resto del curso consideraremos como
elemento base un espacio de probabilidad (, F, P ).
2.1.
Variables aleatorias
Definici
on 12 Una variable aleatoria es una funci
on X : R tal que
para cualquier conjunto Boreliano B, se cumple que el conjunto X 1 B es
un elemento de F.
Proposici
on 17 Una funci
on X : R es una variable aleatoria si y solo
si el conjunto X 1 (, x] es un elemento de F para cada x en R.
Demostraci
on.
() Si X es variable aleatoria entonces claramente se cumple que para
cualquier n
umero real x el conjunto X 1 (, x] es un elemento de F.
()Ahora suponga que para cada real x, el conjunto X 1 (, x] es un
elemento de F. Sean B y C las colecciones
B = {B B(R) : X 1 B F},
C = {(, x] : x R}.
[
[
X 1 Bn =
Bn B(R) y
ral, Bn B(R) y X 1 Bn F. Entonces
n=1
37
n=1
n=1
Bn F. Es decir,
n=1
Bn B.
Adem
as de la condici
on anterior para demostrar que una funci
on es variable aleatoria existen otras condiciones igualmente equivalentes y u
tiles. Por
1
ejemplo X es variable aleatoria si para cada x en R, X (, x) F, o
X 1 (x, ) F, o X 1 [x, ) F. Cualquiera de estas condiciones es necesaria y suficiente para que X sea variable aleatoria. Tambien la condici
on
1
X (a, b) F para cualquier intervalo (a, b) de R es equivalente para que
X sea variable aleatoria. La demostraci
on de todas estas aseveraciones es
completamente an
aloga al caso demostrado arriba y se pide desarrollar los
detalles en la secci
on de ejercicios.
Considere los espacios medibles (, F) y (R, B(R)). Si X es una funci
on de
en R entonces se denota por (X) a la mnima -
algebra de subconjuntos
de respecto de la cual X es variable aleatoria. Es decir,
(X) = {X 1 B : B B(R)}.
Es sencillo probar que tal colecci
on de im
agenes inversas es efectivamente
una -
algebra. Claramente X es variable aleatoria si y solo si (X) F.
A continuaci
on se demuestra que algunas operaciones b
asicas entre variables
aleatorias producen nuevas variables aleatorias. Suponga que (, F, P ) es un
espacio de probabilidad dado. Todas las variables aleatorias que se consideran a continuaci
on est
an definidas sobre este espacio de probabilidad.
Proposici
on 18 La funci
on constante X = c es una v.a.
Demostraci
on. Sea B un elemento cualquiera de B(R). Para la funci
on con1
1
stante X = c se tiene que X B = si c B, y X B = si c
/ B. En
ambos casos el conjunto X 1 B es un elemento de F, por lo tanto X = c es
v.a.
Proposici
on 19 Si X es v.a. y c es una constante entonces cX es v.a.
Demostraci
on. Comprobaremos que para cada n
umero real x, el conjunto
(cX)1 (, x] es un elemento de F. Tenemos tres casos. Si c > 0 entonces el
conjunto (cX x) = (X x/c) es un elemento de F pues X es v.a. Si c < 0
entonces nuevamente el conjunto (cX x) = (X x/c) es un elemento de
F pues X es v.a. Finalmente si c = 0 entonces claramente cX = 0 es v.a.
por la proposici
on anterior.
Proposici
on 20 Si X y Y son v.a.s entonces X + Y es v.a.
38
Demostraci
on. Probaremos que para cada n
umero real x, el conjunto (X +
Y )1 (x, ) = (X + Y > x) es un elemento de F. Para ello usaremos la
igualdad
[
(X + Y > x) =
(X > r) (Y > x r).
(2.1)
rQ
(X 2 x) = ( x X x) si x 0. En ambos casos, (X 2 )1 (, x]
es un elemento de F. Para el caso general X 6= Y usamos la f
ormula de
interpolaci
on
(X + Y )2 (X Y )2
.
XY =
4
Por lo demostrado antes, XY es efectivamente una v.a.
Como consecuencia de la proposici
on anterior se cumple que si multiplicamos
X por si misma n veces entonces X n es variable aleatoria. Por lo tanto toda
funci
on polinomial de una variable aleatoria es tambien variable aleatoria.
Proposici
on 22 Sean X y Y v.a.s con Y 6= 0. Entonces X/Y es v.a.
Demostraci
on. Primeramente demostramos que 1/Y es v.a. Para cualquier
n
umero real y > 0 tenemos que
1
1
1
( y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y ) (Y < 0),
y
39
que es un elemento de F puesto que Y es v.a. Por otro lado, si y < 0 tenemos
que
(
1
1
1
y) = ( y, Y > 0) ( y, Y < 0)
Y
Y
Y
1
1
= (Y , Y > 0) (Y , Y < 0)
y
y
1
= (Y , Y < 0)
y
1
= ( Y < 0).
y
1
1
1
0) = ( 0, Y > 0) ( 0, Y < 0)
Y
Y
Y
= (Y < 0)
= (Y < 0).
si 0, 1 B,
{1,
1}
si 0
/ B y 1 B,
|X|1 B =
{0}
si 0 B y 1
/ B,
si 0, 1
/ B.
Es decir, |X|1 B es un elemento de F. Sin embargo X no es v.a. pues
X 1 {1} = {1} no es un elemento de F.
Proposici
on 25 Sea {Xn : n N} una sucesi
on de v.a.s. Entonces sup{Xn }
n
Demostraci
on. Este resultado se sigue directamente de las siguientes igualdades. Para cualquier x en R
(sup Xn x) =
n
n=1
(nf Xn x) =
n
n=1
(Xn x) F,
(Xn x) F.
Proposici
on 26 Sea {Xn : n N} una sucesi
on de v.a.s. Entonces lm sup Xn
n
Demostraci
on. Esto es consecuencia de la proposici
on anterior pues
1. lm sup Xn = nf (sup Xn ) es v.a.,
n
nk
nk
Proposici
on 27 Sea {Xn : n N} es una sucesi
on de v.a.s tales que
lm Xn () existe para cada . Entonces lm Xn es v.a.
Demostraci
on. Si lm sup Xn y lm inf Xn coinciden entonces lm Xn existe
n
41
EJERCICIOS
98. Demuestre que la funci
on constante X() = c es una variable aleatoria.
99. Demuestre que la funci
on identidad X() = no es variable aleatoria
cuando = {1, 2, 3} y F = {, {1}, {2, 3}, }.
100. Sea = {1, , 0, 1} y F = {, {0}, {1, 1}, }. Considere la funci
on
identidad X() = . Demuestre que X 2 es variable aleatoria pero X
no lo es.
101. Demuestre que X es variable aleatoria si y solo si X 1 (, x) F
para cada x R.
102. Demuestre que X es variable aleatoria si y solo si X 1 [x, ) F para
cada x R.
103. Demuestre que X es variable aleatoria si y solo si X 1 (x, ) F para
cada x R.
104. Demuestre que X es variable aleatoria si y solo si X 1 (a, b) F para
cada (a, b) R.
105. Demuestre que si X es v.a. entonces |X| tambien lo es.
106. Mediante un contraejemplo demuestre que si |X| es v.a. entonces no
necesariamente X es v.a.
107. Sea (, F) un espacio medible tal que F = {, , A, Ac } con A .
Demuestre que toda funci
on medible X : R es constante en A y
en Ac . Por lo tanto toda funci
on medible respecto de esta -
algebra
toma a los sumo dos valores distintos.
108. Sea c una constante y X una v.a. Demuestre directamente que cX es
v.a.
109. Sea c una constante y X una v.a. Demuestre directamente que X + c
es v.a.
110. Sea c una constante y sea X una variable aleatoria. Demuestre directamente que tanto X c com X c son variables aleatorias.
111. Demuestre directamente que la suma y diferencia de dos variables
aleatorias es variable aleatoria.
112. Sea X una variable aleatoria. Demuestre que la parte entera de X,
denotada por X, es una variable aleatoria discreta.
113. Demuestre que el conjunto de v.a.s definidas sobre un espacio de probabilidad es un espacio vectorial con las operaciones usuales de suma y
producto por escalares.
114. Demuestre directamente que el producto y cociente (cuando exista) de
dos variables aleatorias es variable aleatoria.
42
X
= 1
a) X
Xi
n
es v.a.
i=1
b) S 2 =
1 X
2
(Xi X)
n1
es v.a.
i=1
130. Sea X una variable aleatoria y sean a < b dos constantes. Demuestre
que las siguientes funciones son variables aleatorias.
X si X < a,
a) Y =
a si X a.
a si X < a,
X si a X b,
b) Y =
b si X > b, .
X si |X| a,
c) Y =
0 si |X| > a.
131. Sean (1 , F1 ) y (2 , F2 ) dos espacios medibles y sea
X : (1 , F1 ) (2 , F2 )
una funci
on medible. Suponga que P : F1 [0, 1] es una medida de
probabilidad. Demuestre que
P X 1 : F2 [0, 1]
es tambien una medida de probabilidad. A la medida P X 1 se le
llama medida de probabilidad inducida por X.
2.2.
Funci
on de distribuci
on
Definici
on 13 La funci
on de distribuci
on de X es la funci
on F (x) : R R
definida como sigue
F (x) = P (X x).
lm F (x) = 1.
x+
lm F (x) = 0.
lm P (An )
= P ()
= 1.
Como R es un espacio metrico lo anterior implica que F (x) converge a uno
cuando x tiende a infinito.
(2) Sea {xn : n N} una sucesi
on cualquiera de n
umeros reales decreciente
a menos infinito y sean los eventos An = (X xn ). Entonces {An : n N}
1
La expresi
on F (x+) significa el lmite por la derecha de la funci
on F en el punto x.
45
es una sucesi
on de eventos decreciente al conjunto vaco. Por la propiedad
de continuidad
lm F (xn ) =
lm P (An )
= P ()
= 0.
Por lo tanto, F (x) converge a cero cuando x tiende a menos infinito.
(3) Para x1 x2 ,
F (x1 ) F (x1 ) + P (x1 < X x2 )
= P (X x2 )
= F (x2 ).
Es decir
F (x+) = F (x).
El recproco de la proposici
on anterior es v
alido y justifica la importancia
de la funci
on de distribuci
on. Se enuncia a continuaci
on este interesante
resultado cuya demostraci
on omitiremos y puede encontrarse por ejemplo
en [8].
Proposici
on 29 Sea F (x) : R R una funci
on que satisface las cuatro
propiedades de la proposici
on anterior. Entonces existe un espacio de probabilidad y una variable aleatoria cuya funci
on de distribuci
on es F (x).
Proposici
on 30 Para cualquier n
umero x y para cualesquiera n
umeros
reales a b,
1. P (X < x) = F (x).2
2. P (X = x) = F (x) F (x).
3. P (X (a, b]) = F (b) F (a).
4. P (X [a, b]) = F (b) F (a).
5. P (X (a, b)) = F (b) F (a).
6. P (X [a, b)) = F (b) F (a).
Demostraci
on. (1) Sea {xn : n N} una sucesi
on cualquiera de n
umeros
reales no negativos y decreciente a cero. Sea An el evento (X a xn ).
Entonces {An : n N} es una sucesi
on de eventos decreciente al evento
(X < a). Por la propiedad de continuidad
P (X < a) =
=
lm P (An )
lm F (a xn )
= F (a).
Para (2) simplemente escribimos
P (X = x) = P (X x) P (X < x)
= F (x) F (x).
= P (X (a, b))
= P (X [a, b)).
Es decir, incluir o excluir los extremos de un intervalo no afecta el c
alculo
de la probabilidad de dicho intervalo. Por lo tanto para cualquier n
umero x,
P (X = x) = 0. Finalizamos esta secci
on con un resultado interesante cuya
prueba es simple.
Proposici
on 31 Toda funci
on de distribuci
on tiene a lo sumo un n
umero
numerable de discontinuidades.
2
La expresi
on F (x) significa el lmite por la izquierda de la funci
on F en el punto x.
47
Demostraci
on. Sea D el conjunto de puntos de discontinuidad de una funci
on
de distribuci
on F (x). Para cada n
umero natural n defina los subconjuntos
Dn = {x D :
1
1
< F (x) F (x) }.
n+1
n
n=1 Dn
se
EJERCICIOS
132. Demuestre que las siguientes funciones son de distribuci
on.
a) F (x) = 1 ex para x > 0.
si x < 1,
0
(x + 1)/2 si x [1, 1],
c) F (x) =
1
si x > 1.
si x < 2,
si x 2.
0.2
0.5
F (x) =
0.9
1
48
si
si
si
si
si
x < 0,
0 x < 1,
1 x < 3,
3 x < 4,
x 4.
b)
lm F (x) = 0.
c) x1 x2 = F (x1 ) F (x2 ).
d ) F (x+) = F (x).
e) Y = X + = m
ax{0, X}.
f ) Y = X = mn{0, X}.
g) Y = |X|.
h) Y = X.
i ) Y = sen X.
a si X < a,
X si a X b,
b) Y =
b si X > b.
X si |X| a,
c) Y =
0 si |X| > a.
145. Sean F (x) y G(x) dos funciones de distribuci
on continuas y estrictamente crecientes. Demuestre que
a) si F (x) G(x) entonces F 1 (y) G1 (y).
b) si X tiene funci
on de distribuci
on F (x) entonces Y = G1 (F (X))
tiene funci
on de distribuci
on G(x).
c) si F (x) G(x) entonces existen variables aleatorias X y Y cuyas
funciones de distribuci
on son F (x) y G(x) respectivamente, y son
tales que X Y . Sugerencia: Use el inciso anterior.
2.3.
Las variables aleatorias se clasifican en al menos dos tipos: discretas y continuas. La definici
on es la siguiente. Sea X una variable aleatoria con funci
on
de distribuci
on F (x).
Definici
on 15 La variable aleatoria X se llama discreta si su correspondiente funci
on de distribuci
on F (x) es una funci
on constante por pedazos.
Sean x1 , x2 , . . . los puntos de discontinuidad de F (x). En cada uno de estos
puntos el tama
no de la discontinuidad es P (X = xi ) = F (xi ) F (xi ) > 0.
A la funci
on f (x) que indica estos incrementos se le llama funci
on de densidad de X y se define como sigue
P (X = x) si x = x1 , x2 , . . .
(2.2)
f (x) =
0
otro caso.
50
Definici
on 16 La variable aleatoria X se llama continua si su correspondientes funci
on de distribuci
on F (x) es una funci
on continua. Cuando existe
una funci
on integrable f 0 tal que
Z x
F (x) =
f (u) du,
(2.3)
para cualquier valor de x, entonces se dice que X es absolutamente continua. En tal caso a la funci
on f (x) se le llama funci
on de densidad de
X.
si y M,
1
x
1e
si 0 < y < M,
F (y) =
0
si x 0.
Esta funci
on no es constante por pedazos pues es creciente en (0, M ) y tampoco es continua pues tiene una discontinuidad en y = M . Por lo tanto Y
es una variable aleatoria que no es discreta ni continua.
EJERCICIOS
146. Encuentre la constante c que hace a f (x) una funci
on de densidad.
c
para x = 1, 2, . . .
x(x + 1)
b) f (x) = cex para x = 1, 2, . . .
c
c) f (x) =
para x = 1, 2, . . .
x!
d ) f (x) = cx2 para 0 < x < 1.
a) f (x) =
e) f (x) = cxe2x
f ) f (x) =
cx2
para x > 0.
para x > 1.
cex
para x R.
(1 + ex )2
h) f (x) = cx(1 x) para 0 < x < 1.
c
para 0 < x < 1.
i ) f (x) =
1 x2
c
j ) f (x) =
para x R.
1 + x2
g) f (x) =
a) F (x) =
0
1
0
x
b) F (x) =
si x < 0,
si x 0.
si x 0,
si 0 < x < 1,
si x 1.
ex
.
1 + ex
Z
1 x |u|
d ) F (x) =
e
du.
2
c) F (x) =
2.4.
1
fX ((y b)/a).
|a|
Integral de Riemann-Stieltjes
En esta secci
on se define la integral de Riemann-Stieltjes. Esta
es una integral de la forma
Z b
h(x) dF (x)
a
53
n
X
i=1
Sn =
n
X
i=1
si h(x) < N,
N
h(x) si |h(x)| N,
hN (x) =
N
si h(x) > N.
y entonces
h(x) dF (x) = lm
N a
hN (x) dF (x),
a,b a
54
X
h(xi )p(xi ).
h(x) dF (x) =
a
i=1
EJERCICIOS
152. Sea F (x) una funci
on de distribuci
on absolutamente continua. Demuestre que para cualesquiera n
umeros naturales n y m
Z
m
.
F n (x) dF m (x) =
n
+
m
2.5.
Caractersticas num
ericas
Se estudian a continuaci
on algunas caractersticas numericas asociadas a
variables aleatorias. Se definen los conceptos de esperanza, varianza y m
as
generalmente los momentos de una variable aleatoria utilizando la integral
de Riemann-Stieltjes.
2.5.1.
Esperanza
Definici
on 17 Sea X con funci
on de distribuci
on F (x) y sea g : R R
una funci
on Borel medible. La esperanza de g(X) denotada por E[g(X)] se
define como el n
umero
Z
E[g(X)] =
g(x) dF (x).
X
x=1
X
x
xf (x) =
= 1.
2x
x=1
M
as generalmente,
n
E(X ) =
x f (x) dx =
56
xn 2x dx =
2
.
n+2
Establecemos a continuaci
on algunas propiedades de la esperanza.
Proposici
on 32 Sean X y Y con esperanza finita y sea c una constante.
Entonces
1. E(c) = c.
2. E(cX) = cE(X).
3. Si X 0 entonces E(X) 0.
4. Si X Y entonces E(X) E(Y ).
5. E(X + Y ) = E(X) + E(Y ).
EJERCICIOS
153. Calcule la esperanza de X, si existe, cuando esta tiene funci
on de
densidad
a) f (x) =
b) f (x) =
1
5 para x
1 1
e x! para
= 2, 1, 0, 1, 2.
x = 0, 1, 2, . . ..
155. Sean X con esperanza finita y sea c una constante. Demuestre que
a) E(c) = c.
b) E(cX) = cE(X).
c) E(X + c) = E(X) + c.
d ) Si X 0 entonces E(X) 0.
a) f (x) =
57
1
para x > 1.
x2
1
d ) f (x) =
para x R.
(1 + x2 )
c) f (x) =
Demuestre que
E(X) =
E(X|Ai )P (Ai ).
i=1
b) E(m
ax{X, Y }) m
ax{E(X), E(Y )}.
a) lm
1ik
X
E(X) =
P (X n).
n=1
163. Sea X 0 con esperanza finita y sea p (0, 1). Suponga que se cumple
P (X k) pk para k = 0, 1, . . . Demuestre que
E(X)
58
1
.
1p
n=1
(n 1)1An X <
n1An .
n=1
n=1
P (X n) E(X) < 1 +
n=1
P (X n).
F (x)dx =
[1 F (x)]dx.
b)
2.5.2.
lm xF (x) = 0.
Varianza
Definici
on 18 La varianza de X, denotada por Var(X), se define como el
n
umero no negativo
Var(X) = E (X E(X))2
cuando esta esperanza existe.
59
Proposici
on 33 Sean X y Y con varianza finita. Entonces
1. Var(X) 0.
2. Var(c) = 0.
3. Var(cX) = c2 Var(X).
4. Var(X + c) = Var(X).
5. Var(X) = E(X 2 ) E 2 (X).
La demostraci
on de estas propiedades es sencilla pues todas ellas se siguen
directamente de la definici
on y de la propiedad lineal de esperanza. Otras
propiedades de la varianza aparecen m
as adelante.
EJERCICIOS
168. Calcule la varianza de X, si existe, cuando esta tiene funci
on de densidad
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .
170. Sean X y Y con varianza finita y sea c una constante. Demuestre que
a) Var(X) 0.
b) Var(c) = 0.
c) Var(cX) = c2 Var(X).
60
d ) Var(X + c) = Var(X).
e) Var(X) = E(X 2 ) E 2 (X).
171. Sea X con valores en [a, b]. Demuestre que
a) a E(X) b.
2.5.3.
Momentos
Definici
on 19 Sea X una v.a. con esperanza y sea n un n
umero natural.
Cuando existe,
1. E(X n ) es el n-esimo momento de X.
2. E|X|n es el n-esimo momento absoluto de X.
3. E[(X )n ] es el n-esimo momento central de X.
4. E|X |n es el n-esimo momento central absoluto de X.
determinan la distribuci
on de probabilidad de la misma. Por ejemplo, si X
es tal que E(X), E(X 2 ), . . . son todos finitos y si se cumple que la serie
n
X
t
n=0
n!
E(X n )
EJERCICIOS
176. Calcule el n-esimo momento de X, si exsite, cuando esta tiene funci
on
de densidad
a) f (x) = 1/5 para x = 2, 1, 0, 1, 2.
b) f (x) = e1 /x! para x = 0, 1, 2, . . .
d ) Var(1A ) 14 .
E(X ) =
n=1
62
2.6.
Distribuciones discretas
En esta secci
on se estudian algunas distribuciones discretas de probabilidad
de uso com
un. Vease el apendice A al final del libro para algunas otras
distribuciones de probabilidad o para consultar algunas otras propiedades
de las distribuciones enunciadas en esta secci
on.
Distribuci
on uniforme discreta. Se dice que X tiene una distribuci
on
uniforme sobre el conjunto {x1 , . . . , xn } si la probabilidad de que X tome
cualquiera de estos valores es 1/n. Esta distribuci
on surge en espacios de
probabilidad equiprobables, esto es, en situaciones en donde se tienen n
resultados diferentes y todos ellos tienen la misma probabilidad de ocurrir. Los juegos de lotera justos son un ejemplo donde puede aplicarse esta
distribuci
on. Se escribe X unif{x1 , . . . , xn } y para x = x1 , . . . , xn
f (x) = P (X = x) =
1
.
n
La gr
afica de la funci
on de densidad unif{1, 2, 3, 4, 5, 6, 7} aparece en la
figura 2.1. Es f
acil ver que
n
E(X) =
1X
xi ,
n
i=1
Var(X) =
n
1X
(xi E(X))2 .
n
i=1
EJERCICIOS
185. Sea X con distribuci
on unif{1, . . . , n}. Demuestre que
63
fHxL
n+1
.
2
(n + 1)(2n + 1)
b) E(X 2 ) =
.
6
n2 1
.
c) Var(X) =
12
a) E(X) =
Distribuci
on Bernoulli. Un ensayo Bernoulli es un experimento aleatorio con u
nicamente dos posibles resultados, llamados genericamente exito
y fracaso, y con probabilidades respectivas p y 1 p. Se define la variable
aleatoria X como aquella funci
on que lleva el resultado exito al n
umero
1 y el resultado fracaso al n
umero 0. Entonces se dice que X tiene una
distribuci
on Bernoulli con par
ametro p (0, 1). Se escribe X Ber(p) y la
correspondientes funci
on de densidad es
1 p si x = 0,
p
si x = 1,
f (x) =
0
otro caso.
La gr
afica de la funci
on de densidad de la distribuci
on Ber(p) para p =0.7
aparece en la figura 2.2. Es sencillo verificar que
E(X) = p,
Var(X) = p(1 p).
EJERCICIOS
187. Compruebe que la funci
on de densidad de la distribuci
on Ber(p) efectivamente lo es. Obtenga adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
64
fHxL
0.7
0.3
Distribuci
on binomial. Suponga que se realizan n ensayos independientes
Bernoulli en donde la probabilidad de exito en cada uno de ellos es p. Si
denotamos por E el resultado exito y por F el resultado fracaso entonces
el espacio muestral consiste de todas las posibles sucesiones de tama
no n
de caracteres E y F. Usando el principio multiplicativo, es f
acil ver que el
conjunto tiene 2n elementos. Si ahora se define la variable aleatoria X
como el n
umero de exitos en cada una de estas sucesiones entonces X toma
los valores 0, 1, . . . , n y se dice que X tiene una distribuci
on binomial con
par
ametros n y p. Se escribe X bin(n, p) y para x = 0, 1, . . . , n
n
px (1 p)nx .
f (x) = P (X = x) =
x
fHxL
fHxL
fHxL
0.3
0.3
0.3
0.2
0.2
0.2
0.1
0.1
0.1
(a)
9 10
(b)
9 10
9 10
(c)
E(X) = np.
E(X 2 ) = np(1 p + np).
Var(X) = np(1 p).
E(X np)3 = npq(q p).
E(X np)4 = 3n2 p2 q 2 + npq(1 6qp).
P (X = x).
1p x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).
a) P (X = x + 1) =
Distribuci
on geom
etrica. Suponga que se tiene una sucesi
on infinita de
ensayos independientes Bernoulli. Se define X como el n
umero de fracasos
antes de obtener el primer exito. Se dice entonces que X tiene una distribuci
on geometrica con par
ametro p. Se escribe X geo(p) y para x = 0, 1, . . .
f (x) = P (X = x) = p(1 p)x .
La gr
afica de la funci
on de densidad geo(p) aparece en la figura 2.4 para
p =0.4. Para la distribuci
on geo(p) se tiene que
E(X) =
Var(X) =
1p
,
p
1p
.
p2
fHxL
0.4
0.3
0.2
0.1
1
9 10
EJERCICIOS
195. Compruebe que la funci
on de densidad de la distribuci
on geo(p) efectivamente lo es.
196. Sea X con distribuci
on geo(p). Demuestre que
1p
.
p
1p
b) Var(X) =
.
p2
a) E(X) =
x
e .
x!
67
fHxL
0.3
0.2
0.1
EJERCICIOS
199. Compruebe que la funci
on de densidad de la distribuci
on Poisson()
efectivamente lo es.
200. Sea X con distribuci
on Poisson(). Demuestre que
a) E(X) = .
b) E(X 2 ) = ( + 1).
c) Var(X) = .
d ) E(X 3 ) = E(X + 1)2 .
201. Sean X y Y independientes ambas con distribuci
on Poisson con par
ametros 1 y 2 respectivamente. Demuestre que X + Y tiene distribuci
on
Poisson(1 + 2 ).
202. Sea X con distribuci
on Poisson(). Demuestre que
P (X = x).
x+1
b) P (X = x 1)P (X = x + 1) P 2 (X = x).
a) P (X = x + 1) =
68
k
k!
Distribuci
on binomial negativa. Suponga una sucesi
on infinita de ensayos independientes Bernoulli en donde la probabilidad de exito en cada
ensayo es p. Sea X el n
umero de fracasos antes de obtener el r-esimo exito. Se dice entonces que X tiene una distribuci
on binomial negativa con
par
ametros r y p. Se escribe X bin beg(r, p) y para x = 0, 1 . . .
r+x1
pr (1 p)x .
f (x) = P (X = x) =
x
Es claro que esta distribuci
on es una generalizaci
on de la distribuci
on geometrica, la cual se obtiene cuando r = 1. Se puede demostrar que
E(X) =
Var(X) =
r(1 p)
p
r(1 p)
.
p2
EJERCICIOS
205. Compruebe que la funci
on de densidad de la distribuci
on bin neg(r, p)
efectivamente lo es.
206. Sea X con distribuci
on bin neg(r, p). Demuestre que
r(1 p)
.
p
r(1 p)
.
b) Var(X) =
p2
a) E(X) =
Distribuci
on hipergeom
etrica. Suponga que se tiene un conjunto de N
objetos de los cuales K son de una primera clase y N K son de una segunda
clase. Suponga que de este conjunto se toma una muestra de tama
no n, la
muestra es sin reemplazo y el orden de los objetos seleccionados no importa.
Se define X como el n
umero de objetos de la primera clase contenidos en
la muestra seleccionada. Entonces X puede tomar los valores 0, 1, 2, . . . , n,
suponiendo n K. Decimos que X tiene una distribuci
on hipergeometrica
con par
ametros N , K y n. Se escribe X hipergeo(N, K, n) y para x =
0, 1, . . . , n
N K
K
nx
x
.
f (x) = P (X = x) =
N
n
Es posible comprobar que
K
,
N
K N K N n
.
Var(X) = n
N N N 1
E(X) = n
69
EJERCICIOS
207. Compruebe que la funci
on de densidad de la distribuci
on hipergeo(N, K, n)
efectivamente lo es.
208. Sea X con distribuci
on hipergeo(N, K, n). Demuestre que cuando N, K
y N K tienden a infinito de tal forma que K/N p y (N K)/N
(1 p) entonces
n
px (1 p)nx .
P (X = x)
x
2.7.
Distribuciones continuas
Ahora se estudian algunas distribuciones de probabilidad de variables aleatorias continuas. Algunas otras distribuciones continuas ser
an estudiadas en
el Captulo 5 que trata sobre distribuciones de probabilidad que surgen en
la estadstica.
Distribuci
on uniforme continua. Se dice que X tiene distribuci
on uniforme en el intervalo (a, b) y se escribe X unif(a, b), cuando para x (a, b),
f (x) =
1
.
ba
70
a+b
,
2
(b a)2
.
12
EJERCICIOS
209. Compruebe que la funci
on de densidad de la distribuci
on unif(a, b)
efectivamente lo es. Calcule adem
as la correspondiente funci
on de distribuci
on. Grafique ambas funciones.
210. Sea X con distribuci
on unif(a, b). Demuestre que
a+b
.
2
bn+1 an+1
b) E(X n ) =
.
(n + 1)(b a)
a) E(X) =
c) Var(X) =
(b a)2
.
12
1
si n es par,
E(X n ) =
n+1
0
si n es impar.
b) Y = 4X(1 X).
1
,
1
.
2
EJERCICIOS
215. Compruebe que la funci
on de densidad de la distribuci
on exp() efectivamente lo es.
71
fHxL
3
2
1
1
.
b) Var(X) =
1
.
2
2
.
2
Distribuci
on gama. Se dice que X tiene distribuci
on gama con par
ametros
> 0 y n > 0 si para x > 0,
f (x) =
(x)n1 ex .
(n)
72
10
4. (1/2) = .
Observe que cuando n = 1 la distribuci
on gama(n, ) se reduce a la distribuci
on exp(). Resolviendo un par de integrales se puede demostrar que
E(X) =
Var(X) =
n
,
n
.
2
EJERCICIOS
221. Compruebe que la funci
on de densidad de la distribuci
on gama(n, )
efectivamente lo es.
222. Demuestre que la distribuci
on gama(n, ) con n = 1 se reduce a la
distribuci
on exp().
73
n1
X
j=0
ex
(x)j
.
j!
(m + n)
b) E(X m ) = m
para m = 1, 2, . . ..
(n)
n
c) Var(X) = 2 .
(n + 1) = n(n).
(n + 1) = n! para n entero.
(2) = (1) = 1.
(1/2) = .
1 3 5 (2n 1)
e) (n + 1/2) =
para n entero.
2n
Distribuci
on beta. Se dice que X tiene distribuci
on beta con par
ametros
a > 0 y b > 0, y se escribe X beta(a, b) cuando para x (0, 1),
f (x) =
1
xa1 (1 x)b1 .
B(a, b)
0.5
74
(a)(b)
.
(a + b)
En este caso
E(X) =
Var(X) =
a
,
a+b
ab
.
(a + b + 1)(a + b)2
EJERCICIOS
226. Compruebe que la funci
on de densidad de la distribuci
on beta(a, b)
efectivamente lo es.
227. Sea X con distribuci
on beta(a, b). Demuestre que
a
.
a+b
B(a + n, b)
b) E(X n ) =
.
B(a, b)
ab
c) Var(X) =
.
(a + b + 1)(a + b)2
a) E(X) =
b
B(a, b).
a+b
h) B(1/2, 1/2) = .
g) B(a, b + 1) =
0
xa
F (x) =
si x 0,
0
b
1 (1 x) si 0 < x < 1,
F (x) =
1
si x 1.
Distribuci
on normal. Esta es posiblemente la distribuci
on de probabilidad de mayor importancia. Se dice que X tiene una distribuci
on normal o
Gausiana si su funci
on de densidad es
f (x) =
1
2 2
e(x)
2 /2 2
fHxL
20
Proposici
on 34 Si X N(, 2 ) entonces Z =
X
N(0, 1).
Demostraci
on.
FZ (z) = P (Z z)
X
= P(
z)
= P (X + z)
= FX ( + z).
Por lo tanto
fZ (z) = fX ( + z)
1
2
ez /2 .
=
2
Es tambien f
acil de demostrar que el recproco del resultado anterior es
v
alido. Com
unmente se usa la letra Z para denotar una variable aleatoria
con distribuci
on N(0, 1). En particular se usa la notaci
on (z) = P (Z z).
EJERCICIOS
235. Demuestre que la funci
on de densidad de la distribuci
on N(, 2 )
a) es efectivamente una funci
on de densidad.
b) es simetrica respecto de x = .
c) alcanza su m
aximo en x = .
d ) tiene puntos de inflexi
on en x = .
236. Sea X con distribuci
on N(, 2 ). Demuestre que
a) E(X) = .
77
b) Var(X) = 2 .
237. Sea X con distribuci
on N(, 2 ). Demuestre que
0
si n es impar,
n
E|X | =
1 3 5 (n 1) n si n es par.
238. Demuestre que X tiene distribuci
on N(, 2 ) si y solo si Z = (X )/
tiene distribuci
on N(0, 1).
239. Sea X con distribuci
on N (0, 1). Demuestre que
0
si n es impar,
E(X n ) =
(2n)!
n
si n es par.
2 n!
2
(1) entonces Y tiene distribuci
on N(0, 1)?
243. Sea X con distribuci
on N(0, 1). Encuentre la funci
on de densidad de
Y = |X|.
244. (El cociente de Mills.) Sea (x) la funci
on de densidad de la distribuci
on normal est
andar y sea (x) la correspondiente funci
on de distribuci
on. Demuestre que
a) (x) + x(x) = 0.
1
1
1 (x)
1
1
3
b)
3 <
< 3+ 5
x x
(x)
x x
x
para x > 0.
Distribuci
on log normal. Si X tiene distribuci
on N(, 2 ) entonces Y =
X
2
e tiene una distribuci
on log normal(, ) y su funci
on de densidad es,
para y (0, ),
(ln y )2
1
exp
f (y) =
.
2 2
y 2 2
La gr
afica de la funci
on de densidad de la distribuci
on lognormal (, 2 )
2
aparece en la figura 2.11 para = 3 y = 2. Se puede demostrar que
E(Y ) = exp( + 2 /2),
Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).
Otras distribuciones continuas de interes se encuentran en el captulo sobre
distribuciones muestrales.
78
fHxL
20
10
15
20
EJERCICIOS
245. Demuestre que la funci
on de densidad de una distribuci
on log normal(, 2 )
efectivamente lo es.
246. Sea X con distribuci
on log normal(, 2 ). Demuestre que
a) E(X) = exp{ + 2 /2}.
b) Var(X) = exp{2 + 2 2 } exp{2 + 2 }.
c) E(ln X) = .
d ) Var(ln X) = 2 .
79
Captulo 3
Vectores aleatorios
En este captulo se extiende el concepto de variable aleatoria con valores
en R a variables aleatorias con valores en Rn y se estudian algunos conceptos relacionados. Recordemos que tenemos siempre como elemento base un
espacio de probabilidad (, F, P ).
3.1.
Vectores aleatorios
Definici
on 20 Un vector aleatorio es una funci
on X : Rn tal que para
cualquier conjunto B en B(Rn ), se cumple que X 1 B es un elemento de F.
Proposici
on 35 Una funci
on X = (X1 , . . . , Xn ) : Rn es un vector
aleatorio si y solo si cada coordenada Xi : Rn es una variable aleatoria.
Demostraci
on. Sea (X1 , . . . , Xn ) un vector aleatorio. Entonces la imagen
inversa de cualquier conjunto de Borel de Rn es un elemento de la -
algebra
del espacio de probabilidad. En particular, la imagen inversa del conjunto
B pertenece a F para cualquier Boreliano B de R. Pero esta
imagen inversa es simplemente X11 B. Esto demuestra que X1 es variable
aleatoria y de manera an
aloga se procede con las otras coordenadas del
vector. Suponga ahora que cada coordenada de una funci
on (X1 , . . . , Xn ) :
80
Es f
acil demostrar que la colecci
on B es una -
algebra. Asi que
(B(R) B(R)) B B(Rn ).
3.2.
Distribuci
on conjunta
Definici
on 22 La funci
on de distribuci
on de un vector (X, Y ), denotada
por F (x, y) : R2 [0, 1], se define como sigue
F (x, y) = P (X x, Y y).
En palabras, la funci
on F (x, y) es la probabilidad de que X sea menor o igual
a x y al mismo tiempo Y sea menor o igual que y, esto es la probabilidad del
evento (X x) (Y y). A la funci
on F (x, y) se le conoce tambien como
funci
on de distribuci
on bivariada de X y Y . Cuando sea necesario especificarlo se escribe FX,Y (x, y) en lugar de F (x, y) y debe ser claro la forma de
extender la definici
on para el caso de un vector aleatorio multidimensional.
Las funciones de distribuci
on conjuntas satisfacen propiedades semejantes
al caso unidimensional. Estudiaremos a continuaci
on algunas de ellas.
Proposici
on 36 La distribuci
on conjunta F (x, y) satisface las siguientes
propiedades.
81
1.
2.
lm F (x, y) = 1.
x,y
lm
x,y
F (x, y) = 0.
82
en donde #a es el n
umero de veces que alguna de las variables xi toma el
valor ai en la evaluaci
on de la funci
on F . Nuevamente la suma corresponde a
la probabilidad del evento (a1 < X1 b1 , . . . , an < Xn bn ), y la condici
on
establece simplemente que este n
umero sea no negativo.
Finalmente enunciamos un resultado que establece la importancia de la funci
on de distribuci
on y que es consecuencia del caso unidimensional.
Proposici
on 37 Sea F (x1 , . . . , xn ) : Rn R una funci
on que satisface las
cinco propiedades anteriores. Entonces existe un espacio de probabilidad y
una vector aleatorio cuya funci
on de distribuci
on es F (x1 , . . . , xn ).
EJERCICIOS
247. Grafique y demuestre que las siguientes funciones son de distribuci
on.
1 1
a) F (x, y) = (1 ex )( + tan1 y) para x 0.
2
b) F (x, y) = 1 ex ey + exy para x, y 0.
248. Investigue si las siguientes funciones son de distribuci
on.
a) F (x, y) = 1 exy para x, y 0.
c) P (X x) = P (X x, Y x) + P (X x, Y > x).
83
d ) P (X + Y x) P (X x).
e) P (XY < 0) P (X < 0).
256. Considere el espacio = [0, 1] [0, 1] junto con (B[0, 1] B[0, 1]) y
P la medida de probabilidad uniforme sobre . Sea X : R2 el
vector aleatorio dado por
X(1 , 2 ) = (1 2 , 1 2 ).
Demuestre que X es efectivamente un vector aleatorio y encuentre su
funci
on de distribuci
on.
257. Sea X con funci
on de distribuci
on F (x). Demuestre que F (x) es continua en x = x0 si y solo si P (X = x0 ) = 0.
3.3.
Densidad conjunta
Como en el caso unidimensional, los vectores discretos o absolutamente continuos tienen asociada una funci
on de densidad la cual se define a continuaci
on.
Definici
on 24 La funci
on de densidad de un vector discreto (X, Y ) es la
funci
on f (x, y) : R2 R dada por
f (x, y) = P (X = x, Y = y).
84
1 x+y
2
para x, y = 1, 2, . . .
otro caso.
f (x, y) =
x,y=1
x,y=1
1
2x+y
=(
X
1 2
) = 1.
2x
x=1
La definici
on de funci
on de densidad de un vector continuo es la siguiente.
Definici
on 25 Sea (X, Y ) un vector continuo con funci
on de distribuci
on
F (x, y). Se dice que (X, Y ) es absolutamente continuo si existe una funci
on no negativa e integrable f (x, y) : R2 R tal que para todo (x, y) en R2
se cumple la igualdad
Z x Z y
F (x, y) =
f (u, v) dv du.
A la funci
on f (x, y) se le denota por fX,Y (x, y) y se le llama funci
on de
densidad conjunta de X y Y .
2
F (x, y).
yx
85
EJERCICIOS
258. Grafique y demuestre que las siguientes son funciones de densidad.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 x, y 1.
a) f (x, y) =
d ) f (x, y) = 49 x2 y 2 para 1 x, y 1.
e) f (x, y) = exy para x, y > 0.
f ) f (x, y) = ex para 0 < y < x.
259. Calcule la constante c que hace a f una funci
on de densidad.
a) f (x) = cx para 0 x 1.
a) f (x, y) =
86
3.4.
Distribuci
on marginal
Dada la funci
on de distribuci
on conjunta F (x, y) de un vector aleatorio
(X, Y ) es posible obtener la funci
on de distribuci
on de cada variable aleatoria
por separado mediante el siguiente procedimiento.
Definici
on 26 Sea (X, Y ) un vector con funci
on de distribuci
on F (x, y). A
la funci
on
F (x) = lm F (x, y)
y
Definici
on 27 Sea (X, Y ) un vector absolutamente continuo con funci
on
de densidad f (x, y). A la funci
on
Z
f (x) =
f (x, y) dy
87
EJERCICIOS
264. Suponiendo el caso absolutamente continuo, demuestre que la funci
on
de densidad marginal,
Z
fX,Y (x, y)dy
x 7 fX (x) =
267. Encuentre las funciones de densidad marginales del vector (X, Y ) cuya
funci
on de densidad conjunta es
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 < x, y < 1.
a) f (x, y) =
3.5.
Distribuci
on condicional
La siguiente definici
on es una extensi
on del concepto elemental de probabilidad condicional de eventos.
88
Definici
on 28 Sea (X, Y ) un vector con funci
on de densidad fX,Y (x, y) y
sea y tal que fY (y) 6= 0. A la funci
on
x 7 fX|Y (x|y) =
fX,Y (x, y)
fY (y)
Definici
on 29 Sea (X, Y ) un vector aleatorio absolutamente continuo con
funci
on de densidad fX,Y (x, y) y sea y tal que fY (y) 6= 0. A la funci
on
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du
F
(x|y).
x X|Y
EJERCICIOS
269. Demuestre que la funci
on de distribuci
on condicional
Z x
x 7 FX|Y (x|y) =
fX|Y (u|y) du
fX,Y (x, y)
fY (y)
F
(x|y).
fX|Y (x|y) =
x X|Y
272. (Perdida de memoria en la distribuci
on exponencial.) Sea X con distribuci
on exp() y sea t > 0 fijo. Demuestre que la distribuci
on condicional de X t dado que X t sigue siendo exp().
273. Calcule fX|Y (x|y) para las siguientes funciones de densidad conjunta.
1
para 0 < x < a, 0 < y < b.
ab
b) f (x, y) = 4xy para 0 < x, y < 1.
a) f (x, y) =
x+y
8
para 0 x, y 2.
d ) fX (x) y fY (y).
3.6.
Definici
on 30 Se dice que X y Y son independientes si para cada (x, y) en
2
R se cumple la igualdad
FX,Y (x, y) = FX (x)FY (y).
M
as a
un, una sucesi
on infinita de variables aleatorias es independiente si
cualquier subconjunto finito de ella lo es.
Ejemplo 13 Sea (X, Y ) un vector aleatorio con funci
on de densidad
f (x, y) = 4xy para 0 x, y 1.
La gr
afica de esta funci
on aparece en la Figura 3.1.
4
3
fHx,yL 2
1
0
0.25
0.5
x
0.75
1
0.75
0.5
y
0.25
10
4xydy
= 2x.
Por lo tanto
fX (x) = 2x para 0 x 1,
An
alogamente
fY (y) = 2y para 0 y 1.
En consecuencia X y Y son independientes pues para cada par (x, y) se
cumple
fX,Y (x, y) = fX (x)fY (y).
EJERCICIOS
279. Demuestre la variable aleatoria constante X = c es independiente de
cualquier otra variable aleatoria.
280. Sea X independiente de cualquier otra variable aleatoria. Demuestre
que X es constante.
92
a) f (x, y) =
n=1
P (X n)P (Y n).
93
la funci
on de densidad f (x, y)
condici
on de que X y Y sean
1
94
1
.
1 + 2
) = e .
n
3.7.
1
.
1 + 2
Esperanza condicional
En esta secci
on se define el importante concepto de esperanza condicional
de una variable aleatoria respecto de una -
algebra y se estudian algunas
de sus propiedades elementales.
95
Definici
on 31 Sea X una variable aleatoria con esperanza finita y sea
G una sub--
algebra de F. La esperanza condicional de X dado G es
una variable aleatoria denotada por E(X|G) que cumple las siguientes tres
propiedades:
1. Es G-medible.
2. Tiene esperanza finita.
3. Para cualquier evento G en G,
E[ E( X | G ) 1G ] = E[ X 1G ].
(3.1)
EJERCICIOS
305. Enuncie la definici
on de esperanza condicional de una variable respecto
de una -
algebra.
306. Sea X una variable aleatoria con esperanza finita y sea G = {, }.
Demuestre que E(X|G) = E(X).
307. Demuestre que si X es G-medible entonces E(X|G) = X.
308. Demuestre que si c es una constante entonces para cualquier sub-algebra G, E(c|G) = c.
97
d ) E(X|X + Y = 6).
313. Sea (X, Y ) un vector con funci
on de densidad dada por la siguiente
tabla
x\y -1
0
1
1
.3 .05 .05
2
.05 .2 .05
3
.1
.1
.1
Calcule
a) P (X = 2), P (X + Y = 1) y P (Y X).
b) fX (x) y fY (y).
c) fY |X (y|x) para x = 1, 2, 3.
d ) E(Y |X = x) para x = 1, 2, 3.
3.8.
Varianza condicional
Definici
on 32 Sea X con segundo momento finito. La varianza condicional
de X dado Y se define como la variable aleatoria dada por
Var(X|Y ) = E[ (X E(X|Y ))2 | Y ].
(3.2)
(3.3)
EJERCICIOS
314. Demuestre nuevamente que
Var(X|Y ) = E(X 2 |Y ) E 2 (X|Y ).
315. Demuestre nuevamente que
Var(X) = E[Var(X|Y )] + Var[E(X|Y )].
3.9.
Definici
on 33 Sea (X, Y ) un vector aleatorio y sea g : R2 R una funci
on
Borel medible. Entonces se define
Z
E[g(X, Y )] =
g(x, y)dFX,Y (x, y).
R2
Proposici
on 38 Sean X y Y independientes y sean g y h dos funciones
Borel medibles tales que g(X) y h(Y ) tienen esperanza finita. Entonces
E[g(X)h(Y )] = E[g(X)]E[h(Y )].
99
Demostraci
on.
E[g(X)h(Y )] =
=
ZR
R2
g(x)h(y)dFX,Y (x, y)
g(x)h(y)dFX (x)dFY (y)
= E[g(X)]E[h(Y )].
En particular cuando X y Y son independientes, E(XY ) = E(X)E(Y ). El
recproco de esta afirmaci
on es falso. Para ello vease el ejercicio 317.
EJERCICIOS
316. Demuestre que si X y Y son independientes entonces
E(XY ) = E(X)E(Y ).
317. Demuestre que
E(XY ) = E(X)E(Y ) =
6
X, Y independientes
considerando cualquiera de los siguientes ejemplos.
1/8 si (x, y) = (1, 1), (1, 1), (1, 1), (1, 1),
1/2 si (x, y) = (0, 0),
a) f (x, y) =
0
otro caso.
3
b) f (x, y) = (x2 + y 2 ) para x, y [1, 1].
8
c) X con distribuci
on uniforme en {1, 0, 1} y Y = 1(X6=0) .
318. Sean X y Y independentes. Diga falso o verdadero justificando en cada
caso.
a) Var(X + Y ) = Var(X) + Var(Y ).
b) Var(X Y ) = Var(X) Var(Y ).
c) Var(XY ) = Var(X)Var(Y ).
100
k
.
n
-1
.1
.06
.1
0
.05
.2
.05
1
.1
.04
.3
funci
on de densidad dada por la
4
3/18
5/18
1/18
6
1/18
1/18
1/18
3.10.
Covarianza
En esta secci
on se define y estudia la covarianza entre dos variables aleatorias. Una interpretaci
on de este n
umero, ligeramente modificado, ser
a dada
en la siguiente secci
on.
Definici
on 34 La covarianza de X y Y , denotada por Cov(X, Y ), es el
n
umero
Cov(X, Y ) = E [(X E(X))(Y E(Y ))] .
Proposici
on 39 La covarianza satisface las siguientes propiedades.
1. Cov(X, Y ) = E(XY ) E(X)E(Y ).
2. Cov(X, Y ) = Cov(Y, X).
3. Cov(X, X) = Var(X).
4. Cov(a, Y ) = 0, a constante.
5. Cov(aX, Y ) = aCov(X, Y ), a constante.
6. Cov(X1 + X2 , Y ) = Cov(X1 , Y ) + Cov(X2 , Y ).
7. X,Y independientes = Cov(X, Y ) = 0.
8. Cov(X, Y ) = 0 =
6
X,Y independientes.
Demostraci
on. Para probar (1) se usa la propiedad lineal de la esperanza,
Cov(X, Y ) = E [(X E(X))(Y E(Y ))]
= E(XY ) E(X)E(Y ).
102
1/8 si (x, y) {(1, 1), (1, 1), (1, 1), (1, 1)},
1/2 si (x, y) = (0, 0),
fX,Y (x, y) =
0
otro caso.
Entonces X y Y tienen identicas densidades marginales,
0
otro caso.
0
otro caso.
Puede entonces comprobarse que
1
P (X = 0)P (Y = 0) = .
4
EJERCICIOS
325. Defina Cov(X, Y ) y mencione tres de sus propiedades.
326. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X, Y ) = 0, Cov(Y, Z) = 0 = Cov(X, Z) = 0.
b) Cov(X, Y ) > 0, Cov(Y, Z) > 0 = Cov(X, Z) > 0.
c) Cov(X, Y ) = a, Cov(Y, Z) = a = Cov(X, Z) = a.
327. Diga falso o verdadero. Demuestre en cada caso.
a) Cov(X, Y ) 0.
328. Sea a un n
umero real cualquiera. Encuentre X y Y tales que
a) Cov(X, Y ) = a.
b) Cov(X, Y ) = a.
c) Cov(X, Y ) = 0.
b)
c)
d)
e)
f)
j=1
n
X
Var(Xk ) + 2
k=1
m
n X
X
Cov(Xj , Xk ).
j<k
Cov(Xi , Yj ).
i=1 j=1
n
X
Var(Xk ).
k=1
X)
= 0,
Cov(Xk X,
X
= 1
Xk .
en donde X
n
k=1
-1
1/12
3/12
0
2/12
2/12
1
3/12
1/12
-1
2c
3c
104
0
c
c
1
2c
3c
1
.2
.05
.05
2
.05
.1
.1
3
.15
.15
.15
-1
0
c
0.1
0
c
0.4
c
1
0.1
c
0
a) f (x, y) =
3.11.
Coeficiente de correlaci
on
El coeficiente de correlaci
on de dos variables aleatorias es un n
umero que
mide el grado de dependencia lineal que existe entre ellas.
Definici
on 35 El coeficiente de correlaci
on de X y Y , denotado por
(X, Y ), es el n
umero
Cov(X, Y )
(X, Y ) = p
,
Var(X) Var(Y )
La interpretaci
on dada al coeficiente de correlaci
on se justifica a partir de
los siguientes resultados.
105
Proposici
on 40 La coeficiente de correlaci
on satisface las siguientes
propiedades.
1. X,Y independientes = (X, Y ) = 0.
2. (X, Y ) = 0 =
6
X,Y independientes (excepto en el caso normal).
3. 1 (X, Y ) 1.
4. |(X, Y )| = 1 si y solo si existen constantes a y b tales que, con probabilidad uno, Y = aX + b con a > 0 si (X, Y ) = 1 y a < 0 si
(X, Y ) = 1.
Demostraci
on. (1) Si X y Y son independientes entonces Cov(X, Y ) = 0 y
por lo tanto (X, Y ) = 0. (2) Recuerde que la condici
on Cov(X, Y ) = 0 no
implica necesariamente que X y Y sean independientes. (3) Suponga primero
que X y Y son tales que E(X) = E(Y ) = 0, y Var(X) = Var(Y ) = 1. Para
cualquier valor de ,
0 Var(X + Y )
= E (X + Y )2 E 2 [X + Y ]
= 1 + 2E(XY ) + 2 .
Y Y
,
Y
X X
X
y
106
V =
Y Y
.
Y
= 2[1 E(U V )]
= 0.
Var(U + V ) = E[(U + V )2 ] E 2 (U + V )
= E[(U + V )2 ]
= 2[1 + E(U V )]
= 0.
Esto significa nuevamente que con probabilidad uno, la v.a. U + V es constante. Esto es, para alguna constante c, con probabilidad uno, U + V = c.
Nuevamente la constante c es cero pues E(U + V ) = 0. Por lo tanto,
Y Y
X X
=
,
Y
Y
Y
(X X ). Esto establece una relaci
on
X
lineal, ahora inversa, entre X y Y . Uniendo los u
ltimos dos resultados se
obtiene que cuando |(X, Y )| = 1, con probabilidad uno,
Y
Y
Y = (X, Y )
X + Y (X, Y )X
.
X
X
|
|
{z
}
{z
}
de donde se obtiene Y = Y
107
Demostraci
on. La funci
on de densidad normal bivariada esta dada por la
siguiente expresi
on
f (x, y) =
1
p
2X Y 1 2
"
#
x X
y Y
y Y 2
1
x X 2
}
2
+
exp{
2(1 2 )
X
X
Y
Y
2 = Var(X),
2
en donde X = E(X), X
Y = E(Y ), Y = Var(Y ), y
(1, 1). Se pueden calcular directamente las funciones de densidad
marginales y comprobar que
f (x) =
y
f (y) =
1
2
q
exp{(x X )2 /2X
}
2
2X
1
q
exp{(y Y )2 /2Y2 },
2
2Y
2 ) y Y tiene distribuci
es decir, X tiene distribuci
on N (X , X
on N (Y , Y2 ).
Despues de hacer algunos c
alculos sencillos se puede demostrar que (X, Y ) =
y comprobar finalmente que cuando = 0 se verifica la igualdad fX,Y (x, y) =
fX (x)fY (y).
EJERCICIOS
341. Escriba la definici
on y una interpretaci
on del coeficiente de correlaci
on.
Mencione adem
as tres de sus propiedades.
342. Diga falso o verdadero. Demuestre en cada caso.
a) (X, Y ) = 0, (Y, Z) = 0 = (X, Z) = 0.
b) (X, Y ) > 0, (Y, Z) > 0 = (X, Z) > 0.
c) (X, Y ) > 0, (Y, Z) > 0 = (X, Z) > 0.
d ) (X, Y ) = 1, (Y, Z) = 1 = (X, Z) = 1.
e) (X, Y ) = 1, (Y, Z) = 1 = (X, Z) = 1.
f ) (X, Y )(Y, Z) = 1 = (X, Z) = 1.
c) (X, X) = 1.
d ) (X, aX + b) = 1 si a > 0.
e) (X, aX + b) = 1 si a < 0.
f ) (X, aX + b) = 0 si a = 0.
1
1/8
1/2
2
1/4
1/8
1
1/9
1/9
1/9
2
1/9
1/9
1/9
3
1/9
1/9
1/9
1
2 sin(x + y) para x, y
1 x
para |y| < x.
2e
xy
e
para x, y > 0.
[0, /2].
3.12.
Var(X) =
Var(X1 )
Cov(X1 , X2 )
Cov(X1 , X2 )
Var(X2 )
..
..
.
.
Cov(X1 , Xn ) Cov(X2 , Xn )
Cov(X1 , Xn )
Cov(X2 , Xn )
..
..
.
.
Var(Xn )
nn
n
X
i,j=1
Cov(Xi , Xj )j i 0,
a) f (x, y) =
110
3.13.
Estudiamos a continuaci
on algunas distribuciones discretas de vectores aleatorios.
Distribuci
on multinomial. Suponga que se tiene un experimento aleatorio
con k posibles resultados distintos. Las probabilidades para cada uno de estos
resultados son respectivamente p1 , . . . , pk . Entonces p1 + + pk = 1. Ahora
suponga que se tienen n ensayos sucesivos independientes del experimento
anterior y defina las variables aleatorias discretas X1 , . . . , Xk como aquellas
que registran el n
umero de veces que se obtienen cada uno de los k posibles
resultados en los n ensayos. Entonces se dice que X1 , . . . , Xk tienen una
distribuci
on multinomial y su funci
on de densidad conjunta es
n
f (x1 , . . . , xn ) =
px1 1 pxnn
x1 , . . . , xn
para x1 , . . . , xn = 0, 1, . . . , n tales que x1 + + xk = n. Los par
ametros
de esta distribuci
on son entonces el n
umero de ensayos n, el n
umero de
resultados distintos k en cada ensayo y las probabilidades p1 , . . . , pk . El
factor que aparece en parentesis en la funci
on de densidad conjunta se conoce
como coeficiente multinomial y se define como sigue
n!
n
.
=
x1 , . . . , xn
x1 ! xn !
Se dice entonces que (X1 , . . . , Xk ) tiene distribuci
on multinomial(n, k, p1 , . . . , pk ).
Observe que cuando u
nicamente hay dos posibles resultados en cada ensayo
(es decir k = 2) la distribuci
on multinomial se reduce a la distribuci
on binomial.
EJERCICIOS
354. Demuestre que la funci
on de densidad de la distribuci
on multinomial
efectivamente lo es.
355. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ).
Demuestre que Xi tiene distribuci
on marginal bin(n, pi ), para i =
1, . . . , k.
356. Sea X = (X1 , . . . , Xk ) con distribuci
on multinomial(n, k, p1 , . . . , pk ).
Demuestre que E(X) = (np1 , . . . , npk ) y que
npi (1 pi ) si i = j,
[Var(X)]ij =
npi pj
si i 6= j.
Distribuci
on hipergeom
etrica multivariada. Suponga que se tienen N
objetos de los cuales N1 son de un primer tipo, N2 son de un segundo
111
xk
x1
f (x1 , . . . , xk ) =
N
n
en donde cada xi toma valores en el conjunto {0, 1, . . . , n} pero sujeto a
xi Ni y adem
as debe cumplirse que x1 + + xk = n. Se dice entonces que
(X1 , . . . , Xk ) tiene distribuci
on hipergeometrica multivariada (N, N1 , . . . , Nk , n).
Observe que cuando u
nicamente hay dos tipos de objetos (es decir k = 2) la
distribuci
on hipergeometrica multivariada se reduce a la distribuci
on hipergeometrica univariada. Vease la secci
on de ejercicios para la esperanza y
varianza de la distribuci
on hipergeometrica multivariada.
EJERCICIOS
357. Demuestre que la funci
on de densidad de la distribuci
on hipergeometrica multivariada efectivamente lo es.
358. Sea X = (X1 , . . . , Xk ) con distribuci
on hipergeometrica multivariada con par
ametros (N, N1 , . . . , Nk , n). Demuestre que Xi tiene distribuci
on hipergeometrica univariada con par
ametros (N, Ni , n), para
i = 1, . . . , k.
359. Sea X = (X1 , . . . , Xk ) con distribuci
on hipergeometrica multivariada
Nk
N1
con par
ametros (N, N1 , . . . , Nk , n). Demuestre que E(X) = (n , . . . , n )
N
N
y que
N N Ni N n
n i
si i = j,
N
N
N 1
[Var(X)]ij =
N N nN
n i j
si i 6= j.
N N N 1
3.14.
1
p
2X Y 1 2
112
1
exp{
2(1 2 )
"
x X
X
2
x X
X
y Y
Y
y Y
Y
EJERCICIOS
360. Demuestre que la funci
on de densidad de la distribuci
on normal bivariada efectivamente lo es.
2 , , 2 , ).
361. Sea (X, Y ) un vector con distribuci
on normal bivariada N(X , X
Y
Y
Demuestre que X tiene distribuci
on marginal N(X , Y2 ) y Y tiene distribuci
on marginal N(Y , Y2 ). Vease el siguiente ejercicio para verificar
que el recproco de este resultado es falso.
113
2 #
Captulo 4
Transformaciones
Si X es una variable aleatoria con distribuci
on conocida y es una funci
on
tal que Y = (X) es otra variable aleatoria cu
al es la distribuci
on de Y ? En
este captulo se da respuesta a esta pregunta tanto en el caso unidimensional
como en el caso de vectores aleatorios. En particular, se encuentran f
ormulas
explcitas para la funci
on de densidad de la suma, resta, producto y cociente
de dos variables aleatorias absolutamente continuas.
4.1.
Transformaci
on de una variable aleatoria
// R
//77 R
Y =(X)
d 1
(y)| para y (a, b).
dy
114
Demostraci
on. Suponga primero el caso estrictamente creciente. Entonces
FY (y) = P (Y y)
= P ((X) y)
= P (X 1 (y))
= FX (1 (y)).
Derivando
fY (y) = fX (1 (y))
d 1
(y).
dy
= P ((X) y)
= P (X 1 (y))
= 1 FX (1 (y)).
Entonces
1
fY (y) = fX (
d 1
(y)) (y) .
dy
Ejemplo 14 (Distribuci
on log normal) Sea X con distribuci
on N(, 2 ) y
x
sea la funci
on estrictamente creciente y = (x) = e con inversa difer1
enciable (y) = ln y. Entonces la variable aleatoria Y = eX toma valores
en el intervalo (, ) = (0, ) y aplicando la proposici
on anterior su
funci
on de densidad es
(ln y )2
1
exp
fY (y) =
para y (0, ).
2 2
y 2 2
A la distribuci
on de Y se le conoce como la distribuci
on log normal(, 2 ).
Se puede demostrar que
2
)
2
Var(Y ) = exp(2 + 2 2 ) exp(2 + 2 ).
E(Y ) = exp( +
EJERCICIOS
365. Sea X con distribuci
on unif(0, 1) y sea > 0. Demuestre que la variable
aleatoria Y = (ln X)/ tiene distribuci
on exp().
366. Sea X con distribuci
on exp(). Encuentre la funci
on de densidad y de
distribuci
on de Y = 1 exp(X).
367. Encuentre la distribuci
on de Y = 1/X cuando X tiene distribuci
on
115
a) unif(0, 1).
b) exp().
368. Encuentre la distribuci
on de Y = X n para cada n en N cuando X
tiene distribuci
on
a) unif(0, 1).
b) exp().
369. Sea X con distribuci
on unif(1, 1). Encuentre la funci
on de densidad
de Y = X 2 .
370. Sea X absolutamente continua con funci
on de distribuci
on F (x). Demuestre que Y = F (X) tiene distribuci
on unif[0, 1].
371. Encuentre la funci
on de densidad de Y
de densidad
1/2
1/(2x2 )
fX (x) =
4.2.
Transformaci
on de un vector aleatorio
(X,Y )
// R2
//66 R2
(U,V )=(X,Y )
1
1
u
J(u, v) =
1
2
u
116
1
1
v1
2
v
(4.1)
Demostraci
on (intuitiva). Sea
(U, V ) = (X, Y ) = (1 (X, Y ), 2 (X, Y ))
con inversa
1
(X, Y ) = 1 (U, V ) = (1
1 (U, V ), 2 (U, V )).
Sea A el cuadrado de
area infinitesinal de esquinas con coordenadas (x, y), (x+
dx, y), (x, y +dy) y (x+dx, y +dy). Bajo la transformaci
on las coordenadas
de las esquinas del cuadrado A se transforman en las siguientes coordenadas
(x, y) 7 (1 (x, y), 2 (x, y)).
.
1 (x, y)dx, 2 (x, y) +
2 (x, y)dx.
= (1 (x, y) +
x
x
(x, y + dy) 7 (1 (x, y + dy), 2 (x, y + dy))
.
1 (x, y)dy, 2 (x, y) +
2 (x, y)dy.
= (1 (x, y) +
y
y
(x + dx, y + dy) 7 (1 (x + dx, y + dy), 2 (x + dx, y + dy))
.
= (1 (x, y) +
1 (x, y)dx +
1 (x, y)dy,
x
y
2 (x, y)dx +
2 (x, y)dy).
2 (x, y) +
x
y
Sea B el elemento de
area (A). Entonces P ((X, Y ) A) = P ((U, V ) B).
Por lo tanto
dxdy
Area
de B =
x y
x y
1 1
x
y dxdy.
=
2
2
x
y
Adem
as |J(x, y)| =
1
. Por lo tanto
|J(u, v)|
dxdy
.
|J(u, v)|
De esta ecuaci
on obtenemos
1
fU,V (u, v) = fX,Y (1
1 (u, v), 2 (u, v))|J(u, v)|.
117
2. (U, V ) = (X, Y )
fY (y) = fX (1 (y)) |
=
d 1
(y)|
dy
1
1
u
en donde J(u, v) =
1
2
u
1
1
v1
2
v
EJERCICIOS
373. Sean X y Y independientes ambas con distribuci
on unif(0, 1). Encuentre la funci
on de densidad del vector
a) (X, X + Y ).
b) (X + Y, X Y ).
374. Sean X y Y independientes ambas con distribuci
on unif(1, 1). Encuentre la funci
on de densidad de
a) (X + Y, X Y ).
b) |Y X|.
c) (X Y, Y X).
4.2.1.
Distribuci
on de la suma (convoluci
on)
118
Proposici
on 42 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y). Entonces X + Y tiene funci
on de densidad
Z
fX+Y (u) =
fX,Y (u v, v) dv.
(4.2)
Demostraci
on. Sea : R2 R2 la transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x + y, y)
= (u, v)
con inversa
1
1 (u, v) = (1
1 (u, v), 2 (u, v))
= (u v, v)
= (x, y).
El Jacobiano de la transformaci
on inversa es
1
1
1
1
1
1
u
= 1.
v1 =
J(u, v) =
1
0 1
2
2
u
v
Por la f
ormula (4.1) la funci
on de densidad de (X + Y, Y ) es
fX+Y,Y (u, v) = fX,Y (u v, v).
Integrando respecto de v se obtiene (4.2).
Segunda demostraci
on. Se puede demostrar la proposici
on anterior mediante
el procedimiento usual de encontrar primero la funci
on de distribuci
on de
X+Y y despues derivar para encontrar la funci
on de densidad. Por definici
on
FX+Y (u) = P (X + Y u)
Z Z
fX,Y (x, y) dy dx
=
=
{x+yu}
Z ux
119
Definici
on 36 La convoluci
on de dos funciones de densidad continuas f1 y
f2 , es una funci
on denotada por f1 f2 y definida como sigue
Z
(f1 f2 )(x) =
f1 (x y)f2 (y) dy.
En consecuencia, si X y Y son dos variables aleatorias continuas con correspondientes funciones de densidad f1 (x) y f2 (x) entonces la funci
on de
densidad de X + Y es la convoluci
on (f1 f2 )(x).
EJERCICIOS
376. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que X + Y tiene funci
on de densidad
Z
fX,Y (u v, v) dv.
fX+Y (u) =
a) f (x, y) =
i=1
i=1
121
4.2.2.
Distribuci
on de la resta
Se encontrar
a ahora una f
ormula para la funci
on de densidad de la diferencia
de dos variables aleatorias.
Proposici
on 43 Sea (X, Y ) un vector absolutamente continuo con funci
on
de densidad fX,Y (x, y). Entonces X Y tiene funci
on de densidad
Z
fXY (u) =
fX,Y (u + v, v) dv.
(4.4)
Demostraci
on. Procedemos como en la secci
on anterior. Sea : R2 R2 la
transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x y, y)
= (u, v)
con inversa
1
1 (u, v) = (1
1 (u, v), 2 (u, v))
= (u + v, v)
= (x, y).
El Jacobiano de la transformaci
on inversa es
1
1
1
1
1
1
u
v1 =
= 1.
J(u, v) =
1
0 1
2
2
u
v
Por la f
ormula (4.1),
Segunda demostraci
on. Nuevamente se puede demostrar la proposici
on anterior mediante el procedimiento usual de encontrar primero la funci
on de
122
distribuci
on y despues derivar para encontrar la funci
on de densidad. Por
definici
on
FXY (u) = P (X Y u)
Z Z
=
fX,Y (x, y) dy dx
{xyu}
Z Z
=
fX,Y (x, y) dy dx.
xu
Tercera demostraci
on. A partir de la f
ormula para la suma de dos variables aleatorias se puede construir una tercera demostraci
on de (4.4). Por
la f
ormula para la suma,
Z
fXY (u) = fX+(Y ) (u) =
fX,Y (u v, v) dv.
Z
=
fX,Y (u + , ) d.
EJERCICIOS
390. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que X Y tiene funci
on de densidad
Z
fXY (u) =
fX,Y (u + v, v) dv.
a) f (x, y) =
b) exp().
393. Encuentre la funci
on de densidad de X Y cuando X y Y son independientes y ambas con densidad
a) f (x) = 2x para 0 < x < 1.
b) f (x) = 6x(1 x) para 0 < x < 1.
4.2.3.
Distribuci
on del producto
Ahora se encontrar
a una f
ormula para la funci
on de densidad del producto
de dos variables aleatorias absolutamente continuas.
Proposici
on 44 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y). Entonces XY tiene funci
on de densidad
Z
1
(4.6)
fXY (u) =
fX,Y (u/v, v) dv.
v
Demostraci
on. Se usa nuevamente la f
ormula (4.1). Sea : R2 R2 la
transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (xy, y)
= (u, v).
La inversa de esta transformaci
on es, para v 6= 0,
1
1 (u, v) = (1
1 (u, v), 2 (u, v))
= (u/v, v)
= (x, y).
124
El Jacobiano de la transformaci
on inversa es
1
1
1
1
1/v u/v 2
u
v
|J(u, v)| =
1 =
1
0
1
2
2
u
v
Por la f
ormula (4.1), para v 6= 0,
1
= .
v
1
fXY,Y (u, v) = fX,Y (u/v, v) | |.
v
Integrando respecto de v se obtiene (4.6).
(4.7)
Segunda demostraci
on. Usaremos el procedimiento usual de encontrar primero
la funci
on de distribuci
on de XY y despues derivar para encontrar la funci
on
de densidad. Por definici
on
FXY (u) = P (XY u)
Z Z
=
fX,Y (x, y) dy dx
=
{xyu}
Z
u/x
Z u/x
Derivando respecto de u,
Z 0
Z
fXY (u) =
fX,Y (x, u/x)(1/x) dydx +
fX,Y (x, u/x)(1/x) dydx.
0
Z
=
fX,Y (x, u/x)|1/x| dx,
EJERCICIOS
396. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad
fX,Y (x, y). Demuestre que XY tiene funci
on de densidad
Z
1
fXY (u) =
fX,Y (u/v, v) dv
v
125
a) f (x, y) =
4.2.4.
Distribuci
on del cociente
Finalmente se encontrar
a una f
ormula para el cociente de dos variables
aleatorias absolutamente continuas.
Proposici
on 45 Sea (X, Y ) un vector continuo con funci
on de densidad
conjunta fX,Y (x, y) y tal que Y 6= 0. Entonces X/Y tiene funci
on de densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv.
(4.8)
Demostraci
on. Procederemos como en las secciones anteriores. Sea : R2
2
R la transformaci
on
(x, y) = (1 (x, y), 2 (x, y))
= (x/y, y)
= (u, v)
126
= (uv, v)
= (x, y).
El Jacobiano de la transformaci
on inversa es
1
1
1
1
v u
u
v
|J(u, v)| =
1 =
0 1
1
2
2
u
v
Por la f
ormula (4.1)
= v.
(4.9)
{x/yu}
Z x/u
x/u
Derivando respecto de u,
Z
Z 0
2
fX,Y (x, x/u)(x/u2 ) dx
fX,Y (x, x/u)(x/u ) dx +
fX/Y (u) =
0
Z
2
fX,Y (x, x/u)|x/u | dx,
=
Tercera demostraci
on. A partir de la f
ormula para el producto de dos variables aleatorias se puede construir una tercera demostraci
on de (4.8) de la
forma siguiente.
Z
1
fX/Y (u) = fX(1/Y ) (u) =
fX,1/Y (u/v, v) dv.
v
127
Z
=
fX,Y (ux, x)|x| dx.
EJERCICIOS
400. Sea (X, Y ) un vector absolutamente continuo con funci
on de densidad fX,Y (x, y) tal que Y 6= 0. Demuestre que X/Y tiene funci
on de
densidad
Z
fX/Y (u) =
fX,Y (uv, v) |v| dv
a) f (x, y) =
Las f
ormulas encontradas se resumen en la siguiente tabla.
F
ormulas para la suma, diferencia, producto y cociente de dos v.a.s
1. fX+Y (u) =
2. fXY (u) =
fX,Y (u v, v) dv
fX,Y (u + v, v) dv
3. fXY (u) =
4. fX/Y (u) =
1
fX,Y (u/v, v) dv
v
129
Captulo 5
Distribuciones muestrales y
estadsticas de orden
Se estudian ahora algunas distribuciones de probabilidad que surgen en la
estadstica y otras
areas de aplicaci
on de la probabilidad.
Primeramente se define una muestra aleatoria como una colecci
on de variables aleatorias X1 , . . . , Xn que cumplen la condici
on de ser independientes y
de tener cada una de ellas la misma distribuci
on de probabilidad. Al n
umero
n se le llama tama
no de la muestra aleatoria. A menudo se escribe m.a. para
abreviar el termino muestra aleatoria y se usan las siglas v.a.i.i.d. para
denotar el termino variables aleatorias independientes e identicamente distribuidas. Por lo tanto una m.a. es una colecci
on de v.a.i.i.d.
Se define tambien una estadstica como una variable aleatoria de la forma
g(X1 , . . . , Xn ) en donde X1 , . . . , Xn es una m.a. y g es una funci
on de Rn en
R que es Borel medible. Por ejemplo la media muestral es una estadstica
y definida como sigue
denotada por X
n
X
= 1
Xi .
X
n
i=1
es una combinaci
Observe que X
on lineal de los elementos de la m.a. y por
lo tanto es una v.a. Otro ejemplo importante de estadstica es la varianza
muestral, denotada por S 2 y definida como sigue
n
S2 =
1 X
2.
(Xi X)
n1
i=1
EJERCICIOS
406. Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on con media y
2
varianza . Demuestre que
= .
a) E(X)
b) E(S 2 ) = 2 .
5.1.
Distribuciones muestrales
Estudiamos a continuaci
on algunas distribuciones de probabilidad que surgen en la estadstica al considerar funciones de una muestra aleatoria.
Distribuci
on ji-cuadrada. Se dice que X tiene una distribuci
on ji-cuadrada
con n > 0 grados de libertad si su funci
on de densidad es, para x > 0,
1
f (x) =
(n/2)
n/2
1
xn/21 ex/2 .
2
Proposici
on 47 Si X N(0, 1) entonces X 2 2 (1).
Demostraci
on. Para x > 0,
FX 2 (x) = P (X 2 x)
= P ( x X x)
= FX ( x) FX ( x).
Derivando
1
1
fX 2 (x) = fX ( x) + fX ( x)
2 x
2 x
1
= fX ( x)
x
1
1
= ex/2
x
2
1/2
1
1
=
x1/21 ex/2
(1/2) 2
correspondiente a la densidad 2 (1).
libertad son la suma de los grados de libertad de cada uno de los sumandos.
Este es el contenido de la siguiente proposici
on.
Proposici
on 48 Sean X1 , . . . , Xm independientes tales que Xi 2 (ni ),
para i = 1, . . . , m. Entonces
n
X
i=1
Xi 2 (n1 + + nm ).
Demostraci
on. Es suficiente demostrar el resultado para el caso de dos variables aleatorias. Sean X y Y independientes con distribuci
on ji-cuadrada con
grados de libertad n y m respectivamente. Este ligero cambio en la notaci
on
nos evitar
a el uso de subndices. Por la f
ormula (4.2), para u > 0,
Z u
fX+Y (u) =
fX (u v)fY (v) dv
0
n/2
1
(u v)n/21 e(uv)/2
2
0
m/2
1
1
v m/21 ev/2 dv
(m/2) 2
(n+m)/2
1
1
eu/2
(n/2)(m/2) 2
Z u
(u v)n/21 v m/21 dv.
1
(n/2)
Proposici
on 49 Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ).
Entonces
n
X
(Xi )2
2 (n).
2
i=1
Demostraci
on. Esto es una consecuencia sencilla de las dos proposiciones
anteriores. Como cada Xi tiene distribuci
on N(, 2 ) para i = 1, . . . , n,
entonces (Xi )/ tiene distribuci
on N(0, 1). Por lo tanto
(Xi )2
2 (1).
2
En consecuencia
n
X
(Xi )2
i=1
2 (n).
Proposici
on 50 Sean X y Y independientes tales que X tiene distribuci
on
2
2
(n) y X + Y tiene distribuci
on (m). Suponga m > n. Entonces Y tiene
distribuci
on 2 (m n).
Proposici
on 51 Sean X1 , . . . , Xn independientes con distribuci
on N(, 2 ).
Entonces
n1 2
S 2 (n 1).
2
Demostraci
on.
n
X
i=1
(Xi )
n
X
i=1
n
X
i=1
Diviendo entre 2
n
X
(Xi )2
i=1
+ (X
)]2
[(Xi X)
2 + n(X
)2 .
(Xi X)
n1 2
=
S +
2
134
2
X
.
/ n
b) E(X m ) = 2m
Xi 2 (n1 + + nm ).
i2
135
2 (n).
n
n2
para n > 2.
fHxL
2
1
-2
-1
136
Proposici
on 52 Sean X N(0, 1) y Y 2 (n) independientes. Entonces
X
p
t(n).
Y /n
Demostraci
on. Por independencia, la funci
on de densidad conjunta de X y
Y es, para y > 0,
1
1
2
fX,Y (x, y) = ex /2
(n/2)
2
n/2
1
y n/21 ey/2 .
2
Se aplica la f
ormula (4.1) para la transformaci
on
p
(x, y) = (x, x/ y/n)
con inversa
Por lo tanto
= 2ns2 /t3 .
s e
1
+ n2
2
2t
ds.
2
n s
1
2
nn/2
1
2 2n/21 (n/2)tn+1 2 1 + n2 (n+1)/2
2
2t
1
((n + 1)/2)
,
n (n/2) (1 + t2 /n)(n+1)/2
n
2t2
, de donde obten-
r(n1)/2 er dr
correspondiente a la funci
on de densidad de la distribuci
on t(n).
El siguiente resultado es de particular importancia en estadstica para efectuar estimaciones del par
ametro de una poblaci
on normal cuando la varianza
2 es desconocida.
137
Proposici
on 53 Sea X1 , . . . , Xn una m.a. de una distribuci
on N(, 2 ).
Entonces
X
t(n 1).
S/ n
Demostraci
on. Use la Proposici
on 52 aplicada a las variables aleatorias independientes
X
N (0, 1)
/ n
n1 2
y
S 2 (n 1).
2
EJERCICIOS
420. Demuestre que la funci
on de densidad de una distribuci
on t(n) efectivamente lo es.
421. Sea X con distribuci
on t(n). Demuestre que
a) E(X) = 0.
b) Var(X) =
n
n2
para n > 2.
138
fHxL
fHxL
(a)
(b)
Figura 5.3: Funcion de densidad de la distribucion F(n, m) para (a) n = 1, 10, 100 y
m = 5 de abajo hacia arriba sobre el eje vertical en x = 1, y (b) n = 5 y m = 1, 5, 50 de
abajo hacia arriba sobre el eje vertical en x = 1.
m
para m > 2,
m2
2m2 (m + n 2)
para m > 4.
n(m 2)2 (m 4)
Proposici
on 54 Sean X 2 (n) y Y 2 (m) independientes. Entonces
X/n
F(n, m).
Y /m
Demostraci
on. Aplique la f
ormula (4.8) para la funci
on de densidad del
cociente de dos variables aleatorias.
Proposici
on 55 Si X t(n) entonces X 2 F(1, n).
Demostraci
on. Aplique la f
ormula
1
1
fX 2 (x) = fX ( x) + fX ( x) .
2 x
2 x
139
EJERCICIOS
425. Demuestre que la funci
on de densidad de la distribuci
on F(n, m) efectivamente lo es.
426. Sea X con distribuci
on F(n, m). Demuestre que
m
para m > 2.
m2
2m2 (m + n 2)
para m > 4 .
b) Var(X) =
n(m 2)2 (m 4)
a) E(X) =
5.2.
Estadsticas de orden
140
Definici
on 37 Sea X1 , . . . , Xn una muestra aleatoria. A las variables
aleatorias ordenadas
X(1) = mn{X1 , . . . , Xn }
..
.
X(n) = m
ax{X1 , . . . , Xn }
se les conoce con el nombre de estadsticas de orden A X(1) se le llama
primera estadstica de orden, a X(2) se le llama segunda estadstica de orden,
etc. A X(i) se le llama i-esima estadstica de orden, i = 1, . . . , n.
5.2.1.
Distribuciones individuales
Proposici
on 56 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
1. fX(1) (x) = nf (x) [1 F (x)]n1 .
2. fX(n) (x) = nf (x) [F (x)]n1 .
Demostraci
on. Para verificar (1) se calcula primero la funci
on de distribuci
on
FX(1) (x) = P (X(1) x)
= P (mn{X1 , . . . , Xn } x)
= 1 P (mn{X1 , . . . , Xn } > x)
= 1 P (X1 > x, . . . , Xn > x)
= 1 [P (X1 > x)]n
= 1 [1 F (x)]n .
Derivando
= P (m
ax{X1 , . . . , Xn } x)
= P (X1 x, . . . , Xn x)
= [P (X1 x)]n
= [F (x)]n .
Por lo tanto
Proposici
on 57 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i
Demostraci
on. Sea Yi la variable aleatoria dada por
1 si Xi x,
Yi = 1(,x] (Xi ) =
0 si Xi > x,
en donde Xi es el i-esimo elemento de la muestra aleatoria. Las variables
Y1 , . . . , Yn son independientes y cada una de ellas puede considerarse un
ensayo Bernoulli con probabilidad de exito, es decir tomar el valor 1, igual
a P (Xi x) = F (x). Entonces la suma Y1 + + Yn corresponde al n
umero
de v.a.s Xi que cumplen la condici
on Xi x y por lo tanto esta suma tiene
distribuci
on bin(n, p) con p = F (x). Entonces
FX(i) (x) = P (X(i) x)
= P (Y1 + + Yn i)
n
X
n
=
[F (x)]j [1 F (x)]nj .
j
j=i
Observe que la f
ormula recien demostrada se reduce a las que aparecen en la
Proposici
on 56 cuando i = 1 e i = n. Ahora presentamos una demostraci
on
corta e intuitiva del mismo resultado.
Segunda demostraci
on. Sea h > 0 arbitrario y considere los siguientes tres
intervalos ajenos (, x], (x, x + h] y (x + h, ). La probabilidad de que
i 1 variables de la muestra tomen un valor en el intervalo (, x], una de
ellas en (x, x+h] y el resto ni en (x+h, ) es, de acuerdo a la distribuci
on
multinomial,
n!
[F (x)]i1 [F (x + h) F (x)][1 F (x + h)]ni .
(i 1)! 1! (n i)!
Haciendo h tender a cero se obtiene
n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i
Sea X1 , . . . , Xn una m.a. A la variable aleatoria R = X(n) X(1) se le conoce
como el rango de la muestra. El siguiente resultado provee de una f
ormula
para la funci
on de densidad de R.
Proposici
on 58 Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on continua con funci
on de densidad f (x) y funci
on de distribuci
on F (x). Entonces
para r > 0,
Z
f (y)f (y r)[F (y) F (y r)]n2 dy.
fR (r) = n(n 1)
Demostraci
on. Se calcula primero la distribuci
on conjunta FX(1) ,X(n) (x, y).
Para x y,
FX(1) ,X(n) (x, y) = P (X(1) x, X(n) y)
2
[F (y) F (x)]n
xy
= n(n 1)f (y)f (x)[F (y) F (x)]n2 .
143
Ahora se usa la f
ormula (4.4) para la diferencia de dos variables aleatorias.
Para r > 0 y n 2,
Z
fX(n) X(1) (r) = n(n 1)
f (y)f (y r)[F (y) F (y r)]n2 dy.
EJERCICIOS
431. Sea X1 , . . . , Xn una m.a. tomada de una distribuci
on continua F (x)
con funci
on de densidad f (x). Demuestre nuevamente que
a) fX(1) (x) = nf (x) [1 F (x)]n1 .
b) fX(n) (x) = nf (x) [F (x)]n1 .
432. Demuestre que las funciones fX(1) (x) y fX(n) (x) del ejercicio anterior
son efectivamente funciones de densidad.
433. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua F (x) con funci
on de densidad f (x). Demuestre nuevamente que
n
i f (x)[F (x)]i1 [1 F (x)]ni
fX(i) (x) =
i
y compruebe que esta es efectivamente una funci
on de densidad.
434. Compruebe que la f
ormula de la Proposici
on 57 se reduce a la f
ormulas
(1) y (2) de la Proposici
on 56 cuando i = 1 e i = n respectivamente.
435. Sea X1 , . . . , Xn una m.a. de una distribuci
on unif(0, 1). Demuestre
que la i-esima estadstica de orden tiene distribuci
on beta(i, n + 1 i).
Encuentre por lo tanto su esperanza y varianza.
436. Sea X1 , . . . , Xn una m.a. de una distribuci
on exp(). Encuentre la
funci
on de densidad de la i-esima estadstica de orden.
437. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
no dos
de una distribuci
on N(, 2 ). Demuestre que E[X(1) ] = / .
438. Sean X(1) , X(2) las estadsticas de orden de una m.a. de tama
no dos
de una distribuci
on N(, 2 ). Calcule E[X(2) ].
439. Sea X1 , . . . , Xn una m.a. de una distribuci
on F (x). Sea x un n
umero
real cualquiera y para i = 1, . . . , n defina
Yi = 1(,x] (Xi ).
Demuestre que Y1 , . . . , Yn son independientes cada una de ellas con
distribuci
on Ber(n, p) con p = F (x). Este hecho fue utilizado en el
procedimiento para encontrar la funci
on de densidad de la i-esima
estadstica de orden en la Proposici
on 57.
144
445. Se escogen n puntos al azar del intervalo unitario (0, 1). Demuestre que
la funci
on de densidad de la distancia m
axima R entre cualesquiera
dos puntos es
n(n 1)rn2 (1 r) si 0 < r < 1,
fR (r) =
0
otro caso.
5.2.2.
Distribuci
on conjunta
Proposici
on 59 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de densidad f (x). Para x1 < < xn ,
fX(1) ,...,X(n) (x1 , . . . , xn ) = n!f (x1 ) f (xn ).
Demostraci
on. Se considera la funci
on de distribuci
on conjunta de todas las
estadsticas de orden y despues se deriva n veces para encontrar la funci
on
de densidad. Para x1 < x2 < < xn ,
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , X(2) x2 , . . . , X(n) xn ).
Como (X(2) x2 ) = (x1 < X(2) x2 ) (X(2) x1 ) se obtiene la expresi
on
FX(1) ,...,X(n) (x1 , . . . , xn ) = P (X(1) x1 , x1 < X(2) x2 , . . . , X(n) xn )
+ P X(1) x1 , X(2) x1 , . . . , X(n) xn ).
Observe que el segundo sumando no depende de x2 asi que al tomar la derivada respecto de esta variable, este termino desaparece. De manera an
aloga
procedemos con los eventos (X(3) x3 ) hasta (X(n) xn ). Al final se obtiene
fX(1) ,...,X(n) (x1 , . . . , xn )
=
n
P (X(1) x1 , x1 < X(2) x2 , . . . , xn1 < Xn xn ).
x1 xn
en donde la u
ltima igualdad se sigue de la independencia e identica distribuci
on de las variables de la muestra. Ahora solo resta derivar para encontrar
el resultado.
La siguiente es una prueba corta pero no formal del mismo resultado.
Segunda demostraci
on. Sea x1 < x2 < < xn y h > 0 suficientemente
peque
no tal que los intervalos (x1 , x1 + h], (x2 , x2 + h], . . . , (xn , xn + h] son
ajenos. La probabilidad de que las variables aleatorias tomen valores cada una de ellas en uno y solo uno de estos intervalos es, de acuerdo a la
distribuci
on multinomial,
n!
[F (x1 + h) F (x1 )] [F (xn + h) F (xn )].
1! 1!
Ahora nos interesa encontrar una f
ormula para la densidad conjunta de
cualesquiera dos estadsticas de orden.
Proposici
on 60 Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con
funci
on de distribuci
on F (x) y funci
on de densidad f (x). Sea i < j. Para
x < y,
n
fX(i) ,X(j) (x, y) =
i(j i) f (x)f (y)
i, j i, n j
[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj .
Demostraci
on intuitiva. Para x < y considere los intervalos ajenos (, x],
(x, x + h], (x + h, y], (y, y + h] y (y + h, ) para h > 0 suficientemente
peque
na. La probabilidad de que i 1 variables de la muestra tomen un
valor en (, x], una de ellas en (x, x + h], j i + 1 variables en (x + h, y],
otra en (y, y + h] y el resto n j variables tomen un valor en (y + h, ) es,
de acuerdo a la distribuci
on multinomial,
n!
[F (x + h) F (x)][F (y) F (x + h)]ji1
(i 1)! 1! (j i 1)! 1! (n j)!
[F (x)]i1 [F (y + h) F (y)][1 F (y + h)]nj .
449. A partir de la f
ormula para fX(1) ,...,X(n) (x1 , . . . , xn ) calcule la funci
on de
densidad marginal de X(i) para i = 1, . . . , n encontrando nuevamente
que
n
fX(i) (x) =
i f (x)[F (x)]i1 [1 F (x)]ni .
i
450. Sea X1 , . . . , Xn una m.a. de una distribuci
on continua con funci
on de
distribuci
on F (x) y funci
on de densidad f (x). Sea i < j. Demuestre
nuevamente que para x < y,
n
fX(i) ,X(j) (x, y) =
i(j i) f (x)f (y)
i, j i, n j
[F (x)]i1 [F (y) F (x)]ji1 [1 F (y)]nj
n
i
458. Calcule la covarianza entre X(1) y X(n) para una m.a. de tama
no n de
una distribuci
on
a) unif(0, 1).
b) exp().
149
Captulo 6
Convergencia
En este captulo se presenta una introducci
on al tema de convergencia de
variables aleatorias. Se estudian distintas formas en que una sucesi
on de
variables aleatorias puede converger.
6.1.
Convergencia puntual
Por ejemplo, suponga el espacio medible ([0, 1], B[0, 1]) y defina la sucesi
on
de variables aleatorias Xn () = n . Entonces para [0, 1), Xn () 0.
Mientras que para = 1, Xn () = 1. De esta manera la sucesi
on converge
puntualmente a la variable aleatoria
0 si [0, 1),
X() =
1 si = 1.
150
6.2.
Definici
on 39 La sucesi
on X1 , X2 , . . . converge casi seguramente a X si
P { : lm Xn () = X()} = 1.
n
EJERCICIOS
c.s.
a) aXn aX.
c.s.
b) Xn + b X + b.
c.s.
c.s.
a) Xn + Yn X + Y.
c.s.
b) Xn Yn XY.
c.s.
c) Xn /Yn X/Y si Y, Yn 6= 0.
461. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) con P la medida
de probabilidad uniforme. Demuestre que
c.s.
n1[0,1/n) 0.
6.3.
Convergencia en probabilidad
Definici
on 40 La sucesi
on X1 , X2 , . . . converge en probabilidad a X si para
cada > 0
lm P { : |Xn () X()| > } = 0.
n
M
as adelante se demostrar
a que la convergencia en probabilidad es un tipo
de convergencia a
un m
as relajada que la convergencia casi segura.
EJERCICIOS
p
a) aXn aX.
p
b) Xn + b X + b.
p
umeros
463. Suponga que Xn x y Yn y, en donde x y y son dos n
reales fijos. Demuestre que
p
a) Xn + Yn x + y.
152
b) Xn Yn xy.
p
c) Xn /Yn x/y si Yn , y 6= 0.
Xn + Yn X + Y.
465. Sean X1 , X2 , . . . variables aleatorias independientes cada una con distribuci
on unif(a, b). Demuestre que cuando n tiende a infinito
p
a) mn{X1 , . . . , Xn } a.
p
b) m
ax{X1 , . . . , Xn } b.
6.4.
Convergencia en media
Definici
on 41 La sucesi
on X1 , X2 , . . . converge en media a X si
lm E|Xn X| = 0.
Observe que para este tipo de convergencia tanto los elementos de la sucesi
on
como el lmite mismo deben ser variables aleatorias con esperanza finita. A
este tipo de convergencia tambien se le llama convergencia en L1 y se le
L1
denota por Xn X o Xn X.
EJERCICIOS
m
a) aXn aX.
m
b) Xn + b X + b.
a) Xn + Yn X + Y .
Proporcione un contraejemplo para las siguientes afirmaciones
m
b) Xn Yn XY .
m
c) Xn /Yn X/Y si Y, Yn 6= 0.
153
6.5.
Definici
on 42 La sucesi
on X1 , X2 , . . . converge en media cuadr
atica a X
si
lm E|Xn X|2 = 0.
n
m.c.
en L2 y se le denota por Xn X o Xn X.
EJERCICIOS
m.c.
a) aXn aX.
m.c.
b) Xn + b X + b.
m.c.
Xn + Yn X + Y.
6.6.
Convergencia en distribuci
on
Definici
on 43 La sucesi
on X1 , X2 , . . . converge en distribuci
on a X si
lm FXn (x) = FX (x)
154
si x < 0,
0
1/2 si x = 0,
lm FXn (x) =
n
1
si x > 0.
Tenemos entonces que Xn 0 pues lm FXn (x) = FX (x) para todo punto
n
Convergencia
Definici
on
Puntual
Casi segura
P (Xn X) = 1
En media
E|Xn X| 0
En media cuadr
atica
E|Xn X|2 0.
En probabilidad
P (|Xn X| > } 0
En distribuci
on
EJERCICIOS
471. Considere el espacio de probabilidad ([0, 1], B[0, 1], P ) en donde P es la
medida de probabilidad uniforme. Sea Xn = 1[0,1/2+1/n) y X = 1[1/2,1] .
d
Demuestre que Xn X.
472. Sea Xn con distribuci
on unif[1/2 1/n, 1/2 + 1/n]. Demuestre que
d 1
Xn .
2
155
Xn c
6.7.
Xn c.
En esta secci
on se establecen las relaciones entre los distintos tipos de convergencia de variables aleatorias vistos en la secci
on anterior. En la figura 6.1
se ilustran de manera gr
afica estas relaciones. En esta gr
afica la contenci
on
se interpreta como implicaci
on, por ejemplo la convergencia casi segura implica la convergencia en probabilidad y esta a su vez implica la convergencia
en distribuci
on. Estos
y otros resultados se demuestran a continuaci
on.
Proposici
on 61 Convergencia c.s. = convergencia en prob.
c.s.
Demostraci
on. Suponga Xn X. Sea > 0 y defina los eventos
An =
(|Xk X| > ).
k=n
Esta sucesi
on es decreciente y su lmite es entonces la intersecci
on de todos
los eventos. Como (|Xn X| > ) An entonces
P (|Xn X| > ) P (An ).
156
Por lo tanto
lm P (|Xn X| > )
lm P (An )
= P ( lm An )
n
= P(
An )
n=1
= P ( lm Xn 6= X)
n
= 0.
El recproco de la proposici
on anterior es falso, es decir, la convergencia en
probabilidad no implica necesariamente la convergencia casi siempre. Para
ilustrar esta afirmaci
on se proporciona a continuaci
on un contraejemplo.
Convergencia en prob. =
6
Convergencia c.s. Considere el espacio ((0, 1), B(0, 1), P )
con P la medida de probabilidad uniforme. Defina los eventos
A1 = (0, 1/2), A2 = (1/2, 1),
A3 = (0, 1/3), A4 = (1/3, 2/3), A5 = (2/3, 1),
A6 = (0, 1/4), A7 = (1/4, 2/4), A8 = (2/4, 3/4), A9 = (3/4, 1),
Sea Xn = 1An . Entonces Xn 0 pues para cualquier tal que 0 < < 1
lm P (|Xn 0| > ) = lm P (An ) = 0.
Convergencia en m. =
6
Convergencia c.s. Considere la sucesi
on de variables
m
Xn como en el ejemplo anterior. Entonces Xn 0 pues E|Xn 0| = 1/n
0. Sin embargo esta sucesi
on no converge c.s. pues P (lm Xn = 0) = P () =
0.
Convergencia c.s. =
6
convergencia en m. Considere el espacio ((0, 1), B(0, 1), P )
con P la medida de probabilidad uniforme. Defina la suceci
on Xn = n1(0,1/n) .
Entonces Xn converge a 0 c.s. pues P (lm Xn = 0) = P () = 1. Sin embargo
no hay convergencia en media pues E|Xn 0| = 1.
Proposici
on 62 Convergencia en m.c. = convergencia en media.
157
Demostraci
on. La desigualdad de Jensen establece que para u convexa
u(E(X)) E(u(X)).
Tomando u(x) = x2 se obtiene
E 2 |Xn X| E|Xn X|2 ,
de donde se sigue el resultado. Alternativamente la u
ltima desigualdad es
consecuencia de la desigualdad de Cauchy-Schwarz.
Proposici
on 63 Convergencia en media = convergencia en prob.
Demostraci
on. Para cualquier > 0 sea An = (|Xn X| > ).
E|Xn X| = E(|Xn X| 1An ) + E(|Xn X| (1 1An ))
E(|Xn X| 1An )
P (|Xn X| > ).
Por hip
otesis el lado izquierdo tiende a cero cuando n tiende a infinito. Por
lo tanto
lm P (|Xn X| > ) = 0.
n
Proposici
on 64 Convergencia en prob. = convergencia en dist.
Demostraci
on. Sea x un punto de continuidad de FX (x). Para cualquier
>0
FXn (x) = P (Xn x)
El segundo sumando del lado derecho tiende a cero cuando n tiende a infinito
p
pues por hip
otesis Xn X. Entonces para cualquier > 0,
lm sup FXn (x) FX (x + ).
n
158
Por la continuidad en x,
FX (x) lm inf FXn (x).
n
En resumen
FX (x) lm inf FXn (x) lm sup FXn (x) FX (x).
n
El converso de la proposici
on anterior es falso, es decir, la convergencia en
distribuci
on no siempre implica la convergencia en probabilidad.
Convergencia en dist. =
6
convergencia en prob. Sea X con distribuci
on
N(0, 1) y sea
X
si n es par,
Xn =
X si n es impar.
Entonces claramente cada Xn tambien tiene distribuci
on N(0, 1) y por lo
d
EJERCICIOS
475. Enuncie con precisi
on la definici
on de convergencia de variables aleatorias: casi segura, en media, en media cuadr
atica, en probabilidad, en
distribuci
on.
476. Establezca las relaciones existentes entre los siguientes tipos de convergencia de variables aleatorias: convergencia en distribuci
on, en probabilidad, convergencia casi segura, convergencia en media y convergencia en media cuadr
atica.
159
b) Xn + Yn X + Y .
483. Sea Xn con distribuci
on N(n , n2 ) y X con distribuci
on N(, 2 ).
Suponga n y n2 2 , con n2 , 2 > 0. En que sentido Xn X?
d
484. Suponga Xn X en donde Xn y X son variables aleatorias absolutamente continuas. Bajo que condiciones fXn (x) fX (x)?
6.8.
160
Teorema 4 (Teorema de convergencia dominada) Si Xn converge puntualmente a X y existe Y con esperanza finita tal que |Xn | Y para toda
n, entonces
lm E(Xn ) = E(X).
n
Es decir, es suficiente que exista una variable aleatoria con esperanza finita
que sea cota superior de la sucesi
on para poder afirmar que E(Xn ) converge a
E(X). Estos dos resultados son de suma utilidad y su demostraci
on aparece
en textos avanzados de probabilidad [11], [16], [21]. Se utilizan en la u
ltima
parte de este curso para formalizar algunas demostraciones.
161
Captulo 7
Funciones generadoras
En este captulo se estudia la funci
on generadora de probabilidad, la funci
on
generadora de momentos y la funci
on caracterstica. Estas funciones son
transformaciones de las distribuciones de probabilidad y constituyen una
herramienta muy u
til en la teora moderna de la probabilidad.
7.1.
Funci
on generadora de probabilidad
Definici
on 44 La funci
on generadora de probabilidad de X es la funci
on
G(t) = E(tX )
definida para valores reales de t tal que la esperanza existe.
tk P (X = k).
k=0
tribuci
on en el siguiente sentido. Si X y Y tienen la misma distribuci
on de
probabilidad entonces claramente GX (t) = GY (t) para valores de t donde
esta esperanza exista. Inversamente, sean X y Y tales que GX (t) y GX (t)
existen y coinciden en alg
un intervalo no trivial alrededor del cero. Entonces
X y Y tienen la misma distribuci
on de probabilidad.
Esta
y otras propiedades generales de la f.g.p. se estudian a continuaci
on y
m
as adelante se ilustran estos resultados con un ejemplo.
Proposici
on 65
1. Sean X y Y variables aleatorias con valores en {0, 1, . . .} tales que
GX (t) y GY (t) existen y coinciden en alg
un intervalo no trivial alrededor de t = 0. Entonces X y Y tienen la misma distribuci
on de probabilidad.
2. Si GX (t) existe entonces
dn
G
(t)
= E[X(X 1) (X n + 1)].
X
dtn
t=1
Demostraci
on. (1) Sean an = P (X = n) y bn = P (Y = n) para n 0. La
condici
on GX (t) y GX (t) se escribe
t an =
tn bn .
n=0
n=0
G (t) =
d X k
t P (X = k)
dt
k=0
X
d k
=
t P (X = k)
dt
k=0
ktk1 P (X = k).
k=1
163
Al evaluar en t = 1 se obtiene
G (1) =
kP (X = k) = E(X).
k=1
De manera an
aloga se demuestra para las derivadas superiores. (3) Cuando
X y Y son independientes,
GX+Y (t) = E(tX+Y )
= E(tX tY )
= E(tX )E(tY )
= GX (t)GY (t).
Ejemplo 15 Sea X con distribuci
on Poisson(). Entonces la f.g.p. de X
es G(t) = e(1t) . En efecto,
G(t) =
tn e
n=0
= e
X
(t)n
n!
n=0
t
= e
(1t)
= e
n
n!
Observe que en este caso la f.g.p. se encuentra definida para cualquier valor
de t. Calculamos a continuaci
on la esperanza y varianza de la distribuci
on
Poisson() con ayuda de la f.g.p. Al derivar una vez se obtiene G (t) =
e(1t) y al evaluar en t = 1, E(X) = G (1) = . Derivando por segunda
vez, G (t) = 2 e(1t) , y en t = 1 se obtiene E(X(X 1)) = G (1) = 2 .
Por lo tanto Var(X) = E(X 2 ) E 2 (X) = 2 + 2 = .
Ahora se muestra el uso de la f.g.p. para determinar la distribuci
on de una
variable aleatoria. Suponga que X y Y son independientes con distribuci
on
Poisson(1 ) y Poisson(2 ) respectivamente. Entonces
MX+Y (t) = MX (t)MY (t)
= e1 (1t) e2 (1t)
= e(1 +2 )(1t) .
Esta expresi
on corresponde a la f.g.p. de la distribuci
on Poisson con par
ametro
1 + 2 . Se concluye entonces que X + Y se distribuye Poisson(1 + 2 ).
Las funciones generadoras de probabilidad para algunas otras distribuciones
discretas se encuentran en la secci
on de ejercicios y tambien en el primer
apendice al final del libro.
164
EJERCICIOS
485. Sea X con varianza finita y con f.g.p. G(t). Demuestre que
a) E(X) = G (1).
b) E(X 2 ) = G (1) + G (1).
c) Var(X) = G (1) + G (1) [G (1)]2 .
486. Sea X con f.g.p. GX (t) y sean a y b dos constantes. Demuestre que
GaX+b (t) = tb GX (ta ).
487. Sea X con distribuci
on Ber(p). Demuestre que
a) G(t) = 1 p + pt.
165
n
Y
Gk (t).
k=1
7.2.
Funci
on generadora de momentos
La funci
on generadora de momentos es otra funci
on que se puede asociar a
algunas distribuciones de probabilidad aunque su existencia no est
a garantizada para todas las distribuciones. Cuando existe, determina de manera
u
nica a la distribuci
on de probabilidad asociada y tiene propiedades semejantes a las de la f.g.p. estudiada en la secci
on anterior. La funci
on generadora de momentos se utiliza tanto para variables aleatorias discretas como
continuas.
Definici
on 45 La funci
on generadora de momentos de X es la funci
on
M (t) = E(etX )
definida para valores reales de t para los cuales esta esperanza existe.
Proposici
on 66
1. Sea X tal que su f.g.m. M (t) existe. Entonces todos los momentos X
existen y
dn
M (t)
= E(X n ).
n
dt
t=0
2. Sean X y Y son independientes y cuyas f.g.m. existen. Entonces
MX+Y (t) = MX (t)MY (t).
3. Las variables X y Y tienen la misma distribuci
on si y solo si MX (t) =
MY (t) para cada t (, ) con > 0 .
Demostraci
on. (1) El teorema de convergencia dominada permite obtener la
derivada a traves de la esperanza de modo que
d
E(etX )
dt
d
= E( etX )
dt
= E(XetX ).
d
M (t) =
dt
= E(etX )E(etY )
= MX (t)MY (t)
(3) Si X es tal que su funci
on generadora de momentos existe entonces todos
sus momentos existen y estos determinan de manera u
nica a la distribuci
on
de probabilidad.
Ejemplo 16 Sea X con distribuci
on gama(n, ). Entonces para t < ,
Z
(x)n1
M (t) =
etx
ex dx
(n)
0
Z
[( t)x]n1
n
n
( t)e(t)x dx
= ( t)
(n)
0
167
= n ( t)n .
Calculamos ahora la esperanza y varianza de X con ayuda de la f.g.m.
Derivando una vez, M (t) = n n( t)n1 , al evaluar en t = 0 se obtiene E(X) = n/. Derivando nuevamente, M (t) = n n(n + 1)( t)n2 ,
por lo tanto E(X 2 ) = M (0) = n(n + 1)/2 . Entonces Var(X) = n(n +
1)/2 n2 /2 = n/2 .
Suponga que X y Y son independientes cada una con distribuci
on gama(n, )
y gama(m, ) respectivamente. Entonces la f.g.m. de X + Y es
MX+Y (t) = MX (t)MY (t)
= n ( t)n m ( t)m
= n+m ( t)nm .
Esta
es nuevamente la expresi
on de la f.g.m. de la distribuci
on gama, ahora
con par
ametros n + m y . Se concluye entonces X + Y tiene distribuci
on
gama(n + m, ).
Como hemos mencionado antes, no todas las distribuciones de probabilidad
permiten calcular la funci
on generadora de momentos dentro de un intervalo
alrededor del cero, ni todos los c
alculos son tan sencillos como en el ejemplo
mostrado. Por ejemplo la f.g.m. de la distribuci
on Cauchy est
andar no existe
para valores de t distintos de cero como se pide demostrar en el ejercicio 522.
Finalizamos esta secci
on con el enunciado sin demostracion de un resultado
acerca de convergencia de funciones generadoras.
Proposici
on 67 Sea X1 , X2 , . . . una sucesi
on de variables aleatorias cuyas
funciones generadoras de momentos existen todas ellas en alg
un intervalo no
d
trivial alrededor del cero. Entonces Xn X si y solo si MXn (t) MX (t).
En la secci
on de ejercicios se pueden encontrar las funciones generadoras de
momentos de algunas otras distribuciones discretas y continuas, asi como en
el primer apendice al final del libro.
EJERCICIOS
499. Sea X con varianza finita y con f.g.m. M (t). Demuestre que
a) E(X) = M (0).
b) E(X 2 ) = M (0).
c) Var(X) = M (0) (M (0))2 .
168
a) M (t) =
ebt eat
.
(b a)t
169
b) aX + b tiene distribuci
on N(a + b, a2 2 ) con a 6= 0.
c) X 2 tiene distribuci
on 2 (1).
n
Y
Mk (t).
k=1
1 < x, y < 1.
7.3.
Funci
on caracterstica
Definici
on 46 La funci
on caracterstica de X es la funci
on
(t) = E eitX
171
|eitx | dF (x)
dF (x)
=
= 1.
d
E(eitX )
dt
d itX
= E
e
dt
= E(iXeitX ).
= E(eitX )E(eitY )
= X (t)Y (t).
El siguiente resultado permite determinar la funci
on de distribuci
on de una
variable aleatoria cuando se conoce su funci
on de distribuci
on.
Proposici
on 68 (F
ormula de inversi
on de L`
evy) Sea X con funci
on
de distribuci
on F y funci
on caracterstica (t). Si x < y son puntos de
continuidad de F entonces
Z T itx
e
eity
1
(t) dt.
F (y) F (x) = lm
T 2 T
it
Proposici
on 69 (Teorema de unicidad) Si X y Y son tales que
X (t) = Y (t) para todo t entonces X y Y tienen la misma distribuci
on.
Demostraci
on. Por el teorema de inversi
on de L`evy, la igualdad X (t) =
Y (t) implica que para cualesquiera dos puntos de continuidad x < y para
ambas distribuciones se tiene que
FX (y) FX (x) = FY (y) FX (x).
Al hacer x tender a , se obtiene que FX (y) = FY (y), para todos los
valores y puntos de continuidad de ambas funciones de distribuci
on. Como
las funciones de distribuci
on tienen a lo sumo un n
umero numerable de
discontinuidades, FX = FY .
En el caso absolutamente continuo se tiene la siguiente f
ormula.
Proposici
on 70 (F
ormula de inversi
on en el caso abs. continuo)
Sea X absolutamente continua con funci
on de densidad f (x) y funci
on
caracterstica (t). Entonces
Z
1
eitx (t) dt.
f (x) =
2
Demostraci
on. Para x < y dos puntos de continuidad de F , por el teorema
de inversi
on de L`evy,
Z T itx
e
eity
1
F (y) F (x) = lm
(t) dt
T 2 T
it
Z itx
e
eity
1
(t) dt
=
2
it
Z Z y
1
itx
=
e
dx (t) dt.
2 x
Z y Z
1
itx
=
e
(t) dt dx.
2
x
Por lo tanto el integrando debe ser la funci
on de densidad de X.
Proposici
on 71 (Teorema de Continuidad) Sean X, X1 , X2 , . . . varid
Demostraci
on.
d
eitx eity
(t) dt.
it
T
Z T itx
i
e
eity h
1
lm Xn (t) dt.
= lm
n
T 2 T
it
Z T itx
ity
e
e
1
[Xn (t)] dt.
= lm lm
n T 2 T
it
= lm FXn (y) FXn (x).
1
FX (y) FX (x) = lm
T 2
Haciendo x tender a ,
FX (y) = lm FXn (y).
n
Finalmente se muestra con ejemplos la forma de encontrar la funci
on caracterstica para algunas distribuciones.
Ejemplo 17 Sea X con distribuci
on bin(n, p). Encontraremos la funci
on
caracterstica de X.
n
X
n
(t) =
px (1 p)nx
eitx
x
x=0
n
X
n
(peit )x (1 p)nx
=
x
x=0
= (1 p + peit )n .
174
1
2
2
2
2
Z
1
2 2
2
(2 +(it 2 )2 )/2 2
= e
e[x(it )] /2 dx
2
{z
}
| 2
N (it 2 , 2 )
2 2 /2
= eitt
EJERCICIOS
523. Defina con precisi
on la funci
on caracterstica y mencione tres de sus
propiedades.
524. Encuentre la f.c. de una v.a. con funci
on de densidad
a) f (x) =
1
para x = 1, 2, . . .
x!(e 1)
b) f (x) = 12 e|x| .
a) (t) = (1 p + peit )n .
a) (t) = e(1e ) .
b) E(X) = usando (t).
c) Var(X) = usando (t).
535. Sea X con distribuci
on geo(p). Demuestre que
a) (t) = p/(1 qeit ).
1 < x, y < 1.
ex
.
1 + ex
548. Mediante el c
alculo de residuos se puede demostrar que la distribuci
on
Cauchy est
andar tiene funci
on caracterstica
Z
1
dx = e|t| .
(t) =
eitx
2)
(1
+
x
177
Captulo 8
Teoremas lmite
En este captulo estudiamos dos de los teoremas m
as importantes en probabilidad, la ley de los grandes n
umeros y el teorema del lmite central.
8.1.
Proposici
on 72 (Desigualdad de Markov) Sea X 0 con esperanza
finita. Para cualquier > 0,
P (X > )
E(X)
.
(8.1)
Demostraci
on.
E(X) = E( X 1(X>) + X 1(X) )
E( X 1(X>) )
E( 1(X>) )
= P (X > ).
La desigualdad de Markov establece que la probabilidad de que X exceda
un valor est
a acotada superiormente por la media entre . Las siguientes
desigualdades equivalentes a la demostrada tambien se conocen como desigualdades de Markov. Para cualquier > 0,
E|X|
.
E|X|n
.
2. P (|X| > )
n
1. P (|X| > )
178
Proposici
on 73 (Desigualdad de Chebyshev) Sea X con media y
2
varianza < . Para cualquier > 0,
P (|X | > )
2
.
2
(8.2)
Demostraci
on.
2 = E (X )2
= E (X )2 1(|X|>) + (X )2 1(|X|)
E (X )2 1(|X|>)
E 2 1(|X|>)
= 2 P (|X | > ).
La desigualdad de Chebyshev dice que la probabilidad de que X difiera
de su media en mas de est
a acotada superiormente por la varianza entre
2
. A esta desigualdad tambien se le conoce con el nombre de desigualdad
de Chebyshev-Bienayme. Las siguientes desigualdades son versiones equivalentes de la desigualdad de Chebyshev. Para cualquier > 0,
1. P (|X | > ) 1/2 .
2. P (|X | ) 1 1/2 .
3. P (|X )| ) 1
2
.
2
179
Proposici
on 74 (Desigualdad de Chebyshev extendida) Sea X una
variable aleatoria y sea g 0 una funci
on no decreciente tal que g(X) tiene
esperanza finita. Para cualquier > 0,
P (X > )
E[g(X)]
.
g()
(8.3)
Demostraci
on.
E[g(X)] = E[ g(X) 1(X>) + g(X) 1(X) ]
E[ g(X) 1(X>) ]
E[ g() 1(X>) ]
= g()P (X > ).
A partir de la desigualdad de Chebyshev extendida y con una funci
on g
adecuada se pueden obtener tanto la desigualdad de Chebyshev como la
desigualdad de Markov. En la siguiente secci
on se usar
a la desigualdad de
Chebyshev para demostrar la ley debil de los grandes n
umeros.
180
EJERCICIOS
550. Enuncie y demuestre la desigualdad de Markov.
551. Demuestre la desigualdad de Markov siguiendo los siguientes pasos.
Suponga X 0.
a) Para > 0 defina
X =
si X > ,
0 si X .
b) Compruebe que X X.
E|X|n
.
b) P (|X| > )
n
a) P (|X| > )
181
E|X|
para > 0,
E|X|n
para > 0 y n N,
n
E(etX )
para > 0 y t > 0,
et
1/18 si x = 1, 1,
16/18 si x = 0,
f (x) =
0
otro caso.
182
8.2.
En esta secci
on se estudia uno de los teoremas m
as importantes de la teora
cl
asica de la probabilidad. Se conoce como la ley de los grandes n
umeros y
establece que, bajo ciertas condiciones, el promedio de variables aleatorias
converge a una constante cuando el n
umero de sumandos crece a infinito.
M
as precisamente el resultado es el siguiente.
Teorema 5 (Ley d
ebil de los grandes n
umeros) Sean X1 , X2 , . . . independientes tales que E(Xi ) = . Para cualquier > 0,
n
1X
lm P (|
Xi | ) = 0.
n
n
i=1
Demostraci
on. (Suponiendo segundo momento finito.) Sea Sn = (X1 + +
Xn )/n. Entonces E(Sn ) = y Var(Sn ) 2 /n asumiendo Var(Xi ) 2 <
. La desigualdad de Chebyshev aplicada a Sn establece que para cualquier
> 0 se cumple P (|Sn | ) 2 /n2 . Basta ahora tomar el lmite
cuando n tiende a infinito para obtener el resultado requerido.
La ley debil de los grandes n
umeros establece entonces que la variable aleatoria Sn = (X1 + + Xn )/n converge en probabilidad a la media com
un
. Observe que para la demostraci
on de este resultado no hemos supuesto
identica distribuci
on para las variables aleatorias involucradas, u
nicamente
que tengan la misma media, que sean independientes y aunque las varianzas
pueden ser diferentes, se ha necesitado que sean uniformemente acotadas.
Damos a continuaci
on un ejemplo sencillo de aplicaci
on de este resultado y
m
as adelante demostraremos una versi
on m
as fuerte de la ley de los grandes
n
umeros.
Ejemplo 19 (Definici
on de probabilidad frecuentista) Considere un
experimento aleatorio cualquiera y sea A un evento. Se repite sucesivamente
el experimento y se observa en cada ensayo la ocurrencia o no ocurrencia del
evento A. Sea Xk la variable que toma el valor uno si en el k-esimo ensayo
se observa A y cero en caso contrario. Entonces X1 , X2 , . . . son variables
aleatorias independientes con distribuci
on Ber(p) en donde p es la probabilidad desconocida del evento A. Entonces E(Xk ) = p y Var(Xk ) = p(1 p).
La ley debil de los grandes n
umeros asegura que la fracci
on de ensayos en los
que se observa el evento A converge, en probabilidad, a la constante desconocida p cuando el n
umero de ensayos crece a infinito. Esta es la definici
on
frecuentista de la probabilidad y hemos entonces corroborado su validez con
ayuda de la ley de los grandes n
umeros.
La siguiente versi
on de la ley de los grandes n
umeros asegura que bajo ciertas
183
1X
Xi = ) = 1.
n n
P ( lm
i=1
Demostraci
on. (Suponiendo cuarto momento finito.) Dada la identica distribuci
on cualquier elemento de la sucesi
on se denota simplemente por X.
Observe que E(X ) = 0. Entonces por independencia,
n
X
E[( (Xi ))4 ] = nE[(X )4 ] + 3n(n 1) 4
i=1
= an + bn2 ,
para ciertas
Pconstante a y b. Por la desigualdad4de Chebyshev (8.3) aplicada
a la v.a. | ni=1 (Xi )| y la funci
on g(x) = x se obtiene, para > 0,
P (|
n
X
i=1
(Xi )| n)
an + bn2
.
(n)4
Pn
P
Sea el evento An = (| n1 i=1 Xi | ). Entonces
n=1 P (An ) < . Por
el lema de Borel Cantelli la probabilidad de que ocurra una infinidad de
eventos An es cero, es decir, con probabilidad uno, solo un n
umero finito de
estos eventos ocurre. Por lo tanto con probabilidad uno, existe un n
umero
natural n a partir del cual ning
un evento An se verifica. Es decir,
n
1X
P ( lm |
Xi | < ) = 1.
n n
i=1
1X
Xi = ) = 1.
n n
P ( lm
i=1
EJERCICIOS
566. Enuncie la ley debil de los grandes n
umeros y use la desigualdad de
Chebyshev para demostrarla.
184
8.3.
Concluimos el curso con el celebre y famoso teorema del lmite central. Este
resultado es de amplio uso en estadstica y otras ramas de aplicaci
on de la
probabilidad.
Teorema 7 (Teorema del lmite central) Sean X1 , X2 . . . independientes e identicamente distribuidas tales que E(Xi ) = y Var(Xi ) = 2 < .
Para cualquier x en R,
(X1 + + Xn ) n
x = P (Z x),
lm P
n
n
en donde Z tiene distribuci
on N(0, 1).
185
n
converge en distribuci
on a una variable aleatoria normal est
andar sin importar la distribuci
on original de las variables X. Observe que la suma
(X1 + + Xn ) tiene media n y varianza n 2 , de modo que la expresi
on de
arriba es una especie de estandarizaci
on de esta variable. Equivalentemente
este resultado puede enunciarse del siguiente modo
1
n (X1
+ + Xn ) d
N(0, 1).
/ n
=
n
n
en donde cada sumando del numerador en el lado derecho es una variable con
media cero y varianza uno. Asi pues, sin perdida de generalidad supondremos
que cada Xi tiene media cero y varianza uno y consideraremos la suma
Zn =
X1 + + X n
.
n
Se desea probar que Zn N(0, 1). Para ello es suficiente demostrar que
2 /2
lm Zn (t) = et
Por lo tanto,
ln Zn (t) = n ln X (t/ n)
itE(X) i2 t2 E(X 2 ) i3 t3 E(X 3 )
= n ln 1 +
+ .
+
+
2!n
n
3!n3/2
1
1
Usando la f
ormula ln(1 + x) = x x2 + x3 y factorizando potencias
2
3
de it se obtiene
ln Zn (t) = E(X 2 ) E 2 (X) i2 t2 /2
E(X 3 ) E(X)E(X 2 ) E 3 (X) i3 t3
+
+
+
n
3! n
2 n
3 n
186
El primer sumando es t2 /2 y todos los terminos a partir del segundo sumando se anulan cuando n tiende a infinito. Por lo tanto,
lm ln Zn (t) = t2 /2.
Como la funci
on logaritmo es una funci
on continua tenemos que
ln lm Zn (t) = t2 /2.
n
De donde se obtiene
2 /2
lm Zn (t) = et
.
EJERCICIOS
572. Enuncie con precisi
on el teorema del lmite central.
573. Use el teorema del lmite central para estimar la probabilidad de obtener mas de 520
aguilas en 1000 lanzamientos de una moneda honesta.
574. Sea {Xn : n = 1, 2, . . .} una sucesi
on de v.a.i.i.d. con distribuci
on
Poisson() con = 1. Use el teorema del lmite central para demostrar
que
n
1 X nk
1
lm n
= .
n e
k!
2
k=0
187
Ap
endice A
Distribuciones de
probabilidad
Se presenta a continuaci
on una lista con algunas distribuciones de probabilidad de uso com
un. Las letras y 2 denotan la esperanza y varianza
respectivamente. La funci
on generadora de probabilidad es G(t), la generadora de la momentos es M (t) y la funci
on caracterstica es (t).
DISTRIBUCIONES UNIVARIADAS DISCRETAS
Distribuci
on uniforme
X unif{x1 , . . . , xn } con n N.
f (x) = 1/nPpara x = x1 , . . . , xn .
E(X) = n1 nj=1 xj .
P
Var(X) = n1 nj=1 (xj )2 .
P
M (t) = n1 nj=1 exj t .
Distribuci
on Bernoulli
X Ber(p) con p (0, 1).
f (x) = px (1 p)1x para x = 0, 1.
E(X) = p.
Var(X) = p(1 p).
G(t) = 1 p + pt.
M (t) = (1 p) + pet .
Distribuci
on binomial
X bin(n, p) con n {1, 2, . . .} y p (0, 1).
188
n
f (x) =
px (1 p)nx para x = 0, 1, . . . , n.
x
E(X) = np.
Var(X) = np(1 p).
G(t) = (1 p + pt)n .
M (t) = [(1 p) + pet ]n .
Distribuci
on geom
etrica
X geo(p), con p (0, 1) y q = 1 p
f (x) = p(1 p)x para x = 0, 1, . . .
E(X) = q/p.
Var(X) = q/p2 .
G(t) = p/[1 t(1 p)].
M (t) = p/[1 (1 p)et ].
Distribuci
on Poisson
X Poisson() con > 0.
x
f (x) = e
para x = 0, 1, . . .
x!
E(X) = .
Var(X) = .
G(t) = e(1t) .
M (t) = exp[(et 1)].
Distribuci
on binomial negativa
X binneg(r, p) con
p (0, 1) y r {1, 2, . . .}.
r+x1
f (x) =
pr (1 p)x para x = 0, 1, . . .
x
E(X) = r(1 p)/p.
Var(X) = r(1 p)/p2 .
G(t) = [p/(1 t(1 p))]r .
M (t) = [p/(1 qet )]r .
Distribuci
on hipergeom
etrica
X hipergeo(N,
N,
K, n {1, 2, . . .} y n K N .
K, n) con
N
N K
K
para x = 0, 1, . . . , n.
/
f (x) =
n
nx
x
E(X) = nK/N .
N K N n
Var(X) = n K
N N N 1 .
Distribuci
on uniforme
X unif(a, b) con a < b.
f (x) = 1/(b a) para x (a, b).
F (x) = (x a)/(b a) para x (a, b).
E(X) = (a + b)/2.
Var(X) = (b a)2 /12.
M (t) = (ebt eat )/(bt at).
Distribuci
on exponencial
X exp() con > 0.
f (x) = ex para x > 0.
F (x) = 1 ex para x > 0.
E(X) = 1/.
Var(X) = 1/2 .
M (t) = /( t) para t < .
Distribuci
on gama
X gama(n, ) con > 0 y n > 0.
(x)n1 x
f (x) =
e
para x > 0.
(n)
P
j
F (x) = 1 ex n1
j=0 (x) /j! para x > 0.
E(X) = n/.
Var(X) = n/2 .
M (t) = [/( t)]n para t < .
Distribuci
on beta
X beta(a, b) con a > 0, b > 0.
f (x) = xa1 (1 x)b1 /B(a, b) para x (0, 1).
E(X) = a/(a + b).
Var(X) = ab/[(a + b + 1)(a + b)2 ].
Distribuci
on normal
X N(, 2 ) con R y 2 > 0.
1
2
2
f (x) =
e(x) /2 .
2
2
E(X) = .
Var(X) = 2 .
M (t) = exp(t + 2 t2 /2).
(t) = exp(it 2 t2 /2).
Cuando = 0 y 2 = 1 se obtiene la distribuci
on normal est
andar.
190
Distribuci
on ji-cuadrada
X 2 (n) con n > 0.
n/2
1
1
f (x) =
xn/21 ex/2 para x > 0.
(n/2) 2
E(X) = n.
Var(X) = 2n.
M (t) = (1 2t)n/2 para t < 1/2.
Distribuci
on t
X t(n) con n > 0.
(n + 1/2)
x2
f (x) =
(1 + )n1/2 .
n
n (n/2)
E(X) = 0.
Var(X) = n/(n 2) para n > 2.
M (t) no existe para t 6= 0.
(t) = exp(|t|).
Distribuci
on log normal
X log normal(, 2 ) con R y 2 > 0.
1
f (x) =
exp[(ln x )2 /2 2 ] para x > 0.
x 2 2
E(X) = exp( + 2 /2).
E(X n ) = exp(n + n2 2 /2).
Var(X) = exp(2 + 2 2 ) exp(2 + 2 ).
Distribuci
on Pareto
X Pareto(a, b) con a, b > 0.
aba
f (x) =
para x > 0.
(a + x)a+1
F (x) = 1 [b/(b + x)]a para x > 0.
E(X) = b/(a 1) para a > 1.
Var(X) = ab2 /[(a 1)2 (a 2)] para a > 2.
Distribuci
on Weibull
X Weibull(r, ) con r, > 0.
r
f (x) = e(x) rr xr1 para x > 0.
r
F (x) = 1 e(x) para x > 0.
E(X) = (1 + 1/r)/.
Var(X) = [(1 + 2/r) 2 (1 + 1/r)]/2 .
Distribuci
on Cauchy
191
192
Ap
endice B
Formulario
El alfabeto griego
A alpha
B beta
gamma
delta
E , epsilon
Z zeta
H eta
, theta
I iota
K kappa
lambda
M mu
N nu
xi
O o omikron
pi
P , rho
, sigma
T tau
upsilon
, phi
X chi
psi
omega
1. -
algebra
a) F.
b) A F Ac F.
c) A1 , A2 , . . . F
n=1
An F.
2. Axiomas de la probabilidad
a) P () = 1.
b) P (A) 0, para A F.
c) A1 , A2 , . . . F ajenos dos a dos P (
3. Esperanza E(X) =
x dF (x)
a) E(c) = c
b) E(cX) = cE(X)
193
n=1
An ) =
n=1
P (An ).
Es un n
umero no negativo que indica el grado de dispersi
on de la
variable aleatoria. Cumple
a)
b)
c)
d)
Var(cX) = c2 Var(X).
Var(X + c) = Var(X).
Var(X) = E(X 2 ) E 2 (X).
Var(X + Y ) 6= Var(X) + Var(Y ) (excepto caso independencia).
Cov(X, Y )
.
6. Coeficiente de correlaci
on (X, Y ) = p
Var(X) Var(Y )
Es un n
umero en [1, 1] que representa una medida del grado de dependencia lineal entre dos variables aleatorias. Cuando Y = aX + b
con a 6= 0 y b constantes se cumple |(X, Y )| = 1 y viceversa. Si X y Y
son independientes entonces (X, Y ) = 0, el recproco es falso excepto
en el caso normal.
7. Transformaciones
Si X es una variable aleatoria y es una funci
on estrictamente mon
otona
y con inversa diferenciable entonces la variable aleatoria Y = (X)
tiene funci
on de densidad
d
fY (y) = fX (1 (y)) | 1 (y)|.
dy
En el caso bidimensional, si (U, V ) = (X, Y ) con continua y con
inversa diferenciable entonces
fU,V (u, v) = fX,Y (1 (u, v)) |J(u, v)|,
1
1
1
1
u
v
en donde J(u, v) =
1 .
1
2
2
u
v
En particular se cumplen las siguiente f
ormulas
194
a) fX+Y (u) =
fX,Y (u v, v) dv
b) fXY (u) =
fX,Y (u + v, v) dv
Z
1
c) fXY (u) =
fX,Y (u/v, v) dv
v
Z
d ) fX/Y (u) =
fX,Y (uv, v) |v| dv
8. Funci
on generadora de probabilidad G(t) = E(tX ).
Se utiliza principalmente para distribuciones discretas. Cuando existe
determina de manera u
nica a la distribuci
on de probabilidad. Genera
los momentos factoriales a traves de la f
ormula
G(n) (1) = E[X(X 1) (X n + 1)],
cuando estos momentos existen. Cumple adem
as
a) X, Y indep GX+Y (t) = GX (t)GY (t), el recproco es falso.
9. Funci
on generadora de momentos M (t) = E(etX ).
Esta funci
on no existe para todas las distribuciones de probabilidad.
Cuando existe en alg
un intervalo no trivial alrededor de t = 0 determina de manera u
nica a la distribuci
on de probabilidad. Genera los
(n)
momentos a traves de la f
ormula M (0) = E(X n ). Adem
as cumple
a) X, Y indep MX+Y (t) = MX (t)MY (t), el recproco es falso.
d
1X
Xi
n
i=1
(X1 + + Xn ) n d
N(0, 1)
n
195
Ap
endice C
Tabla de la distribuci
on
normal est
andar
1
(x) =
2
2 /2
et
dt
0.00
0.01
0.02
0.03
0.04
0.05
0.06
0.07
0.08
0.09
0.0
0.1
0.2
0.3
0.4
0.5000
0.5398
0.5793
0.6179
0.6554
0.5040
0.5438
0.5832
0.6217
0.6591
0.5080
0.5478
0.5871
0.6255
0.6628
0.5120
0.5517
0.5910
0.6293
0.6664
0.5160
0.5557
0.5948
0.6331
0.6700
0.5199
0.5596
0.5987
0.6368
0.6736
0.5239
0.5636
0.6026
0.6406
0.6772
0.5279
0.5675
0.6064
0.6443
0.6808
0.5319
0.5714
0.6103
0.6480
0.6844
0.5359
0.5753
0.6141
0.6517
0.6879
0.5
0.6
0.7
0.8
0.9
0.6915
0.7257
0.7580
0.7881
0.8159
0.6950
0.7291
0.7611
0.7910
0.8186
0.6985
0.7324
0.7642
0.7939
0.8212
0.7019
0.7357
0.7673
0.7967
0.8238
0.7054
0.7389
0.7704
0.7995
0.8264
0.7088
0.7422
0.7734
0.8023
0.8289
0.7123
0.7454
0.7764
0.8051
0.8315
0.7157
0.7486
0.7794
0.8078
0.8340
0.7190
0.7517
0.7823
0.8106
0.8365
0.7224
0.7549
0.7852
0.8133
0.8399
1.0
1.1
1.2
1.3
1.4
0.8413
0.8643
0.8849
0.9032
0.9192
0.8438
0.8665
0.8869
0.9049
0.9207
0.8461
0.8686
0.8888
0.9066
0.9222
0.8485
0.8708
0.8907
0.9082
0.9236
0.8508
0.8729
0.8925
0.9099
0.9251
0.8531
0.8749
0.8944
0.9115
0.9265
0.8554
0.8770
0.8962
0.9131
0.9279
0.8577
0.8790
0.8980
0.9147
0.9292
0.8599
0.8810
0.8997
0.9162
0.9306
0.8621
0.8830
0.9015
0.9177
0.9319
1.5
1.6
1.7
1.8
1.9
0.9332
0.9452
0.9554
0.9641
0.9713
0.9345
0.9463
0.9564
0.9649
0.9719
0.9357
0.9474
0.9573
0.9656
0.9726
0.9370
0.9484
0.9582
0.9664
0.9732
0.9382
0.9495
0.9591
0.9671
0.9738
0.9394
0.9505
0.9599
0.9678
0.9744
0.9406
0.9515
0.9608
0.9686
0.9750
0.9418
0.9525
0.9616
0.9693
0.9756
0.9429
0.9535
0.9625
0.9699
0.9761
0.9441
0.9545
0.9633
0.9706
0.9767
2.0
2.1
2.2
2.3
2.4
0.9772
0.9821
0.9861
0.9893
0.9918
0.9778
0.9826
0.9864
0.9896
0.9920
0.9783
0.9830
0.9868
0.9898
0.9922
0.9788
0.9834
0.9871
0.9901
0.9925
0.9793
0.9838
0.9875
0.9904
0.9927
0.9798
0.9842
0.9878
0.9906
0.9929
0.9803
0.9846
0.9881
0.9909
0.9931
0.9808
0.9850
0.9884
0.9911
0.9932
0.9812
0.9854
0.9887
0.9913
0.9934
0.9817
0.9857
0.9890
0.9916
0.9936
2.5
2.6
2.7
2.8
2.9
0.9938
0.9953
0.9965
0.9974
0.9981
0.9940
0.9955
0.9966
0.9975
0.9982
0.9941
0.9956
0.9967
0.9976
0.9982
0.9943
0.9957
0.9968
0.9977
0.9983
0.9945
0.9959
0.9969
0.9977
0.9984
0.9946
0.9960
0.9970
0.9978
0.9984
0.9948
0.9961
0.9971
0.9979
0.9985
0.9949
0.9962
0.9972
0.9979
0.9985
0.9951
0.9963
0.9973
0.9980
0.9986
0.9952
0.9964
0.9974
0.9981
0.9986
3.0
3.1
3.2
3.3
3.4
0.9987
0.9990
0.9993
0.9995
0.9997
0.9987
0.9991
0.9993
0.9995
0.9997
0.9987
0.9991
0.9994
0.9995
0.9997
0.9988
0.9991
0.9994
0.9996
0.9997
0.9988
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9994
0.9996
0.9997
0.9989
0.9992
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9996
0.9997
0.9990
0.9993
0.9995
0.9997
0.9998
196
Bibliografa
[1] Blake I.F. (1979) An introduction to applied probability. Wiley.
[2] Cohn D.L. (1980) Measure theory. Birkh
auser.
[3] Feller W. (1978) Introducci
on a la teora de las probabilidades y sus
aplicaciones. Vol. I y II. Limusa.
[4] Grimmett G.R., Stirzaker D.R. (1982) Probability and random processes. Clarendon Press.
[5] Grimmett G.R., Stirzaker D.R. (1986) Probability: an introduction. Oxford University Press.
[6] Grimmett G.R. , Stirzaker D.R. (2001) One thousand exercises in probability. Oxford University Press.
[7] Halmos P.R. (1960) Measure theory. Van Nostrand.
[8] Harris B. (1966) Theory of probability. AddisonWesley.
[9] Hoel P., Port S., Stone C. (1971) Probability theory. Houghton Mifflin
Co.
[10] Jacod D., Protter P. (2000) Probability essentials. SpringerVerlag.
[11] Karr A.F. (1993) Probability. SpringerVerlag.
[12] Laha R. G., Rohatgi V. K. (1979) Probability theory. John Wiley &
Sons.
[13] Miller I., Miller M. (1999) John E. Freunds mathematical statistics 6th ed. PrenticeHall.
[14] Mood A.M., Graybill F.A., Boes D.C. (1974) Introduction to the theory
of statistics. McGraw Hill.
[15] Parzen E. (1960) Modern probability theory and its applications. Wiley.
[16] Resnick S.I. (1999) A probability path. Birkh
auser.
[17] Rinc
on L. (2004) Que es la esperanza condicional? Miscel
anea
Matem
atica. No. 37, Agosto 2004, SMM.
197
198
Indice
-
algebra, 5
generada, 8
mnima generada, 8
-
algebra, 4
de Borel, 11
Borel-Cantelli, 34
Coeficiente de correlaci
on, 105
Conjunto
Borel medible, 11
Boreliano, 11
de Borel, 11
medible, 5
Continuidad de la prob, 29, 30
Convergencia
casi dondequiera, 151
casi segura, 151
casi siempre, 151
debil, 154
de eventos, 15
en distribuci
on, 154
en media, 153
en media cuadr
atica, 154
en probabilidad, 152
puntual, 150
puntual de v.a.s, 150
Convoluci
on, 120
Covarianza, 102
Desigualdad
de Bonferroni, 28
de Boole, 24
de Cauchy-Schwarz, 62
de Chebyshev, 179, 180
de Kounias, 28
de Markov, 178
Distribuci
on
arcoseno, 75
Bernoulli, 64, 188
Espacio
de probabilidad, 4, 5
medible, 5
muestral, 4
Esperanza
condicional, 96
de un vector, 99
de una funci
on de un vector, 99
de una v.a., 55
Estadsticas de orden, 141
Estadstica, 130
Evento, 4
Funci
on caracterstica, 171
f
ormula de inversi
on, 172, 173
teorema de continuidad, 174
teorema de unicidad, 173
199
Funci
on de densidad
condicional, 89
conjunta, 84
marginal, 87
Funci
on de distribuci
on, 44
condicional, 89
conjunta, 81
marginal, 87
Funci
on generadora
de momentos, 166
de probabilidad, 162
de un vector, 99
de una v.a., 59
muestral, 130
Vector aleatorio, 80
continuo, 81
discreto, 81
Independencia
de -
algebras, 33
de eventos, 32
de v.a.s, 91
Integral de Riemann-Stieltjes, 53
Lmite inferior, 15
Lmite superior, 15
Ley de los grandes n
umeros, 183
debil, 183
fuerte, 184
Matriz de varianzas, 99
Media, 56
muestral, 130
Medida de probabilidad, 5, 20
Momentos, 61
absolutos, 61
centrales, 61
centrales absolutos, 61
Muestra aleatoria, 130
Teorema
de cambio de variable, 114, 116
de convergencia dominada, 160
de convergencia mon
otona, 160
del lmite central, 185
Valor esperado, 56
Valor medio, 56
Valor promedio, 56
Variable aleatoria, 36
continua, 51
discreta, 50
mixta, 51
Varianza
condicional, 98
200